JP2021193564A - 機械学習方法、機械学習システム及び非一時的コンピュータ可読記憶媒体 - Google Patents

機械学習方法、機械学習システム及び非一時的コンピュータ可読記憶媒体 Download PDF

Info

Publication number
JP2021193564A
JP2021193564A JP2021094808A JP2021094808A JP2021193564A JP 2021193564 A JP2021193564 A JP 2021193564A JP 2021094808 A JP2021094808 A JP 2021094808A JP 2021094808 A JP2021094808 A JP 2021094808A JP 2021193564 A JP2021193564 A JP 2021193564A
Authority
JP
Japan
Prior art keywords
hypernetwork
classification model
parameter
parameters
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021094808A
Other languages
English (en)
Other versions
JP7226696B2 (ja
Inventor
智暘 陳
Chih-Yang Chen
哲瀚 張
Che-Han Chang
智威 張
Chang Edward
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HTC Corp
Original Assignee
HTC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HTC Corp filed Critical HTC Corp
Publication of JP2021193564A publication Critical patent/JP2021193564A/ja
Application granted granted Critical
Publication of JP7226696B2 publication Critical patent/JP7226696B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

【課題】機械学習方法、機械学習システム及び非一時的コンピュータ可読記憶媒体を提供する。【解決手段】機械学習方法は、(a)ハイパーパラメータ及びハイパーネットワークパラメータの初期値を取得し、(b)ハイパーパラメータ及びハイパーネットワークパラメータに基づいて第1の分類モデルパラメータを生成し、第1の分類モデルパラメータに基づいてトレーニングサンプルの分類結果に対してハイパーネットワークパラメータを更新し、(c)ハイパーパラメータ及び更新後のハイパーネットワークパラメータに基づいて第2の分類モデルパラメータを生成し、第2の分類モデルパラメータに基づいて検証サンプルの分類結果に対してハイパーパラメータを更新し、(d)ハイパーネットワークパラメータ及びハイパーパラメータを更新するように、ステップ(b)及び(c)を繰り返す。自動的に調整されたデータ拡張後のハイパーパラメータによって、分類モデルの精度を効果的に向上させ、過剰適合の問題を減少するできる。【選択図】図2

Description

本開示は、機械学習技術に関し、特にデータ拡張機能を有する機械学習技術に関する。
機械視覚の分野において、機械学習及びニューラルネットワークなどの技術を利用する場合が多い。機械視覚の重要な適用の1つは、ピクチャ又は画像に含まれるオブジェクト(例えば、人間の顔、ライセンスプレートなど)の検出及び認識であり、特徴抽出及び特徴分類によってオブジェクト検出を行うことができる。
ピクチャ又は画像におけるオブジェクトを正確に検出するとともに検出の精度を向上させるために、通常、多量のトレーニングデータ(例えば、トレーニング用の入力されたピクチャ及び対応する分類ラベル)を必要として、分類を担当するニューラルネットワークがトレーニングデータに基づいて入力されたピクチャと正確な分類ラベルとの関連性を学習できるようにする。実際の状況では、精度の要求に合致するために十分な量のトレーニングデータを取得することは、非常に困難であり、各種のオブジェクト検出の適用は、トレーニングデータのサンプル数が十分でない問題に直面することが多い。
本開示の一態様は、(a)ハイパーパラメータ及びハイパーネットワークパラメータの初期値を取得するステップと、(b)前記ハイパーパラメータ及び前記ハイパーネットワークパラメータに基づいて第1の分類モデルパラメータを生成し、前記第1の分類モデルパラメータに基づいてトレーニングサンプルの分類結果に対して前記ハイパーネットワークパラメータを更新するステップと、(c)前記ハイパーパラメータ及び更新後の前記ハイパーネットワークパラメータに基づいて第2の分類モデルパラメータを生成し、前記第2の分類モデルパラメータに基づいて検証サンプルの分類結果に対して前記ハイパーパラメータを更新するステップと、(d)前記ハイパーネットワークパラメータ及び前記ハイパーパラメータを更新するように、ステップ(b)及び(c)を繰り返すステップと、を含む機械学習方法を開示する。
本開示の別の態様は、ハイパーパラメータ及びハイパーネットワークパラメータの初期値を記憶するための記憶ユニットと、記憶ユニットに結合され、ハイパーネットワーク及び分類モデルを実行する処理ユニットと、を含み、前記処理ユニットは(a)前記ハイパーネットワークにより前記ハイパーパラメータ及び前記ハイパーネットワークパラメータに基づいて第1の分類モデルパラメータを生成し、前記分類モデルにより前記第1の分類モデルパラメータに基づいてトレーニングサンプルの分類結果を生成することで、前記ハイパーネットワークパラメータを更新する操作と、(b)前記ハイパーネットワークにより前記ハイパーパラメータ及び更新後の前記ハイパーネットワークパラメータに基づいて第2の分類モデルパラメータを生成し、前記分類モデルにより前記第2の分類モデルパラメータに基づいて検証サンプルの分類結果を生成することで、前記ハイパーパラメータを更新する操作と、(c)前記ハイパーネットワークパラメータ及び前記ハイパーパラメータを更新するように、操作(a)及び(b)を繰り返す操作と、を行うことに用いられる機械学習システムを開示する。
本開示の別の態様は、少なくとも1つの命令プログラムを含み、機械学習方法を実行するように、プロセッサにより前記少なくとも1つの命令プログラムを実行する非一時的コンピュータ可読記憶媒体であって、前記機械学習方法は(a)ハイパーパラメータ及びハイパーネットワークパラメータの初期値を取得するステップと、(b)ハイパーパラメータ及びハイパーネットワークパラメータに基づいて第1の分類モデルパラメータを生成し、前記第1の分類モデルパラメータに基づいてトレーニングサンプルの分類結果に対して前記ハイパーネットワークパラメータを更新するステップと、(c)前記ハイパーパラメータ及び更新後の前記ハイパーネットワークパラメータに基づいて第2の分類モデルパラメータを生成し、前記第2の分類モデルパラメータに基づいて検証サンプルの分類結果に対して前記ハイパーパラメータを更新するステップと、(d)前記ハイパーネットワークパラメータ及び前記ハイパーパラメータを更新するように、ステップ(b)及び(c)を繰り返すステップと、を含む非一時的コンピュータ可読記憶媒体を開示する。
本開示内容の上記実施例において、ハイパーネットワークによって複数の連続的検索モデルを生成し、勾配降下法でデータ拡張に使用されるハイパーパラメータを自動的に調整し、且つ、重み共有ポリシーを採用して演算速度及び精度を向上させ、データ拡張のパラメータを手動で調整する時間及び人的資源を節約できるだけでなく、トレーニングサンプルが十分でない問題を回避することもできる、ハイパーネットワークに基づくデータ拡張を提案する。また、オリジナルのトレーニングサンプルが十分であるか否かにもかかわらず、データ拡張によって、精度を効果的に向上させ、過剰適合の問題を減少することができるため、データ拡張に対してパラメータを自動的に調整することでモデル性能をより効果的に向上させることができる。
本開示による一実施例における機械学習システムを示す模式図である。 本開示による一実施例における機械学習方法を示す模式図である。 いくつかの実施例における機械学習方法のうちの1つのステップの詳細ステップを示すフローチャートである。 いくつかの実施例において処理ユニットにおける各素子が図3の詳細ステップを実行する模式図である。 図5Aは、本開示内容によるいくつかの実施例においてハイパーパラメータを変換して前記第1の分類モデルパラメータを計算する模式図である。図5Bは、本開示内容によるいくつかの実施例において第1の損失に基づいてハイパーネットワークパラメータを更新する模式図である。 本開示内容によるいくつかの実施例において分類モデルにより4つの検索分類モデルパラメータに基づいて形成された4つの検索分類モデルの内部アーキテクチャを示す模式図である。 いくつかの実施例における機械学習方法のうちの1つのステップの詳細ステップを示すフローチャートである。 いくつかの実施例において処理ユニットにおける各素子が図7の詳細ステップを実行する模式図である。 図9Aは、本開示内容によるいくつかの実施例においてハイパーパラメータを変換して第2の分類モデルパラメータを計算する模式図である。図9Bは、本開示内容によるいくつかの実施例において第2の損失に基づいてハイパーパラメータを更新する模式図である。
以下の開示は、本開示内容の異なる特徴を実施するために多くの異なる実施例又は例を提供する。特定の例における素子及び配置は、以下の検討において本開示を簡略化するために用いられる。検討される全ての例は、説明の目的のみに使用され、如何なる形態で本開示内容又はその例の範囲及び意味を制限するものではない。適切な場合、図面の間及び対応する文字説明において同一の又は類似する素子を表すために同一の符号を使用する。
本開示による一実施例における機械学習システム100を示す模式図である図1を参照されたい。機械学習システム100は、記憶ユニット120と、処理ユニット140と、を含む。処理ユニット140は、記憶ユニット120に結合される。
いくつかの実施例において、機械学習システム100は、コンピュータ、サーバ又は処理センターによって確立される。いくつかの実施例において、処理ユニット140は、プロセッサ、中央処理ユニット又は計算ユニットによって実現されてよい。いくつかの実施例において、記憶ユニット120は、メモリ、フラッシュメモリ、読み出し専用メモリ、ハードディスク又は同等の性能を有する如何なる記憶コンポーネントによって実現されてよい。
いくつかの実施例において、機械学習システム100は、記憶ユニット120及び処理ユニット140を含むものに限定されず、実行及び適用に必要な他の素子を更に含んでもよく、例として、出力インタフェース(例えば、情報を表示するための表示パネル)、入力インタフェース(例えば、タッチパネル、キーボード、マイクロフォン、スキャナ又はフラッシュメモリリーダ)及び通信回路(例えば、WiFi(登録商標)通信モジュール、ブルートゥース(登録商標)通信モジュール、無線通信ネットワーク通信モジュールなど)を更に含んでもよい。
図1に示すように、記憶ユニット120には少なくとも2種類のハイパーパラメータHP及びハイパーネットワークパラメータHNPのそれぞれの初期値が記憶されている。一実施例において、機械学習システム100は、この2種類のパラメータ(ハイパーパラメータHP及びハイパーネットワークパラメータHNP)に基づいてそれぞれデータ拡張及びラベル分類の操作を如何に行うかを決定し、詳細な方法については、後述する段落において詳しく説明される。データ拡張は、トレーニングデータの量を増加させる技術であり、データ拡大又はデータ補完とも呼ばれ、深層学習トレーニングを行う場合、多量のトレーニングデータを必要とすることが多く、データ拡張技術によってオリジナルのトレーニングデータに基づいてより多くの拡張トレーニングデータを生成することで、機械学習モデルのトレーニング時に過剰適合の現象が発生しないように確保することができる。
図1に示すように、処理ユニット140は、記憶ユニット120に結合され、且つ、対応するソフトウェア/ファームウェア命令プログラムに基づいてデータ拡張モデル142、ハイパーネットワーク144及び分類モデル146を実行するために用いられる。
いくつかの実施例において、データ拡張モデル142は、入力されたトレーニングサンプルに基づいてデータ拡張を行って複数の拡張トレーニングサンプルを生成するために用いられる。例えば、入力されたトレーニングサンプルがオリジナル画像(例えば、昼間で、路面で走行している自動車の写真)及びこのオリジナル画像に対応するトレーニングラベル(例えば、自動車、道路又は信号灯)である場合、データ拡張モデル142は、オリジナル画像に対して水平反転、垂直反転、回転、垂直シフト、水平シフト、拡大/縮小、輝度調整などの多種類の画像処理のうちの1つ又は複数の処理の組み合わせを行うために用いられる。
いくつかの実施例において、データ拡張モデル142は、ハイパーパラメータHPの数値に基づいてトレーニングサンプルにおけるオリジナル画像に対して異なる程度の処理を行う(例えば、異なる回転角度、異なる拡大/縮小程度を採用する)ことで複数の拡張トレーニングサンプルにおけるデータ拡張画像を生成する。これらのデータ拡張画像は、全てオリジナル画像に基づいて生成されたものであるが、データ拡張画像における画素の数値が既に画像処理によって変更されたため、分類モデル146にとって、複数の拡張トレーニングサンプルを異なるトレーニングサンプルと等価的に見なすことができ、これにより、トレーニングサンプルの数を拡大し、トレーニングサンプルが十分でない問題を解決することができる。
いくつかの実施例において、分類モデル146は、入力されたデータ(例えば、前述したデータ拡張画像)を分類することができ、例えば、入力された画像に含まれる車両、人間の顔、ライセンスプレート、文字、トーテム又は他の画像特徴オブジェクトを検出する。分類モデル146は、分類結果に基づいて対応するラベルを生成する。分類モデル146は、分類動作を実行する時に自身の分類モデルパラメータを参照する必要があることを説明しておきたい。
この実施例において、ハイパーネットワーク144は、ハイパーパラメータHPを分類モデル146に使用される分類モデルパラメータに変換するために用いられる。ハイパーネットワークは、ハイパーネットワークパラメータHNPの設定に基づいてハイパーパラメータHPを分類モデルパラメータに如何に変換するかを決定する。
つまり、いくつかの実施例において、ハイパーパラメータHPは、データ拡張モデル142がデータ拡張を如何に行うかを決定するだけでなく、ハイパーネットワーク144によって変換された後(分類モデルパラメータを形成する)、分類モデル146が分類操作を如何に行うかを決定するためにも用いられる。
本開示による一実施例の機械学習方法200を示す模式図である図2を合わせて参照されたく、図1に示す機械学習システム100は、図2の機械学習方法200を実行するために用いることができる。
図2に示すように、ステップS210において、まず、ハイパーパラメータHP及びハイパーネットワークパラメータHNPの初期値を取得する。いくつかの実施例において、このハイパーパラメータHP及びハイパーネットワークパラメータHNPの初期値は、従来のトレーニング経験から取得された平均値、手動で付与された所定値、又は乱数値であってよい。
ステップS220において、ハイパーパラメータ及びハイパーネットワークパラメータに基づいて第1の分類モデルパラメータを生成し、第1の分類モデルパラメータに基づいてトレーニングサンプルの分類結果に対してハイパーネットワークパラメータを更新する。一実施例において、ハイパーネットワーク144によりハイパーネットワークパラメータHNPに基づいてハイパーパラメータHPを第1の分類モデルパラメータに変換し、第1の分類モデルパラメータに基づいてトレーニングサンプルの分類結果に対してハイパーネットワークパラメータHNPを更新する。以下、具体的な例を参照しながら、ステップS220のいくつかの実施例における詳細ステップを更に説明する。
ステップS230において、ハイパーパラメータ及び更新後のハイパーネットワークパラメータに基づいて第2の分類モデルパラメータを生成し、第2の分類モデルパラメータに基づいて検証サンプルの分類結果に対してハイパーパラメータを更新する。一実施例において、ハイパーネットワーク144により更新後のハイパーネットワークパラメータHNPに基づいてハイパーパラメータHPを第2の分類モデルパラメータに変換し、第2の分類モデルパラメータに基づいて検証サンプルの分類結果に対してハイパーパラメータHPを更新する。以下、具体的な例を参照しながらステップS230のいくつかの実施例における詳細ステップを更に説明する。
つまり、ステップS220において、まず、ハイパーネットワークパラメータHNPを更新する。ステップS230において、新たなハイパーネットワークパラメータHNPに基づいてハイパーパラメータHPを更に更新する。
ステップS240において、収束条件に達したか否かを判定し、収束条件に達していない場合、再びステップS220に戻り、ハイパーネットワークパラメータHNP及びハイパーパラメータHPを更新するように、ステップS220及びS230を持続的に繰り返す。いくつかの実施例において、収束条件に達する前に、ハイパーネットワークパラメータHNP及びハイパーパラメータHPを段階的に繰り返し更新するように、ステップS220及びS230を持続的に行うことができる。
収束条件に達した(例えば、分類モデル146により与えられた分類結果の精度が閾値よりも高く、又はトレーニング回数が所定の回数に達し、又はトレーニングサンプルの数が所定のサンプル数に達し、又はトレーニング時間が所定の時間に達したなど)場合、機械学習システム100に対するトレーニングが既に完了したことを示し、引き続きトレーニング完了後の分類モデル146に従って後続の適用を行うことができる。例えば、トレーニング完了後の分類モデル146は、入力されたピクチャ、画像、ストリームにおけるオブジェクトの認識、人間の顔の認識、音声の認識又は動的検出などに用いることができる。
図3及び図4を合わせて参照されたく、図3は、いくつかの実施例におけるステップS220の詳細ステップS221乃至S225を示すフローチャートである。図4は、いくつかの実施例において処理ユニット140における各素子がステップS221乃至S225を実行する模式図である。
図4に示すように、初期状態で、ハイパーパラメータの初期値がハイパーパラメータHP1であり、ハイパーネットワークパラメータの初期値がハイパーネットワークパラメータHNP1であると仮定する。
図3及び4図に示すように、ステップS221において、データ拡張モデル142によりハイパーパラメータHP1に基づいてトレーニングサンプルTDに対してデータ拡張を行って拡張トレーニングサンプルETDを生成する。ステップS222において、ハイパーネットワーク144によりハイパーネットワークパラメータHNP1に基づいてハイパーパラメータHP1を第1の分類モデルパラメータMP1に変換する。
本開示内容によるいくつかの実施例におけるステップS222でハイパーネットワーク144によりハイパーネットワークパラメータHNP1に基づいてハイパーパラメータHP1を第1の分類モデルパラメータMP1に変換する模式図である図5Aを参照されたい。図5Aに示すように、ステップS222は、データ拡張空間SP1における1つのデータポイント(即ち、ハイパーパラメータHP1)を分類パラメータ空間SP2における1つのデータポイント(即ち、第1の分類モデルパラメータMP1)にマッピングするために用いられる。
図5Aにおいて、データ拡張空間SP1が2つの軸方向の平面座標系であることを例とし、例えば、一方の軸方向は、データ拡張時の回転角度の大きさを代表してよく、他方の軸方向は、データ拡張時のサイズスケーリングの比率の大きさを代表してよいため、データポイントのデータ拡張空間SP1における異なる位置は、異なるデータ拡張の設定に対応する。分類パラメータ空間SP2が3つの軸方向の立体座標系であることを例とし、3つの軸方向は、それぞれ畳み込み層の3つの重みの大きさを代表してよい。ステップS222において、ハイパーネットワークパラメータHNP1は、ハイパーネットワーク144がデータ拡張空間SP1におけるハイパーパラメータHP1を分類パラメータ空間SP2における第1の分類モデルパラメータMP1に如何にマッピングするかという両方間のマッピング関係を決定するために用いられる。ハイパーネットワークパラメータHNP1が変更されると、ハイパーネットワーク144は、ハイパーパラメータHP1を分類パラメータ空間SP2における他の位置にマッピングすることになる。
なお、説明の便宜上、図5Aのデータ拡張空間SP1及び分類パラメータ空間SP2は、単に例示的に説明するために2つの軸方向及び3つの軸方向を示したものであり、本開示内容は、これに限定されない。実際の適用において、データ拡張空間SP1及び分類パラメータ空間SP2は、異なる次元を有してもよく、いくつかの実施例において、分類パラメータ空間SP2は、より多くの軸方向を有する高次元空間である。
図3及び図4に示すように、ステップS223において、分類モデル146により第1の分類モデルパラメータMP1に基づいて拡張トレーニングサンプルETDを分類して拡張トレーニングサンプルETDに対応する第1の予測ラベルLPD1を生成する。
ステップS224において、処理ユニット140により比較演算法を実行し、第1の予測ラベルLPD1とトレーニングサンプルTDのトレーニングラベルLTDとを比較することで第1の損失L1を生成する。いくつかの実施例において、処理ユニット140は、第1の損失L1を得るように、第1の予測ラベルLPD1とトレーニングラベルLTDに対してクロスエントロピー計算を行う。
第1の損失L1の大きさは、分類モデル146による分類結果が正確であるか否かを代表し、分類モデル146により生成された第1の予測ラベルLPD1がトレーニングサンプルTDのトレーニングラベルLTDと同じである(又は類似する)場合、第1の損失L1の数値が小さく、現在、分類モデル146に使用される第1の分類モデルパラメータMP1が正確であることを代表する。分類モデル146により生成された第1の予測ラベルLPD1がトレーニングサンプルTDのトレーニングラベルLTDと異なる場合、第1の損失L1の数値が大きく、現在、分類モデル146に使用される第1の分類モデルパラメータMP1が正確ではないことを代表する。
ステップS225において、第1の損失L1に基づいてハイパーネットワークパラメータHNP2を更新する。本開示内容によるいくつかの実施例におけるステップS225で第1の損失L1に基づいてハイパーネットワークパラメータHNP2を更新する模式図である図5Bを合わせて参照されたい。図5Bに示すように、現在、分類モデル146に使用される第1の分類モデルパラメータMP1に対応する第1の損失L1を知った後、第1の損失L1を低下させるように、分類モデル146に逆伝播してバックステッピングすることで好ましい分類モデルパラメータMP1mを得ることができる。次に、ハイパーネットワーク144に逆伝播することで、好ましい分類モデルパラメータMP1mに基づいてバックステッピングすることで更新後のハイパーネットワークパラメータHNP2を得る。いくつかの実施例において、第1の損失L1を低下させるように、確率的勾配降下法によって好ましい分類モデルパラメータMP1mを見つける。
図4及び図5Bに示すように、ハイパーパラメータHP1が変わらないように維持される場合、ハイパーネットワーク144は、更新後のハイパーネットワークパラメータHNP2に基づいてハイパーパラメータHP1を好ましい分類モデルパラメータMP1mにマッピングする。
一部の実施例において、図5Aに示すように、ステップS222において、複数の検索値を導入し、これらの検索値は、ハイパーパラメータHP1の周囲で複数の検索ハイパーパラメータを形成するために用いられ、各検索値は、それぞれ各軸方向上の僅かな差分(例えば、偏向角度が0.5度増加/減少し、シフト量が1%増加/減少するなど)であってよく、図5Aに示すように、ハイパーパラメータHP1の周囲で4つの検索ハイパーパラメータHPe1〜HPe4が得られる。ハイパーネットワーク144は、ハイパーパラメータHP1を分類パラメータ空間SP2における第1の分類モデルパラメータMP1にマッピングするほか、ハイパーネットワークパラメータHNP1に基づいてこれらの検索値から形成された検索ハイパーパラメータHPe1〜HPe4を分類パラメータ空間SP2における他の4つの検索分類モデルパラメータMPe1〜MPe4にマッピングする。図5Aにおいて、検索分類モデルパラメータMPe1〜MPe4は、同様にオリジナルの第1の分類モデルパラメータMP1に隣接している。いくつかの実施例において、同様に第1の分類モデルパラメータMP1を1組の検索分類モデルパラメータと見なすことができる。
つまり、4つの検索ハイパーパラメータを加えた後、4つの検索ハイパーパラメータHPe1〜HPe4を別の4つの検索分類モデルパラメータMPe1〜MPe4にマッピングすることになる。上記検索ハイパーパラメータの数が4組であることは、単に例として説明しただけであるが、実際の適用において、検索ハイパーパラメータの数は、4組に限定されない。
一部の実施例において、4つの検索分類モデルパラメータMPe1〜MPe4に基づいて4つの検索分類モデルを生成し、これらの4つの検索分類モデルは、それぞれトレーニングサンプルTDを分類して4つの第1の予測ラベルLPD1を生成する。ステップS224において、生成された4つの第1の予測ラベルLPD1をそれぞれトレーニングラベルLTDと比較して計算することで、それぞれ4つの検索分類モデルに対応する4つの第1の損失L1を得ることができる。いくつかの実施例において、各々の第1の損失L1を得るように、4つの第1の予測ラベルLPD1のそれぞれとトレーニングラベルLTDに対してクロスエントロピー計算を行う。
この実施例において、ステップS225において、ハイパーネットワークパラメータHNP1をハイパーネットワークパラメータHNP2に更新するように、4つの検索分類モデル及び対応して計算された4つの第1の損失L1を合わせて考慮する。
本開示内容によるいくつかの実施例において分類モデル146により4つの検索分類モデルパラメータMPe1〜MPe4に基づいて形成された4つの検索分類モデル146e1〜146e4の内部アーキテクチャを示す模式図である図6を合わせて参照されたい。図6に示すように、検索分類モデル146e1〜146e4の各々は、n個のニューラルネットワーク構造層SL1、SL2、SL3、SL4、SL5…SLnを含む。いくつかの実施例において、各ニューラルネットワーク構造層SL1、SL2、SL3、SL4、SL5…SLnは、畳み込み層、プーリング層、正規化線形関数層、完全接続層又は他の種類のニューラルネットワーク構造層であってよい。
ここで、nは正の整数であり、一般的には、分類モデルの合計層数は、実際の適用の要件(分類の精度、分類目標物の複雑度、入力された画像の相違性)に応じて決定されてよく、一般的には、よく使われる層数nは、16〜128の間であってよいが、本開示内容は、特定の層数に限定されない。
例えば、ニューラルネットワーク構造層SL1及びSL2は、畳み込み層であってよく、ニューラルネットワーク構造層SL3は、プーリング層であってよく、ニューラルネットワーク構造層SL4及びSL5は、畳み込み層であってよく、ニューラルネットワーク構造層SL6は、プーリング層であってよく、ニューラルネットワーク構造層SL7は、畳み込み層であってよく、ニューラルネットワーク構造層SL8は、正規化線形関数層であってよく、ニューラルネットワーク構造層SLnは、完全接続層であってよいが、本開示内容は、これに限定されない。
図6に示すように、上記複数のニューラルネットワーク構造層SL1〜SLnは、第1の構造層部分P1と、第1の構造層部分P1に接続される第2の構造層部分P2とに分けられる。図6に示す例において、第1の構造層部分P1は、ニューラルネットワーク構造層SL1〜SL3を含み、第2の構造層部分P2は、ニューラルネットワーク構造層SL4〜SLnを含む。
4つの検索分類モデル146e1〜146e4を形成するための4組の検索分類モデルパラメータMPe1〜MPe4の各々は、第1の重みパラメータコンテンツ(第1の構造層部分P1の動作を決定するために用いられる)と、第2の重みパラメータコンテンツ(第2の構造層部分P2の動作を決定するために用いられる)と、を含む。いくつかの実施例において、4つの検索分類モデル146e1〜146e4の第2の構造層部分P2(即ち、ニューラルネットワーク構造層SL4〜SLn)は、同じ第2の重みパラメータコンテンツを共有し、ニューラルネットワーク構造層SL4〜SLn同士の動作論理は同じである。
つまり、検索分類モデル146e1のニューラルネットワーク構造層SL4と検索分類モデル146e2のニューラルネットワーク構造層SL4は、同じ重みパラメータを使用するとともに同じ論理で動作する。つまり、検索分類モデル146e1のニューラルネットワーク構造層SL5と検索分類モデル146e2のニューラルネットワーク構造層SL5は、同一の重みパラメータを使用するとともに同じ論理で動作し、このように類推する。
一方、4つの検索分類モデル146e1〜146e4の第1の構造層部分P1(即ち、ニューラルネットワーク構造層SL1〜SL3)の各々は、独立した第1の重みパラメータコンテンツを有し、ニューラルネットワーク構造層SL1〜SL3同士の動作論理は異なる。
図6の第1の構造層部分P1及び第2の構造層部分P2の分布は、単に例示的な説明である。本開示内容は、これに限定されない。
一実施例において、検索分類モデル146e1〜146e4のそれぞれの第1の構造層部分P1は、少なくとも第1の畳み込み層を含み、例えば、第1の構造層部分P1は、ニューラルネットワーク構造層SL1(即ち、第1の畳み込み層)を含み、検索分類モデル146e1〜146e4のそれぞれの第1の畳み込み層同士は、重みパラメータが異なる。この実施例において、残りのニューラルネットワーク構造層SL2〜SLnは、いずれも第2の構造層部分P2(図示せず)であり、第2の構造層部分P2は、第2の畳み込み層及び完全接続層を含み、検索分類モデル146e1〜146e4のそれぞれの第2の畳み込み層同士及び完全接続層同士は、重みパラメータが同じである。この実施例において、殆どのニューラルネットワーク構造層SL2〜SLnが全て同じ重みパラメータを共有し、少数のニューラルネットワーク構造層SL1のみが独立した重みパラメータを使用し、演算上、簡便であるため、全体的なトレーニング速度が速く、必要とされる演算リソースが少なく、実験したところ、ある程度の精度を維持することもできる。
図7及び図8を合わせて参照されたく、図7は、いくつかの実施例におけるステップS230の詳細ステップS231乃至S234を示すフローチャートである。図8は、いくつかの実施例において処理ユニット140における各素子がステップS231乃至S234を実行する模式図である。
図3及び図4に示すステップS220を経た後、ステップS230に移行する時、図8に示すように、ハイパーパラメータの現在の数値は、ハイパーパラメータHP1のままであるが、ハイパーネットワークパラメータの現在の数値は、既にハイパーネットワークパラメータHNP2に更新された。
図7及び図8に示すように、ステップS231において、ハイパーネットワーク144により更新後のハイパーネットワークパラメータHNP2に基づいてハイパーパラメータHP1を第2の分類モデルパラメータMP2に変換し、この場合、第2の分類モデルパラメータMP2は、前の図5Bの実施例においてバックステッピングして得られた好ましい分類モデルパラメータMP1mと同様である。本開示内容によるいくつかの実施例におけるステップS231でハイパーパラメータHP1を変換して第2の分類モデルパラメータMP2を計算する模式図である図9Aを合わせて参照されたい。図9Aに示すように、ステップS231は、データ拡張空間SP1における1つのデータポイント(即ち、ハイパーパラメータHP1)を分類パラメータ空間SP2における1つのデータポイント(即ち、第2の分類モデルパラメータMP2)にマッピングするために用いられる。
ステップS231において、ハイパーネットワークパラメータHNP2は、ハイパーネットワーク144がデータ拡張空間SP1におけるハイパーパラメータHP1を分類パラメータ空間SP2における第2の分類モデルパラメータMP2にマッピングするかという両方間のマッピング関係を決定するために用いられる。
図9Aを図5Aと比較し、ハイパーネットワークパラメータHNP2が既に前の実施例のハイパーネットワークパラメータHNP1(図5Aに示す)と異なるため、ハイパーネットワーク144は、同じハイパーパラメータHP1を分類パラメータ空間SP2における新たな位置(即ち、第2の分類モデルパラメータMP2)にマッピングする。
図7及び図8に示すように、ステップS232において、分類モデル146により第2の分類モデルパラメータMP2に基づいて検証サンプルVDを分類して検証サンプルVDに対応する第2の予測ラベルLPD2を生成する。
ステップS233において、処理ユニット140により比較演算法を実行し、第2の予測ラベルLPD2と検証サンプルVDの検証ラベルLVDとを比較することで第2の損失L2を生成する。いくつかの実施例において、処理ユニット140は、第2の損失L2を得るように、第2の予測ラベルLPD2と検証ラベルLVDに対してクロスエントロピー計算を行う。
第2の損失L2の大きさは、分類モデル146による分類結果が正確であるか否かを代表し、分類モデル146により生成された第2の予測ラベルLPD2が検証サンプルVDの検証ラベルLVDと同じである(又は類似する)場合、第2の損失L2の数値が小さく、現在、分類モデル146に使用される第2の分類モデルパラメータMP2が正確であることを代表する。分類モデル146により生成された第2の予測ラベルLPD2が検証サンプルVDの検証ラベルLVDと異なる場合、第2の損失L2の数値が大きく、現在、分類モデル146に使用される第2の分類モデルパラメータMP2が正確ではないことを代表する。
ステップS234において、第2の損失L2に基づいてハイパーパラメータHP1をハイパーパラメータHP2に更新する。本開示内容によるいくつかの実施例におけるステップS234で第2の損失L2に基づいてハイパーパラメータHP2を更新する模式図である図9Bを合わせて参照されたい。図9Bに示すように、現在、分類モデル146に使用される第2の分類モデルパラメータMP2に対応する第2の損失L2を知った後、第2の損失L2を低下させるように、分類モデル146に逆伝播してバックステッピングすることで好ましい分類モデルパラメータMP2mを得ることができる。次に、ハイパーネットワーク144に逆伝播することで、好ましい分類モデルパラメータMP2mに基づいてバックステッピングすることで更新後のハイパーパラメータHP2を得る。いくつかの実施例において、第2の損失L2を低下させるように、確率的勾配降下法によって好ましい分類モデルパラメータMP2mを見つける。
図8及び図9Bに示すように、ハイパーネットワーク144に使用されるハイパーネットワークパラメータHNP2が変わらないように維持される場合、ハイパーネットワーク144は、ハイパーネットワークパラメータHNP2に基づいて更新後のハイパーパラメータHP2を好ましい分類モデルパラメータMP2mにマッピングする。
以上を纏めると、ステップS220において、まず、ハイパーネットワークパラメータHNP1をハイパーネットワークパラメータHNP2に更新する。ステップS230において、ハイパーネットワークパラメータHNP2に基づいてハイパーパラメータHP1をハイパーパラメータHP2に更新する。ステップS230が完了した後、収束条件に達していないと、ハイパーパラメータHP2に基づいてステップS220に戻り、ハイパーパラメータHP2及びハイパーネットワークパラメータHNP2を入力条件として再びステップS220及びS230を行うことができ、再びハイパーパラメータ及びハイパーネットワークパラメータを更新することができる。このように類推すると、収束条件を満たすまで、ハイパーネットワークパラメータ及びハイパーパラメータを繰り返し更新することができる。
図1に示すように、機械学習システム100のトレーニング過程において、ハイパーパラメータHPのコンテンツに基づいてデータ拡張モデル142のデータ拡張操作を制御し、且つ、ハイパーパラメータHP(ハイパーネットワーク144により変換された)に基づいて分類モデル146の分類操作を制御することができる。なお、本開示内容の異なる検索分類モデルの間で重み共有を行うことができ、このように記憶空間及び演算リソースを節約することができ、トレーニングの速度の加速に寄与する。また、本開示内容の機械学習システム100は、データ拡張モデルを利用して等価のトレーニングサンプルTDの等価の量を増加することができ、これにより、トレーニングして得られた分類モデル146は、多量のトレーニングサンプルTDを必要とせずに高い精度を保つことができる。
現在、コンピュータ視覚分野において、深層学習の精度は、主に多量の標識されたトレーニングデータによることである。トレーニングデータの品質、量及び多様性の向上に伴い、通常、分類モデルの性能もそれに伴って向上する。しかしながら、分類モデルをトレーニングするための高品質のデータを収集することが困難であり、分類モデルの性能もこれによって向上できない場合が多い。この問題を解決する方法の1つは、例えば、回転角度、回転形態又は輝度調整比などのデータ拡張のパラメータを専門家に手動で設計させることであり、これらの手動で設計されたデータ拡張は、高性能のコンピュータ視覚の分類モデルのトレーニングに一般的に使用されている。機械学習を使用してデータ拡張用のパラメータを自動的に見つけて決定すれば、より効率的になり、且つより高い精度を有することができる。本開示内容の上記実施例において、ハイパーネットワークによって複数の連続的検索モデルを生成し、勾配降下法でデータ拡張に使用されるハイパーパラメータを自動的に調整し、且つ、重み共有ポリシーを採用して演算速度及び精度を向上させ、データ拡張のパラメータを手動で調整する時間及び人的資源を節約できるだけでなく、トレーニングサンプルが十分でない問題を回避することもできる、ハイパーネットワークに基づくデータ拡張を提案する。また、オリジナルのトレーニングサンプルが十分であるか否かにもかかわらず、データ拡張によって、精度を効果的に向上させ、過剰適合の問題を減少することができるため、データ拡張に対してパラメータを自動的に調整することでモデル性能をより効果的に向上させることができる。
適用の点では、本開示内容の機械学習方法及び機械学習システムは、機械視覚、画像分類、又はデータ分類を有する様々な分野で使用することができ、一例として、この機械学習方法は、医療画像の分類に使用することができ、例えば、正常状態、肺炎に罹患している場合、気管支炎に罹患している場合、心疾患に罹患している場合のX線画像を区別することができ、又は、正常な胎児、胎児位置異常の超音波画像を区別することができる。一方、この機械学習方法は、自動運転により収集された画像の分類に使用することもでき、例えば、通常の道路、障害物のある道路及び他の車両の道路状況の画像を区別することができる。他にもそれに類似する機械学習分野があり、例えば、本開示内容の機械学習方法及び機械学習システムは、音響スペクトル認識、光学スペクトル認識、ビッグデータ解析、データ特徴認識などの機械学習に関連する他の範囲にも使用することができる。
本開示内容の別の実施例は、少なくとも1つの命令プログラムを含み、図2、図3及び図7の実施例における機械学習方法200を実行するように、プロセッサ(例えば、図1の処理ユニット140)により少なくとも1つの命令プログラムを実行する非一時的コンピュータ可読記憶媒体である。
本開示の特定の実施例として上記実施例を開示したが、これらの実施例は、本開示を制限することを意図するものではない。当業者であれば、本開示の原理及び精神に違反することなく、本開示において様々な置換及び改善を行うことができる。従って、本開示の保護範囲は、添付される特許請求の範囲によって決定されるものとする。
100 機械学習システム
120 記憶ユニット
140 処理ユニット
142 データ拡張モデル
144 ハイパーネットワーク
146 分類モデル
200 機械学習方法
S210、S220、S230、S240 ステップ
S221、S222、S223、S224、S225 ステップ
S231、S232、S233、S234 ステップ
HP、HP1、HP2 ハイパーパラメータ
HNP、HNP1、HNP2 ハイパーネットワークパラメータ
MP1 第1の分類モデルパラメータ
MP2 第2の分類モデルパラメータ
MP1m、MP2m 好ましい分類モデルパラメータ
SP1 データ拡張空間
SP2 分類パラメータ空間
HPe1、HPe2、HPe3、HPe4 検索ハイパーパラメータ
MPe1、MPe2、MPe3、MPe4 検索分類モデルパラメータ
146e1、146e2、146e3、146e4 検索分類モデル
SL1、SL2、SL3、SL4、SL5 ニューラルネットワーク構造層
SL6、SL7、SL8、SLn ニューラルネットワーク構造層
P1 第1の構造層部分
P2 第2の構造層部分
TD トレーニングサンプル
LTD トレーニングラベル
ETD 拡張トレーニングサンプル
VD 検証サンプル
LVD 検証ラベル
LPD1 第1の予測ラベル
LPD2 第2の予測ラベル
L1 第1の損失
L2 第2の損失

Claims (20)

  1. (a)ハイパーパラメータ及びハイパーネットワークパラメータの初期値を取得するステップと、
    (b)前記ハイパーパラメータ及び前記ハイパーネットワークパラメータに基づいて第1の分類モデルパラメータを生成し、前記第1の分類モデルパラメータに基づいてトレーニングサンプルの分類結果に対して前記ハイパーネットワークパラメータを更新するステップと、
    (c)前記ハイパーパラメータ及び更新後の前記ハイパーネットワークパラメータに基づいて第2の分類モデルパラメータを生成し、前記第2の分類モデルパラメータに基づいて検証サンプルの分類結果に対して前記ハイパーパラメータを更新するステップと、
    (d)前記ハイパーネットワークパラメータ及び前記ハイパーパラメータを更新するように、ステップ(b)及び(c)を繰り返すステップと、
    を含む機械学習方法。
  2. ステップ(b)は、
    (b1)データ拡張モデルにより前記ハイパーパラメータに基づいて前記トレーニングサンプルに対してデータ拡張を行って拡張トレーニングサンプルを生成するステップと、
    (b2)ハイパーネットワークにより前記ハイパーネットワークパラメータに基づいて前記ハイパーパラメータを前記第1の分類モデルパラメータに変換するステップと、
    (b3)分類モデルにより前記第1の分類モデルパラメータに基づいて前記拡張トレーニングサンプルを分類して前記拡張トレーニングサンプルに対応する第1の予測ラベルを生成するステップと、
    (b4)前記第1の予測ラベルと前記トレーニングサンプルのトレーニングラベルとを比較することで生成された第1の損失に基づいて前記ハイパーネットワークパラメータを更新するステップと、を含む請求項1に記載の機械学習方法。
  3. ステップ(b2)は、
    前記ハイパーネットワークにより前記ハイパーネットワークパラメータ及び複数の検索値に基づいて前記ハイパーパラメータを前記検索値に対応する複数の検索分類モデルパラメータに変換するステップを含み、
    ステップ(b3)は、
    前記分類モデルにより前記複数の検索分類モデルパラメータに基づいて、それぞれ前記拡張トレーニングサンプルを分類して前記拡張トレーニングサンプルに対応する複数の第1の予測ラベルを生成する複数の検索分類モデルをそれぞれ形成するステップを含み、
    ステップ(b4)は、
    前記複数の第1の予測ラベルと前記トレーニングサンプルの前記トレーニングラベルとを比較することで前記複数の検索分類モデルに対応する複数の第1の損失を計算するステップと、
    前記複数の検索分類モデル及びそれらに対応する前記複数の第1の損失に基づいて前記ハイパーネットワークパラメータを更新するステップと、を含む請求項2に記載の機械学習方法。
  4. ステップ(b4)において、
    前記複数の第1の損失を得るように、前記複数の第1の予測ラベルのそれぞれと前記トレーニングラベルに対してクロスエントロピー計算を行う請求項3に記載の機械学習方法。
  5. 前記複数の検索分類モデルの各々は、複数のニューラルネットワーク構造層を含み、前記複数のニューラルネットワーク構造層は、第1の構造層部分と、前記第1の構造層部分に接続される第2の構造層部分とに分けられ、前記複数の検索分類モデルを形成するための前記複数の検索分類モデルパラメータの各々は、前記第1の構造層部分の動作を決定するための第1の重みパラメータコンテンツと、前記第2の構造層部分の動作を決定するための第2の重みパラメータコンテンツと、を含む請求項3に記載の機械学習方法。
  6. 前記複数の検索分類モデルの前記複数の第2の構造層部分は、同じ前記第2の重みパラメータコンテンツを共有し、前記複数の第2の構造層部分同士の動作論理は同じである請求項5に記載の機械学習方法。
  7. 前記第1の構造層部分は、少なくとも1つの第1の畳み込み層を含み、前記複数の検索分類モデルのそれぞれの前記少なくとも1つの第1の畳み込み層同士は、重みパラメータが異なっている請求項5に記載の機械学習方法。
  8. 前記第2の構造層部分は、少なくとも1つの第2の畳み込み層と、少なくとも1つの完全接続層と、を含み、前記複数の検索分類モデルのそれぞれの前記少なくとも1つの第2の畳み込み層同士及び前記少なくとも1つの完全接続層同士は、重みパラメータが同じである請求項5に記載の機械学習方法。
  9. ステップ(c)は、
    (c1)ハイパーネットワークにより更新後の前記ハイパーネットワークパラメータに基づいて前記ハイパーパラメータを前記第2の分類モデルパラメータに変換するステップと、
    (c2)分類モデルにより前記第2の分類モデルパラメータに基づいて前記検証サンプルを分類して前記検証サンプルに対応する第2の予測ラベルを生成するステップと、
    (c3)前記第2の予測ラベルと前記検証サンプルの検証ラベルとを比較することで生成された第2の損失に基づいて前記ハイパーパラメータを更新するステップと、を含む請求項1に記載の機械学習方法。
  10. ステップ(c3)において、
    前記第2の損失を得るように、前記第2の予測ラベルと前記検証ラベルに対してクロスエントロピー計算を行う請求項9に記載の機械学習方法。
  11. ハイパーパラメータ及びハイパーネットワークパラメータの初期値を記憶するための記憶ユニットと、
    前記記憶ユニットに結合され、ハイパーネットワーク及び分類モデルを実行する処理ユニットと、を含み、
    前記処理ユニットは、
    (a)前記ハイパーネットワークにより前記ハイパーパラメータ及び前記ハイパーネットワークパラメータに基づいて第1の分類モデルパラメータを生成し、前記分類モデルにより前記第1の分類モデルパラメータに基づいてトレーニングサンプルの分類結果を生成することで、前記ハイパーネットワークパラメータを更新する操作と、
    (b)前記ハイパーネットワークにより前記ハイパーパラメータ及び更新後の前記ハイパーネットワークパラメータに基づいて第2の分類モデルパラメータを生成し、前記分類モデルにより前記第2の分類モデルパラメータに基づいて検証サンプルの分類結果を生成することで、前記ハイパーパラメータを更新する操作と、
    (c)前記ハイパーネットワークパラメータ及び前記ハイパーパラメータを繰り返し更新するように、操作(a)及び(b)を繰り返す操作と、を行うことに用いられる機械学習システム。
  12. 前記処理ユニットは、更にデータ拡張モデルを実行するために用いられ、前記処理ユニットにより行われる操作(a)は、
    (a1)前記データ拡張モデルにより前記ハイパーパラメータに基づいて前記トレーニングサンプルに対してデータ拡張を行って拡張トレーニングサンプルを生成することと、
    (a2)前記ハイパーネットワークにより前記ハイパーネットワークパラメータに基づいて前記ハイパーパラメータを前記第1の分類モデルパラメータに変換することと、
    (a3)前記分類モデルにより前記第1の分類モデルパラメータに基づいて前記拡張トレーニングサンプルを分類して前記拡張トレーニングサンプルに対応する第1の予測ラベルを生成することと、
    (a4)前記第1の予測ラベルと前記トレーニングサンプルのトレーニングラベルとを比較することで生成された第1の損失に基づいて前記ハイパーネットワークパラメータを更新することと、を含む請求項11に記載の機械学習システム。
  13. 前記処理ユニットにより行われる操作(a2)は、
    前記ハイパーネットワークにより前記ハイパーネットワークパラメータ及び複数の検索値に基づいて前記ハイパーパラメータを前記検索値に対応する複数の検索分類モデルパラメータに変換することを含み、
    前記処理ユニットにより行われる操作(a3)は、
    前記分類モデルにより前記複数の検索分類モデルパラメータに基づいて、それぞれ前記拡張トレーニングサンプルを分類して前記拡張トレーニングサンプルに対応する複数の第1の予測ラベルを生成する複数の検索分類モデルをそれぞれ形成することを含み、
    前記処理ユニットにより行われる操作(a4)は、
    前記複数の第1の予測ラベルと前記トレーニングサンプルの前記トレーニングラベルとを比較することで前記複数の検索分類モデルに対応する複数の第1の損失を計算することと、
    前記複数の検索分類モデル及びそれらに対応する前記複数の第1の損失に基づいて前記ハイパーネットワークパラメータを更新することと、を含む請求項12に記載の機械学習システム。
  14. 前記処理ユニットにより行われる操作(a4)は、
    前記複数の第1の損失を得るように、前記複数の第1の予測ラベルのそれぞれと前記トレーニングラベルに対してクロスエントロピー計算を行うことを含む請求項13に記載の機械学習システム。
  15. 前記複数の検索分類モデルの各々は、複数のニューラルネットワーク構造層を含み、前記複数のニューラルネットワーク構造層は、第1の構造層部分と、前記第1の構造層部分に接続される第2の構造層部分とに分けられ、前記複数の検索分類モデルを形成するための前記複数の検索分類モデルパラメータの各々は、前記第1の構造層部分の動作を決定するための第1の重みパラメータコンテンツと、前記第2の構造層部分の動作を決定するための第2の重みパラメータコンテンツと、を含む請求項13に記載の機械学習システム。
  16. 前記複数の検索分類モデルの前記複数の第2の構造層部分は、同じ前記第2の重みパラメータコンテンツを共有し、前記複数の第2の構造層部分同士の動作論理は同じである請求項15に記載の機械学習システム。
  17. 前記第1の構造層部分は、少なくとも1つの第1の畳み込み層を含み、前記複数の検索分類モデルのそれぞれの前記少なくとも1つの第1の畳み込み層同士は、重みパラメータが異なっている請求項15に記載の機械学習システム。
  18. 前記第2の構造層部分は、少なくとも1つの第2の畳み込み層と、少なくとも1つの完全接続層と、を含み、前記複数の検索分類モデルのそれぞれの前記少なくとも1つの第2の畳み込み層同士及び前記少なくとも1つの完全接続層同士は、重みパラメータが同じである請求項15に記載の機械学習システム。
  19. 前記処理ユニットにより行われる操作(b)は、
    (b1)前記ハイパーネットワークにより更新後の前記ハイパーネットワークパラメータに基づいて前記ハイパーパラメータを前記第2の分類モデルパラメータに変換することと、
    (b2)前記分類モデルにより前記第2の分類モデルパラメータに基づいて前記検証サンプルを分類して前記検証サンプルに対応する第2の予測ラベルを生成することと、
    (b3)前記第2の予測ラベルと前記検証サンプルの検証ラベルとを比較することで生成された第2の損失に基づいて前記ハイパーパラメータを更新することと、を含む請求項11に記載の機械学習システム。
  20. 少なくとも1つの命令プログラムを含み、機械学習方法を実行するように、プロセッサにより前記少なくとも1つの命令プログラムを実行する非一時的コンピュータ可読記憶媒体であって、前記機械学習方法は、
    (a)ハイパーパラメータ及びハイパーネットワークパラメータの初期値を取得するステップと、
    (b)前記ハイパーパラメータ及び前記ハイパーネットワークパラメータに基づいて第1の分類モデルパラメータを生成し、前記第1の分類モデルパラメータに基づいてトレーニングサンプルの分類結果に対して前記ハイパーネットワークパラメータを更新するステップと、
    (c)前記ハイパーパラメータ及び更新後の前記ハイパーネットワークパラメータに基づいて第2の分類モデルパラメータを生成し、前記第2の分類モデルパラメータに基づいて検証サンプルの分類結果に対して前記ハイパーパラメータを更新するステップと、
    (d)前記ハイパーネットワークパラメータ及び前記ハイパーパラメータを繰り返し更新するように、ステップ(b)及び(c)を繰り返すステップと、
    を含む非一時的コンピュータ可読記憶媒体。
JP2021094808A 2020-06-05 2021-06-04 機械学習方法、機械学習システム及び非一時的コンピュータ可読記憶媒体 Active JP7226696B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202063034993P 2020-06-05 2020-06-05
US63/034,993 2020-06-05

Publications (2)

Publication Number Publication Date
JP2021193564A true JP2021193564A (ja) 2021-12-23
JP7226696B2 JP7226696B2 (ja) 2023-02-21

Family

ID=76283633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021094808A Active JP7226696B2 (ja) 2020-06-05 2021-06-04 機械学習方法、機械学習システム及び非一時的コンピュータ可読記憶媒体

Country Status (6)

Country Link
US (1) US20210383224A1 (ja)
EP (1) EP3920102A1 (ja)
JP (1) JP7226696B2 (ja)
KR (1) KR20210152402A (ja)
CN (1) CN113762327A (ja)
TW (1) TWI831016B (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102479679B1 (ko) * 2021-12-31 2022-12-21 주식회사 애자일소다 데이터 증강과 오토 레이블링을 이용한 데이터 구축 장치 및 방법
KR102656568B1 (ko) * 2022-03-31 2024-04-12 주식회사 에임퓨처 데이터를 분류하는 방법 및 장치
CN117877103B (zh) * 2024-03-13 2024-05-24 宁波市眼科医院 一种基于深度元学习的角膜炎智能筛查方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190251439A1 (en) * 2016-10-28 2019-08-15 Google Llc Neural architecture search
WO2020070876A1 (ja) * 2018-10-05 2020-04-09 日本電気株式会社 教師データ拡張装置、教師データ拡張方法およびプログラム
JP2020087103A (ja) * 2018-11-28 2020-06-04 株式会社ツバサファクトリー 学習方法、コンピュータプログラム、分類器、及び生成器

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI675335B (zh) * 2017-06-09 2019-10-21 宏達國際電子股份有限公司 訓練任務優化系統、訓練任務優化方法及其非暫態電腦可讀媒體
JP6773618B2 (ja) * 2017-09-04 2020-10-21 株式会社東芝 学習装置、情報処理装置、学習方法およびプログラム
KR102521054B1 (ko) * 2017-10-18 2023-04-12 삼성전자주식회사 조기 중단에 기반한 심층 신경망의 연산 제어 방법 및 시스템
KR101864286B1 (ko) 2017-11-10 2018-07-04 주식회사 한컴엠디에스 머신 러닝 알고리즘을 이용하는 방법 및 장치
JP7085158B2 (ja) * 2018-04-26 2022-06-16 日本電信電話株式会社 ニューラルネットワーク学習装置、ニューラルネットワーク学習方法、プログラム
US10810996B2 (en) * 2018-07-31 2020-10-20 Nuance Communications, Inc. System and method for performing automatic speech recognition system parameter adjustment via machine learning
CN110163234B (zh) * 2018-10-10 2023-04-18 腾讯科技(深圳)有限公司 一种模型训练方法、装置和存储介质
CN110110861B (zh) * 2019-05-09 2021-11-26 北京市商汤科技开发有限公司 确定模型超参数及模型训练的方法和装置、存储介质
CN110231360B (zh) * 2019-05-31 2020-06-26 华南农业大学 电镜像差的确定方法、消除方法及装置
CN110580496A (zh) * 2019-07-11 2019-12-17 南京邮电大学 一种基于熵最小化的深度迁移学习系统及方法
CN110889489A (zh) * 2019-11-08 2020-03-17 北京小米移动软件有限公司 神经网络的训练方法、图像识别方法及其装置
CN111126564B (zh) * 2019-11-27 2023-08-08 东软集团股份有限公司 一种神经网络结构搜索方法、装置及设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190251439A1 (en) * 2016-10-28 2019-08-15 Google Llc Neural architecture search
WO2020070876A1 (ja) * 2018-10-05 2020-04-09 日本電気株式会社 教師データ拡張装置、教師データ拡張方法およびプログラム
JP2020087103A (ja) * 2018-11-28 2020-06-04 株式会社ツバサファクトリー 学習方法、コンピュータプログラム、分類器、及び生成器

Also Published As

Publication number Publication date
TW202147139A (zh) 2021-12-16
JP7226696B2 (ja) 2023-02-21
EP3920102A1 (en) 2021-12-08
KR20210152402A (ko) 2021-12-15
US20210383224A1 (en) 2021-12-09
TWI831016B (zh) 2024-02-01
CN113762327A (zh) 2021-12-07

Similar Documents

Publication Publication Date Title
US11610115B2 (en) Learning to generate synthetic datasets for training neural networks
US11640518B2 (en) Method and apparatus for training a neural network using modality signals of different domains
US10275719B2 (en) Hyper-parameter selection for deep convolutional networks
CN106204522B (zh) 对单个图像的联合深度估计和语义标注
JP2021193564A (ja) 機械学習方法、機械学習システム及び非一時的コンピュータ可読記憶媒体
WO2020151167A1 (zh) 目标跟踪方法、装置、计算机装置及可读存储介质
KR20170140214A (ko) 신경망을 위한 훈련 기준으로서의 필터 특이성
KR20180044295A (ko) 트레이닝된 머신 학습 모델의 성능을 개선시키는 방법
KR20180037192A (ko) 미지의 클래스들의 검출 및 미지의 클래스들에 대한 분류기들의 초기화
US10964033B2 (en) Decoupled motion models for object tracking
JP7196218B2 (ja) 画像質問応答方法、装置、コンピュータ装置、媒体及びプログラム
KR20180048930A (ko) 분류를 위한 강제된 희소성
US20210192343A1 (en) Method and device for training generative adversarial network for converting between heterogeneous domain data
CN110956255A (zh) 难样本挖掘方法、装置、电子设备及计算机可读存储介质
CN110533046B (zh) 一种图像实例分割方法、装置、计算机可读存储介质及电子设备
US20190094941A1 (en) Power state control of a mobile device
US20230237342A1 (en) Adaptive lookahead for planning and learning
CN114926636A (zh) 一种点云语义分割方法、装置、设备及存储介质
CN116710974A (zh) 在合成数据系统和应用程序中使用域对抗学习的域适应
Divakarla et al. Semantic Segmentation for Autonomous Driving
US20230229916A1 (en) Scalable tensor network contraction using reinforcement learning
US11689750B2 (en) Workload-based dynamic throttling of video processing functions using machine learning
US20240160888A1 (en) Realistic, controllable agent simulation using guided trajectories and diffusion models
US20230290057A1 (en) Action-conditional implicit dynamics of deformable objects
Tang Traffic flow prediction using convolutional neural network accelerated by spark distributed cluster

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230127

R150 Certificate of patent or registration of utility model

Ref document number: 7226696

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150