JP7291183B2 - モデルをトレーニングするための方法、装置、デバイス、媒体、およびプログラム製品 - Google Patents

モデルをトレーニングするための方法、装置、デバイス、媒体、およびプログラム製品 Download PDF

Info

Publication number
JP7291183B2
JP7291183B2 JP2021153612A JP2021153612A JP7291183B2 JP 7291183 B2 JP7291183 B2 JP 7291183B2 JP 2021153612 A JP2021153612 A JP 2021153612A JP 2021153612 A JP2021153612 A JP 2021153612A JP 7291183 B2 JP7291183 B2 JP 7291183B2
Authority
JP
Japan
Prior art keywords
model
constraint
augmented
classification result
samples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021153612A
Other languages
English (en)
Other versions
JP2022006174A (ja
Inventor
若 愚 郭
宇 寧 杜
威 威 劉
暁 ▲ティン▼ 殷
喬 趙
其 文 劉
然 畢
曉 光 胡
佃 海 于
艶 軍 馬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022006174A publication Critical patent/JP2022006174A/ja
Application granted granted Critical
Publication of JP7291183B2 publication Critical patent/JP7291183B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、人工知能の分野、より具体的には、モデルをトレーニングするための方法、装置、デバイス、コンピュータ可読記憶媒体、およびコンピュータプログラム製品に関する。
情報技術の発展に伴い、ニューラルネットワークは、例えばコンピュータビジョン、音声認識、および情報検索などの様々な機械学習タスクで広く使用されている。光学式文字認識(OCR)は、ピクチャー情報を編集および保存が容易なテキスト情報に変換できるテクノロジーである。ニューラルネットワークを使用してOCR認識することは、効果的な認識方法として検証されている。但し、トレーニングされたモデルの精度を向上させる必要がある。
本開示の例示的な実施例によれば、モデルをトレーニングするための方法、装置、デバイス、コンピュータ可読記憶媒体、およびコンピュータプログラム製品が提供される。
本開示の第1の態様には、モデルをトレーニングするための方法を提供した。この方法は、複数の元のサンプルに対応する複数の拡張サンプルセットを特定することと、前記複数の拡張サンプルセットに基づいて第1のモデルに従って同じ拡張サンプルセット内の異なる拡張サンプルに対する第1のモデルの出力間の差分に関している第1の制約を特定することと、前記複数の拡張サンプルセットに基づいて、複雑さが第2のモデルの複雑さよりも低い第1のモデルと第2のモデルに従って同じ拡張サンプルセットに対する第1のモデルと第2のモデルの出力間の差分に関している第2の制約を特定することと、少なくとも前記第1の制約および前記第2の制約に基づいて前記第1のモデルをトレーニングして、トレーニングされた前記第1のモデルを取得することと、を含む。
本開示の第2の態様には、モデルをトレーニングするための装置を提供した。この装置は、複数の元のサンプルに対応する複数の拡張サンプルセットを特定するように構成される拡張サンプル特定モジュールと、前記複数の拡張サンプルセットに基づいて第1のモデルに従って同じ拡張サンプルセット内の異なる拡張サンプルに対する第1のモデルの出力間の差分に関している第1の制約を特定するように構成される第1の制約特定モジュールと、前記複数の拡張サンプルセットに基づいて、複雑さが第2のモデルの複雑さよりも低い前記第1のモデルと第2のモデルに従って同じ拡張サンプルセットに対する第1のモデルと第2のモデルの出力間の差分に関している第2の制約を特定するように構成される第2の制約特定モジュールと、少なくとも前記第1の制約および前記第2の制約に基づいて前記第1のモデルをトレーニングして、トレーニングされた前記第1のモデルを取得するように構成される第1のモデルトレーニングモジュールと、を含む。
本開示の第3の態様には、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含み、前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶し、前記命令は、前記少なくとも1つのプロセッサが本開示の第1の態様に記載の方法を実行するように、前記少なくとも1つのプロセッサによって実行される電子デバイスを提供した。
本開示の第4の態様には、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含み、前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶し、前記命令は、前記少なくとも1つのプロセッサが本開示の第2の態様に記載の方法を実行するように、前記少なくとも1つのプロセッサによって実行される電子デバイスを提供した。
本開示の第5の態様には、コンピュータに本開示の第1の態様に記載の方法を実行させるコンピュータ命令を記憶した非一時的なコンピュータ読み取り可能な記憶媒体を提供した。
本開示の第6の態様には、コンピュータに本開示の第2の態様に記載の方法を実行させるコンピュータ命令を記憶した非一時的なコンピュータ読み取り可能な記憶媒体を提供した。
本開示の第7の態様には、プロセッサによって実行される場合、本開示の第1の態様に記載の方法を実現するコンピュータプログラムを含むコンピュータプログラム製品を提供した。
本開示の第8の態様には、プロセッサによって実行される場合、本開示の第2の態様に記載の方法を実現するコンピュータプログラムを含むコンピュータプログラム製品を提供した。
発明の概要部分で説明される内容は、本開示の実施例のキー特徴または重要な特徴を特定することを意図しておらず、本開示の範囲を限定するものでもないことを理解されたい。本開示の他の特徴は、以下の説明によって容易に理解されるであろう。
添付の図面を参照し、以下の詳細な説明を参照すると、本開示の各実施例の前記および他の特徴、利点、および態様がより明らかになるであろう。図面において、同じまたは類似の参照記号は、同じまたは類似の要素を示す。添付の図面は、本案をよりよく理解するために使用され、本開示に対する制限を構成するものではない。
本開示のいくつかの実施例が実現されるデータ処理環境の例の概略図を示す。 本開示のいくつかの実施例実現されるトレーニングモデルの環境の例の概略図を示す。 本開示のいくつかの実施例によるモデルをトレーニングするための例示的な方法のフローチャートを示す。 本開示のいくつかの実施例によるデータを処理するための例示的な方法のフローチャートを示す。 本開示の実施例によるモデルをトレーニングするための装置の概略ブロック図を示す。 本開示の実施例によるデータを処理するための装置の概略ブロック図を示す。 本開示の複数の実施例を実施することができる電子デバイスのブロック図を示す。
以下、本開示の実施例を添付図面を参照してより詳細に説明する。本開示のいくつかの実施例が図面に示されているが、本開示は様々な形態で実現することができ、本明細書に記載の実施例に限定されると解釈されるべきではなく、逆に、これらの実施例は提供されることはこの開示をより明瞭かつ完全に理解するためのことであることを理解されたい。本開示の図面および実施例は、例示的な目的のためにのみ使用され、本開示の保護範囲を制限するために使用されないことを理解されたい。
本開示の実施例の説明中に、「含む」及びその類似的な用語は、非限定的な意味、すなわち、「含むが、これに限定されない」と理解すべきである。「基づいて」という用語は、「少なくとも部分的に基づいて」を意味する。「1つの実施例」及び「当該実施例」という用語は、「少なくとも1つの実施例」を意味する。「第1」、「第2」などの用語は、異なるまたは同一の対象を指すことができる。他の明示的および暗黙的な定義も、以下に含まれる場合がある。
本開示の実施例では、「モデル」という用語は、入力を処理し、相応的な出力を提供することができる。ニューラルネットワークモデルを例にとると、通常、入力層、出力層、および入力層と出力層の間に1つ以上の隠れ層が含まれる。ディープラーニングアプリケーションで使用されるモデル(「ディープラーニングモデル」とも呼ばれる)には、通常、ネットワークの深さを延長するための多くの隠れ層が含まれている。ニューラルネットワークモデルの各層は順番に接続されているため、前の層の出力が次の層の入力として使用され、入力層はニューラルネットワークモデルの入力を受け取り、出力層の出力はニューラルネットワークモデルの最終出力とする。ニューラルネットワークモデルの各層には、1つ以上のノード(処理ノードまたはニューロンとも呼ばれる)が含まれ、各ノードは前の層からの入力を処理する。この明細書では、「ニューラルネットワーク」、「モデル」、「ネットワーク」及び「ニューラルネットワークモデル」という用語は互いに交換使用することができる。
前記のように、トレーニングされたモデルの精度を向上する必要がある。従来の技術案では、通常、教師モデルと学生モデルの出力のみが特定され、教師モデルにより学生モデルを監督してモデルのトレーニングを完了する。従来の技術案の欠点は、同じサンプルの異なるサンプルに対するモデルの出力間の関係を考慮しないことである。その結果、同じサンプルの異なる拡張サンプルに対するモデルの処理結果に一致性がない。これにより、モデルの精度と一般化が低下することがよくある。
本開示の例示的な実施例は、モデルをトレーニングするための技術案を提案する。この技術案では、最初に元のサンプルに対応する拡張サンプルセットを特定する。拡張サンプルセットには、同じ元のサンプルの異なる拡張サンプルが含まれる。次に、第1の制約が第1のモデルに従って特定され、第1の制約は、同じ拡張サンプルセット内の異なる拡張サンプルに対する前記第1のモデルの出力間の差分に関している。次に、第1のモデルと第2のモデルに従って、第2の制約が特定され、第2の制約は、同じ拡張サンプルに対する前記第1のモデルと前記第2のモデルとの出力間の差分に関している。第1のモデルの複雑さは、第2のモデルの複雑さよりも低くなっている。そして最後に、前記第1のモデルは、第1の制約と第2の制約に従ってトレーニングされ、トレーニングされた第1のモデルを取得する。このように、複雑度の高いモデルを使用して複雑度の低いモデルのトレーニングを監視することにより、トレーニングされたモデルの精度を向上させることができる。さらに、同じサンプルに対するモデルの異なる拡張処理を行った後の出力の一致性を同時に考慮すると、トレーニングされたモデルの一般化を向上できる。
図1Aは、本開示のいくつかの実施例が実現されるデータ処理環境100の例の概略図を示す。図1Aに示されるように、環境100は、コンピューティングデバイス110を含む。コンピューティングデバイス110は、例えばパーソナルコンピュータ、タブレットコンピュータ、ウェアラブルデバイス、クラウドサーバ、メインフレーム、分散コンピューティングシステムなどのようなコンピューティング機能を備えた任意のデバイスであり得る。
コンピューティングデバイス110は、入力120を取得する。例えば、入力120は、画像、ビデオ、オーディオ、テキスト、および/またはマルチメディアファイルなどであり得る。コンピューティングデバイス110は、入力120をネットワークモデル130に適用して、ネットワークモデル130を使用して、入力120に対応する処理結果140を生成することができる。いくつかの実施例では、ネットワークモデル130は、OCR認識モデル、画像分類モデル、セマンティックセグメンテーションモデル、ターゲット検出モデル、または画像処理に関連する他のニューラルネットワークモデルであり得るが、これらに限定されない。任意の適切なネットワーク構造を使用してネットワークモデル130を実現することができ、サポートベクターマシン(SVM)モデル、ベイジアンモデル、ランダムフォレストモデル、さまざまなディープラーニング/ニューラルネットワークモデルを含むがこれらに限定されなく、さまざまなディープラーニング/ニューラルネットワークモデルは、例えば畳み込みニューラルネットワーク(CNN)、リカレントニューラルネットワーク(RNN)、ディープニューラルネットワーク(DNN)、ディープ強化学習ネットワーク(DQN)などである。本開示の範囲は、この方に関して限定されない。
環境100はまた、トレーニングデータ取得装置、モデルトレーニング装置、およびモデル応用装置(図示せず)を含み得る。いくつかの実施例では、前述の複数の装置は、それぞれ、異なる物理コンピューティングデバイスに実現され得る。選択的に、前述の複数の装置の少なくとも一部を同じコンピューティングデバイスに実現することができる。例えば、トレーニングデータ取得装置、モデルトレーニング装置は、同じコンピューティングデバイスに実現され得ており、モデル応用装置は、別のコンピューティングデバイスに実現され得る。
いくつかの実施例では、モデルトレーニング段階において、トレーニングデータ取得装置は、入力120を取得し、それをモデルに提供することができる。入力120は、元のサンプルと、元のサンプルに対応する異なる拡張サンプルであり得る。ネットワークモデル130は、トレーニングされるモデルである。モデルトレーニング装置は、入力に基づいてネットワークモデル130をトレーニングすることができる。処理結果140は、モデルの異なる制約に向けられ得ており、コンピューティングデバイス110は、異なる制約を通じてネットワークモデル130のトレーニングパラメータ(例えば、重みおよびバイアスなど)を調整して、トレーニングサンプルでのモデルの誤差を減少させる。
選択的に、いくつかの実施例では、モデルトレーニングの最終段階では、入力はテストサンプルであり得ており、処理結果140は、トレーニングされたネットワークモデル130の性能指標(例えば、精度)の表現であり得る。これは、たとえば、テスト損失で表すことができる。
モデルをトレーニングするための環境150は、1Bを参照して以下で詳細に説明される。環境150は、入力120とする元のサンプル122を含み得る。図には1つの元のサンプルが示されているが、複数の元のサンプルが存在する場合もあり、本開示は本明細書に限定されない。いくつかの実施例では、サンプルは画像データであり得る。コンピューティングデバイス110(例えば、コンピューティングデバイスのトレーニングデータ取得装置)は、元のサンプルに対してデータ拡張処理を実行して、拡張サンプルセット124を取得するように構成され得る。拡張サンプルセット124は、第1の拡張サンプル126および第2の拡張サンプル128を含み得る。第1の拡張サンプル126および第2の拡張サンプル128は、それぞれ、前記元のサンプル122に対してデータ拡張処理を実行することによって取得され得る。いくつかの実施例では、元のサンプルに対応する拡張サンプルセットは、元のサンプル自体を含まなくてもよい。いくつかの例では、画像サンプルに対して、画像をトリミング、回転、および反転して、画像の拡張サンプルセットを取得することができる。他の例では、画像サンプルに対して、自動データ拡張(AutoAugment)ような自動サンプル拡張戦略を適用して、画像の拡張トレーニングセットを取得できる。
コンピューティングデバイス110は、第1のモデル132および第2のモデル134の入力として第1の拡張サンプル126および第2の拡張サンプル128を使用して、それぞれ第1の出力162、第2の出力154、第3の出力166および第4の出力168を特定することができる。次に、コンピューティングデバイス110は、前述の出力および拡張サンプルのタグにそれぞれ基づいて、第1の制約142、第2の制約144、および第3の制約146を特定することができる。最後に、コンピューティングデバイス110は、前記の制約に従って第1のモデル132をトレーニングすることができる。
第1のモデル132は、パラメータ数が小さく(例えば、閾値未満)、メモリ占有が小さい(例えば、閾値未満)トレーニングされるモデル(学生モデルと呼ばれる)であり得る。第2のモデル134は、パラメータ数が大きい(例えば、少なくとも第1のモデル132に含まれるパラメータ数よりも多い)トレーニングされたモデル(教師モデルと呼ばれる)であり得る。
図1Aに戻って参照すると、トレーニングされたネットワークモデルは、モデル応用装置に提供され得る。モデル応用装置は、トレーニングされたモデルおよび入力120を取得し、入力120に対する処理結果140を特定することができる。モデル応用段階では、入力120は、処理される入力データ(例えば、画像データ)であり得ており、ネットワークモデル130は、トレーニングされたモデル(例えば、トレーニングされた画像分類モデル)であり得ており、処理結果140は、入力120(例えば、画像データ)に対応する予測結果(例えば、画像分類結果、セマンティックセグメンテーション結果、またはターゲット認識結果)である。
図1Aに示される環境100および図1Bに示される環境150は、本開示の実施例が実現される単なる一つの例であり、本開示の範囲を制限することではない。本開示の実施例は、他のシステムまたはアーキテクチャにも適用可能である。
詳細なトレーニングモデルプロセスは、図2から3を参照して以下でさらに説明される。図2は、本開示の実施例によるモデルをトレーニングするためのプロセス200のフローチャートを示している。プロセス200は、図1のコンピューティングデバイス110によって実施され得る。説明を容易にするために、プロセス200は、図1Aおよび図1Bを参照して説明される。
図2のブロック210において、コンピューティングデバイス110は、複数の元のサンプルに対応する複数の拡張サンプルセットを特定する。例えば、コンピューティングデバイス110は、複数の元のサンプルとして画像セットからB個の画像をランダムに選択し、次に、各元のサンプルをK個にコピーすることができる。次に、コンピューティングデバイス110は、K個の同一の画像に対して輝度変換、ランダムトリミング、およびランダム回転などのデータ拡張操作を実行して、拡張サンプルセットを形成することができる。前記のデータ拡張の例は単なる例示であり、コンピューティングデバイス110はまた、ビデオデータを処理するためにビデオデータ内の異なる画像フレームに対して様々な組み合わせを実行することができ、または適切な方法でテキストおよび音声データを処理することもできる。ここでは制限がない。
いくつかの実施例では、モデルの計算量を減らすために、コンピューティングデバイス110は、拡張サンプルセットをさらに処理することができる。例えば、コンピューティングデバイス110は、前処理画像を形成するために、前記のピクチャーに対してサイズ再設定および正規化操作を実行することができる。
いくつかの実施例では、サンプルは、画像、ビデオ、オーディオ、テキスト、およびマルチメディアファイルのうちの少なくとも1つを含む。
図2のブロック220において、コンピューティングデバイス110は、複数の拡張サンプルセットに基づいて、第1のモデルに従って第1の制約を特定する。第1の制約は、第1のモデルが同じ拡張サンプルセット内の異なる拡張サンプルに対する出力間の差分に関している。コンピューティングデバイス110は、拡張サンプルを特定した後、当該サンプルセットを第1のモデルの入力として、それぞれ出力を特定することができる。
いくつかの実施例では、コンピューティングデバイス110は、拡張サンプルセット内の第1の拡張サンプルに基づいて、第1のモデル132に従って第1の分類結果を生成することができる。第2の分類結果は、同じ拡張サンプルセット内の第2の拡張サンプルに基づいて、第1のモデル132に従って生成される。第3の分類結果は、拡張サンプルセット内の第3の拡張サンプルに基づいて、第1のモデル132に従って生成される。そして、第1の制約が、第1の分類結果、第2の分類結果、および第3の分類結果の差分に基づいて特定される。
例えば、元のサンプルは、数1を含む画像である。第1の拡張サンプル、第2の拡張サンプル、および第3の拡張サンプルは、それぞれこの元のサンプルの異なる明るさ、異なる方向、異なるサイズという3つの拡張サンプルである。次に、コンピューティングデバイス110は、第1のモデルにおける3つの拡張サンプルの出力を特定することができる。第1の分類結果は、数1の確率が80%であり、数7の確率が15%であり、数9の確率が5%である。第2の分類結果は、数1の確率が60%であり、数7の確率が25%であり、数9の確率が15%である。第3の分類結果は、数1の確率が40%であり、数7の確率が30%であり、数9の確率が30%である。次に、コンピューティングデバイス110は、第1の制約として、前記の3つの分類結果のうちの2つの間の差分を計算することができる。コンピューティングデバイス110は、2つの分類結果ごとの差分のL2損失関数を計算し、次に、平均値を第1の制約とすることができる。元のサンプル、分類結果、および損失関数タイプの前述の説明は単なる例示であり、異なるタイプのサンプルおよび分類結果が存在する場合もあることに注意してください。
同じ元のサンプル異なる拡張サンプルに対するモデルの出力結果は一致しているべきであり、コンピューティングデバイス110は、第1のモデル132のパラメータを調整して第1の制約を最小化し、それによって、同じ元のサンプルの異なる拡張サンプルの出力結果間の一致性を実現することができる。その結果、異なる拡張データに対するモデルの適応性を向上させることができ、それによってモデルの一般化パフォーマンスが向上する。
図2のブロック230において、コンピューティングデバイス110は、複数の拡張サンプルセットに基づいて、第1のモデル132および第2のモデル134に従って第2の制約を特定し、第2の制約は、第1のモデル132および第2のモデル134が同じ拡張サンプルに対する出力間の差分に関しており、第1のモデル132の複雑さは、第2のモデル134の複雑さよりも低い。前記の図1の記載により、複雑度の高い第2のモデルを使用して、複雑度の低い第1のモデルをトレーニングすることができる。たとえば、同じサンプルに対する第1のモデルと第2のモデルの出力の差分を第2の制約として特定できる。
いくつかの実施例では、コンピューティングデバイス110は、第4の拡張サンプルに基づいて、第1のモデル132に従って第4の分類結果を生成することができる。次に、第4の拡張サンプルに基づいて、第2のモデル134に従って第5の分類結果を生成することができる。そして最後に、第4の分類結果と第5の分類結果との差分に基づいて、第2の制約が特定される。
例えば、同じ第4の拡張サンプルについて、例えば、信号機を含むピクチャーである。第1のモデルの第4の分類結果は、現在の点灯の確率について、赤色ライトが70%であり、緑色ライトが20%であり、黄色ライトが10%である。第2のモデルの第5の分類結果は、現在の点灯の確率について、赤色ライトが50%であり、緑色ライトが30%であり、黄色ライトが20%である。次に、コンピューティングデバイス110は、第2の制約として上記差分を特定することができる。例えば、コンピューティングデバイス110は、第2の制約として、前記の分類結果間の差分のクロスエントロピー損失を計算することができる。コンピューティングデバイス110は、第1のモデル132のパラメータを調整して、第2の制約を最小化することができることが理解され得る。したがって、小さいパラメータモデルは、大きいパラメータモデルの認識精度を実現することができる。
図2のブロック240において、コンピューティングデバイス110は、少なくとも第1の制約および第2の制約に基づいて第1のモデルをトレーニングして、トレーニングされた第1のモデルを取得する。例えば、コンピューティングデバイス110は、トレーニングされた第1のモデルを得るために、前記特定された制約に従って第1のモデルのパラメータを調整することができる。
いくつかの実施例では、拡張サンプルは、拡張サンプルのカテゴリーを示すタグを有する。たとえば、このタグは、ピクチャー中の数が1であること、または点灯しているライトの色が緑色であることを示すことができる。コンピューティングデバイス110は、複数の拡張サンプルセットに基づいて第1のモデル132に従って第3の制約を特定することができ、第3の制約は、拡張サンプルに対する第1のモデル132の出力とタグとの差分に関している。例えば、コンピューティングデバイス110は、第3の制約として第1のモデルの出力(例えば、分類結果)とタグとの間の差分のCTC損失関数を特定することができる。
コンピューティングデバイス110が第3の制約を特定した後、コンピューティングデバイス110は、第1の制約、第2の制約、第3の制約およびそれに関連する重みに基づいて第1のモデルをトレーニングして、トレーニングされた第1のモデルを取得することができる。
例えば、図1Bを例として取り上げると、コンピューティングデバイス110は、第1のモデル132についての、同じ元のデータ122の第1の拡張サンプル126および第2の拡張サンプル128の第1の出力162と第2の出力164との差分の第1の制約142を特定することができる。コンピューティングデバイス110はまた、第1のモデル132および第2のモデル134についての、同じ拡張サンプル(第1の拡張サンプル126、第2の拡張サンプル128、またはその両方)間の出力間の差分(すなわち、第1の出力162と第3の出力166との間の差分、第2の出力142と第4の出力168との間の差分)の第2の制約144を特定することができる。コンピューティングデバイス110はまた、タグ160と第1の出力162または第2の出力164との間の差分の第3の制約146を特定することができる。コンピューティングデバイス110は、以下の式(1)に従って合計制約を特定することができる。
合計制約=重み1*第1の制約+重み2*第2の制約+重み3*第3の制約 (1)
ただし、重みは、異なるアプリケーションのニーズに応じて調整できる。コンピューティングデバイス110は、最終的に、合計制約に従って第1のモデル132のパラメータを調整して、合計制約を最小化し、それにより、トレーニングされた第1のモデルを取得することができる。
いくつかの実施例では、コンピューティングデバイス110は、第1のモデル132の試験結果に従って、前記の3つの重みを連続的に調整することができる。例えば、コンピューティングデバイス110が、モデルのテスト段階中に、同じ元のサンプルの異なる拡張サンプル間に対するモデルの出力の差分が大きいことを特定した場合、重み1の値は、重み2と重み3との値よりも高い値に設定され得る。したがって、異なる制約を示す重みを調整することにより、関連性的にモデルをトレーニングし、効率的で正確なモデルトレーニングを実現することができる。
本開示の実施例によれば、複雑度の高いモデルを使用して複雑度の低いモデルのトレーニングを監視することができ、トレーニングされたモデルの精度を向上することができる。さらに、同じサンプルに対して異なる拡張処理を行った後のモデルの出力の一致性を同時に考慮することにより、トレーニングされたモデルの一般化を向上できる。
図3は、本開示の実施例による、データを処理するための例示的な方法300のフローチャートを示す。例えば、方法300は、図1Aに示されるようなコンピューティングデバイスによって実行され得る。
図3のブロック310において、コンピューティングデバイス110は、入力データを取得することができる。コンピューティングデバイス110には、上記した方式でトレーニングされた、トレーニングされたモデルが配置されることができる。いくつかの実施例では、入力データは、画像分類する画像データであり得ており、トレーニングされたモデルは、画像分類モデル、セマンティックセグメンテーションモデル、およびターゲット認識モデルのうちの1つである。
図3のブロック320において、コンピューティングデバイス110は、トレーニングされたモデルを使用して、前記入力データに対する予測結果を特定することができる。例えば、前述の入力データが画像分類する画像データであり得ており、トレーニングされたモデルが画像分類モデルである実施例では、予測結果は前記画像の分類結果である。上記の入力データがセマンティックセグメンテーションされる画像データであり得ており、トレーニングされたモデルがセマンティックセグメンテーションモデルである前述の実施例では、予測結果はセマンティックセグメンテーション結果である。上記の入力データがセマンティックセグメンテーションされる画像データであり得ており、トレーニングされたモデルがターゲット認識モデルである前述の実施例では、予測結果はターゲット認識結果である。本開示による技術案は、画像処理に関連する他のタスクまたは画像処理技術に基づいて実行されるタスク(例えば、自動運転、自律駐車など)にも適用することができる。
図4は、本開示の実施例によるモデルをトレーニングするための装置400の概略ブロック図を示す。図4に示すように、装置400は、複数の元のサンプルに対応する複数の拡張サンプルセットを特定するように構成される拡張サンプル特定モジュール410と、複数の拡張サンプルセットに基づいて第1のモデルに従って同じ拡張サンプルセット内の異なる拡張サンプルに対する第1のモデルの出力間の差分に関している第1の制約を特定するように構成される第1の制約特定モジュール420と、複数の拡張サンプルセットに基づいて、複雑さが第2のモデルの複雑さよりも低い第1のモデルと第2のモデルに従って同じ拡張サンプルセットに対する第1のモデルと第2のモデルの出力間の差分に関している第2の制約を特定するように構成される第2の制約特定モジュール430と、少なくとも第1の制約および第2の制約に基づいて第1のモデルをトレーニングして、トレーニングされた第1のモデルを取得するように構成される第1のモデルトレーニングモジュール440とを含む。
いくつかの実施例では、第1の制約特定モジュール420は、拡張サンプルセット内の第1の拡張サンプルに基づいて第1のモデルに従って第1の分類結果を生成するように構成される第1の結果生成モジュールと、拡張サンプルセット内の第2の拡張サンプルに基づいて第1のモデルに従って第2の分類結果を生成するように構成される第2の結果生成モジュールと、拡張サンプルセット内の第3の拡張サンプルに基づいて第1のモデルに従って第3の分類結果を生成するように構成される第3の結果生成モジュールと、第1の分類結果と第2の分類結果と第3の分類結果との間の差分に基づいて第1の制約を特定するように構成される第4の制約特定モジュールと、を含み得る。
いくつかの実施例では、拡張サンプルが、拡張サンプルのカテゴリを示すタグを有し、装置400は、複数の拡張サンプルセットに基づいて第1のモデルに従って拡張サンプルに対する第1のモデルの出力とタグの差分に関している第3の制約を特定するように構成される第5の制約特定モジュール、をさらに含み得る。
いくつかの実施例では、第1のモデルトレーニングモジュール440は、第1の制約、第2の制約、第3の制約およびそれに関連する重みに基づいて第1のモデルをトレーニングしてトレーニングされた第1のモデルを取得するように構成される。
いくつかの実施例では、第2の制約特定モジュール430は、第4の拡張サンプルに基づいて第1のモデルに従って第4の分類結果を生成するように構成される第4の結果生成モジュールと、第4の拡張サンプルに基づいて第2のモデルに従って第5の分類結果を生成するように構成される第5の結果生成モジュールと、第4の分類結果と第5の分類結果との間の差分に基づいて第2の制約を特定するように構成される第6の制約特定モジュールと、を含み得る。
いくつかの実施例では、サンプルは、画像、ビデオ、オーディオ、テキスト、およびマルチメディアファイルのうちの少なくとも1つを含み得る。
図5は、本開示の一実施例による、データを処理するための装置500の概略ブロック図を示す。図5に示すように、装置500は、入力データを取得するように構成されるデータ取得モジュール510と、本開示実施例の装置によってトレーニングされたトレーニングされたモデルを使用して入力データに対する予測結果を特定するように構成される予測モジュール520とを含む。
いくつかの実施例では、入力データは画像のデータであり得ており、トレーニングされたモデルは画像分類モデル、セマンティックセグメンテーションモデル、およびターゲット認識モデルのうちの1つであり得ており、予測結果は画像の分類結果とセマンティックセグメンテーション結果とターゲット認識結果中の対応する一つであり得る。
図6には本開示の実施例を実施するための電子デバイス600の示意性框図が示された。電子デバイスは、様々な形式のデジタルコンピュータ、例えば、ラップトップ型コンピュータと、デスクトップコンピュータと、ワークベンチと、サーバと、ブレードサーバと、大型コンピュータと、他の適宜なコンピュータとを表す旨である。電子デバイスは、様々な形式の移動装置、例えば、パーソナル・デジタル・アシスタントと、携帯電話と、スマートフォンと、ウェアラブル機器と、他の類似する計算装置とを表してもよい。本文に示す部品と、それらの接続及び関係と、それらの機能とは単に例示であり、本文で説明した及び/又は要求した本開示の実現を限定することを意図しない。
図6に示すように、デバイス600は、リードオンリーメモリ(ROM)602に記憶されたコンピュータプログラム又は記憶手段608からランダムアクセスメモリ(RAM)603にロードされたコンピュータプログラムに基づいて、各種の適宜な動作及び処理を実行することができる計算手段601を含んでいる。RAM603には、デバイス600の動作のために必要とする各種プログラム及びデータが記憶されてもよい。計算手段601と、ROM 602と、RAM 603とは、互いにバス604を介して接続される。入力・出力(I/O)インターフェース605もバス604に接続されている。
デバイス600における複数の部品は、I/Oインターフェース605に接続され、キーボード、マウスなどの入力手段606と、各種タイプのディスプレイ、スピーカなどの出力手段607と、磁気ディスク、光ディスクなどの記憶手段608と、ネットワークカード、モデム、無線通信送受信機などの通信手段609とを含む。通信手段609は、デバイス600がインターネットというコンピュータネットワーク及び/又は各種電気通信ネットワークを介して他の機器と情報・データをやりとりすることを可能にする。
計算手段601は、各種の処理及び計算能力を有する汎用及び/又は専用処理コンポーネントであってもよい。計算手段601の幾つかの例示は、中央処理手段(CPU)と、図形処理手段(GPU)と、各種の専用の人工知能(AI)計算チップと、各種の機器学習モデルアルゴリズムを実行する計算ユニットと、デジタル信号プロセッサ(DSP)と、任意の適宜なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限られない。計算手段601は、前文で説明した各方法及び処理、例えばプロセス200と300を実行する。例えば、幾つかの実施例において、プロセス200と300は、コンピュータソフトウェアプログラムとして実現されてもよく、それが機器読取可能な媒体、例えば記憶手段608に有形的に含まれる。幾つかの実施例において、コンピュータプログラムの一部又は全部がROM 602及び/又は通信手段609を介してデバイス600上にロード及び/又はインストールされ得る。コンピュータプログラムがRAM 603にロードされ、計算手段601によって実行される時に、前文で説明したプロセス200と300の1つ又は複数のステップを実行することができる。選択可能的に、他の実施例において、計算手段601が他の任意の適宜な方式を介して(例えば、ファームウェアを介して)プロセス200と300を実行するように配置される。
本文で以上に説明したシステム及び技術の各種実施例は、デジタル電子回路システム、集積回路システム、フィールド・プログラマブル・ゲート・アレイ(FPGA)、専用集積回路(ASIC)、専用標準製品(ASSP)、システム・オン・チップのシステム(SOC)、負荷プログラマブルロジックデバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組合せで実現され得る。これらの各種実施例は、1つ又は複数のコンピュータプログラムで実行されることを含んでもよく、この1つ又は複数のコンピュータプログラムが、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上に実行及び/又は解釈されてもよく、このプログラマブルプロセッサは専用又は汎用プログラマブルプロセッサであり、記憶システムと、少なくとも1つの入力装置と、少なくとも1つの出力装置とから、データ及びコマンドを受信し、データ及びコマンドをこの記憶システムと、この少なくとも1つの入力装置と、この少なくとも1つの出力装置とに転送してもよい。
本開示の方法を実施するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組合せによって書かれてもよい。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ又は他のプログラマブルデータ処理装置のプロセッサ又はコントローラへ供給されて、プログラムコードがプロセッサ又はコントローラによって実行される時にフローチャート及び/又はブロック図に規定された機能・動作が実施されるようにしてもよい。プログラムコードは、完全に機器上に実行されてもよいし、部分的に機器上に実行されてもよく、独立ソフトウェアパッケージとして部分的に機器上に実行され且つ部分的に遠隔機器上に実行され、或いは完全に遠隔機器又はサーバ上に実行される。
本開示の前後文において、機器読取可能な媒体は、有形的な媒体であってもよく、それが、コマンド実行システム、装置又は機器に使用され、又はコマンド実行システム、装置又は機器と組合せて使用されるプログラムを含み、或いは記憶してもよい。機器読取可能な媒体は、機器読取可能な信号媒体や、機器読取可能な記憶媒体であってもよい。機器読取可能な媒体は、電子、磁気的、光学的、電磁気的や赤外のもの、又は半導体システム、装置又は機器、或いは前記内容の任意の適宜な組合せを含むが、これらに限られない。機器読取可能な記憶媒体のより具体的な例示は、1つ又は複数のラインによる電気接続、携帯コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、ファイバ、携帯コンパクトディスクリードオンリーメモリ(CD-ROM)、光学的記憶デバイス、磁気的記憶デバイス、又は前記内容の任意の適宜な組合せを含む。
ユーザとのインタラクティブを提供するために、コンピュータでここで説明したシステム及び技術を実施してもよく、このコンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレー)モニタ)と、キーボード及び指向装置(例えば、マウス又はトラックボール)とを有し、ユーザは、このキーボード及びこの指向装置によって、入力をコンピュータに提供することができる。他の種類の装置は、ユーザとのインタラクティブを提供するためのものであってもよく、例えば、ユーザに提供するフィードバックは、任意の形式のセンサーフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(声入力、語音入力、又は触覚入力を含む)でユーザからの入力を受信してもよい。
ここで説明したシステム及び技術は、バックグラウンド部品を含む計算システム(例えば、データサーバとする)、又はミドルウェア部品を含む計算システム(例えば、アプリケーションサーバ)、又はフロントエンド部品を含む計算システム(例えば、グラフィカル・ユーザー・インターフェース又はネットワークブラウザを有するユーザコンピュータ、ユーザはこのグラフィカル・ユーザー・インターフェース又はこのネットワークブラウザを介してここで説明したシステム及び技術の実施例とインタラクティブすることができる)、又はこのようなバックグラウンド部品、ミドルウェア部品、或いはフロントエンド部品の任意の組合せを含む計算システムで実施されてもよい。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)を介してシステムの部品を相互に接続してもよい。通信ネットワークの例示は、ローカルエリアネットワーク(LAN)と、広域ネットワーク(WAN)と、インターネットと、ブロックチェーンネットワークを含んでいる。
コンピュータシステムは、クライアントとサーバとを含んでもよい。クライアントとサーバとは、一般的に互いに離れて、且つ通常に通信ネットワークを介してインタラクティブする。相応するコンピュータで実行されるとともに、互いにクライアント-サーバの関係を有するコンピュータプログラムによって、クライアントとサーバとの関係を形成する。サーバーは、クラウドコンピューティングサーバーまたはクラウドホストとも呼ばれるクラウドサーバーにすることができる。これは、従来の物理ホストとVPSサービス(「Virtual Private Server」または「VPS」)にある管理が難しく、ビジネスのスケーラビリティが弱いという欠点を解決するためのクラウドコンピューティングサービスシステムのホスト製品である。サーバーは、分散システムのサーバー、またはブロックチェーンと組み合わせたサーバーにすることもできる。
前記に示した様々な形式のフローを利用して、ステップを並び替え、追加又は削除することができると理解すべきである。例えば、本開示に記載された各ステップは、並行に実行されてもよいし、順番に実行されてもよいし、異なる順序で実行されてもよく、本開示が開示した技術案が所望する結果を実現できる限り、本文はここで限定しない。
上述した具体的な実施例は、本開示の保護範囲に対する限定を構成しない。当業者は、設計要求や他の要因に応じて、さまざまな修正、組合、サブ組合及び置換を行うことができると理解すべきである。本開示の趣旨及び原則の範囲内になされた任意の修正、等価な置換、改進などは、いずれも本開示の保護範囲内に含まれるべきである。

Claims (20)

  1. 複数の元のサンプルに対応する複数の拡張サンプルセットを特定することと、
    前記複数の拡張サンプルセットに基づいて、第1のモデルに従って同じ拡張サンプルセット内の異なる拡張サンプルに対する第1のモデルの出力間の差分に関している第1の制約を特定することと、
    前記複数の拡張サンプルセットに基づいて、複雑さが第2のモデルの複雑さよりも低い第1のモデルと第2のモデルに従って、同じ拡張サンプルセットに対する第1のモデルと第2のモデルの出力間の差分に関している第2の制約を特定することと、
    少なくとも前記第1の制約および前記第2の制約に基づいて、前記第1のモデルのトレーニングパラメータを調整して前記第1のモデルをトレーニングして、トレーニングされた前記第1のモデルを取得することと、を含む、
    モデルをトレーニングするための方法。
  2. 前記複数の拡張サンプルセットに基づいて、第1のモデルに従って第1の制約を特定することは、
    拡張サンプルセット内の第1の拡張サンプルに基づいて、前記第1のモデルに従って第1の分類結果を生成することと、
    前記拡張サンプルセット内の第2の拡張サンプルに基づいて、前記第1のモデルに従って第2の分類結果を生成することと、
    前記拡張サンプルセット内の第3の拡張サンプルに基づいて、前記第1のモデルに従って第3の分類結果を生成することと、
    前記第1の分類結果、前記第2の分類結果と前記第3の分類結果との間の差分に基づいて、前記第1の制約を特定することと、を含む
    請求項1に記載の方法。
  3. 拡張サンプルが、前記拡張サンプルのカテゴリを示すタグを有し、
    前記複数の拡張サンプルセットに基づいて、第1のモデルに従って前記拡張サンプルに対する第1のモデルの出力と前記タグの差分に関している第3の制約を特定することをさらに含み、
    少なくとも前記第1の制約および前記第2の制約に基づいて、前記第1のモデルをトレーニングして、トレーニングされた前記第1のモデルを取得することは、
    前記第1の制約、前記第2の制約、前記第3の制約および、前記第1の制約、前記第2の制約、前記第3の制約にそれぞれ関連する重みに基づいて前記第1のモデルをトレーニングしてトレーニングされた第1のモデルを取得することを含む
    請求項1に記載の方法。
  4. 前記複数の拡張サンプルセットに基づいて、前記第1のモデルと前記第2のモデルに従って第2の制約を特定することは、
    第4の拡張サンプルに基づいて第1のモデルに従って第4の分類結果を生成することと、
    前記第4の拡張サンプルに基づいて前記第2のモデルに従って第5の分類結果を生成することと、
    前記第4の分類結果と前記第5の分類結果との間の差分に基づいて前記第2の制約を特定することと、を含む
    請求項1に記載の方法。
  5. サンプルは、画像、ビデオ、オーディオ、テキスト、およびマルチメディアファイルのうちの少なくとも1つを含む
    請求項1に記載の方法。
  6. 入力データを取得することと、
    請求項1~のいずれか一項に記載の方法によってトレーニングされた、トレーニングされたモデルを使用して入力データに対する予測結果を特定することと、を含む
    データを処理するための方法。
  7. 前記入力データは画像のデータであり、
    前記トレーニングされたモデルは画像分類モデル、セマンティックセグメンテーションモデル、およびターゲット認識モデルのうちの1つであり、前記予測結果は前記画像の分類結果とセマンティックセグメンテーション結果とターゲット認識結果中の対応する一つ項である
    請求項に記載の方法。
  8. 複数の元のサンプルに対応する複数の拡張サンプルセットを特定するように構成される拡張サンプル特定モジュールと、
    前記複数の拡張サンプルセットに基づいて第1のモデルに従って同じ拡張サンプルセット内の異なる拡張サンプルに対する第1のモデルの出力間の差分に関している第1の制約を特定するように構成される第1の制約特定モジュールと、
    前記複数の拡張サンプルセットに基づいて、複雑さが第2のモデルの複雑さよりも低い前記第1のモデルと第2のモデルに従って同じ拡張サンプルセットに対する第1のモデルと第2のモデルの出力間の差分に関している第2の制約を特定するように構成される第2の制約特定モジュールと、
    少なくとも前記第1の制約および前記第2の制約に基づいて、前記第1のモデルのトレーニングパラメータを調整して前記第1のモデルをトレーニングして、トレーニングされた前記第1のモデルを取得するように構成される第1のモデルトレーニングモジュールと、を含む、
    モデルをトレーニングするための装置。
  9. 前記第1の制約特定モジュールは、
    拡張サンプルセット内の第1の拡張サンプルに基づいて第1のモデルに従って第1の分類結果を生成するように構成される第1の結果生成モジュールと、
    前記拡張サンプルセット内の第2の拡張サンプルに基づいて前記第1のモデルに従って第2の分類結果を生成するように構成される第2の結果生成モジュールと、
    前記拡張サンプルセット内の第3の拡張サンプルに基づいて前記第1のモデルに従って第3の分類結果を生成するように構成される第3の結果生成モジュールと、
    前記第1の分類結果と前記第2の分類結果と前記第3の分類結果との間の差分に基づいて前記第1の制約を特定するように構成される第4の制約特定モジュールと、を含む
    請求項に記載の装置。
  10. 拡張サンプルが、前記拡張サンプルのカテゴリを示すタグを有し、
    前記装置は、
    前記複数の拡張サンプルセットに基づいて第1のモデルに従って前記拡張サンプルに対する前記第1のモデルの出力と前記タグの差分に関している第3の制約を特定するように構成される第5の制約特定モジュール、をさらに含み、
    前記第1のモデルトレーニングモジュールは、
    前記第1の制約、前記第2の制約、前記第3の制約および、前記第1の制約、前記第2の制約、前記第3の制約にそれぞれ関連する重みに基づいて前記第1のモデルをトレーニングしてトレーニングされた前記第1のモデルを取得するように構成される第2のモデルトレーニングモジュールを含む、
    請求項に記載の装置。
  11. 前記第2の制約特定モジュールは、
    第4の拡張サンプルに基づいて前記第1のモデルに従って第4の分類結果を生成するように構成される第4の結果生成モジュールと、
    前記第4の拡張サンプルに基づいて前記第2のモデルに従って第5の分類結果を生成するように構成される第5の結果生成モジュールと、
    前記第4の分類結果と前記第5の分類結果との間の差分に基づいて前記第2の制約を特定するように構成される第6の制約特定モジュールと、を含む、
    請求項に記載の装置。
  12. サンプルは、画像、ビデオ、オーディオ、テキスト、およびマルチメディアファイルのうちの少なくとも1つを含む、
    請求項に記載の装置。
  13. 入力データを取得するデータ取得モジュールと、
    請求項12のいずれか一項に記載の装置によってトレーニングされたトレーニングされたモデルを使用して入力データに対する予測結果を特定する予測モジュールと、を含む
    データを処理するための装置。
  14. 前記入力データは画像のデータであり、
    前記トレーニングされたモデルは画像分類モデル、セマンティックセグメンテーションモデル、およびターゲット認識モデルのうちの1つであり、前記予測結果は前記画像の分類結果とセマンティックセグメンテーション結果とターゲット認識結果中の対応する一つ項である、
    請求項13に記載の装置。
  15. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含み、
    前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶し、前記命令は、前記少なくとも1つのプロセッサが請求項1~のいずれか一項に記載の方法を実行するように、前記少なくとも1つのプロセッサによって実行される
    電子デバイス。
  16. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含み、
    前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶し、前記命令は、前記少なくとも1つのプロセッサが請求項のいずれか一項に記載の方法を実行するように、前記少なくとも1つのプロセッサによって実行される
    電子デバイス。
  17. コンピュータに請求項1~のいずれか一項に記載の方法を実行させるコンピュータ命令を記憶した非一時的なコンピュータ読み取り可能な記憶媒体。
  18. コンピュータに請求項のいずれか一項に記載の方法を実行させるコンピュータ命令を記憶した非一時的なコンピュータ読み取り可能な記憶媒体。
  19. プロセッサによって実行される場合、請求項1~のいずれか一項に記載の方法を実現するコンピュータプログラム。
  20. プロセッサによって実行される場合、請求項のいずれか一項に記載の方法を実現するコンピュータプログラム。
JP2021153612A 2021-03-25 2021-09-21 モデルをトレーニングするための方法、装置、デバイス、媒体、およびプログラム製品 Active JP7291183B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110321597.X 2021-03-25
CN202110321597.XA CN113033537B (zh) 2021-03-25 2021-03-25 用于训练模型的方法、装置、设备、介质和程序产品

Publications (2)

Publication Number Publication Date
JP2022006174A JP2022006174A (ja) 2022-01-12
JP7291183B2 true JP7291183B2 (ja) 2023-06-14

Family

ID=76474029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021153612A Active JP7291183B2 (ja) 2021-03-25 2021-09-21 モデルをトレーニングするための方法、装置、デバイス、媒体、およびプログラム製品

Country Status (5)

Country Link
US (1) US20220004811A1 (ja)
EP (1) EP3913542A3 (ja)
JP (1) JP7291183B2 (ja)
KR (1) KR20210124111A (ja)
CN (1) CN113033537B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113420533B (zh) * 2021-07-09 2023-12-29 中铁七局集团有限公司 信息提取模型的训练方法、装置及电子设备
CN113807455A (zh) * 2021-09-26 2021-12-17 北京有竹居网络技术有限公司 构建聚类模型的方法、设备、介质和程序产品
KR102479679B1 (ko) * 2021-12-31 2022-12-21 주식회사 애자일소다 데이터 증강과 오토 레이블링을 이용한 데이터 구축 장치 및 방법
CN114595923B (zh) * 2022-01-11 2023-04-28 电子科技大学 一种基于深度强化学习的群体教学推荐系统
CN114612725B (zh) * 2022-03-18 2023-04-25 北京百度网讯科技有限公司 图像处理方法、装置、设备及存储介质
CN114372477B (zh) * 2022-03-21 2022-06-10 北京百度网讯科技有限公司 文本识别模型的训练方法、文本识别方法及装置
CN114596637B (zh) * 2022-03-23 2024-02-06 北京百度网讯科技有限公司 图像样本数据增强训练方法、装置及电子设备
CN115050238B (zh) * 2022-07-08 2024-03-12 卡斯柯信号有限公司 一种基于真实ctc系统的多模式切换仿真实训系统
CN116071621B (zh) * 2023-03-15 2023-06-23 中汽智联技术有限公司 针对感知算法的训练样本生成和验证方法、设备和介质
CN117253287B (zh) * 2023-09-21 2024-04-26 书行科技(北京)有限公司 基于域泛化的动作预测模型训练方法、相关方法及产品
CN117435981B (zh) * 2023-12-22 2024-03-01 四川泓宝润业工程技术有限公司 机泵设备运行故障诊断方法、装置、存储介质及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017531255A (ja) 2014-09-12 2017-10-19 マイクロソフト コーポレーションMicrosoft Corporation 出力分布による生徒dnnの学習
JP2020140466A (ja) 2019-02-28 2020-09-03 富士通株式会社 訓練データ拡張装置、方法、及びプログラム
US20210056417A1 (en) 2019-08-22 2021-02-25 Google Llc Active learning via a sample consistency assessment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9786270B2 (en) * 2015-07-09 2017-10-10 Google Inc. Generating acoustic models
WO2021202170A1 (en) * 2020-03-30 2021-10-07 University Of Florida Research Foundation Collaborative feature ensembling adaptation for domain adaptation in unsupervised optic disc and cup segmentation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017531255A (ja) 2014-09-12 2017-10-19 マイクロソフト コーポレーションMicrosoft Corporation 出力分布による生徒dnnの学習
JP2020140466A (ja) 2019-02-28 2020-09-03 富士通株式会社 訓練データ拡張装置、方法、及びプログラム
US20210056417A1 (en) 2019-08-22 2021-02-25 Google Llc Active learning via a sample consistency assessment

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Fabian Ruffy, et al.,The State of Knowledge Distillation for Classification,arXiv:1912.10850,2019年12月20日,<URL: https://arxiv.org/abs/1912.10850>

Also Published As

Publication number Publication date
CN113033537B (zh) 2022-07-01
KR20210124111A (ko) 2021-10-14
EP3913542A2 (en) 2021-11-24
CN113033537A (zh) 2021-06-25
EP3913542A3 (en) 2022-05-11
US20220004811A1 (en) 2022-01-06
JP2022006174A (ja) 2022-01-12

Similar Documents

Publication Publication Date Title
JP7291183B2 (ja) モデルをトレーニングするための方法、装置、デバイス、媒体、およびプログラム製品
US11367271B2 (en) Similarity propagation for one-shot and few-shot image segmentation
US11960843B2 (en) Multi-module and multi-task machine learning system based on an ensemble of datasets
US20230229919A1 (en) Learning to generate synthetic datasets for training neural networks
US20220327809A1 (en) Method, device and storage medium for training model based on multi-modal data joint learning
WO2021159714A1 (zh) 一种数据处理方法及相关设备
US11574142B2 (en) Semantic image manipulation using visual-semantic joint embeddings
EP3961584A2 (en) Character recognition method, model training method, related apparatus and electronic device
US20220004928A1 (en) Method and apparatus for incrementally training model
WO2019154411A1 (zh) 词向量更新方法和装置
US20230162477A1 (en) Method for training model based on knowledge distillation, and electronic device
JP7430820B2 (ja) ソートモデルのトレーニング方法及び装置、電子機器、コンピュータ可読記憶媒体、コンピュータプログラム
US11386114B2 (en) Structure-based transformers with localization and encoding for chart question answering
US20230230198A1 (en) Utilizing a generative neural network to interactively create and modify digital images based on natural language feedback
US10936938B2 (en) Method for visualizing neural network models
CN117033609B (zh) 文本视觉问答方法、装置、计算机设备和存储介质
US20230114673A1 (en) Method for recognizing token, electronic device and storage medium
CN116051388A (zh) 经由语言请求的自动照片编辑
CN113434683A (zh) 文本分类方法、装置、介质及电子设备
CN113360683B (zh) 训练跨模态检索模型的方法以及跨模态检索方法和装置
WO2024060839A1 (zh) 对象操作方法、装置、计算机设备以及计算机存储介质
CN116258147A (zh) 一种基于异构图卷积的多模态评论情感分析方法及系统
CN113139463B (zh) 用于训练模型的方法、装置、设备、介质和程序产品
CN113343979B (zh) 用于训练模型的方法、装置、设备、介质和程序产品
US20240153259A1 (en) Single image concept encoder for personalization using a pretrained diffusion model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230602

R150 Certificate of patent or registration of utility model

Ref document number: 7291183

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150