JP7262537B2 - 機械学習モデルの敵対的訓練方法、装置、電子機器及び媒体 - Google Patents

機械学習モデルの敵対的訓練方法、装置、電子機器及び媒体 Download PDF

Info

Publication number
JP7262537B2
JP7262537B2 JP2021144744A JP2021144744A JP7262537B2 JP 7262537 B2 JP7262537 B2 JP 7262537B2 JP 2021144744 A JP2021144744 A JP 2021144744A JP 2021144744 A JP2021144744 A JP 2021144744A JP 7262537 B2 JP7262537 B2 JP 7262537B2
Authority
JP
Japan
Prior art keywords
attention
machine learning
characters
learning model
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021144744A
Other languages
English (en)
Other versions
JP2021192289A (ja
Inventor
シユ ディン
シュオファン ワン
ユー スン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021192289A publication Critical patent/JP2021192289A/ja
Application granted granted Critical
Publication of JP7262537B2 publication Critical patent/JP7262537B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)
  • Character Discrimination (AREA)
  • Electrically Operated Instructional Devices (AREA)

Description

本出願は、NLP(Natural Language Processing、自然言語処理)、深層学習などのAI(Artificial Intelligence、人工知能)技術分野に関し、具体的には、本出願は、機械学習モデルの敵対的訓練方法、訓練方法、装置、電子機器及び媒体を提供する。
世界経済の急速な発展、国際文化交流の頻度の増加、及びインターネット技術の急速な発展に伴い、グローバル情報化の程度が急速に高まり、従来の手動翻訳に依存する方法では、人々の日常的な異言語間コミュニケーションの需要を満たすことができなくなる。
機械翻訳は、コンピュータを利用して、ある言語を他の言語に自動的に翻訳することができ、言語の壁の問題を解決するための最も強力な手段の1つである。理想的な状態では、機械翻訳方法は、見たこのない実例を正確に予測する必要があるだけでなく、敵対的な攻撃に対抗する必要もあり、即ち、ノイズが加われた敵対的サンプルを認識することができる。したがって、機械翻訳結果の品質を向上させるためには、翻訳モデルの敵対的訓練をどのように実現するかは非常に重要である。
本出願は、機械学習モデルのための敵対的訓練方法、装置、電子機器及び媒体を提供する。
本出願の一態様によれば、機械学習モデルの敵対的訓練方法を提供し、当該方法は、
訓練サンプルの入力情報を取得するステップと、
前記入力情報内の複数の入力文字のそれぞれに対して特徴抽出を行って、前記複数の入力文字の特徴を取得するステップと、
前記複数の入力文字の特徴を機械学習モデルに入力して、前記機械学習モデルの注意層を使用して前記複数の入力文字に対して注意重みキャプチャを行うステップと、
前記注意層によってキャプチャされた注意重みを擾乱して、前記機械学習モデルが擾乱された注意重みに基づいて予測文字を出力するようにするステップと、
前記予測文字と前記訓練サンプルのラベル付け文字との間の差に基づいて、前記機械学習モデルを訓練するステップと、を含む。
本出願の別の態様によれば、機械学習モデルの敵対的訓練装置を提供し、当該装置は、
訓練サンプルの入力情報を取得するための取得モジュールと、
前記入力情報内の複数の入力文字のそれぞれに対して特徴抽出を行って、前記複数の入力文字の特徴を取得するための抽出モジュールと、
前記複数の入力文字の特徴を機械学習モデルに入力して、前記機械学習モデルの注意層を使用して前記複数の入力文字に対して注意重みキャプチャを行うための入力モジュールと、
前記注意層によってキャプチャされた注意重みを擾乱して、前記機械学習モデルが擾乱された注意重みに基づいて予測文字を出力するようにするための擾乱モジュールと、
前記予測文字と前記訓練サンプルのラベル付け文字との間の差に基づいて、前記機械学習モデルを訓練するための訓練モジュールと、を含む。
本出願の他の態様によれば、電子機器を提供し、当該電子機器は、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、ただし、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが本出願の上記実施例にて提案される機械学習モデルの敵対的訓練方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
本出願のもう1つの態様によれば、コンピュータ命令の非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令は、前記コンピュータに本出願の上記実施例にて提案される機械学習モデルの敵対的訓練方法を実行させるために用いられる。
本出願のさらなる態様によれば、コンピュータプログラム製品を提供し、前記コンピュータプログラム製品における命令プロセッサが実行すると、本出願の上記実施例にて提案される機械学習モデルの敵対的訓練方法が実行される。
本出願のさらなる態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムは、コンピュータに本出願の上記実施例にて提案される機械学習モデルの敵対的訓練方法を実行させる。
なお、この部分に記載されている内容は、本出願の実施例の肝心なまたは重要な特徴を特定することを意図しておらず、本出願の範囲を限定するものでもない。本出願の他の特徴は、以下の説明を通じて容易に理解される。
図面は、本技術案をよりよく理解するために使用され、本出願を限定するものではない。
ALUM(大規模ニューラル言語モデルの敵対的訓練方法)原理の模式図である。 本出願の実施例1にて提供される機械学習モデルの敵対的訓練方法の概略フローチャートである。 本出願の実施例2にて提供される機械学習モデルの敵対的訓練方法の概略フローチャートである。 本出願の実施例の機械学習モデルの構造模式図である。 本出願の実施例3にて提供される機械学習モデルの敵対的訓練装置の構造模式図である。 本出願の実施例による機械学習モデルの敵対的訓練方法の電子機器のブロック図である。
以下、図面と組み合わせて本出願の例示的な実施例を説明し、理解を容易にするためにその中には本出願の実施例の様々な詳細事項が含まれており、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本出願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができる。同様に、わかりやすくかつ簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
理想的な状態では、機械学習アルゴリズムは、見たこのない実例を正確に予測する必要があるだけでなく、敵対的な攻撃に対抗する必要もあり、即ち、ノイズが加われた敵対的サンプルを正確に認識することができる。現在、BERT(Bidirectional Encoder Representations from Transformer、トランスフォーマー(Transformer)による双方向のエンエンコード表現)を初めとする予備訓練言語モデルは、「Pre-training(予備訓練)+Fine-tuning(微調整)」のパラダイムが提案され、様々なNLPタスクの効果を大幅に向上させた。しかしながら、上記アルゴリズムは、依然として敵対的シナリオに適応できない。
敵対的訓練は、敵対的サンプルを利用して設計した訓練方法であり、これでモデルの一般性及びロバスト性を向上させる。コンピュータビジョンの分野において、敵対的サンプル攻撃と敵対的訓練を目的とした探索は、すでに数多く行われ、そして、自然言語処理においても、敵対的訓練の研究は、ますます学者らに注目されるようになっている。
現在、自然言語処理の分野における敵対的訓練方法は、主に次の2つの方法を含む。
1つ目は、元の入力テキストに基づいて敵対的サンプルを生成し、例えば、元の入力テキスト内の語彙の一部を置き換えるなど、即ち、元のテキストに基づいてノイズが加われた敵対的サンプルを生成し、敵対的サンプルを利用してモデルに対して敵対的訓練を行う。
2つ目は、多様体スペースに基づいて敵対的サンプルを生成し、例えば、embedding space(特徴スペース)の擾乱について、即ち、入力テキストに対応する特徴ベクトルに擾乱を直接添加し、それにより、ノイズが加われた敵対的サンプルを生成し、敵対的サンプルを利用してモデルに対して敵対的訓練を行う。
2つ目の敵対的訓練方法は、最も典型的なモデリング方法はALUM(大規模ニューラル言語モデルの敵対的訓練方法)であり、ALUMは、入力テキストのembedding spaceに擾乱を加えて敵対的サンプルを生成し、それにより敵対的訓練が実現される。ここで、ALUMの原理は、図1に示すとおりであり得る。
ここで、トークン(token)は、モデルに入力される最小単位であり、例えば、中国語では、tokenは字であり、tokenエンコードは字のベクトルであり、英語では、tokenは単語であり、tokenエンコードは単語のベクトルである。H0、H1、…、H6はモデルから出力された特徴ベクトルである。図1から分かるように、ALUM方法は、入力テキストの各文字に対応する特徴ベクトルに擾乱を直接加えて、敵対的サンプルを生成する方法である。
ALUMモデルは、初めて多様体スペースで敵対的サンプルを生成することを試したアルゴリズムであり、それにより、自然言語処理の分野における敵対的訓練のさらなる発展を遂げた。しかし、ALUMのembedding space擾乱ポリシーは、汎用ポリシーであり、Transformerに基づくモデルに適用でき、他のタイプのモデルにも使用でき、即ち、ALUMモデルは、TransformerのSelf-Attention(自己注意機構)の強みを十分に活用していない。
したがって、上記の2つの敵対的訓練方法は、いずれもTransformerを基本構造とする予備訓練言語モデルに適合することができるが、上記2つの敵対的訓練方法は、Transformerの強みを利用しておらず、即ち、上記2つの敵対的訓練方法は、意図的にセルフアテンション(Self-Attention)の観点から敵対的サンプルを生成せず、モデルの敵対的訓練を実現する。ここで、Self-Attentionは、Transformerのキーポリシーであり、文字の、その周辺文字に対する依存度や注目度を決定し、モデルの最終的な効果に影響を与える重要な要因でもある。したがって、本出願は、機械学習モデルの敵対的訓練を実現するために、注意重みを擾乱するポリシーを提案して、TransformerにおけるSelf-Attentionの強みを十分に活用する。
以下、図面を参照しながら、本出願の実施例の機械学習モデルの敵対的訓練方法、装置、電子機器及び媒体について説明する。
図2は、本出願の実施例1にて提供される機械学習モデルの敵対的訓練方法の概略フローチャートである。
本出願の実施例は、当該機械学習モデルの敵対的訓練方法が機械学習モデルの敵対的訓練装置に配置されることを例として説明し、当該機械学習モデルの敵対的訓練装置は、いずれの電子機器に適用できるため、当該電子機器が機械学習モデルの敵対的訓練機能を実行できる。
ここで、電子機器は、コンピューティング機能を備えたいずれのデバイスであってもよく、例えば、PC(Personal Computer、パーソナルコンピュータ)、モバイル端末、サーバなどであってもよく、モバイル端末は、例えば携帯電話、タブレットコンピュータ、パーソナルデジタルアシスタント、ウェアラブルデバイス、車載デバイスなどの様々なオペレーティングシステム、タッチスクリーン及び/又は表示スクリーンのハードウェアデバイスであってもよい。
図2に示すように、当該機械学習モデルの敵対的訓練方法は、以下のステップ201~ステップ205を含んでもよい。
ステップ201、訓練サンプルの入力情報を取得する。
本出願の実施例では、訓練サンプルは、翻訳要件に基づいて選択することができ、ここで、各訓練サンプルの入力情報は、同じ言語に属するテキスト情報であっても、異なる言語に属するテキスト情報であってもよい。
例えば、当該機械学習モデルが第1言語のテキスト情報を第2言語のテキスト情報に翻訳するために用いられる場合、ただし、例えば第1言語が中国語で、第2言語が英語であってもよく、又は、第1言語が中国語で、第2言語がフランス語であってもよいなどのように、第1言語は第2言語と異なり、この場合、各訓練サンプルの入力情報の言語を第1言語にしてもよい。
別の例として、当該機械学習モデルが、中国語と英語の双方向翻訳シナリオのような第1言語と第2言語間の双方向翻訳のシナリオに用いられる場合、訓練サンプルは、第1言語に属する入力情報を含む訓練サンプル、及び/又は、第2言語に属する入力情報を含む訓練サンプルを含んでもよく、即ち、各訓練サンプルの入力情報の言語は、第1言語であってもよいし、第2言語であってもよいし、第1言語及び第2言語を同時に含んでもよく、本出願ではこれに対して限定しない。
本出願の実施例では、翻訳要件に基づいて、訓練サンプルを選択して、訓練サンプルの入力情報を取得することができる。
一例示として、翻訳要件に基づいて、コーパスを構築することができ、ここで、コーパスに、複数のバイリンガルセンテンスペアが含まれてもよく、バイリンガルセンテンスペアごとに、双方向翻訳の2つのセンテンスが含まれてもよく、それにより、バイリンガルセンテンスペアに基づいて、訓練サンプルを生成することができる。例えば、バイリンガルセンテンスペアのうちの1つのセンテンスを訓練サンプルの入力情報とし、バイリンガルセンテンスペアのうちの別のセンテンスに基づいて、訓練サンプルにタグを付け、タグ付けされた訓練サンプルを得る。
ステップ202、入力情報内の複数の入力文字のそれぞれに対して特徴抽出を行って、複数の入力文字の特徴を取得する。
本出願の実施例では、訓練サンプルの入力情報を取得した後、入力情報の各文字を本出願では入力文字と記して特徴抽出を行うことができ、複数の入力文字の特徴を得る。例えば、入力情報が属する言語が中国語である場合、各入力文字の特徴は文字の字ベクトルであってもよく、入力情報が属する言語が英語である場合、各入力文字の特徴は単語の単語ベクトルであってもよい。
本出願の実施例の可能な一実施形態において、エンコーダで入力情報内の各入力文字をエンコードして、入力情報内の各入力文字に対応する特徴を得ることができる。
本出願の実施例の別の可能な実施形態において、NLP技術における特徴抽出アルゴリズムに基づいて、入力情報内の各入力文字に対して特徴抽出を行って、各入力文字に対応する特徴を得ることができる。
なお、上記は例示的な実施例であるが、これに限定されず、入力文字の特徴を得ることができる限り、当分野の公知の他のエンコード方法又は特徴抽出方法又は文字ベクトル計算方法をさらに含んでもよい。
ステップ203、複数の入力文字の特徴を機械学習モデルに入力して、機械学習モデルの注意層を使用して複数の入力文字に対して注意重みキャプチャを行う。
本出願の実施例では、複数の入力文字の特徴を機械学習モデルに入力でき、それにより、機械学習モデルの注意層によって、複数の入力文字に対して注意重みキャプチャを行うことができる。
ここで、注意重みは、複数の入力文字において、各入力文字の他の文字に対する注目度や依存度を表すために用いられる。例を挙げると、入力情報の言語が中国語である場合、例えば、入力情報が「我愛打籠球(私はバスケットボールをするのが大好きです)」である場合、入力文字「我(私)」の「愛(大好き)」に対する依存度や注目度は、「籠(バスケット)」の「球(ボール)」に対する依存度や注目度より低い必要があり、例えば、「我」の「愛」に対する依存度や注目度を値0.2で表すことができ、「籠」の「球」に対する依存度や注目度を値0.8で表すことができる。
本出願の実施例の可能な一実施形態において、注意層は予め設定されたアルゴリズムに基づいて、又は特定のルールに基づいて、入力情報内の他の文字に対する各入力文字の依存度や注目度を決定することができ、それにより注意重みを得て出力する。例えば、注意層は、予め設定されたアルゴリズムに基づいて、又は特定のルールに基づいて、各入力文字の特徴に対して演算処理を行って、入力情報内の他の文字に対する各入力文字の依存度や注目度を決定し、それにより注意重みを得る。
これにより、各入力文字の他の文字に対する注目度を表すための注意重みを計算することができることにより、後続で、注意重みを擾乱して、機械学習モデルの訓練を妨害することができ、それにより、モデルの敵対的訓練が実現され、モデルのロバスト性及び一般性が向上する。
ステップ204、注意層によってキャプチャされた注意重みを擾乱して、機械学習モデルが擾乱された注意重みに基づいて予測文字を出力するようにする。
本出願の実施例では、注意層によってキャプチャされた注意重みを擾乱して、機械学習モデルが擾乱された注意重みに基づいて予測文字を出力するようにすることができる。
例えば、注意層から出力された注意重みを擾乱することができ、引き続き上記の例を例示とすると、「我」の「愛」に対する依存度や注目度を0.2から0.9に擾乱し、「籠」の「球」に対する依存度や注目度を0.8から0.5に擾乱することができ、それにより、機械学習モデルは、変更後の注意重みに基づいて予測文字を出力することができる。
本出願の実施例の可能な一実施形態において、注意層から出力された注意重みは行列状であり、当該注意重みに対応する行列は、複数の次元の重み成分を有し、予め設定された範囲内で1つの乱数を生成することができ、本出願では第1乱数と記し、例えば、(-1,1)の範囲内で、第1乱数をランダムに生成することができ、当該第1乱数を利用して、行列内の1つ又は複数の次元の重み成分を置き換えることにより、注意層の予測によって得られた注意重みに対する擾乱が実現される。
本出願の実施例の別の可能な実施形態において、注意層から出力された注意重みは行列状であり、当該注意重みに対応する行列は、複数の次元の重み成分を有し、1つの乱数を生成でき、本出願では第2乱数と記し、当該第2乱数を利用して、行列内の1つ又は複数の次元の重み成分を更新する。例えば、行列内の1つ又は複数の次元の重み成分から第2乱数を減算し、及び/又は、行列内の1つ又は複数の次元の重み成分に第2乱数を足すことができ、更新後の注意重みを得る。
ここで、各重み成分は、対応する入力文字の他の文字に対する注目度又は依存度を表すために用いられ、注目度又は依存度が高いほど、重み成分の値も大きくなり、逆に、注目度又は依存度が低いほど、重み成分の値も小さくなる。
一例示では、行列内の擾乱する必要のある重み成分の数を事前に設定することができ、本出願では、1つ目の数をマークし、例えば、当該1つ目の数は1つであっても、複数であってもよく、本出願ではこれに対して限定しない。1つ目の数を決定した後、注意重みに対応する行列から、1つ目の数の次元の重み成分をランダムに選択して擾乱することができる。無論、全ての次元の重み成分を擾乱することもでき、例えば、行列内の全ての要素に乱数を足して、注意重みに対する擾乱を実現し、本出願ではこれに対して限定しない。
別の例示では、行列内の擾乱する必要のある重み成分に対応する次元を事前に指定することができ、それにより、指定された次元に基づいて、行列内の対応する次元の重み成分を擾乱することができる。無論、全ての次元の重み成分を擾乱することもでき、例えば、行列内の全ての要素に乱数を足して、注意重みに対する擾乱を実現し、本出願ではこれに対して限定しない。
これにより、様々な方式で、注意層によってキャプチャされた注意重みを擾乱することができ、当該方法の適用性を向上させることができる。
ステップ205、予測文字と訓練サンプルのラベル付け文字との間の差に基づいて、機械学習モデルを訓練する。
本出願の実施例では、訓練サンプルのラベル付け文字は、訓練サンプルにタグが付けられた、入力情報に対応する標準訳文の各文字であってもよい。例えば、訓練サンプルは、双方向翻訳のバイリンガルセンテンスペアに従って生成されてもよく、入力情報がバイリンガルセンテンスペアのうちの1つのセンテンスである場合、ラベル付け文字は訓練サンプルにタグが付けられた、バイリンガルセンテンスペアのうちの別のセンテンスの各文字である。
なお、予測文字は、機械学習モデルの予測によって得られた各文字であり、ラベル付け文字は、入力情報に対応する標準訳文の各文字であり、予測文字とラベル付け文字との間の差が小さい場合、機械学習モデルは、予測精度が高く、性能がよく、翻訳結果の正確性も高い。したがって、本出願では、予測文字と訓練サンプルのラベル付け文字との間の差に基づいて、機械学習モデルを訓練することができる。例えば、予測文字と訓練サンプルのラベル付け文字との間の差が大きい場合、機械学習モデルのモデルパラメータを調整することにより、予測文字とラベル付け文字との間の差を最小限にすることができる。
本出願の実施例の機械学習モデルの敵対的訓練方法は、訓練サンプルの入力情報内の複数の入力文字のそれぞれに対して特徴抽出を行って、複数の入力文字の特徴を取得し、複数の入力文字の特徴を機械学習モデルに入力して、機械学習モデルの注意層を使用して複数の入力文字に対して注意重みキャプチャを行い、注意層によってキャプチャされた注意重みを擾乱して、機械学習モデルが擾乱された注意重みに基づいて予測文字を出力するようにし、最後に、予測文字と訓練サンプルのラベル付け文字との間の差に基づいて機械学習モデルを訓練する。これにより、機械学習モデルの訓練中に、注意層から出力された注意重みを擾乱することにより、機械学習モデルの訓練を妨害し、それにより、モデルの敵対的訓練が実現され、モデルのロバスト性及び一般性を向上させることができる。
本出願の実施例では、AI分野における深層学習方法又は機械学習方法を使用して、機械学習モデルを訓練することができ、ここで、人工知能は、人間のある思考プロセス及び知的行動(例えば、学習、推理、思考、計画など)をコンピュータにシミュレートさせることを研究する学科であり、ハードウェアレベルの技術とソフトウェアレベルの技術の両方がある。人工知能ハードウェア技術には、一般的に、センサ、専用の人工知能チップ、クラウドコンピューティング、分散ストレージ、ビッグデータ処理などのような技術が含まれており、人工知能ソフトウェア技術には、主に、コンピュータビジョン技術、音声認識技術、自然言語処理技術及び機械学習/深層学習、ビッグデータ処理技術、マッピング知識ドメイン技術など、いくつかの大きい方向がある。
本出願の実施例の可能な一実施形態において、さらに、複数の入力文字のうちの少なくとも1つの入力文字の特徴に対して特徴擾乱を行うことができる。例えば、他の値に置き換えるなどのように、少なくとも1つの入力文字の特徴のうちの少なくとも1つの次元の値を置き換えるか、又は、予め設定された値又は乱数を入力文字の特徴のうちの少なくとも1つの次元の値に足して、更新後の特徴を得ることができるなどのように、予め設定された値又は乱数を利用して、少なくとも1つの入力文字の特徴のうちの少なくとも1つの次元の値を更新することができる。これにより、入力文字の特徴に対して特徴擾乱を行うことにより、機械学習モデルの訓練を妨害することが実現され、それにより、モデルの敵対的訓練が実現され、モデルのロバスト性及び一般性をさらに向上させることができる。
なお、本出願では、特徴擾乱の実行順序に対して限定しない。例えば、複数の入力文字の特徴を抽出した後、即ち上記ステップ202の後に、複数の入力文字のうちの少なくとも1つの入力文字の特徴に対して特徴擾乱を行ってもよいし、注意層によってキャプチャされた注意重みを擾乱すると同時に、複数の入力文字のうちの少なくとも1つの入力文字の特徴に対して特徴擾乱を行ってもよい。
例を挙げると、入力文字の言語が中国語である場合、入力文字の特徴は字ベクトルであり、字ベクトルにおける少なくとも1つの次元の値を置き換えることができ、入力文字の言語が英語である場合、入力文字の特徴は単語ベクトルであり、乱数を利用して、単語ベクトルにおける少なくとも1つの次元の値を更新することができ、例えば、少なくとも1つの次元の値に乱数を足す。
本出願の実施例の可能な一実施形態において、機械学習モデルは、Transformerに基づいて構築されるモデルであってもよく、モデルに複数の注意層がふくまれてもよく、本出願では、モデルの複数の注意層におけるターゲット注意層で、当該ターゲット注意層から出力された注意重みを擾乱することができる。以下、実施例2を参照しながら、上記プロセスについて詳細に説明する。
図3は、本出願の実施例2にて提供される機械学習モデルの敵対的訓練方法の概略フローチャートである。
図3に示すように、当該機械学習モデルの敵対的訓練方法は、次のステップ301~ステップ306を含んでもよい。
ステップ301、訓練サンプルの入力情報を取得する。
ステップ302、入力情報内の複数の入力文字のそれぞれに対して特徴抽出を行って、複数の入力文字の特徴を取得する。
ステップ303、複数の入力文字の特徴を機械学習モデルに入力して、機械学習モデルの注意層を使用して複数の入力文字に対して注意重みキャプチャを行う。
本出願の実施例では、機械学習モデルは複数の注意層を含む。例えば、機械学習モデルは、Base Transformerを基本構造とし、当該機械学習モデルは、12層を含んでもよく、注意層の数は12である。ここで、機械学習モデルの各注意層は、いずれも複数の入力文字に対して注意重みキャプチャを行って、対応する注意重みをキャプチャすることができる。
例えば、注意層は、Self-Attention層又はMulti-Head Attention(マルチヘッド注意機構)層などであってもよく、注意層は、各々の入力文字と入力情報内の他の文字に対して特定の演算処理を行って、1つの値を取得することができ、当該値は、当該入力文字に対応する重み成分であり、即ち、注意層は、特定のルールに基づいて、当該入力文字の特徴及び他の文字の特徴を計算して、当該入力文字の隣接する入力文字に対する注目度を表すための重み成分を決定することができる。
ステップ301~303の実行過程は、上記実施例のステップ201~203の実行過程を参照することができ、ここでは、詳細な説明を省略する。
ステップ304、複数の注意層から、少なくとも1つのターゲット注意層をランダムに選択する。
本出願の実施例では、選択するターゲット注意層の数を事前に設定することができ、本出願では2つ目の数と記し、例えば、2つ目の数は1つであっても、複数であってもよく、本出願ではこれに対して限定しない。選択されたターゲット注意層の2つ目の数を決定した後、複数の注意層から2つ目の数のターゲット注意層をランダムに選択することができる。
ステップ305、ターゲット注意層から出力された注意重みを擾乱して、機械学習モデルが擾乱された注意重みに基づいて予測文字を出力するようにする。
本出願の実施例では、ターゲット注意層を選択した後、ターゲット注意層から出力された注意重みを擾乱することができる。
本出願の実施例の可能な一実施形態において、ターゲット注意層から出力された注意重みは行列状であり、当該注意重みに対応する行列は複数の次元の重み成分を有し、予め設定された範囲内で1つの乱数を生成することができ、本出願では、第1乱数と記し、例えば、(-1,1)の範囲内で、第1乱数をランダムに生成し、当該第1乱数を利用して、行列内の1つ又は複数の次元の重み成分を置き換えることにより、ターゲット注意層から出力された注意重みに対する擾乱を実現する。
本出願の実施例の別の可能な実施形態において、ターゲット注意層から出力された注意重みは行列状であり、当該注意重みに対応する行列は、複数の次元の重み成分を有し、1つの乱数を生成でき、本出願では、第2乱数と記し、当該第2乱数を利用して、ターゲット注意層から出力された注意重みに対応する行列内の1つ又は複数の次元の重み成分を更新する。例えば、ターゲット注意層から出力された注意重みに対応する行列内の1つ又は複数の次元の重み成分から第2乱数を減算することも、ターゲット注意層から出力された注意重みに対応する行列内の1つ又は複数の次元の重み成分に第2乱数を足すこともでき、更新後の注意重みを得る。
これにより、様々な方式で、ターゲット注意層から出力された注意重みを擾乱することができ、当該方法の適用性を向上させることができる。
ステップ306、予測文字と訓練サンプルのラベル付け文字との間の差に基づいて、機械学習モデルを訓練する。
ステップ306の実行過程は、上記実施例のステップ205の実行過程を参照することができるため、ここでは、詳細な説明を省略する。
一例示として、図4を参照すると、図4は、本出願の実施例の機械学習モデルの構造模式図である。ここで、Matmulとは、行列の乗算を言い、SoftMaxは活性化関数を表し、Maskはマスクコードを表し、注意層(Self-Attention)の3つの入力はそれぞれQ∈R(n×dk)、K∈R(m×dk)、V∈R(m×dv)である。注意層は、各文字の他の文字に対する注目度を表すための注意重みを出力することができ、SoftMaxの後、注意重みをスクランブルすることができる。
本出願の実施例の機械学習モデルの敵対的訓練方法は、複数の注意層から、少なくとも1つのターゲット注意層をランダムに選択し、ターゲット注意層から出力された注意重みを擾乱して、機械学習モデルが擾乱された注意重みに基づいて予測文字を出力するようにする。これにより、機械学習モデルの訓練中に、ターゲット注意層から出力された注意重みを擾乱することにより、機械学習モデルの訓練を妨害することができ、それにより、モデルの敵対的訓練が実現され、モデルのロバスト性及び一般性を向上させることができる。
本出願の実施例の可能な一実施形態において、上記機械学習モデルは、Transformerに基づいて構築されるモデルであってもよく、例えば、本出願の実施例の敵対的訓練方法は、Transformerに基づく予備訓練言語モデルの予備訓練段階及び微調整段階に適用できる。予備訓練段階及び/又は微調整段階で、モデルのロバスト性及び一般性を高めるために、注意層から出力された注意重みを擾乱することができる。
本出願の実施例の敵対的訓練方法は、ALUMを基に、Self-Attentionの観点から敵対的サンプルを生成するポリシーを追加的に導入してもよい。例えば、Transformerアーキテクチャにおいて、機械学習モデルは、多層Multi-Head Attention+Feed Forward(フィードフォワード)モジュールから構成されてもよく、Feed Forwardモジュールが果たす役割は、Multi-Head Attentionモジュールによって取得された情報を統合し、フィルタリングすることである。Multi-Head Attentionは、Transformerのコアポリシーとして、各tokenの他のtokenに対する依存関係又は注目度を表すための注意重みを生成するために、Self-Attentionを利用してtokenとtokenとの間の依存関係又は注目度を捕獲することができ、生成された注意重み(Attention Weights)は、依存関係又は注目度の値の具現化である。したがって、注意重みを直接擾乱することで、モデルの訓練を根本的に妨害することができ、それによりモデルの敵対的訓練が実現される。
例えば、入力情報の言語が中国語である場合、Multi-Head Attention層によって生成された、字と字との間の依存度や注目度を表す注意重み(attention weight)に擾乱を加えることができ、例えば、注意重みの少なくとも1つの次元の重み成分に乱数を足す。例を挙げると、入力情報が「我愛打籠球」であると仮定すると、「愛」と「籠」との間の依存関係又は注目度(0.2)に0.7を足し(即ち0.9に変化)、「籠」と「球」との依存関係又は注目度(0.8)に-0.3を足し(即ち0.5に変化)、こうすると、モデルの訓練を直接妨害し、それにより敵対的訓練の目的が達成される。
予備訓練段階では、モデルは、毎回の文字予測の実行中に、embedding space及びattention weight spaceから1ヶ所をランダムに選択して擾乱を加えることができ、即ち、入力文字の特徴に対して特徴擾乱及び注意重み擾乱を行う。モデルがBase Transformer(12層)を基本構造とすると仮定すると、注意層は12個で、embedding space及びattention weight space(特徴擾乱及び注意重み擾乱)は合計13ヶ所あり、訓練サンプルを利用してモデルを訓練する過程において、13ヶ所から少なくとも1ヶ所をランダムに選択して擾乱を加えることができる。
微調整段階では、擾乱の加え方は、予備訓練段階と一致する。
これにより、注意重み擾乱の方式に基づいて、モデルに対して敵対的訓練を行うことにより、モデルがTransformerにおけるSelf-Attentionの強みを十分に活用することができる。
上記図2~図3の実施例にて提供される機械学習モデルの敵対的訓練方法に対応して、本出願は、機械学習モデルの敵対的訓練装置をさらに提供し、本出願の実施例にて提供される機械学習モデルの敵対的訓練装置は、上記図2~図3実施例にて提供される機械学習モデルの敵対的訓練方法に対応するため、機械学習モデルの敵対的訓練方法の実施形態も本出願の実施例に提供される機械学習モデルの敵対的訓練装置に適用でき、本出願の実施例では、詳細な説明を省略する。
図5は、本出願の実施例3にて提供される機械学習モデルの敵対的訓練装置の構造模式図である。
図5に示すように、当該機械学習モデルの敵対的訓練装置500は、取得モジュール510、抽出モジュール520、擾乱モジュール530、擾乱モジュール540及び訓練モジュール550を含む。
ここで、取得モジュール510は、訓練サンプルの入力情報を取得するために用いられる。
抽出モジュール520は、入力情報内の複数の入力文字のそれぞれに対して特徴抽出を行って、複数の入力文字の特徴を取得するために用いられる。
入力モジュール530は、前記複数の入力文字の特徴を機械学習モデルに入力して、機械学習モデルの注意層を使用して前記複数の入力文字に対して注意重みキャプチャを行うために用いられる。
擾乱モジュール540は、注意層によってキャプチャされた注意重みを擾乱して、機械学習モデルが擾乱された注意重みに基づいて予測文字を出力するようにするために用いられる。
訓練モジュール550は、予測文字と訓練サンプルのラベル付け文字との間の差に基づいて、機械学習モデルを訓練するために用いられる。
本出願の実施例の可能な一実施形態において、注意重みは行列状であり、擾乱モジュール530は、具体的には、予め設定された範囲内で第1乱数を生成し、第1乱数に基づいて行列内の1つ又は複数の次元の重み成分を置き換えるために用いられる。
本出願の実施例の可能な一実施形態において、注意重みは行列状であり、擾乱モジュール530は、具体的には、第2乱数を生成し、第2乱数を使用して行列内の1つ又は複数の次元の重み成分を更新するために用いられる。
本出願の実施例の可能な一実施形態において、擾乱モジュール530は、さらに、複数の入力文字のうちの少なくとも1つの入力文字の特徴に対して特徴擾乱を行うために用いられる。
本出願の実施例の可能な一実施形態において、機械学習モデルは、複数の注意層を含み、ここで、擾乱モジュール530は、具体的には、複数の注意層から、少なくとも1つのターゲット注意層をランダムに選択し、ターゲット注意層から出力された注意重みを擾乱するために用いられる。
本出願の実施例の可能な一実施形態において、注意重みは、複数の入力文字のうちの各入力文字の他の文字に対する注目度を表すために用いられる。
本出願の実施例の機械学習モデルの敵対的訓練装置は、訓練サンプルの入力情報内の複数の入力文字のそれぞれに対して特徴抽出を行って、複数の入力文字の特徴を取得し、複数の入力文字の特徴を機械学習モデルに入力して、機械学習モデルの注意層を使用して複数の入力文字に対して注意重みキャプチャを行い、注意層によってキャプチャされた注意重みを擾乱して、機械学習モデルが擾乱された注意重みに基づいて予測文字を出力するようにし、予測文字と訓練サンプルのラベル付け文字との間の差に基づいて機械学習モデルを訓練する。これにより、機械学習モデルの訓練中に、注意層から出力された注意重みを擾乱することにより、機械学習モデルの訓練を妨害し、それにより、モデルの敵対的訓練が実現され、モデルのロバスト性及び一般性を向上させることができる。
本出願の実施例によれば、本出願は、電子機器及び読み取り可能な記憶媒体をさらに提供する。
本出願の実施例によれば、本出願は、コンピュータプログラムを提供し、コンピュータプログラムは、コンピュータに本出願によって提供される機械学習モデルの敵対的訓練方法を実行させる。
図6に示すように、本出願の実施例による機械学習モデルの敵対的訓練方法の電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタルプロセッサ、携帯電話、スマートフォン、ウェアラブルデバイス、他の類似するコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本出願の実現を制限することを意図したものではない。
図6に示すように、当該電子機器は、1つ又は複数のプロセッサ601と、メモリ602と、高速インターフェース及び低速インターフェースを含む、各コンポーネントを接続するためのインターフェースと、を含む。各コンポーネントは、異なるバスで相互に接続され、共通のマザーボードに取り付けられるか、又は必要に応じて他の方式で取り付けることができる。プロセッサは、電子機器内で実行される命令を処理することができ、当該命令は、外部入力/出力装置(例えば、インターフェースに結合されたディスプレイデバイスなど)にGUIの図形情報をディスプレイするためにメモリ内又はメモリに記憶されている命令を含む。他の実施形態では、必要に応じて、複数のプロセッサ及び/又は複数のバスを、複数のメモリと一緒に使用することができる。同様に、複数の電子機器を接続することができ、各電子機器は、一部の必要な操作(例えば、サーバアレイ、1グループのブレードサーバ、又はマルチプロセッサシステムとする)を提供することができる。図6では、1つのプロセッサ601を例とする。
メモリ602は、本出願により提供される非一時的なコンピュータ読み取り可能な記憶媒体である。ここで、前記メモリには、少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記少なくとも1つのプロセッサが本出願により提供される機械学習モデルの敵対的訓練方法を実行するようにする。本出願の非一時的なコンピュータ読み取り可能な記憶媒体には、コンピュータに本出願により提供される機械学習モデルの敵対的訓練方法を実行させるためのコンピュータ命令が記憶されている。
メモリ602は、非一時的なコンピュータ読み取り可能な記憶媒体として、本出願の実施例における機械学習モデルの敵対的訓練方法に対応するプログラム命令/モジュール(例えば、図5に示す取得モジュール510、抽出モジュール520、入力モジュール530、擾乱モジュール540及び訓練モジュール550)のような、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュールを記憶する。プロセッサ601は、メモリ602に記憶されている非一時的なソフトウェアプログラム、命令及びモジュールを実行することによって、サーバの様々な機能アプリケーション及びデータ処理を実行し、すなわち上記の方法の実施例における機械学習モデルの敵対的訓練方法を実現する。
メモリ602は、プログラムストレージエリアとデータストレージエリアとを含むことができ、ここで、プログラムストレージエリアは、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶することができ、データストレージエリアは、機械学習モデルの敵対的訓練方法の電子機器の使用によって作成されたデータなどを記憶することができる。また、メモリ602は、高速ランダムアクセスメモリを含むことができ、非一時的なメモリをさらに含むことができ、例えば、少なくとも1つの磁気ディスクストレージデバイス、フラッシュメモリデバイス、又は他の非一時的なソリッドステートストレージデバイスである。いくつかの実施例では、メモリ602は、プロセッサ601に対して遠隔に設定されたメモリを選択的に含むことができ、これらの遠隔メモリは、ネットワークを介して電子機器に接続されることができる。上記のネットワークの例は、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びその組み合わせを含むが、これらに限定されない。
電子機器は、入力装置603と出力装置604とをさらに含むことができる。プロセッサ601、メモリ602、入力装置603、及び出力装置604は、バス又は他の方式を介して接続することができ、図6では、バスを介して接続することを例とする。
入力装置603は、入力された数又は文字情報を受信し、電子機器のユーザ設定及び機能制御に関するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングスティック、1つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置604は、ディスプレイデバイス、補助照明装置(例えば、LED)、及び触覚フィードバックデバイス(例えば、振動モータ)などを含むことができる。当該ディスプレイデバイスは、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、及びプラズマディスプレイを含むことができるが、これらに限定されない。いくつかの実施形態で、ディスプレイデバイスは、タッチスクリーンであってもよい。
本明細書で説明されるシステムと技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施され、当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラム可能なシステムで実行及び/又は解釈することができ、当該プログラマブルプロセッサは、専用又は汎用のプログラマブルプロセッサであってもよく、ストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送することができる。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含むことができ、高レベルのプロセス及び/又は対象指向プログラミング言語、及び/又はアセンブリ/機械言語でこれらのコンピューティングプログラムを実施することができる。本明細書で使用されるような、「機械読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械読み取り可能な信号である機械命令を受信する機械読み取り可能な媒体を含む。「機械読み取り可能な信号」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクションを提供するために、ここで説明されているシステム及び技術をコンピュータ上で実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置も、ユーザとのインタラクションを提供することができ、例えば、ユーザに提供されるフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形態(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータであり、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションする)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットとを含む。
コンピュータシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般的に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、かつ互いにクライアント-サーバの関係を有するコンピュータプログラムによって、クライアントとサーバとの関係が生成される。サーバは、クラウドコンピューティングサーバ又はクラウドホストとも呼ばれるクラウドサーバであってもよく、従来の物理ホスト及びVPSサービス(Virtual Private Server、仮想専用サーバ)に存在する管理が難しく、サービス拡張性が弱いという欠点を解決するためのクラウドコンピューティングサービスシステムにおけるホスト製品の1つである。サーバは、分散システムのサーバであっても、ブロックチェーンと組み合わせたサーバであってもよい。
本出願の実施例によれば、本出願は、コンピュータプログラム製品をさらに提供し、前記コンピュータプログラム製品における命令プロセッサが実行すると、本出願の上記実施例にて提案される機械学習モデルの敵対的訓練方法が実行される。
本出願の実施例による技術案は、訓練サンプルの入力情報内の複数の入力文字のそれぞれに対して特徴抽出を行って、複数の入力文字の特徴を取得し、複数の入力文字の特徴を機械学習モデルに入力して、機械学習モデルの注意層を使用して複数の入力文字に対して注意重みキャプチャを行い、注意層によってキャプチャされた注意重みを擾乱して、機械学習モデルが擾乱された注意重みに基づいて予測文字を出力するようにし、予測文字と訓練サンプルのラベル付け文字との間の差に基づいて機械学習モデルを訓練する。これにより、機械学習モデルの訓練中に、注意層から出力された注意重みを擾乱することにより、機械学習モデルの訓練を妨害し、それにより、モデルの敵対的訓練が実現され、モデルのロバスト性及び一般性を向上させることができる。
上記に示される様々な形態のフローを使用して、ステップを並べ替え、追加、又は削除することができる。例えば、本出願に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本出願で開示されている技術案が所望の結果を実現することができれば、本明細書では限定しない。
上記の具体的な実施形態は、本出願の保護範囲を制限するものではない。当業者は、設計要件と他の要因に基づいて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。本出願の精神と原則内で行われる任意の修正、同等の置換、及び改善などは、いずれも本出願の保護範囲内に含まれるべきである。

Claims (13)

  1. 機械学習モデルの敵対的訓練方法であって、
    訓練サンプルの入力情報を取得するステップと、
    前記入力情報内の複数の入力文字のそれぞれに対して特徴抽出を行って、前記複数の入力文字の特徴を取得するステップと、
    前記複数の入力文字の特徴を機械学習モデルに入力して、前記機械学習モデルの注意層を使用して前記複数の入力文字に対して注意重みキャプチャを行うステップと、
    前記注意層によってキャプチャされた注意重みを擾乱して、前記機械学習モデルが擾乱された注意重みに基づいて予測文字を出力するようにするステップと、
    前記予測文字と前記訓練サンプルのラベル付け文字との間の差に基づいて、前記機械学習モデルを訓練するステップと、
    前記複数の入力文字のうちの少なくとも1つの入力文字の特徴に対して特徴擾乱を行うステップと、を含む、
    ことを特徴とする機械学習モデルの敵対的訓練方法。
  2. 前記注意重みは行列状であり、
    前記注意層によってキャプチャされた注意重みを擾乱するステップは、
    予め設定された範囲内で第1乱数を生成し、前記第1乱数に基づいて、前記行列内の1つ又は複数の次元の重み成分を置き換えるステップを含む、
    ことを特徴とする請求項1に記載の方法。
  3. 前記注意重みは行列状であり、
    前記注意層によってキャプチャされた注意重みを擾乱するステップは、
    第2乱数を生成し、前記第2乱数を使用して、前記行列内の1つ又は複数の次元の重み成分を更新するステップを含む、
    ことを特徴とする請求項1に記載の方法。
  4. 前記機械学習モデルは複数の注意層を含み、
    前記注意層によってキャプチャされた注意重みを擾乱するステップは、
    前記複数の注意層から少なくとも1つのターゲット注意層をランダムに選択するステップと、
    前記ターゲット注意層から出力された注意重みを擾乱するステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  5. 前記注意重みは、前記複数の入力文字のうちの各入力文字の他の文字に対する注目度を表す、
    ことを特徴とする請求項1~のいずれか1項に記載の方法。
  6. 機械学習モデルの敵対的訓練装置であって、
    訓練サンプルの入力情報を取得するための取得モジュールと、
    前記入力情報内の複数の入力文字のそれぞれに対して特徴抽出を行って、前記複数の入力文字の特徴を取得するための抽出モジュールと、
    前記複数の入力文字の特徴を機械学習モデルに入力して、前記機械学習モデルの注意層を使用して前記複数の入力文字に対して注意重みキャプチャを行うための入力モジュールと、
    前記注意層によってキャプチャされた注意重みを擾乱して、前記機械学習モデルが擾乱された注意重みに基づいて予測文字を出力するようにするための擾乱モジュールと、
    前記予測文字と前記訓練サンプルのラベル付け文字との間の差に基づいて、前記機械学習モデルを訓練するための訓練モジュールと、を含み、
    前記擾乱モジュールが、
    前記複数の入力文字のうちの少なくとも1つの入力文字の特徴に対して特徴擾乱を行う、
    ことを特徴とする機械学習モデルの敵対的訓練装置。
  7. 前記注意重みは行列状であり、
    前記擾乱モジュールが、
    予め設定された範囲内で第1乱数を生成し、前記第1乱数に基づいて、前記行列内の1つ又は複数の次元の重み成分を置き換える、
    ことを特徴とする請求項に記載の装置。
  8. 前記注意重みは行列状であり、
    前記擾乱モジュールが、
    第2乱数を生成し、前記第2乱数を使用して、前記行列内の1つ又は複数の次元の重み成分を更新する、
    ことを特徴とする請求項に記載の装置。
  9. 前記機械学習モデルは複数の注意層を含み、
    前記擾乱モジュールが、
    前記複数の注意層から少なくとも1つのターゲット注意層をランダムに選択し、
    前記ターゲット注意層から出力された注意重みを擾乱する、
    ことを特徴とする請求項に記載の装置。
  10. 前記注意重みは、前記複数の入力文字のうちの各入力文字の他の文字に対する注目度を表す、
    ことを特徴とする請求項に記載の装置。
  11. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが請求項1~のいずれか1項に記載の機械学習モデルの敵対的訓練方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
    ことを特徴とする電子機器。
  12. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令は、コンピュータに請求項1~のいずれか1項に記載の機械学習モデルの敵対的訓練方法を実行させる、
    ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
  13. コンピュータプログラムであって、
    前記コンピュータプログラムは、コンピュータに請求項1~のいずれか1項に記載の機械学習モデルの敵対的訓練方法を実行させる、
    ことを特徴とするコンピュータプログラム。
JP2021144744A 2020-12-16 2021-09-06 機械学習モデルの敵対的訓練方法、装置、電子機器及び媒体 Active JP7262537B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011488742.5A CN112580822B (zh) 2020-12-16 2020-12-16 机器学习模型的对抗训练方法装置、电子设备和介质
CN202011488742.5 2020-12-16

Publications (2)

Publication Number Publication Date
JP2021192289A JP2021192289A (ja) 2021-12-16
JP7262537B2 true JP7262537B2 (ja) 2023-04-21

Family

ID=75135820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021144744A Active JP7262537B2 (ja) 2020-12-16 2021-09-06 機械学習モデルの敵対的訓練方法、装置、電子機器及び媒体

Country Status (3)

Country Link
US (1) US20210334659A1 (ja)
JP (1) JP7262537B2 (ja)
CN (1) CN112580822B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221163B (zh) * 2021-04-29 2023-05-23 深圳大学 一种训练模型的方法及系统
CN114021645A (zh) * 2021-11-03 2022-02-08 北京百度网讯科技有限公司 视觉模型降秩方法、装置、设备、存储介质以及程序产品
CN115392326B (zh) * 2022-10-27 2024-03-19 中国人民解放军国防科技大学 基于联合多模态信息与域对抗神经网络的调制识别方法
CN115392259B (zh) * 2022-10-27 2023-04-07 暨南大学 一种基于对抗训练融合bert的微博文本情感分析方法及系统
CN115909354B (zh) * 2022-11-11 2023-11-10 北京百度网讯科技有限公司 文本生成模型的训练方法、文本获取方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019087033A1 (en) 2017-11-01 2019-05-09 International Business Machines Corporation Protecting cognitive systems from gradient based attacks through the use of deceiving gradients
JP2020506466A (ja) 2017-05-23 2020-02-27 グーグル エルエルシー アテンションベースのシーケンス変換ニューラルネットワーク
US20200081982A1 (en) 2017-12-15 2020-03-12 Tencent Technology (Shenzhen) Company Limited Translation model based training method and translation method, computer device, and storage medium
WO2020123207A1 (en) 2018-12-11 2020-06-18 Salesforce.Com, Inc. Structured text translation

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2568660B (en) * 2017-10-20 2020-10-14 Graphcore Ltd Generating Random Numbers Based on a Predetermined Probaility Distribution in an Execution Unit
US11461628B2 (en) * 2017-11-03 2022-10-04 Samsung Electronics Co., Ltd. Method for optimizing neural networks
CN109190661A (zh) * 2018-07-26 2019-01-11 安徽师范大学 一种基于差分隐私保护的谱聚类方法
US11568211B2 (en) * 2018-12-27 2023-01-31 Intel Corporation Defending neural networks by randomizing model weights
CN109948658B (zh) * 2019-02-25 2021-06-15 浙江工业大学 面向特征图注意力机制的对抗攻击防御方法及应用
CN110334548B (zh) * 2019-07-16 2023-04-07 桂林电子科技大学 一种基于差分隐私的数据异常检测方法
CN111401415A (zh) * 2020-03-02 2020-07-10 北京三快在线科技有限公司 计算机视觉任务模型的训练方法、装置、设备和存储介质
CN111325205B (zh) * 2020-03-02 2023-10-10 北京三快在线科技有限公司 文档图像方向识别方法、装置及模型的训练方法、装置
CN111651992A (zh) * 2020-04-24 2020-09-11 平安科技(深圳)有限公司 命名实体标注方法、装置、计算机设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020506466A (ja) 2017-05-23 2020-02-27 グーグル エルエルシー アテンションベースのシーケンス変換ニューラルネットワーク
WO2019087033A1 (en) 2017-11-01 2019-05-09 International Business Machines Corporation Protecting cognitive systems from gradient based attacks through the use of deceiving gradients
US20200081982A1 (en) 2017-12-15 2020-03-12 Tencent Technology (Shenzhen) Company Limited Translation model based training method and translation method, computer device, and storage medium
WO2020123207A1 (en) 2018-12-11 2020-06-18 Salesforce.Com, Inc. Structured text translation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BAAN Joris et al.,Do Transformer Attention Heads Provide Transparency in Abstractive Summarization?,arXiv [online],2019年07月08日,[2022年9月22日検索], インターネット<URL: https://arxiv.org/abs/1907.00570v2>

Also Published As

Publication number Publication date
US20210334659A1 (en) 2021-10-28
JP2021192289A (ja) 2021-12-16
CN112580822B (zh) 2023-10-17
CN112580822A (zh) 2021-03-30

Similar Documents

Publication Publication Date Title
JP7262537B2 (ja) 機械学習モデルの敵対的訓練方法、装置、電子機器及び媒体
KR102497945B1 (ko) 텍스트 인식 처리 방법, 장치, 전자 기기 및 저장매체
JP7250052B2 (ja) 自然言語及び知識グラフに基づく表現学習方法及び装置
CN111428507B (zh) 实体链指方法、装置、设备以及存储介质
KR102484617B1 (ko) 이종 그래프 노드를 표현하는 모델 생성 방법, 장치, 전자 기기, 저장 매체 및 프로그램
JP7113097B2 (ja) テキストエンティティの語義記述処理方法、装置及び機器
JP7228662B2 (ja) イベント抽出方法、装置、電子機器及び記憶媒体
JP7264866B2 (ja) イベント関係の生成方法、装置、電子機器及び記憶媒体
JP2021184237A (ja) データセット処理方法、装置、電子機器及び記憶媒体
JP7262571B2 (ja) 知識グラフのベクトル表現生成方法、装置及び電子機器
JP7267342B2 (ja) 語義表現モデルの訓練方法、装置、デバイス及びコンピュータ記憶媒体
CN112347769B (zh) 实体识别模型的生成方法、装置、电子设备及存储介质
KR20210040885A (ko) 정보 생성 방법 및 장치
JP7149993B2 (ja) 感情分析モデルの事前トレーニング方法、装置及び電子機器
CN111079945B (zh) 端到端模型的训练方法及装置
JP2022020582A (ja) 自然言語処理モデルの訓練方法、装置、デバイス及び記憶媒体
JP7279138B2 (ja) 多言語モデルの訓練方法、装置、電子デバイス及び可読記憶媒体
JP2022003537A (ja) 対話意図の認識方法及び装置、電子機器並びに記憶媒体
JP7133002B2 (ja) 句読点予測方法および装置
CN111950291A (zh) 语义表示模型的生成方法、装置、电子设备及存储介质
CN112507101A (zh) 一种建立预训练语言模型的方法和装置
JP7297038B2 (ja) ニューラルネットワークモデルの事前トレーニング方法、装置、電子機器及び媒体
CN114154550A (zh) 域名对抗样本生成方法以及装置
CN111950293A (zh) 语义表示模型的生成方法、装置、电子设备及存储介质
Lin et al. Adversarial reinforced instruction attacker for robust vision-language navigation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230411

R150 Certificate of patent or registration of utility model

Ref document number: 7262537

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150