JP7122365B2 - テキスト認識処理方法、装置、電子機器及び記憶媒体 - Google Patents

テキスト認識処理方法、装置、電子機器及び記憶媒体 Download PDF

Info

Publication number
JP7122365B2
JP7122365B2 JP2020217584A JP2020217584A JP7122365B2 JP 7122365 B2 JP7122365 B2 JP 7122365B2 JP 2020217584 A JP2020217584 A JP 2020217584A JP 2020217584 A JP2020217584 A JP 2020217584A JP 7122365 B2 JP7122365 B2 JP 7122365B2
Authority
JP
Japan
Prior art keywords
text
language model
model
computer
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020217584A
Other languages
English (en)
Other versions
JP2021190087A (ja
Inventor
スォファン ワン
スゥ ディン
ウ スン
ファ ウー
ハイフォン ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021190087A publication Critical patent/JP2021190087A/ja
Application granted granted Critical
Publication of JP7122365B2 publication Critical patent/JP7122365B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Machine Translation (AREA)

Description

本出願の実施例は、概してコンピュータ技術分野に関し、より具体的に自然言語処理分野、深層学習技術分野に関する。
近年、汎用意味表現モデルBERTを代表とする予めトレーニングされたモデルは、様々なNLP(Natural Language Processing、自然言語処理)タスクの効果を大幅に向上させることができる「予めトレーニング+微調整」のパラダイムを提案した。BERTモデルは、深層モデル構造を採用し、大量の監視されていないテキストを使用してコンテキスト依存の表現を学習し、統一された汎用の方法によって様々な自然言語処理タスク(例えば、テキストマッチング、テキスト生成、感情分類、テキスト要約、質疑応答、検索など)を解決する。
しかしながら、現在主流の意味表現モデルは、短い長さ(例えば512)以内のフラグメントのみをモデリングすることができ、全体の文章のような、長さが512を超えるテキストに対してモデリングが困難であり、長尺テキスト情報を認識して処理することができない。
テキスト認識処理方法、装置、電子機器及び記憶媒体を提供する。
第1態様によれば、テキスト認識処理方法を提供し、
N個のフラグメントシーケンスを取得するステップであって、ここで、少なくとも1つのフラグメントにマスクがあるステップと、
前記N個のフラグメントシーケンスを順次予め設定された初期言語モデルに入力して、前記N個のフラグメントシーケンスに対応する第1のテキストベクトル情報を取得するステップと、
各前記フラグメントシーケンスを順次前記初期言語モデルに再入力して、現在入力しているN番目のフラグメントシーケンスに対応する最初のN個の前記フラグメントシーケンスに対応する第2のテキストベクトル情報を取得するステップと、
前記現在入力しているN番目のフラグメントシーケンスにマスクがあることを検出する場合、前記第2のテキストベクトル情報及び前記第1のテキストベクトル情報に応じて、前記マスクを予測し、前記マスクに対応する目標位置の予測ワードを取得するステップと、
前記目標位置で予め設定されたオリジナルワード及び前記予測ワードに応じて、前記初期言語モデルをトレーニングし、モデルパラメータを取得して、長いテキスト言語モデルを生成し、前記長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識するステップと、を含む。
第2態様によれば、テキスト認識処理装置を提供し、
N個のフラグメントシーケンスを取得するための第1の取得モジュールであって、ここで、少なくとも1つのフラグメントにマスクがある第1の取得モジュールと、
前記N個のフラグメントシーケンスを順次予め設定された初期言語モデルに入力して、前記N個のフラグメントシーケンスに対応する第1のテキストベクトル情報を取得するための第2の取得モジュールと、
各前記フラグメントシーケンスを順次前記初期言語モデルに再入力して、現在入力しているN番目のフラグメントシーケンスに対応する最初のN個の前記フラグメントシーケンスに対応する第2のテキストベクトル情報を取得するための第3の取得モジュールと、
前記現在入力しているN番目のフラグメントシーケンスにマスクがあることを検出する場合、前記第2のテキストベクトル情報及び前記第1のテキストベクトル情報に応じて、前記マスクを予測し、前記マスクに対応する目標位置の予測ワードを取得するための予測モジュールと、
前記目標位置で予め設定されたオリジナルワード及び前記予測ワードに応じて、前記初期言語モデルをトレーニングし、モデルパラメータを取得して、長いテキスト言語モデルを生成するためのトレーニングモジュールと、
前記長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識するための認識処理モジュールと、を含む。
第3態様によれば、電子機器を提供し、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が前記少なくとも1つのプロセッサによって実行される場合、前記少なくとも1つのプロセッサが第1態様に記載のテキスト認識処理方法を実行する。
第4態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体をさらに提供し、前記コンピュータ命令は、前記コンピュータに第1態様に記載のテキスト認識処理方法を実行させる。
本出願の技術案によれば、N個のフラグメントシーケンスを取得し、ここで、少なくとも1つのフラグメントにマスクがあり、N個のフラグメントシーケンスを順次予め設定された初期言語モデルに入力して、N個のフラグメントシーケンスに対応する第1のテキストベクトル情報を取得し、各フラグメントシーケンスを順次初期言語モデルに再入力して、現在入力しているN番目のフラグメントシーケンスに対応する最初のN個のフラグメントシーケンスに対応する第2のテキストベクトル情報を取得し、現在入力しているN番目のフラグメントシーケンスにマスクがあることを検出する場合、第2のテキストベクトル情報及び第1のテキストベクトル情報に応じて、マスクを予測し、マスクに対応する目標位置の予測ワードを取得し、その後、目標位置で予め設定されたオリジナルワード及び予測ワードに応じて、初期言語モデルをトレーニングし、モデルパラメータを取得して、長いテキスト言語モデルを生成し、長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識する。ここから分かるように、本出願は、言語データテキストを繰り返してモデルに入力し(すなわちモデル2回入力する)、言語データテキストをモデルに1回目に入力する場合、言語データテキスト内のフラグメントシーケンスのテキストベクトルを生成するためにのみ使用され、このときマスクの予測学習が行われず、当該言語データテキストを2回目に入力した場合のみ、このとき1回目に入力されたフラグメントシーケンスのテキストベクトル情報が取得されているため、このときモデルによって当該1回目に入力して取得されたフラグメントシーケンスに対応するテキストベクトル、及び2回目に現在入力しているフラグメントシーケンスを使用してマスクを予測することができ、マスク予測が正しいか否かに対して勾配を戻すことにより、モデルのトレーニングを実現し、トレーニングして取得されたモデルは512を超える長さのテキストを処理することができるようにする。
また、本出願はセグメントモデリングの方式を採用するので、512以内のテキストに対して、モデリングを迅速に実現し、モデリング速度を向上させることができる。言語データテキストは2回繰り返してモデルに入力されたため、各フラグメントシーケンスはコンテキスト情報を取得することができるため、トレーニングモデルの性能を向上させ、トレーニングされたモデルの性能をより良くし、自然言語処理タスクの効果を効果的に向上させることができる。
なお、本出願はフラグメントシーケンスによって初期言語モデルをトレーニングする場合、深層学習の方式によってトレーニングすることができ、他の機械学習方法と比較して、深層学習はビッグデータセットでの表現がより良い。
なお、この部分に記載されている内容は、本開示の実施例の主要なまたは重要な特徴を特定することを意図しておらず、本開示の範囲を限定することも意図していないことを理解されたい。本開示の他の特徴は、以下の説明を通して容易に理解される。
図面は、本技術案をよりよく理解するために使用されており、本出願を限定するものではない。
本出願の1つの実施例に係るテキスト認識処理方法のフローチャートである。 本出願のもう1つの実施例に係るテキスト認識処理方法のフローチャートである。 本出願の実施例に係る長いテキストモデリングプロセスの概略図である。 本出願のもう1つの実施例に係るテキスト認識処理方法のフローチャートである。 本出願の実施例に係る分類タスク入力の概略図である。 本出願のもう1つの実施例に係るテキスト認識処理方法のフローチャートである。 本出願の実施例に係るテキスト要約生成タスク入力の概略図である。 本出願の1つの実施例に係るテキスト認識処理装置の構成ブロック図である。 本出願の実施例を実現するテキスト認識処理方法を実現するための電子機器のブロック図である。
以下、図面と組み合わせて本出願の例示的な実施例を説明し、理解を容易にするためにその中には本出願の実施例の様々な詳細事項を含んでおり、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本出願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができることを認識されたい。同様に、明確及び簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
図1は本出願の1つの実施例に係るテキスト認識処理方法のフローチャートである。なお、本出願の実施例のテキスト認識処理方法は、本出願の実施例のテキスト認識処理装置に適用することができ、当該テキスト認識処理装置は電子機器に配置することができる。
図1に示すように、当該テキスト認識処理方法は、以下のステップを含むことができる。
ステップ101:N個のフラグメントシーケンスを取得し、ここで、少なくとも1つのフラグメントにマスクがある。
本出願のいくつかの実施例において、長いテキスト言語データを取得し、長いテキスト言語データの複数の位置にあるオリジナルワードをそれぞれマスクに置き換えて、長いテキスト隠蔽言語データを取得し、予め設定された目標長さに従って前記長いテキスト隠蔽言語データを分割してN個のフラグメントシーケンスを取得する。
ここで、上記各長いテキスト言語データのテキストの長さは、特定の閾値を超えることができ、例えば、各長いテキスト言語データは記事全体であってもよいし、各長いテキスト言語データの長さが512をはるかに超えても良い。
選択可能に、長いテキスト言語データを取得した後、長いテキスト言語データに対してエンティティ認識をし、長いテキスト言語データにおけるエンティティに対応するオリジナルワードを隠蔽し、隠蔽されたオリジナルワードをマスクで置き換えて、長いテキスト隠蔽言語データを取得し、その後、予め設定された目標長さに従って長いテキスト隠蔽言語データをフラグメント分割して、N個のフラグメントシーケンスを取得する。ここで、当該目標長さは512である。
例えば、「四つの大名作は、『西遊記』、『水滸伝』、『三国志』、『紅楼夢』を含み、広大で煙のような古典小説の中でそびえる4つの高い山のようなものである」を例として、当該長いテキスト言語データに対してエンティティ認識をし、当該長いテキスト言語データにおける「西遊記」、「古典」のエンティティワードをマスクで隠蔽して、長いテキスト隠蔽言語データの「四つの大名作は、『[M][M][M]』、『水滸伝』、『三国志』、『紅楼夢』を含み、広大で煙のような[M][M]小説の中でそびえる4つの高い山のようなものである」を取得し、その後、512の長さに従って当該長いテキスト隠蔽言語データをフラグメント分割して、3つのフラグメントシーケンス、すなわち「四つの大名作は、『[M][M][M]』、『水滸伝』、」、「『三国志』、『紅楼夢』を含み、広大で」、「煙のような[M][M]小説の中でそびえる4つの高い山のようなものである」を取得する。
ステップ102:N個のフラグメントシーケンスを順次予め設定された初期言語モデルに入力して、N個のフラグメントシーケンスに対応する第1のテキストベクトル情報を取得する。
このステップにおいて、N個のフラグメントシーケンスを順次予め設定された初期言語モデルに入力した後、初期言語モデルはN個のフラグメントシーケンスに対して特徴抽出を行って、N個のフラグメントシーケンスに対応する第1のテキストベクトル情報を取得する。
ここで、本出願のいくつかの実施例において、上記初期言語モデルはTransformer-XLモデルであってもよい。Transformer-XLモデルはMemor7メカニズムを採用して、フラグメント間で情報を転送することができる。つまり、N個のフラグメントシーケンスを順次Transformer-XLモデルに入力し、このプロセスにおいて、Transformer-XLモデルは各フラグメントシーケンスに対して特徴抽出を行って、各フラグメントシーケンスに対応するテキストベクトル情報を取得し、各フラグメントシーケンスに対応するテキストベクトル情報に基づいて、N個のフラグメントシーケンスに対応する第1のテキストベクトル情報を取得することができる。
ステップ103:各フラグメントシーケンスを順次初期言語モデルに再入力して、現在入力しているN番目のフラグメントシーケンスに対応する最初のN個のフラグメントシーケンスに対応する第2のテキストベクトル情報を取得する。
つまり、N個のフラグメントシーケンスを順次予め設定された初期言語モデルに入力して、N個のフラグメントシーケンスに対応する第1のテキストベクトル情報を取得した後、各フラグメントシーケンスを順次初期言語モデルに再入力して、現在入力しているN番目のフラグメントシーケンスに対応する最初のN個のフラグメントシーケンスに対応する第2のテキストベクトル情報を取得することができる。
例えば、「四つの大名作は、『西遊記』、『水滸伝』、『三国志』、『紅楼夢』を含み、広大で煙のような古典小説の中でそびえる4つの高い山のようなものである」を例として、それを分割して取得されたフラグメントシーケンスは「四つの大名作は、『[M][M][M]』、『水滸伝』、」、「『三国志』、『紅楼夢』を含み、広大で」、「煙のような[M][M]小説の中でそびえる4つの高い山のようなものである」であると仮定し、この3つのフラグメントシーケンスを1回目に初期Transformer-XLモデルに入力し、このプロセスにおいて、Memor7を生成するためにのみ使用され、すなわち各フラグメントシーケンスに対応するテキストベクトル情報を取得し、さらに各フラグメントシーケンスに対応するテキストベクトル情報に基づいて、当該3つのフラグメントシーケンスに対応する第1のテキストベクトル情報を取得することができる。その後、この3つのフラグメントシーケンスを初期Transformer-XLモデルに再入力することができ、このとき、Transformer-XLモデルは現在入力しているN番目のフラグメントシーケンスに対して特徴抽出を行って、現在入力しているN番目のフラグメントシーケンスに対応する最初のN個のフラグメントシーケンスに対応する第2のテキストベクトル情報を取得することができる。
ステップ104:現在入力しているN番目のフラグメントシーケンスにマスクがあることを検出する場合、第2のテキストベクトル情報及び第1のテキストベクトル情報に応じて、マスクを予測し、マスクに対応する目標位置の予測ワードを取得する。
選択可能に、各フラグメントシーケンスを順次初期言語モデルに再入力する場合、このとき初期言語モデルは現在入力しているN番目のフラグメントシーケンスにマスクがあるか否かを判断する必要があり、マスクがある場合、マスクに対応する目標位置の予測ワードを取得するように予測する必要がある。つまり、前記N個のフラグメントシーケンスを初期言語モデルに2回目に入力する場合、初期言語モデルは当該2回目に入力されたN個のフラグメントシーケンスにおけるマスクを予測し、予測結果に応じて当該初期言語モデルをトレーニング学習する。
つまり、本出願は長いテキスト隠蔽言語データを初期言語モデルにループに2回入力し、まず長いテキスト隠蔽言語データを1回目に初期言語モデルに入力するが、このプロセスにおいて、初期言語モデルによって長いテキスト隠蔽言語データにおけるN個のフラグメントシーケンスに対応する第1のテキストベクトル情報を生成することができ、このとき初期言語モデルにおいて予測をしない及び勾配を戻さない。長いテキスト隠蔽言語データを2回目に初期言語モデルに入力する場合のみ、初期言語モデルによって長いテキスト隠蔽言語データにおけるN個のフラグメントシーケンスにおけるマスクを予測し、マスク予測が正しいか否かに対して損失LOSSを戻すことにより、初期言語モデルのトレーニング学習を実現する。
ここから分かるように、N個のフラグメントシーケンスを初期言語モデルに2回目に入力する場合、このとき1番目の入力されたフラグメントシーケンスに、1回目に入力されたN個のフラグメントシーケンスである前のフラグメントのテキストベクトル情報があるため、このときN個のフラグメントシーケンスを2回目に入力する場合、初期言語モデルは当該2回目に入力されたN個のフラグメントシーケンスに対するトレーニング学習を開始し、モデルの性能を効果的に向上させることができ、自然言語処理タスクの効果を効果的に向上させることができる。
例えば、「四つの大名作は、『西遊記』、『水滸伝』、『三国志』、『紅楼夢』を含み、広大で煙のような古典小説の中でそびえる4つの高い山のようなものである」を例として、それを分割して取得されたフラグメントシーケンスが「四つの大名作は、『[M][M][M]』、『水滸伝』、」、「『三国志』、『紅楼夢』を含み、広大で」、「煙のような[M][M]小説の中でそびえる4つの高い山のようなものである」であるとすると、上記3つのフラグメントシーケンスを2回目に初期言語モデルに入力し、1番目に並んでいる「四つの大名作は、『[M][M][M]』、『水滸伝』、」、「『三国志』、『紅楼夢』を含み、広大で」というフラグメントシーケンスには、このとき前の3つのフラグメントシーケンスのテキストベクトル情報があり、示された前の3つのフラグメントシーケンスは上記3つのフラグメントシーケンスを1回目に初期言語モデルに入力して取得された第1のテキストベクトル情報である。このように、1番目に並んでいる「四つの大名作は、『[M][M][M]』、『水滸伝』、」、「『三国志』、『紅楼夢』を含み、広大で」というフラグメントシーケンスに対してマスクを予測するとき、このとき当該フラグメントシーケンスには前のフラグメントのテキストベクトル情報があるため、それをうまく予測することができ、このトレーニング方式によりモデルの性能を向上させることができる。
ステップ105:目標位置で予め設定されたオリジナルワード及び予測ワードに応じて、初期言語モデルをトレーニングし、モデルパラメータを取得して、長いテキスト言語モデルを生成し、長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識する。
選択可能に、マスクに対応する目標位置の予測ワードを取得した後、目標位置で予め設定されたオリジナルワード及び予測ワードに応じて、対応する損失値を生成し、損失値に基づいて初期言語モデルに対してモデルパラメータを調整し、モデルトレーニング効果が予め設定された要求に達するまで、調整されたモデルに応じてマスクを再予測学習し、トレーニングされたモデルは長いテキスト言語モデルであり、長尺テキストの意味表現を実現することができる。なお、本出願の実施例において、初期言語モデルをトレーニングする場合、深層学習の方式によってトレーニングすることができ、他の機械学習方法と比較して、深層学習はビッグデータセットでの表現がより良い。
本出願のいくつかの実施例において、図2に示すように、前記目標位置で予め設定されたオリジナルワード及び予測ワードに応じて、初期言語モデルをトレーニングし、モデルパラメータを取得して、長いテキスト言語モデルを生成するステップの具体的な実現プロセスは、以下のとおりであっても良い。
ステップ201:予め設定されたアルゴリズムに従って目標位置で予め設定されたオリジナルワード及び予測ワードに対して第1の損失値を生成する。
本出願のいくつかの実施例において、上記予め設定されたアルゴリズムは損失関数であってもよく、損失関数によって、モデルの予測ワードとオリジナルワードとの相違の度合いを評価する。
ステップ202:第1の損失値及び予め設定された目標関数に応じて初期言語モデルをトレーニングし、モデルパラメータを取得して長いテキスト言語モデルを生成する。
ここで、上記目標関数は目標損失値であってもよい。選択可能に、予め設定されたアルゴリズムに従って目標位置で予め設定されたオリジナルワード及び予測ワードに対して第1の損失値を生成した後、第1の損失値と目標関数に一定の条件があるか否かを判断し、例えば、第1の損失値が目標損失値以下であるか否かを判断し、第1の損失値が目標損失値以下の場合に、モデルトレーニング済みであることが示され、トレーニングされたモデルを長いテキスト言語モデルとし、第1の損失値が目標損失値より大きい場合に、モデルのトレーニングを続ける必要があることが示され、このとき、当該モデルのパラメータを調整し、調整されたモデルによってマスクを予測し、損失値が目標損失値以下になるまで、マスク予測が正しいか否かに対して損失値を戻し、このときモデルがトレーニング済みであることを示し、トレーニングされたモデルを長いテキスト言語モデルとする。
当業者に容易に理解させるために、以下は図3と組み合わせて説明する。
例えば、「四つの大名作は、『西遊記』、『水滸伝』、『三国志』、『紅楼夢』を含み、広大で煙のような古典小説の中でそびえる4つの高い山のようなものである」を例として、それを分割して取得されたフラグメントシーケンスが「四つの大名作は、『[M][M][M]』、『水滸伝』、」、「『三国志』、『紅楼夢』を含み、広大で」、「煙のような[M][M]小説の中でそびえる4つの高い山のようなものである」であるとする。図3に示すように、「四つの大名作は、『[M][M][M]』、『水滸伝』、」、「『三国志』、『紅楼夢』を含み、広大で」、「煙のような[M][M]小説の中でそびえる4つの高い山のようなものである」という3つのフラグメントシーケンスを順次初期言語モデルに入力することができ、Step1のモデリングの第1の部分では、このときマスク[M]文字を見たが、まだすべてのテキストを見ていないため(すなわち「四つの大名作は、『西遊記』、『水滸伝』、『三国志』、『紅楼夢』を含み、広大で煙のような古典小説の中でそびえる4つの高い山のようなものである」というテキストはまだ初期言語モデルに完全に入力されていない)、学習を行わない。Step2では、Step1の部分で抽出された内容を、Transformer-XLのMemor7メカニズムによって転送する。Step3は順次類推する。Step4の場合、モデルは、[M][M][M]として隠された西遊記を2回目に見たが(すなわちフラグメントシーケンス「四つの大名作は、『[M][M][M]』、『水滸伝』、」をモデルに2回目に入力した)、このときモデルは予測し、勾配を戻す。その後のStep5はマスク[M]という文字がないため、学習を行わない。Step6は[M][M]としてマスクされた古典を学習する。この段落のテキストがモデルモデリングに2回入るまで、次の段落のテキストを学習する。このような方式によって長いテキストの予めトレーニングを実現して、長いテキスト言語モデルを取得する。
長いテキスト言語モデルを取得した後、予め設定された目標タスクに従って対応するマークされたサンプル言語データを取得し、目標タスクに対応するマークされたサンプル言語データに基づいて長いテキスト言語モデルを微調整して、当該目標タスクを認識することに適用されるモデルを取得する。ここで、本出願のいくつかの実施例において、目標タスクは、分類タスク、シーケンスタスク、および生成タスクを含むがこれらに限定されない。ここで、分類タスクは、文書分類、意味マッチング、質疑応答分類などのタスクを含むことができ、シーケンスタスクは、命名エンティティの認識及び読解などのタスクを含むことができ、生成タスクは、要約生成、タイトル生成、対話生成などのタスクを含むことができる。
本出願のいくつかの実施例において、図4に示すように、前記長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識するステップの具体的な実現プロセスは、以下のステップを含むことができる。
ステップ401:目標タスクが分類タスクであると検出された場合、複数のサンプル言語データに対して対応するカテゴリマークを行う。
つまり、目標タスクが分類タスクであると検出された場合、長いテキスト言語モデルを微調整して、分類タスクための分類モデルを取得する必要があることを示す。当該分類タスクための分類モデルを取得することができるために、このとき複数のサンプル言語データを取得し、これらのサンプル言語データに対してカテゴリマークを行う。
なお、本出願の実施例において、上記サンプル言語データは第1の言語データと第2の言語データを含むことができ、ここで、第1の言語データと第2の言語データは同じテキスト内容を有し、サンプル言語データに対してカテゴリマークを行う際に、第2の言語データの後でカテゴリマークを行う必要がある。例えば、[徽州向号「8.5割は山で、1割は水で、残りの0.5割は農地と荘園である」。領土の峰々が空高くそびえる、丘が屏風のように並び、連峰と谷間が交錯し、深い山、谷があり、盆地、平野もある。徽州向号「8.5割は山で、1割は水で、残りの0.5割は農地と荘園である」。領土の峰々が空高くそびえる、丘が屏風のように並び、連峰と谷間が交錯し、深い山、谷があり、盆地、平野もある。]というサンプル言語データを例として、当該サンプル言語データは、[徽州向号「8.5割は山で、1割は水で、残りの0.5割は農地と荘園である」。領土の峰々が空高くそびえる、丘が屏風のように並び、連峰と谷間が交錯し、深い山、谷があり、盆地、平野もある。]という同じ言語データを含むことがわかり、当該サンプル言語データに対してカテゴリマークを行う場合、2回目の言語データの[徽州向号「8.5割は山で、1割は水で、残りの0.5割は農地と荘園である」。領土の峰々が空高くそびえる、丘が屏風のように並び、連峰と谷間が交錯し、深い山、谷があり、盆地、平野もある。]の後で特別なCLSビットを使用してカテゴリを予測することができ、すなわち[徽州向号「8.5割は山で、1割は水で、残りの0.5割は農地と荘園である」。領土の峰々が空高くそびえる、丘が屏風のように並び、連峰と谷間が交錯し、深い山、谷があり、盆地、平野もある。徽州向号「8.5割は山で、1割は水で、残りの0.5割は農地と荘園である」。領土の峰々が空高くそびえる、丘が屏風のように並び、連峰と谷間が交錯し、深い山、谷があり、盆地、平野もある。]というサンプル言語データの文末に[CLS]記号を追加することによって、当該記号に対応する出力ベクトルをテキスト全体の意味表現としてテキスト分類に用いる。例えば、図5に示すように、[徽州向号「8.5割は山で、1割は水で、残りの0.5割は農地と荘園である」。領土の峰々が空高くそびえる、丘が屏風のように並び、連峰と谷間が交錯し、深い山、谷があり、盆地、平野もある。]という言語データを繰り返して長いテキスト言語モデルに2回入力することができ、ここで、言語データの入力の2回目が完成した場合、2回目に入力された言語データの文末に[CLS]記号を追加する。
ステップ402:複数のサンプル言語データ及び対応するカテゴリマークを長いテキスト言語モデルに入力してトレーニングし、モデルパラメータを調整し、分類タスクに対応する長いテキスト言語モデルを取得する。
選択可能に、複数のサンプル言語データを長いテキスト言語モデルに入力して予測し、サンプル言語データに対応する予測カテゴリを取得し、予測カテゴリ及び前記カテゴリマークに応じて対応する損失値を生成し、損失値に応じて長いテキスト言語モデルのモデルパラメータを調整し、調整された長いテキスト言語モデルに応じてサンプル言語データをカテゴリ予測して、分類タスクに対する当該長いテキスト言語モデルのモデルトレーニングを実現し、当該分類タスクに適用されることができる長いテキスト言語モデルを取得することができる。
ステップ403:分類タスクに対応する長いテキスト言語モデルに応じて入力テキストを認識し、入力テキストに対応する目標タイプを取得する。
本出願のいくつかの実施例において、図6に示すように、前記長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識するステップの具体的な実現プロセスは、以下のステップを含むことができる。
ステップ601:目標タスクがテキスト要約生成タスクであると検出された場合、複数のサンプル言語データに対して対応する要約マークを行う。
つまり、目標タスクがテキスト要約生成タスクであると検出された場合、テキスト要約生成タスクための要約生成モデルを取得するように、長いテキスト言語モデルを微調整する必要があることが示される。当該テキスト要約生成タスクための要約生成モデルを取得することができるために、このとき複数のサンプル言語データを取得し、これらのサンプル言語データに対して要約テキストのマークを行う。なお、当該テキスト要約生成タスクの目標は、テキストAに基づいてテキストBを生成することである。
なお、本出願の実施例において、上記サンプル言語データは第1の言語データと第2の言語データを含むことができ、ここで、第1の言語データと第2の言語データは同じテキスト内容を有し、サンプル言語データに対して要約テキストのマークを行う際に、第2の言語データの後で要約テキストのマークを行う必要がある。例えば、[徽州向号「8.5割は山で、1割は水で、残りの0.5割は農地と荘園である」。領土の峰々が空高くそびえる、丘が屏風のように並び、連峰と谷間が交錯し、深い山、谷があり、盆地、平野もある。徽州向号「8.5割は山で、1割は水で、残りの0.5割は農地と荘園である」。領土の峰々が空高くそびえる、丘が屏風のように並び、連峰と谷間が交錯し、深い山、谷があり、盆地、平野もある。]というサンプル言語データを例として、当該サンプル言語データは、[徽州向号「8.5割は山で、1割は水で、残りの0.5割は農地と荘園である」。領土の峰々が空高くそびえる、丘が屏風のように並び、連峰と谷間が交錯し、深い山、谷があり、盆地、平野もある。]という同じ言語データを含むことがわかり、当該サンプル言語データに対して要約テキストのマークを行う場合、2回目の言語データ[徽州向号「8.5割は山で、1割は水で、残りの0.5割は農地と荘園である」。領土の峰々が空高くそびえる、丘が屏風のように並び、連峰と谷間が交錯し、深い山、谷があり、盆地、平野もある。]の後で要約テキスト(例えば徽州地理の概要)を使用してマークすることができ、すなわち[徽州向号「8.5割は山で、1割は水で、残りの0.5割は農地と荘園である」。領土の峰々が空高くそびえる、丘が屏風のように並び、連峰と谷間が交錯し、深い山、谷があり、盆地、平野もある。徽州向号「8.5割は山で、1割は水で、残りの0.5割は農地と荘園である」。領土の峰々が空高くそびえる、丘が屏風のように並び、連峰と谷間が交錯し、深い山、谷があり、盆地、平野もある。]というサンプル言語データの文末に「徽州地理の概要」である要約テキストを追加して、要約テキストの生成に用いる。例えば、図5に示すように、言語データ[徽州向号「8.5割は山で、1割は水で、残りの0.5割は農地と荘園である」。領土の峰々が空高くそびえる、丘が屏風のように並び、連峰と谷間が交錯し、深い山、谷があり、盆地、平野もある。]を繰り返して長いテキスト言語モデルに2回入力することができ、ここで、2回目の言語データの入力が完成した場合、2回目に入力された言語データの文末に「徽州地理の概要」である要約テキストを追加する。
ステップ602:複数のサンプル言語データ及び対応する要約マークを長いテキスト言語モデルに入力してトレーニングし、モデルパラメータを調整し、テキスト要約生成タスクに対応する長いテキスト言語モデルを取得する。
選択可能に、複数のサンプル言語データを長いテキスト言語モデルに入力して予測し、サンプル言語データに対応する予測値を取得し、予測値及び真の要約マークに応じて対応する損失値を生成し、損失値に応じて長いテキスト言語モデルのモデルパラメータを調整し、調整された長いテキスト言語モデルに応じてサンプル言語データを予測して、テキスト要約生成タスクに対する当該長いテキスト言語モデルのモデルトレーニングを実現し、当該テキスト要約生成タスクに適用可能な長いテキスト言語モデルを取得することができる。
ステップ603:分類タスクに対応する長いテキスト言語モデルに応じて入力テキストを認識し、入力テキストに対応するテキスト要約を取得する。
つまり、長いテキスト言語モデルによって目標タスクに適用されるモデルをトレーニングする場合、使用されるトレーニング言語データは2回繰り返して長いテキスト言語モデルに入力する必要があり、ここで、言語データを長いテキスト言語モデルに2回目に入力する場合、2回目に入力された言語データをマークし、2回入力された言語データ及びマークに基づいて長いテキスト言語モデルを微調整して、目標タスクに適用されるモデルを取得する。例えば、分類タスクに対して、言語データテキストの2回目の入力が完成した場合、特別なCLSビットを使用してカテゴリを予測することができ、シーケンスタスクに対して、2回目に入力されたすべてのテキストにおいてN次元のSoftmax操作を行い、各Tokenのシーケンス化マークを実行することができ、生成タスクに対して、それの目標は、テキストAに基づいてテキストBを生成することであり、従来の言語モデルまたはSeq2Seq(循環ニューラルネットワークである)方法との違いは、本出願はテキストを2回目に入力した後に予測することである。例えば、図7に示すように、図における[徽州向号「8.5割は山で、1割は水で、残りの0.5割は農地と荘園である」。領土の峰々が空高くそびえる、丘が屏風のように並び、連峰と谷間が交錯し、深い山、谷があり、盆地、平野もある。徽州向号「8.5割は山で、1割は水で、残りの0.5割は農地と荘園である」。領土の峰々が空高くそびえる、丘が屏風のように並び、連峰と谷間が交錯し、深い山、谷があり、盆地、平野もある。]というテキストの内容が正常に入力され、「徽州地理の概要」という部分のテキストはSeq2Seq技術によって文字ごとに生成されてトレーニングおよび予測される。
なお、本出願は、モデルの基本フレームワークとしてTransformer-XLを使用するとともに、本出願は、初期言語モデルをトレーニングして長いテキスト言語モデルを取得するプロセス、及び長いテキスト言語モデルを微調整するプロセスにおいて、すべてはTransformer-XLを基本フレームワークとして使用しており、Transformerに劣化することはない。従来技術では、XLNetは微調整のプロセスにおいて、そのモデルがTransformerに劣化し、このときモデルが長いテキスト情報を処理することができない。本出願は微調整の段階でもTransformer-XLを使用しており、微調整の後にも長いテキストという問題を解決することができる。
本出願の実施例のテキスト認識処理方法によれば、N個のフラグメントシーケンスを取得し、ここで、少なくとも1つのフラグメントにマスクがあり、N個のフラグメントシーケンスを順次予め設定された初期言語モデルに入力して、N個のフラグメントシーケンスに対応する第1のテキストベクトル情報を取得し、各フラグメントシーケンスを順次初期言語モデルに再入力して、現在入力しているN番目のフラグメントシーケンスに対応する最初のN個のフラグメントシーケンスに対応する第2のテキストベクトル情報を取得し、現在入力しているN番目のフラグメントシーケンスにマスクがあることを検出する場合、第2のテキストベクトル情報及び第1のテキストベクトル情報に応じて、マスクを予測し、マスクに対応する目標位置の予測ワードを取得し、その後、目標位置で予め設定されたオリジナルワード及び予測ワードに応じて、初期言語モデルをトレーニングし、モデルパラメータを取得して、長いテキスト言語モデルを生成し、長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識する。ここから分かるように、本出願は、言語データテキストをモデルにループに入力し(すなわちモデル2回入力する)、言語データテキストをモデルに1回目に入力する場合、言語データテキスト内のフラグメントシーケンスのテキストベクトルを生成するためにのみ使用され、このときマスクの予測学習が行われなく、当該言語データテキストを2回目に入力した場合のみ、このとき1回目に入力されたフラグメントシーケンスのテキストベクトル情報が取得されているため、このときモデルによって当該1回目に入力して取得されたフラグメントシーケンスに対応するテキストベクトル、及び2回目に現在入力しているフラグメントシーケンスを使用してマスクを予測することができ、マスク予測が正しいか否かに対して勾配を戻すことにより、モデルのトレーニングを実現し、トレーニングして取得されたモデルは512を超える長さのテキストを処理することができるようにする。
また、本出願はセグメントモデリングの方式を採用するので、512以内のテキストに対して、モデリングを迅速に実現し、モデリング速度を向上させることができる。言語データテキストを繰り返してモデルに2回入力して、各フラグメントシーケンスはコンテキスト情報を取得することができるため、トレーニングモデルの性能を向上させ、トレーニングされたモデルの性能をより良くし、自然言語処理タスクの効果を効果的に向上させることができる。
なお、本出願はフラグメントシーケンスによって初期言語モデルをトレーニングする場合、深層学習の方式によってトレーニングすることができ、他の機械学習方法と比較して、深層学習はビッグデータセットでの表現がより良い。
上記実施例を実現するために、本出願は、テキスト認識処理装置を提供する。
図8は本出願の1つの実施例に係るテキスト認識処理装置の構成ブロック図である。図8に示すように、当該テキスト認識処理装置800は、第1の取得モジュール801と、第2の取得モジュール802と、第3の取得モジュール803と、予測モジュール804と、トレーニングモジュール805と、認識処理モジュール806と、を含むことができる。
具体的に、第1の取得モジュール801は、N個のフラグメントシーケンスを取得することに用いられ、ここで、少なくとも1つのフラグメントにマスクがある。本出願のいくつかの実施例において、第1の取得モジュール801は、具体的に、長いテキスト言語データを取得し、長いテキスト言語データの複数の位置にあるオリジナルワードをそれぞれマスクに置き換えて、長いテキスト隠蔽言語データを取得し、予め設定された目標長さに従って前記長いテキスト隠蔽言語データを分割してN個のフラグメントシーケンスを取得することに用いられる。
第2の取得モジュール802は、N個のフラグメントシーケンスを順次予め設定された初期言語モデルに入力して、N個のフラグメントシーケンスに対応する第1のテキストベクトル情報を取得することに用いられる。
第3の取得モジュール803は、各フラグメントシーケンスを順次初期言語モデルに再入力して、現在入力しているN番目のフラグメントシーケンスに対応する最初のN個のフラグメントシーケンスに対応する第2のテキストベクトル情報を取得することに用いられる。
予測モジュール804は、現在入力しているN番目のフラグメントシーケンスにマスクがあることを検出する場合、第2のテキストベクトル情報及び第1のテキストベクトル情報に応じて、マスクを予測し、マスクに対応する目標位置の予測ワードを取得することに用いられる。
トレーニングモジュール805は、目標位置で予め設定されたオリジナルワード及び予測ワードに応じて、初期言語モデルをトレーニングし、モデルパラメータを取得して、長いテキスト言語モデルを生成することに用いられる。本出願のいくつかの実施例において、トレーニングモジュール805は、具体的に、予め設定されたアルゴリズムに従って目標位置で予め設定されたオリジナルワード及び予測ワードに対して第1の損失値を生成し、第1の損失値及び予め設定された目標関数に応じて初期言語モデルをトレーニングし、モデルパラメータを取得して長いテキスト言語モデルを生成することに用いられる。
認識処理モジュール806は、長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識することに用いられる。本出願のいくつかの実施例において、認識処理モジュール806は、具体的に、目標タスクが分類タスクであると検出された場合、複数のサンプル言語データに対して対応するカテゴリマークを行い、複数のサンプル言語データ及び対応するカテゴリマークを長いテキスト言語モデルに入力してトレーニングし、モデルパラメータを調整し、分類タスクに対応する長いテキスト言語モデルを取得し、分類タスクに対応する長いテキスト言語モデルに応じて入力テキストを認識し、入力テキストに対応する目標タイプを取得することに用いられる。
本出願のいくつかの実施例において、認識処理モジュール806は、具体的に、目標タスクがテキスト要約生成タスクであると検出された場合、複数のサンプル言語データに対して対応する要約マークを行い、複数のサンプル言語データ及び対応する要約マークを長いテキスト言語モデルに入力してトレーニングし、モデルパラメータを調整し、テキスト要約生成タスクに対応する長いテキスト言語モデルを取得し、分類タスクに対応する長いテキスト言語モデルに応じて入力テキストを認識し、入力テキストに対応するテキスト要約を取得することに用いられる。
本出願の実施例のテキスト認識処理装置によれば、N個のフラグメントシーケンスを取得し、ここで、少なくとも1つのフラグメントにマスクがあり、N個のフラグメントシーケンスを順次予め設定された初期言語モデルに入力して、N個のフラグメントシーケンスに対応する第1のテキストベクトル情報を取得し、各フラグメントシーケンスを順次初期言語モデルに再入力して、現在入力しているN番目のフラグメントシーケンスに対応する最初のN個のフラグメントシーケンスに対応する第2のテキストベクトル情報を取得し、現在入力しているN番目のフラグメントシーケンスにマスクがあることを検出する場合、第2のテキストベクトル情報及び第1のテキストベクトル情報に応じて、マスクを予測し、マスクに対応する目標位置の予測ワードを取得し、その後、目標位置で予め設定されたオリジナルワード及び予測ワードに応じて、初期言語モデルをトレーニングし、モデルパラメータを取得して、長いテキスト言語モデルを生成し、長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識する。ここから分かるように、本出願は、言語データテキストを繰り返してモデルに入力し(すなわちモデル2回入力する)、言語データテキストをモデルに1回目に入力する場合、言語データテキスト内のフラグメントシーケンスのテキストベクトルを生成するためにのみ使用され、このときマスクの予測学習が行われなく、当該言語データテキストを2回目に入力した場合のみ、このとき1回目に入力されたフラグメントシーケンスのテキストベクトル情報が取得されているため、このときモデルによって当該1回目に入力して取得されたフラグメントシーケンスに対応するテキストベクトル、及び2回目に現在入力しているフラグメントシーケンスを使用してマスクを予測することができ、マスク予測が正しいか否かに対して勾配を戻すことにより、モデルのトレーニングを実現し、トレーニングして取得されたモデルは512を超える長さのテキストを処理することができるようにする。また、本出願はセグメントモデリングの方式を採用するので、512以内のテキストに対して、モデリングを迅速に実現し、モデリング速度を向上させることができる。言語データテキストを繰り返してモデルに2回入力して、各フラグメントシーケンスはコンテキスト情報を取得することができるため、トレーニングモデルの性能を向上させ、トレーニングされたモデルの性能をより良くし、自然言語処理タスクの効果を効果的に向上させることができる。なお、本出願はフラグメントシーケンスによって初期言語モデルをトレーニングする場合、深層学習の方式によってトレーニングすることができ、他の機械学習方法と比較して、深層学習はビッグデータセットでの表現がより良い。
本出願の実施例によれば、本出願は、電子機器及び読み取り可能な記憶媒体をさらに提供する。
図9に示すように、それは本出願の実施例に係るテキスト認識処理方法の電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレーム、及び他の適切なコンピュータなどの様々な形式のデジタルコンピュータを表すことを目的とする。電子機器は、携帯情報端末、携帯電話、スマートフォン、ウェアラブルデバイス、他の同様のコンピューティングデバイスなどの様々な形式のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本出願の実現を制限することを意図したものではない。
図9に示すように、当該電子機器は、1つ又は複数のプロセッサ901と、メモリ902と、高速インターフェースと低速インターフェースを含む各コンポーネントを接続するためのインターフェースと、を含む。各コンポーネントは、異なるバスで相互に接続され、共通のマザーボードに取り付けられるか、又は必要に応じて他の方式で取り付けることができる。プロセッサは、外部入力/出力装置(インターフェースに結合されたディスプレイデバイスなど)にGUIの図形情報をディスプレイするためにメモリに記憶されている命令を含む、電子機器内に実行される命令を処理することができる。他の実施形態では、必要であれば、複数のプロセッサ及び/又は複数のバスを、複数のメモリと複数のメモリとともに使用することができる。同様に、複数の電子機器を接続することができ、各電子機器は、部分的な必要な操作(例えば、サーバアレイ、ブレードサーバ、又はマルチプロセッサシステムとする)を提供することができる。図9では、1つのプロセッサ901を例とする。
メモリ902は、本出願により提供される非一時的なコンピュータ読み取り可能な記憶媒体である。ここで、前記メモリには、前記少なくとも1つのプロセッサが本出願により提供されるテキスト認識処理方法を実行するように、少なくとも1つのプロセッサによって実行可能な命令が記憶されている。本出願の非一時的なコンピュータ読み取り可能な記憶媒体は、コンピュータに本出願が提供するテキスト認識処理方法を実行させるためのコンピュータ命令を記憶する。
メモリ902は、非一時的なコンピュータ読み取り可能な記憶媒体として、本出願の実施例におけるテキスト認識処理方法に対応するプログラム命令/モジュール(例えば、図8に示す第1の取得モジュール801、第2の取得モジュール802、第3の取得モジュール803、予測モジュール804、トレーニングモジュール805及び認識処理モジュール806)ように、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュールを記憶するために用いられる。プロセッサ901は、メモリ902に記憶されている非一時的なソフトウェアプログラム、命令及びモジュールを実行することによって、3次元再建装置の様々な機能アプリケーション及びデータ処理を実行し、すなわち上記方法の実施例におけるテキスト認識処理方法を実現する。
メモリ902は、プログラム記憶領域とデータ記憶領域とを含むことができ、ここで、プログラム記憶領域は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶することができ、データ記憶領域は、テキスト認識処理方法ことに基づく電子機器の使用によって作成されたデータなどを記憶することができる。また、メモリ902は、高速ランダム存取メモリを含むことができ、非一時的なメモリをさらに含むことができ、例えば、少なくとも1つのディスクストレージデバイス、フラッシュメモリデバイス、又は他の非一時的なソリッドステートストレージデバイスである。いくつかの実施例では、メモリ902は、プロセッサ901に対して遠隔に設定されたメモリを選択的に含むことができ、これらの遠隔メモリは、ネットワークを介してテキスト認識処理の電子機器に接続されることができる。上記ネットワークの例は、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びその組み合わせを含むが、これらに限定されない。
テキスト認識処理方法の電子機器は、入力装置903と出力装置904とをさらに含むことができる。プロセッサ901、メモリ902、入力装置903、及び出力装置904は、バス又は他の方式を介して接続することができ、図9では、バスによる接続を例とする。
入力装置903は、入力された数字又は文字情報を受信することができ、及びテキスト認識処理の電子機器のユーザ設定及び機能制御に関するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングスティック、1つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置904は、ディスプレイデバイス、補助照明デバイス(例えば、LED)、及び触覚フィードバックデバイス(例えば、振動モータ)などを含むことができる。当該ディスプレイデバイスは、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、及びプラズマディスプレイを含むことができるが、これらに限定されない。いくつかの実施形態では、ディスプレイデバイスは、タッチスクリーンであってもよい。
本明細書で説明されるシステムと技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラム可能なシステムで実行及び/又は解釈することができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送することができる。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含んでもよく、高度プロセス及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ/機械言語でこれらのコンピューティングプログラムを実施することができる。本明細書に使用されるように、「機械読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するために使用される任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械読み取り可能な信号である機械命令を受信する機械読み取り可能な媒体を含む。「機械読み取り可能な信号」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクションを提供するために、ここで説明されているシステム及び技術をコンピュータ上で実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置は、ユーザとのインタラクションを提供するために用いられることもでき、例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバー)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションする)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続されることができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットとを含む。
コンピュータシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般的に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。
本出願の実施例の技術案によれば、言語データテキストを繰り返してモデルに入力し(すなわちモデル2回入力する)、言語データテキストをモデルに1回目に入力する場合、言語データテキスト内のフラグメントシーケンスのテキストベクトルを生成するためにのみ使用され、このときマスクの予測学習が行われなく、当該言語データテキストを2回目に入力した場合のみ、このとき1回目に入力されたフラグメントシーケンスのテキストベクトル情報が取得されているため、このときモデルによって当該1回目に入力して取得されたフラグメントシーケンスに対応するテキストベクトル、及び2回目に現在入力しているフラグメントシーケンスを使用してマスクを予測することができ、マスク予測が正しいか否かに対して勾配を戻すことにより、モデルのトレーニングを実現し、トレーニングして取得されたモデルは512を超える長さのテキストを処理することができるようにし、本出願はセグメントモデリングの方式を採用するので、512以内のテキストに対して、モデリングを迅速に実現し、モデリング速度を向上させることができる。言語データテキストを繰り返してモデルに2回入力して、各フラグメントシーケンスはコンテキスト情報を取得することができるため、トレーニングモデルの性能を向上させ、トレーニングされたモデルの性能をより良くし、自然言語処理タスクの効果を効果的に向上させることができる。
上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができることを理解されたい。例えば、本願に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本願で開示されている技術案の所望の結果を実現することができれば、本明細書では限定されない。
上記具体的な実施形態は、本願に対する保護範囲を限定するものではない。当業者は、設計要件と他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。任意の本願の精神と原則内で行われる修正、同等の置換、及び改善などは、いずれも本願の保護範囲内に含まれなければならない。

Claims (13)

  1. テキスト認識処理方法であって、
    コンピュータが、N個のフラグメントシーケンスを取得するステップであって、少なくとも1つのフラグメントにマスクがあるステップと、
    コンピュータが、前記N個のフラグメントシーケンスを順次予め設定された、フラグメント間で情報を転送可能な初期言語モデルに入力して、前記N個のフラグメントシーケンスに対応する第1のテキストベクトル情報を取得するステップと、
    コンピュータが、各前記フラグメントシーケンスを順次前記初期言語モデルに再入力して、現在入力しているN番目のフラグメントシーケンスに対応する最初のN個の前記フラグメントシーケンスに対応する第2のテキストベクトル情報を取得するステップと、
    コンピュータが、前記現在入力しているN番目のフラグメントシーケンスにマスクがあることを検出する場合、前記第2のテキストベクトル情報及び前記第1のテキストベクトル情報に応じて、前記マスクを予測し、前記マスクに対応する目標位置の予測ワードを取得するステップと、
    コンピュータが、前記目標位置で予め設定されたオリジナルワード及び前記予測ワードに応じて、前記初期言語モデルをトレーニングし、モデルパラメータを取得して、長いテキスト言語モデルを生成し、前記長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識するステップと、を含む、
    ことを特徴とするテキスト認識処理方法。
  2. コンピュータが、N個のフラグメントシーケンスを取得するステップであって、少なくとも1つのフラグメントにマスクがあるステップは、
    コンピュータが、長いテキスト言語データを取得し、前記長いテキスト言語データの複数の位置にあるオリジナルワードをそれぞれマスクに置き換えて、長いテキスト隠蔽言語データを取得するステップと、
    コンピュータが、予め設定された目標長さに従って前記長いテキスト隠蔽言語データを分割してN個のフラグメントシーケンスを取得するステップと、を含む、
    ことを特徴とする請求項1に記載のテキスト認識処理方法。
  3. コンピュータが、前記目標位置で予め設定されたオリジナルワード及び前記予測ワードに応じて、前記初期言語モデルをトレーニングし、モデルパラメータを取得して、長いテキスト言語モデルを生成するステップは、
    コンピュータが、予め設定されたアルゴリズムに従って前記目標位置で予め設定されたオリジナルワード及び前記予測ワードに対して第1の損失値を生成するステップと、
    コンピュータが、前記第1の損失値及び予め設定された目標関数に応じて前記初期言語モデルをトレーニングし、モデルパラメータを取得して長いテキスト言語モデルを生成するステップと、を含む、
    ことを特徴とする請求項1に記載のテキスト認識処理方法。
  4. コンピュータが、前記長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識するステップは、
    コンピュータが、前記目標タスクが分類タスクであると検出された場合、複数のサンプル言語データに対して対応するカテゴリマークを行うステップであって、前記カテゴリマークは、テキスト全体の意味表現を生成するためのマークである、ステップと、
    コンピュータが、前記複数のサンプル言語データ及び対応するカテゴリマークを前記長いテキスト言語モデルに入力してトレーニングし、前記モデルパラメータを調整し、前記分類タスクに対応する長いテキスト言語モデルを取得するステップと、
    コンピュータが、前記分類タスクに対応する長いテキスト言語モデルに応じて前記入力テキストを認識し、前記入力テキストに対応する目標タイプを取得するステップと、を含む、
    ことを特徴とする請求項1に記載のテキスト認識処理方法。
  5. コンピュータが、前記長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識するステップは、
    コンピュータが、前記目標タスクがテキスト要約生成タスクであると検出された場合、複数のサンプル言語データに対して対応する要約マークを行うステップであって、前記要約マークは、要約テキストを生成するためのマークである、ステップと、
    コンピュータが、前記複数のサンプル言語データ及び対応する要約マークを前記長いテキスト言語モデルに入力してトレーニングし、前記モデルパラメータを調整し、前記テキスト要約生成タスクに対応する長いテキスト言語モデルを取得するステップと、
    コンピュータが、前記分類タスクに対応する長いテキスト言語モデルに応じて前記入力テキストを認識し、前記入力テキストに対応するテキスト要約を取得するステップと、を含む、
    ことを特徴とする請求項1に記載のテキスト認識処理方法。
  6. テキスト認識処理装置であって、
    N個のフラグメントシーケンスを取得するための第1の取得モジュールであって、少なくとも1つのフラグメントにマスクがある第1の取得モジュールと、
    前記N個のフラグメントシーケンスを順次予め設定された、フラグメント間で情報を転送可能な初期言語モデルに入力して、前記N個のフラグメントシーケンスに対応する第1のテキストベクトル情報を取得するための第2の取得モジュールと、
    各前記フラグメントシーケンスを順次前記初期言語モデルに再入力して、現在入力しているN番目のフラグメントシーケンスに対応する最初のN個の前記フラグメントシーケンスに対応する第2のテキストベクトル情報を取得するための第3の取得モジュールと、
    前記現在入力しているN番目のフラグメントシーケンスにマスクがあることを検出する場合、前記第2のテキストベクトル情報及び前記第1のテキストベクトル情報に応じて、前記マスクを予測し、前記マスクに対応する目標位置の予測ワードを取得するための予測モジュールと、
    前記目標位置で予め設定されたオリジナルワード及び前記予測ワードに応じて、前記初期言語モデルをトレーニングし、モデルパラメータを取得して、長いテキスト言語モデルを生成するためのトレーニングモジュールと、
    前記長いテキスト言語モデルに応じて予め設定された目標タスクに従って入力テキストを認識するための認識処理モジュールと、を含む、
    ことを特徴とするテキスト認識処理装置。
  7. 前記第1の取得モジュールは、具体的に、
    長いテキスト言語データを取得し、前記長いテキスト言語データの複数の位置にあるオリジナルワードをそれぞれマスクに置き換えて、長いテキスト隠蔽言語データを取得し、
    予め設定された目標長さに従って前記長いテキスト隠蔽言語データを分割してN個のフラグメントシーケンスを取得することに用いられる、
    ことを特徴とする請求項6に記載のテキスト認識処理装置。
  8. 前記トレーニングモジュールは、具体的に、
    予め設定されたアルゴリズムに従って前記目標位置で予め設定されたオリジナルワード及び前記予測ワードに対して第1の損失値を生成し、
    前記第1の損失値及び予め設定された目標関数に応じて前記初期言語モデルをトレーニングし、モデルパラメータを取得して長いテキスト言語モデルを生成することに用いられる、
    ことを特徴とする請求項6に記載のテキスト認識処理装置。
  9. 前記認識処理モジュールは、具体的に、
    前記目標タスクが分類タスクであると検出された場合、複数のサンプル言語データに対して対応するカテゴリマークを行い、
    前記複数のサンプル言語データ及び対応するカテゴリマークを前記長いテキスト言語モデルに入力してトレーニングし、前記モデルパラメータを調整し、前記分類タスクに対応する長いテキスト言語モデルを取得し、前記カテゴリマークは、テキスト全体の意味表現を生成するためのマークであり、
    前記分類タスクに対応する長いテキスト言語モデルに応じて前記入力テキストを認識し、前記入力テキストに対応する目標タイプを取得することに用いられる、
    ことを特徴とする請求項6に記載のテキスト認識処理装置。
  10. 前記認識処理モジュールは、具体的に、
    前記目標タスクがテキスト要約生成タスクであると検出された場合、複数のサンプル言語データに対して対応する要約マークを行い、
    前記複数のサンプル言語データ及び対応する要約マークを前記長いテキスト言語モデルに入力してトレーニングし、前記モデルパラメータを調整し、前記テキスト要約生成タスクに対応する長いテキスト言語モデルを取得し、前記要約マークは、要約テキストを生成するためのマークであり、
    前記分類タスクに対応する長いテキスト言語モデルに応じて前記入力テキストを認識し、前記入力テキストに対応するテキスト要約を取得することに用いられる、
    ことを特徴とする請求項6に記載のテキスト認識処理装置。
  11. 電子機器であって、
    少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサによって実行される場合、前記少なくとも1つのプロセッサが請求項1~5のいずれかに記載のテキスト認識処理方法を実行する、
    ことを特徴とする電子機器。
  12. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令は、前記コンピュータに請求項1~5のいずれかに記載のテキスト認識処理方法を実行させることに用いられる、
    ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
  13. コンピュータ上で動作しているときに、請求項1~5のいずれかに記載のテキスト認識処理方法を前記コンピュータに実行させる、
    ことを特徴とするコンピュータプログラム。
JP2020217584A 2020-06-03 2020-12-25 テキスト認識処理方法、装置、電子機器及び記憶媒体 Active JP7122365B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010494419.2A CN111832292B (zh) 2020-06-03 2020-06-03 文本识别处理方法、装置、电子设备和存储介质
CN202010494419.2 2020-06-03

Publications (2)

Publication Number Publication Date
JP2021190087A JP2021190087A (ja) 2021-12-13
JP7122365B2 true JP7122365B2 (ja) 2022-08-19

Family

ID=72897957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020217584A Active JP7122365B2 (ja) 2020-06-03 2020-12-25 テキスト認識処理方法、装置、電子機器及び記憶媒体

Country Status (5)

Country Link
US (1) US11663404B2 (ja)
EP (1) EP3920075A1 (ja)
JP (1) JP7122365B2 (ja)
KR (1) KR102497945B1 (ja)
CN (1) CN111832292B (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11687709B2 (en) * 2020-10-22 2023-06-27 International Business Machines Corporation Domain knowledge based feature extraction for enhanced text representation
CN112364634B (zh) * 2020-11-02 2024-07-26 成都不问科技有限公司 一种基于问句的同义词匹配方法
CN112765444A (zh) * 2021-01-08 2021-05-07 深圳前海微众银行股份有限公司 提取目标文本片段的方法、装置、设备及存储介质
US20220237373A1 (en) * 2021-01-28 2022-07-28 Accenture Global Solutions Limited Automated categorization and summarization of documents using machine learning
CN113807095B (zh) * 2021-03-03 2024-05-17 京东科技控股股份有限公司 实体词提取模型的训练方法、装置、设备和存储介质
CN112862662A (zh) * 2021-03-12 2021-05-28 云知声智能科技股份有限公司 一种分布式训练transformer-xl语言模型的方法和设备
CN113434632B (zh) * 2021-06-25 2024-10-18 平安科技(深圳)有限公司 基于语言模型的文本补全方法、装置、设备及存储介质
US20230008868A1 (en) * 2021-07-08 2023-01-12 Nippon Telegraph And Telephone Corporation User authentication device, user authentication method, and user authentication computer program
CN113705187B (zh) * 2021-08-13 2023-08-01 北京百度网讯科技有限公司 预训练语言模型的生成方法、装置、电子设备和存储介质
CN113705203B (zh) * 2021-09-02 2024-07-26 上海极链科技发展集团有限公司 文本纠错方法、装置、电子设备及计算机可读存储介质
CN113868394A (zh) * 2021-10-09 2021-12-31 维沃移动通信有限公司 操作执行方法、装置、电子设备和存储介质
CN116089602B (zh) * 2021-11-04 2024-05-03 腾讯科技(深圳)有限公司 信息处理方法、装置、电子设备、存储介质和程序产品
CN114169295A (zh) * 2021-12-03 2022-03-11 阿里巴巴达摩院(杭州)科技有限公司 模型训练和文本生成方法、装置、电子设备和存储介质
CN114330512B (zh) * 2021-12-13 2024-04-26 腾讯科技(深圳)有限公司 数据处理方法、装置、电子设备及计算机可读存储介质
CN114416974A (zh) * 2021-12-17 2022-04-29 北京百度网讯科技有限公司 模型训练方法、装置、电子设备及存储介质
CN114416984A (zh) * 2022-01-12 2022-04-29 平安科技(深圳)有限公司 基于人工智能的文本分类方法、装置、设备及存储介质
CN114443845A (zh) * 2022-01-20 2022-05-06 序跋网络科技(上海)有限公司 一种基于bert的多特征细粒度中文短文本情感分类方法
CN114550177B (zh) * 2022-02-25 2023-06-20 北京百度网讯科技有限公司 图像处理的方法、文本识别方法及装置
CN114549935B (zh) * 2022-02-25 2024-05-07 北京百度网讯科技有限公司 信息生成方法和装置
CN114547270B (zh) * 2022-02-25 2023-04-21 北京百度网讯科技有限公司 文本处理方法、文本处理模型的训练方法、装置和设备
CN114693814B (zh) * 2022-03-31 2024-04-30 北京字节跳动网络技术有限公司 模型的解码方法、文本识别方法、装置、介质及设备
CN115130473B (zh) * 2022-04-20 2023-08-25 北京百度网讯科技有限公司 关键信息抽取方法、模型训练方法、相关装置及电子设备
CN114860873A (zh) * 2022-04-22 2022-08-05 北京北大软件工程股份有限公司 一种生成文本摘要的方法、装置及存储介质
CN114579608B (zh) * 2022-04-26 2022-08-02 阿里巴巴达摩院(杭州)科技有限公司 基于表格数据的人机交互方法、装置及设备
US20230409832A1 (en) * 2022-06-16 2023-12-21 International Business Machines Corporation System and method for generating contrastive explanations for text guided by attributes
CN115630142B (zh) * 2022-12-08 2023-03-14 中国传媒大学 一种多语言长文本相似性检索与分类工具
CN116757254B (zh) * 2023-08-16 2023-11-14 阿里巴巴(中国)有限公司 任务处理方法、电子设备及存储介质
US12008332B1 (en) 2023-08-18 2024-06-11 Anzer, Inc. Systems for controllable summarization of content
CN117094283B (zh) * 2023-10-13 2024-02-13 腾讯科技(深圳)有限公司 文本处理方法、装置、电子设备、存储介质和程序产品
CN118132685B (zh) * 2024-05-07 2024-08-20 恒生电子股份有限公司 文本处理模型训练方法及装置、文本处理方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8649600B2 (en) * 2009-07-10 2014-02-11 Palo Alto Research Center Incorporated System and method for segmenting text lines in documents
US9672814B2 (en) 2015-05-08 2017-06-06 International Business Machines Corporation Semi-supervised learning of word embeddings
WO2017061027A1 (ja) 2015-10-09 2017-04-13 三菱電機株式会社 言語モデル生成装置、言語モデル生成方法とそのプログラム、音声認識装置、および音声認識方法とそのプログラム
KR101897060B1 (ko) 2016-10-24 2018-09-12 가천대학교 산학협력단 개체명 인식 모델 생성 장치 및 방법
CN108804512B (zh) * 2018-04-20 2020-11-24 平安科技(深圳)有限公司 文本分类模型的生成装置、方法及计算机可读存储介质
US10963645B2 (en) * 2019-02-07 2021-03-30 Sap Se Bi-directional contextualized text description
CN110941945B (zh) * 2019-12-02 2021-03-23 百度在线网络技术(北京)有限公司 语言模型预训练方法和装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BERT-AL: BERT FOR ARBITRARILY LONG DOCUMENT UNDERSTANDING,2019年09月26日,[令和04年02月24日検索],インターネット<URL:https://openreview.net/forum?id=SklnVAEFDB>
Transformer-XLを理解する,2020年04月11日,[令和04年02月21日検索],インターネット<URL:https://data-analytics.fun/2020/04/11/understanding-transformer-xl/>

Also Published As

Publication number Publication date
EP3920075A1 (en) 2021-12-08
US20210383064A1 (en) 2021-12-09
KR20210040851A (ko) 2021-04-14
CN111832292B (zh) 2024-02-02
US11663404B2 (en) 2023-05-30
JP2021190087A (ja) 2021-12-13
CN111832292A (zh) 2020-10-27
KR102497945B1 (ko) 2023-02-09

Similar Documents

Publication Publication Date Title
JP7122365B2 (ja) テキスト認識処理方法、装置、電子機器及び記憶媒体
JP7194150B2 (ja) ドキュメントのベクトル化表現方法、ドキュメントのベクトル化表現装置及びコンピュータ機器
KR102350543B1 (ko) 시맨틱 표현 모델의 처리 방법, 장치, 전자 기기 및 저장 매체
KR102448129B1 (ko) 엔티티 연결 방법, 장치, 기기 및 저장 매체
EP3916611A1 (en) Method, apparatus, computer program, and storage medium for training text generation model
JP2022013602A (ja) テキスト中のイベント抽出方法、装置、電子機器及び記憶媒体
JP7309798B2 (ja) 対話意図の認識方法及び装置、電子機器並びに記憶媒体
CN111274764B (zh) 语言生成方法、装置、计算机设备及存储介质
KR102565673B1 (ko) 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체
KR102541053B1 (ko) 언어 모델에 기반한 단어 벡터 획득 방법, 장치, 기기 및 기록매체
JP2021111416A (ja) コアエンティティのタグ付け方法、コアエンティティのタグ付け装置、電子機器、記憶媒体及びコンピュータプログラム
US11537792B2 (en) Pre-training method for sentiment analysis model, and electronic device
JP7096919B2 (ja) エンティティワードの認識方法と装置
CN114970522B (zh) 语言模型的预训练方法、装置、设备、存储介质
CN111709249B (zh) 多语种模型的训练方法、装置、电子设备和存储介质
CN111950292A (zh) 文本纠错模型的训练方法、文本纠错处理方法和装置
JP2021197131A (ja) 機械翻訳におけるモデルトレーニング方法、装置、電子機器、プログラム及び記憶媒体
CN112000792A (zh) 自然灾害事件的抽取方法、装置、设备以及存储介质
CN111831814A (zh) 摘要生成模型的预训练方法、装置、电子设备和存储介质
CN111666751B (zh) 训练文本扩充方法、装置、设备以及存储介质
CN112507101A (zh) 一种建立预训练语言模型的方法和装置
CN111126061B (zh) 对联信息生成方法和装置
JP7262519B2 (ja) 質問の答えの決定方法、装置、機器及び記憶媒体
CN111950293A (zh) 语义表示模型的生成方法、装置、电子设备及存储介质
CN113902005A (zh) 语言模型的预训练方法、装置、设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R150 Certificate of patent or registration of utility model

Ref document number: 7122365

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150