JP2023002730A - テキスト誤り訂正とテキスト誤り訂正モデルの生成方法、装置、機器及び媒体 - Google Patents

テキスト誤り訂正とテキスト誤り訂正モデルの生成方法、装置、機器及び媒体 Download PDF

Info

Publication number
JP2023002730A
JP2023002730A JP2022169806A JP2022169806A JP2023002730A JP 2023002730 A JP2023002730 A JP 2023002730A JP 2022169806 A JP2022169806 A JP 2022169806A JP 2022169806 A JP2022169806 A JP 2022169806A JP 2023002730 A JP2023002730 A JP 2023002730A
Authority
JP
Japan
Prior art keywords
text
sample
pinyin
error correction
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022169806A
Other languages
English (en)
Inventor
ルイキン ジャン,
Ruiqing Zhang
フェー,ジョンジュン
Zhongjun He
ファ ウー,
Hua Wu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2023002730A publication Critical patent/JP2023002730A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/232Orthographic correction, e.g. spell checking or vowelisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0475Generative networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

【課題】検出された誤字のピンイン特徴を誤字の後ろに接続して誤り訂正を行うことにより、可変長誤り訂正の問題を処理することが可能なテキスト誤り訂正方法、装置、電子機器及び記憶媒体を提供する。【解決手段】テキスト誤り訂正方法は、誤り訂正対象のテキストを取得し、誤り訂正対象のテキストのピンインシーケンスを取得し、誤り訂正対象のテキストとピンインシーケンスをテキスト誤り訂正モデルに入力して、誤り訂正後の誤り訂正済みテキストを得て、テキスト誤り訂正モデルは、誤り訂正対象のテキストの誤字を検出し、ピンインシーケンスにおける誤字に対応するピンインを決定し、ピンインに対応するピンイン特徴を誤字の後ろに追加して、ピンインテキストを得て、ピンインテキストの誤字とピンイン特徴を訂正して、誤り訂正済みテキストを得るステップによって、誤り訂正済みテキストを得る。【選択図】図1

Description

本開示は、人工知能技術の分野における自然言語処理と深層学習技術の分野に関し、特に、テキスト誤り訂正とテキスト誤り訂正モデルの生成方法、装置、機器及び媒体に関する。
現在、業界は通常、中国語の音声認識結果の誤り訂正に対して非自己回帰モデルを使用する。
ただし、非自己回帰モデルを使用して誤り訂正を行うことは、可変長誤り訂正の問題を処理できず、誤り訂正結果の精度が低くなる。
本開示は、テキスト誤り訂正とテキスト誤り訂正モデルの生成方法、装置、機器及び媒体を提供する。
第1の態様によれば、誤り訂正対象のテキストを取得するステップと、前記誤り訂正対象のテキストのピンインシーケンスを取得するステップと、前記誤り訂正対象のテキストと前記ピンインシーケンスをテキスト誤り訂正モデルに入力して、誤り訂正後の誤り訂正済みテキストを得るステップであって、前記テキスト誤り訂正モデルが、前記誤り訂正対象のテキストの誤字を検出し、前記ピンインシーケンスにおける前記誤字に対応するピンインを決定し、前記ピンインに対応するピンイン特徴を前記誤字の後ろに追加して、ピンインテキストを得て、前記ピンインテキストの前記誤字及び前記ピンイン特徴を訂正して、前記誤り訂正済みテキストを得るステップによって前記誤り訂正済みテキストを得るステップと、を含むテキスト誤り訂正方法を提供する。
第2の態様によれば、サンプルテキスト、サンプルテキストのサンプルピンインシーケンス及びサンプルテキストのターゲットテキストを取得するステップと、サンプルテキストとサンプルピンインシーケンスをトレーニング対象のテキスト誤り訂正モデルに入力して、サンプル誤り訂正済みテキストを得るステップであって、トレーニング対象のテキスト誤り訂正モデルが、サンプルテキストのサンプル誤字を検出し、サンプルピンインシーケンスにおけるサンプル誤字に対応するサンプルピンインを決定し、サンプルピンインに対応するサンプルピンイン特徴をサンプル誤字の後ろに追加して、サンプルピンインテキストを得て、サンプルピンインテキストのサンプル誤字及びサンプルピンイン特徴を訂正して、サンプル誤り訂正済みテキストを得るステップによってサンプル誤り訂正済みテキストを得るステップと、サンプルテキスト、サンプル誤り訂正済みテキスト及びターゲットテキストに基づいて第1の損失値を生成するステップと、第1の損失値に基づいてトレーニング対象のテキスト誤り訂正モデルをトレーニングして、テキスト誤り訂正モデルを得るステップと、を含むテキスト誤り訂正モデルの生成方法を提供する。
第3の態様によれば、誤り訂正対象のテキストを取得する第1の取得モジュールと、前記誤り訂正対象のテキストのピンインシーケンスを取得する第2の取得モジュールと、前記誤り訂正対象のテキストと前記ピンインシーケンスをテキスト誤り訂正モデルに入力して、誤り訂正後の誤り訂正済みテキストを得る第1の誤り訂正モジュールであって、前記テキスト誤り訂正モデルが前記誤り訂正対象のテキストの誤字を検出し、前記ピンインシーケンスにおける前記誤字に対応するピンインを決定し、前記ピンインに対応するピンイン特徴を前記誤字の後ろに追加して、ピンインテキストを得て、前記ピンインテキストの前記誤字及び前記ピンイン特徴を訂正して、前記誤り訂正済みテキストを得るステップによって前記誤り訂正済みテキストを得る第1の誤り訂正モジュールと、を含むテキスト誤り訂正装置を提供する。
第4の態様によれば、サンプルテキスト、サンプルテキストのサンプルピンインシーケンス及びサンプルテキストのターゲットテキストを取得する第3の取得モジュールと、サンプルテキストとサンプルピンインシーケンスをトレーニング対象のテキスト誤り訂正モデルに入力して、サンプル誤り訂正済みテキストを得る第2の誤り訂正モジュールであって、トレーニング対象のテキスト誤り訂正モデルが、サンプルテキストのサンプル誤字を検出し、サンプルピンインシーケンスにおけるサンプル誤字に対応するサンプルピンインを決定し、サンプルピンインに対応するサンプルピンイン特徴をサンプル誤字の後ろに追加して、サンプルピンインテキストを得て、サンプルピンインテキストのサンプル誤字及びサンプルピンイン特徴を訂正して、サンプル誤り訂正済みテキストを得る第2の誤り訂正モジュールと、サンプルテキスト、サンプル誤り訂正済みテキスト及びターゲットテキストに基づいて第1の損失値を生成する第1の生成モジュールと、第1の損失値に基づいてトレーニング対象のテキスト誤り訂正モデルをトレーニングして、テキスト誤り訂正モデルを得るトレーニングモジュールと、を含むテキスト誤り訂正モデルの生成装置を提供する。
第5の態様によれば、電子機器を提供し、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが本開示の第1の態様に記載のテキスト誤り訂正方法または本開示の第2の態様に記載のテキスト誤り訂正モデルの生成方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
第6の態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令は、前記コンピュータに本開示の第1の態様に記載のテキスト誤り訂正方法または本開示の第2の態様に記載のテキスト誤り訂正モデルの生成方法を実行させる。
第7の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムはプロセッサによって実行される場合、本開示の第1の態様に記載のテキスト誤り訂正方法のステップまたは本開示第2の態様に記載のテキスト誤り訂正モデルの生成方法のステップを実現する。
なお、この部分に記載の内容は、本開示の実施例の肝心または重要な特徴を特定することを意図しておらず、本開示の範囲を限定することも意図していないことを理解されたい。本開示の他の特徴は、以下の説明を通して容易に理解される。
図面は、本技術案をよりよく理解するために使用され、本開示を限定するものではない。
本開示の第1の実施例に係るテキスト誤り訂正方法のフローチャートである。 Tagging with Phonetics方法の概略図である。 ピンインと組み合わせられた非自己回帰モデルの概略図である。 本開示の第2の実施例に係るテキスト誤り訂正方法のフローチャートである。 本開示の第1の実施例に係るテキスト誤り訂正モデルの生成方法のフローチャートである。 本開示の第2の実施例に係るテキスト誤り訂正モデルの生成方法のフローチャートである。 トレーニングデータ(X,Y)からXcorとY^を生成するプロセスの概略図である。 本開示の第1の実施例に係るテキスト誤り訂正装置のブロック図である。 本開示の第2の実施例に係るテキスト誤り訂正装置のブロック図である。 本開示の第1の実施例に係るテキスト誤り訂正モデルの生成装置のブロック図である。 本開示の第2の実施例に係るテキスト誤り訂正モデルの生成装置のブロック図である。 本開示の実施例のテキスト誤り訂正方法またはテキスト誤り訂正モデルの生成方法を実現するための電子機器のブロック図である。
以下、図面と併せて本開示の例示的な実施例を説明し、理解を容易にするためにその中には本開示の実施例の様々な詳細事項が含まれており、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本開示の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができることを認識されたい。同様に、明確及び簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
人工知能(Artificial Intelligence、AIと省略する)は、人間の知能をシミュレーション、延長、拡張するための理論、方法、技術及び応用システムを研究、開発する新しい技術科学である。現在、AI技術は自動化度が高く、精度が高く、コストが低いという利点があり、幅広く応用されている。
自然言語処理(Natural Language Processing,NLP)は、自然言語通信を効率的に実現できるコンピュータシステム、特にその中のソフトウェアシステムを研究する科学であり、コンピュータ科学の分野と人工知能の分野における重要な方向である。
深層学習(Deep Learning、DLと省略する)は、機械学習(Machine Learning、MLと省略する)分野における新しい研究方向であり、サンプルデータの内的法則と表現レベルを学習するものであり、これらの学習プロセスで取得された情報は本文、画像、音声などのデータの解釈に大きいに役立つ。その最終的な目標は、機械が人間のように分析学習能力を持ち、本文、画像、及び音声などのデータを認識できるようにすることである。具体的な研究内容にとっては、主に畳み込み演算に基づくニューラルネットワークシステム、すなわち畳み込みニューラルネットワーク、多層ニューロンベースの自己コーディングニューラルネットワーク、及び多層自己コーディングニューラルネットワーク方式で予めトレーニングし、さらに認証情報と組み合わせてニューラルネットワークの重み値をさらに最適化する深層信頼ネットワークを含む。深層学習は検索技術、データマイニング、機械学習、機械翻訳、自然言語処理、マルチメディア学習、音声、推薦と個性化技術、及びその他の関連分野で多くの成果を収めた深層学習は機械に視聴や思考などの人間の活動を模倣させ、多くの複雑なパターン認識の課題を解決し、人工知能の関連技術が大きく進歩した。
以下、図面を参照しながら、本開示の実施例のテキスト誤り訂正とテキスト誤り訂正モデルの生成方法、装置、機器及び媒体を説明する。
図1は、本開示の第1の実施例に係るテキスト誤り訂正方法のフローチャートである。
図1に示すように、本開示の実施例のテキスト誤り訂正方は具体的に以下のステップS101~S103を含むことができる。
S101、誤り訂正対象のテキストを取得する。
具体的には、本開示の実施例に係るテキスト誤り訂正方法の実行主体は、本開示の実施例によって提供されるテキスト誤り訂正装置であってもよく、当該テキスト誤り訂正装置は、データ情報処理能力を有するハードウェア装置および/または当該ハードウェア装置の動作を駆動するために必要なソフトウェアであってもよい。選択的に、実行主体は、ワークステーション、サーバ、コンピュータ、ユーザ端末、および他のデバイスを含むことができる。ユーザ端末は、携帯電話、パソコン、インテリジェントな音声対話デバイス、スマート家電、車載端末などを含むが、これらに限定されない。
なお、本開示の実施例のテキスト誤り訂正方法は中国語音声認識結果の誤り訂正シーンに適用することができる。中国語音声認識結果の誤り訂正は、形式的に、以下のように表すことができる。いくつかの本文が含まれる文、つまり音声認識の結果を入力し、その後に誤り訂正後の文を出力し、ただし、2つの文に含まれる本文の数、すなわち文の長さは必ずしも同じではなく、例えば、誤り訂正文の長さは原文に対して増加することができ、文にn個の文字が含まれていることを例として、入力X=(x,x,…,x)を入力した後、Y=(y,y,…,y)が出力されることができ、nが必ずしもmに等しくない。
上記の問題に対して、「爾不要難過」(悲しまないで)という音声の認識の結果である「爾表難過」に対して誤り訂正を行うことを例とすると、従来の非自己回帰モデルに基づく誤り訂正方法は、図2に示すように、y図のCは修正が必要であることを表し、Kは修正が必要ではないことを表し、2ステップのタグ付け方法が用いられており、ステップ1は、「爾表難過」という音声認識結果の誤り位置、すなわち音声認識結果のうちの誤字「表」を検出することであり、ステップ2は、検出された誤字「表」をピンイン「biao」で代替してから入力し、さらに1ステップのtaggingで誤り訂正を行い、誤り訂正済みテキスト「爾少難過」を得ることであり、しかしながら、この方法は、可変長誤り訂正を処理することができなく、つまり出力された誤り訂正結果が入力された音声認識結果の長さと同じであり、すなわち文字の数が同じでなければならず、入力された音声認識結果と同じ長さで文の流暢な発音に近い訂正を生成することができなかったため、「少」というおかしい誤り訂正が生成され、誤り訂正結果は十分に正確ではない。
なお、本明細書では、便宜上、「爾」、「難」及び「過」を繁体字で標記しているが、図面では簡体字で標記している。
これに基づいて、本開示の実施例は検出された誤字のピンイン特徴を誤字の後ろに接続して誤り訂正を行うことにより、誤り訂正速度が速く、発音情報を考慮したため、誤り訂正結果の精度が高く、可変長誤り訂正を処理することができ、誤り訂正結果の精度をさらに向上させるテキスト誤り訂正方法を提供する。
本開示の実施例では、誤り訂正対象のテキストは、すなわち音声認識された初期テキストであり、複数種類のクライアントを介して取得することができ、携帯電話、コンピュータなどを含むが、これに限定されず、本開示はこれに対してあまり限定しない。誤り訂正対象のテキストには、1つの文、1つの段落、または1つの文章、例えば、ニュース原稿などを含むことができる。図3に示すように、例えば、誤り訂正対象のテキストは「爾表難過」である。
S102、誤り訂正対象のテキストのピンインシーケンスを取得する。
具体的に、ステップS101で取得された誤り訂正対象のテキストに基づいて、誤り訂正対象のテキストに対応するピンインシーケンスをさらに取得する。
なお、ピンインシーケンスは、誤り訂正対象のテキストの各漢字のピンインの組み合わせシーケンスであり、小文字で表される。例えば、図3では、誤り訂正対象のテキスト「爾表難過」のピンインシーケンスは「ni biao nan guo」である。
S103、誤り訂正対象のテキストとピンインシーケンスをテキスト誤り訂正モデルに入力して、誤り訂正後の誤り訂正済みテキストを得て、ここで、テキスト誤り訂正モデルは、誤り訂正対象のテキストの誤字を検出し、ピンインシーケンスにおける誤字に対応するピンインを決定し、ピンインに対応するピンイン特徴を誤字の後ろに追加して、ピンインテキストを得て、ピンインテキストの誤字とピンイン特徴を訂正して、誤り訂正済みテキストを得るステップによって、誤り訂正済みテキストを得る。
具体的に、ステップS101で取得された誤り訂正対象のテキストとステップS102で取得された誤り訂正対象のテキストに対応するピンインシーケンスをテキスト誤り訂正モデルに入力し、テキスト誤り訂正モデルは、まず誤り訂正対象のテキストの誤字を検出し、ピンインシーケンスの検出された誤字に対応するピンインを決定し、次に当該ピンインに対応するピンイン特徴を誤字の後ろに追加して、ピンインテキストを得て、ピンインテキストの誤字とピンイン特徴を訂正し、これによって誤り訂正後の誤り訂正済みテキストを得る。例えば、図3では、誤り訂正対象のテキスト「爾表難過」に対応するピンインシーケンス「ni biao nan guo」をテキスト誤り訂正モデルに入力し、テキスト誤り訂正モデルの誤り検出サブモデルによって検出された「爾表難過」の誤字は「表」であり、ピンインシーケンス「ni biao nan guo」から誤字「表」に対応するピンインが「biao」であると決定し、ピンイン「biao」に対応するピンイン特徴「biao」を誤字「表」の後ろに追加し、ピンインテキスト 「爾表biao難過」を得て、ピンインテキスト「爾表biao難過」をテキスト誤り訂正モデルに入力し、テキスト誤り訂正モデルの誤り訂正サブモデルはピンインテキスト「爾表biao難過」の誤字「表」とピンイン特徴「biao」を訂正し、誤り訂正済みテキスト「爾不要難過」を得る。
以上より、本開示の実施例のテキスト誤り訂正方法は、誤り訂正対象のテキストと対応するピンインシーケンスをテキスト誤り訂正モデルに入力し、テキスト誤り訂正モデルは、誤り訂正対象のテキストの誤字を検出し、ピンインシーケンスにおける誤字に対応するピンインを決定し、ピンインに対応するピンイン特徴を誤字の後ろに追加して、ピンインテキストを得て、ピンインテキストの誤字とピンイン特徴を訂正して、誤り訂正後の誤り訂正済みテキストを得る。本開示のテキスト誤り訂正方法は、検出された誤字のピンイン特徴を誤字の後ろに接続して誤り訂正を行うことにより、誤り訂正速度が速く、発音情報を考慮したため、誤り訂正結果の精度が高く、可変長誤り訂正を処理することができ、誤り訂正結果の精度をさらに向上させる。
図4は、本開示の第2の実施例に係るテキスト誤り訂正方法のフローチャートである。
図4に示すように、図1に示す実施例に加えて、本開示の実施例のテキスト誤り訂正方法のテキスト誤り訂正モデルは、以下のステップで誤り訂正済みテキストを得ることができる。
上記実施例ステップS103の「前記誤り訂正対象のテキストの誤字を検出する」というステップは、具体的に、以下のステップS401-S402を含むことができる。
S401、誤り訂正対象のテキストに対して誤字検出を行い、誤り検出タグ付けシーケンスを得る。
具体的に、テキスト誤り訂正モデルはステップS101で取得された誤字を検出し、これによって誤り訂正対象のテキストに対応する誤り検出タグ付けシーケンスを得て、例えば、図3では、テキスト誤り訂正モデルの誤り検出サブモデルは、誤り訂正対象のテキスト「爾表難過」に対して誤字検出を行って、誤り検出タグ付けシーケンス「K C K K」を得て、Cは修正が必要であることを表し、Kは修正が必要ではないことを表す。
S402、誤り検出タグ付けシーケンスに基づいて誤り訂正対象のテキストの誤字を決定する。
具体的に、テキスト誤り訂正モデルは、ステップS401で取得された誤り訂正対象のテキストの誤り検出タグ付けシーケンスに基づいて、誤り訂正対象のテキストの対応する誤字をさらに決定することができ、例えば、図3では、テキスト誤り訂正モデルは、誤り訂正対象のテキスト「爾表難過」の誤り検出タグ付けシーケンス「K C K K」のCに対応する「表」という文字を誤字として決定する。
S403、ピンインシーケンスにおける誤字に対応するピンインを決定し、ピンインに対応するピンイン特徴を誤字の後ろに追加して、ピンインテキストを得る。
具体的に、テキスト誤り訂正モデルは、ステップS102で取得された誤り訂正対象のテキストのピンインシーケンスとステップS402で取得された誤り訂正対象のテキストの誤字に基づいて、ピンインシーケンスにおける誤字に対応するピンインを決定し、ピンインに対応するピンイン特徴を誤字の後ろに追加し、これによって対応するピンインテキストを得る。具体的なプロセスは、上記ステップS103の関連説明を参照して、ここでは説明を省略する。
上記実施例のステップS103の「ピンインテキストの誤字とピンイン特徴を訂正して、誤り訂正済みテキストを得る」というステップは、具体的に以下のステップS404~S405を含むことができる。
S404、ピンインテキストの誤字とピンイン特徴に対して誤り訂正を行って、候補誤り訂正テキストを得る。
具体的に、テキスト誤り訂正モデルはステップS603で取得されたピンインテキストの誤字とピンイン特徴に対して誤り訂正を行い、候補誤り訂正テキストを得ることができる。例えば、図3では、テキスト誤り訂正モデルの誤り訂正サブモデルは入力されたピンインテキスト「爾表biao難過」の誤字「表」とピンイン特徴「biao」に対して誤り訂正を行い、候補誤り訂正テキスト「爾不不ε要要難過」を得る。
S405、候補誤り訂正テキストに対して重複排除処理を行って、誤り訂正済みテキストを得る。
具体的に、テキスト誤り訂正モデルは、ステップS404で取得された候補誤り訂正テキストに対して重複排除処理を行い、対応する誤り訂正処理後の誤り訂正済みテキストを得ることができる。例えば、図3では、テキスト誤り訂正モデルは、候補誤り訂正テキスト「爾不不ε要要難過」に対して重複排除処理を行い、誤り訂正済みテキスト「爾不要難過」を得る。
以上より、本開示の実施例のテキスト誤り訂正方法は、誤り訂正対象のテキストと対応するピンインシーケンスをテキスト誤り訂正モデルに入力し、テキスト誤り訂正モデルは、誤り訂正対象のテキストに対して誤字検出を行って誤り検出タグ付けシーケンスを得て、誤り検出タグ付けシーケンスに基づいて誤り訂正対象のテキストの誤字を決定し、ピンインシーケンスにおける誤字に対応するピンインを決定し、ピンインに対応するピンイン特徴を誤字の後ろに追加してピンインテキストを得て、ピンインテキストの誤字とピンイン特徴に対して誤り訂正を行って候補誤り訂正テキストを得て、候補誤り訂正テキストに対して重複排除処理を行って誤り訂正後の誤り訂正済みテキストを得る。本開示のテキスト誤り訂正方法は、検出された誤字のピンイン特徴を誤字の後ろに接続して誤り訂正を行うことにより、誤り訂正速度が速く、発音情報を考慮したため、誤り訂正結果の精度が高く、可変長誤り訂正を処理することができ、誤り訂正結果の精度をさらに向上させる。同時に、誤り訂正対象のテキストに対して誤字検出を行ってピンインシーケンスにおける誤字に対応するピンインを決定して誤り訂正及び重複排除処理を行って誤り訂正後の誤り訂正済みテキストを得ることにより、誤り訂正結果の重複を回避し、誤り訂正速度と誤り訂正結果の精度をさらに向上させる。
図5は、本開示の一実施例によって提供されるテキスト誤り訂正モデルの生成方法のフローチャートである。本開示の実施例のテキスト誤り訂正モデルの生成方法は、本開示の実施例によって提供されるテキスト誤り訂正モデルの生成装置によって実行されることができて、上記実施例のテキスト誤り訂正モデルを生成する。
図5に示すように、本開示の実施例のテキスト誤り訂正モデルの生成方法は、具体的に以下のステップS501~S504を含むことができる。
S501、サンプルテキスト、サンプルテキストのサンプルピンインシーケンス及びサンプルテキストのターゲットテキストを取得する。
具体的に、サンプルテキスト、サンプルテキストのサンプルピンインシーケンス及びサンプルテキストのターゲットテキストを取得する。サンプルテキストは、トレーニング対象のテキスト誤り訂正モデルをトレーニングするために使用される音声認識された初期テキストであり、サンプルピンインシーケンスはサンプルテキストの各漢字のピンインの組み合わせシーケンスであり、サンプルテキストのターゲットテキストは、サンプルテキストに対応する実際の誤り訂正済みテキストである。サンプルテキストとそれに対応するサンプルピンインシーケンス、ターゲットテキストが複数であってもよい。
S502、サンプルテキストとサンプルピンインシーケンスをトレーニング対象のテキスト誤り訂正モデルに入力して、サンプル誤り訂正済みテキストを得て、トレーニング対象のテキスト誤り訂正モデルは、サンプルテキストのサンプル誤字を検出し、サンプルピンインシーケンスにおけるサンプル誤字に対応するサンプルピンインを決定し、サンプルピンインに対応するサンプルピンイン特徴をサンプル誤字の後ろに追加して、サンプルピンインテキストを得て、サンプルピンインテキストのサンプル誤字及びサンプルピンイン特徴を訂正して、サンプル誤り訂正済みテキストを得るステップによってサンプル誤り訂正済みテキストを得る。
具体的に、ステップS501で取得されたサンプルテキストとサンプルテキストのサンプルピンインシーケンスをトレーニング対象のテキスト誤り訂正モデルに入力し、トレーニング対象のテキスト誤り訂正モデルは、まずサンプルテキストのサンプル誤字を検出し、サンプルピンインシーケンスにおけるサンプル誤字に対応するサンプルピンインを決定し、次に当該サンプルピンインに対応するサンプルピンイン特徴をサンプル誤字の後ろに追加して、サンプルピンインテキストを得て、サンプルピンインテキストのサンプル誤字及びサンプルピンイン特徴を訂正し、これによって誤り訂正後のサンプル誤り訂正済みテキストを得る。
S503、サンプルテキスト、サンプル誤り訂正済みテキスト及びターゲットテキストに基づいて第1の損失値を生成する。
具体的に、ステップS501で取得されたサンプルテキスト、ステップS502で取得されたサンプル誤り訂正済みテキスト及びステップS501で取得されたサンプルテキストのターゲットテキストに基づいて第1の損失値loss1を生成し、本開示は損失値の具体的な生成方式をあんまり限定しない。
S504、第1の損失値に基づいてトレーニング対象のテキスト誤り訂正モデルをトレーニングして、テキスト誤り訂正モデルを得る。
具体的に、ステップS503で生成された第1の損失値に基づいて、トレーニング対象のテキスト誤り訂正モデルをトレーニングして、テキスト誤り訂正モデルのモデルパラメータを最適化し、これによって最適化後のテキスト誤り訂正モデルを得る。本開示の実施例のテキスト誤り訂正モデルの生成方法でテキスト誤り訂正モデルを最適化することにより、テキスト誤り訂正の精度を向上させることができる。
以上より、本開示の実施例のテキスト誤り訂正モデルの生成方法は、サンプルテキストと対応するサンプルピンインシーケンスをトレーニング対象のテキスト誤り訂正モデルに入力し、トレーニング対象のテキスト誤り訂正モデルサンプルテキストのサンプル誤字を検出し、サンプルピンインシーケンスにおけるサンプル誤字に対応するサンプルピンインを決定し、サンプルピンインに対応するサンプルピンイン特徴をサンプル誤字の後ろに追加して、サンプルピンインテキストを得て、サンプルピンインテキストのサンプル誤字及びサンプルピンイン特徴を訂正して、誤り訂正後のサンプル誤り訂正済みテキストを得て、サンプルテキスト、サンプル誤り訂正済みテキスト及びターゲットテキストに基づいて第1の損失値を生成し、第1の損失値に基づいてトレーニング対象のテキスト誤り訂正モデルをトレーニングして、テキスト誤り訂正モデルを得る。本開示のテキスト誤り訂正モデルの生成方法は、サンプルテキストとサンプルピンインシーケンスをトレーニング対象のテキスト誤り訂正モデルに入力して誤り訂正後のサンプル誤り訂正済みテキストを得て、ターゲットテキストとの第1の損失値を生成してトレーニング対象のモデルをトレーニングしてテキスト誤り訂正モデルを得ることにより、誤り訂正速度が速く、発音情報を考慮したため、誤り訂正結果の精度が高く、可変長誤り訂正を処理することができ、誤り訂正結果の精度をさらに向上させ、テキスト誤り訂正モデルのトレーニングをより正確かつ効率的にする。
図6は、本開示の第2の実施例に係るテキスト誤り訂正モデルの生成方法のフローチャートである。
図6に示すように、図5に示される実施例に加えて、本開示の実施例のテキスト誤り訂正モデルの生成方法は、具体的に、以下のステップS601~S607を含むことができる。
S601、サンプルテキスト、サンプルテキストのサンプルピンインシーケンス及びサンプルテキストのターゲットテキストを取得する。
具体的に、本実施例のステップS601は上記実施例のステップS501と同じであり、ここでは説明を省略する。
上記実施例のステップS502は、具体的に以下のステップS602を含むことができる。
S602、サンプルテキストとサンプルピンインシーケンスをトレーニング対象のテキスト誤り訂正モデルに入力し、トレーニング対象のテキスト誤り訂正モデルはサンプルテキストに対して誤字検出を行って、サンプル誤り検出タグ付けシーケンスを得て、サンプル誤り検出タグ付けシーケンスに基づいてサンプルテキストの誤字を決定し、サンプルピンインシーケンスにおけるサンプル誤字に対応するサンプルピンインを決定し、サンプルピンインに対応するサンプルピンイン特徴をサンプル誤字の後ろに追加して、サンプルピンインテキストを得て、サンプルピンインテキストのサンプル誤字及びサンプルピンイン特徴に対して誤り訂正を行って、サンプル候補誤り訂正テキストを得て、サンプル候補誤り訂正テキストに対して重複排除処理を行って、サンプル誤り訂正済みテキストを得る。
S603、サンプルテキストのターゲットピンインテキストを取得する。
具体的に、サンプルテキストのターゲットピンインテキストを取得し、サンプルテキストのターゲットピンインテキストが、サンプルテキストに対応する実際のピンインテキストである。
上記実施例のステップS503は、具体的に、以下のステップS604~S606を含むことができる。
S604、サンプルテキスト、サンプルピンインテキスト及びターゲットピンインテキストに基づいて第2の損失値を生成する。
具体的に、ステップS601で取得されたサンプルテキスト、ステップS602で取得されたサンプルピンインテキスト及びステップS603で取得されたサンプルテキストのターゲットピンインテキストに基づいて、さらに損失値を計算して、第2の損失値を得ることができる。
S605、ターゲットピンインテキスト、サンプル誤り訂正済みテキスト及びターゲットテキストに基づいて第3の損失値を生成する。
具体的に、ステップS603で取得されたサンプルテキストのターゲットピンインテキスト、ステップS602で取得されたサンプル誤り訂正済みテキストとステップS601で取得されたサンプルテキストのターゲットテキストに基づいて、第3の損失値を生成する。
S606、第2の損失値と第3の損失値に基づいて第1の損失値を生成する。
具体的に、ステップS604で生成された第2の損失値とステップS605で生成された第3の損失値に基づいて、さらに損失値を計算して、第1の損失値を得ることができる。
S607、第1の損失値に基づいてトレーニング対象のテキスト誤り訂正モデルをトレーニングして、テキスト誤り訂正モデルを得る。
具体的に、本実施例のステップS607は、上記実施例のステップS504と同じであり、ここでは説明を省略する。
上記損失値の計算プロセスを明確に説明するために、以下、テキスト誤り訂正モデルの構造を説明する。テキスト誤り訂正モデルの誤り検出サブモデルと誤り訂正サブモデルはいずれも1つのエンコーダと1つのデコーダを含み、2つのサブモデルは1つのエンコーダを共有する。
誤り検出サブモデルは、入力されたサンプルテキストXのベクトル表現(ew)に対して符号化E(エンコーダに対応する)と1つの2クラス分類結果マッピングfdet(デコーダに対応する)を行って2クラス分類結果c’、c’∈{0,1}を得る。
Figure 2023002730000002
EはTransformer構造を採用し、fdetは完全接続層である。
当該誤り検出サブモデルに対応する損失値は、第2の損失値であり、サンプルテキストXからc’までのクロスエントロピーとして表すことができる。
Figure 2023002730000003
誤り訂正サブモデルは、入力されたサンプルピンインテキストXCOR=(x’x’,…,x’)のベクトル表現(ecor)に対して符号化E(エンコーダに対応する)と1つの|V|クラス分類マッピングfcor(デコーダに対応する)を行って誤り訂正結果y’を得て、t>n(nはサンプルテキストXの長さである)、t-nは追加されたピンイン特徴の個数である。
Figure 2023002730000004
は辞書のj番目の語を表す。
誤り訂正タスクの目的は誤り訂正サブモデルXcorをターゲットテキストYに訂正することであるが、Xcorの長さtとYの長さmとが同じではないため、直接taggingタスクで一対一に対応することができないため、YをY^(Yの上部に「^」を付したものを明細書中では便宜上「Y^」と表記する。)に書き換え、Y^とXcorとの長さを同じにする必要があり、その後XcorからY^までのクロスエントロピーを第3の損失値として最適化する。YをY^に書き換えるプロセスは図7に示すように、まずサンプルテキストXの誤字及びYのそれに対応する正しい字のピンイン(図7垂直破線の左側に示す)をタグ付け、その後、最長共通サブストリングアルゴリズムに従ってこれらのピンイン特徴(図7の垂直破線の左側の破線矢印に示す)を整列する。Xcorは、Xの誤字のピンイン特徴を誤字の後ろに接続することによって得られたものである。図7の垂直破線の右側に示すように、Y^は、図7の垂直破線の左側のピンイン位置合わせ関係に基づいて得られたものである。
当該誤り訂正サブモデルに対応する損失値は第3の損失値であり、XcorからY^までのクロスエントロピーとして表すことができる。
Figure 2023002730000005
テキスト誤り訂正モデルの誤り検出サブモデルと誤り訂正サブモデルは、単独でトレーニングされたものではなく、1つの全体として共同トレーニングされたものであり、誤り訂正モデル共同トレーニング時の損失値は、第1の損失値であり、以下の式で計算して得られる。
Figure 2023002730000006
以上より、本開示の実施例のテキスト誤り訂正モデルの生成方法は、サンプルテキストと対応するサンプルピンインシーケンスをトレーニング対象のテキスト誤り訂正モデルに入力し、トレーニング対象のテキスト誤り訂正モデルは、サンプルテキストのサンプル誤字を検出してサンプル誤り検出タグ付けシーケンスを得て、サンプル誤り検出タグ付けシーケンスに基づいてサンプルテキストの誤字を決定し、サンプルピンインシーケンスにおけるサンプル誤字に対応するサンプルピンインを決定し、サンプルピンインに対応するサンプルピンイン特徴をサンプル誤字の後ろに追加してサンプルピンインテキストを得て、サンプルピンインテキストのサンプル誤字及びサンプルピンイン特徴に対して誤り訂正を行って、サンプル候補誤り訂正テキストを得て、サンプル候補誤り訂正テキストに対して重複排除処理を行って誤り訂正後のサンプル誤り訂正済みテキストを得て、サンプル誤り訂正済みテキストとターゲットテキストに基づいて第1の損失値を生成し、サンプルテキストのターゲットピンインテキストを取得し、サンプルピンインテキストとターゲットピンインテキストに基づいて第2の損失値を生成し、第1の損失値と第2の損失値に基づいて第3の損失値を生成し、第3の損失値に基づいてトレーニング対象のテキスト誤り訂正モデルをトレーニングし、これによってテキスト誤り訂正モデルを得る。本開示のテキスト誤り訂正モデルの生成方法は、サンプルテキストとサンプルピンインシーケンスをトレーニング対象のテキスト誤り訂正モデルに入力して誤り訂正後のサンプル誤り訂正済みテキストを得て、ターゲットテキストとの第1の損失値を生成してトレーニング対象のモデルをトレーニングしてテキスト誤り訂正モデルを得ることにより、誤り訂正速度が速く、発音情報を考慮したため、誤り訂正結果の精度が高く、可変長誤り訂正を処理することができ、誤り訂正結果の精度をさらに向上させ、テキスト誤り訂正モデルのトレーニングをより正確かつ効率的にすることもできる。同時に、サンプルテキストに対して誤字検出を行うことにより、ピンインシーケンスにおける誤字に対応するピンインを決定し、誤り訂正と重複排除処理を行って誤り訂正後のサンプル誤り訂正済みテキストを得ることにより、誤り訂正結果の重複を回避し、誤り訂正速度と誤り訂正結果の精度をさらに向上させ、テキスト誤り訂正モデルのトレーニングをより正確かつ効率的にする。
図8は、本開示の第1の実施例に係るテキスト誤り訂正装置のブロック図である。
図8に示すように、本開示の実施例のテキスト誤り訂正装置800は、第1の取得モジュール801、第2の取得モジュール802及び第1の誤り訂正モジュール803を含む。
第1の取得モジュール801は、誤り訂正対象のテキストを取得する。
第2の取得モジュール802は、誤り訂正対象のテキストのピンインシーケンスを取得する。
第1の誤り訂正モジュール803は、誤り訂正対象のテキストとピンインシーケンスをテキスト誤り訂正モデルに入力して、誤り訂正後の誤り訂正済みテキストを得て、テキスト誤り訂正モデルは、誤り訂正対象のテキストの誤字を検出し、ピンインシーケンスにおける誤字に対応するピンインを決定し、ピンインに対応するピンイン特徴を誤字の後ろに追加して、ピンインテキストを得て、ピンインテキストの誤字とピンイン特徴を訂正して、誤り訂正済みテキストを得るステップによって、誤り訂正済みテキストを得る。
なお、上記テキスト誤り訂正方法の実施例に対する説明は、本開示の実施例のテキスト誤り訂正装置に適用することもでき、具体的なプロセスはここでは説明を省略する。
以上より、本開示の実施例のテキスト誤り訂正装置は、誤り訂正対象のテキストと対応するピンインシーケンスをテキスト誤り訂正モデルに入力し、テキスト誤り訂正モデルは、誤り訂正対象のテキストの誤字を検出し、ピンインシーケンスにおける誤字に対応するピンインを決定し、ピンインに対応するピンイン特徴を誤字の後ろに追加して、ピンインテキストを得て、ピンインテキストの誤字とピンイン特徴を訂正して、誤り訂正後の誤り訂正済みテキストを得る。本開示のテキスト誤り訂正装置は、検出された誤字のピンイン特徴を誤字の後ろに接続して誤り訂正を行うことにより、誤り訂正速度が速く、発音情報を考慮したため、誤り訂正結果の精度が高く、可変長誤り訂正を処理することができ、誤り訂正結果の精度をさらに向上させる。
図9は、本開示の第2の実施例に係るテキスト誤り訂正装置のブロック図である。
図9に示すように、本開示の実施例のテキスト誤り訂正装置900は、第1の取得モジュール901、第2の取得モジュール902及び第1の誤り訂正モジュール903を含む。
第1の取得モジュール901は前の実施例の第1の取得モジュール801と同じ構造と機能を有し、第2の取得モジュール902は前の実施例の第2の取得モジュール802と同じ構造と機能を有し、第1の誤り訂正モジュール903は前の実施例の第1の誤り訂正モジュール803と同じ構造と機能を有する。
テキスト誤り訂正モデルは、誤り訂正対象のテキストに対して誤字検出を行い、誤り検出タグ付けシーケンスを得て、誤り検出タグ付けシーケンスに基づいて誤り訂正対象のテキストの誤字を決定するステップによって、誤り訂正対象のテキストの誤字を検出する。
テキスト誤り訂正モデルは、ピンインテキストの誤字とピンイン特徴に対して誤り訂正を行って、候補誤り訂正テキストを得て、候補誤り訂正テキストに対して重複排除処理を行って、誤り訂正済みテキストを得るステップによって、ピンインテキストの誤字とピンイン特徴を訂正して、誤り訂正済みテキストを得る。
なお、上記テキスト誤り訂正方法の実施例に対する説明は、本開示の実施例のテキスト誤り訂正装置に適用することもでき、具体的なプロセスはここでは説明を省略する。
以上より、本開示の実施例のテキスト誤り訂正装置は、誤り訂正対象のテキストと対応するピンインシーケンスをテキスト誤り訂正モデルに入力し、テキスト誤り訂正モデルは、誤り訂正対象のテキストに対して誤字検出を行って誤り検出タグ付けシーケンスを得て、誤り検出タグ付けシーケンスに基づいて誤り訂正対象のテキストの誤字を決定し、ピンインシーケンスにおける誤字に対応するピンインを決定し、ピンインに対応するピンイン特徴を誤字の後ろに追加してピンインテキストを得て、ピンインテキストの誤字とピンイン特徴に対して誤り訂正を行って候補誤り訂正テキストを得て、候補誤り訂正テキストに対して重複排除処理を行って誤り訂正後の誤り訂正済みテキストを得る。本開示のテキスト誤り訂正装置は、検出された誤字のピンイン特徴を誤字の後ろに接続して誤り訂正を行うことにより、誤り訂正速度が速く、発音情報を考慮したため、誤り訂正結果の精度が高く、可変長誤り訂正を処理することができ、誤り訂正結果の精度をさらに向上させる。同時に、誤り訂正対象のテキストに対して誤字検出を行ってピンインシーケンスにおける誤字に対応するピンインを決定して誤り訂正及び重複排除処理を行って誤り訂正後の誤り訂正済みテキストを得ることにより、誤り訂正結果の重複を回避し、誤り訂正速度と誤り訂正結果の精度をさらに向上させる。
図10は、本開示の第1の実施例のテキスト誤り訂正モデルの生成装置の概略構成図である。図10に示すように、本開示の実施例のテキスト誤り訂正モデルの生成装置は、具体的に、第3の取得モジュール1001、第2の誤り訂正モジュール1002、第1の生成モジュール1003及びトレーニングモジュール1004を含むことができる。
第3の取得モジュール1001は、サンプルテキスト、サンプルテキストのサンプルピンインシーケンス及びサンプルテキストのターゲットテキストを取得する。
第2の誤り訂正モジュール1002は、サンプルテキストとサンプルピンインシーケンスをトレーニング対象のテキスト誤り訂正モデルに入力して、サンプル誤り訂正済みテキストを得て、トレーニング対象のテキスト誤り訂正モデルは、サンプルテキストのサンプル誤字を検出し、サンプルピンインシーケンスにおけるサンプル誤字に対応するサンプルピンインを決定し、サンプルピンインに対応するサンプルピンイン特徴をサンプル誤字の後ろに追加して、サンプルピンインテキストを得て、サンプルピンインテキストのサンプル誤字及びサンプルピンイン特徴を訂正して、サンプル誤り訂正済みテキストを得るステップによってサンプル誤り訂正済みテキストを得る。
第1の生成モジュール1003は、サンプルテキスト、サンプル誤り訂正済みテキスト及びターゲットテキストに基づいて第1の損失値を生成する。
トレーニングモジュール1004は、第1の損失値に基づいてトレーニング対象のテキスト誤り訂正モデルをトレーニングして、テキスト誤り訂正モデルを得る。
なお、上記テキスト誤り訂正モデルの生成方法の実施例に対する説明は、本開示の実施例のテキスト誤り訂正モデルの生成装置にも適用され、具体的なプロセスについてここでは説明を省略する。
以上より、本開示の実施例のテキスト誤り訂正モデルの生成装置は、サンプルテキストと対応するサンプルピンインシーケンスをトレーニング対象のテキスト誤り訂正モデルに入力し、トレーニング対象のテキスト誤り訂正モデルサンプルテキストのサンプル誤字を検出し、サンプルピンインシーケンスにおけるサンプル誤字に対応するサンプルピンインを決定し、サンプルピンインに対応するサンプルピンイン特徴をサンプル誤字の後ろに追加して、サンプルピンインテキストを得て、サンプルピンインテキストのサンプル誤字及びサンプルピンイン特徴を訂正して、誤り訂正後のサンプル誤り訂正済みテキストを得て、サンプルテキスト、サンプル誤り訂正済みテキスト及びターゲットテキストに基づいて第1の損失値を生成し、第1の損失値に基づいてトレーニング対象のテキスト誤り訂正モデルをトレーニングして、テキスト誤り訂正モデルを得る。本開示のテキスト誤り訂正モデルの生成装置は、サンプルテキストとサンプルピンインシーケンスをトレーニング対象のテキスト誤り訂正モデルに入力して誤り訂正後のサンプル誤り訂正済みテキストを得て、ターゲットテキストとの第1の損失値を生成してトレーニング対象のモデルをトレーニングしてテキスト誤り訂正モデルを得ることにより、誤り訂正速度が速く、発音情報を考慮したため、誤り訂正結果の精度が高く、可変長誤り訂正を処理することができ、誤り訂正結果の精度をさらに向上させ、テキスト誤り訂正モデルのトレーニングをより正確かつ効率的にする。
図11は、本開示の第2の実施例のテキスト誤り訂正モデルの生成装置の概略構成図である。図11に示すように、本開示の実施例のテキスト誤り訂正モデルの生成装置は、具体的に、第3の取得モジュール1101、第2の誤り訂正モジュール1102、第1の生成モジュール1103及びトレーニングモジュール1104を含むことができる。
第3の取得モジュール1101は前の実施例の第3の取得モジュール1001と同じ構造と機能を有し、第2の誤り訂正モジュール1102は前の実施例の第2の誤り訂正モジュール1002と同じ構造と機能を有し、第1の生成モジュール1103は前の実施例の第1の生成モジュール1003と同じ構造と機能を有し、トレーニングモジュール1104は前の実施例のトレーニングモジュール1004と同じ構造と機能を有する。
トレーニング対象のテキスト誤り訂正モデルは、サンプルテキストに対して誤字検出を行って、サンプル誤り検出タグ付けシーケンスを得て、サンプル誤り検出タグ付けシーケンスに基づいてサンプルテキストの誤字を決定するステップによってサンプルテキストのサンプル誤字を検出する。
トレーニング対象のテキスト誤り訂正モデルは、サンプルピンインテキストのサンプル誤字及びサンプルピンイン特徴に対して誤り訂正を行って、サンプル候補誤り訂正テキストを得て、サンプル候補誤り訂正テキストに対して重複排除処理を行って、サンプル誤り訂正済みテキストを得るステップによって、サンプルピンインテキストのサンプル誤字及びサンプルピンイン特徴を訂正して、サンプル誤り訂正済みテキストを得る。
さらに、テキスト誤り訂正モデルの生成装置1100は、具体的に、サンプルテキストのターゲットピンインテキストを取得する第4の取得モジュール1105をさらに含むことができ、第1の生成モジュール1103は、具体的に、サンプルピンインテキストとターゲットピンインテキストに基づいて第2の損失値を生成する第1の生成ユニットと、ターゲットピンインテキスト、サンプル誤り訂正済みテキスト及びターゲットテキストに基づいて第3の損失値を生成する第2の生成ユニットと、第2の損失値と第3の損失値に基づいて第1の損失値を生成する第3の生成ユニットと、を含むことができる。
なお、上記テキスト誤り訂正モデルの生成方法の実施例に対する説明は、本開示の実施例のテキスト誤り訂正モデルの生成装置にも適用され、具体的なプロセスはここでは説明を省略する。
以上より、本開示の実施例のテキスト誤り訂正モデルの生成装置は、サンプルテキストと対応するサンプルピンインシーケンスをトレーニング対象のテキスト誤り訂正モデルに入力し、トレーニング対象のテキスト誤り訂正モデルは、サンプルテキストのサンプル誤字を検出してサンプル誤り検出タグ付けシーケンスを得て、サンプル誤り検出タグ付けシーケンスに基づいてサンプルテキストの誤字を決定し、サンプルピンインシーケンスにおけるサンプル誤字に対応するサンプルピンインを決定し、サンプルピンインに対応するサンプルピンイン特徴をサンプル誤字の後ろに追加してサンプルピンインテキストを得て、サンプルピンインテキストのサンプル誤字及びサンプルピンイン特徴に対して誤り訂正を行って、サンプル候補誤り訂正テキストを得て、サンプル候補誤り訂正テキストに対して重複排除処理を行って誤り訂正後のサンプル誤り訂正済みテキストを得て、サンプル誤り訂正済みテキストとターゲットテキストに基づいて第1の損失値を生成し、サンプルテキストのターゲットピンインテキストを取得し、サンプルピンインテキストとターゲットピンインテキストに基づいて第2の損失値を生成し、第1の損失値と第2の損失値に基づいて第3の損失値を生成し、第3の損失値に基づいてトレーニング対象のテキスト誤り訂正モデルをトレーニングし、これによってテキスト誤り訂正モデルを得る。本開示のテキスト誤り訂正モデルの生成装置は、サンプルテキストとサンプルピンインシーケンスをトレーニング対象のテキスト誤り訂正モデルに入力して誤り訂正後のサンプル誤り訂正済みテキストを得て、ターゲットテキストとの第1の損失値を生成してトレーニング対象のモデルをトレーニングしてテキスト誤り訂正モデルを得ることにより、誤り訂正速度が速く、発音情報を考慮したため、誤り訂正結果の精度が高く、可変長誤り訂正を処理することができ、誤り訂正結果の精度をさらに向上させ、テキスト誤り訂正モデルのトレーニングをより正確かつ効率的にすることもできる。同時に、サンプルテキストに対して誤字検出を行うことにより、ピンインシーケンスにおける誤字に対応するピンインを決定し、誤り訂正と重複排除処理を行って誤り訂正後のサンプル誤り訂正済みテキストを得ることにより、誤り訂正結果の重複を回避し、誤り訂正速度と誤り訂正結果の精度をさらに向上させ、テキスト誤り訂正モデルのトレーニングをより正確かつ効率的にする。
なお、本開示の技術案では、関連するユーザ個人情報の収集、記憶、使用、加工、伝送、提供、公開などの処理は、いずれも関連法律法規の規定に合致し、かつ公序良俗に違反しない。
本開示の実施例によれば、本開示は、電子機器、読み取り可能な記憶媒体、及びコンピュータプログラムをさらに提供する。
図12は、本開示の実施例を実行するための例示的な電子機器1200の概略ブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、および他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタル処理、携帯電話、スマートフォン、ウェアラブルデバイス、および他の同様のコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すこともできる。本明細書で示される部品、それらの接続と関係、およびそれらの機能は、単なる例であり、本明細書の説明および/または求められる本開示の実現を制限することを意図したものではない。
図12に示すように、電子機器1200は、読み取り専用メモリ(ROM)1202に記憶されているコンピュータプログラムまたは記憶ユニット1208からランダムアクセスメモリ(RAM)1203にロードされたコンピュータプログラムに従って様々な適切な動作および処理を実行できる計算ユニット1201を含む。RAM1203には、電子機器1200の動作に必要な各種のプログラムやデータも記憶されてもよい。計算ユニット1201、ROM 1202、およびRAM 1203は、バス1204を介して互いに接続されておる。パス1204には、入力/出力(I/O)インターフェース1205も接続されている。
電子機器1200の複数のコンポーネントはI/Oインターフェース1205に接続され、キーボード、マウスなどの入力ユニット1206、各タイプのディスプレイ、スピーカなどの出力ユニット1207、磁気ディスク、光ディスクなどの記憶ユニット1208、およびネットワークカード、モデム、無線通信トランシーバなどの通信ユニット1209を含む。通信ユニット1209は、電子機器1200が、インターネットなどのコンピュータネットワークおよび/または各種の電信ネットワークを介して他のデバイスと情報/データを交換することを可能にする。
計算ユニット1201は、処理および計算能力を有する様々な汎用および/または専用の処理コンポーネントであってもよい。計算ユニット1201のいくつかの例は、中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、各種の専用の人工知能(AI)計算チップ、各種のマシン運転学習モデルアルゴリズムの計算ユニット、デジタル信号プロセッサ(DSP)、およびいずれかの適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。計算ユニット1201は、前文に記載の各方法および処理、例えば、図1~図4に示すテキスト誤り訂正方法または図5~図7に示すテキスト誤り訂正モデルの生成方法を実行する。例えば、いくつかの実施例では、テキスト誤り訂正方法またはテキスト誤り訂正モデルの生成方法を、記憶ユニット1208などの機械読み取り可能な媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現することができる。いくつかの実施例では、コンピュータプログラムの一部または全部はROM 1202および/または通信ユニット1209を介して電子機器1200にロードおよび/またはインストールされてもよい。コンピュータプログラムがRAM 1203にロードされ、計算ユニット1201によって実行される場合、前文に記載のテキスト誤り訂正方法またはテキスト誤り訂正モデルの生成方法の1つまたは複数のステップが実行されてもよい。代替的に、他の実施例では、計算ユニット1201はテキスト誤り訂正方法またはテキスト誤り訂正モデルの生成方法を実行するように、他のいずれかの適切な方式(例えば、ファームウェアを介して)によって構成されてもよい。
本明細書で上記記載されたシステムと技術の様々な実施方式は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、コンプレックス・プログラマブル・ロジック・デバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラム可能なシステムで実行および/または解釈されることができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも1つの入力装置、および少なくとも1つの出力装置からデータおよび命令を受信し、データおよび命令を当該ストレージシステム、当該少なくとも1つの入力装置、および当該少なくとも1つの出力装置に伝送することができる。
本開示の方法を実行するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせで書くことができる。これらのプログラムコードは、プロセッサ又はコントローラによって実行された際に、フローチャートおよび/またはブロック図に規定された機能/操作が実施されるように、汎用コンピュータ、専用コンピュータ、又は他のプログラマブルテキスト誤り訂正装置のプロセッサ又はコントローラに提供されてもよい。プログラムコードは、完全に機械上で実行されるか、部分的に機械上で実行されるか、スタンドアロンソフトウェアパッケージとして、部分的に機械上で実行され、部分的にリモート機械上で実行され又は完全にリモート機械又はサーバ上で実行されてもよい。
本開示のコンテクストでは、機械読み取り可能な媒体は、命令実行システム、装置、またはデバイスによって使用されるために、又は命令実行システム、装置、またはデバイスと組み合わせて使用するためのプログラムを含むか、又は記憶することができる有形の媒体であってもよい。機械読み取り可能な媒体は、機械読み取り可能な信号媒体または機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子的、磁気的、光学的、電磁気的、赤外線的、又は半導体システム、装置又はデバイス、または上記コンテンツの任意の適切な組み合わせを含むことができるが、これらに限定されない。機械読み取り可能な記憶媒体のより具体的な例は、1つ又は複数のラインに基づく電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶装置、磁気記憶装置、または上記コンテンツのいずれかの適切な組み合わせを含む。
ユーザとのインタラクションを提供するために、ここで説明されるシステムおよび技術をコンピュータ上で実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボードおよびポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボードおよび当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置も、ユーザとのインタラクションを提供することができ、例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、ビジョンフィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力、または、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステムおよび技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインターフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインターフェース又は当該ウェブブラウザによってここで説明されるシステムおよび技術の実施形態とインタラクションできる)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントのいずれかの組み合わせを含むコンピューティングシステムで実行することができる。任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットと、ブロックチェーンネットワークを含む。
コンピュータシステムは、クライアントとサーバを含むことができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。サーバはクラウドサーバであってもよく、クラウドコンピューティングサーバまたはクラウドホストとも呼ばれ、クラウドコンピューティングサービスシステムにおける1つのホスト製品であり、従来の物理ホストとVPSサービス(「Virtual Private Server」,または「VPS」と省略する)に存在する管理の難しさ、ビジネス拡張性の弱いという欠陥を解決した。サーバは分散システムのサーバであってもよく、ブロックチェーンを組み込んだサーバであってもよい。
本開示の実施例によれば、本開示はコンピュータプログラムをさらに提供し、コンピュータプログラムはプロセッサによって実行される場合、本開示の上記実施例に示されるテキスト誤り訂正方法のステップまたはテキスト誤り訂正モデルの生成方法のステップを実現する。
なお、上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができると理解されたい。例えば、本開示に記載の各ステップは、並列に実行されてもよいし、順次実行されてもよいし、異なる順序で実行されてもよいが、本開示で開示されている技術案が所望の結果を実現することができれば、本明細書では限定されない。
上記具体的な実施形態は、本開示の保護範囲を制限するものではない。当業者は、設計要件と他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができると理解されたい。任意の本開示の精神と原則内で行われる修正、同等の置換、及び改善などは、いずれも本開示の保護範囲内に含まれなければならない。

Claims (17)

  1. 誤り訂正対象のテキストを取得するステップと、
    前記誤り訂正対象のテキストのピンインシーケンスを取得するステップと、
    前記誤り訂正対象のテキストと前記ピンインシーケンスをテキスト誤り訂正モデルに入力して、誤り訂正後の誤り訂正済みテキストを得るステップであって、前記テキスト誤り訂正モデルが、前記誤り訂正対象のテキストの誤字を検出し、前記ピンインシーケンスにおける前記誤字に対応するピンインを決定し、前記ピンインに対応するピンイン特徴を前記誤字の後ろに追加して、ピンインテキストを得て、前記ピンインテキストの前記誤字及び前記ピンイン特徴を訂正して、前記誤り訂正済みテキストを得るステップによって前記誤り訂正済みテキストを得るステップと、
    を含むテキスト誤り訂正方法。
  2. 前記テキスト誤り訂正モデルが、
    前記誤り訂正対象のテキストに対して誤字検出を行って、誤り検出タグ付けシーケンスを得て、
    前記誤り検出タグ付けシーケンスに基づいて前記誤り訂正対象のテキストにおける前記誤字を決定するステップによって、前記誤り訂正対象のテキストにおける前記誤字を検出する請求項1に記載のテキスト誤り訂正方法。
  3. 前記テキスト誤り訂正モデルが、
    前記ピンインテキストの前記誤字及び前記ピンイン特徴に対して誤り訂正を行って、候補誤り訂正テキストを得て、
    前記候補誤り訂正テキストに対して重複排除処理を行って、前記誤り訂正済みテキストを得るステップによって、前記ピンインテキストの前記誤字及び前記ピンイン特徴を訂正して、前記誤り訂正済みテキストを得る請求項1に記載のテキスト誤り訂正方法。
  4. サンプルテキスト、前記サンプルテキストのサンプルピンインシーケンス及び前記サンプルテキストのターゲットテキストを取得するステップと、
    前記サンプルテキストと前記サンプルピンインシーケンスをトレーニング対象のテキスト誤り訂正モデルに入力して、サンプル誤り訂正済みテキストを得るステップであって、前記トレーニング対象のテキスト誤り訂正モデルは、前記サンプルテキストのサンプル誤字を検出し、前記サンプルピンインシーケンスにおける前記サンプル誤字に対応するサンプルピンインを決定し、前記サンプルピンインに対応するサンプルピンイン特徴を前記サンプル誤字の後ろに追加して、サンプルピンインテキストを得て、前記サンプルピンインテキストの前記サンプル誤字と前記サンプルピンイン特徴を訂正して、前記サンプル誤り訂正済みテキストを得るステップによって前記サンプル誤り訂正済みテキストを得るステップと、
    前記サンプルテキスト、前記サンプル誤り訂正済みテキスト及び前記ターゲットテキストに基づいて第1の損失値を生成するステップと、
    前記第1の損失値に基づいて前記トレーニング対象のテキスト誤り訂正モデルをトレーニングして、テキスト誤り訂正モデルを得るステップと、
    を含む、テキスト誤り訂正モデルの生成方法。
  5. 前記トレーニング対象のテキスト誤り訂正モデルが、
    前記サンプルテキストに対して誤字検出を行って、サンプル誤り検出タグ付けシーケンスを得て
    前記サンプル誤り検出タグ付けシーケンスに基づいて前記サンプルテキストにおける前記誤字を決定するステップによって、前記サンプルテキストの前記サンプル誤字を検出する請求項4に記載の生成方法。
  6. 前記トレーニング対象のテキスト誤り訂正モデルが、
    前記サンプルピンインテキストの前記サンプル誤字と前記サンプルピンイン特徴に対して誤り訂正を行って、サンプル候補誤り訂正テキストを得て、
    前記サンプル候補誤り訂正テキストに対して重複排除処理を行って、前記サンプル誤り訂正済みテキストを得るステップによって、前記サンプルピンインテキストの前記サンプル誤字と前記サンプルピンイン特徴を訂正して、前記サンプル誤り訂正済みテキストを得る請求項4に記載の生成方法。
  7. 前記サンプルテキストのターゲットピンインテキストを取得するステップを含み、
    前記サンプルテキスト、前記サンプル誤り訂正済みテキスト及び前記ターゲットテキストに基づいて第1の損失値を生成するステップが、
    前記サンプルテキスト、前記サンプルピンインテキスト及び前記ターゲットピンインテキストに基づいて第2の損失値を生成するステップと、
    前記ターゲットピンインテキスト、前記サンプル誤り訂正済みテキスト及び前記ターゲットテキストに基づいて第3の損失値を生成するステップと、
    前記第2の損失値と前記第3の損失値に基づいて前記第1の損失値を生成するステップと、
    を含む請求項4に記載の生成方法。
  8. 誤り訂正対象のテキストを取得する第1の取得モジュールと、
    前記誤り訂正対象のテキストのピンインシーケンスを取得する第2の取得モジュールと、
    前記誤り訂正対象のテキストと前記ピンインシーケンスをテキスト誤り訂正モデルに入力して、誤り訂正後の誤り訂正済みテキストを得る第1の誤り訂正モジュールであって、前記テキスト誤り訂正モデルは、前記誤り訂正対象のテキストの誤字を検出し、前記ピンインシーケンスにおける前記誤字に対応するピンインを決定し、前記ピンインに対応するピンイン特徴を前記誤字の後ろに追加して、ピンインテキストを得て、前記ピンインテキストの前記誤字及び前記ピンイン特徴を訂正して、前記誤り訂正済みテキストを得るステップによって、前記誤り訂正済みテキストを得る第1の誤り訂正モジュールと、
    を備えるテキスト誤り訂正装置。
  9. 前記テキスト誤り訂正モデルが、
    前記誤り訂正対象のテキストに対して誤字検出を行って、誤り検出タグ付けシーケンスを得て、
    前記誤り検出タグ付けシーケンスに基づいて前記誤り訂正対象のテキストにおける前記誤字を決定するステップによって、前記誤り訂正対象のテキストにおける前記誤字を検出する請求項8に記載のテキスト誤り訂正装置。
  10. 前記テキスト誤り訂正モデルが、
    前記ピンインテキストの前記誤字及び前記ピンイン特徴に対して誤り訂正を行って、候補誤り訂正テキストを得て、
    前記候補誤り訂正テキストに対して重複排除処理を行って、前記誤り訂正済みテキストを得るステップによって、前記ピンインテキストの前記誤字及び前記ピンイン特徴を訂正して、前記誤り訂正済みテキストを得る請求項8に記載のテキスト誤り訂正装置。
  11. サンプルテキスト、前記サンプルテキストのサンプルピンインシーケンス及び前記サンプルテキストのターゲットテキストを取得する第3の取得モジュールと、
    前記サンプルテキストと前記サンプルピンインシーケンスをトレーニング対象のテキスト誤り訂正モデルに入力して、サンプル誤り訂正済みテキストを得る第2の誤り訂正モジュールであって、前記トレーニング対象のテキスト誤り訂正モデルは、前記サンプルテキストのサンプル誤字を検出し、前記サンプルピンインシーケンスにおける前記サンプル誤字に対応するサンプルピンインを決定し、前記サンプルピンインに対応するサンプルピンイン特徴を前記サンプル誤字の後ろに追加して、サンプルピンインテキストを得て、前記サンプルピンインテキストの前記サンプル誤字と前記サンプルピンイン特徴を訂正して、前記サンプル誤り訂正済みテキストをステップによって前記サンプル誤り訂正済みテキストを得る第2の誤り訂正モジュールと、
    前記サンプルテキスト、前記サンプル誤り訂正済みテキスト及び前記ターゲットテキストに基づいて第1の損失値を生成する第1の生成モジュールと、
    前記第1の損失値に基づいて前記トレーニング対象のテキスト誤り訂正モデルをトレーニングして、テキスト誤り訂正モデルを得るトレーニングモジュールと、
    を備える、テキスト誤り訂正モデルの生成装置。
  12. 前記トレーニング対象のテキスト誤り訂正モデルが、
    前記サンプルテキストに対して誤字検出を行って、サンプル誤り検出タグ付けシーケンスを得て、
    前記サンプル誤り検出タグ付けシーケンスに基づいて前記サンプルテキストにおける前記誤字を決定するステップによって前記サンプルテキストの前記サンプル誤字を検出する請求項11に記載の生成装置。
  13. 前記トレーニング対象のテキスト誤り訂正モデルが、
    前記サンプルピンインテキストの前記サンプル誤字と前記サンプルピンイン特徴に対して誤り訂正を行って、サンプル候補誤り訂正テキストを得て、
    前記サンプル候補誤り訂正テキストに対して重複排除処理を行って、前記サンプル誤り訂正済みテキストを得るステップによって、前記サンプルピンインテキストの前記サンプル誤字と前記サンプルピンイン特徴を訂正して、前記サンプル誤り訂正済みテキストを得る請求項11に記載の生成装置。
  14. 前記サンプルテキストのターゲットピンインテキストを取得する第4の取得モジュールを備え、
    第1の生成モジュールが、
    前記サンプルピンインテキストと前記ターゲットピンインテキストに基づいて第2の損失値を生成する第1の生成ユニットと、
    前記ターゲットピンインテキスト、前記サンプル誤り訂正済みテキスト及び前記ターゲットテキストに基づいて第3の損失値を生成する第2の生成ユニットと、
    前記第2の損失値と第3の損失値に基づいて前記第1の損失値を生成する第3の生成ユニットと、
    を備える請求項11に記載の生成装置。
  15. 少なくとも1つのプロセッサと、
    該少なくとも1つのプロセッサと通信可能に接続されるメモリと、
    を備え、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令が、前記少なくとも1つのプロセッサが請求項1から3のいずれか一項に記載の方法、または、請求項4から7のいずれか一項に記載の方法を実行できるように、前記少なくとも1つのプロセッサによって実行される電子機器。
  16. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令が、前記コンピュータに請求項1から3のいずれか一項に記載の方法、または請求項4から7のいずれか一項に記載の方法を実行させる非一時的なコンピュータ読み取り可能な記憶媒体。
  17. プロセッサによって実行される場合、請求項1から3のいずれか一項に記載の方法のステップ、または、請求項4から7のいずれか一項に記載の方法のステップを実現するコンピュータプログラム。
JP2022169806A 2021-11-15 2022-10-24 テキスト誤り訂正とテキスト誤り訂正モデルの生成方法、装置、機器及び媒体 Pending JP2023002730A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202111350558.9 2021-11-15
CN202111350558.9A CN114239559B (zh) 2021-11-15 2021-11-15 文本纠错和文本纠错模型的生成方法、装置、设备和介质

Publications (1)

Publication Number Publication Date
JP2023002730A true JP2023002730A (ja) 2023-01-10

Family

ID=80749456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022169806A Pending JP2023002730A (ja) 2021-11-15 2022-10-24 テキスト誤り訂正とテキスト誤り訂正モデルの生成方法、装置、機器及び媒体

Country Status (4)

Country Link
US (1) US20230090625A1 (ja)
EP (1) EP4109443A3 (ja)
JP (1) JP2023002730A (ja)
CN (1) CN114239559B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116227468B (zh) * 2023-01-06 2023-10-31 杭州健海科技有限公司 基于拼音转写翻译的语音识别模型纠错训练方法及装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104317780A (zh) * 2014-09-28 2015-01-28 无锡卓信信息科技有限公司 一种中文输入文本的快速纠错方法
GB2533370A (en) * 2014-12-18 2016-06-22 Ibm Orthographic error correction using phonetic transcription
CN106297797B (zh) * 2016-07-26 2019-05-31 百度在线网络技术(北京)有限公司 语音识别结果纠错方法和装置
CN110032722A (zh) * 2018-01-12 2019-07-19 北京京东尚科信息技术有限公司 文本纠错方法和装置
CN110765772A (zh) * 2019-10-12 2020-02-07 北京工商大学 拼音作为特征的中文语音识别后的文本神经网络纠错模型
CN111192586B (zh) * 2020-01-08 2023-07-04 北京小米松果电子有限公司 语音识别方法及装置、电子设备、存储介质
CN111444705A (zh) * 2020-03-10 2020-07-24 中国平安人寿保险股份有限公司 纠错方法、装置、设备及可读存储介质
CN112001169B (zh) * 2020-07-17 2022-03-25 北京百度网讯科技有限公司 文本纠错的方法、装置、电子设备和可读存储介质
CN112287670A (zh) * 2020-11-18 2021-01-29 北京明略软件系统有限公司 文本纠错方法、系统、计算机设备及可读存储介质
CN112232062A (zh) * 2020-12-11 2021-01-15 北京百度网讯科技有限公司 文本纠错方法、装置、电子设备和存储介质
CN113051894A (zh) * 2021-03-16 2021-06-29 京东数字科技控股股份有限公司 一种文本纠错的方法和装置
CN113553833B (zh) * 2021-06-30 2024-01-19 北京百度网讯科技有限公司 文本纠错的方法、装置及电子设备
CN113642316B (zh) * 2021-07-28 2023-11-28 平安国际智慧城市科技股份有限公司 中文文本纠错方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
US20230090625A1 (en) 2023-03-23
CN114239559A (zh) 2022-03-25
CN114239559B (zh) 2023-07-11
EP4109443A3 (en) 2023-04-12
EP4109443A2 (en) 2022-12-28

Similar Documents

Publication Publication Date Title
JP7366984B2 (ja) テキスト誤り訂正処理方法、装置、電子機器及び記憶媒体
Choe et al. A neural grammatical error correction system built on better pre-training and sequential transfer learning
CN106663092B (zh) 具有罕见词处理的神经机器翻译系统
WO2022095563A1 (zh) 文本纠错的适配方法、装置、电子设备及存储介质
JP2022003539A (ja) テキスト誤り訂正方法、装置、電子機器及び記憶媒体
EP3520035A1 (en) Implicit bridging of machine learning tasks
JP7413630B2 (ja) 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体
JP7335300B2 (ja) 知識事前訓練モデルの訓練方法、装置及び電子機器
WO2022116445A1 (zh) 文本纠错模型建立方法、装置、介质及电子设备
CN113743101B (zh) 文本纠错方法、装置、电子设备和计算机存储介质
US20210326538A1 (en) Method, apparatus, electronic device for text translation and storage medium
KR20210158815A (ko) 트리플 샘플 생성 방법, 장치, 전자 기기 및 기록 매체
CN109359308B (zh) 机器翻译方法、装置及可读存储介质
CN113051894A (zh) 一种文本纠错的方法和装置
CN110728156B (zh) 翻译方法、装置、电子设备及可读存储介质
CN113918031A (zh) 使用子字符信息进行中文标点恢复的系统和方法
JP2023002730A (ja) テキスト誤り訂正とテキスト誤り訂正モデルの生成方法、装置、機器及び媒体
US9020803B2 (en) Confidence-rated transcription and translation
US20230153550A1 (en) Machine Translation Method and Apparatus, Device and Storage Medium
JP7349523B2 (ja) 音声認識方法、音声認識装置、電子機器、記憶媒体コンピュータプログラム製品及びコンピュータプログラム
CN116484809A (zh) 基于人工智能的文本处理方法及装置
CN112687271B (zh) 语音翻译方法、装置、电子设备和存储介质
CN115357710A (zh) 表格描述文本生成模型的训练方法、装置及电子设备
CN114065777A (zh) 双语语料检测方法、设备以及计算机可读介质
CN113822053A (zh) 一种语法错误检测方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240319