JP2021114284A - 句読点予測方法および装置 - Google Patents

句読点予測方法および装置 Download PDF

Info

Publication number
JP2021114284A
JP2021114284A JP2020215550A JP2020215550A JP2021114284A JP 2021114284 A JP2021114284 A JP 2021114284A JP 2020215550 A JP2020215550 A JP 2020215550A JP 2020215550 A JP2020215550 A JP 2020215550A JP 2021114284 A JP2021114284 A JP 2021114284A
Authority
JP
Japan
Prior art keywords
text
character
punctuation
prediction result
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020215550A
Other languages
English (en)
Other versions
JP7133002B2 (ja
Inventor
リャン,ミンシン
Mingxin Liang
フ,シャオイン
Xiaoyin Fu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2021114284A publication Critical patent/JP2021114284A/ja
Application granted granted Critical
Publication of JP7133002B2 publication Critical patent/JP7133002B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

【課題】句読点予測の効率を向上させる句読点予測方法および装置を提供する。【解決手段】句読点予測の効率を向上させる句読点予測方法は、予測対象のテキストを取得するステップ101と、テキストを予め設定されたシーケンスラベリングモデルに入力して、テキスト内の各文字に対応する第1の得点を含む第1の句読点予測結果を取得するステップ102と、テキストおよび予測結果と併せて、予測結果に対応する入力対象のテキストを生成し、入力対象のテキストを予め設定された言語モデルに入力して、予測結果に対応する第2の得点を得るステップ103と、文字の各種の予測結果に対応する第1の得点および第2の得点と併せて、文字の句読点存在状況を決定するステップ104と、テキスト内の各文字の句読点存在状況と併せて、テキストに対して句読点処理を行い、テキストに対応する句読点テキストを得るステップ105と。を含む。【選択図】図1

Description

本出願はデータ処理技術分野に関し、具体的にテキストラベリング技術分野に関し、特に句読点予測方法および装置に関する。
現在のテキスト句読点予測方法は主に、シーケンスラベリングモデルまたは言語モデルを用いて、テキスト内の各文字の後に句読点が存在するか否かおよび句読点が存在するタイプであるか否かを決定するものである。ここで、シーケンスラベリングモデルは、新語や人気ワードに対する適応性が悪く、言語モデルの一般化能力が悪く、テキストにわずかな相違があっても異なる結果を得ることになる可能性があり、句読点予測の効率が悪い。
本出願は句読点予測方法および装置を提供し、シーケンスラベリングモデルおよび言語モデルを組み合わせることによってテキスト内の各文字の後に句読点が存在するか否かおよび句読点が存在するタイプであるか否かを決定し、シーケンスラベリングモデルおよび言語モデルの利点を統合して、句読点予測の効率を向上させる。
本出願の一態様の実施例は、予測対象のテキストを取得するステップと、前記テキストを予め設定されたシーケンスラベリングモデルに入力して、前記テキスト内の各文字に対応する第1の句読点予測結果を取得するステップであって、前記第1の句読点予測結果が、少なくとも1種の予測結果および各種の予測結果に対応する第1の得点と、前記予測結果表示文字の後に句読点が存在するか否か、および存在する句読点のタイプとを含むステップと、前記テキスト内の各文字に対して、前記文字の各種の予測結果に対して、前記テキストおよび前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成し、前記入力対象のテキストを予め設定された言語モデルに入力して、前記予測結果に対応する第2の得点を得るステップと、前記文字の各種の予測結果に対応する第1の得点および第2の得点と併せて、前記文字の句読点存在状況を決定するステップと、前記テキスト内の各文字の句読点存在状況と併せて、前記テキストに対して句読点処理を行い、前記テキストに対応する句読点テキストを得るステップと、を含む句読点予測方法を提供する。
本出願の一実施例では、前記テキストを予め設定されたシーケンスラベリングモデルに入力して、前記テキスト内の各文字に対応する第1の句読点予測結果を取得する前記ステップは、前記テキストを予め設定されたシーケンスラベリングモデルに入力して、前記テキスト内の各文字に対応する少なくとも1種の予測結果および予測確率を取得するステップと、各文字の各種の予測結果に対して、前記予測結果に対応する予測確率に対して逆数および対数演算を行って、前記予測結果に対応する第1の得点を得るステップと、を含む。
本出願の一実施例では、前記テキスト内の各文字に対して、前記文字の各種の予測結果に対して、前記テキストおよび前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成する前記ステップは、前記テキスト内の各文字に対して、前記文字が前記テキストの頭文字であるか否かを判断するステップと、前記文字が前記テキストの頭文字である場合、頭文字の各種の予測結果に対して、前記テキストおよび前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成するステップと、前記文字が前記テキストの頭文字ではない場合、前記頭文字でない文字の各予測結果に対して、前記テキスト内の前記頭文字でない文字の前の各文字の句読点存在状況、前記テキスト、および前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成するステップと、を含む。
本出願の一実施例では、前記頭文字でない文字の各種の予測結果に対応する入力対象のテキストは、前記テキスト内の前記頭文字でない文字の前の文字を含み、前記頭文字でない文字の前の文字の後に、対応する句読点存在状況によって表される内容、前記頭文字でない文字、および前記予測結果によって表される内容が挿入され、前記予測結果表示文字の後に句読点が存在しない場合、前記内容は空であり、前記予測結果表示文字の後に句読点が存在する場合、前記内容は存在する句読点のタイプである。
本出願の一実施例では、前記頭文字でない文字の各種の予測結果に対応する入力対象のテキストは、前記テキスト内の前記頭文字でない文字の前の文字を含み、各前記頭文字でない文字の前の文字の後に、対応する句読点存在状況によって表される内容、前記頭文字でない文字、前記予測結果によって表される内容、および前記テキストないの前記頭文字でない文字の後の予め設定された数の文字が挿入される。
本出願の一実施例では、前記文字の各種の予測結果に対応する第1の得点および第2の得点と併せて、前記文字の句読点存在状況を決定する前記ステップは、前記文字の各種の予測結果に対して、前記予測結果に対応する第1の得点および第2の得点を取得するステップと、前記第1の得点および前記第2の得点に対して重み付き加算を行って、前記予測結果に対応する総得点を得るステップと、対応する総得点の最小の予測結果に基づいて、前記文字の句読点存在状況を決定するステップと、を含む。
本出願の一実施例では、前記テキスト内の各文字の句読点存在状況と併せて、前記テキストに対して句読点処理を行い、前記テキストに対応する句読点テキストを得る前記ステップは、前記テキスト内の各文字に対して、前記文字の句読点存在状況に基づいて、前記文字の後に句読点が存在するか否かを決定するステップと、前記文字の後に句読点が存在する場合、存在する句読点のタイプに基づいて、前記テキスト内の前記文字の後に句読点を追加するステップと、前記テキスト内の各文字が処理された後、前記テキストに対応する句読点テキストを得るステップと、を含む。
本出願の実施例の句読点予測方法は、予測対象のテキストを取得し、テキストを予め設定されたシーケンスラベリングモデルに入力して、テキスト内の各文字に対応する第1の句読点予測結果を取得し、第1の句読点予測結果が、少なくとも1種の予測結果および各種の予測結果に対応する第1の得点と、予測結果表示文字の後に句読点が存在するか否か、および存在する句読点のタイプとを含み、テキスト内の各文字に対して、文字の各種の予測結果に対して、テキストおよび予測結果と併せて、予測結果に対応する入力対象のテキストを生成し、入力対象のテキストを予め設定された言語モデルに入力して、予測結果に対応する第2の得点を得て、文字の各種の予測結果に対応する第1の得点および第2の得点と併せて、文字の句読点存在状況を決定し、テキスト内の各文字の句読点存在状況と併せて、テキストに対して句読点処理を行い、テキストに対応する句読点テキストを得る。以上により、シーケンスラベリングモデルおよび言語モデルを組み合わせてテキスト内の各文字の後に句読点が存在するか否かおよび句読点が存在するタイプであるか否かを決定し、シーケンスラベリングモデルおよび言語モデルの利点を統合し、句読点予測の効率を向上させる。
本出願の他の態様の実施例は、予測対象のテキストを取得するための取得モジュールと、前記テキストを予め設定されたシーケンスラベリングモデルに入力して、前記テキスト内の各文字に対応する第1の句読点予測結果を取得するための入力モジュールであって、前記第1の句読点予測結果が、少なくとも1種の予測結果および各種の予測結果に対応する第1の得点と、前記予測結果表示文字の後に句読点が存在するか否か、および存在する句読点のタイプとを含む入力モジュールと、前記テキスト内の各文字に対して、前記文字の各種の予測結果に対して、前記テキストおよび前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成し、前記入力対象のテキストを予め設定された言語モデルに入力して、前記予測結果に対応する第2の得点を得るための第1の決定モジュールと、前記文字の各種の予測結果に対応する第1の得点および第2の得点と併せて、前記文字の句読点存在状況を決定するための第2の決定モジュールと、前記テキスト内の各文字の句読点存在状況と併せて、前記テキストに対して句読点処理を行い、前記テキストに対応する句読点テキストを得るための句読点処理モジュールと、を含む句読点予測装置を提供する。
本出願の一実施例では、前記入力モジュールは具体的に、前記テキストを予め設定されたシーケンスラベリングモデルに入力して、前記テキスト内の各文字に対応する少なくとも1種の予測結果および予測確率を取得し、各文字の各種の予測結果に対して、前記予測結果に対応する予測確率に対して逆数および対数演算を行って、前記予測結果に対応する第1の得点を得ることに用いられる。
本出願の一実施例では、前記第1の決定モジュールは具体的に、前記テキスト内の各文字に対して、前記文字が前記テキストの頭文字であるか否かを判断し、前記文字が前記テキストの頭文字である場合、頭文字の各種の予測結果に対して、前記テキストおよび前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成し、前記文字が前記テキストの頭文字ではない場合、前記頭文字でない文字の各予測結果に対して、前記テキスト内の前記頭文字でない文字の前の各文字の句読点存在状況、前記テキスト、および前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成することに用いられる。
本出願の一実施例では、前記頭文字でない文字の各種の予測結果に対応する入力対象のテキストは、前記テキスト内の前記頭文字でない文字の前の文字を含み、前記頭文字でない文字の前の文字の後に、対応する句読点存在状況によって表される内容、前記頭文字でない文字、および前記予測結果によって表される内容が挿入され、前記予測結果表示文字の後に句読点が存在しない場合、前記内容は空であり、前記予測結果表示文字の後に句読点が存在する場合、前記内容は存在する句読点のタイプである。
本出願の一実施例では、前記頭文字でない文字の各種の予測結果に対応する入力対象のテキストは、前記テキスト内の前記頭文字でない文字の前の文字を含み、各前記頭文字でない文字の前の文字の後に、対応する句読点存在状況によって表される内容、前記頭文字でない文字、前記予測結果によって表される内容、および前記テキストないの前記頭文字でない文字の後の予め設定された数の文字が挿入される。
本出願の一実施例では、前記第2の決定モジュールは具体的に、前記文字の各種の予測結果に対して、前記予測結果に対応する第1の得点および第2の得点を取得し、前記第1の得点および前記第2の得点に対して重み付き加算を行って、前記予測結果に対応する総得点を得て、対応する総得点の最小の予測結果に基づいて、前記文字の句読点存在状況を決定することに用いられる。
本出願の一実施例では、前記句読点処理モジュールは具体的に、前記テキスト内の各文字に対して、前記文字の句読点存在状況に基づいて、前記文字の後に句読点が存在するか否かを決定し、前記文字の後に句読点が存在する場合、存在する句読点のタイプに基づいて、前記テキスト内の前記文字の後に句読点を追加し、前記テキスト内の各文字が処理された後、前記テキストに対応する句読点テキストを得ることに用いられる。
本出願の実施例の句読点予測装置は、予測対象のテキストを取得し、テキストを予め設定されたシーケンスラベリングモデルに入力して、テキスト内の各文字に対応する第1の句読点予測結果を取得し、第1の句読点予測結果が、少なくとも1種の予測結果および各種の予測結果に対応する第1の得点と、予測結果表示文字の後に句読点が存在するか否か、および存在する句読点のタイプとを含み、テキスト内の各文字に対して、文字の各種の予測結果に対して、テキストおよび予測結果と併せて、予測結果に対応する入力対象のテキストを生成し、入力対象のテキストを予め設定された言語モデルに入力して、予測結果に対応する第2の得点を得て、文字の各種の予測結果に対応する第1の得点および第2の得点と併せて、文字の句読点存在状況を決定し、テキスト内の各文字の句読点存在状況と併せて、テキストに対して句読点処理を行い、テキストに対応する句読点テキストを得る。以上により、シーケンスラベリングモデルおよび言語モデルを組み合わせてテキスト内の各文字の後に句読点が存在するか否かおよび句読点が存在するタイプであるか否かを決定し、シーケンスラベリングモデルおよび言語モデルの利点を統合し、句読点予測の効率を向上させる。
本出願の他の態様の実施例は電子機器を提供し、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサと通信可能に接続されるメモリとを含み、前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが本出願の実施例の句読点予測方法を実行するように、前記少なくとも1つのプロセッサによって実行される。
本出願の他の態様の実施例は、コンピュータ命令が記憶される非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令は、前記コンピュータに本出願の実施例の句読点予測方法を実行させることに用いられる。
本出願の他の態様では、コンピュータプログラムを提供し、前記コンピュータプログラムにおける命令が実行された場合に、本出願の実施例の句読点予測方法が実行される。
上記選択可能な形態が有する他の効果は具体的な実施例と併せて以下に説明する。
図面は本解決案をよりよく理解するためのものであり、本出願を限定するものではない。
本出願の第1の実施例に係る概略図である。 句読点予測方法の概略図である。 本出願の第2の実施例に係る概略図である。 文字の句読点存在状況を決定する概略図である。 本出願の第3の実施例に係る概略図である。 本出願の実施例の句読点予測方法を実現するための電子機器のブロックである。
以下、図面と併せて本出願の例示的な実施例を説明する。理解を促すために、その中には本出願の実施の様々な詳細が含まれており、それらを単なる例示的なものと見なすべきである。そのため、当業者であれば、本出願の精神および趣旨から逸脱しない限り、ここで説明された実施例に対して様々な変更と修正を行うことができることを認識されたい。同様に、明確さおよび簡潔さのために、以下の説明では公知の機能および構造に対する説明は省略されている。
以下、図面を参照して本出願の実施例の句読点予測方法および装置を説明する。
図1は、本出願の第1の実施例に係る概略図である。ここで、本実施例が提供する句読点予測方法の実行主体は句読点予測装置であり、当該装置はソフトウェアおよび/またはハードウェアの形態で実現でき、当該装置は端末装置またはサーバに配置することができ、当該実施例はこれについて具体的に限定しない。
図1に示すように、当該句読点予測方法は以下のステップ101〜105を含んでも良い。
ステップ101、予測対象のテキストを取得する。
本出願では、予測対象のテキストは句読点なしのテキストであってもよい。句読点なしのテキストは、例えば、音声認識システムが音声を認識した後に得られたテキスト、または音声ダビングのプロセスにおける句読点なしのテキストである。
ステップ102、テキストを予め設定されたシーケンスラベリングモデルに入力して、テキスト内の各文字に対応する第1の句読点予測結果を取得し、第1の句読点予測結果は、少なくとも1種の予測結果および各種の予測結果に対応する第1の得点と、予測結果表示文字の後に句読点が存在するか否か、および存在する句読点のタイプとを含む。
本出願では、句読点予測装置がステップ102を実行するプロセスは具体的に、テキストを予め設定されたシーケンスラベリングモデルに入力して、テキスト内の各文字に対応する少なくとも1種の予測結果および予測確率を取得し、各文字の各種の予測結果に対して、予測結果に対応する予測確率に対して逆数および対数演算を行って、予測結果に対応する第1の得点を得るものであってもよい。
本出願では、シーケンスラベリングモデルは、例えば、回帰型ニューラルネットワーク(Recurrent Neural Network、RNN)、双方向長短期記憶モデル(bidirectional−Long Short−Term Memory、Bi−LSTM)などであってもよい。双方向長短期記憶モデルを例とすると、当該モデルは入力ウィンドウ、ワードベクトル、BLSTM層およびsoftmax推論層という4つの部分で構成される。入力がテキストである場合、softmax推論層の出力はテキスト内の各文字に対応する少なくとも1種の予測結果および予測確率であってもよい。ここで、「今日の私は元気です」というテキスト内の「元気」という文字を例とすると、当該文字に対応する予測結果は3種類があっても良い。1つは「元気」という文字の後に句読点が存在する場合、1つは「元気」という文字の後に読点が存在する場合、もう1つは「元気」という文字の後に句点が存在する場合である。
本出願では、各文字の各種の予測結果に対して、予測結果に対応する予測確率に対して逆数および対数演算を行って、予測結果に対応する第1の得点を得る。ここで、予測結果に対応する予測確率に対して逆数および対数演算を行うことによって、予測確率が高いほど、得点が低く、つまり、得点が低いほど予測確率が高い。
本出願では、予め設定されたシーケンスラベリングモデルは、トレーニングデータを用いて初期のシーケンスラベリングモデルをトレーニングして得られたものである。トレーニングデータは予め設定された数より大きいサンプルを含み、各サンプルは、句読点なしのテキストおよび対応する句読点シーケンスを含む。ここで、予め設定された数は5GBレベルの数であってもよい。
ステップ103、テキスト内の各文字に対して、文字の各種の予測結果に対して、テキストおよび予測結果と併せて、予測結果に対応する入力対象のテキストを生成し、入力対象のテキストを予め設定された言語モデルに入力して、予測結果に対応する第2の得点を得る。
本出願では、言語モデルの入力は一段落のテキストであり、出力は一段落のテキストの困惑度である。ここで、困惑度が小さいほど、当該段落のテキストが出現する確率が高いことは示される。そのため、困惑度が小さいほどよい。本出願では、困惑度を得点とする。
本出願では、言語モデルの入力が一段落のテキストであるため、文字の各種の予測結果に対して、テキストおよび予測結果と併せて、予測結果に対応する入力対象のテキストを生成する必要がある。例えば、「今日の私は元気です」というテキストの文字の「元気」を例とすると、特定の予測結果は「元気」という文字の後に句読点が存在しないものである場合、入力対象のテキストは「私はとても元気」であってもよい。特定の予測結果は「元気」という文字の後に読点が存在するものである場合、入力対象のテキストは「私はとても元気で、」であってもよい。特定の予測結果は「元気」という文字の後に句点が存在するものである場合、入力対象のテキストは「私はとても元気です。」であってもよい。
本出願では、予め設定された言語モデルは、トレーニングデータを用いて初期の言語モデルをトレーニングして得られたものである。トレーニングデータは、予め設定された数のサンプルを含み、各サンプルは、句読点なしのテキストおよび対応する句読点テキストを含む。ここで、予め設定された数は1TBレベルの数であってもよい。
ステップ104、文字の各種の予測結果に対応する第1の得点および第2の得点と併せて、文字の句読点存在状況を決定する。
本出願では、句読点予測装置がステップ104を実行するプロセスは具体的に、文字の各種の予測結果に対して、予測結果に対応する第1の得点および第2の得点を取得し、第1の得点および第2の得点に対して重み付き加算を行って、予測結果に対応する総得点を得て、対応する総得点の最小の予測結果に基づいて、文字の句読点存在状況を決定することを含んでも良い。
本出願では、総得点の計算式は、例えば、
score=θ×A+(1−θ)×Bであってもよい。
scoreは総得点を表し、θは第2の得点の重みを表し、Aは第2の得点を表し、Bは第1の得点を表す。
本出願では、シーケンスラベリングモデルおよび言語モデルの得点を統合する融合アルゴリズムはbeam−search検索アルゴリズムを用いてもよく、当該アルゴリズムはテキスト内の各文字の各種の予測結果に対して、シーケンスラベリングモデルの得点および言語モデルの得点を融合して予測結果を選択することができ、従って後続の計算量を減らす。
ステップ105、テキスト内の各文字の句読点存在状況と併せて、テキストに対して句読点処理を行い、テキストに対応する句読点テキストを得る。
本出願では、句読点予測装置がステップ105を実行するプロセスは具体的に、テキスト内の各文字に対して、文字の句読点存在状況に基づいて、文字の後に句読点が存在するか否かを決定し、文字の後に句読点が存在する場合、存在する句読点のタイプに基づいてテキスト内の文字の後に句読点を追加し、テキスト内の各文字が処理された後、テキストに対応する句読点テキストを得ることであってもよい。
本出願では、句読点予測方法の概略図は図2に示すとおり、図2では、テキストが「こんにちは私は百度科技園にいる」であり、対応する句読点テキストが「こんにちは、私は百度科技術園にいる。」である。テキストに対して句読点予測を行うプロセスにおいて、シーケンスラベリングモデルおよび言語モデルを組み合わせることによって、シーケンスラベリングモデルおよび言語モデルの利点を統合して、句読点予測の効率を向上させることができる。
本出願の実施例の句読点予測方法は、予測対象のテキストを取得し、テキストを予め設定されたシーケンスラベリングモデルに入力して、テキスト内の各文字に対応する第1の句読点予測結果を取得し、第1の句読点予測結果が、少なくとも1種の予測結果および各種の予測結果に対応する第1の得点と、予測結果表示文字の後に句読点が存在するか否か、および存在する句読点のタイプとを含み、テキスト内の各文字に対して、文字の各種の予測結果に対して、テキストおよび予測結果と併せて、予測結果に対応する入力対象のテキストを生成し、入力対象のテキストを予め設定された言語モデルに入力して、予測結果に対応する第2の得点を得て、文字の各種の予測結果に対応する第1の得点および第2の得点と併せて、文字の句読点存在状況を決定し、テキスト内の各文字の句読点存在状況と併せて、テキストに対して句読点処理を行い、テキストに対応する句読点テキストを得る。以上により、シーケンスラベリングモデルおよび言語モデルを組み合わせてテキスト内の各文字の後に句読点が存在するか否かおよび句読点が存在するタイプであるか否かを決定し、シーケンスラベリングモデルおよび言語モデルの利点を統合し、句読点予測の効率を向上させる。
図3は本出願の第2の実施例に係る概略図である。図3に示すように、図1に示す実施例をもとに、ステップ103は具体的に以下のステップ1031〜1033を含むことができる。
ステップ1031、テキスト内の各文字に対して、文字がテキストの頭文字であるか否かを判断する。
本出願では、頭文字はテキスト内の最初の文字を指す。
ステップ1032、文字がテキストの頭文字である場合、頭文字の各種の予測結果に対して、テキストおよび予測結果と併せて、予測結果に対応する入力対象のテキストを生成する。
本出願では、文字がテキストの頭文字である場合、頭文字の各種の予測結果に対応する入力対象のテキストは頭文字、および予測結果によって表される内容を含んでも良い。
さらに、文字の後の文字は文字の予測結果の得点に大きく影響する。そのため、文字の後の文字と併せて文字の各予測結果の得点を決定することができ、さらに、文字の後の文字と併せて予測結果に対応する入力対象のテキストを生成することができる。そのため、本出願では、文字がテキストの頭文字である場合、頭文字の各種の予測結果に対応する入力対象のテキストは、頭文字、予測結果によって表される内容、およびテキスト内の頭文字の後の予め設定された数の文字を含んでも良い。
ステップ1033、文字がテキストの頭文字ではない場合、頭文字でない文字の各予測結果に対して、テキスト内の頭文字でない文字の前の各文字の句読点存在状況、テキスト、および予測結果と併せて、予測結果に対応する入力対象のテキストを生成する。
本出願では、文字がテキストの頭文字でない文字である場合、頭文字でない文字の各種の予測結果に対応する入力対象のテキストは、テキスト内の頭文字でない文字の前の文字、頭文字、および予測結果によって表される内容を含んでも良い。
さらに、文字がテキストの頭文字でない文字である場合、頭文字でない文字の前の特定の文字の句読点存在状況が、句読点が存在するということである場合、頭文字でない文字の前の各文字の句読点存在状況と併せて入力対象のテキストを生成する。入力対象のテキストの精度および句読点予測の効率を向上させることができる。そのため、文字がテキストの頭文字でない文字である場合、頭文字でない各種の予測結果に対応する入力対象のテキストは、テキスト内の頭文字でない文字の前の文字を含み、各頭文字でない文字の前の文字の後に、対応する句読点存在状況によって表される内容、頭文字でない文字、および予測結果によって表される内容が挿入される。
前記予測結果は、文字の後に句読点が存在しないことを表す場合、前記内容は空であり、前記予測結果表示文字の後に句読点が存在する場合、前記内容は存在する句読点のタイプである。
前の文字の句読点存在状況は、前の文字の後に句読点が存在しないことを表す場合、前の文字の句読点存在状況によって表される内容は空であり、前の文字の後に句読点を挿入しない。前の文字の句読点存在状況は、前の文字の後に句読点が存在することを表す場合、前の文字の句読点存在状況によって表される内容は、存在する句読点のタイプであり、前の文字の後に句読点を挿入する。
さらに、文字の後の文字は文字の予測結果の得点に大きく影響する。そのため、文字の後の文字と併せて文字の各予測結果の得点を決定することができ、従って文字の後の文字と併せて予測結果に対応する入力対象のテキストを生成することができる。そのため、本出願では、文字がテキストの頭文字でない文字である場合、非頭文字の各種の予測結果に対応する入力対象のテキストは、テキスト内の頭文字でない文字の前の文字を含み、各頭文字でない文字の前の文字の後に、対応する句読点存在状況によって表される内容、頭文字でない文字、予測結果によって表される内容、およびテキスト内の頭文字でない文字の後の予め設定された数の文字が挿入される。
本出願では、図4は、文字の句読点存在状況を決定する概略図である。図4では、「外」という文字に基づいて、「外」という文字の句読点存在状況が、その後に読点が存在することであると決定すると、後で「私」という文字を処理する際に、「外」という文字および「外」という文字の後の読点と併せて、「私」という文字の各予測結果の得点を決定して選択する。
本出願の実施例の句読点予測方法は、予測対象のテキストを取得し、テキストを予め設定されたシーケンスラベリングモデルに入力して、テキスト内の各文字に対応する第1の句読点予測結果を取得し、テキスト内の各文字に対して、文字が頭文字である場合、文字の各種の予測結果に対して、前記テキストおよび前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成し、文字が頭文字でない文字である場合、前記頭文字でない文字の各予測結果、前記テキスト内の前記頭文字でない文字の前の各文字の句読点存在状況、前記テキストおよび前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成する。以上により、シーケンスラベリングモデルおよび言語モデルを組み合わせてテキスト内の各文字の後に句読点が存在するか否かおよび句読点が存在するタイプであるか否かを決定し、シーケンスラベリングモデルおよび言語モデルの利点を統合して、句読点の予測効率を向上させる。
上記実施例を実現するために、本出願の実施例は句読点予測装置をさらに提供する。
図5は本出願の第3の実施例に係る概略図である。図3に示すように、当該句読点予測装置100は、予測対象のテキストを取得するための取得モジュール110と、前記テキストを予め設定されたシーケンスラベリングモデルに入力して、前記テキスト内の各文字に対応する第1の句読点予測結果を取得するための入力モジュール120であって、前記第1の句読点予測結果が、少なくとも1種の予測結果および各種の予測結果に対応する第1の得点と、前記予測結果表示文字の後に句読点が存在するか否か、および存在する句読点のタイプとを含む入力モジュール120と、前記テキスト内の各文字に対して、前記文字の各種の予測結果に対して、前記テキストおよび前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成し、前記入力対象のテキストを予め設定された言語モデルに入力して、前記予測結果に対応する第2の得点を得るための第1の決定モジュール130と、前記文字の各種の予測結果に対応する第1の得点および第2の得点と併せて、前記文字の句読点存在状況を決定するための第2の決定モジュール140と、前記テキスト内の各文字の句読点存在状況と併せて、前記テキストに対して句読点処理を行い、前記テキストに対応する句読点テキストを得るための句読点処理モジュール150と、を含む。
本出願の一実施例では、前記入力モジュール120は具体的に、前記テキストを予め設定されたシーケンスラベリングモデルに入力して、前記テキスト内の各文字に対応する少なくとも1種の予測結果および予測確率を取得し、各文字の各種の予測結果に対して、前記予測結果に対応する予測確率に対して逆数および対数演算を行って、前記予測結果に対応する第1の得点を得ることに用いられる。
本出願の一実施例では、前記第1の決定モジュール130は具体的に、前記テキスト内の各文字に対して、前記文字が前記テキストの頭文字であるか否かを判断し、前記文字が前記テキストの頭文字である場合、頭文字の各種の予測結果に対して、前記テキストおよび前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成し、前記文字が前記テキストの頭文字ではない場合、前記頭文字でない文字の各予測結果に対して、前記テキスト内の前記頭文字でない文字の前の各文字の句読点存在状況、前記テキスト、および前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成することに用いられる。
本出願の一実施例では、前記頭文字でない文字の各種の予測結果に対応する入力対象のテキストは、前記テキスト内の前記頭文字でない文字の前の文字を含み、前記頭文字でない文字の前の文字の後に、対応する句読点存在状況によって表される内容、前記頭文字でない文字、および前記予測結果によって表される内容が挿入され、前記予測結果表示文字の後に句読点が存在しない場合、前記内容は空であり、前記予測結果表示文字の後に句読点が存在する場合、前記内容は存在する句読点のタイプである。
本出願の一実施例では、前記頭文字でない文字の各種の予測結果に対応する入力対象のテキストは、前記テキスト内の前記頭文字でない文字の前の文字を含み、各前記頭文字でない文字の前の文字の後に、対応する句読点存在状況によって表される内容、前記頭文字でない文字、前記予測結果によって表される内容、および前記テキストないの前記頭文字でない文字の後の予め設定された数の文字が挿入される。
本出願の一実施例では、前記第2の決定モジュール140は具体的に、前記文字の各種の予測結果に対して、前記予測結果に対応する第1の得点および第2の得点を取得し、前記第1の得点および前記第2の得点に対して重み付き加算を行って、前記予測結果に対応する総得点を得て、対応する総得点の最小の予測結果に基づいて、前記文字の句読点存在状況を決定することに用いられる。
本出願の一実施例では、前記句読点処理モジュール150は具体的に、前記テキスト内の各文字に対して、前記文字の句読点存在状況に基づいて、前記文字の後に句読点が存在するか否かを決定し、前記文字の後に句読点が存在する場合、存在する句読点のタイプに基づいて、前記テキスト内の前記文字の後に句読点を追加し、前記テキスト内の各文字が処理された後、前記テキストに対応する句読点テキストを得ることに用いられる。
なお、上記句読点予測方法に対する説明は本実施例の句読点予測装置にも適用するため、ここで説明を省略する。
本出願の実施例の句読点予測装置は、予測対象のテキストを取得し、テキストを予め設定されたシーケンスラベリングモデルに入力して、テキスト内の各文字に対応する第1の句読点予測結果を取得し、第1の句読点予測結果が、少なくとも1種の予測結果および各種の予測結果に対応する第1の得点と、予測結果表示文字の後に句読点が存在するか否か、および存在する句読点のタイプとを含み、テキスト内の各文字に対して、文字の各種の予測結果に対して、テキストおよび予測結果と併せて、予測結果に対応する入力対象のテキストを生成し、入力対象のテキストを予め設定された言語モデルに入力して、予測結果に対応する第2の得点を得て、文字の各種の予測結果に対応する第1の得点および第2の得点と併せて、文字の句読点存在状況を決定し、テキスト内の各文字の句読点存在状況と併せて、テキストに対して句読点処理を行い、テキストに対応する句読点テキストを得る。以上により、シーケンスラベリングモデルおよび言語モデルを組み合わせてテキスト内の各文字の後に句読点が存在するか否かおよび句読点が存在するタイプであるか否かを決定し、シーケンスラベリングモデルおよび言語モデルの利点を統合し、句読点予測の効率を向上させる。
本出願の実施例をもとに、本出願は電子機器および読み取り可能な記憶媒体を提供する。
本出願の実施例によれば、コンピュータプログラムが提供される。当該コンピュータプログラムにおける命令が実行された場合に、上記句読点予測方法が実行される。
図6に示すように、本出願の実施例に係る句読点予測方法の電子機器のブロックである。電子機械はラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、及び他の適切なコンピュータなど、様々な形式のデジタルコンピュータを表すこと意図している。電子機械はさらに、様々な形態のモバイル装置、例えば、携帯情報端末、セルラー電話、スマートフォン、ウェアラブルデバイス及び他の同様なコンピューティングデバイスを表すことができる。本明細書に示されている部品、それらの接続と関係、及びそれらの機能は例示的なものに過ぎず、本明細書で説明された及び/又は求められた本出願の実現を限定することを意図していない
図6に示すように、該電子機械は、1つ又は複数のプロセッサ301、メモリ302、及び各部品を接続するためのインターフェースを含み、インターフェースは高速インターフェースと低速インターフェースを含む。各部品は、異なるバスを用いて互いに接続されており、かつ共用のマザーボードに実装されるか、又は必要に基づいて他の方式で実装されても良い。プロセッサは、電子機器内で実行される命令を処理することができ、前記命令は、外部入力/出力装置(例えば、インターフェースに接続される表示装置)にGUIの図形情報を表示するようにメモリ内又はメモリ上に記憶される命令を含む。他の実施形態において、必要があれば、複数のプロセッサ及び/又は複数のバスを複数のメモリと組み合わせて使用してもよい。同様に、複数の電子機器を接続してもよく、各機械は、必要とされる操作の一部(例えば、サーバアレイ、1組のブレードサーバ、又はマルチプロセッサシステムとして)を提供する。図6では、1つのプロセッサ301は例として挙げられた。
メモリ302は即ち本出願が提供する非一時的なコンピュータ読み取り可能な記憶媒体である。前記メモリには、前記少なくとも1つのプロセッサに本出願が提供する句読点予測方法を実行させるように、少なくとも1つのプロセッサによって実行可能な命令が記憶されている。本出願の非一時的なコンピュータ読み取り可能な記憶媒体には、コンピュータに本出願が提供する句読点予測方法を実行させることに用いられるコンピュータ命令が記憶されている。
メモリ302は非一時的なコンピュータ読み取り可能な記憶媒体として、本出願の実施例に係る句読点予測方法に対応するプログラム命令/モジュール(例えば、図面5に示す取得モジュール110、入力モジュール120、第1の決定モジュール130、第2の決定モジュール140、句読点処理モジュール150)のような非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュールを記憶することに用いることができる。プロセッサ301は、メモリ302に記憶される非一時的なソフトウェアプログラム、命令およびモジュールを実行することによって、サーバの機能適用およびデータ処理を実行し、即ち上記方法実施例の句読点予測方法を実行する。
メモリ302は、プログラムを記憶する領域と、データを記憶する領域とを含んでも良い。プログラムを記憶する領域は、オペレーティングシステムと、少なくとも1つの機能に必要なアプリケーションプログラムを含んでも良い。データを記憶する領域は、句読点予測の電子機器の使用によって生成されたデータなどを記憶することができる。また、メモリ302は、高速ランダムアクセスメモリだけではなく、少なくとも1つのディスクストレージデバイス、フラッシュメモリデバイス又は他の非一時的なソリッドステートストレージデバイスのような非一時的なメモリを含んでも良い。一部の実施例では、メモリ302は、プロセッサ301に対してリモートで設定されるメモリを選択的に含んでもよく、これらのリモートメモリはネットワーク経由で句読点予測の電子機器に接続することができる。上記ネットワークの実例は、インターネット、企業内部のネットワーク、ローカルエリアネットワーク、移動通信ネットワーク及びそれらの組み合わせを含むが、これらに限定されない。
句読点予測方法の電子機器は、入力装置303および出力装置304をさらに含んでも良い。プロセッサ301、メモリ302、入力装置303および出力装置304はバスまたは他の方式で接続することができ、図6では、バスによる接続が例として挙げられている。
入力装置303は、入力されたデジタル又は文字情報を受信する及び句読点予測の電子機器のユーザ設定及び機能制御に関連するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパネル、ポインティングスティック、1つ又は複数のマウスボタン、トラックボール、ジョイスティック等の入力装置がある。出力装置304は、表示装置、補助照明装置(例えば、LED)及び触覚フィードバック装置(例えば、振動モータ)などを含んでも良い。該表示装置は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ及びプラズマディスプレイを含むが、これらに限定されない。一部の実施形態では、表示装置はタッチスクリーンであってもよい。
本明細書で説明されたシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、専用ASIC(専用集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせにおいて実現することができる。これらの様々な実施形態は以下を含んでもよい。1つ又は複数のコンピュータプログラムにおいて実施され、該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムにおいて実行及び/又は解釈することができ、該プログラマブルプロセッサは、専用又は汎用のプログラマブルプロセッサであり、ストレージシステム、少なくとも1つの入力装置及び少なくとも1つの出力装置からデータと命令を受信し、データ及び命令を該ストレージシステム、該少なくとも1つの入力装置及び該少なくとも1つの出力装置に転送することができる。
これらの計算プログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも言う)は、プログラマブルプロセッサの機械命令を含み、かつ高度プロセス及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ言語/機械語を用いてこれらの計算プログラム実行することができる。本明細書で使用される「機械読み取り可能な媒体」と「コンピュータ読み取り可能な媒体」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、装置、及び/又はデバイス(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械読み取り可能な信号としての機械命令を受信する機械読み取り可能な媒体を含む。「機械読み取り可能な信号」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するためのあらゆる信号を指す。
ユーザとのインタラクションを提供するために、ここで説明されたシステムと技術をコンピュータ上で実施することができる。当該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(ブラウン管)又はLCD(液晶ディスプレイ)モニタ)と、キーボードとポインティングデバイス(例えば、マウス又はトラックボール)とを含み、ユーザは該キーボードと該ポインティングデバイスを介して入力をコンピュータに提供することができる。別の種類のデバイスはさらにユーザとのインタラクションを提供することができ、例えば、ユーザに提供されたフィードバックは、任意の形式のセンサフィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であっても良い以上、ユーザからの入力を任意の形式(音の入力、音声入力又は触覚入力を含む)で受信することもできる。
ここで説明されたシステムと技術を、バックグラウンドパーツを含む計算システム(例えば、データサーバとして)、又はミドルウェアパーツを含む計算システム(例えば、アプリケーションサーバ)、又はフロントエンドパーツを含む計算システム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは該グラフィカルユーザインタフェース又は該ウェブブラウザ介して、ここで説明されたシステムと技術の実施形態と対話することができる)、又はこれらのバックグラウンドパーツ、ミドルウェアパーツ又はフロントエンドパーツの任意の組み合わせを含む計算システムにおいて実行することができる。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)を介して、システムのパーツを互いに接続することができる。通信ネットワークの例としては、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及びインターネットが含まれる。
コンピュータシステムは、クライアント側とサーバを含んでも良い。クライアント側とサーバは通常離れており、一般的に通信ネットワークを介してインタラクションを行う。対応するコンピュータにおいて実行されかつ互いにクライアント側−サーバ関係を有するコンピュータプログラムによってクライアント側とサーバとの関係を生成する。
なお、以上に示した様々な形式のプロセスを用いて、ステップを並べ替えたり、追加したり、削除したりすることができることを理解されたい。例えば、本出願書に記載の各ステップは、並列的に実行するか、順次的に実行するか、又は異なる順序で実行してもよい。本出願で開示された技術的解決手段が予期している結果を実現できる限り、本明細書では限定されない。
上記具体的な実施形態は、本出願の保護範囲を制限するものではない。当業者であれば、設計要件とその他の要因に応じて、様々な修正、組み合わせ、一部の組み合わせ及び置き換えを行うことができることを理解されたい。本出願の精神と原則を逸脱しない限り、行われるすべての修正、置き換え及び改善等は、いずれも本出願の保護範囲に含まれるべきである。

Claims (17)

  1. 句読点予測方法であって、
    予測対象のテキストを取得するステップと、
    前記テキストを予め設定されたシーケンスラベリングモデルに入力して、前記テキスト内の各文字に対応する第1の句読点予測結果を取得するステップであって、前記第1の句読点予測結果が、少なくとも1種の予測結果および各種の予測結果に対応する第1の得点と、前記予測結果表示文字の後に句読点が存在するか否か、および存在する句読点のタイプとを含むステップと、
    前記テキスト内の各文字に対して、前記文字の各種の予測結果に対して、前記テキストおよび前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成し、前記入力対象のテキストを予め設定された言語モデルに入力して、前記予測結果に対応する第2の得点を得るステップと、
    前記文字の各種の予測結果に対応する第1の得点および第2の得点と併せて、前記文字の句読点存在状況を決定するステップと、
    前記テキスト内の各文字の句読点存在状況と併せて、前記テキストに対して句読点処理を行い、前記テキストに対応する句読点テキストを得るステップと、を含む、
    ことを特徴とする句読点予測方法。
  2. 前記テキストを予め設定されたシーケンスラベリングモデルに入力して、前記テキスト内の各文字に対応する第1の句読点予測結果を取得する前記ステップは、
    前記テキストを予め設定されたシーケンスラベリングモデルに入力して、前記テキスト内の各文字に対応する少なくとも1種の予測結果および予測確率を取得するステップと、
    各文字の各種の予測結果に対して、前記予測結果に対応する予測確率に対して逆数および対数演算を行って、前記予測結果に対応する第1の得点を得るステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  3. 前記テキスト内の各文字に対して、前記文字の各種の予測結果に対して、前記テキストおよび前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成する前記ステップは、
    前記テキスト内の各文字に対して、前記文字が前記テキストの頭文字であるか否かを判断するステップと、
    前記文字が前記テキストの頭文字である場合、頭文字の各種の予測結果に対して、前記テキストおよび前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成するステップと、
    前記文字が前記テキストの頭文字ではない場合、前記頭文字でない文字の各予測結果に対して、前記テキスト内の前記頭文字でない文字の前の各文字の句読点存在状況、前記テキスト、および前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成するステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  4. 前記頭文字でない文字の各種の予測結果に対応する入力対象のテキストは、前記テキスト内の前記頭文字でない文字の前の文字を含み、前記頭文字でない文字の前の文字の後に、対応する句読点存在状況によって表される内容、前記頭文字でない文字、および前記予測結果によって表される内容が挿入され、
    前記予測結果表示文字の後に句読点が存在しない場合、前記内容は空であり、前記予測結果表示文字の後に句読点が存在する場合、前記内容は存在する句読点のタイプである、
    ことを特徴とする請求項3に記載の方法。
  5. 前記頭文字でない文字の各種の予測結果に対応する入力対象のテキストは、前記テキスト内の前記頭文字でない文字の前の文字を含み、各前記頭文字でない文字の前の文字の後に、対応する句読点存在状況によって表される内容、前記頭文字でない文字、前記予測結果によって表される内容、および前記テキストないの前記頭文字でない文字の後の予め設定された数の文字が挿入される、
    ことを特徴とする請求項3に記載の方法。
  6. 前記文字の各種の予測結果に対応する第1の得点および第2の得点と併せて、前記文字の句読点存在状況を決定する前記ステップは、
    前記文字の各種の予測結果に対して、前記予測結果に対応する第1の得点および第2の得点を取得するステップと、
    前記第1の得点および前記第2の得点に対して重み付き加算を行って、前記予測結果に対応する総得点を得るステップと、
    対応する総得点の最小の予測結果に基づいて、前記文字の句読点存在状況を決定するステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  7. 前記テキスト内の各文字の句読点存在状況と併せて、前記テキストに対して句読点処理を行い、前記テキストに対応する句読点テキストを得る前記ステップは、
    前記テキスト内の各文字に対して、前記文字の句読点存在状況に基づいて、前記文字の後に句読点が存在するか否かを決定するステップと、
    前記文字の後に句読点が存在する場合、存在する句読点のタイプに基づいて、前記テキスト内の前記文字の後に句読点を追加するステップと、
    前記テキスト内の各文字が処理された後、前記テキストに対応する句読点テキストを得るステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  8. 句読点予測装置であって、
    予測対象のテキストを取得するための取得モジュールと、
    前記テキストを予め設定されたシーケンスラベリングモデルに入力して、前記テキスト内の各文字に対応する第1の句読点予測結果を取得するための入力モジュールであって、前記第1の句読点予測結果が、少なくとも1種の予測結果および各種の予測結果に対応する第1の得点と、前記予測結果表示文字の後に句読点が存在するか否か、および存在する句読点のタイプとを含む入力モジュールと、
    前記テキスト内の各文字に対して、前記文字の各種の予測結果に対して、前記テキストおよび前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成し、前記入力対象のテキストを予め設定された言語モデルに入力して、前記予測結果に対応する第2の得点を得るための第1の決定モジュールと、
    前記文字の各種の予測結果に対応する第1の得点および第2の得点と併せて、前記文字の句読点存在状況を決定するための第2の決定モジュールと、
    前記テキスト内の各文字の句読点存在状況と併せて、前記テキストに対して句読点処理を行い、前記テキストに対応する句読点テキストを得るための句読点処理モジュールと、を含む、
    ことを特徴とする句読点予測装置。
  9. 前記入力モジュールは具体的に、
    前記テキストを予め設定されたシーケンスラベリングモデルに入力して、前記テキスト内の各文字に対応する少なくとも1種の予測結果および予測確率を取得し、
    各文字の各種の予測結果に対して、前記予測結果に対応する予測確率に対して逆数および対数演算を行って、前記予測結果に対応する第1の得点を得ることに用いられる、
    ことを特徴とする請求項8に記載の装置。
  10. 前記第1の決定モジュールは具体的に、
    前記テキスト内の各文字に対して、前記文字が前記テキストの頭文字であるか否かを判断し、
    前記文字が前記テキストの頭文字である場合、頭文字の各種の予測結果に対して、前記テキストおよび前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成し、
    前記文字が前記テキストの頭文字ではない場合、前記頭文字でない文字の各予測結果に対して、前記テキスト内の前記頭文字でない文字の前の各文字の句読点存在状況、前記テキスト、および前記予測結果と併せて、前記予測結果に対応する入力対象のテキストを生成することに用いられる、
    ことを特徴とする請求項8に記載の装置。
  11. 前記頭文字でない文字の各種の予測結果に対応する入力対象のテキストは、前記テキスト内の前記頭文字でない文字の前の文字を含み、前記頭文字でない文字の前の文字の後に、対応する句読点存在状況によって表される内容、前記頭文字でない文字、および前記予測結果によって表される内容が挿入され、
    前記予測結果表示文字の後に句読点が存在しない場合、前記内容は空であり、前記予測結果表示文字の後に句読点が存在する場合、前記内容は存在する句読点のタイプである、
    ことを特徴とする請求項10に記載の装置。
  12. 前記頭文字でない文字の各種の予測結果に対応する入力対象のテキストは、前記テキスト内の前記頭文字でない文字の前の文字を含み、各前記頭文字でない文字の前の文字の後に、対応する句読点存在状況によって表される内容、前記頭文字でない文字、前記予測結果によって表される内容、および前記テキストないの前記頭文字でない文字の後の予め設定された数の文字が挿入される、
    ことを特徴とする請求項10に記載の装置。
  13. 前記第2の決定モジュールは具体的に、
    前記文字の各種の予測結果に対して、前記予測結果に対応する第1の得点および第2の得点を取得し、
    前記第1の得点および前記第2の得点に対して重み付き加算を行って、前記予測結果に対応する総得点を得て、
    対応する総得点の最小の予測結果に基づいて、前記文字の句読点存在状況を決定することに用いられる、
    ことを特徴とする請求項8に記載の装置。
  14. 前記句読点処理モジュールは具体的に、
    前記テキスト内の各文字に対して、前記文字の句読点存在状況に基づいて、前記文字の後に句読点が存在するか否かを決定し、
    前記文字の後に句読点が存在する場合、存在する句読点のタイプに基づいて、前記テキスト内の前記文字の後に句読点を追加し、
    前記テキスト内の各文字が処理された後、前記テキストに対応する句読点テキストを得ることに用いられる、
    ことを特徴とする請求項8に記載の装置。
  15. 電子機器であって、
    少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサと通信可能に接続されるメモリと、を含み、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサが請求項1〜7のいずれかに記載の方法を実行するように、前記少なくとも1つのプロセッサによって実行される、
    ことを特徴とする電子機器。
  16. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令は、前記コンピュータに請求項1〜7のいずれかに記載の方法を実行させる、
    ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
  17. コンピュータプログラムであって、
    前記コンピュータプログラムにおける命令が実行された場合に、請求項1〜7のいずれかに記載の方法が実行される、
    ことを特徴とするコンピュータプログラム。
JP2020215550A 2020-01-16 2020-12-24 句読点予測方法および装置 Active JP7133002B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010046714.1 2020-01-16
CN202010046714.1A CN111241810B (zh) 2020-01-16 2020-01-16 标点预测方法及装置

Publications (2)

Publication Number Publication Date
JP2021114284A true JP2021114284A (ja) 2021-08-05
JP7133002B2 JP7133002B2 (ja) 2022-09-07

Family

ID=70866149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020215550A Active JP7133002B2 (ja) 2020-01-16 2020-12-24 句読点予測方法および装置

Country Status (5)

Country Link
US (1) US11216615B2 (ja)
EP (1) EP3852013A1 (ja)
JP (1) JP7133002B2 (ja)
KR (1) KR102630243B1 (ja)
CN (1) CN111241810B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111414731B (zh) * 2020-02-28 2023-08-11 北京小米松果电子有限公司 文本标注方法和装置
CN116018639A (zh) * 2020-10-27 2023-04-25 谷歌有限责任公司 用于流式文本的文本到语音合成的方法和系统
CN112685996B (zh) * 2020-12-23 2024-03-22 北京有竹居网络技术有限公司 文本标点预测方法、装置、可读介质和电子设备
CN113378541B (zh) * 2021-05-21 2023-07-07 标贝(北京)科技有限公司 文本标点预测方法、装置、系统及存储介质
CN114528850B (zh) * 2022-02-16 2023-08-04 马上消费金融股份有限公司 标点预测模型的训练方法、标点添加方法及装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3232289B2 (ja) * 1999-08-30 2001-11-26 インターナショナル・ビジネス・マシーンズ・コーポレーション 記号挿入装置およびその方法
CA2680304C (en) * 2008-09-25 2017-08-22 Multimodal Technologies, Inc. Decoding-time prediction of non-verbalized tokens
SG188531A1 (en) * 2010-09-24 2013-04-30 Univ Singapore Methods and systems for automated text correction
JP5611270B2 (ja) * 2012-05-08 2014-10-22 ヤフー株式会社 単語分割装置、及び単語分割方法
CN104143331B (zh) * 2013-05-24 2015-12-09 腾讯科技(深圳)有限公司 一种添加标点的方法和系统
CN106803422B (zh) * 2015-11-26 2020-05-12 中国科学院声学研究所 一种基于长短时记忆网络的语言模型重估方法
WO2017213709A1 (en) * 2016-06-08 2017-12-14 Google Llc Scalable dynamic class language modeling
CN108628813B (zh) * 2017-03-17 2022-09-23 北京搜狗科技发展有限公司 处理方法和装置、用于处理的装置
US10867595B2 (en) * 2017-05-19 2020-12-15 Baidu Usa Llc Cold fusing sequence-to-sequence models with language models
CN107767870B (zh) * 2017-09-29 2021-03-23 百度在线网络技术(北京)有限公司 标点符号的添加方法、装置和计算机设备
CN107680579B (zh) 2017-09-29 2020-08-14 百度在线网络技术(北京)有限公司 文本正则化模型训练方法和装置、文本正则化方法和装置
CN108845682B (zh) 2018-06-28 2022-02-25 北京金山安全软件有限公司 一种输入预测方法及装置
CN109255115B (zh) * 2018-10-19 2023-04-07 科大讯飞股份有限公司 一种文本标点调整方法及装置
CN109558576B (zh) * 2018-11-05 2023-05-23 中山大学 一种基于自注意力机制的标点符号预测方法
CN109858038B (zh) * 2019-03-01 2023-04-18 科大讯飞股份有限公司 一种文本标点确定方法及装置
CN110413987B (zh) * 2019-06-14 2023-05-30 平安科技(深圳)有限公司 基于多个预测模型的标点符号预测方法及相关设备
CN110298042A (zh) * 2019-06-26 2019-10-01 四川长虹电器股份有限公司 基于Bilstm-crf与知识图谱影视实体识别方法
CN110516253B (zh) * 2019-08-30 2023-08-25 思必驰科技股份有限公司 中文口语语义理解方法及系统
CN110688822A (zh) * 2019-09-27 2020-01-14 上海智臻智能网络科技股份有限公司 标点符号的添加方法及设备、介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
OTTOKAR TILK 他1名, LSTM FOR PUNCTUATION RESTORATION IN SPEECH TRANSCRIPTS, JPN6022007616, September 2015 (2015-09-01), ISSN: 0004716653 *

Also Published As

Publication number Publication date
CN111241810B (zh) 2023-08-01
US11216615B2 (en) 2022-01-04
US20210224480A1 (en) 2021-07-22
EP3852013A1 (en) 2021-07-21
JP7133002B2 (ja) 2022-09-07
KR102630243B1 (ko) 2024-01-25
KR20210092692A (ko) 2021-07-26
CN111241810A (zh) 2020-06-05

Similar Documents

Publication Publication Date Title
KR102534721B1 (ko) 모델을 트레이닝하는 방법, 장치, 기기 및 저장 매체
JP7317791B2 (ja) エンティティ・リンキング方法、装置、機器、及び記憶媒体
US11403468B2 (en) Method and apparatus for generating vector representation of text, and related computer device
JP2021114284A (ja) 句読点予測方法および装置
US9043300B2 (en) Input method editor integration
CN111061868B (zh) 读法预测模型获取及读法预测方法、装置及存储介质
KR102472708B1 (ko) 감정 분석 모델을 사전 트레이닝하는 방법, 장치 및 전자 기기
JP7044839B2 (ja) エンドツーエンドモデルのトレーニング方法および装置
US20210200813A1 (en) Human-machine interaction method, electronic device, and storage medium
JP2021111420A (ja) テキストエンティティの語義記述処理方法、装置及び機器
JP2021197133A (ja) 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム
KR20210148918A (ko) 언어 모델에 기반한 단어 벡터 획득 방법, 장치, 기기 및 기록매체
KR20210157342A (ko) 언어 모델의 훈련 방법, 장치, 전자 기기 및 판독 가능 기록 매체
EP3251114B1 (en) Transcription correction using multi-token structures
CN111709252B (zh) 基于预训练的语义模型的模型改进方法及装置
JP2022505015A (ja) 知識グラフのベクトル表現生成方法、装置及び電子機器
KR20220029384A (ko) 엔티티 링킹 방법, 장치, 전자 기기 및 기록 매체
EP3855341A1 (en) Language generation method and apparatus, electronic device and storage medium
CN112270169B (zh) 对白角色预测方法、装置、电子设备及存储介质
CN113901841A (zh) 翻译方法、装置以及存储介质
CN115688796B (zh) 用于自然语言处理领域中预训练模型的训练方法及其装置
CN116362240A (zh) 文本处理的方法、装置、设备和介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220826

R150 Certificate of patent or registration of utility model

Ref document number: 7133002

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150