JP2020187726A - テキスト処理方法、テキスト処理装置、テキスト処理デバイス及び記憶媒体 - Google Patents

テキスト処理方法、テキスト処理装置、テキスト処理デバイス及び記憶媒体 Download PDF

Info

Publication number
JP2020187726A
JP2020187726A JP2019236686A JP2019236686A JP2020187726A JP 2020187726 A JP2020187726 A JP 2020187726A JP 2019236686 A JP2019236686 A JP 2019236686A JP 2019236686 A JP2019236686 A JP 2019236686A JP 2020187726 A JP2020187726 A JP 2020187726A
Authority
JP
Japan
Prior art keywords
text
text processing
results
preprocessing
reliabilitys
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2019236686A
Other languages
English (en)
Inventor
シーホン グオ
Xihong Guo
シーホン グオ
シンユ グオ
xin yu Guo
シンユ グオ
アンシン リー
Anxin Li
アンシン リー
ラン チン
Lan Chen
ラン チン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JP2020187726A publication Critical patent/JP2020187726A/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • G06F16/345Summarisation for human users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

【課題】ニューラルネットワークに基づくテキスト処理システムのパフォーマンスを向上するテキスト処理装置及びコンピュータ読取可能な記憶媒体を提供する。【解決手段】方法は、入力テキストを取得することと、ニューラルネットワークに基づいて、複数の異なる処理方法を利用して入力テキストの構成文を処理し、異なる処理方法に対応する複数の前処理結果を取得することと、複数の前処理結果に基づいて、テキスト処理結果を生成することと、複数の前処理結果の複数の信頼度を決定し、複数の信頼度を利用して前記テキスト処理結果を校正し、校正されたテキスト処理結果を得ることと、を含む。【選択図】図1

Description

本出願は、ニューラルネットワークに基づくテキスト処理分野に関し、特に、ニューラルネットワークに基づくテキスト処理方法、ニューラルネットワークに基づくテキスト処理デバイス、ニューラルネットワークに基づくテキスト処理装置、及びコンピュータ読取可能な記憶媒体に関する。
深層ニューラルネットワークは、大規模なマルチパラメーター最適化ツールである。深層ニューラルネットワークは、大量のトレーニングデータによって、まとめ難い隠された特徴をデータから学習できるため、顔検出、画像セマンティックセグメンテーション、テキスト要約抽出、物体検出、モーショントラッキング、自然言語翻訳などの複数の複雑なタスクを完了できる。
テキスト要約抽出とは、明確な意味を持つテキスト内容を高レベルで概括化/抽象化してテキスト要約を生成することを意味する。従来のテキスト要約抽出方法は、テキストの具体的な内容(表現の意味、文の構造、修辞技法、物語スタイルなど)に大きく依存している。したがって、異なるテキスト(異なる長さのテキストなど)に異なるテキスト要約抽出方法が適用されるとき、パフォーマンスが異なる。例えば、一部のテキスト要約抽出方法は、長いテキストに対して理想的な要約抽出結果を取得できるが、比較的短いテキストに対して理想的な抽出を達成することは困難である一方、他のテキスト要約抽出方法によれば、逆の処理パフォーマンスが示される。複数のテキスト要約抽出方法を採用する場合、要約を抽出するときにあるテキスト要約抽出方法の重みが大きすぎ、他のテキスト要約抽出方法の重みが小さすぎるという問題もあり、よって複数のテキスト要約抽出方法を融合した後の重みがテキストの具体的な内容に大きく依存してしまうため、システムの汎用的なパフォーマンスが低下することに繋がる。
上記の問題に鑑みて、本開示は、テキスト処理方法、テキスト処理装置、テキスト処理デバイス、及びコンピュータ読取可能な記憶媒体を提供する。
本開示の一態様によれば、ニューラルネットワークに基づくテキスト処理方法が提供される。前記方法は、入力テキストを取得することと、ニューラルネットワークに基づいて、複数の異なる処理方法を利用して前記入力テキストの構成文を処理し、前記異なる処理方法に対応する複数の前処理結果を取得することと、前記複数の前処理結果に基づいてテキスト処理結果を生成することと、前記複数の前処理結果の複数の信頼度を決定し、前記複数の信頼度を利用して前記テキスト処理結果を校正し、校正されたテキスト処理結果を得ることと、を含む。
本開示の一態様によれば、情報エントロピーによって、前記複数の前処理結果の複数の信頼度を決定する。
本開示の一態様によれば、前記複数の信頼度を利用してテキスト処理結果を校正し、校正されたテキスト処理結果を得ることは、前記複数の信頼度を利用してテキスト処理結果をそれぞれ処理して複数の中間校正係数を得ることと、前記複数の中間校正係数を前記テキスト処理結果に加算して、校正されたテキスト処理結果を得ることと、を含む。
本開示の一態様によれば、前記複数の信頼度を利用して前記テキスト処理結果をそれぞれ処理して複数の中間校正係数を得ることは、前記複数の信頼度を利用して、前記複数の前処理結果に対応する複数の校正率を取得し、前記対応する複数の校正率をそれぞれ前記テキスト処理結果に乗算して、複数の中間校正係数を取得することを含む。
本開示の一態様によれば、ニューラルネットワークに基づいて、複数の異なる処理方法を利用して前記入力テキストの構成文を処理し、前記異なる処理方法に対応する複数の前処理結果を得ることは、前記複数の異なる処理方法のそれぞれを利用して前記入力テキストのすべての構成文を処理し、前記複数の異なる処理方法のそれぞれに対応する、すべての構成文のそれぞれの予測文の重みを前記複数の前処理結果として取得することを含む。
本開示の一態様によれば、前記複数の前処理結果に基づいてテキスト処理結果を生成することは、前記複数の異なる処理方法を利用して前記入力テキストのすべての構成文を分析し、すべての構成文のそれぞれの出力文の重みをテキスト処理結果として取得することを含む。
本開示の他の一態様によれば、ニューラルネットワークに基づくテキスト処理装置が提供される。前記装置は、入力テキストを取得する入力テキスト取得ユニットと、ニューラルネットワークに基づいて、複数の異なる処理方法を利用して前記入力テキストの構成文を処理し、前記異なる処理方法に対応する複数の前処理結果を取得する前処理結果取得ユニットと、前記複数の前処理結果に基づいてテキスト処理結果を生成する生成ユニットと、前記複数の前処理結果の複数の信頼度を決定し、前記複数の信頼度を利用して前記テキスト処理結果を校正し、校正されたテキスト処理結果を得る校正ユニットと、を備える。
本開示の一態様によれば、前記校正ユニットは、情報エントロピーによって、前記複数の前処理結果の複数の信頼度を決定する。
本開示の一態様によれば、前記校正ユニットは、前記複数の信頼度を利用して前記テキスト処理結果をそれぞれ処理して複数の中間校正係数を取得し、前記複数の中間校正係数を前記テキスト処理結果に加算して、校正されたテキスト処理結果を得る。
本開示の一態様によれば、前記校正ユニットは、前記複数の信頼度を利用して前記複数の前処理結果に対応する複数の校正率を取得し、前記対応する複数の校正率をそれぞれ前記テキスト処理結果と乗算して、前記複数の中間校正係数を取得する。
本開示の一態様によれば、前記前処理結果取得ユニットは、前記複数の異なる処理方法のそれぞれを利用して前記入力テキストのすべての構成文を処理し、前記複数の異なる処理のそれぞれに対応する、全ての構成文のそれぞれの予測文の重みを前記複数の前処理結果として取得する。
本開示の一態様によれば、前記生成ユニットは、前記複数の異なる処理方法を利用して前記入力テキストの全ての構成文を分析し、全ての構成文のそれぞれの出力文の重みをテキスト処理結果として取得する。
本開示の他の一態様によれば、ニューラルネットワークに基づくテキスト処理デバイスが提供される。前記テキスト処理デバイスは、プロセッサと、コンピュータ読取可能なプログラム命令を格納したメモリとを備える。前記コンピュータ読取可能なプログラム命令が前記プロセッサによって実行されるとき、ニューラルネットワークに基づくテキスト処理方法が実行される。前記方法は、ニューラルネットワークに基づいて、複数の異なる処理方法を利用して前記入力テキストの構成文を処理し、前記異なる処理方法に対応する複数の処理方法を取得することと、前記複数の前処理結果に基づいて、テキスト処理結果を生成することと、前記複数の前処理結果の複数の信頼度を決定し、前記複数の信頼度を利用して前記テキスト処理結果を校正し、校正されたテキスト処理結果を得ることと、を含む。
本開示の他の一態様によれば、コンピュータ読取可能な命令を格納したコンピュータ読取可能な記憶媒体が提供される。前記コンピュータ読取可能な命令がコンピュータによって実行されるとき、前記コンピュータにニューラルネットワークに基づくテキスト処理方法を実行させる。前記方法は、入力テキストを取得することと、ニューラルネットワークに基づいて、複数の異なる処理方法を利用して前記入力テキストの構成文を処理し、前記異なる処理方法に対応する複数の前処理結果を取得することと、前記複数の前処理結果に基づいて、テキスト処理結果を生成することと、前記複数の前処理結果の複数の信頼度を決定し、前記複数の信頼度を利用して前記テキスト処理結果を校正し、校正されたテキスト処理結果を得ることと、を含む。
本開示の上記の態様では、ニューラルネットワークをテキスト処理に適用し、ニューラルネットワークの前処理結果を利用してニューラルネットワークのテキスト処理結果を校正することにより、ニューラルネットワーク内のあるテキスト抽出方法の重みが過度に支配的になることを避けるように制御できるため、システムの汎用的なパフォーマンスが向上される。
図面を参照しながら本開示の実施例をさらに詳細に説明することにより、本開示の上記及び他の目的、特徴及び利点は、より明らかになるであろう。図面は、本発明の実施例のさらなる理解を提供することを意図し、明細書の一部となり、本開示の実施例とともに本開示に対する解釈に用いられ、本開示に対する制限ではない。図面において、同じ参照番号は常に同じ部品またはステップを指す。
本開示の実施例に係るテキスト処理方法のフローチャートである。 本開示の実施例に係る処理結果を校正する方法のフローチャートである。 本開示の実施例に係る処理結果を校正する模式図である。 本開示の実施例に係る中間校正係数を利用してテキスト処理結果を校正する模式図である。 本開示の実施例に係るテキスト処理装置の模式図である。 本開示の実施例に係るテキスト処理デバイスの模式図である。 本開示の実施例に係るコンピュータ読取可能な記憶媒体の模式図である。
本開示の実施例に係る技術的解決策は、以下、本開示の実施例における図面と併せて明確かつ完全に説明する。説明する実施例は、本開示の実施例の一部に過ぎず、すべてではないことは明らかである。創造的な作業なしに本開示の実施例に基づいて当業者によって得られる他のすべての実施例は、いずれも本開示の範囲内に属す。
本開示は、ニューラルネットワークをテキスト処理に適用する。異なるテキスト処理方法をトレーニングすることにより、異なるテキスト内容に対する異なるテキスト処理方法の依存性を減らし処理の複雑さを軽減しながら、所望のテキストを効率的かつ正確に抽出することが可能になる。ただし、複数のテキスト処理方法を採用する場合、要約を抽出するときにあるテキスト処理方法の重みが大きすぎ、他のテキスト処理方法の重みが小さすぎるという問題が生じる可能性があり、よって複数のテキスト処理方法を融合した後の重みは、テキストの具体的な内容に大きく依存してしまうため、システムの汎用的なパフォーマンスが低下することに繋がる。
したがって、本願は、ニューラルネットワークの前処理結果を利用してニューラルネットワークのテキスト処理結果を正規化(regularization)校正することにより、ニューラルネットワーク内のあるテキスト処理方法の重みが過度に支配的になることを避けるように制御できるため、システムの汎用的なパフォーマンスが向上される。
まず、図1を参照して、本開示の実施例を実現するためのテキスト処理方法100について説明する。図1に示すように、ステップS101では、入力テキストを取得する。
当該入力テキストは、処理すべき元のテキストであり、当該元のテキストから、希望する単語の数または文の数の要約が生成される。
ステップS102では、ニューラルネットワークに基づいて、複数の異なる処理方法を利用して前記入力テキストの構成文を処理し、前記異なる処理方法に対応する複数の前処理結果を取得する。具体的には、前記複数の異なる処理方法のそれぞれを利用して入力テキストのすべての構成文を処理し、複数の異なる処理方法のそれぞれに対応する、全ての構成文のそれぞれの予測文の重みを前記複数の前処理結果として取得する。
現在、複数の異なるテキスト処理方法がある。例えば、テキスト要約の抽出には、位置方法、フレーズ方法、タイトル方法、キーワード方法などの複数の方法がある。このステップS102では、異なる処理方法を利用して入力テキストを分析し、複数の前処理結果を得る。例えば、各テキスト処理方法に異なる重みを割り当て、各テキスト処理方法によって構成文を分析して、各テキスト処理方法に対応する各文の重みを取得することにより、複数の異なる処理方法に対応する複数の前処理結果を得ることができる。
例えば、M種類の異なる処理方法(例えば処理方法1、処理方法2、……処理方法Mなど)があると仮定すると、異なる処理方法に、ランダムに異なる重みが割り当てられてもよく、所定のルールに従って異なる重みが割り当てられてもよい。例えば、処理方法1に重みW1が割り当てられ、処理方法2に重みW2が割り当てられ、処理方法Mに重みWMが割り当てられる。
さらに、異なる処理方法では、各処理方法は各構成文に異なる重みを割り当て、当該割り当ては、異なる文の特性に対する異なる処理方法の依存性を分析することによって得ることができる。例えば、入力テキストにP個の構成文が含まれていると仮定すると、処理方法1では、各文に割り当てられる重みが{W11、W12、W13...W1P}であり、処理方法2では、各文に割り当てられる重みが{W21、W22、W23...W2P}であり、処理方法Mでは、各文に割り当てられる重みが{WM1、WM2、WM3...WMP}であり、その他も類推する。そして、当該異なる処理方法におけるすべての構成文のそれぞれの構成文の重みを複数の前処理結果とする。
代わりに、各テキスト処理方法に同じ重みを割り当ててもよい。そして、各テキスト処理方法によって構成文を分析して各テキスト処理方法に対応する各文の重みを取得することにより、複数の異なる処理方法に対応する複数の前処理結果が得られる。
異なる処理方法に対応する複数の前処理結果を取得した後、ステップS103では、前記複数の前処理結果に基づいてテキスト処理結果を生成する。ここで、複数の異なる処理方法を利用して前記入力テキストのすべての構成文を分析し、すべての構成文のそれぞれの出力文の重みをテキスト処理結果として得ることができる。
複数の前処理結果及びテキスト処理結果を取得した後、次にステップS104では、前記複数の前処理結果の複数の信頼度を決定し、前記複数の信頼度を利用して前記テキスト処理結果を校正し、校正されたテキスト処理結果を得る。
例えば、情報エントロピーによって、複数の前処理結果の複数の信頼度を決定することができる。
例えば、第U種類の前処理結果がU,U,・・・U,・・・U個の取り得る値があり、これらが入力テキストのすべての構成文のそれぞれの予測文の重みに対応し、対応する確率がそれぞれp,p2,・・・p,・・・pであると仮定すると、第U種類の前処理結果の信頼度H(U)は、次の式で表すことができる。
Figure 2020187726
但し、E()は平均化することを意味する。
したがって、第U種類の前処理結果の信頼度H(U)が得られる。同様に、同じ方法に基づいて、他の複数の前処理結果の信頼度を取得することができる。上記の信頼度を決定する方法はこれに限定されず、他の適切な方法を採用して信頼度を決定することもできることを理解されたい。
前記複数の前処理結果の複数の信頼度を決定した後、次に前記複数の信頼度を利用してテキスト処理結果を校正し、校正されたテキスト処理結果を得る。
図2は、本開示の実施例に係る処理結果を校正する方法のフローチャートである。図2に示すように、ステップS201では、前記複数の信頼度を利用して前記テキスト処理結果をそれぞれ処理して複数の中間校正係数を得る。ステップS202では、前記複数の中間校正係数を前記テキスト処理結果に加算して、校正されたテキスト処理結果を得る。
ここで、中間校正係数は、以下のように得られることができる。前記複数の信頼度を利用して前記複数の前処理結果に対応する複数の校正率を取得し、前記対応する複数の校正率をそれぞれ前記テキスト処理結果に乗算することにより、前記複数の中間校正係数を取得する。
以下、図3を参照して本開示の実施例に係る処理結果を校正する方法について説明する。図3に示すように、まず、入力テキスト31を取得し(入力テキストには5つの構成文を含むと仮定する)、次に、入力テキストをニューラルネットワーク32に入力し、当該ニューラルネットワークは複数の異なる処理方法(例えば図3に示す処理方法1、処理方法2、処理方法3など)を含むことができる。当該ニューラルネットワーク32では、複数の異なる処理方法を利用して入力テキスト31の構成文を処理し、前記異なる処理方法に対応する複数の前処理結果34を取得することができ、さらに、複数の前処理結果34に基づいて、テキスト処理結果35を生成することができる。複数の前処理結果34のうちの1つは、図3の{0.1、0.5、0.3、0.1、0.2}(図では36で示される)であり、当該前処理結果36は、入力テキスト31の5つの構成文のそれぞれの予測文の重みに対応すると仮定し、同時に、テキスト処理結果35は、図3の{0.7、0.3、0.1、0.4、0.1}(図では40で示される)であると仮定すると、次の方法でテキスト処理結果40を校正することができる。最初に、前処理結果36から最大の2つの値を選択し、それらを1として符号化し、他の前処理結果を0として符号化し、対応する符号化値{0、1、1、0、0}(図では38で示される)を得る。その後、例えば情報エントロピー36によって、前処理結果36の信頼度37を決定し、情報エントロピーによって決定された前処理結果36の信頼度が0.3であると仮定する。次に、信頼度37にエンコード値38を乗算して、信頼度の校正された符号化係数{0、0.3、0.3、0、0}を校正率として得る(図では39で示される)。次に、得られた校正率39にテキスト処理結果40を乗算して、中間校正係数{0、0.09、0.03、0、0}(図では41で示される)が得られ、前処理結果36をテキスト処理結果40と同じレベルに引きずるように校正する。中間校正係数41を得た後、中間校正係数41をテキスト処理結果40に加算して、校正されたテキスト処理結果{0.7、0.39、0.13、0.4、0.1}(図中43で示される)を得る。
図3は、前処理結果を利用してテキスト処理結果を校正し、校正されたテキスト処理結果を得ることを示す模式図であることを理解されたい。同様に、他の複数の前処理結果について、同じ方法でテキスト処理結果を校正し、校正されたテキスト処理結果を得ることができる。例えば、他の前処理結果に対応する信頼度を利用して他の中間校正係数を得て、その後、すべての前処理結果によって得られた中間校正係数をテキスト処理結果に加算して、最終的に校正されたテキスト処理結果を得ることができる。
中間校正係数を利用してテキスト処理結果を校正する模式図を図4に示す。図4に示すように、図3に示す方法で各前処理結果に対応する各中間校正係数46を得た後、すべての中間校正係数46をテキスト処理結果45に加算して、校正されたテキスト処理結果47を得る。
ニューラルネットワークによる前処理結果を利用してニューラルネットワークによるテキスト処理結果を校正することにより、ニューラルネットワーク内のあるテキスト抽出方法の重みが過度に支配的になることを避けるように制御できるため、システムの汎用的なパフォーマンスが向上される。
以下、図5を参照し、本開示の実施例に係るテキスト処理装置1000について説明する。図5は、本開示の実施例に係るテキスト処理装置1000の模式図である。本実施例に係るテキスト処理装置の機能は、図1を参照して説明した方法の詳細と同じであるため、便宜上、同じ内容についての詳細な説明はここでは省略する。
図5に示すように、本開示の実施例に係るテキスト処理装置1000は、入力テキスト取得ユニット1001、前処理結果取得ユニット1002、生成ユニット1003、及び校正ユニット1004を備える。テキスト処理装置1000は、図5において4つのユニットのみを備えるように示されているが、これは単なる例示であり、テキスト処理装置1000は、1つ以上の他のユニットを備えることもできることに留意されたい。これらのユニットは本発明の思想と関係がないため、ここでは省略する。
入力テキスト取得ユニット1001は、入力テキストを取得する。
当該入力テキストは、処理すべき元のテキストであり、当該元のテキストから、希望する単語の数または文の数の要約が生成される。
前処理結果取得ユニット1002は、ニューラルネットワークに基づいて、複数の異なる処理方法を利用して前記入力テキストの構成文を処理し、前記異なる処理方法に対応する複数の前処理結果を取得する。具体的には、前記複数の異なる処理方法のそれぞれを利用して入力テキストのすべての構成文を処理し、複数の異なる処理方法のそれぞれに対応する、全ての構成文のそれぞれの予測文の重みを前記複数の前処理結果として取得する。
現在、複数の異なるテキスト処理方法がある。例えば、テキスト要約の抽出には、位置方法、フレーズ方法、タイトル方法、キーワード方法などの複数の方法がある。前処理結果取得ユニット1002は、異なる処理方法を利用して入力テキストを分析し、複数の前処理結果を得る。例えば、前処理結果取得ユニット1002は、各テキスト処理方法に異なる重みを割り当て、各テキスト処理方法によって構成文を分析して各テキスト処理方法に対応する各文の重みを取得し、複数の異なる処理方法に対応する複数の前処理結果を得ることができる。
例えば、M種類の異なる処理方法(例えば処理方法1、処理方法2、……処理方法Mなど)があると仮定すると、前処理結果取得ユニット1002は、異なる処理方法に、異なる重みをランダムに割り当ててもよいし、所定の規則に従って異なる重みを割り当ててもよい。例えば、処理方法1に重みW1が割り当てられ、処理方法2に重みW2が割り当てられ、処理方法Mに重みWMが割り当てられる。
さらに、異なる処理方法では、各処理方法は各構成文に異なる重みを割り当て、当該割り当ては、異なる文の特性に対する異なる処理方法の依存性を分析することによって得られることができる。例えば、入力テキストにP個の構成文が含まれていると仮定すると、処理方法1では、各文に割り当てられる重みが{W11、W12、W13...W1P}であり、処理方法2では、各文に割り当てられる重みが{W21、W22、W23...W2P}であり、処理方法Mでは、各文に割り当てられる重みが{WM1、WM2、WM3...WMP}であり、その他も類推できる。そして、異なる処理方法におけるすべての構成文の各文の重みを複数の前処理結果とする。
代わりに、各テキスト処理方法に同じ重みを割り当ててもよい。そして、各テキスト処理方法によって構成文を分析して各テキスト処理方法に対応する各文の重みを取得することにより、複数の異なる処理方法に対応する複数の前処理結果が得られる。
前処理結果取得ユニット1002が異なる処理方法に対応する複数の前処理結果を取得した後、生成ユニット1003は、前記複数の前処理結果に基づいて、テキスト処理結果を生成する。ここで、生成ユニット1003は、前記複数の異なる処理方法を利用して前記入力テキストの全ての構成文を分析し、全ての構成文のそれぞれの出力文の重みをテキスト処理結果として取得することができる。
複数の前処理結果及びテキスト処理結果を取得した後、次に、校正ユニット1004は、前記複数の前処理結果の複数の信頼度を決定し、前記複数の信頼度を利用して前記テキスト処理結果を校正し、校正されたテキスト処理結果を取得する。
例えば、情報エントロピーによって、複数の前処理結果の複数の信頼度を決定することができる。
例えば、第U種類の前処理結果がU,U,・・・U,・・・U個の取り得る値があり、これらが入力テキストのすべての構成文のそれぞれの予測文の重みに対応し、対応する確率がそれぞれp,p2,・・・p,・・・pであると仮定すると、第U種類の前処理結果の信頼度H(U)は次の式で表すことができる。
Figure 2020187726
但し、E()は平均化することを意味する。
したがって、第U種類の前処理結果の信頼度H(U)が得られる。同様に、同じ方法に基づいて、他の複数の前処理結果の信頼度を取得することができる。上記の信頼度を決定する方法はこれに限定されず、他の適切な方法を採用して信頼度を決定することもできることを理解されたい。
校正ユニット1004は、前記複数の前処理結果の複数の信頼度を決定した後、前記複数の信頼度を利用してテキスト処理結果を校正し、校正されたテキスト処理結果を得る。
図2は、本開示の実施例に係る処理結果を校正する方法のフローチャートである。図2に示すように、ステップS201では、前記複数の信頼度を利用して前記テキスト処理結果をそれぞれ処理して複数の中間校正係数を得て、ステップS202では、前記複数の中間校正係数を前記テキスト処理結果に加算して、校正されたテキスト処理結果を得る。
ここで、中間校正係数は、以下のように得られることができる。校正ユニット1004が、前記複数の信頼度を利用して前記複数の前処理結果に対応する複数の校正率を取得し、前記対応する複数の校正率をそれぞれ前記テキスト処理結果と乗算することにより、複数の中間校正係数を得る。
以下、図3を参照し、本開示の実施例に係る処理結果を校正する方法について説明する。図3に示すように、入力テキスト取得ユニット1001は、まず、入力テキスト31を取得し(入力テキストには5つの構成文を含むと仮定する)、次に、入力テキストをニューラルネットワーク32に入力し、当該ニューラルネットワークは複数の異なる処理方法(例えば図2に示す処理方法1、処理方法2、処理方法3など)を含むことができる。当該ニューラルネットワーク32において、前処理結果取得ユニット1002は、複数の異なる処理方法を利用して入力テキスト31の構成文を処理し、前記異なる処理方法に対応する複数の前処理結果34を取得することができる。さらに、生成ユニット1003は、複数の前処理結果34に基づいてテキスト処理結果35を生成することができる。複数の前処理結果34のうちの1つは、図3の{0.1、0.5、0.3、0.1、0.2}(図では36で示される)であり、当該前処理結果36は、入力テキスト31の5つの構成文のそれぞれの予測文の重みに対応すると仮定し、同時に、テキスト処理結果35は、図3の{0.7、0.3、0.1、0.4、0.1}(図では40で示される)であると仮定すると、校正ユニット1004は、以下の方法でテキスト処理結果40を校正することができる。最初に、前処理結果36から最大の2つの値を選択し、それらを1として符号化し、他の前処理結果を0として符号化し、対応する符号化値{0、1、1、0、0}(図では38で示される)が得られる。その後、例えば情報エントロピーによって前処理結果36の信頼度37を決定し、情報エントロピーによって決定される処理結果36の信頼度が0.3であると仮定する。次に、信頼度37に符号化値38を乗算して、信頼度が校正された符号化係数{0、0.3、0.3、0、0}を校正率として得る(図では39で示される)。次に、得られた校正率39にテキスト処理結果40を乗算して、中間校正係数{0、0.09、0.03、0、0}(図では41で示される)が得られ、前処理結果36をテキスト処理結果40と同じレベルに引きずるように校正する。中間校正係数41が得られた後、中間校正係数41をテキスト処理結果40に加算して、校正されたテキスト処理結果{0.7、0.39、0.13、0.4、0.1}(図では43で示される)が得られる。
図3は、前処理結果を利用してテキスト処理結果を校正し、校正されたテキスト処理結果を得ることを示す模式図であることを理解されたい。同様に、他の複数の前処理結果については、同じ方法を採用してテキスト処理結果を校正し、校正されたテキスト処理結果を得ることができる。例えば、校正ユニット1004は、他の前処理結果に対応する信頼度を利用して他の中間校正係数を得て、その後、全ての前処理結果によって得られた中間校正係数をテキスト処理結果に加算して、最終的に校正されたテキスト処理結果を得ることができる。
中間校正係数を利用してテキスト処理結果を校正する模式図を図4に示す。図4に示すように、図3に示す方法で各前処理結果に対応する各中間校正係数46が得られた後、すべての中間校正係数46をテキスト処理結果45に加算して、校正されたテキスト処理結果47を得る。
以下、図6を参照し、本開示の実施例に係るテキスト処理デバイスについて説明する。図6は、本開示の実施例に係るテキスト処理デバイスの模式図である。本実施例のテキスト処理デバイスの機能は、図1を参照して説明した方法の詳細と同じであるため、便宜上、同じ内容に対する詳細な説明はここでは省略する。
図6に示すように、テキスト処理装置1100は、メモリ1101とプロセッサ1102を備える。図6では、テキスト処理デバイス1100は、2つのデバイスのみを備えるように示されるが、これは単なる例示であり、テキスト処理デバイス1100は、1つ以上の他のデバイスを備えることもできることに留意されたい。これらのデバイスは、本発明の思想と関係がないため、ここでは省略する。
本開示のテキスト処理デバイス1100は、プロセッサ1102と、コンピュータ読取可能なプログラム命令を格納したメモリ1101とを備える。ここで、コンピュータ読取可能なプログラム命令が前記プロセッサによって実行されるとき、ニューラルネットワークに基づくテキスト処理方法が実行される。前記方法は、ニューラルネットワークに基づいて、複数の異なる処理方法を利用して前記入力テキストの構成文を処理し、前記異なる処理方法に対応する複数の前処理結果を取得することと、前記前処理結果に基づいて、テキスト処理結果を生成することと、前記複数の前処理結果の複数の信頼度を決定し、前記複数の信頼度を利用して前記テキスト処理結果を校正し、校正されたテキスト処理結果を得ることと、を含む。
ここで、複数の信頼度を利用して前記テキスト処理結果を校正し、校正されたテキスト処理結果を得ることは、前記複数の信頼度を利用して前記テキスト処理結果をそれぞれ処理し、複数の中間校正係数を得ることと、前記複数の中間校正係数を前記テキスト処理結果に加算して、校正されたテキスト処理結果を得ることと、を含む。
ここで、前記複数の信頼度を利用してテキスト処理結果をそれぞれ処理し、複数の中間校正係数を得ることは、前記複数の信頼度を利用して前記複数の前処理結果に対応する複数の校正率を取得し、前記対応する複数の校正率をそれぞれ前記テキスト処理結果と乗算して、前記複数の中間校正係数を取得することを含む。
図7は、本開示の実施例に係るコンピュータ読取可能な記憶媒体の模式図である。
図7に示すように、本開示は、コンピュータ読取可能な命令を格納したコンピュータ読取可能な記憶媒体を提供する。前記コンピュータ読取可能な命令がコンピュータによって実行されるとき、前記コンピュータにニューラルネットワークに基づくテキスト処理方法を実行させる。前記方法は、入力テキストを取得することと、ニューラルネットワークに基づいて、複数の異なる処理方法を利用して前記入力テキストの構成文を処理し、前記異なる処理方法に対応する複数の前処理結果を取得することと、前記複数の前処理結果に基づいて、テキスト処理結果を生成することと、前記複数の前処理結果の複数の信頼度を決定し、前記複数の信頼度を利用して前記テキスト処理結果を校正し、校正されたテキスト処理結果を得ることと、を含む。
<ハードウェア構成>
なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線で)接続し、これら複数の装置により実現されてもよい。
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。例えば、プロセッサは1つだけ図示されているが、複数のプロセッサがあってもよい。また、処理は、1のプロセッサで実行されてもよいし、処理が同時に、逐次に、又はその他の手法で、1以上のプロセッサで実行されてもよい。なお、プロセッサは、1以上のチップで実装されてもよい。
プロセッサは、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサは、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。
また、プロセッサは、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ及び/又は通信装置からメモリに読み出し、これらに従って各種の処理を実行する。プログラムとしては、上記の実施形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、制御ユニットは、メモリに格納され、プロセッサで動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。
メモリは、コンピュータ読取可能な記憶媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)、RAM(Random Access Memory)、その他の適切な記憶媒体の少なくとも1つで構成されてもよい。メモリは、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリは、本開示の一実施形態に係る方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
ストレージは、コンピュータ読取可能な記憶媒体であり、例えば、フレキシブルディスク、フロッピー(登録商標)ディスク、光磁気ディスク(例えば、コンパクトディスク(CD−ROM(Compact Disc ROM)など)、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、リムーバブルディスク、ハードディスクドライブ、スマートカード、フラッシュメモリデバイス(例えば、カード、スティック(stick)、キードライブ(key driver))、磁気ストライプ、データベース、サーバ、その他の適切な記憶媒体の少なくとも1つで構成されてもよい。ストレージは、補助記憶装置と呼ばれてもよい。
入力装置は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LED(Light Emitting Diode)ランプなど)である。なお、入力装置及び出力装置は、一体となった構成(例えば、タッチパネル)であってもよい。
また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。例えば、無線リソースは、所定のインデックスで指示されるものであってもよい。さらに、これらのパラメータを使用する数式などは、本明細書で明示的に開示したものと異なってもよい。
本明細書においてパラメータなどに使用する名称は、いかなる点においても限定的なものではない。
入出力された情報、信号などは、特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報、信号などは、上書き、更新又は追記をされ得る。出力された情報、信号などは、削除されてもよい。入力された情報、信号などは、他の装置へ送信されてもよい。
情報の通知は、本明細書で説明した態様/実施形態に限られず、他の方法で行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、下り制御情報(DCI:Downlink Control Information)、上り制御情報(UCI:Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、ブロードキャスト情報(マスタ情報ブロック(MIB:Master Information Block)、システム情報ブロック(SIB:System Information Block)など)、媒体アクセス制御(MAC:Medium Access Control)シグナリング)、その他の信号又はこれらの組み合わせによって実施されてもよい。
また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗示的に(例えば、当該所定の情報の通知を行わないことによって又は別の情報の通知によって)行われてもよい。
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真(true)又は偽(false)で表される真偽値(boolean)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び/又は無線技術(赤外線、マイクロ波など)を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。
本明細書で使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。
本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE−Advanced)、LTE−B(LTE−Beyond)、SUPER 3G、IMT−Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、FRA(Future Radio Access)、New−RAT(Radio Access Technology)、NR(New Radio)、NX(New radio access)、FX(Future generation radio access)、GSM(登録商標)(Global System for Mobile communications)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra−WideBand)、Bluetooth(登録商標)、その他の適切な無線通信方法を利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。
本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
本明細書で使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1及び第2の要素の参照は、2つの要素のみが採用され得ること又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
本明細書で使用する「判断(決定)(determining)」という用語は、多種多様な動作を包含する場合がある。例えば、「判断(決定)」は、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)などを「判断(決定)」することであるとみなされてもよい。また、「判断(決定)」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)などを「判断(決定)」することであるとみなされてもよい。また、「判断(決定)」は、解決(resolving)、選択(selecting)、選定(choosing)、建立(establishing)、比較(Comparing)などを「判断(決定)」することであるとみなされてもよい。つまり、「判断(決定)」は、何らかの動作を「判断(決定)」することであるとみなされてもよい。
本明細書で使用する「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」と読み替えられてもよい。本明細書で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び/又は光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを使用することにより、互いに「接続」又は「結合」されると考えることができる。
本明細書又は請求の範囲で「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が使用されている場合、これらの用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
以上、本開示について詳細に説明したが、当業者にとっては、本開示が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく校正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。

Claims (14)

  1. ニューラルネットワークに基づくテキスト処理方法であって、
    入力テキストを取得することと、
    ニューラルネットワークに基づいて、複数の異なる処理方法を利用して前記入力テキストの構成文を処理し、前記異なる処理方法に対応する複数の前処理結果を取得することと、
    前記複数の前処理結果に基づいてテキスト処理結果を生成することと、
    前記複数の前処理結果の複数の信頼度を決定し、前記複数の信頼度を利用して前記テキスト処理結果を校正し、校正されたテキスト処理結果を得ることと、
    を含む、テキスト処理方法。
  2. 情報エントロピーによって、前記複数の前処理結果の複数の信頼度を決定する、
    請求項1に記載のテキスト処理方法。
  3. 前記複数の信頼度を利用して前記テキスト処理結果を校正し、校正されたテキスト処理結果を得ることは、
    前記複数の信頼度を利用して前記テキスト処理結果をそれぞれ処理し、複数の中間校正係数を得ることと、
    前記複数の中間校正係数を前記テキスト処理結果に加算して、校正されたテキスト処理結果を得ることと、
    を含む、請求項1に記載のテキスト処理方法。
  4. 前記複数の信頼度を利用して前記テキスト処理結果をそれぞれ処理し、複数の中間校正係数を得ることは、
    前記複数の信頼度を利用して前記複数の前処理結果に対応する複数の校正率を取得し、前記対応する複数の校正率をそれぞれ前記テキスト処理結果と乗算して、前記複数の中間校正係数を取得することを含む、
    請求項3に記載のテキスト処理方法。
  5. 前記ニューラルネットワークに基づいて、複数の異なる処理方法を利用して前記入力テキストの構成文を処理し、前記異なる処理方法に対応する複数の前処理結果を取得することは、
    前記複数の異なる処理方法のそれぞれを利用して前記入力テキストのすべての構成文を処理し、前記複数の異なる処理方法のそれぞれに対応する、すべての構成文のそれぞれの予測文の重みを前記複数の前処理結果として取得することを含む、
    請求項1ないし4のいずれか一項に記載のテキスト処理方法。
  6. 前記複数の前処理結果に基づいてテキスト処理結果を生成することは、
    前記複数の異なる処理方法を利用して前記入力テキストのすべての構成文を分析し、全ての構成文のそれぞれの出力文の重みをテキスト処理結果として取得することを含む、
    請求項1ないし4のいずれか一項に記載のテキスト処理方法。
  7. ニューラルネットワークに基づくテキスト処理装置であって、
    入力テキストを取得する入力テキスト取得ユニットと、
    ニューラルネットワークに基づいて、複数の異なる処理方法を利用して前記入力テキストの構成文を処理し、前記異なる処理方法に対応する複数の前処理結果を取得する前処理結果取得ユニットと、
    前記複数の前処理結果に基づいてテキスト処理結果を生成する生成ユニットと、
    前記複数の前処理結果の複数の信頼度を決定し、前記複数の信頼度を利用して前記テキスト処理結果を校正し、校正されたテキスト処理結果を得る校正ユニットと、
    を備える、テキスト処理装置。
  8. 前記校正ユニットは、情報エントロピーによって、前記複数の前処理結果の複数の信頼度を決定する、
    請求項7に記載のテキスト処理装置。
  9. 前記校正ユニットは、前記複数の信頼度を利用して前記テキスト処理結果をそれぞれ処理し、複数の中間校正係数を取得し、
    前記複数の中間校正係数を前記テキスト処理結果に加算して、校正されたテキスト処理結果を得る、
    請求項7に記載のテキスト処理装置。
  10. 前記校正ユニットは、前記複数の信頼度を利用して前記複数の前処理結果に対応する複数の校正率を取得し、前記対応する複数の校正率をそれぞれ前記テキスト処理結果と乗算して、前記複数の中間校正係数を取得する、
    請求項9に記載のテキスト処理装置。
  11. 前記前処理結果取得ユニットは、前記複数の異なる処理方法のそれぞれを利用して前記入力テキストのすべての構成文を処理し、前記複数の異なる処理方法のそれぞれに対応する、全ての構成文のそれぞれの予測文の重みを前記複数の前処理結果として取得する、
    請求項7ないし10のいずれか一項に記載のテキスト処理装置。
  12. 前記生成ユニットは、前記複数の異なる処理方法を利用して前記入力テキストのすべての構成文を分析し、すべての構成文のそれぞれの出力文の重みをテキスト処理結果として取得する、
    請求項7ないし10のいずれか一項に記載のテキスト処理装置。
  13. ニューラルネットワークに基づくテキスト処理デバイスであって、
    プロセッサと、
    コンピュータ読取可能なプログラム命令を格納したメモリと、
    を備え、
    ここで、前記コンピュータ読取可能なプログラム命令が前記プロセッサによって実行されるとき、ニューラルネットワークに基づくテキスト処理方法が実行され、前記方法は、
    ニューラルネットワークに基づいて、複数の異なる処理方法を利用して前記入力テキストの構成文を処理し、前記異なる処理方法に対応する複数の前処理結果を取得することと、
    前記複数の前処理結果に基づいてテキスト処理結果を生成することと、
    前記複数の前処理結果の複数の信頼度を決定し、前記複数の信頼度を利用して前記テキスト処理結果を校正し、校正されたテキスト処理結果を得ることと、
    を含む、テキスト処理デバイス。
  14. コンピュータ読取可能な命令を格納したコンピュータ読取可能な記憶媒体であって、
    前記コンピュータ読取可能な命令がコンピュータによって実行されるとき、前記コンピュータに、ニューラルネットワークに基づくテキスト処理方法を実行させ、
    前記方法は、
    入力テキストを取得することと、
    ニューラルネットワークに基づいて、複数の異なる処理方法を利用して前記入力テキストの構成文を処理し、前記異なる処理方法に対応する複数の前処理結果を取得することと、
    前記複数の前処理結果に基づいてテキスト処理結果を生成することと、
    前記複数の前処理結果の複数の信頼度を決定し、前記複数の信頼度を利用して前記テキスト処理結果を校正し、校正されたテキスト処理結果を得ることと、
    を含む、コンピュータ読取可能な記憶媒体。

JP2019236686A 2019-05-09 2019-12-26 テキスト処理方法、テキスト処理装置、テキスト処理デバイス及び記憶媒体 Ceased JP2020187726A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910383208.9A CN112000797A (zh) 2019-05-09 2019-05-09 基于神经网络的文本处理方法、设备、装置和存储介质
CN201910383208.9 2019-05-09

Publications (1)

Publication Number Publication Date
JP2020187726A true JP2020187726A (ja) 2020-11-19

Family

ID=73223244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019236686A Ceased JP2020187726A (ja) 2019-05-09 2019-12-26 テキスト処理方法、テキスト処理装置、テキスト処理デバイス及び記憶媒体

Country Status (2)

Country Link
JP (1) JP2020187726A (ja)
CN (1) CN112000797A (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013167985A (ja) * 2012-02-15 2013-08-29 Nomura Research Institute Ltd 談話要約生成システムおよび談話要約生成プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013167985A (ja) * 2012-02-15 2013-08-29 Nomura Research Institute Ltd 談話要約生成システムおよび談話要約生成プログラム

Also Published As

Publication number Publication date
CN112000797A (zh) 2020-11-27

Similar Documents

Publication Publication Date Title
US20190155898A1 (en) Method and device for extracting entity relation based on deep learning, and server
US11494559B2 (en) Hybrid in-domain and out-of-domain document processing for non-vocabulary tokens of electronic documents
US10936645B2 (en) Method and apparatus for generating to-be-played multimedia content
US20220318275A1 (en) Search method, electronic device and storage medium
US11507747B2 (en) Hybrid in-domain and out-of-domain document processing for non-vocabulary tokens of electronic documents
US11836120B2 (en) Machine learning techniques for schema mapping
US11775759B2 (en) Systems and methods for training and evaluating machine learning models using generalized vocabulary tokens for document processing
JP7166350B2 (ja) 対話装置
CN116745758A (zh) 使用基于神经网络的机器学习的智能查询编辑器
US11048612B2 (en) Automatic behavior detection and characterization in software systems
EP4334845A1 (en) Composing human-readable explanations for user navigational recommendations
CN111930891B (zh) 基于知识图谱的检索文本扩展方法及相关装置
JP7087095B2 (ja) 対話情報生成装置
JP7122835B2 (ja) 機械翻訳装置、翻訳学習済みモデル及び判定学習済みモデル
JP2021124913A (ja) 検索装置
JP2020187726A (ja) テキスト処理方法、テキスト処理装置、テキスト処理デバイス及び記憶媒体
CN110569030B (zh) 代码推荐方法及装置
CN114328956B (zh) 文本信息的确定方法、装置、电子设备及存储介质
JP2020184313A (ja) テキスト処理方法、装置、デバイス及び記憶媒体
JP6944594B2 (ja) 対話装置
JP7438191B2 (ja) 情報処理装置
US20220067572A1 (en) Action determination using recommendations based on prediction of sensor-based systems
JP6584622B1 (ja) 文章マッチングシステム
JP2020187729A (ja) テキスト処理方法、装置、デバイス、及び記憶媒体
WO2020166125A1 (ja) 翻訳用データ生成システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211027

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20220726