JP6667875B2 - 要約文作成モデル学習装置、要約文作成装置、要約文作成モデル学習方法、要約文作成方法、及びプログラム - Google Patents

要約文作成モデル学習装置、要約文作成装置、要約文作成モデル学習方法、要約文作成方法、及びプログラム Download PDF

Info

Publication number
JP6667875B2
JP6667875B2 JP2017039546A JP2017039546A JP6667875B2 JP 6667875 B2 JP6667875 B2 JP 6667875B2 JP 2017039546 A JP2017039546 A JP 2017039546A JP 2017039546 A JP2017039546 A JP 2017039546A JP 6667875 B2 JP6667875 B2 JP 6667875B2
Authority
JP
Japan
Prior art keywords
sentence
compressed
creation
unit
oracle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017039546A
Other languages
English (en)
Other versions
JP2018147102A (ja
Inventor
平尾 努
努 平尾
駿 長谷川
駿 長谷川
学 奥村
学 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Tokyo Institute of Technology NUC
Original Assignee
Nippon Telegraph and Telephone Corp
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Tokyo Institute of Technology NUC filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017039546A priority Critical patent/JP6667875B2/ja
Publication of JP2018147102A publication Critical patent/JP2018147102A/ja
Application granted granted Critical
Publication of JP6667875B2 publication Critical patent/JP6667875B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、計算機を用いて自動的に言語を処理する自然言語処理分野に属し、特に、入力された1文を計算機を用いて自動的に要約するための要約文作成モデル学習装置、要約文作成装置、要約文作成モデル学習方法、要約文作成方法、及びプログラムに関する。
自動文要約技術は、入力された文を計算機を用いて要約する技術であり、自動要約技術の一種としてとらえられる。文要約技術は、大きく2種類に分けることができる。1つ目は、抽出型文要約であり、2つ目は、生成型文要約である。
抽出型文要約とは、単語、文節等の文を構成する言語の基本単位を文法性を損なわぬよう入力文から抜き出す技術である。多くの場合、入力文を構文木として表現し、その構文木を刈り込むことで文を要約する(例えば、非特許文献1を参照)。この技術により、構文の解析に誤りがない限り、概ね人間が受容可能な要約文(文法及び意味の制約を満たす文)を得ることができる。
しかし、抽出型要約では、文法(構文木)という制約のもとで単語(日本語の場合は文節の場合もある)といった言語単位を抽出する際には、所望の長さ(例えば、文字数)まで文を要約することが困難な場合がある。
一方、生成型文要約とは、文字通り、入力文を手がかりとして要約文を生成する手法である。入力文の単語、句等を手がかりとはするものの、「言語」を生成する手法であるため、入力文の中のある表現に対し、その意味を保ちつつ、より短い表現を生成できる等、抽出型文要約よりも、より短い要約文を生成できる可能性がある。
しかし、上述した生成型文要約では、計算機における言語生成技術の有効性は限定的であり、どのような入力文に対しても人間が受容可能な要約文が生成されるとは限らない。
K. Filippova and M. Strube. "Dependency tree based sentence compression". In Proceedings of the 5th International Natural Language Generation Conference, 2008. A. M. Rush, S. Chopra and J. Weston. "A neural attention model for sentence summarization". In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing (EMNLP), 2015.
近年、生成型文要約は、ニューラルネットワークを利用することで急激に発展している。例えば、非特許文献2では、新聞記事の1文目を要約したものがヘッドラインであると仮定し、記事の1文目とその正解要約文(記事のヘッドライン)というペアを大量に集め、ニューラルネットワークを利用し文要約モデルを学習する。具体的には、入力である記事1文目の単語系列から、正解要約文の単語系列を予測するモデルを学習する。基本的には、出力単語を1語ずつ生成(予測)する際に、入力文のどの単語を重要視したか、これまでにどのような単語を出力したか、を考慮したモデルである。
ここで、文の要約という性質上、記事の1文目はその正解要約文よりも長い。つまり、文字数及び単語数とも正解要約文のそれらよりも十分多いことに注意すると、記事の1文目を入力として要約文を出力するニューラルネットワークの学習は、下記(A)及び(B)に示す2つの操作を同時に学習することになる。
(A)入力文から不要な表現を取り除く。
(B)入力文中の表現から新たな表現を生成する。
特に、入力の系列が長い場合、長距離の単語の依存関係を考慮しつつ出力する単語を生成しなければならないため、不要な表現が多く含まれるとニューラルネットワークの学習がうまくいくとは限らない。
現在のニューラルネットワークに陽にこれら2つの操作を行う機構が備わっているとは言えず、入力文から不要な表現を取り除くとう操作に対しては、現在提案されている最新のニューラルネットワークモデルにも取り入れられてはいない。
本発明は、ニューラルネットワークを用いた生成型文要約において要約文をより生成しやすくする要約文生成モデル学習装置、要約文作成装置、要約文生成モデル学習方法、要約文作成方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明の要約文作成モデル学習装置は、1文からなる参考文と前記参考文の正解要約文との組の集合を入力とし、前記参考文について、単語又は文節の係り受け関係を示す係り受け木を作成し、前記係り受け木の部分木のうち、前記参考文と共通して前記正解要約文に含まれる内容語を全て含む最小の係り受け木に基づいて、オラクル圧縮文を抽出し、前記正解要約文と前記オラクル圧縮文との組の集合を作成する訓練データ作成部と、前記オラクル圧縮文と前記正解要約文との組の集合に基づき、前記オラクル圧縮文から正解要約文を作成するための要約文作成モデルを学習する要約文作成モデル学習部と、を含む。
なお、前記訓練データ作成部は、前記正解要約文と共通して含まれる前記内容語がない前記参考文については、前記オラクル圧縮文の抽出を行わないようにしても良い。
上記目的を達成するために、本発明の要約文作成装置は、1文からなる対象文を入力とし、前記対象文を文圧縮する文圧縮部と、前記文圧縮部により文圧縮された前記対象文、及び、請求項1又は2記載の要約文作成モデル学習装置によって学習された要約文作成モデルに基づいて、前記対象文の要約文を作成するデコード部と、を含む。
なお、前記文圧縮部は、単一の文圧縮モデル又は複数の文圧縮モデルを用いて複数の圧縮文候補を出力し、前記デコード部は、前記圧縮文候補のうちの少なくとも1つの前記圧縮文候補、及び前記要約文作成モデルに基づいて、前記対象文の要約文を作成する
ようにしても良い。
上記目的を達成するために、本発明の要約文作成モデル学習方法は、訓練データ作成部、及び要約文作成モデル学習部を備えた要約文学習装置における要約文学習方法であって、前記訓練データ作成部が、1文からなる参考文と前記参考文の正解要約文との組の集合を入力とし、前記参考文について、単語又は文節の係り受け関係を示す係り受け木を作成し、前記係り受け木の部分木のうち、前記参考文と共通して前記正解要約文に含まれる内容語を全て含む最小の係り受け木に基づいて、オラクル圧縮文を抽出し、前記正解要約文と前記オラクル圧縮文との組の集合を作成するステップと、前記要約文作成モデル学習部が、前記オラクル圧縮文と前記正解要約文との組の集合に基づき、前記オラクル圧縮文から正解要約文を作成するための要約文作成モデルを学習するステップと、を含む。
上記目的を達成するために、本発明のプログラムは、コンピュータを、上記要約文作成モデル学習装置又は上記要約文作成装置の各部として機能させるためのプログラムである。
本発明によれば、ニューラルネットワークを用いた生成型文要約において要約文をより生成しやすくすることが可能となる。
実施形態に係る要約文作成装置の機能的な構成を示すブロック図である。 実施形態に係る要約文作成装置のモデル作成部の構成を示すブロック図である。 実施形態に係る要約文作成装置における訓練データ作成部の処理を説明するための模式図である。 実施形態に係る要約文作成モデル学習処理の流れを示すフローチャートである。 実施形態に係る要約文作成処理の流れを示すフローチャートである。
以下、本実施形態について図面を用いて説明する。
図1は、本実施形態に係る要約文作成装置10の機能的な構成を示すブロック図である。図1に示すように、第1実施形態に係る要約文作成装置10は、モデル作成部12、デコード部14、及び、文圧縮部20を備えている。また、モデル作成部12は、訓練データ作成部16、及び、要約文作成モデル学習部18を備えている。
モデル作成部12は、入力として、1文からなる参考文(例えば、記事の1文目)と、参考文の要約文である正解要約文との組の集合を取得し、取得した上記組の集合を用いて要約文作成モデルを学習し、学習した要約文作成モデルを出力する。
訓練データ作成部16は、モデル作成部12が取得した参考文と参考文の正解要約文との組の集合を入力とし、参考文について、単語又は文節の係り受け関係を示す係り受け木を作成し、係り受け木の部分木のうち、正解要約文に含まれる内容語を含む最小の係り受け木に基づいて、オラクル圧縮文を抽出し、正解要約文と前記オラクル圧縮文との組の集合を生成する。
具体的には、図2に示すように、訓練データ作成部16は、単語分割部16a、係り受け解析部16b、及び、オラクル圧縮文抽出部16cを備えている。訓練データ作成部16は、参考文と正解要約文との組の集合内に含まれる参考文と正解要約文との組の各々に対し、下記(1)乃至(3)に示す処理を行う。
(1)単語分割部16aが、参考文及び正解要約文の各々を単語に分割し、各単語の品詞を判定する。各文の単語への分割方法、及び品詞の判定方法としては、例えば既存の形態素解析器を用いることが挙げられる。
(2)係り受け解析部16bが、単語に分割された参考文の各単語について、単語間あるいは文節間の係り受け関係を取得し、単語あるいは文節をノードとした係り受け木を作成する。係り受け関係の同定方法としては、例えば既存の係り受け解析器を用いることが挙げられる。
(3)オラクル圧縮文抽出部16cが、上記処理(1)及び(2)を行って得られた係り受け木から、正解要約文と共通して含まれる内容語(名詞、動詞、形容詞、及び副詞)を全て含む参考文の最小の係り受け木(オラクル圧縮文)を抽出する。すなわち、正解要約文に含まれる内容語の全てが係り受け木に含まれる場合には、当該内容語の全て含む参考文の最小の係り受け木をオラクル圧縮文として抽出する。また、正解要約文に含まれる内容語の一部のみが係り受け木に含まれる場合には、当該内容語の一部を全て含む参考文の最小の係り受け木をオラクル圧縮文として抽出する。
一例として図3に示すように、正解要約文30が、「山田駐英大使が病気のため一時帰国」であって、参考文40が、「在英日本大使館は、山田太郎駐英大使が病気のため一時帰国し京都府内の病院に入院したと発表した。」であった場合について考える。
この場合、正解要約文における内容語を含む文節32は、「山田駐英大使が」、「病気のため」、及び「一時帰国」となる。また、係り受け解析部16bは、単語分割部16aにより単語に分割された参考文40に基づいて、「発表した。」、「在英日本大使館は、」、「入院したと」、「帰国し」、「山田太郎駐英外資が」、「病気のため」、「一時」、「病院に」、及び「京都府内の」の文節44をノードした係り受け木42を作成する。
オラクル圧縮文抽出部16cは、係り受け木42から、内容語を含む文節(図3の参考文40及び係り受け木42において、下線で示した文節)32を含む最小の部分木46を抽出し、抽出した部分木46に基づいて、「山田太郎駐英大使が病気のため一時帰国し入院したと発表」とのオラクル圧縮文50を作成する。
なお、上記処理(3)において正解要約文に含まれる内容語が1つも参考文に含まれない場合、オラクル圧縮文を作成できないため、当該参考文に対する本処理(3)をスキップする。
訓練データ作成部16は、上記処理(1)乃至(3)の手順により参考文から抽出されたオラクル圧縮文を用いて、オラクル圧縮文と正解要約文との組の集合を要約文作成モデル学習部18に引き渡す。
要約文作成モデル学習部18は、入力として、オラクル圧縮文と正解要約文との組の集合を取得し、オラクル圧縮文から正解要約文を作成する要約文作成モデルを学習する。このモデルの学習方法としては、例えば、上記非特許文献2に開示されているニューラルネットワークモデルを用いる方法が挙げられる。
デコード部14は、上述した要約文作成モデルを用いて、対象文の要約文を出力する。
文圧縮部20は、要約文の作成の対象とする、1文からなる対象文を取得し、対象文を文圧縮する。すなわち、要約文作成モデルはオラクル圧縮文を用いて学習したモデルである。そのため、デコード部14は、入力とする対象文を、文圧縮部20で文圧縮した後に、対象文の要約文を作成する。文圧縮部20では、既存の如何なる文圧縮モデルを用いても良い。
また、文圧縮部20は、単一の文圧縮モデルを用いて予め定めた数(例えば、k個)の圧縮文候補を出力し、各々の圧縮文候補を機械学習手法を用いてランキングする機能を備え、デコード部14が、圧縮文候補のうちの少なくとも1つの圧縮文候補(例えば、最尤の候補)を入力とする機能を備えていても良い。これにより、作成される要約文の質が向上することが見込まれる。
また、同様に、文圧縮部20は、複数の文圧縮モデルを用いて得た予め定めた数(例えば、k個)の圧縮文候補を出力し、各々の圧縮文候補を機械学習手法を用いてランキングする機能を備え、デコード部14が、圧縮文候補のうちの少なくとも1つの圧縮文候補(例えば、最尤の候補)を入力とする機能を備えていても良い。これにより、作成される要約文の質の向上が見込まれる。そこで、デコード部14が上述した機能を備えていても良い。
なお、本実施形態に係る要約文作成装置10は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、各種プログラムを記憶するROM(Read Only Memory)を備えたコンピュータ装置で構成される。また、要約文作成装置10を構成するコンピュータは、ハードディスクドライブ、不揮発性メモリ等の記憶部を備えていても良い。本実施形態では、CPUがROM、ハードディスク等の記憶部に記憶されているプログラムを読み出して実行することにより、上記のハードウェア資源とプログラムとが協働し、上述した機能が実現される。
本実施形態に係る要約文作成装置10による要約文作成モデル学習処理の流れを、図4に示すフローチャートを用いて説明する。本実施形態では、要約文作成装置10に、要約文作成モデル学習処理の実行を開始するための予め定めた情報が入力されたタイミングで要約文作成モデル学習処理が開始されるが、要約文作成モデル学習処理が開始されるタイミングはこれに限らず、例えば、参考文と正解要約文との組の集合が入力されたタイミングで要約文作成モデル学習処理が開始されても良い。
ステップS101では、単語分割部16aが、1文からなる参考文と、参考文の正解要約文との組の集合を入力する。
ステップS103では、係り受け解析部16bが、参考文と正解要約文との組の各々について、参考文及び正解要約文の各々を、単語に分解し、各単語の品詞を取得する。
ステップS105では、係り受け解析部16bが、参考文の単語に基づき、参考文の各々について、単語又は文節の係り受け関係を示す係り受け木を作成する。
ステップS107では、オラクル圧縮文抽出部16cが、参考文と正解要約文との組の各々について、作成した係り受け木の部分木のうち、正解要約文と共通して含まれる内容語を全て含む最小の係り受け木に基づいて、参考文からオラクル圧縮文を抽出する。
ステップS109では、要約文作成モデル学習部18が、オラクル圧縮文と正解要約文との組の集合に基づき、オラクル圧縮文から正解要約文を生成するための要約文生成モデルを学習する
ステップS111では、学習された要約文作成モデルを出力し、本学習処理のプログラムの実行を終了する。なお、本実施形態では、学習された要約文作成モデルを示すデータを外部装置に出力したり、学習された要約文作成モデルを示すデータを記憶手段に記憶させたりすることにより、要約文作成モデルを出力する。
このように、本実施形態では、1文からなる参考文と参考文の正解要約文との組の集合を入力とし、参考文について、単語又は文節の係り受け関係を示す係り受け木を作成し、係り受け木の部分木のうち、参考文と共通して正解要約文に含まれる内容語を全て含む最小の係り受け木に基づいて、オラクル圧縮文を抽出し、正解要約文とオラクル圧縮文との組の集合を生成する。また、オラクル圧縮文と正解要約文との組の集合に基づき、オラクル圧縮文から正解要約文を生成するための要約文生成モデルを学習する。
次に、本実施形態に係る要約文作成装置10による要約文作成処理の流れを、図5に示すフローチャートを用いて説明する。本実施形態では、要約文作成装置10に、要約文作成処理の実行を開始するための予め定めた情報が入力されたタイミングで要約文作成処理が開始されるが、要約文作成処理が開始されるタイミングはこれに限らず、例えば、対象文が入力されたタイミングで要約文作成処理が開始されても良い。
ステップS201では、文圧縮部20が、1文からなる対象文を入力する。
ステップS203では、文圧縮部20が、予め定めた文圧縮モデルを用いて、対象文を文圧縮する。
ステップS205では、デコード部14が、文圧縮された対象文、及び、学習された要約文作成モデルに基づいて、対象文の要約文を作成する。
ステップS207では、デコード部14が、作成された要約文を出力し、本要約文作成処理のプログラムの実行を終了する。なお、本実施形態では、作成された要約文をディスプレイ等の表示手段に表示させたり、作成された要約文を示すデータを記憶手段に記憶させたりすることにより、作成された要約文を出力する。
このように、本実施形態では、対象文を入力とし、対象文を文圧縮し、文圧縮された対象文、及び、学習された要約文生成モデルに基づいて、対象文の要約文を生成する。これにより、ニューラルネットワークを利用した生成型要約において、「入力分から不要な表現を取り除く」という操作を前処理として陽にシステムに取り込む、つまり、長距離の単語の依存関係を取り除くことで、ニューラルネットワークを用いた生成型文要約において要約文をより生成しやすくすることが可能となる。
なお、本実施形態では、図1及び図2に示す機能の構成要素の動作をプログラムとして構築し、要約文作成装置10として利用されるコンピュータにインストールして実行させるが、これに限らず、ネットワークを介して流通させても良い。
また、構築されたプログラムをハードディスク、CD−ROM等の可搬記憶媒体に格納し、コンピュータにインストールしたり、配布したりしても良い。
10 要約文作成装置
12 モデル作成部
14 デコード部
16 訓練データ作成部
18 要約文作成モデル学習部
20 文圧縮部

Claims (6)

  1. 1文からなる参考文と前記参考文の正解要約文との組の集合を入力とし、前記参考文について、単語又は文節の係り受け関係を示す係り受け木を作成し、前記係り受け木の部分木のうち、前記参考文と共通して前記正解要約文に含まれる内容語を全て含む最小の係り受け木に基づいて、オラクル圧縮文を抽出し、前記正解要約文と前記オラクル圧縮文との組の集合を作成する訓練データ作成部と、
    前記オラクル圧縮文と前記正解要約文との組の集合に基づき、前記オラクル圧縮文から正解要約文を作成するための要約文作成モデルを学習する要約文作成モデル学習部と、
    を含む要約文作成モデル学習装置。
  2. 前記訓練データ作成部は、前記正解要約文と共通して含まれる前記内容語がない前記参考文については、前記オラクル圧縮文の抽出を行わない
    請求項1記載の要約文作成モデル学習装置。
  3. 1文からなる対象文を入力とし、前記対象文を文圧縮する文圧縮部と、
    前記文圧縮部により文圧縮された前記対象文、及び、請求項1又は2記載の要約文作成モデル学習装置によって学習された要約文作成モデルに基づいて、前記対象文の要約文を作成するデコード部と、
    を含む要約文作成装置。
  4. 前記文圧縮部は、単一の文圧縮モデル又は複数の文圧縮モデルを用いて複数の圧縮文候補を出力し、
    前記デコード部は、前記圧縮文候補のうちの少なくとも1つの前記圧縮文候補、及び前記要約文作成モデルに基づいて、前記対象文の要約文を作成する
    請求項3記載の要約文作成装置。
  5. 訓練データ作成部、及び要約文作成モデル学習部を備えた要約文学習装置における要約文学習方法であって、
    前記訓練データ作成部が、1文からなる参考文と前記参考文の正解要約文との組の集合を入力とし、前記参考文について、単語又は文節の係り受け関係を示す係り受け木を作成し、前記係り受け木の部分木のうち、前記参考文と共通して前記正解要約文に含まれる内容語を全て含む最小の係り受け木に基づいて、オラクル圧縮文を抽出し、前記正解要約文と前記オラクル圧縮文との組の集合を作成するステップと、
    前記要約文作成モデル学習部が、前記オラクル圧縮文と前記正解要約文との組の集合に基づき、前記オラクル圧縮文から正解要約文を作成するための要約文作成モデルを学習するステップと、
    を含む要約文作成モデル学習方法。
  6. コンピュータを、請求項1又は2記載の要約文作成モデル学習装置の各部、又は請求項3又は4記載の要約文作成装置の各部として機能させるためのプログラム。
JP2017039546A 2017-03-02 2017-03-02 要約文作成モデル学習装置、要約文作成装置、要約文作成モデル学習方法、要約文作成方法、及びプログラム Active JP6667875B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017039546A JP6667875B2 (ja) 2017-03-02 2017-03-02 要約文作成モデル学習装置、要約文作成装置、要約文作成モデル学習方法、要約文作成方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017039546A JP6667875B2 (ja) 2017-03-02 2017-03-02 要約文作成モデル学習装置、要約文作成装置、要約文作成モデル学習方法、要約文作成方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018147102A JP2018147102A (ja) 2018-09-20
JP6667875B2 true JP6667875B2 (ja) 2020-03-18

Family

ID=63591360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017039546A Active JP6667875B2 (ja) 2017-03-02 2017-03-02 要約文作成モデル学習装置、要約文作成装置、要約文作成モデル学習方法、要約文作成方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6667875B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11556696B2 (en) 2021-03-15 2023-01-17 Avaya Management L.P. Systems and methods for processing and displaying messages in digital communications

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9336186B1 (en) * 2013-10-10 2016-05-10 Google Inc. Methods and apparatus related to sentence compression
JP2015090622A (ja) * 2013-11-06 2015-05-11 日本電信電話株式会社 短縮文生成装置、方法、及びプログラム

Also Published As

Publication number Publication date
JP2018147102A (ja) 2018-09-20

Similar Documents

Publication Publication Date Title
CN106776544B (zh) 人物关系识别方法及装置和分词方法
CN111753531A (zh) 一种基于人工智能的文本纠错方法、装置、计算机设备及存储介质
Gómez-Adorno et al. Improving feature representation based on a neural network for author profiling in social media texts
EP2950306A1 (en) A method and system for building a language model
CN111563367A (zh) 基于FocalGAN的短文本自动生成方法、装置、设备及存储介质
CN108133014B (zh) 基于句法分析和聚类的三元组生成方法、装置及用户终端
CN109815497B (zh) 基于句法依存的人物属性抽取方法
JP2019191900A (ja) 言語特徴の抽出装置、固有表現の抽出装置、抽出方法、及びプログラム
JP6775465B2 (ja) 対話ルール照合装置、対話装置、対話ルール照合方法、対話方法、対話ルール照合プログラム、及び対話プログラム
JP6667875B2 (ja) 要約文作成モデル学習装置、要約文作成装置、要約文作成モデル学習方法、要約文作成方法、及びプログラム
JP5911931B2 (ja) 述語項構造抽出装置、方法、プログラム、及びコンピュータ読取り可能な記録媒体
Saloot et al. Toward tweets normalization using maximum entropy
Banga et al. Tagging efficiency analysis on part of speech taggers
JP6564709B2 (ja) 文書き換え装置、方法、及びプログラム
JP2015046183A (ja) 対話装置、方法、及びプログラム
Lee et al. Syllable-based Malay word stemmer
JP2018077604A (ja) 機能記述からの実現手段・方法の侵害候補を自動特定する人工知能装置
Gurusamy et al. Stemming techniques for tamil language
Jose et al. Lexical normalization model for noisy SMS text
JP5718407B2 (ja) 対話パターン抽出装置、対話装置、方法、及びプログラム
Szabó et al. Efficiency analysis of inflection rule induction
JP2019087058A (ja) 文章中の省略を特定する人工知能装置
KR20100072841A (ko) 대용어 복원 방법
Kalpana et al. Precognition of Content by Interpreting Human Language into Computer Automated Data Processing
JP6674411B2 (ja) 発話生成装置、発話生成方法、及び発話生成プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170307

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20181206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200217

R150 Certificate of patent or registration of utility model

Ref document number: 6667875

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250