JP5638503B2 - テキスト要約装置、方法及びプログラム - Google Patents

テキスト要約装置、方法及びプログラム Download PDF

Info

Publication number
JP5638503B2
JP5638503B2 JP2011242529A JP2011242529A JP5638503B2 JP 5638503 B2 JP5638503 B2 JP 5638503B2 JP 2011242529 A JP2011242529 A JP 2011242529A JP 2011242529 A JP2011242529 A JP 2011242529A JP 5638503 B2 JP5638503 B2 JP 5638503B2
Authority
JP
Japan
Prior art keywords
text
parameter
training
unit
summarized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011242529A
Other languages
English (en)
Other versions
JP2013097723A (ja
Inventor
仁 西川
仁 西川
牧野 俊朗
俊朗 牧野
松尾 義博
義博 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2011242529A priority Critical patent/JP5638503B2/ja
Publication of JP2013097723A publication Critical patent/JP2013097723A/ja
Application granted granted Critical
Publication of JP5638503B2 publication Critical patent/JP5638503B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明はテキスト要約装置、テキスト要約方法及びテキスト要約プログラムに関する。
近年、電子化されたテキストが大量に流通するようになってきたことを背景として、それらのテキストに記述されている情報を迅速に把握するために、コンピュータ等の機械によってテキストを要約させる(要約を生成させる)技術に対するニーズが高まっている。
機械によってテキストを要約させる技術では、一般に、要約対象のテキストから、その内容を代表していると思われる文(重要文)、或いは、そのような文の集合(重要文集合)を1つ以上選び出し、それらを連結することで要約が生成される。文、或いは文の集合に対して要約対象のテキストの内容を代表しているか否かを評価する際には、各々の文、或いは文の集合を特徴ベクトルとして表現し、この特徴ベクトルと、予め何らかの方法で推定した重みベクトル(以下、パラメタともいう)と、の内積がスコアとして算出される(例えば非特許文献1も参照)。
また、文、或いは文の集合を表現した特徴ベクトルとの内積を求めるパラメタは、要約対象のテキスト、或いは要約対象のテキストの集合と、それらに対応する要約と、から成るペアの集合(以下、訓練事例という)に基づいて予め学習される。パラメタの学習に際し、パラメタは何らかの誤差関数を最小化するように学習される。
Wen-tau Yih,Joshua Goodman,Lucy Vanderwende and Hisami Suzuki、"Multi-Document Summarization by Maximizing Informative Content-Words."、In Proceedings of International Joint Conference on Artificial Intelligence(IJCAI),2007. Koby Crammer,Ofel Dekel,Joseph Keshet,Shai Shalev-Shwartz and Yoram Singer、"Online Passive-Aggressive Algorithms."、Journal of Machine Learning Research,Vol.7,2006.
しかしながら、テキストを要約する技術で用いるパラメタの学習に際し、例えば非特許文献1に記載の技術では、要約の品質が直接最大化されるようなパラメタの学習を行っておらず、要約に含まれ易い文が高いスコアになるようにパラメタの学習を行っている。機械によって生成された要約の品質を評価するための尺度としては、例えばROUGE(非特許文献2を参照)と称される評価尺度が多用されているが、要約に含まれ易い文が高いスコアになるようにパラメタを学習することと、学習したパラメタを用いて生成した要約のROUGE等の評価尺度が高い値になることには直接関係がなく、パラメタの学習精度に関して改善の余地があった。
本発明は上記事実を考慮して成されたもので、ROUGE等のような要約の品質を評価する評価尺度の値が直接最大化されるようにパラメタを学習できるテキスト要約装置、テキスト要約方法及びテキスト要約プログラムを得ることが目的である。
本発明に係るテキスト要約装置は、テキストと、当該テキストから予め生成された要約と、を対応付けた訓練事例を格納した訓練事例データベースを記憶する第1記憶部と、前記訓練事例に含まれ前記テキストと対応付けられた要約の品質に対する、要約対象のテキストからの要約の生成に用いられるパラメタの更新前の値を用いて、前記訓練事例に含まれる前記テキストから生成された要約の品質の誤差を、要約の品質を評価する評価尺度を用いて求め、前記パラメタの更新前の値を、求めた前記誤差が大きくなる程更新の幅が大きくなるように更新することで、前記パラメタを推定するパラメタ推定部と、を含んで構成されている。
また、本発明において、前記パラメタ推定部は、前記パラメタとしての重みベクトルの更新前の値をwold、前記訓練事例に含まれる前記テキストをx、前記訓練事例に含まれる前記要約をy、前記パラメタとしての重みベクトルの更新前の値を用いて前記訓練事例に含まれる前記テキストxから生成された要約をy'、テキストx及び要約yの特徴ベクトルをf(x,y)、前記評価尺度をROUGE、前記誤差をloss(y';y)としたときに、
であり、
loss(y';y)=1−ROUGE(y';y) …(3)
上記(1)〜(3)式に従って前記パラメタとしての重みベクトルの更新後の値wnewを演算することで前記パラメタを推定することができる。
また、本発明は、前記パラメタ推定部によって推定された前記パラメタを格納するパラメタ・データベースを記憶する第2記憶部と、要約対象のテキストを受け付けるテキスト入力部と、前記テキスト入力部によって受け付けされた前記要約対象のテキストと、前記パラメタ・データベースに格納された前記パラメタと、に基づいて、前記要約対象のテキストの要約を生成するテキスト要約部と、前記テキスト要約部によって生成された要約をテキストとして出力するテキスト出力部と、を更に備えることができる。
本発明に係るテキスト要約方法は、テキスト要約装置が実行するテキスト要約方法であって、テキストと、当該テキストから予め生成された要約と、を対応付けた訓練事例を格納した訓練事例データベースが第1記憶部に記憶された状態で、パラメタ推定部が、前記訓練事例に含まれ前記テキストと対応付けられた要約の品質に対する、要約対象のテキストからの要約の生成に用いられるパラメタの更新前の値を用いて、前記訓練事例に含まれる前記テキストから生成された要約の品質の誤差を、要約の品質を評価する評価尺度を用いて求め、前記パラメタの更新前の値を、求めた前記誤差が大きくなる程更新の幅が大きくなるように更新することで、前記パラメタを推定するパラメタ推定ステップを含んでいる。
本発明に係るテキスト要約プログラムは、コンピュータを、請求項1〜請求項3の何れか1項記載のテキスト要約装置を構成する各手段として機能させる。
本発明は、ROUGE等のような要約の品質を評価する評価尺度の値が直接最大化されるようにパラメタを学習できる、という効果を有する。
実施形態で説明したテキスト要約装置を示すブロック図である。 テキスト要約装置として機能するコンピュータの概略ブロック図である。 テキスト要約処理の概略を示すフローチャートである。 訓練事例データベースに格納される訓練事例の一例を示す図表である。 (A)はテキスト及び要約の一例を示す図表、(B)は(A)に示すテキスト及び要約に対応する特徴ベクトルの一例を示す説明図である。 パラメタ学習処理のアルゴリズムの一例を示すフローチャートである。 パラメタ・データベースの一例を示す図表である。 要約対象のテキストの入力形式の一例を示す図表である。 要約生成処理のアルゴリズムの一例を示すフローチャートである。
以下、図面を参照して本発明の実施形態の一例を詳細に説明する。図1には本実施形態に係るテキスト要約装置10が示されている。テキスト要約装置10は、パラメタ(本実施形態では重みベクトルw)を推定するために必要となる訓練事例を格納した訓練事例データベース12を記憶する第1記憶部14と、訓練事例データベース12に格納された訓練事例を受け付けてパラメタを推定するパラメタ推定部16と、パラメタ推定部16で推定されたパラメタを格納したパラメタ・データベース18を記憶する第2記憶部20と、要約の対象とするテキストを受け付けるテキスト入力部22と、テキスト入力部22で受け付けられた要約対象のテキストとパラメタ・データベース18に格納されたパラメタを入力として要約を生成するテキスト要約部24と、テキスト要約部24によって生成された要約を出力するテキスト出力部26と、を備えている。
テキスト要約装置10は、例えば図2に示すコンピュータ30で実現することができる。コンピュータ30はCPU32、メモリ34、不揮発性の記憶部36、キーボード38、マウス40、ディスプレイ42を備え、これらはバス44を介して互いに接続されている。なお、記憶部36はHDD(Hard Disk Drive)やフラッシュメモリ等によって実現できる。記録媒体としての記憶部36には、コンピュータ30をテキスト要約装置10として機能させるためのテキスト要約プログラム46、訓練事例データベース12、パラメタ・データベース18が各々記憶されている。CPU32は、テキスト要約プログラム46を記憶部36から読み出してメモリ34に展開し、テキスト要約プログラム46が有するプロセスを順次実行する。
テキスト要約プログラム46は、テキスト入力プロセス50、パラメタ推定プロセス52、テキスト要約プロセス54及びテキスト出力プロセス56を有する。CPU32は、テキスト入力プロセス50を実行することで、図1に示すテキスト入力部22として動作する。またCPU32は、パラメタ推定プロセス52を実行することで、図1に示すパラメタ推定部16として動作する。またCPU32は、テキスト出力プロセス56を実行することで、図1に示すテキスト出力部26として動作する。なお、テキスト要約プログラム46は本発明に係るテキスト要約プログラムの一例である。
テキスト要約装置10がコンピュータ30で実現される場合、訓練事例データベース12を記憶する記憶部36は第1記憶部14として用いられ、メモリ34の一部領域は訓練事例データベース12として用いられる。また、パラメタ・データベース18を記憶する記憶部36は第2記憶部20として用いられ、メモリ34の一部領域はパラメタ・データベース18として用いられる。これにより、テキスト要約プログラム46を実行したコンピュータ30が、テキスト要約装置10として機能することになる。
次に本実施形態の作用として、まず図3を参照し、コンピュータ30のCPU32でテキスト要約プログラム46が実行されることで実現されるテキスト要約処理の概略を説明する。テキスト要約処理のステップ60において、パラメタ推定部16は、訓練事例データベース12から訓練事例を受け付け、受け付けた訓練事例に基づいてパラメタの学習を行う(パラメタ学習の詳細は後述)。また、次のステップ62において、パラメタ推定部16は、学習したパラメタをパラメタ・データベース18に格納する。
次のステップ64において、テキスト入力部22は、入力された要約対象のテキストを受け付ける。なお、要約対象のテキストは、例えばキーボード38を介して入力されたテキストでもよいし、例えば記憶部36に予め記憶されたテキストでもよいし、例えば通信回線を介してコンピュータ30と接続された他の機器から受信したテキストでもよい。
また、ステップ66において、テキスト要約部24は、テキスト入力部22によって受け付けされた要約対象のテキストと、パラメタ・データベース18に格納されたパラメタと、から要約を生成する(要約生成の詳細は後述)。
そしてステップ68において、テキスト出力部26は、テキスト要約部24によって生成された要約を外部へ出力する。要約の出力は、例えばディスプレイ42にテキストとして表示してもよいし、要約を読み上げる音声として出力してもよいし、テキストデータとして記録メディアに記録するか他の機器へ送信するようにしてもよい。
また、図3では、パラメタの学習及びパラメタ・データベース18への格納(ステップ60,62)と、要約の生成・出力(ステップ64〜68)と、を一連の処理として示しているが、パラメタの学習及びパラメタ・データベース18への格納を行った後、時間を空けて要約の生成・出力を行ってもよい。
次に、テキスト要約処理の詳細を説明するにあたり、まず、訓練事例データベース12に格納される訓練事例について、図4を参照して説明する。図4には、訓練事例データベース12に格納される訓練事例の一例が示されている。図4において、訓練事例データベース12は、各レコードに1つの訓練事例を各々格納している。訓練事例データベース12の各レコードに格納されているそれぞれの訓練事例は、個々の訓練事例を識別するための事例番号、要約対象のテキスト、及び、当該要約対象のテキストから生成された要約の各情報を含んでいる。なお、訓練事例に含まれる要約は、例えば人手によって作成され、後述するパラメタ(重みベクトルw)の学習における基準として用いることが可能な正しい要約である。
続いて、パラメタ(重みベクトルw)を用いた要約の生成について説明する。要約対象のテキストをx、要約対象のテキストxから生成された要約をyとする。要約対象のテキストxが与えられると、要約対象のテキストxと、要約対象のテキストxから生成された要約yと、から特徴ベクトルf(x,y)が得られる。特徴ベクトルf(x,y)と、パラメタ(重みベクトルw)の内積w・f(x,y)が要約yのスコアである。要約を生成する際には、要約対象のテキストxから生成される要約yのうち、パラメタ(重みベクトルw)と特徴ベクトルf(x,y)の内積w・f(x,y)が最大となる要約yを要約y’として生成する。上記を式で表すと次の(4)式のようになる。
y'=argmax w・f(x,y) …(4)
要約の生成方法の一例については後述するが、任意の要約生成方法を適用することができる。
要約対象のテキストxと当該テキストxから生成された要約yから得られる特徴ベクトルf(x,y)は、各要素が互いに異なる単語に対応し、一例として、要約yが或る単語を含んでいれば対応する要素の値が1、含んでいなければ対応する要素の値が0となるベクトルを適用することができる。図5(A)に示すテキストx及び要約yから得られる特徴ベクトルf(x,y)の一例を図5(B)に示す。図5(A)に示す要約yは「路上」や「強盗」といった単語を含むため、図5(B)に示す特徴ベクトルf(x,y)では、これらの単語に対応する要素の値が1となっている。一方、図5(A)に示す要約yは「道路」や「泥棒」といった単語は含んでいないため、図5(B)に示す特徴ベクトルf(x,y)では、これらの単語に対応する要素の値が0となっている。
次に、パラメタ推定部16によって行われるパラメタの学習を説明する。n個の訓練事例が与えられたと仮定し、そのうちのi番目の訓練事例のテキストをx、要約をyとする。例えば事例番号1のテキストをx1、要約をy1とする。
パラメタの学習に際しては、n個の訓練事例が1つずつ取り上げられる。その時点でのパラメタwの下で、テキストxから生成された要約y’と、人手によって作成された正しい要約yが得られた際に、要約y’の要約としての良さ(品質)は、要約y’を評価するための評価尺度、一例としてROUGEを用い、要約yを基準とした要約y’のROUGEの値(ROUGE(y';y))として算出できる。ROUGEの値は0〜1の範囲であるので、前出の(3)式のように1からROUGEの値を減算することで、要約yを基準(正しい要約)としたときの要約y’の悪さ、すなわち要約yに対する要約y’の誤差が得られる。なお、前出の(3)式では誤差として誤差関数loss(y';y)を用いている。
上記の誤差を減らすようにパラメタを更新できれば、より良い要約を生成できるパラメタを得ることができる。そこで、以下の(5)式のようにパラメタを更新する。
(5)式において、woldは現在(更新前)のパラメタであり、wnewは更新後のパラメタである。上記の(5)式は、パラメタwの変化を最小にしつつ、更新後のパラメタwnewにおいて、正しい要約yのスコアが現在(更新前)のパラメタwoldを用いて生成された要約y’のスコアより必ず大きくなるように、パラメタwを更新している。その際、要約yのスコアから要約y’のスコアを減算した残差が誤差関数loss(y';y)以上となるようにしている。上記の(5)式を解くと、前出のパラメタ更新式((1),(2)式)が得られる。
前出の更新式((1),(2)式)では、現在(更新前)のパラメタwnewを、誤差関数にROUGEを用いて求めた要約yに対する要約y’の誤差が大きくなる程更新の幅が大きくなるように更新しているので、パラメタwの更新に伴ってROUGEの値が直接高くなるようにパラメタwを更新(学習)することができる。
次に図6を参照し、パラメタ推定部16によるパラメタ学習処理(図3に示すテキスト要約処理のステップ60,62の詳細)の具体的なアルゴリズムの一例を説明する。パラメタ学習処理のステップ70において、パラメタ推定部16は、事例番号iが付与された訓練事例に含まれるテキストx及び要約yを訓練事例データベース12からn個(事例番号i=1〜nの訓練事例を)取得する。またステップ72において、パラメタ推定部16は、予め設定された繰り返し回数Tを取得する。次のステップ74において、パラメタ推定部16は、パラメタ(重みベクトルw)を、全ての要素の値が0のベクトルへ初期化する。またステップ76において、パラメタ推定部16は変数tに1を設定し、次のステップ78において、パラメタ推定部16は変数iに1を設定する。
次のステップ80において、パラメタ推定部16は、事例番号iの訓練事例について、現在のパラメタ(重みベクトルw)と特徴ベクトルf(x,y)との内積w・f(x,y)が最大となる要約yを、要約y'として生成する(次の(6)式も参照)。
y'=argmax w・f(x,y) …(6)
次のステップ82において、パラメタ推定部16は、まず前出の(3)式により要約yに対する要約y’の誤差loss(y';y)を演算した後に、前出のパラメタ更新式((1),(2)式)によりパラメタ(重みベクトルw)を更新する。これにより、要約yに対する要約y’の誤差が大きくなる程更新の幅が大きくなるようにパラメタ(重みベクトルw)が更新される。
ステップ84において、パラメタ推定部16は、変数iが先のステップ70で取得した訓練事例の総数n以上になったか否か判定する。ステップ84の判定が否定された場合はステップ86へ移行し、ステップ86において、パラメタ推定部16は変数iを1だけインクリメントした後にステップ80に戻る。これにより、ステップ84の判定が肯定される迄ステップ80〜ステップ86が繰り返され、n個の訓練事例を1つずつ用いてパラメタ(重みベクトルw)の更新(学習)がn回繰り返される。
ステップ84の判定が肯定されるとステップ88へ移行する。ステップ88において、パラメタ推定部16は、変数tが先のステップ72で取得した繰り返し回数T以上になったか否か判定する。ステップ88の判定が否定された場合はステップ90へ移行し、ステップ90において、パラメタ推定部16は変数tを1だけインクリメントした後にステップ78に戻る。これにより、ステップ88の判定が肯定される迄ステップ78〜ステップ90が繰り返され、n個の訓練事例が各々T回ずつ用いられてパラメタ(重みベクトルw)の更新(学習)が繰り返される。これにより、要約の品質を評価する評価尺度であるROUGEの値が直接最大化されるようにパラメタ(重みベクトルw)が更新(学習)される。
ステップ88の判定が肯定されると、パラメタ(重みベクトルw)の更新を終了してステップ92へ移行し、ステップ92において、パラメタ推定部16は、上記処理で更新(学習)されたパラメタ(重みベクトルw)をパラメタ・データベース18に格納し、パラメタ学習処理を終了する。パラメタ・データベース18の一例を図7に示す。パラメタ・データベース18は、各レコードに、或る単語を含んでいるか否か等の「特徴」と、当該特徴の「重み」の各情報が設定されている。図7に示すパラメタ・データベース18における最初のレコードは、単語「道路」を含んでいるという特徴の重みが-0.03であるということを示している。
上述したパラメタ学習処理が行われた後、図3に示すテキスト要約処理のステップ64において、テキスト入力部22は、入力された要約対象のテキストxを受け付ける。テキスト入力部22によって取得されるテキストxの入力形式の一例を図8に示す。図8に示すテキストxの入力形式では、テキストxが一文毎に分割され、更に形態素解析が行われた結果が入力される。図8において、表の各行は各々単一の形態素に対応しており、個々の形態素毎に「表記」「品詞」「読み」及び「標準形」の各情報が付加されている。
続いて図9を参照し、テキスト要約部24による要約生成処理(図3に示すテキスト要約処理のステップ66の詳細)の具体的なアルゴリズムの一例を説明する。要約生成処理のステップ100において、テキスト要約部24は、要約対象のテキストx及び要約長Kをテキスト入力部22から取得する。またステップ102において、テキスト要約部24は、パラメタ・データベース18からパラメタ(重みベクトル)wを取得する。また、ステップ104において、テキスト要約部24は、ステップ100で取得したテキストxを文の集合Uに格納し、次のステップ106において、テキスト要約部24は、要約を表す集合Sを空集合φに初期化する。
ステップ108において、テキスト要約部24は、文の集合Uが空集合φよりも大きいか(文の集合Uに何らかの文が格納されているか)否かを判定する。ステップ108の判定が肯定された場合はステップ110へ移行する。ステップ110において、テキスト要約部24は、文の集合Uに格納されている文の中から、要約の集合Sに文sを入れた時のスコア(=特徴ベクトルfとパラメタwの内積)と要約の集合Sに文sを入れていない時のスコアの差を、文sの長さで除した値が最大の文s(次の(7)式を満たす文s)を選択する。
=arg maxsi∈U((w・f(x,{S,s}−w・f(x,S))/length(s)) …(7)
なお、(7)式において、length(s)は文sの長さである。
次のステップ112において、テキスト要約部24は、要約の集合Sに既に入っている文の長さに、ステップ110で選択した文sの長さを加えた長さが要約長K以下か否か判定する(次の(8)式も参照)。
length({S,s})≦K …(8)
ステップ112の判定が肯定された場合はステップ114へ移行する。ステップ114において、テキスト要約部24は、ステップ110で選択した文sを要約の集合Sに加えた後に(次の(9)式も参照)、ステップ116へ移行する。
S={S,s} …(9)
また、ステップ112の判定が否定された場合は、ステップ114をスキップして(文sを要約の集合Sに加えることなく)ステップ116へ移行する。
ステップ116において、テキスト要約部24は、ステップ110で選択した文sを文の集合Uから除去する(U=U−s)。ステップ116の処理を行うとステップ108に戻り、ステップ108の判定が肯定される迄ステップ108〜ステップ116を繰り返す。文の集合Uが空集合φになると、ステップ108の判定が否定されてステップ118へ移行する。
ステップ118において、テキスト要約部24は、テキストxの文の中で、長さが要約長K以内で、単一の文として最もスコアの高い文sを文vとして選択する(次の(10)式も参照)。
v=arg maxsi∈x:length(si)≦Kw・f(x,s) …(10)
次のステップ120において、テキスト要約部24は、要約の集合Sに入っている文のスコアが、先のステップ118で選択した文vのスコア以上か否か判定する。ステップ120の判定が肯定された場合はステップ122へ移行する。ステップ122において、テキスト要約部24は、要約の集合Sに入っている文をテキストxの要約として出力し、要約生成処理を終了する。また、ステップ120の判定が否定された場合はステップ124へ移行する。ステップ124において、テキスト要約部24は、先のステップ118で選択した文vをテキストxの要約として出力し、要約生成処理を終了する。
上述した要約生成処理のステップ122又はステップ124において、テキスト要約部24によって出力されたテキストxの要約は、図3に示すテキスト要約処理のステップ68において、テキスト出力部26により外部へ出力される。
なお、図9に要約生成処理として示した要約の生成方法は一例であり、本発明におけるパラメタの更新方法は、任意の要約生成方法と組み合わせることが可能である。
また、上記では、要約の品質を評価する評価尺度としてROUGEを用いた態様を説明したが、本発明はこれに限定されるものではなく、ROUGE以外の評価尺度を適用することも可能である。
また、上記では訓練事例データベース12が、コンピュータ30に設けられた記憶部36に記憶されている態様を説明したが、本発明はこれに限定されるものではなく、通信回線を介してコンピュータ30と接続された別のコンピュータに設けられた記憶部に記憶されていてもよい。この場合、パラメタの学習にあたり、テキストx及び要約yを各々含むn個の訓練事例は、通信回線を介して前記別のコンピュータから受信するように構成することができる。また、要約対象のテキストxについても、通信回線を介して前記別のコンピュータから受信する構成であってもよい。
更に、上記では、コンピュータ30がテキスト要約プログラム46を実行することで、コンピュータ30がテキスト要約装置10として機能する態様を説明したが、本発明はこれに限定されるものではなく、図1に示した各機能ブロック(パラメタ推定部16、テキスト入力部22、テキスト要約部24及びテキスト出力部26)は、それぞれハードウェアで構成することも可能である。
また、上記ではテキスト要約プログラム46が記憶部36に予め記憶(インストール)されている態様を説明したが、本発明に係るテキスト要約プログラムは、CD−ROMやDVD−ROM等の記録媒体に記録されている形態で提供することも可能である。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
10 テキスト要約装置
12 訓練事例データベース
14 第1記憶部
16 パラメタ推定部
18 パラメタ・データベース
20 第2記憶部
22 テキスト入力部
24 テキスト要約部
26 テキスト出力部
30 コンピュータ
34 メモリ
36 記憶部
46 テキスト要約プログラム

Claims (5)

  1. テキストと、当該テキストから予め生成された要約と、を対応付けた訓練事例を格納した訓練事例データベースを記憶する第1記憶部と、
    前記訓練事例に含まれ前記テキストと対応付けられた要約の品質に対する、要約対象のテキストからの要約の生成に用いられるパラメタの更新前の値を用いて、前記訓練事例に含まれる前記テキストから生成された要約の品質の誤差を、要約の品質を評価する評価尺度を用いて求め、前記パラメタの更新前の値を、求めた前記誤差が大きくなる程更新の幅が大きくなるように更新することで、前記パラメタを推定するパラメタ推定部と、
    を含むテキスト要約装置。
  2. 前記パラメタ推定部は、前記パラメタとしての重みベクトルの更新前の値をwold、前記訓練事例に含まれる前記テキストをx、前記訓練事例に含まれる前記要約をy、前記パラメタとしての重みベクトルの更新前の値を用いて前記訓練事例に含まれる前記テキストxから生成された要約をy'、テキストx及び要約yの特徴ベクトルをf(x,y)、前記評価尺度をROUGE、前記誤差をloss(y';y)としたときに、


    であり、
    loss(y';y)=1−ROUGE(y';y) …(3)
    上記(1)〜(3)式に従って前記パラメタとしての重みベクトルの更新後の値wnewを演算することで前記パラメタを推定する請求項1記載のテキスト要約装置。
  3. 前記パラメタ推定部によって推定された前記パラメタを格納するパラメタ・データベースを記憶する第2記憶部と、
    要約対象のテキストを受け付けるテキスト入力部と、
    前記テキスト入力部によって受け付けされた前記要約対象のテキストと、前記パラメタ・データベースに格納された前記パラメタと、に基づいて、前記要約対象のテキストの要約を生成するテキスト要約部と、
    前記テキスト要約部によって生成された要約をテキストとして出力するテキスト出力部と、
    を更に備えた請求項1又は請求項2記載のテキスト要約装置。
  4. テキスト要約装置が実行するテキスト要約方法であって、
    テキストと、当該テキストから予め生成された要約と、を対応付けた訓練事例を格納した訓練事例データベースが第1記憶部に記憶された状態で、
    パラメタ推定部が、前記訓練事例に含まれ前記テキストと対応付けられた要約の品質に対する、要約対象のテキストからの要約の生成に用いられるパラメタの更新前の値を用いて、前記訓練事例に含まれる前記テキストから生成された要約の品質の誤差を、要約の品質を評価する評価尺度を用いて求め、前記パラメタの更新前の値を、求めた前記誤差が大きくなる程更新の幅が大きくなるように更新することで、前記パラメタを推定するパラメタ推定ステップ
    を含むテキスト要約方法。
  5. コンピュータを、請求項1〜請求項3の何れか1項記載のテキスト要約装置を構成する各手段として機能させるためのテキスト要約プログラム。
JP2011242529A 2011-11-04 2011-11-04 テキスト要約装置、方法及びプログラム Active JP5638503B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011242529A JP5638503B2 (ja) 2011-11-04 2011-11-04 テキスト要約装置、方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011242529A JP5638503B2 (ja) 2011-11-04 2011-11-04 テキスト要約装置、方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2013097723A JP2013097723A (ja) 2013-05-20
JP5638503B2 true JP5638503B2 (ja) 2014-12-10

Family

ID=48619566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011242529A Active JP5638503B2 (ja) 2011-11-04 2011-11-04 テキスト要約装置、方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5638503B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6059598B2 (ja) * 2013-05-21 2017-01-11 日本電信電話株式会社 情報抽出方法、情報抽出装置及び情報抽出プログラム
JP6018545B2 (ja) * 2013-05-22 2016-11-02 日本電信電話株式会社 イベント情報抽出装置、その動作方法およびコンピュータプログラム
JP6170891B2 (ja) * 2014-09-16 2017-07-26 日本電信電話株式会社 重みベクトル学習装置、要約生成装置、方法、及びプログラム
JP6152199B1 (ja) * 2016-06-28 2017-06-21 ヤフー株式会社 生成装置、生成方法、及び生成プログラム
JP2019160071A (ja) * 2018-03-15 2019-09-19 Jcc株式会社 要約作成システム、及び要約作成方法
JP7137815B2 (ja) * 2018-04-19 2022-09-15 Jcc株式会社 録画再生システム
JP7099254B2 (ja) * 2018-10-31 2022-07-12 富士通株式会社 学習方法、学習プログラム及び学習装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003108571A (ja) * 2001-09-28 2003-04-11 Seiko Epson Corp 文書要約装置、文書要約装置の制御方法、文書要約装置の制御プログラムおよび記録媒体
JP2003248676A (ja) * 2002-02-22 2003-09-05 Communication Research Laboratory 解データ編集処理装置、解データ編集処理方法、自動要約処理装置、および自動要約処理方法
US7725442B2 (en) * 2007-02-06 2010-05-25 Microsoft Corporation Automatic evaluation of summaries
JP2009116770A (ja) * 2007-11-09 2009-05-28 Sony Corp データ処理装置および方法、プログラム、並びに記録媒体
JP5235918B2 (ja) * 2010-01-21 2013-07-10 日本電信電話株式会社 テキスト要約装置、テキスト要約方法及びテキスト要約プログラム

Also Published As

Publication number Publication date
JP2013097723A (ja) 2013-05-20

Similar Documents

Publication Publication Date Title
JP5638503B2 (ja) テキスト要約装置、方法及びプログラム
CN101996232B (zh) 信息处理装置和用于处理信息的方法
JP6231944B2 (ja) 学習モデル作成装置、判定システムおよび学習モデル作成方法
JP5294086B2 (ja) 重み係数学習システム及び音声認識システム
JPWO2010125736A1 (ja) 言語モデル作成装置、言語モデル作成方法、およびプログラム
JP6365032B2 (ja) データ分類方法、データ分類プログラム、及び、データ分類装置
JP5623369B2 (ja) テキスト要約装置、方法及びプログラム
JP2019139010A (ja) 音声認識精度劣化要因推定装置、音声認識精度劣化要因推定方法、プログラム
JP5678836B2 (ja) オノマトペ自動生成システム
JP5437204B2 (ja) 言語モデル処理装置および音声認識装置、ならびにプログラム
JP6971181B2 (ja) 予測装置、予測方法、およびプログラム
CN110517656B (zh) 歌词节奏生成方法、设备、存储介质及装置
US20210330241A1 (en) A computer-implemented method, an apparatus and a computer program product for determining an updated set of words for use in an auditory verbal learning test
JP6648549B2 (ja) 変異情報処理装置、方法及びプログラム
JP5008137B2 (ja) 単語ベクトル生成装置、単語ベクトル生成方法、プログラムおよびプログラムを記録した記録媒体
JP2014232145A (ja) ポーズ付与モデル選択装置とポーズ付与装置とそれらの方法とプログラム
JP4405542B2 (ja) 音素モデルをクラスタリングする装置、方法およびプログラム
JP7265837B2 (ja) 学習装置および学習方法
JP2021184217A (ja) モデル生成プログラム、モデル生成装置、及びモデル生成方法
JP5462748B2 (ja) データ可視化装置、データ変換装置、方法、及びプログラム
JP5244452B2 (ja) 文書特徴表現計算装置、及びプログラム
JP2020140674A (ja) 回答選択装置及びプログラム
JP2007249050A (ja) 言語モデル作成装置、言語モデル作成方法、そのプログラムおよびその記録媒体
JP5824430B2 (ja) スパム特徴算出装置、スパム特徴算出方法、及びプログラム
US12033658B2 (en) Acoustic model learning apparatus, acoustic model learning method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140513

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141022

R150 Certificate of patent or registration of utility model

Ref document number: 5638503

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150