JP2016161967A - パラメタ学習装置、テキスト要約装置、方法、及びプログラム - Google Patents

パラメタ学習装置、テキスト要約装置、方法、及びプログラム Download PDF

Info

Publication number
JP2016161967A
JP2016161967A JP2015037056A JP2015037056A JP2016161967A JP 2016161967 A JP2016161967 A JP 2016161967A JP 2015037056 A JP2015037056 A JP 2015037056A JP 2015037056 A JP2015037056 A JP 2015037056A JP 2016161967 A JP2016161967 A JP 2016161967A
Authority
JP
Japan
Prior art keywords
evaluation
text
parameter
unit
candidates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015037056A
Other languages
English (en)
Inventor
仁 西川
Hitoshi Nishikawa
仁 西川
俊朗 牧野
Toshiaki Makino
俊朗 牧野
義博 松尾
Yoshihiro Matsuo
義博 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015037056A priority Critical patent/JP2016161967A/ja
Publication of JP2016161967A publication Critical patent/JP2016161967A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】テキストを適切に要約するためのパラメタを学習する装置、テキスト要約装置、方法及びプログラムを提供する。【解決手段】要約評価部30が、パラメタを用いてテキストを要約し、n個の要約候補を取得して、要約候補の各々を複数の評価尺度で評価する。パラメタ更新部32が、複数の評価尺度から形成されるパレート境界上の解となる要約候補を正例とみなして、パラメタを更新し、反復判定部34が、要約評価部30の要約及び評価と、パラメタ更新部32の更新とを繰り返す。【選択図】図1

Description

本発明は、パラメタ学習装置、テキスト要約装置、方法、及びプログラムに係り、特に、テキストを要約するためのパラメタ学習装置、テキスト要約装置、方法、及びプログラムに関する。
近年、電子化されたテキストが大量に流通するようになった。そのため、それらのテキストに記述されている情報を迅速に把握するため、機械にテキストを要約させる技術が求められている。
現在、テキストを機械に要約させる際には、要約の対象となるテキストの内容を代表していると思われる文(以下、重要文と称する)の集合(以下、重要文集合と称する)をテキストから1つ以上選び出し、それらを適切に並び替え連結することによって要約が作られることが多い(特許文献1参照)。
また、文あるいは文の集合に対してスコアを与える際には、それぞれの文あるいは文の集合を特徴ベクトルとして表現し、特徴ベクトルと予め何らかの方法で推定した重みベクトル(以下、パラメタと称する)との内積を計算することによってスコアを求めることができる。文あるいは文の集合を表現した特徴ベクトルとの内積を求めるパラメタは、要約の対象とするテキストあるいはテキスト集合と、それらに対する要約からなるペアの集合(以下、訓練事例と称する)を利用して予め学習しておく必要がある。学習の際には、パラメタは、何らかの誤差関数を最小化するように学習することができる(特許文献2参照)。
特許第5523929号公報 特許第5638503号公報 特開2014−225158号公報
Chin-Yew Lin. "ROUGE: A Package for Automatic Evaluation of Summaries." Text Summarization Branches Out: Proceedings of the ACL-04 Workshop. pp. 74-81, 2004.
一方で、特許文献2記載の方法は、単一の評価尺度に対してパラメタを最適化しているに過ぎない。自動要約の目的を考えると、一例として、人手によって作成された正解となる要約をどれくらい模倣できたか、という要約の内容に関する評価尺度(非特許文献1参照)と共に、要約の読みやすさを評価する尺度も考慮してパラメタが最適化されるべきである。要約の内容及び要約の読みやすさのいずれも考慮した目的関数を用意して要約を行う方法もある(特許文献3参照)。しかし、特許文献3記載の方法も、あくまで2つの目的関数を線形結合しているに過ぎず、それらの重みを何らかの評価尺度に従って最適化しなければいけないという問題から逃れられるものではない。
本発明は、上記問題点を解決するために成されたものであり、テキストを適切に要約するためのパラメタを学習することができるパラメタ学習装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係るパラメタ学習装置は、テキストを要約するためのパラメタを用いて、入力テキストを要約し、スコアが上位n個の要約候補を取得し、前記要約候補の各々について、複数の評価尺度で評価する要約評価部と、前記要約評価部により前記要約候補の各々について評価された複数の評価尺度に基づいて、前記要約候補のうち、複数の評価尺度から形成されるパレート境界上の解となる要約候補を正例とみなして、前記パラメタを更新するパラメタ更新部と、予め定められた反復終了条件を満たすまで、前記要約評価部による要約及び評価と、前記パラメタ更新部による更新とを繰り返す反復判定部と、を含んで構成されている。
また、第1の発明に係るパラメタ学習装置において、前記複数の評価尺度は、予め定められた参照要約に基づいて要約に含まれる単語を評価する尺度、及び要約の読みやすさを評価する尺度を含むようにしてもよい。
第2の発明に係るテキスト要約装置は、 上記のパラメタ学習装置により更新された前記パラメタを用いて、入力されたテキストを要約するテキスト要約部を含んで構成されている。
第3の発明に係るパラメタ学習方法は、要約評価部と、パラメタ更新部と、反復判定部とを含むパラメタ学習装置におけるパラメタ学習方法であって、前記要約評価部が、テキストを要約するためのパラメタを用いて、入力テキストを要約し、スコアが上位n個の要約候補を取得し、前記要約候補の各々について、複数の評価尺度で評価するステップと、前記パラメタ更新部が、前記要約評価部により前記要約候補の各々について評価された複数の評価尺度に基づいて、前記要約候補のうち、複数の評価尺度から形成されるパレート境界上の解となる要約候補を正例とみなして、前記パラメタを更新するステップと、前記反復判定部が、予め定められた反復終了条件を満たすまで、前記要約評価部による要約及び評価と、前記パラメタ更新部による更新とを繰り返すステップと、を含んで実行することを特徴とする。
第4の発明に係るプログラムは、コンピュータを、上記のパラメタ学習装置又はテキスト要約装置の各部として機能させるためのプログラムである。
本発明のパラメタ学習装置、方法、及びプログラムによれば、テキストを要約し、n個の要約候補を取得し、要約候補の各々を複数の評価尺度で評価し、複数の評価尺度から形成されるパレート境界上の解となる要約候補を正例とみなして、パラメタを更新することを繰り返すことにより、テキストを適切に要約するためのパラメタを学習することができる、という効果が得られる。
また、本発明のテキスト要約装置、及びプログラムによれば、パレート境界の解となる要約候補を正例とみなして更新されたパラメタを用いて、テキストを適切に要約することができる、という効果が得られる。
本発明の実施の形態に係るパラメタ学習装置の構成を示すブロック図である。 訓練事例データベース8の一例を示す図である。 パラメタデータベース40の一例を示す図である。 本発明の実施の形態に係るテキスト要約装置の構成を示すブロック図である。 入力テキストの一例を示す図である。 テキスト解析の一例を示す図である。 本発明の実施の形態に係るパラメタ学習装置におけるパラメタ学習処理ルーチンの内容を示すフローチャートである。 本発明の実施の形態に係るテキスト要約装置におけるテキスト要約処理ルーチンの内容を示すフローチャートである。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態に係る概要>
まず、本発明の実施の形態における概要を説明する。上述した問題点に対処するため、本実施の形態では、複数の評価尺度によって形成されるパレート境界を考慮し、パレート境界に存在する解に向けてパラメタを最適化することを提案する。本実施の形態に係る手法を用いることによって、複数の尺度を線形結合し何らかの尺度に従ってそれぞれを重みづけることなく、複数の尺度を考慮した最適化を行うことができる。これによって、開発セットなどを利用することによってそれぞれの尺度を重みづけるといった手間を省くだけでなく、より頑健なパラメタが得られることが期待される。
<本発明の実施の形態に係るパラメタ学習装置の構成>
次に、本発明の実施の形態に係るパラメタ学習装置の構成について説明する。図1に示すように、本発明の実施の形態に係るパラメタ学習装置100は、CPUと、RAMと、後述するパラメタ学習処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。このパラメタ学習装置100は、機能的には図1に示すように入力部10と、演算部20と、出力部50とを備えている。
入力部10は、訓練事例データベース8の入力を受け付ける。訓練事例データベース8は、入力テキストとその参照要約のペアからなる1つ以上の訓練事例を格納している。参照要約とは、例えば、人手など、何らかの方法で作成された、入力テキストとの対応関係をもつ要約である。図2に訓練事例データベースの一例を示す。
演算部20は、要約評価部30と、パラメタ更新部32と、反復判定部34と、パラメタデータベース40とを含んで構成されている。
要約評価部30は、訓練事例の各々に対して、テキストを要約するためのパラメタを用いて、当該訓練事例における入力テキストを要約し、スコアが上位n個の要約候補を取得し、要約候補の各々について、複数の評価尺度で評価する。
要約評価部30は、具体的には、まず、受け付けた訓練事例データベース8に格納されている訓練事例を1つ取得し、予め定めたテキストを要約するためのパラメタを用いて、例えば特許文献3に記載の要約方法によって訓練事例における入力テキストの要約を行い、スコアが上位n個の要約候補を取得する。ここで、パラメタはパラメタデータベース40に格納されており、後述する反復判定部34により処理を繰り返す度に、更新されたパラメタを読み出して用いるものとする。なお、パラメタの初期値は、事前に別の訓練事例で学習したパラメタや、値を人手あるいはランダムで設定したものなどを用いればよい。
要約評価部30は、次に、n個の要約候補について、複数の評価尺度でそれぞれ評価し、評価尺度スコアを算出する。評価尺度には、一例として、参照要約に基づいて要約に含まれる単語を評価する尺度、又は要約の読みやすさを評価する尺度などを用いればよい。要約に含まれる単語を評価する尺度は、上記非特許文献1に記載されている、参照要約とシステム要約(要約部32により得られた要約候補)との間で共通する単語のNグラム数に着目した評価法であるROUGEなどが挙げられる。ROUGEにおいては、共起の度合いの大きい単語を重要な単語とみなすことができる。要約の読みやすさを評価する尺度としては、特許文献4(特開2014−067094号公報)に記載の文書の可読性を評価する尺度などが挙げられる。なお、ROUGEの値を計算する際には、取得した訓練事例の参照要約を用いればよい。
パラメタ更新部32は、訓練事例の各々に対して、要約評価部30により要約候補の各々について評価された複数の評価尺度に基づいて、当該訓練事例における要約候補のうち、複数の評価尺度から形成されるパレート境界の解となる要約候補を正例とみなして、パラメタを更新する。
具体的には、パラメタ更新部32は、以下に説明するように、複数の評価尺度スコアが付与されたn個の要約候補から、パレート境界を求める。パレート境界を求める際には一例として非特許文献2(Kevin Duh, Katsuhito Sudoh, Xianchao Wu, Hajime Tsukada, and Masaaki Nagata. "Learning to Translate with Multiple Objectives." In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics, pages 1−10, 2012.)記載の方法を用いることができる。例えば、要約評価部30により算出されたn個の要約候補に対する複数の評価尺度スコアに基づいて、各要約候補がパレート境界上の解であるか否かを識別し、パレート境界上の解となる要約候補を求めるようにすればよい。ここで、パレート境界上の解の定義を説明する。要約候補H1のスコアベクトルをM(H1)で表わし、要約候補H2のスコアベクトルをM(H2)で表す。スコアベクトルの各評価尺度の値が高いほど、よい要約であると考えられる。もしM(H1)の全ての評価尺度がM(H2)の全ての評価尺度より大きければ、要約候補H1はすべての評価尺度で、要約候補H2より良い要約であるといえる。逆に、スコアベクトルM(H1)のすべての評価尺度と比べてスコアベクトルM(H2)の全ての評価尺度が大きい場合、要約候補H1より要約候補H2の方が良い要約といえる。しかし、ある評価尺度はスコアベクトルM(H1)の方が高く、他の評価尺度はM(H2)の方が高い時、要約候補H1とH2はどちらが良い要約かは一概にいえない。このとき、n個の要約候補において、他の要約候補の中にその要約候補よりも全ての評価尺度が高いものが存在しない場合に、その要約候補はパレート境界上の解である。なお、パレート境界の代わりに、パレート境界を構成する一部の解からなる凸包を求め、凸包をパレート境界の代わりに用いてもよい。
パラメタ更新部32は、次に、パレート境界上の解となる少なくとも1つの要約候補を正例とみなしてパラメタデータベース40に格納されているパラメタを更新する。パラメタの更新には、一例として、非特許文献3(Mark Hopkins and Jonathan May. "Tuning as Ranking." In Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, pp. 1352−1362, 2011.)記載のMERTを用いることができる。具体的には、以下に説明するように、正例と負例を学習事例として2値分類器を学習し、学習された2値分類器に基づいてパラメタを更新する。ここでは、パレート境界上の解の集合をX={x,x,...,x,...,x}とし、パレート境界上にない解の集合をY={y,y,...,y,...,y}とする。また、解の特徴ベクトルを得る関数をfとする。例えば、解xの特徴ベクトルはf(x)である。次に、パレート境界上の解の集合とそうでない解の集合の組み合わせから学習事例を生成する。まず、正例として、パレート境界上の解の特徴ベクトルからパレート境界上にない解の特徴ベクトルを引いたものを、(f(x)−f(y))として作成する。このとき、m個の全てのパレート境界上の解のそれぞれに対して、n個のパレート境界上にない解のそれぞれとの組み合わせを考え、(f(x)−f(y)),(f(x)−f(y)),...,(f(x)−f(y))というように学習事例を生成してもよいし、一例として非特許文献5記載の方法などによってサンプリングを行ってもよい。同様に負例として、パレート境界上にない解の特徴ベクトルからパレート境界上の解の特徴ベクトルを引いたものを、(f(y)−f(x))として作成する。このとき、n個の全てのパレート境界上にない解のそれぞれに対して、m個のパレート境界上の解のそれぞれとの組み合わせを考え、(f(y)−f(x)),(f(y)−f(x)),...,(f(y)−f(x))というように学習事例を生成してもよいし、一例として上記非特許文献3記載の方法などによってサンプリングを行ってもよい。以上のようにして生成した正例と負例を学習事例として2値分類器を学習し、学習された2値分類器に基づいて、パラメタを更新する。
また、パラメタ更新部32におけるパラメタ更新に用いる特徴量には、一例として非特許文献4(Hitoshi Nishikawa, Kazuho Arita, Katsumi Tanaka, Tsutomu Hirao, Toshiro Makino and Yoshihiro Matsuo. "Learning to Generate Coherent Summary with Discriminative Hidden Semi-Markov Model." In Proceedings of the 25th International Conference on Computational Linguistics: Technical Papers, pp.1648-1659, 2014.)記載の、単語、固有表現、及び一文の長さなどを利用することができる。ここで、特徴量を抽出するためには、例えば、要約部30で得た要約候補の各々について、形態素解析及び係り受け解析の処理を行えばよい。形態素解析は、非特許文献5(Takeshi Fuchi and Shinichiro Takagi. "Japanese Morphological Analyzer using Word Co-occurrence - JTAG." In Proceedings of the 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computational Linguistics (Volume 1), pp. 409-413, 1998.)記載の手法により行えばよい。また、係り受け解析は、非特許文献6(Kenji Imamura, Genichiro Kikui and Norihito Yasuda. "Japanese Dependency Parsing Using Sequential Labeling for Semi-spoken Language."In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 225-228, 2007.)記載の手法により行えばよい。
反復判定部34は、要約評価部30及びパラメタ更新部32の処理を、訓練事例データベース8に格納されている全ての訓練事例について繰り返す。また、反復判定部34は、全ての訓練事例について要約評価部30及びパラメタ更新部32の処理を繰り返す一連の処理を、既定の回数、あるいは、パラメタ更新の際に得られる損失関数の値(例えば、評価尺度がc(0≦1)である場合、損失関数は1−cである。)が一定以上となる訓練事例がなくなるなど、予め定められた反復終了条件を満たすまで繰り返す。
図3に、最終的に得られたパラメタを格納したパラメタデータベース40の一例を示す図3は、「当時」「日本」「京都」などの、各単語を特徴量として用いた場合であり、パラメタ更新の結果得られた、各単語の特徴量である重みがパラメタとして格納されている。
<本発明の実施の形態に係るテキスト要約装置の構成>
次に、本発明の実施の形態に係るテキスト要約装置の構成について説明する。図4に示すように、本発明の実施の形態に係るテキスト要約装置200は、CPUと、RAMと、後述するテキスト要約処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。このテキスト要約装置200は、機能的には図4に示すようにテキスト入力部210と、演算部220と、テキスト出力部250とを備えている。
テキスト入力部210は、要約の対象となるテキストの入力を受け付ける。図5に入力されたテキストの一例を示す。
演算部220は、テキスト解析部230と、テキスト要約部232と、パラメタデータベース240とを含んで構成されている。
パラメタデータベース240には、パラメタ学習装置100のパラメタ更新により最終的に得られたパラメタデータベース40と同じものが記憶されている。
テキスト解析部230は、テキスト入力部210で受け付けたテキストに対して形態素解析および係り受け解析の処理を加える。それぞれ、形態素解析に上記非特許文献5記載の手法を、係り受け解析に上記非特許文献6記載の手法を利用することができる。図6に、テキスト解析部で解析されたテキストの一例を示す。図6では、テキスト入力部210で受け付けたテキストに対して解析が行われている。図6のmから始まる行は形態素解析の結果として得られた、わかち書き及び形態素の品詞情報、cから始まる行は、係り受け解析の結果として得られた文節及び分節の係り受けの情報である。この例では、係り受け解析器は「康平6年(1063年)」という文節が次の「8月に」という文節にかかり、また「8月に」という文節は「8月」という形態素と「に」という形態素に分かれることが示されている。なお、形態素解析および係り受け解析の結果が予め付与されたテキストを入力として受け付けてもよい。この場合には、テキスト解析部230は不要である。
テキスト要約部232は、テキスト解析部230で解析されたテキストと、パラメタデータベース240に記憶されたパラメタとに基づいて、テキスト入力部210で受け付けたテキストを要約する。一例として、上記特許文献3記載の方法を用いて、テキストから一文を選択し、選択した一文を要約として出力すればよい。
テキスト出力部250は、テキスト要約部232で生成された要約文を出力する。
<本発明の実施の形態に係るパラメタ学習装置の作用>
次に、本発明の実施の形態に係るパラメタ学習装置100の作用について説明する。入力部10において訓練データベース8を受け付けると、パラメタ学習装置100は、図7に示すパラメタ学習処理ルーチンを実行する。
まず、ステップS100では、入力部10において受け付けた訓練データベース8から訓練事例を1つ取得する。
次に、ステップS102では、ステップS100で取得した訓練事例について、パラメタデータベース40に格納されたパラメタを用いて、訓練事例における入力テキストの要約を行う。
ステップS104では、ステップS102による要約結果からスコアが上位n個の要約候補を取得する。
ステップS106では、ステップS104で取得された要約候補の各々について、訓練事例における参照要約を用いて、複数の評価尺度で評価する。
ステップS108では、ステップS106において、要約候補の各々について評価された複数の評価尺度に基づいて、要約候補のうち、複数の評価尺度から形成されるパレート境界上の解となる要約候補を求める。
ステップS110では、ステップS108で求められたパレート境界上の解となる要約候補を正例とみなして、パラメタデータベース40のパラメタを更新する。
ステップS112では、全ての訓練事例について処理を終了したかを判定し、終了していればステップS114へ移行し、終了していなければステップS100へ移行して次の訓練事例を取得して処理を繰り返す。
ステップS114では、予め定められた反復終了条件を満たすかを判定し、満たしていれば処理を終了し、満たしていなければ、ステップS116へ移行する。
ステップS116では、反復回数kをk=k+1としてステップS100へ移行して、再び、全ての訓練事例に対する反復処理を繰り返す。
以上説明したように、本実施の形態に係るパラメタ学習装置によれば、パラメタを用いて訓練事例の入力文書を要約し、n個の要約候補を取得し、要約候補の各々を複数の評価尺度で評価し、複数の評価尺度から形成されるパレート境界上の解となる要約候補を正例とみなして、パラメタデータベース40のパラメタを更新することを繰り返すことにより、テキストを適切に要約するためのパラメタを学習することができる。
<本発明の実施の形態に係るテキスト要約装置の作用>
次に、本発明の実施の形態に係るテキスト要約装置200の作用について説明する。テキスト入力部210においてテキストを受け付けると、テキスト要約装置200は、図8に示すテキスト要約処理ルーチンを実行する。
まず、ステップS200では、テキスト入力部210において受け付けたテキストを取得する。
そして、ステップS201では、ステップS200で取得したテキストに対して形態素解析及び係り受け解析を行う。
次に、ステップS202では、パラメタデータベース240に格納されているパラメタと、ステップS201の解析結果とに基づいて、ステップS200で取得したテキストを要約する。
そして、ステップS204では、ステップS202で得たテキストの要約をテキスト出力部250に出力して処理を終了する。
以上説明したように、本実施の形態に係るパラメタ学習装置によれば、パレート境界上の解となる要約候補を正例とみなして更新されたパラメタを用いて、テキストを適切に要約することができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
また、要約候補を評価する際に訓練事例の参照要約を用いる場合を例に説明したが、これに限定されるものではなく、参照要約を用いない複数の評価尺度で要約候補を評価する場合には、訓練事例に参照要約が含まれていなくてもよい。
8 訓練事例データベース
10 入力部
20、220 演算部
30 要約評価部
30 要約部
32 パラメタ更新部
32 要約部
34 反復判定部
40 パラメタデータベース
50 出力部
100 パラメタ学習装置
200 テキスト要約装置
210 テキスト入力部
230 テキスト解析部
232 テキスト要約部
240 パラメタデータベース
250 テキスト出力部

Claims (5)

  1. テキストを要約するためのパラメタを用いて、入力テキストを要約し、スコアが上位n個の要約候補を取得し、前記要約候補の各々について、複数の評価尺度で評価する要約評価部と、
    前記要約評価部により前記要約候補の各々について評価された複数の評価尺度に基づいて、前記要約候補のうち、複数の評価尺度から形成されるパレート境界上の解となる要約候補を正例とみなして、前記パラメタを更新するパラメタ更新部と、
    予め定められた反復終了条件を満たすまで、前記要約評価部による要約及び評価と、前記パラメタ更新部による更新とを繰り返す反復判定部と、
    を含むパラメタ学習装置。
  2. 前記複数の評価尺度は、予め定められた参照要約に基づいて要約に含まれる単語を評価する尺度、及び要約の読みやすさを評価する尺度を含む請求項1に記載のパラメタ学習装置。
  3. 請求項1又は2に記載のパラメタ学習装置により更新された前記パラメタを用いて、入力されたテキストを要約するテキスト要約部
    を含むテキスト要約装置。
  4. 要約評価部と、パラメタ更新部と、反復判定部とを含むパラメタ学習装置におけるパラメタ学習方法であって、
    前記要約評価部が、テキストを要約するためのパラメタを用いて、入力テキストを要約し、スコアが上位n個の要約候補を取得し、前記要約候補の各々について、複数の評価尺度で評価するステップと、
    前記パラメタ更新部が、前記要約評価部により前記要約候補の各々について評価された複数の評価尺度に基づいて、前記要約候補のうち、複数の評価尺度から形成されるパレート境界上の解となる要約候補を正例とみなして、前記パラメタを更新するステップと、
    前記反復判定部が、予め定められた反復終了条件を満たすまで、前記要約評価部による要約及び評価と、前記パラメタ更新部による更新とを繰り返すステップと、
    を含むパラメタ学習方法。
  5. コンピュータを、請求項1若しくは請求項2に記載のパラメタ学習装置又は請求項3に記載のテキスト要約装置の各部として機能させるためのプログラム。
JP2015037056A 2015-02-26 2015-02-26 パラメタ学習装置、テキスト要約装置、方法、及びプログラム Pending JP2016161967A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015037056A JP2016161967A (ja) 2015-02-26 2015-02-26 パラメタ学習装置、テキスト要約装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015037056A JP2016161967A (ja) 2015-02-26 2015-02-26 パラメタ学習装置、テキスト要約装置、方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2016161967A true JP2016161967A (ja) 2016-09-05

Family

ID=56845064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015037056A Pending JP2016161967A (ja) 2015-02-26 2015-02-26 パラメタ学習装置、テキスト要約装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2016161967A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156473A (ja) * 2017-03-17 2018-10-04 ヤフー株式会社 解析装置、解析方法、およびプログラム
JP2019053558A (ja) * 2017-09-15 2019-04-04 ヤフー株式会社 学習装置、学習方法、学習プログラム、第1のモデルおよび第2のモデル
US11517825B2 (en) 2020-09-30 2022-12-06 International Business Machines Corporation Autonomic cloud to edge compute allocation in trade transactions

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156473A (ja) * 2017-03-17 2018-10-04 ヤフー株式会社 解析装置、解析方法、およびプログラム
JP2019053558A (ja) * 2017-09-15 2019-04-04 ヤフー株式会社 学習装置、学習方法、学習プログラム、第1のモデルおよび第2のモデル
US11517825B2 (en) 2020-09-30 2022-12-06 International Business Machines Corporation Autonomic cloud to edge compute allocation in trade transactions

Similar Documents

Publication Publication Date Title
CN108363790B (zh) 用于对评论进行评估的方法、装置、设备和存储介质
CN108647205B (zh) 细粒度情感分析模型构建方法、设备及可读存储介质
Miura et al. TeamX: A sentiment analyzer with enhanced lexicon mapping and weighting scheme for unbalanced data
JP2004110161A (ja) テキスト文比較装置
TWI567569B (zh) Natural language processing systems, natural language processing methods, and natural language processing programs
JP6291443B2 (ja) 接続関係推定装置、方法、及びプログラム
CN107729925A (zh) 对程序竞赛型源代码按照解题方法做自动分类与评分的方法
CN114528845A (zh) 异常日志的分析方法、装置及电子设备
JP5441937B2 (ja) 言語モデル学習装置、言語モデル学習方法、言語解析装置、及びプログラム
JP2016161967A (ja) パラメタ学習装置、テキスト要約装置、方法、及びプログラム
CN108664464B (zh) 一种语义相关度的确定方法及确定装置
CN110263321B (zh) 一种情感词典构建方法及系统
JP5973986B2 (ja) 翻訳システム、方法、及びプログラム
CN114139537A (zh) 词向量的生成方法及装置
CN113157888A (zh) 支持多知识来源的询问答复方法、装置和电子设备
CN116775497A (zh) 数据库测试用例生成需求描述编码方法
CN102622405B (zh) 基于语言实义单元数估计的短文本间文本距离的计算方法
Kusakin et al. Classification of Short Scientific Texts
JP6564709B2 (ja) 文書き換え装置、方法、及びプログラム
JP6368633B2 (ja) 用語意味学習装置、用語意味判定装置、方法、及びプログラム
CN110633474B (zh) 一种数学算式识别方法、装置、设备及可读存储介质
CN114547321A (zh) 一种基于知识图谱的答案生成方法、装置及电子设备
Tammewar et al. Can distributed word embeddings be an alternative to costly linguistic features: A study on parsing hindi
CN110852112A (zh) 词向量嵌入方法及装置
CN111694945A (zh) 基于神经网络的法条关联推荐方法及装置