JP6558852B2 - 節同定装置、方法、及びプログラム - Google Patents

節同定装置、方法、及びプログラム Download PDF

Info

Publication number
JP6558852B2
JP6558852B2 JP2015218710A JP2015218710A JP6558852B2 JP 6558852 B2 JP6558852 B2 JP 6558852B2 JP 2015218710 A JP2015218710 A JP 2015218710A JP 2015218710 A JP2015218710 A JP 2015218710A JP 6558852 B2 JP6558852 B2 JP 6558852B2
Authority
JP
Japan
Prior art keywords
clause
score function
unit
score
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015218710A
Other languages
English (en)
Other versions
JP2017091101A (ja
Inventor
康久 吉田
康久 吉田
林 克彦
克彦 林
平尾 努
努 平尾
永田 昌明
昌明 永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015218710A priority Critical patent/JP6558852B2/ja
Publication of JP2017091101A publication Critical patent/JP2017091101A/ja
Application granted granted Critical
Publication of JP6558852B2 publication Critical patent/JP6558852B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、文中の節を同定する節同定装置、方法、及びプログラムに関する。
従来技術には、節の同定を系列タギングの問題として捉えるものと文を構文解析した結果である構文木から節を同定する2つの方法がある。以降では、N個の単語からなる文S=[w1, w2, ? ? ? , wN ]を考える。
<CRFを使った節の同定方法>
Conditional Random Field (CRF)(非特許文献1参照)を使った節の同定方法では、各単語wiに対し、節の始まり(B-S)、節の範囲内(I-S)、節の範囲外(O-S)の3種類のタグを付与する。例えば、図3では“He became a student”と“he recieved a grant”の2つの節があり、節の先頭の単語にはB-S、それ以外の単語にはI-Sが振られ、節の範囲外の単語にはO-Sが振られる。
N個の単語からなる文では、3N個のタグ系列がありえるが、CRF ではそれぞれのタグ系列aに対し、スコア関数f(a)を用いてスコアを付与する。スコア関数が所与の元で、Viterbiアルゴリズムを用いると最適なタグ系列はO(32N)で求めることができる。なお、スコア関数f(a)は学習データを用いて学習することができる。
<PCFGを使った節の同定方法>
Probabilistic Context Free Grammer (PCFG)を使った節の同定方法は以下の2ステップから構成される。
(ステップ1):PCFGを用いて文に対し構文解析を行ない、構文木を得る。
(ステップ2):得られた構文木より、節に相当する S または SBAR の部分木を用いて節を同定する(SまたはSBARがネストした場合は一番下のものを選ぶ)。
ステップ1では、N個の単語からなる文に対し、PCFG によるスコア関数g(b)を用いて最適化な構文木を得る。スコア関数が所与の元で、Viterbiアルゴリズムを用いると最適な構文木はO(N3) で求めることができ る。なお、スコア関数g(b)は学習データを用いて学習することができる。ステップ2の操作をextract-clauses 関数とこれ以降呼ぶ。
具体例を挙げる。図4は“He became a student and he received a grant.”という文に対し、ステップ1を実行し得られた構文木である。この構文木にはSまたはSBARは3箇所あるが、ステップ2ではSまたはSBARがネストした場合はextract-clauses関数により、一番下のものを選択するので、“He became a student”と“he received a grant”の2箇所を節と同定する。
McCallum, A.: Efficiently inducing features of conditional random fields. In: Proc. 19th Conference on Uncertainty in Artificial Intelligence. (2003)
識別モデルであるCRFを用いた方法は、様々な特徴量を自由に取り込めるという利点があるが、構文木のような再帰的な構造は見ることができないという欠点がある。生成モデルであるPCFGを用いた方法は構文木を考慮することができるため、節の内部にどのような部分構文木がきやすいかといった情報を取り込める利点があるが、生成モデルであるため、識別モデルと比較すると取り込める周囲の情報は制限されているという欠点があった。
本発明は、上記の事情を鑑みてなされたもので、文中の節を精度よく同定することができる節同定装置、方法、及びプログラムを提供することを目的とする。
上記の目的を達成するために本発明の節同定装置は、文の各単語に付与される、節に関するタグのタグ系列のスコアを算出するための第1スコア関数を用いて、CRF(Conditional Random Field)に従って、入力文中の節を同定するCRF節同定部と、文を表す構文木のスコアを算出するための第2スコア関数を用いて、PCFG(Probabilistic Context Free Grammer)に従って、入力文を表す最適な構文木を求め、前記入力文中の節を同定するPCFG節同定部と、前記CRF節同定部による節の同定結果と、前記PCFG節同定部による節の同定結果とを比較した結果に基づいて、前記第1スコア関数及び前記第2スコア関数の各々を修正するスコア関数修正部と、予め定められた反復終了条件を満たすまで、前記CRF節同定部による同定、前記PCFG節同定部による同定、及び前記スコア関数修正部による修正を繰り返す反復終了判定部と、を含んで構成されている。
本発明の節同定方法は、CRF節同定部、PCFG節同定部、スコア関数修正部、及び反復終了判定部を含む節同定装置における節同定方法であって、前記CRF節同定部が、文の各単語に付与される、節に関するタグのタグ系列のスコアを算出するための第1スコア関数を用いて、CRF(Conditional Random Field)に従って、入力文中の節を同定し、前記PCFG節同定部が、文を表す構文木のスコアを算出するための第2スコア関数を用いて、PCFG(Probabilistic Context Free Grammer)に従って、入力文を表す最適な構文木を求め、前記入力文中の節を同定し、前記スコア関数修正部が、前記CRF節同定部による節の同定結果と、前記PCFG節同定部による節の同定結果とを比較した結果に基づいて、前記第1スコア関数及び前記第2スコア関数の各々を修正し、前記反復終了判定部が、予め定められた反復終了条件を満たすまで、前記CRF節同定部による同定、前記PCFG節同定部による同定、及び前記スコア関数修正部による修正を繰り返す。
本発明のプログラムは、コンピュータを、本発明の節同定装置の各部として機能させるためのプログラムである。
以上説明したように、本発明の節同定装置、方法、及びプログラムによれば、CRFに従って、入力文中の節を同定し、PCFGに従って、入力文を表す最適な構文木を求め、前記入力文中の節を同定し、同定結果を比較した結果に基づいて、CRFの第1スコア関数及びPCFGの第2スコア関数の各々を修正することを繰り返すことにより、文中の節を精度よく同定することができる、という効果が得られる。
本発明の実施の形態の節同定装置の一構成例を示すブロック図である。 節を同定する処理のアルゴリズムの一例を示す図である。 ラベル系列の一例を示す図である。 構文木の一例を示す図である。 本発明の実施の形態の節同定装置における節同定処理ルーチンの内容を示すフローチャートである。 実験結果を示す図である。
<本発明の実施の形態の概要>
まず、本発明の実施の形態の概要について説明する。本発明の実施の形態は、文中の節の同定方法に関する。この技術は、双対分解を用いることにより、Conditional Random Field (CRF) とProbabilistic Context Free Grammer (PCFG) の両方の出力を同時に考慮し、より高精度に文中の節の範囲を同定する技術である。
<節同定装置のシステム構成>
以下、図面を参照して本発明の実施の形態を詳細に説明する。図1は、本発明の実施の形態の節同定装置100を示すブロック図である。節同定装置100は、CPUと、RAMと、節同定処理ルーチンを実行するためのプログラムを記憶したROMとを備えたコンピュータで構成され、機能的には次に示すように構成されている。
本実施の形態の節同定装置100は、図1に示すように、入力部10と、演算部30と、出力部40とを備えている。
入力部10は、学習データの入力を受け付ける。また、入力部10は、形態素解析済みの入力文の入力を受け付ける。なお、学習データは、複数の文の各々に対して用意された、当該文の各単語に付与された、節に関するラベル(B-S、I-S、O-S)のラベル系列の正例と、当該文を表わす構文木の正例とを含む。
演算部30は、スコア関数学習部31、32、初期化部33、CRF節同定部34、PCFG節同定部35、反復終了判定部36、及びスコア関数修正部37を備えている。
<節を同定する原理>
ここで、文中の節を同定する原理について説明する。
本発明の実施の形態では、双対分解(非特許文献2を参照)を用いることで、CRFを使った節の同定方法から得られた出力とPCFGを使った節の同定方法から得られた出力との合意が得られるまでスコア関数を少しずつ修正し、合意が得られたらその時点の系列と構文木を出力する。図2に示すAlgorithm1が、節を同定する処理の概要である。
[非特許文献2]:Alexander M. Rush and Michael Collins. 2012. A tutorial on dual decomposition and lagrangian relaxation for inference in natural language processing. J. Artif. Int. Res. 45, 1 (September 2012), 305-362.
表記について説明する。関数dual-decompsitionはN個の単語からなる文Sを入力とする。
は文Sに対し、可能なタグ系列集合 (GEN-SEQ)の中から引数の第1スコア関数を用いて最適化なタグ系列を返す関数であり、
は文Sに対し、可能な構文木集合 (GEN-TREE) の中から引数の第2スコア関数を用いて最適化な構文木を返す関数である。変数a(i, j)はi番目の単語wiから始まり、j番目の単語wjで終わるタグの部分系列が節であれば1を、そうでなければ0を表わす。変数b(i,j)はi番目の単語wiから始まり、j番目の単語wjで終わる構文木の部分木が節であれば1を、そうでなければ0を表わす。変数uk(i,j)∈Rは、k回目のiterationでの合意の度合いを表わす変数である。
Algorithm1について説明する。Algorithm1では、文Sと最大のiteration回数Kを引数に取り、スコアが最大となるタグ系列aK、構文木bKの組を返す。まず、変数u0(i, j)を全て0に初期化する。次に、第1スコア関数f(・)及び変数uk(i, j)を考慮した上でスコアが最大になるタグ系列 akと、第2スコア関数g(・)及び変数uk (i, j)を考慮した上でスコアが最大になる構文木 bkとをそれぞれViterbiアルゴリズムで得る(変数uk(i, j)が追加されているが、通常の動的計画法の方法でViterbiアルゴリズムを動かすことができる)。
タグ系列aKから得られた節と、extract-clauses関数を用いて構文木bKから得られた節とが同じ場合、タグ系列aK、構文木bKの組を返す。得られた節が同じでなかった場合、ステップ幅αkを用いて新たな変数 uk+1(i, j)を得る(図2の8行目参照)。また、K回のiterationが終わってもタグ系列aKから得られた節とextract-clauses関数を用いて構文木bKから得られた節とが同じにならない場合、iteration K回目時点でのタグ系列aK、構文木bKの組を返す。
Algorithm1の計算量について説明する。Algorithm1では、最大K回のiteration中において最適なタグ系列と最適な構文木を探すためにO(N)+O(N3)=O(N3)の計算量がかかることから全体では O(KN3)の計算量がかかる。
以上説明した原理に従って、スコア関数学習部31は、入力部10により受け付けた学習データである、複数の文の各々に対するラベル系列の正例に基づいて、CRFで用いる、各単語に節に関するタグを付与したタグ系列のスコアを算出するための第1スコア関数f(・)を学習する。例えば、第1スコア関数f(・)として、CRFの対数尤度関数を学習する。
また、スコア関数学習部32は、入力部10により受け付けた学習データである、複数の文の各々に対する構文木の正例に基づいて、PCFGで用いる第2スコア関数g(・)を学習する。例えば、第2スコア関数g(・)として、PCFGの対数尤度関数を学習する。
初期化部33は、入力部10により受け付けた、形態素解析済みの入力文に基づいて、全てのi,j∈{1,・・・,N}に対する、合意の度合いを表わす変数u0(i,j)を、0に初期化する。
CRF節同定部34は、スコア関数学習部31によって学習された、第1スコア関数f(・)、又はスコア関数修正部37によって修正された第1スコア関数に基づいて、CRFに従って、図3に示すような、スコアが最大となるラベル系列akを推定し、入力文中の節を同定する。
本実施の形態では、Viterbiアルゴリズムに従ってスコアが最大となるラベル系列akを推定する。
PCFG節同定部35は、スコア関数学習部32によって学習された、第2スコア関数g(・)、又はスコア関数修正部37によって修正された第2スコア関数に基づいて、PCFGに従って、図4に示すような、スコアが最大となる構文木bkを推定し、入力文中の節を同定する。
本実施の形態では、Viterbiアルゴリズムに従ってスコアが最大となる構文木bkを推定する。
反復終了判定部36は、予め定められた反復終了条件を満たすまで、上記スコア関数修正部37、CRF節同定部34、PCFG節同定部35の各処理を繰り返す。反復終了条件を満たした場合には、CRF節同定部34、PCFG節同定部35により最終的に得られた節の同定結果、ラベル系列、及び構文木を、出力部40により出力する。
本実施の形態では、反復終了条件として、CRF節同定部34、PCFG節同定部35により得られた節の同定結果が一致すること、あるいは、反復回数が予め定められた回数に到達することを用いる。
スコア関数修正部37は、CRF節同定部34、PCFG節同定部35により得られた節の同定結果を比較した結果と、前回更新された合意の度合いを表わす変数uk(i,j)とに基づいて、以下の式に従って、全てのi,j∈{1,・・・,N}に対する、合意の度合いを表わす変数uk+1(i,j)を更新する。

ただし、ai,jは、a(i,j)を表し、bi,jは、b(i,j)を表している。
スコア関数修正部37は、更新された変数uk+1(i,j)を用いて、以下の式に従って、第1スコア関数f(・)、第2スコア関数g(・)を修正する。

<節同定装置の作用>
次に、本実施の形態の節同定装置100の作用について説明する。まず、複数の学習データが節同定装置100に入力されると、節同定装置100によって、第1スコア関数f(・)及び第2スコア関数g(・)が学習される。
そして、形態素解析済みの入力文が、節同定装置100に入力されると、節同定装置100によって、図5に示す節同定処理ルーチンが実行される。
まず、ステップS100において、入力文に基づいて、全てのi,j∈{1,・・・,N}に対する、合意の度合いを表わす変数u0(i,j)を、0に初期化する。
そして、ステップS102において、入力文に基づいて、学習された第1スコア関数f(・)、又は後述するステップS112で修正された第1スコア関数を用いて、CRFに従って、スコアが最大となるラベル系列を推定し、入力文の節を同定する。
そして、ステップS104において、入力文に基づいて、学習された第2スコア関数g(・)、又は後述するステップS114で修正された第2スコア関数を用いて、PCFGに従って、スコアが最大となる構文木を推定し、入力文の節を同定する。
ステップS106では、上記ステップS102での節の同定結果と、上記ステップS104での節の同定結果とが一致しているか否かを判定する。節の同定結果が一致している場合には、ステップS116へ移行する。一方、節の同定結果が一致していない場合には、ステップS108において、上記ステップS100で初期化された変数u0(i,j)、又は前回更新された変数uk(i,j)と、上記ステップS102での節の同定結果、及び上記ステップS104での節の同定結果の差分とに基づいて、全てのi,j∈{1,・・・,N}に対する、合意の度合いを表わす変数uk+1(i,j)を更新する。
そして、ステップS110では、反復回数がK回に到達したか否かを判定する。反復回数がK回に到達した場合には、ステップS116へ移行する。一方、反復回数がK回に到達していない場合には、ステップS112において、上記ステップS108で更新された変数uk+1(i,j)を用いて、第1スコア関数f(・)を修正する。
ステップS114では、上記ステップS108で更新された変数uk+1(i,j)を用いて、第2スコア関数g(・)を修正し、上記ステップS102へ戻る。
ステップS116では、上記ステップS102、S104で最終的に得られた同定結果、タグ系列、及び構文木を、出力部40により出力して、節同定処理ルーチンを終了する。
<評価実験>
既存手法であるCRFを使った節の同定方法と、PCFGを使った節の同定方法、及び本発明の実施の形態で説明した双対分解を使った節の同定方法の性能評価を実験的に示す。本実験では、Penn Treebankのデータを使用する。Penn Treebankは構文木を含むデータであり、データは学習用、開発セット用、テスト用の3つの部分集合からなる。本発明の実施の形態では、節の同定を行ないたいため、この3つのデータセットそれぞれに含まれる構文木の集合を、節を表わすタグ系列 (B-S、I-S、O-S)の集合に変換したものを用いる。節はネストする場合があるが、今回はネストした中の最も小さい節のみを節と考えることとする。評価にはテスト用のPenn Treebankの部分集合である1346文を使用した。CRFを使った節の同定方法では、Penn Treebankの学習用データを用いてCRFを学習した(開発セット用データでハイパーパラメータのチューニングを行なった)。実装にはCRF++を用い、特徴量にはUnigram特徴量とBigram特徴量を用いた。PCFGを使った節同定方法では、構文木を出力するためにStanford Parserを使用した。双対分解を使った節の同定方法で用いる第1スコア関数f(・)、第2スコア関数g(・)には、CRFの対数尤度関数、PCFGの対数尤度関数を用いた。
結果を図6に示す。既存手法であるCRFを使った節の同定方法ではPrecisionが高いがRecallは低い。PCFGを使った節の同定方法ではRecallは高いがPrecisionは低いという結果になった。双対分解を使った節の同定方法では、CRFを使った手法、PCFGを使った手法のそれぞれ出力を考慮できることからPrecision、Recallともに高い値を得ることができた。
以上説明したように、本実施の形態の節同定装置によれば、CRFに従って、入力文中の節を同定し、PCFGに従って、入力文を表す最適な構文木を求め、前記入力文中の節を同定し、同定結果を比較した結果に基づいて、CRFの第1スコア関数及びPCFGの第2スコア関数の各々を修正することを繰り返すことにより、文中の節を精度よく同定することができる。
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、本実施の形態では、節同定装置が、第1スコア関数及び第2スコア関数を学習する場合を例に説明したが、これに限定されるものではなく、別の装置において、第1スコア関数及び第2スコア関数を予め学習するようにしてもよい。
上述の節同定装置は、内部にコンピュータシステムを有しているが、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。
10 入力部
30 演算部
31 スコア関数学習部
32 スコア関数学習部
33 初期化部
34 CRF節同定部
35 PCFG節同定部
36 反復終了判定部
37 スコア関数修正部
40 出力部
100 節同定装置

Claims (7)

  1. 文の各単語に付与される、節に関するタグのタグ系列のスコアを算出するための第1スコア関数を用いて、CRF(Conditional Random Field)に従って、入力文中の単語の各部分系列がであるか否かを同定するCRF節同定部と、
    文を表す構文木のスコアを算出するための第2スコア関数を用いて、PCFG(Probabilistic Context Free Grammer)に従って、入力文を表す最適な構文木を求め、前記入力文中の単語の各部分系列がであるか否かを同定するPCFG節同定部と、
    前記CRF節同定部による節の同定結果と、前記PCFG節同定部による節の同定結果とを比較した結果に基づいて、前記第1スコア関数及び前記第2スコア関数の各々を修正するスコア関数修正部と、
    予め定められた反復終了条件を満たすまで、前記CRF節同定部による同定、前記PCFG節同定部による同定、及び前記スコア関数修正部による修正を繰り返す反復終了判定部と、
    を含み、
    前記スコア関数修正部は、前記入力文中の単語の各部分系列について、前記CRF節同定部による節の同定結果と、前記PCFG節同定部による節の同定結果とを比較して合意の度合いを表す変数を更新し、
    前記入力文中の単語の各部分系列についての、前記CRF節同定部による節の同定結果と、前記合意の度合いを表す変数とを用いて、前記第1スコア関数を修正し、
    前記入力文中の単語の各部分系列についての、前記PCFG節同定部による節の同定結果と、前記合意の度合いを表す変数とを用いて、前記第2スコア関数を修正する節同定装置。
  2. 前記CRF節同定部は、Viterbiアルゴリズムに従って、前記第1スコア関数のスコアが最大となる前記タグ系列を探索することによって、前記入力文中の節を同定し、
    前記PCFG節同定部は、Viterbiアルゴリズムに従って、前記第2スコア関数のスコアが最大となる前記構文木を探索することによって、前記入力文中の節を同定する請求項1記載の節同定装置。
  3. 前記第1スコア関数は、複数の学習用文の各々を表す前記タグ系列の正例に基づいて予め学習され、
    前記第2スコア関数は、複数の学習用文の各々を表す前記構文木の正例に基づいて予め学習された請求項1又は2記載の節同定装置。
  4. CRF節同定部、PCFG節同定部、スコア関数修正部、及び反復終了判定部を含む節同定装置における節同定方法であって、
    前記CRF節同定部が、文の各単語に付与される、節に関するタグのタグ系列のスコアを算出するための第1スコア関数を用いて、CRF(Conditional Random Field)に従って、入力文中の単語の各部分系列がであるか否かを同定し、
    前記PCFG節同定部が、文を表す構文木のスコアを算出するための第2スコア関数を用いて、PCFG(Probabilistic Context Free Grammer)に従って、入力文を表す最適な構文木を求め、前記入力文中の単語の各部分系列がであるか否かを同定し、
    前記スコア関数修正部が、前記CRF節同定部による節の同定結果と、前記PCFG節同定部による節の同定結果とを比較した結果に基づいて、前記第1スコア関数及び前記第2スコア関数の各々を修正し、
    前記反復終了判定部が、予め定められた反復終了条件を満たすまで、前記CRF節同定部による同定、前記PCFG節同定部による同定、及び前記スコア関数修正部による修正を繰り返すことを含み、
    前記スコア関数修正部が修正することでは、前記入力文中の単語の各部分系列について、前記CRF節同定部による節の同定結果と、前記PCFG節同定部による節の同定結果とを比較して合意の度合いを表す変数を更新し、
    前記入力文中の単語の各部分系列についての、前記CRF節同定部による節の同定結果と、前記合意の度合いを表す変数とを用いて、前記第1スコア関数を修正し、
    前記入力文中の単語の各部分系列についての、前記PCFG節同定部による節の同定結果と、前記合意の度合いを表す変数とを用いて、前記第2スコア関数を修正する節同定方法。
  5. 前記CRF節同定部が同定することでは、Viterbiアルゴリズムに従って、前記第1スコア関数のスコアが最大となる前記タグ系列を探索することによって、前記入力文中の節を同定し、
    前記PCFG節同定部が同定することでは、Viterbiアルゴリズムに従って、前記第2スコア関数のスコアが最大となる前記構文木を探索することによって、前記入力文中の節を同定する請求項記載の節同定方法。
  6. 前記第1スコア関数は、複数の学習用文の各々を表す前記タグ系列の正例に基づいて予め学習され、
    前記第2スコア関数は、複数の学習用文の各々を表す前記構文木の正例に基づいて予め学習された請求項又は記載の節同定方法。
  7. コンピュータを、請求項1〜請求項の何れか1項に記載の節同定装置の各部として機能させるためのプログラム。
JP2015218710A 2015-11-06 2015-11-06 節同定装置、方法、及びプログラム Active JP6558852B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015218710A JP6558852B2 (ja) 2015-11-06 2015-11-06 節同定装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015218710A JP6558852B2 (ja) 2015-11-06 2015-11-06 節同定装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017091101A JP2017091101A (ja) 2017-05-25
JP6558852B2 true JP6558852B2 (ja) 2019-08-14

Family

ID=58768280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015218710A Active JP6558852B2 (ja) 2015-11-06 2015-11-06 節同定装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6558852B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110929521B (zh) * 2019-12-06 2023-10-27 北京知道创宇信息技术股份有限公司 一种模型生成方法、实体识别方法、装置及存储介质
WO2022123716A1 (ja) * 2020-12-10 2022-06-16 富士通株式会社 述語項構造修正プログラム、述語項構造修正方法、および情報処理装置
CN115080924B (zh) * 2022-07-25 2022-11-15 南开大学 一种基于自然语言理解的软件许可证条款抽取方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8543906B2 (en) * 2005-06-29 2013-09-24 Xerox Corporation Probabilistic learning method for XML annotation of documents
JP4976789B2 (ja) * 2006-09-05 2012-07-18 日本電信電話株式会社 トークン列中の境界検出方法、装置、プログラム、記録媒体
JP5139701B2 (ja) * 2007-03-13 2013-02-06 日本電信電話株式会社 言語解析モデル学習装置、言語解析モデル学習方法、言語解析モデル学習プログラムならびにその記録媒体
US8086443B2 (en) * 2007-08-24 2011-12-27 Siemens Medical Solutions Usa, Inc. System and method for text tagging and segmentation using a generative/discriminative hybrid hidden markov model

Also Published As

Publication number Publication date
JP2017091101A (ja) 2017-05-25

Similar Documents

Publication Publication Date Title
CN109857845B (zh) 模型训练及数据检索方法、装置、终端及计算机可读存储介质
Kim et al. Structured attention networks
US11914959B2 (en) Entity linking method and apparatus
Dupont et al. Links between probabilistic automata and hidden Markov models: probability distributions, learning models and induction algorithms
US20040111253A1 (en) System and method for rapid development of natural language understanding using active learning
US20180365209A1 (en) Artificial intelligence based method and apparatus for segmenting sentence
Sidorov et al. Computing text similarity using tree edit distance
JP6558852B2 (ja) 節同定装置、方法、及びプログラム
Janz et al. Actively learning what makes a discrete sequence valid
CN104699797A (zh) 一种网页数据结构化解析方法和装置
US20230128008A1 (en) Automating test-driven development with transformers
US20220244952A1 (en) Source code generation using code templates with neural transformers
WO2022164668A1 (en) Natural language source code search using using neural transformers
CN115658846A (zh) 一种适用于开源软件供应链的智能搜索方法及装置
US9460086B2 (en) Method and apparatus for performing bilingual word alignment
JP2016224483A (ja) モデル学習装置、方法、及びプログラム
Cohn Efficient inference in large conditional random fields
JP6291440B2 (ja) パラメータ学習方法、装置、及びプログラム
CN112765985A (zh) 一种面向特定领域专利实施例的命名实体识别方法
CN114912458A (zh) 一种情感分析方法、装置和计算机可读介质
CN115617954B (zh) 问答方法、装置、电子设备及存储介质
JP2016095698A (ja) 翻訳学習装置、翻訳装置、方法、及びプログラム
Fernández-González et al. Dynamic oracles for top-down and in-order shift-reduce constituent parsing
CN112182022B (zh) 基于自然语言的数据查询方法、装置及翻译模型
JP5646523B2 (ja) 基本木学習装置、構文解析装置、方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190715

R150 Certificate of patent or registration of utility model

Ref document number: 6558852

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150