JP4328362B2 - 言語解析モデル学習装置、言語解析モデル学習方法、言語解析モデル学習プログラム及びその記録媒体 - Google Patents
言語解析モデル学習装置、言語解析モデル学習方法、言語解析モデル学習プログラム及びその記録媒体 Download PDFInfo
- Publication number
- JP4328362B2 JP4328362B2 JP2007056109A JP2007056109A JP4328362B2 JP 4328362 B2 JP4328362 B2 JP 4328362B2 JP 2007056109 A JP2007056109 A JP 2007056109A JP 2007056109 A JP2007056109 A JP 2007056109A JP 4328362 B2 JP4328362 B2 JP 4328362B2
- Authority
- JP
- Japan
- Prior art keywords
- output
- probability
- parameter vector
- segment
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Machine Translation (AREA)
Description
計算機上では、生テキストは、文章の先頭から末尾までの一本のストリーム(一次元上の記号列)とみなして処理されることから、テキストのラベリング及びセグメンテーションは、自然言語処理/機械学習分野の用語で系列ラベリングまたは、系列セグメンテーションという問題の種類に分類される。
図1に示すように、系列ラベリングとは、入力される系列に対して、ラベルを付与する問題と定義される(ただし、系列(Sequence)とは記号の列を意味し、生テキストの場合は文字列や単語列等に相当)。また、自然言語処理分野では、単語列に対して品詞タグを付与する問題等がこれに含まれる。
また、同じく図1に示すように、系列セグメンテーションとは、入力系列に対して、部分系列単位の区分(セグメント)を求める問題と定義される。ただし、セグメントとは、一つ以上の記号の連続から成る(部分)記号列である。自然言語処理分野では、単語列に対して文節区切りを付与する問題等がこれに含まれる。
ここで、図2はIOBラベリング法を説明する図面である。図2に示すように、セグメントの開始を示すラベルBに注目することで、容易にかつ一意にラベルからセグメントに、又はセグメントからラベルに変換することが可能となる。
ここで、図4は、カスケードモデルを適用した系列ラベリングの例を示す説明図である。局所最適解としては、図4に示すように、個々のラベルyiを独立に学習/推定する。この個々のラベルの学習/推定は、単純な分類問題とみなすことができるので、一般的に用いられる分類問題用の機械学習手法を用いることができる。つまり、カスケードモデルでは、個々のラベルごとに問題を分割して(多クラス)分類問題として一般的な学習手法を用いて解くことができる。
例えば、Webのホームページのカテゴリ分類の場合は、個々のインスタンス(ホームページ)を独立に扱って分類することができるが、文中の単語に対する品詞分類では、前後の文脈の情報によって与えられるラベルは異なるという特徴を持っている。
ここで、図5は、条件付き確率場を適用した系列ラベリングの例を示す説明図である。図5に示すように、系列ラベリング問題を条件付き確率場(マルコフ確率場でも同じ)でモデル化する場合には、取り得る出力ラベル系列をあらわしたラティス状の出力候補グラフに含まれるパス中から、始端ノードから終端ノードヘの最適パス(最も確率の高いパス)を求める問題に帰着される。
なお、条件付き確率場を用いてモデルを「学習(パラメタ推定とも言う)」するとは、特徴抽出により抽出された特徴に対応したパラメタベクトルの重みを決定する作業である。
ここで、図6は特徴抽出の例を示す説明図である。図6に示した例では、推定したいラベル(i=4)の前後2単語と、推定したいラベルとの組み合わせで特徴を特徴ベクトルとして抽出する。このように、系列ラベリング問題の場合は、入力xと出力yとの組合せで特徴を抽出することが一般的である。図6に示した例では、任意のラベルyiを推定する際に利用する特徴(関数)として、xi−2,xi−1,xi,xi+1,xi+2とyiの組合せを抽出する。
ここで、図7は、条件付き確率場におけるクリークを説明する図面である。クリークとは、グラフ中の部分グラフのうち、完全グラフとなるノードの集合である。図7に示すように、ラティス状の出力候補グラフにおいて、隣り合う二つのノードのみが、クリークとなる。このため、リンクで結合された全ての隣り合うノードがクリークとなる。
なお、完全グラフとは、グラフ中のノードが自身以外の全てのノードとのリンクを持つ場合をいう。
このとき、条件付き確率場において、任意のクリークciでの局所的な特徴をf(y,x,i)と表し、λを特徴に対応したパラメタベクトルとする。ここで、図8は条件付き確率場におけるクリーク毎の特徴の例を示す図面である。このとき、条件付き確率場上の任意の出力yに対する条件付き確率は以下のように表すことができる。
このとき、数式(1)は、次のように書き直すことができる。
条件付き確率場上で、入力系列xに対して最も確率の高い出力系列
は、次式により推定できる。
は、大域的特徴Fの期待値を意味する。ここで用いる目的関数、数式(9)は、凸関数であるので唯一の最適解を持つ。実際の最適化には、最急降下法やニュートン法などの一般的な数値最適化アルゴリズムを用いて効率的に解くことができる。
J.Lafferty, A. MaCallum, and F.Pereira. Conditional Random Fields: Probabilistic Models for Segmenting and Labeling Sequence Data. In Proc. of ICML-2001, pages 282-289, 2001. F. Sha and F. Pereira. Shallow Parsing with Conditiona1 Random Fields. In Proc. of HLT/NACCL-2003, pages 213-220, 2003. Jun Suzuki, Erik McDermott, and Hideki Isozaki. Training Conditiona1 Random Fields with Multivariate Evaluation Measures. In Association for Computational Linguistics(ACL), pages 217-224, 2006. 磯崎秀樹 鈴木潤,誤り最小化に基づく条件付き確率場の学習:言語解析への適用,言語処理学会第12回年次大会,2006年
このように、系列セグメンテーション問題において、尤度最大化学習によって学習を行ったとしても、解決したい問題の性能を最大にする学習をしているとは限らない。非特許文献3及び非特許文献4においては、通常の尤度最大化学習をおこなうよりも解決したい問題の評価指標を最大化する学習をおこなうことによって、さらに性能が向上することが示されている。
ただし、平滑化関数は計算不能等を引き起こさないための一つの手段であり、評価指標最大化学習に必須の手法や条件というわけではない。
ここで、図10は、非特許文献3及び非特許文献4に記載の誤り推定計算方法を説明する図面である。図10に記載の方法では、正解パスと正解パス以外で最も出力されやすいパスとの差分を計算し、このセグメント単位での誤り推定関数を系列全体の誤り推定関数を用いて、近似的に計算をおこなっている。
ただし、正解パス以外で最も出力されやすいパスとは、対象セグメントy2y4間で、正解パスと一致しないパスの中から選択される。
このことを、従来技術の問題点を説明する図面である図11を参照しつつ説明する。図11に示した出力候補グラフの対象区間[i=2,j=2]において、パス単位の値を用いた場合には、c−l−o:3.8であるCノードが出力されるが、セグメント単位の値を用いた場合には、セグメント尤度が8.8のBノードが出力されてしまう。
本発明に係る言語解析モデル学習装置によると、学習データの評価単位の要素の厳密な出現確率に基づく評価指標最大化学習を行うことができる。
厳密な出現確率に基づく評価指標最適化学習を行うことが可能となるため、最適化したい評価指標の意味で最良の学習結果を得ることが可能となる。従来技術は、目的関数を評価指標に置き換えるための方法論を示したが、実際に評価単位での出力確率を求める際には、従来から用いられてきた計算アルゴリズムを流用して近似値を用いていた。このため、枠組としては、評価指標最大化を行う学習法であったが、実際には評価指標を最大化していない可能性を含んでいた。一方、本発明はその問題点を改善し、厳密な出力確率に基づいて評価指標を最適化することを可能とする。
ここで、図12は、あるセグメントの出力確率を説明する図面である。
図12に示す出力候補グラフにおいて、出力系列y中の位置iから位置jまでの間のセグメントの(部分)出力系列y[i,j]の出力確率は、周辺確率を用いて以下のように定義することができる。
は、セグメント[i,j]間のパスを通る全てのパスの重みの総和を表している。また、α[0,i](yi)及びβ[j,n](yj)は、それぞれ、前側確率及び後側確率であり、[i,j]間の周辺確率を表している。図12に示した例では、α[0,i](yi)は、セグメント[0,2]の確率を、β[j,n](yj)は、セグメント[4,6]の確率をそれぞれ表す。そして、前側確率は、次に示す数式(16)のように定義される。
数式(15)の分母は、yに依存しないので、最終的にセグメント単位の出現確率を基準にしたセグメント単位の決定関数は次のように表せる。
次に、前記の方式を適用した本発明の実施形態に係るテキスト解析装置について説明する。図14は本実施形態のテキスト解析装置のブロック構成図である。図14に示すように、テキスト解析装置1は、演算装置であるCPU(Central Processing Unit)11、後記するプログラムが展開され、一時記憶されるデータが保持されるRAM(Random Access Memory)12、外部との入出力インタフェースである入出力部13及びハードディスクドライブ等からなるストレージ14とを相互に接続して構成され、パーソナルコンピュータ等を用いて具現される。
なお、各プログラムの動作及び各データの内容については後記する。また、ストレージ14に記憶された各プログラム及び各データは、コンピュータで読み取り可能な各種の記録媒体(CD−ROM等)に記憶することができる。
次に、図15は、前記の構成を有するテキスト解析装置1の処理動作の概略を説明する説明図である。図15を参照しつつ、テキスト解析装置1の処理動作を説明する。
そして、評価フェーズに移って、推定器142が、この出力されたパラメタベクトル145を用いて、生テキスト146に対してタギングを実行し、タグ付きテキスト147を出力する。そして、タグ/セグメント変換器143が、推定器142が出力したタグ付きテキスト147に対して、チャンキングを実行し、セグメント別タグ付きテキスト148を出力する。ここで、参考として、図16に、学習器141に入力される学習データ144及び出力されるパラメタベクトル145の例を、図17に、推定器142に入力される生テキスト146及び出力されるタグ付きテキスト147の例をそれぞれ示す。
また、図15に示した動作例では、推定器142は、タギングを実行してタグ付きテキスト147を出力することとしたが、チャンキングを実行してセグメント付きテキストを出力して、タグ/セグメント変換器143において、タギングを実行してセグメント別タグ付きテキスト148を出力することにしてもよい。
次に、テキスト解析装置1の構成要素のうち、学習器141について詳しく説明する。なお、学習器141は、特許請求の範囲の言語解析モデル学習装置に相当し、学習器141における処理手順は、言語解析モデル学習方法に相当している。
出力候補グラフ生成部1411は、学習データ144及び入出力部13から入力された出力ラベル候補に基づいて出力候補グラフを生成する。特徴抽出部1412は、入出力部13から入力された特徴抽出テンプレートを取得し、出力候補グラフ生成部1411が生成した出力候補グラフ上のクリーク単位に特徴を抽出し、パラメタベクトル145の次元数を計算し、その初期値を設定する。パラメタ学習部1413は、出力候補グラフ及び特徴抽出部1412が設定したパラメタベクトル145の初期値に基づいて、学習基準アルゴリズムにより、パラメタベクトル145を学習する。
次に、図20は、パラメタ学習部1413の詳細な処理手順を示すフローチャートである。図20を参照しつつ、ステップS106におけるパラメタ学習部1413の処理をさらに詳細に説明する。
具体例1では、系列セグメンテーション問題で、「評価単位」を「セグメント」とし、「評価指標」を「セグメント単位の正解率」とした場合の具体例を示す。この評価単位及び評価指標の決定は、図20に示したステップS204において適用する評価指標(学習基準)を決定することに相当し、学習器141の処理の前準備として事前に決定される。
系列セグメンテーション問題で、前記のように「評価単位」を「セグメント」とし、「評価指標」を「セグメント単位の正解率」とした場合の目的関数は以下のようになる。
その後、図19に示したフローチャートしたがって、学習器141の出力候補グラフ生成部1411は、学習データ(タグ付きコーパス)を取得する(ステップS101)。また、同時に出力ラベル候補集合を取得する(ステップS102)。
特徴抽出テンプレートは、図6に示したような形式であり、ここでは、前後2単語の特徴を用いて対象とする位置のノードの特徴ベクトルを作成する。このとき、前後2単語とノードが属する出力ラベルの組合せで特徴を生成するため、同じ位置で出力ラベルの違うノード間の特徴ベクトルは、お互い直行する(内積0になる)関係になる。
以上の前処理を経て、特徴ベクトル付き出力候補グラフと、初期化されたパラメタベクトル(全ての要素が0のベクトル)とをパラメタ学習部1413に入力して、学習が開始される。
この区間での正解は、「B−組織名,I−組織名」なので、この二つのノードを通過する全てのパスのスコアを用いて、区間[4,5]で「B−組織名,I−組織名」が出力される周辺確率に基づいた決定関数を求める。この処理は、正解出力のスコアを計算する処理(ステップS201)に相当する。
また、同様に後側確率のβ[j,n](yj)は、j=5及びy5=I−組織名であり、位置5のI−組織名のノードに接続する後側のパスのスコアである。これも、backwardアルゴリズムにより求められる。
これは、計算方法自体は正解セグメントの計算と同じであり、同一区間内で正解以外のとり得る全てのセグメントの計算を行い、最大値のセグメントを選出すればよい。
これで、区間[4,5]に対する誤り推定を行うことができた。ここでは、セグメント単位の正解率を用いるので、平滑化関数として1ogistic関数を用いることを考える(図9参照)。これにより、誤り推定関数の値は[0,∞]の値域をとり、正解セグメントの決定関数の値が大きければ大きいほど値が0に近い値を返す。
数式(22)の微分は、chain ruleを用いて以下のように分解して考えることができる。
一方、収束していない場合は(ステップS206で‘No’)、パラメタ学習の最初に戻る。この収束判定は、例えば、パラメタベクトルの変化量が十分小さい場合(所定の閾値以下となった場合)に収束したとみなす。
次に、系列セグメンテーションで「評価単位」を「セグメント」とし、「評価指標」を「F値」とした場合の具体例を示す。ここでは、数式(11)に示したF値を最大化する場合を示す。これには、以下の式を最小化することと等価である。
以下、パラメタ学習部で勾配を求める際の式は以下のようになる。
まず、目的関数をFNlとFPlで偏微分したものは以下のようになる。
次に、FNlとFPlとを平滑化関数lで偏微分したものは、FNlとFPlとがlの単なる線形和で表されるため定数となる。
平滑化関数l(ここではシグモイド関数を適用)の偏微分は定義にしたがって、次のようになる。
12 RAM
13 入手力部
14 ストレージ
141 学習器
144 学習データ
145 パラメタベクトル
1411 出力候補グラフ生成部
1412 特徴抽出部
1413 パラメタ学習部
Claims (12)
- テキストデータに所定の分類タグを付与するために使用するパラメタベクトルを、予め前記分類タグが付与されたテキストデータである学習データから算出する言語解析モデル学習装置であって、
前記学習データに前記分類タグの種類を示す出力ラベル候補を対応付けた出力候補グラフと、前記パラメタベクトルの初期値とを記憶した記憶部と、
前記学習データの一つ以上の記号の連続から成る部分記号列であるセグメントを評価単位とするセグメント単位の出現確率を、前記パラメタベクトルを変数として、対象セグメントの前側確率及び後側確率である当該セグメント間の周辺確率により表す決定関数を用いて、前記学習データの正解の要素の出現確率と、前記正解の要素以外で最も出力されやすい要素の出現確率との差分を誤り推定関数として計算し、前記誤り推定関数を用いて設定される目的関数を最適化するパラメタベクトルを算出するパラメタ学習部とを備える
ことを特徴とする言語解析モデル学習装置。 - 前記目的関数は、すべての最小評価単位についての前記誤り推定関数の出力の総和であり、前記目的関数を最適化するパラメタベクトルは、前記目的関数の出力を最小にする前記パラメタベクトルである
ことを特徴とする請求項1に記載の言語解析モデル学習装置。 - 前記パラメタ学習部は、
前記出力候補グラフにおいて、出力系列y中の位置iから位置jまでの間のセグメントの部分出力系列y[i,j]の前記前側確率αを次の式(1)により計算し、前記後側確率βを次の式(2)により計算し、当該セグメント間の出現確率を前記前側確率と前記後側確率である周辺確率として、前記決定関数gを次の式(3)により計算し、同一区間内で正解以外のとり得る全てのセグメントの計算を行い、最大値のセグメントを選出して、これを最尤出力候補セグメントとし、正例の負例への間違い数を推定する場合には前記誤り推定関数dを次の式(4)により計算し、負例の正例への間違い数を推定する場合には前記誤り推定関数dを次の式(5)により計算し、
前記目的関数は、前記式(4)および式(5)でそれぞれ計算される誤り推定関数を用いて設定される、次の式(6)に示すF値の分母であり、前記目的関数を最適化するパラメタベクトルλは、前記目的関数の出力を最小にする前記パラメタベクトルである
ことを特徴とする請求項1に記載の言語解析モデル学習装置。
ただし、xは入力系列、fは特徴ベクトル、nはセグメント数、lは単一のクリーク単位での特徴ベクトルの識別子、yiはi番目の出力ラベル、yjはj番目の出力ラベル、Yは単一のラベルのとりうる全てのラベル集合、y*は正解セグメント、BはIOBラべリング法の開始セグメントをそれぞれ示す。また、γは再現率と適合率とのトレードオフの度合いを示す定数、Mは正例セグメント数、FPlは負例の正例への間違い数の推定量、FNlは正例の負例への間違い数の推定量をそれぞれ示す。 - 前記パラメタ学習部は、
前記決定関数を用いて前記学習データの正解の要素の出現確率と、前記正解の要素以外で最も出力されやすい要素の出現確率とを計算する際に、
Forward-Backwardアルゴリズムを用いて前記決定関数の出力として前記各要素の出現確率を計算する
ことを特徴とする請求項1ないし請求項3のいずれか1項に記載の言語解析モデル学習装置。 - 前記パラメタ学習部は、
前記パラメタベクトルの初期値の入力を受け付け、
前記パラメタベクトルの初期値からその時点で前記目的関数を最適化するパラメタベクトルを算出後に、前記目的関数の勾配を計算し、前記勾配が所定値以下になるまで、その時点のパラメタベクトルを用いて、前記目的関数を最適化するパラメタベクトルを再度算出し、
前記勾配が所定値以下になった場合に、その時点のパラメタベクトルを、前記目的関数を最適化するパラメタベクトルとして出力する
ことを特徴とする請求項1ないし請求項4のいずれか1項に記載の言語解析モデル学習装置。 - 予め所定の分類タグが付与されたテキストデータである学習データに前記分類タグの種類を示す出力ラベル候補を対応付けた出力候補グラフと、テキストデータに前記分類タグを付与するために使用するパラメタベクトルの初期値とが記憶された記憶部と、パラメタ学習部とを有する言語解析モデル学習装置において、前記学習データおよび前記パラメタベクトルの初期値から最適なパラメタベクトルを算出する言語解析モデル学習方法であって、
前記言語解析モデル学習装置のパラメタ学習部は、
前記学習データの一つ以上の記号の連続から成る部分記号列であるセグメントを評価単位とするセグメント単位の出現確率を、前記パラメタベクトルを変数として、対象セグメントの前側確率及び後側確率である当該セグメント間の周辺確率により表す決定関数を用いて、前記学習データの正解の要素の出現確率を計算するステップと、
前記決定関数を用いて、前記正解の要素以外で最も出力されやすい要素の出現確率を計算するステップと、
前記正解の要素の出現確率と、前記正解の要素以外で最も出力されやすい要素の出現確率との差分を誤り推定関数として計算するステップと、
前記誤り推定関数を用いて設定される目的関数を最適化するパラメタベクトルを算出するステップと、を実行する
ことを特徴とする言語解析モデル学習方法。 - 前記目的関数は、すべての最小評価単位についての前記誤り推定関数の出力の総和であり、前記目的関数を最適化するパラメタベクトルは、前記目的関数の出力を最小にする前記パラメタベクトルである
ことを特徴とする請求項6に記載の言語解析モデル学習方法。 - 前記パラメタ学習部は、
前記出力候補グラフにおいて、出力系列y中の位置iから位置jまでの間のセグメントの部分出力系列y[i,j]の前記前側確率αを次の式(1)により計算するステップと、
前記後側確率βを次の式(2)により計算するステップと、
当該セグメント間の出現確率を前記前側確率と前記後側確率である周辺確率として、前記決定関数gを次の式(3)により計算するステップと、
同一区間内で正解以外のとり得る全てのセグメントの計算を行い、最大値のセグメントを選出して、これを最尤出力候補セグメントとするステップと、
正例の負例への間違い数を推定する場合に前記誤り推定関数dを次の式(4)により計算するステップと、
負例の正例への間違い数を推定する場合に前記誤り推定関数dを次の式(5)により計算するステップと、を実行し、
前記目的関数は、前記式(4)および式(5)でそれぞれ計算される誤り推定関数を用いて設定される、次の式(6)に示すF値の分母であり、前記目的関数を最適化するパラメタベクトルλは、前記目的関数の出力を最小にする前記パラメタベクトルである
ことを特徴とする請求項6に記載の言語解析モデル学習方法。
ただし、xは入力系列、fは特徴ベクトル、nはセグメント数、lは単一のクリーク単位での特徴ベクトルの識別子、yiはi番目の出力ラベル、yjはj番目の出力ラベル、Yは単一のラベルのとりうる全てのラベル集合、y*は正解セグメント、BはIOBラべリング法の開始セグメントをそれぞれ示す。また、γは再現率と適合率とのトレードオフの度合いを示す定数、Mは正例セグメント数、FPlは負例の正例への間違い数の推定量、FNlは正例の負例への間違い数の推定量をそれぞれ示す。 - 前記パラメタ学習部は、
前記決定関数を用いて前記学習データの正解の要素の出現確率を計算するステップおよび、前記決定関数を用いて前記正解の要素以外で最も出力されやすい要素の出現確率を計算するステップにおいて、
Forward-Backwardアルゴリズムを用いて前記決定関数の出力として前記各要素の出現確率を計算する
ことを特徴とする請求項6ないし請求項8のいずれか1項に記載の言語解析モデル学習方法。 - 前記パラメタ学習部は、
前記パラメタベクトルの初期値の入力を受け付けるステップと、
前記パラメタベクトルの初期値からその時点で前記目的関数を最適化するパラメタベクトルを算出後に、前記目的関数の勾配を計算するステップと、
前記勾配が所定値以下になるまで、その時点のパラメタベクトルを用いて、前記目的関数を最適化するパラメタベクトルを再度算出するステップと、
前記勾配が所定値以下になった場合に、その時点のパラメタベクトルを、前記目的関数を最適化するパラメタベクトルとして出力するステップと、を実行する
ことを特徴とする請求項6ないし請求項9のいずれか1項に記載の言語解析モデル学習方法。 - 請求項1ないし請求項5のいずれか1項に記載の言語解析モデル学習装置を構成する各部として、コンピュータを機能させるための言語解析モデル学習プログラム。
- 請求項11に記載の言語解析モデル学習プログラムを記録した
ことを特徴とする記録媒体。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007056109A JP4328362B2 (ja) | 2007-03-06 | 2007-03-06 | 言語解析モデル学習装置、言語解析モデル学習方法、言語解析モデル学習プログラム及びその記録媒体 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007056109A JP4328362B2 (ja) | 2007-03-06 | 2007-03-06 | 言語解析モデル学習装置、言語解析モデル学習方法、言語解析モデル学習プログラム及びその記録媒体 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2008217592A JP2008217592A (ja) | 2008-09-18 |
| JP4328362B2 true JP4328362B2 (ja) | 2009-09-09 |
Family
ID=39837535
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007056109A Active JP4328362B2 (ja) | 2007-03-06 | 2007-03-06 | 言語解析モデル学習装置、言語解析モデル学習方法、言語解析モデル学習プログラム及びその記録媒体 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4328362B2 (ja) |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN101866337B (zh) * | 2009-04-14 | 2014-07-02 | 日电(中国)有限公司 | 词性标注系统、用于训练词性标注模型的装置及其方法 |
| JP5648913B2 (ja) * | 2011-01-20 | 2015-01-07 | 日本電信電話株式会社 | 機能表現解析装置、素性重み学習装置、機能表現解析方法、素性重み学習方法、プログラム |
| CN111209385B (zh) * | 2020-01-14 | 2024-02-02 | 重庆兆光科技股份有限公司 | 一种基于凸神经网络的咨询对话唯一答案寻优方法 |
| CN112365178A (zh) * | 2020-11-20 | 2021-02-12 | 山东大学 | 一种轨交隧道运营期安全评价方法、系统及存储介质 |
-
2007
- 2007-03-06 JP JP2007056109A patent/JP4328362B2/ja active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2008217592A (ja) | 2008-09-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111783474B (zh) | 一种评论文本观点信息处理方法、装置及存储介质 | |
| CN113128203B (zh) | 基于注意力机制的关系抽取方法、系统、设备及存储介质 | |
| CN108255813B (zh) | 一种基于词频-逆文档与crf的文本匹配方法 | |
| US20090271195A1 (en) | Speech recognition apparatus, speech recognition method, and speech recognition program | |
| JP6509694B2 (ja) | 学習装置、音声検出装置、学習方法およびプログラム | |
| CN110096570A (zh) | 一种应用于智能客服机器人的意图识别方法及装置 | |
| CN112036168B (zh) | 事件主体识别模型优化方法、装置、设备及可读存储介质 | |
| CN113742733B (zh) | 阅读理解漏洞事件触发词抽取和漏洞类型识别方法及装置 | |
| WO2021240707A1 (ja) | データ分類システム、データ分類方法および記録媒体 | |
| CN117435716A (zh) | 电网人机交互终端的数据处理方法及系统 | |
| CN113011191A (zh) | 一种知识联合抽取模型训练方法 | |
| CN113420127B (zh) | 威胁情报处理方法、装置、计算设备及存储介质 | |
| CN114742073B (zh) | 一种基于深度学习的对话情绪自动识别方法 | |
| JP5441937B2 (ja) | 言語モデル学習装置、言語モデル学習方法、言語解析装置、及びプログラム | |
| CN113705207A (zh) | 语法错误识别方法及装置 | |
| JP4328362B2 (ja) | 言語解析モデル学習装置、言語解析モデル学習方法、言語解析モデル学習プログラム及びその記録媒体 | |
| CN119990134A (zh) | 一种使用自述式提示与集成梯度的语义贡献识别方法及系统 | |
| Heid et al. | Reliable part-of-speech tagging of historical corpora through set-valued prediction | |
| JP6772394B1 (ja) | 情報学習装置、情報処理装置、情報学習方法、情報処理方法及びプログラム | |
| JP6772393B1 (ja) | 情報処理装置、情報学習装置、情報処理方法、情報学習方法及びプログラム | |
| CN115310449A (zh) | 一种基于小样本的命名实体识别方法、装置及相关介质 | |
| CN114842246A (zh) | 一种社交媒体压力类别检测方法及装置 | |
| CN114756617A (zh) | 一种工程档案结构化数据提取方法、系统、设备和存介质 | |
| JP5379812B2 (ja) | データ抽出装置、データ抽出方法、及びプログラム | |
| JP6558856B2 (ja) | 形態素解析装置、モデル学習装置、及びプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090428 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090519 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090609 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090612 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120619 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 4328362 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130619 Year of fee payment: 4 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140619 Year of fee payment: 5 |
|
| S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
