JP6663881B2 - 並列句解析装置、並列句解析モデル学習装置、方法、及びプログラム - Google Patents

並列句解析装置、並列句解析モデル学習装置、方法、及びプログラム Download PDF

Info

Publication number
JP6663881B2
JP6663881B2 JP2017079651A JP2017079651A JP6663881B2 JP 6663881 B2 JP6663881 B2 JP 6663881B2 JP 2017079651 A JP2017079651 A JP 2017079651A JP 2017079651 A JP2017079651 A JP 2017079651A JP 6663881 B2 JP6663881 B2 JP 6663881B2
Authority
JP
Japan
Prior art keywords
phrase
parallel
conjunction
prediction result
parallel phrase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017079651A
Other languages
English (en)
Other versions
JP2018180935A (ja
Inventor
ジュン オウ
ジュン オウ
鈴木 敏
敏 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017079651A priority Critical patent/JP6663881B2/ja
Publication of JP2018180935A publication Critical patent/JP2018180935A/ja
Application granted granted Critical
Publication of JP6663881B2 publication Critical patent/JP6663881B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、並列句解析装置、並列句解析モデル学習装置、方法、及びプログラムに係り、特に、入力されたテキストの並列句解析のための並列句解析装置、並列句解析モデル学習装置、方法、及びプログラムに関する。
従来の学習型並列句解析では、句と等位接続詞の組み合わせを正例/負例に分類したもので学習する。
Kazuo Hara Masashi Shimbo Hideharu Okuma Yuji Matsumoto, ``Coordinate structure analysis with global structural constraints and alignment-based local features", ACL'09 Atsushi Hanamoto, Takuya Matsuzaki, Jun’ichi Tsujii, ``Coordination structure analysis using dual decomposition", EACL'12
正例は巨大なコーパスからでも取り出せる数が限られる一方で、負例は正例の一部を任意に変更すれば作成できるため、正例1つに対し負例はより多く作ることができる。
従来手法では、構文解析を通して並列句解析を行うため、この正例/負例のアンバランスが学習に影響を与え、良い結果が得られないことが多い。
また、並列句には名詞句、動詞句、副詞句等文法的に様々な並列句が存在することが、構文解析による並列句解析をより複雑にしている。
本発明は、上記の事情を鑑みてなされたものであり、入力文の並列句解析を精度よく行うことができる並列句解析装置、方法、及びプログラムを提供することを目的とする。
また、入力文の並列句解析を精度よく行うためのモデルを学習することができる並列句解析モデル学習装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明に係る並列句解析装置は、入力文から、等位接続詞の前後の句の組み合わせを、並列句候補として複数抽出する並列句候補抽出部と、前記並列句候補の各々について、予め学習された言語モデルを用いて、前記等位接続詞の前の句の直後の単語を予測した予測結果、及び前記等位接続詞の後の句の直前の単語を予測した予測結果を出力する言語モデル適用部と、前記並列句候補の各々について、前記等位接続詞の前の句の直後の単語の予測結果、及び前記等位接続詞の後の句の直前の単語の予測結果から、予め学習されたランキングモデルを用いてランキングスコアを計算し、並列句の解析結果を出力するランキング計算部と、を含んで構成されている。
本発明に係る並列句解析方法は、並列句候補抽出部が、入力文から、等位接続詞の前後の句の組み合わせを、並列句候補として複数抽出し、言語モデル適用部が、前記並列句候補の各々について、予め学習された言語モデルを用いて、前記等位接続詞の前の句の直後の単語を予測した予測結果、及び前記等位接続詞の後の句の直前の単語を予測した予測結果を出力し、ランキング計算部が、前記並列句候補の各々について、前記等位接続詞の前の句の直後の単語の予測結果、及び前記等位接続詞の後の句の直前の単語の予測結果から、予め学習されたランキングモデルを用いてランキングスコアを計算し、並列句の解析結果を出力する。
本発明に係る並列句解析モデル学習装置は、学習用文から、等位接続詞の前後の句の組み合わせを、並列句候補として複数抽出する並列句候補抽出部と、前記並列句候補の各々について、予め学習された言語モデルを用いて、前記等位接続詞の前の句の直後の単語を予測した予測結果、及び前記等位接続詞の後の句の直前の単語を予測した予測結果を出力する言語モデル適用部と、予め求められた、等位接続詞の前後の句の組み合わせである複数の正解並列句に基づいて、前記並列句候補の各々について、前記等位接続詞の前の句の直後の単語の予測結果、及び前記等位接続詞の後の句の直前の単語の予測結果からランキングモデルを用いて計算されるランキングスコアが、前記並列句候補と前記正解並列句との編集距離に応じたスコアとなるように、前記ランキングモデルを学習するランキングモデル学習部と、を含んで構成されている。
本発明に係る並列句解析モデル学習方法は、並列句候補抽出部が、学習用文から、等位接続詞の前後の句の組み合わせを、並列句候補として複数抽出し、言語モデル適用部が、前記並列句候補の各々について、予め学習された言語モデルを用いて、前記等位接続詞の前の句の直後の単語を予測した予測結果、及び前記等位接続詞の後の句の直前の単語を予測した予測結果を出力し、ランキングモデル学習部が、予め求められた、等位接続詞の前後の句の組み合わせである複数の正解並列句に基づいて、前記並列句候補の各々について、前記等位接続詞の前の句の直後の単語の予測結果、及び前記等位接続詞の後の句の直前の単語の予測結果からランキングモデルを用いて計算されるランキングスコアが、前記並列句候補と前記正解並列句との編集距離に応じたスコアとなるように、前記ランキングモデルを学習する。
また、本発明のプログラムは、コンピュータを、上記の並列句解析装置、及び並列句解析モデル学習装置を構成する各部として機能させるためのプログラムである。
以上説明したように、本発明の並列句解析装置、方法、及びプログラムによれば、並列句候補の各々について、言語モデルを用いて、前記等位接続詞の前の句の直後の単語を予測した予測結果、及び前記等位接続詞の後の句の直前の単語を予測した予測結果を出力し、ランキングモデルを用いてランキングスコアを計算することにより、入力文の並列句解析を精度よく行うことができる。
また、本発明の並列句解析モデル学習装置、方法、及びプログラムによれば、並列句候補の各々について、言語モデルを用いて、前記等位接続詞の前の句の直後の単語を予測した予測結果、及び前記等位接続詞の後の句の直前の単語を予測した予測結果を出力し、前記等位接続詞の前の句の直後の単語の予測結果、及び前記等位接続詞の後の句の直前の単語の予測結果からランキングモデルを用いて計算されるランキングスコアが、前記並列句候補と前記正解並列句との編集距離に応じたスコアとなるように、前記ランキングモデルを学習することにより、入力文の並列句解析を精度よく行うためのモデルを学習することができる。
本発明の実施の形態に係る並列句解析モデル学習装置の機能的構成を示すブロック図である。 並列句候補を抽出する方法を説明するための図である。 言語モデルを適用する方法を説明するための図である。 本発明の実施の形態に係る並列句解析装置の機能的構成を示すブロック図である。 ランキングモデルを用いて並列句を決定する方法を説明するための図である。 本発明の実施の形態に係る並列句解析モデル学習装置における並列句解析モデル学習処理ルーチンを示すフローチャート図である。 本発明の実施の形態に係る並列句解析装置における並列句解析処理ルーチンを示すフローチャート図である。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態に係る並列句解析モデル学習装置の構成>
次に、本発明の実施の形態に係る並列句解析モデル学習装置の構成について説明する。図1に示すように、本発明の実施の形態に係る並列句解析モデル学習装置100は、CPUと、RAMと、後述する並列句解析モデル学習処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この並列句解析モデル学習装置100は、機能的には図1に示すように入力部10と、演算部20とを備えている。
入力部10は、複数の学習用文からなる言語データを受け付け、言語データ記憶部22に記憶する。また、入力部10は、等位接続詞の前後の句の組み合わせである複数の正解並列句を受け付け、正解データ記憶部24に記憶する。
演算部20は、言語データ記憶部22、正解データ記憶部24、言語モデル学習部26、言語モデル記憶部28、並列句候補抽出部30、言語モデル適用部32、ランキングモデル学習部34、及びランキングモデル記憶部36を含んで構成されている。
言語モデル学習部26は、言語データ記憶部22に記憶されている言語データに基づいて、単語の並びを表す言語モデルを学習し、言語モデル記憶部28に記憶する。
具体的には、文字列の直後の単語を予測し出力する順方向のLSTM(Long short-term memory、非特許文献3参照)と文字列の直前の単語を予測し出力する逆方向のLSTMとを学習する。
[非特許文献3]:Sundermeyer, M., Schluter, R., Ney, H.: Lstm neural networks for language modeling. In: INTERSPEECH. pp. 194-197 (2012)
なお、LSTMの学習方法としては、従来既知の手法を用いればよいため、説明を省略する。また、LSTM以外の他の言語モデルを学習してもよい。
並列句候補抽出部30は、言語データ記憶部22に記憶されている言語データに含まれる学習用文から、等位接続詞の前後の句の組み合わせを、並列句候補として複数抽出する。具体的には、等位接続詞は限られているので、テキストマッチで等位接続詞を取り出す。なお、構文解析手法を適用することも可能である。そして、取り出した等位接続詞の前後の部分を並列句とし、それぞれの語数を任意として並列句候補に加える。このとき、並列句候補は等位接続詞に接する語を含むものとする(図2参照)。
言語モデル適用部32は、並列句候補の各々について、言語モデル記憶部28に記憶された言語モデルを用いて、等位接続詞の前の句の直後の単語の予測結果を表す出力ベクトル、及び等位接続詞の後の句の直前の単語の予測結果を表す出力ベクトルを出力する(図3(A)、(B)参照)。
ランキングモデル学習部34は、正解データ記憶部24に記憶された複数の正解並列句に基づいて、並列句候補の各々について、等位接続詞の前の句の直後の単語の予測結果を表す出力ベクトル、及び等位接続詞の後の句の直前の単語の予測結果を表す出力ベクトルからランキングモデルを用いて計算されるランキングスコアが、並列句候補と正解並列句との編集距離(文字の異なり数)に応じたスコアとなるように、ランキングモデルを学習し、ランキングモデル記憶部36に記憶する。ランキングモデルは、等位接続詞の前の句の直後の単語の予測結果を表す出力ベクトルに対するパラメータ、及び等位接続詞の後の句の直前の単語の予測結果を表す出力ベクトルに対するパラメータを含む線形モデルである。
具体的には、以下の(2)式に示す損失関数Lossを最小化するように、ランキングモデルのパラメータW、W、Wを学習する。


ただし、outL,outRはそれぞれ左右の並列句候補を入力としたときの言語モデルの出力ベクトルである。γ及びbは定数であり、式(1)の{Lc,Rc}は正解並列句の文字列の組み合わせ、{Li,Rj}は並列句候補の文字列の組み合わせである。また、||{Lc,Rc}||は正解並列句の文字数である。edit_distance({Lc,Rc},{Li,Rj})は、並列句候補{Li,Rj}と正解並列句{Lc,Rc}との編集距離である。ランキングモデルは、行列W0,W1,W2をパラメータとする線形モデルであり、ランキングモデルの学習では最急勾配法を用いればよい。
式(2)の代わりに、
Loss = Σ(f((L,R))-Score(outL,outR))2
などとしてもよい。
<本発明の実施の形態に係る並列句解析装置の構成>
次に、本発明の実施の形態に係る並列句解析装置の構成について説明する。図4に示すように、本発明の実施の形態に係る並列句解析装置200は、CPUと、RAMと、後述する並列句解析処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この並列句解析装置200は、機能的には図4に示すように入力部210と、演算部220と、出力部290とを備えている。
入力部210は、解析対象となる入力文を受け付ける。
演算部220は、並列句候補抽出部222と、言語モデル記憶部224と、言語モデル適用部226と、ランキングモデル記憶部228と、ランキング計算部230と、を含んで構成されている。
並列句候補抽出部222は、入力文から、並列句候補抽出部30と同様に、等位接続詞の前後の句の組み合わせを、並列句候補として複数抽出する。
言語モデル記憶部224は、並列句解析モデル学習装置100の言語モデル記憶部28と同じ言語モデルを記憶している。
言語モデル適用部226は、並列句候補の各々について、言語モデル記憶部224に記憶された言語モデルを用いて、前記等位接続詞の前の句の直後の単語の予測結果を表す出力ベクトル、及び等位接続詞の後の句の直前の単語の予測結果を表す出力ベクトルを出力する。
ランキングモデル記憶部228は、並列句解析モデル学習装置100のランキングモデル記憶部36と同じランキングモデルを記憶している。
ランキング計算部230は、並列句候補の各々について、等位接続詞の前の句の直後の単語の予測結果を表す出力ベクトル、及び等位接続詞の後の句の直前の単語の予測結果を表す出力ベクトルから、ランキングモデル記憶部228に記憶されたランキングモデルを用いてランキングスコアを計算し、最適な並列句候補を決定し、並列句の解析結果として出力部290により出力する(図5参照)。
<本発明の実施の形態に係る並列句解析モデル学習装置の作用>
次に、本発明の実施の形態に係る並列句解析モデル学習装置100の作用について説明する。入力部10において、複数の学習用文からなる言語データを受け付け、言語データ記憶部22に記憶する。また、入力部10において、等位接続詞の前後の句の組み合わせである複数の正解並列句を受け付け、正解データ記憶部24に記憶する。そして、並列句解析モデル学習装置100は、図6に示す並列句解析モデル学習処理ルーチンを実行する。
まず、ステップS100では、言語データ記憶部22に記憶されている言語データに基づいて、単語の並びを表す言語モデルとして、順方向のLSTM及び逆方向のLSTMを学習し、言語モデル記憶部28に記憶する。
ステップS102では、並列句候補抽出部30は、言語データ記憶部22に記憶されている言語データに含まれる学習用文から、等位接続詞の前後の句の組み合わせを、並列句候補として複数抽出する。
ステップS104では、並列句候補の各々について、言語モデル記憶部28に記憶された言語モデル(順方向のLSTM、逆方向のLSTM)を用いて、等位接続詞の前の句の直後の単語の予測結果を表す出力ベクトル、及び等位接続詞の後の句の直前の単語の予測結果を表す出力ベクトルを出力する。
ステップS106では、正解データ記憶部24に記憶された複数の正解並列句に基づいて、並列句候補の各々について、等位接続詞の前の句の直後の単語の予測結果を表す出力ベクトル、及び等位接続詞の後の句の直前の単語の予測結果を表す出力ベクトルからランキングモデルを用いて計算されるランキングスコアが、並列句候補と正解並列句との編集距離に応じたスコアとなるように、ランキングモデルを学習し、ランキングモデル記憶部36に記憶し、並列句解析モデル学習処理ルーチンを終了する。
<本発明の実施の形態に係る並列句解析装置の作用>
次に、本発明の実施の形態に係る並列句解析装置200の作用について説明する。入力部210において解析対象となる入力文を受け付け、並列句解析装置200は、図7に示す並列句解析処理ルーチンを実行する。
まず、ステップS200では、入力文から、等位接続詞の前後の句の組み合わせを、並列句候補として複数抽出する。
ステップS202では、並列句候補の各々について、言語モデル記憶部224に記憶された言語モデルを用いて、前記等位接続詞の前の句の直後の単語の予測結果を表す出力ベクトル、及び等位接続詞の後の句の直前の単語の予測結果を表す出力ベクトルを出力する。
ステップS204では、並列句候補の各々について、等位接続詞の前の句の直後の単語の予測結果を表す出力ベクトル、及び等位接続詞の後の句の直前の単語の予測結果を表す出力ベクトルから、ランキングモデル記憶部228に記憶されたランキングモデルを用いてランキングスコアを計算する。
ステップS206では、最適な並列句候補を決定し、並列句の解析結果として出力部290により出力する(図5参照)。
<実施例>
本発明の実施例として、WSJ(Wall Street Journal)を用いた実験結果を示す。このWSJは英語言語データPenn Treebank の一部であり、言語ラベルが付いている。この英語言語データの中から、’and’,’or’,’but’ を等位接続詞として学習および解析を行った(表1)。また、このデータを言語モデル部学習用、ランキング計算部学習用、評価試験用に分けた(表2)。
学習結果は表3に示すとおりである。ただし、TおよびEnjuは従来手法(上記非特許文献2)である。
名詞句、動詞句など品詞別に評価を行った結果、本発明の実施の形態では最も出現率の高い名詞句等で高い再現率を示しており、結果、全品詞での再現率も高いものとなることが分かった。
以上説明したように、本発明の実施の形態に係る並列句解析装置によれば、並列句候補の各々について、言語モデルを用いて、等位接続詞の前の句の直後の単語を予測した予測結果、及び等位接続詞の後の句の直前の単語を予測した予測結果を出力し、ランキングモデルを用いてランキングスコアを計算することにより、入力文の並列句解析を精度よく行うことができる。
また、上記の実験結果に示されたように、本発明の実施の形態に係る並列句解析装置は、学習データの偏り、文法的な複雑さに影響を受けにくい形で並列句解析を行うことができる。
また、本発明の実施の形態に係る並列句解析モデル学習装置によれば、並列句候補の各々について、言語モデルを用いて、等位接続詞の前の句の直後の単語を予測した予測結果、及び等位接続詞の後の句の直前の単語を予測した予測結果を出力し、等位接続詞の前の句の直後の単語の予測結果、及び前記等位接続詞の後の句の直前の単語の予測結果からランキングモデルを用いて計算されるランキングスコアが、並列句候補と前記正解並列句との編集距離に応じたスコアとなるように、ランキングモデルを学習することにより、入力文の並列句解析を精度よく行うためのモデルを学習することができる。
また、構文解析に依存せず、従来手法と比較して正例/負例のアンバランスさや文法的な違いに影響を受けない並列句解析を行うことができるモデルを学習することができる。
なお、本発明は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
例えば、英語の文に対して、並列句解析を行う場合を例に説明したが、これに限定されるものではなく、英語以外の言語、例えば、日本語や中国語の文に対して、並列句解析を行うようにしてもよい。
また、並列句解析モデル学習装置と並列句解析装置とを別々に構成する場合を例に説明したが、これに限定されるものではなく、並列句解析モデル学習装置と並列句解析装置とを1つの装置として構成してもよい。
また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能であるし、ネットワークを介して提供することも可能である。
10、210 入力部
20、220 演算部
22 言語データ記憶部
24 正解データ記憶部
26、224 言語モデル学習部
28 言語モデル記憶部
30、222 並列句候補抽出部
32、226 言語モデル適用部
34 ランキングモデル学習部
36、228 ランキングモデル記憶部
100 並列句解析モデル学習装置
200 並列句解析装置
228 ランキングモデル記憶部
290 出力部

Claims (8)

  1. 入力文から、等位接続詞の前後の句の組み合わせを、並列句候補として複数抽出する並列句候補抽出部と、
    前記並列句候補の各々について、予め学習された言語モデルを用いて、前記等位接続詞の前の句の直後の単語を予測した予測結果、及び前記等位接続詞の後の句の直前の単語を予測した予測結果を出力する言語モデル適用部と、
    前記並列句候補の各々について、前記等位接続詞の前の句の直後の単語の予測結果、及び前記等位接続詞の後の句の直前の単語の予測結果から、予め学習されたランキングモデルを用いてランキングスコアを計算し、並列句の解析結果を出力するランキング計算部と、
    を含む並列句解析装置。
  2. 前記ランキングスコアは、前記等位接続詞の前の句の直後の単語として予測される等位接続詞、及び前記等位接続詞の後の句の直前の単語として予測される等位接続詞の組み合わせの尤もらしさを表す請求項1記載の並列句解析装置。
  3. 前記言語モデルを、文字列の次の単語を予測し出力するように学習されたLSTM(Long short-term memory)とし、
    前記ランキングモデルを、前記等位接続詞の前の句の直後の単語の予測結果に対するパラメータ、及び前記等位接続詞の後の句の直前の単語の予測結果に対するパラメータを含む線形モデルとした請求項1又は2記載の並列句解析装置。
  4. 学習用文から、等位接続詞の前後の句の組み合わせを、並列句候補として複数抽出する並列句候補抽出部と、
    前記並列句候補の各々について、予め学習された言語モデルを用いて、前記等位接続詞の前の句の直後の単語を予測した予測結果、及び前記等位接続詞の後の句の直前の単語を予測した予測結果を出力する言語モデル適用部と、
    予め求められた、等位接続詞の前後の句の組み合わせである複数の正解並列句に基づいて、前記並列句候補の各々について、前記等位接続詞の前の句の直後の単語の予測結果、及び前記等位接続詞の後の句の直前の単語の予測結果からランキングモデルを用いて計算されるランキングスコアが、前記並列句候補と前記正解並列句との編集距離に応じたスコアとなるように、前記ランキングモデルを学習するランキングモデル学習部と、
    を含む並列句解析モデル学習装置。
  5. 並列句候補抽出部が、入力文から、等位接続詞の前後の句の組み合わせを、並列句候補として複数抽出し、
    言語モデル適用部が、前記並列句候補の各々について、予め学習された言語モデルを用いて、前記等位接続詞の前の句の直後の単語を予測した予測結果、及び前記等位接続詞の後の句の直前の単語を予測した予測結果を出力し、
    ランキング計算部が、前記並列句候補の各々について、前記等位接続詞の前の句の直後の単語の予測結果、及び前記等位接続詞の後の句の直前の単語の予測結果から、予め学習されたランキングモデルを用いてランキングスコアを計算し、並列句の解析結果を出力する
    並列句解析方法。
  6. 並列句候補抽出部が、学習用文から、等位接続詞の前後の句の組み合わせを、並列句候補として複数抽出し、
    言語モデル適用部が、前記並列句候補の各々について、予め学習された言語モデルを用いて、前記等位接続詞の前の句の直後の単語を予測した予測結果、及び前記等位接続詞の後の句の直前の単語を予測した予測結果を出力し、
    ランキングモデル学習部が、予め求められた、等位接続詞の前後の句の組み合わせである複数の正解並列句に基づいて、前記並列句候補の各々について、前記等位接続詞の前の句の直後の単語の予測結果、及び前記等位接続詞の後の句の直前の単語の予測結果からランキングモデルを用いて計算されるランキングスコアが、前記並列句候補と前記正解並列句との編集距離に応じたスコアとなるように、前記ランキングモデルを学習する
    並列句解析モデル学習方法。
  7. コンピュータを、請求項1〜請求項3の何れか1項記載の並列句解析装置の各部として機能させるためのプログラム。
  8. コンピュータを、請求項4記載の並列句解析モデル学習装置の各部として機能させるためのプログラム。
JP2017079651A 2017-04-13 2017-04-13 並列句解析装置、並列句解析モデル学習装置、方法、及びプログラム Active JP6663881B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017079651A JP6663881B2 (ja) 2017-04-13 2017-04-13 並列句解析装置、並列句解析モデル学習装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017079651A JP6663881B2 (ja) 2017-04-13 2017-04-13 並列句解析装置、並列句解析モデル学習装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018180935A JP2018180935A (ja) 2018-11-15
JP6663881B2 true JP6663881B2 (ja) 2020-03-13

Family

ID=64275654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017079651A Active JP6663881B2 (ja) 2017-04-13 2017-04-13 並列句解析装置、並列句解析モデル学習装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6663881B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109902186B (zh) 2019-03-12 2021-05-11 北京百度网讯科技有限公司 用于生成神经网络的方法和装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62281059A (ja) * 1986-05-30 1987-12-05 Fujitsu Ltd 並列句処理装置
JP3698454B2 (ja) * 1995-04-07 2005-09-21 富士通株式会社 並列句解析装置および学習データ自動作成装置
JP3324910B2 (ja) * 1995-08-10 2002-09-17 ブラザー工業株式会社 日本語解析装置
US20150186790A1 (en) * 2013-12-31 2015-07-02 Soshoma Inc. Systems and Methods for Automatic Understanding of Consumer Evaluations of Product Attributes from Consumer-Generated Reviews
KR102305584B1 (ko) * 2015-01-19 2021-09-27 삼성전자주식회사 언어 모델 학습 방법 및 장치, 언어 인식 방법 및 장치
CN105868181B (zh) * 2016-04-21 2018-08-21 南京大学 基于新型神经网络的自然语言并列结构的自动识别方法

Also Published As

Publication number Publication date
JP2018180935A (ja) 2018-11-15

Similar Documents

Publication Publication Date Title
CN108363790B (zh) 用于对评论进行评估的方法、装置、设备和存储介质
Cotterell et al. Are all languages equally hard to language-model?
JP5901001B1 (ja) 音響言語モデルトレーニングのための方法およびデバイス
KR20220027198A (ko) 자연어 이해(nlu) 프레임워크에서 검색 키들 및 검색 공간들의 확장을 위한 아티팩트들의 피닝
CN107870901B (zh) 从翻译源原文生成相似文的方法、记录介质、装置以及系统
Orosz et al. PurePos 2.0: a hybrid tool for morphological disambiguation
JP2004355483A (ja) 形態素解析装置、形態素解析方法及び形態素解析プログラム
US11797761B2 (en) Device, method and program for natural language processing
Boudchiche et al. A hybrid approach for Arabic lemmatization
JP5441937B2 (ja) 言語モデル学習装置、言語モデル学習方法、言語解析装置、及びプログラム
JP2018097468A (ja) 文分類学習装置、文分類装置、文分類学習方法、及び文分類学習プログラム
JP2016224483A (ja) モデル学習装置、方法、及びプログラム
Naptali et al. Class-based n-gram language model for new words using out-of-vocabulary to in-vocabulary similarity
JP6663881B2 (ja) 並列句解析装置、並列句解析モデル学習装置、方法、及びプログラム
Chennoufi et al. Impact of morphological analysis and a large training corpus on the performances of Arabic diacritization
Liu et al. Translation quality estimation using only bilingual corpora
JP6564709B2 (ja) 文書き換え装置、方法、及びプログラム
JP2019144844A (ja) 形態素解析学習装置、形態素解析装置、方法、及びプログラム
JP2007317000A (ja) 機械翻訳装置、その方法およびプログラム
Li et al. Minimum imputed-risk: Unsupervised discriminative training for machine translation
Le et al. Automatic quality estimation for speech translation using joint ASR and MT features
JP7107059B2 (ja) 文生成装置、モデル学習装置、文生成方法、モデル学習方法、及びプログラム
JP6782929B2 (ja) 言語解析装置、方法、及びプログラム
JP5087994B2 (ja) 言語解析方法及びその装置
KR102042991B1 (ko) 한국어 접사 기반 토크나이징 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200217

R150 Certificate of patent or registration of utility model

Ref document number: 6663881

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150