JP6738769B2 - 文ペア分類装置、文ペア分類学習装置、方法、及びプログラム - Google Patents

文ペア分類装置、文ペア分類学習装置、方法、及びプログラム Download PDF

Info

Publication number
JP6738769B2
JP6738769B2 JP2017088955A JP2017088955A JP6738769B2 JP 6738769 B2 JP6738769 B2 JP 6738769B2 JP 2017088955 A JP2017088955 A JP 2017088955A JP 2017088955 A JP2017088955 A JP 2017088955A JP 6738769 B2 JP6738769 B2 JP 6738769B2
Authority
JP
Japan
Prior art keywords
sentence
sentence pair
word
unit
feature matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017088955A
Other languages
English (en)
Other versions
JP2018185771A (ja
Inventor
京介 西田
京介 西田
九月 貞光
九月 貞光
松尾 義博
義博 松尾
久子 浅野
久子 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017088955A priority Critical patent/JP6738769B2/ja
Publication of JP2018185771A publication Critical patent/JP2018185771A/ja
Application granted granted Critical
Publication of JP6738769B2 publication Critical patent/JP6738769B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、文ペア分類装置、文ペア分類学習装置、方法、及びプログラムに係り、特に、2つ以上の文の文ペアをクラスに分類するための文ペア分類装置、文ペア分類学習装置、方法、及びプログラムに関する。
質問文に対して回答となる文であるかの判定(回答文選択)や、2つの文が同じ意味を持つかの判定(換言同定)、文1から文2が推論可能かの判定(含意認識)など、文ペアの関係性クラスの分類を人工知能により正確に実施することができれば、情報検索や質問応答や知的エージェント対話など幅広いサービスに応用することができる。
文ペアクラス分類を行うための従来手法として、非特許文献1などの手法がこれまで提案されている。
非特許文献1などの従来手法では、各文に含まれる単語毎のベクトル類似度行列を計算し、この類似度行列に基づいて、2つの文の関係性クラスを分類している。単語のベクトルについては、非特許文献2に記載のword2vecなどの手法により、大規模な文書コーパスから学習可能である。
Wenpeng Yin, Hinrich Schutze, Bing Xiang, Bowen Zhou: ABCNN: Attention-Based Convolutional Neural Network for Modeling Sentence Pairs. Transactions of the Association for Computational Linguistics, Volume 4: 259-272 (2016) Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, and Jeffrey Dean. Distributed Representations of Words and Phrases and their Compositionality. In Proceedings of NIPS, 2013.
従来手法では、単語をベクトル化して扱うことにより、例えば「野球のチケットはどこで買えますか?」と「野球の入場券の売り場はどこですか?」の2文が同じ意味(言い換え)を持つことを判定するタスクにおいて、「チケット」と「入場券」の単語ベクトルの類似度が高い事を利用して、正しく判定することが可能になっている。
しかし、「クーリングオフはいつまでできますか?」と「無条件で契約を解除できる期間は?」という言い換え判定においては、「クーリングオフ」という単語と、「無」「条件」「契約」「解除」の各単語の類似度は低くなるため、言い換え判定の精度を下げる要因となる。回答文選択や含意認識のタスクに置いても同様の問題が生じる。
本発明は、上記問題点を解決するために成されたものであり、語釈を考慮した文ペアの関係性に関するクラスを求めることができる文ペア分類装置、方法、及びプログラムを提供することを目的とする。
また、語釈を考慮した文ペアの関係性に関するクラスを求めるためのパラメータを学習することができる文ペア分類学習装置、方法、及びプログラムを提供することを目的とする。
上記目的を達成するために、第1の発明に係る文ペア分類装置は、文ペアの文の各々を単語の系列に分割する単語分割部と、前記文ペアの前記文の各々に対し、前記分割された単語の各々を、各単語のベクトルを記憶する単語ベクトル記憶部に基づいてベクトル化して得られる、前記文の各々の単語に関する特徴行列を出力する単語ベクトル化部と、ニューラルネットの各レイヤーにおいて、前記文ペアの前記文の各々に対する前記単語の各々に関する特徴行列、又は前記文ペアの前記文の各々に対する、一つ前のレイヤーにより出力された特徴行列のマッチングに関する特徴行列を、前記文ペアの前記文の各々に対して出力する文ペアアテンション部と、ニューラルネットの各レイヤーにおいて、前記レイヤーに対応する単語数だけ前記単語を連結したチャンクについて、チャンクに対する語釈文を記憶する語釈文記憶部を検索して得られる、前記文ペアの一方の文に含まれる前記チャンクに関する語釈文に含まれる単語の各々に関する特徴行列と、前記文ペアの他方の文の単語の各々に関する特徴行列とのマッチングに関する特徴行列を、前記文ペアの前記文の各々に対して出力する語釈拡張文ペアアテンション部と、ニューラルネットの各レイヤーにおいて、前記単語ベクトル化部が出力した前記特徴行列、前記文ペアアテンション部が出力した前記特徴行列、及び前記語釈拡張文ペアアテンション部が出力した前記特徴行列に対して畳み込み処理を行って得られる特徴行列を、前記レイヤーの出力として、前記文ペアの前記文の各々に対して出力する畳み込み部と、前記ニューラルネットの最後のレイヤーにより出力された、前記文ペアの各々に対する前記特徴行列に基づいて、前記文ペアの関係性に関するクラスを分類するクラス分類部と、を含んで構成されている。
また、第1の発明に係る文ペア分類装置において、前記単語ベクトル化部、前記文ペアアテンション部、前記語釈拡張文ペアアテンション部、及び前記畳み込み部では、予め学習されたパラメータ行列を用いて特徴行列を求めるようにしてもよい。
また、第2の発明に係る文ペア分類学習装置は、文ペアの関係性に関するクラスを示す正解ラベルが付与された文ペアの各々を含む文ペア集合に含まれる前記文ペアの各々に対し、前記文ペアの文の各々を単語の系列に分割する単語分割部と、前記文ペア集合に含まれる前記文ペアの前記文の各々に対し、前記分割された単語の各々を、各単語のベクトルを記憶する単語ベクトル記憶部に基づいてベクトル化して得られる、前記文の各々の単語に関する特徴行列を出力する単語ベクトル化部と、ニューラルネットの各レイヤーにおいて、前記文ペアの前記文の各々に対する前記単語の各々に関する特徴行列、又は前記文ペアの前記文の各々に対する、一つ前のレイヤーにより出力された特徴行列のマッチングに関する特徴行列を、前記文ペアの前記文の各々に対して出力する文ペアアテンション部と、ニューラルネットの各レイヤーにおいて、前記レイヤーに対応する単語数だけ前記単語を連結したチャンクについて、チャンクに対する語釈文を記憶する語釈文記憶部を検索して得られる、前記文ペアの一方の文に含まれる前記チャンクに関する語釈文に含まれる単語の各々に関する特徴行列と、前記文ペアの他方の文の単語の各々に関する特徴行列とのマッチングに関する特徴行列を、前記文ペアの前記文の各々に対して出力する語釈拡張文ペアアテンション部と、ニューラルネットの各レイヤーにおいて、前記単語ベクトル化部が出力した前記特徴行列、前記文ペアアテンション部が出力した前記特徴行列、及び前記語釈拡張文ペアアテンション部が出力した前記特徴行列に対して畳み込み処理を行って得られる特徴行列を、前記レイヤーの出力として、前記文ペアの前記文の各々に対して出力する畳み込み部と、前記文ペア集合に含まれる前記文ペアの各々に対し、前記ニューラルネットの最後のレイヤーにより出力された、前記文ペアの各々に対する前記特徴行列に基づいて、前記文ペアの関係性に関するクラスを分類し、分類結果と前記正解ラベルとに基づいて前記分類結果に関する損失を算出するクラス分類部と、前記文ペア集合に含まれる前記文ペアの各々に対して算出された、前記分類結果に関する損失に基づいて、前記文ペアアテンション部、前記語釈拡張文ペアアテンション部、及び前記畳み込み部において特徴行列を求めるためのパラメータ行列を学習する学習部と、を含んで構成されている。
第3の発明に係る文ペア分類方法は、単語分割部が、文ペアの文の各々を単語の系列に分割するステップと、単語ベクトル化部が、前記文ペアの前記文の各々に対し、前記分割された単語の各々を、各単語のベクトルを記憶する単語ベクトル記憶部に基づいてベクトル化して得られる、前記文の各々の単語に関する特徴行列を出力するステップと、文ペアアテンション部が、ニューラルネットの各レイヤーにおいて、前記文ペアの前記文の各々に対する前記単語の各々に関する特徴行列、又は前記文ペアの前記文の各々に対する、一つ前のレイヤーにより出力された特徴行列のマッチングに関する特徴行列を、前記文ペアの前記文の各々に対して出力するステップと、語釈拡張文ペアアテンション部が、ニューラルネットの各レイヤーにおいて、前記レイヤーに対応する単語数だけ前記単語を連結したチャンクについて、チャンクに対する語釈文を記憶する語釈文記憶部を検索して得られる、前記文ペアの一方の文に含まれる前記チャンクに関する語釈文に含まれる単語の各々に関する特徴行列と、前記文ペアの他方の文の単語の各々に関する特徴行列とのマッチングに関する特徴行列を、前記文ペアの前記文の各々に対して出力するステップと、畳み込み部が、ニューラルネットの各レイヤーにおいて、前記単語ベクトル化部が出力した前記特徴行列、前記文ペアアテンション部が出力した前記特徴行列、及び前記語釈拡張文ペアアテンション部が出力した前記特徴行列に対して畳み込み処理を行って得られる特徴行列を、前記レイヤーの出力として、前記文ペアの前記文の各々に対して出力するステップと、クラス分類部が、前記ニューラルネットの最後のレイヤーにより出力された、前記文ペアの各々に対する前記特徴行列に基づいて、前記文ペアの関係性に関するクラスを分類するステップと、を含んで実行することを特徴とする。
また、第3の発明に係る文ペア分類方法において、前記単語ベクトル化部、前記文ペアアテンション部、前記語釈拡張文ペアアテンション部、及び前記畳み込み部では、予め学習されたパラメータ行列を用いて特徴行列を求めるようにしてもよい。
また、第4の発明に係る文ペア分類学習方法は、単語分割部が、文ペアの関係性に関するクラスを示す正解ラベルが付与された文ペアの各々を含む文ペア集合に含まれる前記文ペアの各々に対し、前記文ペアの文の各々を単語の系列に分割するステップと、単語ベクトル化部が、前記文ペア集合に含まれる前記文ペアの前記文の各々に対し、前記分割された単語の各々を、各単語のベクトルを記憶する単語ベクトル記憶部に基づいてベクトル化して得られる、前記文の各々の単語に関する特徴行列を出力するステップと、文ペアアテンション部が、ニューラルネットの各レイヤーにおいて、前記文ペアの前記文の各々に対する前記単語の各々に関する特徴行列、又は前記文ペアの前記文の各々に対する、一つ前のレイヤーにより出力された特徴行列のマッチングに関する特徴行列を、前記文ペアの前記文の各々に対して出力するステップと、語釈拡張文ペアアテンション部が、ニューラルネットの各レイヤーにおいて、前記レイヤーに対応する単語数だけ前記単語を連結したチャンクについて、チャンクに対する語釈文を記憶する語釈文記憶部を検索して得られる、前記文ペアの一方の文に含まれる前記チャンクに関する語釈文に含まれる単語の各々に関する特徴行列と、前記文ペアの他方の文の単語の各々に関する特徴行列とのマッチングに関する特徴行列を、前記文ペアの前記文の各々に対して出力するステップと、畳み込み部が、ニューラルネットの各レイヤーにおいて、前記単語ベクトル化部が出力した前記特徴行列、前記文ペアアテンション部が出力した前記特徴行列、及び前記語釈拡張文ペアアテンション部が出力した前記特徴行列に対して畳み込み処理を行って得られる特徴行列を、前記レイヤーの出力として、前記文ペアの前記文の各々に対して出力するステップと、クラス分類部が、前記文ペア集合に含まれる前記文ペアの各々に対し、前記ニューラルネットの最後のレイヤーにより出力された、前記文ペアの各々に対する前記特徴行列に基づいて、前記文ペアの関係性に関するクラスを分類し、分類結果と前記正解ラベルとに基づいて前記分類結果に関する損失を算出するステップと、学習部が、前記文ペア集合に含まれる前記文ペアの各々に対して算出された、前記分類結果に関する損失に基づいて、前記文ペアアテンション部、前記語釈拡張文ペアアテンション部、及び前記畳み込み部において特徴行列を求めるためのパラメータ行列を学習するステップと、を含んで実行することを特徴とする。
また、第5の発明に係るプログラムは、コンピュータを、第1の発明に係る文ペア分類装置、又は第2の発明に係る文ペア分類学習装置の各部として機能させるためのプログラムである。
本発明の文ペア分類装置、方法、及びプログラムによれば、ニューラルネットの各レイヤーにおいて、単語ベクトル化部が出力した特徴行列、文ペアアテンション部が出力した特徴行列、及び語釈拡張文ペアアテンション部が出力した特徴行列に対して畳み込み処理を行って得られる特徴行列を、レイヤーの出力として、文ペアの文の各々に対して出力し、クラス分類部は、文ペア集合に含まれる文ペアの各々に対し、ニューラルネットの最後のレイヤーにより出力された、文ペアの各々に対する特徴行列に基づいて、文ペアの関係性に関するクラスに分類することにより、語釈を考慮した文ペアの関係性に関するクラスを求めることができる、という効果が得られる。
本発明の文ペア分類学習装置、方法、及びプログラムによれば、ニューラルネットの各レイヤーにおいて、単語ベクトル化部が出力した特徴行列、文ペアアテンション部が出力した特徴行列、及び語釈拡張文ペアアテンション部が出力した特徴行列に対して畳み込み処理を行って得られる特徴行列を、レイヤーの出力として、文ペアの文の各々に対して出力し、クラス分類部は、文ペア集合に含まれる文ペアの各々に対し、ニューラルネットの最後のレイヤーにより出力された、文ペアの各々に対する特徴行列に基づいて、文ペアの関係性に関するクラスを分類し、分類結果と正解ラベルとに基づいて分類結果に関する損失を算出し、学習部は、文ペア集合に含まれる文ペアの各々に対して算出された、分類結果に関する損失に基づいて、特徴行列を求めるためのパラメータ行列を学習することにより、語釈を考慮した文ペアの関係性に関するクラスを求めるためのパラメータを学習することができる、という効果が得られる。
本発明の実施の形態に係る文ペア分類学習装置の構成を示すブロック図である。 単語ベクトル記憶部の一例を示す図である。 語釈文記憶部の一例を示すである。 本発明の実施の形態に係る文ペア分類学習装置における文ペア分類学習処理ルーチンを示すフローチャートである。 本発明の実施の形態に係る文ペア分類学習装置における文ペア分類学習処理ルーチンを示すフローチャートである。 本発明の実施の形態に係る文ペア分類装置の構成を示すブロック図である。 本発明の実施の形態に係る文ペア分類装置における文ペア分類処理ルーチンを示すフローチャートである。 本発明の実施の形態に係る文ペア分類装置における文ペア分類処理ルーチンを示すフローチャートである。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
<本発明の実施の形態に係る概要>
まず、本発明の実施の形態における概要を説明する。
本発明の実施の形態では、上記従来技術の問題点に鑑みて、入力された文に出現する各単語の語釈文を利用する。例えば、クーリングオフの語釈文である「一定の契約に限り、一定期間、説明不要で無条件で申込みの撤回または契約を解除できる法制度」と「無条件で契約を解除できる期間は?」の間で単語の類似度行列を計算して文ペアクラス分類に利用することで、単語ベクトルの精度に強く依存せず、高精度に文ペアクラスを分類することを可能にする。
<本発明の実施の形態に係る文ペア分類学習装置の構成>
次に、本発明の実施の形態に係る文ペア分類学習装置の構成について説明する。図1に示すように、本発明の実施の形態に係る文ペア分類学習装置100は、CPUと、RAMと、後述する文ペア分類学習処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この文ペア分類学習装置100は、機能的には図1に示すように入力部10と、演算部20とを備えている。
入力部10は、文ペアの関係性に関するクラスを示す正解ラベルが付与された文ペアの各々を含む文ペア集合を受け付ける。
演算部20は、単語ベクトル記憶部22と、語釈文記憶部24と、パラメータ行列記憶部26と、単語分割部30と、単語ベクトル化部32と、文ペアアテンション部34と、語釈拡張文ペアアテンション部36と、畳み込み部38と、クラス分類部40と、学習部42とを含んで構成されている。各処理部の処理の詳細については、作用の説明において詳しく説明する。
単語ベクトル記憶部22には、図2に示すように、単語x、及び単語ベクトルeの組が格納されており、eの次元数はE(1)次元である。
語釈文記憶部24には、少なくとも1つの単語を連結したチャンク文字列と、チャンク文字列に対応する語釈文が格納されている。例えば、図3に示すように“クーリングオフ”のチャンク文字列に対応する語釈文が格納されている。
パラメータ行列記憶部26には、文ペアアテンション部34で用いるW (i)、語釈拡張文ペアアテンション部36で用いるW (i)、畳み込み部38で用いるW (i)、b (i)、クラス分類部40で用いるW、bの各パラメータ行列(i=1,...,B)が格納される。
単語分割部30は、入力部10で受け付けた文ペア集合に含まれる文ペアの各々に対し、文ペアの文の各々を単語の系列に分割する。
単語ベクトル化部32は、文ペア集合に含まれる文ペアの文の各々に対し、分割された単語の各々を、各単語のベクトルを記憶する単語ベクトル記憶部22に基づいてベクトル化して得られる、文の各々の単語に関する特徴行列Fjを出力する。
文ペアアテンション部34は、ニューラルネットの各レイヤー(i=1,...,B)において、パラメータ行列W (i)を用いて、文ペアの文の各々に対する単語の各々に関する特徴行列Fj、又は文ペアの文の各々に対する、一つ前のレイヤーにより出力された特徴行列Fj (i)のマッチングに関する特徴行列Fj (i)'を求め、文ペアの文の各々に対して出力する。
語釈拡張文ペアアテンション部36は、ニューラルネットの各レイヤーにおいて、パラメータ行列W (i)を用いて、レイヤーに対応する単語数iだけ単語を連結したチャンクについて、チャンクに対する語釈文を記憶する語釈文記憶部24を検索して得られる、文ペアの一方の文に含まれるチャンクに関する語釈文に含まれる単語の各々に関する特徴行列Gと、文ペアの他方の文の単語の各々に関する特徴行列Fとのマッチングに関する特徴行列Fj (i)''を求め、文ペアの文の各々に対して出力する。
畳み込み部38は、ニューラルネットの各レイヤーにおいて、パラメータ行列W (i)、b (i)を用いて、単語ベクトル化部32が出力した特徴行列Fj、文ペアアテンション部34が出力した特徴行列Fj (i)'、及び語釈拡張文ペアアテンション部36が出力した特徴行列Fj (i)''に対して畳み込み処理を行って得られる特徴行列Fj (i+1)を、レイヤーiの出力として、文ペアの文の各々に対して出力する。
クラス分類部40は、文ペア集合に含まれる文ペアの各々に対し、ニューラルネットの最後のレイヤーBにより出力された、文ペアの各々に対する特徴行列F及びFと、パラメータ行列W、bとに基づいて、文ペアの関係性に関するクラスを分類し、分類結果と正解ラベルとに基づいて分類結果に関する損失Lを算出する。
学習部42は、文ペア集合に含まれる文ペアの各々に対して算出された、分類結果に関する損失に基づいて、文ペアアテンション部34、語釈拡張文ペアアテンション部36、及び畳み込み部38において特徴行列を求めるためのパラメータ行列W (i)、W (i)、W (i)、b (i)、W、bを学習する。
<本発明の実施の形態に係る文ペア分類学習装置の作用>
次に、本発明の実施の形態に係る文ペア分類学習装置100の作用について説明する。入力部10において文ペアの関係性に関するクラスを示す正解ラベルが付与された文ペアの各々を含む文ペア集合を受け付けると、パラメータ行列W (i)、W (i)、W (i)、b (i)、W、bを初期化してパラメータ行列記憶部26に記憶し、文ペア分類学習装置100は、図4及び図5に示す文ペア分類学習処理ルーチンを実行する。
ステップS100では、エポック数をn=1に初期化する。
ステップS102では、学習データ(正解ラベル(クラスタ)付の文ペアからなる文ペア集合)を、ランダムに定めたM個の文ペアが含まれるミニバッチの各々に分割する。ミニバッチに含まれる文ペアの数Mの最大値は、本実施の形態ではMmax=50とする。
ステップS104では、ミニバッチを選択する。
ステップS106では、ミニバッチの文ペアの番号を表すmをm=1に設定する。
ステップS108では、単語分割部30は、m番目の文ペアの各文(文j;j=1あるいは2)に関して、ニューラルネットのレイヤーを表すブロックのインデクスを表す変数iをi=1にセットする。
ステップS110では、単語分割部30は、文ペアの文jを単語の系列に分割する。たとえば、「投資信託ではクーリングオフはいつまでできる」という文について、「投資信託」「では」「クーリング」「オフ」「は」「いつ」「まで」「できる」のような系列に分割する。単語分割部30は、分割された単語の個数がT個より多い場合は、先頭からT個のトークンのみを出力する。また、T個よりも少ない場合は、特殊な単語「PAD」を系列の末尾に追加して出力する。本実施形態では、T=100とする。
ステップS112では、単語ベクトル化部32は、単語分割部30が出力した文の単語の系列(x1,x2,..,xr)に含まれる各単語について単語ベクトル記憶部22を検索し、文ペアの各文jについて、以下(1)式の文jの単語の各々に関する特徴行列に変換する。

・・・(1)
j (1)の行列のサイズはE(1)×Tである。本実施形態では、E(1)=100とする。
なお、単語ベクトル記憶部22に含まれない単語および特殊単語「PAD」の場合は、単語ベクトルはE(1)次元の零ベクトルとする。
次に、ステップS200では、ニューラルネットのレイヤーを表すブロック数B(i=1,..,B)を設定する。本実施形態では、B=2とする。
ステップS300では、文ペアアテンション部34は、上記ステップS112で求められた文1及び文2の特徴行列Fj、又は後述するステップS502において前のレイヤーの畳み込み処理で求められた文1及び文2の特徴行列Fj (i)から、以下(2)式のAn,mを要素とするアテンション行列Aを作成する。

・・・(2)
ここで、関数matchは、単語(あるいはチャンク)のマッチングスコアを出力するために、ベクトルxとyを受け取ってスカラ値を出力する関数で、1/(1+|x−y|)とする。[:,n]は列方向を考慮せずn行目のベクトルを取り出す操作、[:,m]は列方向を考慮せずm行目のベクトルを取り出す操作である。また、コサイン類似度などをmatch関数として使用しても良い。アテンション行列AのサイズはT×Tである。
次に、ステップS302では、アテンション行列Aを以下(3)式の文1及び文2の文同士のマッチングに関する特徴行列F1 (i)'、F2 (i)'に変換する。


・・・(3)
ここで、Wa (i)はパラメータ行列であり、E(i)×Tの行列である。Aは行列Aの転置行列を表す。本実施形態では、E(2)=100、E(3)=100とする。
ステップ400では、語釈拡張文ペアアテンション部36は、文ペアの各文jについて、レイヤーのインデクスiの値と、該文jの単語系列(x1,x2,..,xr)から、単語数iの単語を連結したチャンクの系列を作成する。i=1のとき、単語系列とチャンク系列は同じものである。i=2のとき、チャンク系列は((x1,x2,..,xr)PAD)となる。チャンク系列の長さは常にTである。チャンク系列の末尾には、i−1個の「PAD」単語が追加される。なお、Bが3以上のときは、例えばi=3のときチャンク系列は((x1,x2,..,xr)PAD,PAD)となる。
ステップ402では、語釈拡張文ペアアテンション部36は、チャンク系列の要素k(k=1、2、…)を選択する。
ステップS404では、語釈拡張文ペアアテンション部36は、文ペアの各文jについて、ステップS402で選択した要素kに含まれる単語文字列を連結した文字列(チャンク文字列;例えば、(x1,x2)=「クーリング」、「オフ」の場合”クーリングオフ”)で語釈文記憶部24を検索し、チャンク文字列に対応する語釈文が格納されている場合は、以下(4)式に示す語釈文についての単語の各々に関する特徴行列Gkを獲得する。獲得方法は、上記ステップS112の処理と同様である。

・・・(4)
ステップS406では、語釈拡張文ペアアテンション部36は、文ペアの各文jについて、h=3−jとしたとき、文hとチャンク要素kに対応する語釈文の特徴行列Gから、以下(5)式のアテンション行列Aを作成する。

・・・(5)
ステップS408では、語釈拡張文ペアアテンション部36は、文ペアの各文jについて、ステップS406で作成されたアテンション行列Aを以下(6)式の語釈に関する特徴行列Fj (i)''に変換する。

・・・(6)
ここで、wall_poolingは各行について、列方向の非ゼロの値について平均を取った値(列方向の最大値としてもよい)である。Wb (i)はパラメータ行列であり、E(i)×Tの行列である。
ステップ410では、語釈拡張文ペアアテンション部36は、文ペアの各文jについて、チャンク系列の要素kのチャンク文字列に該当するものが語釈文記憶部24に存在しない場合、特徴行列F (i)''の該当部分に零ベクトルを代入する。

・・・(7)
ステップS412では、語釈拡張文ペアアテンション部36は、全ての要素kについて処理を終了したかを判定し、終了していればステップS500に移行し終了していなければステップS402に戻って次の要素kを選択して処理を繰り返す。
ステップS500では、畳み込み部38は、文ペアの各文(文j;j=1あるいは2)について、畳み込み処理を行う。各特徴行列F (i),F (i)',F (i)''はそれぞれE(i)×Tの行列である。これらの行列から、3×E(i)×Tの3階テンソルFに変換し、フィルタサイズ3×2、パディング幅の行方向0、列方向1、ストライド幅1、入力チャネル数E(i)、出力チャネル数E(i+1)の畳み込み処理を行い以下(8)式にてHを出力する。

・・・(8)
ここで、Hは1×T×E(i)のテンソルとなる。σはシグモイド関数、*は畳み込み処理を表す。Wc (i)、bc (i)はパラメータ行列である。
ステップS502では、畳み込み部38は、文ペアの各文jについて、ステップS500の畳み込み処理で得られたHを下記プーリング処理にてi+1の特徴行列Fj (i+1)に変換する。

・・・(9)
ここで、w2_poolingは各行について、ウィンドウサイズ2で列方向の非ゼロの値について平均を取った値(列方向の最大値としてもよい)である。
なお、レイヤーの最終ブロック(i=B)では、w2_poolingの代わりにwall_poolingを利用する。最終層が出力するFのサイズは、1×E(B+1)である。
ステップS504では、i=Bか否かを判定し、i=BであればステップS600に移行し、i=BでなければステップS506に移行し、i=i+1として、ステップS300に戻って処理を繰り返す。
ステップS600では、クラス分類部40は、ニューラルネットの最終ブロックが出力したF1、F2をそれぞれベクトルに変換して連結したベクトルvを入力として、文ペアについて文関係のクラス分類(クラス数=C)を行う。

・・・(10)
ここで、WdのサイズはC×2E(B+1)次元の行列、bはC次元のベクトルであり、softmaxはソフトマックス関数である。yはC次元のベクトルである。
ステップ602では、クラス分類部40は、出力yに関する損失を計算する。正解クラスのインデクスをt∈{1,...,C}、クラスtに関する出力をyとしたとき、正解クラスtの損失Lを下記(11)式にて計算する。

・・・(11)
ステップS700では、学習部42は、m=Mか否かを判定し、m=MであればステップS704に移行し、m=MでなければステップS702でm=m+1としてステップS108に戻って処理を繰り返す。
ステップS704では、学習部42は、ステップ108〜ステップ700で算出された文ペアの各々に対する正解クラスtの損失Lを該ミニバッチについて合計し、確率的勾配降下法により文ペアアテンション部34のWa (i)、語釈拡張文ペアアテンション部36のWb (i)、畳み込み部38のWc (i)、bc (i)クラス分類部40のWd、bdの各パラメータ行列(i=1,...,B)について最適化を行う。なお、最適化の方法は確率的勾配降下法に限らず、他の最適化法を利用しても良い。
ステップS706では、全てのミニバッチについて処理を終了したかを判定し、処理を終了していればステップS708に移行し、処理を終了していなければステップS104に戻って次のミニバッチを選択して処理を繰り返す。
ステップS708では、n=N(N=100)か否かを判定し、n=Nであれば処理を終了し、n=NでなければステップS710でn=n+1としてステップS102に戻って処理を繰り返す。
以上説明したように、本発明の実施の形態に係る文ペア分類学習装置によれば、ニューラルネットの各レイヤーにおいて、単語ベクトル化部32が出力した特徴行列Fj、文ペアアテンション部34が出力した特徴行列Fj (i)'、及び語釈拡張文ペアアテンション部36が出力した特徴行列Fj (i)''に対して畳み込み処理を行って得られる特徴行列Fj (i+1)を、レイヤーiの出力として、文ペアの文の各々に対して出力し、クラス分類部40は、文ペア集合に含まれる文ペアの各々に対し、ニューラルネットの最後のレイヤーBにより出力された、文ペアの各々に対する特徴行列F及びFに基づいて、文ペアの関係性に関するクラスを分類し、分類結果と正解ラベルとに基づいて分類結果に関する損失Lを算出し、学習部42は、文ペア集合に含まれる文ペアの各々に対して算出された、分類結果に関する損失に基づいて、特徴行列を求めるためのパラメータ行列を学習することにより、語釈を考慮した文ペアの関係性に関するクラスを求めるためのパラメータを学習することができる。
<本発明の実施の形態に係る文ペア分類装置の構成>
次に、本発明の実施の形態に係る文ペア分類装置の構成について説明する。図6に示すように、本発明の実施の形態に係る文ペア分類装置200は、CPUと、RAMと、後述する文ペア分類処理ルーチンを実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することが出来る。この文ペア分類装置200は、機能的には図6に示すように入力部210と、演算部220と、出力部250とを備えている。
入力部210は、テストデータとして、クラスを求める対象とする文ペアを受け付ける。
演算部220は、単語ベクトル記憶部222と、語釈文記憶部224と、パラメータ行列記憶部226と、単語分割部230と、単語ベクトル化部232と、文ペアアテンション部234と、語釈拡張文ペアアテンション部236と、畳み込み部238と、クラス分類部240とを含んで構成されている。各処理部の処理の詳細については、作用の説明において詳しく説明する。
単語ベクトル記憶部222には、上記図2の単語ベクトル記憶部22と同じものが格納されている。
語釈文記憶部224には、上記図3の語釈文記憶部24と同じものが格納されている。 パラメータ行列記憶部226には、上記文ペア分類学習装置100で学習された、文ペアアテンション部234で用いるWa (i)、語釈拡張文ペアアテンション部236で用いるWb (i)、畳み込み部238で用いるWc (i)、bc (i)クラス分類部240で用いるWd、bdの各パラメータ行列(i=1,...,B)が格納されている。
単語分割部230は、入力部10で受け付けた文ペアの各々に対し、文ペアの文の各々を単語の系列に分割する。
単語ベクトル化部232は、文ペアの文の各々に対し、分割された単語の各々を、各単語のベクトルを記憶する単語ベクトル記憶部222に基づいてベクトル化して得られる、文の各々の単語に関する特徴行列Fjを出力する。
文ペアアテンション部234は、ニューラルネットの各レイヤー(i=1,...,B)において、パラメータ行列Wa (i)を用いて、文ペアの文の各々に対する単語の各々に関する特徴行列Fj、又は文ペアの文の各々に対する、一つ前のレイヤーにより出力された特徴行列Fj (i)のマッチングに関する特徴行列Fj (i)'を求め、文ペアの文の各々に対して出力する。
語釈拡張文ペアアテンション部236は、ニューラルネットの各レイヤーにおいて、パラメータ行列Wb (i)を用いて、レイヤーiに対応する単語数iだけ単語を連結したチャンクについて、チャンクに対する語釈文を記憶する語釈文記憶部224を検索して得られる、文ペアの一方の文に含まれるチャンクに関する語釈文に含まれる単語の各々に関する特徴行列Gと、文ペアの他方の文の単語の各々に関する特徴行列Fとのマッチングに関する特徴行列Fj (i)''を求め、文ペアの文の各々に対して出力する。
畳み込み部238は、ニューラルネットの各レイヤーにおいて、パラメータ行列W (i)、bc (i)を用いて、単語ベクトル化部232が出力した特徴行列Fj、文ペアアテンション部234が出力した特徴行列Fj (i)'、及び語釈拡張文ペアアテンション部236が出力した特徴行列Fj (i)''に対して畳み込み処理を行って得られる特徴行列Fj (i+1)を求め、レイヤーiの出力として、文ペアの文の各々に対して出力する。
クラス分類部240は、文ペア集合に含まれる文ペアの各々に対し、ニューラルネットの最後のレイヤーBにより出力された、文ペアの各々に対する特徴行列F1及びF2と、パラメータ行列Wd、bdとに基づいて、文ペアをクラスに分類し、分類結果を出力部250に出力する。
<本発明の実施の形態に係る文ペア分類装置の作用>
次に、本発明の実施の形態に係る文ペア分類装置200の作用について説明する。入力部210においてテストデータとして文ペアを受け付けると、文ペア分類装置200は、図7及び図8に示す文ペア分類処理ルーチンを実行する。なお、複数の文ペアをテストデートする場合には、ステップS800〜802を文ペア文ごとに行えばよい。
ステップS800では、テストデータを1個の文ペアが含まれるミニバッチに分割する。
次にステップS800で分割した文ペアについて、上記図4及び図5に示すステップS108〜S600と同様の処理を行って、各クラスについてのC次元のベクトルyを求める。
ステップS802では、ステップS600で求められたC次元のベクトルyの要素の中で最も値が大きいt番目の要素に対応するクラスを文ペアの分類結果として出力部250に出力する。
以上説明したように、本発明の実施の形態に係る文ペア分類装置によれば、ニューラルネットの各レイヤーにおいて、単語ベクトル化部32が出力した特徴行列Fj、文ペアアテンション部34が出力した特徴行列Fj (i)'、及び語釈拡張文ペアアテンション部36が出力した特徴行列Fj (i)''に対して畳み込み処理を行って得られる特徴行列Fj (i+1)を、レイヤーiの出力として、文ペアの文の各々に対して出力し、クラス分類部40は、文ペア集合に含まれる文ペアの各々に対し、ニューラルネットの最後のレイヤーBにより出力された、文ペアの各々に対する特徴行列F1及びF2に基づいて、文ペアの関係性に関するクラスに分類することで、語釈を考慮した文ペアの関係性に関するクラスを求めることができる。
なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
10 入力部
20 演算部
22 単語ベクトル記憶部
24 語釈文記憶部
26 パラメータ行列記憶部
30 単語分割部
32 単語ベクトル化部
34 文ペアアテンション部
36 語釈拡張文ペアアテンション部
38 畳み込み部
40 クラス分類部
42 学習部
100 文ペア分類学習装置
200 文ペア分類装置
210 入力部
220 演算部
222 単語ベクトル記憶部
224 語釈文記憶部
226 パラメータ行列記憶部
230 単語分割部
232 単語ベクトル化部
234 文ペアアテンション部
236 語釈拡張文ペアアテンション部
240 クラス分類部
250 出力部

Claims (7)

  1. 文ペアの文の各々を単語の系列に分割する単語分割部と、
    前記文ペアの前記文の各々に対し、前記分割された単語の各々を、各単語のベクトルを記憶する単語ベクトル記憶部に基づいてベクトル化して得られる、前記文の各々の単語に関する特徴行列を出力する単語ベクトル化部と、
    ニューラルネットの各レイヤーにおいて、前記文ペアの前記文の各々に対する前記単語の各々に関する特徴行列、又は前記文ペアの前記文の各々に対する、一つ前のレイヤーにより出力された特徴行列のマッチングに関する特徴行列を、前記文ペアの前記文の各々に対して出力する文ペアアテンション部と、
    ニューラルネットの各レイヤーにおいて、前記レイヤーに対応する単語数だけ前記単語を連結したチャンクについて、チャンクに対する語釈文を記憶する語釈文記憶部を検索して得られる、前記文ペアの一方の文に含まれる前記チャンクに関する語釈文に含まれる単語の各々に関する特徴行列と、前記文ペアの他方の文の単語の各々に関する特徴行列とのマッチングに関する特徴行列を、前記文ペアの前記文の各々に対して出力する語釈拡張文ペアアテンション部と、
    ニューラルネットの各レイヤーにおいて、前記単語ベクトル化部が出力した前記特徴行列、前記文ペアアテンション部が出力した前記特徴行列、及び前記語釈拡張文ペアアテンション部が出力した前記特徴行列に対して畳み込み処理を行って得られる特徴行列を、前記レイヤーの出力として、前記文ペアの前記文の各々に対して出力する畳み込み部と、
    前記ニューラルネットの最後のレイヤーにより出力された、前記文ペアの各々に対する前記特徴行列に基づいて、前記文ペアの関係性に関するクラスを分類するクラス分類部と、
    を含む文ペア分類装置。
  2. 前記単語ベクトル化部、前記文ペアアテンション部、前記語釈拡張文ペアアテンション部、及び前記畳み込み部では、予め学習されたパラメータ行列を用いて特徴行列を求める請求項1に記載の文ペア分類装置。
  3. 文ペアの関係性に関するクラスを示す正解ラベルが付与された文ペアの各々を含む文ペア集合に含まれる前記文ペアの各々に対し、前記文ペアの文の各々を単語の系列に分割する単語分割部と、
    前記文ペア集合に含まれる前記文ペアの前記文の各々に対し、前記分割された単語の各々を、各単語のベクトルを記憶する単語ベクトル記憶部に基づいてベクトル化して得られる、前記文の各々の単語に関する特徴行列を出力する単語ベクトル化部と、
    ニューラルネットの各レイヤーにおいて、前記文ペアの前記文の各々に対する前記単語の各々に関する特徴行列、又は前記文ペアの前記文の各々に対する、一つ前のレイヤーにより出力された特徴行列のマッチングに関する特徴行列を、前記文ペアの前記文の各々に対して出力する文ペアアテンション部と、
    ニューラルネットの各レイヤーにおいて、前記レイヤーに対応する単語数だけ前記単語を連結したチャンクについて、チャンクに対する語釈文を記憶する語釈文記憶部を検索して得られる、前記文ペアの一方の文に含まれる前記チャンクに関する語釈文に含まれる単語の各々に関する特徴行列と、前記文ペアの他方の文の単語の各々に関する特徴行列とのマッチングに関する特徴行列を、前記文ペアの前記文の各々に対して出力する語釈拡張文ペアアテンション部と、
    ニューラルネットの各レイヤーにおいて、前記単語ベクトル化部が出力した前記特徴行列、前記文ペアアテンション部が出力した前記特徴行列、及び前記語釈拡張文ペアアテンション部が出力した前記特徴行列に対して畳み込み処理を行って得られる特徴行列を、前記レイヤーの出力として、前記文ペアの前記文の各々に対して出力する畳み込み部と、
    前記文ペア集合に含まれる前記文ペアの各々に対し、前記ニューラルネットの最後のレイヤーにより出力された、前記文ペアの各々に対する前記特徴行列に基づいて、前記文ペアの関係性に関するクラスを分類し、分類結果と前記正解ラベルとに基づいて前記分類結果に関する損失を算出するクラス分類部と、
    前記文ペア集合に含まれる前記文ペアの各々に対して算出された、前記分類結果に関する損失に基づいて、前記文ペアアテンション部、前記語釈拡張文ペアアテンション部、及び前記畳み込み部において特徴行列を求めるためのパラメータ行列を学習する学習部と、
    を含む文ペア分類学習装置。
  4. 単語分割部が、文ペアの文の各々を単語の系列に分割するステップと、
    単語ベクトル化部が、前記文ペアの前記文の各々に対し、前記分割された単語の各々を、各単語のベクトルを記憶する単語ベクトル記憶部に基づいてベクトル化して得られる、前記文の各々の単語に関する特徴行列を出力するステップと、
    文ペアアテンション部が、ニューラルネットの各レイヤーにおいて、前記文ペアの前記文の各々に対する前記単語の各々に関する特徴行列、又は前記文ペアの前記文の各々に対する、一つ前のレイヤーにより出力された特徴行列のマッチングに関する特徴行列を、前記文ペアの前記文の各々に対して出力するステップと、
    語釈拡張文ペアアテンション部が、ニューラルネットの各レイヤーにおいて、前記レイヤーに対応する単語数だけ前記単語を連結したチャンクについて、チャンクに対する語釈文を記憶する語釈文記憶部を検索して得られる、前記文ペアの一方の文に含まれる前記チャンクに関する語釈文に含まれる単語の各々に関する特徴行列と、前記文ペアの他方の文の単語の各々に関する特徴行列とのマッチングに関する特徴行列を、前記文ペアの前記文の各々に対して出力するステップと、
    畳み込み部が、ニューラルネットの各レイヤーにおいて、前記単語ベクトル化部が出力した前記特徴行列、前記文ペアアテンション部が出力した前記特徴行列、及び前記語釈拡張文ペアアテンション部が出力した前記特徴行列に対して畳み込み処理を行って得られる特徴行列を、前記レイヤーの出力として、前記文ペアの前記文の各々に対して出力するステップと、
    クラス分類部が、前記ニューラルネットの最後のレイヤーにより出力された、前記文ペアの各々に対する前記特徴行列に基づいて、前記文ペアの関係性に関するクラスを分類するステップと、
    を含む文ペア分類方法。
  5. 前記単語ベクトル化部、前記文ペアアテンション部、前記語釈拡張文ペアアテンション部、及び前記畳み込み部では、予め学習されたパラメータ行列を用いて特徴行列を求める請求項4に記載の文ペア分類方法。
  6. 単語分割部が、文ペアの関係性に関するクラスを示す正解ラベルが付与された文ペアの各々を含む文ペア集合に含まれる前記文ペアの各々に対し、前記文ペアの文の各々を単語の系列に分割するステップと、
    単語ベクトル化部が、前記文ペア集合に含まれる前記文ペアの前記文の各々に対し、前記分割された単語の各々を、各単語のベクトルを記憶する単語ベクトル記憶部に基づいてベクトル化して得られる、前記文の各々の単語に関する特徴行列を出力するステップと、
    文ペアアテンション部が、ニューラルネットの各レイヤーにおいて、前記文ペアの前記文の各々に対する前記単語の各々に関する特徴行列、又は前記文ペアの前記文の各々に対する、一つ前のレイヤーにより出力された特徴行列のマッチングに関する特徴行列を、前記文ペアの前記文の各々に対して出力するステップと、
    語釈拡張文ペアアテンション部が、ニューラルネットの各レイヤーにおいて、前記レイヤーに対応する単語数だけ前記単語を連結したチャンクについて、チャンクに対する語釈文を記憶する語釈文記憶部を検索して得られる、前記文ペアの一方の文に含まれる前記チャンクに関する語釈文に含まれる単語の各々に関する特徴行列と、前記文ペアの他方の文の単語の各々に関する特徴行列とのマッチングに関する特徴行列を、前記文ペアの前記文の各々に対して出力するステップと、
    畳み込み部が、ニューラルネットの各レイヤーにおいて、前記単語ベクトル化部が出力した前記特徴行列、前記文ペアアテンション部が出力した前記特徴行列、及び前記語釈拡張文ペアアテンション部が出力した前記特徴行列に対して畳み込み処理を行って得られる特徴行列を、前記レイヤーの出力として、前記文ペアの前記文の各々に対して出力するステップと、
    クラス分類部が、前記文ペア集合に含まれる前記文ペアの各々に対し、前記ニューラルネットの最後のレイヤーにより出力された、前記文ペアの各々に対する前記特徴行列に基づいて、前記文ペアの関係性に関するクラスを分類し、分類結果と前記正解ラベルとに基づいて前記分類結果に関する損失を算出するステップと、
    学習部が、前記文ペア集合に含まれる前記文ペアの各々に対して算出された、前記分類結果に関する損失に基づいて、前記文ペアアテンション部、前記語釈拡張文ペアアテンション部、及び前記畳み込み部において特徴行列を求めるためのパラメータ行列を学習するステップと、
    を含む文ペア分類学習方法。
  7. コンピュータを、請求項1若しくは請求項2に記載の文ペア分類装置、又は請求項3に記載の文ペア分類学習装置の各部として機能させるためのプログラム。
JP2017088955A 2017-04-27 2017-04-27 文ペア分類装置、文ペア分類学習装置、方法、及びプログラム Active JP6738769B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017088955A JP6738769B2 (ja) 2017-04-27 2017-04-27 文ペア分類装置、文ペア分類学習装置、方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017088955A JP6738769B2 (ja) 2017-04-27 2017-04-27 文ペア分類装置、文ペア分類学習装置、方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2018185771A JP2018185771A (ja) 2018-11-22
JP6738769B2 true JP6738769B2 (ja) 2020-08-12

Family

ID=64356049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017088955A Active JP6738769B2 (ja) 2017-04-27 2017-04-27 文ペア分類装置、文ペア分類学習装置、方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6738769B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109857860A (zh) * 2019-01-04 2019-06-07 平安科技(深圳)有限公司 文本分类方法、装置、计算机设备及存储介质
JP7436804B2 (ja) * 2020-01-23 2024-02-22 株式会社Mixi 情報処理装置、及びプログラム
CN111858893B (zh) * 2020-07-27 2022-06-03 平安科技(深圳)有限公司 句子对匹配方法、装置和计算机设备和存储介质
CN112307170A (zh) * 2020-10-29 2021-02-02 首都师范大学 关系抽取模型的训练方法、关系抽取方法、设备及介质
CN113268597B (zh) * 2021-05-25 2023-06-27 平安科技(深圳)有限公司 文本分类方法、装置、设备及存储介质
CN113516671B (zh) * 2021-08-06 2022-07-01 重庆邮电大学 一种基于U-net和注意力机制的婴幼儿脑组织图像分割方法

Also Published As

Publication number Publication date
JP2018185771A (ja) 2018-11-22

Similar Documents

Publication Publication Date Title
JP6738769B2 (ja) 文ペア分類装置、文ペア分類学習装置、方法、及びプログラム
CN110298037B (zh) 基于增强注意力机制的卷积神经网络匹配的文本识别方法
CN108959246B (zh) 基于改进的注意力机制的答案选择方法、装置和电子设备
CN106980683B (zh) 基于深度学习的博客文本摘要生成方法
CN110969020B (zh) 基于cnn和注意力机制的中文命名实体识别方法、系统及介质
CN113627447B (zh) 标签识别方法、装置、计算机设备、存储介质及程序产品
CN113239186A (zh) 一种基于多依存关系表示机制的图卷积网络关系抽取方法
CN112015868A (zh) 基于知识图谱补全的问答方法
CN108664512B (zh) 文本对象分类方法及装置
CN112052684A (zh) 电力计量的命名实体识别方法、装置、设备和存储介质
JP6291443B2 (ja) 接続関係推定装置、方法、及びプログラム
CN113704416B (zh) 词义消歧方法、装置、电子设备及计算机可读存储介质
CN110688479A (zh) 一种用于生成式摘要的评估方法及排序网络
CN115952292B (zh) 多标签分类方法、装置及计算机可读介质
CN112100212A (zh) 一种基于机器学习和规则匹配的案件情节抽取方法
CN113449084A (zh) 基于图卷积的关系抽取方法
CN114528835A (zh) 基于区间判别的半监督专业术语抽取方法、介质及设备
CN114357151A (zh) 文本类目识别模型的处理方法、装置、设备及存储介质
CN111159405B (zh) 基于背景知识的讽刺检测方法
CN115757773A (zh) 一种多价值链问题文本分类方法和装置
CN112988970A (zh) 一种服务于智能问答系统的文本匹配算法
CN110569355A (zh) 一种基于词块的观点目标抽取和目标情感分类联合方法及系统
CN113516094A (zh) 一种用于为文档匹配评议专家的系统以及方法
CN117828024A (zh) 一种插件检索方法、装置、存储介质及设备
CN111274494B (zh) 结合深度学习和协同过滤技术的复合标签推荐方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200720

R150 Certificate of patent or registration of utility model

Ref document number: 6738769

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150