JP6590086B2 - 情報処理システム、情報処理方法、及び、プログラム - Google Patents

情報処理システム、情報処理方法、及び、プログラム Download PDF

Info

Publication number
JP6590086B2
JP6590086B2 JP2018560270A JP2018560270A JP6590086B2 JP 6590086 B2 JP6590086 B2 JP 6590086B2 JP 2018560270 A JP2018560270 A JP 2018560270A JP 2018560270 A JP2018560270 A JP 2018560270A JP 6590086 B2 JP6590086 B2 JP 6590086B2
Authority
JP
Japan
Prior art keywords
event
relationship
feature
feature quantity
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018560270A
Other languages
English (en)
Other versions
JP2019511797A (ja
Inventor
シルバ ダニエル ゲオルグ アンドラーデ
シルバ ダニエル ゲオルグ アンドラーデ
陽太郎 渡邉
陽太郎 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JP2019511797A publication Critical patent/JP2019511797A/ja
Application granted granted Critical
Publication of JP6590086B2 publication Critical patent/JP6590086B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Description

本発明は、情報処理システム、情報処理方法、及び、コンピュータが読み取り可能な記録媒体に関する。
論理ベース推論エンジンでは、2つのイベントの間の含意(implication)の度合いを用いて推論を行う。イベントが、動詞を一つだけ含む、表現または文、として定義されると仮定する。この場合、イベントは、述語項構造(PAS(predicated argument structure))として表される。例えば、イベント「Peter was attacked by a dog」は、verb=「attack」、arg0=「dog」、及び、arg1=「Peter」で表される。ここで、arg0は意味的な主語を示し、arg1は意味的な目的語を示す。以下の説明では、イベントは、述語項構造を用いて、(dog, attack, Peter)のようにも表される。
論理ベース推論エンジンにおける、イベント間の含意度合いの適用として、主に、以下の三つがある。
1)語彙の揺らぎの解消。例えば、知識ベース(BK(knowledge base))で、イベント「car drives」が定義され、入力として、観測「automobile drives」が記述されると仮定する。この場合、「automobile drives」は、イベント「car drives」の語彙の揺らぎの1つである。従って、「automobile drives」は「car drives」を含意する(「automobile drives」=>「car drives」)と推論される。ここで、記号「=>」は、記号の左側のイベントが、記号の右側のイベントを含意することを示す。
2)伴意関係(entailment relation)の検出。例えば、BKで、イベント「Peter goes home」が定義され、入力として、観測「Peter limps home」が記述されると仮定する。この場合、イベント「Peter limps home」はイベント「Peter goes home」を含意する。従って、「Peter limps home」は「Peter goes home」を含意する(「Peter limps home」=>「Peter goes home」)と推論される。
3)時間関係(temporal relation)の検出。例えば、BKで、イベント「car drives」が定義され、入力として、観測「driver enters car」が記述されると仮定する。この場合、イベント「car drives」は、イベント「driver enters car」の後に発生する。従って、「driver enters car」は「car drives」を含意する(「driver enters car」=>「car drives」)と推論される。
第1及び第2の適用は、例えば、非特許文献2に記載されている既存の同義語辞書を用いることにより実現される。これより、論理推論システムの堅牢性を高めることができる。より一般的には、これらの適用は、非特許文献1に記載のテキスト伴意検証システムにより実現される。
第3の適用は、非特許文献4に記載されているスクリプト学習により部分的に行われる。非特許文献4では、{「sitting down in restaurant」=>「order meal」}のような時間的な(前後の)順序が検出される。
関連する技術として、非特許文献3は、テキスト文書間の意味的な一致度を検出するモデルを学習する方法を開示している。非特許文献5は、畳み込み層を用いるニューラルネットワーク構造を開示している。非特許文献6は、ニューラルネットワークを用いるイベント予測を開示している。
Ion Androutsopoulos, et al., "A Survey of Paraphrasing and Textual Entailment Methods", Journal of Artificial Intelligence Research, Vol. 38, pp. 135-187, 2010 Tushar Khot, et al., "Markov Logic Networks for Natural Language Question Answering", arXiv, 2015 Bin Bai, et al., "Supervised Semantic Indexing", Proceedings of the 18th ACM conference on Information and knowledge management, pp.187-196, 2009 Ashutosh Modi, et al., "Inducing Neural Models of Script Knowledge", Proceedings of the Eighteenth Conference on Computational Language Learning, pp.49-57, 2014 Ronan Collobert, et al., "Natural Language Processing (almost) from Scratch", Journal of Machine Learning Research, Vol. 12, pp.2493-2537, 2011 Mark Granroth-Wilding, et al., "What Happens Next? Event Prediction Using a Compositional Neural Network", Proceedings 13th AAAI Conference on Artificial Intelligence, 2016 Fellbaum, Christiane "English Verbs as a Semantic Net", International Journal of Lexicography, Vol. 3, Issue 4, pp.278-301, 1990
上述の非特許文献では、時間関係、及び、伴意関係の2種類の含意が個別タスクとして処理される。そのため、時間関係を検出するためのトレーニングデータ、及び、伴意関係を検出するためのトレーニングデータを組み合わせて機械学習を行うことができない。特に、時間関係の検出に利用可能なトレーニングデータが不十分である場合、機械学習を適切に実行できない。
本発明の目的は、上述の問題を解決し、イベント間の関係の検出を改善できる情報処理システム、情報処理方法、及び、コンピュータが読み取り可能な記録媒体を提供することにある。
本発明の一態様における情報処理システムは、トレーニング用の第1イベント及び第2イベントから成るペア、及び、前記トレーニング用の前記第1イベント及び前記第2イベントから成るペアの間の関係であって第1関係または第2関係を記憶する、トレーニングデータ記憶手段と、分類対象の前記第1イベント及び前記第2イベントから成るペアの間の関係を、前記第1関係または前記第2関係に分類するニューラルネットワークであって、前記第1関係の特徴量を前記第1イベントの特徴量及び前記第2イベントの特徴量から抽出する第1層と、前記第2関係の特徴量を前記第1イベントの特徴量及び前記第2イベントの特徴量から抽出する第2層と、前記第1関係及び前記第2関係の結合特徴量を前記第1関係の特徴量及び前記第2関係の特徴量から抽出する結合層と、を含むニューラルネットワークを、前記トレーニング用のペアを用いて学習する学習手段と、を備える。
本発明の一態様における情報処理方法は、トレーニング用の第1イベント及び第2イベントから成るペア、及び、前記トレーニング用の前記第1イベント及び前記第2イベントから成るペアの間の関係であって第1関係または第2関係を読み出し、分類対象の前記第1イベント及び前記第2イベントから成るペアの間の関係を、前記第1関係または前記第2関係に分類するニューラルネットワークであって、前記第1関係の特徴量を前記第1イベントの特徴量及び前記第2イベントの特徴量から抽出する第1層と、前記第2関係の特徴量を前記第1イベントの特徴量及び前記第2イベントの特徴量から抽出する第2層と、前記第1関係及び前記第2関係の結合特徴量を前記第1関係の特徴量及び前記第2関係の特徴量から抽出する結合層と、を含むニューラルネットワークを、前記トレーニング用のペアを用いて学習する。
本発明の一態様におけるコンピュータが読み取り可能な記録媒体は、コンピュータに、トレーニング用の第1イベント及び第2イベントから成るペア、及び、前記トレーニング用の前記第1イベント及び前記第2イベントから成るペアの間の関係であって第1関係または第2関係を読み出し、分類対象の前記第1イベント及び前記第2イベントから成るペアの間の関係を、前記第1関係または前記第2関係に分類するニューラルネットワークであって、前記第1関係の特徴量を前記第1イベントの特徴量及び前記第2イベントの特徴量から抽出する第1層と、前記第2関係の特徴量を前記第1イベントの特徴量及び前記第2イベントの特徴量から抽出する第2層と、前記第1関係及び前記第2関係の結合特徴量を前記第1関係の特徴量及び前記第2関係の特徴量から抽出する結合層と、を含むニューラルネットワークを、前記トレーニング用のペアを用いて学習する、処理を実行させるプログラムを格納する。
本発明の効果は、イベント間の関係の検出を改善できることである。
本発明の第1の実施形態における、特徴的な構成を示すブロック図である。 本発明の第1の実施形態における、学習システム100の構成を示すブロック図である。 本発明の第1の実施形態における、学習システム100がコンピュータにより実現される場合の構成を示すブロック図である。 本発明の第1の実施形態における、学習システム100の処理を示すフローチャートである。 本発明の第1の実施形態における、トレーニングデータの例を示す図である。 本発明の第1の実施形態における、ニューラルネットワークの例を示す図である。 本発明の第2の実施形態における、ニューラルネットワークの例を示す図である。 非特許文献4に提案されているニューラルネットワークに基づく、時間関係を検出するためのニューラルネットワークを示す図である。
(前提事項)
まず、第1の実施形態及び第2の実施形態において用いられる前提事項について以下に説明する。
最も簡単な状況として、トレーニングデータが形式{「a」=>「b」}で与えられるトレーニング用イベントペアを含むと仮定する。ここで、「a」、及び、「b」は、2つの単独イベントを表す。イベントは、述語項構造、または、neo-Davidsonian論理表現で表すことができる。また、形式{「a」=>「b」}において、イベント「a」を、観測イベント、または、第1イベントとも記載し、イベント「b」を、予測イベント、または、第2イベントとも記載する。
Vを全ての単語を含むボキャブラリー(vocabulary)とし、V中の全ての単語に対して特徴ベクトルが与えられると仮定する。特徴ベクトルは、Bag-of-Wordsにより定義できる。この場合、特徴ベクトルは、ボキャブラリー中の単語の数である次元sを有する。特徴ベクトルは、非特許文献1に開示されているWord Embeddingによっても定義できる。Word Embeddingは、V中の各単語に対して学習される。
まず、各イベントに対する特徴ベクトル表現を生成する。イベントの特徴ベクトル表現を生成するための1つの方法として、数1式で表されるように、述語に対する特徴ベクトル、及び、各項に対する特徴ベクトルを合計することが考えられる。数1式において、xは、イベント「a」に対する特徴ベクトル、xa,iは、イベントのi番目の単語に対する特徴ベクトル、kは、イベントに含まれる単語の数である。
Figure 0006590086
また、イベントの特徴ベクトル表現を生成するための他の方法として、非特許文献5に開示されているように、畳み込みニューラルネットワークを用いる方法や、非特許文献6に開示されているような自動エンコーダ(auto-encoder)を用いて、イベントを固定長ベクトルに集約するイベント表現を見つける方法が考えられる。
kを固定値と仮定すると、イベントの特徴ベクトル表現を生成するためのさらに他の方法として、数2式で表されるように、各単語の特徴ベクトルを付加して1つの長い特徴ベクトルとする方法が考えられる。
Figure 0006590086
以下の説明では、簡単のため、kが2に固定され、xa,0、xa,1、及び、xa,2が、それぞれ、意味的主語、述語、及び、意味的目的語の特徴ベクトルに対応していると仮定する。例えば、イベント「Peter kisses Sara」では、述語は「kisses」、主語は「Peter」、目的語は「Sara」である。
さらに、以下の説明では、xa,0、xa,1、及び、xa,2が、word2vecのような、これらの単語のWord Embeddingにより表されると仮定する。また、簡単のため、両方のイベントで、主語、及び、目的語は同じであり(同じ表層形式であり)、同じエンティティを示していると仮定する。例えば、イベントペア(Peter, buy, car)及び(Peter, sell, car)に関し、両方のイベントに含まれる「Peter」は同じ人物を示しており、「car」は同じ車を示している。また、各Word Embeddingは、次元dを有すると仮定する。
また、含意関係(以下、単に、関係(relation)とも記載する)は2種類:時間関係(前後関係(before-after relation)または将来予測関係(future prediction relation)とも記載)、または、伴意関係に分類できると仮定する。時間関係は、記号「=>」で表される。記号「=>」は、記号の左側のイベントが、記号の右側のイベントの前に発生することを示す。伴意関係は、記号「=>」で表される。記号「=>」は、記号の左側のイベントが、記号の右側のイベントを伴意する(論理的に含意する)ことを示す。伴意関係、及び、論理的含意関係は、等価であると考えられる。時間関係、及び、伴意関係は、それぞれ、本発明の第1関係、及び、第2関係の一実施形態である。
時間関係を検出するためには、非特許文献4に開示されているニューラルネットワークを用いることができる。図8は、非特許文献4に提案されているニューラルネットワークに基づく、時間関係を検出するためのニューラルネットワークを示す図である。まず、隠れ層(hidden layer)において、次元hを有するEvent Embedding e、eが、数3式を用いて計算される。数3式において、M、及び、Mは、次元h×3dを有する重み行列である。また、gは、要素ごとに適用される、シグモイド関数のような非線形関数である。
Figure 0006590086
次に、得られたEvent Embedding e、eについて、イベント「a」がイベント「b」の前に発生するかどうかを示すスコアs(a,b)を、数4式を用いて計算する。数4式において、w、及び、wは、次元hを有する重みベクトルである。
Figure 0006590086
s>0が成り立つ場合、イベント「a」がイベント「b」の前に発生すると分類され、s>0が成り立たない場合、イベント「b」がイベント「a」の前に発生すると分類される。
ここで、トレーニングデータにトレーニング用イベントペアp1:{(Peter, buy, car)=>(Peter, sell, car)}が含まれ、実行時に、テスト用イベントペアp2:{(Peter, purchase, car)=>(Peter, sell, car)}を用いて、時間関係が成り立つかどうかをテストする場合を考える。「buy」、及び、「purchase」は、同様の文脈に現われるので、これらの単語のWord Embeddingも同様であると期待される。したがって、テスト用イベントペアp2に対しては、トレーニング用イベントペアp1と同様のスコアが得られ、テスト用イベントペアp2は正しく分類される。
次に、実行時に、テスト用イベントペアp3:{(Peter, buy, car)=>(Peter, purchase, car)}を用いて、時間関係が成り立つかどうかをテストする場合を考える。「buy」、及び、「purchase」は同義語であるため、{(Peter, buy, car)=>(Peter, purchase, car)}が成り立つ。しかしながら、ピーターが車を既に買っている場合、彼が同じ車を再び買うことは期待できないので、{(Peter, buy, car)=>(Peter, purchase, car)}は、一般的には成り立たない(左側の主語及び目的語は、右側の同じ主語及び目的語、すなわち、同じ人物「Peter」及び同じ「car」を指していると仮定する)。
テスト用イベントペアp3を分類する場合、当該テスト用イベントペアp3をトレーニングデータ中のイベントペアp1と比較する。「sell」及び「purchase」に対応する単語は同様の文脈に現われる傾向があるので(すなわち、同様の主語及び目的語を有しており)、これらの単語のWord Embeddingも同様となる。その結果、テスト用イベントペアp3に対して、トレーニング用イベントペアp1と同様のスコアが得られる。結果として、テスト用イベントペアp3は、時間関係{(Peter, buy, car)=>(Peter, purchase, car)}として、間違って分類される。
(第1の実施形態)
本発明の第1の実施形態について以下に説明する。
伴意関係は、実際には、時間関係を補完すると考えられる。すなわち、イベントペアが、同時に、伴意関係、及び、時間関係の両方にあることはない。例えば、次の伴意関係:{「Peter buys book」=>「Peter purchase book)」}、{「Peter kills John」=>「Peter wounds John」}、及び、{「Peter cooks food」=>「Peter prepares food」}のいずれも、時間関係として解釈することはできない。すなわち、記号「=>」に代わって、記号「=>」を用いることはできない。これは、形式的には、(「a」=>「b」)=>¬(「a」=>「b」)と表現できる。
なお、伴意関係を有するイベントペアを、図8に示すニューラルネットワークにおける、時間関係に対する負例のトレーニング用ペアとして用いても、時間関係の検出が必ずしも向上する訳ではない。トレーニングデータとして、伴意関係を有するイベントペアが、時間関係を有するイベントペアよりもかなり多く存在する場合、ネットワークパラメータは、主に伴意関係を有するイベントペアに対して特化され、時間関係を有するイベントペアの学習は、ほとんど有効ではない。これは、ネットワークパラメータの学習が、伴意関係を有するイベントペアに対して支配的に行われるからである。
図8に示すニューラルネットワークに起因する不具合を解消するために、本発明の第1の実施形態におけるニューラルネットワークでは、時間関係、及び、伴意関係を共に用いて分類を行う。
本発明の第1の実施形態の構成について以下に説明する。図2は、本発明の第1の実施形態における、学習システム100の構成を示すブロック図である。学習システム100は、本発明の情報処理システムの一実施形態である。図2を参照すると、本発明の第1の実施形態における学習システム100は、特徴ベクトル記憶部110、トレーニングデータ記憶部120、学習部(学習ユニットとも記載する)130、及び分類部(分類ユニットとも記載する)140を含む。
特徴ベクトル記憶部110は、ボキャブラリー中のそれぞれの単語の特徴ベクトルを格納する。特徴ベクトルは、例えば、Word Embeddingにより定義される。特徴ベクトルは、Bag-of-Wordsにより定義されてもよい。また、単語の特徴量を表すことができれば、特徴ベクトルは、他のベクトルにより定義されてもよい。特徴ベクトルは、ユーザ等により入力され、特徴ベクトル記憶部110に予め格納される。
トレーニングデータ記憶部120は、トレーニングデータとして、イベントペア(トレーニング用イベントペア)を格納する。図5は、本発明の第1の実施形態における、トレーニングデータの例を示す図である。図5の例では、各トレーニングデータは、イベントペアと、当該イベントペアの含意関係の種類(記号「=>」(時間関係)、または、記号「=>」(伴意関係))と、を含む。トレーニングデータは、ユーザ等により入力され、トレーニングデータ記憶部120に予め格納される。
学習部130は、イベント間の含意関係を分類するためのニューラルネットワークを学習する。
分類部140は、分類対象のイベントペア(テスト用イベントペア)の含意関係を分類する。
本発明の第1の実施形態のニューラルネットワークについて以下に説明する。
ニューラルネットワークは、時間関係、及び、伴意関係の両方の関係について特化され、これらの知識を最終的な分類器で組み合わせることにより、時間関係の分類、または、伴意関係の分類を改善する。図6は、本発明の第1の実施形態における、ニューラルネットワークの例を示す図である。第1の実施形態のニューラルネットワークは、入力層、イベント層、特徴層(特徴抽出器とも記載する)、及び、結合特徴層(結合層とも記載する)を含む。特徴層として、時間特徴層、及び、伴意特徴層が定義される。ニューラルネットワークはさらに、出力層として、時間スコア層、伴意スコア層、及び、分類層を含む。なお、時間特徴層、及び、伴意特徴層は、それぞれ、本発明の第1層、及び、第2層の一実施形態である。
入力層は、図8のニューラルネットワークの入力層と同じである。入力層は、それぞれ、含意関係の分類対象である、イベントペア「a」、「b」の特徴ベクトルx、xの入力を受け付ける。
イベント層は、図8のニューラルネットワークの隠れ層と同じである。イベント層は、それぞれ、イベント「a」、「b」の特徴量を表すEvent Embedding e、eを、入力層の出力を用いて、数3式により計算する。
時間特徴層は、時間関係{「a」=>「b」}の特徴量を表す時間特徴量f(a,b)を、イベント層の出力を用いて、数5式により計算する(時間特徴量を、イベント「a」、及び、「b」の特徴量から抽出する)。数5式において、時間特徴量f(a,b)は、次元hを有する。また、Mは、次元h×2hを有する重み行列である。
Figure 0006590086
同様に、伴意特徴層は、伴意関係{「a」=>「b」}の特徴量を表す伴意特徴量f(a,b)を、イベント層の出力を用いて、数6式により計算する(伴意特徴量を、イベント「a」、及び、「b」の特徴量から抽出する)。数6式において、伴意特徴量f(a,b)は、次元hを有する。また、Mは、次元h×2hを有する重み行列である。
Figure 0006590086
時間スコア層は、時間スコアs(a,b)を、時間特徴層の出力を用いて、数7式により計算する。数7式において、wは、次元hを有する重みベクトルである。
Figure 0006590086
同様に、伴意スコア層は、伴意スコアs(a,b)を、伴意特徴層の出力を用いて、数8式により計算する。数8式において、wは、次元hを有する重みベクトルである。
Figure 0006590086
結合特徴層は、時間関係{「a」=>「b」}、及び、伴意関係{「a」=>「b」}の結合特徴量を表す結合特徴量f(a,b)を、時間特徴層、及び、伴意特徴層の出力を用いて、数9式により計算する(結合特徴量を、時間特徴量、及び、伴意特徴量から抽出する)。数9式において、結合特徴量f(a,b)は、次元hを有する。また、Mは、次元h×2hを有する重み行列である。
Figure 0006590086
分類層は、時間関係、伴意関係、または、それらの両方を分類するための分類スコアを、結合特徴層の出力を用いて計算する。分類層は、分類スコアとして、時間関係、伴意関係、または、他の関係である確率を表す分類確率を、ソフトマックス(soft-max)関数により計算してもよい。また、分類層は、時間関係か伴意関係に分類するための単一の分類スコアs(a,b)を、数10式により計算してもよい。数10式において、wは、次元hを有する重みベクトルである。
Figure 0006590086
ニューラルネットワークの全ての層は、通常の誤差逆伝搬法(standard back-propagation)により学習してもよい。また、必要に応じて、それらの学習を、ドロップアウトやL2/L1正規化と組み合わせてもよい。
学習部130によるニューラルネットワークの学習は、例えば、以下の3ステップで行われる。
ステップ1)学習部130は、イベント層のパラメータ(重み行列M、M)を、例えば、非特許文献6に記載されているように、入力(自動エンコーダ)を再構築するように学習する。
ステップ2)学習部130は、例えば、非特許文献5に記載されている数11式、及び、数12式で表されるランキングマージン損失(rank margin loss)を最小化するように、時間特徴層、及び、伴意特徴層のパラメータ(重み行列M、M)を個別に学習する。数11式、及び、数12式において、tは、ユーザ等により予め決定されている閾値(例えば「1」)である。数11式において、s(a,b)、及び、s(a,b’)(b≠b’)は、トレーニングデータ中の時間関係に関するイベントペアの正例、及び、負例のそれぞれに対するスコアである。時間スコア層の重みベクトルwは、誤差逆伝搬法を用いて、重み行列Mと共に学習される。同様に、数12式において、s(a,b)、及び、s(a,b’)(b≠b’)は、トレーニングデータ中の伴意関係に関するイベントペアの正例、及び、負例のそれぞれに対するスコアである。伴意スコア層の重みベクトルwは、誤差逆伝搬法を用いて、重み行列Mと共に学習される。負例のイベント「b’」は、例えば、トレーニングデータからランダムに抽出される。
Figure 0006590086
Figure 0006590086
時間特徴層、または、伴意特徴層の学習の間、イベント層のパラメータは固定されていてもよいし、誤差逆伝搬法により調整されてもよい。
ステップ3)学習部130は、結合特徴層のパラメータ(重み行列M)を学習する。分類スコアとして、例えば、単一の分類スコアを計算する場合、ステップ2と同様に、数13式で表されるランキングマージン損失を最小化するように、結合特徴層の重み行列Mが学習される。数13式において、s(a,b)、及び、s(a,b’)(b≠b’)は、トレーニングデータ中のイベントペアの正例、及び、負例のそれぞれに対するスコアである。時間関係を分類するための単一の分類スコアを計算する場合は、時間関係に関するイベントペアの正例、及び、負例が用いられる。例えば、時間関係に関し、トレーニング用の正例として{「Peter buy book」=>「Peter sell book」}が、負例として{「Peter buy book」=>「Peter eat book」}が用いられる。また、伴意関係を分類するための単一の分類スコアを計算する場合は、伴意関係に関するイベントペアの正例、及び、負例が用いられる。分類層の重みベクトルwは、誤差逆伝搬法を用いて、重み行列Mと共に学習される。
Figure 0006590086
分類スコアとして分類確率を計算する場合、重み行列Mが、クロスエントロピー基準(cross-entropy criteria)により学習される。
いずれの場合でも、結合特徴量の学習の間、ステップ1及びステップ2により学習される層のパラメータは固定されていてもよいし、誤差逆伝搬法により調整されてもよい。
なお、特別な場合として、イベント層の時間特徴量f(a,b)、及び、伴意特徴量f(a,b)の次元hを1に設定してもよい。この場合、時間特徴量f(a,b)、及び、伴意特徴量f(a,b)は、それぞれ、時間関係、及び、伴意関係に対するスコアリング関数と考えられ、上述のランキングマージン損失を用いて学習される。
学習システム100は、CPU(central processing unit)、及び、プログラムを格納する記憶媒体を含み、プログラム制御に従って動作するコンピュータでもよい。図3は、本発明の第1の実施形態における、学習システム100がコンピュータにより実現される場合の構成を示すブロック図である。
図3を参照すると、学習システム100は、CPU101、記憶デバイス102(記憶媒体)、通信デバイス103、キーボード等の入力デバイス104、及び、ディスプレイ等の出力デバイス105を含む。CPU101は、学習部130、及び、分類部140の機能を実現するためのコンピュータプログラムを実行する。記憶デバイス102は、特徴ベクトル記憶部110、及び、トレーニングデータ記憶部120の情報を格納する。通信デバイス103は、トレーニングデータ、及び/又は、テストデータを他のシステムから受信し、テストデータの分類結果を他のシステムに送信してもよい。入力デバイス104は、トレーニングデータ、及び/又は、テストデータをユーザ等から受け付けてもよい。出力デバイス105は、分類結果をユーザ等に出力(表示)してもよい。
図3の学習システム100内の各部、及び、各ストレージは、それぞれ、有線または無線で相互に接続された、複数のデバイスに配置されてもよい。学習システム100の学習、及び/又は、分類のサービスが、ユーザ等に、SaaS(Software as a Service)として提供されてもよい。
図3の学習システム100内の各部、及び、各ストレージは、回路により実現されてもよい。この場合、「回路」は、シングルチップ、複数デバイス、チップセット、または、クラウドを概念的に含む用語として定義される。
次に、本発明の第1の実施形態における、学習システム100の動作について説明する。
図4は、本発明の第1の実施形態における、学習システム100の処理を示すフローチャートである。学習部130は、トレーニングデータとして、トレーニングデータ記憶部120からイベントペアを読み出す(ステップS101)。学習部130は、トレーニングデータとして読み出したイベントペアに含まれる単語の特徴ベクトルを読み出す(ステップS102)。学習部130は、特徴ベクトルを用いて、トレーニングデータとして読み出したイベントペアに対してニューラルネットワークのパラメータを学習する(ステップS103)。分類部140は、テストデータとして、分類対象のイベントペアの入力を受け付ける(ステップS104)。分類部140は、テストデータとして入力されたイベントペアについて、含意関係の分類を行う(ステップS105)。分類部140は、分類結果をユーザ等に出力する(ステップS106)。
次に、本発明の第1の実施形態における、学習システム100による学習、及び、分類の例について説明する。
ここでは、図5に示すようなトレーニングデータが、トレーニングデータ記憶部120に格納され、当該トレーニングデータ中のイベントの特徴ベクトルが、特徴ベクトル記憶部110に格納されていると仮定する。
学習部130は、図5に示すように、時間関係に対する正例{(Peter, buy, car)=>(Peter, sell, car)}、及び、伴意関係に対する正例{(Peter, buy, car)=>(Peter, acquire, car)}を含むトレーニングデータを、トレーニングデータ記憶部120から読み出す。学習部130は、トレーニングデータに対して、ニューラルネットワークのパラメータを学習する。ここで、学習部130は、例えば、イベントペアが時間関係であるかどうかを判断するための単一の分類スコアを出力するニューラルネットワークを学習する。
テスト段階において、分類部140は、テストデータとして、イベントペア{(Peter, buy, car)=>(Peter, purchase, car)}の入力を受け付け、{(Peter, buy, car)=>(Peter, purchase, car)}が成り立つかどうかを判断する。分類部140は、テストデータを、学習部130により学習されたニューラルネットワークに入力し、単一の分類スコアを取得する。分類部140は、単一の分類スコアを所定の閾値と比較することにより、テストデータの含意関係が時間関係に分類されるかどうかを判定する。
ここで、「purchase(購入する)」は、「sell(売る)」、及び、「acquire(取得する)」と同様の文脈(例えば、同様の主語、及び、目的語)に現われるので、これらの単語のWord Embeddingは類似する。しかしながら、「purchase」の意味は、「sell」よりも「acquire」に近いので、「purchase」のWord Embeddingは、「sell」よりも「acquire」に近い。その結果、テストデータ{(Peter, buy, car)=>(Peter, purchase, car)}は、時間関係を有するトレーニングデータ{(Peter, buy, car)=>(Peter, sell, car)}よりも、伴意関係を有するトレーニングデータ{(Peter, buy, car)=>(Peter, acquire, car)}に類似する。従って、ニューラルネットワークは、テストデータの含意関係が時間関係に分類されないことを示す単一の分類スコアを出力する。分類部140は、{(Peter, buy, car)=>(Peter, purchase, car)}が成り立たないことを示す分類結果を出力する。
このように、本発明の第1の実施形態のニューラルネットワークは、伴意関係を有するトレーニングデータを活用して、時間関係の分類を改善する。テストデータが伴意関係を有するトレーニングデータに近い場合、テストデータは時間関係に分類されない。
次に、本発明の第1の実施形態における、特徴的な構成を説明する。
図1は、本発明の第1の実施形態における、特徴的な構成を示すブロック図である。
図1を参照すると、学習システム100は、トレーニングデータ記憶部120、及び、学習部130を含む。トレーニングデータ記憶部120は、トレーニング用の第1イベント及び第2イベントから成るペア、及び、トレーニング用の第1イベント及び第2イベントから成るペアの間の関係を記憶する。ここで、関係は、第1関係または第2関係である。学習部130は、分類対象の第1イベント及び第2イベントから成るペアの間の関係を、第1関係または第2関係に分類するニューラルネットワークを、トレーニング用のペアを用いて学習する。ここで、ニューラルネットワークは、第1関係の特徴量を第1イベントの特徴量及び第2イベントの特徴量から抽出する第1層と、第2関係の特徴量を第1イベントの特徴量及び第2イベントの特徴量から抽出する第2層と、第1関係及び第2関係の結合特徴量を第1関係の特徴量及び第2関係の特徴量から抽出する結合層と、を含む。
本発明の第1の実施形態によれば、イベント間の関係の検出を改善できる。その理由は、学習部130が、第1関係の特徴量を第1及び第2イベントの特徴量から抽出する第1層、第2関係の特徴量を第1及び第2イベントの特徴量から抽出する第2層、及び、第1及び第2関係の結合特徴量を第1及び第2関係の特徴量から抽出する結合層を含むニューラルネットワークを学習するためである。
(第2の実施形態)
本発明の第2の実施形態について以下に説明する。本発明の第2の実施形態では、2種類よりも多くの種類の関係を共に用いて学習を行う。
動詞の伴意関係は、5グループに分類できる:第1グループは、同義語、すなわち、伴意関係が、単語間の双方向に成り立つ単語ペアである(例えば、「buy」と「purchase」)。他の4グループは、非特許文献7に従って、時間的な共拡張性(temporal co-extensiveness)を有するトロポニミー(troponymy)な関係(例えば、「limp」と「walk」)、完全時間的包含関係(proper temporal inclusion)を有する非トロポニミー(non-troponymy)な関係(例えば、「snore」と「sleep」や、「succeed」と「try」)、後向き前提(backward presupposition)(例えば、「tie」と「untie」)、及び、原因(cause)(例えば、「give」と「have」)のように定義できる。同義語、及び、トロポニミーグループを除いて、単語間の一方の方向に対するほとんどの伴意関係は、実際には、他方の方向に対する時間(前後)関係を示唆していると考えられる。
例えば、伴意関係{「Peter snores」=>「Peter sleeps」}は、時間関係{「Peter sleeps」=>「Peter snores」}(完全時間的包含関係)を示唆している。伴意関係{「Peter unties shoes」=>「Peter ties shoes」}は、時間関係{「Peter ties shoes」=>「Peter unties shoes」}(後向き前提)を示唆している。伴意関係{「Peter gives money}」=>「Peter has money」}は、時間関係{「Peter has money」=>「Peter gives money」}(原因)を示唆している。
これは、形式的には、[(「a」=>「b」)^¬(「b」=>「a」)]=>[「b」=>「a」]と表現できる。この式の左側は、イベント「a」がイベント「b」を伴意するが、同義ではない伴意関係を意味している。第2の実施形態では、(「a」=>「b」)^¬(「b」=>「a」)が成り立つ関係を、完全伴意関係(proper entailment relation)として定義し、(「a」=>「b」)^(「b」=>「a」)が成り立つ他の(同義の)伴意関係と区別する。なお、完全伴意関係は、本発明の第3関係の一実施形態である。
例えば、伴意関係{(Peter, kills, Bob)=>(Peter, wounds, Bob)}が成り立つ場合、時間関係{(Peter, wounds, Bob)=>(Peter, kills, Bob)}も成り立つ。
図7は、本発明の第2の実施形態における、ニューラルネットワークの例を示す図である。第2の実施形態のニューラルネットワークでは、第1の実施形態のニューラルネットワークと同様の層に加えて、特徴層として、完全伴意特徴層が定義される。完全伴意特徴層は、本発明の第3層の実施形態であることに留意されたい。
完全伴意特徴層は、完全伴意関係の特徴量を表す完全伴意特徴量f(a,b)を、他の特徴層と同様の方法で計算する(完全伴意特徴量をイベント「a」及びイベント「b」の特徴量から抽出する)。結合特徴層は、結合特徴量f(a,b)を、時間特徴層、伴意特徴層、及び、完全伴意特徴層の出力を用いて計算する(結合特徴量を、時間特徴量、伴意特徴量、及び、完全伴意特徴量から抽出する)。分類層は、関係を時間関係、伴意関係、または、完全伴意関係として分類するための分類スコアを、結合特徴層の出力を用いて計算する。
学習部130は、完全伴意特徴層のパラメータを、例えば、(「a」=>「b」)^¬(「b」=>「a」)が成り立つ正例のイベントペア、及び(「a」=>「b」)^(「b」=>「a」)が成り立つ負例のイベントペアを用いて学習する。また、学習部130は、(同義の)伴意特徴層を、例えば(「a」=>「b」)^(「b」=>「a」)が成り立つ正例のイベントペア、及び、(「a」=>「b」)^¬(「b」=>「a」)が成り立つ負例のイベントペアを用いて学習する。
学習部130は、時間関係、(同義の)伴意関係、または、完全伴意関係の、正例、及び、負例のイベントペアを用いて、(同義の)伴意関係と完全伴意関係をさらに区別するように、結合特徴層、及び、分類層を学習する。
本発明の第2の実施形態によれば、イベント間の関係を、2種類よりも多くの種類の関係として分類できる。その理由は、学習部130が、第3関係の特徴量を第1及び第2イベントの特徴量から抽出する第3層、及び、第1、第2、及び、第3関係の結合特徴量を、第1、第2、及び、第3関係の特徴量から抽出する結合層をさらに含むニューラルネットワークを学習するためである。
なお、第2の実施形態では、特徴層として、完全伴意特徴層が付加された。同様に、特徴層として、イベントの特徴量から他の特徴量を抽出するための、他の特徴層が付加されてもよい。例えば、イベントペアの両方のイベントに共通するトピックやコンテキストを抽出するために学習される「トピック特徴層(topic feature layer)」や「コンテキスト特徴層(context feature layer)」が付加されてもよい。例えば、イベント「Peter plays soccer」、及び、イベント「Peter loves soccer」は、共に、同じトピック「soccer」を有する。これに対し、イベント「Peter plays soccer」、及び、他のイベント「Peter plays guitar」は、同じトピックを共有しない。
この場合、トピックやコンテキストの類似度といった特徴量は、例えば、イベントの述語のWord Embedding間の内積(または、コサイン類似度)で与えられる類似度を包含する、1次元の特徴層に含めることができる。
さらに、他の特徴層として、イベントの特徴量から反意語特徴量を抽出するための「反意語特徴層(antonym feature layer)」を付加できる。これは、反意語(例えば、「buy」と「sell」や、「untie」と「tie」)が、時間関係の存在を示唆できるためである。
また、特徴層として、1つのイベントのみから言語モデル特徴量を抽出するための「言語モデル特徴層(language model feature)」が付加されてもよい。ここで、予測イベント(第2イベント)に対する言語モデル特徴層は、そのイベントが、観測イベント(第1イベント)とは無関係に発生する可能性を表す。例えば、イベントペアが{「Peter buy book」=>「Peter eat book」}である場合、第2イベント「Peter eat book」は起こりそうになく、第1イベントとは無関係である。言語モデル層は、「eat」が「book」のような物体を目的語に有する可能性は低いことから、イベント「Peter eat book」が発生する確率は低く、第1イベントとは無関係であることを検出できる。
また、学習部130は、完全伴意特徴層を付加する代わりに、上述の式[(「a」=>「b」)^¬(「b」=>「a」)]=>[「b」=>「a」]に基づいて、[(「a」=>「b」)^¬(「b」=>「a」)]が成り立つイベントペアから得られる[「b」=>「a」]が成り立つイベントペアを時間関係の正例として用いて、第1の実施形態で説明したニューラルネットワークを学習してもよい。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
本発明は、伴意関係や時間関係のようなイベント間の関係を検出する推論システムやクラスタリングシステム等に適用できる。
100 学習システム
101 CPU
102 記憶デバイス
103 通信デバイス
104 入力デバイス
105 出力デバイス
110 特徴ベクトル記憶部
120 トレーニングデータ記憶部
130 学習部
140 分類部

Claims (8)

  1. トレーニング用の第1イベント及び第2イベントから成るペア、及び、前記トレーニング用の前記第1イベント及び前記第2イベントから成るペアの間の関係であって第1関係または第2関係を記憶する、トレーニングデータ記憶手段と、
    分類対象の前記第1イベント及び前記第2イベントから成るペアの間の関係を、前記第1関係または前記第2関係に分類するニューラルネットワークであって、前記第1関係の特徴量を前記第1イベントの特徴量及び前記第2イベントの特徴量から抽出する第1層と、前記第2関係の特徴量を前記第1イベントの特徴量及び前記第2イベントの特徴量から抽出する第2層と、前記第1関係及び前記第2関係の結合特徴量を前記第1関係の特徴量及び前記第2関係の特徴量から抽出する結合層と、を含むニューラルネットワークを、前記トレーニング用のペアを用いて学習する学習手段と、
    を備える、情報処理システム。
  2. 前記第1関係は、前記第1イベントが前記第2イベントの前に発生する時間関係であり、前記第2関係は、前記第1イベントが前記第2イベントを伴意する伴意関係である、
    請求項1に記載の情報処理システム。
  3. 前記第1イベントの特徴量は、前記第1イベントに含まれる単語の特徴量により決定され、前記第2イベントの特徴量は、前記第2イベントに含まれる単語の特徴量により決定される、
    請求項1又は2に記載の情報処理システム。
  4. さらに、前記学習手段により学習された前記ニューラルネットワークを用いて、前記分類対象の前記第1イベント及び前記第2イベントから成るペアの間の関係を、前記第1関係または前記第2関係に分類する、分類手段を備える、
    請求項1乃至3のいずれか一項に記載の情報処理システム。
  5. 前記関係は、前記第1関係、前記第2関係、及び、第3関係のうちいずれか一つの関係であり、
    前記学習手段は、前記分類対象の前記第1イベント及び前記第2イベントから成るペアの間の関係を、前記第1関係、前記第2関係、または、前記第3関係に分類する前記ニューラルネットワークを、前記トレーニングペアを用いて学習し、
    前記ニューラルネットワークは、さらに、前記第3関係の特徴量を前記第1イベントの特徴量及び前記第2イベントの特徴量から抽出する第3層を含み、
    前記結合層は、前記第1関係、前記第2関係、及び、前記第3関係の結合特徴量を前記第1関係の特徴量、前記第2関係の特徴量、及び、前記第3関係の特徴量から抽出する、
    請求項1に記載の情報処理システム。
  6. 前記第1関係は、前記第1イベントが前記第2イベントの前に発生する時間関係であり、前記第2関係は、前記第1イベントが前記第2イベントを伴意し、かつ、前記第2イベントが前記第1イベントを伴意する、伴意関係であり、前記第3関係は、前記第1イベントが前記第2イベントを伴意するが、前記第2イベントは前記第1イベントを伴意しない、完全伴意関係である、
    請求項5に記載の情報処理システム。
  7. トレーニング用の第1イベント及び第2イベントから成るペア、及び、前記トレーニング用の前記第1イベント及び前記第2イベントから成るペアの間の関係であって第1関係または第2関係を読み出し、
    分類対象の前記第1イベント及び前記第2イベントから成るペアの間の関係を、前記第1関係または前記第2関係に分類するニューラルネットワークであって、前記第1関係の特徴量を前記第1イベントの特徴量及び前記第2イベントの特徴量から抽出する第1層と、前記第2関係の特徴量を前記第1イベントの特徴量及び前記第2イベントの特徴量から抽出する第2層と、前記第1関係及び前記第2関係の結合特徴量を前記第1関係の特徴量及び前記第2関係の特徴量から抽出する結合層と、を含むニューラルネットワークを、前記トレーニング用のペアを用いて学習する、
    情報処理方法。
  8. コンピュータに、
    トレーニング用の第1イベント及び第2イベントから成るペア、及び、前記トレーニング用の前記第1イベント及び前記第2イベントから成るペアの間の関係であって第1関係または第2関係を読み出し、
    分類対象の前記第1イベント及び前記第2イベントから成るペアの間の関係を、前記第1関係または前記第2関係に分類するニューラルネットワークであって、前記第1関係の特徴量を前記第1イベントの特徴量及び前記第2イベントの特徴量から抽出する第1層と、前記第2関係の特徴量を前記第1イベントの特徴量及び前記第2イベントの特徴量から抽出する第2層と、前記第1関係及び前記第2関係の結合特徴量を前記第1関係の特徴量及び前記第2関係の特徴量から抽出する結合層と、を含むニューラルネットワークを、前記トレーニング用のペアを用いて学習する、
    処理を実行させるプログラム
JP2018560270A 2016-02-29 2016-02-29 情報処理システム、情報処理方法、及び、プログラム Active JP6590086B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/001076 WO2017149559A1 (en) 2016-02-29 2016-02-29 An information processing system, an information processing method and a computer readable storage medium

Publications (2)

Publication Number Publication Date
JP2019511797A JP2019511797A (ja) 2019-04-25
JP6590086B2 true JP6590086B2 (ja) 2019-10-16

Family

ID=55521777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018560270A Active JP6590086B2 (ja) 2016-02-29 2016-02-29 情報処理システム、情報処理方法、及び、プログラム

Country Status (3)

Country Link
US (1) US11200453B2 (ja)
JP (1) JP6590086B2 (ja)
WO (1) WO2017149559A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110727806B (zh) * 2019-12-17 2020-08-11 北京百度网讯科技有限公司 基于自然语言和知识图谱的文本处理方法及装置
KR102524766B1 (ko) 2019-12-17 2023-04-24 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 자연어 및 지식 그래프 기반 표현 학습 방법 및 장치
CN111325020B (zh) * 2020-03-20 2023-03-31 北京百度网讯科技有限公司 一种事件论元抽取方法、装置以及电子设备
CN111967256B (zh) * 2020-06-30 2023-08-04 北京百度网讯科技有限公司 事件关系的生成方法、装置、电子设备和存储介质
CN112819164B (zh) * 2021-02-02 2024-05-24 京东科技信息技术有限公司 事理图谱的推理方法、装置及计算机设备
CN113704476B (zh) * 2021-09-02 2022-03-04 中科雨辰科技有限公司 目标事件抽取数据处理系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160321522A1 (en) * 2015-04-30 2016-11-03 Canon Kabushiki Kaisha Devices, systems, and methods for pairwise multi-task feature learning

Also Published As

Publication number Publication date
WO2017149559A1 (en) 2017-09-08
JP2019511797A (ja) 2019-04-25
US11200453B2 (en) 2021-12-14
US20210192277A1 (en) 2021-06-24

Similar Documents

Publication Publication Date Title
JP6590086B2 (ja) 情報処理システム、情報処理方法、及び、プログラム
Liu Python machine learning by example
Fuchs The dangers of human-like bias in machine-learning algorithms
CN108875074B (zh) 基于交叉注意力神经网络的答案选择方法、装置和电子设备
US20190073420A1 (en) System for creating a reasoning graph and for ranking of its nodes
KR101972408B1 (ko) 술어 템플릿 수집 장치, 특정 프레이즈 페어 수집 장치, 및 이들을 위한 컴퓨터 프로그램
WO2019144892A1 (zh) 数据处理方法、装置、存储介质和电子装置
KR102138130B1 (ko) 개념 그래프 기반 질의응답 장치 및 방법
WO2023029506A1 (zh) 病情分析方法、装置、电子设备及存储介质
CN106358444A (zh) 用于面部验证的方法和系统
JP2011133988A5 (ja)
Igarashi et al. Tohoku at SemEval-2016 task 6: Feature-based model versus convolutional neural network for stance detection
KR102264233B1 (ko) 문장, 문서 특징값 및 문장 가중치 간의 상관관계를 학습한 인공 신경망에 의해 생성된 설명이 부가된 문서 분류 방법
CN111898374A (zh) 文本识别方法、装置、存储介质和电子设备
CN109710744A (zh) 一种数据匹配方法、装置、设备及存储介质
CN110134777A (zh) 问题去重方法、装置、电子设备和计算机可读存储介质
CN115456043A (zh) 分类模型处理、意图识别方法、装置和计算机设备
Schmitt et al. Language models for lexical inference in context
KR102582744B1 (ko) Qa 모델을 이용하여 지식 그래프를 구축하는 방법, 장치 및 컴퓨터 프로그램
CN114580738A (zh) 一种社交媒体危机事件预测方法及系统
US20220277145A1 (en) Domain Context Ellipsis Recovery for Chatbot
CN114265943A (zh) 一种因果关系事件对提取方法及系统
CN112889066B (zh) 用于学习词和多词表达的特性的分类引擎
CN114429822A (zh) 病历质检方法、装置和存储介质
Dey et al. Analysis of machine learning algorithms by developing a phishing email and website detection model

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180808

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190902

R150 Certificate of patent or registration of utility model

Ref document number: 6590086

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150