JP7529048B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP7529048B2
JP7529048B2 JP2022572828A JP2022572828A JP7529048B2 JP 7529048 B2 JP7529048 B2 JP 7529048B2 JP 2022572828 A JP2022572828 A JP 2022572828A JP 2022572828 A JP2022572828 A JP 2022572828A JP 7529048 B2 JP7529048 B2 JP 7529048B2
Authority
JP
Japan
Prior art keywords
vector
sentence
interest
relation
relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022572828A
Other languages
English (en)
Other versions
JPWO2022144968A5 (ja
JPWO2022144968A1 (ja
Inventor
康佑 秋元
風人 山本
邦彦 定政
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2022144968A1 publication Critical patent/JPWO2022144968A1/ja
Publication of JPWO2022144968A5 publication Critical patent/JPWO2022144968A5/ja
Application granted granted Critical
Publication of JP7529048B2 publication Critical patent/JP7529048B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Description

本発明は、複数のエンティティ間の関係を類別する技術に関する。
複数のエンティティ間の関係を類別する技術が知られている。例えば、非特許文献1には、エンティティのペアの関係を記述した文表現の類似性に基づいて、当該ペアの関係を類別する関連技術が記載されている。当該関連技術は、あるエンティティのペアが出現する文において、当該ペアの関係を記述した文表現を、文の構文的な構造を用いて判別する。また、当該関連技術は、判別した文表現が類似しているかどうかによって、あるペアの関係と別のペアの関係とが同一であるかどうかを判断する。
Yuan, Chenhan, et al. "Clustering-based Unsupervised Generative Relation Extraction." arXiv preprint arXiv:2009.12681 (2020).
非特許文献1に記載の関連技術においては、複数のエンティティ間の関係を類別する精度に改善の余地がある。その理由について説明する。
ここで、複数のエンティティ間の関係は、各エンティティの特徴に応じて決まる場合がある。例えば、エンティティX及びYについて「XはYの元首である」という関係は、Xが動物ではなく人物である場合に成立する。しかしながら、当該関連技術は、文の構文的な構造を用いて判別した文表現の類似性に基づいてペアの関係を類別するため、各エンティティの特徴に応じた関係を類別できない場合がある。
本発明の一態様は、上記の問題に鑑みてなされたものであり、その目的の一例は、複数のエンティティ間の関係をより精度よく類別する技術を提供することである。
本発明の一側面に係る情報処理装置は、文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成する関係ベクトル生成手段と、前記複数の注目エンティティの各々に対し、前記文集合より選択された、当該注目エンティティが出現する少なくとも1つの特徴ベクトル生成用文から、当該注目エンティティの特徴を表す特徴ベクトルを生成する特徴ベクトル生成手段と、前記関係ベクトル生成手段にて生成された関係ベクトル及び前記特徴ベクトル生成手段にて生成された特徴ベクトルを用いて、前記複数の注目エンティティ間の関係を類別する関係類別手段と、を備えている。
本発明の一側面に係る情報処理方法は、文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成すること、前記複数の注目エンティティの各々に対し、前記文集合より選択された、当該注目エンティティが出現する少なくとも1つの特徴ベクトル生成用文から、当該注目エンティティの特徴を表す特徴ベクトルを生成すること、及び前記関係ベクトル及び前記複数の注目エンティティの各々に対し生成された前記特徴ベクトルを用いて、前記複数の注目エンティティ間の関係を類別すること、を含む。
本発明の一側面に係るプログラムは、コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成する関係ベクトル生成手段と、前記複数の注目エンティティの各々に対し、前記文集合より選択された、当該注目エンティティが出現する少なくとも1つの特徴ベクトル生成用文から、当該注目エンティティの特徴を表す特徴ベクトルを生成する特徴ベクトル生成手段と、前記関係ベクトル生成手段にて生成された関係ベクトル及び前記特徴ベクトル生成手段にて生成された特徴ベクトルを用いて、前記複数の注目エンティティ間の関係を類別する関係類別手段と、として機能させる。
本発明の一側面に係る情報処理装置は、複数のパラメータを含むアルゴリズムを用いて、文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成する関係ベクトル生成手段と、前記関係ベクトル生成手段によって複数の注目エンティティが共通して出現する複数の文から生成される複数の関係ベクトルの類似度が高くなるように、前記複数のパラメータを更新する関係ベクトル生成パラメータ更新手段と、前記関係ベクトル生成手段にて生成された関係ベクトルを用いて、前記複数の注目エンティティ間の関係を類別する関係類別手段と、を備えている。
本発明の一側面に係る情報処理方法は、複数のパラメータを含むアルゴリズムを用いて、文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成すること、前記関係ベクトル生成手段によって複数の注目エンティティが共通して出現する複数の文から生成される複数の関係ベクトルの類似度が高くなるように、前記複数のパラメータを更新すること、及び前記関係ベクトル生成手段にて生成された関係ベクトルを用いて、前記複数の注目エンティティ間の関係を類別すること、を含む。
本発明の一側面に係るプログラムは、コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、複数のパラメータを含むアルゴリズムを用いて、文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成する関係ベクトル生成手段と、前記関係ベクトル生成手段によって複数の注目エンティティが共通して出現する複数の文から生成される複数の関係ベクトルの類似度が高くなるように、前記複数のパラメータを更新する関係ベクトル生成パラメータ更新手段と、前記関係ベクトル生成手段にて生成された関係ベクトルを用いて、前記複数の注目エンティティ間の関係を類別する関係類別手段と、として機能させる。
本発明の一態様によれば、複数のエンティティ間の関係をより精度よく類別することができる。
本発明の例示的実施形態1に係る情報処理装置の構成を示すブロック図である。 本発明の例示的実施形態1に係る情報処理方法の流れを示すフロー図である。 本発明の例示的実施形態2に係る情報処理装置の構成を示すブロック図である。 本発明の例示的実施形態2に係る情報処理方法の流れを示すフロー図である。 本発明の例示的実施形態3に係る情報処理装置の構成を示すブロック図である。 本発明の例示的実施形態3に係る情報処理方法の流れを示すフロー図である。 本発明の例示的実施形態4に係る情報処理装置の構成を示すブロック図である。 本発明の例示的実施形態4に係る情報処理方法の流れを示すフロー図である。 本発明の実施例による類別結果と、比較例による類別結果とを比較する図である。 本発明の例示的実施形態5に係る情報処理装置の構成を示すブロック図である。 本発明の例示的実施形態5に係る情報処理方法の流れを示すフロー図である。 本発明の各例示的実施形態における情報処理装置のハードウェア構成の一例を示すブロック図である。
〔用語の説明〕
本発明の各例示的実施形態について説明する前に、各例示的実施形態において用いる用語について説明する。なお、各例示的実施形態に係る情報処理装置は、複数の注目エンティティが出現する文集合を参照して、当該複数の注目エンティティ間の関係を類別する装置である。
(エンティティ)
エンティティとは、文により表現される事象を構成する要素である。各エンティティは、その名前により他のエンティティと区別される。エンティティは、有体物であってもよいし、無体物であってもよい。また、エンティティは、名詞により表現される主体又は客体であってもよいし、動詞により表現される動作又は関係であってもよいし、形容詞又は形容動詞により表現される状態又は程度であってもよい。エンティティには、種類がある。例えば、名前が「Japan」であるエンティティの種類は、「国家」であり、名前が「Shinzo Abe」であるエンティティの種類は、「人物」であり、名前が「青」であるエンティティの種類は、「色」である。以下、各エンティティを区別して説明する必要がある場合には、それぞれに、e1,e2,…,の符号を付して説明する。
(複数の注目エンティティ)
複数の注目エンティティとは、文集合に出現するエンティティのうち、複数の注目するエンティティである。本例示的実施形態では、注目エンティティの個数を2として説明する。ただし、注目エンティティの個数は2に限定されず、3以上であってもよい。
(文集合)
文集合は、文の集合である。文集合は、複数の注目エンティティの一部または全部が出現する文を含む。文は、1つ以上の単語からなる。
(出現)
エンティティが文に出現するとは、その文において当該エンティティが参照されていることをいう。また、文においてエンティティが参照されるとは、文を構成する1以上の単語が当該エンティティを表していることをいう。換言すると、あるエンティティが出現する文は、当該エンティティを表す単語を含む。なお、あるエンティティを表す単語は、1つに限らない。例えば、エンティティ「Shinzo Abe」を表す単語の一例としては、複数の単語「安倍元総理」、「安倍晋三」等が挙げられる。また、あるエンティティを指示する単語も、そのエンティティを表す単語の一種と考えることができる。例えば、エンティティ「Shinzo Abe」を指示する代名詞「he」も、エンティティ「Shinzo Abe」を表す単語と見做し得る。例えば、ある文が単語「安倍元総理」を含み、他の文が単語「安倍晋三」を含み、さらに他の文が「Shinzo Abe」を指示する「彼」を含むとき、これらの文には、共通してエンティティ「Shinzo Abe」が出現している。
(関係)
文により表現される事象において、複数のエンティティは、関連性を有する場合がある。例えば、エンティティX「Japan」及びY「Shinzo Abe」は、「XはYの元首だった」との関連性を有する。このようなエンティティ間の関連性を、関係と呼ぶ。
〔例示的実施形態1〕
本発明の第1の例示的実施形態について、図面を参照して詳細に説明する。本例示的実施形態は、後述する例示的実施形態の基本となる形態である。
<情報処理装置の構成>
本発明の第1の例示的実施形態に係る情報処理装置1について、図1を参照して説明する。図1は、情報処理装置1の構成を示すブロック図である。
情報処理装置1は、関係ベクトル生成部11と、特徴ベクトル生成部12と、関係類別部13とを含む。関係ベクトル生成部11は、請求の範囲に記載した「関係ベクトル生成手段」を実現する構成の一例である。関係類別部13は、請求の範囲に記載した「関係類別手段」を実現する構成の一例である。請求の範囲に記載した「関係類別手段」を実現する構成の一例である。
(関係ベクトル生成部)
関係ベクトル生成部11は、文集合より選択された、少なくとも1つの関係ベクトル生成用文から、複数の注目エンティティの関係を表す関係ベクトルを生成する。
例えば、関係ベクトル生成部11は、次のようにして、関係ベクトルを生成する。具体的には、(1)まず、関係ベクトル生成部11は、関係ベクトル生成用文を、単語の列、又は単語がノードであるようなグラフに変換する。関係ベクトル生成部11は、この変換を行う際に、関係ベクトル生成用文を構文解析することにより得られた情報を用いてもよい。(2)次に、関係ベクトル生成部11は、(1)で生成した単語の列またはグラフに含まれる各単語を、ベクトルに変換して単語ベクトルとする。例えば、関係ベクトル生成部11は、各ベクトルの要素がそれぞれ異なる種類の単語に対応し、各単語に対応する要素のみが1でそれ以外の要素が0であるようなone-hot-vectorを当該単語に対応する単語ベクトルとして用いる。(3)次に、関係ベクトル生成部11は、(2)で生成した各単語の単語ベクトルを用いて、関係ベクトルを計算する。例えば、関係ベクトル生成部11は、各単語の単語ベクトルを、単語の列又はグラフの構造を反映した処理を行う計算モデルに入力することにより、関係ベクトルを計算する。そのような計算モデルとしては、リカレントニューラルネットワーク、グラフニューラルネットワーク、又はTransformer等が挙げられるがこれらに限られない。
なお、関係ベクトル生成部11が関係ベクトルを生成する技術としては、例えば、上述した非特許文献1、以下の参考文献1、又は以下の参考文献2に記載された技術を適用可能である。
[参考文献1]Zeng, Daojian, et al. "Distant supervision for relation extraction via piecewise convolutional neural networks." Proceedings of the 2015 conference on empirical methods in natural language processing. 2015
[参考文献2]Miwa, Makoto, and Mohit Bansal. "End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures." Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). 2016.
非特許文献1、以下の参考文献1、又は以下の参考文献2に記載された技術は、それぞれ、分類モデルを用いてエンティティ間の関係を分類する。関係ベクトル生成部11は、これらの技術の何れかを用いて、分類モデルに入力するベクトルを関係ベクトルとして用いてもよい。
(関係ベクトル生成用文)
関係ベクトル生成用文は、文集合より選択された、複数の注目エンティティが出現する文である。文集合に出現するエンティティのうち、エンティティe1、e2を注目エンティティとする場合、文集合は、注目エンティティe1及びe2が出現するn個の関係ベクトル生成用文を含む。以降、n個の関係ベクトル生成用文に、S(e1,e2)iとの符号を付して説明する。なお、nは1以上の整数であり、iは1以上n以下の整数である。
(特徴ベクトル生成部)
特徴ベクトル生成部12は、複数の注目エンティティの各々に対し、当該注目エンティティが出現する少なくとも1つの特徴ベクトル生成用文から、当該注目エンティティの特徴を表す特徴ベクトルを生成する。特徴ベクトルは、例えば、当該注目エンティティが出現する文から推定される、当該注目エンティティの種類を表す。
例えば、特徴ベクトル生成部12は、次のようにして、特徴ベクトルを生成する。具体的には、(1)まず、特徴ベクトル生成部12は、特徴ベクトル生成用文を、単語の列、又は単語がノードであるようなグラフに変換する。特徴ベクトル生成部12は、この変換を行う際に、特徴ベクトル生成用文を構文解析することにより得られた情報を用いてもよい。(2)次に、特徴ベクトル生成部12は、(1)で生成した単語の列またはグラフに含まれる各単語を、ベクトルに変換して単語ベクトルとする。例えば、特徴ベクトル生成部12は、各ベクトルの要素がそれぞれ異なる種類の単語に対応し、各単語に対応する要素のみが1でそれ以外の要素が0であるようなone-hot-vectorを当該単語に対応する単語ベクトルとして用いる。(3)次に、特徴ベクトル生成部12は、(2)で生成した各単語の単語ベクトルを用いて、特徴ベクトルを計算する。例えば、特徴ベクトル生成部12は、各単語の単語ベクトルを、単語の列又はグラフの構造を反映した処理を行う計算モデルに入力することにより、特徴ベクトルを計算する。そのような計算モデルとしては、リカレントニューラルネットワーク、グラフニューラルネットワーク、又はTransformer等が挙げられるがこれらに限られない。
特徴ベクトル生成用文から特徴ベクトルを生成する技術としては、例えば、Word2Vec、又は以下の参考文献3等に記載された公知の技術を適用可能である。
[参考文献3]Liang, Chen, et al. "Bond: Bert-assisted open-domain named entity recognition with distant supervision." Proceedings of the 26th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. 2020.
参考文献3に記載された技術は、分類モデルを用いてエンティティの種類を分類する。特徴ベクトル生成部12は、当該技術を用いて、分類モデルに入力するベクトルを特徴ベクトルとして用いてもよい。
(特徴ベクトル生成用文)
特徴ベクトル生成用文は、文集合より選択された、複数の注目エンティティのうち1つが出現する文である。文集合に出現するエンティティのうち、エンティティe1、e2を注目エンティティとする場合、文集合は、注目エンティティe1が出現するm1個の特徴ベクトル生成用文を含む。また、文集合は、注目エンティティe2が出現するm2個の特徴ベクトル生成用文を含む。以降、mk(k=1、2)個の特徴ベクトル生成用文に、S(ek)jとの符号を付して説明する。なお、mkは1以上の整数であり、jは1以上mk以下の整数である。
(関係類別部)
関係類別部13は、関係ベクトル生成部11にて生成された関係ベクトル及び特徴ベクトル生成部12にて生成された特徴ベクトルを用いて、複数の注目エンティティ間の関係を類別する。
<情報処理方法の流れ>
情報処理装置1が実行する情報処理方法S1の流れについて、図2を参照して説明する。図2は、情報処理方法S1の流れを示すフロー図である。図2に示すように、情報処理方法S1は、ステップS11~S13を含む。以下では、文集合に出現するエンティティのうち、エンティティe1、e2を注目エンティティとして説明する。
(ステップS11)
ステップS11において、関係ベクトル生成部11は、文集合より選択された、少なくとも1つの関係ベクトル生成用文S(e1,e2)から、注目エンティティe1、e2の関係を表す関係ベクトルV(e1,e2)を生成する。
(ステップS12)
特徴ベクトル生成部12は、k=1、2のそれぞれについて、ステップS12を実行する。ステップS12において、特徴ベクトル生成部12は、文集合より選択された、少なくとも1つの特徴ベクトル生成用文S(ek)から、注目エンティティekの特徴を表す特徴ベクトルV(ek)を生成する。
(ステップS13)
ステップS13において、関係類別部13は、ステップS11にて生成された関係ベクトルV(e1,e2)、及びステップS12にて生成された特徴ベクトルV(e1)、V(e2)を用いて、注目エンティティe1、e2間の関係を類別する。例えば、関係類別部13は、関係ベクトルV(e1,e2)、特徴ベクトルV(e1)、及び特徴ベクトルV(e2)に基づいて1つのベクトルを生成し、生成したベクトルの類似性に基づいて、注目エンティティe1、e2の関係を類別する。例えば、関係類別部13は、生成したベクトルをクラスタリングすることにより、当該関係を類別してもよい。当該1つのベクトルを生成する手法としては、例えば、関係ベクトルV(e1,e2)、特徴ベクトルV(e1)、及び特徴ベクトルV(e2)を結合する手法が挙げられるが、これに限られない。一例として、関係ベクトルV(e1,e2)、特徴ベクトルV(e1)、及び特徴ベクトルV(e2)を結合したベクトルと、関係ベクトルV(e3,e4)、特徴ベクトルV(e3)、及び特徴ベクトルV(e4)を結合したベクトルとが互いに類似するとする。この場合、関係類別部13は、「注目エンティティe1,e2」と「注目エンティティe3,e4」とは、同一の関係を有するものと類別する。なお、関係類別部13は、これらのベクトル同士が互いに類似するかどうかを、例えば、ベクトル同士の内積、又はコサイン類似度が閾値を超えるかどうかに基づいて判断してもよい。
<本例示的実施形態の効果>
以上のように、本例示的実施形態は、複数の注目エンティティが出現する関係ベクトル生成用文から生成した関係ベクトルと、各注目エンティティが出現する特徴ベクトル生成用文から生成した特徴ベクトルとを用いて、複数の注目エンティティ間の関係を類別する。その結果、複数の注目エンティティ間の関係に加えて、各注目エンティティの特徴を考慮するので、複数の注目エンティティ間の関係をより精度よく類別することができる。
〔例示的実施形態2〕
本発明の第2の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付し、その説明を適宜省略する。
本例示的実施形態に係る情報処理装置1Aは、例示的実施形態1に係る情報処理方法S1に含まれるステップS11(関係ベクトル生成処理)を変形して実行する。換言すると、情報処理装置1Aは、ステップS11を変形して実行するのに適するよう、例示的実施形態1に係る情報処理装置1を変形した態様である。
<情報処理装置の構成>
情報処理装置1Aの構成について、図3を参照して説明する。図3は、情報処理装置1Aの構成を示すブロック図である。図3に示すように、情報処理装置1Aは、関係ベクトル生成部11に替えて関係ベクトル生成部11Aを含む点と、さらに関係ベクトル生成パラメータ更新部14Aを含む点とが、例示的実施形態1に係る情報処理装置1に対して異なる。その他の構成については、情報処理装置1と同様であるため、詳細な説明を繰り返さない。
(関係ベクトル生成部)
関係ベクトル生成部11Aは、複数のパラメータを含むアルゴリズムを用いて、少なくとも1つの関係ベクトル生成用文から関係ベクトルを生成する。関係ベクトル生成部11Aは、請求の範囲に記載した「関係ベクトル生成手段」を実現する構成の一例である。
(アルゴリズムの具体例)
複数のパラメータを含むアルゴリズムの具体例として、リカレントニューラルネットワークが挙げられる。リカレントニューラルネットワークは、単語ベクトル列を入力とし、その単語ベクトル列を構成する各単語ベクトルに対応するベクトルを出力とするニューラルネットワークである。関係ベクトル生成部11Aが用いるリカレントニューラルネットワークを、以降、第1RNNとも記載する。第1RNNに含まれる複数のパラメータは、関係ベクトル生成パラメータ更新部14Aによって更新される。
(関係ベクトル生成パラメータ更新部)
関係ベクトル生成パラメータ更新部14Aは、複数の関係ベクトルの類似度が高くなるように、上述した複数のパラメータを更新する。当該複数の関係ベクトルは、関係ベクトル生成部11Aによって複数の注目エンティティが共通して出現する複数の文から生成されたものである。複数のパラメータを更新する更新処理の詳細及び具体例については後述する。関係ベクトル生成パラメータ更新部14Aは、請求の範囲に記載した「関係ベクトル生成パラメータ更新手段」を実現する構成の一例である。
<情報処理方法の流れ>
情報処理装置1Aが実行する情報処理方法の流れについて、図4を参照して説明する。情報処理装置1Aは、図2を参照して説明した情報処理方法S1のステップS11を変形して実行する。図4は、ステップS11の変形例である関係ベクトル生成処理S11Aの詳細な流れを示すフロー図である。
(関係ベクトル生成処理の流れ)
図4に示すように、関係ベクトル生成処理S11Aは、ステップS111~S114を含む。関係ベクトル生成部11Aは、ステップS111~S113を、n個の関係ベクトル生成用文S(e1,e2)iの各々について実行する。
(ステップS111)
ステップS111において、関係ベクトル生成部11Aは、当該関係ベクトル生成用文S(e1,e2)iについて、単語ベクトル列を生成する。詳細には、関係ベクトル生成部11Aは、注目エンティティe1、e2の各々を表す単語を予め定められた単語ベクトルに置き換える。また、関係ベクトル生成部11Aは、複数の注目エンティティe1、e2以外を表す単語を、その単語を表す単語ベクトルに置き換える。これにより、関係ベクトル生成部11Aは、関係ベクトル生成用文S(e1,e2)iに対応する単語ベクトル列を生成する。本ステップの処理は、請求の範囲に記載した「第1単語ベクトル列生成処理」の一例である。
(ステップS111の具体例)
例えば、関係ベクトル生成用文S(e1,e2)iが「I saw Star Wars by George Lucas at theater.」であり、注目エンティティe1を表す単語が「Star Wars」であり、注目エンティティe2を表す単語が「George Lucas」である具体例について説明する。関係ベクトル生成部11Aは、単語ベクトル列(VI,Vsaw,V*,Vby,V**,Vat,Vtheater)を生成する。ここで、「VI」は、単語「I」を表す単語ベクトルである。「Vsaw」は、単語「saw」を表す単語ベクトルである。「Vby」は、単語「by」を表す単語ベクトルである。「Vat」は、単語「at」を表す単語ベクトルである。「Vtheater」は、単語「theater」を表す単語ベクトルである。「V*」、「V**」は、それぞれ、予め定められた単語ベクトルである。
(ステップS112)
ステップS112において、関係ベクトル生成部11Aは、第1RNNに、ステップS111にて生成された単語ベクトル列を入力することによって、関係ベクトル生成用文S(e1,e2)iに対応するRNN出力ベクトル列を生成する。第1RNNについては、上述した通りである。第1RNNに含まれる複数のパラメータは、関係ベクトル生成パラメータ更新部14Aによって更新済みである。本ステップの処理は、請求の範囲に記載した「第1RNN出力ベクトル列生成処理」の一例である。
(ステップS112の具体例)
ステップS111の具体例に対応して実行されるステップS112の具体例について説明する。関係ベクトル生成部11Aは、第1RNNに、単語ベクトル列(VI,Vsaw,V*,Vby,V**,Vat,Vtheater)を入力することにより、RNN出力ベクトル列(WI,Wsaw,W*,Wby,W**,Wat,Wtheater)を生成する。ここで、「WI」は、単語ベクトル「VI」の入力に対応して出力されるベクトルである。「Wsaw」は、単語ベクトル「Vsaw」の入力に対応して出力されるベクトルである。「Wby」は、単語ベクトル「Vby」の入力に対応して出力されるベクトルである。「Wat」は、単語ベクトル「Vat」の入力に対応して出力されるベクトルである。「Wtheater」は、単語ベクトル「Vtheater」の入力に対応して出力されるベクトルである。「W*」は、単語ベクトル「V*」の入力に対応して出力されるベクトルである。「W**」は、単語ベクトル「V**」の入力に対応して出力されるベクトルである。
(ステップS113)
ステップS113において、関係ベクトル生成部11Aは、ステップS112にて生成されたRNN出力ベクトル列を構成するベクトルを要素毎に平均することによって、当該関係ベクトル生成用文に対応する文関係ベクトルViを算出する。本ステップの処理は、請求の範囲に記載した「文関係ベクトル算出処理」の一例である。
なお、本例示的実施形態では、1つの文関係ベクトルViが、1つの関係ベクトル生成用文S(e1,e2)iから生成される例について説明している。ただし、1つの文関係ベクトルViは、複数の関係ベクトル生成用文S(e1,e2)i1、S(e1,e2)i2、…から生成されてもよい。
(ステップS113の具体例)
ステップS111~S112の具体例に対応して実行されるステップS113の具体例について説明する。関係ベクトル生成部11Aは、RNN出力ベクトル列を構成する7つのベクトルWI、Wsaw、W*、Wby、W**、Wat、及びWtheaterの和を、ベクトルの個数の7で除することにより、文関係ベクトルViを算出する。
ステップS111~S113の処理が、n個の関係ベクトル生成用文S(e1,e2)iの各々について完了すると、関係ベクトル生成部11Aは、次のステップS114の処理を実行する。
(ステップS114)
ステップS114において、関係ベクトル生成部11Aは、ステップS113にて算出された、n個の関係ベクトル生成用文S(e1,e2)iにそれぞれ対応する文関係ベクトルViを要素毎に平均することによって、関係ベクトルV(e1,e2)を算出する。換言すると、関係ベクトルV(e1,e2)は、n個の文関係ベクトルViの和をnで除することにより算出される。本ステップの処理は、請求の範囲に記載した「関係ベクトル算出処理」の一例である。
(パラメータ更新処理の具体例)
ステップS112において用いられる、第1RNNに含まれる複数のパラメータを、関係ベクトル生成パラメータ更新部14Aが更新する更新処理の具体例について説明する。なお、当該更新処理は、情報処理方法S1の実行前に事前に行われる。ただし、当該更新処理は、追加の文集合を用いて定期的に実行されてもよい。以下では、説明を簡単にするため、関係ベクトル生成パラメータ更新部14Aが更新処理において用いる文集合は、情報処理方法S1が対象とする文集合と同じであるものとする。ただし、更新処理において用いる文集合は、情報処理方法S1が対象とする文集合に対して一部または全部が異なっていてもよい。
まず、関係ベクトル生成パラメータ更新部14Aは、注目エンティティe1、e2が共通して出現するn個の関係ベクトル生成用文S(e1,e2)iに対してそれぞれステップS111~S113と同様の処理を施すことにより、n個の文関係ベクトルViを算出する。なお、当該パラメータ更新処理の具体例では、nは2以上の整数である。また、関係ベクトル生成パラメータ更新部14Aは、n個の文関係ベクトルViのうちn1個を用いて、関係ベクトルV(e1,e2)1を算出する。また、関係ベクトル生成パラメータ更新部14Aは、n個の文関係ベクトルViのうち前述したn1個以外のn2個を用いて、関係ベクトルV(e1,e2)2を算出する。ここで、n1は、1以上n以下の整数である。また、n2は、1以上(n-n1)以下の整数である。また、関係ベクトル生成パラメータ更新部14Aは、関係ベクトルV(e1,e2)1及びV(e1,e2)2が互いに類似するように、複数のパラメータを更新する。
具体的には、関係ベクトル生成パラメータ更新部14Aは、関係ベクトルV(e1,e2)1及びV(e1,e2)2の類似度を算出する。類似度としては、例えば、内積、又はベクトル間距離に負数をかけたもの等が挙げられるが、これらに限られない。また、関係ベクトル生成パラメータ更新部14Aは、当該類似度が大きくなるよう、勾配法によって第1RNNに含まれる複数のパラメータを更新する。
なお、関係ベクトル生成パラメータ更新部14Aは、1組の「注目エンティティe1、e2」に限らず、複数組の「注目エンティティep、eq」の各組について上述した更新処理を行うことにより、複数のパラメータを更新してもよい。なお、p、qは1以上n以下の整数であり、p≠qである。また、関係ベクトル生成パラメータ更新部14Aは、n1個の文関係ベクトルViの組み合わせ、及び、n2個の文関係ベクトルViの組み合わせの一方または両方を変化させながら上述した更新処理を繰り返すことにより、複数のパラメータを更新してもよい。
<本例示的実施形態の効果>
本例示的実施形態は、非特許文献1に記載された関連技術と比較して、複数の注目エンティティ間の関係をより適切に表す関係ベクトルを生成することができる。また、その結果、そのような関係ベクトルと、特徴ベクトルとを用いて、注目エンティティ間の関係をより精度よく類別することができる。以下、本例示的実施形態が生成する関係ベクトルが関係をより適切に表す理由について説明する。
ここで、非特許文献1に記載された関連技術は、注目するエンティティのペアが出現する文の構文的な構造を示す情報を、複数のパラメータを含むアルゴリズムに入力することにより、関係ベクトルを生成する。また、この関連技術は、当該ペアが出現する複数の文から生成した複数の関係ベクトルから、当該ペアが出現する他の文の構文的な構造を予測できるように、複数のパラメータを更新する。このように、この関連技術は、関係ベクトルの生成処理及びパラメータの更新処理において、文の構文的な構造を考慮するが、各エンティティの特徴を考慮していない。
これに対して、本例示的実施形態は、複数の注目エンティティが共通して出現する複数の関係ベクトル生成用文のそれぞれから単語ベクトル列を生成する。この単語ベクトル列は、単語の並びによって文の構文的な構造に関する情報を含むだけでなく、各単語ベクトルが対応するエンティティの特徴を表している。ここで、単語ベクトル列が表す、各エンティティの特徴の一例としては、文における当該エンティティの出現位置が挙げられる。また、単語ベクトル列が表す、各エンティティの特徴の他の一例としては、出現位置の前後の単語列から推察される当該エンティティの種類が挙げられる。また、本例示的実施形態は、生成した単語ベクトル列を、複数のパラメータを含むアルゴリズムに入力することにより、複数の関係ベクトルを生成する。なお、この複数のパラメータは、注目エンティティのある組み合わせに対応する複数の関係ベクトルが類似するように事前に更新済みである。したがって、このような関係ベクトルは、文の構文的な構造に基づく関係を表すだけでなく、各注目エンティティの特徴に基づく関係を表している。ここで、関係ベクトルが表す、各注目エンティティの特徴に基づく関係の一例としては、文における当該注目エンティティの出現位置に基づく関係が挙げられる。また、関係ベクトルが表す、各注目エンティティの特徴に基づく関係の他の一例としては、出現位置の前後の単語列から推察される当該注目エンティティの種類に基づく関係が挙げられる。このように、本例示的実施形態が生成する関係ベクトルは、各注目エンティティの特徴を考慮して生成されているため、文の構文的な構造のみに基づいて生成される関連技術の関係ベクトルと比較して、複数の注目エンティティ間の関係をより適切に表している。
〔例示的実施形態3〕
本発明の第3の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
本例示的実施形態に係る情報処理装置1Bは、例示的実施形態1に係る情報処理方法S1に含まれるステップS12(特徴ベクトル生成処理)を変形して実行する。換言すると、情報処理装置1Bは、ステップS12を変形して実行するのに適するよう、例示的実施形態1に係る情報処理装置1を変形した態様である。
<情報処理装置の構成>
情報処理装置1Bの構成について、図5を参照して説明する。図5は、情報処理装置1Bの構成を示すブロック図である。図5に示すように、情報処理装置1Bは、特徴ベクトル生成部12に替えて特徴ベクトル生成部12Bを含む点と、さらに特徴ベクトル生成パラメータ更新部15Bを含む点とが、例示的実施形態1に係る情報処理装置1に対して異なる。その他の構成については、情報処理装置1と同様であるため、詳細な説明を繰り返さない。
(特徴ベクトル生成部)
特徴ベクトル生成部12Bは、複数の注目エンティティの各々に対し、複数のパラメータを含むアルゴリズムを用いて、少なくとも1つの特徴ベクトル生成用文から特徴ベクトルを生成する。特徴ベクトル生成部12Bは、請求の範囲に記載した「特徴ベクトル生成手段」を実現する構成の一例である。
(アルゴリズムの具体例)
複数のパラメータを含むアルゴリズムの具体例として、リカレントニューラルネットワークが挙げられる。リカレントニューラルネットワークは、単語ベクトル列を入力とし、その単語ベクトル列を構成する各単語ベクトルに対応するベクトルを出力とするニューラルネットワークである。特徴ベクトル生成部12Bが用いるリカレントニューラルネットワークを、以降、第2RNNとも記載する。第2RNNに含まれる複数のパラメータは、特徴ベクトル生成パラメータ更新部15Bによって更新される。
(特徴ベクトル生成パラメータ更新部)
特徴ベクトル生成パラメータ更新部15Bは、特徴ベクトルと当該注目エンティティを表す単語ベクトルとの類似度が高くなるように、上述した複数のパラメータを更新する。当該特徴ベクトルは、特徴ベクトル生成部12Bによって注目エンティティが出現する文から生成されたものである。詳細には、特徴ベクトル生成パラメータ更新部15Bは、後述する文特徴ベクトルと、当該注目エンティティを表す単語ベクトルとの類似度が高くなるように、上述した複数のパラメータを更新する。複数のパラメータを更新する更新処理の詳細及び具体例については後述する。特徴ベクトル生成パラメータ更新部15Bは、請求の範囲に記載した「特徴ベクトル生成パラメータ更新手段」を実現する構成の一例である。
<情報処理方法の流れ>
情報処理装置1Bが実行する情報処理方法の流れについて、図6を参照して説明する。情報処理装置1Bは、図2を参照して説明した情報処理方法S1のステップS12を変形して実行する。図6は、ステップS12の変形例である特徴ベクトル生成処理S12Bの詳細な流れを示すフロー図である。なお、特徴ベクトル生成処理S12Bは、注目エンティティek(k=1、2)のそれぞれについて実行される。
(特徴ベクトル生成処理の流れ)
図6に示すように、特徴ベクトル生成処理S12Bは、ステップS121~S124を含む。特徴ベクトル生成部12Bは、ステップS121~S123を、mk個の特徴ベクトル生成用文S(ek)jの各々について実行する。
(ステップS121)
ステップS121において、特徴ベクトル生成部12Bは、特徴ベクトル生成用文S(ek)jについて、単語ベクトル列を生成する。詳細には、特徴ベクトル生成部12Bは、注目エンティティekを表す単語を予め定められた単語ベクトルに置き換える。また、特徴ベクトル生成部12Bは、注目エンティティek以外を表す単語を、その単語を表す単語ベクトルに置き換える。これにより、特徴ベクトル生成部12Bは、特徴ベクトル生成用文S(ek)jに対応する単語ベクトル列を生成する。本ステップの処理は、請求の範囲に記載した「第2単語ベクトル列生成処理」の一例である。
(ステップS121の具体例)
例えば、特徴ベクトル生成用文S(e1)jが「I saw Star Wars by George Lucas at theater.」であり、エンティティe1を表す単語が「Star Wars」である具体例について説明する。特徴ベクトル生成部12Bは、単語ベクトル列(VI,Vsaw,V*,Vby,VGeorge Lucas,Vat,Vtheater)を生成する。ここで、「VGeorge」は、単語「George」を表す単語ベクトルである。単語ベクトル列を構成するその他の単語ベクトルについては、ステップS111の具体例で説明した通りである。
(ステップS122)
ステップS122において、特徴ベクトル生成部12Bは、第2RNNに、ステップS121にて生成された単語ベクトル列を入力することによって、特徴ベクトル生成用文S(ek)jに対応するRNN出力ベクトル列を生成する。第2RNNについては、上述した通りである。第2RNNに含まれる複数のパラメータは、特徴ベクトル生成パラメータ更新部15Bによって更新済みである。本ステップの処理は、請求の範囲に記載した「第2RNN出力ベクトル列生成処理」の一例である。
(ステップS122の具体例)
ステップS121の具体例に対応して実行されるステップS122の具体例について説明する。特徴ベクトル生成部12Bは、第2RNNに、単語ベクトル列(VI,Vsaw,V*,Vby,VGeorge Lucas,Vat,Vtheater)を入力することにより、RNN出力ベクトル列(WI,Wsaw,W*,Wby,Wgeorge Lucas,Wat,Wtheater)を生成する。ここで、「Wgeorge」は、単語ベクトル「Vgeorge」の入力に対応して出力されるベクトルである。RNN出力ベクトル列を構成するその他のベクトルについては、ステップS112の具体例で説明した通りである。
(ステップS123)
ステップS123において、特徴ベクトル生成部12Bは、ステップS122にて生成されたRNN出力ベクトル列を構成するベクトルのうち、注目エンティティekに対応するベクトルを、特徴ベクトル生成用文S(ek)jに対応する文特徴ベクトルVjとする。
(ステップS123の具体例)
ステップS121~S122の具体例に対応して実行されるステップS123の具体例について説明する。特徴ベクトル生成部12Bは、RNN出力ベクトル列を構成するベクトルのうち、注目エンティティe1に対応するベクトル「W*」を、文特徴ベクトルVjとする。本ステップの処理は、請求の範囲に記載した「文特徴ベクトル設定処理」の一例である。
ステップS121~S123の処理が、mk個の関係ベクトル生成用文S(ek)jの各々について完了すると、特徴ベクトル生成部12Bは、次のステップS124の処理を実行する。
(ステップS124)
ステップS124において、特徴ベクトル生成部12Bは、ステップS123にて設定された、各特徴ベクトル生成用文S(ek)jに対応する文特徴ベクトルVjを要素毎に平均することによって、特徴ベクトルV(ek)を算出する。本ステップの処理は、請求の範囲に記載した「特徴ベクトル算出処理」の一例である。
特徴ベクトル生成部12Bは、上述したステップS121~S124を、k=1として注目エンティティe1について実行することにより、注目エンティティe1に対応する特徴ベクトルV(e1)を算出する。また、特徴ベクトル生成部12Bは、上述したステップS121~S124を、k=2として注目エンティティe2について実行することにより、注目エンティティe2に対応する特徴ベクトルV(e2)を算出する。
(パラメータ更新処理の具体例)
ステップS122において用いられる、第2RNNに含まれる複数のパラメータを、特徴ベクトル生成パラメータ更新部15Bが更新する更新処理の具体例について説明する。なお、当該更新処理は、情報処理方法S1の実行前に事前に行われる。ただし、当該更新処理は、追加の文集合を用いて定期的に実行されてもよい。以下では、説明を簡単にするため、特徴ベクトル生成パラメータ更新部15Bが更新処理において用いる文集合は、情報処理方法S1が対象とする文集合と同じであるものとする。ただし、更新処理において用いる文集合は、情報処理方法S1が対象とする文集合に対して一部または全部が異なっていてもよい。
まず、特徴ベクトル生成パラメータ更新部15Bは、注目エンティティe1が出現するm1個の特徴ベクトル生成用文S(e1)jに対してそれぞれステップS121~S123と同様の処理を施すことにより、m1個の文特徴ベクトルVjを算出する。なお、当該パラメータ更新処理の具体例では、m1は2以上の整数である。また、特徴ベクトル生成パラメータ更新部15Bは、m1個の特徴ベクトル生成用文S(e1)jのそれぞれについて、注目エンティティe1を表す単語の単語ベクトルと、文特徴ベクトルVjとの類似度が高くなるように、複数のパラメータを更新する。また、特徴ベクトル生成パラメータ更新部15Bは、注目エンティティe2についても同様にして、m2個の文特徴ベクトルVjを算出する。また、特徴ベクトル生成パラメータ更新部15Bは、m2個の特徴ベクトル生成用文S(e2)jのそれぞれについて、注目エンティティe2を表す単語の単語ベクトルと、文特徴ベクトルVjとの類似度が高くなるように、複数のパラメータを更新する。
具体的には、特徴ベクトル生成パラメータ更新部15Bは、文特徴ベクトルVj及び当該単語ベクトルの類似度として、例えば、内積、又はベクトル間距離に負数をかけたものを算出する。ただし、類似度は、これらに限られない。また、特徴ベクトル生成パラメータ更新部15Bは、当該類似度が大きくなるよう、勾配法によって第2RNNに含まれる複数のパラメータを更新する。
<本例示的実施形態の効果>
本例示的実施形態は、非特許文献1に記載された関連技術と比較して、注目エンティティの特徴をより適切に表した特徴ベクトルを生成することができる。その理由について説明する。
例えば、文集合が、特徴パラメータ生成用文S(e1)j1「“I found movies by John Doe at a theater.」を、特徴パラメータ生成用文S(e1)j2「“I found books by John Doe at a book store.」よりも多く含むとする。ここで、「movies」及び「books」は、注目エンティティe1を表す単語である。この場合、特徴ベクトル生成パラメータ更新部15Bは、特徴パラメータ生成用文S(e1)j1における単語「movies」を単語ベクトル「V*」に置き換えた単語ベクトル列を第2RNNに入力して文特徴ベクトルVj1を得る。そして、特徴ベクトル生成パラメータ更新部15Bは、文特徴ベクトルVj1が元の単語ベクトル「Vmovies」に類似するように第2RNNのパラメータを更新する。また、特徴ベクトル生成パラメータ更新部15Bは、特徴パラメータ生成用文S(e1)j2における単語「books」を単語ベクトル「V*」に置き換えた単語ベクトル列を第2RNNに入力して文特徴ベクトルVj2を得る。そして、特徴ベクトル生成パラメータ更新部15Bは、文特徴ベクトルVj2が元の単語ベクトル「Vbooks」に類似するように第2RNNのパラメータを更新する。ここで、特徴パラメータ生成用文S(e1)j1の数がS(e1)j2の数よりも多いため、複数のパラメータは、「注目エンティティe1は、book storeよりもtheaterで発見されやすい」という特徴を表す特徴ベクトルV(e1)を出力するように更新される。換言すると、更新された複数のパラメータを含む第2RNNから出力される特徴ベクトルV(e1)は、「注目エンティティe1がbookというよりはmovieである確度が大きい」という情報を埋め込んだものである。さらに換言すると、特徴ベクトルV(e1)は、文集合におけるS(e1)j1の個数とS(e1)j2の個数との相対的な大小から推測される注目エンティティe1の特徴と整合する情報を埋め込んだものである。したがって、本例示的実施形態が生成する特徴ベクトルは、より適切に注目エンティティの特徴を表す。
また、上述した本例示的実施形態が生成する特徴ベクトルを用いることにより、本例示的実施形態は、非特許文献1に記載された関連技術と比較して、複数の注目エンティティ間の関係をより精度よく類別することができる。その理由について説明する。
ここで、非特許文献1に記載された関連技術は、2つの注目エンティティに対応する単語間の構文的な構造に基づいてエンティティ間の関係を類別する。したがって、この関連技術は、次の文1及び文2における2つの注目エンティティ(「some story」及び「John Doe」)間の関係とは直接対応していない修飾語(「at a theater」及び「at a book store」)の違いを区別できない。このため、この関連技術は、これらの2文におけるこれらの2つの注目エンティティ間の関係を区別することができない。
文1:“I found Some Story by John Doe at a theater.”
文2:“I found Some Story by John Doe at a book store.”
これに対して、本例示的実施形態は、単語「some story」に対応する注目エンティティe1の特徴ベクトルV(e1)を、上述の第2RNNを用いて生成する。ここで、文1を多く含む文集合が参照される場合、当該特徴ベクトルV(e1)は、「注目エンティティe1は、book storeよりもtheaterで発見されやすい」という特徴を表す。一方、文2を多く含む文集合が参照される場合、当該特徴ベクトルV(e1)は、「注目エンティティe1は、theaterよりもbook storeで発見されやすい」という特徴を表す。したがって、本例示的実施形態は、文1を多く含む文集合では、「some story」と「Jone Doe」との関係は、「映画監督が制作した作品」であると類別することができる。また、本例示的実施形態は、文2を多く含む文集合では、「some story」と「Jone Doe」との関係は、「作家が執筆した本」であると類別することができる。このように、本例示的実施形態は、注目エンティティの文集合における特徴を反映した特徴ベクトルを用いて関係を類別するため、非特許文献に記載された関連技術と比較して精度よく関係を類別することができる。
〔例示的実施形態4〕
本発明の第4の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態1にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
本例示的実施形態に係る情報処理装置1Cは、例示的実施形態1に係る情報処理方法S1に含まれるステップS13(関係類別処理)を変形して実行する。換言すると、情報処理装置1Cは、ステップS13を変形して実行するのに適するよう、例示的実施形態1に係る情報処理装置1を変形した態様である。
<情報処理装置の構成>
情報処理装置1Cの構成について、図7を参照して説明する。図7は、情報処理装置1Cの構成を示すブロック図である。図7に示すように、情報処理装置1Cは、関係類別部13に代えて関係類別部13Cを含む点と、さらに関係ベクトルクラスタリング部16C及び特徴ベクトルクラスタリング部17Cを含む点とが、例示的実施形態1に係る情報処理装置1に対して異なる。その他の構成については、情報処理装置1と同様であるため、詳細な説明を繰り返さない。
(関係ベクトルクラスタリング部)
関係ベクトルクラスタリング部16Cは、関係ベクトルをクラスタリングする。関係ベクトルをクラスタリングする処理には、K-Means法等の公知の技術を適用可能であるが、これに限られない。関係ベクトルクラスタリング部16Cは、複数の関係ベクトルを分類して複数のクラスタを生成する。関係ベクトルクラスタリング部16Cは、請求の範囲に記載した「関係ベクトルクラスタリング手段」を実現する構成の一例である。
(特徴ベクトルクラスタリング部)
特徴ベクトルクラスタリング部17Cは、特徴ベクトルをクラスタリングする。特徴ベクトルをクラスタリングする処理には、K-Means法等の公知の技術を適用可能であるが、これに限られない。特徴ベクトルクラスタリング部17Cは、複数の特徴ベクトルを分類して複数のクラスタを生成する。特徴ベクトルクラスタリング部17Cは、請求の範囲に記載した「特徴ベクトルクラスタリング手段」を実現する構成の一例である。
(関係類別部)
関係類別部13Cは、関係ベクトル類別処理と、特徴ベクトル類別処理と、類別結果合成処理とを実行する。関係ベクトル類別処理は、関係ベクトル生成部11にて生成された関係ベクトルを類別する処理である。特徴ベクトル類別処理は、特徴ベクトル生成部12にて生成された各特徴ベクトルを類別する処理である。類別結果合成処理は、関係ベクトル類別処理にて得られた類別結果と特徴ベクトル類別処理にて得られた類別結果とを合成することによって、複数の注目エンティティ間の関係を類別する処理である。関係類別部13Cは、請求の範囲に記載した「関係類別手段」を実現する構成の一例である。
<情報処理方法の流れ>
情報処理装置1Cが実行する情報処理方法の流れについて、図8を参照して説明する。情報処理装置1Cは、図2を参照して説明した情報処理方法S1のステップS13を変形して実行する。図8は、ステップS13の変形例である関係類別処理S13Cの詳細な流れを示すフロー図である。
(関係類別処理の流れ)
図8に示すように、関係類別処理S13Cは、ステップS131~S133を含む。
(ステップS131)
ステップS131において、関係類別部13Cは、関係ベクトル類別処理を実行する。詳細には、関係類別部13Cは、関係ベクトル生成部11にて生成された関係ベクトルV(e1,e2)が、関係ベクトルクラスタリング部16Cにより生成されたクラスタの何れかに属するかを判定する。以降、判定されたクラスタを、関係クラスタC(e1,e2)と記載する。関係ベクトル類別処理において複数のクラスタの各々について重みが得られる場合、最も重みが大きいクラスタが関係クラスタC(e1,e2)となる。
(ステップS132)
ステップS132において、関係類別部13Cは、特徴ベクトル類別処理を実行する。詳細には、関係類別部13Cは、特徴ベクトル生成部12にて生成された特徴ベクトルV(ek)の各々が、特徴ベクトルクラスタリング部17Cにより生成されたクラスタの何れかに属するかを判定する。以降、判定されたクラスタを、特徴クラスタC(ek)と記載する。特徴ベクトル類別処理において複数のクラスタの各々について重みが得られる場合、最も重みが大きいクラスタが特徴クラスタC(ek)となる。
(ステップS133)
ステップS133において、関係類別部13Cは、類別結果合成処理を実行する。詳細には、関係類別部13Cは、ステップS131及びS132にて得られた各類別結果を合成することによって、複数の注目エンティティe1、e2間の関係を類別する。例えば、関係類別部13Cは、関係クラスタC(e1,e2)、特徴クラスタC(e1)、及び特徴クラスタC(e2)の直積を、複数の注目エンティティe1、e2間の関係の類別結果としてもよい。
<本例示的実施形態の効果>
本例示的実施形態は、複数の注目エンティティに対応する関係ベクトルが属する関係クラスタと、各注目エンティティに対応する特徴ベクトルが属する特徴クラスタとを合成することにより、複数の注目エンティティ間の関係を類別する。このように、関係ベクトルの類別と特徴ベクトルの類別とを別々に行うことで、これらのベクトルをまとめて類別する場合と比べて考慮すべきベクトルの次元が小さくなる。その結果、関係の類別処理がより容易になり、精度が向上する。
また、本例示的実施形態は、類別結果合成処理を行うことで、最大で、関係クラスタの総数と特徴クラスタの総数との積だけの異なる種類に、複数の注目エンティティ間の関係を類別することが可能となる。したがって、関係ベクトル類別処理及び特徴ベクトル類別処理の各々において必要なクラスタの総数を削減しても、十分な種類の関係を類別できる能力が確保される。その結果、関係の類別処理がより容易になり、精度が向上する。
したがって、本例示的実施形態は、複数の注目エンティティ間の関係をより精度よく類別することができる。
〔実施例〕
本実施例では、上述した例示的実施形態2~4を組み合わせて実施し、複数の注目エンティティ間の関係を類別する検証を行った。すなわち、本実施例は、関係ベクトル生成処理S11A、特徴ベクトル生成処理S12B、及び関係類別処理S13Cを実行することにより、類別結果を求めた。当該類別結果を、実施例の類別結果と記載する。
(比較例)
比較例として、関連技術を用いて複数の注目エンティティ間の関係を類別し、類別結果を求めた。関連技術としては、Open IE 5.1を用いた。Open IE 5.1は、文の構文的な構造に基づいてエンティティ間の関係を類別する公知の技術である。
(対象とした文集合)
実施例及び比較例は、同一の文集合を対象として関係の類別を行った。対象とした文集合は、大規模コーパスClueWeb12の一部である。大規模コーパスClueWeb12は、ウェブからのクローリングにより得られた公開されたデータセットである。また、実施例及び比較例では、FACC1データベースも利用した。FACC1データベースには、ClueWeb12に含まれる文中の各単語がオンラインデータベースFreebaseに登録されているどのエンティティに対応するか、もしくはどのエンティティにも対応しないか、についてのアノテーションデータが含まれる。
(正解データ)
実施例及び比較例の類別結果の精度を算出するために、次の正解データを用いた。すなわち、Freebaseにおいてあるエンティティのペアに対して成立している述語を、正しい関係の類別結果である正解データとして扱った。また、Freebaseに登録されている述語のうち、その述語が成立しているエンティティのペアがClueWeb12において頻繁に出現しているような述語を100種程度選択した。そして、Freebaseにおいてそれらの述語が成立していることが登録されているエンティティのペアのうち、対象とした文集合に出現したものを類別対象の注目エンティティのペアとした。なお、正解データは、類別結果の精度を算出するために用い、実施例及び比較例における更新処理及び類別処理では参照していない。
(類別結果の検証)
実施例および比較例について、図9を参照して説明する。図9は、実施例による類別結果と、比較例による類別結果とを比較するグラフである。図9において、横軸は、各述語により規定される関係を示す。縦軸は、当該関係を有する注目エンティティのペアについての類別結果の精度を示す。より具体的には、実施例および比較例によって注目エンティティのペアを類別して得られた関係と、横軸に示した各述語により規定される関係との一致度合いを、それぞれの関係に類別される注目エンティティのペアの重複度合いによって評価した。そして、当該一致度合いを、類別された注目エンティティのペアの個数に応じて重みづけ平均して得られた値を精度として扱った。図9に示すように、本実施例による類別結果は、比較例による類別結果の精度が相対的に高い関係について、比較例よりも精度が低いものの、類別を行うことができた。また、本実施例による類別結果は、比較例による類別結果の精度が低い関係については、比較例よりも高い精度で類別を行うことができた。
換言すると、本実施例は、比較例では関係の類別が難しい注目エンティティのペアについても、精度よく関係を類別することができる。また、本実施例は、比較例に比べて、より多くの関係を類別することができる。
〔例示的実施形態5〕
本発明の第5の例示的実施形態について、図面を参照して詳細に説明する。なお、例示的実施形態5は、例示的実施形態2を変形した態様である。例示的実施形態2にて説明した構成要素と同じ機能を有する構成要素については、同じ符号を付記し、その説明を繰り返さない。
<情報処理装置の構成>
情報処理装置2の構成について、図10を参照して説明する。図10は、情報処理装置2の構成を示すブロック図である。図10に示すように、情報処理装置2は、特徴ベクトル生成部12を含まない点と、関係類別部13に替えて関係類別部23を含む点とが、例示的実施形態2に係る情報処理装置1Aに対して異なる。その他の構成については、情報処理装置1Aと同様であるため、詳細な説明を繰り返さない。
(関係類別部)
関係類別部23は、関係ベクトル生成部11Aにて生成された関係ベクトルを用いて、複数の注目エンティティ間の関係を類別する。関係類別部23は、請求の範囲に記載した「関係類別手段」を実現する構成の一例である。
<情報処理方法の流れ>
情報処理装置2が実行する情報処理方法S2の流れについて、図11を参照して説明する。図11は、情報処理方法S2の流れを示すフロー図である。図11に示すように、情報処理方法S2は、ステップS21~S22を含む。
(ステップS21)
ステップS21の処理は、例示的実施形態2に係るステップS11Aの処理と同様である。これにより、関係ベクトル生成部11Aは、複数のパラメータを含むアルゴリズムを用いて、少なくとも1つの関係ベクトル生成用文S(e1,e2)から関係ベクトルV(e1,e2)を生成する。
(ステップS22)
ステップS22において、関係類別部23は、関係ベクトル生成部11Aにて生成された関係ベクトルV(e1,e2)を用いて、複数の注目エンティティe1,e2間の関係を類別する。例えば、関係類別部23は、関係ベクトルV(e1,e2)をクラスタリングすることにより、当該関係を類別してもよい。
<本例示的実施形態の効果>
本例示的実施形態は、非特許文献1に記載された関連技術と比較して、複数の注目エンティティ間の関係をより適切に表す関係ベクトルを生成することができる。その理由については、例示的実施形態2の効果において説明した通りである。その結果、本例示的実施形態は、そのような関係ベクトルを用いているため、複数の注目エンティティ間の関係をより精度よく類別することができる。
〔ソフトウェアによる実現例〕
情報処理装置1、1A、1B、1C、2の一部又は全部の機能は、集積回路(ICチップ)等のハードウェアによって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、情報処理装置1、1A、1B、1C、2は、例えば、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータによって実現される。このようなコンピュータの一例(以下、コンピュータCと記載する)を図12に示す。コンピュータCは、少なくとも1つのプロセッサC1と、少なくとも1つのメモリC2と、を備えている。メモリC2には、コンピュータCを情報処理装置1、1A、1B、1C、2として動作させるためのプログラムPが記録されている。コンピュータCにおいて、プロセッサC1は、プログラムPをメモリC2から読み取って実行することにより、情報処理装置1、1A、1B、1C、2の各機能が実現される。
プロセッサC1としては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floating point number Processing Unit)、PPU(Physics Processing Unit)、マイクロコントローラ、又は、これらの組み合わせなどを用いることができる。メモリC2としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせなどを用いることができる。
なお、コンピュータCは、プログラムPを実行時に展開したり、各種データを一時的に記憶したりするためのRAM(Random Access Memory)を更に備えていてもよい。また、コンピュータCは、他の装置との間でデータを送受信するための通信インタフェースを更に備えていてもよい。また、コンピュータCは、キーボードやマウス、ディスプレイやプリンタなどの入出力機器を接続するための入出力インタフェースを更に備えていてもよい。
また、プログラムPは、コンピュータCが読み取り可能な、一時的でない有形の記録媒体Mに記録することができる。このような記録媒体Mとしては、例えば、テープ、ディスク、カード、半導体メモリ、又はプログラマブルな論理回路などを用いることができる。コンピュータCは、このような記録媒体Mを介してプログラムPを取得することができる。また、プログラムPは、伝送媒体を介して伝送することができる。このような伝送媒体としては、例えば、通信ネットワーク、又は放送波などを用いることができる。コンピュータCは、このような伝送媒体を介してプログラムPを取得することもできる。
〔付記事項1〕
本発明は、上述した実施形態に限定されるものでなく、請求項に示した範囲で種々の変更が可能である。例えば、上述した実施形態に開示された技術的手段を適宜組み合わせて得られる実施形態についても、本発明の技術的範囲に含まれる。
〔付記事項2〕
上述した実施形態の一部又は全部は、以下のようにも記載され得る。ただし、本発明は、以下の記載する態様に限定されるものではない。
(付記1)
文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成する関係ベクトル生成手段と、
前記複数の注目エンティティの各々に対し、前記文集合より選択された、当該注目エンティティが出現する少なくとも1つの特徴ベクトル生成用文から、当該注目エンティティの特徴を表す特徴ベクトルを生成する特徴ベクトル生成手段と、
前記関係ベクトル生成手段にて生成された関係ベクトル及び前記特徴ベクトル生成手段にて生成された特徴ベクトルを用いて、前記複数の注目エンティティ間の関係を類別する関係類別手段と、を備えている、情報処理装置。
上記構成により、複数の注目エンティティが出現する関係ベクトル生成用文から生成した関係ベクトルと、各注目エンティティが出現する特徴ベクトル生成用文から生成した特徴ベクトルとを用いて、複数の注目エンティティ間の関係を類別する。その結果、複数の注目エンティティ間の関係に加えて、各注目エンティティの特徴を考慮するので、注目エンティティ間の関係をより精度よく類別することができる。
(付記2)
前記関係ベクトル生成手段は、複数のパラメータを含むアルゴリズムを用いて、前記少なくとも1つの関係ベクトル生成用文から前記関係ベクトルを生成し、
当該情報処理装置は、前記関係ベクトル生成手段によって複数の注目エンティティが共通して出現する複数の文から生成される複数の関係ベクトルの類似度が高くなるように、前記複数のパラメータを更新する関係ベクトル生成パラメータ更新手段を更に備えている、付記1に記載の情報処理装置。
上記構成により、複数の注目エンティティ間の関係をより適切に表す関係ベクトルを生成することができる。
(付記3)
前記関係ベクトル生成手段は、
各関係ベクトル生成用文について、(1)前記複数の注目エンティティの各々を表す単語を予め定められた単語ベクトルに置き換えると共に、前記複数の注目エンティティ以外を表す単語をその単語を表す単語ベクトルに置き換えることによって、当該関係ベクトル生成用文に対応する単語ベクトル列を生成する第1単語ベクトル列生成処理と、(2)単語ベクトル列を入力とし、その単語ベクトル列を構成する各単語ベクトルに対応するベクトルを出力とするリカレントニューラルネットワークに、前記第1単語ベクトル列生成処理にて生成された単語ベクトル列を入力することによって、当該関係ベクトル生成用文に対応するRNN出力ベクトル列を生成する第1RNN出力ベクトル列生成処理と、(3)前記第1RNN出力ベクトル列生成処理にて生成されたRNN出力ベクトル列を構成するベクトルを要素毎に平均することによって、当該関係ベクトル生成用文に対応する文関係ベクトルを算出する文関係ベクトル算出処理と、を実行すると共に、
(4)前記文関係ベクトル算出処理にて算出された、各関係ベクトル生成用文に対応する文関係ベクトルを要素毎に平均することによって、前記関係ベクトルを算出する関係ベクトル算出処理を実行し、
前記関係ベクトル生成パラメータ更新手段は、前記関係ベクトル生成手段によって複数のエンティティが共通に出現する複数の文から生成される複数の関係ベクトルの類似度が高くなるように、前記リカレントニューラルネットワークのパラメータを更新する、付記2に記載の情報処理装置。
上記構成により、複数の注目エンティティ間の関係をより適切に表す関係ベクトルを生成するよう、リカレントニューラルネットワークを学習させることができる。
(付記4)
前記特徴ベクトル生成手段は、前記複数の注目エンティティの各々に対し、複数のパラメータを含むアルゴリズムを用いて、前記少なくとも1つの特徴ベクトル生成用文から前記特徴ベクトルを生成し、
当該情報処理装置は、前記特徴ベクトル生成手段によって注目エンティティが出現する文から生成される特徴ベクトルと当該注目エンティティを表す単語ベクトルとの類似度が高くなるように、前記複数のパラメータを更新する特徴ベクトル生成パラメータ更新手段を更に備えている、付記1~3の何れか一つに記載の情報処理装置。
上記構成により、各注目エンティティの特徴をより適切に表す特徴ベクトルを生成することができる。
(付記5)
前記特徴ベクトル生成手段は、前記複数の注目エンティティの各々に対し、
各特徴ベクトル生成用文について、(1)当該注目エンティティを表す単語を予め定められた単語ベクトルに置き換えると共に、当該注目エンティティ以外を表す単語をその単語を表す単語ベクトルに置き換えることによって、当該特徴ベクトル生成用文に対応する単語ベクトル列を生成する第2単語ベクトル列生成処理と、(2)単語ベクトル列を入力とし、当該単語ベクトル列を構成する各単語ベクトルに対応するベクトルを出力とするリカレントニューラルネットワークに、前記第2単語ベクトル列生成処理にて生成された単語ベクトル列を入力することによって、当該特徴ベクトル生成用文に対応するRNN出力ベクトル列を生成する第2RNN出力ベクトル列生成処理と、(3)前記第2RNN出力ベクトル列生成処理にて生成されたRNN出力ベクトル列を構成するベクトルのうち、当該注目エンティティに対応するベクトルを、当該特徴ベクトル生成用文に対応する文特徴ベクトルとする文特徴ベクトル設定処理と、を実行すると共に、
(4)前記文特徴ベクトル設定処理にて設定された、各特徴ベクトル生成用文に対応する文特徴ベクトルを要素毎に平均することによって、前記特徴ベクトルを算出する特徴ベクトル算出処理を実行し、
前記特徴ベクトル生成パラメータ更新手段は、前記特徴ベクトル生成手段によって注目エンティティが出現する文から生成される文特徴ベクトルと当該注目エンティティを表す単語ベクトルとの類似度が高くなるように、前記リカレントニューラルネットワークのパラメータを更新する、付記4に記載の情報処理装置。
上記構成により、各注目エンティティの特徴をより適切に表す特徴ベクトルを生成するよう、リカレントニューラルネットワークを学習させることができる。
(付記6)
前記関係類別手段は、前記関係ベクトル生成手段にて生成された関係ベクトルを類別する関係ベクトル類別処理と、前記特徴ベクトル生成手段にて生成された各特徴ベクトルを類別する特徴ベクトル類別処理と、前記関係ベクトル類別処理にて得られた類別結果と前記特徴ベクトル類別処理にて得られた類別結果とを合成することによって、前記複数の注目エンティティ間の関係を類別する類別結果合成処理と、を実行する、付記1~5の何れか一つに記載の情報処理装置。
上記構成により、関係ベクトル及び各特徴ベクトルを別々に類別した結果を合成することで、複数の注目エンティティ間の関係をさらに精度よく類別することができる。
(付記7)
関係ベクトルをクラスタリングする関係ベクトルクラスタリング手段と、
特徴ベクトルをクラスタリングする特徴ベクトルクラスタリング手段と、を更に備え、
前記関係類別手段は、前記関係ベクトル生成手段にて生成された関係ベクトルが前記関係ベクトルクラスタリング手段により生成されたクラスタの何れかに属するかを判定することによって、前記関係ベクトル類別処理を実行すると共に、前記特徴ベクトル生成手段にて生成された各特徴ベクトルが前記特徴ベクトルクラスタリング手段により生成されたクラスタの何れかに属するかを判定することによって、前記特徴ベクトル類別処理を実行する、付記6に記載の情報処理装置。
上記構成により、最終的な類別結果を得るために用いる関係ベクトルの類別結果及び各特徴ベクトルの類別結果を得ることができる。
(付記8)
文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成すること、
前記複数の注目エンティティの各々に対し、前記文集合より選択された、当該注目エンティティが出現する少なくとも1つの特徴ベクトル生成用文から、当該注目エンティティの特徴を表す特徴ベクトルを生成すること、及び
前記関係ベクトル及び前記複数の注目エンティティの各々に対し生成された前記特徴ベクトルを用いて、前記複数の注目エンティティ間の関係を類別すること、を含む、情報処理方法。
上記構成により、付記1と同様の効果を奏する。
(付記9)
コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、
文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成する関係ベクトル生成手段と、
前記複数の注目エンティティの各々に対し、前記文集合より選択された、当該注目エンティティが出現する少なくとも1つの特徴ベクトル生成用文から、当該注目エンティティの特徴を表す特徴ベクトルを生成する特徴ベクトル生成手段と、
前記関係ベクトル生成手段にて生成された関係ベクトル及び前記特徴ベクトル生成手段にて生成された特徴ベクトルを用いて、前記複数の注目エンティティ間の関係を類別する関係類別手段と、として機能させるプログラム。
上記構成により、付記1と同様の効果を奏する。
(付記10)
複数のパラメータを含むアルゴリズムを用いて、文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成する関係ベクトル生成手段と、
前記関係ベクトル生成手段によって複数の注目エンティティが共通して出現する複数の文から生成される複数の関係ベクトルの類似度が高くなるように、前記複数のパラメータを更新する関係ベクトル生成パラメータ更新手段と、
前記関係ベクトル生成手段にて生成された関係ベクトルを用いて、前記複数の注目エンティティ間の関係を類別する関係類別手段と、を備えている、情報処理装置。
上記構成により、付記1と同様の効果を奏する。
(付記11)
複数のパラメータを含むアルゴリズムを用いて、文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成すること、
複数の注目エンティティが共通して出現する複数の文から生成される複数の前記関係ベクトルの類似度が高くなるように、前記複数のパラメータを更新すること、及び
前記関係ベクトルを用いて、前記複数の注目エンティティ間の関係を類別すること、を含む、情報処理方法。
上記構成により、付記1と同様の効果を奏する。
(付記12)
コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、
複数のパラメータを含むアルゴリズムを用いて、文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成する関係ベクトル生成手段と、
前記関係ベクトル生成手段によって複数の注目エンティティが共通して出現する複数の文から生成される複数の関係ベクトルの類似度が高くなるように、前記複数のパラメータを更新する関係ベクトル生成パラメータ更新手段と、
前記関係ベクトル生成手段にて生成された関係ベクトルを用いて、前記複数の注目エンティティ間の関係を類別する関係類別手段と、として機能させるプログラム。
上記構成により、付記1と同様の効果を奏する。
(付記13)
少なくとも1つのプロセッサを備え、前記プロセッサは、
文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成する関係ベクトル生成処理と、
前記複数の注目エンティティの各々に対し、前記文集合より選択された、当該注目エンティティが出現する少なくとも1つの特徴ベクトル生成用文から、当該注目エンティティの特徴を表す特徴ベクトルを生成する特徴ベクトル生成処理と、
前記関係ベクトル生成処理にて生成された関係ベクトル及び前記特徴ベクトル生成処理にて生成された特徴ベクトルを用いて、前記複数の注目エンティティ間の関係を類別する関係類別処理と、を実行する情報処理装置。
(付記14)
上述した実施形態の一部又は全部は、更に、以下のように表現することもできる。
少なくとも1つのプロセッサを備え、前記プロセッサは、
複数のパラメータを含むアルゴリズムを用いて、文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成する関係ベクトル生成処理と、
前記関係ベクトル生成処理によって複数の注目エンティティが共通して出現する複数の文の各々から生成される関係ベクトルの類似度が高くなるように、前記複数のパラメータを更新する関係ベクトル生成パラメータ更新処理と、
前記関係ベクトル生成処理にて生成された関係ベクトルを用いて、前記複数の注目エンティティ間の関係を類別する関係類別処理と、を実行する情報処理装置。
なお、付記14に記載の情報処理装置は、更にメモリを備えていてもよく、このメモリには、前記関係ベクトル生成処理と、前記特徴ベクトル生成処理と、前記関係類別処理とを前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。
また、付記15に記載の情報処理装置は、更にメモリを備えていてもよく、このメモリには、前記関係ベクトル生成処理と、前記関係ベクトル生成パラメータ更新処理と、前記関係類別処理とを前記プロセッサに実行させるためのプログラムが記憶されていてもよい。また、このプログラムは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録されていてもよい。
1、1A、1B、1C、2 情報処理装置
11、11A 関係ベクトル生成部
12、12B 特徴ベクトル生成部
13、13C、23 関係類別部
14A 関係ベクトル生成パラメータ更新部
15B、15B、15B 特徴ベクトル生成パラメータ更新部
16C 関係ベクトルクラスタリング部
17C 特徴ベクトルクラスタリング部
C1 プロセッサ
C2 メモリ

Claims (12)

  1. 文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成する関係ベクトル生成手段と、
    前記複数の注目エンティティの各々に対し、前記文集合より選択された、当該注目エンティティが出現する少なくとも1つの特徴ベクトル生成用文から、当該注目エンティティの特徴を表す特徴ベクトルを生成する特徴ベクトル生成手段と、
    前記関係ベクトル生成手段にて生成された関係ベクトル及び前記特徴ベクトル生成手段にて生成された特徴ベクトルを用いて、前記複数の注目エンティティ間の関係を類別する関係類別手段と、を備え、
    前記関係類別手段は、前記関係ベクトル及び前記特徴ベクトルに基づいて1つのベクトルを生成し、生成したベクトルの類似性に基づいて、前記複数の注目エンティティ間の関係を類別する、
    情報処理装置。
  2. 前記関係ベクトル生成手段は、複数のパラメータを含むアルゴリズムを用いて、前記少なくとも1つの関係ベクトル生成用文から前記関係ベクトルを生成し、
    当該情報処理装置は、前記関係ベクトル生成手段によって複数の注目エンティティが共通して出現する複数の文から生成される複数の関係ベクトルの類似度が高くなるように、前記複数のパラメータを更新する関係ベクトル生成パラメータ更新手段を更に備えている、請求項1に記載の情報処理装置。
  3. 前記関係ベクトル生成手段は、
    各関係ベクトル生成用文について、(1)前記複数の注目エンティティの各々を表す単語を予め定められた単語ベクトルに置き換えると共に、前記複数の注目エンティティ以外を表す単語をその単語を表す単語ベクトルに置き換えることによって、当該関係ベクトル生成用文に対応する単語ベクトル列を生成する第1単語ベクトル列生成処理と、(2)単語ベクトル列を入力とし、その単語ベクトル列を構成する各単語ベクトルに対応するベクトルを出力とするリカレントニューラルネットワークに、前記第1単語ベクトル列生成処理にて生成された単語ベクトル列を入力することによって、当該関係ベクトル生成用文に対応するRNN出力ベクトル列を生成する第1RNN出力ベクトル列生成処理と、(3)前記第1RNN出力ベクトル列生成処理にて生成されたRNN出力ベクトル列を構成するベクトルを要素毎に平均することによって、当該関係ベクトル生成用文に対応する文関係ベクトルを算出する文関係ベクトル算出処理と、を実行すると共に、
    (4)前記文関係ベクトル算出処理にて算出された、各関係ベクトル生成用文に対応する文関係ベクトルを要素毎に平均することによって、前記関係ベクトルを算出する関係ベクトル算出処理を実行し、
    前記関係ベクトル生成パラメータ更新手段は、前記関係ベクトル生成手段によって複数のエンティティが共通に出現する複数の文から生成される複数の関係ベクトルの類似度が高くなるように、前記リカレントニューラルネットワークのパラメータを更新する、請求項2に記載の情報処理装置。
  4. 前記特徴ベクトル生成手段は、前記複数の注目エンティティの各々に対し、複数のパラメータを含むアルゴリズムを用いて、前記少なくとも1つの特徴ベクトル生成用文から前記特徴ベクトルを生成し、
    当該情報処理装置は、前記特徴ベクトル生成手段によって注目エンティティが出現する文から生成される特徴ベクトルと当該注目エンティティを表す単語ベクトルとの類似度が高くなるように、前記複数のパラメータを更新する特徴ベクトル生成パラメータ更新手段を更に備えている、請求項1~3の何れか一項に記載の情報処理装置。
  5. 前記特徴ベクトル生成手段は、前記複数の注目エンティティの各々に対し、
    各特徴ベクトル生成用文について、(1)当該注目エンティティを表す単語を予め定められた単語ベクトルに置き換えると共に、当該注目エンティティ以外を表す単語をその単語を表す単語ベクトルに置き換えることによって、当該特徴ベクトル生成用文に対応する単語ベクトル列を生成する第2単語ベクトル列生成処理と、(2)単語ベクトル列を入力とし、当該単語ベクトル列を構成する各単語ベクトルに対応するベクトルを出力とするリカレントニューラルネットワークに、前記第2単語ベクトル列生成処理にて生成された単語ベクトル列を入力することによって、当該特徴ベクトル生成用文に対応するRNN出力ベクトル列を生成する第2RNN出力ベクトル列生成処理と、(3)前記第2RNN出力ベクトル列生成処理にて生成されたRNN出力ベクトル列を構成するベクトルのうち、当該注目エンティティに対応するベクトルを、当該特徴ベクトル生成用文に対応する文特徴ベクトルとする文特徴ベクトル設定処理と、を実行すると共に、
    (4)前記文特徴ベクトル設定処理にて設定された、各特徴ベクトル生成用文に対応する文特徴ベクトルを要素毎に平均することによって、前記特徴ベクトルを算出する特徴ベクトル算出処理を実行し、
    前記特徴ベクトル生成パラメータ更新手段は、前記特徴ベクトル生成手段によって注目エンティティが出現する文から生成される文特徴ベクトルと当該注目エンティティを表す単語ベクトルとの類似度が高くなるように、前記リカレントニューラルネットワークのパラメータを更新する、請求項4に記載の情報処理装置。
  6. 少なくとも1つのプロセッサが、文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成する関係ベクトル生成処理
    前記少なくとも1つのプロセッサが、前記複数の注目エンティティの各々に対し、前記文集合より選択された、当該注目エンティティが出現する少なくとも1つの特徴ベクトル生成用文から、当該注目エンティティの特徴を表す特徴ベクトルを生成する特徴ベクトル生成処理、及び
    前記少なくとも1つのプロセッサが、前記関係ベクトル及び前記複数の注目エンティティの各々に対し生成された前記特徴ベクトルを用いて、前記複数の注目エンティティ間の関係を類別する関係類別処理、を含み、
    前記関係類別処理において、前記少なくとも1つのプロセッサは、前記関係ベクトル及び前記特徴ベクトルに基づいて1つのベクトルを生成し、生成したベクトルの類似性に基づいて、前記複数の注目エンティティ間の関係を類別する、
    情報処理方法。
  7. コンピュータを情報処理装置として機能させるためのプログラムであって、前記コンピュータを、
    文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成する関係ベクトル生成手段と、
    前記複数の注目エンティティの各々に対し、前記文集合より選択された、当該注目エンティティが出現する少なくとも1つの特徴ベクトル生成用文から、当該注目エンティティの特徴を表す特徴ベクトルを生成する特徴ベクトル生成手段と、
    前記関係ベクトル生成手段にて生成された関係ベクトル及び前記特徴ベクトル生成手段にて生成された特徴ベクトルを用いて、前記複数の注目エンティティ間の関係を類別する関係類別手段と、として機能させ、
    前記関係類別手段は、前記関係ベクトル及び前記特徴ベクトルに基づいて1つのベクトルを生成し、生成したベクトルの類似性に基づいて、前記複数の注目エンティティ間の関係を類別する、
    プログラム。
  8. 複数のパラメータを含むアルゴリズムを用いて、文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成する関係ベクトル生成手段と、
    前記関係ベクトル生成手段によって複数の注目エンティティが共通して出現する複数の文から生成される複数の関係ベクトルの類似度が高くなるように、前記複数のパラメータを更新する関係ベクトル生成パラメータ更新手段と、
    前記関係ベクトル生成手段にて生成された関係ベクトルを用いて、前記複数の注目エンティティ間の関係を類別する関係類別手段と、を備え、
    前記関係ベクトル生成手段は、複数のパラメータを含むアルゴリズムを用いて、前記少なくとも1つの関係ベクトル生成用文から前記関係ベクトルを生成し、
    前記関係ベクトル生成手段によって複数の注目エンティティが共通して出現する複数の文から生成される複数の関係ベクトルの類似度が高くなるように、前記複数のパラメータを更新する関係ベクトル生成パラメータ更新手段を更に備え、
    前記関係ベクトル生成手段は、
    各関係ベクトル生成用文について、(1)前記複数の注目エンティティの各々を表す単語を予め定められた単語ベクトルに置き換えると共に、前記複数の注目エンティティ以外を表す単語をその単語を表す単語ベクトルに置き換えることによって、当該関係ベクトル生成用文に対応する単語ベクトル列を生成する第1単語ベクトル列生成処理と、(2)単語ベクトル列を入力とし、その単語ベクトル列を構成する各単語ベクトルに対応するベクトルを出力とするリカレントニューラルネットワークに、前記第1単語ベクトル列生成処理にて生成された単語ベクトル列を入力することによって、当該関係ベクトル生成用文に対応するRNN出力ベクトル列を生成する第1RNN出力ベクトル列生成処理と、(3)前記第1RNN出力ベクトル列生成処理にて生成されたRNN出力ベクトル列を構成するベクトルを要素毎に平均することによって、当該関係ベクトル生成用文に対応する文関係ベクトルを算出する文関係ベクトル算出処理と、を実行すると共に、
    (4)前記文関係ベクトル算出処理にて算出された、各関係ベクトル生成用文に対応する文関係ベクトルを要素毎に平均することによって、前記関係ベクトルを算出する関係ベクトル算出処理を実行し、
    前記関係ベクトル生成パラメータ更新手段は、前記関係ベクトル生成手段によって複数のエンティティが共通に出現する複数の文から生成される複数の関係ベクトルの類似度が高くなるように、前記リカレントニューラルネットワークのパラメータを更新する、
    情報処理装置。
  9. 文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成する関係ベクトル生成手段と、
    前記複数の注目エンティティの各々に対し、前記文集合より選択された、当該注目エンティティが出現する少なくとも1つの特徴ベクトル生成用文から、当該注目エンティティの特徴を表す特徴ベクトルを生成する特徴ベクトル生成手段と、
    前記関係ベクトル生成手段にて生成された関係ベクトル及び前記特徴ベクトル生成手段にて生成された特徴ベクトルを用いて、前記複数の注目エンティティ間の関係を類別する関係類別手段と、を備え、
    前記関係ベクトル生成手段は、複数のパラメータを含むアルゴリズムを用いて、前記少なくとも1つの関係ベクトル生成用文から前記関係ベクトルを生成し、
    前記関係ベクトル生成手段によって複数の注目エンティティが共通して出現する複数の文から生成される複数の関係ベクトルの類似度が高くなるように、前記複数のパラメータを更新する関係ベクトル生成パラメータ更新手段を更に備え、
    前記関係ベクトル生成手段は、
    各関係ベクトル生成用文について、(1)前記複数の注目エンティティの各々を表す単語を予め定められた単語ベクトルに置き換えると共に、前記複数の注目エンティティ以外を表す単語をその単語を表す単語ベクトルに置き換えることによって、当該関係ベクトル生成用文に対応する単語ベクトル列を生成する第1単語ベクトル列生成処理と、(2)単語ベクトル列を入力とし、その単語ベクトル列を構成する各単語ベクトルに対応するベクトルを出力とするリカレントニューラルネットワークに、前記第1単語ベクトル列生成処理にて生成された単語ベクトル列を入力することによって、当該関係ベクトル生成用文に対応するRNN出力ベクトル列を生成する第1RNN出力ベクトル列生成処理と、(3)前記第1RNN出力ベクトル列生成処理にて生成されたRNN出力ベクトル列を構成するベクトルを要素毎に平均することによって、当該関係ベクトル生成用文に対応する文関係ベクトルを算出する文関係ベクトル算出処理と、を実行すると共に、
    (4)前記文関係ベクトル算出処理にて算出された、各関係ベクトル生成用文に対応する文関係ベクトルを要素毎に平均することによって、前記関係ベクトルを算出する関係ベクトル算出処理を実行し、
    前記関係ベクトル生成パラメータ更新手段は、前記関係ベクトル生成手段によって複数のエンティティが共通に出現する複数の文から生成される複数の関係ベクトルの類似度が高くなるように、前記リカレントニューラルネットワークのパラメータを更新する、
    情報処理装置。
  10. 文集合より選択された、複数の注目エンティティが出現する少なくとも1つの関係ベクトル生成用文から、前記複数の注目エンティティの関係を表す関係ベクトルを生成する関係ベクトル生成手段と、
    前記複数の注目エンティティの各々に対し、前記文集合より選択された、当該注目エンティティが出現する少なくとも1つの特徴ベクトル生成用文から、当該注目エンティティの特徴を表す特徴ベクトルを生成する特徴ベクトル生成手段と、
    前記関係ベクトル生成手段にて生成された関係ベクトル及び前記特徴ベクトル生成手段にて生成された特徴ベクトルを用いて、前記複数の注目エンティティ間の関係を類別する関係類別手段と、を備え、
    前記特徴ベクトル生成手段は、前記複数の注目エンティティの各々に対し、複数のパラメータを含むアルゴリズムを用いて、前記少なくとも1つの特徴ベクトル生成用文から前記特徴ベクトルを生成し、
    前記特徴ベクトル生成手段によって注目エンティティが出現する文から生成される特徴ベクトルと当該注目エンティティを表す単語ベクトルとの類似度が高くなるように、前記複数のパラメータを更新する特徴ベクトル生成パラメータ更新手段を更に備え、
    前記特徴ベクトル生成手段は、前記複数の注目エンティティの各々に対し、
    各特徴ベクトル生成用文について、(1)当該注目エンティティを表す単語を予め定められた単語ベクトルに置き換えると共に、当該注目エンティティ以外を表す単語をその単語を表す単語ベクトルに置き換えることによって、当該特徴ベクトル生成用文に対応する単語ベクトル列を生成する第2単語ベクトル列生成処理と、(2)単語ベクトル列を入力とし、当該単語ベクトル列を構成する各単語ベクトルに対応するベクトルを出力とするリカレントニューラルネットワークに、前記第2単語ベクトル列生成処理にて生成された単語ベクトル列を入力することによって、当該特徴ベクトル生成用文に対応するRNN出力ベクトル列を生成する第2RNN出力ベクトル列生成処理と、(3)前記第2RNN出力ベクトル列生成処理にて生成されたRNN出力ベクトル列を構成するベクトルのうち、当該注目エンティティに対応するベクトルを、当該特徴ベクトル生成用文に対応する文特徴ベクトルとする文特徴ベクトル設定処理と、を実行すると共に、
    (4)前記文特徴ベクトル設定処理にて設定された、各特徴ベクトル生成用文に対応する文特徴ベクトルを要素毎に平均することによって、前記特徴ベクトルを算出する特徴ベクトル算出処理を実行し、
    前記特徴ベクトル生成パラメータ更新手段は、前記特徴ベクトル生成手段によって注目エンティティが出現する文から生成される文特徴ベクトルと当該注目エンティティを表す単語ベクトルとの類似度が高くなるように、前記リカレントニューラルネットワークのパラメータを更新する、
    情報処理装置。
  11. 前記関係類別手段は、前記関係ベクトル生成手段にて生成された関係ベクトルを類別する関係ベクトル類別処理と、前記特徴ベクトル生成手段にて生成された各特徴ベクトルを類別する特徴ベクトル類別処理と、前記関係ベクトル類別処理にて得られた類別結果と前記特徴ベクトル類別処理にて得られた類別結果とを合成することによって、前記複数の注目エンティティ間の関係を類別する類別結果合成処理と、を実行する、請求項9または10に記載の情報処理装置。
  12. 関係ベクトルをクラスタリングする関係ベクトルクラスタリング手段と、
    特徴ベクトルをクラスタリングする特徴ベクトルクラスタリング手段と、を更に備え、
    前記関係類別手段は、前記関係ベクトル生成手段にて生成された関係ベクトルが前記関係ベクトルクラスタリング手段により生成されたクラスタの何れかに属するかを判定することによって、前記関係ベクトル類別処理を実行すると共に、前記特徴ベクトル生成手段にて生成された各特徴ベクトルが前記特徴ベクトルクラスタリング手段により生成されたクラスタの何れかに属するかを判定することによって、前記特徴ベクトル類別処理を実行する、請求項11に記載の情報処理装置。
JP2022572828A 2020-12-28 2020-12-28 情報処理装置、情報処理方法、及びプログラム Active JP7529048B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/049128 WO2022144968A1 (ja) 2020-12-28 2020-12-28 情報処理装置、情報処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JPWO2022144968A1 JPWO2022144968A1 (ja) 2022-07-07
JPWO2022144968A5 JPWO2022144968A5 (ja) 2023-09-05
JP7529048B2 true JP7529048B2 (ja) 2024-08-06

Family

ID=82260351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022572828A Active JP7529048B2 (ja) 2020-12-28 2020-12-28 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US20240045895A1 (ja)
JP (1) JP7529048B2 (ja)
WO (1) WO2022144968A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012027845A (ja) 2010-07-27 2012-02-09 Sony Corp 情報処理装置、関連文提供方法、及びプログラム
JP2012243125A (ja) 2011-05-20 2012-12-10 Nec Corp 因果単語対抽出装置、因果単語対抽出方法および因果単語対抽出用プログラム
US20150052098A1 (en) 2012-04-05 2015-02-19 Thomson Licensing Contextually propagating semantic knowledge over large datasets
JP2018206263A (ja) 2017-06-08 2018-12-27 日本電信電話株式会社 述語項構造モデル生成装置、述語項構造解析装置、方法、及びプログラム
JP2019008368A (ja) 2017-06-20 2019-01-17 日本電信電話株式会社 単語ベクトル学習装置、方法、プログラム、及び記憶媒体
WO2019082362A1 (ja) 2017-10-26 2019-05-02 三菱電機株式会社 単語意味関係推定装置および単語意味関係推定方法
WO2020240871A1 (ja) 2019-05-31 2020-12-03 日本電気株式会社 パラメータ学習装置、パラメータ学習方法、及びコンピュータ読み取り可能な記録媒体
WO2020240870A1 (ja) 2019-05-31 2020-12-03 日本電気株式会社 パラメータ学習装置、パラメータ学習方法、及びコンピュータ読み取り可能な記録媒体
JP2022527060A (ja) 2019-03-22 2022-05-30 サービスナウ, インコーポレイテッド テキストの意味的類似性をそのサブセクションに基づいて決定すること

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012027845A (ja) 2010-07-27 2012-02-09 Sony Corp 情報処理装置、関連文提供方法、及びプログラム
JP2012243125A (ja) 2011-05-20 2012-12-10 Nec Corp 因果単語対抽出装置、因果単語対抽出方法および因果単語対抽出用プログラム
US20150052098A1 (en) 2012-04-05 2015-02-19 Thomson Licensing Contextually propagating semantic knowledge over large datasets
JP2018206263A (ja) 2017-06-08 2018-12-27 日本電信電話株式会社 述語項構造モデル生成装置、述語項構造解析装置、方法、及びプログラム
JP2019008368A (ja) 2017-06-20 2019-01-17 日本電信電話株式会社 単語ベクトル学習装置、方法、プログラム、及び記憶媒体
WO2019082362A1 (ja) 2017-10-26 2019-05-02 三菱電機株式会社 単語意味関係推定装置および単語意味関係推定方法
JP2022527060A (ja) 2019-03-22 2022-05-30 サービスナウ, インコーポレイテッド テキストの意味的類似性をそのサブセクションに基づいて決定すること
WO2020240871A1 (ja) 2019-05-31 2020-12-03 日本電気株式会社 パラメータ学習装置、パラメータ学習方法、及びコンピュータ読み取り可能な記録媒体
WO2020240870A1 (ja) 2019-05-31 2020-12-03 日本電気株式会社 パラメータ学習装置、パラメータ学習方法、及びコンピュータ読み取り可能な記録媒体

Also Published As

Publication number Publication date
WO2022144968A1 (ja) 2022-07-07
US20240045895A1 (en) 2024-02-08
JPWO2022144968A1 (ja) 2022-07-07

Similar Documents

Publication Publication Date Title
US11947917B2 (en) Natural language processing with an n-gram machine
US11816442B2 (en) Multi-turn dialogue response generation with autoregressive transformer models
US11928600B2 (en) Sequence-to-sequence prediction using a neural network model
US11271876B2 (en) Utilizing a graph neural network to identify supporting text phrases and generate digital query responses
US10134389B2 (en) Clustering user utterance intents with semantic parsing
CN112262368A (zh) 自然语言到api转换
JPWO2018131259A1 (ja) 文章評価装置、及び文章評価方法
CN112214584B (zh) 使用知识图利用实体关系来发现答案
CN111443964B (zh) 更新用户界面的方法、设备和计算机可读存储介质
WO2020199595A1 (zh) 基于词袋模型的长文本分类方法、装置、计算机设备及存储介质
KR20200071877A (ko) 자율 증강형 반복 학습을 이용한 정보 추출 방법 및 시스템
CN103425727A (zh) 上下文语音查询扩大方法和系统
JP2017076281A (ja) 単語埋込学習装置、テキスト評価装置、方法、及びプログラム
Lee et al. Ensembles of Lasso screening rules
US20220222442A1 (en) Parameter learning apparatus, parameter learning method, and computer readable recording medium
JP7529048B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11574181B2 (en) Fusion of neural networks
JP5184464B2 (ja) 単語クラスタリング装置及び方法及びプログラム及びプログラムを格納した記録媒体
JP6261669B2 (ja) クエリ校正システムおよび方法
Yang et al. A sentiment and syntactic-aware graph convolutional network for aspect-level sentiment classification
CN113297854A (zh) 文本到知识图谱实体的映射方法、装置、设备及存储介质
CN113033205A (zh) 实体链接的方法、装置、设备以及存储介质
JP2021197015A (ja) 推論器、推論方法およびプログラム
Zhang et al. HARPA: hierarchical attention with relation paths for knowledge graph embedding adversarial learning
Li Correlation temporal feature extraction network via residual network for English relation extraction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230615

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240708

R150 Certificate of patent or registration of utility model

Ref document number: 7529048

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150