JP2022145623A - ヒント情報を提示する方法及び装置並びにコンピュータプログラム - Google Patents
ヒント情報を提示する方法及び装置並びにコンピュータプログラム Download PDFInfo
- Publication number
- JP2022145623A JP2022145623A JP2022040587A JP2022040587A JP2022145623A JP 2022145623 A JP2022145623 A JP 2022145623A JP 2022040587 A JP2022040587 A JP 2022040587A JP 2022040587 A JP2022040587 A JP 2022040587A JP 2022145623 A JP2022145623 A JP 2022145623A
- Authority
- JP
- Japan
- Prior art keywords
- vector
- entity
- concepts
- concept
- context
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
- G06F40/169—Annotation, e.g. comment data or footnotes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】本発明は、ヒント情報を提示する方法及び装置並びにコンピュータプログラムを提供する。
【解決手段】かかる方法は、エンティティ、エンティティのコンテキスト、エンティティの類型、コンテキストの品詞及び複数の事前定義の概念を入力し;エンティティ、コンテキスト、エンティティの類型及びコンテキストの品詞の組み合わせに基づいて第一ベクトルを生成し;各概念に基づいて第二ベクトルを生成し;グラフに基づいて第三ベクトルを生成し;第二ベクトルと第三ベクトルとをつなぎ合わせて第四ベクトルを生成し;第一ベクトル及び第四ベクトルに基づいて、エンティティと各概念との間の語義類似度を計算し;第一ベクトル及び語義類似度に基づいて、エンティティに対応する1つ概念を決定し;及び、決定した概念に基づいて、ヒント情報を生成してユーザに提示することを含む。
【選択図】図4
【解決手段】かかる方法は、エンティティ、エンティティのコンテキスト、エンティティの類型、コンテキストの品詞及び複数の事前定義の概念を入力し;エンティティ、コンテキスト、エンティティの類型及びコンテキストの品詞の組み合わせに基づいて第一ベクトルを生成し;各概念に基づいて第二ベクトルを生成し;グラフに基づいて第三ベクトルを生成し;第二ベクトルと第三ベクトルとをつなぎ合わせて第四ベクトルを生成し;第一ベクトル及び第四ベクトルに基づいて、エンティティと各概念との間の語義類似度を計算し;第一ベクトル及び語義類似度に基づいて、エンティティに対応する1つ概念を決定し;及び、決定した概念に基づいて、ヒント情報を生成してユーザに提示することを含む。
【選択図】図4
Description
本発明は、エンティティ(実体)の曖昧性解消(Entity Disambiguation)の技術に関し、特に、エンティティの曖昧性解消の技術を利用してテキストにおけるエンティティに関するヒント情報をユーザに提示(present)する方法及び装置並びにコンピュータプログラムに関する。
実際の言語環境では、1つのエンティティ名が複数の概念(コンセプト)に対応する状況がしばしば存在する。例えば、テキストに現れるエンティティ名「アップル」は、果物を指す場合もあり、会社アップル(Apple Inc.)を指す場合もある。同じエンティティ名によって引き起こされる曖昧さの問題を解決するために、エンティティの曖昧性解消の技術は提案されている。
エンティティの曖昧性解消の技術は、コンテキストにおける言及情報(mention)、即ち、エンティティを、ナレッジグラフにおける適切な概念にリンクすることができ、それは、質問回答、語義(意味)検索及び情報抽出のような多くの分野で基本的な役割を果たす。概念とは、区別可能で独立して存在するもの(事物)を指し、ナレッジグラフに含まれる異なる概念の間には相互関連性が存在する。例えば、実際には同じような名前の人物「マイケル・ジェフリー・ジョーダン」及び「マイケル・オーウェン・ジョーダン」がいる。前者はバスケットボールのスター選手であり、後者は機械学習分野の有名人である。よって、ナレッジグラフには次の2つの概念、即ち、「バスケットボールのスター選手であるマイケル・ジェフリー・ジョーダン」及び「機械学習の専門家であるマイケル・オーウェン・ジョーダン」が存在し得る。さらに、ナレッジグラフには「バスケットボールのスター選手であるマイケル・ジェフリー・ジョーダン」と関連付けられる複数のスポーツに関する概念、及び、「機械学習の専門家であるマイケル・オーウェン・ジョーダン」と関連付けられる複数のコンピュータ技術に関する概念も存在し得る。1つのテキストにエンティティ「マイケル・ジョーダン」が含まれるときに、テキストのコンテキストに基づいて、該エンティティがナレッジグラフにおける「バスケットボールのスター選手であるマイケル・ジェフリー・ジョーダン」を指すか、それとも「機械学習の専門家であるマイケル・オーウェン・ジョーダン」を指すかを決定する必要はある。
エンティティの曖昧性解消の技術を用いてテキストに言及されているエンティティが特定の概念に対応することを決定した後に、決定した概念に基づいてユーザにヒント情報を提供することで、ユーザが該エンティティの正しい意味を理解し得るようにすることができる。例えば、テキストとしての「アップルが本日新しいスマートフォンをリリースしました……」に出現するエンティティ「アップル」について、ユーザに「会社アップル:米国のハイテク企業であり、代表的製品はiPhone(登録商標)スマートフォン……」のようなヒント情報を提示することができる。
しかし、自然言語が非常に複雑であるため、エンティティの曖昧性解消の技術は、如何に、コンテキストにおけるエンティティの正確な意味を識別し、それをナレッジグラフにおける正しい概念に関連付けるかの課題に直面している。
今のところ、主に2種類のエンティティの曖昧性解消の方法があり、即ち、並べ替えモデルを使用してエンティティの曖昧性解消の問題をモデル化する方法、及び分類モデルを利用してエンティティの曖昧性解消の問題をモデル化する方法である。
並べ替えモデルを使用した方法は候補概念の生成及び候補概念の並べ替えの2つのステップを含む。候補概念を生成するステップでは簡単な規則(ルール)が良く用いられるが、これは、しばしば、正確な候補概念を選択できないことをもたらするため、後続の並べ替えのステップではカスケードエラーが生じるようになる恐れがある。
分類モデルを利用した方法はエンティティの曖昧性解消の問題を単一ラベルのテキスト分類タスクとしてモデル化する。例えば、Elena Tutubalinaらが2018年6月に発表した論文“Medical concept normalization in social media posts with recurrent neural networks”(Journal of Biomedical informatics)に記載されたモデルには2つの部分、即ち、ニューラルネットワーク及び補助特徴が含まれる。ニューラルネットワークの部分では、ゲート付き回帰型ユニット(Gated Recurrent Unit、GRU)ネットワーク及びアテンションメカニズム(注意機構)ネットワークを採用してエンティティに対して符号化(encoding)を行う。補助特徴の部分では、TF-IDF類似度及びWord2Vec類似度を利用してモデルに対して強化(エンハンスメント)を行う。しかし、このようなモデルは、Word2Vec類似度特徴に十分な語義情報がないので、エンティティと概念との間の語義レベルの類似度を正確に比較することができない。
従来技術に存在する1つ又は複数の問題を解決するために、本発明は分類モデルを利用した新しい方法を提案し、該方法はBERTモデルを採用してエンティティに対して符号化を行い、かつ文字類似度及び語義類似度を補助特徴として採用する。本発明による方法は、テキストに言及されるエンティティをナレッジグラフにおける正確な概念に関連付ける確率を上げることができるため、より正確なヒント情報をユーザに提供することができる。
本発明の1つの側面によれば、コンピュータが実行する、ニューラルネットワークを利用して、電子テキストを閲覧するユーザにヒント情報を提示する方法が提供され、そのうち、前記ニューラルネットワークはBERTモデル及びグラフ畳み込みニューラルネットワークを含み、前記方法は、
前記電子テキスト、前記電子テキストに関する情報、及び複数の事前定義の概念を前記ニューラルネットワークに入力し、そのうち、前記電子テキストはエンティティ及び該エンティティのコンテキストを含み、前記電子テキストに関する情報は前記エンティティの類型(タイプ)及び前記コンテキストの品詞(part of speech)を含み、前記概念はテキスト形式(text format)であり;
前記BERTモデルを使用して、前記エンティティ、前記コンテキスト、前記エンティティの類型及び前記コンテキストの品詞の組み合わせに基づいて第一ベクトル(V2)を生成し;
前記BERTモデルを使用して、前記複数の概念のうちの各概念に基づいて第二ベクトル(V4)を生成し;
前記グラフ畳み込みニューラルネットワークを使用して、グラフに基づいて第三ベクトル(V5)を生成し、そのうち、前記グラフは前記複数の概念及び前記複数の概念の間の関係に基づいて生成され;
前記第二ベクトル(V4)と前記第三ベクトル(V5)とをつなぎ合わせることで、第四ベクトル(V6)を生成し;
前記第一ベクトル(V2)及び前記第四ベクトル(V6)に基づいて、前記エンティティと前記複数の概念のうちの各概念との間の語義類似度を計算し;
前記第一ベクトル(V2)及び前記語義類似度に基づいて、前記エンティティに対応する前記複数の概念のうちの1つの概念を決定し;及び
決定した、前記エンティティに対応する概念に基づいて前記ヒント情報を生成し、前記ユーザに提示することを含む。
前記電子テキスト、前記電子テキストに関する情報、及び複数の事前定義の概念を前記ニューラルネットワークに入力し、そのうち、前記電子テキストはエンティティ及び該エンティティのコンテキストを含み、前記電子テキストに関する情報は前記エンティティの類型(タイプ)及び前記コンテキストの品詞(part of speech)を含み、前記概念はテキスト形式(text format)であり;
前記BERTモデルを使用して、前記エンティティ、前記コンテキスト、前記エンティティの類型及び前記コンテキストの品詞の組み合わせに基づいて第一ベクトル(V2)を生成し;
前記BERTモデルを使用して、前記複数の概念のうちの各概念に基づいて第二ベクトル(V4)を生成し;
前記グラフ畳み込みニューラルネットワークを使用して、グラフに基づいて第三ベクトル(V5)を生成し、そのうち、前記グラフは前記複数の概念及び前記複数の概念の間の関係に基づいて生成され;
前記第二ベクトル(V4)と前記第三ベクトル(V5)とをつなぎ合わせることで、第四ベクトル(V6)を生成し;
前記第一ベクトル(V2)及び前記第四ベクトル(V6)に基づいて、前記エンティティと前記複数の概念のうちの各概念との間の語義類似度を計算し;
前記第一ベクトル(V2)及び前記語義類似度に基づいて、前記エンティティに対応する前記複数の概念のうちの1つの概念を決定し;及び
決定した、前記エンティティに対応する概念に基づいて前記ヒント情報を生成し、前記ユーザに提示することを含む。
本発明のもう1つの側面によれば、ニューラルネットワークを利用して、電子テキストを閲覧するユーザにヒント情報を提示する装置が提供され、そのうち、前記ニューラルネットワークはBERTモデル及びグラフ畳み込みニューラルネットワークを含み、前記装置は、コンピュータプログラムを記憶している記憶器;及び、前記記憶器に接続される1つ又は複数の処理器を含み、前記処理器は前記コンピュータプログラムを実行することで以下の操作を実行し、即ち、
前記電子テキスト、前記電子テキストに関する情報及び複数の事前定義の概念を前記ニューラルネットワークに入力し、そのうち、前記電子テキストはエンティティ及び前記エンティティのコンテキストを含み、前記電子テキストに関する情報は前記エンティティの類型及び前記コンテキストの品詞を含み、前記概念はテキスト形式であり;
前記BERTモデルを使用して、前記エンティティ、前記コンテキスト、前記エンティティの類型及び前記コンテキストの品詞の組み合わせに基づいて第一ベクトル(V2)を生成し;
前記BERTモデルを使用して、前記複数の概念のうちの各概念に基づいて第二ベクトル(V4)を生成し;
前記グラフ畳み込みニューラルネットワークを使用して、グラフに基づいて第三ベクトル(V5)を生成し、そのうち、前記グラフは前記複数の概念及び前記複数の概念の間の関係に基づいて生成され;
前記第二ベクトル(V4)と前記第三ベクトル(V5)とをつなぎ合わせることで、第四ベクトル(V6)を生成し;
前記第一ベクトル(V2)及び前記第四ベクトル(V6)に基づいて、前記エンティティと前記複数の概念のうちの各概念との間の語義類似度を計算し;
前記第一ベクトル(V2)及び前記語義類似度に基づいて、前記エンティティに対応する前記複数の概念のうちの1つの概念を決定し;及び
決定した、前記エンティティに対応する概念に基づいて前記ヒント情報を生成し、前記ユーザに提示する操作である。
前記電子テキスト、前記電子テキストに関する情報及び複数の事前定義の概念を前記ニューラルネットワークに入力し、そのうち、前記電子テキストはエンティティ及び前記エンティティのコンテキストを含み、前記電子テキストに関する情報は前記エンティティの類型及び前記コンテキストの品詞を含み、前記概念はテキスト形式であり;
前記BERTモデルを使用して、前記エンティティ、前記コンテキスト、前記エンティティの類型及び前記コンテキストの品詞の組み合わせに基づいて第一ベクトル(V2)を生成し;
前記BERTモデルを使用して、前記複数の概念のうちの各概念に基づいて第二ベクトル(V4)を生成し;
前記グラフ畳み込みニューラルネットワークを使用して、グラフに基づいて第三ベクトル(V5)を生成し、そのうち、前記グラフは前記複数の概念及び前記複数の概念の間の関係に基づいて生成され;
前記第二ベクトル(V4)と前記第三ベクトル(V5)とをつなぎ合わせることで、第四ベクトル(V6)を生成し;
前記第一ベクトル(V2)及び前記第四ベクトル(V6)に基づいて、前記エンティティと前記複数の概念のうちの各概念との間の語義類似度を計算し;
前記第一ベクトル(V2)及び前記語義類似度に基づいて、前記エンティティに対応する前記複数の概念のうちの1つの概念を決定し;及び
決定した、前記エンティティに対応する概念に基づいて前記ヒント情報を生成し、前記ユーザに提示する操作である。
本発明のもう1つの側面によれば、電子テキストを閲覧するユーザにヒント情報を提示する装置が提供され、そのうち、前記電子テキストはエンティティ及び前記エンティティのコンテキストを含み、前記装置は、主モジュール、語義類似度計算モジュール、文字類似度計算モジュール及び提示モジュールを含み、
前記主モジュールは、
前記エンティティ、前記コンテキスト、前記エンティティの類型及び前記コンテキストの品詞の組み合わせに基づいて第一ベクトル(V2)を生成するように構成されるBERTモジュール;及び
前記第一ベクトル(V2)、前記語義類似度計算モジュールが計算した語義類似度、及び前記文字類似度計算モジュールが計算した文字類似度に基づいて、前記エンティティに対応する複数の事前定義概念のうちの1つの概念を決定するように構成される分類モジュールであって、そのうち、前記概念はテキスト形式である分類モジュールを含み、
前記語義類似度計算モジュールは、
前記複数の概念のうちの各概念に基づいて第二ベクトル(V4)を生成するように構成されるBERTモジュール;及び
グラフに基づいて第三ベクトル(V5)を生成するように構成されるグラフ畳み込みニューラルネットワークであって、そのうち、前記グラフは前記複数の概念及び前記複数の概念の間の関係に基づいて生成されるグラフ畳み込みニューラルネットワークを含み、
前記語義類似度計算モジュールは、前記第二ベクトル(V4)と前記第三ベクトル(V5)とをつなぎ合わせることで第四ベクトル(V6)を生成し、かつ前記第一ベクトル(V2)及び前記第四ベクトル(V6)に基づいて、前記エンティティと前記複数の概念のうちの各概念との間の語義類似度を計算するように構成され、
前記文字類似度計算モジュールは、前記エンティティと前記複数の概念のうちの各概念との間の文字類似度を計算するように構成され、
前記提示モジュールは、決定された、前記エンティティに対応する概念に基づいて前記ヒント情報を生成し、前記ユーザに提示するように構成される。
前記主モジュールは、
前記エンティティ、前記コンテキスト、前記エンティティの類型及び前記コンテキストの品詞の組み合わせに基づいて第一ベクトル(V2)を生成するように構成されるBERTモジュール;及び
前記第一ベクトル(V2)、前記語義類似度計算モジュールが計算した語義類似度、及び前記文字類似度計算モジュールが計算した文字類似度に基づいて、前記エンティティに対応する複数の事前定義概念のうちの1つの概念を決定するように構成される分類モジュールであって、そのうち、前記概念はテキスト形式である分類モジュールを含み、
前記語義類似度計算モジュールは、
前記複数の概念のうちの各概念に基づいて第二ベクトル(V4)を生成するように構成されるBERTモジュール;及び
グラフに基づいて第三ベクトル(V5)を生成するように構成されるグラフ畳み込みニューラルネットワークであって、そのうち、前記グラフは前記複数の概念及び前記複数の概念の間の関係に基づいて生成されるグラフ畳み込みニューラルネットワークを含み、
前記語義類似度計算モジュールは、前記第二ベクトル(V4)と前記第三ベクトル(V5)とをつなぎ合わせることで第四ベクトル(V6)を生成し、かつ前記第一ベクトル(V2)及び前記第四ベクトル(V6)に基づいて、前記エンティティと前記複数の概念のうちの各概念との間の語義類似度を計算するように構成され、
前記文字類似度計算モジュールは、前記エンティティと前記複数の概念のうちの各概念との間の文字類似度を計算するように構成され、
前記提示モジュールは、決定された、前記エンティティに対応する概念に基づいて前記ヒント情報を生成し、前記ユーザに提示するように構成される。
本発明のもう1つの側面によれば、コンピュータプログラムを記憶している記憶媒体が提供され、前記コンピュータプログラムはコンピュータにより実行されるときに前記コンピュータに上述のような方法を実行させる。
以下、添付した図面を参照しながら、本発明を実施するための好適な実施例を詳細に説明する。なお、これらの実施例は例示に過ぎず、本発明を限定するものでない。
図1は本発明におけるニューラルネットワークのアーキテクチャを示す図である。図1の左半分は主モデルを示しており、右半分は補助特徴の部分を示している。主モデルは主に分類タスクを実行するために用いられ、即ち、テキストに含まれるエンティティがどの概念(クラス)に属するかを決定するために用いられる。主モデルでは、従来のBERT(Bidirectional Encoder Representation from Transformers)モデルが採用されている。ニューラルネットワークに基づく自然言語処理では、テキストにおける各ワードが通常、1次元ベクトル(「ワードワードベクトル」とも称される)で表され、BERTモデルはワードベクトルを入力として使用し、該ワードに対応する、全文語義情報を融合(統合)したベクトル表現を出力する。このようして、BERTモデルは或るテキストについて豊富な語義情報を含む語義表現を生成することができる。その後、具体的な自然言語処理タスクについて、生成されたテキストの語義表現に対して微調整を行うことで、それが該具体的なタスクに適用され得るようにさせる。
以下、本発明における主モデル及び補助特徴の部分について順次説明する。
テキストに出現する或るエンティティについて、本発明ではエンティティ、コンテキスト、エンティティの類型及びコンテキストの品詞の組み合わせを主モデルの入力として採用する。図2はこのような組み合わせの具体的な形式を例示的に示している。
図2に示すように、第1行はテキストの内容を表す。エンティティの先頭文字の前に開始フラグ[E]を追加し、かつ末尾文字の後に終了フラグ[E/]を追加し、その後、エンティティの前文を開始フラグ[E]の前に置き、エンティティの後文を終了フラグ[E/]の後に置く。このような方式で、エンティティとそのコンテキストとのマッチングを行う。よって、“M1 M2…”はエンティティの文字列を表し、“L1 L2…”及び“R1 R2…”はそれぞれエンティティの前文及び後文の文字列を表す。
また、辞書資源(リソース)を参照して、エンティティのエンティティ類型を標識し、かつ対応するコンテキストの品詞情報を標識する。辞書リソースは事前定義の品詞辞書及びエンティティ類型辞書を含み、品詞辞書には例えば名詞、動詞、副詞、形容詞などの品詞が定義されており、エンティティ類型辞書には複数種類のエンティティの類型、例えば、動物、会社、ゲームなどが定義されている。図2における第2行は、辞書リソースを参照することで決定された本文(本テキスト)の中のエンティティの類型Entity Typex及びコンテキストの品詞POSiを示している。
図2における第1行のテキスト内容は2次元ベクトル[batch_size,document_token]と表すことができ、そのうち、batch_sizeはあ入力されるドキュメントの数を示し、document_tokenは各ドキュメントにおける文字IDシーケンスを示す。同様に、第2行の品詞及びエンティティ類型情報も2次元ベクトル[batch_size,document_token]と表すことができる。
再び図1を参照する。埋め込み(嵌入)・加算層(Embedding and Adding layer)110は入力されるエンティティ、コンテキスト、エンティティの類型及びコンテキストの品詞の組み合わせを非スパースベクトルに変換し、そして、BERTモデル120に入力する。
具体的に言えば、埋め込み・加算層110は図2において第1行に対応する2次元ベクトル[batch_size,document_token]を[batch_size,document_token,embedding_dim]に変換し、そのうち、embedding_dimは埋め込み次元を表す。同様に、埋め込み・加算層110は図2において第2行に対応する2次元ベクトル[batch_size,document_token]を[batch_size,document_token,embedding_dim]に変換する。
その後、以下の公式(1)に基づいて、埋め込み・加算層110は第1行と第2行とに対して加重和(weighted sum)を求めることで、出力ベクトルV1を取得する。
V1=sigmoid(W1X1+W2X2) (1)
ここで、sigmoidは活性化関数sigmoid=1/(1+exp(-x))を示し、W1及びW2は訓練待ちの重みを示し、X1及びX2はそれぞれ図2における第1行及び第2行に対応する変換後のベクトルを表す。
ここで、sigmoidは活性化関数sigmoid=1/(1+exp(-x))を示し、W1及びW2は訓練待ちの重みを示し、X1及びX2はそれぞれ図2における第1行及び第2行に対応する変換後のベクトルを表す。
BERTモデル120は埋め込み・加算層110により出力されるベクトルV1を受け取り、そして、テキストの内容におけるエンティティに対して符号化を行い、エンティティの語義情報を抽出する。BERTモデルが当業者にとって周知のものであるため、本発明ではその詳しい説明を省略する。上述のように、BERTモデル120にベクトルV1[batch_size,document_token,embedding_dim]を入力し、BERTモデル120はベクトルV2[batch_size,bert_dim]を出力し、そのうち、bert_dimはBERTモデル120の隠れ層の次元、即ち、出力次元を表す。
つなぎ合わせ層130はBERTモデル120の出力V2を受け取り、それを補助特徴とつなぎ合わせる。補助特徴については後述する。つなぎ合わせた後に、つなぎ合わせ層130はベクトルV3[batch_size,bert_dim+2*class_dim]を出力し、そのうち、class_dimは類別の数を表す。類別がナレッジグラフにおける概念に対応するので、class_dimもナレッジグラフにおける事前定義の概念の数を表す。
その後、つなぎ合わせ層130の出力ベクトルV3は分類層140に入力される。1つの例として、分類層140はSoftmax分類器により実現され得る。分類層140では、ベクトルV3はまずワンホットエンコーディングの形式(One-Hot encoding)に変換され、変換後の次元は[batch_size,class_dim]である。その後、分類層140は変換後のベクトルに基づいて分類予測結果を生成し、該予測結果はテキストにおけるエンティティがナレッジグラフにおける各概念(類別)に属する確率を指示し、最大確率に対応する概念はエンティティの属する概念と決定することができる。
特に、実際にはナレッジグラフは通常、存在するすべての概念を網羅することができず、限られた数の概念しか含まない。よって、次のような状況が存在する可能性があり、即ち、或るエンティティがナレッジグラフにおける何れの概念にも属せず、何れの概念を用いて該エンティティの意味を解釈しても適切ではない。このような場合、1つの閾値を設定しても良い。予測結果における最大確率が該閾値よりも大きいときに、該最大確率に対応する概念をエンティティの属する概念と決定し、かつ決定した概念の内容に基づいてユーザへのヒント情報を生成することにより、ユーザがエンティティの正確な意味を把握するように助けることができる。一方、予測結果におけるすべての確率が何れも該閾値よりも小さいときに、エンティティが何れの概念に分類されても適切ではないことを意味し、この場合、該エンティティについてヒント情報を生成しない。
以下、補助特徴について詳細に説明する。本発明では、エンティティと概念との間の類似度特徴を補助特徴として計算することで、モデルのパフォーマンスを強化する。好ましくは、計算量を低減するために、所定のナレッジグラフにおける概念のみを選択する。類似度特徴は文字類似度及び語義類似度を含む。1つの例として、本発明ではBM25類似度を文字類似度として使用し、かつニューラルネットワークに基づくベクトル類似度を語義類似度として使用する。
具体的に言えば、BM25類似度を文字類似度として使用する場合、次の方式で文字類似度を計算し、即ち、テキストにおける1つのエンティティについて、それと、ナレッジグラフにおける各概念(テキストの形式で)との間のBM25類似度を計算する。計算の結果として、次元が[batch_size,class_dim]の1つのベクトルを取得する。なお、BM25アルゴリズム(Best Match 25)が当業者にとって周知のテキスト類似度アルゴリズムであるため、ここではBM25類似度の計算についての詳細な説明省略する。
また、語義類似度に関して、本発明ではエンティティのベクトル表現とナレッジグラフにおける各概念のベクトル表現との間のコサイン(余弦)類似度を計算する。計算の結果として、次元が[batch_size,class_dim]の1つのベクトルを取得する。以下、語義類似度の計算方法について詳しく説明する。
図1の右半分に示す補助特徴の部分を参照し、ナレッジグラフにおける各概念が埋め込み・加算層110及びBERTモデル120の処理を受けるようにした後に、BERTモデル120から各概念自身の語義特徴を表すベクトルV4を出力する。図1に示すように、主モデル及び補助特徴の部分は埋め込み・加算層110及びBERTモデル120をシェアして使用する。
一方、ナレッジグラフにおけるすべての概念に基づいて1つのグラフを構築(生成)し、図3は構築されたグラフの1つの例を示している。図3では、各ノードNは1つの概念を表し、ノードの間の接続線は概念の間の相互関係を表す。
構築されたグラフについてラプラシアン行列を計算し、その後、該ラプラシアン行列をグラフ畳み込みニューラルネットワーク(GCN)150に入力する。なお、グラフ畳み込みニューラルネットワーク(GCN)が当業者に既知の技術であるため、本発明ではその詳しい説明を省略する。GCN150はすべての概念を表す全体特徴のベクトルを出力することができ、該整体特徴は各概念の間の相互関係を含む。概念の間が互いに関連付けられているので、図3に示すように、GCN150は概念の間の関係についてモデル化することができる。よって、GCN150により生成されるベクトルV5には異なる概念の間の相互関係が含まれている。ベクトルV5の次元は[batch_size,graph_dim]であり、そのうち、graph_dimはGCN150の出力層の次元を表す。
その後、BERTモデル120の出力ベクトルV4及びGCN150の出力ベクトルV5をすべてつなぎ合わせ・次元変換層160に入力する。つなぎ合わせ・次元変換層160はベクトルV4及びベクトルV5に対してつなぎ合わせ及び次元変換を行い、次元が[batch_size,bert_dim]のベクトルV6を出力する。なお、ベクトルV6はナレッジグラフにおける概念のベクトル表現である。
一方、上述のように、図1の左半分の主モデルでは、BERTモデル120によって、入力されるエンティティについてベクトル表現V2を取得する。その後、主モデルにおいてBERTモデル120によって出力されるエンティティのベクトル表現V2及びつなぎ合わせ・次元変換層160によって出力される概念のベクトル表現V6に基づいてエンティティと概念との間の語義類似度を計算する。
好ましくは、ベクトルV2及びベクトルV6をすべてマッピング層170に入力する。マッピング層170はベクトルV2及びベクトルV6を同じベクトル空間にマッピングすることで、その後、両者間の類似度を比較するために用いられる。マッピング層170は本質的に、隠れ層が付く全結合層であっても良く、それは以下の公式(2)に基づいて、入力されるベクトルを同一のベクトル空間にマッピングすることができる。
Y=sigmoid(WX+b) (2)
そのうち、sigmoidは活性化関数sigmoid=1/(1+exp(-x))を表し、W及びbは訓練待ちの重みを示す。Xは入力されるベクトルV2又はV6を示し、その次元は[batch_size,bert_dim]である。Yはマッピング後のベクトルを示し、その次元は[batch_size,trans_dim]であり、そのうち、trans_dimはエンティティのベクトル及び概念のベクトルが同一のベクトル空間にマッピングされた後の次元である。
そのうち、sigmoidは活性化関数sigmoid=1/(1+exp(-x))を表し、W及びbは訓練待ちの重みを示す。Xは入力されるベクトルV2又はV6を示し、その次元は[batch_size,bert_dim]である。Yはマッピング後のベクトルを示し、その次元は[batch_size,trans_dim]であり、そのうち、trans_dimはエンティティのベクトル及び概念のベクトルが同一のベクトル空間にマッピングされた後の次元である。
ここで、x1及びx2はそれぞれエンティティのベクトル表現及び概念のベクトル表現を表す。特に、マッピング層170を利用した場合、x1及びx2はそれぞれマッピング後のベクトル表現を示す。
ここまで、補助特徴としての文字類似度及び語義類似度を取得している。主モデルについて上述したように、該補助特徴及びBERTモデル120の出力ベクトルV2を一緒につなぎ合わせ層130に入力することで、後続の処理を実行する。
以下、本発明のモデルの訓練プロセスについて説明する。訓練にあたって、図1に示すモデルに訓練データセットを入力し、訓練データセットはテキスト及びナレッジグラフを含む。テキストはエンティティ及びそのコンテキストを含み、ナレッジグラフは事前定義の複数の概念を含む。モデルは最終的にエンティティについての分類予測結果を生成し、予測結果は該エンティティの属する概念を指示する。
予測の概念及び真値に基づいて、損失関数(例えば、クロスエントロピー損失関数)によりモデルを訓練することで、モデルの最適パラメータを取得する。訓練のときに、BERTモデル120の初期パラメータをBERT事前訓練モデルのパラメータとして設定することができる。但し、当業者は他の任意の既知方法を採用して訓練を実行しても良く、本発明はこれについて限定しない。
訓練が完成した後に、訓練済みのモデルを用いてテキストに言及されているエンティティに対応する具体的な概念を予測することができる。その後、予測した概念の内容に基づいてユーザへのヒント情報を生成することで、ユーザが該エンティティの正確な意味を把握するように助けることができる。なお、様々な方式(例えば、視覚方式、聴覚方式)でヒント情報を提供することができる。例えば、ユーザがドキュメントを閲覧しているときに、ハイパーリンク又はポップアップウィンドウの方式でユーザに或るエンティティの意味を提示しても良く、あるいは、音声によりユーザに提示しても良い。
図4は本発明においてユーザにヒント情報を提示する装置を示す図であり、図5は本発明においてユーザにヒント情報を提示する方法のフローチャートである。
図4及び図5に示すように、本発明による装置は主モジュール410、補助特徴生成モジュール420及び提示モジュール430を含む。ステップS510で主モジュール410にエンティティ、コンテキスト、エンティティの類型及びコンテキストの品詞の組み合わせ(図2に示すようなもの)を入力し、かつ補助特徴生成モジュール420に事前定義の複数の概念を入力する。
主モジュール410はBERTモジュール411及び分類モジュール412を含む。ステップS520でBERTモジュール411によって、入力されるエンティティ、コンテキスト、エンティティの類型及びコンテキストの品詞の組み合わせに基づいてベクトルV2を生成する。
補助特徴生成モジュール420は語義類似度計算モジュール421及び文字類似度計算モジュール422を含み、語義類似度計算モジュール421はさらにBERTモジュール4211及びグラフ畳み込みニューラルネットワーク(GCN)モジュール4212を含む。なお、補助特徴生成モジュール420におけるBERTモジュール4211及び主モジュール410におけるBERTモジュール411は同一のモジュールであり、同じ機能を有しても良いが、便宜のため、以下、異なる符号によりそれらを表す。
ステップS530でBERTモジュール4211により、入力される各概念に基づいてベクトルV4を生成する。ステップS540で、入力される複数の概念及び概念の間の相互関係に基づいてグラフを生成し、かつGCNモジュール4212により、生成されるグラフに基づいてベクトルV5を生成する。ベクトルV5は複数の概念の全体特徴を示し、該全体特徴は概念の間の相互関係を表す。
その後、語義類似度計算モジュール421において、生成されるベクトルV4及びベクトルV5に対してつなぎ合わせを行い、ベクトルV6を生成し(ステップS550)、それから、ベクトルV2及びベクトルV6に基づいて、公式(3)によりエンティティと各概念との間の語義類似度を計算する(ステップS560)。好ましくは、ベクトルV2及びベクトルV6を同一のベクトル空間にマッピングした後に語義類似度を計算する。
ステップS570で文字類似度計算モジュール422によりエンティティと各概念との間の文字類似度を計算する。
ステップS580で分類モジュール412を用いて、BERTモジュール411により生成されるベクトルV2、並びに補助特徴生成モジュール420により計算される語義類似度及び文字類似度に基づいて分類予測結果を生成する。該予測結果はエンティティが各概念に属する確率を表し、最大確率に対応する概念はエンティティの属する概念と決定することができる。
ステップS590で提示モジュール430により、決定されるエンティティの属する概念に基づいてヒント情報を生成し、ユーザに提示する。好ましくは、提示モジュール430は視覚方式及び/又は聴覚方式によりヒント情報を提示することができる。
なお、本発明による方法は、必ずしも図5に示す順序に沿って実行される必要がなく、技術上、実現することができれば、異なる順序に従って実行されても良い。例えば、文字類似度を計算するステップS570は語義類似度を計算する処理の前に実行することもできる。
以上、実施例をもとに本発明におけるモデル及び方法について詳細に説明した。本発明では分類モデルに基づく新しいエンティティの曖昧性解消のスキームが提供され、そのうち、BERTモデルが利用され、かつ文字類似度及び語義類似度が補助特徴として使用される。また、本発明では、エンティティの類型及びコンテキストの品詞情報を語義の強化として使用し、辞書リソースの情報を効果的に使用し、モデルのパフォーマンスの向上に有利である。また、本発明では、グラフ畳み込みニューラルネットワーク(GCN)を用いて、すべての概念に基づいて構成されるグラフに対して全体特徴を抽出することで、ナレッジグラフにおける他の概念に含まれる情報を現在の概念に統合することができるため、現在の概念に含まれる語義情報をより完全にすることができる。
上述の実施例で説明された方法はソフトウェア、ハードウェア、又は、ソフトウェアとハードウェアの組み合わせにより実現され得る。ソフトウェアに含まれるプログラムは予め、装置の内部又は外部に設けられる記憶媒体に記憶され得る。一例として、実行にあたって、これらのプログラムはランダムアクセスメモリ(RAM)に読み込まれ、かつ処理器(例えば、CPU)により実行されることで、ここで説明された各種の方法及び処理を実現することができる。
また、本発明の目的は次のような方式で実現されても良く、即ち、実行可能なプログラムコードを記憶している記憶媒体を関連システム又は装置に直接又は間接的に提供し、該システム又は装置におけるコンピュータ又は中央処理ユニット(CPU)は上述のプログラムコードを読み出して実行する。このときに、該システム又は装置はプログラムを実行し得る機能を有すれば、本発明の実施例はプログラムに限定されず、また、該プログラムは任意の形式、例えば、オブジェクト指向プログラム、インタプリタ実行可能なプログラム、Operating Systemに提供するスクリプトプログラムなどであっても良い。
上述のマシン可読記憶媒体は各種の記憶器及び記憶ユニット、半導体装置、磁気ディスク、光学ディスク、情報記憶に適した他の媒体などであっても良い。
また、コンピュータがインターネット上の関連ウェブサイトに接続して本発明によるコンピュータプログラムコードをコンピュータにダウンロードしてインストールし、その後、該プログラムを実行することによって、本発明の技術案を実現することもできる。
上述の装置における各構成モジュール及びユニットはソフトウェア、ファームウェア、ハードウェア又はその組み合わせの方式で構成されても良い。なお、構成に使用される具体の手段や方法が当業者にとって周知のものであるため、ここではその詳しい説明を省略する。ソフトウェア又はファームウェアにより実現される場合、記憶媒体又はネットワークから専用ハードウェア構造を有するコンピュータ(例えば、図6に示す汎用コンピュータ600)に該ソフトウェアを構成するプログラムをインストールし、該コンピュータは各種のプログラムがインストールされているときに、各種の機能などを実現することができる。
図6は本発明の実施例における方法及び装置を実現し得るハードウェア構成(汎用コンピュータ)600の構造図である。
汎用コンピュータ600は、例えば、コンピュータシステムであっても良い。なお、汎用コンピュータ600は例示に過ぎず、本発明による方法及び装置の適用範囲又は機能について限定しない。また、汎用コンピュータ600は、上述の方法及び装置における任意のモジュールやアセンブリなど又はその組み合わせにも依存しない。
図6では、中央処理装置(CPU)601は、ROM602に記憶されているプログラム又は記憶部608からRAM603にロッドされているプログラムに基づいて各種の処理を行う。RAM603では、ニーズに応じて、CPU601が各種の処理を行うときに必要なデータなどを記憶することもできる。CPU601、ROM602及びRAM603は、バス604を経由して互いに接続される。入力/出力インターフェース605もバス604に接続される。
また、入力/出力インターフェース605には、さらに、次のような部品が接続され、即ち、キーボードなどを含む入力部606、液晶提示器(LCD)などのような表示器及びスピーカーなどを含む出力部607、ハードディスクなどを含む記憶部608、ネットワーク・インターフェース・カード、例えば、LANカード、モデムなどを含む通信部609である。通信部609は、例えば、インターネット、LANなどのネットワークを経由して通信処理を行う。ドライブ610は、ニーズに応じて、入力/出力インターフェース605に接続されても良い。取り外し可能な媒体611、例えば、半導体メモリなどは、必要に応じて、ドライブ610にセットされることにより、その中から読み取られたコンピュータプログラムを記憶部608にインストールすることができる。
また、本発明は、さらに、マシン可読命令コードを含むプログラムプロダクトを提供する。このような命令コードは、マシンにより読み取られて実行されるときに、上述の本発明の実施例における方法を実行することができる。それ相応に、このようなプログラムプロダクトをキャリー(carry)する、例えば、磁気ディスク(フロッピーディスク(登録商標)を含む)、光ディスク(CD-ROM及びDVDを含む)、光磁気ディスク(MD(登録商標)を含む)、及び半導体記憶器などの各種記憶媒体も本発明に含まれる。
上述の記憶媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、半導体記憶器などを含んでも良いが、これらに限定されない。
また、上述の方法における各操作(処理)は、各種のマシン可読記憶媒体に記憶されているコンピュータ実行可能なプログラムの方式で実現することもできる。
また、以上の実施例などに関し、さらに以下のように付記として開示する。
(付記1)
コンピュータが実行する、ニューラルネットワークによりヒント情報を、電子テキストを閲覧するユーザに提示する方法であって、
前記ニューラルネットワークはBERTモデル及びグラフ畳み込みニューラルネットワークを含み、前記方法は、
前記電子テキスト、前記電子テキストに関する情報及び複数の事前定義の概念を前記ニューラルネットワークに入力し、そのうち、前記電子テキストはエンティティ及び前記エンティティのコンテキストを含み、前記電子テキストに関する情報は前記エンティティの類型及び前記コンテキストの品詞を含み、前記概念はテキスト形式であり;
前記BERTモデルを用いて前記エンティティ、前記コンテキスト、前記エンティティの類型及び前記コンテキストの品詞の組み合わせに基づいて第一ベクトル(V2)を生成し;
前記BERTモデルを用いて前記複数の概念のうちの各概念に基づいて第二ベクトル(V4)を生成し;
前記グラフ畳み込みニューラルネットワークを用いてグラフに基づいて第三ベクトル(V5)を生成し、そのうち、前記グラフは前記複数の概念及び概念の間の関係に基づいて生成され;
前記第二ベクトル(V4)と前記第三ベクトル(V5)とをつなぎ合わせ、第四ベクトル(V6)を生成し;
前記第一ベクトル(V2)及び前記第四ベクトル(V6)に基づいて前記エンティティと前記複数の概念のうちの各概念との間の語義類似度を計算し;
前記第一ベクトル(V2)及び前記語義類似度に基づいて前記エンティティに対応する前記複数の概念のうちの1つの概念を決定し;及び
決定した、前記エンティティに対応する概念に基づいて前記ヒント情報を生成し、前記ユーザに提示することを含む、方法。
コンピュータが実行する、ニューラルネットワークによりヒント情報を、電子テキストを閲覧するユーザに提示する方法であって、
前記ニューラルネットワークはBERTモデル及びグラフ畳み込みニューラルネットワークを含み、前記方法は、
前記電子テキスト、前記電子テキストに関する情報及び複数の事前定義の概念を前記ニューラルネットワークに入力し、そのうち、前記電子テキストはエンティティ及び前記エンティティのコンテキストを含み、前記電子テキストに関する情報は前記エンティティの類型及び前記コンテキストの品詞を含み、前記概念はテキスト形式であり;
前記BERTモデルを用いて前記エンティティ、前記コンテキスト、前記エンティティの類型及び前記コンテキストの品詞の組み合わせに基づいて第一ベクトル(V2)を生成し;
前記BERTモデルを用いて前記複数の概念のうちの各概念に基づいて第二ベクトル(V4)を生成し;
前記グラフ畳み込みニューラルネットワークを用いてグラフに基づいて第三ベクトル(V5)を生成し、そのうち、前記グラフは前記複数の概念及び概念の間の関係に基づいて生成され;
前記第二ベクトル(V4)と前記第三ベクトル(V5)とをつなぎ合わせ、第四ベクトル(V6)を生成し;
前記第一ベクトル(V2)及び前記第四ベクトル(V6)に基づいて前記エンティティと前記複数の概念のうちの各概念との間の語義類似度を計算し;
前記第一ベクトル(V2)及び前記語義類似度に基づいて前記エンティティに対応する前記複数の概念のうちの1つの概念を決定し;及び
決定した、前記エンティティに対応する概念に基づいて前記ヒント情報を生成し、前記ユーザに提示することを含む、方法。
(付記2)
付記1に記載の方法であって、さらに、
前記エンティティと前記複数の概念のうちの各概念との間の文字類似度を計算し;及び
前記第一ベクトル、前記語義類似度及び前記文字類似度に基づいて、前記エンティティに対応する概念を決定することを含む、方法。
付記1に記載の方法であって、さらに、
前記エンティティと前記複数の概念のうちの各概念との間の文字類似度を計算し;及び
前記第一ベクトル、前記語義類似度及び前記文字類似度に基づいて、前記エンティティに対応する概念を決定することを含む、方法。
(付記3)
付記2に記載の方法であって、
前記語義類似度は前記第一ベクトル(V2)及び前記第四ベクトル(V6)に基づいて計算されるコサイン類似度であり、前記文字類似度は前記エンティティと前記複数の概念のうちの各概念との間のBM25類似度である、方法。
付記2に記載の方法であって、
前記語義類似度は前記第一ベクトル(V2)及び前記第四ベクトル(V6)に基づいて計算されるコサイン類似度であり、前記文字類似度は前記エンティティと前記複数の概念のうちの各概念との間のBM25類似度である、方法。
(付記4)
付記1に記載の方法であって、さらに、
前記エンティティ、前記コンテキストに対応するベクトル、前記エンティティの類型、及び前記コンテキストの品詞に対応するベクトルに対して加重和を行い、前記エンティティ、前記コンテキスト、前記エンティティの類型及び前記コンテキストの品詞を組み合わせることを含む、方法。
付記1に記載の方法であって、さらに、
前記エンティティ、前記コンテキストに対応するベクトル、前記エンティティの類型、及び前記コンテキストの品詞に対応するベクトルに対して加重和を行い、前記エンティティ、前記コンテキスト、前記エンティティの類型及び前記コンテキストの品詞を組み合わせることを含む、方法。
(付記5)
付記1に記載の方法であって、
前記第三ベクトル(V5)は前記複数の概念の全体特徴を表し、前記全体特徴は概念の間の相互関係を表す、方法。
付記1に記載の方法であって、
前記第三ベクトル(V5)は前記複数の概念の全体特徴を表し、前記全体特徴は概念の間の相互関係を表す、方法。
(付記6)
付記1に記載の方法であって、
前記第一ベクトル(V2)及び前記第四ベクトル(V6)を同一のベクトル空間にマッピングした後に、前記語義類似度を計算する、方法。
付記1に記載の方法であって、
前記第一ベクトル(V2)及び前記第四ベクトル(V6)を同一のベクトル空間にマッピングした後に、前記語義類似度を計算する、方法。
(付記7)
付記2に記載の方法であって、さらに、
前記第一ベクトル、前記語義類似度及び前記文字類似度に基づいて、前記エンティティに対応する前記複数の概念のうちの各概念の確率を決定し;
決定した確率のうちの最大確率が所定閾値よりも大きいときに、前記最大確率を前記エンティティに対応する確率と決定し;及び
決定した確率がすべて前記預定閾値よりも小さいときに、前記エンティティのために前記ヒント情報を生成しないことを含む、方法。
付記2に記載の方法であって、さらに、
前記第一ベクトル、前記語義類似度及び前記文字類似度に基づいて、前記エンティティに対応する前記複数の概念のうちの各概念の確率を決定し;
決定した確率のうちの最大確率が所定閾値よりも大きいときに、前記最大確率を前記エンティティに対応する確率と決定し;及び
決定した確率がすべて前記預定閾値よりも小さいときに、前記エンティティのために前記ヒント情報を生成しないことを含む、方法。
(付記8)
付記1に記載の方法であって、
視覚方式及び聴覚方式のうちの少なくとも1つにより前記ユーザに前記ヒント情報を提示する、方法。
付記1に記載の方法であって、
視覚方式及び聴覚方式のうちの少なくとも1つにより前記ユーザに前記ヒント情報を提示する、方法。
(付記9)
ニューラルネットワークにより、ヒント情報を、電子テキストを閲覧するユーザに提示する装置であって、
前記ニューラルネットワークはBERTモデル及びグラフ畳み込みニューラルネットワークを含み、前記装置は、
コンピュータプログラムを記憶している記憶器;及び
前記記憶器に接続される1つ又は複数の処理器を含み、
前記処理器は前記コンピュータプログラムを実行することで、上述の付記に記載のような方法を実現する、装置。
ニューラルネットワークにより、ヒント情報を、電子テキストを閲覧するユーザに提示する装置であって、
前記ニューラルネットワークはBERTモデル及びグラフ畳み込みニューラルネットワークを含み、前記装置は、
コンピュータプログラムを記憶している記憶器;及び
前記記憶器に接続される1つ又は複数の処理器を含み、
前記処理器は前記コンピュータプログラムを実行することで、上述の付記に記載のような方法を実現する、装置。
(付記10)
電子テキストを閲覧するユーザにヒント情報を提示する装置であって、
前記電子テキストはエンティティ及び前記エンティティのコンテキストを含み、前記装置は主モジュール、語義類似度計算モジュール、文字類似度計算モジュール及び提示モジュールを含み、
前記主モジュールは、
前記エンティティ、前記コンテキスト、前記エンティティの類型及び前記コンテキストの品詞の組み合わせに基づいて第一ベクトル(V2)を生成するように構成されるBERTモジュール;及び
前記第一ベクトル(V2)、前記語義類似度計算モジュールが計算した語義類似度、及び前記文字類似度計算モジュールが計算した文字類似度に基づいて、前記エンティティに対応する複数の事前定義概念のうちの1つの概念を決定し、そのうち、前記概念はテキスト形式である、分類モジュールを含み、
前記語義類似度計算モジュールは、
前記複数の概念のうちの各概念に基づいて第二ベクトル(V4)を生成するように構成されるBERTモジュール;及び
グラフに基づいて第三ベクトル(V5)を生成し、そのうち、前記グラフは前記複数の概念及び概念の間の関係に基づいて生成されるグラフ畳み込みニューラルネットワークを含み、
そのうち、前記語義類似度計算モジュールは、前記第二ベクトル(V4)と前記第三ベクトル(V5)とをつなぎ合わせることで第四ベクトル(V6)を生成し、かつ前記第一ベクトル(V2)及び前記第四ベクトル(V6)に基づいて前記エンティティと前記複数の概念のうちの各概念との間の語義類似度を計算し、
そのうち、前記文字類似度計算モジュールは前記エンティティと前記複数の概念のうちの各概念との間の文字類似度を計算するように構成され、
そのうち、前記提示モジュールは、決定された、前記エンティティの概念に基づいて前記ヒント情報を生成し、前記ユーザに提示するように構成される、装置。
電子テキストを閲覧するユーザにヒント情報を提示する装置であって、
前記電子テキストはエンティティ及び前記エンティティのコンテキストを含み、前記装置は主モジュール、語義類似度計算モジュール、文字類似度計算モジュール及び提示モジュールを含み、
前記主モジュールは、
前記エンティティ、前記コンテキスト、前記エンティティの類型及び前記コンテキストの品詞の組み合わせに基づいて第一ベクトル(V2)を生成するように構成されるBERTモジュール;及び
前記第一ベクトル(V2)、前記語義類似度計算モジュールが計算した語義類似度、及び前記文字類似度計算モジュールが計算した文字類似度に基づいて、前記エンティティに対応する複数の事前定義概念のうちの1つの概念を決定し、そのうち、前記概念はテキスト形式である、分類モジュールを含み、
前記語義類似度計算モジュールは、
前記複数の概念のうちの各概念に基づいて第二ベクトル(V4)を生成するように構成されるBERTモジュール;及び
グラフに基づいて第三ベクトル(V5)を生成し、そのうち、前記グラフは前記複数の概念及び概念の間の関係に基づいて生成されるグラフ畳み込みニューラルネットワークを含み、
そのうち、前記語義類似度計算モジュールは、前記第二ベクトル(V4)と前記第三ベクトル(V5)とをつなぎ合わせることで第四ベクトル(V6)を生成し、かつ前記第一ベクトル(V2)及び前記第四ベクトル(V6)に基づいて前記エンティティと前記複数の概念のうちの各概念との間の語義類似度を計算し、
そのうち、前記文字類似度計算モジュールは前記エンティティと前記複数の概念のうちの各概念との間の文字類似度を計算するように構成され、
そのうち、前記提示モジュールは、決定された、前記エンティティの概念に基づいて前記ヒント情報を生成し、前記ユーザに提示するように構成される、装置。
(付記11)
コンピュータプログラムを記憶している記憶媒体であって、
前記コンピュータプログラムはコンピュータにより実行されるときに前記コンピュータに付記1-8のうちの任意の1項に記載のユーザにヒント情報を提示する方法を実現する、記憶媒体。
コンピュータプログラムを記憶している記憶媒体であって、
前記コンピュータプログラムはコンピュータにより実行されるときに前記コンピュータに付記1-8のうちの任意の1項に記載のユーザにヒント情報を提示する方法を実現する、記憶媒体。
以上、本発明の好ましい実施形態を説明したが、本発明はこの実施形態に限定されず、本発明の趣旨を離脱しない限り、本発明に対するあらゆる変更は、本発明の技術的範囲に属する。
Claims (10)
- コンピュータが実行する、ニューラルネットワークにより、電子テキストを閲覧するユーザにヒント情報を提示する方法であって、
前記ニューラルネットワークはBERTモデル及びグラフ畳み込みニューラルネットワークを含み、前記方法は、
前記電子テキスト、前記電子テキストに関する情報、及び複数の事前定義の概念を前記ニューラルネットワークに入力し、前記電子テキストはエンティティ及び前記エンティティのコンテキストを含み、前記電子テキストに関する情報は前記エンティティの類型及び前記コンテキストの品詞を含み、前記概念はテキスト形式であり;
前記BERTモデルを用いて前記エンティティ、前記コンテキスト、前記エンティティの類型及び前記コンテキストの品詞の組み合わせに基づいて第一ベクトル(V2)を生成し;
前記BERTモデルを用いて前記複数の概念のうちの各概念に基づいて第二ベクトル(V4)を生成し;
前記グラフ畳み込みニューラルネットワークを用いてグラフに基づいて第三ベクトル(V5)を生成し、前記グラフは前記複数の概念及び前記複数の概念の間の関係に基づいて生成され;
前記第二ベクトル(V4)と前記第三ベクトル(V5)とをつなぎ合わせ、第四ベクトル(V6)を生成し;
前記第一ベクトル(V2)及び前記第四ベクトル(V6)に基づいて前記エンティティと前記複数の概念のうちの各概念との間の語義類似度を計算し;
前記第一ベクトル(V2)及び前記語義類似度に基づいて前記エンティティに対応する前記複数の概念のうちの1つの概念を決定し;及び
決定した、前記エンティティに対応する概念に基づいて前記ヒント情報を生成し、前記ユーザに提示することを含む、方法。 - 請求項1に記載の方法であって、さらに、
前記エンティティと前記複数の概念のうちの各概念との間の文字類似度を計算し;及び
前記第一ベクトル、前記語義類似度、及び前記文字類似度に基づいて、前記エンティティに対応する概念を決定することを含む、方法。 - 請求項2に記載の方法であって、
前記語義類似度は前記第一ベクトル(V2)及び前記第四ベクトル(V6)に基づいて計算されるコサイン類似度であり、前記文字類似度は前記エンティティと前記複数の概念のうちの各概念との間のBM25類似度である、方法。 - 請求項1に記載の方法であって、
前記エンティティ、前記コンテキストに対応するベクトル、前記エンティティの類型、及び前記コンテキストの品詞に対応するベクトルに対して加重和を行い、前記エンティティ、前記コンテキスト、前記エンティティの類型、及び前記コンテキストの品詞を組み合わせることをさらに含む、方法。 - 請求項1に記載の方法であって、
前記第三ベクトル(V5)は前記複数の概念の全体特徴を表し、前記全体特徴は前記複数の概念の間の相互関係を表す、方法。 - 請求項1に記載の方法であって、
前記第一ベクトル(V2)及び前記第四ベクトル(V6)を同一のベクトル空間にマッピングした後に、前記語義類似度を計算する、方法。 - 請求項2に記載の方法であって、
前記第一ベクトル、前記語義類似度、及び前記文字類似度に基づいて、前記エンティティに対応する前記複数の概念のうちの各概念の確率を決定し;
決定した確率のうちの最大確率が所定閾値よりも大きいときに、前記最大確率を前記エンティティに対応する確率と決定し;及び
決定した確率がすべて前記預定閾値よりも小さいときに、前記エンティティのために前記ヒント情報を生成しないことをさらに含む、方法。 - 請求項1に記載の方法であって、
視覚方式及び聴覚方式のうちの少なくとも1つにより前記ユーザに前記ヒント情報を提示する、方法。 - 電子テキストを閲覧するユーザにヒント情報を提示する装置であって、
前記ニューラルネットワークはBERTモデル及びグラフ畳み込みニューラルネットワークを含み、前記装置は、
コンピュータプログラムを記憶している記憶器;及び
前記記憶器に接続される処理器を含み、
前記処理器は、前記コンピュータプログラムを実行することにより、
前記電子テキスト、前記電子テキストに関する情報、及び複数の事前定義の概念を前記ニューラルネットワークに入力し、前記電子テキストはエンティティ及び前記エンティティのコンテキストを含み、前記電子テキストに関する情報は前記エンティティの類型及び前記コンテキストの品詞を含み、前記概念はテキスト形式であり;
前記BERTモデルを用いて前記エンティティ、前記コンテキスト、前記エンティティの類型及び前記コンテキストの品詞の組み合わせに基づいて第一ベクトル(V2)を生成し;
前記BERTモデルを用いて前記複数の概念のうちの各概念に基づいて第二ベクトル(V4)を生成し;
前記グラフ畳み込みニューラルネットワークを用いてグラフに基づいて第三ベクトル(V5)を生成し、前記グラフは前記複数の概念及び前記複数の概念の間の関係に基づいて生成され;
前記第二ベクトル(V4)と前記第三ベクトル(V5)とをつなぎ合わせ、第四ベクトル(V6)を生成し;
前記第一ベクトル(V2)及び前記第四ベクトル(V6)に基づいて前記エンティティと前記複数の概念のうちの各概念との間の語義類似度を計算し;
前記第一ベクトル(V2)及び前記語義類似度に基づいて前記エンティティに対応する前記複数の概念のうちの1つの概念を決定し;及び
決定した、前記エンティティに対応する概念に基づいて前記ヒント情報を生成し、前記ユーザに提示する
ことを実行するように構成される、装置。 - コンピュータに、請求項1-8のうちの何れか1項に記載の方法を実行させるためのプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110295319.1A CN115114919A (zh) | 2021-03-19 | 2021-03-19 | 呈现提示信息的方法和装置以及存储介质 |
CN202110295319.1 | 2021-03-19 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022145623A true JP2022145623A (ja) | 2022-10-04 |
Family
ID=80780679
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022040587A Pending JP2022145623A (ja) | 2021-03-19 | 2022-03-15 | ヒント情報を提示する方法及び装置並びにコンピュータプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220300708A1 (ja) |
EP (1) | EP4060548A1 (ja) |
JP (1) | JP2022145623A (ja) |
CN (1) | CN115114919A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230245146A1 (en) * | 2022-01-28 | 2023-08-03 | Walmart Apollo, Llc | Methods and apparatus for automatic item demand and substitution prediction using machine learning processes |
US12019989B2 (en) * | 2022-08-16 | 2024-06-25 | Zhejiang Lab | Open domain dialog reply method and system based on thematic enhancement |
CN116804998A (zh) * | 2023-08-22 | 2023-09-26 | 神州医疗科技股份有限公司 | 基于医学语义理解的医学术语检索方法和系统 |
CN117648923B (zh) * | 2024-01-29 | 2024-05-10 | 安徽省立医院(中国科学技术大学附属第一医院) | 一种适用于医疗语境的中文拼写纠错方法 |
-
2021
- 2021-03-19 CN CN202110295319.1A patent/CN115114919A/zh active Pending
-
2022
- 2022-03-15 EP EP22162112.1A patent/EP4060548A1/en active Pending
- 2022-03-15 JP JP2022040587A patent/JP2022145623A/ja active Pending
- 2022-03-16 US US17/695,857 patent/US20220300708A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220300708A1 (en) | 2022-09-22 |
CN115114919A (zh) | 2022-09-27 |
EP4060548A1 (en) | 2022-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11501182B2 (en) | Method and apparatus for generating model | |
WO2022007823A1 (zh) | 一种文本数据处理方法及装置 | |
WO2020232861A1 (zh) | 命名实体识别方法、电子装置及存储介质 | |
US10606946B2 (en) | Learning word embedding using morphological knowledge | |
JP2022145623A (ja) | ヒント情報を提示する方法及び装置並びにコンピュータプログラム | |
US20180068221A1 (en) | System and Method of Advising Human Verification of Machine-Annotated Ground Truth - High Entropy Focus | |
CN110866098B (zh) | 基于transformer和lstm的机器阅读方法、装置及可读存储介质 | |
US11651015B2 (en) | Method and apparatus for presenting information | |
CN114676234A (zh) | 一种模型训练方法及相关设备 | |
CN110968725B (zh) | 图像内容描述信息生成方法、电子设备及存储介质 | |
CN112820269A (zh) | 文本转语音方法、装置、电子设备及存储介质 | |
CN113779225B (zh) | 实体链接模型的训练方法、实体链接方法及装置 | |
US20230205994A1 (en) | Performing machine learning tasks using instruction-tuned neural networks | |
CN112528654A (zh) | 自然语言处理方法、装置及电子设备 | |
CN114912450B (zh) | 信息生成方法与装置、训练方法、电子设备和存储介质 | |
CN112507124A (zh) | 一种基于图模型的篇章级别事件因果关系抽取方法 | |
CN114492661B (zh) | 文本数据分类方法和装置、计算机设备、存储介质 | |
US20220165257A1 (en) | Neural sentence generator for virtual assistants | |
CN108875024B (zh) | 文本分类方法、系统、可读存储介质及电子设备 | |
US11481609B2 (en) | Computationally efficient expressive output layers for neural networks | |
CN112632956A (zh) | 文本匹配方法、装置、终端和存储介质 | |
Kulkarni et al. | Deep Reinforcement-Based Conversational AI Agent in Healthcare System | |
CN116842168B (zh) | 跨领域问题处理方法、装置、电子设备及存储介质 | |
CN117436457B (zh) | 反讽识别方法、装置、计算设备及存储介质 | |
US20240144921A1 (en) | Domain specific neural sentence generator for multi-domain virtual assistants |