JP2024080128A - 学習システム、学習方法、推定システム、推定方法及びプログラム - Google Patents

学習システム、学習方法、推定システム、推定方法及びプログラム Download PDF

Info

Publication number
JP2024080128A
JP2024080128A JP2022193049A JP2022193049A JP2024080128A JP 2024080128 A JP2024080128 A JP 2024080128A JP 2022193049 A JP2022193049 A JP 2022193049A JP 2022193049 A JP2022193049 A JP 2022193049A JP 2024080128 A JP2024080128 A JP 2024080128A
Authority
JP
Japan
Prior art keywords
data
feature
document data
pair
query
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022193049A
Other languages
English (en)
Inventor
デボプリヨ バナジー
Banerjee Debapriya
モーザム ジェーン
Jain Mausam
アシーシ クルカルニー
kulkarni Ashish
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Group Inc filed Critical Rakuten Group Inc
Priority to JP2022193049A priority Critical patent/JP2024080128A/ja
Publication of JP2024080128A publication Critical patent/JP2024080128A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】大量の文書データを用意せずとも高い学習効率及び推定精度を得る学習システム、学習方法、推定システム、推定方法及びプログラムを提供する。【解決手段】学習装置は、クエリデータを取得するとともに、クエリデータに対応する対応文書データから、第1要素、第2要素、及び結合データを取得し、特徴量抽出モデルを用いて、クエリデータの特徴量と第1要素の特徴量との組、クエリデータの特徴量と第1要素の特徴量との組及びクエリデータの特徴量と結合データの特徴量との組を夫々抽出し、クエリデータの特徴量と第1要素の特徴量との組の類似度、クエリデータの特徴量と第1要素の特徴量との組の類似度及びクエリデータの特徴量と結合データの特徴量との組の類似度が大きくなるように、特徴量抽出モデルの学習を実行する。【選択図】図4

Description

本開示は、学習システム、学習方法、推定システム、推定方法及びプログラムに関する。
ユーザが入力した検索キーワード(クエリ)に基づいて、そのクエリに近い内容の文書を推定する技術が知られている。
例えば、下記非特許文献1及び非特許文献2には、特徴量抽出モデルを用いてクエリデータの特徴量を抽出し、当該クエリデータの特徴量と、前記特徴量抽出モデルを用いて予め抽出された、複数の文書データのそれぞれが有する一の要素の特徴量と、の類似度を算出することにより、クエリに近い内容の文書の推定を行う技術が記載されている。
非特許文献1及び非特許文献2に記載の技術は、上記推定を行う推定段階に加え、前記特徴量抽出モデルの学習を行う学習段階を含む。具体的には、学習段階では、前記特徴量抽出モデルを用いて、クエリデータの特徴量と、そのクエリデータに対応する文書データが有する一の要素の特徴量と、が抽出される。そして、このクエリデータの特徴量と、クエリデータに対応する文書データが有する一の要素の特徴量と、の類似度が大きくなるように、前記特徴量抽出モデルの学習が行われる。
Wataru Sakata, Tomohide Shibata, Ribeka Tanaka, and Sadao Kurohashi. 2019. FAQ Retrieval using Query-Question Similarity and BERT-Based Query-Answer Relevance. In Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR'19). Association for Computing Machinery, New York, NY, USA, 1113-1116. Seo, J.; Lee, T.; Moon, H.; Park, C.; Eo, S.; Aiyanyo, I.D.; Park, K.; So, A.; Ahn, S.; Park, J. Dense-to-Question and Sparse-to-Answer: Hybrid Retriever System for Industrial Frequently Asked Questions. Mathematics 2022, 10, 1335.
上記従来技術において高い学習効率及び推定精度を得るためには、学習段階及び推定段階において大量の文書データを用意することが望ましいが、そのような大量の文書データを用意することは非常に手間がかかる。
本発明は、上記課題に鑑みてなされたものであって、その目的は、大量の文書データを用意せずとも高い学習効率及び推定精度を得ることが可能な学習システム、学習方法、推定システム、推定方法及びプログラムを提供することにある。
(1)本開示に係る学習システムは、クエリデータを取得するとともに、第1要素及び第2要素をそれぞれが有する複数の文書データに含まれ、前記クエリデータに対応する対応文書データから、前記第1要素、前記第2要素、及び前記第1要素と前記第2要素とを結合した結合データを取得する取得手段と、特徴量抽出モデルを用いて、前記クエリデータと前記対応文書データの前記第1要素との組、前記クエリデータと前記対応文書データの前記第2要素との組、及び前記クエリデータと前記対応文書データの前記結合データとの組のそれぞれから、前記クエリデータの特徴量と前記対応文書データの前記第1要素の特徴量との組、前記クエリデータの特徴量と前記対応文書データの前記第2要素の特徴量との組、及び前記クエリデータの特徴量と前記対応文書データの前記結合データの特徴量との組をそれぞれ抽出する抽出手段と、前記クエリデータの特徴量と前記対応文書データの前記第1要素の特徴量との組の類似度、前記クエリデータの特徴量と前記対応文書データの前記第2要素の特徴量との組の類似度、及び前記クエリデータの特徴量と前記対応文書データの前記結合データの特徴量との組の類似度が大きくなるように、前記特徴量抽出モデルの学習を実行する学習手段と、を有する。
(2)(1)の学習システムにおいて、前記取得手段は更に、前記複数の文書データに含まれ、前記クエリデータに対応しない非対応文書データから、前記第1要素、前記第2要素、及び前記結合データを取得し、前記抽出手段は更に、前記特徴量抽出モデルを用いて、前記クエリデータと前記非対応文書データの前記第1要素との組、前記クエリデータと前記非対応文書データの前記第2要素との組、及び前記クエリデータと前記非対応文書データの前記結合データとの組のそれぞれから、前記クエリデータの特徴量と前記非対応文書データの前記第1要素の特徴量との組、前記クエリデータの特徴量と前記非対応文書データの前記第2要素の特徴量との組、及び前記クエリデータの特徴量と前記非対応文書データの前記結合データの特徴量との組をそれぞれ抽出し、前記学習手段は更に、前記クエリデータの特徴量と前記非対応文書データの前記第1要素の特徴量との組の類似度、前記クエリデータの特徴量と前記非対応文書データの前記第2要素の特徴量との組の類似度、及び前記クエリデータの特徴量と前記非対応文書データの前記結合データの特徴量との組の類似度が小さくなるように、前記特徴量抽出モデルの学習を実行してもよい。
(3)(1)又は(2)の学習システムにおいて、前記取得手段は更に、前記複数の文書データに含まれる第1文書データから前記第1要素及び前記第2要素を取得し、前記抽出手段は更に、前記特徴量抽出モデルを用いて、前記第1文書データの前記第1要素又は前記第2要素のいずれか一方と前記第1文書データの前記第1要素又は前記第2要素のいずれか他の一方との組から、前記第1文書データの前記第1要素又は前記第2要素のいずれか一方の特徴量と前記第1文書データの前記第1要素又は前記第2要素のいずれか他の一方の特徴量との組を抽出し、前記学習手段は更に、前記第1文書データの前記第1要素又は前記第2要素のいずれか一方の特徴量と前記第1文書データの前記第1要素又は前記第2要素のいずれか他の一方の特徴量との組の類似度が大きくなるように、前記特徴量抽出モデルの学習を実行してもよい。
(4)(3)の学習システムにおいて、前記取得手段は更に、前記複数の文書データに含まれる第2文書データから前記第1要素又は前記第2要素を取得し、前記抽出手段は更に、前記特徴量抽出モデルを用いて、前記第1文書データの前記第1要素又は前記第2要素のいずれか一方と前記第2文書データの前記第1要素又は前記第2要素のいずれか一方との組から、前記第1文書データの前記第1要素又は前記第2要素のいずれか一方の特徴量と前記第2文書データの前記第1要素又は前記第2要素のいずれか一方の特徴量との組を抽出し、前記学習手段は更に、前記第1文書データの前記第1要素又は前記第2要素のいずれか一方の特徴量と前記第2文書データの前記第1要素又は前記第2要素のいずれか一方の特徴量との組の類似度が小さくなるように、前記特徴量抽出モデルの学習を実行してもよい。
(5)(3)又は(4)の学習システムにおいて、前記取得手段は更に、前記第1文書データから前記結合データを取得し、前記抽出手段は更に、前記特徴量抽出モデルを用いて、前記第1文書データの前記第1要素、前記第2要素又は前記結合データのいずれか1つと前記第1文書データの前記第1要素、前記第2要素又は前記結合データのいずれか他の1つとの組から、前記第1文書データの前記第1要素、前記第2要素又は前記結合データのいずれか1つの特徴量と前記第1文書データの前記第1要素、前記第2要素又は前記結合データのいずれか他の1つの特徴量との組を抽出し、前記学習手段は更に、前記第1文書データの前記第1要素、前記第2要素又は前記結合データのいずれか1つの特徴量と前記第1文書データの前記第1要素、前記第2要素又は前記結合データのいずれか他の1つの特徴量との組の類似度が大きくなるように、前記特徴量抽出モデルの学習を実行してもよい。
(6)本開示に係る推定システムは、第1要素及び第2要素を有する複数の文書データのそれぞれの前記第1要素から特徴量抽出モデルを用いて抽出された、前記複数の文書データのそれぞれの前記第1要素の特徴量を取得する第1特徴量取得手段と、前記複数の文書データのそれぞれの前記第1要素と前記第2要素とを結合した結合データから前記特徴量抽出モデルを用いて抽出された、前記複数の文書データのそれぞれの前記結合データの特徴量を取得する結合特徴量取得手段と、クエリデータから前記特徴量抽出モデルを用いて、前記クエリデータの特徴量を抽出するクエリ特徴量抽出手段と、前記複数の文書データのそれぞれについて、前記第1要素の特徴量と前記クエリデータの特徴量との組の類似度である第1類似度を算出するとともに、前記結合データの特徴量と前記クエリデータの特徴量との組の類似度である結合類似度を算出する算出手段と、前記複数の文書データのそれぞれについて前記算出手段により算出される前記第1類似度及び前記結合類似度に基づき、前記複数の文書データのうち1以上を選択する選択手段と、を有する。
(7)(6)の推定システムにおいて、前記選択手段は、前記複数の文書データのそれぞれについての前記第1類似度及び前記結合類似度の代表値に基づき、前記複数の文書データのうち1以上を選択してもよい。
(8)(6)又は(7)の推定システムにおいて、前記複数の文書データのそれぞれの前記第2要素から前記特徴量抽出モデルを用いて抽出された、前記複数の文書データのそれぞれの前記第2要素の特徴量を取得する第2特徴量取得手段を更に有し、前記算出手段は更に、前記複数の文書データのそれぞれについて、前記第2要素の特徴量と前記クエリデータの特徴量との組の類似度である第2類似度を算出し、前記選択手段は、前記複数の文書データのそれぞれについて前記算出手段により算出される前記第2類似度に更に基づき、前記複数の文書データのうち1以上を選択してもよい。
(9)(6)から(8)のいずれかの推定システムにおいて、前記特徴量抽出モデルは、学習用クエリデータを取得するとともに、前記学習用クエリデータに対応する対応文書データから、前記第1要素、前記第2要素、及び前記結合データを取得すること、特徴量抽出モデルを用いて、前記学習用クエリデータと前記対応文書データの前記第1要素との組、前記学習用クエリデータと前記対応文書データの前記第2要素との組、及び前記学習用クエリデータと前記対応文書データの前記結合データとの組のそれぞれから、前記学習用クエリデータの特徴量と前記対応文書データの前記第1要素の特徴量との組、前記学習用クエリデータの特徴量と前記対応文書データの前記第2要素の特徴量との組、及び前記学習用クエリデータの特徴量と前記対応文書データの前記結合データの特徴量との組をそれぞれ抽出すること、前記学習用クエリデータの特徴量と前記対応文書データの前記第1要素の特徴量との組の類似度、前記学習用クエリデータの特徴量と前記対応文書データの前記第2要素の特徴量との組の類似度、及び前記学習用クエリデータの特徴量と前記対応文書データの前記結合データの特徴量との組の類似度が大きくなるように、前記特徴量抽出モデルの学習を実行すること、により生成されたものであってもよい。
(10)本開示に係る学習方法は、クエリデータを取得するとともに、第1要素及び第2要素をそれぞれが有する複数の文書データに含まれ、前記クエリデータに対応する対応文書データから、前記第1要素、前記第2要素、及び前記第1要素と前記第2要素とを結合した結合データを取得する取得ステップと、特徴量抽出モデルを用いて、前記クエリデータと前記対応文書データの前記第1要素との組、前記クエリデータと前記対応文書データの前記第2要素との組、及び前記クエリデータと前記対応文書データの前記結合データとの組のそれぞれから、前記クエリデータの特徴量と前記対応文書データの前記第1要素の特徴量との組、前記クエリデータの特徴量と前記対応文書データの前記第2要素の特徴量との組、及び前記クエリデータの特徴量と前記対応文書データの前記結合データの特徴量との組をそれぞれ抽出する抽出ステップと、前記クエリデータの特徴量と前記対応文書データの前記第1要素の特徴量との組の類似度、前記クエリデータの特徴量と前記対応文書データの前記第2要素の特徴量との組の類似度、及び前記クエリデータの特徴量と前記対応文書データの前記結合データの特徴量との組の類似度が大きくなるように、前記特徴量抽出モデルの学習を実行する学習ステップと、を有する。
(11)本開示に係る推定方法は、第1要素及び第2要素を有する複数の文書データのそれぞれの前記第1要素から特徴量抽出モデルを用いて抽出された、前記複数の文書データのそれぞれの前記第1要素の特徴量を取得する第1特徴量取得ステップと、前記複数の文書データのそれぞれの前記第1要素と前記第2要素とを結合した結合データから前記特徴量抽出モデルを用いて抽出された、前記複数の文書データのそれぞれの前記結合データの特徴量を取得する結合特徴量取得ステップと、クエリデータから前記特徴量抽出モデルを用いて、前記クエリデータの特徴量を抽出するクエリ特徴量抽出ステップと、前記複数の文書データのそれぞれについて、前記第1要素の特徴量と前記クエリデータの特徴量との組の類似度である第1類似度を算出するとともに、前記結合データの特徴量と前記クエリデータの特徴量との組の類似度である結合類似度を算出する算出ステップと、前記複数の文書データのそれぞれについて前記算出ステップにより算出される前記第1類似度及び前記結合類似度に基づき、前記複数の文書データのうち1以上を選択する選択ステップと、を有する。
(12)本開示に係るプログラムは、クエリデータを取得するとともに、第1要素及び第2要素をそれぞれが有する複数の文書データに含まれ、前記クエリデータに対応する対応文書データから、前記第1要素、前記第2要素、及び前記第1要素と前記第2要素とを結合した結合データを取得する取得手段、特徴量抽出モデルを用いて、前記クエリデータと前記対応文書データの前記第1要素との組、前記クエリデータと前記対応文書データの前記第2要素との組、及び前記クエリデータと前記対応文書データの前記結合データとの組のそれぞれから、前記クエリデータの特徴量と前記対応文書データの前記第1要素の特徴量との組、前記クエリデータの特徴量と前記対応文書データの前記第2要素の特徴量との組、及び前記クエリデータの特徴量と前記対応文書データの前記結合データの特徴量との組をそれぞれ抽出する抽出手段、前記クエリデータの特徴量と前記対応文書データの前記第1要素の特徴量との組の類似度、前記クエリデータの特徴量と前記対応文書データの前記第2要素の特徴量との組の類似度、及び前記クエリデータの特徴量と前記対応文書データの前記結合データの特徴量との組の類似度が大きくなるように、前記特徴量抽出モデルの学習を実行する学習手段、としてコンピュータを機能させる。
(13)本開示に係るプログラムは、第1要素及び第2要素を有する複数の文書データのそれぞれの前記第1要素から特徴量抽出モデルを用いて抽出された、前記複数の文書データのそれぞれの前記第1要素の特徴量を取得する第1特徴量取得手段、
前記複数の文書データのそれぞれの前記第1要素と前記第2要素とを結合した結合データから前記特徴量抽出モデルを用いて抽出された、前記複数の文書データのそれぞれの前記結合データの特徴量を取得する結合特徴量取得手段、クエリデータから前記特徴量抽出モデルを用いて、前記クエリデータの特徴量を抽出するクエリ特徴量抽出手段、前記複数の文書データのそれぞれについて、前記第1要素の特徴量と前記クエリデータの特徴量との組の類似度である第1類似度を算出するとともに、前記結合データの特徴量と前記クエリデータの特徴量との組の類似度である結合類似度を算出する算出手段、前記複数の文書データのそれぞれについて前記算出手段により算出される前記第1類似度及び前記結合類似度に基づき、前記複数の文書データのうち1以上を選択する選択手段、としてコンピュータを機能させる。
推定システムのハードウェア構成の一例を示す図である。 FAQ検索サービスページの画面遷移の一例を示す図である。 推定システムで実現される機能の一例を示す機能ブロック図である。 学習装置において実行される処理の概要を示す図である。 学習装置において実行される処理の概要を示す図である。 原学習データセットの一例を示す図である。 加工学習データセットの一例を示す図である。 対照損失を用いた学習を模式的に示す図である。 推定装置において実行される処理の概要を示す図である。 特徴量データベースの作成方法の一例を説明する図である。
[1.推定システムのハードウェア構成]
以下、本開示に係る学習装置と推定装置を含む推定システムの例を説明する。図1は、推定システムのハードウェア構成の一例を示す図である。図1に示すように、推定システムSは、学習装置10及び推定装置20を含み、これらは、インターネット又はLAN等のネットワークNに接続される。なお、図1では、学習装置10及び推定装置20を1台ずつ示しているが、これらは複数台あってもよい。また、図1では、学習装置10及び推定装置20がそれぞれ異なる場合を示しているが、これらは同一の装置であってもよい。さらに、学習装置10及び推定装置20は、互いに異なるシステムに属していてもよい。
学習装置10は、ユーザが操作するコンピュータである。例えば、学習装置10は、パーソナルコンピュータ、サーバコンピュータ、携帯情報端末(タブレット型コンピュータ及びウェアラブル端末を含む)、又は携帯電話機(スマートフォンを含む)等である。学習装置10は、制御部11、記憶部12、通信部13、操作部14、及び表示部15を備える。
制御部11は、少なくとも1つのプロセッサを有する。制御部11は、記憶部12に記憶されたプログラムやデータに従って処理を実行する。記憶部12は、主記憶部及び補助記憶部を含む。例えば、主記憶部はRAMなどの揮発性メモリであり、補助記憶部は、ROM、EEPROM、フラッシュメモリ、又はハードディスクなどの不揮発性メモリである。
通信部13は、有線通信又は無線通信用の通信インタフェースであり、ネットワークNを介してデータ通信を行う。操作部14は、操作を行うための入力デバイスであり、例えば、タッチパネルやマウス等のポインティングデバイス、キーボード、又はボタン等である。表示部15は、例えば、液晶表示部又は有機EL表示部等である。表示部15は、制御部11の指示に従って画像を表示する。
推定装置20は、ユーザが操作するコンピュータである。学習装置10のユーザと推定装置20のユーザは、同じであってもよいし異なっていてもよい。例えば、推定装置20は、パーソナルコンピュータ、サーバコンピュータ、携帯情報端末(タブレット型コンピュータ及びウェアラブル端末を含む)、又は携帯電話機(スマートフォンを含む)等である。推定装置20は、制御部21、記憶部22、通信部23、操作部24、及び表示部25を含む。制御部21、記憶部22、通信部23、操作部24、及び表示部25の各々の物理的構成は、それぞれ制御部11、記憶部12、通信部13、操作部14、及び表示部15と同様であってよい。
なお、記憶部12,22に記憶されるものとして説明するプログラム及びデータは、ネットワークNを介して供給されるようにしてもよい。また、学習装置10及び推定装置20の各々のハードウェア構成は、上記の例に限られず、種々のハードウェアを適用可能である。例えば、コンピュータ読み取り可能な情報記憶媒体を読み取る読取部(例えば、光ディスクドライブやメモリカードスロット)や外部機器とデータの入出力をするための入出力部(例えば、USBポート)が含まれていてもよい。例えば、情報記憶媒体に記憶されたプログラムやデータが読取部や入出力部を介して、各コンピュータに供給されるようにしてもよい。
[2.推定システムの概要]
推定システムSは、ユーザが入力したクエリに基づいて、複数の文書の中からそのクエリに近い内容の文書を推定する。クエリは主には文字情報であるが、数値等をクエリとして用いてもよい。この文字情報は、キーワード又は検索文字列と呼ばれることもある。例えば、文字情報は、1つの単語(検索語)だけを含んでもよいし、複数の単語を含んでもよい。文字情報が複数の単語を含む場合には、複数の単語がスペースで区切られてもよい。この場合、複数の単語は、AND条件で用いられてもよいし、OR条件で用いられてもよい。また例えば、文字情報は、単語に限られず、文章であってもよいし、文章の一部であってもよい。
本実施形態では、推定システムSをECサイトにおけるよくある質問(以下、「FAQ」という。)検索サービスに適用する場合を説明する。例えば、推定システムSは、ユーザが自身のユーザ端末に入力した文字情報をクエリとして取得し、そのクエリに近い内容の一又は複数のFAQ文書を推定する。なお、推定システムSは、FAQ検索以外の任意の場面に適用可能であり、例えば、論文検索や特許文献検索等、種々の場面に適用可能である。
例えば、ユーザが自己のユーザ端末を操作して、推定装置20にアクセスすると、FAQ検索サービスのトップ画面がユーザ端末の表示部に表示される。なお、以降説明する画面は、ユーザ端末に記憶されたアプリケーションの画面として表示されてもよいし、ウェブブラウザの画面として示されてもよい。また、本実施形態では、スマートフォン用の画面を例に挙げるが、デスクトップ用又はタブレット用といった他のレイアウトの画面が表示されてもよい。
図2は、FAQ検索サービスページの画面遷移の一例を示す図である。図2の左側に示すトップ画面G1には、クエリQを入力するための入力フォームFと、検索を実行するためのボタンBと、が表示される。ユーザがクエリQを入力フォームFに入力しボタンBを選択すると、クエリQに近い内容のFAQ文書を推定装置20が検索する。概括的には、推定装置20は、データベースに記憶された複数のFAQ文書のそれぞれとクエリQとがどの程度類似するかを決定し、当該複数のFAQ文書の中から、クエリQとの類似の程度が大きい順に一定数のFAQ文書を選択する。図2に示すように、選択されたFAQ文書のタイトルTの一覧は、トップ画面G1において検索結果SRとして表示される。なお、本実施形態では、クエリQとの類似の程度が大きい順(降順)にFAQ文書が選択される場合を説明するが、クエリQとの類似の程度が小さい順(昇順)にFAQ文書が選択されてもよい。
検索結果SRとして表示されたFAQ文書のタイトルTの一覧からいずれか1つをユーザが選択すると、画面はトップ画面G1から図2の右側に示すFAQ画面G2に遷移する。FAQ画面G2は、選択されたタイトルTに対応するFAQ文書を表示する。FAQ文書は、第1要素であるタイトルTと、第2要素である回答文Aと、第3要素であるカテゴリCと、を含む。なお、FAQ文書は、上記以外の要素を含んでいてもよく、例えば、キーワードや役立ち度、閲覧数等をその要素として含んでいてもよい。
タイトルTは、各FAQ文書の質問文に該当する。タイトルTは、各FAQ文書の題名あるいは要約ということもできる。回答文Aは、各FAQ文書の回答文に該当する。回答文Aは、各FAQ文書の本文ということもできる。
カテゴリCは、各FAQ文書が属する分類であり、当該FAQ文書の内容に応じて定められる。カテゴリCは、例えば「ログイン・会員登録」、「ポイント」、「注文方法」等である。本実施形態では、各FAQ文書が属するクラスは、一般的なものから特殊なものと多段階に分類されている。すなわち、カテゴリCは、階層型のカテゴリであり、例えば、「ECサイトトップ>問い合わせトップ>ログイン・会員登録」のように定められる。
ところで、背景技術の欄において説明したように、従来技術では、特徴量抽出モデルを用いて抽出された、FAQ文書の一の要素(例えば、タイトルT又は回答文A)の特徴量と、クエリQの特徴量と、の類似度に基づいて、FAQ文書とクエリQとがどの程度類似するかを決定していた。しかしながら、FAQ文書は複数の要素、すなわち複数の側面を有するものであるにもかかわらず、従来技術ではそのうちの一側面しか考慮されない。そのため、従来技術では、高い推定精度を得づらく、推定精度の向上には大量のFAQ文書データを用意することが望ましいとされていた。
この点、本実施形態に係る推定システムSの推定装置20は、特徴量抽出モデルを用いて抽出された、タイトルTの特徴量、回答文Aの特徴量、カテゴリCの特徴量、タイトルTと回答文Aとの結合の特徴量、タイトルTとカテゴリCとの結合の特徴量、回答文AとカテゴリCとの結合の特徴量、及びタイトルTと回答文AとカテゴリCとの結合の特徴量のそれぞれと、クエリQの特徴量と、の類似度に基づいて、各FAQ文書とクエリQとがどの程度類似するかを決定する。これにより、各FAQ文書とクエリQとがどの程度類似するかを、そのFAQ文書の一側面のみならず複数の側面を考慮して決定するため、大量のFAQ文書データを用意することなく推定精度を向上させることができる。
また、背景技術の欄において説明したように、従来技術では、学習段階において、クエリQの特徴量と、そのクエリQに対応するFAQ文書の一の要素の特徴量と、が特徴量抽出モデルを用いて抽出される。そして、クエリQの特徴量と、クエリQに対応するFAQ文書の一の要素の特徴量と、の類似度が大きくなるように、前記特徴量抽出モデルの学習が行われる。しかしながら、このような従来技術では、一のFAQ文書データから一の学習データしか得られないため、高い学習効率を得づらく、学習効率の向上には大量のFAQ文書データを用意することが望ましいとされていた。
この点、本実施形態に係る推定システムSの学習装置10は、クエリQの特徴量と、そのクエリQに対応するFAQ文書のタイトルTの特徴量、回答文Aの特徴量、カテゴリCの特徴量、タイトルTと回答文Aとの結合の特徴量、タイトルTとカテゴリCとの結合の特徴量、回答文AとカテゴリCとの結合の特徴量、及びタイトルTと回答文AとカテゴリCとの結合の特徴量と、を特徴量抽出モデルを用いて抽出する。そして、クエリQの特徴量と、そのクエリQに対応するFAQ文書のタイトルTの特徴量、回答文Aの特徴量、カテゴリCの特徴量、タイトルTと回答文Aとの結合の特徴量、タイトルTとカテゴリCとの結合の特徴量、回答文AとカテゴリCとの結合の特徴量、及びタイトルTと回答文AとカテゴリCとの結合の特徴量のそれぞれと、の組の類似度が大きくなるように、特徴量抽出モデルの学習を実行する。これにより、一のFAQ文書データから複数の学習データを得ることができるため、大量のFAQ文書データを用意することなく学習効率を向上させることができる。以降、推定システムSの詳細について説明する。
[3.推定システムで実現される機能]
図3は、推定システムで実現される機能の一例を示す機能ブロック図である。ここでは、学習装置10で実現される機能と、推定装置20で実現される機能と、について説明する。
[3-1.学習装置で実現される機能]
学習装置10では、データ記憶部100、取得部101、抽出部102、及び学習部103が実現される。データ記憶部100は、記憶部12を主として実現され、取得部101、抽出部102及び学習部103はそれぞれ、制御部11を主として実現される。以下、図4及び図5を参照しながら、学習装置10について説明する。図4及び図5は、学習装置において実行される処理の概要を示す図である。なお、図4及び図5に示す処理は、制御部11が記憶部12に記憶されたプログラムに従って動作することによって実行される。
[データ記憶部]
データ記憶部100は、特徴量抽出モデルFEと学習データベースLDBとを記憶する。
特徴量抽出モデルFEは、単語や文章等の文字情報から、当該文字情報の特徴量を抽出する機械学習モデルである。特徴量抽出モデルFEとしては、種々の公知の機械学習モデルを利用可能であり、例えばBERT(Bidirectional Encoder Representations from Transformers)やLaBSE(Language-agnostic BERT Sentence Embedding)等が特徴量抽出モデルFEとして利用可能である。
本実施形態では、特徴量は、具体的には潜在空間と呼ばれるベクトル空間に埋め込まれたベクトル(埋め込みベクトル)である。後に詳述するが、潜在空間においては、意味が似ている2つの単語又は文章は互いに近い位置に埋め込まれ、意味が似ていない2つの単語又は文章は互いに離れた位置に埋め込まれる(図8参照)。埋め込みベクトルは分散表現とも呼ばれる。
なお、本実施形態で特徴量抽出モデルFEと記載した箇所は、特徴量抽出のコンセプトを意味するのではなく、そのコンセプトにより生み出された電子的なデータを意味する。すなわち、特徴量抽出モデルFEは、プログラムとパラメータとを含む。なお、特徴量抽出モデルFEは、プログラム又はパラメータのいずれかだけを意味してもよい。
特徴量抽出モデルFEに含まれるプログラムには、コンピュータが実行すべき処理内容(命令又は計算式)が定義されている。パラメータは、学習によって調整される数値を含み、例えば、重み付け係数やバイアス等の数値を含む。学習前の特徴量抽出モデルFEであれば、初期値のパラメータを含み、学習済みの特徴量抽出モデルFEであれば、学習によって調整されたパラメータを含む。
本実施形態では、学習済みの特徴量抽出モデルFEは、推定装置20のデータ記憶部200に記憶される場合を説明するが、学習済みの特徴量抽出モデルFEは、学習装置10のデータ記憶部100にも記憶されていてよい。他にも例えば、データ記憶部100は、学習の処理に必要なプログラムや後述する数式(数1)を記憶してもよい。この数式は、プログラムの一部として記述されていてもよい。
学習データベースLDBは、原学習データセットLDS-oを格納する。図6は、原学習データセットの一例を示す図である。図6に示すように、原学習データセットLDS-oは、クエリデータQDと、FAQ文書データDDと、を含む。詳細は後述するが、原学習データセットLDS-oは、このまま学習に利用されるのではなく、取得部101にて加工学習データセットLDS-pへと加工されたのちに学習に利用される。
FAQ文書データDDは、その要素として、タイトルデータTD(第1要素)と、回答文データAD(第2要素)と、カテゴリデータCDと、を有する。原学習データセットLDS-oでは、複数のクエリデータQDのそれぞれは、そのクエリデータQDに最も近い内容のFAQを示すFAQ文書データDDと対応づけられている。別の見方をすれば、原学習データセットLDS-oは、複数のクエリデータQDのそれぞれに対応する対応FAQ文書データDD-m(対応文書データ)と、複数のクエリデータQDのそれぞれに対応しない非対応FAQ文書データDD-n(非対応文書データ)と、を有するということもできる(図4参照)。
なお、図6では便宜上、複数のクエリデータQDのそれぞれを「クエリ1」等としているが、実際には、クエリデータQDは、ユーザが検索の際に入力すると想定される単語又は文章等の文字情報である。例えば、「クエリ1」は「商品いつ届く」という文章、「クエリ2」は「パスワード忘れた」という文章であってよい。
また、タイトルデータTD、回答文データAD、及びカテゴリデータCDもそれぞれ、クエリデータQDと同様に、FAQ文書内に記載された単語または文章等の文字情報である。例えば、上記例の「クエリ1」(「商品いつ届く」)に対応するタイトルデータTD(「タイトル1」)、回答文データAD(「回答文1」)、及びカテゴリデータCD(「カテゴリ1」)はそれぞれ、「商品の配送期間について」という文章、「商品の販売ページに配送時期・配送方法についての説明がないかご確認ください。…」という文章、「ECサイトトップ>問い合わせトップ>取引に関するトラブル」という文章であってよい。なお、クエリデータQD、タイトルデータTD、回答文データAD、及びカテゴリデータCDは数値等を含んでもよい。
[取得部]
以降、図3から図5に加えて図7を更に用いて、取得部101について説明する。図7は、加工学習データセットの一例を示す図である。
取得部101は、原学習データセットLDS-oから、加工学習データセットLDS-pを取得する。図7に示すように、加工学習データセットLDS-pは、原学習データセットLDS-oと同様に、クエリデータQD、タイトルデータTD、回答文データAD及びカテゴリデータCDを含む。さらに加工学習データセットLDS-pは、タイトルデータTDと回答文データADとを結合したタイトル-回答文結合データTAD、タイトルデータTDとカテゴリデータCDとを結合したタイトル-カテゴリ結合データTCD、回答文データADとカテゴリデータCDとを結合した回答文-カテゴリ結合データACD、及びタイトルデータTDと回答文データADとカテゴリデータCDとを結合したタイトル-回答文-カテゴリ結合データTACDを含む。すなわち、加工学習データセットLDS-pは、クエリデータQDと、FAQ文書データDD由来の7種類のデータと、を含む。
具体的には、タイトル-回答文結合データTADは、タイトルデータTDと回答文データADとを文字列結合により結合したものである。本実施形態では、この文字列結合は、[SEP]トークンを2文の間に挿入することにより行う。例えば、タイトルデータTDが「商品の配送期間について」であれば、末尾に回答文データADとして「商品の販売ページに配送時期・配送方法についての説明がないかご確認ください。…」を付加することにより、「『商品の配送期間について』‘[SEP]’『商品の販売ページに配送時期・配送方法についての説明がないかご確認下さい。…』」というタイトル-回答文結合データTADを得ることができる。なお、結合の順番は上記と逆であってもよい。また、文字列結合は学習装置10が行ってもよいし、他の装置により結合されたタイトル-回答文結合データTADを学習装置10が取得してもよい。また、文字列結合は自動又は手動のいずれで行ってもよい。タイトル-カテゴリ結合データTCD、回答文-カテゴリ結合データACD、及びタイトル-回答文-カテゴリ結合データTACDも、上記と同様の文字列結合により得られる。
さて、図4に示すように、取得部101は、学習データベースLDBの原学習データセットLDS-oから、クエリデータQDと、そのクエリデータQDに対応する対応FAQ文書データDD-mと、そのクエリデータQDに対応しない非対応FAQ文書データDD-nと、を取得する。例えば、クエリデータQDが「商品いつ届く」であれば、対応FAQ文書データDD-mのタイトルデータTD-mは「商品の配送期間について」、非対応FAQ文書データDD-nのタイトルデータTD-nは「ポイント利用方法について」であってよい。
更に取得部101は、図4に示すように、対応FAQ文書データDD-mから、タイトルデータTD-m、回答文データAD-m、タイトル-回答文データTAD-mを取得する。また、取得部101は、非対応FAQ文書データDD-nから、タイトルデータTD-n、回答文データAD-n、タイトル-回答文結合データTAD-nを取得する。
なお、図4では説明の便宜上、取得部101が、カテゴリデータCD、タイトル-カテゴリ結合データTCD、回答文-カテゴリ結合データACD、及びタイトル-回答文-カテゴリ結合データTACDを取得する様子を省略して示しているが、実際には取得部101はこれらのデータを取得している。以降の説明においても、これらのデータについての処理は省略するが、実際には、これらのデータは、タイトルデータTD、回答文データAD、及びタイトル-回答文結合データTADについて行われる処理と同様の処理に供される。なお、取得部101は上記データを取得せず、クエリデータQD、タイトルデータTD、回答文データAD、及びタイトル-回答文結合データTADのみを取得するようにしてもよい。
図4に示すように、クエリデータQDと対応FAQ文書データDD-mのタイトルデータTD-mと非対応FAQ文書データDD-nのタイトルデータTD-nとは第1入力グループIG1をなす。同様に、クエリデータQDと、対応FAQ文書データDD-mの回答文データAD-mと非対応FAQ文書データDD-nの回答文データAD-nとは第2入力グループIG2をなす。また、クエリデータQDと対応FAQ文書データDD-mのタイトル-回答文結合データTAD-nと非対応FAQ文書データDD-nのタイトル-回答文結合データTAD-nとは第3入力グループIG3をなす。
ここで図5に移り、取得部101は、学習データベースLDBの原学習データセットLDS-oから、第1FAQ文書データDD-a(第1文書データ)と、第2FAQ文書データDD-b(第2文書データ)と、を取得する。図4及び図5では、第1FAQ文書データDD-aと対応FAQ文書データDD-mとが異なるFAQ文書データであるとともに、第2FAQ文書データDD-bと非対応FAQ文書データDD-nとが異なるFAQ文書データである場合を示す。なお、第1FAQ文書データDD-aと対応FAQ文書データDD-mとは同じFAQ文書データであってもよく、第2FAQ文書データDD-bと非対応FAQ文書データDD-nとは同じFAQ文書データであってもよい。
また、図5に示すように、取得部101は、第1FAQ文書データDD-aから回答文データAD-a及びタイトルデータTD-aを取得するとともに、第2FAQ文書データDD-bからタイトルデータTD-b又は回答文データAD-bを取得する。具体的には、図5に示すように、取得部101は、第1FAQ文書データDD-aから回答文データAD-a及びタイトルデータTD-aを取得するとともに、第2FAQ文書データDD-bからタイトルデータTD-bを取得する。
また、取得部101は、図5に示すように、第1FAQ文書データDD-aから回答文データAD-a及びタイトル-回答文結合データTAD-aを取得するとともに、第2FAQ文書データDD-bからタイトル-回答文結合データTAD-bを取得する。
ここで、第1FAQ文書データDD-aの回答文データAD-a及びタイトルデータTD-aと第2FAQ文書データDD-bのタイトルデータTD-bとは第4入力グループIG4をなす。また、第1FAQ文書データDD-aの回答文データAD-a及びタイトル-回答文結合データTAD-aと第2FAQ文書データDD-bのタイトル-回答文結合データTAD-bとは第5入力グループIG5をなす。
なお、図5では、取得部101が第4入力グループIG4及び第5入力グループIG5を取得する様子のみを示しているが、実際には、取得部101は、これら以外の複数の入力グループを取得している。すなわち、例えば取得部101は、実際には、第1FAQ文書データDD-aのカテゴリデータCD-a及び回答文データAD-aと第2FAQ文書データDD-bの回答文データAD-bとがなす入力グループを取得している。なお、このような入力グループにおけるデータの組合せはこの例に限られない。以降の説明においても、第4入力グループIG4及び第5入力グループIG5以外の入力グループについての処理は省略するが、実際には、当該入力グループは、第4入力グループIG4及び第5入力グループIG5について行われる処理と同様の処理に供される。なお、取得部101は上記入力グループを取得せず、第4入力グループIG4及び第5入力グループIG5のみを取得するようにしてもよい。
[抽出部]
図4に示すように、抽出部102は、第1入力グループIG1、第2入力グループIG2及び第3入力グループIG3のそれぞれから、特徴量抽出モデルFEを用いて、クエリデータの特徴量QFと対応FAQ文書データDD-mのタイトルデータの特徴量TF-mと非対応FAQ文書データDD-nのタイトルデータの特徴量TF-nとがなす第1出力グループOG1、クエリデータの特徴量QFと対応FAQ文書データDD-mの回答文データの特徴量AF-mと非対応FAQ文書データDD-nの回答文データの特徴量AF-nとがなす第2出力グループOG2、及びクエリデータの特徴量QFと対応FAQ文書データDD-mのタイトル-回答文結合データの特徴量TAF-mと非対応FAQ文書データDD-nのタイトル-回答文結合データの特徴量TAF-nとがなす第3出力グループOG3をそれぞれ抽出する。
図5に移り、抽出部102は、第4入力グループIG4及び第5入力グループIG5から、特徴量抽出モデルFEを用いて、第1FAQ文書データDD-aの回答文データの特徴量AF-a及びタイトルデータの特徴量TF-aと第2FAQ文書データDD-bのタイトルデータの特徴量TF-bとがなす第4出力グループOG4、及び第1FAQ文書データDD-aの回答文データの特徴量AF-a及びタイトル-回答文結合データの特徴量TAF-aと第2FAQ文書データDD-bのタイトル-回答文結合データの特徴量TAF-bとがなす第5出力グループOG5をそれぞれ抽出する。
[学習部]
以下では、更に図8を用いて、学習部103について説明する。図8は、対照損失を用いた学習を模式的に示す図である。図8に示すように、学習部103は、クエリデータの特徴量QFと対応FAQ文書データDD-mのタイトルデータの特徴量TF-mとの組の類似度、クエリデータの特徴量QFと対応FAQ文書データDD-mの回答文データの特徴量AF-mとの組の類似度、及びクエリデータの特徴量QFと対応FAQ文書データDD-mのタイトル-回答文結合データの特徴量TAF-mとの組の類似度が大きくなるように、特徴量抽出モデルFEの学習を実行する。
また、図8に示すように、学習部103は、クエリデータの特徴量QFと非対応FAQ文書データDD-nのタイトルデータの特徴量TF-nとの組の類似度、クエリデータの特徴量QFと非対応FAQ文書データDD-nの回答文データの特徴量AF-nとの組の類似度、及びクエリデータの特徴量QFと非対応FAQ文書データDD-nのタイトル-回答文結合データの特徴量TAF-nとの組の類似度が小さくなるように、特徴量抽出モデルFEの学習を実行する。
図4に示すように、本実施形態では、学習部103は、以下数1に示す対照損失L(Contrastive Loss)を用いて、特徴量抽出モデルFEの学習を実行する。対照損失Lは、クエリデータの特徴量と対応FAQ文書データDD-mの各特徴量との類似度sim(QF,F-m)が大きくなればなるほど、クエリデータの特徴量と非対応FAQ文書データDD-nの各特徴量との類似度sim(QF,F-n)が小さくなればなるほど、小さくなる。
Figure 2024080128000002
ここで、F-mはi番目の対応FAQ文書データDD-mの特徴量であり、F-nはj番目の非対応FAQ文書データDD-nの特徴量である。i及びjはそれぞれ7以下の自然数である。具体的には、F-mは、対応FAQ文書データDD-mのタイトルデータの特徴量TF-m、回答文データの特徴量AF-m、カテゴリデータの特徴量CF-m、タイトル-回答文結合データの特徴量TAF-m、タイトル-カテゴリ結合データの特徴量TCF-m、回答文-カテゴリ結合データの特徴量ACF-m、又はタイトル-回答文-カテゴリ結合データの特徴量TACF-mのいずれかである。
同様に、F-nは、非対応FAQ文書データDD-nのタイトルデータの特徴量TF-n、回答文データの特徴量AF-n、カテゴリデータの特徴量CF-n、タイトル-回答文結合データの特徴量TAF-n、タイトル-カテゴリ結合データの特徴量TCF-n、回答文-カテゴリ結合データの特徴量ACF-n、又はタイトル-回答文-カテゴリ結合データの特徴量TACF-nのいずれかである。
類似度は、例えば特徴量同士のコサイン類似度や距離を算出することにより求めることができる。学習部103は、対照損失Lが小さくなるように、逆誤差伝播法や勾配降下法、Adam等、公知のパラメータ調整方法を利用して、特徴量抽出モデルFEのパラメータを調整する。なお、対照損失Lとしては、数1に示すもののほか、任意の関数を利用可能である。
また、学習部103は、第1FAQ文書データDD-aの回答文データの特徴量AF-aと第1FAQ文書データDD-aのタイトルデータの特徴量TF-aとの組の類似度、及び第1FAQ文書データDD-aの回答文データの特徴量AF-aと第1FAQ文書データDD-aのタイトル-回答文結合データの特徴量TAF-aとの組の類似度が大きくなるように、特徴量抽出モデルFEの学習を実行する。更に、学習部103は、第1FAQ文書データDD-aの回答文データの特徴量AF-aと第2FAQ文書データDD-bのタイトルデータの特徴量TF-bとの組の類似度、及び、第1FAQ文書データDD-aの回答文データの特徴量AF-aと第2FAQ文書データDD-bのタイトル-回答文結合データの特徴量TAF-bとの組の類似度が小さくなるように、特徴量抽出モデルFEの学習を実行する。学習の方法自体は、上記図8及び数1を用いて説明したのと同様に、対照損失を用いた方法が利用可能であるが、これに限られない。
以上に説明した本実施形態に係る学習装置10によれば、一のFAQ文書データから複数の学習データを得ることができるため、大量のFAQ文書データを用意することなく学習効率を向上させることができる。
また、本実施形態に係る学習装置10では、クエリデータQDの特徴量と対応FAQ文書データDD-mの要素の特徴量と非対応FAQ文書データDD-nの要素の特徴量とがなすグループを用いた学習(図4参照)に加え、第1FAQ文書データDD-aの一の要素の特徴量と第1FAQ文書データDD-aの他の要素の特徴量と第2FAQ文書データDD-bの一の要素の特徴量とがなすグループを用いた学習(図5参照)を実行する。すなわち、本実施形態に係る学習装置10における学習は、同じFAQ文書データに属する特徴量同士の類似度は大きく、異なるFAQ文書データに属する特徴量同士の類似度は小さい、という暗黙的な関係性に基づく、クエリデータQDを含まない学習データを利用するものである。このような学習データを用いることにより、学習のために用意すべきクエリデータQDの数を減らすことができる。
[3-2.推定装置で実現される機能]
図3に戻り、推定装置20では、データ記憶部200、取得部201、抽出部202、算出部203及び選択部204が実現される。データ記憶部200は、記憶部22を主として実現され、取得部201、抽出部202、算出部203及び選択部204はそれぞれ、制御部21を主として実現される。以下、図9を参照しながら、推定装置20について説明する。図9は、推定装置において実行される処理の概要を示す図である。なお、図9に示す処理は、制御部11が記憶部12に記憶されたプログラムに従って動作することによって実行される。
[データ記憶部]
データ記憶部200は、学習済みの特徴量抽出モデルFEと特徴量データベースFDBとを記憶する。具体的には、データ記憶部200は、前述の学習装置10での学習によりパラメータが調整された特徴量抽出モデルFEを記憶する。なお、データ記憶部200に記憶された特徴量抽出モデルFEは、必ずしも学習装置10で学習されたものでなくてもよい。
以下、図10を用いて、特徴量データベースFDBについて説明する。図10は、特徴量データベースの作成方法の一例を説明する図である。本実施形態では、推定装置20が特徴量データベースFDBを作成する場合を説明するが、特徴量データベースFDBは外部の装置により作成されたものであってもよい。
図10に示すように、推定装置20は、複数のFAQ文書データDDを含むFAQ文書データセットDDSを取得し、複数のFAQ文書データDDのそれぞれから、タイトルデータTD、回答文データAD、及びタイトル-回答文結合データTADを取得する。なお、図10では、説明の便宜上、カテゴリデータCD、タイトル-カテゴリ結合データTCD、回答文-カテゴリ結合データACD、及びタイトル-回答文-カテゴリ結合データTACDが取得される様子が省略されているが、実際には推定装置20はこれらを取得している。以降の説明においても、これらのデータについての処理は省略するが、実際には、これらのデータは、タイトルデータTD、回答文データAD、及びタイトル-回答文結合データTADについて行われる処理と同様の処理に供される。なお、推定装置20はこれらを取得せず、クエリデータQD、タイトルデータTD、回答文データAD、及びタイトル-回答文結合データTADのみを取得するようにしてもよい。
推定装置20は、タイトルデータTD、回答文データAD、及びタイトル-回答文結合データTADのそれぞれから、学習済みの特徴量抽出モデルFEを用いて、タイトルデータの特徴量TF、回答文データの特徴量AF、タイトル-回答文結合データの特徴量TAFをそれぞれ抽出する。こうして抽出された複数のFAQ文書データDDのそれぞれの特徴量は特徴量データベースFDBに格納され、データ記憶部200に記憶される。
[取得部]
図9に移り、取得部201は、特徴量データベースFDBから、複数のFAQ文書データDDのそれぞれのタイトルデータの特徴量TF、回答文データの特徴量AF、タイトル-回答文結合データの特徴量TAFを取得する。
[抽出部]
抽出部202は、推定対象のクエリデータEQDから、学習済みの特徴量抽出モデルFEを用いて、推定対象のクエリデータの特徴量EQFを抽出する。推定対象のクエリデータEQDは、例えば、ユーザがFAQ検索サービスページの入力フォームFに入力したクエリに対応するデータである。
[算出部]
算出部203は、複数のFAQ文書データDDのそれぞれについて、タイトルデータの特徴量TFと推定対象のクエリデータの特徴量EQFとの組の類似度(第1類似度)を算出し、回答文データの特徴量AFと推定対象のクエリデータの特徴量EQFとの組の類似度(第2類似度)を算出するとともに、タイトル-回答文結合データの特徴量TAFの特徴量と推定対象のクエリデータの特徴量EQFとの組の類似度(結合類似度)を算出する。類似度は、例えば特徴量同士のコサイン類似度や距離を算出することにより求めることができる。
[選択部]
選択部204は、複数のFAQ文書データDDのそれぞれについてのタイトルデータの特徴量TFと推定対象のクエリデータの特徴量EQFとの組の類似度、回答文データの特徴量AFと推定対象のクエリデータの特徴量EQFとの組の類似度、及びタイトル-回答文結合データの特徴量TAFの特徴量と推定対象のクエリデータの特徴量EQFとの組の類似度に基づき、複数のFAQ文書データDDのうち1以上を選択する。選択されたFAQ文書データDDは、例えば図2に示すような形で、FAQ検索サービスページに表示されてよい。本実施形態では、図9に示すように、選択部204が複数のFAQ文書データDDのうち5つを選択する場合を説明するが、選択部204が選択するFAQ文書データDDの数はこの例に限られない。
具体的には、選択部204は、複数のFAQ文書データDDのそれぞれについて、タイトルデータの特徴量TFと推定対象のクエリデータの特徴量EQFとの組の類似度、回答文データの特徴量AFと推定対象のクエリデータの特徴量EQFとの組の類似度、及びタイトル-回答文結合データの特徴量TAFの特徴量と推定対象のクエリデータの特徴量EQFとの組の類似度の代表値に基づき、複数のFAQ文書データDDのうち1以上を選択する。
より具体的には、選択部204は、複数のFAQ文書データDDのそれぞれについて、タイトルデータの特徴量TFと推定対象のクエリデータの特徴量EQFとの組の類似度、回答文データの特徴量AFと推定対象のクエリデータの特徴量EQFとの組の類似度、及びタイトル-回答文結合データの特徴量TAFの特徴量と推定対象のクエリデータの特徴量EQFの代表値を決定し、この代表値が大きい順に、複数のFAQ文書データDDのうち1以上を選択する。本実施形態では、選択部204は、代表値が大きい順(降順)に、複数のFAQ文書データDDのうち5つを選択している。なお、選択部204は、代表値が小さい順(昇順)に、複数のFAQ文書データDDのうち5つを選択してもよい。
本実施形態では、代表値が、タイトルデータの特徴量TFと推定対象のクエリデータの特徴量EQFとの組の類似度、回答文データの特徴量AFと推定対象のクエリデータの特徴量EQFとの組の類似度、及びタイトル-回答文結合データの特徴量TAFの特徴量と推定対象のクエリデータの特徴量EQFの平均値である場合を説明するが、代表値は、中央値、最大値等であってもよい。
以上に説明した本実施形態に係る推定装置20によれば、各FAQ文書とクエリとがどの程度類似するかを、そのFAQ文書の一側面のみならず複数の側面を考慮して決定するため、大量のFAQ文書データを用意することなく推定精度を向上させることができる。
以上に説明した本発明の実施形態によれば、大量の文書データを用意せずとも高い学習効率及び推定精度を得ることが可能な学習システム、学習方法、推定システム、推定方法及びプログラムが提供される。
S 推定システム、N ネットワーク、10 学習装置、11,21 制御部、12,22 記憶部、13,23 通信部、14,24 操作部、15,25 表示部、100 データ記憶部、101 取得部、102 抽出部、103 学習部、20 推定装置、200 データ記憶部、201 取得部、202 抽出部、203 算出部、204 選択部、G1 トップ画面、G2 FAQ画面、Q クエリ、T タイトル、A 回答文、C カテゴリ、F 入力フォーム、B ボタン、SR 検索結果、FE 特徴量抽出モデル、LDB 学習データベース、LDS-o 原学習データセット、LDS-p 加工学習データセット、L 対照損失、DD,DD-m,DD-n,DD-a,DD-b FAQ文書データ、QD クエリデータ、TD,TD-m,TD-n,TD-a,TD-b タイトルデータ、AD,AD-m,AD-n,AD-a,AD-b 回答文データ、CD,CD-m,CD-n,CD-a,CD-b カテゴリデータ、TAD,TAD-m,TAD-n,TAD-a,TAD-b タイトル-回答文結合データ、TCD タイトル-カテゴリ結合データ、ACD 回答文-カテゴリ結合データ、TACD タイトル-回答文-カテゴリ結合データ、IG1,IG2,IG3,IG4,IG5 入力グループ、QF クエリデータの特徴量、TF,TF-m,TF-n,TF-a,TF-b タイトルデータの特徴量、AF,AF-m,AF-n,AF-a,AF-b 回答文データの特徴量、CF-m,CF-n カテゴリデータの特徴量、TAF,TAF-m,TAF-n,TAF-a,TAF-b タイトル-回答文結合データの特徴量、TCF-m,TCF-n タイトル-カテゴリ結合データの特徴量、ACF-m,ACF-n 回答文-カテゴリ結合データの特徴量、TACF-m,TACF-n タイトル-回答文-カテゴリ結合データの特徴量、OG1,OG2,OG3,OG4,OG5 出力グループ、FDB 特徴量データベース、DDS FAQ文書データセット、EQD 推定対象のクエリデータ、EQF 推定対象のクエリデータの特徴量

Claims (13)

  1. クエリデータを取得するとともに、第1要素及び第2要素をそれぞれが有する複数の文書データに含まれ、前記クエリデータに対応する対応文書データから、前記第1要素、前記第2要素、及び前記第1要素と前記第2要素とを結合した結合データを取得する取得手段と、
    特徴量抽出モデルを用いて、前記クエリデータと前記対応文書データの前記第1要素との組、前記クエリデータと前記対応文書データの前記第2要素との組、及び前記クエリデータと前記対応文書データの前記結合データとの組のそれぞれから、前記クエリデータの特徴量と前記対応文書データの前記第1要素の特徴量との組、前記クエリデータの特徴量と前記対応文書データの前記第2要素の特徴量との組、及び前記クエリデータの特徴量と前記対応文書データの前記結合データの特徴量との組をそれぞれ抽出する抽出手段と、
    前記クエリデータの特徴量と前記対応文書データの前記第1要素の特徴量との組の類似度、前記クエリデータの特徴量と前記対応文書データの前記第2要素の特徴量との組の類似度、及び前記クエリデータの特徴量と前記対応文書データの前記結合データの特徴量との組の類似度が大きくなるように、前記特徴量抽出モデルの学習を実行する学習手段と、
    を有する、学習システム。
  2. 前記取得手段は更に、前記複数の文書データに含まれ、前記クエリデータに対応しない非対応文書データから、前記第1要素、前記第2要素、及び前記結合データを取得し、
    前記抽出手段は更に、前記特徴量抽出モデルを用いて、前記クエリデータと前記非対応文書データの前記第1要素との組、前記クエリデータと前記非対応文書データの前記第2要素との組、及び前記クエリデータと前記非対応文書データの前記結合データとの組のそれぞれから、前記クエリデータの特徴量と前記非対応文書データの前記第1要素の特徴量との組、前記クエリデータの特徴量と前記非対応文書データの前記第2要素の特徴量との組、及び前記クエリデータの特徴量と前記非対応文書データの前記結合データの特徴量との組をそれぞれ抽出し、
    前記学習手段は更に、前記クエリデータの特徴量と前記非対応文書データの前記第1要素の特徴量との組の類似度、前記クエリデータの特徴量と前記非対応文書データの前記第2要素の特徴量との組の類似度、及び前記クエリデータの特徴量と前記非対応文書データの前記結合データの特徴量との組の類似度が小さくなるように、前記特徴量抽出モデルの学習を実行する、
    請求項1に記載の学習システム。
  3. 前記取得手段は更に、前記複数の文書データに含まれる第1文書データから前記第1要素及び前記第2要素を取得し、
    前記抽出手段は更に、前記特徴量抽出モデルを用いて、前記第1文書データの前記第1要素又は前記第2要素のいずれか一方と前記第1文書データの前記第1要素又は前記第2要素のいずれか他の一方との組から、前記第1文書データの前記第1要素又は前記第2要素のいずれか一方の特徴量と前記第1文書データの前記第1要素又は前記第2要素のいずれか他の一方の特徴量との組を抽出し、
    前記学習手段は更に、前記第1文書データの前記第1要素又は前記第2要素のいずれか一方の特徴量と前記第1文書データの前記第1要素又は前記第2要素のいずれか他の一方の特徴量との組の類似度が大きくなるように、前記特徴量抽出モデルの学習を実行する、
    請求項1又は2に記載の学習システム。
  4. 前記取得手段は更に、前記複数の文書データに含まれる第2文書データから前記第1要素又は前記第2要素を取得し、
    前記抽出手段は更に、前記特徴量抽出モデルを用いて、前記第1文書データの前記第1要素又は前記第2要素のいずれか一方と前記第2文書データの前記第1要素又は前記第2要素のいずれか一方との組から、前記第1文書データの前記第1要素又は前記第2要素のいずれか一方の特徴量と前記第2文書データの前記第1要素又は前記第2要素のいずれか一方の特徴量との組を抽出し、
    前記学習手段は更に、前記第1文書データの前記第1要素又は前記第2要素のいずれか一方の特徴量と前記第2文書データの前記第1要素又は前記第2要素のいずれか一方の特徴量との組の類似度が小さくなるように、前記特徴量抽出モデルの学習を実行する、
    請求項3に記載の学習システム。
  5. 前記取得手段は更に、前記第1文書データから前記結合データを取得し、
    前記抽出手段は更に、前記特徴量抽出モデルを用いて、前記第1文書データの前記第1要素、前記第2要素又は前記結合データのいずれか1つと前記第1文書データの前記第1要素、前記第2要素又は前記結合データのいずれか他の1つとの組から、前記第1文書データの前記第1要素、前記第2要素又は前記結合データのいずれか1つの特徴量と前記第1文書データの前記第1要素、前記第2要素又は前記結合データのいずれか他の1つの特徴量との組を抽出し、
    前記学習手段は更に、前記第1文書データの前記第1要素、前記第2要素又は前記結合データのいずれか1つの特徴量と前記第1文書データの前記第1要素、前記第2要素又は前記結合データのいずれか他の1つの特徴量との組の類似度が大きくなるように、前記特徴量抽出モデルの学習を実行する、
    請求項3に記載の学習システム。
  6. 第1要素及び第2要素を有する複数の文書データのそれぞれの前記第1要素から特徴量抽出モデルを用いて抽出された、前記複数の文書データのそれぞれの前記第1要素の特徴量を取得する第1特徴量取得手段と、
    前記複数の文書データのそれぞれの前記第1要素と前記第2要素とを結合した結合データから前記特徴量抽出モデルを用いて抽出された、前記複数の文書データのそれぞれの前記結合データの特徴量を取得する結合特徴量取得手段と、
    クエリデータから前記特徴量抽出モデルを用いて、前記クエリデータの特徴量を抽出するクエリ特徴量抽出手段と、
    前記複数の文書データのそれぞれについて、前記第1要素の特徴量と前記クエリデータの特徴量との組の類似度である第1類似度を算出するとともに、前記結合データの特徴量と前記クエリデータの特徴量との組の類似度である結合類似度を算出する算出手段と、
    前記複数の文書データのそれぞれについて前記算出手段により算出される前記第1類似度及び前記結合類似度に基づき、前記複数の文書データのうち1以上を選択する選択手段と、
    を有する、推定システム。
  7. 前記選択手段は、前記複数の文書データのそれぞれについての前記第1類似度及び前記結合類似度の代表値に基づき、前記複数の文書データのうち1以上を選択する、
    請求項6に記載の推定システム。
  8. 前記複数の文書データのそれぞれの前記第2要素から前記特徴量抽出モデルを用いて抽出された、前記複数の文書データのそれぞれの前記第2要素の特徴量を取得する第2特徴量取得手段を更に有し、
    前記算出手段は更に、前記複数の文書データのそれぞれについて、前記第2要素の特徴量と前記クエリデータの特徴量との組の類似度である第2類似度を算出し、
    前記選択手段は、前記複数の文書データのそれぞれについて前記算出手段により算出される前記第2類似度に更に基づき、前記複数の文書データのうち1以上を選択する、
    請求項6又は7に記載の推定システム。
  9. 前記特徴量抽出モデルは、
    学習用クエリデータを取得するとともに、前記学習用クエリデータに対応する対応文書データから、前記第1要素、前記第2要素、及び前記結合データを取得すること、
    特徴量抽出モデルを用いて、前記学習用クエリデータと前記対応文書データの前記第1要素との組、前記学習用クエリデータと前記対応文書データの前記第2要素との組、及び前記学習用クエリデータと前記対応文書データの前記結合データとの組のそれぞれから、前記学習用クエリデータの特徴量と前記対応文書データの前記第1要素の特徴量との組、前記学習用クエリデータの特徴量と前記対応文書データの前記第2要素の特徴量との組、及び前記学習用クエリデータの特徴量と前記対応文書データの前記結合データの特徴量との組をそれぞれ抽出すること、
    前記学習用クエリデータの特徴量と前記対応文書データの前記第1要素の特徴量との組の類似度、前記学習用クエリデータの特徴量と前記対応文書データの前記第2要素の特徴量との組の類似度、及び前記学習用クエリデータの特徴量と前記対応文書データの前記結合データの特徴量との組の類似度が大きくなるように、前記特徴量抽出モデルの学習を実行すること、
    により生成されたものである、
    請求項6又は7に記載の推定システム。
  10. クエリデータを取得するとともに、第1要素及び第2要素をそれぞれが有する複数の文書データに含まれ、前記クエリデータに対応する対応文書データから、前記第1要素、前記第2要素、及び前記第1要素と前記第2要素とを結合した結合データを取得する取得ステップと、
    特徴量抽出モデルを用いて、前記クエリデータと前記対応文書データの前記第1要素との組、前記クエリデータと前記対応文書データの前記第2要素との組、及び前記クエリデータと前記対応文書データの前記結合データとの組のそれぞれから、前記クエリデータの特徴量と前記対応文書データの前記第1要素の特徴量との組、前記クエリデータの特徴量と前記対応文書データの前記第2要素の特徴量との組、及び前記クエリデータの特徴量と前記対応文書データの前記結合データの特徴量との組をそれぞれ抽出する抽出ステップと、
    前記クエリデータの特徴量と前記対応文書データの前記第1要素の特徴量との組の類似度、前記クエリデータの特徴量と前記対応文書データの前記第2要素の特徴量との組の類似度、及び前記クエリデータの特徴量と前記対応文書データの前記結合データの特徴量との組の類似度が大きくなるように、前記特徴量抽出モデルの学習を実行する学習ステップと、
    を有する、学習方法。
  11. 第1要素及び第2要素を有する複数の文書データのそれぞれの前記第1要素から特徴量抽出モデルを用いて抽出された、前記複数の文書データのそれぞれの前記第1要素の特徴量を取得する第1特徴量取得ステップと、
    前記複数の文書データのそれぞれの前記第1要素と前記第2要素とを結合した結合データから前記特徴量抽出モデルを用いて抽出された、前記複数の文書データのそれぞれの前記結合データの特徴量を取得する結合特徴量取得ステップと、
    クエリデータから前記特徴量抽出モデルを用いて、前記クエリデータの特徴量を抽出するクエリ特徴量抽出ステップと、
    前記複数の文書データのそれぞれについて、前記第1要素の特徴量と前記クエリデータの特徴量との組の類似度である第1類似度を算出するとともに、前記結合データの特徴量と前記クエリデータの特徴量との組の類似度である結合類似度を算出する算出ステップと、
    前記複数の文書データのそれぞれについて前記算出ステップにより算出される前記第1類似度及び前記結合類似度に基づき、前記複数の文書データのうち1以上を選択する選択ステップと、
    を有する、推定方法。
  12. クエリデータを取得するとともに、第1要素及び第2要素をそれぞれが有する複数の文書データに含まれ、前記クエリデータに対応する対応文書データから、前記第1要素、前記第2要素、及び前記第1要素と前記第2要素とを結合した結合データを取得する取得手段、
    特徴量抽出モデルを用いて、前記クエリデータと前記対応文書データの前記第1要素との組、前記クエリデータと前記対応文書データの前記第2要素との組、及び前記クエリデータと前記対応文書データの前記結合データとの組のそれぞれから、前記クエリデータの特徴量と前記対応文書データの前記第1要素の特徴量との組、前記クエリデータの特徴量と前記対応文書データの前記第2要素の特徴量との組、及び前記クエリデータの特徴量と前記対応文書データの前記結合データの特徴量との組をそれぞれ抽出する抽出手段、
    前記クエリデータの特徴量と前記対応文書データの前記第1要素の特徴量との組の類似度、前記クエリデータの特徴量と前記対応文書データの前記第2要素の特徴量との組の類似度、及び前記クエリデータの特徴量と前記対応文書データの前記結合データの特徴量との組の類似度が大きくなるように、前記特徴量抽出モデルの学習を実行する学習手段、
    としてコンピュータを機能させるためのプログラム。
  13. 第1要素及び第2要素を有する複数の文書データのそれぞれの前記第1要素から特徴量抽出モデルを用いて抽出された、前記複数の文書データのそれぞれの前記第1要素の特徴量を取得する第1特徴量取得手段、
    前記複数の文書データのそれぞれの前記第1要素と前記第2要素とを結合した結合データから前記特徴量抽出モデルを用いて抽出された、前記複数の文書データのそれぞれの前記結合データの特徴量を取得する結合特徴量取得手段、
    クエリデータから前記特徴量抽出モデルを用いて、前記クエリデータの特徴量を抽出するクエリ特徴量抽出手段、
    前記複数の文書データのそれぞれについて、前記第1要素の特徴量と前記クエリデータの特徴量との組の類似度である第1類似度を算出するとともに、前記結合データの特徴量と前記クエリデータの特徴量との組の類似度である結合類似度を算出する算出手段、
    前記複数の文書データのそれぞれについて前記算出手段により算出される前記第1類似度及び前記結合類似度に基づき、前記複数の文書データのうち1以上を選択する選択手段、
    としてコンピュータを機能させるためのプログラム。

JP2022193049A 2022-12-01 2022-12-01 学習システム、学習方法、推定システム、推定方法及びプログラム Pending JP2024080128A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022193049A JP2024080128A (ja) 2022-12-01 2022-12-01 学習システム、学習方法、推定システム、推定方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022193049A JP2024080128A (ja) 2022-12-01 2022-12-01 学習システム、学習方法、推定システム、推定方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2024080128A true JP2024080128A (ja) 2024-06-13

Family

ID=91431691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022193049A Pending JP2024080128A (ja) 2022-12-01 2022-12-01 学習システム、学習方法、推定システム、推定方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2024080128A (ja)

Similar Documents

Publication Publication Date Title
US9195640B1 (en) Method and system for finding content having a desired similarity
US11762926B2 (en) Recommending web API's and associated endpoints
US8332208B2 (en) Information processing apparatus, information processing method, and program
JP6769140B2 (ja) 学習素材のセグメントのランク付け
US20170228414A1 (en) Generating feature embeddings from a co-occurrence matrix
CN104516635A (zh) 管理内容显示
US20150046462A1 (en) Identifying actions in documents using options in menus
US11681732B2 (en) Tuning query generation patterns
CN112417133A (zh) 排序模型的训练方法和装置
CN110717008B (zh) 基于语意识别的搜索结果排序方法及相关装置
US9720914B2 (en) Navigational aid for electronic books and documents
CN110347806B (zh) 原创文本甄别方法、装置、设备与计算机可读存储介质
JP2024528433A (ja) 地理空間クエリの視覚的自動補完
CN113705198A (zh) 场景图生成方法、装置、电子设备及存储介质
JP2008262506A (ja) 情報抽出システム、情報抽出方法および情報抽出用プログラム
KR102088619B1 (ko) 검색 결과별 가변적 사용자 인터페이스 제공 시스템 및 방법
JP2024080128A (ja) 学習システム、学習方法、推定システム、推定方法及びプログラム
Leporini Google news: how user-friendly is it for the blind?
US11934414B2 (en) Systems and methods for generating document score adjustments
KR20220083332A (ko) 그룹웨어에 특화된 누적특성 데이터 기반 질의 보정 기술이 적용된 챗봇 시스템 및 이에 의한 검색 방법
JP7564400B1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
KR102427890B1 (ko) 콘텐츠 배열을 위한 객체를 제공하는 방법 및 시스템
JP7527581B1 (ja) 情報処理システム、情報処理装置、情報処理方法及びプログラム
EP4379565A1 (en) Dataset ranking based on composite score
Atlam et al. Using Ontology and FA Term Methods to Develop Frameworks for Treating NLP Problems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231214