JP2021124913A - 検索装置 - Google Patents

検索装置 Download PDF

Info

Publication number
JP2021124913A
JP2021124913A JP2020017401A JP2020017401A JP2021124913A JP 2021124913 A JP2021124913 A JP 2021124913A JP 2020017401 A JP2020017401 A JP 2020017401A JP 2020017401 A JP2020017401 A JP 2020017401A JP 2021124913 A JP2021124913 A JP 2021124913A
Authority
JP
Japan
Prior art keywords
distribution
search
unit
question
text data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020017401A
Other languages
English (en)
Inventor
央 倉沢
Hiroshi Kurasawa
央 倉沢
佳徳 礒田
Keitoku Isoda
佳徳 礒田
樹 柴田
Shige Shibata
樹 柴田
映里 松尾
Eri Matsuo
映里 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2020017401A priority Critical patent/JP2021124913A/ja
Publication of JP2021124913A publication Critical patent/JP2021124913A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】入力の内容表現の多様性を考慮した検索を行うことができる検索装置を提供する。【解決手段】情報検索装置100は、ユーザから検索クエリを受け付ける質問入力部101と、検索クエリの意味空間におけるガウス分布を推定する分布推定部102と、予め定められた複数のテキストデータである検索用データに対して、それぞれの意味空間におけるガウス分布を特定するための情報(平均μおよび共分散s)を記憶する第1メモリ部103と、第1メモリ部103に記憶されたテキストデータの意味空間における分布を特定するための上記情報(平均μおよび共分散s)および分布推定部102により推定されたガウス分布に基づいて、検索クエリとの類似度の高いテキストデータを検索する分布検索部104と、分布検索部104で検索した、テキストデータを出力する出力部105と、を備える。【選択図】図1

Description

本発明は、質問に対する回答を提供する検索装置に関する。
顧客応対業務の効率化を目的とし、顧客からの質問に対して適切な回答を提供するQA検索装置が提供されている。このQA検索装置は、1つまたは複数の質問例と回答文とをペアにしたレコード群を記憶する。QA検索装置は、顧客からの入力に類似した質問例を検索し、その回答文を出力する。このQA検索装置における検索手段として文書の分散表現を用いるものが提案されている(非特許文献1)。この従来技術におけるQA検索装置は、入力および質問例に含まれる各単語の意味を多次元空間(意味空間と呼ぶ)におけるベクトルで表現し、入力と質問例との距離を、ベクトル表現された対応単語間距離に基づいて算出し、その距離に基づいて検索を行う。
M. J. Kusner et al., "From word embeddingsto document distances," In Proc. ICML, 2015.http://proceedings.mlr.press/v37/kusnerb15.pdf
一般的に、顧客の検索クエリおよびQA検索装置が記憶する質問例の内容の表現が多様である。例えば、検索クエリの内容の粒度は、顧客によって多様である。上述、非特許文献1に記載の技術では、内容表現の多様性を考慮した検索を行っておらず、適切な検索を行うことが困難であった。
そこで、上述の課題を解決するために、本発明は、入力の内容表現の多様性を考慮した検索を行うことができる検索装置を提供することを目的とする。
本発明は、ユーザから検索クエリを受け付ける質問入力部と、自然言語の意味空間における前記検索クエリの分布を推定する分布推定部と、前記意味空間における予め定められた複数のテキストデータのそれぞれの分布を特定するための情報を記憶する記憶部と、前記記憶部に記憶される前記テキストデータの分布を特定するための情報および前記分布推定部により推定された分布に基づいて、前記検索クエリとの類似度の高いテキストデータを検索する検索部と、前記分布検索部で検索した、テキストデータを出力する出力部と、を備える。
この発明によれば、表現の多様性(例えば、粒度が荒いまたは細かい)の高いユーザの検索クエリに対して、その多様性に沿って適切なテキストデータを検索することができる。
本発明によると、検索クエリの表現の多様性を考慮した検索を行うことができる。
本実施形態の情報検索装置100の機能構成を示すブロック図である。 分布推定処理を説明するための説明図である。 RNNモデルに、系列データを入力し、その出力として平均μおよび共分散sを示した図である。 ガウス分布で表現される意味空間を示す概念図である。 意味空間の具体的な適用例を示す図である。 訓練データの各質問例に対する平均μと共分散sとを示す説明図である。 KLダイバージェンスにより算出した、ユーザ入力と質問例とのスコアテーブルを示す図である。 簡略表現の質問例および詳細表現の質問例を示す具体例を示す図である。 ユーザ入力、簡略表現および詳細表現を分布図で表現した情報(画像)を示す図である。 訓練データの具体例を示す図である。 分布学習部107における学習処理を説明する模式図である。 情報検索装置100の質問例の検索処理を示すフローチャートである。 情報検索装置100における分布推定部102のRNNの学習処理を示すフローチャートである。 本開示の一実施の形態に係る情報検索装置100のハードウェア構成の一例を示す図である。
添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。
図1は、本実施形態の情報検索装置100の機能構成を示すブロック図である。この情報検索装置100は、ユーザ入力である検索クエリの内容の粒度に応じた質問例を検索する装置である。一方で、学習用入力である訓練データに基づいて、内容粒度などの表現の多様性についての分布学習を行う。この情報検索装置100は、質問入力部101、分布推定部102(RNN(Recurrent Neural Network)102aを含む)、第1メモリ103(記憶部)、分布検索部104、出力部105、訓練データ入力部106、および分布学習部107を含んで構成されている。
質問入力部101は、ユーザ端末(図示せず)からユーザにより入力された質問文である検索クエリを受け付ける部分である。質問入力部101は、ネットワーク等の回線を介して、ユーザの入力を受け付けるが、これに限るものではなく、操作部(図示せず)を介して直接ユーザ入力を受け付けてもよい。
分布推定部102は、検索クエリに基づいて、その内容の粒度を推定する部分である。具体的には分布推定部102は、検索クエリの意味を表現する分布を、予め学習された学習モデルであるRNN102aを用いて推定する。ここで分布推定について図2を用いて説明する。図2は、分布推定処理を説明するための説明図である。
以下の入力Aが分布推定処理の対象である。
入力A「オンラインショップで紛失したSIMカードを再発行できますか?」
分布推定部102において、入力Aが形態素解析され、言語で意味を持つ最小単位に分解され、品詞が判別される(処理S101)。
形態素解析結果「オンライン/ショップ/で/紛失/した/SIM/カード/を/再/発行/でき/ます/か/?」
そして、構文・各構造解析が行われ、文節間の係り受けが判別される(処理S102)。図に示されるように、形態素解析結果は、場所および対象で動詞を修飾する文節ごとに分解される。いわゆる日本語の文法におけるデ格、ヲ格などで文節の係り受けを判別している。
そして、格構造正規化処理が行われ、一定ルールで修飾節の並び替えが行われ、系列データとして取得される(処理S103)。図では、対象を示す修飾節「紛失した/SIM/カードを」と、場所を示す修飾節「オンライン/ショップで」との順番が変えられている。一定のルールとは、修飾節の予め定められた順番を示す。図では、場所を示す修飾節を先に、目的を示す修飾節の後になるように定められたルールに従っている。なお、これに限定するものではない。
そして、整形処理が行われ、格構造をもった木構造の根から書き出し処理が行われる(S104)。図では、「再/発行/でき/ます/か/?」を根として、その後ろに、対象を示す修飾節「紛失した/SIM/カードを」、および場所を示す修飾節「オンライン/ショップで」が書き出される。
このようにして、分布推定部102は、入力Aに基づいて正規化された系列データを取得する。さらに、分布推定部102は、系列データを分布学習部107において学習されたRNN102aに入力し、ガウス分布の平均μおよび共分散sを出力する。
このガウス分布の平均μおよび共分散sの出力処理について図を用いて説明する。図3は、RNN102aに、系列データを入力し、その出力として平均μおよび共分散sを示した図である。図3に示されるように、系列データにおける各形態素および制御符号はRNN102aに入力される。ここでの制御符号とは、例えば“{”および “}”のほか、場所の修飾節を示す符号、対象の修飾節を示す符号である。各形態素は、ベクトル情報として入力される。制御符号も同様にベクトル化した情報として入力される。
このRNN102aからの出力は、ガウス分布における平均μおよび共分散sとなるように、RNN102aは学習されている。なお、ガウス分布は、図4に示される分布であり、本実施形態においては、検索クエリの意味内容をガウス分布で表現する。後述する検索用データおよび訓練データも同様である。図4に示されるように、本実施形態においてはガウス分布で表現される意味空間を構成している。この意味空間は、自然言語の意味内容を表すための空間であり、ユーザ入力の意味およびその内容における粒度を表すことができる。図4においては、縦軸を確率密度、横軸を意味の次元としている。横軸の意味の次元における中心軸は、その入力の意味を示す。分布の幅が広いほど、意味内容の粒度が荒いことを示す。逆に、その幅が狭いほど、意味内容の粒度が細かいことを示す。
図5に、その具体的な概念を示す。例えば、図5において、メッセージM1「先月にオンラインショップで買ったスマホの画面が自転車に乗っているときに割れちゃったんだけど、いくらで直せるの?」のガウス分布G1の幅は狭い。これは、その質問内容の粒度が細かいことを示す。一方、メッセージM4「ショップについて教えて」に対応するガウス分布G4は、その幅が広い。これはその質問内容の粒度が荒い(質問の焦点が広い)ことを示している。
本実施形態においては、入力AをRNN102aに入力して、ベクトルではなく、意味空間内におけるガウス分布を平均μと共分散sで表すことで、検索クエリを分布で表現することができる。図5においては、説明の便宜上、意味の次元を2次元で表現しているが、意味の次元は、128次元からなるものである。
第1メモリ103は、検索用データを記憶する部分であり、RNN102aの学習のための訓練データの各質問例に対する平均μと共分散sとを記憶する部分である。第1メモリ103は、訓練データを検索用データとして記憶するとともに、その平均μと、共分散sとを対応付けて記憶する。
図6にその具体例を示す。図に示されるとおり、第1メモリ103は、質問ID、質問例、回答ID、平均μ、共分散s、およびユークリッド距離L2(s)を対応付けて記憶している。質問IDは、質問例に対して付与されたIDである。回答IDは、質問例に対して用意された回答例に対して付与されたIDである。
本実施形態においては、具体的な回答例を省略しているが、他のデータベース(図示せず)において回答IDに紐付けて回答例を記憶している。図6では、質問ID:1に対して、平均μ:[0.8、0.2]、および共分散s:[[0.2,0]、[0,0.18]]が記憶されており、行列の形式で記憶されている。ここでは意味の次元として2次元のガウス分布を想定し、それぞれX軸、Y軸に対する平均μおよび共分散sを示している。
分布検索部104は、分布推定部102により推定されたユーザ入力のガウス分布(平均μおよび共分散s)と、第1メモリ103に記憶されているガウス分布(平均μおよび共分散s)との非対称の類似度を求めることにより、ユーザ入力に最も近い質問例を第1メモリ103から検索する部分である。
非対称の類似度は、距離の公理として定められる4つの条件のうち、非負性(正定値性)(d(x、y)>0)および同一性(x=yである場合、d(x、y)=0)を満たすものであることをいう。対称性(d(x、y)=d(y、x)、および三角不等式(d(x,y)+d(y,z)≧d(x、z))は満たさない。言い換えると、非対称の類似度とは、2つの指標の類似度を計算する際において、その指標を交換して計算した場合に、それぞれの異なる類似度をいう。本実施形態においては、2つの文章は類似しているが、一方の文章は、詳細な文章を示し、他方の文章が、簡略化した文章を示している。
分布検索部104は、類似度を求める際には、以下の式(1)に示されるKLダイバージェンスD(P|Q)を利用する。KL(Kullback-Leibler)ダイバージェンスは、2つの確率分布(ガウス関数)がどの程度似ているかを示す尺度である。
Figure 2021124913

ここではp(x)がユーザ入力のガウス分布を示し、q(x)が質問例のガウス分布を示す。分布検索部104は、それぞれ平均μおよび共分散sで示されるガウス分布(ガウス関数)に基づいてユーザ入力(検索クエリ)Pに対する質問例Qの類似度、および質問例Qに対するユーザ入力Pの類似度を算出する。
図7は、そのKLダイバージェンスにより算出した、ユーザ入力と質問例とのスコアテーブルを示す図である。図に示されるスコア1は、Pをユーザ入力(検索クエリ)、Qを質問例とした場合のスコアである。スコア2は、Pを質問例、Qをユーザ入力とした場合のスコアである。スコア1は、ユーザ入力が質問例よりも詳細であり、かつ類似しているほど値が小さくなるスコアである。これに対してスコア2は、ユーザ入力が質問例よりも簡略であり、かつ類似しているほど値が小さくなるスコアである。それぞれスコア1およびスコア2において、最も小さい値の質問例を抽出することで、類似の質問例を抽出することができる。
分布検索部104は、スコア1が最も小さい質問例ID、およびスコア2が最も小さい質問例IDを選択する。なお、分布検索部104は、スコア1およびスコア2のうち最も小さい質問例IDを選択してもよいし、所定条件(ユーザのFAQに対する練度など)に基づいてスコア1またはスコア2のいずれかから最も小さいスコアの質問例IDを選択してもよい。
出力部105は、分布検索部104により選択された質問例IDに対応する質問例をユーザ端末に送信する部分である。質問例を受信したユーザ端末は、それぞれ簡略表現の質問例および/または詳細表現の質問例をユーザに提示する。図8は、簡略表現の質問例および詳細表現の質問例を示す具体例である。図8(a)は、簡略表現を提示した具体例である。図に示されるとおり、ユーザが“オンラインショップで紛失したSIMカードを再発行できますか?”を入力した場合、“こちらの質問内容で間違いございませんか?「SIMカードの紛失時の手続きをしりたい」”を情報検索装置100は検索して、ユーザ端末に送信する。
図8(b)は、詳細表現を提示した具体例であり、同様に、“こちらの質問内容で間違いございませんか?「オンラインショップで紛失したSIMカードを再発行するのに何営業日必要ですか?」”を情報検索装置100は検索して、ユーザ端末に送信する。
なお、出力部105は、ユーザに応じて簡略表現または詳細表現のいずれかをユーザ端末に送信してもよい。例えば、ユーザがFAQシステムに対して初心者である場合には、簡略表現の質問例を送信する。また、ユーザが上級者である場合には、詳細表現の質問例を送信する。ユーザがFAQに対して初心者であるか、上級者であるかは、ユーザが使用しているFAQシステム(初心者用か上級者用か)に基づいて判断することができる。また、ユーザの所定期間における使用頻度に基づいて、初心者か、上級者かを判断してもよい。また、質問と回答とを繰り返ししていくうちに、質問内容の焦点が絞られてくる場合を想定して、所定回数FAQシステムに対して繰り返しやりとりをした場合には、簡略表現から詳細表現に遷移するよう段階的に質問例を順次出力してもよい。
出力部105は、ユーザ入力、簡略表現および詳細表現を分布図で表現した情報(画像)を出力してもよい。図9は、その具体例を示す図である。図に示されるとおり、分布図により、ユーザ入力、簡略表現および詳細表現の内容の粒度を視覚的に表現することができる。
訓練データ入力部106は、訓練データである入力Bを受け付ける部分である。図10は、訓練データの具体例を示す図である。図に示されるとおり、質問例ID、質問例、および回答IDを対応付けた情報である。これら情報が、第1メモリ103に記憶される。
分布学習部107は、訓練データである入力Bに基づいて、学習モデルであるRNN102aを学習する部分である。分布学習部107は、学習したRNN102aを構成するモデルパラメータを更新する。学習されたモデルパラメータで構成されたRNN102aを用いて、分布推定部102は分布推定を行う。図11に、分布学習部107における学習処理を説明する模式図を示す。
処理S201において、第1メモリ103から訓練用データが3つ選択される。図11では質問例ID:1,2,99の質問例が選択される。三つの質問例のうち、二つはそれぞれの回答IDが同じ質問例が、一つは他2つと回答IDが異なる質問例が、それぞれ選択される。図11では、質問例ID:1、2は、同じ回答を示す回答ID:1が対応付けられ、質問例ID:99は、それらとは異なる回答を示す回答ID:33が対応付けられている。
処理S202において、それぞれの質問例における初期のRNN102aを利用したガウス分布が推定される。図11では、質問例ID:1においては、ガウス関数
Figure 2021124913

を規定するためのガウス分布N(μA、sA)、N(μB、sB)、N(μC、sC)がそれぞれ推定される。また、右辺の筆記体表記のxは実n次元行列ベクトルであり、平均:μ、共分散:sも同様である。
処理S203において、以下の計算によりLossが算出される。例えば、KL(N(μA, sA))は、上述したKLダイバージェンスにより計算されることを示す。KL(N(μB, sB))、KL(N(μC, sC))についても同様である。
Loss(A,B,C)= Max{0, margin+ min{KL(N(μA, sA)|N(μB,sB)), KL(N(μB, sB)|N(μA, sA))}- min{KL(N(μA, sA)|N(μC, sC)), KL(N(μC, sC)|N(μA, sA))} }
margin= 0.1
この計算は、質問例ID:1と、質問例ID:2との距離、および質問例ID:1と質問例ID:99との距離との差を示す。
処理S204において、このLossが最小となるRNN102aのモデルパラメータが、誤差逆伝搬法により算出され、更新される。例えば、RNN102aの要素であるLSTMは、以下の一次関数から構成されており、Lossが最小となるように、モデルパラメータW、R、b、Wf、Rf、bf、Wi、Ri、boiが算出され、更新される。
OutputGate o=W+Rt-1+b
ForgetGate f=W+Rt-1+b
InputGate i=W+Rt-1+b
つぎに、本実施形態の情報検索装置100の動作について説明する。図12は、情報検索装置100の質問例の検索処理を示すフローチャートである。質問入力部101は、検索クエリである入力Aを受け付ける(S301)。分布推定部102は、入力Aの意味空間における分布(ガウス分布)を、分布学習部107で得たRNN102aを用いて推定する(S302)。分布検索部104は、第1メモリ103に記憶された質問例を示す分布のそれぞれ(ガウス分布)とユーザ入力(ガウス関数)との非対称な類似度(図7におけるスコア1およびスコア2)を算出する。そして、分布検索部104は、非対称の類似度のうち一方の類似度において最も小さい類似度に対応する質問例および他方の類似度において最も小さい類似度に対応する質問例を検索する(S303)。出力部105は、検索した入力Aの分布情報および分布検索部104の検索結果(非対称の類似度の基づく質問例)をユーザ端末に出力する(S304)。なお、入力Aの分布情報は必須ではない。また、非対称の類似度に基づく質問例は、いずれか一つでよい。
図13は、情報検索装置100における分布推定部102のRNN102aの学習処理を示すフローチャートである。訓練データ入力部106は、訓練データである入力Bを受け付ける(S401)。ここで機械学習における繰り返し学習数を示すEpochを0とする(S402)。分布学習部107は、訓練データのうち、同一の回答IDが付与された質問例のペアA、Bと、異なる回答IDが付与された質問Cをランダムに選択する(S403)。分布学習部107は、Loss(A,B,C)を計算し、誤差逆伝搬法を用いてRNN102aのモデルパラメータを更新する。それとともにEpochを1インクリメントする(S404)。Epochが閾値を超えた場合には、処理を終了し、超えない場合には、Epochが閾値を超えるまで、繰り返し、質問例のペアを選択して、モデルパラメータの更新処理を繰り返す(S405)。このように更新されたモデルパラメータを有するRNN102aが学習される。検索時においては学習されたRNN102aを用いた検索が行われる。
つぎに、本実施形態の情報検索装置100の作用効果について説明する。情報検索装置100において、ユーザから検索クエリを受け付ける質問入力部101と、検索クエリの意味空間におけるガウス分布を推定する分布推定部102と、予め定められた複数のテキストデータである検索用データに対して、それぞれの意味空間におけるガウス分布を特定するための情報(平均μおよび共分散s)を記憶する第1メモリ103と、第1メモリ103に記憶されたテキストデータの意味空間における分布を特定するための上記情報(平均μおよび共分散s)および分布推定部102により推定されたガウス分布に基づいて、検索クエリとの類似度の高いテキストデータを検索する分布検索部104と、分布検索部104で検索した、テキストデータを出力する出力部105と、を備える。
この構成により、表現の多様性(例えば、粒度が荒いまたは細かい)の高いユーザの検索クエリに対して、その多様性に沿って検索用データから適切なテキストデータである質問例を検索することができる。
一般的に、顧客の検索クエリおよび情報検索装置100が記憶する質問例の内容の粒度は多様であり、詳細な内容から簡略までの内容が混在している。顧客から情報検索装置100への入力が、省略形な表現を含むことなどで、顧客が意図する内容よりも簡略になっている場合がある。一方で、検索クエリに、顧客が質問するに至った詳細な経緯を含むなどして、その検索クエリが、質問例で想定していたよりも詳細である場合がある。
従来においては、入力の内容の粒度に応じた質問例を提示することができなかったが、本実施形態の情報検索装置100においては、上記の通り、検索クエリの表現の多様性に応じた検索を可能にすることができる。
また、この情報検索装置100において、分布検索部104は、ガウス分布の非対称の類似度に基づいて、一または複数のテキストデータを検索する。例えば、分布検索部104は、検索クエリを簡略表現したテキストデータおよび検索クエリを詳細表現したテキストデータのうち少なくとも一つを、検索する。
ここで、本実施形態におけるガウス分布は、意味空間における検索クエリおよびテキストデータの意味を示す情報および当該意味の粒度を示す情報を示している。
この構成により、例えば検索クエリに対して、内容の粒度が荒い質問例および/または内容の粒度が細かい質問例を検索することができる。したがって、検索クエリの表現に応じた質問例の検索が可能になる。
例えば、(1)「A駅の100m以内の範囲でポイントが使えるお店を知りたい」、(2)「ポイントが使えるお店を知りたい」、(3)「ポイントが使える場所を知りたい」の3文は、(1)、(2)、(3)の順に詳細な内容である。ユーザの検索クエリが(2)で、情報検索装置100が記憶している質問例が(1)と(3)であるとき、従来技術では、類似度を基準に(1)および(3)に優先順位を付与して提示していたが、本実施形態の情報検索装置100では、その両方を区別して検索したり、いずれか適切な質問例を検索することができる。
また、分布検索部104は、非対称な分布間距離関数(例えばKLダイバージェンス)を用いて類似度を計算して、検索クエリとの類似度の高いテキストデータを検索する。
この構成により、非対称の類似度を算出することができ、内容の粒度が荒い質問例および/または内容の粒度が細かい質問例を検索することができる。
なお、分布としてガウス分布を例に挙げているがこれに限るものではない。例えば、ベータ分布やガンマ分布というものでも適用可能である。また、類似度判断に際して、非対称な分布間距離関数を利用しているが、これに限るものではない。単純に分布同士の比較対比をしてもよい。
また、本実施形態における情報検索装置100において、分布推定部102は、検索クエリにおける文節間の係り受け関係に基づいて、意味内容が変化しない文節の順序入れ替えで正規化する。
この構成により、類似判断する際の比較対象を統一することができ、その精度を向上させることができる。
また、本実施形態における情報検索装置100において、質問例とその回答とからなる訓練データを受け付ける訓練データ入力部106と、訓練データにおいて、回答が同一の質問例間の非対称な分布間距離関数(例えばKLダイバージェンス)で算出される第1類似度と、回答が同一でない質問例間の非対称な分布間距離関数の第2類似度(KLダイバージェンス)とに基づいて、意味空間における分布を算出するための学習モデルであるRNN102aを学習する分布学習部107と、をさらに備える。そして、分布推定部102は、RNN102aを用いて分布の推定を行う。
その際、第1類似度が第2類似度よりも類似度が高くなるように、学習モデルを学習するとよい。
この構成により、類似度の判断をより精度よく行うことができるRNN102aを構築することができる。すなわち、回答が同一である2つの質問例は同じ内容、または同じ傾向の内容である可能性が高い。一方で、回答が異なる2つの質問例は異なる内容、異なる傾向の内容である可能性が高い。よって、同じような2つの質問例、異なる2つの質問例を、その類似判断において明確となるRNN102aを構築することができる。
学習に際して、分布学習部107は、訓練データにおける文節間の係り受け関係に基づいて、意味内容が変化しない文節の順序入れ替えで正規化すると、より精度良く学習が可能になる。
上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。
例えば、本開示の一実施の形態における情報検索装置100は、本開示の情報検索方法の処理を行うコンピュータとして機能してもよい。図14は、本開示の一実施の形態に係る情報検索装置100のハードウェア構成の一例を示す図である。上述の情報検索装置100は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。情報検索装置100のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
情報検索装置100における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。例えば、上述の分布推定部102、分布検索部104、分布学習部107などは、プロセッサ1001によって実現されてもよい。
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、情報検索装置100の分布推定部102、分布検索部104、分布学習部107は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る情報検索方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。
通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信装置1004は、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。例えば、上述の質問入力部101、出力部105などは、通信装置1004によって実現されてもよい。質問入力部101、出力部105は、物理的に、または論理的に分離された実装がなされてもよいし、分離されていない実装がなされてもよい。
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
また、情報検索装置100は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
情報の通知は、本開示において説明した態様/実施形態に限られず、他の方法を用いて行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。
本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、FRA(Future Radio Access)、NR(new Radio)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE−Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。
本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。例えば、チャネル及びシンボルの少なくとも一方は信号(シグナリング)であってもよい。また、信号はメッセージであってもよい。また、コンポーネントキャリア(CC:Component Carrier)は、キャリア周波数、セル、周波数キャリアなどと呼ばれてもよい。
本開示において使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。
また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。
本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。
「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。
本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
100…情報検索装置、101…質問入力部、102…分布推定部、103…分布検索部、103…第1メモリ、104…分布検索部、105…出力部、106…訓練データ入力部、107…分布学習部。

Claims (10)

  1. ユーザから検索クエリを受け付ける質問入力部と、
    自然言語の意味空間における前記検索クエリの分布を推定する分布推定部と、
    前記意味空間における予め定められた複数のテキストデータのそれぞれの分布を特定するための情報を記憶する記憶部と、
    前記記憶部に記憶される前記テキストデータの分布を特定するための情報および前記分布推定部により推定された分布に基づいて、前記検索クエリとの類似度の高いテキストデータを検索する分布検索部と、
    前記分布検索部で検索した、テキストデータを出力する出力部と、
    を備える検索装置。
  2. 前記検索部は、非対称の類似度に基づいて、一または複数のテキストデータを検索する、請求項1に記載の検索装置。
  3. 前記検索部は、
    前記検索クエリを簡略表現したテキストデータおよび前記検索クエリを詳細表現したテキストデータのうち少なくとも一つを、検索する、
    請求項1または2に記載の検索装置。
  4. 前記分布は、前記検索クエリまたは前記テキストデータの内容の意味を示す情報および当該意味の粒度を示す情報を示す、請求項1〜3のいずれか一項に記載の検索装置。
  5. 前記分布は、ガウス分布である、請求項4に記載の検索装置。
  6. 前記検索部は、非対称な分布間距離関数を用いて類似度を計算して、前記検索クエリとの類似度の高いテキストデータを検索する、請求項1〜5のいずれか一項に記載の検索装置。
  7. 前記分布推定部は、
    前記検索クエリにおける文節間の係り受け関係に基づいて、意味内容が変化しない文節の順序入れ替えで正規化する、
    請求項1〜6のいずれか一項に記載の検索装置。
  8. 質問例とその回答とからなる訓練データを受け付ける訓練データ入力部と、
    前記訓練データにおいて、回答が同一の質問例間の非対称な分布間距離関数で算出される第1類似度と、回答が同一でない質問例間の第2類似度とに基づいて、意味空間における分布を算出するための学習モデルを学習する分布学習部と、
    をさらに備え、
    前記分布推定部は、前記学習モデルを用いて分布の推定を行う、
    請求項1〜7のいずれか一項に記載の検索装置。
  9. 前記第1類似度が前記第2類似度よりも高くなるように、前記学習モデルを学習する、請求項8に記載の検索装置。
  10. 前記分布学習部は、
    前記訓練データにおける前記質問例における文節間の係り受け関係に基づいて、意味内容が変化しない文節の順序入れ替えで正規化する、
    請求項8または9に記載の検索装置。
JP2020017401A 2020-02-04 2020-02-04 検索装置 Pending JP2021124913A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020017401A JP2021124913A (ja) 2020-02-04 2020-02-04 検索装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020017401A JP2021124913A (ja) 2020-02-04 2020-02-04 検索装置

Publications (1)

Publication Number Publication Date
JP2021124913A true JP2021124913A (ja) 2021-08-30

Family

ID=77459015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020017401A Pending JP2021124913A (ja) 2020-02-04 2020-02-04 検索装置

Country Status (1)

Country Link
JP (1) JP2021124913A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022136178A (ja) * 2021-03-03 2022-09-15 株式会社三洋物産 遊技機
JP2022141901A (ja) * 2021-02-22 2022-09-29 株式会社三洋物産 遊技機

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022141901A (ja) * 2021-02-22 2022-09-29 株式会社三洋物産 遊技機
JP2022136178A (ja) * 2021-03-03 2022-09-15 株式会社三洋物産 遊技機

Similar Documents

Publication Publication Date Title
US10846052B2 (en) Community discovery method, device, server and computer storage medium
US20200192727A1 (en) Intent-Based Organisation Of APIs
US11681944B2 (en) System and method to generate a labeled dataset for training an entity detection system
US20190146985A1 (en) Natural language question answering method and apparatus
US9373075B2 (en) Applying a genetic algorithm to compositional semantics sentiment analysis to improve performance and accelerate domain adaptation
CN110555205B (zh) 否定语义识别方法及装置、电子设备、存储介质
JP2020149686A (ja) 画像処理方法、装置、サーバ及び記憶媒体
CN104462056A (zh) 基于深度文档分析的主动知识指导
CN109886311B (zh) 增量聚类方法、装置、电子设备和计算机可读介质
US20210312919A1 (en) Conversation device
JP2021124913A (ja) 検索装置
CN111930891B (zh) 基于知识图谱的检索文本扩展方法及相关装置
CN111435406A (zh) 一种纠正数据库语句拼写错误的方法和装置
JP2019148933A (ja) 要約評価装置、方法、プログラム、及び記憶媒体
JP7054731B2 (ja) 対話システム
JP2020004217A (ja) 情報表示方法、情報表示プログラムおよび情報表示装置
CN111492364B (zh) 数据标注方法、装置及存储介质
US20150154268A1 (en) Method of discovering and exploring feature knowledge
US20230032208A1 (en) Augmenting data sets for machine learning models
CN112989011B (zh) 数据查询方法、数据查询装置和电子设备
WO2020235135A1 (ja) 対話システム
WO2020235136A1 (ja) 対話システム
CN114579580A (zh) 存储数据的方法、查询数据的方法和装置
JP7016405B2 (ja) 対話サーバ
JP2020184313A (ja) テキスト処理方法、装置、デバイス及び記憶媒体