JP6971103B2 - Information processing equipment, information processing methods, and programs - Google Patents
Information processing equipment, information processing methods, and programs Download PDFInfo
- Publication number
- JP6971103B2 JP6971103B2 JP2017175549A JP2017175549A JP6971103B2 JP 6971103 B2 JP6971103 B2 JP 6971103B2 JP 2017175549 A JP2017175549 A JP 2017175549A JP 2017175549 A JP2017175549 A JP 2017175549A JP 6971103 B2 JP6971103 B2 JP 6971103B2
- Authority
- JP
- Japan
- Prior art keywords
- category
- query
- search
- result
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 27
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000012545 processing Methods 0.000 claims description 84
- 239000013598 vector Substances 0.000 claims description 75
- 238000000034 method Methods 0.000 claims description 59
- 238000004458 analytical method Methods 0.000 claims description 27
- 238000006243 chemical reaction Methods 0.000 claims description 24
- 238000012549 training Methods 0.000 claims description 19
- 230000000877 morphologic effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 15
- 238000011156 evaluation Methods 0.000 description 11
- 238000002474 experimental method Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000004044 response Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、情報処理装置、情報処理方法、およびプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
ウェブ検索の分野において、ユーザが入力したキーワード(以下、「クエリ」)に応じて、このクエリに関連する各種商品またはサービスの情報を提供する手法が行われている。また、ユーザが意図する商品またはサービスの情報を高精度で提供するために、機械学習を用いた検索手法の開発も進められている。 In the field of web search, a method of providing information on various products or services related to this query is performed according to a keyword input by a user (hereinafter, "query"). In addition, in order to provide information on products or services intended by users with high accuracy, a search method using machine learning is being developed.
しかしながら、従来の技術では、クエリとの関連度が低く、ユーザが意図しない商品またはサービスの情報が提供される場合があった。また、従来の機械学習を用いた手法は、単純な線形モデルを用いたものであり、クエリに含まれる単語の組み合わせを考慮できていなかった。また、一般的な機械学習の分野において、線形モデルの他、エンコーダ−デコーダモデルを用いる手法の研究が進められているが、ウェブ検索の分野に適用することは想定されていなかった(例えば、特許文献1参照)。 However, in the conventional technique, the relevance to the query is low, and the information of the product or service not intended by the user may be provided. In addition, the conventional method using machine learning uses a simple linear model, and cannot consider the combination of words contained in the query. Also, in the field of general machine learning, research on methods using encoder-decoder models in addition to linear models is underway, but it was not supposed to be applied to the field of web search (for example, patents). See Document 1).
本発明は、このような事情を考慮してなされたものであり、検索精度を向上させることができる情報処理装置、情報処理方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and one of the objects of the present invention is to provide an information processing apparatus, an information processing method, and a program capable of improving search accuracy.
本発明の一態様は、検索に用いられたクエリを解析して、前記クエリを単語に分割する解析部と、前記解析部によって分割された単語を特徴ベクトルに変換する変換部と、学習データにおけるクエリに含まれる単語の特徴ベクトルと、前記学習データにおけるクエリに関連付けされたカテゴリとの関係を学習することにより、前記検索に用いられたクエリと関連付けされるカテゴリを推定する第1推定部とを備える情報処理装置である。 One aspect of the present invention is an analysis unit that analyzes a query used for a search and divides the query into words, a conversion unit that converts the words divided by the analysis unit into feature vectors, and training data. A first estimation unit that estimates the category associated with the query used in the search by learning the relationship between the feature vector of the word included in the query and the category associated with the query in the training data. It is an information processing device provided.
本発明の一態様によれば、検索精度を向上させることができる。 According to one aspect of the present invention, the search accuracy can be improved.
以下、図面を参照して、情報処理装置、情報処理方法、およびプログラムの実施形態について説明する。 Hereinafter, an information processing apparatus, an information processing method, and an embodiment of a program will be described with reference to the drawings.
<1.第1実施形態>
以下、本発明の第1実施形態について説明する。本実施形態の情報処理装置は、検索に用いられたクエリを単語に分割し、この分割された単語を特徴ベクトルに変換し、クエリと関連付けされるカテゴリを推定する。本実施形態における「カテゴリ」とは、検索に用いられたクエリに対して検索結果として提供されるコンテンツの内容(商品またはサービス)が属する分野を示す情報である。本実施形態では、情報処理装置が、商品またはサービスのコンテンツの検索結果を提供する検索サーバである例について説明する。
<1. First Embodiment>
Hereinafter, the first embodiment of the present invention will be described. The information processing apparatus of the present embodiment divides the query used for the search into words, converts the divided words into feature vectors, and estimates the category associated with the query. The "category" in the present embodiment is information indicating a field to which the content (product or service) of the content provided as a search result for the query used for the search belongs. In the present embodiment, an example in which the information processing device is a search server that provides search results for the contents of a product or service will be described.
<1−1.システム構成>
図1は、本実施形態の検索サーバ10(情報処理装置)の使用環境を示す図である。検索サーバ10は、ネットワークNWを介して、端末装置T等と接続されている。ネットワークNWは、例えば、WAN(Wide Area Network)やLAN(Local Area Network)、インターネット、専用回線、無線基地局、プロバイダ等を含む。
<1-1. System configuration>
FIG. 1 is a diagram showing a usage environment of the search server 10 (information processing apparatus) of the present embodiment. The
端末装置Tは、検索サーバ10により提供される検索サービスを利用するユーザによって操作される。端末装置Tは、例えば、パーソナルコンピュータ、スマートフォンなどの携帯電話やタブレット端末、PDA(Personal Digital Assistant)などのコンピュータ装置である。端末装置Tは、ユーザの操作に基づいて動作するブラウザまたはアプリケーションプログラムが、例えば、情報提供を要求するクエリを検索サーバ10に送信し、クエリと関連付けされた情報を検索サーバ10から受信する。
The terminal device T is operated by a user who uses the search service provided by the
検索サーバ10は、端末装置Tから入力されたクエリと関連付けされる検索結果のページ情報を端末装置Tに送信する。検索サーバ10は、クエリと、このクエリと関連付けされたサイトのページを参照するための参照情報とを関連付けた検索データを用いて、検索結果のページ情報を生成する。参照情報は、例えば、URL(Uniform Resource Locator)を含む。
The
検索サーバ10は、例えば、通信部30と、クエリ解析部32(解析部)と、クエリ変換部34(変換部)と、カテゴリ推定部36(第1推定部、学習部)と、検索結果生成部38(生成部)と、記憶部40とを備える。通信部30は、ネットワークNWを介して、端末装置T等と通信する。通信部30は、ネットワークNWを介して、端末装置Tからクエリを受信し、検索結果のページ情報を端末装置Tに送信する。通信部30は、例えば、NIC等の通信インターフェースを含む。
The
クエリ解析部32は、端末装置Tから入力されたクエリを解析して、単語レベルに分割する。クエリ解析部32は、例えば、形態素解析によってクエリを解析し、少なくとも1つの単語に分割する。
The
クエリ変換部34は、クエリ解析部32によって分割された単語の各々を特徴ベクトルに変換する。クエリ変換部34は、分割された単語の各々を、例えば、word2vecと称されているツール(プログラム)を利用して、特徴ベクトルに変換する。word2vecとは、ニューラルネットワークを利用したツールであり、入力されたコーパスに含まれるテキスト情報を、そのテキスト情報の特徴を示す特徴ベクトルに変換して出力する。本実施形態では、word2vecにおいて、クエリの分散表現が事前に学習されているものとする。
The
カテゴリ推定部36は、クエリ変換部34から入力された少なくとも1つの特徴ベクトルと関連付けされるカテゴリを推定する。カテゴリ推定部36は、例えば、再帰型ニューラルネットワーク(RNN:Recurrent Neural Networks)に基づくエンコーダデコーダモデルを用いて、カテゴリを推定する。以下においては、カテゴリ推定部36が、エンコーダデコーダモデルを用いる例について説明する。
The
カテゴリ推定部36は、例えば、エンコーダ42と、デコーダ44とを備える。エンコーダ42およびデコーダ44は、検索に用いられたクエリに含まれる「単語の特徴ベクトル」と、クエリを応じて提供された検索結果ページにおいてユーザが選択した「カテゴリ」との組を学習データとして、学習処理を行う。
The
エンコーダ42は、上述の学習データを用いて学習を行ったモデル(以下、「エンコードモデル」を用いて、クエリ変換部34から入力された少なくとも1つの特徴ベクトルに対してエンコード処理を行う。エンコーダ42は、クエリ変換部34から2以上の特徴ベクトルが入力された場合、第1の特徴ベクトルに対してエンコード処理を行い、次に、第1の特徴ベクトルのエンコード処理結果と、第2の特徴ベクトルとを用いてエンコード処理を行う。エンコーダ42は、エンコード処理を繰り返すことにより得られたエンコード処理結果をデコーダ44に入力する。
The
デコーダ44は、上述の学習データを用いて学習を行ったモデル(以下、「デコードモデル」を用いて、エンコーダ42から入力されたエンコード処理結果に基づいて、クエリの単語に関連付けされるべきカテゴリを推定して出力する。カテゴリは、例えば、ツリー構造を有しており、商品またはサービスが属する分野を階層状に定義する。図2は、カテゴリのツリー構造の一例を示す図である。図2に示す例では、第1階層H1として「メンズファッション」、「レディースファッション」等が定義されている。また、「メンズファッション(第1階層H1)」の下位の第2階層H2として、「メンズシューズ」、「メンズバック」等が定義されている。また、「メンズシューズ(第2階層H2)」の下位の第3階層H3として、「スニーカー」、「ビジネスシューズ」、「サンダル」、「ブーツ」等が定義されている。
The
デコーダ44は、エンコーダ42から入力されるエンコード処理結果(多次元ベクトル)と、図2に示すようなカテゴリのツリー構造との関係を学習する。デコーダ44は、エンコード処理結果に基づいて、クエリの単語に関連付けされるべきカテゴリを推定し、カテゴリのツリー構造における上位の階層から順に出力する。
The
検索結果生成部38は、カテゴリ推定部36によって推定されたカテゴリに基づいて、検索結果である検索結果ページを生成する。検索結果生成部38は、生成した検索結果ページを、通信部30を介して、端末装置Tに送信する。
The search
検索サーバ10の各機能部は、例えば、コンピュータにおいて、CPU(Central Processing Unit)等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
Each functional unit of the
記憶部40は、クエリと、このクエリと関連付けされたサイトのページを参照するための参照情報とを関連付けた検索データD1、カテゴリのツリー構造を示すカテゴリデータD2等を記憶する。記憶部40は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ、またはこれらのうち複数が組み合わされたハイブリッド型記憶装置等により実現される。また、記憶部40の一部または全部は、NASや外部のストレージサーバ等、検索サーバ10がアクセス可能な外部装置であってもよい。
The
<1−2.学習処理>
以下において、検索サーバ10の学習処理について説明する。図3は、検索サーバ10の学習処理の流れの一例を示す図である。カテゴリ推定部36は、クエリに含まれる単語の特徴ベクトルと、このクエリと関連付けされるカテゴリとの関係を学習する。
<1-2. Learning process>
Hereinafter, the learning process of the
まず、検索サーバ10のカテゴリ推定部36に、学習データを入力する(S101)。学習データとしては、例えば、検索サービスが利用された際のログデータを利用する。学習データとしては、例えば、検索に用いられたクエリに含まれる「単語の特徴ベクトル」と、クエリを応じて提供された検索結果ページにおいてユーザが選択した「カテゴリ」との組を利用する。
First, the learning data is input to the
次に、カテゴリ推定部36のエンコーダ42が「クエリに含まれる単語の特徴ベクトル」をエンコードし(S103)、デコーダ44が、エンコーダ42によるエンコード処理結果をデコードした際に(S105)、このクエリと組となる「カテゴリ」が出力されるように、このエンコーダモデルおよびデコーダモデルにおけるパラメータを調整する(S107)。
Next, when the
デコーダ44は、例えば、このデコード処理の結果として、第1階層として定義されたカテゴリごとに、クエリの単語との関連度合を示すスコアを算出する。デコーダ44は、学習データにおいてクエリと組となるカテゴリのスコアが高くなるように、デコーダモデルにおけるパラメータを調整する。カテゴリ推定部36は、例えば、逆伝播法により、パラメータの調整を行ってよい。第2階層以下の階層についても、同様な処理を行う。以上により、本フローチャートの処理を終了する。
For example, as a result of this decoding process, the
尚、ログデータにおいて、あるクエリに対して複数存在するカテゴリのデータのうち、クリック数の少ないカテゴリのデータ(クリック数(選択された回数)が所定の閾値以下であるデータ)を除外し、除外後のログデータを学習データとするようにしてもよい。これにより、エンコーダモデルおよびデコーダモデルの精度を向上させることができる。 In addition, in the log data, among the data of multiple categories existing for a certain query, the data of the category with a small number of clicks (data in which the number of clicks (selected number of times) is equal to or less than a predetermined threshold value) is excluded and excluded. The later log data may be used as training data. This makes it possible to improve the accuracy of the encoder model and the decoder model.
<1−3.カテゴリ推定処理>
以下において、検索サーバ10のカテゴリ推定処理について説明する。図4は、検索サーバ10のカテゴリ推定処理の流れの一例を示す図である。
<1-3. Category estimation process>
Hereinafter, the category estimation process of the
まず、クエリ解析部32は、通信部30を介して、端末装置Tから入力されたクエリを取得する(S201)。次に、クエリ解析部32は、端末装置Tから入力されたクエリを解析して、単語レベルに分割する(S203)。クエリ解析部32は、例えば、形態素解析によってクエリを解析し、単語レベルに分割する。
First, the
次に、クエリ変換部34は、クエリ解析部32によって分割された単語の各々を特徴ベクトルに変換する(S205)。クエリ変換部34は、分割された単語の各々を、例えば、word2vecを利用して、特徴ベクトルに変換する。
Next, the
次に、エンコーダ42は、クエリ変換部34によって変換された特徴ベクトルのうち、第1の単語の特徴ベクトルに対してエンコード処理を行う(S207)。次に、エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了したか否かを判定する(S209)。
Next, the
エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了していないと判定した場合、クエリ変換部34によって変換された特徴ベクトルのうち、第2の単語の特徴ベクトルと、第1の単語の特徴ベクトルに対するエンコード処理結果とを用いて、再度、エンコード処理を行う(S207)。次に、エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了したか否かを判定する(S209)。以下、全ての単語の特徴ベクトルに対するエンコード処理が完了するまで、同様な処理を繰り返す。エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了したと判定した場合、上述のエンコード処理を繰り返した結果として得られたエンコード処理結果をデコーダ44に入力する。
When the
次に、デコーダ44は、エンコーダ42から入力されたエンコード処理結果に対して、デコード処理を行う(S211)。デコーダ44は、このデコード処理の結果として、第1階層として定義されたカテゴリごとに、クエリの単語との関連度合を示すスコアを算出する。例えば、最も高いスコアのカテゴリが、クエリと関連付けされるカテゴリとして推定される。
Next, the
次に、デコーダ44は、最下層のカテゴリの推定が完了したか否かを判定する(S213)。デコーダ44は、最下層のカテゴリの推定が完了していないと判定した場合、推定されたカテゴリの情報と、デコード処理結果とを用いて、再度、デコード処理を行う(S211)。次に、エンコーダ42は、最下層のカテゴリの推定が完了したか否かを判定する(S213)。以下、最下層のカテゴリの推定が完了するまで、同様な処理を繰り返す。デコーダ44は、最下層のカテゴリの推定が完了したと判定した場合、推定したカテゴリの情報を検索結果生成部38に入力する。
Next, the
図5は、カテゴリ推定部36におけるカテゴリ推定処理を模式的に示す図である。図5に示す例では、クエリ解析部32は、端末装置Tから入力されたクエリ「メンズ スニーカー A社」を、「メンズ」、「スニーカー」、および「A社」という3単語に分割し、クエリ変換部34が、これらの3つの単語の各々を特徴ベクトルに変換して、カテゴリ推定部36に入力する例を示す。
FIG. 5 is a diagram schematically showing the category estimation process in the
まず、エンコーダ42は、第1の単語「メンズ」の特徴ベクトルに対してエンコード処理を行い、第1のエンコード処理結果R1を得る。次に、エンコーダ42は、第2の単語「スニーカー」の特徴ベクトルと、第1のエンコード処理結果R1とを用いてエンコード処理を行い、第2のエンコード処理結果R2を得る。次に、エンコーダ42は、第3の単語「A社」の特徴ベクトルと、第2のエンコード処理結果R2とを用いてエンコード処理を行い、第3のエンコード処理結果R3を得る。エンコーダ42は、第3のエンコード処理結果R3をデコーダ44に入力する。
First, the
次に、デコーダ44は、エンコーダ42から入力された第3のエンコード処理結果R3に対してデコード処理を行う。ここで、デコーダ44は、最上位層(第1階層H1)のカテゴリごとに、「メンズ」、「スニーカー」、および「A社」という3単語との関連度合を示すスコアを算出する。デコーダ44は、カテゴリごとに算出したスコアの内、最も高いスコアを示すカテゴリを、「メンズ」、「スニーカー」、および「A社」という3単語と関連付けされる第1のカテゴリ(この例では「メンズファッション」)と推定する。
Next, the
次に、デコーダ44は、第3のエンコード処理結果R3に対するデコード処理結果(第1のデコード処理結果R4)と、推定されたカテゴリ「メンズファッション」を示すデータとを用いてデコード処理を行う。ここで、デコーダ44は、推定されたカテゴリ「メンズファッション(第1階層)」の下位に位置する第2階層H2のカテゴリごとに、「メンズ」、「スニーカー」、および「A社」という3単語との関連度合を示すスコアを算出する。デコーダ44は、カテゴリごとに算出したスコアの内、最も高いスコアを示すカテゴリを、「メンズ」、「スニーカー」、および「A社」という3単語と関連付けされる第2のカテゴリ(この例では「メンズシューズ」)と推定する。
Next, the
次に、デコーダ44は、第1のデコード処理結果R4に対するデコード処理結果(第2のデコード処理結果R5)と、推定されたカテゴリ「メンズシューズ」を示すデータとを用いてデコード処理を行う。ここで、デコーダ44は、推定されたカテゴリ「メンズシューズ(第2階層)」の下位に位置する第3階層H3のカテゴリごとに、「メンズ」、「スニーカー」、および「A社」という3単語との関連度合を示すスコアを算出する。デコーダ44は、カテゴリごとに算出したスコアの内、最も高いスコアを示すカテゴリを、「メンズ」、「スニーカー」、および「A社」という3単語と関連付けされる第3のカテゴリ(この例では「スニーカー」)と推定する。
Next, the
図5に示す以上の処理により、「メンズ」、「スニーカー」、および「A社」という3単語と関連付けされるカテゴリとして、「メンズファッション(第1階層)」、「メンズシューズ(第2階層)」、および「スニーカー(第3階層)」というカテゴリの推定結果が得られる。 By the above processing shown in FIG. 5, the categories associated with the three words "men's", "sneakers", and "company A" are "men's fashion (first layer)" and "men's shoes (second layer)". , And the estimation results of the category "sneakers (third layer)" are obtained.
次に、検索結果生成部38は、デコーダ44から入力されたカテゴリの推定結果に基づいて、検索結果である検索結果ページを生成し、端末装置Tに送信する(S215)。図6は、検索結果ページP1の一例を示す図である。図6に示す例において、検索結果生成部38は、推定された第3階層のカテゴリである「スニーカー」をページ内の最も視認性の高い位置に配置した検索結果ページP1を生成する。
Next, the search
尚、図6に示す例では、推定されたカテゴリである「スニーカー」に加え、推定された第2階層のカテゴリである「メンズシューズ(第2階層)」の下位のその他のカテゴリである「ブーツ」、「サンダル」、「ビジネスシューズ」等が、例えば、スコアが高い順に並べられて表示されている。検索結果生成部38は、生成した検索結果ページP1を、通信部30を介して、端末装置Tに送信する。端末装置Tのユーザは、端末装置Tを操作して検索結果ページP1に含まれる1つのカテゴリを選択することで、ユーザの意図に応じた検索結果を取得することができる。以上により、本フローチャートの処理を終了する。
In the example shown in FIG. 6, in addition to the estimated category "sneakers", the other category "boots" under the estimated second layer category "men's shoes (second layer)". , "Sandals", "business shoes", etc. are displayed in descending order of score, for example. The search
尚、図6に示す例では、推定されたカテゴリをユーザに選択させる検索結果ページP1を端末装置Tに送信する例を説明した。しかしながら、検索結果生成部38は、推定されたカテゴリをユーザに選択させる検索結果ページP1に代えて、推定されたカテゴリに関連する商品またはサービスのページを端末装置Tに送信するようにしてもよい。
In the example shown in FIG. 6, an example of transmitting the search result page P1 that causes the user to select the estimated category to the terminal device T has been described. However, the search
<1−3.評価実験>
本実施形態における検索サーバ10のカテゴリ推定精度を評価するために、図7に示すような3つのモデルを用いた評価実験を行った。モデル1は、本実施形態の検索サーバ10で使用するエンコーダデコーダモデルである。モデル2は、従来技術の線形分類器を用いた線形モデルである。モデル3は、従来技術のログに基づく(実績ベース)モデルである。このモデル3では、検索ログにおいてクリック数の多いカテゴリが選択される。この評価実験では、検索に実際に利用されたに応じて提供された検索結果ページにおいてユーザがクリックしたカテゴリのうち、クリック数が最も多いカテゴリを「正解カテゴリ」とした。この評価実験では、各モデルを利用したカテゴリ推定処理を行う検索サーバ10に対して、検索に実際に利用されたクエリを入力し、検索サーバ10によって推定されたカテゴリと、正解カテゴリとの一致率を算出した。
<1-3. Evaluation experiment>
In order to evaluate the category estimation accuracy of the
図8は、上述の評価実験の結果を示す図である。図8に示すように、第1階層のカテゴリ、第2階層のカテゴリ、および第3階層のカテゴリのいずれにおいても、モデル3(ログモデル)を用いた推定結果の一致率が最も高く、次に、モデル1(エンコーダデコーダモデル)を用いた推定結果の一致率が高く、モデル2(線形モデル)を用いた推定結果の一致率が最も低かった。 FIG. 8 is a diagram showing the results of the above-mentioned evaluation experiment. As shown in FIG. 8, in all of the first layer category, the second layer category, and the third layer category, the matching rate of the estimation result using the model 3 (log model) is the highest, followed by. , The matching rate of the estimation result using the model 1 (encoder decoder model) was high, and the matching rate of the estimation result using the model 2 (linear model) was the lowest.
また、図9は、評価実験のクリック数別での一致率の比較結果を示す図である。図9に示すように、いずれのクリック数においても、モデル3を用いた推定結果の一致率が最も高く、次に、モデル1を用いた推定結果の一致率が高く、モデル2を用いた推定結果の一致率が最も低かった。クリック数が少ない場合においても(いわゆるテールクエリにおいても)、モデル3を用いた推定結果の一致率が最も高いことが分かった。 Further, FIG. 9 is a diagram showing a comparison result of the agreement rate for each number of clicks in the evaluation experiment. As shown in FIG. 9, for any number of clicks, the matching rate of the estimation result using the model 3 is the highest, then the matching rate of the estimation result using the model 1 is the highest, and the estimation using the model 2 is performed. The concordance rate of the results was the lowest. It was found that even when the number of clicks was small (even in the so-called tail query), the matching rate of the estimation results using Model 3 was the highest.
この評価実験に使用したモデル1では、クリック頻度を考慮していないため、クリック数が多いカテゴリも、クリック数が少ないカテゴリも同じように処理されるため、学習データに含まれるノイズに弱いことが想定される。 In model 1 used in this evaluation experiment, since the click frequency is not taken into consideration, the category with a large number of clicks and the category with a small number of clicks are processed in the same way, so that they are vulnerable to noise contained in the training data. is assumed.
また、モデル1を用いて推定されたカテゴリは、検索ログにおける正解カテゴリとは異なっていたものの、正しい推定処理が行われていると判断されてよいものも含まれていた。図10は、モデル1を用いて推定されたカテゴリの一例を示す図である。図10に示すように、例えば、「新婚 プレゼント」というクエリに対して、モデル1を用いて推定されたカテゴリはキッチン用品に関連するカテゴリであったのに対して、正解カテゴリはゲームに関連するカテゴリであった。これはクエリの多義性に起因するものであり、このようなモデル1の推定結果は正しいと判断してもよいと考えらえる。 Further, although the categories estimated using the model 1 were different from the correct answer categories in the search log, there were some categories that could be judged to have been correctly estimated. FIG. 10 is a diagram showing an example of a category estimated using the model 1. As shown in FIG. 10, for example, for the query "newlywed gift", the category estimated using model 1 was the category related to kitchen utensils, while the correct answer category was related to the game. It was a category. This is due to the ambiguity of the query, and it can be considered that the estimation result of such model 1 may be judged to be correct.
また、例えば、「大きい 財布 通帳 入る」というクエリに対して、モデル1を用いて推定されたカテゴリはレディースファッションに関連するカテゴリであったのに対して、正解カテゴリはメンズファッションに関連するカテゴリであった。これは、商品に関連するカテゴリが重複して存在することに起因するものであり、このようなモデル1の推定結果は正しいと判断してもよいと考えらえる。 Also, for example, in response to the query "Enter a large wallet passbook", the category estimated using Model 1 was a category related to women's fashion, while the correct answer category was a category related to men's fashion. there were. This is due to the fact that the categories related to the products are duplicated, and it can be considered that the estimation result of the model 1 may be judged to be correct.
また、例えば、「携帯 電話 かわいい ストラップ」というクエリに対して、モデル1を用いて推定されたカテゴリはスマートフォンに関連するカテゴリであったのに対して、正解カテゴリはレディースファッションに関連するカテゴリであった。これは、クエリに対するカテゴリ選択の困難性に起因するものであり、このようなモデル1の推定結果は正しいと判断してもよいと考えらえる。 Also, for example, for the query "mobile phone cute strap", the category estimated using model 1 was the category related to smartphones, while the correct answer category was the category related to ladies fashion. rice field. This is due to the difficulty of category selection for the query, and it can be considered that such an estimation result of Model 1 may be judged to be correct.
その他、モデル1の推定処理が正解ではないと判断されなかった例として、クエリ解析部32によるクエリに対する形態素解析が適切でなかった場合や、クエリに含まれる特定の単語がカテゴリ推定に大きな影響を及ぼしその他の単語との関連が適切に評価されなかった場合等があった。
In addition, as an example in which the estimation process of model 1 is not determined to be the correct answer, the morphological analysis for the query by the
上述のような、モデル1を用いて推定されたカテゴリに関して、検索ログにおける「正解カテゴリ」とは異なっていたものの、正しい推定処理が行われていると判断してよいものを考慮すると、モデル1における第1階層のカテゴリの一致率は、0.9238(92.38[%])となった。この点を考慮すると、本実施形態の検索サーバ10におけるエンコーダデコーダモデルを用いたカテゴリ推定の精度は高いと判断できる。
Regarding the category estimated using model 1 as described above, although it is different from the "correct answer category" in the search log, considering that it can be judged that the correct estimation process is performed, model 1 The matching rate of the categories in the first layer was 0.9238 (92.38 [%]). Considering this point, it can be determined that the accuracy of category estimation using the encoder / decoder model in the
また、モデル3を用いた推定処理における、クエリに対する検索ログのカバレッジは、全体で0.3671であった。このため、モデル3を用いた場合、クエリが検索ログに存在していないと適切なカテゴリの推定が行えない場合がある。一方、モデル1を用いた推定では、クエリが検索ログに存在しない場合であっても、適切にカテゴリの推定を行うことができる。例えば、「メンズ、スニーカー、B社」というクエリの学習が行われていない場合であっても、「メンズ、スニーカー、A社」というクエリの学習が行われおり、かつ、「B社」と「A社」とがベクトル表現上で近い単語であるという学習が行われていれば、「メンズ、スニーカー、B社」に対するカテゴリを適切に推定することが可能である。 In addition, the coverage of the search log for the query in the estimation process using the model 3 was 0.3671 as a whole. Therefore, when the model 3 is used, it may not be possible to estimate an appropriate category unless the query exists in the search log. On the other hand, in the estimation using the model 1, even if the query does not exist in the search log, the category can be estimated appropriately. For example, even if the query "Men's, sneakers, company B" is not learned, the query "Men's, sneakers, company A" is learned, and "Company B" and "Company B" are learned. If it is learned that "Company A" is a close word in the vector expression, it is possible to appropriately estimate the category for "Men's, sneakers, Company B".
以上において説明した本実施形態の検索サーバ10によれば、クエリと関連付けされるカテゴリを適切に推定でき、さらには、検索精度を向上させることができる。また、本実施形態の検索サーバ10によれば、過去に検索に用いられたことのない未知のクエリが入力された場合であっても適切にカテゴリの推定を行うことができる。
According to the
尚、エンコーダ42のエンコード処理結果に基づいて、検索サーバ10に対する端末装置Tを操作するユーザからのアクセスの一まとまりのセッションの切れ目を判定する判定部さらに設けてもよい。例えば、エンコード処理結果が示すベクトルのベクトル座標空間上の位置が大きく変化した場合に、ユーザからのアクセスのセッションが切り替わったと判定するようにしてよい。
It should be noted that a determination unit for determining the break of a set of sessions of access from the user who operates the terminal device T to the
<2.第2実施形態>
以下、本発明の第2実施形態について説明する。本実施形態の情報処理装置(検索サーバ)は、第1実施形態と比較して、エンコーダデコーダモデルに基づくカテゴリ推定処理と、ログデータに基づくカテゴリ推定処理との両方を行う点が異なる。このため、構成などについては第1実施形態で説明した図および関連する記載を援用し、詳細な説明を省略する。
<2. 2nd Embodiment>
Hereinafter, a second embodiment of the present invention will be described. The information processing apparatus (search server) of the present embodiment is different from the first embodiment in that it performs both the category estimation process based on the encoder decoder model and the category estimation process based on the log data. Therefore, for the configuration and the like, the drawings and related descriptions described in the first embodiment will be referred to, and detailed description will be omitted.
<2−1.システム構成>
図11は、本実施形態の検索サーバ11の機能ブロック図である。検索サーバ11は、第1実施形態の検索サーバ10の構成要素に加えて、例えば、クエリ判定部46と、第2カテゴリ推定部48(第2推定部)とをさらに備える。
<2-1. System configuration>
FIG. 11 is a functional block diagram of the
クエリ判定部46は、記憶部40に記憶された検索ログを参照し、端末装置Tから入力されたクエリが、過去の検索ログに存在しているか否かを判定する。検索サーバ11では、クエリ判定部46が端末装置Tから入力されたクエリが過去の検索ログに存在していないと判定した場合、第1実施形態と同様なエンコーダデコーダモデルに基づくカテゴリ推定処理を行う。一方、検索サーバ11では、クエリ判定部46が端末装置Tから入力されたクエリが過去の検索ログに存在していると判定した場合、ログデータに基づくカテゴリ推定処理を行う。
The
第2カテゴリ推定部48は、例えば、記憶部40に記憶された検索ログデータD3を参照し、カテゴリを推定する。第2カテゴリ推定部48は、例えば、記憶部40に記憶された検索ログデータD3において、クリック数が最も多いカテゴリを選択する。図12は、検索ログデータD3の一例を示す図である。図12において、クエリが「レディース B社」の場合、第1階層のカテゴリ1が「レディースファッション」であり、第2階層のカテゴリ2が「財布・小物」であり、第3階層のカテゴリ3が「財布」であるカテゴリのクリック数(256999)が最も多い。このため、クエリが「レディース B社」の場合、第2カテゴリ推定部48は、このクエリに関連付けされるカテゴリとして、第1階層のカテゴリ1が「レディースファッション」であり、第2階層のカテゴリ2が「財布・小物」であり、第3階層のカテゴリ3が「財布」を推定する。
The second
<2−2.カテゴリ推定処理>
以下において、検索サーバ11のカテゴリ推定処理について説明する。図13は、検索サーバ11のカテゴリ推定処理の流れの一例を示す図である。
<2-2. Category estimation process>
Hereinafter, the category estimation process of the
まず、クエリ解析部32は、通信部30を介して、端末装置Tから入力されたクエリを取得する(S301)。次に、クエリ判定部46は、記憶部40に記憶された検索ログを参照し、端末装置Tから入力されたクエリが、過去の検索ログに存在しているか否かを判定する(S303)。
First, the
クエリ判定部46が端末装置Tから入力されたクエリが過去の検索ログに存在していると判定した場合、第2カテゴリ推定部48は、記憶部40に記憶された検索ログデータD3を参照し、カテゴリを推定する(S305)。第2カテゴリ推定部48は、推定したカテゴリの情報を検索結果生成部38に入力する。
When the
一方、クエリ判定部46が端末装置Tから入力されたクエリが過去の検索ログに存在しないと判定した場合、クエリ解析部32は、端末装置Tから入力されたクエリを解析して、単語レベルに分割する(S307)。次に、クエリ変換部34は、クエリ解析部32によって分割された単語の各々を特徴ベクトルに変換する(S309)。
On the other hand, when the
次に、エンコーダ42は、クエリ変換部34によって変換された特徴ベクトルのうち、第1の単語の特徴ベクトルに対してエンコード処理を行う(S311)。次に、エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了したか否かを判定する(S313)。
Next, the
エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了していないと判定した場合、クエリ変換部34によって変換された特徴ベクトルのうち、第2の単語の特徴ベクトルと、第1の単語の特徴ベクトルに対するエンコード処理結果とを用いて、再度、エンコード処理を行う(S311)。次に、エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了したか否かを判定する(S313)。以下、全ての単語の特徴ベクトルに対するエンコード処理が完了するまで、同様な処理を繰り返す。エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了したと判定した場合、上述のエンコード処理を繰り返した結果として得られたエンコード処理結果をデコーダ44に入力する。
When the
次に、デコーダ44は、エンコーダ42から入力されたエンコード処理結果に対して、デコード処理を行う(S315)。次に、デコーダ44は、最下層のカテゴリの推定が完了したか否かを判定する(S317)。デコーダ44は、最下層のカテゴリの推定が完了していないと判定した場合、推定されたカテゴリの情報と、デコード処理結果とを用いて、再度、デコード処理を行う(S315)。次に、エンコーダ42は、最下層のカテゴリの推定が完了したか否かを判定する(S317)。以下、最下層のカテゴリの推定が完了するまで、同様な処理を繰り返す。デコーダ44は、最下層のカテゴリの推定が完了したと判定した場合、推定したカテゴリの情報を検索結果生成部38に入力する。
Next, the
次に、検索結果生成部38は、デコーダ44または第2カテゴリ推定部48から入力されたカテゴリの推定結果に基づいて、検索結果である検索結果ページを生成し、端末装置Tに送信する(S319)。以上により、本フローチャートの処理を終了する。
Next, the search
以上において説明した本実施形態の検索サーバ11によれば、クエリと関連付けされるカテゴリを適切に推定でき、さらには、検索精度を向上させることができる。また、本実施形態の検索サーバ11によれば、端末装置Tから入力されたクエリが過去の検索ログに存在していない場合、エンコーダデコーダモデルに基づくカテゴリ推定処理を行い、端末装置Tから入力されたクエリが過去の検索ログに存在している場合、ログデータに基づくカテゴリ推定処理を行うことで、カテゴリの推定精度をさらに向上させることができる。
According to the
<3.第3実施形態>
以下、本発明の第3実施形態について説明する。本実施形態の情報処理装置(検索サーバ)は、第1実施形態と比較して、1つのエンコーダと、複数の推定部(デコーダ)とを備える点が異なる。このため、構成などについては第1実施形態で説明した図および関連する記載を援用し、詳細な説明を省略する。
<3. Third Embodiment>
Hereinafter, a third embodiment of the present invention will be described. The information processing apparatus (search server) of the present embodiment is different from the first embodiment in that it includes one encoder and a plurality of estimation units (decoders). Therefore, for the configuration and the like, the drawings and related descriptions described in the first embodiment will be referred to, and detailed description will be omitted.
<3−1.システム構成>
図14は、本実施形態の検索サーバ12の機能ブロック図である。検索サーバ12は、第1実施形態の検索サーバ10のカテゴリ推定部36に代えて、例えば、1つのエンコーダ50と、3つの推定部(カテゴリ推定部52、価格帯推定部54、ブランド推定部56)とを備える。
<3-1. System configuration>
FIG. 14 is a functional block diagram of the
エンコーダ50は、学習データを用いてエンコードモデルを用いて、クエリ変換部34から入力された少なくとも1つの特徴ベクトルに対してエンコード処理を行う。エンコーダ50は、クエリ変換部34から2以上の特徴ベクトルが入力された場合、1つ目の特徴ベクトルに対してエンコード処理を行い、次に、1つ目の特徴ベクトルのエンコード処理結果と、2つ目の特徴ベクトルとを用いてエンコード処理を行う。エンコーダ42は、エンコード処理を繰り返すことにより得られたエンコード処理結果を、カテゴリ推定部52、価格帯推定部54、およびブランド推定部56に入力する。
The
カテゴリ推定部52は、学習データを用いて学習を行ったデコードモデルを用いて、エンコーダ50から入力されたエンコード処理結果に対してデコード処理を行い、クエリの単語に関連付けされるべきカテゴリを推定して検索結果生成部38に入力する。
The
価格帯推定部54は、学習データを用いて学習を行ったデコードモデルを用いて、エンコーダ50から入力されたエンコード処理結果に対してデコード処理を行い、クエリの単語に関連付けされるべき商品またはサービスの価格帯を推定して検索結果生成部38に入力する。価格帯推定部54の学習データは、例えば、検索に用いられたクエリに含まれる「単語の特徴ベクトル」と、クエリを応じて提供された検索結果ページにおいてユーザが選択した「商品またはサービスの価格」との組を利用する。
The price
ブランド推定部56は、学習データを用いて学習を行ったデコードモデルを用いて、エンコーダ50から入力されたエンコード処理結果に対してデコード処理を行い、クエリの単語に関連付けされるべき商品またはサービスのブランドを推定して検索結果生成部38に入力する。ブランド推定部56の学習データは、例えば、検索に用いられたクエリに含まれる「単語の特徴ベクトル」と、クエリを応じて提供された検索結果ページにおいてユーザが選択した「商品またはサービスのブランド」との組を利用する。
The
検索結果生成部38は、カテゴリ推定部52から入力されたカテゴリの推定結果、価格帯推定部54から入力された価格帯の推定結果、およびブランド推定部56から入力されたブランドの推定結果に基づいて、検索結果である検索結果ページを生成し、端末装置Tに送信する。
The search
以上において説明した本実施形態の検索サーバ12によれば、クエリと関連付けされるカテゴリを適切に推定でき、さらには、検索精度を向上させることができる。また、本実施形態の検索サーバ12によれば、カテゴリ推定部52から入力されたカテゴリの推定結果、価格帯推定部54から入力された価格帯の推定結果、およびブランド推定部56から入力されたブランドの推定結果に基づいて、検索結果である検索結果ページを生成するため、さらにユーザの意図に応じた検索結果ページを提供することができる。
According to the
尚、カテゴリ推定部52、価格帯推定部54、およびブランド推定部56に加えてあるいは代えて、他の特徴を推定する推定部を設けてもよい。
In addition to or in place of the
以上において説明した実施形態によれば、検索に用いられたクエリを解析して、前記クエリを単語に分割する解析部と、前記解析部によって分割された単語を特徴ベクトルに変換する変換部と、学習データにおけるクエリに含まれる単語の特徴ベクトルと、前記学習データにおけるクエリに関連付けされたカテゴリとの関係を学習することにより、前記検索に用いられたクエリと関連付けされるカテゴリを推定する第1推定部とを備えることで、検索精度を向上させることができる。 According to the embodiment described above, an analysis unit that analyzes the query used for the search and divides the query into words, a conversion unit that converts the words divided by the analysis unit into feature vectors, and a conversion unit. First estimation to estimate the category associated with the query used in the search by learning the relationship between the feature vector of the word included in the query in the training data and the category associated with the query in the training data. By providing a unit, the search accuracy can be improved.
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.
10、11、12…検索サーバ(情報処理装置)
30…通信部
32…クエリ解析部(解析部)
34…クエリ変換部(変換部)
36…カテゴリ推定部(第1推定部、学習部)
38…検索結果生成部(生成部)
40…記憶部
42…エンコーダ
44…デコーダ
46…クエリ判定部(判定部)
48…第2カテゴリ推定部(第2推定部)
50…エンコーダ
52…カテゴリ推定部
54…価格帯推定部
56…ブランド推定部
10, 11, 12 ... Search server (information processing device)
30 ...
34 ... Query conversion unit (conversion unit)
36 ... Category estimation unit (1st estimation unit, learning unit)
38 ... Search result generation unit (generation unit)
40 ...
48 ... Second category estimation unit (second estimation unit)
50 ...
Claims (12)
前記解析部によって分割された単語を特徴ベクトルに変換する変換部と、
学習データにおけるクエリに含まれる単語の特徴ベクトルと、前記学習データにおけるクエリに関連付けされたカテゴリとの関係を学習することにより、前記検索に用いられたクエリと関連付けされるカテゴリを推定する第1推定部と
を備え、
前記第1推定部は、
前記単語の特徴ベクトルに対してエンコード処理を行うエンコーダと、
前記エンコーダの処理結果に対してデコード処理を行い、前記検索に用いられたクエリと関連付けされるカテゴリを出力するデコーダと、
を備え、
前記デコーダは、前記エンコーダの処理結果に対して第1のデコード処理を行って第1のカテゴリを出力し、前記第1のデコード処理の結果に対して第2のデコード処理を行って第2のカテゴリを出力する、
情報処理装置。 An analysis unit that analyzes the query used for the search and divides the query into words.
A conversion unit that converts words divided by the analysis unit into feature vectors, and a conversion unit.
The first estimation that estimates the category associated with the query used in the search by learning the relationship between the feature vector of the word included in the query in the training data and the category associated with the query in the training data. With a department ,
The first estimation unit is
An encoder that performs encoding processing on the feature vector of the word,
A decoder that performs decoding processing on the processing result of the encoder and outputs a category associated with the query used in the search.
Equipped with
The decoder performs a first decoding process on the processing result of the encoder to output a first category, and performs a second decoding process on the result of the first decoding process to perform a second decoding process. Output category,
Information processing device.
請求項1に記載の情報処理装置。 The encoder performs a first encoding process on the first feature vector among the feature vectors of the plurality of words, and then uses the result of the first encoding process and the second feature vector. Encoder processing,
The information processing apparatus according to claim 1.
前記第1のカテゴリは、前記ツリー構造において最上位に定義されたカテゴリであり、
前記第2のカテゴリは、前記第1のカテゴリの下位に定義されたカテゴリである、
請求項1または2に記載の情報処理装置。 The category has a tree structure and has a tree structure.
The first category is the category defined at the highest level in the tree structure.
The second category is a category defined below the first category.
The information processing apparatus according to claim 1 or 2.
請求項1から3のうちいずれか一項に記載の情報処理装置。 It further comprises a generator that generates a search result page for the query used in the search based on the category estimated by the first estimate.
The information processing apparatus according to any one of claims 1 to 3.
請求項1から4のうちいずれか一項に記載の情報処理装置。 The analysis unit analyzes the query used in the search by morphological analysis and divides the query into words.
The information processing apparatus according to any one of claims 1 to 4.
前記学習部は、前記ユーザにより選択された回数が所定の閾値以下であるカテゴリを学習データから除外する、
請求項1から5のうちいずれか一項に記載の情報処理装置。 Further provided with a learning unit that learns the relationship between the feature vector of the query word used in the search and the category selected by the user on the search result page for the query used in the search.
The learning unit excludes categories from the learning data in which the number of times selected by the user is equal to or less than a predetermined threshold value.
The information processing apparatus according to any one of claims 1 to 5.
請求項1から6のうちいずれか一項に記載の情報処理装置。 Further comprising a second estimation unit that estimates the category associated with the query used in the search based on the log of the category selected by the user on the search result page for the query used in the search.
The information processing apparatus according to any one of claims 1 to 6.
前記判定部が前記検索に用いられたクエリが前記ログに存在すると判定した場合、前記第2推定部が、前記検索に用いられたクエリと関連するカテゴリを推定し、
前記判定部が前記検索に用いられたクエリが前記ログに存在しない判定した場合、前記第1推定部が、前記検索に用いられたクエリと関連するカテゴリを推定する、
請求項7に記載の情報処理装置。 Further, a determination unit for determining whether or not the query used for the search exists in the log is provided.
When the determination unit determines that the query used in the search exists in the log, the second estimation unit estimates a category related to the query used in the search.
When the determination unit determines that the query used for the search does not exist in the log, the first estimation unit estimates a category related to the query used for the search.
The information processing apparatus according to claim 7.
前記単語の特徴ベクトルに対してエンコード処理を行うエンコーダと、
前記エンコーダの処理結果に対してデコード処理を行う複数のデコーダと、を備える、
請求項1に記載の情報処理装置。 The first estimation unit is
An encoder that performs encoding processing on the feature vector of the word,
A plurality of decoders that perform decoding processing on the processing result of the encoder are provided.
The information processing apparatus according to claim 1.
前記エンコーダの処理結果が示すベクトルのベクトル座標空間上の位置が大きく変化した場合に、ユーザからのアクセスのセッションが切り替わったと判定することにより、前記情報処理装置に対するユーザからのアクセスの一まとまりのセッションの切れ目を判定する判定部と、
をさらに備える、
請求項1に記載の情報処理装置。 An encoder that performs encoding processing on the feature vector of the word,
When the position of the vector indicated by the processing result of the encoder on the vector coordinate space changes significantly, it is determined that the session of access from the user has been switched, so that a session of a set of access from the user to the information processing apparatus is performed. Judgment unit that determines the break of
Further prepare,
The information processing apparatus according to claim 1.
検索に用いられたクエリを解析して、前記クエリを単語に分割し、
前記分割された単語を特徴ベクトルに変換し、
学習データにおけるクエリに含まれる単語の特徴ベクトルと、前記学習データにおけるクエリに関連付けされたカテゴリとの関係を学習することにより、前記検索に用いられたクエリと関連付けされるカテゴリを推定し、
前記カテゴリの推定では、
前記単語の特徴ベクトルに対してエンコード処理を行い、
前記エンコード処理の結果に対してデコード処理を行い、前記検索に用いられたクエリと関連付けされるカテゴリを出力し、
前記デコード処理では、前記エンコード処理の結果に対して第1のデコード処理を行って第1のカテゴリを出力し、前記第1のデコード処理の結果に対して第2のデコード処理を行って第2のカテゴリを出力する、
情報処理方法。 The computer
The query used in the search is parsed, the query is split into words, and
The divided words are converted into feature vectors and
By learning the relationship between the feature vector of the word included in the query in the training data and the category associated with the query in the training data, the category associated with the query used in the search is estimated .
In the estimation of the above category,
Encoding processing is performed on the feature vector of the word.
Decoding processing is performed on the result of the encoding processing, and the category associated with the query used in the search is output.
In the decoding process, the first decoding process is performed on the result of the encoding process to output the first category, and the second decoding process is performed on the result of the first decoding process to perform the second decoding process. Output the category of
Information processing method.
検索に用いられたクエリを解析させて、前記クエリを単語に分割させ、
前記分割された単語を特徴ベクトルに変換させ、
学習データにおけるクエリに含まれる単語の特徴ベクトルと、前記学習データにおけるクエリに関連付けされたカテゴリとの関係を学習することにより、前記検索に用いられたクエリと関連付けされるカテゴリを推定させ、
前記カテゴリの推定では、
前記単語の特徴ベクトルに対してエンコード処理を実行させ、
前記エンコード処理の結果に対してデコード処理を実行させ、前記検索に用いられたクエリと関連付けされるカテゴリを出力させ、
前記デコード処理では、前記エンコード処理の結果に対して第1のデコード処理を実行させて第1のカテゴリを出力させ、前記第1のデコード処理の結果に対して第2のデコード処理を実行させて第2のカテゴリを出力させる、
プログラム。 On the computer
The query used for the search is analyzed, and the query is divided into words.
The divided words are converted into feature vectors and
By learning the relationship between the feature vector of the word included in the query in the training data and the category associated with the query in the training data, the category associated with the query used in the search is estimated .
In the estimation of the above category,
Encoding processing is executed for the feature vector of the word,
The decoding process is executed for the result of the encoding process, and the category associated with the query used in the search is output.
In the decoding process, the first decoding process is executed on the result of the encoding process to output the first category, and the second decoding process is executed on the result of the first decoding process. Output the second category,
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017175549A JP6971103B2 (en) | 2017-09-13 | 2017-09-13 | Information processing equipment, information processing methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017175549A JP6971103B2 (en) | 2017-09-13 | 2017-09-13 | Information processing equipment, information processing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019053386A JP2019053386A (en) | 2019-04-04 |
JP6971103B2 true JP6971103B2 (en) | 2021-11-24 |
Family
ID=66015040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017175549A Active JP6971103B2 (en) | 2017-09-13 | 2017-09-13 | Information processing equipment, information processing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6971103B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7512570B2 (en) | 2019-03-20 | 2024-07-09 | 富士フイルムビジネスイノベーション株式会社 | Light emitting device, optical device and information processing device |
CN113449050B (en) * | 2020-03-24 | 2024-04-16 | 北京四维图新科技股份有限公司 | Position searching method, device and storage medium |
KR102399837B1 (en) * | 2020-05-11 | 2022-05-19 | 네이버 주식회사 | Method and system for extracting product category for shopping search |
JP7372278B2 (en) * | 2021-04-20 | 2023-10-31 | ヤフー株式会社 | Calculation device, calculation method and calculation program |
CN114598597B (en) * | 2022-02-24 | 2023-12-01 | 烽台科技(北京)有限公司 | Multisource log analysis method, multisource log analysis device, computer equipment and medium |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3164872B2 (en) * | 1992-02-17 | 2001-05-14 | 三菱電機株式会社 | Information database device |
JP2002251412A (en) * | 2001-02-22 | 2002-09-06 | Canon Inc | Document retrieving device, method, and storage medium |
US10387464B2 (en) * | 2015-08-25 | 2019-08-20 | Facebook, Inc. | Predicting labels using a deep-learning model |
-
2017
- 2017-09-13 JP JP2017175549A patent/JP6971103B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019053386A (en) | 2019-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6971103B2 (en) | Information processing equipment, information processing methods, and programs | |
US11294891B2 (en) | Interactive search experience using machine learning | |
RU2693184C2 (en) | Simulating session context for colloquial speech understanding systems | |
WO2019128394A1 (en) | Method for processing fusion data and information recommendation system | |
CN111602147A (en) | Machine learning model based on non-local neural network | |
US8990208B2 (en) | Information management and networking | |
CN109997124A (en) | System and method for measuring the semantic dependency of keyword | |
CN107609888B (en) | System and method for click rate prediction between query and bid terms | |
CN106462608A (en) | Knowledge source personalization to improve language models | |
JP6415619B2 (en) | Analysis device, analysis method, and program | |
WO2008012537A1 (en) | Searching methods | |
WO2018014771A1 (en) | Data object pushing method, device and system | |
CN106484777A (en) | A kind of multimedia data processing method and device | |
JP6309539B2 (en) | Method and apparatus for realizing speech input | |
CN110597962A (en) | Search result display method, device, medium and electronic equipment | |
JP2019046459A (en) | Classification by grammar slots across domains | |
WO2017016122A1 (en) | Information pushing method and apparatus | |
CN110717038A (en) | Object classification method and device | |
JP2019197366A (en) | Content evaluation device, content evaluation method, program, and storage medium | |
CN112434072A (en) | Searching method, searching device, electronic equipment and storage medium | |
KR102399837B1 (en) | Method and system for extracting product category for shopping search | |
KR101955920B1 (en) | Search method and apparatus using property language | |
CN111209725B (en) | Text information generation method and device and computing equipment | |
CN111787042A (en) | Method and device for pushing information | |
US20210357955A1 (en) | User search category predictor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200305 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6971103 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |