JP2019053386A - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP2019053386A JP2019053386A JP2017175549A JP2017175549A JP2019053386A JP 2019053386 A JP2019053386 A JP 2019053386A JP 2017175549 A JP2017175549 A JP 2017175549A JP 2017175549 A JP2017175549 A JP 2017175549A JP 2019053386 A JP2019053386 A JP 2019053386A
- Authority
- JP
- Japan
- Prior art keywords
- category
- query
- search
- information processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 32
- 238000003672 processing method Methods 0.000 title abstract description 5
- 239000013598 vector Substances 0.000 claims abstract description 72
- 238000004458 analytical method Methods 0.000 claims abstract description 29
- 238000006243 chemical reaction Methods 0.000 claims abstract description 20
- 238000000034 method Methods 0.000 claims description 102
- 238000012545 processing Methods 0.000 claims description 25
- 230000000877 morphologic effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 14
- 238000011156 evaluation Methods 0.000 description 11
- 238000002474 experimental method Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000004044 response Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Abstract
Description
本発明は、情報処理装置、情報処理方法、およびプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
ウェブ検索の分野において、ユーザが入力したキーワード(以下、「クエリ」)に応じて、このクエリに関連する各種商品またはサービスの情報を提供する手法が行われている。また、ユーザが意図する商品またはサービスの情報を高精度で提供するために、機械学習を用いた検索手法の開発も進められている。 In the field of web search, in accordance with a keyword (hereinafter referred to as “query”) input by a user, a technique for providing information on various products or services related to the query is performed. In addition, in order to provide highly accurate information on products or services intended by users, development of search methods using machine learning is also in progress.
しかしながら、従来の技術では、クエリとの関連度が低く、ユーザが意図しない商品またはサービスの情報が提供される場合があった。また、従来の機械学習を用いた手法は、単純な線形モデルを用いたものであり、クエリに含まれる単語の組み合わせを考慮できていなかった。また、一般的な機械学習の分野において、線形モデルの他、エンコーダ−デコーダモデルを用いる手法の研究が進められているが、ウェブ検索の分野に適用することは想定されていなかった(例えば、特許文献1参照)。 However, in the related art, there is a case where information on a product or service unintended by the user is provided because the degree of relevance to the query is low. In addition, the conventional method using machine learning uses a simple linear model and cannot consider a combination of words included in a query. In addition, in the field of general machine learning, research on a method using an encoder-decoder model in addition to a linear model is underway, but application to the field of web search has not been assumed (for example, patents). Reference 1).
本発明は、このような事情を考慮してなされたものであり、検索精度を向上させることができる情報処理装置、情報処理方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and an object of the present invention is to provide an information processing apparatus, an information processing method, and a program capable of improving the search accuracy.
本発明の一態様は、検索に用いられたクエリを解析して、前記クエリを単語に分割する解析部と、前記解析部によって分割された単語を特徴ベクトルに変換する変換部と、学習データにおけるクエリに含まれる単語の特徴ベクトルと、前記学習データにおけるクエリに関連付けされたカテゴリとの関係を学習することにより、前記検索に用いられたクエリと関連付けされるカテゴリを推定する第1推定部とを備える情報処理装置である。 In one aspect of the present invention, an analysis unit that analyzes a query used for search and divides the query into words, a conversion unit that converts the words divided by the analysis unit into feature vectors, and learning data A first estimation unit that estimates a category associated with the query used in the search by learning a relationship between a feature vector of a word included in the query and a category associated with the query in the learning data; An information processing apparatus is provided.
本発明の一態様によれば、検索精度を向上させることができる。 According to one embodiment of the present invention, search accuracy can be improved.
以下、図面を参照して、情報処理装置、情報処理方法、およびプログラムの実施形態について説明する。 Hereinafter, embodiments of an information processing device, an information processing method, and a program will be described with reference to the drawings.
<1.第1実施形態>
以下、本発明の第1実施形態について説明する。本実施形態の情報処理装置は、検索に用いられたクエリを単語に分割し、この分割された単語を特徴ベクトルに変換し、クエリと関連付けされるカテゴリを推定する。本実施形態における「カテゴリ」とは、検索に用いられたクエリに対して検索結果として提供されるコンテンツの内容(商品またはサービス)が属する分野を示す情報である。本実施形態では、情報処理装置が、商品またはサービスのコンテンツの検索結果を提供する検索サーバである例について説明する。
<1. First Embodiment>
The first embodiment of the present invention will be described below. The information processing apparatus according to the present embodiment divides a query used for search into words, converts the divided words into feature vectors, and estimates a category associated with the query. The “category” in the present embodiment is information indicating a field to which content contents (products or services) provided as a search result for a query used for a search belong. In the present embodiment, an example will be described in which the information processing apparatus is a search server that provides a search result of a product or service content.
<1−1.システム構成>
図1は、本実施形態の検索サーバ10(情報処理装置)の使用環境を示す図である。検索サーバ10は、ネットワークNWを介して、端末装置T等と接続されている。ネットワークNWは、例えば、WAN(Wide Area Network)やLAN(Local Area Network)、インターネット、専用回線、無線基地局、プロバイダ等を含む。
<1-1. System configuration>
FIG. 1 is a diagram illustrating a use environment of a search server 10 (information processing apparatus) according to the present embodiment. The
端末装置Tは、検索サーバ10により提供される検索サービスを利用するユーザによって操作される。端末装置Tは、例えば、パーソナルコンピュータ、スマートフォンなどの携帯電話やタブレット端末、PDA(Personal Digital Assistant)などのコンピュータ装置である。端末装置Tは、ユーザの操作に基づいて動作するブラウザまたはアプリケーションプログラムが、例えば、情報提供を要求するクエリを検索サーバ10に送信し、クエリと関連付けされた情報を検索サーバ10から受信する。
The terminal device T is operated by a user who uses a search service provided by the
検索サーバ10は、端末装置Tから入力されたクエリと関連付けされる検索結果のページ情報を端末装置Tに送信する。検索サーバ10は、クエリと、このクエリと関連付けされたサイトのページを参照するための参照情報とを関連付けた検索データを用いて、検索結果のページ情報を生成する。参照情報は、例えば、URL(Uniform Resource Locator)を含む。
The
検索サーバ10は、例えば、通信部30と、クエリ解析部32(解析部)と、クエリ変換部34(変換部)と、カテゴリ推定部36(第1推定部、学習部)と、検索結果生成部38(生成部)と、記憶部40とを備える。通信部30は、ネットワークNWを介して、端末装置T等と通信する。通信部30は、ネットワークNWを介して、端末装置Tからクエリを受信し、検索結果のページ情報を端末装置Tに送信する。通信部30は、例えば、NIC等の通信インターフェースを含む。
The
クエリ解析部32は、端末装置Tから入力されたクエリを解析して、単語レベルに分割する。クエリ解析部32は、例えば、形態素解析によってクエリを解析し、少なくとも1つの単語に分割する。
The
クエリ変換部34は、クエリ解析部32によって分割された単語の各々を特徴ベクトルに変換する。クエリ変換部34は、分割された単語の各々を、例えば、word2vecと称されているツール(プログラム)を利用して、特徴ベクトルに変換する。word2vecとは、ニューラルネットワークを利用したツールであり、入力されたコーパスに含まれるテキスト情報を、そのテキスト情報の特徴を示す特徴ベクトルに変換して出力する。本実施形態では、word2vecにおいて、クエリの分散表現が事前に学習されているものとする。
The
カテゴリ推定部36は、クエリ変換部34から入力された少なくとも1つの特徴ベクトルと関連付けされるカテゴリを推定する。カテゴリ推定部36は、例えば、再帰型ニューラルネットワーク(RNN:Recurrent Neural Networks)に基づくエンコーダデコーダモデルを用いて、カテゴリを推定する。以下においては、カテゴリ推定部36が、エンコーダデコーダモデルを用いる例について説明する。
The
カテゴリ推定部36は、例えば、エンコーダ42と、デコーダ44とを備える。エンコーダ42およびデコーダ44は、検索に用いられたクエリに含まれる「単語の特徴ベクトル」と、クエリを応じて提供された検索結果ページにおいてユーザが選択した「カテゴリ」との組を学習データとして、学習処理を行う。
The
エンコーダ42は、上述の学習データを用いて学習を行ったモデル(以下、「エンコードモデル」を用いて、クエリ変換部34から入力された少なくとも1つの特徴ベクトルに対してエンコード処理を行う。エンコーダ42は、クエリ変換部34から2以上の特徴ベクトルが入力された場合、第1の特徴ベクトルに対してエンコード処理を行い、次に、第1の特徴ベクトルのエンコード処理結果と、第2の特徴ベクトルとを用いてエンコード処理を行う。エンコーダ42は、エンコード処理を繰り返すことにより得られたエンコード処理結果をデコーダ44に入力する。
The
デコーダ44は、上述の学習データを用いて学習を行ったモデル(以下、「デコードモデル」を用いて、エンコーダ42から入力されたエンコード処理結果に基づいて、クエリの単語に関連付けされるべきカテゴリを推定して出力する。カテゴリは、例えば、ツリー構造を有しており、商品またはサービスが属する分野を階層状に定義する。図2は、カテゴリのツリー構造の一例を示す図である。図2に示す例では、第1階層H1として「メンズファッション」、「レディースファッション」等が定義されている。また、「メンズファッション(第1階層H1)」の下位の第2階層H2として、「メンズシューズ」、「メンズバック」等が定義されている。また、「メンズシューズ(第2階層H2)」の下位の第3階層H3として、「スニーカー」、「ビジネスシューズ」、「サンダル」、「ブーツ」等が定義されている。
The
デコーダ44は、エンコーダ42から入力されるエンコード処理結果(多次元ベクトル)と、図2に示すようなカテゴリのツリー構造との関係を学習する。デコーダ44は、エンコード処理結果に基づいて、クエリの単語に関連付けされるべきカテゴリを推定し、カテゴリのツリー構造における上位の階層から順に出力する。
The
検索結果生成部38は、カテゴリ推定部36によって推定されたカテゴリに基づいて、検索結果である検索結果ページを生成する。検索結果生成部38は、生成した検索結果ページを、通信部30を介して、端末装置Tに送信する。
The search
検索サーバ10の各機能部は、例えば、コンピュータにおいて、CPU(Central Processing Unit)等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
Each functional unit of the
記憶部40は、クエリと、このクエリと関連付けされたサイトのページを参照するための参照情報とを関連付けた検索データD1、カテゴリのツリー構造を示すカテゴリデータD2等を記憶する。記憶部40は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ、またはこれらのうち複数が組み合わされたハイブリッド型記憶装置等により実現される。また、記憶部40の一部または全部は、NASや外部のストレージサーバ等、検索サーバ10がアクセス可能な外部装置であってもよい。
The
<1−2.学習処理>
以下において、検索サーバ10の学習処理について説明する。図3は、検索サーバ10の学習処理の流れの一例を示す図である。カテゴリ推定部36は、クエリに含まれる単語の特徴ベクトルと、このクエリと関連付けされるカテゴリとの関係を学習する。
<1-2. Learning process>
Hereinafter, the learning process of the
まず、検索サーバ10のカテゴリ推定部36に、学習データを入力する(S101)。学習データとしては、例えば、検索サービスが利用された際のログデータを利用する。学習データとしては、例えば、検索に用いられたクエリに含まれる「単語の特徴ベクトル」と、クエリを応じて提供された検索結果ページにおいてユーザが選択した「カテゴリ」との組を利用する。
First, learning data is input to the
次に、カテゴリ推定部36のエンコーダ42が「クエリに含まれる単語の特徴ベクトル」をエンコードし(S103)、デコーダ44が、エンコーダ42によるエンコード処理結果をデコードした際に(S105)、このクエリと組となる「カテゴリ」が出力されるように、このエンコーダモデルおよびデコーダモデルにおけるパラメータを調整する(S107)。
Next, when the
デコーダ44は、例えば、このデコード処理の結果として、第1階層として定義されたカテゴリごとに、クエリの単語との関連度合を示すスコアを算出する。デコーダ44は、学習データにおいてクエリと組となるカテゴリのスコアが高くなるように、デコーダモデルにおけるパラメータを調整する。カテゴリ推定部36は、例えば、逆伝播法により、パラメータの調整を行ってよい。第2階層以下の階層についても、同様な処理を行う。以上により、本フローチャートの処理を終了する。
For example, as a result of the decoding process, the
尚、ログデータにおいて、あるクエリに対して複数存在するカテゴリのデータのうち、クリック数の少ないカテゴリのデータ(クリック数(選択された回数)が所定の閾値以下であるデータ)を除外し、除外後のログデータを学習データとするようにしてもよい。これにより、エンコーダモデルおよびデコーダモデルの精度を向上させることができる。 In log data, out of the category data that exist for a certain query, exclude the data of the category with a small number of clicks (data whose number of clicks (number of selected times) is below a predetermined threshold) and exclude it. Later log data may be used as learning data. Thereby, the accuracy of the encoder model and the decoder model can be improved.
<1−3.カテゴリ推定処理>
以下において、検索サーバ10のカテゴリ推定処理について説明する。図4は、検索サーバ10のカテゴリ推定処理の流れの一例を示す図である。
<1-3. Category estimation processing>
Hereinafter, the category estimation process of the
まず、クエリ解析部32は、通信部30を介して、端末装置Tから入力されたクエリを取得する(S201)。次に、クエリ解析部32は、端末装置Tから入力されたクエリを解析して、単語レベルに分割する(S203)。クエリ解析部32は、例えば、形態素解析によってクエリを解析し、単語レベルに分割する。
First, the
次に、クエリ変換部34は、クエリ解析部32によって分割された単語の各々を特徴ベクトルに変換する(S205)。クエリ変換部34は、分割された単語の各々を、例えば、word2vecを利用して、特徴ベクトルに変換する。
Next, the
次に、エンコーダ42は、クエリ変換部34によって変換された特徴ベクトルのうち、第1の単語の特徴ベクトルに対してエンコード処理を行う(S207)。次に、エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了したか否かを判定する(S209)。
Next, the
エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了していないと判定した場合、クエリ変換部34によって変換された特徴ベクトルのうち、第2の単語の特徴ベクトルと、第1の単語の特徴ベクトルに対するエンコード処理結果とを用いて、再度、エンコード処理を行う(S207)。次に、エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了したか否かを判定する(S209)。以下、全ての単語の特徴ベクトルに対するエンコード処理が完了するまで、同様な処理を繰り返す。エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了したと判定した場合、上述のエンコード処理を繰り返した結果として得られたエンコード処理結果をデコーダ44に入力する。
If the
次に、デコーダ44は、エンコーダ42から入力されたエンコード処理結果に対して、デコード処理を行う(S211)。デコーダ44は、このデコード処理の結果として、第1階層として定義されたカテゴリごとに、クエリの単語との関連度合を示すスコアを算出する。例えば、最も高いスコアのカテゴリが、クエリと関連付けされるカテゴリとして推定される。
Next, the
次に、デコーダ44は、最下層のカテゴリの推定が完了したか否かを判定する(S213)。デコーダ44は、最下層のカテゴリの推定が完了していないと判定した場合、推定されたカテゴリの情報と、デコード処理結果とを用いて、再度、デコード処理を行う(S211)。次に、エンコーダ42は、最下層のカテゴリの推定が完了したか否かを判定する(S213)。以下、最下層のカテゴリの推定が完了するまで、同様な処理を繰り返す。デコーダ44は、最下層のカテゴリの推定が完了したと判定した場合、推定したカテゴリの情報を検索結果生成部38に入力する。
Next, the
図5は、カテゴリ推定部36におけるカテゴリ推定処理を模式的に示す図である。図5に示す例では、クエリ解析部32は、端末装置Tから入力されたクエリ「メンズ スニーカー A社」を、「メンズ」、「スニーカー」、および「A社」という3単語に分割し、クエリ変換部34が、これらの3つの単語の各々を特徴ベクトルに変換して、カテゴリ推定部36に入力する例を示す。
FIG. 5 is a diagram schematically showing category estimation processing in the
まず、エンコーダ42は、第1の単語「メンズ」の特徴ベクトルに対してエンコード処理を行い、第1のエンコード処理結果R1を得る。次に、エンコーダ42は、第2の単語「スニーカー」の特徴ベクトルと、第1のエンコード処理結果R1とを用いてエンコード処理を行い、第2のエンコード処理結果R2を得る。次に、エンコーダ42は、第3の単語「A社」の特徴ベクトルと、第2のエンコード処理結果R2とを用いてエンコード処理を行い、第3のエンコード処理結果R3を得る。エンコーダ42は、第3のエンコード処理結果R3をデコーダ44に入力する。
First, the
次に、デコーダ44は、エンコーダ42から入力された第3のエンコード処理結果R3に対してデコード処理を行う。ここで、デコーダ44は、最上位層(第1階層H1)のカテゴリごとに、「メンズ」、「スニーカー」、および「A社」という3単語との関連度合を示すスコアを算出する。デコーダ44は、カテゴリごとに算出したスコアの内、最も高いスコアを示すカテゴリを、「メンズ」、「スニーカー」、および「A社」という3単語と関連付けされる第1のカテゴリ(この例では「メンズファッション」)と推定する。
Next, the
次に、デコーダ44は、第3のエンコード処理結果R3に対するデコード処理結果(第1のデコード処理結果R4)と、推定されたカテゴリ「メンズファッション」を示すデータとを用いてデコード処理を行う。ここで、デコーダ44は、推定されたカテゴリ「メンズファッション(第1階層)」の下位に位置する第2階層H2のカテゴリごとに、「メンズ」、「スニーカー」、および「A社」という3単語との関連度合を示すスコアを算出する。デコーダ44は、カテゴリごとに算出したスコアの内、最も高いスコアを示すカテゴリを、「メンズ」、「スニーカー」、および「A社」という3単語と関連付けされる第2のカテゴリ(この例では「メンズシューズ」)と推定する。
Next, the
次に、デコーダ44は、第1のデコード処理結果R4に対するデコード処理結果(第2のデコード処理結果R5)と、推定されたカテゴリ「メンズシューズ」を示すデータとを用いてデコード処理を行う。ここで、デコーダ44は、推定されたカテゴリ「メンズシューズ(第2階層)」の下位に位置する第3階層H3のカテゴリごとに、「メンズ」、「スニーカー」、および「A社」という3単語との関連度合を示すスコアを算出する。デコーダ44は、カテゴリごとに算出したスコアの内、最も高いスコアを示すカテゴリを、「メンズ」、「スニーカー」、および「A社」という3単語と関連付けされる第3のカテゴリ(この例では「スニーカー」)と推定する。
Next, the
図5に示す以上の処理により、「メンズ」、「スニーカー」、および「A社」という3単語と関連付けされるカテゴリとして、「メンズファッション(第1階層)」、「メンズシューズ(第2階層)」、および「スニーカー(第3階層)」というカテゴリの推定結果が得られる。 As a result of the above processing shown in FIG. 5, categories associated with the three words “men's”, “sneakers”, and “Company A” are classified as “men's fashion (first level)” and “men's shoes (second level)”. ”And“ sneakers (third layer) ”are obtained.
次に、検索結果生成部38は、デコーダ44から入力されたカテゴリの推定結果に基づいて、検索結果である検索結果ページを生成し、端末装置Tに送信する(S215)。図6は、検索結果ページP1の一例を示す図である。図6に示す例において、検索結果生成部38は、推定された第3階層のカテゴリである「スニーカー」をページ内の最も視認性の高い位置に配置した検索結果ページP1を生成する。
Next, the search
尚、図6に示す例では、推定されたカテゴリである「スニーカー」に加え、推定された第2階層のカテゴリである「メンズシューズ(第2階層)」の下位のその他のカテゴリである「ブーツ」、「サンダル」、「ビジネスシューズ」等が、例えば、スコアが高い順に並べられて表示されている。検索結果生成部38は、生成した検索結果ページP1を、通信部30を介して、端末装置Tに送信する。端末装置Tのユーザは、端末装置Tを操作して検索結果ページP1に含まれる1つのカテゴリを選択することで、ユーザの意図に応じた検索結果を取得することができる。以上により、本フローチャートの処理を終了する。
In the example shown in FIG. 6, in addition to the estimated category “sneakers”, “boots” that is another category below “Men's shoes (second layer)” that is the estimated category of the second hierarchy. ", Sandals", "business shoes", etc. are displayed in order of increasing score, for example. The search
尚、図6に示す例では、推定されたカテゴリをユーザに選択させる検索結果ページP1を端末装置Tに送信する例を説明した。しかしながら、検索結果生成部38は、推定されたカテゴリをユーザに選択させる検索結果ページP1に代えて、推定されたカテゴリに関連する商品またはサービスのページを端末装置Tに送信するようにしてもよい。
In the example illustrated in FIG. 6, the example in which the search result page P <b> 1 that allows the user to select the estimated category is transmitted to the terminal device T has been described. However, the search
<1−3.評価実験>
本実施形態における検索サーバ10のカテゴリ推定精度を評価するために、図7に示すような3つのモデルを用いた評価実験を行った。モデル1は、本実施形態の検索サーバ10で使用するエンコーダデコーダモデルである。モデル2は、従来技術の線形分類器を用いた線形モデルである。モデル3は、従来技術のログに基づく(実績ベース)モデルである。このモデル3では、検索ログにおいてクリック数の多いカテゴリが選択される。この評価実験では、検索に実際に利用されたに応じて提供された検索結果ページにおいてユーザがクリックしたカテゴリのうち、クリック数が最も多いカテゴリを「正解カテゴリ」とした。この評価実験では、各モデルを利用したカテゴリ推定処理を行う検索サーバ10に対して、検索に実際に利用されたクエリを入力し、検索サーバ10によって推定されたカテゴリと、正解カテゴリとの一致率を算出した。
<1-3. Evaluation Experiment>
In order to evaluate the category estimation accuracy of the
図8は、上述の評価実験の結果を示す図である。図8に示すように、第1階層のカテゴリ、第2階層のカテゴリ、および第3階層のカテゴリのいずれにおいても、モデル3(ログモデル)を用いた推定結果の一致率が最も高く、次に、モデル1(エンコーダデコーダモデル)を用いた推定結果の一致率が高く、モデル2(線形モデル)を用いた推定結果の一致率が最も低かった。 FIG. 8 is a diagram showing the results of the evaluation experiment described above. As shown in FIG. 8, in any of the first hierarchy category, the second hierarchy category, and the third hierarchy category, the matching rate of the estimation results using the model 3 (log model) is the highest. The matching rate of the estimation results using Model 1 (encoder decoder model) was high, and the matching rate of the estimation results using Model 2 (Linear model) was the lowest.
また、図9は、評価実験のクリック数別での一致率の比較結果を示す図である。図9に示すように、いずれのクリック数においても、モデル3を用いた推定結果の一致率が最も高く、次に、モデル1を用いた推定結果の一致率が高く、モデル2を用いた推定結果の一致率が最も低かった。クリック数が少ない場合においても(いわゆるテールクエリにおいても)、モデル3を用いた推定結果の一致率が最も高いことが分かった。 Moreover, FIG. 9 is a figure which shows the comparison result of the coincidence rate according to the number of clicks of the evaluation experiment. As shown in FIG. 9, in any click count, the matching rate of the estimation result using the model 3 is the highest, and then the matching rate of the estimation result using the model 1 is high, and the estimation using the model 2 is performed. The matching rate of the results was the lowest. It was found that even when the number of clicks is small (also in the so-called tail query), the matching rate of the estimation results using the model 3 is the highest.
この評価実験に使用したモデル1では、クリック頻度を考慮していないため、クリック数が多いカテゴリも、クリック数が少ないカテゴリも同じように処理されるため、学習データに含まれるノイズに弱いことが想定される。 In the model 1 used in this evaluation experiment, the click frequency is not taken into consideration, and therefore the category with a large number of clicks and the category with a small number of clicks are processed in the same way, and therefore, it is vulnerable to noise included in the learning data. is assumed.
また、モデル1を用いて推定されたカテゴリは、検索ログにおける正解カテゴリとは異なっていたものの、正しい推定処理が行われていると判断されてよいものも含まれていた。図10は、モデル1を用いて推定されたカテゴリの一例を示す図である。図10に示すように、例えば、「新婚 プレゼント」というクエリに対して、モデル1を用いて推定されたカテゴリはキッチン用品に関連するカテゴリであったのに対して、正解カテゴリはゲームに関連するカテゴリであった。これはクエリの多義性に起因するものであり、このようなモデル1の推定結果は正しいと判断してもよいと考えらえる。 Moreover, although the category estimated using the model 1 was different from the correct category in the search log, the category that may be determined to have been correctly estimated is included. FIG. 10 is a diagram illustrating an example of categories estimated using the model 1. As shown in FIG. 10, for example, for the query “honeymoon gift”, the category estimated using model 1 was a category related to kitchenware, whereas the correct category was related to a game. It was a category. This is due to the ambiguity of the query, and it can be considered that the estimation result of the model 1 may be determined to be correct.
また、例えば、「大きい 財布 通帳 入る」というクエリに対して、モデル1を用いて推定されたカテゴリはレディースファッションに関連するカテゴリであったのに対して、正解カテゴリはメンズファッションに関連するカテゴリであった。これは、商品に関連するカテゴリが重複して存在することに起因するものであり、このようなモデル1の推定結果は正しいと判断してもよいと考えらえる。 In addition, for example, for the query “enter large wallet passbook”, the category estimated using Model 1 was a category related to ladies fashion, while the correct category was a category related to men's fashion. there were. This is due to the existence of overlapping categories related to the product, and it can be considered that the estimation result of such a model 1 may be determined to be correct.
また、例えば、「携帯 電話 かわいい ストラップ」というクエリに対して、モデル1を用いて推定されたカテゴリはスマートフォンに関連するカテゴリであったのに対して、正解カテゴリはレディースファッションに関連するカテゴリであった。これは、クエリに対するカテゴリ選択の困難性に起因するものであり、このようなモデル1の推定結果は正しいと判断してもよいと考えらえる。 For example, for the query “mobile phone cute strap”, the category estimated using model 1 was a category related to smartphones, whereas the correct category was a category related to ladies fashion. It was. This is due to the difficulty in selecting a category for the query, and it can be considered that the estimation result of the model 1 may be determined to be correct.
その他、モデル1の推定処理が正解ではないと判断されなかった例として、クエリ解析部32によるクエリに対する形態素解析が適切でなかった場合や、クエリに含まれる特定の単語がカテゴリ推定に大きな影響を及ぼしその他の単語との関連が適切に評価されなかった場合等があった。
In addition, as an example in which the estimation process of the model 1 is not determined to be correct, when the morphological analysis for the query by the
上述のような、モデル1を用いて推定されたカテゴリに関して、検索ログにおける「正解カテゴリ」とは異なっていたものの、正しい推定処理が行われていると判断してよいものを考慮すると、モデル1における第1階層のカテゴリの一致率は、0.9238(92.38[%])となった。この点を考慮すると、本実施形態の検索サーバ10におけるエンコーダデコーダモデルを用いたカテゴリ推定の精度は高いと判断できる。
In consideration of the category estimated using the model 1 as described above, although it is different from the “correct category” in the search log, it may be determined that the correct estimation process is performed. The coincidence rate of the category of the first layer in the case was 0.9238 (92.38 [%]). Considering this point, it can be determined that the accuracy of category estimation using the encoder / decoder model in the
また、モデル3を用いた推定処理における、クエリに対する検索ログのカバレッジは、全体で0.3671であった。このため、モデル3を用いた場合、クエリが検索ログに存在していないと適切なカテゴリの推定が行えない場合がある。一方、モデル1を用いた推定では、クエリが検索ログに存在しない場合であっても、適切にカテゴリの推定を行うことができる。例えば、「メンズ、スニーカー、B社」というクエリの学習が行われていない場合であっても、「メンズ、スニーカー、A社」というクエリの学習が行われおり、かつ、「B社」と「A社」とがベクトル表現上で近い単語であるという学習が行われていれば、「メンズ、スニーカー、B社」に対するカテゴリを適切に推定することが可能である。 Further, the search log coverage for the query in the estimation process using the model 3 was 0.3671 as a whole. For this reason, when the model 3 is used, an appropriate category may not be estimated if the query does not exist in the search log. On the other hand, in the estimation using the model 1, even if the query does not exist in the search log, the category can be estimated appropriately. For example, even if the query “men, sneakers, company B” is not learned, the query “men, sneakers, company A” is learned, and “company B” and “company B” If learning that “Company A” is a close word on the vector expression is made, it is possible to appropriately estimate the category for “Men, sneakers, Company B”.
以上において説明した本実施形態の検索サーバ10によれば、クエリと関連付けされるカテゴリを適切に推定でき、さらには、検索精度を向上させることができる。また、本実施形態の検索サーバ10によれば、過去に検索に用いられたことのない未知のクエリが入力された場合であっても適切にカテゴリの推定を行うことができる。
According to the
尚、エンコーダ42のエンコード処理結果に基づいて、検索サーバ10に対する端末装置Tを操作するユーザからのアクセスの一まとまりのセッションの切れ目を判定する判定部さらに設けてもよい。例えば、エンコード処理結果が示すベクトルのベクトル座標空間上の位置が大きく変化した場合に、ユーザからのアクセスのセッションが切り替わったと判定するようにしてよい。
In addition, based on the encoding process result of the
<2.第2実施形態>
以下、本発明の第2実施形態について説明する。本実施形態の情報処理装置(検索サーバ)は、第1実施形態と比較して、エンコーダデコーダモデルに基づくカテゴリ推定処理と、ログデータに基づくカテゴリ推定処理との両方を行う点が異なる。このため、構成などについては第1実施形態で説明した図および関連する記載を援用し、詳細な説明を省略する。
<2. Second Embodiment>
Hereinafter, a second embodiment of the present invention will be described. The information processing apparatus (search server) according to the present embodiment differs from the first embodiment in that both the category estimation process based on the encoder / decoder model and the category estimation process based on log data are performed. For this reason, about the structure etc., the figure and related description which were demonstrated in 1st Embodiment are used, and detailed description is abbreviate | omitted.
<2−1.システム構成>
図11は、本実施形態の検索サーバ11の機能ブロック図である。検索サーバ11は、第1実施形態の検索サーバ10の構成要素に加えて、例えば、クエリ判定部46と、第2カテゴリ推定部48(第2推定部)とをさらに備える。
<2-1. System configuration>
FIG. 11 is a functional block diagram of the
クエリ判定部46は、記憶部40に記憶された検索ログを参照し、端末装置Tから入力されたクエリが、過去の検索ログに存在しているか否かを判定する。検索サーバ11では、クエリ判定部46が端末装置Tから入力されたクエリが過去の検索ログに存在していないと判定した場合、第1実施形態と同様なエンコーダデコーダモデルに基づくカテゴリ推定処理を行う。一方、検索サーバ11では、クエリ判定部46が端末装置Tから入力されたクエリが過去の検索ログに存在していると判定した場合、ログデータに基づくカテゴリ推定処理を行う。
The
第2カテゴリ推定部48は、例えば、記憶部40に記憶された検索ログデータD3を参照し、カテゴリを推定する。第2カテゴリ推定部48は、例えば、記憶部40に記憶された検索ログデータD3において、クリック数が最も多いカテゴリを選択する。図12は、検索ログデータD3の一例を示す図である。図12において、クエリが「レディース B社」の場合、第1階層のカテゴリ1が「レディースファッション」であり、第2階層のカテゴリ2が「財布・小物」であり、第3階層のカテゴリ3が「財布」であるカテゴリのクリック数(256999)が最も多い。このため、クエリが「レディース B社」の場合、第2カテゴリ推定部48は、このクエリに関連付けされるカテゴリとして、第1階層のカテゴリ1が「レディースファッション」であり、第2階層のカテゴリ2が「財布・小物」であり、第3階層のカテゴリ3が「財布」を推定する。
For example, the second
<2−2.カテゴリ推定処理>
以下において、検索サーバ11のカテゴリ推定処理について説明する。図13は、検索サーバ11のカテゴリ推定処理の流れの一例を示す図である。
<2-2. Category estimation processing>
Hereinafter, the category estimation process of the
まず、クエリ解析部32は、通信部30を介して、端末装置Tから入力されたクエリを取得する(S301)。次に、クエリ判定部46は、記憶部40に記憶された検索ログを参照し、端末装置Tから入力されたクエリが、過去の検索ログに存在しているか否かを判定する(S303)。
First, the
クエリ判定部46が端末装置Tから入力されたクエリが過去の検索ログに存在していると判定した場合、第2カテゴリ推定部48は、記憶部40に記憶された検索ログデータD3を参照し、カテゴリを推定する(S305)。第2カテゴリ推定部48は、推定したカテゴリの情報を検索結果生成部38に入力する。
When the
一方、クエリ判定部46が端末装置Tから入力されたクエリが過去の検索ログに存在しないと判定した場合、クエリ解析部32は、端末装置Tから入力されたクエリを解析して、単語レベルに分割する(S307)。次に、クエリ変換部34は、クエリ解析部32によって分割された単語の各々を特徴ベクトルに変換する(S309)。
On the other hand, when the
次に、エンコーダ42は、クエリ変換部34によって変換された特徴ベクトルのうち、第1の単語の特徴ベクトルに対してエンコード処理を行う(S311)。次に、エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了したか否かを判定する(S313)。
Next, the
エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了していないと判定した場合、クエリ変換部34によって変換された特徴ベクトルのうち、第2の単語の特徴ベクトルと、第1の単語の特徴ベクトルに対するエンコード処理結果とを用いて、再度、エンコード処理を行う(S311)。次に、エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了したか否かを判定する(S313)。以下、全ての単語の特徴ベクトルに対するエンコード処理が完了するまで、同様な処理を繰り返す。エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了したと判定した場合、上述のエンコード処理を繰り返した結果として得られたエンコード処理結果をデコーダ44に入力する。
If the
次に、デコーダ44は、エンコーダ42から入力されたエンコード処理結果に対して、デコード処理を行う(S315)。次に、デコーダ44は、最下層のカテゴリの推定が完了したか否かを判定する(S317)。デコーダ44は、最下層のカテゴリの推定が完了していないと判定した場合、推定されたカテゴリの情報と、デコード処理結果とを用いて、再度、デコード処理を行う(S315)。次に、エンコーダ42は、最下層のカテゴリの推定が完了したか否かを判定する(S317)。以下、最下層のカテゴリの推定が完了するまで、同様な処理を繰り返す。デコーダ44は、最下層のカテゴリの推定が完了したと判定した場合、推定したカテゴリの情報を検索結果生成部38に入力する。
Next, the
次に、検索結果生成部38は、デコーダ44または第2カテゴリ推定部48から入力されたカテゴリの推定結果に基づいて、検索結果である検索結果ページを生成し、端末装置Tに送信する(S319)。以上により、本フローチャートの処理を終了する。
Next, the search
以上において説明した本実施形態の検索サーバ11によれば、クエリと関連付けされるカテゴリを適切に推定でき、さらには、検索精度を向上させることができる。また、本実施形態の検索サーバ11によれば、端末装置Tから入力されたクエリが過去の検索ログに存在していない場合、エンコーダデコーダモデルに基づくカテゴリ推定処理を行い、端末装置Tから入力されたクエリが過去の検索ログに存在している場合、ログデータに基づくカテゴリ推定処理を行うことで、カテゴリの推定精度をさらに向上させることができる。
According to the
<3.第3実施形態>
以下、本発明の第3実施形態について説明する。本実施形態の情報処理装置(検索サーバ)は、第1実施形態と比較して、1つのエンコーダと、複数の推定部(デコーダ)とを備える点が異なる。このため、構成などについては第1実施形態で説明した図および関連する記載を援用し、詳細な説明を省略する。
<3. Third Embodiment>
Hereinafter, a third embodiment of the present invention will be described. The information processing apparatus (search server) according to this embodiment is different from the first embodiment in that it includes one encoder and a plurality of estimation units (decoders). For this reason, about the structure etc., the figure and related description which were demonstrated in 1st Embodiment are used, and detailed description is abbreviate | omitted.
<3−1.システム構成>
図14は、本実施形態の検索サーバ12の機能ブロック図である。検索サーバ12は、第1実施形態の検索サーバ10のカテゴリ推定部36に代えて、例えば、1つのエンコーダ50と、3つの推定部(カテゴリ推定部52、価格帯推定部54、ブランド推定部56)とを備える。
<3-1. System configuration>
FIG. 14 is a functional block diagram of the
エンコーダ50は、学習データを用いてエンコードモデルを用いて、クエリ変換部34から入力された少なくとも1つの特徴ベクトルに対してエンコード処理を行う。エンコーダ50は、クエリ変換部34から2以上の特徴ベクトルが入力された場合、1つ目の特徴ベクトルに対してエンコード処理を行い、次に、1つ目の特徴ベクトルのエンコード処理結果と、2つ目の特徴ベクトルとを用いてエンコード処理を行う。エンコーダ42は、エンコード処理を繰り返すことにより得られたエンコード処理結果を、カテゴリ推定部52、価格帯推定部54、およびブランド推定部56に入力する。
The
カテゴリ推定部52は、学習データを用いて学習を行ったデコードモデルを用いて、エンコーダ50から入力されたエンコード処理結果に対してデコード処理を行い、クエリの単語に関連付けされるべきカテゴリを推定して検索結果生成部38に入力する。
The
価格帯推定部54は、学習データを用いて学習を行ったデコードモデルを用いて、エンコーダ50から入力されたエンコード処理結果に対してデコード処理を行い、クエリの単語に関連付けされるべき商品またはサービスの価格帯を推定して検索結果生成部38に入力する。価格帯推定部54の学習データは、例えば、検索に用いられたクエリに含まれる「単語の特徴ベクトル」と、クエリを応じて提供された検索結果ページにおいてユーザが選択した「商品またはサービスの価格」との組を利用する。
The price
ブランド推定部56は、学習データを用いて学習を行ったデコードモデルを用いて、エンコーダ50から入力されたエンコード処理結果に対してデコード処理を行い、クエリの単語に関連付けされるべき商品またはサービスのブランドを推定して検索結果生成部38に入力する。ブランド推定部56の学習データは、例えば、検索に用いられたクエリに含まれる「単語の特徴ベクトル」と、クエリを応じて提供された検索結果ページにおいてユーザが選択した「商品またはサービスのブランド」との組を利用する。
The
検索結果生成部38は、カテゴリ推定部52から入力されたカテゴリの推定結果、価格帯推定部54から入力された価格帯の推定結果、およびブランド推定部56から入力されたブランドの推定結果に基づいて、検索結果である検索結果ページを生成し、端末装置Tに送信する。
The search
以上において説明した本実施形態の検索サーバ12によれば、クエリと関連付けされるカテゴリを適切に推定でき、さらには、検索精度を向上させることができる。また、本実施形態の検索サーバ12によれば、カテゴリ推定部52から入力されたカテゴリの推定結果、価格帯推定部54から入力された価格帯の推定結果、およびブランド推定部56から入力されたブランドの推定結果に基づいて、検索結果である検索結果ページを生成するため、さらにユーザの意図に応じた検索結果ページを提供することができる。
According to the
尚、カテゴリ推定部52、価格帯推定部54、およびブランド推定部56に加えてあるいは代えて、他の特徴を推定する推定部を設けてもよい。
In addition to or instead of the
以上において説明した実施形態によれば、検索に用いられたクエリを解析して、前記クエリを単語に分割する解析部と、前記解析部によって分割された単語を特徴ベクトルに変換する変換部と、学習データにおけるクエリに含まれる単語の特徴ベクトルと、前記学習データにおけるクエリに関連付けされたカテゴリとの関係を学習することにより、前記検索に用いられたクエリと関連付けされるカテゴリを推定する第1推定部とを備えることで、検索精度を向上させることができる。 According to the embodiment described above, the query used for the search is analyzed, the analysis unit that divides the query into words, the conversion unit that converts the words divided by the analysis unit into feature vectors, A first estimation for estimating a category associated with the query used in the search by learning a relationship between a feature vector of a word included in the query in the learning data and a category associated with the query in the learning data. The search accuracy can be improved.
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added.
10、11、12…検索サーバ(情報処理装置)
30…通信部
32…クエリ解析部(解析部)
34…クエリ変換部(変換部)
36…カテゴリ推定部(第1推定部、学習部)
38…検索結果生成部(生成部)
40…記憶部
42…エンコーダ
44…デコーダ
46…クエリ判定部(判定部)
48…第2カテゴリ推定部(第2推定部)
50…エンコーダ
52…カテゴリ推定部
54…価格帯推定部
56…ブランド推定部
10, 11, 12 ... search server (information processing apparatus)
30 ...
34 ... Query conversion unit (conversion unit)
36 ... category estimation unit (first estimation unit, learning unit)
38 ... Search result generation unit (generation unit)
40:
48 ... Second category estimation unit (second estimation unit)
DESCRIPTION OF
Claims (14)
前記解析部によって分割された単語を特徴ベクトルに変換する変換部と、
学習データにおけるクエリに含まれる単語の特徴ベクトルと、前記学習データにおけるクエリに関連付けされたカテゴリとの関係を学習することにより、前記検索に用いられたクエリと関連付けされるカテゴリを推定する第1推定部と
を備える情報処理装置。 An analysis unit that analyzes the query used for the search and divides the query into words;
A conversion unit that converts the words divided by the analysis unit into feature vectors;
A first estimation for estimating a category associated with the query used in the search by learning a relationship between a feature vector of a word included in the query in the learning data and a category associated with the query in the learning data. An information processing apparatus comprising:
前記単語の特徴ベクトルに対してエンコード処理を行うエンコーダと、
前記エンコーダの処理結果に対してデコード処理を行い、前記検索に用いられたクエリと関連付けされるカテゴリを出力するデコーダと、
を備える、
請求項1に記載の情報処理装置。 The first estimation unit includes
An encoder that performs an encoding process on the feature vector of the word;
A decoder that performs a decoding process on the processing result of the encoder and outputs a category associated with the query used for the search;
Comprising
The information processing apparatus according to claim 1.
請求項2に記載の情報処理装置。 The encoder performs a first encoding process on a first feature vector among a plurality of feature vectors of the word, and then uses a result of the first encoding process and a second feature vector to perform a second Encoding process,
The information processing apparatus according to claim 2.
請求項2または3に記載の情報処理装置。 The decoder performs a first decoding process on the processing result of the encoder to output a first category, performs a second decoding process on the result of the first decoding process, and performs a second decoding process. Output categories,
The information processing apparatus according to claim 2 or 3.
前記第1のカテゴリは、前記ツリー構造において最上位に定義されたカテゴリであり、
前記第2のカテゴリは、前記第1のカテゴリの下位に定義されたカテゴリである、
請求項4に記載の情報処理装置。 The category has a tree structure;
The first category is a category defined at the highest level in the tree structure;
The second category is a category defined under the first category.
The information processing apparatus according to claim 4.
前記学習部は、前記ユーザにより選択された回数が所定の閾値以下であるカテゴリを学習データから除外する、
請求項1から7のうちいずれか一項に記載の情報処理装置。 A learning unit that learns the relationship between the feature vector of the word of the query used for the search and the category selected by the user in the search result page for the query used for the search;
The learning unit excludes, from the learning data, a category in which the number of times selected by the user is equal to or less than a predetermined threshold value.
The information processing apparatus according to any one of claims 1 to 7.
請求項1から8のうちいずれか一項に記載の情報処理装置。 A second estimation unit configured to estimate a category associated with the query used for the search based on a log of the category selected by the user in the search result page for the query used for the search;
The information processing apparatus according to any one of claims 1 to 8.
前記判定部が前記検索に用いられたクエリが前記ログに存在すると判定した場合、前記第2推定部が、前記検索に用いられたクエリと関連するカテゴリを推定し、
前記判定部が前記検索に用いられたクエリが前記ログに存在しない判定した場合、前記第1推定部が、前記検索に用いられたクエリと関連するカテゴリを推定する、
請求項9に記載の情報処理装置。 A determination unit that determines whether the query used for the search exists in the log;
When the determination unit determines that the query used for the search exists in the log, the second estimation unit estimates a category associated with the query used for the search,
When the determination unit determines that the query used for the search does not exist in the log, the first estimation unit estimates a category associated with the query used for the search.
The information processing apparatus according to claim 9.
前記単語の特徴ベクトルに対してエンコード処理を行うエンコーダと、
前記エンコーダの処理結果に対してデコード処理を行う複数のデコーダと、
を備える、
請求項1に記載の情報処理装置。 The first estimation unit includes
An encoder that performs an encoding process on the feature vector of the word;
A plurality of decoders for performing decoding processing on the processing result of the encoder;
Comprising
The information processing apparatus according to claim 1.
前記エンコーダの処理結果に基づいて、前記情報処理装置に対するユーザからのアクセスの一まとまりのセッションの切れ目を判定する判定部と、
をさらに備える、
請求項1に記載の情報処理装置。 An encoder that performs an encoding process on the feature vector of the word;
A determination unit that determines a break in a session of a group of accesses from a user to the information processing device based on a processing result of the encoder;
Further comprising
The information processing apparatus according to claim 1.
検索に用いられたクエリを解析して、前記クエリを単語に分割し、
前記分割された単語を特徴ベクトルに変換し、
学習データにおけるクエリに含まれる単語の特徴ベクトルと、前記学習データにおけるクエリに関連付けされたカテゴリとの関係を学習することにより、前記検索に用いられたクエリと関連付けされるカテゴリを推定する、情報処理方法。 Computer
Analyzing the query used for the search, breaking the query into words,
Converting the divided words into feature vectors;
Information processing for estimating a category associated with a query used in the search by learning a relationship between a feature vector of a word included in the query in the learning data and a category associated with the query in the learning data Method.
検索に用いられたクエリを解析させて、前記クエリを単語に分割させ、
前記分割された単語を特徴ベクトルに変換させ、
学習データにおけるクエリに含まれる単語の特徴ベクトルと、前記学習データにおけるクエリに関連付けされたカテゴリとの関係を学習することにより、前記検索に用いられたクエリと関連付けされるカテゴリを推定させる、プログラム。 On the computer,
Analyzing the query used for the search, splitting the query into words,
Converting the divided words into feature vectors;
A program for estimating a category associated with a query used in the search by learning a relationship between a feature vector of a word included in the query in learning data and a category associated with the query in the learning data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017175549A JP6971103B2 (en) | 2017-09-13 | 2017-09-13 | Information processing equipment, information processing methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017175549A JP6971103B2 (en) | 2017-09-13 | 2017-09-13 | Information processing equipment, information processing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019053386A true JP2019053386A (en) | 2019-04-04 |
JP6971103B2 JP6971103B2 (en) | 2021-11-24 |
Family
ID=66015040
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017175549A Active JP6971103B2 (en) | 2017-09-13 | 2017-09-13 | Information processing equipment, information processing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6971103B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020188837A1 (en) | 2019-03-20 | 2020-09-24 | 富士ゼロックス株式会社 | Light-emitting device, optical device, and information processing device |
CN113449050A (en) * | 2020-03-24 | 2021-09-28 | 北京四维图新科技股份有限公司 | Position searching method, device and storage medium |
JP2021179980A (en) * | 2020-05-11 | 2021-11-18 | ネイバー コーポレーションNAVER Corporation | Method for extracting category of item for shopping search |
CN114598597A (en) * | 2022-02-24 | 2022-06-07 | 烽台科技(北京)有限公司 | Multi-source log analysis method and device, computer equipment and medium |
JP7372278B2 (en) | 2021-04-20 | 2023-10-31 | ヤフー株式会社 | Calculation device, calculation method and calculation program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05233707A (en) * | 1992-02-17 | 1993-09-10 | Mitsubishi Electric Corp | Information data base device |
JP2002251412A (en) * | 2001-02-22 | 2002-09-06 | Canon Inc | Document retrieving device, method, and storage medium |
US20170061294A1 (en) * | 2015-08-25 | 2017-03-02 | Facebook, Inc. | Predicting Labels Using a Deep-Learning Model |
-
2017
- 2017-09-13 JP JP2017175549A patent/JP6971103B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05233707A (en) * | 1992-02-17 | 1993-09-10 | Mitsubishi Electric Corp | Information data base device |
JP2002251412A (en) * | 2001-02-22 | 2002-09-06 | Canon Inc | Document retrieving device, method, and storage medium |
US20170061294A1 (en) * | 2015-08-25 | 2017-03-02 | Facebook, Inc. | Predicting Labels Using a Deep-Learning Model |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020188837A1 (en) | 2019-03-20 | 2020-09-24 | 富士ゼロックス株式会社 | Light-emitting device, optical device, and information processing device |
CN113449050A (en) * | 2020-03-24 | 2021-09-28 | 北京四维图新科技股份有限公司 | Position searching method, device and storage medium |
CN113449050B (en) * | 2020-03-24 | 2024-04-16 | 北京四维图新科技股份有限公司 | Position searching method, device and storage medium |
JP2021179980A (en) * | 2020-05-11 | 2021-11-18 | ネイバー コーポレーションNAVER Corporation | Method for extracting category of item for shopping search |
JP7108740B2 (en) | 2020-05-11 | 2022-07-28 | ネイバー コーポレーション | Product Category Extraction Method for Shopping Search |
JP7372278B2 (en) | 2021-04-20 | 2023-10-31 | ヤフー株式会社 | Calculation device, calculation method and calculation program |
CN114598597A (en) * | 2022-02-24 | 2022-06-07 | 烽台科技(北京)有限公司 | Multi-source log analysis method and device, computer equipment and medium |
CN114598597B (en) * | 2022-02-24 | 2023-12-01 | 烽台科技(北京)有限公司 | Multisource log analysis method, multisource log analysis device, computer equipment and medium |
Also Published As
Publication number | Publication date |
---|---|
JP6971103B2 (en) | 2021-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6971103B2 (en) | Information processing equipment, information processing methods, and programs | |
US11783197B2 (en) | Using meta-information in neural machine translation | |
US11423596B2 (en) | System and method for generating emoji mashups with machine learning | |
US10678997B2 (en) | Machine learned models for contextual editing of social networking profiles | |
JP6575335B2 (en) | Method, computer system, and program for estimating links between social media messages and facilities | |
US20210026910A1 (en) | Expert Detection in Social Networks | |
CN111602147A (en) | Machine learning model based on non-local neural network | |
US20200341976A1 (en) | Interactive search experience using machine learning | |
US11487946B2 (en) | Content editing using content modeling and semantic relevancy scoring | |
CN104462051B (en) | Segmenting method and device | |
JP6309539B2 (en) | Method and apparatus for realizing speech input | |
EP3519990A1 (en) | Query-time analytics on graph queries spanning subgraphs | |
WO2017016122A1 (en) | Information pushing method and apparatus | |
JP2018156473A (en) | Analysis device, analysis method, and program | |
CN112732870B (en) | Word vector based search method, device, equipment and storage medium | |
JP7058574B2 (en) | Information processing equipment, information processing methods, and programs | |
KR101955920B1 (en) | Search method and apparatus using property language | |
Ding et al. | Generating high-quality query suggestion candidates for task-based search | |
JP2017151933A (en) | Data classifier, data classification method, and program | |
KR102399837B1 (en) | Method and system for extracting product category for shopping search | |
KR101890207B1 (en) | Method and apparatus for named entity linking and computer program thereof | |
KR20170048008A (en) | Apparatus for analyzing intention of query and method thereof | |
CN115378890B (en) | Information input method, device, storage medium and computer equipment | |
US10984026B2 (en) | Search method for performing search based on an obtained search word and an associated search word | |
CN111787042A (en) | Method and device for pushing information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200305 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6971103 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |