JP2019053386A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2019053386A
JP2019053386A JP2017175549A JP2017175549A JP2019053386A JP 2019053386 A JP2019053386 A JP 2019053386A JP 2017175549 A JP2017175549 A JP 2017175549A JP 2017175549 A JP2017175549 A JP 2017175549A JP 2019053386 A JP2019053386 A JP 2019053386A
Authority
JP
Japan
Prior art keywords
category
query
search
information processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017175549A
Other languages
Japanese (ja)
Other versions
JP6971103B2 (en
Inventor
文彦 ▲高▼橋
文彦 ▲高▼橋
Fumihiko Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017175549A priority Critical patent/JP6971103B2/en
Publication of JP2019053386A publication Critical patent/JP2019053386A/en
Application granted granted Critical
Publication of JP6971103B2 publication Critical patent/JP6971103B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an information processing apparatus for improving search accuracy, an information processing method, and a program.SOLUTION: An information processing apparatus includes: an analysis unit which analyzes a query used for search, and divides the query into words; a conversion unit which converts the words obtained by the analysis unit into feature vectors; and a first estimation unit which learns relationship between feature vectors of the words included in the query in learning data and a category associated with the query in the learning data, to estimate a category associated with the query used for search.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

ウェブ検索の分野において、ユーザが入力したキーワード(以下、「クエリ」)に応じて、このクエリに関連する各種商品またはサービスの情報を提供する手法が行われている。また、ユーザが意図する商品またはサービスの情報を高精度で提供するために、機械学習を用いた検索手法の開発も進められている。   In the field of web search, in accordance with a keyword (hereinafter referred to as “query”) input by a user, a technique for providing information on various products or services related to the query is performed. In addition, in order to provide highly accurate information on products or services intended by users, development of search methods using machine learning is also in progress.

特表2002−530948号公報JP-T-2002-530948

しかしながら、従来の技術では、クエリとの関連度が低く、ユーザが意図しない商品またはサービスの情報が提供される場合があった。また、従来の機械学習を用いた手法は、単純な線形モデルを用いたものであり、クエリに含まれる単語の組み合わせを考慮できていなかった。また、一般的な機械学習の分野において、線形モデルの他、エンコーダ−デコーダモデルを用いる手法の研究が進められているが、ウェブ検索の分野に適用することは想定されていなかった(例えば、特許文献1参照)。   However, in the related art, there is a case where information on a product or service unintended by the user is provided because the degree of relevance to the query is low. In addition, the conventional method using machine learning uses a simple linear model and cannot consider a combination of words included in a query. In addition, in the field of general machine learning, research on a method using an encoder-decoder model in addition to a linear model is underway, but application to the field of web search has not been assumed (for example, patents). Reference 1).

本発明は、このような事情を考慮してなされたものであり、検索精度を向上させることができる情報処理装置、情報処理方法、およびプログラムを提供することを目的の一つとする。   The present invention has been made in consideration of such circumstances, and an object of the present invention is to provide an information processing apparatus, an information processing method, and a program capable of improving the search accuracy.

本発明の一態様は、検索に用いられたクエリを解析して、前記クエリを単語に分割する解析部と、前記解析部によって分割された単語を特徴ベクトルに変換する変換部と、学習データにおけるクエリに含まれる単語の特徴ベクトルと、前記学習データにおけるクエリに関連付けされたカテゴリとの関係を学習することにより、前記検索に用いられたクエリと関連付けされるカテゴリを推定する第1推定部とを備える情報処理装置である。   In one aspect of the present invention, an analysis unit that analyzes a query used for search and divides the query into words, a conversion unit that converts the words divided by the analysis unit into feature vectors, and learning data A first estimation unit that estimates a category associated with the query used in the search by learning a relationship between a feature vector of a word included in the query and a category associated with the query in the learning data; An information processing apparatus is provided.

本発明の一態様によれば、検索精度を向上させることができる。   According to one embodiment of the present invention, search accuracy can be improved.

第1実施形態の検索サーバ10の使用環境を示す図である。It is a figure which shows the use environment of the search server 10 of 1st Embodiment. 第1実施形態のカテゴリのツリー構造の一例を示す図である。It is a figure which shows an example of the tree structure of the category of 1st Embodiment. 第1実施形態の検索サーバ10の学習処理の流れの一例を示す図である。It is a figure which shows an example of the flow of the learning process of the search server 10 of 1st Embodiment. 第1実施形態の検索サーバ10のカテゴリ推定処理の流れの一例を示す図である。It is a figure which shows an example of the flow of the category estimation process of the search server 10 of 1st Embodiment. 第1実施形態のカテゴリ推定部36におけるカテゴリ推定処理を模式的に示す図である。It is a figure which shows typically the category estimation process in the category estimation part 36 of 1st Embodiment. 第1実施形態の検索結果ページの一例を示す図である。It is a figure which shows an example of the search result page of 1st Embodiment. 評価実験において利用したモデルを説明する図である。It is a figure explaining the model utilized in evaluation experiment. 評価実験の結果を示す図である。It is a figure which shows the result of evaluation experiment. 評価実験のクリック数別での一致率の比較結果を示す図である。It is a figure which shows the comparison result of the coincidence rate according to the number of clicks of evaluation experiment. 評価実験のモデル1を用いて推定されたカテゴリの一例を示す図である。It is a figure which shows an example of the category estimated using the model 1 of evaluation experiment. 第2実施形態の検索サーバ11の機能ブロック図である。It is a functional block diagram of the search server 11 of 2nd Embodiment. 第2実施形態の検索ログデータの一例を示す図である。It is a figure which shows an example of the search log data of 2nd Embodiment. 第2実施形態の検索サーバ11のカテゴリ推定処理の流れの一例を示す図である。It is a figure which shows an example of the flow of the category estimation process of the search server 11 of 2nd Embodiment. 第3実施形態の検索サーバ12の機能ブロック図である。It is a functional block diagram of search server 12 of a 3rd embodiment.

以下、図面を参照して、情報処理装置、情報処理方法、およびプログラムの実施形態について説明する。   Hereinafter, embodiments of an information processing device, an information processing method, and a program will be described with reference to the drawings.

<1.第1実施形態>
以下、本発明の第1実施形態について説明する。本実施形態の情報処理装置は、検索に用いられたクエリを単語に分割し、この分割された単語を特徴ベクトルに変換し、クエリと関連付けされるカテゴリを推定する。本実施形態における「カテゴリ」とは、検索に用いられたクエリに対して検索結果として提供されるコンテンツの内容(商品またはサービス)が属する分野を示す情報である。本実施形態では、情報処理装置が、商品またはサービスのコンテンツの検索結果を提供する検索サーバである例について説明する。
<1. First Embodiment>
The first embodiment of the present invention will be described below. The information processing apparatus according to the present embodiment divides a query used for search into words, converts the divided words into feature vectors, and estimates a category associated with the query. The “category” in the present embodiment is information indicating a field to which content contents (products or services) provided as a search result for a query used for a search belong. In the present embodiment, an example will be described in which the information processing apparatus is a search server that provides a search result of a product or service content.

<1−1.システム構成>
図1は、本実施形態の検索サーバ10(情報処理装置)の使用環境を示す図である。検索サーバ10は、ネットワークNWを介して、端末装置T等と接続されている。ネットワークNWは、例えば、WAN(Wide Area Network)やLAN(Local Area Network)、インターネット、専用回線、無線基地局、プロバイダ等を含む。
<1-1. System configuration>
FIG. 1 is a diagram illustrating a use environment of a search server 10 (information processing apparatus) according to the present embodiment. The search server 10 is connected to the terminal device T and the like via the network NW. The network NW includes, for example, a WAN (Wide Area Network), a LAN (Local Area Network), the Internet, a dedicated line, a wireless base station, a provider, and the like.

端末装置Tは、検索サーバ10により提供される検索サービスを利用するユーザによって操作される。端末装置Tは、例えば、パーソナルコンピュータ、スマートフォンなどの携帯電話やタブレット端末、PDA(Personal Digital Assistant)などのコンピュータ装置である。端末装置Tは、ユーザの操作に基づいて動作するブラウザまたはアプリケーションプログラムが、例えば、情報提供を要求するクエリを検索サーバ10に送信し、クエリと関連付けされた情報を検索サーバ10から受信する。   The terminal device T is operated by a user who uses a search service provided by the search server 10. The terminal device T is, for example, a computer device such as a personal computer, a mobile phone such as a smartphone, a tablet terminal, or a PDA (Personal Digital Assistant). In the terminal device T, a browser or an application program that operates based on a user operation transmits, for example, a query requesting information provision to the search server 10 and receives information associated with the query from the search server 10.

検索サーバ10は、端末装置Tから入力されたクエリと関連付けされる検索結果のページ情報を端末装置Tに送信する。検索サーバ10は、クエリと、このクエリと関連付けされたサイトのページを参照するための参照情報とを関連付けた検索データを用いて、検索結果のページ情報を生成する。参照情報は、例えば、URL(Uniform Resource Locator)を含む。   The search server 10 transmits the page information of the search result associated with the query input from the terminal device T to the terminal device T. The search server 10 generates search search page information using search data that associates a query with reference information for referring to a page of a site associated with the query. The reference information includes, for example, a URL (Uniform Resource Locator).

検索サーバ10は、例えば、通信部30と、クエリ解析部32(解析部)と、クエリ変換部34(変換部)と、カテゴリ推定部36(第1推定部、学習部)と、検索結果生成部38(生成部)と、記憶部40とを備える。通信部30は、ネットワークNWを介して、端末装置T等と通信する。通信部30は、ネットワークNWを介して、端末装置Tからクエリを受信し、検索結果のページ情報を端末装置Tに送信する。通信部30は、例えば、NIC等の通信インターフェースを含む。   The search server 10 includes, for example, a communication unit 30, a query analysis unit 32 (analysis unit), a query conversion unit 34 (conversion unit), a category estimation unit 36 (first estimation unit, learning unit), and search result generation. A unit 38 (generation unit) and a storage unit 40 are provided. The communication unit 30 communicates with the terminal device T and the like via the network NW. The communication unit 30 receives a query from the terminal device T via the network NW, and transmits page information of the search result to the terminal device T. The communication unit 30 includes a communication interface such as a NIC, for example.

クエリ解析部32は、端末装置Tから入力されたクエリを解析して、単語レベルに分割する。クエリ解析部32は、例えば、形態素解析によってクエリを解析し、少なくとも1つの単語に分割する。   The query analysis unit 32 analyzes the query input from the terminal device T and divides it into word levels. The query analysis unit 32 analyzes the query by morphological analysis, for example, and divides it into at least one word.

クエリ変換部34は、クエリ解析部32によって分割された単語の各々を特徴ベクトルに変換する。クエリ変換部34は、分割された単語の各々を、例えば、word2vecと称されているツール(プログラム)を利用して、特徴ベクトルに変換する。word2vecとは、ニューラルネットワークを利用したツールであり、入力されたコーパスに含まれるテキスト情報を、そのテキスト情報の特徴を示す特徴ベクトルに変換して出力する。本実施形態では、word2vecにおいて、クエリの分散表現が事前に学習されているものとする。   The query conversion unit 34 converts each of the words divided by the query analysis unit 32 into a feature vector. The query conversion unit 34 converts each of the divided words into a feature vector using, for example, a tool (program) called word2vec. word2vec is a tool that uses a neural network, and converts text information included in the input corpus into a feature vector indicating the characteristics of the text information and outputs the converted feature information. In the present embodiment, it is assumed that a distributed expression of a query is learned in advance in word2vec.

カテゴリ推定部36は、クエリ変換部34から入力された少なくとも1つの特徴ベクトルと関連付けされるカテゴリを推定する。カテゴリ推定部36は、例えば、再帰型ニューラルネットワーク(RNN:Recurrent Neural Networks)に基づくエンコーダデコーダモデルを用いて、カテゴリを推定する。以下においては、カテゴリ推定部36が、エンコーダデコーダモデルを用いる例について説明する。   The category estimation unit 36 estimates a category associated with at least one feature vector input from the query conversion unit 34. The category estimation unit 36 estimates a category using, for example, an encoder / decoder model based on a recurrent neural network (RNN). In the following, an example in which the category estimation unit 36 uses an encoder / decoder model will be described.

カテゴリ推定部36は、例えば、エンコーダ42と、デコーダ44とを備える。エンコーダ42およびデコーダ44は、検索に用いられたクエリに含まれる「単語の特徴ベクトル」と、クエリを応じて提供された検索結果ページにおいてユーザが選択した「カテゴリ」との組を学習データとして、学習処理を行う。   The category estimation unit 36 includes, for example, an encoder 42 and a decoder 44. The encoder 42 and the decoder 44 use, as learning data, a set of “word feature vector” included in the query used for the search and “category” selected by the user in the search result page provided in response to the query. Perform learning process.

エンコーダ42は、上述の学習データを用いて学習を行ったモデル(以下、「エンコードモデル」を用いて、クエリ変換部34から入力された少なくとも1つの特徴ベクトルに対してエンコード処理を行う。エンコーダ42は、クエリ変換部34から2以上の特徴ベクトルが入力された場合、第1の特徴ベクトルに対してエンコード処理を行い、次に、第1の特徴ベクトルのエンコード処理結果と、第2の特徴ベクトルとを用いてエンコード処理を行う。エンコーダ42は、エンコード処理を繰り返すことにより得られたエンコード処理結果をデコーダ44に入力する。   The encoder 42 performs an encoding process on at least one feature vector input from the query conversion unit 34 using a model (hereinafter referred to as an “encoding model”) that has been learned using the learning data described above. Performs an encoding process on the first feature vector when two or more feature vectors are input from the query conversion unit 34, and then performs an encoding process result of the first feature vector and a second feature vector. The encoder 42 inputs the result of the encoding process obtained by repeating the encoding process to the decoder 44.

デコーダ44は、上述の学習データを用いて学習を行ったモデル(以下、「デコードモデル」を用いて、エンコーダ42から入力されたエンコード処理結果に基づいて、クエリの単語に関連付けされるべきカテゴリを推定して出力する。カテゴリは、例えば、ツリー構造を有しており、商品またはサービスが属する分野を階層状に定義する。図2は、カテゴリのツリー構造の一例を示す図である。図2に示す例では、第1階層H1として「メンズファッション」、「レディースファッション」等が定義されている。また、「メンズファッション(第1階層H1)」の下位の第2階層H2として、「メンズシューズ」、「メンズバック」等が定義されている。また、「メンズシューズ(第2階層H2)」の下位の第3階層H3として、「スニーカー」、「ビジネスシューズ」、「サンダル」、「ブーツ」等が定義されている。   The decoder 44 selects a category to be associated with the query word based on the result of the encoding process input from the encoder 42 using the model (hereinafter referred to as “decode model”) that has been learned using the learning data described above. The category has, for example, a tree structure, and the fields to which the goods or services belong are defined in a hierarchical manner, and Fig. 2 is a diagram showing an example of the category tree structure. In the example shown, “Men's fashion”, “Ladies' fashion”, etc. are defined as the first hierarchy H1, and “Men's shoes” are defined as the second hierarchy H2 subordinate to “Men's fashion (first hierarchy H1)”. ”,“ Men's bag ”, etc. In addition, as the third hierarchy H3, which is lower than“ Men's shoes (second hierarchy H2) ”, Over "," business shoes ", such as" Sandals "," boots "are defined.

デコーダ44は、エンコーダ42から入力されるエンコード処理結果(多次元ベクトル)と、図2に示すようなカテゴリのツリー構造との関係を学習する。デコーダ44は、エンコード処理結果に基づいて、クエリの単語に関連付けされるべきカテゴリを推定し、カテゴリのツリー構造における上位の階層から順に出力する。   The decoder 44 learns the relationship between the encoding process result (multidimensional vector) input from the encoder 42 and the category tree structure as shown in FIG. Based on the result of the encoding process, the decoder 44 estimates a category to be associated with the query word, and sequentially outputs the category from the upper hierarchy in the category tree structure.

検索結果生成部38は、カテゴリ推定部36によって推定されたカテゴリに基づいて、検索結果である検索結果ページを生成する。検索結果生成部38は、生成した検索結果ページを、通信部30を介して、端末装置Tに送信する。   The search result generation unit 38 generates a search result page that is a search result based on the category estimated by the category estimation unit 36. The search result generation unit 38 transmits the generated search result page to the terminal device T via the communication unit 30.

検索サーバ10の各機能部は、例えば、コンピュータにおいて、CPU(Central Processing Unit)等のハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。   Each functional unit of the search server 10 is realized, for example, when a hardware processor such as a CPU (Central Processing Unit) executes a program (software) in a computer. Some or all of these components are hardware (circuits) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), and GPU (Graphics Processing Unit). Part (including circuit)), or may be realized by cooperation of software and hardware.

記憶部40は、クエリと、このクエリと関連付けされたサイトのページを参照するための参照情報とを関連付けた検索データD1、カテゴリのツリー構造を示すカテゴリデータD2等を記憶する。記憶部40は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ、またはこれらのうち複数が組み合わされたハイブリッド型記憶装置等により実現される。また、記憶部40の一部または全部は、NASや外部のストレージサーバ等、検索サーバ10がアクセス可能な外部装置であってもよい。   The storage unit 40 stores search data D1 in which a query is associated with reference information for referring to a page of a site associated with the query, category data D2 indicating a tree structure of categories, and the like. The storage unit 40 is realized by, for example, a random access memory (RAM), a read only memory (ROM), a hard disk drive (HDD), a flash memory, or a hybrid storage device in which a plurality of these are combined. Further, a part or all of the storage unit 40 may be an external device accessible by the search server 10 such as a NAS or an external storage server.

<1−2.学習処理>
以下において、検索サーバ10の学習処理について説明する。図3は、検索サーバ10の学習処理の流れの一例を示す図である。カテゴリ推定部36は、クエリに含まれる単語の特徴ベクトルと、このクエリと関連付けされるカテゴリとの関係を学習する。
<1-2. Learning process>
Hereinafter, the learning process of the search server 10 will be described. FIG. 3 is a diagram illustrating an example of a learning process flow of the search server 10. The category estimation unit 36 learns the relationship between the feature vector of words included in the query and the category associated with the query.

まず、検索サーバ10のカテゴリ推定部36に、学習データを入力する(S101)。学習データとしては、例えば、検索サービスが利用された際のログデータを利用する。学習データとしては、例えば、検索に用いられたクエリに含まれる「単語の特徴ベクトル」と、クエリを応じて提供された検索結果ページにおいてユーザが選択した「カテゴリ」との組を利用する。   First, learning data is input to the category estimation unit 36 of the search server 10 (S101). As the learning data, for example, log data when the search service is used is used. As the learning data, for example, a set of “word feature vector” included in the query used for the search and “category” selected by the user in the search result page provided in response to the query is used.

次に、カテゴリ推定部36のエンコーダ42が「クエリに含まれる単語の特徴ベクトル」をエンコードし(S103)、デコーダ44が、エンコーダ42によるエンコード処理結果をデコードした際に(S105)、このクエリと組となる「カテゴリ」が出力されるように、このエンコーダモデルおよびデコーダモデルにおけるパラメータを調整する(S107)。   Next, when the encoder 42 of the category estimation unit 36 encodes the “feature vector of words included in the query” (S103) and the decoder 44 decodes the encoding processing result by the encoder 42 (S105), The parameters in the encoder model and the decoder model are adjusted so that the “category” as a set is output (S107).

デコーダ44は、例えば、このデコード処理の結果として、第1階層として定義されたカテゴリごとに、クエリの単語との関連度合を示すスコアを算出する。デコーダ44は、学習データにおいてクエリと組となるカテゴリのスコアが高くなるように、デコーダモデルにおけるパラメータを調整する。カテゴリ推定部36は、例えば、逆伝播法により、パラメータの調整を行ってよい。第2階層以下の階層についても、同様な処理を行う。以上により、本フローチャートの処理を終了する。   For example, as a result of the decoding process, the decoder 44 calculates a score indicating the degree of association with the query word for each category defined as the first hierarchy. The decoder 44 adjusts the parameters in the decoder model so that the score of the category paired with the query in the learning data is high. The category estimation unit 36 may adjust the parameter by, for example, a back propagation method. Similar processing is performed for the second and lower layers. Thus, the process of this flowchart is completed.

尚、ログデータにおいて、あるクエリに対して複数存在するカテゴリのデータのうち、クリック数の少ないカテゴリのデータ(クリック数(選択された回数)が所定の閾値以下であるデータ)を除外し、除外後のログデータを学習データとするようにしてもよい。これにより、エンコーダモデルおよびデコーダモデルの精度を向上させることができる。   In log data, out of the category data that exist for a certain query, exclude the data of the category with a small number of clicks (data whose number of clicks (number of selected times) is below a predetermined threshold) and exclude it. Later log data may be used as learning data. Thereby, the accuracy of the encoder model and the decoder model can be improved.

<1−3.カテゴリ推定処理>
以下において、検索サーバ10のカテゴリ推定処理について説明する。図4は、検索サーバ10のカテゴリ推定処理の流れの一例を示す図である。
<1-3. Category estimation processing>
Hereinafter, the category estimation process of the search server 10 will be described. FIG. 4 is a diagram illustrating an example of the flow of category estimation processing of the search server 10.

まず、クエリ解析部32は、通信部30を介して、端末装置Tから入力されたクエリを取得する(S201)。次に、クエリ解析部32は、端末装置Tから入力されたクエリを解析して、単語レベルに分割する(S203)。クエリ解析部32は、例えば、形態素解析によってクエリを解析し、単語レベルに分割する。   First, the query analysis unit 32 acquires a query input from the terminal device T via the communication unit 30 (S201). Next, the query analysis unit 32 analyzes the query input from the terminal device T and divides it into word levels (S203). The query analysis unit 32 analyzes the query by morphological analysis, for example, and divides it into word levels.

次に、クエリ変換部34は、クエリ解析部32によって分割された単語の各々を特徴ベクトルに変換する(S205)。クエリ変換部34は、分割された単語の各々を、例えば、word2vecを利用して、特徴ベクトルに変換する。   Next, the query conversion unit 34 converts each of the words divided by the query analysis unit 32 into a feature vector (S205). The query conversion unit 34 converts each divided word into a feature vector using, for example, word2vec.

次に、エンコーダ42は、クエリ変換部34によって変換された特徴ベクトルのうち、第1の単語の特徴ベクトルに対してエンコード処理を行う(S207)。次に、エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了したか否かを判定する(S209)。   Next, the encoder 42 performs an encoding process on the feature vector of the first word among the feature vectors converted by the query conversion unit 34 (S207). Next, the encoder 42 determines whether or not the encoding process for the feature vectors of all words has been completed (S209).

エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了していないと判定した場合、クエリ変換部34によって変換された特徴ベクトルのうち、第2の単語の特徴ベクトルと、第1の単語の特徴ベクトルに対するエンコード処理結果とを用いて、再度、エンコード処理を行う(S207)。次に、エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了したか否かを判定する(S209)。以下、全ての単語の特徴ベクトルに対するエンコード処理が完了するまで、同様な処理を繰り返す。エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了したと判定した場合、上述のエンコード処理を繰り返した結果として得られたエンコード処理結果をデコーダ44に入力する。   If the encoder 42 determines that the encoding process has not been completed for the feature vectors of all words, the feature vector of the second word and the first word of the feature vectors converted by the query converter 34 are displayed. The encoding process is performed again using the encoding process result for the feature vector (S207). Next, the encoder 42 determines whether or not the encoding process for the feature vectors of all words has been completed (S209). Thereafter, the same processing is repeated until the encoding processing for the feature vectors of all words is completed. When the encoder 42 determines that the encoding process has been completed for the feature vectors of all words, the encoder 42 inputs the encoding process result obtained as a result of repeating the above-described encoding process to the decoder 44.

次に、デコーダ44は、エンコーダ42から入力されたエンコード処理結果に対して、デコード処理を行う(S211)。デコーダ44は、このデコード処理の結果として、第1階層として定義されたカテゴリごとに、クエリの単語との関連度合を示すスコアを算出する。例えば、最も高いスコアのカテゴリが、クエリと関連付けされるカテゴリとして推定される。   Next, the decoder 44 performs a decoding process on the encoding process result input from the encoder 42 (S211). As a result of the decoding process, the decoder 44 calculates a score indicating the degree of association with the query word for each category defined as the first hierarchy. For example, the category with the highest score is estimated as the category associated with the query.

次に、デコーダ44は、最下層のカテゴリの推定が完了したか否かを判定する(S213)。デコーダ44は、最下層のカテゴリの推定が完了していないと判定した場合、推定されたカテゴリの情報と、デコード処理結果とを用いて、再度、デコード処理を行う(S211)。次に、エンコーダ42は、最下層のカテゴリの推定が完了したか否かを判定する(S213)。以下、最下層のカテゴリの推定が完了するまで、同様な処理を繰り返す。デコーダ44は、最下層のカテゴリの推定が完了したと判定した場合、推定したカテゴリの情報を検索結果生成部38に入力する。   Next, the decoder 44 determines whether or not the estimation of the lowermost category has been completed (S213). When the decoder 44 determines that the estimation of the lowermost category has not been completed, the decoder 44 performs the decoding process again using the estimated category information and the decoding process result (S211). Next, the encoder 42 determines whether or not the estimation of the lowermost category has been completed (S213). Thereafter, the same processing is repeated until the estimation of the lowermost category is completed. When the decoder 44 determines that the estimation of the lowermost category has been completed, the decoder 44 inputs information on the estimated category to the search result generation unit 38.

図5は、カテゴリ推定部36におけるカテゴリ推定処理を模式的に示す図である。図5に示す例では、クエリ解析部32は、端末装置Tから入力されたクエリ「メンズ スニーカー A社」を、「メンズ」、「スニーカー」、および「A社」という3単語に分割し、クエリ変換部34が、これらの3つの単語の各々を特徴ベクトルに変換して、カテゴリ推定部36に入力する例を示す。   FIG. 5 is a diagram schematically showing category estimation processing in the category estimation unit 36. In the example illustrated in FIG. 5, the query analysis unit 32 divides the query “men's sneaker A company” input from the terminal device T into three words “men's”, “sneakers”, and “company A”. An example in which the conversion unit 34 converts each of these three words into a feature vector and inputs the feature vector to the category estimation unit 36 is shown.

まず、エンコーダ42は、第1の単語「メンズ」の特徴ベクトルに対してエンコード処理を行い、第1のエンコード処理結果R1を得る。次に、エンコーダ42は、第2の単語「スニーカー」の特徴ベクトルと、第1のエンコード処理結果R1とを用いてエンコード処理を行い、第2のエンコード処理結果R2を得る。次に、エンコーダ42は、第3の単語「A社」の特徴ベクトルと、第2のエンコード処理結果R2とを用いてエンコード処理を行い、第3のエンコード処理結果R3を得る。エンコーダ42は、第3のエンコード処理結果R3をデコーダ44に入力する。   First, the encoder 42 performs an encoding process on the feature vector of the first word “men”, and obtains a first encoding process result R1. Next, the encoder 42 performs an encoding process using the feature vector of the second word “sneakers” and the first encoding process result R1 to obtain a second encoding process result R2. Next, the encoder 42 performs an encoding process using the feature vector of the third word “Company A” and the second encoding process result R2 to obtain a third encoding process result R3. The encoder 42 inputs the third encoding processing result R3 to the decoder 44.

次に、デコーダ44は、エンコーダ42から入力された第3のエンコード処理結果R3に対してデコード処理を行う。ここで、デコーダ44は、最上位層(第1階層H1)のカテゴリごとに、「メンズ」、「スニーカー」、および「A社」という3単語との関連度合を示すスコアを算出する。デコーダ44は、カテゴリごとに算出したスコアの内、最も高いスコアを示すカテゴリを、「メンズ」、「スニーカー」、および「A社」という3単語と関連付けされる第1のカテゴリ(この例では「メンズファッション」)と推定する。   Next, the decoder 44 performs a decoding process on the third encoding process result R3 input from the encoder 42. Here, the decoder 44 calculates a score indicating the degree of association with the three words “men”, “sneakers”, and “Company A” for each category of the highest layer (first layer H1). The decoder 44 sets the category indicating the highest score among the scores calculated for each category to the first category (in this example, “Men”, “Sneakers”, and “Company A”) associated with the three words. Men's fashion ").

次に、デコーダ44は、第3のエンコード処理結果R3に対するデコード処理結果(第1のデコード処理結果R4)と、推定されたカテゴリ「メンズファッション」を示すデータとを用いてデコード処理を行う。ここで、デコーダ44は、推定されたカテゴリ「メンズファッション(第1階層)」の下位に位置する第2階層H2のカテゴリごとに、「メンズ」、「スニーカー」、および「A社」という3単語との関連度合を示すスコアを算出する。デコーダ44は、カテゴリごとに算出したスコアの内、最も高いスコアを示すカテゴリを、「メンズ」、「スニーカー」、および「A社」という3単語と関連付けされる第2のカテゴリ(この例では「メンズシューズ」)と推定する。   Next, the decoder 44 performs a decoding process using the decoding process result (first decoding process result R4) for the third encoding process result R3 and data indicating the estimated category “men's fashion”. Here, the decoder 44 has three words “men”, “sneakers”, and “Company A” for each category of the second hierarchy H2 that is positioned below the estimated category “men's fashion (first hierarchy)”. A score indicating the degree of association with is calculated. The decoder 44 selects the category indicating the highest score among the scores calculated for each category as a second category (in this example, “Men”, “Sneakers”, and “Company A”). Men's shoes ").

次に、デコーダ44は、第1のデコード処理結果R4に対するデコード処理結果(第2のデコード処理結果R5)と、推定されたカテゴリ「メンズシューズ」を示すデータとを用いてデコード処理を行う。ここで、デコーダ44は、推定されたカテゴリ「メンズシューズ(第2階層)」の下位に位置する第3階層H3のカテゴリごとに、「メンズ」、「スニーカー」、および「A社」という3単語との関連度合を示すスコアを算出する。デコーダ44は、カテゴリごとに算出したスコアの内、最も高いスコアを示すカテゴリを、「メンズ」、「スニーカー」、および「A社」という3単語と関連付けされる第3のカテゴリ(この例では「スニーカー」)と推定する。   Next, the decoder 44 performs a decoding process using the decoding process result (second decoding process result R5) for the first decoding process result R4 and data indicating the estimated category “men's shoes”. Here, the decoder 44 has three words “men”, “sneakers”, and “Company A” for each category of the third hierarchy H3 that is located below the estimated category “men's shoes (second hierarchy)”. A score indicating the degree of association with is calculated. Of the scores calculated for each category, the decoder 44 assigns a category indicating the highest score to a third category (in this example, “Men”, “Sneakers”, and “Company A”). Sneakers)).

図5に示す以上の処理により、「メンズ」、「スニーカー」、および「A社」という3単語と関連付けされるカテゴリとして、「メンズファッション(第1階層)」、「メンズシューズ(第2階層)」、および「スニーカー(第3階層)」というカテゴリの推定結果が得られる。   As a result of the above processing shown in FIG. 5, categories associated with the three words “men's”, “sneakers”, and “Company A” are classified as “men's fashion (first level)” and “men's shoes (second level)”. ”And“ sneakers (third layer) ”are obtained.

次に、検索結果生成部38は、デコーダ44から入力されたカテゴリの推定結果に基づいて、検索結果である検索結果ページを生成し、端末装置Tに送信する(S215)。図6は、検索結果ページP1の一例を示す図である。図6に示す例において、検索結果生成部38は、推定された第3階層のカテゴリである「スニーカー」をページ内の最も視認性の高い位置に配置した検索結果ページP1を生成する。   Next, the search result generation unit 38 generates a search result page, which is a search result, based on the category estimation result input from the decoder 44, and transmits it to the terminal device T (S215). FIG. 6 is a diagram illustrating an example of the search result page P1. In the example illustrated in FIG. 6, the search result generation unit 38 generates a search result page P1 in which “Sneakers”, which is the estimated category of the third hierarchy, is arranged at the highest visibility position in the page.

尚、図6に示す例では、推定されたカテゴリである「スニーカー」に加え、推定された第2階層のカテゴリである「メンズシューズ(第2階層)」の下位のその他のカテゴリである「ブーツ」、「サンダル」、「ビジネスシューズ」等が、例えば、スコアが高い順に並べられて表示されている。検索結果生成部38は、生成した検索結果ページP1を、通信部30を介して、端末装置Tに送信する。端末装置Tのユーザは、端末装置Tを操作して検索結果ページP1に含まれる1つのカテゴリを選択することで、ユーザの意図に応じた検索結果を取得することができる。以上により、本フローチャートの処理を終了する。   In the example shown in FIG. 6, in addition to the estimated category “sneakers”, “boots” that is another category below “Men's shoes (second layer)” that is the estimated category of the second hierarchy. ", Sandals", "business shoes", etc. are displayed in order of increasing score, for example. The search result generation unit 38 transmits the generated search result page P1 to the terminal device T via the communication unit 30. The user of the terminal device T can acquire a search result according to the user's intention by operating the terminal device T and selecting one category included in the search result page P1. Thus, the process of this flowchart is completed.

尚、図6に示す例では、推定されたカテゴリをユーザに選択させる検索結果ページP1を端末装置Tに送信する例を説明した。しかしながら、検索結果生成部38は、推定されたカテゴリをユーザに選択させる検索結果ページP1に代えて、推定されたカテゴリに関連する商品またはサービスのページを端末装置Tに送信するようにしてもよい。   In the example illustrated in FIG. 6, the example in which the search result page P <b> 1 that allows the user to select the estimated category is transmitted to the terminal device T has been described. However, the search result generation unit 38 may transmit a page of products or services related to the estimated category to the terminal device T instead of the search result page P1 that allows the user to select the estimated category. .

<1−3.評価実験>
本実施形態における検索サーバ10のカテゴリ推定精度を評価するために、図7に示すような3つのモデルを用いた評価実験を行った。モデル1は、本実施形態の検索サーバ10で使用するエンコーダデコーダモデルである。モデル2は、従来技術の線形分類器を用いた線形モデルである。モデル3は、従来技術のログに基づく(実績ベース)モデルである。このモデル3では、検索ログにおいてクリック数の多いカテゴリが選択される。この評価実験では、検索に実際に利用されたに応じて提供された検索結果ページにおいてユーザがクリックしたカテゴリのうち、クリック数が最も多いカテゴリを「正解カテゴリ」とした。この評価実験では、各モデルを利用したカテゴリ推定処理を行う検索サーバ10に対して、検索に実際に利用されたクエリを入力し、検索サーバ10によって推定されたカテゴリと、正解カテゴリとの一致率を算出した。
<1-3. Evaluation Experiment>
In order to evaluate the category estimation accuracy of the search server 10 in this embodiment, an evaluation experiment using three models as shown in FIG. 7 was performed. Model 1 is an encoder / decoder model used in the search server 10 of the present embodiment. Model 2 is a linear model using a prior art linear classifier. Model 3 is a model based on the logs of the prior art (result-based). In this model 3, a category having a large number of clicks is selected in the search log. In this evaluation experiment, the category with the largest number of clicks among the categories clicked by the user on the search result page provided according to the actual use in the search was defined as the “correct answer category”. In this evaluation experiment, a query actually used for a search is input to the search server 10 that performs a category estimation process using each model, and the matching rate between the category estimated by the search server 10 and the correct category Was calculated.

図8は、上述の評価実験の結果を示す図である。図8に示すように、第1階層のカテゴリ、第2階層のカテゴリ、および第3階層のカテゴリのいずれにおいても、モデル3(ログモデル)を用いた推定結果の一致率が最も高く、次に、モデル1(エンコーダデコーダモデル)を用いた推定結果の一致率が高く、モデル2(線形モデル)を用いた推定結果の一致率が最も低かった。   FIG. 8 is a diagram showing the results of the evaluation experiment described above. As shown in FIG. 8, in any of the first hierarchy category, the second hierarchy category, and the third hierarchy category, the matching rate of the estimation results using the model 3 (log model) is the highest. The matching rate of the estimation results using Model 1 (encoder decoder model) was high, and the matching rate of the estimation results using Model 2 (Linear model) was the lowest.

また、図9は、評価実験のクリック数別での一致率の比較結果を示す図である。図9に示すように、いずれのクリック数においても、モデル3を用いた推定結果の一致率が最も高く、次に、モデル1を用いた推定結果の一致率が高く、モデル2を用いた推定結果の一致率が最も低かった。クリック数が少ない場合においても(いわゆるテールクエリにおいても)、モデル3を用いた推定結果の一致率が最も高いことが分かった。   Moreover, FIG. 9 is a figure which shows the comparison result of the coincidence rate according to the number of clicks of the evaluation experiment. As shown in FIG. 9, in any click count, the matching rate of the estimation result using the model 3 is the highest, and then the matching rate of the estimation result using the model 1 is high, and the estimation using the model 2 is performed. The matching rate of the results was the lowest. It was found that even when the number of clicks is small (also in the so-called tail query), the matching rate of the estimation results using the model 3 is the highest.

この評価実験に使用したモデル1では、クリック頻度を考慮していないため、クリック数が多いカテゴリも、クリック数が少ないカテゴリも同じように処理されるため、学習データに含まれるノイズに弱いことが想定される。   In the model 1 used in this evaluation experiment, the click frequency is not taken into consideration, and therefore the category with a large number of clicks and the category with a small number of clicks are processed in the same way, and therefore, it is vulnerable to noise included in the learning data. is assumed.

また、モデル1を用いて推定されたカテゴリは、検索ログにおける正解カテゴリとは異なっていたものの、正しい推定処理が行われていると判断されてよいものも含まれていた。図10は、モデル1を用いて推定されたカテゴリの一例を示す図である。図10に示すように、例えば、「新婚 プレゼント」というクエリに対して、モデル1を用いて推定されたカテゴリはキッチン用品に関連するカテゴリであったのに対して、正解カテゴリはゲームに関連するカテゴリであった。これはクエリの多義性に起因するものであり、このようなモデル1の推定結果は正しいと判断してもよいと考えらえる。   Moreover, although the category estimated using the model 1 was different from the correct category in the search log, the category that may be determined to have been correctly estimated is included. FIG. 10 is a diagram illustrating an example of categories estimated using the model 1. As shown in FIG. 10, for example, for the query “honeymoon gift”, the category estimated using model 1 was a category related to kitchenware, whereas the correct category was related to a game. It was a category. This is due to the ambiguity of the query, and it can be considered that the estimation result of the model 1 may be determined to be correct.

また、例えば、「大きい 財布 通帳 入る」というクエリに対して、モデル1を用いて推定されたカテゴリはレディースファッションに関連するカテゴリであったのに対して、正解カテゴリはメンズファッションに関連するカテゴリであった。これは、商品に関連するカテゴリが重複して存在することに起因するものであり、このようなモデル1の推定結果は正しいと判断してもよいと考えらえる。   In addition, for example, for the query “enter large wallet passbook”, the category estimated using Model 1 was a category related to ladies fashion, while the correct category was a category related to men's fashion. there were. This is due to the existence of overlapping categories related to the product, and it can be considered that the estimation result of such a model 1 may be determined to be correct.

また、例えば、「携帯 電話 かわいい ストラップ」というクエリに対して、モデル1を用いて推定されたカテゴリはスマートフォンに関連するカテゴリであったのに対して、正解カテゴリはレディースファッションに関連するカテゴリであった。これは、クエリに対するカテゴリ選択の困難性に起因するものであり、このようなモデル1の推定結果は正しいと判断してもよいと考えらえる。   For example, for the query “mobile phone cute strap”, the category estimated using model 1 was a category related to smartphones, whereas the correct category was a category related to ladies fashion. It was. This is due to the difficulty in selecting a category for the query, and it can be considered that the estimation result of the model 1 may be determined to be correct.

その他、モデル1の推定処理が正解ではないと判断されなかった例として、クエリ解析部32によるクエリに対する形態素解析が適切でなかった場合や、クエリに含まれる特定の単語がカテゴリ推定に大きな影響を及ぼしその他の単語との関連が適切に評価されなかった場合等があった。   In addition, as an example in which the estimation process of the model 1 is not determined to be correct, when the morphological analysis for the query by the query analysis unit 32 is not appropriate, or when a specific word included in the query has a large influence on the category estimation. In some cases, the relationship with Shikai and other words was not properly evaluated.

上述のような、モデル1を用いて推定されたカテゴリに関して、検索ログにおける「正解カテゴリ」とは異なっていたものの、正しい推定処理が行われていると判断してよいものを考慮すると、モデル1における第1階層のカテゴリの一致率は、0.9238(92.38[%])となった。この点を考慮すると、本実施形態の検索サーバ10におけるエンコーダデコーダモデルを用いたカテゴリ推定の精度は高いと判断できる。   In consideration of the category estimated using the model 1 as described above, although it is different from the “correct category” in the search log, it may be determined that the correct estimation process is performed. The coincidence rate of the category of the first layer in the case was 0.9238 (92.38 [%]). Considering this point, it can be determined that the accuracy of category estimation using the encoder / decoder model in the search server 10 of the present embodiment is high.

また、モデル3を用いた推定処理における、クエリに対する検索ログのカバレッジは、全体で0.3671であった。このため、モデル3を用いた場合、クエリが検索ログに存在していないと適切なカテゴリの推定が行えない場合がある。一方、モデル1を用いた推定では、クエリが検索ログに存在しない場合であっても、適切にカテゴリの推定を行うことができる。例えば、「メンズ、スニーカー、B社」というクエリの学習が行われていない場合であっても、「メンズ、スニーカー、A社」というクエリの学習が行われおり、かつ、「B社」と「A社」とがベクトル表現上で近い単語であるという学習が行われていれば、「メンズ、スニーカー、B社」に対するカテゴリを適切に推定することが可能である。   Further, the search log coverage for the query in the estimation process using the model 3 was 0.3671 as a whole. For this reason, when the model 3 is used, an appropriate category may not be estimated if the query does not exist in the search log. On the other hand, in the estimation using the model 1, even if the query does not exist in the search log, the category can be estimated appropriately. For example, even if the query “men, sneakers, company B” is not learned, the query “men, sneakers, company A” is learned, and “company B” and “company B” If learning that “Company A” is a close word on the vector expression is made, it is possible to appropriately estimate the category for “Men, sneakers, Company B”.

以上において説明した本実施形態の検索サーバ10によれば、クエリと関連付けされるカテゴリを適切に推定でき、さらには、検索精度を向上させることができる。また、本実施形態の検索サーバ10によれば、過去に検索に用いられたことのない未知のクエリが入力された場合であっても適切にカテゴリの推定を行うことができる。   According to the search server 10 of this embodiment demonstrated above, the category linked | related with a query can be estimated appropriately, and search accuracy can be improved further. Further, according to the search server 10 of the present embodiment, it is possible to appropriately estimate a category even when an unknown query that has not been used for a search in the past is input.

尚、エンコーダ42のエンコード処理結果に基づいて、検索サーバ10に対する端末装置Tを操作するユーザからのアクセスの一まとまりのセッションの切れ目を判定する判定部さらに設けてもよい。例えば、エンコード処理結果が示すベクトルのベクトル座標空間上の位置が大きく変化した場合に、ユーザからのアクセスのセッションが切り替わったと判定するようにしてよい。   In addition, based on the encoding process result of the encoder 42, you may further provide the determination part which determines the break of the session of a group of access from the user who operates the terminal device T with respect to the search server 10. FIG. For example, when the position of the vector indicated by the encoding process result changes greatly in the vector coordinate space, it may be determined that the access session from the user has been switched.

<2.第2実施形態>
以下、本発明の第2実施形態について説明する。本実施形態の情報処理装置(検索サーバ)は、第1実施形態と比較して、エンコーダデコーダモデルに基づくカテゴリ推定処理と、ログデータに基づくカテゴリ推定処理との両方を行う点が異なる。このため、構成などについては第1実施形態で説明した図および関連する記載を援用し、詳細な説明を省略する。
<2. Second Embodiment>
Hereinafter, a second embodiment of the present invention will be described. The information processing apparatus (search server) according to the present embodiment differs from the first embodiment in that both the category estimation process based on the encoder / decoder model and the category estimation process based on log data are performed. For this reason, about the structure etc., the figure and related description which were demonstrated in 1st Embodiment are used, and detailed description is abbreviate | omitted.

<2−1.システム構成>
図11は、本実施形態の検索サーバ11の機能ブロック図である。検索サーバ11は、第1実施形態の検索サーバ10の構成要素に加えて、例えば、クエリ判定部46と、第2カテゴリ推定部48(第2推定部)とをさらに備える。
<2-1. System configuration>
FIG. 11 is a functional block diagram of the search server 11 of this embodiment. The search server 11 further includes, for example, a query determination unit 46 and a second category estimation unit 48 (second estimation unit) in addition to the components of the search server 10 of the first embodiment.

クエリ判定部46は、記憶部40に記憶された検索ログを参照し、端末装置Tから入力されたクエリが、過去の検索ログに存在しているか否かを判定する。検索サーバ11では、クエリ判定部46が端末装置Tから入力されたクエリが過去の検索ログに存在していないと判定した場合、第1実施形態と同様なエンコーダデコーダモデルに基づくカテゴリ推定処理を行う。一方、検索サーバ11では、クエリ判定部46が端末装置Tから入力されたクエリが過去の検索ログに存在していると判定した場合、ログデータに基づくカテゴリ推定処理を行う。   The query determination unit 46 refers to the search log stored in the storage unit 40 and determines whether or not the query input from the terminal device T exists in the past search log. In the search server 11, when the query determination unit 46 determines that the query input from the terminal device T does not exist in the past search log, the category estimation process based on the encoder / decoder model similar to the first embodiment is performed. . On the other hand, in the search server 11, when the query determination part 46 determines with the query input from the terminal device T existing in the past search log, the category estimation process based on log data is performed.

第2カテゴリ推定部48は、例えば、記憶部40に記憶された検索ログデータD3を参照し、カテゴリを推定する。第2カテゴリ推定部48は、例えば、記憶部40に記憶された検索ログデータD3において、クリック数が最も多いカテゴリを選択する。図12は、検索ログデータD3の一例を示す図である。図12において、クエリが「レディース B社」の場合、第1階層のカテゴリ1が「レディースファッション」であり、第2階層のカテゴリ2が「財布・小物」であり、第3階層のカテゴリ3が「財布」であるカテゴリのクリック数(256999)が最も多い。このため、クエリが「レディース B社」の場合、第2カテゴリ推定部48は、このクエリに関連付けされるカテゴリとして、第1階層のカテゴリ1が「レディースファッション」であり、第2階層のカテゴリ2が「財布・小物」であり、第3階層のカテゴリ3が「財布」を推定する。   For example, the second category estimation unit 48 refers to the search log data D3 stored in the storage unit 40 and estimates the category. For example, the second category estimation unit 48 selects the category having the largest number of clicks in the search log data D3 stored in the storage unit 40. FIG. 12 is a diagram illustrating an example of the search log data D3. In FIG. 12, when the query is “Ladies B company”, category 1 in the first hierarchy is “Ladies Fashion”, category 2 in the second hierarchy is “Wallet / Accessories”, and category 3 in the third hierarchy is The number of clicks (256999) in the category “wallet” is the largest. For this reason, when the query is “Ladies B company”, the second category estimation unit 48 sets the category 1 of the first hierarchy as “Ladies fashion” as the category associated with the query, and the category 2 of the second hierarchy. Is “wallet / accessory”, and category 3 in the third hierarchy estimates “wallet”.

<2−2.カテゴリ推定処理>
以下において、検索サーバ11のカテゴリ推定処理について説明する。図13は、検索サーバ11のカテゴリ推定処理の流れの一例を示す図である。
<2-2. Category estimation processing>
Hereinafter, the category estimation process of the search server 11 will be described. FIG. 13 is a diagram illustrating an example of the flow of category estimation processing of the search server 11.

まず、クエリ解析部32は、通信部30を介して、端末装置Tから入力されたクエリを取得する(S301)。次に、クエリ判定部46は、記憶部40に記憶された検索ログを参照し、端末装置Tから入力されたクエリが、過去の検索ログに存在しているか否かを判定する(S303)。   First, the query analysis unit 32 acquires a query input from the terminal device T via the communication unit 30 (S301). Next, the query determination unit 46 refers to the search log stored in the storage unit 40, and determines whether or not the query input from the terminal device T exists in the past search log (S303).

クエリ判定部46が端末装置Tから入力されたクエリが過去の検索ログに存在していると判定した場合、第2カテゴリ推定部48は、記憶部40に記憶された検索ログデータD3を参照し、カテゴリを推定する(S305)。第2カテゴリ推定部48は、推定したカテゴリの情報を検索結果生成部38に入力する。   When the query determination unit 46 determines that the query input from the terminal device T exists in the past search log, the second category estimation unit 48 refers to the search log data D3 stored in the storage unit 40. The category is estimated (S305). The second category estimation unit 48 inputs the estimated category information to the search result generation unit 38.

一方、クエリ判定部46が端末装置Tから入力されたクエリが過去の検索ログに存在しないと判定した場合、クエリ解析部32は、端末装置Tから入力されたクエリを解析して、単語レベルに分割する(S307)。次に、クエリ変換部34は、クエリ解析部32によって分割された単語の各々を特徴ベクトルに変換する(S309)。   On the other hand, when the query determination unit 46 determines that the query input from the terminal device T does not exist in the past search log, the query analysis unit 32 analyzes the query input from the terminal device T to obtain the word level. Divide (S307). Next, the query conversion unit 34 converts each of the words divided by the query analysis unit 32 into a feature vector (S309).

次に、エンコーダ42は、クエリ変換部34によって変換された特徴ベクトルのうち、第1の単語の特徴ベクトルに対してエンコード処理を行う(S311)。次に、エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了したか否かを判定する(S313)。   Next, the encoder 42 performs an encoding process on the feature vector of the first word among the feature vectors converted by the query conversion unit 34 (S311). Next, the encoder 42 determines whether or not the encoding process for the feature vectors of all words has been completed (S313).

エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了していないと判定した場合、クエリ変換部34によって変換された特徴ベクトルのうち、第2の単語の特徴ベクトルと、第1の単語の特徴ベクトルに対するエンコード処理結果とを用いて、再度、エンコード処理を行う(S311)。次に、エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了したか否かを判定する(S313)。以下、全ての単語の特徴ベクトルに対するエンコード処理が完了するまで、同様な処理を繰り返す。エンコーダ42は、全ての単語の特徴ベクトルに対するエンコード処理が完了したと判定した場合、上述のエンコード処理を繰り返した結果として得られたエンコード処理結果をデコーダ44に入力する。   If the encoder 42 determines that the encoding process has not been completed for the feature vectors of all words, the feature vector of the second word and the first word of the feature vectors converted by the query converter 34 are displayed. The encoding process is performed again using the encoding process result for the feature vector (S311). Next, the encoder 42 determines whether or not the encoding process for the feature vectors of all words has been completed (S313). Thereafter, the same processing is repeated until the encoding processing for the feature vectors of all words is completed. When the encoder 42 determines that the encoding process has been completed for the feature vectors of all words, the encoder 42 inputs the encoding process result obtained as a result of repeating the above-described encoding process to the decoder 44.

次に、デコーダ44は、エンコーダ42から入力されたエンコード処理結果に対して、デコード処理を行う(S315)。次に、デコーダ44は、最下層のカテゴリの推定が完了したか否かを判定する(S317)。デコーダ44は、最下層のカテゴリの推定が完了していないと判定した場合、推定されたカテゴリの情報と、デコード処理結果とを用いて、再度、デコード処理を行う(S315)。次に、エンコーダ42は、最下層のカテゴリの推定が完了したか否かを判定する(S317)。以下、最下層のカテゴリの推定が完了するまで、同様な処理を繰り返す。デコーダ44は、最下層のカテゴリの推定が完了したと判定した場合、推定したカテゴリの情報を検索結果生成部38に入力する。   Next, the decoder 44 performs a decoding process on the encoding process result input from the encoder 42 (S315). Next, the decoder 44 determines whether or not the estimation of the lowermost category has been completed (S317). When the decoder 44 determines that the estimation of the lowermost category has not been completed, the decoder 44 performs the decoding process again using the estimated category information and the decoding process result (S315). Next, the encoder 42 determines whether or not the estimation of the lowermost category is completed (S317). Thereafter, the same processing is repeated until the estimation of the lowermost category is completed. When the decoder 44 determines that the estimation of the lowermost category has been completed, the decoder 44 inputs information on the estimated category to the search result generation unit 38.

次に、検索結果生成部38は、デコーダ44または第2カテゴリ推定部48から入力されたカテゴリの推定結果に基づいて、検索結果である検索結果ページを生成し、端末装置Tに送信する(S319)。以上により、本フローチャートの処理を終了する。   Next, the search result generation unit 38 generates a search result page as a search result based on the category estimation result input from the decoder 44 or the second category estimation unit 48, and transmits it to the terminal device T (S319). ). Thus, the process of this flowchart is completed.

以上において説明した本実施形態の検索サーバ11によれば、クエリと関連付けされるカテゴリを適切に推定でき、さらには、検索精度を向上させることができる。また、本実施形態の検索サーバ11によれば、端末装置Tから入力されたクエリが過去の検索ログに存在していない場合、エンコーダデコーダモデルに基づくカテゴリ推定処理を行い、端末装置Tから入力されたクエリが過去の検索ログに存在している場合、ログデータに基づくカテゴリ推定処理を行うことで、カテゴリの推定精度をさらに向上させることができる。   According to the search server 11 of this embodiment demonstrated above, the category linked | related with a query can be estimated appropriately, and search accuracy can be improved further. Moreover, according to the search server 11 of this embodiment, when the query input from the terminal device T does not exist in the past search log, the category estimation process based on the encoder / decoder model is performed, and the query is input from the terminal device T. If the query exists in the past search log, the category estimation accuracy based on the log data can be performed to further improve the category estimation accuracy.

<3.第3実施形態>
以下、本発明の第3実施形態について説明する。本実施形態の情報処理装置(検索サーバ)は、第1実施形態と比較して、1つのエンコーダと、複数の推定部(デコーダ)とを備える点が異なる。このため、構成などについては第1実施形態で説明した図および関連する記載を援用し、詳細な説明を省略する。
<3. Third Embodiment>
Hereinafter, a third embodiment of the present invention will be described. The information processing apparatus (search server) according to this embodiment is different from the first embodiment in that it includes one encoder and a plurality of estimation units (decoders). For this reason, about the structure etc., the figure and related description which were demonstrated in 1st Embodiment are used, and detailed description is abbreviate | omitted.

<3−1.システム構成>
図14は、本実施形態の検索サーバ12の機能ブロック図である。検索サーバ12は、第1実施形態の検索サーバ10のカテゴリ推定部36に代えて、例えば、1つのエンコーダ50と、3つの推定部(カテゴリ推定部52、価格帯推定部54、ブランド推定部56)とを備える。
<3-1. System configuration>
FIG. 14 is a functional block diagram of the search server 12 of the present embodiment. Instead of the category estimation unit 36 of the search server 10 of the first embodiment, the search server 12 includes, for example, one encoder 50 and three estimation units (category estimation unit 52, price range estimation unit 54, brand estimation unit 56). ).

エンコーダ50は、学習データを用いてエンコードモデルを用いて、クエリ変換部34から入力された少なくとも1つの特徴ベクトルに対してエンコード処理を行う。エンコーダ50は、クエリ変換部34から2以上の特徴ベクトルが入力された場合、1つ目の特徴ベクトルに対してエンコード処理を行い、次に、1つ目の特徴ベクトルのエンコード処理結果と、2つ目の特徴ベクトルとを用いてエンコード処理を行う。エンコーダ42は、エンコード処理を繰り返すことにより得られたエンコード処理結果を、カテゴリ推定部52、価格帯推定部54、およびブランド推定部56に入力する。   The encoder 50 performs an encoding process on at least one feature vector input from the query conversion unit 34 using the learning data and using an encoding model. When two or more feature vectors are input from the query converter 34, the encoder 50 performs an encoding process on the first feature vector, and then encodes the result of the first feature vector and 2 Encoding processing is performed using the first feature vector. The encoder 42 inputs the encoding process result obtained by repeating the encoding process to the category estimation unit 52, the price range estimation unit 54, and the brand estimation unit 56.

カテゴリ推定部52は、学習データを用いて学習を行ったデコードモデルを用いて、エンコーダ50から入力されたエンコード処理結果に対してデコード処理を行い、クエリの単語に関連付けされるべきカテゴリを推定して検索結果生成部38に入力する。   The category estimation unit 52 performs a decoding process on the encoding process result input from the encoder 50 using a decoding model that has been learned using learning data, and estimates a category to be associated with the query word. To the search result generation unit 38.

価格帯推定部54は、学習データを用いて学習を行ったデコードモデルを用いて、エンコーダ50から入力されたエンコード処理結果に対してデコード処理を行い、クエリの単語に関連付けされるべき商品またはサービスの価格帯を推定して検索結果生成部38に入力する。価格帯推定部54の学習データは、例えば、検索に用いられたクエリに含まれる「単語の特徴ベクトル」と、クエリを応じて提供された検索結果ページにおいてユーザが選択した「商品またはサービスの価格」との組を利用する。   The price range estimation unit 54 performs a decoding process on the encoding process result input from the encoder 50 using a decoding model learned using the learning data, and a product or service to be associated with the query word The price range is estimated and input to the search result generation unit 38. The learning data of the price range estimation unit 54 includes, for example, a “word feature vector” included in the query used for the search and a “product or service price” selected by the user on the search result page provided in response to the query. ”Is used.

ブランド推定部56は、学習データを用いて学習を行ったデコードモデルを用いて、エンコーダ50から入力されたエンコード処理結果に対してデコード処理を行い、クエリの単語に関連付けされるべき商品またはサービスのブランドを推定して検索結果生成部38に入力する。ブランド推定部56の学習データは、例えば、検索に用いられたクエリに含まれる「単語の特徴ベクトル」と、クエリを応じて提供された検索結果ページにおいてユーザが選択した「商品またはサービスのブランド」との組を利用する。   The brand estimation unit 56 performs decoding processing on the encoding processing result input from the encoder 50 using the decoding model that has been learned using the learning data, and the product or service to be associated with the query word. The brand is estimated and input to the search result generation unit 38. The learning data of the brand estimation unit 56 includes, for example, a “word feature vector” included in the query used for the search and a “product or service brand” selected by the user on the search result page provided in response to the query. Use the pair.

検索結果生成部38は、カテゴリ推定部52から入力されたカテゴリの推定結果、価格帯推定部54から入力された価格帯の推定結果、およびブランド推定部56から入力されたブランドの推定結果に基づいて、検索結果である検索結果ページを生成し、端末装置Tに送信する。   The search result generation unit 38 is based on the category estimation result input from the category estimation unit 52, the price range estimation result input from the price range estimation unit 54, and the brand estimation result input from the brand estimation unit 56. Then, a search result page as a search result is generated and transmitted to the terminal device T.

以上において説明した本実施形態の検索サーバ12によれば、クエリと関連付けされるカテゴリを適切に推定でき、さらには、検索精度を向上させることができる。また、本実施形態の検索サーバ12によれば、カテゴリ推定部52から入力されたカテゴリの推定結果、価格帯推定部54から入力された価格帯の推定結果、およびブランド推定部56から入力されたブランドの推定結果に基づいて、検索結果である検索結果ページを生成するため、さらにユーザの意図に応じた検索結果ページを提供することができる。   According to the search server 12 of this embodiment demonstrated above, the category linked | related with a query can be estimated appropriately, and search accuracy can be improved further. Further, according to the search server 12 of the present embodiment, the category estimation result input from the category estimation unit 52, the price range estimation result input from the price range estimation unit 54, and the brand estimation unit 56 input Since a search result page that is a search result is generated based on the brand estimation result, a search result page according to the user's intention can be provided.

尚、カテゴリ推定部52、価格帯推定部54、およびブランド推定部56に加えてあるいは代えて、他の特徴を推定する推定部を設けてもよい。   In addition to or instead of the category estimation unit 52, the price range estimation unit 54, and the brand estimation unit 56, an estimation unit that estimates other features may be provided.

以上において説明した実施形態によれば、検索に用いられたクエリを解析して、前記クエリを単語に分割する解析部と、前記解析部によって分割された単語を特徴ベクトルに変換する変換部と、学習データにおけるクエリに含まれる単語の特徴ベクトルと、前記学習データにおけるクエリに関連付けされたカテゴリとの関係を学習することにより、前記検索に用いられたクエリと関連付けされるカテゴリを推定する第1推定部とを備えることで、検索精度を向上させることができる。   According to the embodiment described above, the query used for the search is analyzed, the analysis unit that divides the query into words, the conversion unit that converts the words divided by the analysis unit into feature vectors, A first estimation for estimating a category associated with the query used in the search by learning a relationship between a feature vector of a word included in the query in the learning data and a category associated with the query in the learning data. The search accuracy can be improved.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。   As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added.

10、11、12…検索サーバ(情報処理装置)
30…通信部
32…クエリ解析部(解析部)
34…クエリ変換部(変換部)
36…カテゴリ推定部(第1推定部、学習部)
38…検索結果生成部(生成部)
40…記憶部
42…エンコーダ
44…デコーダ
46…クエリ判定部(判定部)
48…第2カテゴリ推定部(第2推定部)
50…エンコーダ
52…カテゴリ推定部
54…価格帯推定部
56…ブランド推定部
10, 11, 12 ... search server (information processing apparatus)
30 ... Communication unit 32 ... Query analysis unit (analysis unit)
34 ... Query conversion unit (conversion unit)
36 ... category estimation unit (first estimation unit, learning unit)
38 ... Search result generation unit (generation unit)
40: Storage unit 42 ... Encoder 44 ... Decoder 46 ... Query determination unit (determination unit)
48 ... Second category estimation unit (second estimation unit)
DESCRIPTION OF SYMBOLS 50 ... Encoder 52 ... Category estimation part 54 ... Price range estimation part 56 ... Brand estimation part

Claims (14)

検索に用いられたクエリを解析して、前記クエリを単語に分割する解析部と、
前記解析部によって分割された単語を特徴ベクトルに変換する変換部と、
学習データにおけるクエリに含まれる単語の特徴ベクトルと、前記学習データにおけるクエリに関連付けされたカテゴリとの関係を学習することにより、前記検索に用いられたクエリと関連付けされるカテゴリを推定する第1推定部と
を備える情報処理装置。
An analysis unit that analyzes the query used for the search and divides the query into words;
A conversion unit that converts the words divided by the analysis unit into feature vectors;
A first estimation for estimating a category associated with the query used in the search by learning a relationship between a feature vector of a word included in the query in the learning data and a category associated with the query in the learning data. An information processing apparatus comprising:
前記第1推定部は、
前記単語の特徴ベクトルに対してエンコード処理を行うエンコーダと、
前記エンコーダの処理結果に対してデコード処理を行い、前記検索に用いられたクエリと関連付けされるカテゴリを出力するデコーダと、
を備える、
請求項1に記載の情報処理装置。
The first estimation unit includes
An encoder that performs an encoding process on the feature vector of the word;
A decoder that performs a decoding process on the processing result of the encoder and outputs a category associated with the query used for the search;
Comprising
The information processing apparatus according to claim 1.
前記エンコーダは、複数の前記単語の特徴ベクトルのうち、第1の特徴ベクトルに対する第1のエンコード処理を行った後、前記第1のエンコード処理の結果と第2の特徴ベクトルとを用いた第2のエンコード処理を行う、
請求項2に記載の情報処理装置。
The encoder performs a first encoding process on a first feature vector among a plurality of feature vectors of the word, and then uses a result of the first encoding process and a second feature vector to perform a second Encoding process,
The information processing apparatus according to claim 2.
前記デコーダは、前記エンコーダの処理結果に対して第1のデコード処理を行って第1のカテゴリを出力し、前記第1のデコード処理の結果に対して第2のデコード処理を行って第2のカテゴリを出力する、
請求項2または3に記載の情報処理装置。
The decoder performs a first decoding process on the processing result of the encoder to output a first category, performs a second decoding process on the result of the first decoding process, and performs a second decoding process. Output categories,
The information processing apparatus according to claim 2 or 3.
前記カテゴリはツリー構造を有しており、
前記第1のカテゴリは、前記ツリー構造において最上位に定義されたカテゴリであり、
前記第2のカテゴリは、前記第1のカテゴリの下位に定義されたカテゴリである、
請求項4に記載の情報処理装置。
The category has a tree structure;
The first category is a category defined at the highest level in the tree structure;
The second category is a category defined under the first category.
The information processing apparatus according to claim 4.
前記第1推定部によって推定されたカテゴリに基づいて、前記検索に用いられたクエリに対する検索結果ページを生成する生成部をさらに備える、請求項1から5のうちいずれか一項に記載の情報処理装置。   The information processing according to claim 1, further comprising: a generation unit that generates a search result page for the query used for the search based on the category estimated by the first estimation unit. apparatus. 前記解析部は、前記検索に用いられたクエリを形態素解析によって解析して、前記クエリを単語に分割する、請求項1から6のうちいずれか一項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the analysis unit analyzes the query used for the search by morphological analysis and divides the query into words. 検索に用いられたクエリの単語の特徴ベクトルと、前記検索に用いられたクエリに対する検索結果ページにおいてユーザにより選択されたカテゴリとの関係を学習する学習部をさらに備え、
前記学習部は、前記ユーザにより選択された回数が所定の閾値以下であるカテゴリを学習データから除外する、
請求項1から7のうちいずれか一項に記載の情報処理装置。
A learning unit that learns the relationship between the feature vector of the word of the query used for the search and the category selected by the user in the search result page for the query used for the search;
The learning unit excludes, from the learning data, a category in which the number of times selected by the user is equal to or less than a predetermined threshold value.
The information processing apparatus according to any one of claims 1 to 7.
前記検索に用いられたクエリに対する検索結果ページにおいてユーザにより選択されたカテゴリのログに基づいて、前記検索に用いられたクエリと関連付けされるカテゴリを推定する第2推定部をさらに備える、
請求項1から8のうちいずれか一項に記載の情報処理装置。
A second estimation unit configured to estimate a category associated with the query used for the search based on a log of the category selected by the user in the search result page for the query used for the search;
The information processing apparatus according to any one of claims 1 to 8.
前記検索に用いられたクエリが前記ログに存在するか否かを判定する判定部をさらに備え、
前記判定部が前記検索に用いられたクエリが前記ログに存在すると判定した場合、前記第2推定部が、前記検索に用いられたクエリと関連するカテゴリを推定し、
前記判定部が前記検索に用いられたクエリが前記ログに存在しない判定した場合、前記第1推定部が、前記検索に用いられたクエリと関連するカテゴリを推定する、
請求項9に記載の情報処理装置。
A determination unit that determines whether the query used for the search exists in the log;
When the determination unit determines that the query used for the search exists in the log, the second estimation unit estimates a category associated with the query used for the search,
When the determination unit determines that the query used for the search does not exist in the log, the first estimation unit estimates a category associated with the query used for the search.
The information processing apparatus according to claim 9.
前記第1推定部は、
前記単語の特徴ベクトルに対してエンコード処理を行うエンコーダと、
前記エンコーダの処理結果に対してデコード処理を行う複数のデコーダと、
を備える、
請求項1に記載の情報処理装置。
The first estimation unit includes
An encoder that performs an encoding process on the feature vector of the word;
A plurality of decoders for performing decoding processing on the processing result of the encoder;
Comprising
The information processing apparatus according to claim 1.
前記単語の特徴ベクトルに対してエンコード処理を行うエンコーダと、
前記エンコーダの処理結果に基づいて、前記情報処理装置に対するユーザからのアクセスの一まとまりのセッションの切れ目を判定する判定部と、
をさらに備える、
請求項1に記載の情報処理装置。
An encoder that performs an encoding process on the feature vector of the word;
A determination unit that determines a break in a session of a group of accesses from a user to the information processing device based on a processing result of the encoder;
Further comprising
The information processing apparatus according to claim 1.
コンピュータが、
検索に用いられたクエリを解析して、前記クエリを単語に分割し、
前記分割された単語を特徴ベクトルに変換し、
学習データにおけるクエリに含まれる単語の特徴ベクトルと、前記学習データにおけるクエリに関連付けされたカテゴリとの関係を学習することにより、前記検索に用いられたクエリと関連付けされるカテゴリを推定する、情報処理方法。
Computer
Analyzing the query used for the search, breaking the query into words,
Converting the divided words into feature vectors;
Information processing for estimating a category associated with a query used in the search by learning a relationship between a feature vector of a word included in the query in the learning data and a category associated with the query in the learning data Method.
コンピュータに、
検索に用いられたクエリを解析させて、前記クエリを単語に分割させ、
前記分割された単語を特徴ベクトルに変換させ、
学習データにおけるクエリに含まれる単語の特徴ベクトルと、前記学習データにおけるクエリに関連付けされたカテゴリとの関係を学習することにより、前記検索に用いられたクエリと関連付けされるカテゴリを推定させる、プログラム。
On the computer,
Analyzing the query used for the search, splitting the query into words,
Converting the divided words into feature vectors;
A program for estimating a category associated with a query used in the search by learning a relationship between a feature vector of a word included in the query in learning data and a category associated with the query in the learning data.
JP2017175549A 2017-09-13 2017-09-13 Information processing equipment, information processing methods, and programs Active JP6971103B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017175549A JP6971103B2 (en) 2017-09-13 2017-09-13 Information processing equipment, information processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017175549A JP6971103B2 (en) 2017-09-13 2017-09-13 Information processing equipment, information processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2019053386A true JP2019053386A (en) 2019-04-04
JP6971103B2 JP6971103B2 (en) 2021-11-24

Family

ID=66015040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017175549A Active JP6971103B2 (en) 2017-09-13 2017-09-13 Information processing equipment, information processing methods, and programs

Country Status (1)

Country Link
JP (1) JP6971103B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020188837A1 (en) 2019-03-20 2020-09-24 富士ゼロックス株式会社 Light-emitting device, optical device, and information processing device
CN113449050A (en) * 2020-03-24 2021-09-28 北京四维图新科技股份有限公司 Position searching method, device and storage medium
JP2021179980A (en) * 2020-05-11 2021-11-18 ネイバー コーポレーションNAVER Corporation Method for extracting category of item for shopping search
CN114598597A (en) * 2022-02-24 2022-06-07 烽台科技(北京)有限公司 Multi-source log analysis method and device, computer equipment and medium
JP7372278B2 (en) 2021-04-20 2023-10-31 ヤフー株式会社 Calculation device, calculation method and calculation program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233707A (en) * 1992-02-17 1993-09-10 Mitsubishi Electric Corp Information data base device
JP2002251412A (en) * 2001-02-22 2002-09-06 Canon Inc Document retrieving device, method, and storage medium
US20170061294A1 (en) * 2015-08-25 2017-03-02 Facebook, Inc. Predicting Labels Using a Deep-Learning Model

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233707A (en) * 1992-02-17 1993-09-10 Mitsubishi Electric Corp Information data base device
JP2002251412A (en) * 2001-02-22 2002-09-06 Canon Inc Document retrieving device, method, and storage medium
US20170061294A1 (en) * 2015-08-25 2017-03-02 Facebook, Inc. Predicting Labels Using a Deep-Learning Model

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020188837A1 (en) 2019-03-20 2020-09-24 富士ゼロックス株式会社 Light-emitting device, optical device, and information processing device
CN113449050A (en) * 2020-03-24 2021-09-28 北京四维图新科技股份有限公司 Position searching method, device and storage medium
CN113449050B (en) * 2020-03-24 2024-04-16 北京四维图新科技股份有限公司 Position searching method, device and storage medium
JP2021179980A (en) * 2020-05-11 2021-11-18 ネイバー コーポレーションNAVER Corporation Method for extracting category of item for shopping search
JP7108740B2 (en) 2020-05-11 2022-07-28 ネイバー コーポレーション Product Category Extraction Method for Shopping Search
JP7372278B2 (en) 2021-04-20 2023-10-31 ヤフー株式会社 Calculation device, calculation method and calculation program
CN114598597A (en) * 2022-02-24 2022-06-07 烽台科技(北京)有限公司 Multi-source log analysis method and device, computer equipment and medium
CN114598597B (en) * 2022-02-24 2023-12-01 烽台科技(北京)有限公司 Multisource log analysis method, multisource log analysis device, computer equipment and medium

Also Published As

Publication number Publication date
JP6971103B2 (en) 2021-11-24

Similar Documents

Publication Publication Date Title
JP6971103B2 (en) Information processing equipment, information processing methods, and programs
US11783197B2 (en) Using meta-information in neural machine translation
US11423596B2 (en) System and method for generating emoji mashups with machine learning
US10678997B2 (en) Machine learned models for contextual editing of social networking profiles
JP6575335B2 (en) Method, computer system, and program for estimating links between social media messages and facilities
US20210026910A1 (en) Expert Detection in Social Networks
CN111602147A (en) Machine learning model based on non-local neural network
US20200341976A1 (en) Interactive search experience using machine learning
US11487946B2 (en) Content editing using content modeling and semantic relevancy scoring
CN104462051B (en) Segmenting method and device
JP6309539B2 (en) Method and apparatus for realizing speech input
EP3519990A1 (en) Query-time analytics on graph queries spanning subgraphs
WO2017016122A1 (en) Information pushing method and apparatus
JP2018156473A (en) Analysis device, analysis method, and program
CN112732870B (en) Word vector based search method, device, equipment and storage medium
JP7058574B2 (en) Information processing equipment, information processing methods, and programs
KR101955920B1 (en) Search method and apparatus using property language
Ding et al. Generating high-quality query suggestion candidates for task-based search
JP2017151933A (en) Data classifier, data classification method, and program
KR102399837B1 (en) Method and system for extracting product category for shopping search
KR101890207B1 (en) Method and apparatus for named entity linking and computer program thereof
KR20170048008A (en) Apparatus for analyzing intention of query and method thereof
CN115378890B (en) Information input method, device, storage medium and computer equipment
US10984026B2 (en) Search method for performing search based on an obtained search word and an associated search word
CN111787042A (en) Method and device for pushing information

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211101

R150 Certificate of patent or registration of utility model

Ref document number: 6971103

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350