JP7372278B2 - 算出装置、算出方法及び算出プログラム - Google Patents

算出装置、算出方法及び算出プログラム Download PDF

Info

Publication number
JP7372278B2
JP7372278B2 JP2021071238A JP2021071238A JP7372278B2 JP 7372278 B2 JP7372278 B2 JP 7372278B2 JP 2021071238 A JP2021071238 A JP 2021071238A JP 2021071238 A JP2021071238 A JP 2021071238A JP 7372278 B2 JP7372278 B2 JP 7372278B2
Authority
JP
Japan
Prior art keywords
query
counting
partial
calculation
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021071238A
Other languages
English (en)
Other versions
JP2022165754A (ja
Inventor
聡 田爪
伸裕 鍜治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2021071238A priority Critical patent/JP7372278B2/ja
Publication of JP2022165754A publication Critical patent/JP2022165754A/ja
Application granted granted Critical
Publication of JP7372278B2 publication Critical patent/JP7372278B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、算出装置、算出方法及び算出プログラムに関する。
従来、各々のセグメント化ワードの有効回数に従って算出された重みに従い、第1トレーニングウェブページのウェブページベクトルを生成し、トレーニングウェブページセットの中のウェブページの手動で注釈を付けられたクラス及び対応するウェブページベクトルに従い、ウェブページ分類モデルを生成する技術が提供されている。
特表2018-518788号公報
しかしながら、上記の従来技術では、トレーニングウェブページセットの中のウェブページの手動で注釈を付けられたクラス及び対応するウェブページベクトルに従い、ウェブページ分類モデルを生成するに過ぎないため、例えば、利用者の検索意図を十分に反映させることができない場合がある。
本願は、上記に鑑みてなされたものであって、利用者の意図を精度よく把握することができる算出装置、算出方法及び算出プログラムを目的とする。
本願に係る算出装置は、利用者によって入力されたクエリのうち、当該クエリを構成する部分クエリと関連する検索対象の数を、当該検索対象が属するカテゴリ毎に計数する計数部と、前記計数部によって計数された計数結果に基づいて、前記部分クエリと関連する複数のカテゴリの各々によって重み付けが行われた前記部分クエリに対応する値を算出する算出部とを備えることを特徴とする。
実施形態の一態様によれば、利用者の意図を精度よく把握することができるという効果を奏する。
図1は、実施形態に係る算出装置が実行する算出処理の一例を示す図である。 図2は、実施形態に係る算出システムの構成例を示す図である。 図3は、実施形態に係る利用者情報記憶部の一例を示す図である。 図4は、実施形態に係る計数情報記憶部の一例を示す図である。 図5は、実施形態に係る算出装置が実行する生成処理の流れの一例を示すフローチャートである。 図6は、実施形態に係る算出装置が実行する提供処理の流れの一例を示すフローチャートである。 図7は、算出装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る算出装置、算出方法及び算出プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る算出装置、算出方法及び算出プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組合せることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。
〔1.算出装置が示す算出処理の一例〕
まず、図1を用いて、算出装置100が実行する算出処理の一例について説明する。図1は、実施形態に係る算出装置100が実行する算出処理の一例を示す図である。
以下では、まず、算出装置100がクエリ(検索クエリ)と、クエリを構成する部分クエリとに基づいて、学習モデルを生成する例について説明する。次に、算出装置100が、生成した学習モデルを用いて、利用者によって入力されたクエリと、カテゴリと関連する度合いを示す関連度を出力する例について説明する。
まず、算出装置100がクエリ(検索クエリ)と、クエリを構成する部分クエリとに基づいて、学習モデルを生成する例について説明する。図1に示すように、算出装置100は、インターネットショッピングや、電子商店街等の電子商取引(EC:Electronic Commerce)サービスを利用する利用者の各種ログをECサーバ20から取得する(ステップS1)。ここで、ECサーバ20は、ECサービスを利用者に対して提供するものとする。例えば、算出装置100は、各種ログとして、利用者によって入力されたクエリに関する情報を取得する。
続いて、算出装置100は、クエリを構成する文字毎に算出されたベクトルと、部分クエリと関連する複数のカテゴリの各々から算出されたベクトルとを算出する(ステップS2)。ここで、部分クエリとは、例えば、クエリを構成する文字列であり、意味を有する文字列や、文字列間のスペース等を示す。なお、部分クエリを特定する手法は、如何なる手法を用いて実行されてもよく、例えば、部分クエリは、形態素解析及び意味解析等の従来技術を用いて、単語毎に特定されてもよい。
図1の例では、ログに含まれる利用者によって入力されたクエリQU1が、「卵形 スプーン」であるものとする。また、部分クエリとして、「卵形」と、「スプーン」と特定されているものとする。この場合、算出装置100は、クエリを構成する文字毎に、ベクトルを算出する。このとき、算出したベクトルは、以下で説明する学習処理中に得られるものとする。すなわち、学習処理は、文字をベクトルに変換する処理を含みうる。図1の例では、算出装置100は、「E」、「E」、「E空白1」、「E」、「E」、「E」、「E」といったようにベクトルを算出する。ここで、「E空白1」は、スペースに対応するベクトルである。
また、算出装置100は、word2vec等の従来技術を用いて、部分クエリと関連するカテゴリ毎に、ベクトルを算出する。図1の例では、算出装置100は、「E卵形」、「E空白2」、「Eスプーン」といったようにベクトルを算出する。ここで、「E空白2」は、スペースに対応するベクトルである。
そして、算出装置100は、部分クエリと関連する検索対象の数を、検索対象が属するカテゴリ毎に計数する(ステップS3)。ここで、検索対象とは、例えば、商品又はサービス等である。また、カテゴリとは、例えば、商品又はサービスが属するカテゴリに関する情報等である。
図1の例では、部分クエリCH1と関連するカテゴリが、カテゴリCA1、カテゴリCA2、カテゴリCA3であるものとする。この場合、算出装置100は、カテゴリCA1に属する検索対象であって、部分クエリCH1と関連する検索対象の数を計数結果RC1と計数する。また、算出装置100は、カテゴリCA2に属する検索対象であって、部分クエリCH1と関連する検索対象の数を計数結果RC2と計数する。また、算出装置100は、カテゴリCA3に属する検索対象であって、部分クエリCH1と関連する検索対象の数を計数結果RC3と計数する。
続いて、算出装置100は、複数のカテゴリの各々から算出されたベクトル毎に、カテゴリ毎の計数結果による重み付けを行い、重み付けが行われたベクトルの総和を算出する(ステップS4)。
図1の例では、算出装置100は、カテゴリCA1から算出されたベクトルに計数結果RC1の逆数を重みとして乗じたベクトルと、カテゴリCA2から算出されたベクトルに計数結果RC2の逆数を重みとして乗じたベクトルと、カテゴリCA3から算出されたベクトルに計数結果RC3の逆数を重みとして乗じたベクトルとの和を算出する。このように、算出装置100は、重み付けが行われたベクトルの総和を算出する。
そして、算出装置100は、クエリを構成する文字毎に算出されたベクトルと、計数結果によって重み付けが行われたベクトルの総和とを入力することで、クエリが所定のカテゴリと関連する度合いを示す関連度を出力するように学習させた学習モデルMO1を生成する(ステップS5)。この場合、ログに含まれる情報のうち、予めクエリと、カテゴリとの組合せが既知であるデータを正例として利用し、かかるクエリと、異なる他のカテゴリとの組合せを負例として利用するものとする。
図1の例では、算出装置100は、CNN(Convolutional Neural Network)等の従来技術を用いて、クエリQU1を構成する文字毎に算出されたベクトルから構成されるベクトル群VC1と、計数結果によって重み付けが行われたベクトルの総和を示すベクトルから構成されるベクトル群との組合せを正例として学習モデルMO1に学習させる。例えば、算出装置100は、ベクトル群VC1と、計数結果によって重み付けが行われたベクトルの総和を示すベクトルから構成されるベクトル群と、スコア「1」との組合せを学習モデルMO1に学習させる。
また、算出装置100は、ベクトル群VC1と、ステップS3~S4において使用したカテゴリとは異なるカテゴリの計数結果によって重み付けが行われたベクトルの総和を示すベクトルから構成されるベクトル群との組合せを負例として学習モデルMO1に学習させる。例えば、算出装置100は、ベクトル群VC1と、異なるカテゴリの計数結果によって重み付けが行われたベクトルの総和を示すベクトルから構成されるベクトル群と、スコア「0」との組合せを学習モデルMO1に学習させる。
このように、算出装置100は、CNN等の従来技術を用いて、学習モデルMO1に、クエリを構成する文字毎に算出されたベクトルと、計数結果によって重み付けが行われたベクトルの総和との組合せといった入力情報を入力することで、クエリQU1と、カテゴリとの関連度を出力するように学習させた学習モデルMO1を生成する。なお、算出装置100は、CNNの代わりに、BRET(Bidirectional Encoder Representations from Transformers)等を用いてもよい。
例えば、算出装置100は、バックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。例えば、算出装置100は、学習処理により、ノード間で値が伝達する際に考慮される重みの値を調整する。このように、算出装置100は、学習モデルMO1における出力と、入力に対応する正解との誤差が少なくなるようにパラメータを補正するバックプロパゲーション等の処理により学習モデルMO1を学習する。例えば、算出装置100は、所定の損失関数を最小化するようにバックプロパゲーション等の処理を行うことにより学習モデルMO1を生成する。これにより、算出装置100は、学習モデルMO1のパラメータを学習する学習処理を行う。このように、算出装置100は、利用者の意図を精度よく把握することができる適切な学習モデルを生成することができる。
次に、算出装置100が、生成した学習モデルを用いて、利用者によって入力されたクエリと、カテゴリと関連する度合いを示す関連度を出力する例について説明する。図1に示すように、ECサーバ20は、利用者によって入力されたクエリを、利用者によって利用される端末装置10から受付ける(ステップS6)。
例えば、予めECサービスに関する検索エンジンを端末装置10に送信するものとする。この場合、ECサーバ20は、検索エンジンに配置される検索窓に、利用者によって入力されたクエリを受付ける。
続いて、算出装置100は、クエリをECサーバ20から受付ける(ステップS7)。そして、算出装置100は、受付けられたクエリと、カテゴリとの関連度を出力する(ステップS8)。
図1の例では、算出装置100は、学習モデルMO1を用いて、受付けられたクエリを構成する文字毎に算出されたベクトルと、受付けられたクエリを構成する部分クエリに対応する計数結果によって重み付けが行われたベクトルの総和とを学習モデルMO1に入力することで、かかるクエリと、一のカテゴリとの関連度を出力する。そして、算出装置100は、上記出力処理を、各カテゴリにおいて実行する。これにより、算出装置100は、受付けられたクエリと、複数のカテゴリの各々との関連度を出力する。
続いて、算出装置100は、受付けられたクエリと、カテゴリとの関連度をECサーバ20に提供する(ステップS9)。例えば、算出装置100は、受付けられたクエリと、複数のカテゴリの各々との関連度をECサーバ20に提供する。
そして、ECサーバ20は、クエリに対応する検索結果を提供する(ステップS10)。例えば、ECサーバ20は、受付けられたクエリと、複数のカテゴリの各々との関連度とに基づいて、検索結果に含める商品又はサービスが属するカテゴリを選択する。そして、ECサーバ20は、選択されたカテゴリに属する商品又はサービスを検索結果として端末装置10に提供する。
従来、例えば、クエリから推定されたカテゴリに属さない商品又はサービスを除外する場合、クエリから推定が困難なカテゴリに属する商品又はサービスは、検索結果に含まれる場合があった。このため、利用者の検索意図を検索結果に対して十分に反映させることができない場合があった。そこで、実施形態に係る算出装置100は、利用者によって入力されたクエリのうち、クエリを構成する部分クエリと関連する検索対象の数を、検索対象が属するカテゴリ毎に計数する。そして、算出装置100は、計数した計数結果に基づいて、部分クエリと関連する複数のカテゴリの各々によって重み付けが行われた部分クエリに対応する値を算出する。このように、算出装置100は、利用者の意図を精度よく把握することができる。これにより、算出装置100は、固有名詞等が多い商品又はサービスに対しても、利用者の検索意図を検索結果に対して十分に反映させることが可能となる。
例えば、ゲームといった商品の場合、ゲームのタイトルがメインタイトルと、サブタイトルとで構成される場合がある。この場合、サブタイトルをクエリとして検索した場合に、対応するゲームを検索結果に含めることが難しい場合がある。また、メインタイトルをクエリとして検索した場合、対応するゲームと関連する漫画や、玩具等が検索結果に含まれる場合があり、結果として、対応するゲーム以外の検索対象が多く含まれる場合がある。このような場合において、算出装置100は、計数した計数結果に基づいて、部分クエリと関連する複数のカテゴリの各々によって重み付けが行われた部分クエリに対応する値を算出するため、利用者の意図を精度よく把握することができる。したがって、算出装置100は、利用者によって入力されたクエリに対応する検索対象を、利用者の検索意図に応じて適切に絞り込むことができる。
〔2.算出システムの構成〕
図2に示すように、算出システム1は、端末装置10と、ECサーバ20と、算出装置100とを含む。端末装置10、ECサーバ20及び算出装置100は、ネットワークNを介して、有線又は無線により通信可能に接続される。なお、図2に示す算出システム1には、複数台の端末装置10や、複数台のECサーバ20や、複数台の算出装置100が含まれてもよい。
実施形態に係る端末装置10は、ブラウザに表示されるウェブページやアプリケーション用のコンテンツ等のコンテンツにアクセスする利用者によって利用される情報処理装置である。例えば、端末装置10は、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット端末や、携帯電話機や、PDA(Personal Digital Assistant)等や、スマートウォッチ等のウェアラブルデバイス(Wearable Device)等である。
実施形態に係るECサーバ20は、各種ECサービスを提供する情報処理装置であり、例えば、サーバ装置又はクラウドシステム等により実現される。例えば、ECサーバ20は、電子商取引サービスを、利用者によって利用される端末装置10に提供する。また、ECサーバ20は、電子商取引サービスにて取扱われている各種商品情報や、利用者に関するログを算出装置100に提供する。
実施形態に係る算出装置100は、ネットワークNを介して、各種の装置と通信可能な情報処理装置であり、例えば、サーバ装置又はクラウドシステム等により実現される。例えば、算出装置100は、ネットワークNを介して、他の各種装置と通信可能に接続される。
〔3.算出装置の構成〕
以下、上記した算出装置100が有する機能構成の一例について説明する。図2は、実施形態に係る算出装置100の構成例を示す図である。図2に示すように、算出装置100は、通信部110と、記憶部120と、制御部130とを有する。
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線又は無線で接続され、他の各種装置との間で情報の送受信を行う。
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部120は、利用者情報記憶部121と、計数情報記憶部122と、学習モデル123とを有する。
(利用者情報記憶部121について)
利用者情報記憶部121は、利用者に関する各種情報を記憶する。ここで、図3に、実施形態に係る利用者情報記憶部121の一例を示す。図3に示した例では、利用者情報記憶部121は、「利用者ID(Identifier)」、「利用者情報」といった項目を有する。例えば、「利用者情報」は、「検索履歴」、「属性情報」、「閲覧履歴」、「購入履歴」を含む。
「利用者ID」は、利用者を識別する識別子である。「検索履歴」は、「利用者ID」に対応付けられた検索履歴に関する情報である。例えば、検索履歴に関する情報とは、利用者によって入力されたクエリに関する情報等である。
「属性情報」は、「利用者ID」に対応付けられた利用者の属性に関する属性情報である。例えば、属性情報とは、利用者の年齢や、性別や、電話番号や、住所又は居所等に関する情報である。
「閲覧履歴」は、「利用者ID」に対応付けられた閲覧履歴に関する情報である。例えば、閲覧履歴に関する情報とは、利用者によって入力されたクエリに応じて検索された検索結果に関するコンテンツに対する閲覧履歴や、検索結果に含まれる商品又はサービスに対する閲覧履歴等に関する情報である。
「購入履歴」は、「利用者ID」に対応付けられた購入履歴に関する情報である。例えば、購入履歴に関する情報は、利用者によって購入された商品又はサービスに関する情報である。
例えば、図3では、利用者IDによって識別された「U1」は、検索履歴が「UE1」であり、属性情報が「UC1」であり、閲覧履歴が「UR1」であり、購入履歴が「UP1」である。
なお、図3に示した例では、検索履歴等を、「UE1」等の抽象的な符号で表現したが、検索履歴等は、検索履歴等を示す数値や、検索履歴等を示す文字列や、検索履歴等を示す各種情報を含むファイルのファイル形式等であってもよい。
(計数情報記憶部122について)
計数情報記憶部122は、算出した計数結果に関する各種情報を記憶する。ここで、図4に、実施形態に係る計数情報記憶部122の一例を示す。図4に示した例では、計数情報記憶部122は、「データセットID」、「部分クエリ」、「カテゴリ」、「計数結果」を含む。
「データセットID」は、データセットを識別する識別子である。「部分クエリ」は、「データセットID」に対応付けられた部分クエリに関する情報である。「カテゴリ」は、「データセットID」に対応付けられた検索対象が属するカテゴリに関する情報である。「計数結果」は、「データセットID」に対応付けられた計数結果に関する情報である。
例えば、図4では、データセットIDによって識別された「D1」は、部分クエリが「CH1」であり、カテゴリが「CA1」であり、計数結果が「RC1」である。なお、図4に示した例では、部分クエリ等を、「CH1」等の抽象的な符号で表現したが、部分クエリ等は、部分クエリ等を示すベクトル等の値や、部分クエリ等を示す各種情報を含むファイルのファイル形式等であってもよい。
(制御部130について)
制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、算出装置100内部の記憶装置に記憶されている各種プログラム(算出プログラムの一例)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図2に示すように、制御部130は、取得部131と、計数部132と、算出部133と、生成部134と、受付部135と、提供部136とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。
(取得部131について)
取得部131は、各種情報を取得する。具体的には、取得部131は、利用者情報をECサーバ20から取得する。例えば、取得部131は、ECサービスを利用する利用者の各種ログとして、検索履歴や、閲覧履歴や、購入履歴等をECサーバ20から取得する。そして、取得部131は、かかる各種ログを利用者情報記憶部121に記憶する。また、取得部131は、利用者の属性情報を取得してもよい。この場合、取得部131は、取得した属性情報を利用者情報記憶部121に記憶する。
(計数部132について)
計数部132は、利用者によって入力されたクエリのうち、クエリを構成する部分クエリと関連する検索対象の数を、検索対象が属するカテゴリ毎に計数する。ここで、部分クエリを特定する手法は、如何なる手法を用いて実行されてもよく、例えば、部分クエリは、形態素解析及び意味解析等の従来技術を用いて、単語毎に特定されてもよい。例えば、計数部132は、部分クエリを特定し、かかる部分クエリと対応する複数のカテゴリの各々を対応付けて計数情報記憶部122に記憶する。
図4の例では、部分クエリCH1と関連するカテゴリが、カテゴリCA1、カテゴリCA2、カテゴリCA3であるものとする。この場合、計数部132は、カテゴリCA1に属する検索対象であって、部分クエリCH1と関連する検索対象の数を計数結果RC1と計数する。また、計数部132は、カテゴリCA2に属する検索対象であって、部分クエリCH1と関連する検索対象の数を計数結果RC2と計数する。また、計数部132は、カテゴリCA3に属する検索対象であって、部分クエリCH1と関連する検索対象の数を計数結果RC3と計数する。そして、計数部132は、計数した各計数結果を計数情報記憶部122に記憶する。
(算出部133について)
算出部133は、各種値を算出する。具体的には、計数部132によって計数された計数結果に基づいて、部分クエリと関連する複数のカテゴリの各々によって重み付けが行われた部分クエリに対応する値を算出する。
例えば、算出部133は、クエリを構成する文字毎に算出されたベクトルと、部分クエリと関連する複数のカテゴリの各々から算出されたベクトルとを算出する。図1の例では、ログに含まれる利用者によって入力されたクエリQU1が、「卵形 スプーン」であるものとする。また、部分クエリとして、「卵形」と、「スプーン」と特定されているものとする。この場合、算出部133は、クエリを構成する文字毎に、ベクトルを算出する。このとき、算出したベクトルは、学習処理中に得られるものとする。図1の例では、算出部133は、「E」、「E」、「E空白1」、「E」、「E」、「E」、「E」といったようにベクトルを算出する。
また、算出部133は、word2vec等の従来技術を用いて、部分クエリと関連するカテゴリ毎に、ベクトルを算出する。図1の例では、算出部133は、「E卵形」、「E空白2」、「Eスプーン」といったようにベクトルを算出する。
また、算出部133は、複数のカテゴリの各々から算出されたベクトル毎に、カテゴリ毎の計数結果による重み付けを行い、重み付けが行われたベクトルの総和を算出する。図4の例では、算出部133は、カテゴリCA1から算出されたベクトルに計数結果RC1の逆数を重みとして乗じたベクトルと、カテゴリCA2から算出されたベクトルに計数結果RC2の逆数を重みとして乗じたベクトルと、カテゴリCA3から算出されたベクトルに計数結果RC3の逆数を重みとして乗じたベクトルとの和を算出する。このように、算出部133は、重み付けが行われたベクトルの総和を算出する。
また、算出部133は、利用者によって入力されたクエリと、カテゴリとの関連度を出力する。例えば、算出部133は、学習モデル123を用いて、利用者によって入力されたクエリを構成する文字毎に算出されたベクトルと、かかるクエリを構成する部分クエリに対応する計数結果によって重み付けが行われたベクトルの総和とを学習モデル123に入力することで、かかるクエリと、一のカテゴリとの関連度を出力する。そして、算出部133は、上記出力処理を、各カテゴリにおいて実行する。これにより、算出部133は、利用者によって入力されたクエリと、複数のカテゴリの各々との関連度を出力する。
(生成部134について)
生成部134は、クエリに関する情報と、クエリを構成する部分クエリ毎に対応する値であって、計数結果に基づいて部分クエリと関連する複数のカテゴリの各々によって重み付けが行われた値とを入力することで、クエリが所定のカテゴリと関連する度合いを示す関連度を出力するように学習させた学習モデル123を生成する。
図1の例では、生成部134は、CNN等の従来技術を用いて、クエリQU1を構成する文字毎に算出されたベクトルから構成されるベクトル群VC1と、計数結果によって重み付けが行われたベクトルの総和を示すベクトルから構成されるベクトル群との組合せを正例として学習モデル123に学習させる。例えば、生成部134は、ベクトル群VC1と、計数結果によって重み付けが行われたベクトルの総和を示すベクトルから構成されるベクトル群と、スコア「1」との組合せを学習モデル123に学習させる。
また、生成部134は、ベクトル群VC1と、図1に示すステップS3~S4において使用したカテゴリとは異なるカテゴリの計数結果によって重み付けが行われたベクトルの総和を示すベクトルから構成されるベクトル群との組合せを負例として学習モデル123に学習させる。例えば、生成部134は、ベクトル群VC1と、異なるカテゴリの計数結果によって重み付けが行われたベクトルの総和を示すベクトルから構成されるベクトル群と、スコア「0」との組合せを学習モデル123に学習させる。
このように、生成部134は、CNN等の従来技術を用いて、学習モデル123に、クエリを構成する文字毎に算出されたベクトルと、計数結果によって重み付けが行われたベクトルの総和との組合せといった入力情報を入力することで、クエリQU1と、カテゴリとの関連度を出力するように学習させた学習モデル123を生成する。そして、生成部134は、生成した学習モデル123を記憶部120に記憶する。
例えば、生成部134は、バックプロパゲーション(誤差逆伝播法)等の手法により学習処理を行う。例えば、生成部134は、学習処理により、ノード間で値が伝達する際に考慮される重みの値を調整する。このように、生成部134は、学習モデル123における出力と、入力に対応する正解との誤差が少なくなるようにパラメータを補正するバックプロパゲーション等の処理により学習モデル123を学習する。例えば、生成部134は、所定の損失関数を最小化するようにバックプロパゲーション等の処理を行うことにより学習モデル123を生成する。これにより、生成部134は、学習モデル123のパラメータを学習する学習処理を行う。このように、生成部134は、利用者の意図を精度よく把握することができる適切な学習モデルを生成することができる。
(受付部135について)
受付部135は、各種要求を受付ける。例えば、受付部135は、利用者によって入力されたクエリをECサーバ20から受付ける。
(提供部136について)
提供部136は、各種情報を提供する。例えば、提供部136は、受付部135によって受付けられたクエリと、カテゴリとの関連度をECサーバ20に提供する。また、提供部136は、受付部135によって受付けられたクエリと、複数のカテゴリの各々との関連度をECサーバ20に提供する。
〔4.処理手順(1)〕
次に、図5を用いて、実施形態に係る算出装置100が実行する生成処理の手順について説明する。図5は、実施形態に係る算出装置100が実行する生成処理の流れの一例を示すフローチャートである。
図5に示すように、取得部131は、ログを取得する(ステップS101)。そして、計数部132は、取得部131によって取得されたログに基づいて、ログに含まれるクエリを構成する部分クエリと関連する検索対象の数を、検索対象が属するカテゴリ毎に計数する(ステップS102)。
さらに、算出部133は、計数部132によって計数された計数結果に基づいて、部分クエリと関連する複数のカテゴリの各々によって重み付けが行われた値を算出する(ステップS103)。
そして、生成部134は、クエリに関する情報と、部分クエリと関連する複数のカテゴリの各々によって重み付けが行われた値とを入力することで、クエリが所定のカテゴリと関連する度合いを示す関連度を出力するように学習させた学習モデル123を生成する(ステップS104)。
〔5.処理手順(2)〕
次に、図6を用いて、実施形態に係る算出装置100が実行する提供処理の手順について説明する。図6は、実施形態に係る算出装置100が実行する提供処理の流れの一例を示すフローチャートである。
図6に示すように、受付部135は、利用者によって入力されたクエリを受付ける(ステップS201)。具体的には、受付部135は、利用者によって入力されたクエリを受付けていない場合(ステップS201;No)、クエリを受付けるまで待機する。
一方、算出部133は、受付部135が利用者によって入力されたクエリを受付けた場合(ステップS201;Yes)、学習モデル123を用いて、受付けられたクエリと、カテゴリとの関連度を出力する(ステップS202)。
そして、提供部136は、算出部133によって算出された関連度をECサーバ20に提供する(ステップS203)。具体的には、提供部136は、受付けられたクエリと、カテゴリと、関連度との組合せに関する情報をECサーバ20に提供する。
〔6.変形例〕
上述した算出装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、算出装置100の他の実施形態について説明する。
〔6-1.電子商取引サービス〕
上記実施形態では、電子商取引サービスにおける検索処理の例を示したが、これに限定されなくともよい。例えば、電子商取引サービスにおける検索処理の代わりに、ウェブ検索等の各種検索サービスにおける検索処理であってもよい。
〔6-2.属性情報〕
上記実施形態では、算出装置100の生成部134がクエリに関する情報と、クエリを構成する部分クエリ毎に対応する値であって、計数結果に基づいて部分クエリと関連する複数のカテゴリの各々によって重み付けが行われた値とを入力することで、クエリが所定のカテゴリと関連する度合いを示す関連度を出力するように学習させた学習モデル123を生成する生成処理を例に挙げて説明したが、これに限定されない。例えば、生成部134は、クエリを構成する文字毎に算出されたベクトルと、複数のカテゴリの各々から算出されたベクトル毎に重み付けを行い、重み付けが行われたベクトルの総和と、属性情報とを入力することで、クエリが所定のカテゴリと関連する度合いを示す関連度を出力するように学習させた学習モデルを生成してもよい。
例えば、取得部131は、利用者の属性に関する属性情報を取得する。そして、生成部134は、利用者によって入力されたクエリを構成する文字毎に算出されたベクトルから構成されるベクトル群と、計数結果によって重み付けが行われたベクトルの総和を示すベクトルから構成されるベクトル群と、複数の属性情報の各々から算出されたベクトルから構成されるベクトル群とを学習モデルに入力する。そして、生成部134は、CNN等の従来技術を用いて、学習モデルにかかる入力情報を入力することで、利用者によって入力されたクエリと、カテゴリとの関連度を出力するように学習させた学習モデルを生成してもよい。
なお、生成部134は、上記例に限定されず、属性情報を重みに使用してもよい。例えば、生成部134は、利用者によって入力されたクエリを構成する文字毎に算出されたベクトルから構成されるベクトル群と、計数結果及び属性情報によって重み付けが行われたベクトルの総和を示すベクトルから構成されるベクトル群とを学習モデルに入力する。そして、生成部134は、CNN等の従来技術を用いて、学習モデルにかかる入力情報を入力することで、利用者によって入力されたクエリと、カテゴリとの関連度を出力するように学習させた学習モデルを生成してもよい。
このように、実施形態に係る算出装置100の生成部134は、利用者にパーソナライズさせた学習モデルを生成することができる。これにより、生成部134は、より精度よく利用者の意図を把握するための指標を高精度に出力可能な学習モデルを生成することができる。
〔6-3.学習データの対象〕
上記実施形態では、算出装置100の取得部131がログを取得する例を挙げて説明したが、これに限定されなくともよい。例えば、取得部131は、ログの代わりに、商品又はサービスの各種データや、商品に対応する型番といったデータ等を取得してもよい。これにより、生成部134は、商品又はサービスの各種データや、商品に対応する型番といったデータに基づく学習モデルを生成することができる。例えば、新商品等の場合、ログのデータ数が少ないと予測されるため、十分な学習処理が実現できない場合が有り得る。このような場合に、生成部134は、ログ以外の情報を用いてことで、利用者の意図を的確に把握するための学習モデルを生成することができる。なお、生成部134は、さらに、ログと、ログ以外の商品又はサービスの各種データや、商品に対応する型番といったデータ等とを組合せることで、学習モデルを生成してもよい。
〔6-4.プログラム〕
また、上述した実施形態に係る算出装置100は、例えば、図7に示すような構成のコンピュータ1000によって実現される。図7は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
例えば、コンピュータ1000が算出装置100として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部130の機能を実現する。
〔6-5.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組合せることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、算出部は、算出手段や算出回路に読み替えることができる。
〔7.効果〕
上述してきたように、実施形態に係る算出装置100は、計数部132と、算出部133とを有する。計数部132は、利用者によって入力されたクエリのうち、クエリを構成する部分クエリと関連する検索対象の数を、検索対象が属するカテゴリ毎に計数する。算出部133は、計数部132によって計数された計数結果に基づいて、部分クエリと関連する複数のカテゴリの各々によって重み付けが行われた部分クエリに対応する値を算出する。
これにより、実施形態に係る算出装置100は、計数結果に基づいて、部分クエリと関連する複数のカテゴリの各々によって重み付けが行われた部分クエリに対応する値を算出するため、利用者の意図を精度よく把握することができる。
また、実施形態に係る算出装置100において、計数部132は、クエリを構成する複数の部分クエリの各々と関連する検索対象の数を、検索対象が属するカテゴリ毎に計数し、算出部133は、計数部132によって計数された計数結果に基づいて、複数の部分クエリの各々と関連する複数のカテゴリの各々によって重み付けが行われた複数の部分クエリの各々に対応する値を算出する。
これにより、実施形態に係る算出装置100は、計数結果に基づいて、複数の部分クエリの各々と関連する複数のカテゴリの各々によって重み付けが行われた複数の部分クエリの各々に対応する値を算出するため、利用者の意図を精度よく把握することができる。
また、実施形態に係る算出装置100において、算出部133は、計数結果に基づいて、複数のカテゴリの各々から算出されたベクトル毎に重み付けを行い、重み付けが行われたベクトルの総和を値として算出する。
これにより、実施形態に係る算出装置100は、計数結果に基づいて、複数のカテゴリの各々から算出されたベクトル毎に重み付けを行い、重み付けが行われたベクトルの総和を値として算出するため、利用者の意図を精度よく把握することができる。
また、実施形態に係る算出装置100において、算出部133は、重み付けを行う場合の重みとして各カテゴリの計数結果に応じた割合を、各カテゴリと対応するベクトルに乗じたベクトルの総和を値として算出する。
これにより、実施形態に係る算出装置100は、重み付けを行う場合の重みとして各カテゴリの計数結果に応じた割合を、各カテゴリと対応するベクトルに乗じたベクトルの総和を値として算出するため、利用者の意図を精度よく把握することができる。
また、実施形態に係る算出装置100において、クエリに関する情報と、クエリを構成する部分クエリ毎に対応する値であって、計数結果に基づいて部分クエリと関連する複数のカテゴリの各々によって重み付けが行われた値とを入力することで、クエリが所定のカテゴリと関連する度合いを示す関連度を出力するように学習させた学習モデルを生成する生成部134をさらに備える。
これにより、実施形態に係る算出装置100は、クエリを構成する部分クエリ毎に対応する値であって、計数結果に基づいて部分クエリと関連する複数のカテゴリの各々によって重み付けが行われた値とを入力することで、クエリが所定のカテゴリと関連する度合いを示す関連度を出力するように学習させた学習モデルを生成するため、利用者の意図を精度よく把握することができる適切な学習モデルを生成することができる。
また、実施形態に係る算出装置100において、生成部134は、クエリを構成する文字毎に算出されたベクトルと、複数のカテゴリの各々から算出されたベクトル毎に重み付けを行い、重み付けが行われたベクトルの総和とを入力することで、関連度を出力するように学習させた学習モデルを生成する。
これにより、実施形態に係る算出装置100は、クエリを構成する文字毎に算出されたベクトルと、複数のカテゴリの各々から算出されたベクトル毎に重み付けを行い、重み付けが行われたベクトルの総和とを入力することで、関連度を出力するように学習させた学習モデルを生成するため、利用者の意図を精度よく把握することができる適切な学習モデルを生成することができる。
また、実施形態に係る算出装置100において、利用者の属性に関する属性情報を取得する取得部131をさらに備え、生成部134は、クエリを構成する文字毎に算出されたベクトルと、複数のカテゴリの各々から算出されたベクトル毎に重み付けを行い、重み付けが行われたベクトルの総和と、属性情報とを入力することで、関連度を出力するように学習させた学習モデルを生成する。
これにより、実施形態に係る算出装置100は、クエリを構成する文字毎に算出されたベクトルと、複数のカテゴリの各々から算出されたベクトル毎に重み付けを行い、重み付けが行われたベクトルの総和と、属性情報とを入力することで、関連度を出力するように学習させた学習モデルを生成するため、利用者の属性情報を考慮した適切な学習モデルを生成することができる。
また、実施形態に係る算出装置100において、計数部132は、クエリを構成する部分クエリと関連する検索対象の数を、検索対象が属するカテゴリであって、電子商取引サービスにおいて商品又はサービスを分類するカテゴリ毎に計数する。
これにより、実施形態に係る算出装置100は、クエリを構成する部分クエリと関連する検索対象の数を、検索対象が属するカテゴリであって、電子商取引サービスにおいて商品又はサービスを分類するカテゴリ毎に計数するため、電子商取引サービスを利用する利用者の商品又はサービスの検索意図を精度よく把握することができる。
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
N ネットワーク
1 算出システム
10 端末装置
20 ECサーバ
100 算出装置
110 通信部
120 記憶部
121 利用者情報記憶部
122 計数情報記憶部
123 学習モデル
130 制御部
131 取得部
132 計数部
133 算出部
134 生成部
135 受付部
136 提供部

Claims (8)

  1. 利用者によって入力されたクエリのうち、当該クエリを構成する部分クエリと関連する検索対象の数を、当該検索対象が属するカテゴリ毎に計数する計数部と、
    前記計数部によって計数された計数結果に基づいて、前記部分クエリと関連する複数のカテゴリの各々によって重み付けが行われた前記部分クエリに対応する値を算出する算出部と
    クエリに関する情報と、当該クエリを構成する部分クエリ毎に対応する値であって、前記計数結果に基づいて当該部分クエリと関連する複数のカテゴリの各々によって重み付けが行われた値とを入力することで、当該クエリが所定のカテゴリと関連する度合いを示す関連度を出力するように学習させた学習モデルを生成する生成部と
    を備え
    前記生成部は、
    前記クエリを構成する文字毎に算出されたベクトルと、前記複数のカテゴリの各々から算出されたベクトル毎に重み付けを行い、当該重み付けが行われたベクトルの総和とを入力することで、前記関連度を出力するように学習させた学習モデルを生成する
    ことを特徴とする算出装置。
  2. 前記計数部は、
    前記クエリを構成する複数の部分クエリの各々と関連する検索対象の数を、当該検索対象が属するカテゴリ毎に計数し、
    前記算出部は、
    前記計数部によって計数された計数結果に基づいて、前記複数の部分クエリの各々と関連する複数のカテゴリの各々によって重み付けが行われた前記複数の部分クエリの各々に対応する値を算出する
    ことを特徴とする請求項1に記載の算出装置。
  3. 前記算出部は、
    前記計数結果に基づいて、前記複数のカテゴリの各々から算出されたベクトル毎に重み付けを行い、当該重み付けが行われたベクトルの総和を前記値として算出する
    ことを特徴とする請求項1又は2に記載の算出装置。
  4. 前記算出部は、
    重み付けを行う場合の重みとして各カテゴリの計数結果に応じた割合を、各カテゴリと対応する前記ベクトルに乗じたベクトルの総和を前記値として算出する
    ことを特徴とする請求項3に記載の算出装置。
  5. 利用者の属性に関する属性情報を取得する取得部をさらに備え、
    前記生成部は、
    前記クエリを構成する文字毎に算出されたベクトルと、前記複数のカテゴリの各々から算出されたベクトル毎に重み付けを行い、当該重み付けが行われたベクトルの総和と、前記属性情報とを入力することで、前記関連度を出力するように学習させた学習モデルを生成する
    ことを特徴とする請求項に記載の算出装置。
  6. 前記計数部は、
    前記クエリを構成する部分クエリと関連する検索対象の数を、当該検索対象が属するカテゴリであって、電子商取引サービスにおいて商品又はサービスを分類するカテゴリ毎に計数する
    ことを特徴とする請求項1~のいずれか1つに記載の算出装置。
  7. コンピュータが実行する算出方法であって、
    利用者によって入力されたクエリのうち、当該クエリを構成する部分クエリと関連する検索対象の数を、当該検索対象が属するカテゴリ毎に計数する計数工程と、
    前記計数工程によって計数された計数結果に基づいて、前記部分クエリと関連する複数のカテゴリの各々によって重み付けが行われた前記部分クエリに対応する値を算出する算出工程と
    クエリに関する情報と、当該クエリを構成する部分クエリ毎に対応する値であって、前記計数結果に基づいて当該部分クエリと関連する複数のカテゴリの各々によって重み付けが行われた値とを入力することで、当該クエリが所定のカテゴリと関連する度合いを示す関連度を出力するように学習させた学習モデルを生成する生成工程と
    を含み
    前記生成工程は、
    前記クエリを構成する文字毎に算出されたベクトルと、前記複数のカテゴリの各々から算出されたベクトル毎に重み付けを行い、当該重み付けが行われたベクトルの総和とを入力することで、前記関連度を出力するように学習させた学習モデルを生成する
    ことを特徴とする算出方法。
  8. 利用者によって入力されたクエリのうち、当該クエリを構成する部分クエリと関連する検索対象の数を、当該検索対象が属するカテゴリ毎に計数する計数手順と、
    前記計数手順によって計数された計数結果に基づいて、前記部分クエリと関連する複数のカテゴリの各々によって重み付けが行われた前記部分クエリに対応する値を算出する算出手順と
    クエリに関する情報と、当該クエリを構成する部分クエリ毎に対応する値であって、前記計数結果に基づいて当該部分クエリと関連する複数のカテゴリの各々によって重み付けが行われた値とを入力することで、当該クエリが所定のカテゴリと関連する度合いを示す関連度を出力するように学習させた学習モデルを生成する生成手順と
    をコンピュータに実行させ
    前記生成手順は、
    前記クエリを構成する文字毎に算出されたベクトルと、前記複数のカテゴリの各々から算出されたベクトル毎に重み付けを行い、当該重み付けが行われたベクトルの総和とを入力することで、前記関連度を出力するように学習させた学習モデルを生成する
    ことを特徴とする算出プログラム。
JP2021071238A 2021-04-20 2021-04-20 算出装置、算出方法及び算出プログラム Active JP7372278B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021071238A JP7372278B2 (ja) 2021-04-20 2021-04-20 算出装置、算出方法及び算出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021071238A JP7372278B2 (ja) 2021-04-20 2021-04-20 算出装置、算出方法及び算出プログラム

Publications (2)

Publication Number Publication Date
JP2022165754A JP2022165754A (ja) 2022-11-01
JP7372278B2 true JP7372278B2 (ja) 2023-10-31

Family

ID=83851298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021071238A Active JP7372278B2 (ja) 2021-04-20 2021-04-20 算出装置、算出方法及び算出プログラム

Country Status (1)

Country Link
JP (1) JP7372278B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015511039A (ja) 2012-03-15 2015-04-13 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 製品情報の公開
JP2018518788A (ja) 2016-01-07 2018-07-12 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド ウェブページトレーニング方法及び装置、検索意図識別方法及び装置
JP2019053386A (ja) 2017-09-13 2019-04-04 ヤフー株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015511039A (ja) 2012-03-15 2015-04-13 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 製品情報の公開
JP2018518788A (ja) 2016-01-07 2018-07-12 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド ウェブページトレーニング方法及び装置、検索意図識別方法及び装置
JP2019053386A (ja) 2017-09-13 2019-04-04 ヤフー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
JP2022165754A (ja) 2022-11-01

Similar Documents

Publication Publication Date Title
Riaz et al. Opinion mining on large scale data using sentiment analysis and k-means clustering
Zheng et al. Feature engineering for machine learning: principles and techniques for data scientists
US10339184B2 (en) System and method for topic extraction and opinion mining
US9251292B2 (en) Search result ranking using query clustering
Galitsky Machine learning of syntactic parse trees for search and classification of text
WO2013021889A1 (ja) 色名決定装置、色名決定方法、情報記録媒体、ならびに、プログラム
WO2017075017A1 (en) Automatic conversation creator for news
US20230177360A1 (en) Surfacing unique facts for entities
Kulkarni et al. Converting text to features
RU2664481C1 (ru) Способ и система выбора потенциально ошибочно ранжированных документов с помощью алгоритма машинного обучения
Banik Hands-on recommendation systems with Python: start building powerful and personalized, recommendation engines with Python
US20180285448A1 (en) Producing personalized selection of applications for presentation on web-based interface
Gao et al. Text classification research based on improved Word2vec and CNN
WO2021007159A1 (en) Identifying entity attribute relations
JP6321845B1 (ja) 付与装置、付与方法および付与プログラム
JP7372278B2 (ja) 算出装置、算出方法及び算出プログラム
US11256703B1 (en) Systems and methods for determining long term relevance with query chains
US20210224303A1 (en) Searching device and searching program
Hafez et al. Multi-criteria recommendation systems to foster online grocery
JP6680655B2 (ja) 学習装置および学習方法
KR20230100220A (ko) 컴퓨터 장치를 이용한 어문 저작물 ip의 거래 중개 방법
US11017172B2 (en) Proposition identification in natural language and usage thereof for search and retrieval
JP7407139B2 (ja) 生成装置、生成方法及び生成プログラム
JP6756648B2 (ja) 生成装置、生成方法および生成プログラム
Zou et al. Automatic product copywriting for e‐commerce

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231019

R150 Certificate of patent or registration of utility model

Ref document number: 7372278

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350