JP2021099791A - 直接型ニューラルネットワーク構造を用いてアイテムを推奨するシステム、方法、及びコンピュータプログラム - Google Patents
直接型ニューラルネットワーク構造を用いてアイテムを推奨するシステム、方法、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2021099791A JP2021099791A JP2020189584A JP2020189584A JP2021099791A JP 2021099791 A JP2021099791 A JP 2021099791A JP 2020189584 A JP2020189584 A JP 2020189584A JP 2020189584 A JP2020189584 A JP 2020189584A JP 2021099791 A JP2021099791 A JP 2021099791A
- Authority
- JP
- Japan
- Prior art keywords
- user
- item
- data
- neural network
- low
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 126
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000004590 computer program Methods 0.000 title claims abstract description 7
- 239000013598 vector Substances 0.000 claims abstract description 171
- 238000012549 training Methods 0.000 claims description 85
- 238000012360 testing method Methods 0.000 claims description 22
- 238000013527 convolutional neural network Methods 0.000 claims 2
- 238000006243 chemical reaction Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 6
- 238000005457 optimization Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 4
- 239000010410 layer Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04Q—SELECTING
- H04Q2213/00—Indexing scheme relating to selecting arrangements in general and for multiplex systems
- H04Q2213/054—Expert systems, e.g. neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
L()は復元に伴う損失であり、
guはユーザデータのエンコーダであり、
fuはユーザデータのデコーダであり、
giはアイテムデータのエンコーダであり、
guはアイテムデータのデコーダであり、
Uは、全てのユーザの低次元表現を有する行列であり、
Vは、全てのアイテムの低次元表現を有する行列である。
θは、2つのオートエンコーダの全てのパラメータを含み、
λ1、λ2、及びλ3はハイパーパラメータである。
トレーニングフェーズに関して、
(a)アイテムに関する既知のレイティングを有するトレーニング用データセットにおけるトレーニング用ユーザについて、前記トレーニング用ユーザのユーザデータを有する1つ以上の入力ベクトルと、アイテムのアイテムデータを有する1つ以上の入力ベクトルとを受け付けるステップと、
(b)符号化用ニューラルネットワークの組を用いて、各入力ベクトルを低次元ベクトル空間へと対応付けて、ユーザデータの1つ以上の低次元ベクトルと、アイテムデータの1つ以上の低次元ベクトルとを得るステップであって、入力ベクトルごとに異なる符号化用ニューラルネットワークが用いられ、ユーザの低次元ベクトル及びアイテムの低次元ベクトルは、対応する入力ベクトルに比べて次元が低い、ステップと、
(c)1つ以上のユーザの低次元ベクトル及び1つ以上のアイテムの低次元ベクトルに基づいて、ユーザデータ及びアイテムデータの単一の多次元ベクトル表現を作成するステップと、
(d)予測用ニューラルネットワークを用いて、トレーニング用のユーザデータ及びアイテムデータの単一の多次元ベクトル表現に基づき、トレーニング用ユーザの、アイテムについて予測されるレイティングを計算するステップと、
(e)トレーニング用ユーザの、アイテムについて予測されたレイティングと、トレーニング用ユーザの、アイテムについての既知のレイティングとの間の誤差値を計算するステップと、
(f)トレーニング用データセットにおける複数のトレーニング用ユーザに対してステップ(a)〜(e)を実行するステップと、
(g)複数のトレーニング用ユーザの誤差値が最小となるように、符号化用ニューラルネットワーク及び予測用ニューラルネットワークのパラメータを更新するステップと、
(h)複数回にわたりステップ(a)〜(g)を繰り返して、符号化用ニューラルネットワーク及び予測用ニューラルネットワークをトレーニングするステップと
を実行するステップと、
予測及び推奨フェーズに関して、
(i)テスト対象ユーザのユーザデータを有する1つ以上の入力ベクトルと、テスト対象ユーザによって評価されていないアイテムのアイテムデータを有する1つ以上の入力ベクトルとを受け付けるステップと、
(j)符号化用ニューラルネットワークの組を用いて、各入力ベクトルを低次元ベクトル空間へと対応付けて、ユーザデータの1つ以上の低次元ベクトルと、アイテムデータの1つ以上の低次元ベクトルとを得るステップであって、入力ベクトルごとに異なる符号化用ニューラルネットワークが用いられ、ユーザの低次元ベクトル及びアイテムの低次元ベクトルは、対応する入力ベクトルに比べて次元が低い、ステップと、
(k)1つ以上のユーザの低次元ベクトル及び1つ以上のアイテムの低次元ベクトルに基づいて、ユーザデータ及びアイテムデータの単一の多次元ベクトル表現を作成するステップと、
(l)予測用ニューラルネットワークを用いて、ユーザデータ及びアイテムデータの単一の多次元ベクトル表現に基づき、テスト対象ユーザによるアイテムについての予測されるレイティングを計算するステップと、
(m)テスト対象ユーザと、テスト対象ユーザによって評価されていない複数のアイテムとに対してステップ(i)〜(l)を繰り返すステップと、
(n)テスト対象ユーザの、複数のアイテムについて予測されたレイティングを用いて、1つ以上のアイテムをテスト対象ユーザに推奨するステップと
を実行するステップと
を含む。
1.1 入力
図2A及び図2Bに、アイテムに関するユーザのレイティングを予測できるよう本システムをトレーニングする方法を示す。本方法を、図4のニューラルネットワークアーキテクチャに関して説明する。本システムは、アイテムに関する既知のトレーニング用のユーザのレイティングを含む、トレーニング用ユーザデータ及びトレーニング用アイテムデータを有するトレーニング用データセットを取得する(ステップ205)。トレーニング用データセットは、1つ以上のユーザデータソース及び1つ以上のアイテムデータソース(例えば、図4のデータソース405a〜405fを参照)を有することができる。本システムは、このトレーニング用データセットから、トレーニング用ユーザのユーザデータを有する1つ以上の入力ベクトルと、トレーニング用ユーザによる既知のレイティングを有するアイテムのアイテムデータを有する1つ以上の入力ベクトル(例えば、図4の入力ベクトル410a〜410fを参照)とを取得する(ステップ210a、210b)。
アイテムのプロファイルデータの1つのタイプは、アイテムのカテゴリとすることができる。この例では、全部でn個のカテゴリがあり(ただし、nはこの例では3よりも大きい整数である)、アイテム#0はカテゴリ_2に属する。アイテム#0のカテゴリのプロファイル情報に対応する入力ベクトルは、以下のとおりである。
この例は、ユーザの過去のレイティングをベクトルとしてどのように表すことができるのかを示す。簡単にするために、この例では、5つのアイテムとしてアイテム_1からアイテム_5があるものとする。第i番目のユーザの過去のレイティングは、以下のとおりである。
本システムは、第1のニューラルネットワークのエンコーダの組を用いて、各入力ベクトルを低次元(入力ベクトル空間に比べて低い次元)のベクトル空間へと対応付けて、アイテムデータの1つ以上の低次元ベクトル及びユーザデータの1つ以上の低次元ベクトルを得る(例えば、図4におけるニューラルネットワークのエンコーダ420a〜420f、低次元ユーザベクトル430a〜430c、及び低次元アイテムベクトル430d〜430fを参照)(ステップ220)。入力ベクトルごとに別々のニューラルネットワークエンコーダがある。
続いて、ユーザデータ及びアイテムデータの単一の多次元ベクトル表現は、別のニューラルネットワーク(例えば、図4における予測用ニューラルネットワーク450を参照)に入力される(ステップ240)。このニューラルネットワークは、ユーザデータ及びアイテムデータの多次元ベクトル表現を、アイテムについて予測されるユーザのレイティングへと対応付けるものである。本明細書では、このニューラルネットワークを「予測用ニューラルネットワーク」と呼ぶ。予測用ニューラルネットワークは、アイテムに関して予測されるユーザのレイティングを出力する。
本システムは、トレーニング用ユーザの、アイテムに関して予測されたレイティングと、トレーニング用ユーザの、同アイテムに関する既知のレイティングとの間の誤差値を計算する(ステップ250)。例えば、本システムは、以下のように、予測されたレイティングと実際のレイティングとの間の平均二乗誤差(mean square error)を計算することができる。
mは、観測値(observation)の個数であり、
h(x)は、予測された応答であり、
yは、目標となる応答である。
θは、符号化用ニューラルネットワーク及び予測用ニューラルネットワークの全てのパラメータを含み、
Rjkは、ユーザjの、アイテムkに関するレイティングであり、
zjkは、ユーザデータ及びアイテムデータの単一の多次元表現(すなわち、符号化用ニューラルネットワークの出力を連結したもの)であり、
h()は、予測用ニューラルネットワークであり、
λ1はハイパーパラメータである。
図3に、複数のアイテムに関してユーザのレイティングを予測し、これらのレイティングに基づいてアイテムをユーザに推奨する方法を示す。本方法は、前述のとおり、トレーニングがなされた符号化用ニューラルネットワーク及び予測用ニューラルネットワークを用いる。ステップ310〜340は、テスト対象ユーザ(すなわち、トレーニング用ユーザではないユーザ)と、このテスト対象ユーザによって評価されていないアイテムとに対して行われることを除いて、図2Aにおけるステップ210〜240と同じである。具体的には、テスト対象ユーザのデータを有する1つ以上の入力ベクトルとアイテムデータを有する1つ以上のベクトルとが、符号化用ネットワーク内に入力され、テスト対象ユーザのデータに関する1つ以上の低次元ベクトルとアイテムデータに関する1つ以上の低次元ベクトルとが得られる(ステップ310及び320)。このフェーズでは、トレーニングフェーズと同じタイプのユーザデータ及びアイテムデータが用いられる。テスト対象ユーザ及びアイテムの低次元のベクトルを用いて、テスト対象ユーザのデータ及びアイテムデータの、単一の多次元ベクトル表現が作成される(ステップ330)。この単一の多次元ベクトルが予測用ニューラルネットワークに入力される。予測用ニューラルネットワークは、予測された、テスト対象ユーザによるアイテムのレイティングを出力する(ステップ340及び350)。
図1のニューラルネットワーク構造を用いる推奨システムとは異なり、図2〜図4を参照しながら開示された方法は、ニューラルネットワーク構造にデコーダを必要としない。そのため、開示された方法を用いれば、ネットワークパラメータの数が少なくなることから、収束がより速くなる。また、本明細書に開示された方法は、従来の方法における、ユーザの表現及びアイテムの表現を有する大きな行列(例えば、図1における行列U及びV)の計算及び最適化を必要としない。これは、全ての変数のエンドツーエンドのトレーニングをもたらし、このトレーニングは、従来の処理における交互の最適化手法よりも高速かつ容易である。これにより、ニューラルネットワークをトレーニングするための目的関数に含まれるハイパーパラメータの数をより少なくする(すなわち、従来技術の3つとは異なり、1つとする)こともできる。
図5に、一例として、推奨システムのソフトウェアアーキテクチャを示す。推奨システム500は、複数のデータソース510、520からユーザデータ及びアイテムデータを受け付ける。予測モジュール530は、アイテムに関するユーザのレイティングを予測する。予測モジュールは、符号化用ニューラルネットワーク550と、ユーザデータ及びアイテムデータの単一の多次元ベクトル表現を作成する単一ベクトル作成ユニット560と、予測用ニューラルネットワーク570とを有する。トレーニングモジュール580は、図2A及び図2Bの方法に従って予測モジュール530のトレーニングを行う。予測モジュール530は、図3の方法に基づいて予測を行う。推奨モジュール540は、予測されたユーザのレイティングを受け付け、その予測に基づいてユーザにアイテムを推奨する。例えば、推奨モジュールは、適用可能な任意のビジネスルールにおけるファクタリングの後に、予測された上位n個のレイティングに関連する商品を選択することができる。当業者であれば、推奨システムが、本明細書における開示とは関係しない他のモジュールを有することができることを理解するであろう。
図1〜図5に関して説明した方法は、ソフトウェアで具現化され、ソフトウェアを実行する(1つ以上の計算デバイスを備える)コンピュータシステムによって実行される。当業者であれば、コンピュータシステムが、ソフトウェア命令を記憶する1つ以上の物理メモリユニット、ディスク、又は他の物理的なコンピュータ可読記憶媒体と、これらのソフトウェア命令を実行する1つ以上のプロセッサとを有することを理解するであろう。当業者であれば、コンピュータシステムはスタンドアローンとすることもできるし、サーバとしてコンピュータネットワークに接続することもできることを理解するであろう。
Claims (20)
- ニューラルネットワークを用いて1つ以上のアイテムをユーザに自動的に推奨するための、コンピュータシステムによって実行される方法であって、
トレーニングフェーズに関して、
(a)アイテムに関する既知のレイティングを有するトレーニング用データセットにおけるトレーニング用ユーザについて、前記トレーニング用ユーザのユーザデータを有する1つ以上の入力ベクトルと、前記アイテムのアイテムデータを有する1つ以上の入力ベクトルとを受け付けるステップと、
(b)符号化用ニューラルネットワークの組を用いて入力ベクトルの各々を低次元ベクトル空間に対応付けて、前記ユーザデータの1つ以上の低次元ベクトルと、前記アイテムデータの1つ以上の低次元ベクトルとを得るステップであって、入力ベクトルごとに異なる前記符号化用ニューラルネットワークが用いられ、前記ユーザの低次元ベクトル及び前記アイテムの低次元ベクトルは、対応する前記入力ベクトルに比べて次元が低い、ステップと、
(c)1つ以上の前記ユーザの低次元ベクトルと1つ以上の前記アイテムの低次元ベクトルとに基づいて、前記ユーザデータ及び前記アイテムデータの単一の多次元ベクトル表現を作成するステップと、
(d)予測用ニューラルネットワークを用いて、前記トレーニング用のユーザデータ及びアイテムデータの前記単一の多次元ベクトル表現から、前記トレーニング用ユーザによる、前記アイテムについての予測されるレイティングを計算するステップと、
(e)前記トレーニング用ユーザの、前記アイテムについて予測されたレイティングと、前記トレーニング用ユーザの、前記アイテムについての既知のレイティングとの間の誤差値を計算するステップと、
(f)前記トレーニング用データセットにおける複数のトレーニング用ユーザについて前記ステップ(a)〜(e)を行うステップと、
(g)前記複数のトレーニング用ユーザの誤差値が最小となるように、前記符号化用ニューラルネットワーク及び前記予測用ニューラルネットワークのパラメータを更新するステップと、
(h)前記ステップ(a)〜(g)を複数回にわたり繰り返して、前記符号化用ニューラルネットワーク及び前記予測用ニューラルネットワークをトレーニングするステップと
を行うステップと、
予測及び推奨フェーズに関して、
(i)テスト対象ユーザのユーザデータを有する1つ以上の入力ベクトルと、前記テスト対象ユーザによって評価されていないアイテムのアイテムデータを有する1つ以上の入力ベクトルとを受け付けるステップと、
(j)前記符号化用ニューラルネットワークの組を用いて入力ベクトルの各々を低次元ベクトル空間に対応付けて、前記ユーザデータの1つ以上の低次元ベクトルと、前記アイテムデータの1つ以上の低次元ベクトルとを得るステップであって、入力ベクトルごとに異なる前記符号化用ニューラルネットワークが用いられ、前記ユーザの低次元ベクトル及び前記アイテムの低次元ベクトルは、対応する入力ベクトルに比べて次元が低い、ステップと、
(k)1つ以上の前記ユーザの低次元ベクトル及び1つ以上の前記アイテムの低次元ベクトルに基づいて、前記ユーザデータ及び前記アイテムデータの単一の多次元ベクトル表現を作成するステップと、
(l)前記予測用ニューラルネットワークを用いて、前記ユーザデータ及び前記アイテムデータの前記単一の多次元ベクトル表現から、前記テスト対象ユーザによる前記アイテムについての予測されるレイティングを計算するステップと、
(m)前記テスト対象ユーザと、前記テスト対象ユーザによって評価されていない複数のアイテムとに関して、前記ステップ(i)〜(l)を繰り返すステップと、
(n)前記テスト対象ユーザの、前記複数のアイテムについて予測されたレイティングを用いて、1つ以上のアイテムを前記テスト対象ユーザに推奨するステップと
を行うステップと
を含む方法。 - 前記ユーザデータは、ユーザの過去のレイティングと、ユーザのプロファイルデータとを含み、前記アイテムデータは、前記アイテムについて別のユーザから受け付けられた過去のレイティングと、アイテムのプロファイルデータとを含む、請求項1に記載の方法。
- 前記ユーザのプロファイルデータは、ユーザの年齢と、ユーザの所在地と、ユーザの性別と、ユーザの職業と、ユーザの所得の範囲とのうちの1つ以上を含む、請求項2に記載の方法。
- 前記アイテムのプロファイルデータは、アイテムの説明と、アイテムの価格と、アイテムのカテゴリと、アイテムの画像とのうちの1つ以上を含む、請求項2に記載の方法。
- 前記誤差値は、前記トレーニング用ユーザの予測されたレイティングと前記トレーニング用ユーザの既知のレイティングとの平均二乗誤差であり、
前記ステップ(g)において、前記符号化用ニューラルネットワーク及び前記予測用ニューラルネットワークのパラメータは、前記複数のトレーニング用ユーザについての前記平均二乗誤差が最小となるように調整される、請求項1に記載の方法。 - 前記予測用ニューラルネットワークが多層パーセプトロンであり、
前記符号化用ニューラルネットワークの組が、多層パーセプトロンと、長・短期記憶ネットワークと、畳込みニューラルネットワークとのうちの1つ以上を含む、請求項1に記載の方法。 - 前記トレーニングフェーズ及び前記予測フェーズの双方において、前記ユーザデータ及び前記アイテムデータの前記単一の多次元ベクトル表現は、1つ以上の前記ユーザの低次元ベクトルと1つ以上の前記アイテムの低次元ベクトルとを連結することにより得られる、請求項1に記載の方法。
- 前記ステップ(a)〜(g)の各反復につき、前記トレーニング用データセットにおける前記トレーニング用ユーザの異なる部分集合が用いられる、請求項1に記載の方法。
- コンピュータシステムにより実行されると、ニューラルネットワークを用いて1つ以上のアイテムをユーザに自動的に推奨する方法を前記コンピュータシステムに実行させるコンピュータプログラムを有する非一時的なコンピュータ可読媒体であって、
前記方法は、
トレーニングフェーズに関して、
(a)アイテムに関する既知のレイティングを有するトレーニング用データセットにおけるトレーニング用ユーザについて、前記トレーニング用ユーザのユーザデータを有する1つ以上の入力ベクトルと、前記アイテムのアイテムデータを有する1つ以上の入力ベクトルとを受け付けるステップと、
(b)符号化用ニューラルネットワークの組を用いて入力ベクトルの各々を低次元ベクトル空間に対応付けて、前記ユーザデータの1つ以上の低次元ベクトルと、前記アイテムデータの1つ以上の低次元ベクトルとを得るステップであって、入力ベクトルごとに異なる前記符号化用ニューラルネットワークが用いられ、前記ユーザの低次元ベクトル及び前記アイテムの低次元ベクトルは、対応する前記入力ベクトルに比べて次元が低い、ステップと、
(c)1つ以上の前記ユーザの低次元ベクトルと1つ以上の前記アイテムの低次元ベクトルとに基づいて、前記ユーザデータ及び前記アイテムデータの単一の多次元ベクトル表現を作成するステップと、
(d)予測用ニューラルネットワークを用いて、前記トレーニング用のユーザデータ及びアイテムデータの前記単一の多次元ベクトル表現から、前記トレーニング用ユーザによる、前記アイテムについての予測されるレイティングを計算するステップと、
(e)前記トレーニング用ユーザの、前記アイテムについて予測されたレイティングと、前記トレーニング用ユーザの、前記アイテムについての既知のレイティングとの間の誤差値を計算するステップと、
(f)前記トレーニング用データセットにおける複数のトレーニング用ユーザについて前記ステップ(a)〜(e)を行うステップと、
(g)前記複数のトレーニング用ユーザの誤差値が最小となるように、前記符号化用ニューラルネットワーク及び前記予測用ニューラルネットワークのパラメータを更新するステップと、
(h)前記ステップ(a)〜(g)を複数回にわたり繰り返して、前記符号化用ニューラルネットワーク及び前記予測用ニューラルネットワークをトレーニングするステップと
を行うステップと、
予測及び推奨フェーズに関して、
(i)テスト対象ユーザのユーザデータを有する1つ以上の入力ベクトルと、前記テスト対象ユーザによって評価されていないアイテムのアイテムデータを有する1つ以上の入力ベクトルとを受け付けるステップと、
(j)前記符号化用ニューラルネットワークの組を用いて入力ベクトルの各々を低次元ベクトル空間に対応付けて、前記ユーザデータの1つ以上の低次元ベクトルと、前記アイテムデータの1つ以上の低次元ベクトルとを得るステップであって、入力ベクトルごとに異なる前記符号化用ニューラルネットワークが用いられ、前記ユーザの低次元ベクトル及び前記アイテムの低次元ベクトルは、対応する入力ベクトルに比べて次元が低い、ステップと、
(k)1つ以上の前記ユーザの低次元ベクトル及び1つ以上の前記アイテムの低次元ベクトルに基づいて、前記ユーザデータ及び前記アイテムデータの単一の多次元ベクトル表現を作成するステップと、
(l)前記予測用ニューラルネットワークを用いて、前記ユーザデータ及び前記アイテムデータの前記単一の多次元ベクトル表現から、前記テスト対象ユーザによる前記アイテムについての予測されるレイティングを計算するステップと、
(m)前記テスト対象ユーザと、前記テスト対象ユーザによって評価されていない複数のアイテムとに関して、前記ステップ(i)〜(l)を繰り返すステップと、
(n)前記テスト対象ユーザの、前記複数のアイテムについて予測されたレイティングを用いて、1つ以上のアイテムを前記テスト対象ユーザに推奨するステップと
を行うステップと
を含む、非一時的なコンピュータ可読媒体。 - 前記ユーザデータは、ユーザの過去のレイティングと、ユーザのプロファイルデータとを含み、前記アイテムデータは、前記アイテムについて別のユーザから受け付けられた過去のレイティングと、アイテムのプロファイルデータとを含む、請求項9に記載の非一時的なコンピュータ可読媒体。
- 前記ユーザのプロファイルデータは、ユーザの年齢と、ユーザの所在地と、ユーザの性別と、ユーザの職業と、ユーザの所得の範囲とのうちの1つ以上を含む、請求項10に記載の非一時的なコンピュータ可読媒体。
- 前記アイテムのプロファイルデータは、アイテムの説明と、アイテムの価格と、アイテムのカテゴリと、アイテムの画像とのうちの1つ以上を含む、請求項10に記載の非一時的なコンピュータ可読媒体。
- 前記誤差値は、前記トレーニング用ユーザの予測されたレイティングと前記トレーニング用ユーザの既知のレイティングとの平均二乗誤差であり、
前記ステップ(g)において、前記符号化用ニューラルネットワーク及び前記予測用ニューラルネットワークのパラメータは、前記複数のトレーニング用ユーザについての前記平均二乗誤差が最小となるように調整される、請求項9に記載の非一時的なコンピュータ可読媒体。 - 前記予測用ニューラルネットワークが多層パーセプトロンであり、
前記符号化用ニューラルネットワークの組が、多層パーセプトロンと、長・短期記憶ネットワークと、畳込みニューラルネットワークとのうちの1つ以上を含む、請求項9に記載の非一時的なコンピュータ可読媒体。 - 前記トレーニングフェーズ及び前記予測フェーズの双方において、前記ユーザデータ及び前記アイテムデータの前記単一の多次元ベクトル表現は、1つ以上の前記ユーザの低次元ベクトルと1つ以上の前記アイテムの低次元ベクトルとを連結することにより得られる、請求項9に記載の非一時的なコンピュータ可読媒体。
- 前記ステップ(a)〜(g)の各反復につき、前記トレーニング用データセットにおける前記トレーニング用ユーザの異なる部分集合が用いられる、請求項9に記載の非一時的なコンピュータ可読媒体。
- コンピュータシステムにより実行されると、アイテムに関するユーザのレイティングを予測するニューラルネットワークシステムをトレーニングする方法を前記コンピュータシステムに実行させるコンピュータプログラムを有する非一時的なコンピュータ可読媒体であって、
前記方法は、
(a)アイテムに関する既知のレイティングを有するトレーニング用データセットにおけるトレーニング用ユーザについて、前記トレーニング用ユーザのユーザデータを有する1つ以上の入力ベクトルと、前記アイテムのアイテムデータを有する1つ以上の入力ベクトルとを受け付けるステップと、
(b)符号化用ニューラルネットワークの組を用いて入力ベクトルの各々を低次元ベクトル空間に対応付けて、前記ユーザデータの1つ以上の低次元ベクトルと、前記アイテムデータの1つ以上の低次元ベクトルとを得るステップであって、入力ベクトルごとに異なる前記符号化用ニューラルネットワークが用いられ、前記ユーザの低次元ベクトル及び前記アイテムの低次元ベクトルは、対応する前記入力ベクトルに比べて次元が低い、ステップと、
(c)1つ以上の前記ユーザの低次元ベクトルと1つ以上の前記アイテムの低次元ベクトルとに基づいて、前記ユーザデータ及び前記アイテムデータの単一の多次元ベクトル表現を作成するステップと、
(d)予測用ニューラルネットワークを用いて、前記トレーニング用のユーザデータ及びアイテムデータの前記単一の多次元ベクトル表現から、前記トレーニング用ユーザによる、前記アイテムについての予測されるレイティングを計算するステップと、
(e)前記トレーニング用ユーザの、前記アイテムについて予測されたレイティングと、前記トレーニング用ユーザの、前記アイテムについての既知のレイティングとの間の誤差値を計算するステップと、
(f)前記トレーニング用データセットにおける複数のトレーニング用ユーザについて前記ステップ(a)〜(e)を行うステップと、
(g)前記複数のトレーニング用ユーザの誤差値が最小となるように、前記符号化用ニューラルネットワーク及び前記予測用ニューラルネットワークのパラメータを更新するステップと、
(h)前記ステップ(a)〜(g)を複数回にわたり繰り返して、前記符号化用ニューラルネットワーク及び前記予測用ニューラルネットワークをトレーニングするステップと
を含む、非一時的なコンピュータ可読媒体。 - 前記ユーザデータは、ユーザの過去のレイティングと、ユーザのプロファイルデータとを含み、前記アイテムデータは、前記アイテムについて別のユーザから受け付けられた過去のレイティングと、アイテムのプロファイルデータとを含む、請求項17に記載の非一時的なコンピュータ可読媒体。
- コンピュータシステムにより実行されると、ニューラルネットワークを用いて1つ以上のアイテムをユーザに自動的に推奨する方法を前記コンピュータシステムに実行させるコンピュータプログラムを有する非一時的なコンピュータ可読媒体であって、
前記方法は、
(a)ユーザのユーザデータを有する1つ以上の入力ベクトルと、前記ユーザによって評価されていないアイテムのアイテムデータを有する1つ以上の入力ベクトルとを受け付けるステップと、
(b)符号化用ニューラルネットワークの組を用いて入力ベクトルの各々を低次元ベクトル空間に対応付けて、前記ユーザデータの1つ以上の低次元ベクトルと、前記アイテムデータの1つ以上の低次元ベクトルとを得るステップであって、入力ベクトルごとに異なる前記符号化用ニューラルネットワークが用いられ、前記ユーザの低次元ベクトル及び前記アイテムの低次元ベクトルは、対応する入力ベクトルに比べて次元が低い、ステップと、
(c)1つ以上の前記ユーザの低次元ベクトル及び1つ以上の前記アイテムの低次元ベクトルに基づいて、前記ユーザデータ及び前記アイテムデータの単一の多次元ベクトル表現を作成するステップと、
(d)予測用ニューラルネットワークを用いて、前記ユーザデータ及び前記アイテムデータの前記単一の多次元ベクトル表現から、前記ユーザによる前記アイテムについての予測されるレイティングを計算するステップであって、前記符号化用ニューラルネットワークの組及び前記予測用ニューラルネットワークは、前記ステップ(b)〜(d)を実行できるように既にトレーニングされている、ステップと、
(e)前記ユーザと、前記ユーザによって評価されていない複数のアイテムとに関して、前記ステップ(a)〜(d)を繰り返すステップと、
(f)前記ユーザの、前記複数のアイテムについて予測されたレイティングを用いて、1つ以上のアイテムを前記ユーザに推奨するステップと
を行うステップと
を含む、非一時的なコンピュータ可読媒体。 - 前記ユーザデータは、ユーザの過去のレイティングと、ユーザのプロファイルデータとを含み、前記アイテムデータは、前記アイテムについて別のユーザから受け付けられた過去のレイティングと、アイテムのプロファイルデータとを含む、請求項19に記載の非一時的なコンピュータ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/689,893 | 2019-11-20 | ||
US16/689,893 US11494644B2 (en) | 2019-11-20 | 2019-11-20 | System, method, and computer program for recommending items using a direct neural network structure |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021099791A true JP2021099791A (ja) | 2021-07-01 |
JP7267985B2 JP7267985B2 (ja) | 2023-05-02 |
Family
ID=75908231
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020189584A Active JP7267985B2 (ja) | 2019-11-20 | 2020-11-13 | 直接型ニューラルネットワーク構造を用いてアイテムを推奨するシステム、方法、及びコンピュータプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11494644B2 (ja) |
JP (1) | JP7267985B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023172050A1 (ko) * | 2022-03-10 | 2023-09-14 | 주식회사 카카오게임즈 | 플레이 로그를 이용한 사용자 정보 예측 방법 및 장치 |
JP7423694B2 (ja) | 2021-07-14 | 2024-01-29 | 楽天グループ株式会社 | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 |
JP7429260B2 (ja) | 2021-07-14 | 2024-02-07 | 楽天グループ株式会社 | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 |
JP7431890B2 (ja) | 2021-07-14 | 2024-02-15 | 楽天グループ株式会社 | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 |
JP7441270B2 (ja) | 2021-07-14 | 2024-02-29 | 楽天グループ株式会社 | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 |
JP7460703B2 (ja) | 2021-08-06 | 2024-04-02 | 楽天グループ株式会社 | 共有されたニューラルアイテム表現をコールドスタート推薦に用いる改良型のレコメンダシステム及び方法 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11494644B2 (en) * | 2019-11-20 | 2022-11-08 | Rakuten Group, Inc. | System, method, and computer program for recommending items using a direct neural network structure |
CN113742596A (zh) * | 2021-09-18 | 2021-12-03 | 辽宁工程技术大学 | 一种基于注意力机制的神经协同过滤推荐方法 |
US11790388B2 (en) | 2021-09-30 | 2023-10-17 | Rakuten Group, Inc. | System, method, and computer program for automatic coupon code fill in a mobile application |
CN117459727B (zh) * | 2023-12-22 | 2024-05-03 | 浙江省北大信息技术高等研究院 | 一种图像处理方法、装置、系统、电子设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61193279A (ja) * | 1985-02-15 | 1986-08-27 | ネスター インコーポレーテツド | パターンを分類及び識別する装置と方法 |
US20100100516A1 (en) * | 2008-10-20 | 2010-04-22 | Hewlett-Packard Development Company, L.P. | Predicting User-Item Ratings |
WO2016132588A1 (ja) * | 2015-02-18 | 2016-08-25 | 株式会社日立製作所 | データ分析装置、データ分析方法、およびデータ分析プログラム |
JP2019008742A (ja) * | 2017-06-28 | 2019-01-17 | ヤフー株式会社 | 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム |
CN109376857A (zh) * | 2018-09-03 | 2019-02-22 | 上海交通大学 | 一种融合结构和属性信息的多模态深度网络嵌入方法 |
JP2020071811A (ja) * | 2018-11-02 | 2020-05-07 | 深和パテントサービス株式会社 | 情報処理装置、情報処理システム、学習装置、学習済の推定モデル、および学習用データの収集方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11004135B1 (en) * | 2017-08-18 | 2021-05-11 | Amazon Technologies, Inc. | Artificial intelligence system for balancing relevance and diversity of network-accessible content |
US10769524B1 (en) * | 2017-09-05 | 2020-09-08 | A9.Com, Inc. | Non-binary gender filter |
US10795897B2 (en) * | 2018-06-28 | 2020-10-06 | Microsoft Technology Licensing, Llc | Techniques for querying user profiles using neural networks |
US20200005149A1 (en) * | 2018-06-28 | 2020-01-02 | Microsoft Technology Licensing, Llc | Applying learning-to-rank for search |
US20200005134A1 (en) * | 2018-06-28 | 2020-01-02 | Microsoft Technology Licensing, Llc | Generating supervised embeddings using unsupervised embeddings |
US20200004886A1 (en) * | 2018-06-28 | 2020-01-02 | Microsoft Technology Licensing, Llc | Generating supervised embedding representations for search |
GB201819520D0 (en) * | 2018-11-30 | 2019-01-16 | Microsoft Technology Licensing Llc | Data retrieval |
US11361365B2 (en) * | 2019-02-25 | 2022-06-14 | Etsy, Inc. | Intuitive entity navigation |
US11308276B2 (en) * | 2019-07-01 | 2022-04-19 | Adobe Inc. | Generating message effectiveness predictions and insights |
US11238103B2 (en) * | 2019-09-13 | 2022-02-01 | Ebay Inc. | Binary coding for improved semantic search |
US11710045B2 (en) * | 2019-10-01 | 2023-07-25 | Samsung Display Co., Ltd. | System and method for knowledge distillation |
US11468489B2 (en) * | 2019-10-31 | 2022-10-11 | Walmart Apollo, Llc | System, non-transitory computer readable medium, and method for self-attention with functional time representation learning |
US11494644B2 (en) * | 2019-11-20 | 2022-11-08 | Rakuten Group, Inc. | System, method, and computer program for recommending items using a direct neural network structure |
US11934445B2 (en) * | 2020-12-28 | 2024-03-19 | Meta Platforms Technologies, Llc | Automatic memory content item provisioning |
-
2019
- 2019-11-20 US US16/689,893 patent/US11494644B2/en active Active
-
2020
- 2020-11-13 JP JP2020189584A patent/JP7267985B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61193279A (ja) * | 1985-02-15 | 1986-08-27 | ネスター インコーポレーテツド | パターンを分類及び識別する装置と方法 |
US20100100516A1 (en) * | 2008-10-20 | 2010-04-22 | Hewlett-Packard Development Company, L.P. | Predicting User-Item Ratings |
WO2016132588A1 (ja) * | 2015-02-18 | 2016-08-25 | 株式会社日立製作所 | データ分析装置、データ分析方法、およびデータ分析プログラム |
JP2019008742A (ja) * | 2017-06-28 | 2019-01-17 | ヤフー株式会社 | 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム |
CN109376857A (zh) * | 2018-09-03 | 2019-02-22 | 上海交通大学 | 一种融合结构和属性信息的多模态深度网络嵌入方法 |
JP2020071811A (ja) * | 2018-11-02 | 2020-05-07 | 深和パテントサービス株式会社 | 情報処理装置、情報処理システム、学習装置、学習済の推定モデル、および学習用データの収集方法 |
Non-Patent Citations (3)
Title |
---|
HE, X., ET AL.: "Neural Collaborative Filtering", PROCEEDINGS OF THE 26TH INTERNATIONAL CONFERENCE ON WORLD WIDE WEB (WWW '17) [ONLINE], JPN7022001243, 3 April 2017 (2017-04-03), pages 173 - 182, ISSN: 0004923851 * |
平手 勇宇ほか: "推薦システム --E-Commerceサービスでの推薦システムの利用--", 人工知能, vol. 34, no. 3, JPN6022011105, 1 May 2019 (2019-05-01), pages 292 - 299, ISSN: 0004735119 * |
谷岡 豪ほか: "アイテム密度に応じて分割されたオートエンコーダによる推薦システム", 電子情報通信学会技術研究報告 [ONLINE], vol. 119, no. 139, JPN6022011103, 15 July 2019 (2019-07-15), pages 71 - 75, ISSN: 0004735120 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7423694B2 (ja) | 2021-07-14 | 2024-01-29 | 楽天グループ株式会社 | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 |
JP7429260B2 (ja) | 2021-07-14 | 2024-02-07 | 楽天グループ株式会社 | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 |
JP7431890B2 (ja) | 2021-07-14 | 2024-02-15 | 楽天グループ株式会社 | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 |
JP7441270B2 (ja) | 2021-07-14 | 2024-02-29 | 楽天グループ株式会社 | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 |
JP7460703B2 (ja) | 2021-08-06 | 2024-04-02 | 楽天グループ株式会社 | 共有されたニューラルアイテム表現をコールドスタート推薦に用いる改良型のレコメンダシステム及び方法 |
WO2023172050A1 (ko) * | 2022-03-10 | 2023-09-14 | 주식회사 카카오게임즈 | 플레이 로그를 이용한 사용자 정보 예측 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
US11494644B2 (en) | 2022-11-08 |
US20210150337A1 (en) | 2021-05-20 |
JP7267985B2 (ja) | 2023-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7267985B2 (ja) | 直接型ニューラルネットワーク構造を用いてアイテムを推奨するシステム、方法、及びコンピュータプログラム | |
US20190354836A1 (en) | Dynamic discovery of dependencies among time series data using neural networks | |
KR101899101B1 (ko) | 인공 신경망 기반 예측 모델 생성 장치 및 방법 | |
CN111753092B (zh) | 一种数据处理方法、模型训练方法、装置及电子设备 | |
JP7271630B2 (ja) | 機械学習に基づくレコメンダシステムにおける入力及びパラメータの同時学習 | |
CN107545301B (zh) | 页面展示方法及装置 | |
WO2020204904A1 (en) | Learning compressible features | |
CN114399021A (zh) | 一种基于多尺度信息的概率风速预测方法和系统 | |
CN112418482A (zh) | 一种基于时间序列聚类的云计算能耗预测方法 | |
CN110781401A (zh) | 一种基于协同自回归流实现的Top-n项目推荐方法 | |
CN112163715A (zh) | 生成式对抗网络的训练方法及装置、电力负荷预测方法 | |
CN114297470A (zh) | 内容的推荐方法、装置、设备、介质及计算机程序产品 | |
WO2019198026A1 (en) | Deep learning approach for assessing credit risk | |
CN116340726A (zh) | 一种能源经济大数据清洗方法、系统、设备及存储介质 | |
JP2021140551A (ja) | 情報処理装置および機械学習方法 | |
Li et al. | Learning to reformulate for linear programming | |
CN117151276A (zh) | 售电平台的智能化管理系统 | |
US20170236056A1 (en) | Automated predictive modeling and framework | |
CN115525831A (zh) | 推荐模型训练方法、推荐方法、装置及计算机可读存储介质 | |
CN115049458A (zh) | 基于用户人群建模的商品推送方法及装置、介质、设备 | |
CN114821379B (zh) | 一种基于松弛变换解码器的直接时序动作检测方法 | |
CN114971688A (zh) | 一种基于组合模型的供应链生产预测方法 | |
US20210097402A1 (en) | Storage medium, optimum solution acquisition method and information processing apparatus | |
CN113674014A (zh) | 一种配电线路日线损率预测方法和系统 | |
CN107705159A (zh) | 存量房估价方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210315 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220325 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220518 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220722 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230216 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230216 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230227 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230414 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230420 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7267985 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |