JP2023024950A - 共有されたニューラルアイテム表現をコールドスタート推薦に用いる改良型のレコメンダシステム及び方法 - Google Patents
共有されたニューラルアイテム表現をコールドスタート推薦に用いる改良型のレコメンダシステム及び方法 Download PDFInfo
- Publication number
- JP2023024950A JP2023024950A JP2022124085A JP2022124085A JP2023024950A JP 2023024950 A JP2023024950 A JP 2023024950A JP 2022124085 A JP2022124085 A JP 2022124085A JP 2022124085 A JP2022124085 A JP 2022124085A JP 2023024950 A JP2023024950 A JP 2023024950A
- Authority
- JP
- Japan
- Prior art keywords
- item
- user
- neural network
- vector
- interaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 28
- 230000014509 gene expression Effects 0.000 title abstract 4
- 230000001537 neural effect Effects 0.000 title description 8
- 230000003993 interaction Effects 0.000 claims abstract description 136
- 238000013528 artificial neural network Methods 0.000 claims abstract description 123
- 239000011159 matrix material Substances 0.000 claims abstract description 39
- 239000013598 vector Substances 0.000 claims description 132
- 230000006870 function Effects 0.000 claims description 36
- 238000010801 machine learning Methods 0.000 claims description 11
- 230000010354 integration Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims 4
- 238000007596 consolidation process Methods 0.000 claims 3
- 238000010586 diagram Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000005267 amalgamation Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0282—Rating or review of business operators or products
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- General Physics & Mathematics (AREA)
- Development Economics (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本出願は、発明の名称が「Shared Neural Item Representations for Completely Cold Start Problem」である2021年8月6日出願の米国仮出願第63/230,676号の利益を主張するものである。この米国仮出願の内容は、引用することにより本明細書に完全に開示されているかの如く本明細書の一部をなすものとする。
トレーニングフェーズに関して、
(a)トレーニング用のユーザ及びアイテムのトレーニング用データセットを取得するステップであって、トレーニング用データセットは、データセット内の各アイテムのアイテムデータと、各トレーニング用ユーザのユーザインタラクションベクトルとを有し、ユーザインタラクションベクトルは、トレーニング用データセット内のユーザとアイテムの各ペアのインタラクション値を有するインタラクション行列から取得される、ステップと、
(b)アイテムニューラルネットワークエンコーダを使用して、少なくとも1人のトレーニング用ユーザがポジティブなインタラクション値を有するトレーニング用データセット内の各アイテムのアイテムベクトル表現を計算するステップと、
(c)上記アイテムベクトル表現を使用して、ユーザニューラルネットワークエンコーダの第1層の重み行列を設定するステップと、
(d)トレーニング用データセット内のユーザとアイテムの各ペアにつき、
トレーニング用ユーザのユーザインタラクションベクトルにユーザニューラルネットワークエンコーダを適用することによって、ユーザベクトル表現を計算し、ここで、トレーニング用ユーザのユーザベクトル表現の計算において、ユーザニューラルネットワークエンコーダの第1層の出力は、トレーニング用ユーザがポジティブなインタラクション値を有するアイテムのアイテムベクトル表現の関数であり、
ペア内のアイテムのアイテムデータにアイテムニューラルネットワークエンコーダを適用することによって、アイテムベクトル表現を計算し、
ペアについて生成されたユーザベクトル表現及びアイテムベクトル表現に基づいて、ユーザとアイテムのペアの予測インタラクション値を計算するステップと、
(e)トレーニング用セット内のユーザとアイテムのペアの予測インタラクション値と実際のインタラクション値との間の損失を算出するステップと、
(f)アイテムニューラルネットワークエンコーダ及びユーザニューラルネットワークエンコーダのトレーニング可能なパラメータを、損失が最小となるように調整するステップと、
(g)複数回の反復にわたってステップ(b)~(f)を繰り返すステップと
を行い、
予測フェーズに関して、
(h)複数のアイテムのアイテムベクトル表現を計算するステップであって、アイテムベクトル表現は、アイテムのアイテムデータにアイテムニューラルネットワークエンコーダを適用することによって生成される、ステップと、
(i)上記アイテムベクトル表現を使用して、ユーザニューラルネットワークエンコーダの第1層の重み行列を設定するステップと、
(j)テストユーザに関して、
テストユーザのユーザインタラクションベクトルを取得し、
テストユーザとの既知のインタラクション値が存在しないアイテムkのアイテムデータを取得し、
ユーザインタラクションベクトルにユーザニューラルネットワークエンコーダを適用することによって、テストユーザのユーザベクトル表現を計算し、ここで、ユーザニューラルネットワークエンコーダの第1層の出力は、テストユーザがポジティブなインタラクション値を有するアイテムのアイテムベクトル表現の関数であり、
アイテムkのアイテムデータにアイテムニューラルネットワークエンコーダを適用することによって、アイテムkのアイテムベクトル表現を計算し、
テストユーザ及びアイテムについて計算されたユーザベクトル表現及びアイテムベクトル表現に基づいて、テストユーザとアイテムkの予測インタラクション値を計算するステップと
を行う。
本明細書における数学的表記に関して、ユーザ・アイテムのインタラクション行列を
レコメンダシステムは、機械学習モデル(「モデル」又は「予測用モデル」)を使用して、ユーザ・アイテムのインタラクション値を予測する。図3に、一実施形態によるモデルを示す。このモデルは、ユーザ入力データ305からユーザベクトル表現360を生成するユーザニューラルネットワークエンコーダ340と、入力アイテムデータ315からアイテムベクトル表現350を生成するアイテムニューラルネットワークエンコーダ320とを有する。以下で説明するように、ユーザ表現360は、ユーザがポジティブなインタラクション値を有するアイテム310(例えば、ユーザが過去に購入したアイテム)について、アイテムニューラルネットワークエンコーダ320によって生成されたアイテム表現330a~330bの関数でもある。或る実施形態において、ユーザ及びアイテムの予測されたインタラクション値は、ユーザ表現及びアイテム表現のドット積370である。モデルのトレーニングは、最も正確な予測を提供するユーザニューラルネットワークエンコーダ及びアイテムニューラルネットワークエンコーダのパラメータの学習を含む。
図1に、ユーザとアイテムのインタラクションの予測を行うべく、レコメンダシステムによって使用される予測モデルをトレーニングする方法を示す。
システムは、アイテムデータとユーザデータとを有するトレーニング用データセットを取得する(ステップ110)。アイテムデータは、アイテムの特性を記載したデータである「サイドアイテムデータ」である。サイドアイテムデータの例は、商品のカテゴリ及びサブカテゴリである。
システムは、アイテムニューラルネットワークエンコーダ(320)を用いて、少なくとも1人のトレーニング用ユーザがポジティブなインタラクション値を有するトレーニング用データセット内の各アイテムのアイテムベクトル表現を計算する(ステップ120)。ステップ120において生成されたアイテム表現は、後述するように、ユーザニューラルネットワークエンコーダと共有される。
システムは、ステップ120にて生成されたアイテムベクトル表現を用いて、ユーザニューラルネットワークエンコーダの第1層における重み行列を設定する(ステップ130)。ユーザニューラルネットワークエンコーダの第1層の重み行列内の各重みベクトルは、トレーニング用データセット内のアイテムに対応する。アイテム表現が生成された各アイテムについて(少なくとも1人のユーザが当該アイテムとのポジティブなインタラクションを有するため)、それらのアイテムに対応する重みベクトルが、生成されたアイテム表現である。これによって、以下でより詳細に述べるように、各ユーザについて、ユーザニューラルネットワークエンコーダの第1層の出力が、ユーザがポジティブなインタラクション値を有するアイテムのアイテム表現の関数になるという効果が得られる。
システムは、トレーニング用データセット内のユーザとアイテムの各ペアの予測インタラクション値を計算する。これを、図1のステップ140~160に示す。ユーザとアイテムの各ペアについて、システムは、そのペア内のアイテムデータにアイテムニューラルネットワークエンコーダを適用することにより、アイテムベクトル表現を計算する(ステップ140)。同様に、システムは、トレーニング用ユーザのユーザ・アイテムのインタラクションベクトルにユーザニューラルネットワークエンコーダを適用することにより、そのペアにおけるトレーニング用ユーザのユーザベクトル表現を計算する(ステップ140)。ユーザニューラルネットワークエンコーダの第1層における重み行列は、トレーニング用データセット内のアイテムベクトル表現から構成されているため、ユーザニューラルネットワークの第1層の出力は、トレーニング用ユーザがポジティブなインタラクション値を有するアイテムのアイテムベクトル表現の関数となる。一実施形態において、ユーザニューラルネットワークエンコーダの第1層の出力を計算することは、ユーザがポジティブなインタラクション値を有するアイテムのアイテムベクトル表現に統合関数(fusion function)を適用することを含む。この統合関数は、複数の入力アイテムベクトル表現に基づいて単一のベクトルを生成する。統合関数により得られたこの単一のベクトルが、ユーザニューラルネットワークエンコーダの第1層の出力である。一例として、統合関数は、アイテムベクトル表現を平均する平均関数とすることができる。さらに、セクション2.7でより詳細に説明するように、統合関数は、上記アイテムベクトル表現と、インタラクション値が予測されているアイテムのアイテムベクトル表現との類似度に基づいて、上記アイテムベクトル表現の加重平均を計算する加重平均関数とすることができる。
システムは、トレーニング用データセット内のユーザとアイテムのペアの予測インタラクション値と実際のインタラクション値との間の損失を計算する(ステップ170)。システムは、損失が最小となるように、ユーザニューラルネットワークエンコーダ及びアイテムニューラルネットワークエンコーダのトレーニング可能なパラメータを調整する(ステップ180)。1つの実施形態において、ユーザニューラルネットワークエンコーダ及びアイテムニューラルネットワークエンコーダのそれぞれは、複数の層を有し、各層には重み行列が関連付けられている。これらの重み行列は、ユーザニューラルネットワークエンコーダの第1層における重み行列を除いて、調整可能なパラメータである。第1層の重み行列は固定され、トレーニング用データセット内のアイテム表現がその後の反復において変化したことに応じてのみ変化する。システムは、複数の反復にわたってステップ120~180を繰り返す。
zj uは、第j番目のユーザ表現を示し、
zk iは、第k番目のアイテム表現を示し、
Rjkは、ユーザとアイテムの実際のインタラクション値を示し、
guは、ユーザニューラルネットワークエンコーダであり、
giは、アイテムニューラルネットワークエンコーダであり、
σは、活性化関数であり、
Xは、トレーニング用データセット内の全てのアイテムについてのs次元のサイド情報行列(sは正の整数)であり、
Xkは、第k番目のアイテムのサイド情報であり、
WL uは、ユーザニューラルネットワークエンコーダの第L層(Lは正の整数)の重み行列である。
一実施形態において、ユーザニューラルネットワークエンコーダ及びアイテムニューラルネットワークエンコーダは、ミニバッチ勾配降下法を用いてトレーニングされる。この実施形態において、トレーニング用データセットは複数のミニバッチに分割される。各ミニバッチについて、ユーザニューラルネットワークエンコーダの第1層における重み行列は、当該ミニバッチのユーザがインタラクトしたことのあるトレーニング用データセット全体におけるアイテムに基づいて設定される。各ミニバッチについて図1のステップ140及び150が実行される。
前述のとおり、ユーザニューラルネットワークエンコーダの第1層の出力は、ユーザがポジティブなインタラクション値を有するアイテムの表現の関数である。ユーザがポジティブなインタラクションを有するアイテムのセットを、本明細書では、ユーザの「近傍アイテムセット(neighbor set of items)」又は「近傍セット(neighbor set)」と呼ぶ。或る実施形態において、ユーザの近傍アイテムセットのそれぞれの表現は、ユーザニューラルネットワークエンコーダの第1層の出力を算出する際に均等に加重される。他の実施形態では、ユーザj及びアイテムkのインタラクションスコアを算出する際に、第1層の出力は、ユーザjの近傍セットの表現の加重和であり、重みは、ユーザjの近傍セット内のそれぞれとアイテムkとの類似度に基づいて計算される。そのような実施形態において、目的関数を以下のように表すことができる。
関連出願のセクションにおいて引用したことにより本明細書の一部をなすものとなっている上記仮出願は、共有ニューラルアイテム表現を使用する(及び本明細書に説明の方法に従ってトレーニングされた)レコメンダシステムと、共有ニューラルアイテム表現を使用しないレコメンダシステムとの性能を比較した実験の結果を記載している。本明細書に説明されるような共有ニューラルアイテム表現を使用するレコメンダシステムは、コールドスタート推薦に関してより少ない反復数でより良好な再現率を達成している。非共有モデルのトレーニング時に学習しなければならないパラメータの数は、ユーザ及びアイテムの数とともにほぼ線形で増加する。これとは対照的に、本明細書に説明されるモデルにおいて、アイテム表現は、ユーザニューラルネットワークエンコーダにて重みとして共有及び使用されるため、トレーニング時に学習する必要のあるパラメータの数は大幅に少なくなる。これにより、共有モデルは、より大きなデータセットに対してより高速な最適化及びより良好な一般化を有することが可能になる。
予測フェーズでは、トレーニングされたモデルを使用して、ターゲティング広告用のコールドスタートアイテムを有するショップにユーザを推薦することもできるし、電子商取引プラットフォームにてコールドスタートアイテムをユーザに推薦することもできる。これらのいずれを行うにも、システムは、電子商取引プラットフォームのユーザとコールドスタートアイテムとのインタラクション値を予測する必要がある。
図4に、一実施形態によるユーザニューラルネットワークエンコーダのアーキテクチャを示す。ユーザニューラルネットワークエンコーダは、L個の層(410、420、...、430)を有する。ここで、Lは1よりも大きい整数である。各層は、重み行列及び非線形活性化関数を有する。第2層から第L層における重み行列は、調整可能なパラメータである。第1層における重み行列は、アイテムニューラルネットワークエンコーダによって生成されたアイテム表現を使用して設定される。
図5に、レコメンダシステムのシステムアーキテクチャの一例を示す。前述のとおり、レコメンダシステムは、ユーザとアイテムのペアのユーザ・アイテム・インタラクションを予測する予測モデル550を有する。このモデルへの入力は、サイドアイテムデータ520及びユーザインタラクションベクトル510である。モデルの予測は、ユーザ・アイテム・インタラクション・スコア560(例えば、ユーザ表現とアイテム表現との間の類似度スコア)の形態で出力される。モデルは、アイテムニューラルネットワークエンコーダ530及びユーザニューラルネットワークエンコーダ540を有する。或る実施形態において、ユーザニューラルネットワークエンコーダ及びアイテムニューラルネットワークエンコーダは、多層パーセプトロンである。モデルは、ユーザ表現及びアイテム表現のドット積を計算するドット積モジュール555をも有する。
図1~図5に関して説明した方法は、ソフトウェアにより具現化され、ソフトウェアを実行する(1つ以上の計算デバイスを備えた)コンピュータシステムによって実行される。当業者であれば、コンピュータシステムが、ソフトウェア命令を記憶する1つ以上の物理メモリユニット、ディスク、又は他の物理的なコンピュータ可読記憶媒体と、これらのソフトウェア命令を実行する1つ以上のプロセッサとを有することを理解しているであろう。当業者であれば、コンピュータシステムはスタンドアローンコンピュータとすることもできるし、クライアントサーバアーキテクチャ等において協働するコンピュータのネットワークとすることもできることを理解しているであろう。
Claims (20)
- コンピュータシステムによって実行され、ユーザとアイテムについてのインタラクション値を予測する方法であって、
トレーニングフェーズに関して、
(a)トレーニング用のユーザ及びアイテムのトレーニング用データセットを取得するステップであって、前記トレーニング用データセットは、前記データセット内の各アイテムのアイテムデータと、各トレーニング用ユーザのユーザインタラクションベクトルとを含み、前記ユーザインタラクションベクトルは、前記トレーニング用データセット内のユーザとアイテムの各ペアのインタラクション値を有するインタラクション行列から得られる、ステップと、
(b)アイテムニューラルネットワークエンコーダを用いて、少なくとも1人のトレーニング用ユーザがポジティブなインタラクション値を有する前記トレーニング用データセット内の各アイテムのアイテムベクトル表現を計算するステップと、
(c)前記アイテムベクトル表現を用いて、ユーザニューラルネットワークエンコーダの第1層における重み行列を設定するステップと、
(d)前記トレーニング用データセット内のユーザとアイテムの各ペアにつき、
前記トレーニング用ユーザのユーザインタラクションベクトルに前記ユーザニューラルネットワークエンコーダを適用することによりユーザベクトル表現を計算し、ここで、前記トレーニング用ユーザのユーザベクトル表現の計算において、ユーザニューラルネットワークエンコーダの第1層の出力は、前記トレーニング用ユーザがポジティブなインタラクション値を有するアイテムのアイテムベクトル表現の関数であり、
前記ペアにおける前記アイテムのアイテムデータに前記アイテムニューラルネットワークエンコーダを適用することにより、アイテムベクトル表現を計算し、
前記ペアについて生成された前記ユーザベクトル表現及び前記アイテムベクトル表現に基づいて、前記ユーザとアイテムのペアについての予測インタラクション値を計算するステップと、
(e)前記トレーニング用セット内の前記ユーザとアイテムのペアについての予測インタラクション値と実際のインタラクション値との間の損失を算出するステップと、
(f)前記アイテムニューラルネットワークエンコーダ及び前記ユーザニューラルネットワークエンコーダのトレーニング可能なパラメータを、前記損失が最小となるように調整するステップと、
(g)複数回の反復にわたりステップ(b)~(f)を繰り返すステップと
を行い、
予測フェーズに関して、
(h)複数のアイテムのアイテムベクトル表現を計算するステップであって、前記アイテムベクトル表現は、前記アイテムのアイテムデータに前記アイテムニューラルネットワークエンコーダを適用することにより生成される、ステップと、
(i)前記アイテムベクトル表現を用いて、前記ユーザニューラルネットワークエンコーダの第1層における前記重み行列を設定するステップと、
(j)テストユーザについて、
前記テストユーザのユーザインタラクションベクトルを取得し、
前記テストユーザとの既知のインタラクション値が存在しないアイテムkのアイテムデータを取得し、
前記ユーザインタラクションベクトルに前記ユーザニューラルネットワークエンコーダを適用することにより、前記テストユーザのユーザベクトル表現を計算し、ここで、前記ユーザニューラルネットワークエンコーダの第1層の出力は、前記テストユーザがポジティブなインタラクション値を有するアイテムのアイテムベクトル表現の関数であり、
アイテムkのアイテムデータに前記アイテムニューラルネットワークエンコーダを適用することにより、アイテムkのアイテムベクトル表現を計算し、
前記テストユーザ及び前記アイテムについて計算された前記ユーザベクトル表現及び前記アイテムベクトル表現に基づいて、前記テストユーザとアイテムkについての予測インタラクション値を計算するステップと
を行う、
方法。 - 前記テストユーザについての既知のインタラクション値が存在しない複数のアイテムに関してステップ(j)を繰り返すステップと、
前記テストユーザ及び前記複数のアイテムについて計算された前記予測インタラクション値に基づいて、1つ以上のアイテムを前記テストユーザに推薦するステップと
を更に含む請求項1に記載の方法。 - 複数のテストユーザについてステップ(j)を繰り返すステップと、
テストユーザ及びアイテムkについての前記予測インタラクション値に基づいて、前記複数のテストユーザのうちの1人以上にアイテムkを推薦するステップと
を更に含む請求項1に記載の方法。 - 前記ユーザニューラルネットワークエンコーダにおける第1層の出力の計算は、
前記ユーザがポジティブなインタラクション値を有する複数のアイテムのアイテムベクトル表現に統合関数を適用して、複数の前記アイテムベクトル表現を単一のベクトルへとマッピングするステップと、
前記単一のベクトルを、前記ユーザニューラルネットワークエンコーダにおける第1層の出力として用いるステップと
を含む、請求項1に記載の方法。 - 前記統合関数が、複数の前記アイテムベクトル表現を平均する平均関数である、請求項4に記載の方法。
- 前記統合関数が、複数の前記アイテムベクトル表現の加重平均を、複数の前記アイテムベクトル表現と、インタラクション値が予測されているアイテムのアイテムベクトル表現との類似度に基づいて計算する加重平均関数である、請求項4に記載の方法。
- 前記ユーザニューラルネットワークエンコーダが複数の層を有し、
各層は重み行列と関連付けられ、
前記トレーニング可能なパラメータは、前記第1層の重み行列以外の重み行列を含み、
前記第1層の重み行列は、固定され、ステップ(b)における前記アイテム表現が後続の反復にて変化したことに応じてのみ変化する、
請求項1に記載の方法。 - 前記トレーニング用データセットは複数のミニバッチに分割され、
前記ユーザニューラルネットワークエンコーダ及び前記アイテムニューラルネットワークエンコーダは、ミニバッチ勾配降下法を用いてトレーニングされ、
各ミニバッチにつき、前記ユーザニューラルネットワークエンコーダの第1層における重み行列は、前記ミニバッチのユーザがインタラクトしたことのあるトレーニング用データセット全体におけるアイテムに基づいて設定され、
ステップ(d)~(g)は、各ミニバッチについて実行される、
請求項1に記載の方法。 - ステップ(h)における前記複数のアイテムは、電子商取引プラットフォームにて販売されるアイテムである、請求項1に記載の方法。
- アイテムkがコールドスタートアイテムである、請求項1に記載の方法。
- ユーザとアイテムのペアについての前記予測インタラクション値は、前記ペアについてのユーザベクトル表現とアイテムベクトル表現とのドット積に基づいたものである、請求項1に記載の方法。
- コンピュータプログラムを有する非一時的なコンピュータ可読媒体であって、
前記コンピュータプログラムは、コンピュータシステムによって実行されると、前記コンピュータシステムが、ユーザとアイテムのインタラクション値を予測できるよう機械学習モデルをトレーニングする方法を実行できるようにするものであり、
前記方法は、
(a)トレーニング用のユーザ及びアイテムのトレーニング用データセットを取得するステップであって、前記トレーニング用データセットは、前記データセット内の各アイテムのアイテムデータと、各トレーニング用ユーザのユーザインタラクションベクトルとを含み、前記ユーザインタラクションベクトルは、前記トレーニング用データセット内のユーザとアイテムの各ペアのインタラクション値を有するインタラクション行列から得られる、ステップと、
(b)アイテムニューラルネットワークエンコーダを用いて、少なくとも1人のトレーニング用ユーザがポジティブなインタラクション値を有する前記トレーニング用データセット内の各アイテムのアイテムベクトル表現を計算するステップと、
(c)前記アイテムベクトル表現を用いて、ユーザニューラルネットワークエンコーダの第1層における重み行列を設定するステップと、
(d)前記トレーニング用データセット内のユーザとアイテムの各ペアにつき、
前記トレーニング用ユーザのユーザインタラクションベクトルに前記ユーザニューラルネットワークエンコーダを適用することによりユーザベクトル表現を計算し、ここで、前記トレーニング用ユーザのユーザベクトル表現の計算において、ユーザニューラルネットワークエンコーダの第1層の出力は、前記トレーニング用ユーザがポジティブなインタラクション値を有するアイテムのアイテムベクトル表現の関数であり、
前記ペアにおける前記アイテムのアイテムデータに前記アイテムニューラルネットワークエンコーダを適用することにより、アイテムベクトル表現を計算し、
前記ペアについて生成された前記ユーザベクトル表現及び前記アイテムベクトル表現に基づいて、前記ユーザとアイテムのペアについての予測インタラクション値を計算するステップと、
(e)前記トレーニング用セット内の前記ユーザとアイテムのペアについての予測インタラクション値と実際のインタラクション値との間の損失を算出するステップと、
(f)前記アイテムニューラルネットワークエンコーダ及び前記ユーザニューラルネットワークエンコーダのトレーニング可能なパラメータを、前記損失が最小となるように調整するステップと、
(g)複数回の反復にわたりステップ(b)~(f)を繰り返すステップと
を含む、非一時的なコンピュータ可読媒体。 - 前記ユーザニューラルネットワークエンコーダにおける第1層の出力の計算は、
前記ユーザがポジティブなインタラクション値を有する複数のアイテムのアイテムベクトル表現に統合関数を適用して、複数の前記アイテムベクトル表現を単一のベクトルへとマッピングするステップと、
前記単一のベクトルを、前記ユーザニューラルネットワークエンコーダにおける第1層の出力として用いるステップと
を含む、請求項12に記載の非一時的なコンピュータ可読媒体。 - 前記統合関数が、複数の前記アイテムベクトル表現を平均する平均関数である、請求項13に記載の非一時的なコンピュータ可読媒体。
- 前記統合関数が、複数の前記アイテムベクトル表現の加重平均を、複数の前記アイテムベクトル表現と、インタラクション値が予測されているアイテムのアイテムベクトル表現との類似度に基づいて計算する加重平均関数である、請求項13に記載の非一時的なコンピュータ可読媒体。
- コンピュータプログラムを有する非一時的なコンピュータ可読媒体であって、
前記コンピュータプログラムは、コンピュータシステムによって実行されると、前記コンピュータシステムが、ユーザとアイテムのインタラクション値を予測する方法を実行できるようにするものであり、
前記方法は、
(a)複数のアイテムのアイテムベクトル表現を計算するステップであって、前記アイテムベクトル表現は、前記アイテムのアイテムデータにアイテムニューラルネットワークエンコーダを適用することにより生成される、ステップと、
(b)前記アイテムベクトル表現を用いて、ユーザニューラルネットワークエンコーダの第1層における重み行列を設定するステップと、
(c)テストユーザについて、
前記テストユーザのユーザインタラクションベクトルを取得し、
前記テストユーザとの既知のインタラクション値が存在しないアイテムkのアイテムデータを取得し、
前記ユーザインタラクションベクトルに前記ユーザニューラルネットワークエンコーダを適用することにより、前記テストユーザのユーザベクトル表現を計算し、ここで、前記ユーザニューラルネットワークエンコーダの第1層の出力は、前記テストユーザがポジティブなインタラクション値を有するアイテムのアイテムベクトル表現の関数であり、
アイテムkのアイテムデータに前記アイテムニューラルネットワークエンコーダを適用することにより、アイテムkのアイテムベクトル表現を計算し、
前記テストユーザ及び前記アイテムについて計算された前記ユーザベクトル表現及び前記アイテムベクトル表現に基づいて、前記テストユーザとアイテムkについての予測インタラクション値を計算するステップと
を含む、非一時的なコンピュータ可読媒体。 - 前記テストユーザについての既知のインタラクション値が存在しない複数のアイテムに関してステップ(c)を繰り返すステップと、
前記テストユーザ及び前記複数のアイテムについて計算された前記予測インタラクション値に基づいて、1つ以上のアイテムを前記テストユーザに推薦するステップと
を更に含む、請求項16に記載の非一時的なコンピュータ可読媒体。 - 複数のテストユーザについてステップ(c)を繰り返すステップと、
テストユーザ及びアイテムkについての前記予測インタラクション値に基づいて、前記複数のテストユーザのうちの1人以上にアイテムkを推薦するステップと
を更に含む、請求項16に記載の非一時的なコンピュータ可読媒体。 - 電子商取引プラットフォームにおけるユーザとアイテムのインタラクション値を予測するためのシステムであって、
一組の機械コードを用いてプログラミングされた命令を実行するプロセッサと、
前記プロセッサに接続された1つ以上のメモリユニットと、
前記システムの前記1つ以上のメモリユニットに記憶され、ユーザの入力及びアイテムの入力を受け付け、前記電子商取引プラットフォームにおけるユーザとアイテムとの予測ユーザインタラクション値を出力する機械学習モデルと
を備え、
前記モデルは、前記出力を生成するために前記機械コードで組まれた計算命令を含み、
前記モデルは或る方法によりトレーニングがなされ、
前記方法は、
(a)トレーニング用のユーザ及びアイテムのトレーニング用データセットを取得するステップであって、前記トレーニング用データセットは、前記データセット内の各アイテムのアイテムデータと、各トレーニング用ユーザのユーザインタラクションベクトルとを含み、前記ユーザインタラクションベクトルは、前記トレーニング用データセット内のユーザとアイテムの各ペアのインタラクション値を有するインタラクション行列から得られる、ステップと、
(b)アイテムニューラルネットワークエンコーダを用いて、少なくとも1人のトレーニング用ユーザがポジティブなインタラクション値を有する前記トレーニング用データセット内の各アイテムのアイテムベクトル表現を計算するステップと、
(c)前記アイテムベクトル表現を用いて、ユーザニューラルネットワークエンコーダの第1層における重み行列を設定するステップと、
(d)前記トレーニング用データセット内のユーザとアイテムの各ペアにつき、
前記トレーニング用ユーザのユーザインタラクションベクトルに前記ユーザニューラルネットワークエンコーダを適用することによりユーザベクトル表現を計算し、ここで、前記トレーニング用ユーザのユーザベクトル表現の計算において、ユーザニューラルネットワークエンコーダの第1層の出力は、前記トレーニング用ユーザがポジティブなインタラクション値を有するアイテムのアイテムベクトル表現の関数であり、
前記ペアにおける前記アイテムのアイテムデータに前記アイテムニューラルネットワークエンコーダを適用することにより、アイテムベクトル表現を計算し、
前記ペアについて生成された前記ユーザベクトル表現及び前記アイテムベクトル表現に基づいて、前記ユーザとアイテムのペアについての予測インタラクション値を計算するステップと、
(e)前記トレーニング用セット内の前記ユーザとアイテムのペアについての予測インタラクション値と実際のインタラクション値との間の損失を算出するステップと、
(f)前記アイテムニューラルネットワークエンコーダ及び前記ユーザニューラルネットワークエンコーダのトレーニング可能なパラメータを、前記損失が最小となるように調整するステップと、
(g)複数回の反復にわたりステップ(b)~(f)を繰り返すステップと
を含む、
システム。 - 前記ユーザニューラルネットワークエンコーダにおける第1層の出力の計算は、
前記ユーザがポジティブなインタラクション値を有する複数のアイテムのアイテムベクトル表現に統合関数を適用して、複数の前記アイテムベクトル表現を単一のベクトルへとマッピングするステップと、
前記単一のベクトルを、前記ユーザニューラルネットワークエンコーダにおける第1層の出力として用いるステップと
を含む、請求項19に記載のシステム。
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163230676P | 2021-08-06 | 2021-08-06 | |
US63/230,676 | 2021-08-06 | ||
US202163234651P | 2021-08-18 | 2021-08-18 | |
US63/234,651 | 2021-08-18 | ||
US17/556,954 US20230055699A1 (en) | 2021-08-06 | 2021-12-20 | Recommender system and method using shared neural item representations for cold-start recommendations |
US17/556,954 | 2021-12-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023024950A true JP2023024950A (ja) | 2023-02-21 |
JP7460703B2 JP7460703B2 (ja) | 2024-04-02 |
Family
ID=82786898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022124085A Active JP7460703B2 (ja) | 2021-08-06 | 2022-08-03 | 共有されたニューラルアイテム表現をコールドスタート推薦に用いる改良型のレコメンダシステム及び方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230055699A1 (ja) |
EP (1) | EP4131122A1 (ja) |
JP (1) | JP7460703B2 (ja) |
TW (1) | TW202314558A (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230036394A1 (en) * | 2021-07-14 | 2023-02-02 | Rakuten Group, Inc. | Reducing sample selection bias in a machine learning-based recommender system |
CN116166890B (zh) * | 2023-04-25 | 2023-07-18 | 中国科学技术大学 | 基于浅层自动编码器模型的推荐方法、系统、设备及介质 |
CN116645174B (zh) * | 2023-07-27 | 2023-10-17 | 山东省人工智能研究院 | 基于解耦多行为表征学习的个性化推荐方法 |
CN117422526B (zh) * | 2023-11-15 | 2024-07-26 | 哈尔滨工业大学 | 一种基于提示的用户跨域冷启动方法 |
CN118313446B (zh) * | 2024-06-07 | 2024-08-27 | 安徽大学 | 面向冷启动场景的因果元学习多视角图学习方法及设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110288436A (zh) * | 2019-06-19 | 2019-09-27 | 桂林电子科技大学 | 一种基于游客偏好建模的个性化景点推荐方法 |
CN111815410A (zh) * | 2020-07-07 | 2020-10-23 | 中国人民解放军军事科学院国防科技创新研究院 | 基于选择性邻域信息的商品推荐方法 |
JP2021099791A (ja) * | 2019-11-20 | 2021-07-01 | 楽天グループ株式会社 | 直接型ニューラルネットワーク構造を用いてアイテムを推奨するシステム、方法、及びコンピュータプログラム |
-
2021
- 2021-12-20 US US17/556,954 patent/US20230055699A1/en active Pending
-
2022
- 2022-08-02 EP EP22188265.7A patent/EP4131122A1/en active Pending
- 2022-08-03 JP JP2022124085A patent/JP7460703B2/ja active Active
- 2022-08-05 TW TW111129533A patent/TW202314558A/zh unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110288436A (zh) * | 2019-06-19 | 2019-09-27 | 桂林电子科技大学 | 一种基于游客偏好建模的个性化景点推荐方法 |
JP2021099791A (ja) * | 2019-11-20 | 2021-07-01 | 楽天グループ株式会社 | 直接型ニューラルネットワーク構造を用いてアイテムを推奨するシステム、方法、及びコンピュータプログラム |
CN111815410A (zh) * | 2020-07-07 | 2020-10-23 | 中国人民解放军军事科学院国防科技创新研究院 | 基于选择性邻域信息的商品推荐方法 |
Also Published As
Publication number | Publication date |
---|---|
US20230055699A1 (en) | 2023-02-23 |
EP4131122A1 (en) | 2023-02-08 |
TW202314558A (zh) | 2023-04-01 |
JP7460703B2 (ja) | 2024-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7460703B2 (ja) | 共有されたニューラルアイテム表現をコールドスタート推薦に用いる改良型のレコメンダシステム及び方法 | |
US11551280B2 (en) | Method, manufacture, and system for recommending items to users | |
US20200334495A1 (en) | Systems and Methods for Determining Graph Similarity | |
JP7271630B2 (ja) | 機械学習に基づくレコメンダシステムにおける入力及びパラメータの同時学習 | |
CN110889747B (zh) | 商品推荐方法、装置、系统、计算机设备及存储介质 | |
US20200410365A1 (en) | Unsupervised neural network training using learned optimizers | |
EP3474274A1 (en) | Speech recognition method and apparatus | |
US11348572B2 (en) | Speech recognition method and apparatus | |
WO2022166125A1 (en) | Recommendation system with adaptive weighted baysian personalized ranking loss | |
JP7441270B2 (ja) | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 | |
EP4120144A1 (en) | Reducing sample selection bias in a machine learning-based recommender system | |
CN114240555A (zh) | 训练点击率预测模型和预测点击率的方法和装置 | |
CN116484092A (zh) | 基于用户长短期偏好的分层注意力网络序列推荐方法 | |
CN118246939A (zh) | 一种基于注意力机制的DeepFM模型浏览数据处理的方法及系统 | |
CN115049458A (zh) | 基于用户人群建模的商品推送方法及装置、介质、设备 | |
JP7573072B2 (ja) | ヒンジペアワイズ距離損失及び直交表現を有する1クラス推薦システム | |
JP7431890B2 (ja) | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 | |
JP7429260B2 (ja) | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 | |
JP2020030702A (ja) | 学習装置、学習方法及び学習プログラム | |
US20240062071A1 (en) | Systems and methods for sequential recommendation with cascade-guided adversarial training | |
CN116383485A (zh) | 一种信息推荐方法及装置、存储介质 | |
CN114491291A (zh) | 用户偏好预测方法、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240321 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7460703 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |