JP7423694B2 - 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 - Google Patents

機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 Download PDF

Info

Publication number
JP7423694B2
JP7423694B2 JP2022096134A JP2022096134A JP7423694B2 JP 7423694 B2 JP7423694 B2 JP 7423694B2 JP 2022096134 A JP2022096134 A JP 2022096134A JP 2022096134 A JP2022096134 A JP 2022096134A JP 7423694 B2 JP7423694 B2 JP 7423694B2
Authority
JP
Japan
Prior art keywords
user
shop
item
machine learning
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022096134A
Other languages
English (en)
Other versions
JP2023017700A (ja
Inventor
ヤン シー
ヨンジョー チュン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Group Inc filed Critical Rakuten Group Inc
Publication of JP2023017700A publication Critical patent/JP2023017700A/ja
Application granted granted Critical
Publication of JP7423694B2 publication Critical patent/JP7423694B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0255Targeted advertisements based on user history

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • General Physics & Mathematics (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本開示は、一般に、機械学習ベースの推薦システムに関し、より具体的には、サンプル選択のバイアスが少なく、電子商取引プラットフォーム上の小型ショップに対してより良いパフォーマンスを発揮する改良型推薦システムに関する。
推薦システムは、ターゲット広告のために、アイテム(item)を購入する可能性が最も高いユーザを特定するために使用される場合がある。また、ユーザにアイテムを推薦するために使用されることもある。過去数十年の電子商取引の爆発的な成長により、消費者が処理できる以上の商品提供が行われており、推薦システムはこの過負荷の問題を克服するために不可欠なものとなってきている。推薦システムの目的は、既知のユーザからのフィードバックを受け、アイテムに対する未知のユーザのフィードバックを予測することである。これは、商品の広告をターゲットとする際、又は、ユーザに推薦アイテムのリストを提供する際に役立つ。フィードバックは、しばしば相互作用と呼ばれ、暗示的なもの(例えば、購入した/購入しそう)、または明示的なもの(例えば、1-5の間の評価)があり得る。
多くの推薦システムは、機械学習モデルを用いて予測を行う。例えば、ニューラル協調フィルタリング(NCF)システムは、ユーザデータとアイテムデータに、ニューラルネットワークエンコーダを適用して、ユーザデータとアイテムデータの表現を生成し、ユーザ表現とアイテム表現を使用してアイテムに対するユーザの評価を予測する。
電子商取引のプラットフォームの予測に使用される機械学習モデルは、通常、電子商取引プラットフォームにおけるユーザ-アイテム相互作用に基づいて訓練される。プラットフォーム上で販売量の多いショップの訓練データは、小型ショップの訓練データよりも圧倒的に多く存在する。その結果、これらのモデルは、小型ショップよりも大型ショップの予測を行うのに適している。これは、サンプル選択バイアスとして知られている。実際、小型ショップの新アイテムに関し、このモデルのパフォーマンスは低いことがある。したがって、電子商取引プラットフォームにおいて、小型ショップと大型ショップの双方に対して良好な予測性能を持つ推薦システムの需要がある。
本開示は、大型ショップに対する精度を維持しつつ、電子商取引プラットフォーム上の小型ショップに対する推薦を改善することに関する。この改善は、メタ学習プロセスを用いてサンプル選択バイアスを低減するために、機械学習推薦モデルを再訓練することによって達成される。再訓練処理は、電子商取引プラットフォーム上のショップのサンプルサブセットを特定し、次に、機械学習推薦モデルを使用して、サンプルバッチ内の各ショップについて、ショップ固有ユーザ-アイテム相互作用の予測を行うことを含む。各ショップのショップ固有の予測は、ショップのユーザ-アイテム相互作用データを含むショップ固有訓練データセットに、モデルを適用することによって得られる。ショップ固有損失は、ショップ固有訓練データセットに対するモデルの予測したユーザ-アイテム相互作用と、ショップ固有訓練データセットにおける実際のユーザ-アイテム相互作用とに基づいて、各ショップについて算出される。グローバル損失は、各ショップ固有損失に基づいて算出され、基準モデルは、グローバル損失を最小化するように更新される。サンプルサブセットには、小型カテゴリに属するショップと大型カテゴリに属するショップの双方が含まれる。
より具体的には、一実施形態では、再訓練処理は、以下のステップからなる。
(a)前記電子商取引プラットフォーム上のショップのサンプルバッチを特定し、
(b)各ショップのショップ固有訓練データセットを取得し、各前記ショップ固有訓練データセットは、前記ショップ内のアイテムに関するアイテムデータと前記ショップ内のアイテムに関するユーザ-アイテム相互作用データを含むユーザデータを有し、
(c)前記サンプルバッチの各ショップについて、
前記ショップ固有訓練データセット内のユーザデータとアイテムデータに前記機械学習モデルを適用し、前記ショップの予測されたユーザ-アイテム相互作用を取得し、
前記ショップ固有訓練データセット内の、前記予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間のショップ固有損失を算出し、
(d)前記ショップ固有損失に基づいて、グローバル損失を算出し、
(e)前記グローバル損失を低減するため前記機械学習モデルのグローバルパラメータ調整を算出し、
(f)前記グローバルパラメータ調整を用いて前記機械学習モデルのパラメータを調整することにより、更新されたモデルを生成し、
(g)前の繰り返しの前記更新されたモデルが、次の繰り返しの前記機械学習モデルとなるように、ステップ(c)-(f)を複数回繰り返す。
一実施形態に係る推薦モデルの訓練段階の概要を説明するフローチャートである。 一実施形態による推薦モデルの再訓練方法を示すフローチャートである。 (a)(b)は、予測段階を説明するフローチャートである。 (a)(b)は、推薦システムの機械学習モデルのアーキテクチャの一例を示すブロック図である。 推薦システムのアーキテクチャの一例を示すブロック図である。
本開示は、販売量の異なるショップを含む電子商取引プラットフォーム上において、ユーザ-アイテム相互作用を予測する機械学習ベースの推薦システム及び方法に関するものである。具体的には、本開示は、大型ショップに対する予測精度を維持しつつ、小型ショップに対するより良い予測を有する改良された推薦システムに関する。この改良は、メタ学習プロセスを用いてサンプル選択バイアスを低減するように推薦システムを再訓練することによって達成される。本明細書に開示される方法は、コンピュータシステム(「システム」)によって実行される。
適用できる電子商取引プラットフォームにおける、閾値に関連する一定期間の販売数に基づいて、小型/大型ショップを定義する。具体的には、本明細書では、「小型ショップ(small shop)」「より小型ショップ(small shop)」という用語は、売上高がある閾値以下のショップを指す。逆に、「大型ショップ(large shop)」、「より大型ショップ(larger shop)」、「最大型ショップ(largest shop)」という用語は、ある閾値以上の売上高を有するショップを意味する。本発明は、特定の閾値または閾値の範囲に依存または限定されるものではない。小型ショップおよび大型ショップを定義する閾値は、問題となる特定の電子商取引プラットフォームに依拠してもよいし、電子商取引プラットフォームごとに異なってもよい。しかしながら、例として、閾値は、過去12ヶ月などの期間中の電子商取引プラットフォーム上の全ショップのショップ販売量の中央値であってもよい。
以下、推薦システムの訓練段階と予測段階の双方を説明する。
(1.訓練段階)
図1は、訓練段階の概要を示す図である。システムは、電子商取引のプラットフォームにおけるユーザ-アイテム相互作用を予測するため、以前に訓練された機械学習モデルを取得する(ステップ110)。このモデルは、本明細書において基準モデルと呼ばれる。一実施形態では、基準モデルは、電子商取引プラットフォーム上のユーザ-アイテム相互作用を含む、アイテムデータとユーザデータを用いて訓練される。基準モデルは、多数の既知の訓練方法のうちの1つを使用して訓練されてもよく、本明細書で開示される再訓練方法は、基準モデルが最初に訓練される方法に依存しない。上述したように、小型ショップのアイテムよりも大型ショップからのアイテムの方がより多くの訓練データがある。したがって、基準モデルは、より大型ショップからのアイテムについてより良く、予測を行うことになる。これはサンプル選択バイアスと呼ばれる。
システムは、サンプル選択バイアスを低減するために、基準モデルを再訓練する(ステップ120)。モデルを再訓練することは、電子商取引プラットフォーム上のショップのサンプルバッチを特定することを含む(ステップ120a)。サンプルバッチは、プラットフォーム上のショップのサブセットであり、小型カテゴリのショップと大型カテゴリのショップとを含む。
システムは、サンプルバッチ内の各ショップについて、ショップ固有訓練データセットを取得する(ステップ120b)。各ショップ固有訓練データセットは、(1)ショップ内のアイテムに関するアイテムデータ、及び(2)訓練データセットのユーザと、ショップのアイテムとに関するユーザ-アイテム相互作用データを含むユーザデータを含む。ユーザ-アイテム相互作用データの例には、ユーザの評価又は購入履歴(すなわち、ユーザがアイテムを購入したか否か)が含まれる。
システムは、ショップのサンプルバッチとショップ固有データセットに関して、図2記載された再訓練方法を実行する(ステップ120c)。システムは、図2に記載された再訓練方法を、多く繰り返す(ステップ120d)。繰り返しは、固定された繰返し回数であってもよく、あるいは、システムは、収束が達成されるまで再訓練の方法を繰り返してもよい。
(1.1.再訓練の方法)
図2は、このモデルの再訓練の方法を示す。次のセクションで説明するように、この方法の第1の部分は、ショップ固有訓練データセットにこのモデルを適用し、ショップ固有損失を算出することから構成される。
(1.1.1.モデルのショップ固有損失の算出)
このセクションで説明する再訓練テップは、サンプルバッチ内の各ショップについて実行される。システムは、モデル(200)を、ショップ固有訓練データセット(210)中のユーザデータとアイテムデータに適用する。ショップ固有訓練データセットは、訓練データセットのユーザとショップにより販売されたアイテムに関して、ユーザ-アイテム相互作用データを含む。モデルは、ショップ固有訓練データセットにおけるユーザとアイテムのペアについて、ユーザ-アイテム相互作用の予測(220)を生成する。言い換えれば、モデルは、ショップのための予測を生成する。再訓練方法の最初の繰り返しの間、モデル200は、基準モデルである。それ以降の繰り返しでは、モデル200は、基準モデルの更新版である。
システムは、ショップ固有訓練データセットにおける、予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用とに基づいて、ショップのショップ固有損失(230)を算出する。一実施形態では、平均二乗誤差が損失関数として使用される。
サンプルバッチは、大型ショップと小型ショップの双方を含むので、システムは小型ショップと大型ショップの双方についてショップ固有損失を有する。後述するように、再訓練の方法の次の部分は、ショップ固有損失を使用してグローバルパラメータ調整を算出することである。
(1.1.2.ショップ固有損失を用いたグローバルパラメータ調整の算出)
システムは、全てのショップ固有損失に基づいて、グローバル損失(240)を算出する。一実施形態では、グローバル損失は、ショップ固有損失の平均として算出される。次に、システムは、グローバル損失を低減するために、モデルのグローバルパラメータ調整(250)を算出する。システムは、グローバルパラメータ調整を用いて、モデルのパラメータを調整することにより、更新されたモデルを生成する。一実施形態では、グローバルパラメータ調整は、勾配降下法を用いて算出され、グローバルパラメータ調整は、勾配ステップである。
グローバル損失は、ショップ固有損失の関数であるため、小型ショップの予測からの損失は、グローバルパラメータ調整に大きな影響を与え、訓練データセット内の全ショップの総合損失を直接算出し、最初にショップ固有損失を算出しない訓練法となる。これにより、再訓練されたモデルの小型ショップに対する予測能力が向上する。また、サンプルバッチには大型ショップも含まれているため、再訓練されたモデルは、大型ショップに対する予測精度を維持することができる。
システムは、前回の繰り返しで更新されたモデルが次の繰り返しのモデルとなる、再訓練方法を、多く繰り返す。
(1.1.3 再訓練処理の数式表現)
以下は、一実施形態による再訓練方法の数式である。
Figure 0007423694000001
上のアルゴリズムでは
θは、グローバル推薦モデルgのパラメータ。
θは、ショップ固有推薦モデルのパラメータ。
は、ショップpのサンプリングデータセット。
βは、学習率。
∇は、勾配ステップ。
Lは、損失関数
後述する図4(a)および図4(b)は、パラメータθを用いたモデルの例を示している。
一実施形態では、損失関数は次のように定義される。
Figure 0007423694000002
ここで、yは、実際の購入ラベル(購入しない場合は0、購入した場合は1)であり、
Figure 0007423694000003
は、予測されたラベルである。ここで、fu,fiは、それぞれユーザ特徴とアイテム特徴であり、一実施形態では、訓練可能なワンホット埋込みである。
(2.予測段階)
予測段階では、再訓練されたモデルは、ターゲット広告のためショップにユーザを推薦する、又は、電子商取引プラットフォーム上でユーザにアイテムを推薦するために使用することができる。
図3(a)は、予測段階において、ユーザをショップに推薦する方法を示す図である。システムは、再訓練されたモデルを用いて、相互作用値が知られていないテストユーザとアイテムのペアに関して、ユーザ-アイテム相互作用値の予測を得る(ステップ310)。システムは、電子商取引プラットフォーム上でショップが販売するアイテム及び複数のテストユーザのそれぞれに関する予測された相互作用値に基づいて、1人以上のテストユーザをショップに推薦する(ステップ320)。より小型ショップに関する再訓練されたモデルの性能が良いということは、コールドスタート広告の性能を含む、小型ショップのためのより良い広告性能を意味する。
図3(b)は、テストユーザに1つ以上のアイテムを推薦するための方法を示す図である。システムは、再訓練されたモデルを使用して、相互作用値が知られていないテストユーザとアイテムのペアに関して、ユーザ-アイテム相互作用値の予測を得る(ステップ330)。次に、システムは、テストユーザと電子商取引プラットフォーム上の複数のアイテムの各々に関する予測された相互作用値に基づいて、テストユーザに1つ以上のアイテムを推薦する(ステップ340)。
(3.モデルアーキテクチャの例)
図4(a)及び図4(b)は、機械学習推薦モデルのアーキテクチャの例を示す。図4(a)において、モデル400aは、連結モジュール420と、ニューラルネットワークエンコーダ430とを含む。連結モジュール420は、ユーザ入力とアイテム入力を受取り、それらを連結する。ニューラルネットワークエンコーダ430は、結合されたユーザデータとアイテムデータを入力として受取り、ユーザ-アイテム相互作用スコア(これはベクトルの形である)を出力する。ユーザ-アイテム相互作用スコアは、分類モジュール440によって使用され、ユーザ-アイテム相互作用を予測する。
図4(b)において、モデルは、ユーザニューラルネットワークエンコーダ460とアイテムニューラルネットワークエンコーダ465を含む。ユーザニューラルネットワークエンコーダ460は、入力されたユーザデータ445に適用され、ユーザベクトル表現を生成する。同様に、アイテムニューラルネットワークエンコーダ465は、入力されたアイテムデータ450に適用され、アイテムベクトル表現を得る。ドット積モジュール470は、ユーザとアイテムのベクトルのドット積を取り、ユーザ-アイテム相互作用スコアを生成する。これは、分類モジュール480によって使用され、ユーザ-アイテム相互作用を予測する。
一実施形態では、入力されたユーザデータは、ユーザ-アイテム相互作用データを含む。また、ユーザに関する「サイド情報」(例えば、ユーザの年齢、場所などのユーザ情報)を含んでもよい。一実施形態では、アイテムデータは、アイテムに関する情報であるアイテム「サイド情報」(例えば、商品カテゴリ及びサブカテゴリ)を含む。
一実施形態では、ユーザ及びアイテムニューラルネットワークエンコーダの各々は、複数の隠れ層を有する。各層は、重み行列と活性化関数とに関連付けられる。グローバルパラメータ調整を行うことは、ユーザおよびアイテムニューラルネットワークエンコーダ層における1つまたは複数の重み行列を調整することを含む。
(4.システムアーキテクチャの例)
図5は、推薦システムソフトウェアアーキテクチャの一例を示す図である。本明細書に開示されるシステム及び方法は、必ずしもこのアーキテクチャに限定されるものではない。システム500は、機械学習モデル530と、訓練モジュール550と、推薦モジュール540とを含む。機械学習モデル530は、入力されたユーザ及びアイテムデータ510、520に適用され、ユーザ-アイテム相互作用を予測する。機械学習モデル530は、本明細書に記載の訓練方法に従って、訓練モジュール550によって訓練される。推薦モジュール540は、予測されたユーザ-アイテム相互作用に基づいて、ユーザをショップに推薦するか、又はユーザにアイテムを推薦する。当業者は、推薦システムが、本明細書の開示に関連しない他のモジュールを有し得ることを理解するであろう。
(5.一般)
図1-5に関して説明した方法は、ソフトウェアで具現化され、ソフトウェアを実行するコンピュータシステム(1つまたは複数のコンピューティングデバイスからなる)によって実行される。当業者であれば、コンピュータシステムが、ソフトウェア命令を格納するための1つ以上の物理的なメモリユニット、ディスク、または他の物理的なコンピュータ可読記録媒体、ならびにソフトウェア命令を実行するための1つ以上のプロセッサを有することを理解するであろう。当業者であれば、コンピュータシステムは、スタンドアロンであっても、サーバとしてコンピュータネットワークに接続されていてもよいことも理解するであろう。
当業者には理解されるように、本発明は、その精神または本質的特徴から逸脱することなく、他の特定の形態で具現化することができる。従って、上記の開示は、請求された発明の範囲を例示するものであって、限定するものではないことを意図している。
本出願は、2021年7月14日に出願された米国仮出願第63/221,872号、タイトルは「Cold-Start Item Advertisement for Small Businesses」、及び2022年1月28日に出願された米国出願第17/588,099号、タイトルは「Reducing Sample Selection Bias in a Machine Learning-based Recommender System」、これらの利益を主張し、その内容は、参照により、本明細書に完全に開示されたように組み込まれる。

Claims (13)

  1. コンピュータシステムによって実行され、異なる販売量を有する異なるショップからの商品を含む電子商取引プラットフォーム上で、ユーザ-アイテム相互作用値を予測するための機械学習方法であって、
    訓練段階と予測段階を含み、
    前記訓練段階は、
    前もって訓練された機械学習モデルであって、前記異なる販売量を有する異なるショップを含む前記電子商取引プラットフォーム上のユーザデータとアイテムデータに基づいて、ユーザ-アイテム相互作用を予測する機械学習モデルを取得する取得ステップと、
    前記機械学習モデルを修正して、販売量の多いショップに有利なサンプル選択バイアスを低減させる修正ステップと、を備え、
    前記修正ステップは、
    (a)前記電子商取引プラットフォーム上のショップのサンプルバッチを特定し、
    (b)各ショップのショップ固有訓練データセットを取得し、各前記ショップ固有訓練データセットは、前記ショップ内のアイテムに関するアイテムデータと前記ショップ内のアイテムに関するユーザ-アイテム相互作用データを含むユーザデータを有し、
    (c)前記サンプルバッチの各ショップについて、
    前記ショップ固有訓練データセット内のユーザデータとアイテムデータに前記機械学習モデルを適用し、前記ショップの予測されたユーザ-アイテム相互作用を取得し、
    前記ショップ固有訓練データセット内の、前記予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間のショップ固有損失を算出し、
    (d)前記ショップ固有損失に基づいて、グローバル損失を算出し、
    (e)前記グローバル損失を低減するため前記機械学習モデルのグローバルパラメータ調整を算出し、
    (f)前記グローバルパラメータ調整を用いて前記機械学習モデルのパラメータを調整することにより、更新されたモデルを生成し、
    (g)前の繰り返しの前記更新されたモデルが、次の繰り返しの前記機械学習モデルとなるように、ステップ(c)-(f)を複数回繰り返し、
    前記予測段階は、
    前記更新されたモデルを使用して、相互作用値が知られていないユーザとアイテムのペアに関して、前記電子商取引プラットフォーム上でユーザ-アイテム相互作用値の予測を取得すること、
    を備える、機械学習方法。
  2. 前記グローバルパラメータ調整は、勾配降下法を用いて算出され、前記グローバルパラメータ調整は、勾配ステップである、
    ことを特徴とする請求項1に記載の機械学習方法。
  3. 前記電子商取引プラットフォーム上のショップにより販売されたアイテムと、複数のテストユーザのそれぞれについて、予測された相互作用値に基づいて、前記ショップに1人以上のテストユーザを推薦するステップを、さらに含む、
    請求項1に記載の機械学習方法。
  4. テストユーザと、前記電子商取引プラットフォーム上の複数のアイテムのそれぞれについて、予測された相互作用値に基づいて、前記テストユーザに1つ以上のアイテムを推奨するステップを、さらに含む、
    請求項1に記載の機械学習方法。
  5. コンピュータシステムにより実行され、異なる販売量を有する異なるショップからの商品を含む電子商取引プラットフォーム上で、ユーザ-アイテム相互作用値を予測するモデルを訓練する訓練方法であって、
    前もって訓練された機械学習モデルであって、前記異なる販売量を有する異なるショップを含む前記電子商取引プラットフォーム上のユーザデータとアイテムデータに基づいて、ユーザ-アイテム相互作用を予測する機械学習モデルを取得する取得ステップと、
    前記機械学習モデルを修正して、販売量の多いショップに有利なサンプル選択バイアスを低減させる修正ステップと、を備え、
    前記修正ステップは、
    (a)前記電子商取引プラットフォーム上のショップのサンプルバッチを特定し、
    (b)各ショップのショップ固有訓練データセットを取得し、各前記ショップ固有訓練データセットは、前記ショップ内のアイテムに関するアイテムデータと前記ショップ内のアイテムに関するユーザ-アイテム相互作用データを含むユーザデータを有し、
    (c)前記サンプルバッチの各ショップについて、
    前記ショップ固有訓練データセット内のユーザデータとアイテムデータに前記機械学習モデルを適用し、前記ショップの予測されたユーザ-アイテム相互作用を取得し、
    前記ショップ固有訓練データセット内の、前記予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間のショップ固有損失を算出し、
    (d)前記ショップ固有損失に基づいて、グローバル損失を算出し、
    (e)前記グローバル損失を低減するため前記機械学習モデルのグローバルパラメータ調整を算出し、
    (f)前記グローバルパラメータ調整を用いて前記機械学習モデルのパラメータを調整することにより、更新されたモデルを生成し、
    (g)前の繰り返しの前記更新されたモデルが、次の繰り返しの前記機械学習モデルとなるように、ステップ(c)-(f)を複数回繰り返す、
    訓練方法。
  6. 前記グローバルパラメータ調整は、勾配降下法を用いて算出され、前記グローバルパラメータ調整は、勾配ステップである、
    請求項5記載の訓練方法。
  7. 異なる販売量を有する異なるショップの商品を含む電子商取引プラットフォームにおいて、ユーザ-アイテム相互作用値を予測するための予測システムであって、
    機械コードのセットを使用してプログラムされた命令を実行するように構成されたプロセッサと、
    前記プロセッサに結合された1つ以上のメモリユニットと、
    当該システムの前記1つ以上のメモリユニットに格納され、ユーザ入力とアイテム入力を取得し、前記電子商取引プラットフォーム上のユーザとアイテムの予測されたユーザ-アイテム相互作用値に対応するユーザ相互作用スコアを出力する機械学習モデルであって、前記出力を生成するために前記機械コードに実装された算出命令を含む機械学習モデルと、を備え、
    前記機械学習モデルは、訓練段階と予測段階を含み、
    前記訓練段階は、
    (a)前記電子商取引プラットフォーム上のショップのサンプルバッチを特定し、
    (b)各ショップのショップ固有訓練データセットを取得し、各前記ショップ固有訓練データセットは、前記ショップ内のアイテムに関するアイテムデータと前記ショップ内のアイテムに関するユーザ-アイテム相互作用データを含むユーザデータを有し、
    (c)前記サンプルバッチの各ショップについて、
    前記ショップ固有訓練データセット内のユーザデータとアイテムデータに前記機械学習モデルを適用し、前記ショップの予測されたユーザ-アイテム相互作用を取得し、
    前記ショップ固有訓練データセット内の、前記予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間のショップ固有損失を算出し、
    (d)前記ショップ固有損失に基づいて、グローバル損失を算出し、
    (e)前記グローバル損失を低減するため前記機械学習モデルのグローバルパラメータ調整を算出し、
    (f)前記グローバルパラメータ調整を用いて前記機械学習モデルのパラメータを調整することにより、更新されたモデルを生成し、
    (g)前の繰り返しの前記更新されたモデルが、次の繰り返しの前記機械学習モデルとなるように、ステップ(c)-(f)を複数回繰り返し、
    前記予測段階は、
    前記更新されたモデルを使用して、相互作用値が知られていないユーザとアイテムのペアに関して、前記電子商取引プラットフォーム上でユーザ-アイテム相互作用値の予測を取得する、
    予測システム。
  8. 前記機械学習モデルは、
    前記ユーザ入力と前記アイテム入力を受け取り、前記ユーザ入力と前記アイテム入力を連結する連結モジュールと、
    連結された前記ユーザ入力と前記アイテム入力を受け取り、ユーザ-アイテム相互作用スコアを出力するニューラルネットワークエンコーダと、を含む、
    請求項7に記載の予測システム。
  9. 前記機械学習モデルは、
    前記アイテムデータを受け取り、アイテム特徴表現を出力するためのアイテムニューラルネットワークエンコーダと、
    前記ユーザデータを受け取り、ユーザ特徴表現を出力するユーザニューラルネットワークエンコーダと、を備え、
    ユーザ-アイテム相互作用スコアは、前記ユーザ特徴表現と前記アイテム特徴表現のドット積を取得することにより生成される、
    請求項7に記載の予測システム。
  10. 前記グローバルパラメータ調整は、勾配降下法を用いて算出され、前記グローバルパラメータ調整は、勾配ステップである、
    請求項7に記載の予測システム。
  11. ンピュータシステム、異なる販売量異なるショップからの商品を含む電子商取引プラットフォームにおいて、ユーザ-アイテム相互作用値を予測する方法を実行させるためのコンピュータプログラムを記録した非一時的コンピュータ可読媒体であって、該方法は、訓練段階と予測段階を備え、
    前記訓練段階は、
    前もって訓練された機械学習モデルであって、前記異なる販売量を有する異なるショップを含む前記電子商取引プラットフォーム上のユーザデータとアイテムデータに基づいて、ユーザ-アイテム相互作用を予測する機械学習モデルを取得する取得ステップと、
    前記機械学習モデルを修正して、販売量の多いショップに有利なサンプル選択バイアスを低減させる修正ステップと、を備え、
    前記修正ステップは、
    (a)前記電子商取引プラットフォーム上のショップのサンプルバッチを特定し、
    (b)各ショップのショップ固有訓練データセットを取得し、各前記ショップ固有訓練データセットは、前記ショップ内のアイテムに関するアイテムデータと前記ショップ内のアイテムに関するユーザ-アイテム相互作用データを含むユーザデータを有し、
    (c)前記サンプルバッチの各ショップについて、
    前記ショップ固有訓練データセット内のユーザデータとアイテムデータに前記機械学習モデルを適用し、前記ショップの予測されたユーザ-アイテム相互作用を取得し、
    前記ショップ固有訓練データセット内の、前記予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間のショップ固有損失を算出し、
    (d)前記ショップ固有損失に基づいて、グローバル損失を算出し、
    (e)前記グローバル損失を低減するため前記機械学習モデルのグローバルパラメータ調整を算出し、
    (f)前記グローバルパラメータ調整を用いて前記機械学習モデルのパラメータを調整することにより、更新されたモデルを生成し、
    (g)前の繰り返しの前記更新されたモデルが、次の繰り返しの前記機械学習モデルとなるように、ステップ(c)-(f)を複数回繰り返し、
    前記予測段階は、
    前記更新されたモデルを使用して、相互作用値が知られていないユーザとアイテムのペアに関して、前記電子商取引プラットフォーム上でユーザ-アイテム相互作用値の予測を取得すること、を備える、
    非一時的コンピュータ可読媒体。
  12. 前記電子商取引プラットフォーム上でショップにより販売されるアイテムと、複数のテストユーザのそれぞれについて、予測された相互作用値に基づいて、前記ショップに1人以上のテストユーザを推薦するステップを、さらに含む、
    請求項11に記載の非一時的コンピュータ可読媒体。
  13. ストユーザと、前記電子商取引プラットフォーム上の複数のアイテムのそれぞれについて、予測される相互作用値に基づいて、前記テストユーザに1つ以上のアイテムを推奨すること、をさらに含む、
    請求項11に記載の非一時的コンピュータ可読媒体。
JP2022096134A 2021-07-14 2022-06-14 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 Active JP7423694B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202163221872P 2021-07-14 2021-07-14
US63/221,872 2021-07-14
US17/588,099 2022-01-28
US17/588,099 US20230036964A1 (en) 2021-07-14 2022-01-28 Reducing sample selection bias in a machine learning-based recommender system

Publications (2)

Publication Number Publication Date
JP2023017700A JP2023017700A (ja) 2023-02-07
JP7423694B2 true JP7423694B2 (ja) 2024-01-29

Family

ID=81986225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022096134A Active JP7423694B2 (ja) 2021-07-14 2022-06-14 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体

Country Status (4)

Country Link
US (1) US20230036964A1 (ja)
EP (1) EP4120144A1 (ja)
JP (1) JP7423694B2 (ja)
TW (1) TW202324206A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116151892B (zh) * 2023-04-20 2023-08-29 中国科学技术大学 物品推荐方法、系统、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020109631A (ja) 2018-12-28 2020-07-16 パロ アルト リサーチ センター インコーポレイテッド 深層ニューラルネットワークのアンサンブルを使用した迅速なビデオクエリ
JP2020144849A (ja) 2019-03-04 2020-09-10 富士通株式会社 メタ学習ネットワークを訓練する装置及び方法
WO2020230324A1 (ja) 2019-05-16 2020-11-19 日本電信電話株式会社 学習装置、学習方法および学習プログラム
JP2021099791A (ja) 2019-11-20 2021-07-01 楽天グループ株式会社 直接型ニューラルネットワーク構造を用いてアイテムを推奨するシステム、方法、及びコンピュータプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10354184B1 (en) * 2014-06-24 2019-07-16 Amazon Technologies, Inc. Joint modeling of user behavior
US11816706B2 (en) * 2018-12-28 2023-11-14 Paypal, Inc. Intelligent interface displays based on past data correlations
US11080725B2 (en) * 2019-04-17 2021-08-03 Capital One Services, Llc Behavioral data analytics platform
US20210073612A1 (en) * 2019-09-10 2021-03-11 Nvidia Corporation Machine-learning-based architecture search method for a neural network
WO2021107948A1 (en) * 2019-11-27 2021-06-03 Google Llc Personalized data model utilizing closed data
US20220155940A1 (en) * 2020-11-17 2022-05-19 Amazon Technologies, Inc. Dynamic collection-based content presentation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020109631A (ja) 2018-12-28 2020-07-16 パロ アルト リサーチ センター インコーポレイテッド 深層ニューラルネットワークのアンサンブルを使用した迅速なビデオクエリ
JP2020144849A (ja) 2019-03-04 2020-09-10 富士通株式会社 メタ学習ネットワークを訓練する装置及び方法
WO2020230324A1 (ja) 2019-05-16 2020-11-19 日本電信電話株式会社 学習装置、学習方法および学習プログラム
JP2021099791A (ja) 2019-11-20 2021-07-01 楽天グループ株式会社 直接型ニューラルネットワーク構造を用いてアイテムを推奨するシステム、方法、及びコンピュータプログラム

Also Published As

Publication number Publication date
US20230036964A1 (en) 2023-02-02
TW202324206A (zh) 2023-06-16
EP4120144A1 (en) 2023-01-18
JP2023017700A (ja) 2023-02-07

Similar Documents

Publication Publication Date Title
CN111008858B (zh) 一种商品销量预测方法及系统
CN109102127B (zh) 商品推荐方法及装置
JP7460703B2 (ja) 共有されたニューラルアイテム表現をコールドスタート推薦に用いる改良型のレコメンダシステム及び方法
CN111460316B (zh) 一种面向知识系统的个性化推荐方法及计算机存储介质
CN110689110B (zh) 处理交互事件的方法及装置
CN110413878B (zh) 基于自适应弹性网络的用户-商品偏好的预测装置和方法
JP7423694B2 (ja) 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体
JP7441270B2 (ja) 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体
Adam et al. Machine learning for demand estimation in long tail markets
KR20210144330A (ko) 협업 필터링 신경망을 이용하여 상품을 추천하는 방법 및 장치
KR102154411B1 (ko) 협업적 필터 알고리즘을 이용한 상품 구매 관련 추천 시스템 및 방법
JP7429260B2 (ja) 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体
JP7431890B2 (ja) 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体
CN115618235A (zh) 一种推荐模型的训练方法及装置
KR102280301B1 (ko) 명시적 및 내연적 평가 정보를 이용한 아이템 추천 방법 및 장치
US11995665B2 (en) Reducing sample selection bias in a machine learning-based recommender system
CN110880141A (zh) 一种深度双塔模型智能匹配算法及装置
CN112150206A (zh) 用户感兴趣物品的预测方法及设备
KR102645901B1 (ko) 지식 그래프 임베딩을 응용한 개인화된 아이템 추천 방법 및 장치
Feng et al. Sparse regularization in marketing and economics
Smith et al. Forecasting customer behaviour in constrained E-commerce platforms
US11797961B2 (en) Vectorization of transactions
US20220366187A1 (en) Systems and methods for generating an interpretive behavioral model
Diqi Deeprec: Efficient product recommendation model for e-commerce using cnn
JP7201001B2 (ja) 品揃え支援装置、品揃え支援方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240117

R150 Certificate of patent or registration of utility model

Ref document number: 7423694

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150