JP7423694B2 - 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 - Google Patents
機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 Download PDFInfo
- Publication number
- JP7423694B2 JP7423694B2 JP2022096134A JP2022096134A JP7423694B2 JP 7423694 B2 JP7423694 B2 JP 7423694B2 JP 2022096134 A JP2022096134 A JP 2022096134A JP 2022096134 A JP2022096134 A JP 2022096134A JP 7423694 B2 JP7423694 B2 JP 7423694B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- shop
- item
- machine learning
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims description 50
- 238000000034 method Methods 0.000 title claims description 34
- 230000003993 interaction Effects 0.000 claims description 70
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 238000011478 gradient descent method Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000012986 modification Methods 0.000 claims 6
- 230000004048 modification Effects 0.000 claims 6
- 238000004590 computer program Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 4
- 230000006872 improvement Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0255—Targeted advertisements based on user history
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- General Physics & Mathematics (AREA)
- Development Economics (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
(a)前記電子商取引プラットフォーム上のショップのサンプルバッチを特定し、
(b)各ショップのショップ固有訓練データセットを取得し、各前記ショップ固有訓練データセットは、前記ショップ内のアイテムに関するアイテムデータと前記ショップ内のアイテムに関するユーザ-アイテム相互作用データを含むユーザデータを有し、
(c)前記サンプルバッチの各ショップについて、
前記ショップ固有訓練データセット内のユーザデータとアイテムデータに前記機械学習モデルを適用し、前記ショップの予測されたユーザ-アイテム相互作用を取得し、
前記ショップ固有訓練データセット内の、前記予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間のショップ固有損失を算出し、
(d)前記ショップ固有損失に基づいて、グローバル損失を算出し、
(e)前記グローバル損失を低減するため前記機械学習モデルのグローバルパラメータ調整を算出し、
(f)前記グローバルパラメータ調整を用いて前記機械学習モデルのパラメータを調整することにより、更新されたモデルを生成し、
(g)前の繰り返しの前記更新されたモデルが、次の繰り返しの前記機械学習モデルとなるように、ステップ(c)-(f)を複数回繰り返す。
(1.訓練段階)
図1は、訓練段階の概要を示す図である。システムは、電子商取引のプラットフォームにおけるユーザ-アイテム相互作用を予測するため、以前に訓練された機械学習モデルを取得する(ステップ110)。このモデルは、本明細書において基準モデルと呼ばれる。一実施形態では、基準モデルは、電子商取引プラットフォーム上のユーザ-アイテム相互作用を含む、アイテムデータとユーザデータを用いて訓練される。基準モデルは、多数の既知の訓練方法のうちの1つを使用して訓練されてもよく、本明細書で開示される再訓練方法は、基準モデルが最初に訓練される方法に依存しない。上述したように、小型ショップのアイテムよりも大型ショップからのアイテムの方がより多くの訓練データがある。したがって、基準モデルは、より大型ショップからのアイテムについてより良く、予測を行うことになる。これはサンプル選択バイアスと呼ばれる。
図2は、このモデルの再訓練の方法を示す。次のセクションで説明するように、この方法の第1の部分は、ショップ固有訓練データセットにこのモデルを適用し、ショップ固有損失を算出することから構成される。
このセクションで説明する再訓練テップは、サンプルバッチ内の各ショップについて実行される。システムは、モデル(200)を、ショップ固有訓練データセット(210)中のユーザデータとアイテムデータに適用する。ショップ固有訓練データセットは、訓練データセットのユーザとショップにより販売されたアイテムに関して、ユーザ-アイテム相互作用データを含む。モデルは、ショップ固有訓練データセットにおけるユーザとアイテムのペアについて、ユーザ-アイテム相互作用の予測(220)を生成する。言い換えれば、モデルは、ショップのための予測を生成する。再訓練方法の最初の繰り返しの間、モデル200は、基準モデルである。それ以降の繰り返しでは、モデル200は、基準モデルの更新版である。
システムは、全てのショップ固有損失に基づいて、グローバル損失(240)を算出する。一実施形態では、グローバル損失は、ショップ固有損失の平均として算出される。次に、システムは、グローバル損失を低減するために、モデルのグローバルパラメータ調整(250)を算出する。システムは、グローバルパラメータ調整を用いて、モデルのパラメータを調整することにより、更新されたモデルを生成する。一実施形態では、グローバルパラメータ調整は、勾配降下法を用いて算出され、グローバルパラメータ調整は、勾配ステップである。
以下は、一実施形態による再訓練方法の数式である。
θは、グローバル推薦モデルgのパラメータ。
θpは、ショップ固有推薦モデルのパラメータ。
Dp qは、ショップpのサンプリングデータセット。
βは、学習率。
∇は、勾配ステップ。
Lは、損失関数
予測段階では、再訓練されたモデルは、ターゲット広告のためショップにユーザを推薦する、又は、電子商取引プラットフォーム上でユーザにアイテムを推薦するために使用することができる。
図4(a)及び図4(b)は、機械学習推薦モデルのアーキテクチャの例を示す。図4(a)において、モデル400aは、連結モジュール420と、ニューラルネットワークエンコーダ430とを含む。連結モジュール420は、ユーザ入力とアイテム入力を受取り、それらを連結する。ニューラルネットワークエンコーダ430は、結合されたユーザデータとアイテムデータを入力として受取り、ユーザ-アイテム相互作用スコア(これはベクトルの形である)を出力する。ユーザ-アイテム相互作用スコアは、分類モジュール440によって使用され、ユーザ-アイテム相互作用を予測する。
図5は、推薦システムソフトウェアアーキテクチャの一例を示す図である。本明細書に開示されるシステム及び方法は、必ずしもこのアーキテクチャに限定されるものではない。システム500は、機械学習モデル530と、訓練モジュール550と、推薦モジュール540とを含む。機械学習モデル530は、入力されたユーザ及びアイテムデータ510、520に適用され、ユーザ-アイテム相互作用を予測する。機械学習モデル530は、本明細書に記載の訓練方法に従って、訓練モジュール550によって訓練される。推薦モジュール540は、予測されたユーザ-アイテム相互作用に基づいて、ユーザをショップに推薦するか、又はユーザにアイテムを推薦する。当業者は、推薦システムが、本明細書の開示に関連しない他のモジュールを有し得ることを理解するであろう。
図1-5に関して説明した方法は、ソフトウェアで具現化され、ソフトウェアを実行するコンピュータシステム(1つまたは複数のコンピューティングデバイスからなる)によって実行される。当業者であれば、コンピュータシステムが、ソフトウェア命令を格納するための1つ以上の物理的なメモリユニット、ディスク、または他の物理的なコンピュータ可読記録媒体、ならびにソフトウェア命令を実行するための1つ以上のプロセッサを有することを理解するであろう。当業者であれば、コンピュータシステムは、スタンドアロンであっても、サーバとしてコンピュータネットワークに接続されていてもよいことも理解するであろう。
Claims (13)
- コンピュータシステムによって実行され、異なる販売量を有する異なるショップからの商品を含む電子商取引プラットフォーム上で、ユーザ-アイテム相互作用値を予測するための機械学習方法であって、
訓練段階と予測段階を含み、
前記訓練段階は、
前もって訓練された機械学習モデルであって、前記異なる販売量を有する異なるショップを含む前記電子商取引プラットフォーム上のユーザデータとアイテムデータに基づいて、ユーザ-アイテム相互作用を予測する機械学習モデルを取得する取得ステップと、
前記機械学習モデルを修正して、販売量の多いショップに有利なサンプル選択バイアスを低減させる修正ステップと、を備え、
前記修正ステップは、
(a)前記電子商取引プラットフォーム上のショップのサンプルバッチを特定し、
(b)各ショップのショップ固有訓練データセットを取得し、各前記ショップ固有訓練データセットは、前記ショップ内のアイテムに関するアイテムデータと前記ショップ内のアイテムに関するユーザ-アイテム相互作用データを含むユーザデータを有し、
(c)前記サンプルバッチの各ショップについて、
前記ショップ固有訓練データセット内のユーザデータとアイテムデータに前記機械学習モデルを適用し、前記ショップの予測されたユーザ-アイテム相互作用を取得し、
前記ショップ固有訓練データセット内の、前記予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間のショップ固有損失を算出し、
(d)前記ショップ固有損失に基づいて、グローバル損失を算出し、
(e)前記グローバル損失を低減するため前記機械学習モデルのグローバルパラメータ調整を算出し、
(f)前記グローバルパラメータ調整を用いて前記機械学習モデルのパラメータを調整することにより、更新されたモデルを生成し、
(g)前の繰り返しの前記更新されたモデルが、次の繰り返しの前記機械学習モデルとなるように、ステップ(c)-(f)を複数回繰り返し、
前記予測段階は、
前記更新されたモデルを使用して、相互作用値が知られていないユーザとアイテムのペアに関して、前記電子商取引プラットフォーム上でユーザ-アイテム相互作用値の予測を取得すること、
を備える、機械学習方法。 - 前記グローバルパラメータ調整は、勾配降下法を用いて算出され、前記グローバルパラメータ調整は、勾配ステップである、
ことを特徴とする請求項1に記載の機械学習方法。 - 前記電子商取引プラットフォーム上のショップにより販売されたアイテムと、複数のテストユーザのそれぞれについて、予測された相互作用値に基づいて、前記ショップに1人以上のテストユーザを推薦するステップを、さらに含む、
請求項1に記載の機械学習方法。 - テストユーザと、前記電子商取引プラットフォーム上の複数のアイテムのそれぞれについて、予測された相互作用値に基づいて、前記テストユーザに1つ以上のアイテムを推奨するステップを、さらに含む、
請求項1に記載の機械学習方法。 - コンピュータシステムにより実行され、異なる販売量を有する異なるショップからの商品を含む電子商取引プラットフォーム上で、ユーザ-アイテム相互作用値を予測するモデルを訓練する訓練方法であって、
前もって訓練された機械学習モデルであって、前記異なる販売量を有する異なるショップを含む前記電子商取引プラットフォーム上のユーザデータとアイテムデータに基づいて、ユーザ-アイテム相互作用を予測する機械学習モデルを取得する取得ステップと、
前記機械学習モデルを修正して、販売量の多いショップに有利なサンプル選択バイアスを低減させる修正ステップと、を備え、
前記修正ステップは、
(a)前記電子商取引プラットフォーム上のショップのサンプルバッチを特定し、
(b)各ショップのショップ固有訓練データセットを取得し、各前記ショップ固有訓練データセットは、前記ショップ内のアイテムに関するアイテムデータと前記ショップ内のアイテムに関するユーザ-アイテム相互作用データを含むユーザデータを有し、
(c)前記サンプルバッチの各ショップについて、
前記ショップ固有訓練データセット内のユーザデータとアイテムデータに前記機械学習モデルを適用し、前記ショップの予測されたユーザ-アイテム相互作用を取得し、
前記ショップ固有訓練データセット内の、前記予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間のショップ固有損失を算出し、
(d)前記ショップ固有損失に基づいて、グローバル損失を算出し、
(e)前記グローバル損失を低減するため前記機械学習モデルのグローバルパラメータ調整を算出し、
(f)前記グローバルパラメータ調整を用いて前記機械学習モデルのパラメータを調整することにより、更新されたモデルを生成し、
(g)前の繰り返しの前記更新されたモデルが、次の繰り返しの前記機械学習モデルとなるように、ステップ(c)-(f)を複数回繰り返す、
訓練方法。 - 前記グローバルパラメータ調整は、勾配降下法を用いて算出され、前記グローバルパラメータ調整は、勾配ステップである、
請求項5記載の訓練方法。 - 異なる販売量を有する異なるショップの商品を含む電子商取引プラットフォームにおいて、ユーザ-アイテム相互作用値を予測するための予測システムであって、
機械コードのセットを使用してプログラムされた命令を実行するように構成されたプロセッサと、
前記プロセッサに結合された1つ以上のメモリユニットと、
当該システムの前記1つ以上のメモリユニットに格納され、ユーザ入力とアイテム入力を取得し、前記電子商取引プラットフォーム上のユーザとアイテムの予測されたユーザ-アイテム相互作用値に対応するユーザ相互作用スコアを出力する機械学習モデルであって、前記出力を生成するために前記機械コードに実装された算出命令を含む機械学習モデルと、を備え、
前記機械学習モデルは、訓練段階と予測段階を含み、
前記訓練段階は、
(a)前記電子商取引プラットフォーム上のショップのサンプルバッチを特定し、
(b)各ショップのショップ固有訓練データセットを取得し、各前記ショップ固有訓練データセットは、前記ショップ内のアイテムに関するアイテムデータと前記ショップ内のアイテムに関するユーザ-アイテム相互作用データを含むユーザデータを有し、
(c)前記サンプルバッチの各ショップについて、
前記ショップ固有訓練データセット内のユーザデータとアイテムデータに前記機械学習モデルを適用し、前記ショップの予測されたユーザ-アイテム相互作用を取得し、
前記ショップ固有訓練データセット内の、前記予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間のショップ固有損失を算出し、
(d)前記ショップ固有損失に基づいて、グローバル損失を算出し、
(e)前記グローバル損失を低減するため前記機械学習モデルのグローバルパラメータ調整を算出し、
(f)前記グローバルパラメータ調整を用いて前記機械学習モデルのパラメータを調整することにより、更新されたモデルを生成し、
(g)前の繰り返しの前記更新されたモデルが、次の繰り返しの前記機械学習モデルとなるように、ステップ(c)-(f)を複数回繰り返し、
前記予測段階は、
前記更新されたモデルを使用して、相互作用値が知られていないユーザとアイテムのペアに関して、前記電子商取引プラットフォーム上でユーザ-アイテム相互作用値の予測を取得する、
予測システム。 - 前記機械学習モデルは、
前記ユーザ入力と前記アイテム入力を受け取り、前記ユーザ入力と前記アイテム入力を連結する連結モジュールと、
連結された前記ユーザ入力と前記アイテム入力を受け取り、ユーザ-アイテム相互作用スコアを出力するニューラルネットワークエンコーダと、を含む、
請求項7に記載の予測システム。 - 前記機械学習モデルは、
前記アイテムデータを受け取り、アイテム特徴表現を出力するためのアイテムニューラルネットワークエンコーダと、
前記ユーザデータを受け取り、ユーザ特徴表現を出力するユーザニューラルネットワークエンコーダと、を備え、
ユーザ-アイテム相互作用スコアは、前記ユーザ特徴表現と前記アイテム特徴表現のドット積を取得することにより生成される、
請求項7に記載の予測システム。 - 前記グローバルパラメータ調整は、勾配降下法を用いて算出され、前記グローバルパラメータ調整は、勾配ステップである、
請求項7に記載の予測システム。 - コンピュータシステムに、異なる販売量の異なるショップからの商品を含む電子商取引プラットフォームにおいて、ユーザ-アイテム相互作用値を予測する方法を実行させるためのコンピュータプログラムを記録した非一時的コンピュータ可読媒体であって、該方法は、訓練段階と予測段階を備え、
前記訓練段階は、
前もって訓練された機械学習モデルであって、前記異なる販売量を有する異なるショップを含む前記電子商取引プラットフォーム上のユーザデータとアイテムデータに基づいて、ユーザ-アイテム相互作用を予測する機械学習モデルを取得する取得ステップと、
前記機械学習モデルを修正して、販売量の多いショップに有利なサンプル選択バイアスを低減させる修正ステップと、を備え、
前記修正ステップは、
(a)前記電子商取引プラットフォーム上のショップのサンプルバッチを特定し、
(b)各ショップのショップ固有訓練データセットを取得し、各前記ショップ固有訓練データセットは、前記ショップ内のアイテムに関するアイテムデータと前記ショップ内のアイテムに関するユーザ-アイテム相互作用データを含むユーザデータを有し、
(c)前記サンプルバッチの各ショップについて、
前記ショップ固有訓練データセット内のユーザデータとアイテムデータに前記機械学習モデルを適用し、前記ショップの予測されたユーザ-アイテム相互作用を取得し、
前記ショップ固有訓練データセット内の、前記予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間のショップ固有損失を算出し、
(d)前記ショップ固有損失に基づいて、グローバル損失を算出し、
(e)前記グローバル損失を低減するため前記機械学習モデルのグローバルパラメータ調整を算出し、
(f)前記グローバルパラメータ調整を用いて前記機械学習モデルのパラメータを調整することにより、更新されたモデルを生成し、
(g)前の繰り返しの前記更新されたモデルが、次の繰り返しの前記機械学習モデルとなるように、ステップ(c)-(f)を複数回繰り返し、
前記予測段階は、
前記更新されたモデルを使用して、相互作用値が知られていないユーザとアイテムのペアに関して、前記電子商取引プラットフォーム上でユーザ-アイテム相互作用値の予測を取得すること、を備える、
非一時的コンピュータ可読媒体。 - 前記電子商取引プラットフォーム上でショップにより販売されるアイテムと、複数のテストユーザのそれぞれについて、予測された相互作用値に基づいて、前記ショップに1人以上のテストユーザを推薦するステップを、さらに含む、
請求項11に記載の非一時的コンピュータ可読媒体。 - テストユーザと、前記電子商取引プラットフォーム上の複数のアイテムのそれぞれについて、予測される相互作用値に基づいて、前記テストユーザに1つ以上のアイテムを推奨すること、をさらに含む、
請求項11に記載の非一時的コンピュータ可読媒体。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163221872P | 2021-07-14 | 2021-07-14 | |
US63/221,872 | 2021-07-14 | ||
US17/588,099 | 2022-01-28 | ||
US17/588,099 US20230036964A1 (en) | 2021-07-14 | 2022-01-28 | Reducing sample selection bias in a machine learning-based recommender system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023017700A JP2023017700A (ja) | 2023-02-07 |
JP7423694B2 true JP7423694B2 (ja) | 2024-01-29 |
Family
ID=81986225
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022096134A Active JP7423694B2 (ja) | 2021-07-14 | 2022-06-14 | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230036964A1 (ja) |
EP (1) | EP4120144A1 (ja) |
JP (1) | JP7423694B2 (ja) |
TW (1) | TW202324206A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116151892B (zh) * | 2023-04-20 | 2023-08-29 | 中国科学技术大学 | 物品推荐方法、系统、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020109631A (ja) | 2018-12-28 | 2020-07-16 | パロ アルト リサーチ センター インコーポレイテッド | 深層ニューラルネットワークのアンサンブルを使用した迅速なビデオクエリ |
JP2020144849A (ja) | 2019-03-04 | 2020-09-10 | 富士通株式会社 | メタ学習ネットワークを訓練する装置及び方法 |
WO2020230324A1 (ja) | 2019-05-16 | 2020-11-19 | 日本電信電話株式会社 | 学習装置、学習方法および学習プログラム |
JP2021099791A (ja) | 2019-11-20 | 2021-07-01 | 楽天グループ株式会社 | 直接型ニューラルネットワーク構造を用いてアイテムを推奨するシステム、方法、及びコンピュータプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10354184B1 (en) * | 2014-06-24 | 2019-07-16 | Amazon Technologies, Inc. | Joint modeling of user behavior |
US11816706B2 (en) * | 2018-12-28 | 2023-11-14 | Paypal, Inc. | Intelligent interface displays based on past data correlations |
US11080725B2 (en) * | 2019-04-17 | 2021-08-03 | Capital One Services, Llc | Behavioral data analytics platform |
US20210073612A1 (en) * | 2019-09-10 | 2021-03-11 | Nvidia Corporation | Machine-learning-based architecture search method for a neural network |
WO2021107948A1 (en) * | 2019-11-27 | 2021-06-03 | Google Llc | Personalized data model utilizing closed data |
US20220155940A1 (en) * | 2020-11-17 | 2022-05-19 | Amazon Technologies, Inc. | Dynamic collection-based content presentation |
-
2022
- 2022-01-28 US US17/588,099 patent/US20230036964A1/en active Pending
- 2022-06-09 EP EP22178101.6A patent/EP4120144A1/en active Pending
- 2022-06-14 TW TW111121948A patent/TW202324206A/zh unknown
- 2022-06-14 JP JP2022096134A patent/JP7423694B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020109631A (ja) | 2018-12-28 | 2020-07-16 | パロ アルト リサーチ センター インコーポレイテッド | 深層ニューラルネットワークのアンサンブルを使用した迅速なビデオクエリ |
JP2020144849A (ja) | 2019-03-04 | 2020-09-10 | 富士通株式会社 | メタ学習ネットワークを訓練する装置及び方法 |
WO2020230324A1 (ja) | 2019-05-16 | 2020-11-19 | 日本電信電話株式会社 | 学習装置、学習方法および学習プログラム |
JP2021099791A (ja) | 2019-11-20 | 2021-07-01 | 楽天グループ株式会社 | 直接型ニューラルネットワーク構造を用いてアイテムを推奨するシステム、方法、及びコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20230036964A1 (en) | 2023-02-02 |
TW202324206A (zh) | 2023-06-16 |
EP4120144A1 (en) | 2023-01-18 |
JP2023017700A (ja) | 2023-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111008858B (zh) | 一种商品销量预测方法及系统 | |
CN109102127B (zh) | 商品推荐方法及装置 | |
JP7460703B2 (ja) | 共有されたニューラルアイテム表現をコールドスタート推薦に用いる改良型のレコメンダシステム及び方法 | |
CN111460316B (zh) | 一种面向知识系统的个性化推荐方法及计算机存储介质 | |
CN110689110B (zh) | 处理交互事件的方法及装置 | |
CN110413878B (zh) | 基于自适应弹性网络的用户-商品偏好的预测装置和方法 | |
JP7423694B2 (ja) | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 | |
JP7441270B2 (ja) | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 | |
Adam et al. | Machine learning for demand estimation in long tail markets | |
KR20210144330A (ko) | 협업 필터링 신경망을 이용하여 상품을 추천하는 방법 및 장치 | |
KR102154411B1 (ko) | 협업적 필터 알고리즘을 이용한 상품 구매 관련 추천 시스템 및 방법 | |
JP7429260B2 (ja) | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 | |
JP7431890B2 (ja) | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 | |
CN115618235A (zh) | 一种推荐模型的训练方法及装置 | |
KR102280301B1 (ko) | 명시적 및 내연적 평가 정보를 이용한 아이템 추천 방법 및 장치 | |
US11995665B2 (en) | Reducing sample selection bias in a machine learning-based recommender system | |
CN110880141A (zh) | 一种深度双塔模型智能匹配算法及装置 | |
CN112150206A (zh) | 用户感兴趣物品的预测方法及设备 | |
KR102645901B1 (ko) | 지식 그래프 임베딩을 응용한 개인화된 아이템 추천 방법 및 장치 | |
Feng et al. | Sparse regularization in marketing and economics | |
Smith et al. | Forecasting customer behaviour in constrained E-commerce platforms | |
US11797961B2 (en) | Vectorization of transactions | |
US20220366187A1 (en) | Systems and methods for generating an interpretive behavioral model | |
Diqi | Deeprec: Efficient product recommendation model for e-commerce using cnn | |
JP7201001B2 (ja) | 品揃え支援装置、品揃え支援方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221114 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231211 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7423694 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |