JP7441270B2 - 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 - Google Patents
機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 Download PDFInfo
- Publication number
- JP7441270B2 JP7441270B2 JP2022096135A JP2022096135A JP7441270B2 JP 7441270 B2 JP7441270 B2 JP 7441270B2 JP 2022096135 A JP2022096135 A JP 2022096135A JP 2022096135 A JP2022096135 A JP 2022096135A JP 7441270 B2 JP7441270 B2 JP 7441270B2
- Authority
- JP
- Japan
- Prior art keywords
- shop
- user
- item
- category
- machine learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims description 72
- 238000000034 method Methods 0.000 title claims description 39
- 230000003993 interaction Effects 0.000 claims description 165
- 230000004044 response Effects 0.000 claims description 22
- 230000009471 action Effects 0.000 claims description 20
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 238000011478 gradient descent method Methods 0.000 claims description 2
- 230000004048 modification Effects 0.000 claims 6
- 238000012986 modification Methods 0.000 claims 6
- 238000004364 calculation method Methods 0.000 claims 1
- 238000004590 computer program Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 239000013598 vector Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0277—Online advertisement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
- G06Q30/0204—Market segmentation
- G06Q30/0205—Location or geographical consideration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0255—Targeted advertisements based on user history
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- Data Mining & Analysis (AREA)
- Marketing (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
(a)前記電子商取引プラットフォーム上のショップのサンプルバッチであって、小型ショップカテゴリのショップと大型ショップカテゴリのショップを含むサンプルバッチを特定するステップであって、前記小型ショップカテゴリと前記大型ショップカテゴリは、前記電子商取引プラットフォーム上の販売量閾値に関連して定義され、前記小型ショップカテゴリのショップは、前記大型ショップカテゴリのショップよりも前記電子商取引プラットフォーム上での販売量は少なく、
(b)前記サンプルバッチ内の各ショップついて、第1訓練データセットと第2訓練データセットを取得するステップであって、各ショップについて、前記第1訓練データセットと前記第2訓練データセットはそれぞれ、前記ショップ内のアイテムに関するアイテムデータと、前記ショップ内のアイテムに関するユーザ-アイテム相互作用データを含むユーザデータと、を有し、
(c)サンプルバッチの各ショップに対して、
前記ショップが前記小型ショップカテゴリに含まれるのか、前記大型ショップカテゴリに含まれるのかを判断し、
前記機械学習モデルを前記ショップの前記第1訓練データセットのユーザデータとアイテムデータに適用して、前記第1訓練データセットの各ユーザとアイテムのペアの予備的ユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記小型ショップカテゴリに含まれることに応答して、前記予備的ユーザ-アイテム相互作用スコアに、グローバル小型ショップ重みパラメータを適用し、前記第1訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記大型ショップカテゴリに含まれることに応答して、前記予備的ユーザ-アイテム相互作用スコアに、グローバル大型ショップ重みパラメータを適用し、前記第1訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記最終的なユーザ-アイテム相互作用スコアを用いて、前記第1訓練データセットにおける各ユーザとアイテムのペアのユーザ-アイテム相互作用を予測し、
前記ショップの前記第1訓練データセットにおいて、予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間の第1ショップ固有損失を算出し、
前記第1ショップ固有損失を減少させるために、
前記機械学習モデルのパラメータの局所更新を算出し、
前記ショップが前記小型ショップカテゴリに含まれることに応答して、前記ショップの前記小型ショップ重みパラメータの局所更新を算出し、
前記ショップが前記大型ショップカテゴリに含まれることに応答して、前記ショップの前記大型ショップ重みパラメータの局所更新を算出し、
局所パラメータの更新を前記機械学習モデルに適用することにより、前記機械学習モデルのショップ固有バージョンを生成し、
前記機械学習モデルの前記ショップ固有のバージョンを、前記ショップの前記第2訓練データセットのユーザデータとアイテムデータに適用して、前記第2訓練データセットの各ユーザとアイテムのペアに対する予備的ユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記小型ショップカテゴリに含まれることに応答して、局所小型ショップ重みパラメータを前記予備的ユーザ-アイテム相互作用スコアに適用して、前記第2訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記大型ショップカテゴリに含まれることに応答して、局所大型ショップ重みパラメータを前記予備的ユーザ-アイテム相互作用スコアに適用して、前記第2訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記最終的なユーザ-アイテム相互作用スコアを使用して、前記第2訓練データセットにおける各ユーザとアイテムのペアのユーザ-アイテム相互作用を予測し、
前記ショップの前記第2訓練データセットにおいて、予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間の第2ショップ固有損失を算出し、
(d)前記サンプルバッチ内の全ショップの前記第2ショップ固有損失に基づいて、グローバル損失を算出し、
(e)前記グローバル損失を低減するため前記機械学習モデルのグローバルパラメータ調整を算出し、
(f)前記グローバル損失を低減するため前記グローバル小型ショップ重みパラメータと前記グローバル大型ショップ重みパラメータを調整し、
(g)前記グローバルパラメータ調整を用いて、前記機械学習モデルのパラメータを調整することにより、更新されたモデルを生成し、
(h)ステップ(c)-(g)を複数繰り返し、前の繰り返しの前記更新されたモデルが、次の繰り返しの前記機械学習モデルとなり、調整された前記グローバル小型ショップ重みパラメータと前記グローバル大型ショップ重みパラメータが、次の繰り返しで使用される、ことを実行する。
(1.訓練段階)
図1は、訓練段階の概要を示す図である。システムは、電子商取引プラットフォームにおけるユーザ-アイテム相互作用を予測するため、以前に訓練された機械学習モデルを取得する(ステップ110)。このモデルは、本明細書において基準モデルと呼ばれる。一実施形態では、基準モデルは、電子商取引プラットフォーム上のユーザ-アイテム相互作用を含む、アイテムデータとユーザデータを用いて訓練される。基準モデルは、多数の既知の訓練方法のうちの1つを使用して訓練されてもよく、本明細書で開示される再訓練方法は、基準モデルが最初に訓練される方法に依存しない。上述したように、小型ショップのアイテムよりも大型ショップからのアイテムの方がより多くの訓練データがある。したがって、基準モデルは、より大型ショップからのアイテムについてより良く、予測を行うことになる。これはサンプル選択バイアスと呼ばれる。
図2は再訓練の方法を示す。このセクションで説明する再訓練のステップは、サンプルバッチ内の各ショップに対して実行される。次のセクションで説明するように、この方法の第1の部分は、サンプルバッチ内の各ショップに対して、モデルのショップ固有バージョンを生成すること含む。
システムは、ショップの第1訓練データセット(210)中のユーザデータとアイテムデータに、グローバルモデル(200)を適用する。グローバルモデルは、ショップの第1訓練データセットにおける各ユーザとアイテムのペアのための予備的なユーザ-アイテム相互作用スコア(212)を生成する。グローバルモデルは、ショップ固有バージョンのモデルとは対照的に、電子商取引プラットフォーム上の全てのショップのための機械学習モデルである。再訓練の方法の最初の繰り返しの間、グローバルモデルが基準モデルとなる。その次の繰り返しでは、グローバルモデルは、基準モデルの更新されたバージョンとなる。
サンプルバッチ内の各ショップについて、システムは、ショップの第2訓練データセット(230)中のユーザデータとアイテムデータに、モデルのショップ固有のバージョン(225)を適用して、第2訓練データセットのユーザ-アイテム相互作用の予備スコア(235)を取得する。一実施形態では、第2訓練データセットのサイズは、最大数(例えば、100kトランザクション)までの、電子商取引プラットフォーム上のショップの販売量に対応する。これは、より大型ショップに対するモデルの予測精度を維持するのに役立つ。
以下は、一実施形態による再訓練方法の数式である。
θsとθlは、それぞれ推薦モデルの小型ショップと大型ショップのパラメータ。
θpは、ショップ固有推薦モデルのパラメータ。
Dp sは、ショップpの最初のデータセット。
Dp Qは、ショップpの2つ目のデータセット。
αとβとは、学習率である。
∇は、勾配ステップ、および
Lは、損失関数
予測段階では、再訓練されたモデルは、ターゲット広告のためにショップにユーザを推薦する、又は、電子商取引プラットフォーム上でユーザにアイテムを推薦するために使用することができる。
図4(a)及び図4(b)は、機械学習推薦モデルのアーキテクチャの例を示す。図4(a)において、モデル400aは、連結モジュール420と、ニューラルネットワークエンコーダ430とを含む。連結モジュール420は、ユーザ入力データとアイテム入力データを受け取り、データを連結する。ニューラルネットワークエンコーダ430は、結合されたユーザとアイテムのデータを入力として受取り、入力されたユーザ及びアイテムに対する予備的なユーザ-アイテム相互作用埋込み432(これはベクトルの形である)を出力する。重み層434における重みパラメータが予備的なユーザ-アイテム相互作用埋め込みに適用され、最終的なユーザ-アイテム相互作用スコア436を得ることができる。重み層434では、入力されたアイテムが小型ショップからのものであれば、小型ショップの重みパラメータ434aが使用される。入力されたアイテムが大型ショップからのものである場合、大型ショップの重みパラメータ434bが使用される。小型ショップおよび大型ショップの重みパラメータ434a、434bは、上述した再訓練プロセスにおいて学習されてもよい。最終的なユーザ-アイテム相互作用スコアは、分類モジュール438によって使用され、ユーザ-アイテム相互作用を予測する。一実施形態では、分類モジュール438は、ソフトマックス(Softmax)分類器である。
図5は、推薦システムソフトウェアアーキテクチャの一例を示す図である。本明細書に開示されるシステム及び方法は、必ずしもこのアーキテクチャに限定されるものではない。システム500は、機械学習モデル530と、訓練モジュール550と、推薦モジュール540とを含む。機械学習モデル530は、入力されたユーザとアイテムデータ510、520に適用され、ユーザ-アイテム相互作用を予測する。機械学習モデル530は、本明細書に記載の訓練方法に従って、訓練モジュール550によって訓練される。推薦モジュール540は、予測されたユーザ-アイテム相互作用に基づいて、ユーザをショップに推薦するか、又はユーザにアイテムを推薦する。当業者は、推薦システムが、本明細書の開示に関連しない他のモジュールを有し得ることを理解するであろう。
図1-5について説明した方法は、ソフトウェアで具現化され、ソフトウェアを実行するコンピュータシステム(1つまたは複数のコンピューティングデバイスからなる)によって実行される。当業者であれば、コンピュータシステムが、ソフトウェア命令を格納するための1つ以上の物理的なメモリユニット、ディスク、または他の物理的なコンピュータ可読記録媒体、ならびにソフトウェア命令を実行するための1つ以上のプロセッサを有することを理解するであろう。当業者であれば、コンピュータシステムは、スタンドアロンであっても、サーバとしてコンピュータネットワークに接続されていてもよいことも理解するであろう。
Claims (15)
- コンピュータシステムによって実行され、異なる販売量を有する異なるショップからの商品を含む電子商取引プラットフォーム上で、ユーザ-アイテム相互作用値を予測するための機械学習方法であって、
訓練段階と予測段階を含み、
前記訓練段階は、
前もって訓練された機械学習モデルであって、前記異なる販売量を有する異なるショップを含む前記電子商取引プラットフォーム上のユーザデータとアイテムデータに基づいて、ユーザ-アイテム相互作用を予測する機械学習モデルを取得する取得ステップと、
前記機械学習モデルを修正して、販売量の多いショップに有利なサンプル選択バイアスを低減させる修正ステップと、を備え、
前記修正ステップは、
(a)前記電子商取引プラットフォーム上のショップのサンプルバッチであって、小型ショップカテゴリのショップと大型ショップカテゴリのショップを含むサンプルバッチを特定するステップであって、前記小型ショップカテゴリと前記大型ショップカテゴリは、前記電子商取引プラットフォーム上の販売量閾値に関連して定義され、前記小型ショップカテゴリのショップは、前記大型ショップカテゴリのショップよりも前記電子商取引プラットフォーム上での販売量は少なく、
(b)前記サンプルバッチ内の各ショップついて、第1訓練データセットと第2訓練データセットを取得するステップであって、各ショップについて、前記第1訓練データセットと前記第2訓練データセットはそれぞれ、前記ショップ内のアイテムに関するアイテムデータと、前記ショップ内のアイテムに関するユーザ-アイテム相互作用データを含むユーザデータと、を有し、
(c)サンプルバッチの各ショップに対して、
前記ショップが前記小型ショップカテゴリに含まれるのか、前記大型ショップカテゴリに含まれるのかを判断し、
前記機械学習モデルを前記ショップの前記第1訓練データセットのユーザデータとアイテムデータに適用して、前記第1訓練データセットの各ユーザとアイテムのペアの予備的ユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記小型ショップカテゴリに含まれることに応答して、前記予備的ユーザ-アイテム相互作用スコアに、グローバル小型ショップ重みパラメータを適用し、前記第1訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記大型ショップカテゴリに含まれることに応答して、前記予備的ユーザ-アイテム相互作用スコアに、グローバル大型ショップ重みパラメータを適用し、前記第1訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記最終的なユーザ-アイテム相互作用スコアを用いて、前記第1訓練データセットにおける各ユーザとアイテムのペアのユーザ-アイテム相互作用を予測し、
前記ショップの前記第1訓練データセットにおいて、予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間の第1ショップ固有損失を算出し、
前記第1ショップ固有損失を減少させるために、
前記機械学習モデルのパラメータの局所更新を算出して、ショップ固有パラメータ調整を算出し、
前記ショップが前記小型ショップカテゴリに含まれることに応答して、前記ショップの前記小型ショップ重みパラメータの局所更新を算出し、
前記ショップが前記大型ショップカテゴリに含まれることに応答して、前記ショップの前記大型ショップ重みパラメータの局所更新を算出し、
局所パラメータの更新を前記機械学習モデルに適用することにより、前記機械学習モデルのショップ固有バージョンを生成し、
前記機械学習モデルの前記ショップ固有のバージョンを、前記ショップの前記第2訓練データセットのユーザデータとアイテムデータに適用して、前記第2訓練データセットの各ユーザとアイテムのペアに対する予備的ユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記小型ショップカテゴリに含まれることに応答して、局所小型ショップ重みパラメータを前記予備的ユーザ-アイテム相互作用スコアに適用して、前記第2訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記大型ショップカテゴリに含まれることに応答して、局所大型ショップ重みパラメータを前記予備的ユーザ-アイテム相互作用スコアに適用して、前記第2訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記最終的なユーザ-アイテム相互作用スコアを使用して、前記第2訓練データセットにおける各ユーザとアイテムのペアのユーザ-アイテム相互作用を予測し、
前記ショップの前記第2訓練データセットにおいて、予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間の第2ショップ固有損失を算出する、ステップと、
(d)前記サンプルバッチ内の全ショップの前記第2ショップ固有損失に基づいて、グローバル損失を算出するステップと、
(e)前記グローバル損失を低減するため前記機械学習モデルのグローバルパラメータ調整を算出するステップと、
(f)前記グローバル損失を低減するため前記グローバル小型ショップ重みパラメータと前記グローバル大型ショップ重みパラメータを調整するステップと、
(g)前記グローバルパラメータ調整を用いて、前記機械学習モデルのパラメータを調整することにより、更新されたモデルを生成するステップと、
(h)ステップ(c)-(g)を複数繰り返し、前の繰り返しの前記更新されたモデルが、次の繰り返しの前記機械学習モデルとなり、調整された前記グローバル小型ショップ重みパラメータと前記グローバル大型ショップ重みパラメータが、次の繰り返しで使用されるステップ、を実行し、
前記予測段階は、
前記更新されたモデルを使用して、相互作用値が知られていないユーザとアイテムのペアに関して、前記電子商取引プラットフォーム上でユーザ-アイテム相互作用値の予測を取得すること、を実行する、
機械学習方法。 - 前記ショップ固有パラメータ調整と前記グローバルパラメータ調整は、勾配降下法を用いて算出され、前記ショップ固有パラメータ調整と前記グローバルパラメータ調整は、勾配ステップであることを特徴とする、
請求項1に記載の機械学習方法。 - ショップにより前記電子商取引プラットフォーム上で販売されたアイテムと、複数のテストユーザのそれぞれについて、予測された相互作用値に基づいて、1人以上のテストユーザを前記ショップに推薦するステップを、さらに含む、
請求項1に記載の機械学習方法。 - テストユーザと、前記商取引プラットフォーム上の複数のアイテムのそれぞれについて、予測された相互作用値に基づいて、前記テストユーザに1つ以上のアイテムを推薦すること、さらに含む、
請求項1に記載の機械学習方法。 - 前記第1訓練データセットのサイズは、前記サンプルバッチ内の各ショップについて実質的に同じサイズである、
請求項1に記載の機械学習方法。 - ショップの前記第2訓練データセットは、前記電子商取引プラットフォームにおける前記ショップの販売量の大きさに対応する、
請求項1に記載の機械学習方法。 - コンピュータシステムによって実行され、異なる販売量を有する異なるショップからの商品を含む電子商取引プラットフォーム上で、ユーザ-アイテム相互作用値を予測するモデルを訓練するための訓練方法であって、
前もって訓練された機械学習モデルであって、前記異なる販売量を有する異なるショップを含む前記電子商取引プラットフォーム上のユーザデータとアイテムデータに基づいて、ユーザ-アイテム相互作用を予測する機械学習モデルを取得する取得ステップと、
前記機械学習モデルを修正して、販売量の多いショップに有利なサンプル選択バイアスを低減させる修正ステップと、を備え
前記修正ステップは、
(a)前記電子商取引プラットフォーム上のショップのサンプルバッチであって、小型ショップカテゴリのショップと大型ショップカテゴリのショップを含むサンプルバッチを特定するステップであって、前記小型ショップカテゴリと前記大型ショップカテゴリは、前記電子商取引プラットフォーム上の販売量閾値に関連して定義され、前記小型ショップカテゴリのショップは、前記大型ショップカテゴリのショップよりも前記電子商取引プラットフォーム上での販売量は少なく、
(b)前記サンプルバッチ内の各ショップついて、第1訓練データセットと第2訓練データセットを取得するステップであって、各ショップについて、前記第1訓練データセットと前記第2訓練データセットはそれぞれ、前記ショップ内のアイテムに関するアイテムデータと、前記ショップ内のアイテムに関するユーザ-アイテム相互作用データを含むユーザデータと、を有し、
(c)サンプルバッチの各ショップに対して、
前記ショップが前記小型ショップカテゴリに含まれるのか、前記大型ショップカテゴリに含まれるのかを判断し、
前記機械学習モデルを前記ショップの前記第1訓練データセットのユーザデータとアイテムデータに適用して、前記第1訓練データセットの各ユーザとアイテムのペアの予備的ユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記小型ショップカテゴリに含まれることに応答して、前記予備的ユーザ-アイテム相互作用スコアに、グローバル小型ショップ重みパラメータを適用し、前記第1訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記大型ショップカテゴリに含まれることに応答して、前記予備的ユーザ-アイテム相互作用スコアに、グローバル大型ショップ重みパラメータを適用し、前記第1訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記最終的なユーザ-アイテム相互作用スコアを用いて、前記第1訓練データセットにおける各ユーザとアイテムのペアのユーザ-アイテム相互作用を予測し、
前記ショップの前記第1訓練データセットにおいて、予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間の第1ショップ固有損失を算出し、
前記第1ショップ固有損失を減少させるために、
前記機械学習モデルのパラメータの局所更新を算出して、ショップ固有パラメータ調整を算出し、
前記ショップが前記小型ショップカテゴリに含まれることに応答して、前記ショップの前記小型ショップ重みパラメータの局所更新を算出し、
前記ショップが前記大型ショップカテゴリに含まれることに応答して、前記ショップの前記大型ショップ重みパラメータの局所更新を算出し、
局所パラメータの更新を前記機械学習モデルに適用することにより、前記機械学習モデルのショップ固有バージョンを生成し、
前記機械学習モデルの前記ショップ固有のバージョンを、前記ショップの前記第2訓練データセットのユーザデータとアイテムデータに適用して、前記第2訓練データセットの各ユーザとアイテムのペアに対する予備的ユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記小型ショップカテゴリに含まれることに応答して、局所小型ショップ重みパラメータを前記予備的ユーザ-アイテム相互作用スコアに適用して、前記第2訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記大型ショップカテゴリに含まれることに応答して、局所大型ショップ重みパラメータを前記予備的ユーザ-アイテム相互作用スコアに適用して、前記第2訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記最終的なユーザ-アイテム相互作用スコアを使用して、前記第2訓練データセットにおける各ユーザとアイテムのペアのユーザ-アイテム相互作用を予測し、
前記ショップの前記第2訓練データセットにおいて、予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間の第2ショップ固有損失を算出する、ステップと、
(d)前記サンプルバッチ内の全ショップの前記第2ショップ固有損失に基づいて、グローバル損失を算出するステップと、
(e)前記グローバル損失を低減するため前記機械学習モデルのグローバルパラメータ調整を算出するステップと、
(f)前記グローバル損失を低減するため前記グローバル小型ショップ重みパラメータと前記グローバル大型ショップ重みパラメータを調整するステップと、
(g)前記グローバルパラメータ調整を用いて、前記機械学習モデルのパラメータを調整することにより、更新されたモデルを生成するステップと、
(h)ステップ(c)-(g)を複数繰り返し、前の繰り返しの前記更新されたモデルが、次の繰り返しの前記機械学習モデルとなり、調整された前記グローバル小型ショップ重みパラメータと前記グローバル大型ショップ重みパラメータが、次の繰り返しで使用されるステップ、を実行する、
訓練方法。 - ショップの前記第2訓練データセットのサイズは、前記電子商取引プラットフォームの前記ショップの販売量のサイズに対応する、
請求項7に記載の訓練方法。 - 異なる販売量を有する異なるショップの商品を含む電子商取引プラットフォームにおいて、ユーザ-アイテム相互作用値を予測するための予測システムであって、
機械コードのセットを使用してプログラムされた命令を実行するように構成されたプロセッサと、
プロセッサに結合された1つ以上のメモリユニットと、
当該システムの前記1つ以上のメモリユニットに格納され、ユーザ入力とアイテム入力を取得し、前記電子商取引プラットフォーム上のユーザとアイテムの予測されたユーザ-アイテム相互作用値に対応するユーザ相互作用スコアを出力する機械学習モデルであって、前記出力を生成するために前記機械コードに実装された算出命令を含み機械学習モデルと、を備え、
前記機械学習モデルは、訓練方法に従って訓練され、
前記訓練方法は、
(a)前記電子商取引プラットフォーム上のショップのサンプルバッチであって、小型ショップカテゴリのショップと大型ショップカテゴリのショップを含むサンプルバッチを特定するステップであって、前記小型ショップカテゴリと前記大型ショップカテゴリは、前記電子商取引プラットフォーム上の販売量閾値に関連して定義され、前記小型ショップカテゴリのショップは、前記大型ショップカテゴリのショップよりも前記電子商取引プラットフォーム上での販売量は少なく、
(b)前記サンプルバッチ内の各ショップついて、第1訓練データセットと第2訓練データセットを取得するステップであって、各ショップについて、前記第1訓練データセットと前記第2訓練データセットはそれぞれ、前記ショップ内のアイテムに関するアイテムデータと、前記ショップ内のアイテムに関するユーザ-アイテム相互作用データを含むユーザデータと、を有し、
(c)サンプルバッチの各ショップに対して、
前記ショップが前記小型ショップカテゴリに含まれるのか、前記大型ショップカテゴリに含まれるのかを判断し、
前記機械学習モデルを前記ショップの前記第1訓練データセットのユーザデータとアイテムデータに適用して、前記第1訓練データセットの各ユーザとアイテムのペアの予備的ユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記小型ショップカテゴリに含まれることに応答して、前記予備的ユーザ-アイテム相互作用スコアに、グローバル小型ショップ重みパラメータを適用し、前記第1訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記大型ショップカテゴリに含まれることに応答して、前記予備的ユーザ-アイテム相互作用スコアに、グローバル大型ショップ重みパラメータを適用し、前記第1訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記最終的なユーザ-アイテム相互作用スコアを用いて、前記第1訓練データセットにおける各ユーザとアイテムのペアのユーザ-アイテム相互作用を予測し、
前記ショップの前記第1訓練データセットにおいて、予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間の第1ショップ固有損失を算出し、
前記第1ショップ固有損失を減少させるために、
前記機械学習モデルのパラメータの局所更新を算出して、ショップ固有パラメータ調整を算出し、
前記ショップが前記小型ショップカテゴリに含まれることに応答して、前記ショップの前記小型ショップ重みパラメータの局所更新を算出し、
前記ショップが前記大型ショップカテゴリに含まれることに応答して、前記ショップの前記大型ショップ重みパラメータの局所更新を算出し、
局所パラメータの更新を前記機械学習モデルに適用することにより、前記機械学習モデルのショップ固有バージョンを生成し、
前記機械学習モデルの前記ショップ固有のバージョンを、前記ショップの前記第2訓練データセットのユーザデータとアイテムデータに適用して、前記第2訓練データセットの各ユーザとアイテムのペアに対する予備的ユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記小型ショップカテゴリに含まれることに応答して、局所小型ショップ重みパラメータを前記予備的ユーザ-アイテム相互作用スコアに適用して、前記第2訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記大型ショップカテゴリに含まれることに応答して、局所大型ショップ重みパラメータを前記予備的ユーザ-アイテム相互作用スコアに適用して、前記第2訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記最終的なユーザ-アイテム相互作用スコアを使用して、前記第2訓練データセットにおける各ユーザとアイテムのペアのユーザ-アイテム相互作用を予測し、
前記ショップの前記第2訓練データセットにおいて、予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間の第2ショップ固有損失を算出する、ステップと、
(d)前記サンプルバッチ内の全ショップの前記第2ショップ固有損失に基づいて、グローバル損失を算出するステップと、
(e)前記グローバル損失を低減するため前記機械学習モデルのグローバルパラメータ調整を算出するステップと、
(f)前記グローバル損失を低減するため前記グローバル小型ショップ重みパラメータと前記グローバル大型ショップ重みパラメータを調整するステップと、
(g)前記グローバルパラメータ調整を用いて、前記機械学習モデルのパラメータを調整することにより、更新されたモデルを生成するステップと、
(h)ステップ(c)-(g)を複数繰り返し、前の繰り返しの前記更新されたモデルが、次の繰り返しの前記機械学習モデルとなり、調整された前記グローバル小型ショップ重みパラメータと前記グローバル大型ショップ重みパラメータが、次の繰り返しで使用されるステップ、を実行する、
予測システム。 - 前記機械学習モデルは、
前記ユーザ入力と前記アイテム入力を受け取り、前記ユーザ入力と前記アイテム入力を連結する連結モジュールと、
連結された前記ユーザ入力と前記アイテム入力を受け取り、予備的ユーザ-アイテム相互作用の埋め込みを出力するニューラルネットワークエンコーダと、
前記予備的ユーザ-アイテム相互作用の埋め込みに、小型ショップ重みパラメータまたは大型ショップの重みパラメータを適用し、前記最終的なユーザ-アイテム相互作用スコアを生成する重み層と、を備える、
請求項9に記載の予測システム。 - 前記機械学習モデルは、
前記アイテムデータを受け取り、アイテム特徴表現を出力するアイテムニューラルネットワークエンコーダと、
前記ユーザデータを受け取り、ユーザ特徴表現を出力するためのユーザニューラルネットワークエンコーダであって、前記ユーザ特徴表現と前記アイテム特徴表現のドット積を取得することによって、前記予備的ユーザ-アイテム相互作用スコアを生成する、ユーザニューラルネットワークエンコーダと、
前記予備的ユーザ-アイテム相互作用スコアに、小型ショップ重みパラメータ又は大型ショップの重みパラメータを適用し、前記最終的なユーザ-アイテム相互作用スコアを生成する重み層と、
を備える、請求項9に記載の予測システム。 - ショップの前記第2訓練データセットは、前記電子商取引プラットフォームにおける前記ショップの販売量の大きさに対応する、
請求項9に記載の予測システム。 - コンピュータシステムに、異なる販売量を有する異なるショップからの商品を含む電子商取引プラットフォームにおいて、ユーザ-アイテム相互作用値を予測する方法を実行させるためのコンピュータプログラムを記録した非一時的コンピュータ可読媒体であって、
前記方法は、訓練段階と予測段階を備え、
前記訓練段階は、
前もって訓練された機械学習モデルであって、前記異なる販売量を有する異なるショップを含む前記電子商取引プラットフォーム上のユーザデータとアイテムデータに基づいて、ユーザ-アイテム相互作用を予測する機械学習モデルを取得する取得ステップと、
前記機械学習モデルを修正して、販売量の多いショップに有利なサンプル選択バイアスを低減させる修正ステップと、を備え、
前記修正ステップは、
(a)前記電子商取引プラットフォーム上のショップのサンプルバッチであって、小型ショップカテゴリのショップと大型ショップカテゴリのショップを含むサンプルバッチを特定するステップであって、前記小型ショップカテゴリと前記大型ショップカテゴリは、前記電子商取引プラットフォーム上の販売量閾値に関連して定義され、前記小型ショップカテゴリのショップは、前記大型ショップカテゴリのショップよりも前記電子商取引プラットフォーム上での販売量は少なく、
(b)前記サンプルバッチ内の各ショップついて、第1訓練データセットと第2訓練データセットを取得するステップであって、各ショップについて、前記第1訓練データセットと前記第2訓練データセットはそれぞれ、前記ショップ内のアイテムに関するアイテムデータと、前記ショップ内のアイテムに関するユーザ-アイテム相互作用データを含むユーザデータと、を有し、
(c)サンプルバッチの各ショップに対して、
前記ショップが前記小型ショップカテゴリに含まれるのか、前記大型ショップカテゴリに含まれるのかを判断し、
前記機械学習モデルを前記ショップの前記第1訓練データセットのユーザデータとアイテムデータに適用して、前記第1訓練データセットの各ユーザとアイテムのペアの予備的ユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記小型ショップカテゴリに含まれることに応答して、前記予備的ユーザ-アイテム相互作用スコアに、グローバル小型ショップ重みパラメータを適用し、前記第1訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記大型ショップカテゴリに含まれることに応答して、前記予備的ユーザ-アイテム相互作用スコアに、グローバル大型ショップ重みパラメータを適用し、前記第1訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記最終的なユーザ-アイテム相互作用スコアを用いて、前記第1訓練データセットにおける各ユーザとアイテムのペアのユーザ-アイテム相互作用を予測し、
前記ショップの前記第1訓練データセットにおいて、予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間の第1ショップ固有損失を算出し、
前記第1ショップ固有損失を減少させるために、
前記機械学習モデルのパラメータの局所更新を算出して、ショップ固有パラメータ調整を算出し、
前記ショップが前記小型ショップカテゴリに含まれることに応答して、前記ショップの前記小型ショップ重みパラメータの局所更新を算出し、
前記ショップが前記大型ショップカテゴリに含まれることに応答して、前記ショップの前記大型ショップ重みパラメータの局所更新を算出し、
局所パラメータの更新を前記機械学習モデルに適用することにより、前記機械学習モデルのショップ固有バージョンを生成し、
前記機械学習モデルの前記ショップ固有のバージョンを、前記ショップの前記第2訓練データセットのユーザデータとアイテムデータに適用して、前記第2訓練データセットの各ユーザとアイテムのペアに対する予備的ユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記小型ショップカテゴリに含まれることに応答して、局所小型ショップ重みパラメータを前記予備的ユーザ-アイテム相互作用スコアに適用して、前記第2訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記ショップが前記大型ショップカテゴリに含まれることに応答して、局所大型ショップ重みパラメータを前記予備的ユーザ-アイテム相互作用スコアに適用して、前記第2訓練データセットの最終的なユーザ-アイテム相互作用スコアを取得し、
前記最終的なユーザ-アイテム相互作用スコアを使用して、前記第2訓練データセットにおける各ユーザとアイテムのペアのユーザ-アイテム相互作用を予測し、
前記ショップの前記第2訓練データセットにおいて、予測されたユーザ-アイテム相互作用と、実際のユーザ-アイテム相互作用との間の第2ショップ固有損失を算出する、ステップと、
(d)前記サンプルバッチ内の全ショップの前記第2ショップ固有損失に基づいて、グローバル損失を算出するステップと、
(e)前記グローバル損失を低減するため前記機械学習モデルのグローバルパラメータ調整を算出するステップと、
(f)前記グローバル損失を低減するため前記グローバル小型ショップ重みパラメータと前記グローバル大型ショップ重みパラメータを調整するステップと、
(g)前記グローバルパラメータ調整を用いて、前記機械学習モデルのパラメータを調整することにより、更新されたモデルを生成するステップと、
(h)ステップ(c)-(g)を複数繰り返し、前の繰り返しの前記更新されたモデルが、次の繰り返しの前記機械学習モデルとなり、調整された前記グローバル小型ショップ重みパラメータと前記グローバル大型ショップ重みパラメータが、次の繰り返しで使用されるステップ、を実行し、
前記予測段階は、
前記更新されたモデルを使用して、相互作用値が知られていないユーザとアイテムのペアに関して、前記電子商取引プラットフォーム上でユーザ-アイテム相互作用値の予測を取得すること、を実行する、
非一時的コンピュータ可読媒体。 - 前記電子商取引プラットフォーム上でショップにより販売されるアイテムと、複数のテストユーザのそれぞれについて、予測される相互作用値に基づいて、前記ショップに1人以上のテストユーザを推薦するステップを、さらに含む、
請求項13に記載の非一時的コンピュータ可読媒体。 - テストユーザと、前記電子商取引プラットフォーム上の複数のアイテムのそれぞれについて、予測される相互作用値に基づいて、前記テストユーザに、1つ以上のアイテムを推薦すること、をさらに含む、
請求項13に記載の非一時的コンピュータ可読媒体。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202163221872P | 2021-07-14 | 2021-07-14 | |
US63/221,872 | 2021-07-14 | ||
US17/713,855 | 2022-04-05 | ||
US17/713,855 US20230036394A1 (en) | 2021-07-14 | 2022-04-05 | Reducing sample selection bias in a machine learning-based recommender system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023017701A JP2023017701A (ja) | 2023-02-07 |
JP7441270B2 true JP7441270B2 (ja) | 2024-02-29 |
Family
ID=82016230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022096135A Active JP7441270B2 (ja) | 2021-07-14 | 2022-06-14 | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230036394A1 (ja) |
EP (1) | EP4120175A1 (ja) |
JP (1) | JP7441270B2 (ja) |
TW (1) | TW202309810A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116823410B (zh) * | 2023-08-29 | 2024-01-12 | 阿里巴巴(成都)软件技术有限公司 | 数据处理方法、对象处理方法、推荐方法及计算设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020030324A1 (de) | 2018-08-09 | 2020-02-13 | Robert Bosch Gmbh | Verfahren zum betreiben eines sensors zur detektion von teilchen in einem messgas |
JP2020109631A (ja) | 2018-12-28 | 2020-07-16 | パロ アルト リサーチ センター インコーポレイテッド | 深層ニューラルネットワークのアンサンブルを使用した迅速なビデオクエリ |
JP2020144849A (ja) | 2019-03-04 | 2020-09-10 | 富士通株式会社 | メタ学習ネットワークを訓練する装置及び方法 |
JP2021099791A (ja) | 2019-11-20 | 2021-07-01 | 楽天グループ株式会社 | 直接型ニューラルネットワーク構造を用いてアイテムを推奨するシステム、方法、及びコンピュータプログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10354184B1 (en) * | 2014-06-24 | 2019-07-16 | Amazon Technologies, Inc. | Joint modeling of user behavior |
-
2022
- 2022-04-05 US US17/713,855 patent/US20230036394A1/en active Pending
- 2022-06-14 EP EP22178902.7A patent/EP4120175A1/en active Pending
- 2022-06-14 TW TW111121955A patent/TW202309810A/zh unknown
- 2022-06-14 JP JP2022096135A patent/JP7441270B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020030324A1 (de) | 2018-08-09 | 2020-02-13 | Robert Bosch Gmbh | Verfahren zum betreiben eines sensors zur detektion von teilchen in einem messgas |
JP2020109631A (ja) | 2018-12-28 | 2020-07-16 | パロ アルト リサーチ センター インコーポレイテッド | 深層ニューラルネットワークのアンサンブルを使用した迅速なビデオクエリ |
JP2020144849A (ja) | 2019-03-04 | 2020-09-10 | 富士通株式会社 | メタ学習ネットワークを訓練する装置及び方法 |
JP2021099791A (ja) | 2019-11-20 | 2021-07-01 | 楽天グループ株式会社 | 直接型ニューラルネットワーク構造を用いてアイテムを推奨するシステム、方法、及びコンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20230036394A1 (en) | 2023-02-02 |
TW202309810A (zh) | 2023-03-01 |
EP4120175A1 (en) | 2023-01-18 |
JP2023017701A (ja) | 2023-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6703575B2 (ja) | レコメンダシステム用にユーザ、アイテム、及びレビューの表現を組み合せる方法及びシステム | |
CN111008858B (zh) | 一种商品销量预测方法及系统 | |
CN110969516B (zh) | 一种商品推荐方法及装置 | |
CN109102127B (zh) | 商品推荐方法及装置 | |
CN111460316B (zh) | 一种面向知识系统的个性化推荐方法及计算机存储介质 | |
US20230055699A1 (en) | Recommender system and method using shared neural item representations for cold-start recommendations | |
JP7441270B2 (ja) | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 | |
KR102422408B1 (ko) | 협업 필터링 신경망을 이용하여 상품을 추천하는 방법 및 장치 | |
JP5094643B2 (ja) | 予想落札価格算出装置、予想落札価格算出方法、及びコンピュータプログラム | |
JP7423694B2 (ja) | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 | |
Adam et al. | Machine learning for demand estimation in long tail markets | |
JP7429260B2 (ja) | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 | |
JP7431890B2 (ja) | 機械学習方法、訓練方法、予測システム、及び非一時的コンピュータ可読媒体 | |
KR102280301B1 (ko) | 명시적 및 내연적 평가 정보를 이용한 아이템 추천 방법 및 장치 | |
CN114926208A (zh) | 一种用于产品改进策略制定的用户需求数据分析方法及系统 | |
US11995665B2 (en) | Reducing sample selection bias in a machine learning-based recommender system | |
Desrosiers et al. | Solving the sparsity problem: collaborative filtering via indirect similarities | |
CN113743440A (zh) | 一种信息处理方法及装置、存储介质 | |
CN110880141A (zh) | 一种深度双塔模型智能匹配算法及装置 | |
US11797961B2 (en) | Vectorization of transactions | |
JP7092845B2 (ja) | 情報処理装置および情報処理方法 | |
JP7201001B2 (ja) | 品揃え支援装置、品揃え支援方法、及びプログラム | |
US20220092634A1 (en) | Information processing device and non-transitory computer readable medium | |
Feng et al. | Sparse regularization in marketing and economics | |
Kumari et al. | Predicting Size and Fit in Fashion E-Commerce |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221114 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221114 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231211 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7441270 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |