CN111417975A - 用于个性化优惠的方法和系统 - Google Patents
用于个性化优惠的方法和系统 Download PDFInfo
- Publication number
- CN111417975A CN111417975A CN202080000701.9A CN202080000701A CN111417975A CN 111417975 A CN111417975 A CN 111417975A CN 202080000701 A CN202080000701 A CN 202080000701A CN 111417975 A CN111417975 A CN 111417975A
- Authority
- CN
- China
- Prior art keywords
- users
- offers
- offer
- platform
- machine learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 230000004044 response Effects 0.000 claims abstract description 76
- 238000010801 machine learning Methods 0.000 claims abstract description 59
- 238000012549 training Methods 0.000 claims abstract description 46
- 230000008901 benefit Effects 0.000 claims abstract description 35
- 238000003860 storage Methods 0.000 claims abstract description 20
- 238000005457 optimization Methods 0.000 claims description 32
- 238000013479 data entry Methods 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 15
- 230000015654 memory Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 21
- 238000004422 calculation algorithm Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 13
- 238000003066 decision tree Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000013480 data collection Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000002354 daily effect Effects 0.000 description 6
- 238000009826 distribution Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000009977 dual effect Effects 0.000 description 4
- 238000007792 addition Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000012550 audit Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000001737 promoting effect Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0269—Targeted advertisements based on user profile or attribute
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
- G06Q30/0224—Discounts or incentives, e.g. coupons or rebates based on user history
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/105—Human resources
- G06Q10/1057—Benefits or employee welfare, e.g. insurance, holiday or retirement packages
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
- G06Q30/0202—Market predictions or forecasting for commercial activities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
- G06Q30/0211—Determining the effectiveness of discounts or incentives
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
- G06Q30/0219—Discounts or incentives, e.g. coupons or rebates based on funds or budget
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
- G06Q30/0222—During e-commerce, i.e. online transactions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
- G06Q30/0226—Incentive systems for frequent usage, e.g. frequent flyer miles programs or point systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
- G06Q30/0236—Incentive or reward received by requiring registration or ID from user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
- G06Q30/0239—Online discounts or incentives
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q40/00—Finance; Insurance; Tax strategies; Processing of corporate or income taxes
- G06Q40/08—Insurance
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- General Physics & Mathematics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Game Theory and Decision Science (AREA)
- Human Resources & Organizations (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Technology Law (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
提供了用于个性化优惠的方法、系统和装置,包括编码在计算机存储介质上的计算机程序。所述方法之一包括:收集包括为平台的多个用户中的每个用户制定的一个或多个优惠以及一个或多个相应响应的响应数据,其中,所述一个或多个优惠是从一组优惠选项中选择的;创建包括收集的响应数据以及与所述多个用户中的每个用户相关联的一个或多个特征的训练数据集;使用所述训练数据集训练机器学习模型,其中,训练的机器学习模型用来预测所述多个用户对未来优惠的响应;使用所述训练的机器学习模型获得所述平台的多个预计收益,其中,所述多个预计收益中的每个预计收益对应于为所述多个用户中的一个用户制定一组预定优惠中的一个优惠。
Description
技术领域
本公开通常涉及用于个性化优惠的系统和方法。
背景技术
诸如商业实体的组织经过提供促销、奖励、奖金或者其他类型的激励来吸引新客户、激励员工、加强顾客忠实度等。确定优惠的传统机制基于粗粒度规则,例如在特定时间(母亲节、情人节、圣诞节)提供某些促销、基于绩效审核向员工奖励奖金。
通过示例,电子商务平台可以在预算限制下为其用户指定优惠以便在平台上吸引活跃用户。尽管促销或者其他激励分配是司空见惯的,但是使这样的优惠方案的效果最大化是具有挑战的。现有方法使用过简规则(例如,一个城市中的用户得到相同的优惠)来以粗略方式确定优惠。这些方法不能够有效地在个体水平上个性化优惠。一些现有方法采取基于与用户相关联的一些特征的手动规则,但是不能够处理诸如当今电子商务平台承载的上百万用户的大规模用例。因而期望利用算力来精确地确定并且提供个性化优惠,以便改善激励方案的有效性。
发明内容
本申请的各种实施例可以包括个性化优惠的系统、方法和非暂时性计算机可读介质。
根据一个方面,一种用于个性化优惠的方法可以包括:收集包括为平台的多个用户中的每个用户制定的一个或多个优惠以及一个或多个相应响应的响应数据,其中,所述一个或多个优惠是从一组优惠选项中选择的;创建包括收集的响应数据以及与所述多个用户中的每个用户相关联的一个或多个特征的训练数据集;使用所述训练数据集训练机器学习模型,其中,训练的机器学习模型用来预测所述多个用户对未来优惠的响应;使用所述训练的机器学习模型获得所述平台的多个预计收益,其中,所述多个预计收益中的每个预计收益对应于为所述多个用户中的一个用户制定一组预定优惠中的一个优惠;以及在所述平台的总成本限制下,基于所述多个预计收益从所述一组优惠选项中确定一个或多个优惠的组合来分配给所述多个用户,以最大化总收益。
在一些实施例中,多个用户可以包括在线销售方;并且一个或多个特征可以包括下面中的一个或多个:销售方年龄、销售方性别、销售方位置、平台上的登记时间、交易量以及产品信息。
在一些实施例中,创建训练数据集可以包括:生成多个数据条目,每一个数据条目包括相应用户的一个或多个特征以及为相应用户制定的一个或多个优惠中的一个优惠;并且基于一个或多个相应响应来标记所述多个数据条目。
在一些实施例中,一组优惠选项可以包括表示不制定优惠的优惠选项。
在一些实施例中,从一组优惠选项中确定的一个或多个优惠的组合是具有重复的组合;并且确定的组合包括N个元素,N是多个用户的数量。
在一些实施例中,所述方法可以进一步包括:从多个用户中随机选择一个或多个用户;并且为随机选择的一个或多个用户制定从一组优惠选项中随机选择的一个或多个优惠。
在一些实施例中,多个用户的数量可以是N;优惠选项的数量可以是M;并且从所述一组优惠选项中确定一个或多个优惠的组合来分配给所述多个用户包括:求解优化以获得N*M矩阵X,X的每一个元素Xij包括指示关于为第i个用户制定第j个优惠的推荐的值,其中, 并且∑jXij=1。
在一些实施例中,优化可以包括整数编程模型;并且X的每一个元素Xij可以包括指示是否为所述第i个用户制定所述第j个优惠的二进制值。
在一些实施例中,可以基于多个用户当中由机器学习模型预测的接受一个或多个优惠的用户的数量来确定总收益。
在一些实施例中,优惠选项中的一个或多个可以分别与一个或多个奖励奖金相关联;并且总成本限制可以包括用于分配给多个用户的奖励奖金的总数额的限制。
在一些实施例中,一个或多个奖励奖金可以针对使用与所述平台相关联的支付系统进行在线交易的在线销售方而被调整。
在一些实施例中,总成本限制可以包括用于对分配给多个用户的优惠数量的限制。
根据另一方面,一种用于个性化优惠的系统可以包括多个传感器以及包括第一计算设备和第二计算设备的计算机系统,所述计算机系统包括处理器和存储能够由所述处理器执行以使得所述系统执行包括下面操作的指令的非暂时性计算机可读存储介质:收集包括为平台的多个用户中的每个用户制定的一个或多个优惠以及一个或多个相应响应的响应数据,其中,所述一个或多个优惠是从一组优惠选项中选择的;创建包括收集的响应数据以及与所述多个用户中的每个用户相关联的一个或多个特征的训练数据集;使用所述训练数据集训练机器学习模型,其中,训练的机器学习模型用来预测所述多个用户对未来优惠的响应;使用所述训练的机器学习模型获得所述平台的多个预计收益,其中,所述多个预计收益中的每个预计收益对应于为所述多个用户中的一个用户制定一组预定优惠中的一个优惠;以及在所述平台的总成本限制下,基于所述多个预计收益从所述一组优惠选项中确定一个或多个优惠的组合来分配给所述多个用户,以最大化总收益。
根据再一方面,一种用于个性化优惠的非暂时性计算机可读存储介质可以被配置有能够由一个或多个处理器执行以使得该一个或多个处理器执行包括下面操作的指令:收集包括为平台的多个用户中的每个用户制定的一个或多个优惠以及一个或多个相应响应的响应数据,其中,所述一个或多个优惠是从一组优惠选项中选择的;创建包括收集的响应数据以及与所述多个用户中的每个用户相关联的一个或多个特征的训练数据集;使用所述训练数据集训练机器学习模型,其中,训练的机器学习模型用来预测所述多个用户对未来优惠的响应;使用所述训练的机器学习模型获得所述平台的多个预计收益,其中,所述多个预计收益中的每个预计收益对应于为所述多个用户中的一个用户制定一组预定优惠中的一个优惠;以及在所述平台的总成本限制下,基于所述多个预计收益从所述一组优惠选项中确定一个或多个优惠的组合来分配给所述多个用户,以最大化总收益。
本文公开的实施例具有一个或多个技术效果。在一个实施例中,所公开的方法和系统基于与每一个个体用户相关联的特征以及包括为用户制定的优惠及其相应响应的历史优惠信息来训练机器学习模型。在一个实施例中,训练模型来学习用户的需求曲线并且预测用户对未来优惠的响应。在一个实施例中,由于训练数据处于个体用户水平(例如,每一个用户的特征和需求曲线),模型做出的预测更加精确和适用。在一个实施例中,所公开的方法和系统针对实体(例如,电子商务平台)搜索最优优惠分配计划以向多个用户分配多个优惠,从而最大化目标(例如,实体通过使用该方案分配优惠的整体利益或收益)。可以利用优化模型来描述搜索。优化模型的一个或多个决策变量或者系数是基于由训练的机器学习模型做出的预测被预先计算的。在一个实施例中,个体用户水平预测使得优化模型能够提供精确的决策制定。在一个实施例中,优化模型可以开始于初始优惠分配计划,并且迭代地改善该计划以最大化目标函数。在一个实施例中,迭代搜索方案对最终方案的质量提供更好的控制。在一个实施例中,可以通过并行处理来解决优化问题,有效地使能该方法和系统按比例处理场景。
通过参照形成本文一部分的附图考虑下面的描述和所附权利要求书,本文描述的系统、方法和非暂时性计算机可读介质的这些和其它特征以及结构的相关元件的操作方法和功能以及制造部件和经济性的组合将显现,在附图中的各幅图中相同的附图标记指代相对应的部分。然而,应该理解,附图仅用于说明和描述目的并且并不意在限定本发明的限制。
附图说明
图1示出了根据各种实施例的可以用于个性化优惠的示例环境。
图2示出了根据各种实施例的用于在示例平台中使个性化优惠的示例系统。
图3示出了根据各种实施例的用于个性化优惠的示例系统流图。
图4示出了根据各种实施例的用于个性化优惠的示例数据收集过程。
图5示出了根据各种实施例的用于个性化优惠的训练的机器学习模型的使用示例。
图6示出了根据各种实施例的用于个性化优惠的示例优化。
图7示出了根据各种实施例的用于个性化优惠的方法。
图8示出了根据一些实施例的用于个性化优惠的计算机系统的框图。
图9示出了可以实现本文描述的任意实施例的示例电子设备。
具体实施方式
本文公开的方案可以对电子商务平台中为销售方(例如,商家)个性化优惠(例如,激励、奖励)的精确度和效率进行优化。为了维持日常活跃销售方的健康规模、增强顾客忠实度和/或促进电子商务平台的生态系统,电子商务平台可以为销售方提供用于进行交易的奖励,用于使用由生态系统提供的其它服务,例如支付服务。奖励可以由销售方作为优惠券、现金、奖励点数、另一适合的奖励形式或者其任何组合来领取。在一些实施例中,奖励可以被累积以形成保险(例如,医疗保险)覆盖,以补偿某些类型的开销。在一些实施例中,领取奖励可能要求销售方(1)执行一个或多个操作(例如,经过指定的支付服务平台进行在线交易)并且(2)登入电子商务平台的应用软件并且点击一个或多个指定的按钮。
在一些实施例中,每一个优惠中的奖励金额对于销售方和平台之间的关系质量是重要的。尽管提供大规模的奖励会激励更多销售方在平台上保持活跃并且执行要求的操作,但是个性化优惠的战略会受到电子商务平台确定的预算限制影响。
除了预算限制,策略还需要考虑每一个销售方的唯一性。不同销售方对于相同优惠会具有不同水平的敏感度。不同水平的敏感度可能与和销售方相关联的各种特征有关。例如,电子商务平台的顶级销售方(在收入方面)之一以及具有有限收入的新手销售方对于小规模的奖励会具有不同的反应。作为另一示例,如果奖励具有有限的用途(例如,仅对于具备条件的医疗花销可兑现),则具有提供综合性员工医疗福利的全职工作的销售方不会像没有医疗保险的销售方那样,对这样的奖励感兴趣。在再一示例中,年老的销售方会比年轻且较健康的销售方对这样的医疗奖励项目会更感兴趣。在一些实施例中,销售方的这些各种特征对于平台是容易获得的(例如,销售方被要求在注册期间提供信息)。
图1描绘了根据各种实施例可以应用个性化优惠的示例环境。环境100可以包括实体101、与实体101相关联的计算机系统102、一个或多个优惠103、与一个或多个用户105相关联的一个或多个计算设备104。在一些实施例中,实体101可以是商业(例如,企业、公司、合作伙伴)、教育机构(例如,大学、学校)或者另一适合类型的实体。与实体101相关联的计算机系统102可以包括具有计算和存储能力的计算机服务器、数据中心、连接到云服务的网关设备、另一适合的计算设备或者其组合。一个或多个优惠103可以包括加薪(例如,对于员工)、升级(例如,对于员工、顾客)、折扣、其它适合的激励或者其任意组合。与一个或多个用户105相关联的一个或多个计算设备104可以被实现在各种设备上或者被实现为各种设备,例如,移动电话、平板电脑、服务器、桌面型计算机、膝上型计算机等。计算机系统102可以在互联网上、通过局域网(例如,LAN)、通过直接通信(例如,蓝牙、射频、红外)等与计算设备104或者其他计算设备通信。一个或多个用户105可以包括员工、顾客、用户、可以被激励的其它适合角色或者其任意组合。
在一些实施例中,与实体101相关联的计算系统102可以包括多个组件,例如优惠选项组件112、数据收集组件114、机器学习组件116、优化问题解决组件118。在一些实施例中,优惠选择组件112可以存储要分配给用户105的各种类型的优惠。作为示例,在针对公司/员工的情况下,这种优惠可以包括基于绩效审核要向员工提供的奖励、加薪、升级等。作为另一示例,在电子商务平台/在线销售方上下文中,优惠可以包括要向使用与电子商务平台相关联的支付系统进行交易的销售方提供的奖励、福利等。在一些实施例中,优惠选项组件112可以具有针对每一种类型的优惠的多个选项(例如,美元金额)。在一些实施例中,这些优惠可以由平台预先确定,并且可以被周期性更新。
在一些实施例中,数据收集组件114可以收集用户数据(例如,用户特征)以促进针对用户的个性化优惠。例如,在公司/员工上下文中,用户数据可以包括每一个员工在前一季度或者过去的一年中的绩效数据、增长趋势、在职年限、另一适合的信息或者其任意组合。作为另一示例,在电子商务平台/在线销售方上下文中,用户数据可以包括每一个销售方的个人信息(例如,性别、年龄、教育状况、婚姻状况)、平台相关信息(例如,注册时间、会员类别)、商业信息(例如,库房位置、交易体积、增长趋势、在售商品)、另一适合的信息或者其任意组合。
在一些实施例中,数据收集组件114还可以收集为用户制定的历史优惠的信息以及相对应的响应。历史优惠的信息可以包括优惠的规模、优惠的时间、另一适合的信息或者其任何组合。例如,使用电子商务平台的销售方可能已经接受了针对相应地使用与平台相关联的支付系统进行五个交易的五个优惠奖励。销售方可能已经接受了所有奖励,接受了一些重要的奖励并且忽略了剩余奖励或者忽略了全部奖励。这些数据可以用于展现销售方对不同规模的奖励的接受意愿(例如,需求曲线)。作为另一示例,销售方可能已经接受了在交易关闭之后的5秒钟内送达的所有优惠奖励,而忽略了下一天送达的所有其它奖励。因而,数据可以用于学习销售方的行为模式。
在一些实施例中,机器学习组件116可以包括机器学习模型。机器学习模型可以通过监督学习、非监督学习、半监督学习、加强学习、另一适合的学习算法或者其任意组合来训练。在一些实施例中,机器学习模型可以基于由数据收集组件114收集的数据进行训练,该数据可以包括用户的特征、为用户制定的历史优惠以及用户的响应。机器学习模型可以使用神经网络(例如卷积神经网络、深度神经网络)、决策树、多个决策树(例如,梯度提升决策树)、另一适合的算法或者其任意组合。在一些实施例中,机器学习模型可以用于预测用户对未来的优惠奖励的响应。
在一些实施例中,优化问题解决组件118可以将个性化优惠的任务建模为优化,从而最大化预计效益(例如平台上的日常活跃销售方的数量)并且最小化成本或者保持成本低于预算。
图2示出根据各种实施例的在示例平台中个性化优惠的示例系统。图2中示出的平台200可以指代包括在线系统220和离线系统230的电子商务平台。在线系统220可以实现用户能够交互、销售或者购买物品的市场。用户可以包括个体、公司、其它适合的实体或者其任意组合。在一些实施例中,在在线系统220中进行的交易可以使用与平台210相关联的支付系统,例如由与平台具有伙伴关系的银行发出的信用卡,由平台提供的支付应用、另一适合的方法或者其任意组合。图2示出了使用QR码进行交易的示例。例如,购买方可以扫描由销售方提供的QR码以进行支付,并且QR码与支付系统相关联,该支付系统与平台210相关联。平台210可以通过向销售方、购买方或者二者提供奖励来奖赏这样的交易。优惠可以促进支付系统、吸引新用户(例如,慷慨的奖励可以生成正面宣传)或者维持平台的日常活跃用户的健康规模。
在一些实施例中,提供给用户的奖励可以按照各种方式送达用户226,例如应用中消息、电子邮件、SMS、另一正确的方式或者其任意组合。在一些实施例中,向用户226提供的奖励可以通过执行某些动作来领取。例如,用户可以接收要求使用与平台相关联的支付系统进行交易的奖励优惠。在交易得到验证(例如,使用指定的支付系统)之后,用户可以通过登入他/她与平台相关联的账户并且点击一个或多个按钮或链接来领取奖励。在一些实施例中,用户236领取的奖励可以累积到与用户相关联的账户224中,例如数字钱包、在线银行、另一适合的账户或者其任意组合中。
在一些实施例中,平台210的离线系统230可以指代在其中存储并处理数据的一个或多个后端服务器、数据中心或者云服务。离线系统230可以存储与用户226进行的交易222相关联的历史数据、提供给用户的奖励224以及相对应的响应(例如,接受、不响应、拒绝)。在一些实施例中,平台210还可以将用户数据234存储在其离线系统230中。用户数据234可以包括在平台234上注册的全部用户集合的信息。例如,可以在注册过程期间要求每一个用户提供包括姓名、年龄、性别、电子邮件、电话号码、教育水平、婚姻状况、年收入、居住地点、商业地点、另一适合的信息或者其任意组合的信息。在一些实施例中,用户数据234还可以包括用户的在线活动的信息,例如交易量、业务增长趋势、商品类别、另一适合的信息或者其任意组合。
在一些实施例中,平台210的离线系统230可以构建个性化优惠框架236以确定为用户226个性化优惠的最佳方式。个性化优惠框架236可以在计算设备239(例如,计算机服务器、计算机集群、数据中心、云服务)上被实现为服务、程序、软件、另一适合的形式或者其任意组合。图2中所示的个性化优惠框架236包括多级以确定针对用户的个性化奖励。在一些实施例中,框架236的级I 237可以基于历史数据232和用户数据234来训练机器学习模型以学习多个用户的响应曲线(例如,需求曲线)。每一个用户的响应曲线可以反映该用户对各种规模的优惠的接受水平并且可以用于预测用户对未来优惠的响应。
在一些实施例中,框架236的级II 238可以构建优化模型以确定为用户个性化优惠的解决方案。例如,找到针对用户的优惠(例如,资源)的组合以便最大化收益(例如,目标)并且受总成本限制(例如,约束)影响的问题可以被建模为资源分配问题并且通过解决背包问题(KR)或者其变体来达成方案。要最大化的收益可以指代平台210上日常活跃用户的数量,其可以基于在一天期间领取接收到的优惠的用户数量来确定。例如,领取优惠可能要求用户采取某些动作,可以当作是在用户和平台之间的成功交互。
在一些实施例中,由框架236的级II 238生成的解决方案可以被部署到在线系统220。例如,在部署之后,每一个用户236可以接收针对使用与平台210相关联的支付系统进行的每一个交易的个性化优惠。通过观察用户对个性化优惠的实际响应240(例如,接受优惠、拒绝优惠、不响应),离线系统230可以确定是否满足了目标(例如,日常活跃用户的数量、增长目标),并且相应地调节其预算。例如,如果日常活跃用户的数量已经下降到阈值以下,离线系统230可以增加其预算使得个性化优惠框架236可以提供更加激进的解决方案。作为另一示例,如果超过了目标,则离线系统230可以减少总成本限制以改善资源效率。
图3示出了根据各种实施例的用于制定个性化优惠的示例系统流图。下面呈现的系统300的组件意在是说明性的。取决于实现,系统300可以包括附加的、更少的或者替代的组件。
在框310中,系统300可以收集诸如用户数据313、为用户制定的历史优惠和相应响应314的各种数据。在一些实施例中,框310收集的数据可以包括自然语言的信息。
在框320中,系统300可以使用自然语言处理(NLP)从用户数据313和/或收集的历史优惠/响应314中提取特征。在一些实施例中,NLP处理可以从词语划分开始,以根据信息生成有含义的词或者短语。可以根据语言特定断字规则来设计词语划分。例如,词语划分可以在处理句子中的词语之间不具有空格的语言(例如中文、韩文和日本)时考虑语义和上下文含义。作为另一示例,在处理诸如西方语言的语言(例如,英语)时,词语划分可以简单地基于空格来将句子划分为词。在一些实施例中,词语划分可以通过使用开源库实现。在一些实施例中,词语划分也可以过滤出不承载实际含义的不相关的词。在一些实施例中,词语划分可以生成“词语袋”,其随后通过对于每一个词语使用词语嵌入方法而被表示为向量。在一些实施例中,词语袋例如可以通过使用开源库以及诸如Glove、vzhong、nlpAthits、Chinese Word Vectors的数据库来实现。词语嵌入能够捕获文档中词的上下文、语义和句法相似性、与其它词的关系等。在框330中,用户特征、优惠和响应的向量表示可以用于训练、测试或者使用机器学习模型。
在框340中,系统300可以使用优化模型来确定为多个用户分配多个优惠的最优方式以便最大化预计收益(例如,平台上日常活跃销售者的数量)并且限制成本(例如,受预算影响分配的奖金的总数额)。在一些实施例中,这样的优化可以通过使用诸如背包问题(KP)解析器的工具来解决。
图4示出了根据各种实施例的用于个性化优惠的示例数据收集处理。图4中示出的处理可以收集用于其中用户能够交换、销售或者购买物品的在线市场的数据。如图所示,要收集的数据可以包括用户数据410和历史响应数据420。在一些实施例中,用户数据410可以包括与每一个用户相关联的各种特征,例如姓名、年龄、性别、电子邮件、电话号码、教育水平、婚姻状况、年收入、居住位置、商业位置、另一适合的信息或者其任意组合。在一些实施例中,用户数据410还可以包括与每一个用户相关联的在线活动的信息,例如交易量、业务增长趋势、商品类别。
在一些实施例中,历史响应数据420可以包括为每一个用户制定的一个或多个优惠以及相应响应。在一些实施例中,可以使用各种数据结构表示历史响应数据420,例如图4中示出的表格、树、图标、另一适合的格式或者其任意组合。在一些实施例中,历史响应数据420可以包括多个字段,例如用户ID(例如,每一个用户的标识)、交易ID(例如,交易的标识)、交易金额(例如,制定了优惠的交易的金额)、优惠ID(例如,优惠的标识)、优惠的奖励金额(例如,提供给用户的奖励金额)、响应(例如,提供的奖励是否导致用户与平台交互)、另一适合的字段或者其任意组合。
在一些实施例中,要为用户制定的优惠可以选自一组优惠选项。这些优惠选项可以根据预算预先确定,并且当预算被调节时进行更新。在一些实施例中,优惠选项可以具有不同的奖励金额,例如$1.88、$0.5、$1、$5。在其它实施例中,优惠选项可以包括不同百分比以计算优惠的精确奖励金额。
在一些实施例中,用户可以按照各种方式对优惠做出响应,例如接受优惠、不响应、拒绝优惠或者另一适合的响应。接受优惠(例如,通过打开与平台相关联的应用、点击按钮)可以指示用户与平台之间的成功交互。不响应优惠和拒绝优惠可以指示用户对优惠不感兴趣,或者因优惠规模太小而感觉受冒犯。
在一些实施例中,响应数据420中的用户ID字段可以用于将响应数据中的每一个数据条目映射到相应用户的用户数据。在一些实施例中,用户数据410和响应数据420可以被组合以创建训练数据集来训练机器学习模型430。在一些实施例中,训练数据集可以包括多个数据条目,每一个条目与一个用户对一个接收到的优惠的响应相对应。例如,每一个条目可以包括从用户的用户数据410中提取的特征以及从用户的响应数据420中提取的优惠信息(例如,通过用户ID字段识别)。每一个数据条目可以基于用户的实际响应来标记。训练数据集可以用于训练机器学习模型430以便预测用户对未来优惠的响应。
机器学习模型430可以使用各种算法实现,例如神经网络、梯度上升决策树(GBDT)或者另一适合的算法。在一些实施例中,GBDT算法可以用于构建多个弱学习机(例如,小型决策树)以便拟合训练数据。多个弱学习机可以一起工作以对输入数据(例如,用户的特征以及为用户制定的优惠)做出响应来做出预测(例如,用户是否将接受优惠)。例如,GBDT算法可以从创建表示对于训练数据中的每一个条目的初始预测的单个叶子节点开始。初始预测可以使用log(odds)逻辑函数来计算随机用户将接受随机优惠的概率,如等式(1)中所示。
其中,num_accepts是训练数据中被接受的优惠的数量;
其中,num_rejects是训练数据中被拒绝的优惠的数量;
其中,逻辑函数(1)将log(odds)转换为分类的概率。
之后,GBDT算法可以通过计算伪残差(观察的响应与预测的响应之间的差)来测量初始预测(例如,叶子)的质量。接着,可以使用训练数据中的一个或多个字段来构建树以便预测计算的伪残差。可以通过基于纯度分数(例如,Gini)或者为了最小化损失而选择最佳划分点的贪婪方式构建树。这一树的叶子节点可以包括伪残差中的一个或多个。在一些实施例中,可以限制树中的叶子的数量,例如叶子的最大数量在8和32之间。随后,基于每一个叶子中的log(odds)和伪残差,GBDT算法可以计算每一个叶子的输出值。之后,可以通过将初始叶子与以学习速率(例如,0.8)缩放的新的树进行组合来更新等式(1)中的log(odds)。新的log(odds)可以用于针对训练数据中的每一个数据条目做出预测。接着,可以计算新的伪残差组以便测量新预测的质量。可以重复这一处理直到树的数量达到指定的最大数量或者伪残差小于预定阈值为止。
在一些实施例中,如果由训练的(例如,拟合到训练数据)GBDT模型预测的用户接受优惠的概率大于阈值(例如,0.5,接收器操作特性曲线、曲线下区域曲线),则机器学习模型430可以确定用户将接受优惠。
在一些实施例中,机器学习模型430可以是一层张量流(例如,神经网络)模型以便拟合训练数据并且学习用户的响应曲线。这些响应曲线可以用于描述和预测用户如何对优惠金额的谱做出响应。
图5示出了根据各种实施例的用于个性化优惠的训练的机器学习模型的使用示例。在训练之后,机器学习模型430可以用于对用户是否将接受优惠做出预测。如图5所示,机器学习模型430可以接收包括用户特征510和优惠的信息520的查询。用户特征510可以包括姓名、年龄、性别、电子邮件、电话号码、教育水平、婚姻状况、年收入、居住位置、商业位置、交易量、业务增长趋势、商品类别、另一适合的信息或者其任意组合。优惠的信息520可以包括奖励金额、优惠类型、接受优惠的条件、使用奖励的限制方式、其它适合的信息或者其任意组合。
训练的机器学习模型430可以基于输入数据做出预测540。预测540可以具有各种格式。例如,预测可以是概率、分类(例如,真/假,是/否)或者另一适合的格式。预测可以指示机器学习模型430是否确定具有用户特征510的用户将接受优惠520。
在一些实施例中,训练的机器学习模型430可以用于准备包括N*M预计收益的矩阵550,其中N是用户的数量,M是优惠的数量。预计收益Pij可以与为第i个用户制定的第j个优惠的预计值相对应。在一些实施例中,Pij是训练的机器学习模型430响应于为第j个用户制定第j个优惠而生成的预测的函数。例如,如果预测第i个用户接受第j个优惠,则Pij可以是1,并且如果预测第i个用户忽略或拒绝第j个优惠,则Pij可以是0。作为另一示例,Pij可以等于第i个用户接受第j个优惠的预计概率。准备矩阵550的目的可以包括当解决图1(118)、图2(238)和图3(340)所示的优化问题时节省重复计算。
图6示出了根据各种实施例的用于个性化优惠的示例优化。如图6所示,具有N*M个预计利润的准备的矩阵560和总成本限制610可以用于构建优化问题620。优化问题620的目标函数可以被表示为等式(2)。求解目标函数可能要求搜索最大化目标函数(例如,总收益)的具有xi,j的矩阵630。在一些实施例中,可以通过机器学习模型所预测的接受待制定的优惠的用户数量来计算总收益。
其中,N是多个用户的数量;
其中,M是多个优惠的数量;
其中,Pij是对于为第i个用户制定第j个优惠的预计收益;
其中,xi,j是决策变量,xij∈{0,1},并且∑jxij=1;
其中,cj是与制定第j个优惠相关联的成本;并且
其中,B是总成本限制。
在一些实施例中,等式(2)中的Pij可以从N*M矩阵560获得。在一些实施例中,可以通过使用训练的机器学习模型430按需(例如,当在求解等式(1)的步骤中需要特定的pi,j时)计算pi,j。按需方案会产生重复计算,导致计算资源浪费。然而,当存储器空间有限时,按需方案会是优选的,因为其不要求存储预先计算的N*M矩阵560。在一些实施例中,N*M矩阵可以是稀疏的(例如,具有许多0)并且可以使用除了二维矩阵的各种数据结构进行存储,例如钥匙词典(DOK)、表中表(LIL)、协调表(COO)或者另一适合的数据结构。
在一些实施例中,等式(2)中的约束B可以包括总成本预算、每一个用户可以接收的优惠的总数量、用于分配给多个用户的优惠的总数量、另一适合的约束或者其任意组合。等式(2)可以被相应地更新以便反映多个约束。
在一些实施例中,可以使用穷尽的方法(尝试xi,j的每一个组合,并且选出产生最大预计收益的组合)来确定使等式(2)中示出的目标函数最大化的解决方案。然而,当用户的数量是大数量时,穷尽的方法会变得不切实际。在一些实施例中,等式(2)所示的目标函数可以使用用于双问题变换的拉格朗日技术被转换为双目标函数。双目标函数可以被表示为等式(3)。
其中,λ是拉格朗日乘子,λ≥0;
其中,xi,j和λ共同满足条件:
λ(∑i∑jxi,cj-B)=0
在一些实施例中,等式(3)中示出的双目标函数可以被规划为整数编程模型(IP),其中,xi,j∈{0,1}并且∑jXij=1。按照这种方式,等式(3)具有作为已知值的pi,j、Cj和B以及作为未知值的Xi,j。在一些实施例中,对最优Xi,j的搜索以最大化可以开始于随机λ以便获得xi,j的初始矩阵。xi,j的初始矩阵的性能可以由测量。取决于xi,j的初始矩阵的性能,可以例如使用双递减算法来相应地调整。例如,如果则可以根据等式(4)增加λ。
其中,a是学习速率。
在一些实施例中,可以计算λ的梯度以确定λ是否汇聚。响应于λ汇聚,可以终止搜索xi,j。响应于λ没有汇聚,可以基于更新的λ计算新的xi,j集。可以重复这一处理直到重复的数量达到预定值、xi,j的矩阵的质量满足预定阈值、λ汇聚或者另一适合的条件得到满足。
由于在任意两个用户的优化之间不存在依赖性,因此,等式(2)表示的优化问题可以通过使用诸如多线程处理、GPU/CPU、映射/降低、另一合适的技术或者其任意组合的并行处理技术得到解决。
在一些实施例中,除了根据对等式(2)表示的优化问题620的解决方案分配优惠之外,平台还可以向一个或多个随机选择的用户制定随机选择的优惠。这一随机化可以服务开发响应曲线新模式的目的以丰富训练数据集。
图7示出了根据各种实施例的用于个性化优惠的方法。方法700可以由用于为用户个性化优惠的设备、装置或者系统执行。方法700可以由图1-9中示出的环境或系统的一个或多个组件执行,例如系统102、210和300。取决于实现,方法700可以包括以各种顺序或者并行执行的附加的、较少的或者替代的步骤。
框710包括收集包括为平台的多个用户中的每个用户制定的一个或多个优惠以及一个或多个相应响应的响应数据,其中一个或多个优惠是从一组优惠选项中选择的。在一些实施例中,多个用户可以包括在线销售方,并且一个或多个特征可以包括下面中的一个或多个:销售方年龄、销售方性别、销售方位置、在平台上的注册时间、交易量和商品信息。在一些实施例中,一组优惠选项可以包括表示不制定优惠的优惠选项。
框720包括创建包括收集的响应数据以及与多个用户中的每个用户相关联的一个或多个特征的训练数据集。在一些实施例中,创建训练数据集可以包括:生成多个数据条目,每一个条目包括相应用户的一个或多个特征以及为相应用户制定的一个或多个优惠中的一个优惠;并且基于一个或多个相应响应标记多个数据条目。
框730包括使用训练数据集训练机器学习模型,其中训练的机器学习模型用来预测多个用户对未来优惠的响应。
框740包括使用训练的机器学习模型获得平台的多个预计收益,其中多个预计收益中的每个预计收益对应于为多个用户中的一个用户制定的一组预定的优惠中的一个优惠。
框750包括在平台的总成本限制下基于多个预计收益从一组优惠选项中确定一个或多个优惠的组合以分配给多个用户,从而最大化总收益。在一些实施例中,从一组优惠选项中确定的一个或多个优惠的组合可以是具有重复的组合;并且确定的组合可以包括N个元素,N是多个用户的数量。在一些实施例中,多个用户的数量可以为N;优惠选项的数量可以为M;并且从一组优惠选项中确定一个或多个优惠的组合以分配给多个用户可以包括:求解优化以便获得N*M矩阵X,X的每一个元素Xij包括指示关于为第i个用户制定第j个优惠的推荐的值,其中 并且∑jXij=1。在一些实施例中,优化可以包括整数编程模型,并且X的每一个元素Xij包括指示是否为第i个用户制定第j个优惠的二进制值。在一些实施例中,可以基于多个用户当中由机器学习模型预测的接受一个或多个优惠的用户的数量来确定总收益。在一些实施例中,一个或多个优惠选项可以分别与一个或多个奖励奖金相关联;并且总成本限制可以包括用于分配给多个用户的奖励奖金的总额的限制。在一些实施例中,可以针对使用与平台相关联的支付系统进行在线交易的在线销售方调整一个或多个奖励奖金。在一些实施例中,总成本限制可以包括用于对分配给多个用户的优惠数量的限制。
在一些实施例中,方法700可以包括从多个用户中随机选择一个或多个用户;并且为随机选择的一个或多个用户制定从一组优惠选项中随机选择的一个或多个优惠。
本文描述的技术可以由一个或多个专用计算设备实现。专用计算设备可以是桌面型计算机系统、服务器计算机系统、便携式计算机系统、手持设备、联网设备或者任何其他设备或者结合硬连线和/或程序逻辑以实现所述技术的设备的组合。专用计算设备可以被实现为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制器、平板计算机、可穿戴设备或者其组合。计算设备可以通常由操作系统软件控制和协调。传统操作系统控制并且调度计算过程用于执行、执行存储器管理、提供文件系统、联网、I/O服务并且提供用户接口功能,例如图形用户接口(“GUI”)等。本文描述的各种系统、装置、存储介质、模块和单元可以被实现在专用计算设备中,或者一个或多个专用计算设备的一个或多个计算芯片中。在一些实施例中,本文描述的指令可以被实现在专用计算设备上的虚拟机中。当被执行时,指令可以使得专用计算设备执行本文描述的各种方法。虚拟机可以包括软件、硬件或者其组合。
图8示出了根据一些实施例的用于个性化优惠的计算机系统装置的框图。下面呈现的计算机系统800的组件意在是说明性的。取决于实现,计算机系统800可以包括附加的、更少的或者替代的组件。
计算机系统800可以是计算系统102的一个或多个组件的实现示例。方法700可以由计算机系统800实现。计算机系统800可以包括一个或多个处理器以及耦合到一个或多个处理器并且配置有能够由一个或多个处理器执行以便使得系统或设备(例如,处理器)执行诸如方法300的上述方法的一个或多个非暂时性计算机可读存储介质。计算机系统800可以包括与指令(例如,软件指令)相对应的各种单元/模块。
在一些实施例中,计算机系统800可以被称为用于个性化优惠的装置。装置可以包括第一获得模块810,用于获得用户数据(例如,用户特征)以便促进为用户个性化优惠。例如,在公司/员工上下文中,用户数据可以包括每一个员工在前一季度或者过去一年中的绩效数据、增长趋势、在职年限、另一合适的信息或者其任意组合。作为另一示例,在电子商务平台/在线销售方上下文中,用户数据可以包括每一个销售方的个人信息(例如,性别、年龄、教育状况、婚姻状况)、平台相关信息(例如,注册时间、成员关系类别),商业信息(例如,仓库位置、交易体积、增长趋势、待售商品)、另一适合的信息或者其任意组合。
在一些实施例中,装置还可以包括第二获得模块820,用于获得为用户制定的历史优惠的信息以及相应响应。历史优惠的信息可以包括优惠的规模、优惠的时间、另一合适的信息或者其任意组合。
在一些实施例中,装置可以进一步包括学习模块830,用于基于由第一获得模块810和第二获得模块820获得的数据来训练机器学习模型。机器学习模型可以使用神经网络(例如卷积神经网络、深度神经网络)、决策树、多个决策树(例如,梯度提升决策树)、另一适合的算法或者其任意组合。在一些实施例中,机器学习模型可以用于预测用户对未来提供的奖励的响应。
在一些实施例中,装置可以包括优化模块840,用于基于优化模型来改善为用户分配优惠的解决方案。优化模型的目标函数可以包括一个或多个变量或者系数。可以基于来自学习模块830的训练的机器学习模型做出的预测来计算这些变量或者系数。
第一获得模块810和第二获得模块820可以共同对应于数据收集组件114。学习模块830可以与机器学习组件116相对应。优化模块840可以与优化问题解决部件118相对应。
图9说明了其中可以实现本文描述的实施例的示例电子设备。电子设备可以用于实现图1-8所示的系统和方法的一个或多个组件。电子设备900可以包括用于通信信息的总线902或者其他通信机制以及与总线902耦合用于处理信息的一个或多个硬件处理器904。硬件处理器904可以例如是一个或多个通用微处理器。
电子设备900还可以包括耦合到总线902用于存储信息和要由处理器904执行的指令的主存储器906,例如随机存取存储器(RAM)、高速缓存和/或其它动态存储设备。主存储器906还可以用于在执行要由处理器904执行的指令期间存储临时变量或者其它中间信息。这样的指令,当被存储在对于处理器904能够访问的存储介质中时,可以使得电子设备900呈现为被定制为执行在指令中指定的操作的专用机器。主存储器906可以包括非易失性介质和/或易失性介质。非易失性介质可以例如包括光盘或磁盘。易失性介质可以包括动态存储器。介质的共同形式可以例如包括软盘、柔性盘、硬盘、固态驱动、磁带或者任何其他磁性数据存储介质、CD-ROM、任何其它光学数据存储介质、具有孔模式的任何物理介质、RAM、DRAM、PROM和EPROM、FLASH-EPROM、NVRAM、任何其它存储器芯片或者盒体、或者上述这些的联网版本。
电子设备900可以使用定制的硬连线逻辑、一个或多个ASIC或FPGA、固件和/或程序逻辑实现本文描述的技术,程序逻辑与电子设备组合可以使得电子设备900成为专用机器或者对电子设备900编程为专用机器。根据一个实施例,对处理器904执行包含在主存储器906中的一个或多个指令的一个或多个序列做出响应,本文的技术由电子设备900执行。这样的指令可以被从诸如存储设备909的另一存储介质读取进主存储器906。执行包含在主存储器906中的指令序列可以使得处理器904执行本文描述的过程步骤。例如,本文公开的过程/方法可以由存储在主存储器906中的计算机程序指令实现。当这些指令由处理器904执行时,它们可以执行在相对应附图中示出的以及在上面描述的步骤。在替代实施例中,可以代替软件指令或者与软件指令组合来使用硬连线电路。
电子设备900还包括耦合到总线902的通信接口910。通信接口910可以提供耦合到连接到一个或多个网络的一个或多个网络链路的两路数据通信。作为另一示例,通信接口910可以是局域网(LAN)卡以提供到兼容的LAN(或者与WAN通信的WAN组件)的数据通信连接。也可以实现无线链路。
某些操作的性能可以分布在多个处理器当中,不仅驻留在单个机器内,而且部署在多个机器之间。在一些示例实施例中,处理器或者处理器实现的引擎可以位于单个地理位置(例如,在家庭环境、办公环境或者服务器场中)。在其它示例实施例中,处理器或者处理器实现的引擎可以分布在多个地理位置上。
前述部分中描述的处理、方法和算法中的每一个可以被体现在由包括计算机硬件的一个或多个计算机系统或者计算机处理器执行的代码模块中并且由该代码模块部分或者全部自动化。处理和算法可以部分或者全部实现在专用电路中。
当本文描述的功能被实现在硬件功能单元的形式中并且被销售或者用作独立产品时,它们能够被存储在处理器可执行的非易失性计算机可读存储介质中。本文公开的特定技术方案(全部或者部分)或者对当前技术做出贡献的方面可以被体现在软件产品中。软件产品可以被存储在存储介质中,包括使得计算机设备(可以是个人计算机、服务器、网络设备等)执行本申请实施例的方法的一些或全部步骤的多个指令。存储介质可以包括闪驱、便携式硬驱、ROM、RAM、磁盘、光盘、用于存储程序代码的另一介质或者其组合。
特定实施例进一步提供一种包括处理器和非暂态计算机可读存储介质的系统,该非暂态计算机可读存储介质存储能够由处理器执行以使得系统执行与上面公开的实施例的任意方法中的步骤相对应的操作。特定实施例进一步提供配置有指令的非暂态计算机可读存储介质,该指令能够由一个或多个处理器执行以使得一个或多个处理器执行与上面公开的实施例的任意方法中的步骤相对应的操作。
本文公开的实施例可以经过与客户端交互的云平台、服务器或者服务器组(以下统称为“服务系统”)实现。客户端可以是终端设备,或者用户在平台处注册的客户端,其中终端设备可以是移动终端、个人计算机(PC)以及可以安装有平台应用程序的任何设备。
上面描述的各种特征和过程可以彼此独立地使用或者可以按照各种方式进行组合。所有可能的组合和子组合意在落入本公开的范围内。此外,在一些实现中可以省去某些方法或者处理框。本文描述的方法和处理也不局限于任何特定的顺序,并且与其有关的框或状态能够按照合适的其它顺序执行。例如,所描述的框或状态可以按照与专门公开的顺序不同的顺序执行,或者多个框或状态可以被组合在单个框或状态中。示例框或状态可以被顺序、并行或者按照一些其它方式执行。可以向公开的示例实施例添加框或状态或者可以从公开的示例实施例移除框或状态。本文描述的示例性系统和组件可以与所描述不同地进行配置。例如,与所公开的示例实施例相比较,可以添加、移除或者重新布置元素。
可以至少部分地由算法来执行本文描述的示例性方法的各种操作。算法可以被包括在存储在存储器(例如,上面描述的非暂时性计算机可读存储介质)程序代码或者指令中。这样的算法可以包括机器学习算法。在一些实施例中,机器学习算法可能不会简要地对计算机编程以执行功能但是能够从训练数据学习以做出执行该功能的预测模型。
本文描述的示例性方法的各种操作可以至少部分地由临时配置为(例如,由软件)或者永久配置为执行相关操作的一个或多个处理器执行。无论是临时配置还是永久配置,这样的处理器可以构成操作为执行本文描述的一个或多个操作或功能的处理器实现的引擎。
类似地,本文描述的方法可以至少部分地是处理器实现的,特定的一个或多个处理器是硬件的示例。例如,可以由一个或多个处理器或者处理器实现的引擎执行方法的至少一些操作。而且,一个或多个处理器也可以操作为在“云计算”环境中或者作为“软件即服务(SaaS)”支持相关操作的性能。例如,至少一些操作可以由一组计算机执行(作为包括处理器的机器的示例),这些操作能够经由网络(例如,互联网)并且经由一个或多个合适的接口(例如,应用程序接口(API))可访问。
某些操作的性能可以分布在多个处理器当中,不仅驻留在单个机器内,而且还部署在多个机器上。在一些示例实施例中,处理器或者处理器实现的引擎可以位于单个地理位置(例如,在家庭环境、办公环境或者服务器场中)。在其它示例实施例中,处理器或者处理器实现的引擎可以分布在多个地理位置当中。
贯穿本说明书,多个实现可以将所描述的组件、操作或者结构描述为单个实例。尽管一个或多个方法的单独操作被说明和描述为单独操作,但是可以同时执行单独操作中的一个或多个,并且不需要按照所说明的顺序执行操作。在示例配置中呈现为单独部件的结构和功能可以被实现为组合的结构或组件。类似地,被呈现为单个组件的结构和功能可以被实现为分离的组件。这些和其它变型、修改、添加和改善落入本文主题的范围内。
尽管参照特定的示例实施例描述了主题的概述,但是可以在不偏离本公开实施例的更宽范围的情况下对这些实施例做出各种修改和变化。主题的这样的实施例可以在本文被单独或者一起称为“发明”,这只是出于方便的目的并且并不意在将本申请的范围自愿地限制到任何单个公开或者改变(如果实际上公开了多于一个)。
对本文示出的实施例进行了足够详细的描述以使得本领域普通技术人员能够实践所公开的技术。可以根据其使用并推导其它实施例,使得可以在不偏离本公开的范围的情况下做出结构和逻辑替代和改变。因此,详细描述不是以限制的含义进行,并且各种实施例的范围仅由所附权利要求书连同这样的权利要求书所属于的等同物的全部范围限定。
本文描述的和/或附图中阐释的流程图中的任何过程描述、元素或者方框应被理解为潜在地表示包括用于实现过程中的特定逻辑功能或步骤的一个或多个可执行指令的程序的模块、段或者部分。本领域普通技术人员将理解,替代实现包括在本文描述的实施例的范围内,其中可以从所示出和讨论的内容中删除要素或功能或者按照不同的顺序执行要素或功能,取决于所涉及的功能,包括基本上同时或者按照相反的顺序。
如本文使用的,“或”是包含性的而非排他性的,除非以其它方式明确表明或者由上下文以其他方式表明。因此,这里,“A、B或C”表示“A,B,A和B,A和C,B和C或者A、B和C”,除非以其他方式明确表明或者由上下文以其他方式表明。而且,“和”表示联合并且表示几个,除非以其他方式明确表明或者由上下文以其他方式表明。因此,这里,“A和B”表示“A和B,联合或者几个”,除非以其他方式明确表明或者由上下文以其他方式表明。而且,多个实例可以被提供用于本文描述为单个实例的资源、操作或者结构。此外,各种资源、操作、引擎和数据存储之间的边界是有些任意性的,并且在特定说明性配置的上下文中说明特定操作。其它功能分配被设想并且可以落入本公开各种实施例的范围内。通常,在示例配置中被呈现为单独资源的结构和功能可以被实现为组合的结构或资源。类似地,被呈现为单个资源的结构和功能可以被实现为单独的资源。这些和其它变型、修改、添加和改善落入由所附权利要求书表示的本公开的实施例的范围内。因此,说明书和附图被认为是说明性的而非限制性的。
术语“包括”或者“包含”用于表明随后声明的特征的存在,但是不排除添加其它特征。除非以其它方式表明或者以其它方式被理解为在所使用的上下文内,诸如“能够”、“可以”、“可能”或者“会”的条件语言通常意在传递某些实施例包含而其它实施例不包含某些特征、元素和/或步骤。因而,这样的条件语言通常并不意在暗含特征、元素和/或步骤以任何方式被要求用于一个或多个实施例或者一个或多个实施例一定包含用于使用或者不使用用户输入或提示的情况下决定这些特征、元素和/或步骤在任何特定实施例中被包括或者要被执行的逻辑。
Claims (20)
1.一种计算机实现的用于个性化优惠的方法,包括:
收集包括为平台的多个用户中的每个用户制定的一个或多个优惠以及一个或多个相应响应的响应数据,其中,所述一个或多个优惠是从一组优惠选项中选择的;
创建包括收集的响应数据以及与所述多个用户中的每个用户相关联的一个或多个特征的训练数据集;
使用所述训练数据集训练机器学习模型,其中,训练的机器学习模型用来预测所述多个用户对未来优惠的响应;
使用所述训练的机器学习模型获得所述平台的多个预计收益,其中,所述多个预计收益中的每个预计收益对应于为所述多个用户中的一个用户制定一组预定优惠中的一个优惠;以及
在所述平台的总成本限制下,基于所述多个预计收益从所述一组优惠选项中确定一个或多个优惠的组合来分配给所述多个用户,以最大化总收益。
2.根据权利要求1所述的方法,其中:
所述多个用户包括在线销售方;并且
所述一个或多个特征包括下面中的一个或多个:销售方年龄、销售方性别、销售方位置、在所述平台上的注册时间、交易量以及商品信息。
3.根据前述权利要求中的任意一项所述的方法,其中,创建训练数据集包括:
生成多个数据条目,每一个数据条目包括相应用户的一个或多个特征以及为所述相应用户制定的一个或多个优惠中的一个优惠;以及
基于所述一个或多个相应响应,标记所述多个数据条目。
4.根据前述权利要求中的任意一项所述的方法,其中,所述一组优惠选项包括:表示不制定优惠的优惠选项。
5.根据前述权利要求中的任意一项所述的方法,其中:
从所述一组优惠选项中确定的一个或多个优惠的组合是具有重复的组合;并且
确定的组合包括N个元素,N是所述多个用户的数量。
6.根据前述权利要求中的任意一项所述的方法,进一步包括:
从所述多个用户中随机选择一个或多个用户;并且
为随机选择的一个或多个用户制定从所述一组优惠选项中随机选择的一个或多个优惠。
8.根据权利要求7所述的方法,其中:
所述优化包括整数编程模型;并且
X的每一个元素Xij包括指示是否为所述第i个用户制定所述第j个优惠的二进制值。
9.根据前述权利要求中的任意一项所述的方法,其中:
所述总收益是基于所述多个用户当中由所述机器学习模型预测的接受所述一个或多个优惠的用户的数量来确定的。
10.根据前述权利要求中的任意一项所述的方法,其中:
所述优惠选项中的一个或多个分别与一个或多个奖励奖金相关联;并且
所述总成本限制包括用于分配给所述多个用户的所述奖励奖金的总额的限制。
11.根据权利要求10所述的方法,其中:
所述一个或多个奖励奖金针对使用与所述平台相关联的支付系统进行在线交易的在线销售方而被调整。
12.根据前述权利要求中的任意一项所述的方法,其中:
所述总成本限制包括用于对分配给所述多个用户的优惠数量的限制。
13.一种用于个性化优惠的系统,包括一个或多个处理器以及耦接到所述一个或多个处理器并且配置有能够由所述一个或多个处理器执行以促使所述系统执行包括下面的操作的一个或多个非暂时性计算机可读存储器:
收集包括为平台的多个用户中的每个用户制定的一个或多个优惠以及一个或多个相应响应的响应数据,其中,所述一个或多个优惠是从一组优惠选项中选择的;
创建包括收集的响应数据以及与所述多个用户中的每个用户相关联的一个或多个特征的训练数据集;
使用所述训练数据集训练机器学习模型,其中,训练的机器学习模型用来预测所述多个用户对未来优惠的响应;
使用所述训练的机器学习模型获得所述平台的多个预计收益,其中,所述多个预计收益中的每个预计收益对应于为所述多个用户中的一个用户制定一组预定优惠中的一个优惠;以及
在所述平台的总成本限制下,基于所述多个预计收益从所述一组优惠选项中确定一个或多个优惠的组合来分配给所述多个用户,以最大化总收益。
14.根据权利要求13所述的系统,其中:
所述多个用户包括在线销售方;并且
所述一个或多个特征包括下面中的一个或多个:销售方年龄、销售方性别、销售方位置、在所述平台上的注册时间、交易量以及商品信息。
15.根据权利要求13至14中的任意一项所述的系统,其中,创建训练数据集包括:
生成多个数据条目,每一个数据条目包括相应用户的一个或多个特征以及为所述相应用户制定的一个或多个优惠中的一个优惠;以及
基于所述一个或多个相应响应,标记所述多个数据条目。
16.根据权利要求13至15中的任意一项所述的系统,其中:
从所述一组优惠选项中确定的一个或多个优惠的组合是具有重复的组合;并且
确定的组合包括N个元素,N是所述多个用户的数量。
18.一种非暂时性计算机可读存储介质,配置有能够由一个或多个处理器执行的指令以使得所述一个或多个处理器执行包括下面的操作:
收集包括为平台的多个用户中的每个用户制定的一个或多个优惠以及一个或多个相应响应的响应数据,其中,所述一个或多个优惠是从一组优惠选项中选择的;
创建包括收集的响应数据以及与所述多个用户中的每个用户相关联的一个或多个特征的训练数据集;
使用所述训练数据集训练机器学习模型,其中,训练的机器学习模型用来预测所述多个用户对未来优惠的响应;
使用所述训练的机器学习模型获得所述平台的多个预计收益,其中,所述多个预计收益中的每个预计收益对应于为所述多个用户中的一个用户制定一组预定优惠中的一个优惠;以及
在所述平台的总成本限制下,基于所述多个预计收益从所述一组优惠选项中确定一个或多个优惠的组合来分配给所述多个用户,以最大化总收益。
19.根据权利要求18所述的存储介质,其中:
从所述一组优惠选项中确定的一个或多个优惠的组合是具有重复的组合;并且
确定的组合包括N个元素,N是所述多个用户的数量。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2020/071821 WO2020098829A2 (en) | 2020-01-13 | 2020-01-13 | Method and system for personalizing offers |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111417975A true CN111417975A (zh) | 2020-07-14 |
Family
ID=70733028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080000701.9A Pending CN111417975A (zh) | 2020-01-13 | 2020-01-13 | 用于个性化优惠的方法和系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11107109B2 (zh) |
CN (1) | CN111417975A (zh) |
SG (1) | SG11202013186RA (zh) |
WO (1) | WO2020098829A2 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113424207A (zh) * | 2020-10-13 | 2021-09-21 | 支付宝(杭州)信息技术有限公司 | 高效地训练可理解模型的系统和方法 |
CN114430489A (zh) * | 2020-10-29 | 2022-05-03 | 武汉斗鱼网络科技有限公司 | 一种虚拟道具的补偿方法以及相关设备 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9888087B2 (en) | 2014-03-31 | 2018-02-06 | Uber Technologies, Inc. | Adjusting attributes for an on-demand service system based on real-time information |
CN113159809B (zh) * | 2020-01-22 | 2022-06-14 | 阿里巴巴集团控股有限公司 | 对象处理方法、装置、电子设备及计算机可读存储介质 |
US11295347B1 (en) * | 2021-01-30 | 2022-04-05 | Walmart Apollo, Llc | Systems and methods for forecasting campaign parameters using machine learning architectures and techniques |
US20230177561A1 (en) * | 2021-12-03 | 2023-06-08 | Jpmorgan Chase Bank, N.A. | Systems and methods for providing offer interface platforms |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070088610A1 (en) | 2002-02-06 | 2007-04-19 | Chen Timothy T | System and method for electronic reservation of real-time redemption of advertiser's loyalty points for rewards and discount coupons and gift card certificates |
US7707059B2 (en) * | 2002-11-22 | 2010-04-27 | Accenture Global Services Gmbh | Adaptive marketing using insight driven customer interaction |
WO2008054681A2 (en) * | 2006-10-31 | 2008-05-08 | Konami Gaming, Inc. | Method for establishing an advanced incentive jackpot pool as a function of a historical composite value |
US20100318407A1 (en) | 2009-06-15 | 2010-12-16 | Adam Leff | Personalized Coupon System |
AU2012211955A1 (en) | 2011-02-04 | 2013-09-12 | Bidgely Inc. | Systems and methods for improving the accuracy of appliance level disaggregation in non-intrusive appliance load monitoring techniques |
US8566167B2 (en) | 2011-07-27 | 2013-10-22 | Sears Brands, L.L.C. | System and method for using data points collected from a customer to provide customer specific offerings |
US20130138491A1 (en) | 2011-07-31 | 2013-05-30 | Zeming M. Gao | Quickly verifiable personalized incentives and auto fulfillment |
WO2013033266A1 (en) | 2011-08-30 | 2013-03-07 | Paedae | Method and apparatus for personalized marketing |
US20140067554A1 (en) | 2012-08-31 | 2014-03-06 | GForce Ink, LLC | Personalized incentive promotional product system |
US10410243B2 (en) * | 2012-12-22 | 2019-09-10 | Quotient Technology Inc. | Automatic recommendation of digital offers to an offer provider based on historical transaction data |
US9524505B2 (en) | 2013-04-01 | 2016-12-20 | International Business Machines Corporation | End-to-end effective citizen engagement via advanced analytics and sensor-based personal assistant capability (EECEASPA) |
US20150066609A1 (en) | 2013-08-28 | 2015-03-05 | Green Edge Technologies, Inc. | Personalized incentive systems, devices, and methods |
US20150104770A1 (en) | 2013-10-11 | 2015-04-16 | Health Dialog Services Corporation | Systems and methods for personalized incentive-based health support |
US9805384B2 (en) | 2014-02-05 | 2017-10-31 | Mastercard International Incorporated | Method and system for payment card linked offer generation |
US9357266B2 (en) | 2014-10-29 | 2016-05-31 | Echostar Technologies L.L.C. | Apparatus, systems and methods for media content event recommendation banner |
US20160300184A1 (en) * | 2015-04-07 | 2016-10-13 | Ebay Inc. | Communication device interfaces providing courier service information |
US20160364754A1 (en) | 2015-06-11 | 2016-12-15 | International Business Machines Corporation | Personalized marketing by deriving the sentiments from telephonic and textual conversation over a mobile device |
IN2015CH03315A (zh) | 2015-06-29 | 2015-07-10 | Wipro Ltd | |
US20170300939A1 (en) * | 2016-04-19 | 2017-10-19 | Anto Chittilappilly | Optimizing promotional offer mixes using predictive modeling |
CN106846041A (zh) * | 2016-12-26 | 2017-06-13 | 携程计算机技术(上海)有限公司 | 优惠券的发放方法及系统 |
US20180308133A1 (en) | 2017-04-19 | 2018-10-25 | Facebook, Inc. | Generating Personalized Messages According To Campaign Data |
CN107590684A (zh) * | 2017-08-21 | 2018-01-16 | 时趣互动(北京)科技有限公司 | 一种基于用户购买数据实时下发优惠券的方法及装置 |
CN107818478A (zh) * | 2017-10-31 | 2018-03-20 | 携程计算机技术(上海)有限公司 | 基于预估收益的海外优惠券发放方法及系统 |
CN110298707A (zh) * | 2019-07-04 | 2019-10-01 | 中国联合网络通信集团有限公司 | 一种用于资费套餐场景定价的方法及装置 |
-
2020
- 2020-01-13 SG SG11202013186RA patent/SG11202013186RA/en unknown
- 2020-01-13 WO PCT/CN2020/071821 patent/WO2020098829A2/en active Application Filing
- 2020-01-13 CN CN202080000701.9A patent/CN111417975A/zh active Pending
- 2020-12-29 US US17/136,064 patent/US11107109B2/en active Active
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113424207A (zh) * | 2020-10-13 | 2021-09-21 | 支付宝(杭州)信息技术有限公司 | 高效地训练可理解模型的系统和方法 |
CN113424207B (zh) * | 2020-10-13 | 2022-05-17 | 支付宝(杭州)信息技术有限公司 | 高效地训练可理解模型的系统和方法 |
CN114430489A (zh) * | 2020-10-29 | 2022-05-03 | 武汉斗鱼网络科技有限公司 | 一种虚拟道具的补偿方法以及相关设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2020098829A3 (en) | 2020-11-12 |
US20210118004A1 (en) | 2021-04-22 |
US11107109B2 (en) | 2021-08-31 |
SG11202013186RA (en) | 2021-01-28 |
WO2020098829A2 (en) | 2020-05-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Can consumer-posted photos serve as a leading indicator of restaurant survival? Evidence from Yelp | |
Ahani et al. | Market segmentation and travel choice prediction in Spa hotels through TripAdvisor’s online reviews | |
CN111417975A (zh) | 用于个性化优惠的方法和系统 | |
Dursun et al. | Using data mining techniques for profiling profitable hotel customers: An application of RFM analysis | |
Bose et al. | Quantitative models for direct marketing: A review from systems perspective | |
US20220180392A1 (en) | Predictive recommendation system using tiered feature data | |
US20150149379A1 (en) | Student Evaluation Enrollment System | |
US10592918B2 (en) | Predictive recommendation system using tiered feature data | |
US20220207589A1 (en) | Methods and systems for providing a vehicle recommendation | |
García-Magariño et al. | Estimation of missing prices in real-estate market agent-based simulations with machine learning and dimensionality reduction methods | |
Azath et al. | Software effort estimation using modified fuzzy C means clustering and hybrid ABC-MCS optimization in neural network | |
CN113781139A (zh) | 物品推荐方法、物品推荐装置、设备和介质 | |
Deng et al. | Recommender system for marketing optimization | |
Hung et al. | Addressing the cold-start problem of recommendation systems for financial products by using few-shot deep learning | |
Hason Rudd et al. | Improved churn causal analysis through restrained high-dimensional feature space effects in financial institutions | |
Takkar et al. | Impact of e-commerce on India's exports and investment | |
Kansal et al. | A Comparative Study of Machine Learning Models for House Price Prediction and Analysis in Smart Cities | |
Chashmi et al. | Predicting customer turnover using recursive neural networks | |
Ansari et al. | Using decision trees to analyse the customers' shopping location preferences | |
US10860593B1 (en) | Methods and systems for ranking leads based on given characteristics | |
Moula et al. | Customer type discovery in hotel revenue management: a data mining approach | |
US11838170B1 (en) | Messaging segmentation based on data flow informatics | |
Verma et al. | A Smart Movie Recommendation System Using Machine Learning Predictive Analysis | |
US20210256509A1 (en) | Planning currency exchange transactions based on international travel budgeting information | |
US20240202723A1 (en) | Restricted resource access of stored resources |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40034151 Country of ref document: HK |
|
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200714 |
|
RJ01 | Rejection of invention patent application after publication |