CN110766510A - 推荐方法、装置、电子设备及可读存储介质 - Google Patents
推荐方法、装置、电子设备及可读存储介质 Download PDFInfo
- Publication number
- CN110766510A CN110766510A CN201910883639.1A CN201910883639A CN110766510A CN 110766510 A CN110766510 A CN 110766510A CN 201910883639 A CN201910883639 A CN 201910883639A CN 110766510 A CN110766510 A CN 110766510A
- Authority
- CN
- China
- Prior art keywords
- merchant
- target
- user
- target user
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000009471 action Effects 0.000 claims description 44
- 230000006399 behavior Effects 0.000 claims description 34
- 230000002787 reinforcement Effects 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 6
- 230000001960 triggered effect Effects 0.000 claims description 4
- 230000003542 behavioural effect Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 11
- 230000002829 reductive effect Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 5
- 235000021185 dessert Nutrition 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 235000013399 edible fruits Nutrition 0.000 description 4
- 230000003247 decreasing effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000002441 reversible effect Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 235000009508 confectionery Nutrition 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
- G06Q10/083—Shipping
Landscapes
- Business, Economics & Management (AREA)
- Economics (AREA)
- Engineering & Computer Science (AREA)
- General Business, Economics & Management (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Marketing (AREA)
- Accounting & Taxation (AREA)
- Theoretical Computer Science (AREA)
- Strategic Management (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- Tourism & Hospitality (AREA)
- Quality & Reliability (AREA)
- Operations Research (AREA)
- Human Resources & Organizations (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本公开的实施例提供了一种推荐方法、装置、电子设备及可读存储介质,所述方法包括:获取即时订单对应的第一配送信息,所述第一配送信息包括:第一目标商家、目标用户、以及所述第一目标商家的第一位置到所述目标用户的第二位置之间的第一配送路径;确定位于所述第一配送路径预设范围内的候选商家;根据所述目标用户针对所述候选商家的二次下单概率,从所述候选商家中确定第二目标商家;向所述目标用户推荐所述第二目标商家。本公开实施例可以提高信息推荐的准确性和及时性。
Description
技术领域
本公开的实施例涉及网络技术领域,尤其涉及一种推荐方法、装置、电子设备及可读存储介质。
背景技术
随着信息化的迅速发展,互联网提供给用户的信息呈爆炸式增长,用户的需求也日益增加,如何使用户在海量的信息中及时准确的获取所需要的信息,成为急需解决的问题。
目前,电商推荐系统通常根据用户的历史行为和喜好,预估用户对商品点击的概率或下单的概率,再按概率对商品进行排序并展示。
然而,对于正在兴起的外卖行业,在用户点餐过程中,推荐系统通常向用户推荐商家信息,或者推荐商家的菜品信息,用户通过在选定的商家中下单多个菜品来完成一个订单。然而,有时候用户下单之后可能发现会有遗漏,比如又想再吃个甜品或者还想再加点水果等,在这种情况下,用户需要重新查找提供甜品或者水果的商家,进行二次下单,不仅浪费用户的时间资源而且需要额外支付配送费。
发明内容
本公开的实施例提供一种推荐方法、装置、电子设备及可读存储介质,可以提高信息推荐的准确性和及时性。
根据本公开的实施例的第一方面,提供了一种推荐方法,所述方法包括:
获取即时订单对应的第一配送信息,所述第一配送信息包括:第一目标商家、目标用户、以及所述第一目标商家的第一位置到所述目标用户的第二位置之间的第一配送路径;
确定位于所述第一配送路径预设范围内的候选商家;
根据所述目标用户针对所述候选商家的二次下单概率,从所述候选商家中确定第二目标商家;
向所述目标用户推荐所述第二目标商家。
根据本公开的实施例的第二方面,提供了一种推荐装置,所述装置包括:
信息获取模块,用于获取即时订单对应的第一配送信息,所述第一配送信息包括:第一目标商家、目标用户、以及所述第一目标商家的第一位置到所述目标用户的第二位置之间的第一配送路径;
候选确定模块,用于确定位于所述第一配送路径预设范围内的候选商家;
目标确定模块,用于根据所述目标用户针对所述候选商家的二次下单概率,从所述候选商家中确定第二目标商家;
信息推荐模块,用于向所述目标用户推荐所述第二目标商家。
根据本公开的实施例的第三方面,提供了一种电子设备,包括:
处理器、存储器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现前述推荐方法。
根据本公开的实施例的第四方面,提供了一种可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行前述推荐方法。
本公开的实施例提供了一种推荐方法、装置、电子设备及可读存储介质,所述方法包括:
获取即时订单对应的第一配送信息,所述第一配送信息包括:第一目标商家、目标用户、以及所述第一目标商家的第一位置到所述目标用户的第二位置之间的第一配送路径;
确定位于所述第一配送路径预设范围内的候选商家;
根据所述目标用户针对所述候选商家的二次下单概率,从所述候选商家中确定第二目标商家;
向所述目标用户推荐所述第二目标商家。
由此,在目标用户生成即时订单之后,本公开实施例即可根据该即时订单的第一配送路径,向目标用户推荐其可能二次下单的第二目标商家,可以避免用户再次查找商家的操作,减少用户的操作成本,提高用户二次下单的效率,进而可以提高信息推荐的准确性和及时性。
此外,由于所述第二目标商家位于所述第一配送路径预设范围内,因此第二目标商家为配送员在配送所述即时订单的过程中可能会经过的商家,如果目标用户针对第二目标商家进行二次下单,配送员可以顺路到第二目标商家获取二次下单的商品,不仅可以节省配送时间,而且可以节省配送费用。
附图说明
为了更清楚地说明本公开的实施例的技术方案,下面将对本公开的实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的实施例的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1示出了本公开的一个实施例中的推荐方法的步骤流程图;
图2示出了在本公开的一个实施例中的推荐装置的结构图;
图3示出了本公开的一个实施例提供的电子设备的结构图。
具体实施方式
下面将结合本公开的实施例中的附图,对本公开的实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开的实施例一部分实施例,而不是全部的实施例。基于本公开的实施例中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开的实施例保护的范围。
实施例一
参照图1,其示出了本公开的一个实施例中的推荐方法的步骤流程图,包括:
步骤101、获取即时订单对应的第一配送信息,所述第一配送信息包括:第一目标商家、目标用户、以及所述第一目标商家的第一位置到所述目标用户的第二位置之间的第一配送路径;
步骤102、确定位于所述第一配送路径预设范围内的候选商家;
步骤103、根据所述目标用户针对所述候选商家的二次下单概率,从所述候选商家中确定第二目标商家;
步骤105、向所述目标用户推荐所述第二目标商家。
本公开的推荐方法可应用于电子设备,所述电子设备具体包括但不限于:智能手机、平板电脑、电子书阅读器、MP3(动态影像专家压缩标准音频层面3,Moving PictureExperts Group Audio Layer III)播放器、MP4(动态影像专家压缩标准音频层面4,MovingPicture Experts Group Audio Layer IV)播放器、膝上型便携计算机、车载电脑、台式计算机、机顶盒、智能电视机、可穿戴设备等等。
本公开实施例适用于通过指定应用平台下订单的即时配送、购物等同城配送场景。在本公开实施例中,所述即时订单指用户下单之后需要立即进行配送的订单。在实际应用中,外卖订单是最常见的即时订单。当然,本公开实施例对所述即时订单的来源不加以限制。所述目标用户为生成所述即时订单的用户,所述第一目标商家为向所述目标用户提供所述即时订单的商家。
在本公开实施例中,每个商家可以提供多个商品,所述商品可以是商家销售的货品,如餐厅的菜品,或者甜品店的甜品,或者超市的物品等等。所述即时订单可以包括第一目标商家提供的至少一个商品。
在检测到目标用户在第一目标商家生成即时订单之后,可以通过商家平台或者第三方配送平台,按照所述即时订单对应的第一配送信息,向所述目标用户配送所述即时订单。具体地,可以获取即时订单对应的第一配送信息,所述第一配送信息具体可以包括:第一目标商家、目标用户、以及所述第一目标商家的第一位置到所述目标用户的第二位置之间的第一配送路径。配送员可以按照所述第一配送路径,将所述即时订单包含的商品配送至所述目标用户的第二位置。所述第二位置可以为通过GPS(Global Positioning System,全球定位系统)获取的所述目标用户的当前位置,或者还可以为所述目标用户指定的其它配送位置。
在用户生成即时订单之后,可能会发现有遗漏,比如又想再吃个甜品或者还想再加点水果等,用户需要重新查找可以提供甜品或者水果的商家,进行二次下单,不仅浪费用户的时间资源而且需要额外支付配送费。为解决该问题,本公开实施例在获取目标用户的即时订单对应的第一配送信息之后,确定位于所述第一配送路径预设范围内的候选商家,也即所述候选商家为配送员在配送所述即时订单的过程中可能经过的商家,第一配送路径预设范围内的候选商家可以包括多个,因此,可以得到候选商家集合。这样,根据目标用户针对所述候选商家的二次下单概率,从所述候选商家中确定的第二目标商家,不仅可以满足目标用户二次下单的需求,而且配送员可以顺路到第二目标商家获取二次下单的商品,因此可以节省配送时间,并且可以节省配送费用。
在本公开的一种可选实施例中,所述根据所述目标用户针对所述候选商家的二次下单概率,从所述候选商家中确定第二目标商家的步骤之前,所述方法还可以包括:
步骤S11、获取所述即时订单对应的已下单时长;
步骤S12、根据所述已下单时长,确定所述目标用户针对所述候选商家的二次下单概率。
在确定候选商家之后,需要确定目标用户针对每个候选商家的二次下单概率,进而可以将二次下单概率较高的候选商家作为第二目标商家。本公开实施例可以根据所述即时订单对应的已下单时长,确定所述目标用户针对所述候选商家的二次下单概率。
在实际应用中,目标用户生成即时订单之后,随着时间的流逝,配送员距离目标用户的位置越来越近,可以经过的候选商家也逐渐减少,用户二次下单的概率也随着已下单时长的增加逐渐降低,因此,可以根据所述即时订单对应的已下单时长,确定所述目标用户针对所述候选商家的二次下单概率。例如,在即时订单生成时,可以设置较高的二次下单概率,随着即时订单对应的已下单时长的增加,逐渐降低该二次下单概率。
在本公开的一种可选实施例中,所述根据所述目标用户针对所述候选商家的二次下单概率,从所述候选商家中确定第二目标商家的步骤之前,所述方法还可以包括:
将所述候选商家输入预测模型,通过所述预测模型输出所述目标用户针对所述候选商家的二次下单概率;所述预测模型为根据用户针对商家的历史行为特征训练得到的深度强化学习模型。
在本公开实施例中,还可以通过预先训练的预测模型确定目标用户针对所述候选商家的二次下单概率。
具体地,在确定候选商家集合之后,本公开实施例可以将所述候选商家集合输入预测模型,通过所述预测模型输出所述目标用户对所述候选商家集合中各候选商家的二次下单概率,进而可以根据所述预测模型的输出结果,从所述候选商家集合中确定第二目标商家,例如,可以将所述候选商家集合中二次下单概率排名前n(n为正整数)的候选商家作为第二目标商家,并且向所述即时订单对应的目标用户推荐所述第二目标商家。
由此,在目标用户生成即时订单之后,本公开实施例即可根据该即时订单的第一配送路径,向目标用户推荐其可能二次下单的第二目标商家,可以避免用户再次查找商家的操作,减少用户的操作成本,提高用户二次下单的效率,节省用户的时间资源。
此外,所述预测模型可以为根据用户针对商家的历史行为特征,如用户针对商家的历史下单行为特征训练得到的强化学习模型。因此,所述预测模型可以反应用户的下单习惯以及喜好,进而确定的第二目标商家可以符合目标用户的下单习惯以及喜好,可以提高用户二次下单的命中率。
在本公开的一种可选实施例中,步骤102确定位于所述第一配送路径预设范围内的候选商家,具体可以包括:
步骤S21、获取所述即时订单对应的配送员位置;
步骤S22、确定位于所述第一配送路径且与所述配送员位置的距离小于预设距离的第一商家;
步骤S22、根据第二配送信息,确定满足配送条件的第二商家;其中,所述第二配送信息包括:所述第二商家的第三位置到所述目标用户的第二位置之间的第二配送路径、配送时长、以及配送距离;
步骤S23、从所述第二商家中确定候选商家。
目标用户在第一目标商家生成即时订单之后,第一目标商家通知配送员接单,当配送员接单之后,该即时订单生效,配送员将该即时订单配送至目标用户的第二位置。
由于配送员在配送所述即时订单的过程中,需要经过第一配送路径,因此,本公开实施例首先获取所述即时订单对应的配送员位置,并且确定位于所述第一配送路径且与所述配送员位置的距离小于预设距离的第一商家。所述预设距离可以根据实际应用场景设定,例如所述预设距离可以为3公里。也即,可以将位于所述第一配送路径且与配送员位置的距离小于3公里的商家作为第一商家。第一商家为配送员在配送即时订单的路程中可以顺路经过且距离配送员位置较近的商家,可以节省配送员获取二次下单的订单商品的时间。
然后,根据所述第一商家到所述目标用户的第二配送信息,确定满足配送条件的第二商家,根据所述第二商家,确定候选商家集合。第二商家为第一商家中满足配送条件的商家,也即,第二商家的第三位置到所述目标用户的第二位置之间的第二配送路径、配送时长、以及配送距离等均满足配送条件。所述配送条件可以为商家平台或者配送平台预先设置得到。
在本公开的一种可选实施例中,步骤S23从所述第二商家中确定候选商家之后,所述方法还可以包括:根据所述配送员位置的变化,更新候选商家集合;所述将所述候选商家集合输入预测模型,具体可以包括:将更新后的候选商家集合输入所述预测模型。
在具体应用中,由于配送员的位置在不断变化,因此,在配送员从第一目标商家出发的时刻,获取的候选商家集合中的候选商家与配送员当前位置较近,随着配送员位置的改变,已确定的候选商家集合中的商家可能距离配送员越来越远,如果用户在这些候选商家中二次下单,配送员无法顺利配送,可能需要另外安排配送员,导致配送成本增加。为解决该问题,本公开实施例在根据所述第二商家,确定候选商家集合之后,根据所述配送员位置的变化,更新所述候选商家集合,将更新后的候选商家集合输入所述预测模型进行预测,使得最终确定的第二目标商家可以符合配送员的实时位置,配送员可以顺路获取第二目标商家的二次下单商品,进而可以减少配送成本以及配送时间。
在本公开的一种可选实施例中,所述从所述候选商家中确定第二目标商家的步骤之后,所述方法还可以包括:根据所述第二配送路径、和/或所述配送员位置与所述第三位置之间的距离、和/或所述第三位置与所述第二位置之间的距离,调整所述第二配送路径对应的配送费用。
在根据所述预测模型的输出结果,从所述候选商家集合中确定第二目标商家之后,可以进一步增加配送业务逻辑的调整策略,以提高用户二次下单的概率。
在本公开的一种应用示例中,如果所述第二配送路径与所述第一配送路径重合,且所述配送员位置与所述第二目标商家的第三位置之间的距离越近,以及所述第二目标商家的第三位置与所述目标用户的第二位置之间的距离越近,则调整所述第二配送路径对应的配送费用越低,以使用户在二次下单的情况下,可以支付较低的配送费并且等待较短的时间,进而可以提高用户的二次下单概率。
在本公开的实施例中,所述预测模型可以为根据用户针对商家的历史行为特征训练得到的强化学习模型,所述预测模型可以预测用户针对商家的下单概率。
一般地,深度强化学习系统可以包括智能体和执行环境,智能体通过与执行环境的交互和反馈,不断进行学习,优化其策略。具体而言,智能体观察并获得执行环境的状态(state),根据一定的策略,针对当前执行环境的状态确定要采取的行为或动作(action)。这样的行为作用于执行环境,会改变执行环境的状态,同时产生一个反馈给智能体,该反馈又称为奖赏或奖励分数(reward)。智能体根据获得的奖励分数来判断,之前的行为是否正确,策略是否需要调整,进而更新其策略。通过反复不断地观察状态、确定行为、收到反馈,使得智能体可以不断更新策略,最终目标是能够学习到一个策略,使得获得的奖励分数累积最大化。在学习和调整策略过程中,如果智能体采取的是包括神经网络在内的一些深度学习的算法,那么这样的系统则称为深度强化学习系统。
所述深度强化学习系统可以融合多种神经网络。所述神经网络包括但不限于以下至少一种的组合、叠加、嵌套:CNN(Convolutional Neural Network,卷积神经网络)、LSTM(Long Short-Term Memory,长短时记忆)网络、RNN(Simple Recurrent Neural Network,循环神经网络)、注意力神经网络等。
更具体而言,智能体学习和训练的过程包括策略评估和策略改进。策略评估中常采用状态值函数(state value function)V或状态-动作值函数(state-action valuefuction)Q,来表示期望的累积奖励。状态-动作值函数又称为Q函数,例如,Q(S,A)表示从状态S出发,执行动作A后再使用策略带来的累积奖励分数。
例如,根据Q-learning方法,通过下面的式子来迭代计算Q函数:
Q(S,A)←(1-α)*Q(S,A)+α*[R+γ*maxQ(S′,a)] (1)
其中,α为学习速率,γ为折扣因子。在训练深度强化学习模型的情况下,样本一般包括<S,A,R,S’>的序列,其中S表示环境的状态,A表示在S状态下执行的动作,R表示执行动作A后获得的奖励分数,S’表示在执行动作A后环境迁移到的新状态。为了表述的简单清楚,下面将S称为第一状态,A称为第一动作,S’称为第二状态,于是离线训练所述深度强化学习模型的历史样本可以为包括第一状态、第一动作、奖励分数和第二状态构成的序列,第二状态是在环境处于第一状态的情况下,施加所述第一动作后,所述环境迁移到的状态。
具体地,本公开实施例可以根据用户针对商家的历史行为特征,获取用于训练深度强化学习模型的历史样本,所述历史样本可以包括序列<S,A,R,S’>,其中第一状态S为历史上环境所处的某一状态,第一动作A为在历史样本中,当环境处于第一状态时所采取的动作。第二动作表示,对于当前要训练的深度强化学习模型,面对同一状态S,智能体会采取什么样的动作。
可以理解,本公开实施例对训练所述深度强化学习模型的训练方法不加以限制。深度强化学习模型训练的方法可以包括同策略(on-policy)方法和异策略(off-policy)方法,两者的区别在于,同策略方法产生样本的策略和优化的目标策略是同一个,而异策略方法产生样本的策略和优化的目标策略不是同一个。
其中,采用同策略方法训练的历史样本为同策略样本,也即第二动作和第一动作相同,也就意味着,当前要训练的深度强化学习模型面对与历史上同样的状态S,会决策出同样的动作A。采用异策略方法训练的历史样本为异策略样本,也即第二动作和第一动作不相同,也就意味着,当前要训练的深度强化学习模型面对与历史上同样的状态S,会决策出不同的动作A。
在本公开的一种可选实施例中,可以采用迭代计算Q函数的异策略方法训练所述深度强化学习模型,训练过程可以包括:
步骤S31、根据历史样本,初始化所述深度强化学习模型的第一状态;其中,所述第一状态包括:用户特征和推荐商家特征;
步骤S32、根据所述深度强化学习模型的当前Q函数,预测所述第一状态S对应的动作A;其中,所述动作A包括:用户针对所述推荐商家的行为特征;
步骤S33、确定在所述第一状态S施加所述动作A之后迁移到的第二状态S';
步骤S34、根据所述第二状态对应的下单概率,获取所述第二状态S'对应的奖励分数R;
步骤S35、根据所述奖励分数R,调整所述当前Q函数;
步骤S36、重复上述步骤,直到奖励分数R满足预设条件。
可以看出,训练深度强化学习模型需要确定状态、动作、奖励分数这三个要素。本公开实施例对状态的选择方式不加以限制。在本公开的一种可选实施例中,所述深度强化学习模型中的状态可以根据用户针对商家的历史行为特征所确定。所述历史行为特征具体可以包括:商家特征,商家的商品特征,用户特征,用户针对商家的行为特征,用户针对商家中商品的行为特征。其中,所述行为可以包括点击、浏览、下单、评价等用户行为。例如,可以将(useri,productj)记为状态,其中,useri为用户特征,productj为商家的商品特征。
本公开实施例中以同策略方法为例进行描述,也即第二动作和第一动作相同,也就意味着,当前要训练的深度强化学习模型面对与历史上同样的状态S,会决策出同样的动作A。针对第一状态,通过当前Q函数中的预置策略可以确定第一状态对应的动作A(如预测用户的点击概率),并且得到在第一状态施加动作A后的迁移到的第二状态,以及确定第二状态对应的奖励分数,根据该奖励分数,可以调整所述深度强化学习模型的当前Q函数,使得下次再遇到相同状态时,预测结果可以更优。
在本公开的一种可选实施例中,所述强化学习模型中的动作具体可以包括点击或者不点击。
在具体应用中,对于向用户展示的推荐列表,用户可能产生两种动作行为,对所述推荐列表中的推荐信息点击的动作行为,或者,对所述推荐列表中的推荐信息不点击的动作行为。
在本公开的一种可选实施例中,可以根据用户针对推荐信息的行为类别和/或推荐信息从被展示到被触发经历的时长,调整所述第二状态对应的奖励分数。
其中,所述用户针对推荐信息的行为类别可以包括正向行为和反向行为,所述正向行为具体可以包括点击、下单、分享、给予好评等;所述反向行为具体可以包括:不点击、给予差评、退单等。对于正向行为,可以增加当前的奖励分数,对于反向行为,可以减小当前的奖励分数。
此外,本公开实施例的预测模型可用于预测目标用户在产生即时订单之后,针对候选商家的二次下单概率,并且随着时间流逝,配送员距离目标用户越来越近,目标用户二次下单的概率越低,因此,本公开实施例可以设置奖励分数随着推荐信息从被展示到被触发经历的时长的增加而减小,也即推荐信息展示给用户的时间越长,用户触发(如点击)推荐信息获取的奖励分数越低,推荐信息展示给用户的时间越短,用户触发(如点击)推荐信息获取的奖励分数越高。
在本公开的一种应用示例中,假设在推荐列表展示给用户时,可以设置初始奖励分数,如20,随着展示时长的增加逐渐减小该奖励分数,并且在展示时长到达1分钟时,该奖励分数减小至1。如果用户不点击该展示列表中的展示信息,则给予-1000的奖励分数;如果用户对该展示列表中的展示信息成功下单,则给予50的奖励分数。
在实际应用中,Q函数是在一定策略下,通过预期奖励分数的累加获得的。如果环境模型确定且已知,那么对于任意状态S,S’和动作A,在状态S下执行动作A转移到状态S’的概率是已知的,该转移带来的奖励也是已知的,如此,Q函数可以通过一个表格或矩阵来表达,策略的评估和改进可以基于Q函数表格或矩阵进行。参照表1,示出了本公开的一种Q函数的具体示意。
表1
状态 | 点击 | 不点击 |
(user<sub>1</sub>,product<sub>1</sub>) | 1 | 3 |
(user<sub>2</sub>,product<sub>2</sub>) | 2 | 4 |
(user<sub>i</sub>,product<sub>j</sub>) | -100 | 1 |
… | … | … |
如表1所示,表1中的每一行是一个状态,每一列表示一个动作(点击或者不点击)。在本公开实施例中,Q函数表格可以包括m×n行,表示m×n个状态。在训练完成之后,可以根据表1中的策略,确定用户针对推荐列表中的推荐信息点击或者不点击的动作。具体地,排序算法根据当前推荐列表中的推荐信息,在表1中查找对应的行,然后再比较该行中两列的值(点击与不点击)的大小,选择值较大的动作作为当前的动作。
在本公开的一种可选实施例中,所述向所述目标用户推荐所述第二目标商家之后的步骤之后,所述方法还可以包括:
步骤S41、获取所述用户针对所述第二目标商家的在线行为数据;
步骤S42、将所述在线行为数据作为在线样本数据,训练所述预测模型,以优化所述预测模型的模型参数,得到优化后的预测模型。
在训练得到所述预测模型之后,可以在推荐系统中在线使用所述预测模型,以预测用户针对候选商家的二次下单概率,进而可以确定向用户推荐的第二目标商家。
在向用户推荐所述第二目标商家之后,本公开实施例还可以获取用户针对所述第二目标商家的在线行为数据。所述在线行为数据具体可以包括:用户针对所述第二目标商家的正向行为数据或者反向行为数据。
本公开实施例可以将所述在线行为数据作为在线样本数据,继续训练所述预测模型,以优化所述预测模型的模型参数,得到优化后的预测模型。
在本公开的一种可选实施例中,所述向所述目标用户推荐所述第二目标商家的步骤,具体可以包括:
向所述目标用户推送配送展示页,所述配送展示页中包括地图界面,所述地图界面中显示有所述第二目标商家的位置信息、商品信息、以及配送员的实时位置信息。
在本公开实施例中,在目标用户产生即时订单之后,可以向目标用户推送配送展示页,该配送展示页中可以包括地图界面,以显示配送员配送该即时订单的实时位置信息。此外,本发明实施例在确定第二目标商家之后,还可以在该配送展示页的地图界面中显示所述第二目标商家的相关信息,如第二目标商家的位置信息、商品信息等。并且在接收到目标用户针对所述第二目标商家的相关信息的触发操作的情况下,可以在当前界面中显示所述第二目标商家的位置、商品等详细信息、以及所述第二目标商家的链接地址,以使目标用户可以通过该链接地址跳转至所述第二目标商家的网页,方便目标用户直接选择商品进行二次下单,进一步提高信息推荐的及时性。
综上,本公开实施例在用户产生即时订单之后,可以获取即时订单对应的第一配送信息,根据所述第一配送信息中的第一配送路径,可以确定位于所述第一配送路径预设范围内的候选商家;并且根据所述目标用户针对所述候选商家的二次下单概率,从所述候选商家中确定第二目标商家,以及向所述目标用户推荐所述第二目标商家。
由此,在目标用户生成即时订单之后,本公开实施例即可根据该即时订单的第一配送路径,向目标用户推荐其可能二次下单的第二目标商家,可以避免用户再次查找商家的操作,减少用户的操作成本,提高用户二次下单的效率,进而可以提高信息推荐的准确性和及时性。
此外,由于所述第二目标商家位于所述第一配送路径预设范围内,因此第二目标商家为配送员在配送所述即时订单的过程中可能会经过的商家,如果目标用户针对第二目标商家进行二次下单,配送员可以顺路到第二目标商家获取二次下单的商品,不仅可以节省配送时间,而且可以节省配送费用。
实施例二
参照图2,其示出了在本公开的一个实施例中的推荐装置的结构图,具体如下。
信息获取模块201,用于获取即时订单对应的第一配送信息,所述第一配送信息包括:第一目标商家、目标用户、以及所述第一目标商家的第一位置到所述目标用户的第二位置之间的第一配送路径;
候选确定模块202,用于确定位于所述第一配送路径预设范围内的候选商家;
目标确定模块203,用于根据所述目标用户针对所述候选商家的二次下单概率,从所述候选商家中确定第二目标商家;
信息推荐模块204,用于向所述目标用户推荐所述第二目标商家。
可选地,所述装置还包括:
时长获取模块,用于获取所述即时订单对应的已下单时长;
概率预测模块,用于根据所述已下单时长,确定所述目标用户针对所述候选商家的二次下单概率。
可选地,所述候选确定模块,包括:
位置获取子模块,用于获取所述即时订单对应的配送员位置;
第一确定子模块,用于确定位于所述第一配送路径且与所述配送员位置的距离小于预设距离的第一商家;
第二确定子模块,用于根据第二配送信息,确定满足配送条件的第二商家;其中,所述第二配送信息包括:所述第二商家的第三位置到所述目标用户的第二位置之间的第二配送路径、配送时长、以及配送距离;
候选确定子模块,用于从所述第二商家中确定候选商家。
可选地,所述装置还包括:
费用调整模块,用于根据所述第二配送路径、和/或所述配送员位置与所述第三位置之间的距离、和/或所述第三位置与所述第二位置之间的距离,调整所述第二配送路径对应的配送费用。
可选地,所述装置还包括:
模型预测模块,用于将所述候选商家输入预测模型,通过所述预测模型输出所述目标用户针对所述候选商家的二次下单概率;所述预测模型为根据用户针对商家的历史行为特征训练得到的深度强化学习模型。
可选地,所述装置还包括:模型训练模块,用于训练所述深度强化学习模型;所述模型训练模块,包括:
初始化子模块,用于根据历史样本,初始化所述深度强化学习模型的第一状态;其中,所述第一状态包括:用户特征和推荐商家特征;
动作预测子模块,用于根据所述深度强化学习模型的当前Q函数,预测所述第一状态对应的动作;其中,所述动作包括:用户针对所述推荐商家的行为特征;
状态确定子模块,用于确定在所述第一状态施加所述动作之后迁移到的第二状态;
分数确定子模块,用于根据所述第二状态对应的下单概率,获取所述第二状态对应的奖励分数;
参数调整子模块,用于根据所述奖励分数,调整所述当前Q函数;
重复训练子模块,用于重复上述步骤,直到奖励分数满足预设条件。
可选地,所述装置还包括:
分数调整模块,用于根据所述推荐商家从被展示到被触发经历的时长,调整所述第二状态对应的奖励分数。
可选地,所述信息推荐模块具体用于向所述目标用户推送配送展示页,所述配送展示页中包括地图界面,所述地图界面中显示有所述第二目标商家的位置信息、商品信息、以及配送员的实时位置信息。
综上所述,本公开的实施例提供了一种推荐装置,所述装置包括:信息获取模块201,用于获取即时订单对应的第一配送信息,所述第一配送信息包括:第一目标商家、目标用户、以及所述第一目标商家的第一位置到所述目标用户的第二位置之间的第一配送路径;候选确定模块202,用于确定位于所述第一配送路径预设范围内的候选商家;目标确定模块203,用于根据所述目标用户针对所述候选商家的二次下单概率,从所述候选商家中确定第二目标商家;信息推荐模块204,用于向所述目标用户推荐所述第二目标商家。能够避免用户再次查找商家的操作,减少用户的操作成本,提高用户二次下单的效率,进而可以提高信息推荐的准确性和及时性。
本公开的实施例还提供了一种电子设备,参见图3,包括:处理器301、存储器302以及存储在所述存储器上并可在所述处理器上运行的计算机程序3021,所述处理器执行所述程序时实现前述实施例的推荐方法。
本公开的实施例还提供了一种可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行前述实施例的推荐方法。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本公开的实施例也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本公开的实施例的内容,并且上面对特定语言所做的描述是为了披露本公开的实施例的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本公开的实施例的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本公开的实施例的示例性实施例的描述中,本公开的实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本公开的实施例要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本公开的实施例的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
本公开的实施例的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本公开的实施例的排序设备中的一些或者全部部件的一些或者全部功能。本公开的实施例还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序。这样的实现本公开的实施例的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本公开的实施例进行说明而不是对本公开的实施例进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本公开的实施例可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
以上所述仅为本公开的实施例的较佳实施例而已,并不用以限制本公开的实施例,凡在本公开的实施例的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本公开的实施例的保护范围之内。
以上所述,仅为本公开的实施例的具体实施方式,但本公开的实施例的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本公开的实施例揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本公开的实施例的保护范围之内。因此,本公开的实施例的保护范围应以权利要求的保护范围为准。
Claims (11)
1.一种推荐方法,其特征在于,所述方法包括:
获取即时订单对应的第一配送信息,所述第一配送信息包括:第一目标商家、目标用户、以及所述第一目标商家的第一位置到所述目标用户的第二位置之间的第一配送路径;
确定位于所述第一配送路径预设范围内的候选商家;
根据所述目标用户针对所述候选商家的二次下单概率,从所述候选商家中确定第二目标商家;
向所述目标用户推荐所述第二目标商家。
2.根据权利要求1所述的方法,其特征在于,所述根据所述目标用户针对所述候选商家的二次下单概率,从所述候选商家中确定第二目标商家的步骤之前,所述方法还包括:
获取所述即时订单对应的已下单时长;
根据所述已下单时长,确定所述目标用户针对所述候选商家的二次下单概率。
3.根据权利要求1所述的方法,其特征在于,所述确定位于所述第一配送路径预设范围内的候选商家的步骤,包括:
获取所述即时订单对应的配送员位置;
确定位于所述第一配送路径且与所述配送员位置的距离小于预设距离的第一商家;
根据第二配送信息,确定满足配送条件的第二商家;其中,所述第二配送信息包括:所述第二商家的第三位置到所述目标用户的第二位置之间的第二配送路径、配送时长、以及配送距离;
从所述第二商家中确定候选商家。
4.根据权利要求3所述的方法,其特征在于,所述从所述候选商家中确定第二目标商家的步骤之后,所述方法还包括:
根据所述第二配送路径、和/或所述配送员位置与所述第三位置之间的距离、和/或所述第三位置与所述第二位置之间的距离,调整所述第二配送路径对应的配送费用。
5.根据权利要求1所述的方法,其特征在于,所述根据所述目标用户针对所述候选商家的二次下单概率,从所述候选商家中确定第二目标商家的步骤之前,所述方法还包括:
将所述候选商家输入预测模型,通过所述预测模型输出所述目标用户针对所述候选商家的二次下单概率;所述预测模型为根据用户针对商家的历史行为特征训练得到的深度强化学习模型。
6.根据权利要求5所述的方法,其特征在于,通过如下步骤训练所述深度强化学习模型:
根据历史样本,初始化所述深度强化学习模型的第一状态;其中,所述第一状态包括:用户特征和推荐商家特征;
根据所述深度强化学习模型的当前Q函数,预测所述第一状态对应的动作;其中,所述动作包括:用户针对所述推荐商家的行为特征;
确定在所述第一状态施加所述动作之后迁移到的第二状态;
根据所述第二状态对应的下单概率,获取所述第二状态对应的奖励分数;
根据所述奖励分数,调整所述当前Q函数;
重复上述步骤,直到奖励分数满足预设条件。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
根据所述推荐商家从被展示到被触发经历的时长,调整所述第二状态对应的奖励分数。
8.根据权利要求1所述的方法,其特征在于,所述向所述目标用户推荐所述第二目标商家的步骤,包括:
向所述目标用户推送配送展示页,所述配送展示页中包括地图界面,所述地图界面中显示有所述第二目标商家的位置信息、商品信息、以及配送员的实时位置信息。
9.一种推荐装置,其特征在于,所述装置包括:
信息获取模块,用于获取即时订单对应的第一配送信息,所述第一配送信息包括:第一目标商家、目标用户、以及所述第一目标商家的第一位置到所述目标用户的第二位置之间的第一配送路径;
候选确定模块,用于确定位于所述第一配送路径预设范围内的候选商家;
目标确定模块,用于根据所述目标用户针对所述候选商家的二次下单概率,从所述候选商家中确定第二目标商家;
信息推荐模块,用于向所述目标用户推荐所述第二目标商家。
10.一种电子设备,其特征在于,包括:
处理器、存储器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-8中任意一项所述的推荐方法。
11.一种可读存储介质,其特征在于,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如方法权利要求1-8中任意一项所述的推荐方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910883639.1A CN110766510A (zh) | 2019-09-18 | 2019-09-18 | 推荐方法、装置、电子设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910883639.1A CN110766510A (zh) | 2019-09-18 | 2019-09-18 | 推荐方法、装置、电子设备及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110766510A true CN110766510A (zh) | 2020-02-07 |
Family
ID=69330163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910883639.1A Pending CN110766510A (zh) | 2019-09-18 | 2019-09-18 | 推荐方法、装置、电子设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110766510A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111523716A (zh) * | 2020-04-15 | 2020-08-11 | 北京三快在线科技有限公司 | 订单的信息处理方法、系统、服务器及存储介质 |
CN111724197A (zh) * | 2020-05-25 | 2020-09-29 | 口碑(上海)信息技术有限公司 | 信息处理方法、装置、系统、存储介质及计算机设备 |
CN111723307A (zh) * | 2020-06-17 | 2020-09-29 | 口碑(上海)信息技术有限公司 | 信息处理方法、装置、系统、存储介质及计算机设备 |
CN112200526A (zh) * | 2020-12-09 | 2021-01-08 | 浙江口碑网络技术有限公司 | 订单输出方法、装置、计算机设备及计算机可读存储介质 |
CN114077979A (zh) * | 2020-08-18 | 2022-02-22 | 北京三快在线科技有限公司 | 一种确定配送服务范围的方法及装置 |
CN116596170A (zh) * | 2023-07-18 | 2023-08-15 | 合肥城市云数据中心股份有限公司 | 一种基于时空注意力机制的送达时间智能预测方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103489108A (zh) * | 2013-08-22 | 2014-01-01 | 浙江工商大学 | 社区商务云中大规模订单撮合方法 |
CN107180324A (zh) * | 2017-05-05 | 2017-09-19 | 百度在线网络技术(北京)有限公司 | 一种拼单方法和装置 |
US20180374138A1 (en) * | 2017-06-23 | 2018-12-27 | Vufind Inc. | Leveraging delayed and partial reward in deep reinforcement learning artificial intelligence systems to provide purchase recommendations |
CN109146345A (zh) * | 2017-06-16 | 2019-01-04 | 北京三快在线科技有限公司 | 信息推送方法及装置、电子设备 |
CN109451038A (zh) * | 2018-12-06 | 2019-03-08 | 北京达佳互联信息技术有限公司 | 一种信息推送方法、装置、服务器及计算机可读存储介质 |
CN109509069A (zh) * | 2018-11-19 | 2019-03-22 | 金华市剑通网络服务有限公司 | 基于o2o外卖平台的派单方法及服务器 |
CN110111186A (zh) * | 2019-05-10 | 2019-08-09 | 拉扎斯网络科技(上海)有限公司 | 信息处理方法、装置、电子设备及计算机可读存储介质 |
-
2019
- 2019-09-18 CN CN201910883639.1A patent/CN110766510A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103489108A (zh) * | 2013-08-22 | 2014-01-01 | 浙江工商大学 | 社区商务云中大规模订单撮合方法 |
CN107180324A (zh) * | 2017-05-05 | 2017-09-19 | 百度在线网络技术(北京)有限公司 | 一种拼单方法和装置 |
CN109146345A (zh) * | 2017-06-16 | 2019-01-04 | 北京三快在线科技有限公司 | 信息推送方法及装置、电子设备 |
US20180374138A1 (en) * | 2017-06-23 | 2018-12-27 | Vufind Inc. | Leveraging delayed and partial reward in deep reinforcement learning artificial intelligence systems to provide purchase recommendations |
CN109509069A (zh) * | 2018-11-19 | 2019-03-22 | 金华市剑通网络服务有限公司 | 基于o2o外卖平台的派单方法及服务器 |
CN109451038A (zh) * | 2018-12-06 | 2019-03-08 | 北京达佳互联信息技术有限公司 | 一种信息推送方法、装置、服务器及计算机可读存储介质 |
CN110111186A (zh) * | 2019-05-10 | 2019-08-09 | 拉扎斯网络科技(上海)有限公司 | 信息处理方法、装置、电子设备及计算机可读存储介质 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111523716A (zh) * | 2020-04-15 | 2020-08-11 | 北京三快在线科技有限公司 | 订单的信息处理方法、系统、服务器及存储介质 |
CN111724197A (zh) * | 2020-05-25 | 2020-09-29 | 口碑(上海)信息技术有限公司 | 信息处理方法、装置、系统、存储介质及计算机设备 |
CN111724197B (zh) * | 2020-05-25 | 2024-03-26 | 口碑(上海)信息技术有限公司 | 信息处理方法、装置、系统、存储介质及计算机设备 |
CN111723307A (zh) * | 2020-06-17 | 2020-09-29 | 口碑(上海)信息技术有限公司 | 信息处理方法、装置、系统、存储介质及计算机设备 |
CN111723307B (zh) * | 2020-06-17 | 2023-09-01 | 口碑(上海)信息技术有限公司 | 信息处理方法、装置、系统、存储介质及计算机设备 |
CN114077979A (zh) * | 2020-08-18 | 2022-02-22 | 北京三快在线科技有限公司 | 一种确定配送服务范围的方法及装置 |
CN114077979B (zh) * | 2020-08-18 | 2024-05-28 | 北京三快在线科技有限公司 | 一种确定配送服务范围的方法及装置 |
CN112200526A (zh) * | 2020-12-09 | 2021-01-08 | 浙江口碑网络技术有限公司 | 订单输出方法、装置、计算机设备及计算机可读存储介质 |
CN112200526B (zh) * | 2020-12-09 | 2021-03-16 | 浙江口碑网络技术有限公司 | 订单输出方法、装置、计算机设备及计算机可读存储介质 |
WO2022121957A1 (zh) * | 2020-12-09 | 2022-06-16 | 浙江口碑网络技术有限公司 | 订单输出方法、装置、计算机设备及计算机可读存储介质 |
CN116596170A (zh) * | 2023-07-18 | 2023-08-15 | 合肥城市云数据中心股份有限公司 | 一种基于时空注意力机制的送达时间智能预测方法 |
CN116596170B (zh) * | 2023-07-18 | 2023-09-22 | 合肥城市云数据中心股份有限公司 | 一种基于时空注意力机制的送达时间智能预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110766510A (zh) | 推荐方法、装置、电子设备及可读存储介质 | |
US20210174399A1 (en) | Predictive Recommendation System Using Absolute Relevance | |
US10599449B1 (en) | Predictive action modeling to streamline user interface | |
CN110020094B (zh) | 一种搜索结果的展示方法和相关装置 | |
US8219456B2 (en) | Method, device, and system for analyzing and ranking web-accessible data targets | |
US20160191450A1 (en) | Recommendations Engine in a Layered Social Media Webpage | |
US9386109B1 (en) | Web page associated with a node in a website traffic pattern | |
US20090248511A1 (en) | Advertisements on demand | |
US20110252031A1 (en) | Method, Device, and System for Analyzing and Ranking Products | |
US20170039483A1 (en) | Factorized models | |
CN105009103A (zh) | 网页的显示时间 | |
CN110766513A (zh) | 信息排序方法、装置、电子设备及可读存储介质 | |
US20140222586A1 (en) | Bid adjustment suggestions based on device type | |
CN111210258A (zh) | 广告投放方法、装置、电子设备及可读存储介质 | |
US11526570B2 (en) | Page-based prediction of user intent | |
US9489692B1 (en) | Location-based bid modifiers | |
US20170323230A1 (en) | Evaluating keyword performance | |
US11216829B1 (en) | Providing online content | |
CN113327151B (zh) | 商品对象推荐方法、装置、计算机设备及存储介质 | |
CN110570271A (zh) | 信息推荐方法、装置、电子设备及可读存储介质 | |
US20220198529A1 (en) | Automatic rule generation for next-action recommendation engine | |
WO2017083554A1 (en) | Method and apparatus for dynamically selecting content for online visitors | |
US9786014B2 (en) | Earnings alerts | |
WO2015179717A1 (en) | Determination of initial value for automated delivery of news items | |
CN115018528A (zh) | 一种任务推送方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |