CN110598766A - 一种商品推荐模型的训练方法、装置及电子设备 - Google Patents
一种商品推荐模型的训练方法、装置及电子设备 Download PDFInfo
- Publication number
- CN110598766A CN110598766A CN201910803314.8A CN201910803314A CN110598766A CN 110598766 A CN110598766 A CN 110598766A CN 201910803314 A CN201910803314 A CN 201910803314A CN 110598766 A CN110598766 A CN 110598766A
- Authority
- CN
- China
- Prior art keywords
- sample
- characteristic
- feature
- preset
- time sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 66
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000012545 processing Methods 0.000 claims abstract description 71
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 35
- 238000010801 machine learning Methods 0.000 claims abstract description 16
- 238000013528 artificial neural network Methods 0.000 claims description 40
- 230000000306 recurrent effect Effects 0.000 claims description 33
- 238000012216 screening Methods 0.000 claims description 18
- 238000003860 storage Methods 0.000 claims description 16
- 238000012163 sequencing technique Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 3
- 230000002123 temporal effect Effects 0.000 claims description 2
- 230000014509 gene expression Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000007637 random forest analysis Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000003754 machining Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Software Systems (AREA)
- Accounting & Taxation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Finance (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了一种商品推荐模型的训练方法、装置及电子设备,该训练方法包括:获取用于训练商品推荐模型的原始的第一样本集合,其中,第一样本集合中的每条原始样本包括多个选定特征和标签;从多个选定特征中选取时序特性符合预设条件的特征作为时序特征;对选取的时序特征进行加工处理,得到至少一个加工特征;构建第二样本集合,其中,第二样本集合中的每条第二样本包括多个选定特征、至少一个加工特征和标签;基于第二样本集合,采用预定的机器学习算法训练商品推荐模型。
Description
技术领域
本发明涉及商品推荐技术领域,更具体地,涉及一种商品推荐模型的训练方法、一种商品推荐模型的训练装置、一种电子设备、及一种可读存储介质。
背景技术
在大数据时代,大多数公司都有自己的数据积累。为了向不同的客户提供定制化的商品,目前常用的基于机器学习的商品推荐方式通常为:基于商品推荐模型,对于每个客户,计算与待推荐的商品的匹配值,根据匹配值进行排序,将排序靠前的商品推荐给客户。
由于树模型具有实现简单、并行性好和可解释性强等一系列优点,树模型被广泛应用到工业界中,例如在推荐系统中通常会选用随机森林、GBDT(Gradient BoostingDecison Tree,梯度提升树)和XGBOOST(eXtreme Gradient Boosting,极端梯度提升)等等一些树模型作为商品推荐模型。但是,由于树模型属于一种相对简单的模型,训练时需要大量的特征;而且,树模型无法学习出某些特征中的时序信息。
因此,提出一种使得商品推荐模型更容易学习到有用信息模型训练方法。
发明内容
本发明的提供了一种使得商品推荐模型更容易学习到有用信息的训练商品推荐模型的新的技术方案。
根据本发明的第一方面,提供了一种商品推荐模型的训练方法,包括:
获取用于训练商品推荐模型的原始的第一样本集合,其中,所述第一样本集合中的每条原始样本包括多个选定特征和标签;
从所述多个选定特征中选取时序特性符合预设条件的特征作为时序特征;
对所述选取的时序特征进行加工处理,得到至少一个加工特征;
构建第二样本集合,其中,所述第二样本集合中的每条第二样本包括所述多个选定特征、所述至少一个加工特征和所述标签;
基于所述第二样本集合,采用预定的机器学习算法训练商品推荐模型。
可选的,所述对所述选取的时序特征进行加工处理,得到至少一个加工特征的步骤包括:
以选取的时序特征和相应标签构建第三样本集合;
基于所述第三样本集合训练循环神经网络;获取每个第三样本在神经网络的隐藏层的值,作为对应第三样本的加工特征的特征值。
可选的,所述从所述多个选定特征中选取时序特性符合预设条件的特征作为时序特征的步骤包括:
对于每个设定时段内采集的原始样本,计算每个选定特征在对应设定时段内的平均值;
对于每个选定特征,按照设定时段的先后顺序,确定平均值的极值点的数量;
选取极值点的数量符合预设的第一筛选条件的选定特征,作为所述时序特征。
可选的,所述选取极值点的数量符合预设的第一筛选条件的选定特征,作为所述时序特征的步骤包括:
根据所述极值点的数量对所述选定特征进行降序排序,并获取每个选定特征上的第一排序次序;
选取第一排序次序符合预设的第一排序范围的选定特征,作为所述时序特征。
可选的,所述从所述多个选定特征中选取时序特性符合预设条件的特征作为时序特征的步骤包括:
对于每个设定时段内采集的原始样本,计算每个选定特征在对应设定时段内的平均值;
确定每个选定特征的平均值在多个设定时段内的变化幅度;
选取变化幅度符合预设的第二筛选条件的选定特征,作为所述时序特征。
可选的,所述确定每个选定特征的平均值在多个设定时段内的变化幅度的步骤包括:
对于每个选定特征,按照设定时段的先后顺序,确定平均值的极值点;
对于每个选定特征,确定相邻极值点之间涨跌幅的绝对值;
确定每个选定特征的涨跌幅的绝对值的平均值,作为对应选定特征的变化幅度。
可选的,所述选取变化幅度符合预设的第二筛选条件的选定特征,作为所述时序特征的步骤包括:
根据所述变化幅度对所述选定特征进行降序排序,并获取每个选定特征的第二排序次序;
选取第二排序次序符合预设的第二排序范围的选定特征,作为所述时序特征。
可选的,所述机器学习算法为随机森林算法。
可选的,每条第三样本具有对应的样本标识;
所述基于所述第三样本集合训练循环神经网络的步骤包括:
对于每个样本标识,根据对应样本标识的第三样本,以所述循环神经网络算法的待定参数为变量,确定对应样本标识的表达式;
求解每个样本标识的表达式,确定所述循环神经网络算法的待定参数,得到所述循环神经网络。
可选的,将每个样本标识轮流作为目标样本标识,
所述目标样本标识的表达式表示为:
其中,wi、wh、wo均为待定参数,为所述目标样本标识在第τ个设定时段内采集的第三样本的时序特征的特征值,为所述目标样本标识在第τ个选定时段内采集的第三样本的隐藏层节点的值,为所述目标样本标识在第τ-1个设定时段内采集的第三样本的隐藏层节点的值,yτ为所述目标样本标识在第τ个设定时段内采集的第三样本对应的标签。
可选的,所述方法还包括:
获取待推荐的目标用户对应预设的至少一个候选商品的选定特征的特征值;
基于所述商品推荐模型,分别根据所述目标用户对应每个候选商品的选定特征的特征值,获取每个候选商品与所述目标用户的推荐分;
选取所述推荐分符合预设的推荐条件的候选商品,作为目标商品推荐给所述目标用户。
可选的,所述基于所述产品推荐模型,分别根据所述目标用户对应每个候选商品的选定特征的特征值,获取每个候选商品与所述目标用户的推荐分的步骤包括:
分别根据所述目标用户对应每个候选商品的时序特征的特征值,得到所述目标用户对应每个候选商品的加工特征的特征值;
基于所述产品推荐模型,分别根据所述目标用户对应每个候选商品的选定特征的特征值、和加工特征的特征值,获取对应候选商品与所述目标用户的推荐分。
可选的,所述选取所述推荐分符合预设的推荐条件的候选商品,作为目标商品推荐给所述目标用户的步骤包括:
根据所述推荐分对所述候选商品进行降序排序,并获取每个候选商品的排序次序;
选取排序次序符合预设的第三排序范围的候选商品,作为目标商品推荐给所述目标用户。
可选的,所述方法还包括:
展示每个所述候选商品、及每个候选商品的排序次序。
根据本发明的第二方面,提供了一种商品推荐模型的训练装置,包括:
第一样本获取模块,用于获取用于训练商品推荐模型的原始的第一样本集合,其中,所述第一样本集合中的每条原始样本包括多个选定特征和标签;
时序特征选取模块,用于从所述多个选定特征中选取时序特性符合预设条件的特征作为时序特征;
时序特征加工模块,用于对所述选取的时序特征进行加工处理,得到至少一个加工特征;
第二样本构建模块,用于构建第二样本集合,其中,所述第二样本集合中的每条第二样本包括所述多个选定特征、所述至少一个加工特征和所述标签;
推荐模型训练模块,用于基于所述第二样本集合,采用预定的机器学习算法训练商品推荐模型。
可选的,所述时序特征加工模块还用于:
以选取的时序特征和相应标签构建第三样本集合;
基于所述第三样本集合训练循环神经网络;获取每个第三样本在神经网络的隐藏层的值,作为对应第三样本的加工特征的特征值。
可选的,所述时序特征选取模块还用于:
对于每个设定时段内采集的原始样本,计算每个选定特征在对应设定时段内的平均值;
对于每个选定特征,按照设定时段的先后顺序,确定平均值的极值点的数量;
选取极值点的数量符合预设的第一筛选条件的选定特征,作为所述时序特征。
可选的,所述选取极值点的数量符合预设的第一筛选条件的选定特征,作为所述时序特征包括:
根据所述极值点的数量对所述选定特征进行降序排序,并获取每个选定特征上的第一排序次序;
选取第一排序次序符合预设的第一排序范围的选定特征,作为所述时序特征。
可选的,所述时序特征选取模块还用于:
对于每个设定时段内采集的原始样本,计算每个选定特征在对应设定时段内的平均值;
确定每个选定特征的平均值在多个设定时段内的变化幅度;
选取变化幅度符合预设的第二筛选条件的选定特征,作为所述时序特征。
可选的,所述确定每个选定特征的平均值在多个设定时段内的变化幅度包括:
对于每个选定特征,按照设定时段的先后顺序,确定平均值的极值点;
对于每个选定特征,确定相邻极值点之间涨跌幅的绝对值;
确定每个选定特征的涨跌幅的绝对值的平均值,作为对应选定特征的变化幅度。
可选的,所述选取变化幅度符合预设的第二筛选条件的选定特征,作为所述时序特征包括:
根据所述变化幅度对所述选定特征进行降序排序,并获取每个选定特征的第二排序次序;
选取第二排序次序符合预设的第二排序范围的选定特征,作为所述时序特征。
可选的,所述机器学习算法为随机森林算法。
可选的,每条第三样本具有对应的样本标识;
所述基于所述第三样本集合训练循环神经网络包括:
对于每个样本标识,根据对应样本标识的第三样本,以所述循环神经网络算法的待定参数为变量,确定对应样本标识的表达式;
求解每个样本标识的表达式,确定所述循环神经网络算法的待定参数,得到所述循环神经网络。
可选的,将每个样本标识轮流作为目标样本标识,
所述目标样本标识的表达式表示为:
其中,wi、wh、wo均为待定参数,为所述目标样本标识在第τ个设定时段内采集的第三样本的时序特征的特征值,为所述目标样本标识在第τ个选定时段内采集的第三样本的隐藏层节点的值,为所述目标样本标识在第τ-1个设定时段内采集的第三样本的隐藏层节点的值,yτ为所述目标样本标识在第τ个设定时段内采集的第三样本对应的标签。
可选的,所述装置还包括:
特征值获取模块,用于获取待推荐的目标用户对应预设的至少一个候选商品的选定特征的特征值;
推荐分获取模块,用于基于所述商品推荐模型,分别根据所述目标用户对应每个候选商品的选定特征的特征值,获取每个候选商品与所述目标用户的推荐分;
商品推荐模块,用于选取所述推荐分符合预设的推荐条件的候选商品,作为目标商品推荐给所述目标用户。
可选的,所述推荐分获取模块还用于:
分别根据所述目标用户对应每个候选商品的时序特征的特征值,得到所述目标用户对应每个候选商品的加工特征的特征值;
基于所述产品推荐模型,分别根据所述目标用户对应每个候选商品的选定特征的特征值、和加工特征的特征值,获取对应候选商品与所述目标用户的推荐分。
可选的,所述商品推荐模块还用于:
根据所述推荐分对所述候选商品进行降序排序,并获取每个候选商品的排序次序;
选取排序次序符合预设的第三排序范围的候选商品,作为目标商品推荐给所述目标用户。
可选的,所述装置还包括:
用于展示每个所述候选商品、及每个候选商品的排序次序的模块。
根据本发明的第三方面,提供了一种电子设备,包括:
如本发明第二方面所述的装置;或者,
处理器和存储器,所述存储器用于存储指令,所述指令用于控制所述处理器执行根据本发明第一方面所述的方法。
根据本发明的第四方面,提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序在被处理器执行时实现如本发明第一方面所述的方法。
在本发明的实施例中,通过从选定特征中选取时序性符合预设条件的时序特征,对时序特征进行加工得到加工特征,并对选定特征和加工特征进行合并,可以增加用于训练商品推荐模型的第二样本特征的维度,使得预定的机器学习算法可以更容易学习到有用信息,进而可以提高得到的商品推荐模型的准确性。而且,加工特征是对时序特征进行加工得到的,因此,加工特征中也包含的时序信息,使得商品推荐模型能够更好的利用时序信息。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且连同其说明一起用于解释本发明的原理。
图1是显示可用于实现本发明的实施例的电子设备的硬件配置的例子的框图;
图2示出了本发明的第一个实施例的商品推荐模型的训练方法的流程图;
图3示出了本发明的第二个实施例的商品推荐模型的训练方法的流程图;
图4示出了本发明的实施例的商品推荐模型的训练方法的其中一个例子的流程图;
图5示出了本发明的实施例的商品推荐模型的训练装置的一个例子的框图;
图6示出了本发明的实施例的商品推荐模型的训练装置的另一个例子的框图;
图7示出了本发明的实施例的电子设备的框图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
下面,参照附图描述根据本发明实施例的各个实施例和例子。
<硬件配置>
图1是示出可以实现本发明的实施例的电子设备1000的硬件配置的框图。
电子设备1000可以是便携式电脑、台式计算机、手机、平板电脑等。如图1所示,电子设备1000可以包括处理器1100、存储器1200、接口装置1300、通信装置1400、显示装置1500、输入装置1600、扬声器1700、麦克风1800等等。其中,处理器1100可以是中央处理器CPU、微处理器MCU等。存储器1200例如包括ROM(只读存储器)、RAM(随机存取存储器)、诸如硬盘的非易失性存储器等。接口装置1300例如包括USB接口、耳机接口等。通信装置1400例如能够进行有线或无线通信,具体地可以包括Wifi通信、蓝牙通信、2G/3G/4G/5G通信等。显示装置1500例如是液晶显示屏、触摸显示屏等。输入装置1600例如可以包括触摸屏、键盘、体感输入等。用户可以通过扬声器1700和麦克风1800输入/输出语音信息。
图1所示的电子设备仅仅是说明性的并且决不意味着对本发明、其应用或使用的任何限制。应用于本发明的实施例中,电子设备1000的所述存储器1200用于存储指令,所述指令用于控制所述处理器1100进行操作以执行本发明实施例提供的任意一项商品推荐模型的训练方法。本领域技术人员应当理解,尽管在图1中对电子设备1000示出了多个装置,但是,本发明可以仅涉及其中的部分装置,例如,电子设备1000只涉及处理器1100和存储装置1200。技术人员可以根据本发明所公开方案设计指令。指令如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。
<方法实施例>
在本实施例中,提供一种商品推荐模型的训练方法。该商品推荐模型的训练方法可以是由电子设备实施。该电子设备可以是如图1所示的电子设备1000。
根据图2所示,本实施例的商品推荐模型的训练方法可以包括如下步骤S2100~S2500:
步骤S2100,获取用于训练商品推荐模型的原始的第一样本集合。
其中,第一样本集合中包括多条原始样本,每条原始样本包括多个选定特征和标签。
在一个实施例中,第一样本集合中的每条原始样本具有对应的时间戳,该时间戳用于表示对应原始样本的采集时间。原始样本的标签可以表示该样本产生时,对应的用户是否对对应的商品执行相应的操作,该操作例如可以是购买、浏览、收藏等。每条原始样本还可以具有样本标识,根据该样本标识可以确定原始样本所对应的用户和商品。
在一个实施例中,该样本标识可以是根据对应用户的唯一用户标识和对应商品的唯一商品标识进行组合得到的。例如,一条原始样本的标签表示该样本产生时,用户A是否对商品A执行相应的操作,用户A的唯一用户标识为111,商品A的唯一商品标识为222,那么,该原始样本的样本标识可以为111222,或者222111等等。
在第一样本集合中,可以具有多个相同样本标识的原始样本,这些原始样本对应的时间戳不同。
步骤S2200,从多个选定特征中选取时序性符合预设条件的特征作为时序特征。
在第一个实施例中,选取时序特征的步骤可以包括如下所示的步骤S2211~S2213:
步骤S2211,对于每个设定时段内采集的原始样本,计算每个选定特征在对应设定时段内的平均值。
在一个实施例中,可以预先选取多个设定时段,每个设定时段的时长可以相等。例如,每个设定时段可以是1天。
可以是根据原始样本的时间戳来确定其对应的设定时段。例如,在原始样本的时间戳为2019年1月1日18:00,那么,就可以确定该原始样本是在2019年1月1日这一设定时段内采集的。
通过每个原始样本所对应的设定时段,可以得到每个设定时段内采集的原始样本。
对于每个设定时段内采集的多个原始样本,可以分别计算每个选定特征在对应设定时段内的平均值。例如,在第一个设定时段内包括原始样本1-M,每个原始样本均包含N个选定特征,第i(i∈[1,M])个原始样本的第j(j∈[1,N])个选定特征的特征值为fij,第j个选定特征在第一个选定时段内的平均值可以表示为
在一个例子中,得到每个选定特征在每个设定时段内的平均值可以是如下表1所示:
表1
在表1中,第一列表示选定特征,第一行表示选定时段,其中的数值表示对应选定特征在对应设定时段内的平均值。
步骤S2212,对于每个选定特征,按照预设时段的先后顺序,确定平均值的极值点的数量。
在本实施例中,极值点可以包括极大值点和极小值点。具体的,如果选定特征在一个设定时段内的平均值大于相邻的两个设定时段内的平均值,那么,设定特征在该设定时段的平均值则为该选定特征的一个极大值点。如果选定特征在一个设定时段内的平均值小于相邻的两个设定时段内的平均值,那么,设定特征在该设定时段内的平均值则为该选定特征的一个极小值点。设定特征在第一个设定时段内的平均值和在最后一个设定时段内的平均值,也均作为该选定特征的极值点。
在如上表1所示的例子中,对于选定特征f1,其极值点包括-1、3、-2,那么,选定特征f1的极值点的数量为3。对于选定特征f2,其极值点包括-1、6、4、7、6、9、5,那么,选定特征f2的极值点的数量为7。对于选定特征f3,其极值点包括-2、9、3、9、2,那么,选定特征f3的极值点的数量为5。对于选定特征f4,其极值点包括3、8、3、9、3、9,那么,选定特征f4的极值点的数量为6。对于选定特征f5,其极值点包括1、9、1、9、1,那么,选定特征f5的极值点的数量为5。
步骤S2213,选取极值点的数量符合预设的第一筛选条件的选定特征,作为时序特征。
在一个实施例中,选取极值点的数量符合预设的第一筛选条件的选定特征,作为时序特征可以包括如下所示的步骤S2213-1~S2213-2:
步骤S2213-1,根据极值点的数量对选定特征进行降序排序,并获取每个选定特征上的第一排序次序。
在如上表1所示的例子中,选定特征f1~f5的极值点的数量分别为3、7、5、6、5,根据极值点的数量对选定特征f1~f5进行降序排序,得到选定特征f1~f5的第一排序次序分别为5、1、3、2、3。
步骤S2213-2,选取第一排序次序符合预设的第一排序范围的选定特征,作为时序特征。
在如上表1所示的例子中,第一排序范围可以是预先根据应用场景或具体需求设定好的,例如,第一排序范围可以是1-3,那么,第一排序次序符合预设的第一排序范围的选定特征包括选定特征f2、f4、f3和f5。再例如,第一排序范围可以是1-2,那么,第一排序次序符合预设的第一排序范围的选定特征包括选定特征f2和f4。
在第二个实施例中,选取时序特征的步骤还可以包括如下所示的步骤S2221~S2223:
步骤S2221,对于每个设定时段内采集的原始样本,计算每个选定特征在对应设定时段内的平均值。
该步骤可以参照前述的步骤S2211,在此不再赘述。
步骤S2222,确定每个选定特征的平均值在多个设定时段内的变化幅度。
在一个实施例中,确定每个选定特征的平均值在多个设定时段内的变化幅度包括如下所示的步骤S2222-1~S2222-3:
步骤S2222-1,对于每个选定特征,按照设定时段的先后顺序,确定平均值的极值点。
该步骤S2222-1可以参照前述的步骤S2212,在此不再赘述。
步骤S2222-2,对于每个选定特征,确定相邻极值点之间涨跌幅的绝对值。
在一个实施例中,涨跌幅的绝对值可以是相邻极值点的差值与前一极值点的值之间的比值,其中,前一极值点为相邻极值点中对应的设定时段较早的一个极值点。
在如上表1所示的例子中,对于选定特征f1,相邻的极值点-1和3之间的涨跌幅的绝对值为|(-1-3)/(-1)|=4,相邻的极值点3和-2之间的涨跌幅的绝对值为|[3-(-2)]/3|=1.7。
对于选定特征f2,相邻的极值点-1和6之间的涨跌幅的绝对值为|(-1-6)/(-1)|=7,相邻的极值点6和4之间的涨跌幅的绝对值为|(6-4)/6|=0.3,相邻的极值点4和7之间的涨跌幅的绝对值为|(4-7)/4|=0.75,相邻的极值点7和6之间的涨跌幅的绝对值为|(7-6)/7|=0.1,相邻的极值点6和9之间的涨跌幅的绝对值为|(6-9)/6|=0.5,相邻的极值点9和5之间的涨跌幅的绝对值为|(9-5)/9|=0.4。
对于选定特征f3,相邻的极值点-2和9之间的涨跌幅的绝对值为|(-2-9)/(-2)|=5.5,相邻的极值点9和3之间的涨跌幅的绝对值为|(9-3)/9|=0.7,相邻的极值点3和9之间的涨跌幅的绝对值为|(3-9)/3|=2,相邻的极值点9和2之间的涨跌幅的绝对值为|(9-2)/9|=0.8。
对于选定特征f4,相邻的极值点3和8之间的涨跌幅的绝对值为|(3-8)/3|=1.7,相邻的极值点8和3之间的涨跌幅的绝对值为|(8-3)/8|=0.6,相邻的极值点3和9之间的涨跌幅的绝对值为|(3-9)/3|=2,相邻的极值点9和3之间的涨跌幅的绝对值为|(9-3)/9|=0.7,相邻的极值点3和9之间的涨跌幅的绝对值为|(3-9)/3|=2。
对于选定特征f5,相邻的极值点1和9之间的涨跌幅的绝对值为|(1-9)/1|=8,相邻的极值点9和1之间的涨跌幅的绝对值为|(9-1)/9|=0.9,相邻的极值点1和9之间的涨跌幅的绝对值为|(1-9)/1|=8,相邻的极值点9和1之间的涨跌幅的绝对值为|(9-1)/9|=0.9。
步骤S2222-3,确定每个选定特征的涨跌幅的绝对值的平均值,作为对应选定特征的变化幅度。
在如上表1所示的例子中,对于选定特征f1,涨跌幅的绝对值的平均值可以为(4+1.7)/2=2.85。对于选定特征f2,涨跌幅的绝对值的平均值可以为(7+0.3+0.75+0.1+0.5+0.4)/6=1.5。对于选定特征f3,涨跌幅的绝对值的平均值可以为(5.5+0.7+2+0.8)/4=2.25。对于选定特征f4,涨跌幅的绝对值的平均值可以为(1.7+0.6+2+0.7+2)/5=1.4。对于选定特征f5,涨跌幅的绝对值的平均值可以为(8+0.9+8+0.9)/4=4.45。
那么,选定特征f1的变化幅度为2.85,选定特征f2的变化幅度为1.5,选定特征f3的变化幅度为2.25,选定特征f4的变化幅度为1.4,选定特征f5的变化幅度为4.45。
步骤S2223,选取变化幅度符合预设的第二筛选条件的选定特征,作为时序特征。
在一个实施例中,选取变化幅度符合预设的第二筛选条件的选定特征,作为时序特征的方式可以为:选取变化幅度超过预先设定的幅度阈值的选定特征,作为时序特征。
幅度阈值可以是根据应用场景或具体需求预先设定好的。例如,幅度阈值可以是2,那么变化幅度超过2的选定特征包括选定特征f1、f3和f5。
在一个实施例中,选取变化幅度符合预设的第二筛选条件的选定特征,作为时序特征的步骤包括如下所示的步骤S2223-1~S2223-2:
步骤S2223-1,根据变化幅度对所述选定特征进行降序排序,并获取每个选定特征的第二排序次序。
根据变化幅度对所述选定特征f1~f5进行降序排序,选定特征f1~f5的第二排序值分别为2、4、3、5、1。
步骤S2223-2,选取第二排序次序符合预设的第二排序范围的选定特征,作为时序特征。
第二排序范围可以是预先根据应用场景或具体需求设定好的,例如,第二排序范围可以是1-4,那么,第二排序次序符合预设的第二排序范围的选定特征包括选定特征f5、f1、f3和f2。
步骤S2300,对选取的时序特征进行加工处理,得到至少一个加工特征。
在一个实施例中,对选取的时序特征进行加工处理,得到至少一个加工特征的包括如下所示的步骤S2310~S2320:
步骤S2310,以选取的时序特征和相应标签构建第三样本集合。
在一个实施例中,第三样本集合包含第三样本,每个第三样本包括时序特征和对应的标签。
具体的,可以是获取每个原始样本中时序特征的特征值和对应的标签,构成对应的第三样本,且对应的原始样本和第三样本具有相同的样本标签,对应于相同的设定时段。
步骤S2320,基于第三样本集合训练循环神经网络,获取每个第三样本在循环神经网络的隐藏层的值,作为对应第三样本的加工特征的特征值。
在一个实施例中,基于第三样本集合训练循环神经网络的步骤包括如下所示的步骤S2321~S2322:
步骤S2321,对于每个样本标识,根据对应样本标识的第三样本,以循环神经网络算法的待定参数为变量,确定对应样本标识的表达式。
在一个实施例中,可以将每个样本标识轮流作为目标样本标识,根据对应目标样本标识的第三样本,以循环神经网络算法的待定参数为变量,确定目标样本标识的表达式。
具体的,对于一个目标样本标识,具有对应于多个设定时段的第三样本,目标样本标识的表达式可以表示为:
其中,wi、wh、wo均为待定参数,为目标样本标识在第τ个设定时段内采集的第三样本的时序特征的特征值,为目标样本标识在第τ个选定时段内采集的第三样本的隐藏层节点的值,为目标样本标识在第τ-1个设定时段内采集的第三样本的隐藏层节点的值,yτ为目标样本标识在第τ个设定时段内采集的第三样本对应的标签。
步骤S2322,求解每个样本标识的表达式,确定循环神经网络算法的待定参数,得到循环神经网络。
在得到循环神经网络之后,获取每个第三样本在循环神经网络的隐藏层的值,作为对应第三样本的加工特征的特征值。
在一个实施例中,可以是将每个样本标识轮流作为目标样本标识,通过如下的公式来获取目标样本标识的每个第三样本在神经网络的隐藏层的值:
其中,wi、wo均为求解得到的循环神经网络的参数,为目标样本标识在第τ个设定时段内采集的第三样本的时序特征的特征值,为目标样本标识在第τ个选定时段内采集的第三样本的隐藏层节点的值,为目标样本标识在第τ-1个设定时段内采集的第三样本的隐藏层节点的值。
对于目标样本标识在第1个设定时段内采集的第三样本的隐藏层节点的值需要根据来计算,可以是预先根据应用场景或具体需求设定的初始值,例如可以是0。不同样本标识对应的可以相同也可以不同。
在一个例子中,隐藏层的值可以是向量,那么,该向量的行数可以是隐藏层的节点数。隐藏层的节点数可以是预先根据应用场景或具体需求设定好的。该隐藏层的节点数与加工特征的数量相等。例如,隐藏层的节点数可以是K。那么,隐藏层的值可以是K维向量。K维向量中的每一行的值均表示对应第三样本的一个加工特征的特征值。
例如,在一个第三样本对应的K维向量为A1 A2 A3 A4,那么,A1表示该第三样本的第一个加工特征的特征值,A2表示该第三样本的第二个加工特征的特征值,A3表示该第三样本的第三个加工特征的特征值,A4表示该第三样本的第四个加工特征的特征值。
步骤S2400,构建第二样本集合,其中,第二样本集合中的每条第二样本包括多个选定特征、至少一个加工特征和标签。
具体的,可以是获取每个第三样本的加工特征的特征值,并将每个第三样本与对应的原始样本进行合并,得到第二样本,使得每个第二样本中包括选定特征和加工特征的特征值、及对应的标签。对于对应的原始样本、第二样本和第三样本,具有相同的样本标签,且对应于相同的设定时段。
步骤S2500,基于第二样本集合,采用预定的机器学习算法训练商品推荐模型。
在一个实施例中,预定的机器学习算法,例如可以是随机森林算法、GBDT(Gradient Boosting Decison Tree,梯度提升树)算法和XGBOOST(eXtreme GradientBoosting,极端梯度提升)算法、逻辑回归算法、神经网络算法等机器学习算法中的任意一个或多个。
在本发明的实施例中,通过从选定特征中选取时序性符合预设条件的时序特征,对时序特征进行加工得到加工特征,并对选定特征和加工特征进行合并,可以增加用于训练商品推荐模型的第二样本特征的维度,使得预定的机器学习算法可以更容易学习到有用信息,进而可以提高得到的商品推荐模型的准确性。而且,加工特征是对时序特征进行加工得到的,因此,加工特征中也包含的时序信息,使得商品推荐模型能够更好的利用时序信息。
在一个实施例中,在得到商品推荐模型之后,该方法还可以包括如图3所示的步骤S3100~S3300:
步骤S3100,获取待推荐的目标用户对应预设的至少一个候选商品的选定特征的特征值。
在一个实施例中,至少一个候选商品可以预先针对目标用户设置的,也可以是针对所有用户设置的。即不同用户对应的候选商品可以相同,也可以不同。
目标用户对应每个候选商品的选定特征,可以包括目标用户的特征和对应候选商品的特征,因此,目标用户对应不同候选商品的选定特征中,目标用户的特征的特征值相同,而不同候选商品的特征的特征值可以相同也可以不同。
步骤S3200,基于商品推荐模型,分别根据目标用户对应每个候选商品的选定特征的特征值,获取每个候选商品与目标用户的推荐分。
在一个实施例中,获取每个候选商品与目标用户的推荐分的步骤可以包括如下所示的步骤S3210~S3220:
步骤S3210,分别根据目标用户对应每个候选商品的时序特征的特征值,得到目标用户对应每个候选商品的加工特征的特征值。
由于时序特征包括于选定特征,因此,目标用户对应每个候选商品的时序特征,可以包括对应候选商品的特征和目标用户的特征,也可以仅包括对应候选商品的特征或者目标用户的特征。
在一个实施例中,对于目标用户对应每个候选商品,可以是将时序特征的特征值代入到通过步骤S2322得到的循环神经网络中,得到加工特征的特征值。
具体可以参照前述的步骤2322中对获取每个第三样本的加工特征的特征值的步骤的描述,在此不再赘述。
步骤S3220,基于商品推荐模型,分别根据目标用户对应每个候选商品的选定特征的特征值、和加工特征的特征值,获取对应候选商品与目标用户的推荐分。
在一个实施例中,可以是分别将目标用户对应每个候选商品的选定特征的特征值和加工特征的特征值代入到商品推荐模型中,就可以得到对应候选商品与目标用户的推荐分。
步骤S3300,选取推荐分符合预设的推荐条件的候选商品,作为目标商品推荐给目标用户。
在一个实施例中,可以是选取推荐分超过预设的分数阈值的候选商品,作为目标商品推荐给目标用户。
分数阈值可以预先根据应用场景或具体需求设定,例如,分数阈值可以是8,那么,可以是选取推荐分超过8的候选商品,作为目标商品推荐给目标用户。
在一个实施例中,选取推荐分符合预设的推荐条件的候选商品,作为目标商品推荐给目标用户的步骤可以包括如下所示的步骤S3310~S3320:
步骤S3310,根据推荐分对候选商品进行降序排序,并获取每个候选商品的排序次序。
步骤S3320,选取排序次序符合预设的第三排序范围的候选商品,作为目标商品推荐给目标用户。
在一个实施例中,第三排序范围可以是预先根据应用场景或具体需求设定好的。例如,第三排序范围可以是1~5,那么,可以是将排序次序为1~5的候选商品,作为目标商品推荐给目标用户。
在一个实施例中,该方法还可以包括:展示每个候选商品、及每个候选商品的排序次序,以供目标用户查看。目标用户还可以根据展示的候选商品及其排序次序,重新选取实际偏好的候选商品。
基于本发明的实施例得到的商品推荐模型,可以精准、有效地获取目标用户对每个候选商品的偏好程度,并选取更符合用户偏好的目标商品对目标用户进行精准推荐,实际满足目标用户的商品获取需求,提升目标用户的商品获取体验。
<例子1>
以下将结合图4进一步说明本实施例中提供的商品推荐模型的训练方法。如图4所示,该方法包括:
步骤S4001,获取用于训练商品推荐模型的原始的第一样本集合。
其中,第一样本集合中包括多条原始样本,每条原始样本包括多个选定特征和标签。
步骤S4002,对于每个设定时段内采集的原始样本,计算每个选定特征在对应设定时段内的平均值。
步骤S4003,对于每个选定特征,按照预设时段的先后顺序,确定平均值的极值点的数量。
步骤S4004,根据极值点的数量对选定特征进行降序排序,并获取每个选定特征上的第一排序次序。
步骤S4005,选取第一排序次序符合预设的第一排序范围的选定特征,作为时序特征。
步骤S4006,以选取的时序特征和相应标签构建第三样本集合。
步骤S4007,对于每个样本标识,根据对应样本标识的第三样本,以循环神经网络算法的待定参数为变量,确定对应样本标识的表达式。
可以将每个样本标识轮流作为目标样本标识,根据对应目标样本标识的第三样本,以循环神经网络算法的待定参数为变量,确定目标样本标识的表达式。
具体的,对于一个目标样本标识,具有对应于多个设定时段的第三样本,目标样本标识的表达式可以表示为:
其中,wi、wh、wo均为待定参数,为目标样本标识在第τ个设定时段内采集的第三样本的时序特征的特征值,为目标样本标识在第τ个选定时段内采集的第三样本的隐藏层节点的值,为目标样本标识在第τ-1个设定时段内采集的第三样本的隐藏层节点的值,yτ为目标样本标识在第τ个设定时段内采集的第三样本对应的标签。
步骤S4008,求解每个样本标识的表达式,确定循环神经网络算法的待定参数,得到循环神经网络。
步骤S4009,获取每个第三样本在循环神经网络的隐藏层的值,作为对应第三样本的加工特征的特征值。
在一个实施例中,可以是将每个样本标识轮流作为目标样本标识,通过如下的公式来获取目标样本标识的每个第三样本在神经网络的隐藏层的值:
其中,wi、wo均为求解得到的循环神经网络的参数,为目标样本标识在第τ个设定时段内采集的第三样本的时序特征的特征值,为目标样本标识在第τ个选定时段内采集的第三样本的隐藏层节点的值,为目标样本标识在第τ-1个设定时段内采集的第三样本的隐藏层节点的值。
对于目标样本标识在第1个设定时段内采集的第三样本的隐藏层节点的值需要根据来计算,可以是预先根据应用场景或具体需求设定的初始值,例如可以是0。不同样本标识对应的可以相同也可以不同。
在一个例子中,隐藏层的值可以是向量,那么,该向量的行数可以是隐藏层的节点数。隐藏层的节点数可以是预先根据应用场景或具体需求设定好的。该隐藏层的节点数与加工特征的数量相等。例如,隐藏层的节点数可以是K。那么,隐藏层的值可以是K维向量。K维向量中的每一行的值均表示对应第三样本的一个加工特征的特征值。
例如,在一个第三样本对应的K维向量为那么,A1表示该第三样本的第一个加工特征的特征值,A2表示该第三样本的第二个加工特征的特征值,A3表示该第三样本的第三个加工特征的特征值,A4表示该第三样本的第四个加工特征的特征值。
步骤S4010,构建第二样本集合,其中,第二样本集合中的每条第二样本包括多个选定特征、至少一个加工特征和标签。
步骤S4011,基于第二样本集合,采用预定的机器学习算法训练商品推荐模型。
步骤S4012,获取待推荐的目标用户对应预设的至少一个候选商品的选定特征的特征值。
步骤S4013,分别根据目标用户对应每个候选商品的时序特征的特征值,得到目标用户对应每个候选商品的加工特征的特征值。
步骤S4014,基于商品推荐模型,分别根据目标用户对应每个候选商品的选定特征的特征值、和加工特征的特征值,获取对应候选商品与目标用户的推荐分。
步骤S4015,选取推荐分符合预设的推荐条件的候选商品,作为目标商品推荐给目标用户。
<装置实施例>
在本实施例中,提供一种商品推荐模型的训练装置5000,如图5所示,包括第一样本获取模块5100、时序特征选取模块5200、时序特征加工模块5300、第二样本构建模块5400和推荐模型训练模块5500。该第一样本获取模块5100用于获取用于训练商品推荐模型的原始的第一样本集合,其中,第一样本集合中的每条原始样本包括多个选定特征和标签;该时序特征选取模块5200用于从多个选定特征中选取时序特性符合预设条件的特征作为时序特征;该时序特征加工模块5300用于对选取的时序特征进行加工处理,得到至少一个加工特征;该第二样本构建模块5400用于构建第二样本集合,其中,第二样本集合中的每条第二样本包括多个选定特征、至少一个加工特征和标签;该推荐模型训练模块5500用于基于第二样本集合,采用预定的机器学习算法训练商品推荐模型。
在一个实施例中,时序特征加工模块5300还可以用于:
以选取的时序特征和相应标签构建第三样本集合;
基于第三样本集合训练循环神经网络;获取每个第三样本在神经网络的隐藏层的值,作为对应第三样本的加工特征的特征值。
在一个实施例中,时序特征选取模块5200还可以用于:
对于每个设定时段内采集的原始样本,计算每个选定特征在对应设定时段内的平均值;
对于每个选定特征,按照设定时段的先后顺序,确定平均值的极值点的数量;
选取极值点的数量符合预设的第一筛选条件的选定特征,作为时序特征。
在一个实施例中,选取极值点的数量符合预设的第一筛选条件的选定特征,作为时序特征包括:
根据极值点的数量对选定特征进行降序排序,并获取每个选定特征上的第一排序次序;
选取第一排序次序符合预设的第一排序范围的选定特征,作为时序特征。
在一个实施例中,时序特征选取模块5200还可以用于:
对于每个设定时段内采集的原始样本,计算每个选定特征在对应设定时段内的平均值;
确定每个选定特征的平均值在多个设定时段内的变化幅度;
选取变化幅度符合预设的第二筛选条件的选定特征,作为时序特征。
在一个实施例中,确定每个选定特征的平均值在多个设定时段内的变化幅度包括:
对于每个选定特征,按照设定时段的先后顺序,确定平均值的极值点;
对于每个选定特征,确定相邻极值点之间涨跌幅的绝对值;
确定每个选定特征的涨跌幅的绝对值的平均值,作为对应选定特征的变化幅度。
在一个实施例中,选取变化幅度符合预设的第二筛选条件的选定特征,作为时序特征包括:
根据变化幅度对选定特征进行降序排序,并获取每个选定特征的第二排序次序;
选取第二排序次序符合预设的第二排序范围的选定特征,作为时序特征。
在一个实施例中,机器学习算法为随机森林算法。
在一个实施例中,每条第三样本具有对应的样本标识;
基于第三样本集合训练循环神经网络包括:
对于每个样本标识,根据对应样本标识的第三样本,以循环神经网络算法的待定参数为变量,确定对应样本标识的表达式;
求解每个样本标识的表达式,确定循环神经网络算法的待定参数,得到循环神经网络。
在一个实施例中,将每个样本标识轮流作为目标样本标识,
目标样本标识的表达式表示为:
其中,wi、wh、wo均为待定参数,为目标样本标识在第τ个设定时段内采集的第三样本的时序特征的特征值,为目标样本标识在第τ个选定时段内采集的第三样本的隐藏层节点的值,为目标样本标识在第τ-1个设定时段内采集的第三样本的隐藏层节点的值,yτ为目标样本标识在第τ个设定时段内采集的第三样本对应的标签。
在一个实施例中,该装置5000还可以包括如图6所示的特征值获取模块6100、推荐分获取模块6200和商品推荐模块6300。该特征值获取模块6100用于获取待推荐的目标用户对应预设的至少一个候选商品的选定特征的特征值;该推荐分获取模块6200用于基于商品推荐模型,分别根据目标用户对应每个候选商品的选定特征的特征值,获取每个候选商品与目标用户的推荐分;该商品推荐模块6300用于选取推荐分符合预设的推荐条件的候选商品,作为目标商品推荐给目标用户。
在一个实施例中,推荐分获取模块6200还可以用于:
分别根据目标用户对应每个候选商品的时序特征的特征值,得到目标用户对应每个候选商品的加工特征的特征值;
基于产品推荐模型,分别根据目标用户对应每个候选商品的选定特征的特征值、和加工特征的特征值,获取对应候选商品与目标用户的推荐分。
在一个实施例中,商品推荐模块6300还可以用于:
根据推荐分对候选商品进行降序排序,并获取每个候选商品的排序次序;
选取排序次序符合预设的第三排序范围的候选商品,作为目标商品推荐给目标用户。
在一个实施例中,该装置5000还可以包括:
用于展示每个候选商品、及每个候选商品的排序次序的模块。
本领域技术人员应当明白,可以通过各种方式来实现商品推荐模型的训练装置5000。例如,可以通过指令配置处理器来实现商品推荐模型的训练装置5000。例如,可以将指令存储在ROM中,并且当启动设备时,将指令从ROM读取到可编程器件中来实现商品推荐模型的训练装置5000。例如,可以将商品推荐模型的训练装置5000固化到专用器件(例如ASIC)中。可以将商品推荐模型的训练装置5000分成相互独立的单元,或者可以将它们合并在一起实现。商品推荐模型的训练装置5000可以通过上述各种实现方式中的一种来实现,或者可以通过上述各种实现方式中的两种或更多种方式的组合来实现。
在本实施例中,商品推荐模型的训练装置5000可以具有多种实现形式,例如,商品推荐模型的训练装置5000可以是任何的提供商品推荐服务的软件产品或者应用程序中运行的功能模块,或者是这些软件产品或者应用程序的外设嵌入件、插件、补丁件等,还可以是这些软件产品或者应用程序本身。
<电子设备>
在本实施例中,还提供一种电子设备7000。该电子设备7000可以是图1所示的电子设备1000。
在一方面,该电子设备7000可以包括前述的商品推荐模型的训练装置8000,用于实施本发明任意实施例的商品推荐模型的训练方法。
在另一方面,如图7所示,电子设备7000还可以包括处理器7100和存储器7200,该存储器7200用于存储可执行的指令;该处理器7100用于根据指令的控制运行电子设备7000执行根据本发明任意实施例的商品推荐模型的训练方法。
在本实施例中,该电子设备7000可以是手机、平板电脑、掌上电脑、台式机、笔记本电脑、工作站、游戏机等设备。
<计算机可读存储介质>
在本实施例中,还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序在被处理器执行时实现如本发明任意实施例的商品推荐模型的训练方法。
本发明可以是设备、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本发明的范围由所附权利要求来限定。
Claims (10)
1.一种商品推荐模型的训练方法,包括:
获取用于训练商品推荐模型的原始的第一样本集合,其中,所述第一样本集合中的每条原始样本包括多个选定特征和标签;
从所述多个选定特征中选取时序特性符合预设条件的特征作为时序特征;
对所述选取的时序特征进行加工处理,得到至少一个加工特征;
构建第二样本集合,其中,所述第二样本集合中的每条第二样本包括所述多个选定特征、所述至少一个加工特征和所述标签;
基于所述第二样本集合,采用预定的机器学习算法训练商品推荐模型。
2.根据权利要求1所述的方法,其中,所述对所述选取的时序特征进行加工处理,得到至少一个加工特征的步骤包括:
以选取的时序特征和相应标签构建第三样本集合;
基于所述第三样本集合训练循环神经网络;获取每个第三样本在神经网络的隐藏层的值,作为对应第三样本的加工特征的特征值。
3.根据权利要求1所述的方法,其中,所述从所述多个选定特征中选取时序特性符合预设条件的特征作为时序特征的步骤包括:
对于每个设定时段内采集的原始样本,计算每个选定特征在对应设定时段内的平均值;
对于每个选定特征,按照设定时段的先后顺序,确定平均值的极值点的数量;
选取极值点的数量符合预设的第一筛选条件的选定特征,作为所述时序特征。
4.根据权利要求3所述的方法,其中,所述选取极值点的数量符合预设的第一筛选条件的选定特征,作为所述时序特征的步骤包括:
根据所述极值点的数量对所述选定特征进行降序排序,并获取每个选定特征上的第一排序次序;
选取第一排序次序符合预设的第一排序范围的选定特征,作为所述时序特征。
5.根据权利要求1所述的方法,其中,所述从所述多个选定特征中选取时序特性符合预设条件的特征作为时序特征的步骤包括:
对于每个设定时段内采集的原始样本,计算每个选定特征在对应设定时段内的平均值;
确定每个选定特征的平均值在多个设定时段内的变化幅度;
选取变化幅度符合预设的第二筛选条件的选定特征,作为所述时序特征。
6.根据权利要求5所述的方法,其中,所述确定每个选定特征的平均值在多个设定时段内的变化幅度的步骤包括:
对于每个选定特征,按照设定时段的先后顺序,确定平均值的极值点;
对于每个选定特征,确定相邻极值点之间涨跌幅的绝对值;
确定每个选定特征的涨跌幅的绝对值的平均值,作为对应选定特征的变化幅度。
7.根据权利要求5所述的方法,其中,所述选取变化幅度符合预设的第二筛选条件的选定特征,作为所述时序特征的步骤包括:
根据所述变化幅度对所述选定特征进行降序排序,并获取每个选定特征的第二排序次序;
选取第二排序次序符合预设的第二排序范围的选定特征,作为所述时序特征。
8.一种商品推荐模型的训练装置,包括:
第一样本获取模块,用于获取用于训练商品推荐模型的原始的第一样本集合,其中,所述第一样本集合中的每条原始样本包括多个选定特征和标签;
时序特征选取模块,用于从所述多个选定特征中选取时序特性符合预设条件的特征作为时序特征;
时序特征加工模块,用于对所述选取的时序特征进行加工处理,得到至少一个加工特征;
第二样本构建模块,用于构建第二样本集合,其中,所述第二样本集合中的每条第二样本包括所述多个选定特征、所述至少一个加工特征和所述标签;
推荐模型训练模块,用于基于所述第二样本集合,采用预定的机器学习算法训练商品推荐模型。
9.一种电子设备,包括:
如权利要求8所述的装置;或者,
处理器和存储器,所述存储器用于存储指令,所述指令用于控制所述处理器执行根据权利要求1至7中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序在被处理器执行时实现如权利要求1至7中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910803314.8A CN110598766B (zh) | 2019-08-28 | 2019-08-28 | 一种商品推荐模型的训练方法、装置及电子设备 |
CN202210615759.5A CN115049052A (zh) | 2019-08-28 | 2019-08-28 | 一种商品推荐模型的训练方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910803314.8A CN110598766B (zh) | 2019-08-28 | 2019-08-28 | 一种商品推荐模型的训练方法、装置及电子设备 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210615759.5A Division CN115049052A (zh) | 2019-08-28 | 2019-08-28 | 一种商品推荐模型的训练方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110598766A true CN110598766A (zh) | 2019-12-20 |
CN110598766B CN110598766B (zh) | 2022-05-10 |
Family
ID=68856129
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210615759.5A Pending CN115049052A (zh) | 2019-08-28 | 2019-08-28 | 一种商品推荐模型的训练方法、装置及电子设备 |
CN201910803314.8A Active CN110598766B (zh) | 2019-08-28 | 2019-08-28 | 一种商品推荐模型的训练方法、装置及电子设备 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210615759.5A Pending CN115049052A (zh) | 2019-08-28 | 2019-08-28 | 一种商品推荐模型的训练方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN115049052A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111090756A (zh) * | 2020-03-24 | 2020-05-01 | 腾讯科技(深圳)有限公司 | 基于人工智能的多目标推荐模型的训练方法及装置 |
CN112116411A (zh) * | 2020-08-10 | 2020-12-22 | 第四范式(北京)技术有限公司 | 一种用于商品推荐的排序模型的训练方法、装置及系统 |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102346894A (zh) * | 2010-08-03 | 2012-02-08 | 阿里巴巴集团控股有限公司 | 推荐信息的输出方法、系统及服务器 |
CN105869024A (zh) * | 2016-04-20 | 2016-08-17 | 北京小米移动软件有限公司 | 商品的推荐方法及装置 |
CN106372058A (zh) * | 2016-08-29 | 2017-02-01 | 中译语通科技(北京)有限公司 | 一种基于深度学习的短文本情感要素抽取方法及装置 |
CN106778042A (zh) * | 2017-01-26 | 2017-05-31 | 中电科软件信息服务有限公司 | 心脑血管患者相似性分析方法及系统 |
CN107229666A (zh) * | 2016-12-30 | 2017-10-03 | 北京字节跳动科技有限公司 | 一种基于推荐系统的兴趣探索方法及装置 |
CN107544981A (zh) * | 2016-06-25 | 2018-01-05 | 华为技术有限公司 | 内容推荐方法及装置 |
CN107911719A (zh) * | 2017-10-30 | 2018-04-13 | 中国科学院自动化研究所 | 视频动态推荐装置 |
CN107909427A (zh) * | 2017-10-25 | 2018-04-13 | 浙江大学 | 一种提升推荐模型时序数据挖掘能力的循环神经网络方法 |
CN108182489A (zh) * | 2017-12-25 | 2018-06-19 | 浙江工业大学 | 一种基于在线学习行为分析的个性化学习推荐方法 |
CN108764597A (zh) * | 2018-04-02 | 2018-11-06 | 华南理工大学 | 一种基于集成学习的产品质量控制方法 |
CN109034908A (zh) * | 2018-08-07 | 2018-12-18 | 大连理工大学 | 一种结合排序学习的电影排名预测方法 |
CN109063163A (zh) * | 2018-08-14 | 2018-12-21 | 腾讯科技(深圳)有限公司 | 一种音乐推荐的方法、装置、终端设备和介质 |
US20190059998A1 (en) * | 2017-08-30 | 2019-02-28 | International Business Machines Corporation | Optimizing patient treatment recommendations using reinforcement learning combined with recurrent neural network patient state simulation |
CN109492157A (zh) * | 2018-10-24 | 2019-03-19 | 华侨大学 | 基于rnn、注意力机制的新闻推荐方法及主题表征方法 |
CN109543112A (zh) * | 2018-11-30 | 2019-03-29 | 苏州大学 | 一种基于循环卷积神经网络的序列推荐方法及装置 |
CN109815309A (zh) * | 2018-12-21 | 2019-05-28 | 航天信息股份有限公司 | 一种基于个性化的用户信息推荐方法及系统 |
CN109903117A (zh) * | 2019-01-04 | 2019-06-18 | 苏宁易购集团股份有限公司 | 一种用于商品推荐的知识图谱处理方法及装置 |
CN109902706A (zh) * | 2018-11-09 | 2019-06-18 | 华为技术有限公司 | 推荐方法及装置 |
CN110019725A (zh) * | 2017-12-22 | 2019-07-16 | 科沃斯商用机器人有限公司 | 人机交互方法、系统及其电子设备 |
-
2019
- 2019-08-28 CN CN202210615759.5A patent/CN115049052A/zh active Pending
- 2019-08-28 CN CN201910803314.8A patent/CN110598766B/zh active Active
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102346894A (zh) * | 2010-08-03 | 2012-02-08 | 阿里巴巴集团控股有限公司 | 推荐信息的输出方法、系统及服务器 |
CN105869024A (zh) * | 2016-04-20 | 2016-08-17 | 北京小米移动软件有限公司 | 商品的推荐方法及装置 |
CN107544981A (zh) * | 2016-06-25 | 2018-01-05 | 华为技术有限公司 | 内容推荐方法及装置 |
CN106372058A (zh) * | 2016-08-29 | 2017-02-01 | 中译语通科技(北京)有限公司 | 一种基于深度学习的短文本情感要素抽取方法及装置 |
CN107229666A (zh) * | 2016-12-30 | 2017-10-03 | 北京字节跳动科技有限公司 | 一种基于推荐系统的兴趣探索方法及装置 |
CN106778042A (zh) * | 2017-01-26 | 2017-05-31 | 中电科软件信息服务有限公司 | 心脑血管患者相似性分析方法及系统 |
US20190059998A1 (en) * | 2017-08-30 | 2019-02-28 | International Business Machines Corporation | Optimizing patient treatment recommendations using reinforcement learning combined with recurrent neural network patient state simulation |
CN107909427A (zh) * | 2017-10-25 | 2018-04-13 | 浙江大学 | 一种提升推荐模型时序数据挖掘能力的循环神经网络方法 |
CN107911719A (zh) * | 2017-10-30 | 2018-04-13 | 中国科学院自动化研究所 | 视频动态推荐装置 |
CN110019725A (zh) * | 2017-12-22 | 2019-07-16 | 科沃斯商用机器人有限公司 | 人机交互方法、系统及其电子设备 |
CN108182489A (zh) * | 2017-12-25 | 2018-06-19 | 浙江工业大学 | 一种基于在线学习行为分析的个性化学习推荐方法 |
CN108764597A (zh) * | 2018-04-02 | 2018-11-06 | 华南理工大学 | 一种基于集成学习的产品质量控制方法 |
CN109034908A (zh) * | 2018-08-07 | 2018-12-18 | 大连理工大学 | 一种结合排序学习的电影排名预测方法 |
CN109063163A (zh) * | 2018-08-14 | 2018-12-21 | 腾讯科技(深圳)有限公司 | 一种音乐推荐的方法、装置、终端设备和介质 |
CN109492157A (zh) * | 2018-10-24 | 2019-03-19 | 华侨大学 | 基于rnn、注意力机制的新闻推荐方法及主题表征方法 |
CN109902706A (zh) * | 2018-11-09 | 2019-06-18 | 华为技术有限公司 | 推荐方法及装置 |
CN109543112A (zh) * | 2018-11-30 | 2019-03-29 | 苏州大学 | 一种基于循环卷积神经网络的序列推荐方法及装置 |
CN109815309A (zh) * | 2018-12-21 | 2019-05-28 | 航天信息股份有限公司 | 一种基于个性化的用户信息推荐方法及系统 |
CN109903117A (zh) * | 2019-01-04 | 2019-06-18 | 苏宁易购集团股份有限公司 | 一种用于商品推荐的知识图谱处理方法及装置 |
Non-Patent Citations (2)
Title |
---|
QIONGJIE YAO 等: "Hierarchical Attention Based Recurrent Neural Network Framework for Mobile MOBA Game Recommender Systems", 《2018 IEEE INTL CONF ON PARALLEL & DISTRIBUTED PROCESSING WITH APPLICATIONS》 * |
杨雷: "基于机器学习的个性化推荐算法研究", 《中国博士学位论文全文数据库 信息科技辑》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111090756A (zh) * | 2020-03-24 | 2020-05-01 | 腾讯科技(深圳)有限公司 | 基于人工智能的多目标推荐模型的训练方法及装置 |
CN112116411A (zh) * | 2020-08-10 | 2020-12-22 | 第四范式(北京)技术有限公司 | 一种用于商品推荐的排序模型的训练方法、装置及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110598766B (zh) | 2022-05-10 |
CN115049052A (zh) | 2022-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7205565B2 (ja) | 棚割支援装置、棚割支援システム、棚割支援方法、および、記録媒体 | |
CN109697629B (zh) | 产品数据推送方法及装置、存储介质、计算机设备 | |
CN107145536B (zh) | 用户画像构建方法与装置及推荐方法与装置 | |
CN111179031B (zh) | 一种商品推荐模型的训练方法、装置及系统 | |
WO2019114423A1 (zh) | 对模型预测值进行融合的方法、装置和设备 | |
US11599927B1 (en) | Artificial intelligence system using deep neural networks for pairwise character-level text analysis and recommendations | |
US8812376B2 (en) | Techniques for generating an electronic shopping list | |
US9928530B2 (en) | Digitization of a catalog of retail products | |
CN110555469A (zh) | 处理交互序列数据的方法及装置 | |
CN108984555B (zh) | 用户状态挖掘和信息推荐方法、装置以及设备 | |
US20190213610A1 (en) | Evaluation device and evaluation method | |
CN109934646B (zh) | 预测新商品关联购买行为的方法及装置 | |
CN110929138A (zh) | 推荐信息生成方法、装置、设备及存储介质 | |
CN108256537A (zh) | 一种用户性别预测方法和系统 | |
CN110598766B (zh) | 一种商品推荐模型的训练方法、装置及电子设备 | |
CN110321473A (zh) | 基于多模态注意力的多样性偏好信息推送方法、系统、介质及设备 | |
CN113989476A (zh) | 对象识别方法及电子设备 | |
JP6696568B2 (ja) | アイテム推奨方法、アイテム推奨プログラムおよびアイテム推奨装置 | |
CN108512674B (zh) | 用于输出信息的方法、装置和设备 | |
JP6169511B2 (ja) | コメント文章に基づいて投稿者の心理遷移を分析する装置、プログラム及び方法 | |
CN112116411B (zh) | 一种用于商品推荐的排序模型的训练方法、装置及系统 | |
CN110796509B (zh) | 商品推荐方法及装置 | |
CN114266601A (zh) | 营销策略确定方法、装置、终端设备及存储介质 | |
CN114154078A (zh) | 信息推荐方法及装置、电子设备、存储介质 | |
CN111352624A (zh) | 界面展示方法、信息处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |