CN110838020A - 基于向量迁移的推荐方法、装置、计算机设备及存储介质 - Google Patents
基于向量迁移的推荐方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN110838020A CN110838020A CN201910871369.2A CN201910871369A CN110838020A CN 110838020 A CN110838020 A CN 110838020A CN 201910871369 A CN201910871369 A CN 201910871369A CN 110838020 A CN110838020 A CN 110838020A
- Authority
- CN
- China
- Prior art keywords
- feature vector
- vector
- neural network
- deep neural
- commodity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000013598 vector Substances 0.000 title claims abstract description 212
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000005012 migration Effects 0.000 title claims abstract description 45
- 238000013508 migration Methods 0.000 title claims abstract description 45
- 239000011159 matrix material Substances 0.000 claims abstract description 108
- 238000013528 artificial neural network Methods 0.000 claims abstract description 83
- 238000012549 training Methods 0.000 claims abstract description 44
- 230000004927 fusion Effects 0.000 claims abstract description 34
- 238000000354 decomposition reaction Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 5
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- 238000004519 manufacturing process Methods 0.000 abstract description 11
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 230000007774 longterm Effects 0.000 description 14
- 238000003062 neural network model Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 6
- 230000006399 behavior Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- Development Economics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Marketing (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明适用于人工智能领域,提供基于向量迁移的推荐方法、装置、计算机设备及存储介质,其中,方法包括:获取通过全量数据训练好的隐语义模型,其中,全量数据包括用户历史偏好数据,训练好的隐语义模型包括由全量数据训练得到的全量矩阵;提取隐语义模型中的目标特征向量,其中,目标特征向量包括商品特征向量;将目标特征向量迁移到预先设置的深度神经网络中的对应特征向量层,得到融合深度神经网络;基于融合深度神经网络,输出预测结果进行推荐,其中,所述预测结果包括商品预测结果。本申请能够减小深度神经网络的模型规模,降低模型训练时间,提高生产效率。
Description
技术领域
本发明属于人工智能技术领域,尤其涉及一种基于向量迁移的推荐方法、装置、计算机设备及存储介质。
背景技术
目前,由于网购的发展成熟与人工智能的技术兴起,商品推荐系统已经得到广泛应用,主要是采用的是LFM隐语义模型以及DNN深度神经网络进行预测。其中,LFM需要长期的数据,时间窗口跨度很大,涉及的用户和商品都是全量的,考虑的是某个用户在某个时间窗口内对所有商品的偏好,因此计算量大,模型结果也反映用户的长期的稳定的偏好,一般工业应用LFM都是离线使用全量数据进行训练,无法反应用户近期的偏好,灵敏度不高。DNN深度神经网络的训练数据主要为点击序列,是排序模型,虽然方便线上训练,但是模型结果反映相对短期的偏好,预测结果受数据集影响较大,需要对数据集以及模型频繁进行更新。另外,当模型想要反映较为长期的偏好时,商品量和用户量会变得较大或当商品量和用户量较大时,深度神经网络的参数量也变大,训练时间变长,导致模型的生产效率不高。
发明内容
本发明实施例提供一种基于向量迁移的推荐方法、装置、计算机设备及存储介质,旨在解决现有技术中DNN深度神经网络存在的需要频繁更新以及反映长期偏好时模型训练时间长的问题。
为了解决所述问题,本发明实施例是这样实现的,提供一种基于向量迁移的推荐方法,包括步骤:
获取通过全量数据训练好的隐语义模型,其中,所述全量数据包括用户历史偏好数据,所述训练好的隐语义模型包括由全量数据训练得到的全量矩阵;
提取所述隐语义模型中的目标特征向量,其中,目标特征向量包括商品特征向量;
将所述目标特征向量迁移到预先设置的深度神经网络中的对应特征向量层,得到融合深度神经网络;
基于所述融合深度神经网络,输出预测结果进行推荐,其中,所述预测结果包括商品预测结果。
进一步的,所述提取所述隐语义模型中的目标特征向量的步骤具体包括:
对所述隐语义模型中的全量矩阵进行矩阵分解,得到包括商品特征的隐式因子矩阵,所述全量矩阵包括商品特征及用户特征;
基于所述商品特征的隐式因子矩阵提取商品特征向量。
进一步的,所述对所述隐语义模型中的全量矩阵进行矩阵分解的步骤具体包括:
使用随机梯度下降算法对损失函数进行优化,迭代计算参数,直到参数收敛;
基于收敛的参数得到隐式因子矩阵,其中参数指的是隐式因子矩阵中矩阵单元的参数。
进一步的,所述基于所述商品特征的隐式因子矩阵提取商品特征向量的步骤具体包括:
提取所述商品特征的隐式因子矩阵中的类别所在的行或列作为目标特征向量,其中,目标特征向量包括至少一个类别属性与多个隐式因子对应的矩阵单元。
进一步的,所述深度神经网络的预先设置的步骤具体包括:
获取所述深度神经网络的初始权重参数,并通过训练集对所述深度神经网络进行训练;
调整深度神经网络中的权重参数,使训练集的曲线拟合,得到最终权重参数。
进一步的,所述将所述目标特征向量迁移到预先设置的深度神经网络中的对应特征向量层的步骤具体包括:
判断提取的目标特征向量的属性;
根据所述目标特征向量的属性,匹配到深度神经网络中对应属性的特征向量层,将对应属性的特征向量层中的向量替换为目标特征向量。
进一步的,所述方法还包括步骤:
检测所述隐语义模型的全量矩阵是否更新;
若所述隐语义模型的全量矩阵更新,则重新提取目标特征向量,并更新融合深度神经网络中对应的特征向量层中的向量数据。
本发明还提供一种基于向量迁移的推荐装置,包括:
获取模块,用于获取通过全量数据训练好的隐语义模型,其中,所述全量数据包括用户历史偏好数据,所述训练好的隐语义模型包括由全量数据训练得到的全量矩阵;
提取模块,用于提取所述隐语义模型中的目标特征向量,其中,目标特征向量包括商品特征向量;
迁移模块,用于将所述目标特征向量迁移到预先设置的深度神经网络中的对应特征向量层,得到融合深度神经网络;
推荐模块,用于基于所述融合深度神经网络,输出预测结果进行推荐,其中,所述预测结果包括商品预测结果。
本发明还提供一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现如本发明中任一项实施例所述的基于向量迁移的推荐方法的步骤。
本发明还提供一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如本发明中任一项实施例所述的基于向量迁移的推荐方法的步骤。
本发明实现的有益效果:本发明通过将训练好的隐语义模型中的目标特征向量迁移至预先设置的深度神经网络中,由于目标特征向量是已经训练好的,可以使深度神经网络不需要学习特征向量,减小了融合深度神经网络的模型规模,降低了模型训练时间,提高了生产效率。另外,由于隐语义模型是通过全量的用户和商品数据进行训练,所以目标特征向量更能反映用户的长期的偏好,提高了融合深度神经网络模型鲁棒性,同时隐语义模型是离线训练,数据量增长也不影响融合深度神经网络模型的生产效率。
附图说明
图1是本申请可以应用于其中的示例性系统架构图;
图2是本发明实施例提供的基于向量迁移的推荐方法的一个实施例的流程图;
图3是图2实施例中步骤S202的一种具体实施方式的流程图;
图4是本发明实施例提供的矩阵分解示意图;
图5是图3实施例中步骤S301的一种具体实施方式的流程图;
图6是图3实施例中步骤S302的一种具体实施方式的流程图;
图7是本发明实施例中深度神经网络预先设置的流程示意图;
图8是图2实施例中步骤S203的一种具体实施方式的流程图;
图9是本发明实施例提供的基于向量迁移的推荐方法的另一个实施例的流程图;
图10是本发明实施例的基于向量迁移的推荐装置的一个实施例的结构示意图;
图11是本发明实施例的基于向量迁移的推荐装置的另一个实施例的结构示意图;
图12是本发明实施例的基于向量迁移的推荐装置的另一个实施例的结构示意图;
图13是本发明实施例的深度神经网络的训练模块结构示意图;
图14是本发明实施例的基于向量迁移的推荐装置的另一个实施例的结构示意图;
图15是本发明实施例的基于向量迁移的推荐装置的另一个实施例的结构示意图;
图16是本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明通过将训练好的隐语义模型中的目标特征向量迁移至预先设置的深度神经网络中,由于目标特征向量是已经训练好的,可以使深度神经网络不需要学习特征向量,减小了融合深度神经网络的模型规模,降低了模型训练时间,提高了生产效率。另外,由于隐语义模型是通过全量的用户和商品数据进行训练,所以目标特征向量更能反映用户的长期的偏好,使得融合深度神经网络模型也能反映用户长期的偏好,不用频繁更新,提高了融合深度神经网络模型鲁棒性,同时隐语义模型是离线训练,数据量增长也不影响融合深度神经网络模型的生产效率。
如图1所示,系统架构100可以包括服务器105,网络102和终端设备101、102、103。网络104用以在服务器105和终端设备101、102、103之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等。终端设备101、102、103可以是具有显示屏,可以下载应用软件,可以进行数据读写等的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等,客户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或获取信息等。
应该理解,图1中的移动终端、网络和设备的数目仅仅是示意性的,根据实现需要,可以具有任意数目的移动终端、网络和服务器。
如图2所示,为根据本申请的基于向量迁移的推荐方法所提供的一个实施例的流程图。上述的基于向量迁移的推荐方法,包括步骤:
S201,获取通过全量数据训练好的隐语义模型,其中,全量数据包括用户历史偏好数据,训练好的隐语义模型包括由全量数据训练得到的全量矩阵。
在本实施例中,基于向量迁移的推荐方法可以运行于搭载推荐系统的电子设备(例如图1所示的移动终端)。其中,上述的全量数据可以是用户的历史偏好数据,上述的偏好数据可以是由用户对商品的历史行为数据得到,用户的历史行为数据包括用户对某个商品点击的次数、购买次数,收藏,分享、评分等,比如:用户点击A商品18次,说明用户反复浏览该A商品,可以认为该用户是偏好该A商品的;又如:用户将B商品进行收藏,以防止找不到,也可以认为该用户是偏好该B商品的;再如:用户对C商品评分为9,对D商品评分为1,则可以认为用户偏好C商品,偏厌D商品。上述的隐语义模型中的全量矩阵可以是通过将全量数据输入到隐语义模型中进行训练学习得到的一个评分矩阵(也可以称为推荐矩阵)。比如:通过将用户的历史购买数据输入隐语义模型中,根据模型内的参数进行计算,将用户的历史行为数据转换成对应的分数值,形成商品推荐矩阵,对应的分数值可以理解为偏好值,用于表示用户对商品的偏好程度,此时上述的商品推荐矩阵包括有用户(User)数据与商品(Item)数据,该商品推荐矩阵也可以称为全量矩阵。上述的隐语义模型为在离线情况下通过全量数据训练好的模型,上述通过全量数据训练好的隐语义模型指的是隐语义模型在经过训练后可以直接用于预测。
S202,提取隐语义模型中的目标特征向量,其中,目标特征向量包括商品特征向量。
在本实施例中,上述的隐语义模型中的特征向量可以通过全量矩阵进行表示,比如,全量矩阵可以包括用户特征(User)与商品特征(Item)两个维度,两个维度交叉得到矩阵单元,每个矩阵单元表示对应用户对于对应商品的偏好值,一组偏好值可用于表示特征向量,如表1所示,在表1中,R11-R35为各矩阵单元对应的偏好值,关于用户特征User1的特征向量可以是[R11,R12,R13,R14,R15],关于商品特征Item1的特征向量可以是[R11,R21,R31]。
Item1 | Item2 | Item3 | Item4 | Item5 | |
User1 | R11 | R12 | R13 | R14 | R15 |
User2 | R21 | R22 | R23 | R24 | R25 |
User3 | R31 | R32 | R33 | R34 | R35 |
表1
偏好值的计算可以通过对用户特征与商品特征进行损失函数计算,从而得到用户对类别的偏好值,在隐语义模型中可以通过用户对商品的偏好值进行推荐,上述的目标特征向量可以是提取商品特征向量,也可以是用户特征向量,若是商品特征向量,可以通过商品特征向量向用户进行商品推荐,若是用户特征向量,可以为商品推荐意向用户。本实施例中优选为商品特征向量,可以通过在训练好的隐语义模型中的数据中查找到对应于商品特征向量的数据进行提取,也可以通过对全量矩阵进行矩阵分解从而得到商品特征向量。上述的目标特征向量优选为商品特征向量。
S203,将目标特征向量迁移到预先设置的深度神经网络中的对应特征向量层,得到融合深度神经网络。
其中,可以将目标特征向量从隐语义模型中提取出来存储在一个更新数据库中,上述更新数据库中的目标特征向量可以根据隐语义模型中的数据更新进行更新。将目标特征向量进行迁移可以是通过更新数据库进行迁移,也可以是直接从隐语义模型中提取到目标特征后进行迁移。
上述的深度神经网络可以是预先设置的,比如预先训练好的,从网上下载得到的,也可以是用户自己搭建自己训练的等,需要理解的是,该深度神经网络中应包括与目标特征对应的特征向量层,这样,才能完成目标特征向量的迁移。比如,当目标向量为商品特征向量时,该深度神经网络中包括与商品特征对应的商品特征向量层。
上述得到的融合深度神经网络可以理解为融合了隐语义模型中的商品特征向量的深度神经网络,因为融合了全量的商品特征向量,从而可以通过深度神经网络反映用户长期的稳定的偏好,增加了模型的鲁棒性。
S204,基于融合深度神经网络,输出预测结果进行推荐,其中,上述预测结果包括商品预测结果。
其中,由于上述的融合深度神经网络中融合了隐语义模型的商品特征向量,上述的预测结果可以反映用户长期的偏好,根据用户长期的偏好进行推荐,可以提高推荐的精准度,而且,融合深度神经网络的特征向量在隐语义模型中的已经进行学习,从而不需要在线上对全量的目标特征向量属性再进行训练学习,保证了深度神经网络的训练高效性,降低模型训练时间。
本发明通过将训练好的隐语义模型中的目标特征向量迁移至预先设置的深度神经网络中,由于目标特征向量是已经训练好的,可以使深度神经网络不需要学习特征向量,减小了融合深度神经网络的模型规模,降低了模型训练时间,提高了生产效率。另外,由于隐语义模型是通过全量的用户和商品数据进行训练,所以目标特征向量更能反映用户的长期的偏好,使得融合深度神经网络模型也能反映用户长期的偏好,不用频繁更新,提高了融合深度神经网络模型鲁棒性,同时隐语义模型是离线训练,数据量增长也不影响融合深度神经网络模型的生产效率。
进一步地,如图3所示,上述步骤S202具体包括:
S301,对隐语义模型中的全量矩阵进行矩阵分解,得到包括商品特征的隐式因子矩阵,全量矩阵包括商品特征及用户特征。
S302,基于商品特征的隐式因子矩阵提取商品特征向量。
具体的,通过全量数据得到全量矩阵(商品推荐矩阵),比如,全量数据包括用户与商品的数据,全量矩阵则是的用户与商品的矩阵关系,如表2所示:
Item1 | Item2 | Item3 | |
User1 | R11 | R12 | R13 |
User2 | R21 | R22 | R23 |
User3 | R31 | R32 | R33 |
表2
表2中,Item为商品,User为用户,R11-R34为偏好数据,可以用于表示该用户购买或点击该商品的次数或表示该用户对该商品的偏好值。
具体的,请参照图4,如图4所示,对隐语义模型中的全量矩阵进行矩阵分解包括:通过一个隐式因子class将全量矩阵分解为两个隐式因子矩阵,分别是基于用户特征的隐式因子矩阵与基于商品特征的隐式因子矩阵,其中,用户特征的隐式因子矩阵与商品特征的隐式因子矩阵相乘得到全量矩阵。商品特征的隐式因子矩阵包括商品特征与隐式因子特征,商品特征向量可以通过基于商品特征的隐式因子矩阵进行表示,比如item的特征向量为item1=[Q11,Q21,Q31],item2=[Q12,Q22,Q32],item3=[Q13,Q23,Q33],用户特征的隐式因子矩阵包括用户特征与隐式因子矩阵,用户特征向量可以基于通过商品特征的隐式因子矩阵进行表示,比如user的特征向量为user1=[P11,P12,P13],user2=[P21,P22,P23]。
通过对全量矩阵进行矩阵分解,可以直接得到商品特征的隐式因子矩阵,从隐式因子矩阵中提取商品特征向量,其表征性较强,可以增加推荐的精准度。
进一步地,如图5所示,上述步骤S301具体包括:
S401,使用随机梯度下降算法对损失函数进行优化,迭代计算参数,直到参数收敛。
S402,基于收敛的参数得到隐式因子矩阵,其中参数指的是隐式因子矩阵中矩阵单元的参数。
在本发明实施例中,矩阵分解的原理如下:
根据上式可以理解,全量矩阵可以由两个隐式因子矩阵的乘积得到,比如,假设RUI为R12,则有R12=P1Q2=P11Q12+P12Q22+P13Q32。
上述的损失函数如下:
上述的损失函数中,RUI表示偏好值,为1或0,正样本为1表示偏好,负样本为0表示不偏好,K为隐式因子,λ‖PU‖2+λ‖QI‖2为正则项,防止损失函数过拟合。通过对参数PUK与QKI求偏导,确定梯度下降的方向如下式:
通过迭代计算,逼近得到收敛的参数PUK与QKI如下式:
其中,上述式子中的α为学习速率,λ为正则化参数,通过PUK得到基于用户特征的隐式因子矩阵[P11,P12,P13],[P21,P22,P23],[P31,P32,P33]。通过QKI得到基于商品特征的隐式因子矩阵[Q11,Q12,Q13,Q14],[Q11,Q12,Q13,Q14],[Q11,Q12,Q13,Q14]。以上的计算过程在计算机中进行,用户只需要设定计算公式及提供计算数据即可。
通过上述的计算,可以迭代得到全量矩阵的两个隐式因子矩阵,便于特征向量的提取。
进一步地,如图6所示,上述S302的步骤具体包括:
S501,提取商品特征的隐式因子矩阵中的类别所在的行或列作为目标特征向量,其中,目标特征向量包括至少一个类别属性与多个隐式因子对应的矩阵单元。
在本发明实施例中,商品特征的隐式因子矩阵为上述实施例中的得到的隐式矩阵,请结合图4进行理解,上述的基于商品特征的隐式因子矩阵包括多个隐式因子与至少一个类别属性,上述的类别属性可以是商品名称、商品类别、商品单价等属性,比如,item为商品单价时,类别属性为商品单价,目标特征向量表示某个商品单价下的偏好程度。目标特征向量指的是一个类别属性与多个隐式因子形成的向量,比如图2中的类别item的特征向量为item1=[Q11,Q21,Q31],item2=[Q12,Q22,Q32],item3=[Q13,Q23,Q33]。
这样,可以根据不同的类别属性,在隐语义矩阵中提取不同的特征向量进行迁移,以使融合深度神经网络适应不同条件的推荐。
进一步地,如图7所示,上述方法中,深度神经网络的预先设置的步骤具体包括:
S601,获取深度神经网络的初始权重参数,并通过训练集对深度神经网络进行训练。
S602,调整深度神经网络中的权重参数,使训练集的曲线拟合,得到最终权重参数。
在本发明实施例中,上述的初始权重参数可以是用户根据经验进行设定,也可以是在网络上的开源站比如gethub上进行获取,还可以使用别人训练得到的权重参数导入作为初始权重参数。通过使用训练集对深度神经网络进行训练,在训练过程中不断调整深度神经网络中的权重参数,具体的,训练过程包括权重初始化,通过训练数据对初始化的权重进行调整,在训练集的曲线拟合后,得到各层的最终权重参数。这样,在得到最终权重参数后,只需要将训练过的商品特征向量替换到对应层中,即可使用该层的权重参数,整个模型不用因替换特征向量而导致需要重新训练。当然,在一种可能的实施例中,商品特征向量为没有训练过的特征向量,此时,需要再训练得到该层的权重参数。
这样,将在隐语义模型中训练过的特征向量替换到训练好的深度神经网络中,直接就可以进行预测推荐,不需要再对融合深度神经网络再进行训练,提高生产效率。
进一步地,如图8所示,上述的步骤S203具体包括:
S701,判断提取的目标特征向量的属性。
S702,根据目标特征向量的属性,匹配到深度神经网络中对应属性的特征向量层,将对应属性的特征向量层中的向量替换为目标特征向量。
其中,目标特征向量的属性包括用户属性、商品属性等,判断提取的目标特征向量的属性可以是通过目标特征向量所属的隐式因子矩阵,比如:若目标特征向量为用户特征向量,则其为用户特征的隐式因子矩阵中提取得到,若目标特征向量为商品特征向量,则其为商品特征的隐式因子矩阵中提取得到,也可以是根据特征向量的是行向量或列向量来进行判断,比如,在图4中,用户特征向量则是行向量,商品特征向量为列向量。
将深度神经网络中的特征向量层替换为目标特征向量,可以是将特征向量层的向量数据删除,将目标特征向量数据进行导入,从而得到融合神经网络。
当然,为使用户得到的商品推荐更加精确,可以将商品属性细分为到类别属性,比如,类别属性可以是商品名称、商品类别、商品单价等属性。
进一步地,如图9所示,上述方法还包括:
S801,检测隐语义模型的全量矩阵是否更新。
S802,若隐语义模型的全量矩阵更新,则重新提取目标特征向量,并更新融合深度神经网络中对应的特征向量层中的向量数据。
在本发明实施例中,为了保证全量数据的时效性,可以定时对隐语义模型的数据进行更新,比如1个月或2个月更新一次。而普通的深度神经网络模型更新时间较短,几天就要更新一次。由于融合深度神经网络中整合了隐语义模型的通过全量数据训练得到的特征向量,该向量是全量的,长期的,使得融合深度神经网络也是全量的,长期的,稳定的,因此,融合尝试神经网络模型的更新也可以与隐语义模型的更新时间进行同步。
本发明实施例通过将训练好的隐语义模型中的目标特征向量迁移至预先设置的深度神经网络中,由于目标特征向量是已经训练好的,可以使深度神经网络不需要学习特征向量,减小了融合深度神经网络的模型规模,降低了模型训练时间,提高了生产效率。另外,由于隐语义模型是通过全量的用户和商品数据进行训练,所以目标特征向量更能反映用户的长期的偏好,提高了融合深度神经网络模型鲁棒性,同时隐语义模型是离线训练,数据量增长也不影响融合深度神经网络模型的生产效率。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
如图10所示,为本实施例所提供的基于向量迁移的推荐装置的示意图,上述装置900包括:获取模块901、提取模块902、迁移模块903、推荐模块904。
其中:
获取模块901,用于获取通过全量数据训练好的隐语义模型,其中,全量数据包括用户历史偏好数据,训练好的隐语义模型包括由全量数据训练得到的全量矩阵。
提取模块902,用于提取隐语义模型中的目标特征向量,其中,目标特征向量包括商品特征向量。
迁移模块903,用于将目标特征向量迁移到预先设置的深度神经网络中的对应特征向量层,得到融合深度神经网络。
推荐模块904,用于基于上述融合深度神经网络,输出预测结果进行推荐,其中,上述预测结果包括商品预测结果。
进一步地,如图11所示,上述的提取模块902包括:分解单元9021以及提取单元9022,其中:
上述分解单元9021,用于对隐语义模型中的全量矩阵进行矩阵分解,得到包括商品特征的隐式因子矩阵,全量矩阵包括商品特征及用户特征。
上述提取单元9022,用于基于商品特征的隐式因子矩阵提取商品特征向量。
进一步地,如图12所示,上述上述分解单元9021包括:第一计算子单元90211、第二计算子单元90212,其中:
上述第一计算子单元90211,用于使用随机梯度下降算法对损失函数进行优化,迭代计算参数,直到参数收敛;
上述第二计算子单元90212,用于基于收敛的参数得到隐式因子矩阵,其中参数指的是隐式因子矩阵中矩阵单元的参数。
进一步地,上述提取单元9022,还用于提取商品特征的隐式因子矩阵中的类别所在的行或列作为目标特征向量,其中,目标特征向量包括至少一个类别属性与多个隐式因子对应的矩阵单元。
进一步地,如图13所示,上述装置900还包括:训练模块905。其中,训练模块905包括:权重获取单元9051以及权重调整单元9052
上述权重获取单元9051,用于获取深度神经网络的初始权重参数,并通过训练集对深度神经网络进行训练。
上述权重调整单元9052,用于调整深度神经网络中的权重参数,使训练集的曲线拟合,得到最终权重参数。
进一步地,如图14所示,上述迁移模块903包括:判断单元9031以及匹配替换单元9032,其中:
上述判断单元9031,用于判断提取的目标特征向量的属性。
上述匹配替换单元9032,用于根据目标特征向量的属性,匹配到深度神经网络中对应属性的特征向量层,将对应属性的特征向量层中的向量替换为目标特征向量。
进一步地,如图15所示,上述装置900还包括:检测模块906以及更新模块907。其中,
上述检测模块906,用于检测隐语义模型的全量矩阵是否更新。
上述更新模块907,用于若隐语义模型的全量矩阵更新,则重新提取目标特征向量,并更新融合深度神经网络中对应的特征向量层中的向量数据。
本申请实施例提供的基于向量迁移的推荐装置能够实现图2至图9的方法实施例中的各个基于向量迁移的推荐方法的实施方式,以及相应有益效果,为避免重复,这里不再赘述。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图16,图16为本实施例计算机设备基本结构框图。
计算机设备15包括通过系统总线相互通信连接存储器151、处理器152、网络接口153。需要指出的是,图中仅示出了具有组件151-153的计算机设备15,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。计算机设备可以与客户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
存储器151至少包括一种类型的可读存储介质,可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,存储器151可以是计算机设备15的内部存储单元,例如该计算机设备15的硬盘或内存。在另一些实施例中,存储器151也可以是计算机设备15的外部存储设备,例如该计算机设备15上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,存储器151还可以既包括计算机设备15的内部存储单元也包括其外部存储设备。本实施例中,存储器151通常用于存储安装于计算机设备15的操作系统和各类应用软件,例如基于向量迁移的推荐方法的程序代码等。此外,存储器151还可以用于暂时地存储已经输出或者将要输出的各类数据。
处理器152在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器152通常用于控制计算机设备15的总体操作。本实施例中,处理器152用于运行存储器151中存储的程序代码或者处理数据,例如运行基于向量迁移的推荐方法的程序代码。
网络接口153可包括无线网络接口或有线网络接口,该网络接口153通常用于在计算机设备15与其他电子设备之间建立通信连接。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,计算机可读存储介质存储有基于向量迁移的推荐程序,上述基于向量迁移的推荐程序可被至少一个处理器执行,以使至少一个处理器执行如上述的各个实施例中的基于向量迁移的推荐方法的步骤。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例的基于向量迁移的推荐方法。
本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
以上实施例仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于向量迁移的推荐方法,其特征在于,包括步骤:
获取通过全量数据训练好的隐语义模型,其中,所述全量数据包括用户历史偏好数据,所述训练好的隐语义模型包括由全量数据训练得到的全量矩阵;
提取所述隐语义模型中的目标特征向量,其中,所述目标特征向量包括商品特征向量;
将所述目标特征向量迁移到预先设置的深度神经网络中的对应特征向量层,得到融合深度神经网络;
基于所述融合深度神经网络,输出预测结果进行推荐,其中,所述预测结果包括商品预测结果。
2.根据权利要求1所述的基于向量迁移的推荐方法,其特征在于,所述提取所述隐语义模型中的目标特征向量的步骤具体包括:
对所述隐语义模型中的全量矩阵进行矩阵分解,得到包括商品特征的隐式因子矩阵,所述全量矩阵包括商品特征及用户特征;
基于所述商品特征的隐式因子矩阵提取商品特征向量。
3.根据权利要求2所述的基于向量迁移的推荐方法,其特征在于,所述对所述隐语义模型中的全量矩阵进行矩阵分解的步骤具体包括:
使用随机梯度下降算法对损失函数进行优化,迭代计算参数,直到参数收敛;
基于收敛的参数得到隐式因子矩阵,其中参数指的是隐式因子矩阵中矩阵单元的参数。
4.根据权利要求2所述的基于向量迁移的推荐方法,其特征在于,所述基于所述商品特征的隐式因子矩阵提取商品特征向量的步骤具体包括:
提取所述商品特征的隐式因子矩阵中的类别所在的行或列作为目标特征向量,其中,目标特征向量包括至少一个类别属性与多个隐式因子对应的矩阵单元。
5.根据权利要求1所述的基于向量迁移的推荐方法,其特征在于,所述深度神经网络的预先设置的步骤具体包括:
获取所述深度神经网络的初始权重参数,并通过训练集对所述深度神经网络进行训练;
调整深度神经网络中的权重参数,使训练集的曲线拟合,得到最终权重参数。
6.根据权利要求1所述的基于向量迁移的推荐方法,其特征在于,所述将所述目标特征向量迁移到预先设置的深度神经网络中的对应特征向量层的步骤具体包括:
判断提取的目标特征向量的属性;
根据所述目标特征向量的属性,匹配到深度神经网络中对应属性的特征向量层,将对应属性的特征向量层中的向量替换为目标特征向量。
7.根据权利要求1至6中任一所述的基于向量迁移的推荐方法,其特征在于,所述方法还包括步骤:
检测所述隐语义模型的全量矩阵是否更新;
若所述隐语义模型的全量矩阵更新,则重新提取目标特征向量,并更新融合深度神经网络中对应的特征向量层中的向量数据。
8.一种基于向量迁移的推荐装置,其特征在于,包括:
获取模块,用于获取通过全量数据训练好的隐语义模型,其中,所述全量数据包括用户历史偏好数据,所述训练好的隐语义模型包括由全量数据训练得到的全量矩阵;
提取模块,用于提取所述隐语义模型中的目标特征向量,其中,所述目标特征向量包括商品特征向量;
迁移模块,用于将所述目标特征向量迁移到预先设置的深度神经网络中的对应特征向量层,得到融合深度神经网络;
推荐模块,用于基于所述融合深度神经网络,输出预测结果进行推荐,其中,所述预测结果包括商品预测结果。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的基于向量迁移的推荐方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的基于向量迁移的推荐方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910871369.2A CN110838020B (zh) | 2019-09-16 | 2019-09-16 | 基于向量迁移的推荐方法、装置、计算机设备及存储介质 |
PCT/CN2019/116921 WO2021051515A1 (zh) | 2019-09-16 | 2019-11-10 | 基于向量迁移的推荐方法、装置、计算机设备及非易失性可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910871369.2A CN110838020B (zh) | 2019-09-16 | 2019-09-16 | 基于向量迁移的推荐方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110838020A true CN110838020A (zh) | 2020-02-25 |
CN110838020B CN110838020B (zh) | 2023-06-23 |
Family
ID=69574664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910871369.2A Active CN110838020B (zh) | 2019-09-16 | 2019-09-16 | 基于向量迁移的推荐方法、装置、计算机设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110838020B (zh) |
WO (1) | WO2021051515A1 (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111553745A (zh) * | 2020-05-08 | 2020-08-18 | 深圳前海微众银行股份有限公司 | 基于联邦的模型更新方法、装置、设备及计算机存储介质 |
CN112347361A (zh) * | 2020-11-16 | 2021-02-09 | 百度在线网络技术(北京)有限公司 | 推荐对象的方法、神经网络及其训练方法、设备和介质 |
CN112418423A (zh) * | 2020-11-24 | 2021-02-26 | 百度在线网络技术(北京)有限公司 | 利用神经网络向用户推荐对象的方法、设备和介质 |
CN113656692A (zh) * | 2021-08-17 | 2021-11-16 | 中国平安财产保险股份有限公司 | 基于知识迁移算法的产品推荐方法、装置、设备及介质 |
CN113822776A (zh) * | 2021-09-29 | 2021-12-21 | 中国平安财产保险股份有限公司 | 课程推荐方法、装置、设备及存储介质 |
CN113971471A (zh) * | 2020-07-22 | 2022-01-25 | 上海顺如丰来技术有限公司 | 产品信息预测模型构建方法与产品信息预测方法 |
CN114547482A (zh) * | 2022-03-03 | 2022-05-27 | 智慧足迹数据科技有限公司 | 业务特征生成方法、装置、电子设备及存储介质 |
CN115396831A (zh) * | 2021-05-08 | 2022-11-25 | 中国移动通信集团浙江有限公司 | 交互模型生成方法、装置、设备及存储介质 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113222706B (zh) * | 2021-05-25 | 2024-01-30 | 深圳和锐网络科技有限公司 | 商品的二次推送方法、装置、电子设备及存储介质 |
CN113688327B (zh) * | 2021-08-31 | 2024-06-14 | 中国平安人寿保险股份有限公司 | 融合神经图协同滤波网络的数据预测方法、装置及设备 |
CN113706204B (zh) * | 2021-08-31 | 2024-04-05 | 中国平安财产保险股份有限公司 | 基于深度学习的权益发放方法、装置、设备及存储介质 |
CN113903026A (zh) * | 2021-10-09 | 2022-01-07 | 数贸科技(北京)有限公司 | 商品图片识别方法及装置 |
CN114138323B (zh) * | 2021-11-13 | 2023-08-18 | 苏州浪潮智能科技有限公司 | 一种产品多版本开发的管理方法、装置、设备及可读介质 |
CN114596120B (zh) * | 2022-03-15 | 2024-01-05 | 江苏衫数科技集团有限公司 | 一种商品销量预测方法、系统、设备及存储介质 |
CN116522003B (zh) * | 2023-07-03 | 2023-09-12 | 之江实验室 | 基于嵌入表压缩的信息推荐方法、装置、设备和介质 |
CN118096237A (zh) * | 2024-03-08 | 2024-05-28 | 北京嘉华铭品牌策划有限公司广东分公司 | 一种深度学习驱动的客户行为预测模型 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107451855A (zh) * | 2017-07-13 | 2017-12-08 | 南京师范大学 | 一种图构建与l1正则矩阵分解联合学习的推荐方法 |
CN108090229A (zh) * | 2018-01-10 | 2018-05-29 | 广东工业大学 | 一种基于卷积神经网络确定评分矩阵的方法和装置 |
CN109241440A (zh) * | 2018-09-29 | 2019-01-18 | 北京工业大学 | 一种基于深度学习的面向隐式反馈推荐方法 |
CN110210933A (zh) * | 2019-05-21 | 2019-09-06 | 清华大学深圳研究生院 | 一种基于生成对抗网络的隐语义推荐方法 |
WO2019165944A1 (zh) * | 2018-02-28 | 2019-09-06 | 中国银联股份有限公司 | 基于转移概率网络的商户推荐方法及其系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108090093B (zh) * | 2016-11-22 | 2021-02-09 | 华为技术有限公司 | 生成推荐结果的方法和装置 |
CN109359793B (zh) * | 2018-08-03 | 2020-11-17 | 创新先进技术有限公司 | 一种针对新场景的预测模型训练方法及装置 |
CN110147882B (zh) * | 2018-09-03 | 2023-02-10 | 腾讯科技(深圳)有限公司 | 神经网络模型的训练方法、人群扩散方法、装置及设备 |
CN110019965B (zh) * | 2019-02-28 | 2021-03-12 | 北京达佳互联信息技术有限公司 | 表情图像的推荐方法、装置、电子设备及存储介质 |
CN110162693B (zh) * | 2019-03-04 | 2024-05-10 | 深圳市雅阅科技有限公司 | 一种信息推荐的方法以及服务器 |
-
2019
- 2019-09-16 CN CN201910871369.2A patent/CN110838020B/zh active Active
- 2019-11-10 WO PCT/CN2019/116921 patent/WO2021051515A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107451855A (zh) * | 2017-07-13 | 2017-12-08 | 南京师范大学 | 一种图构建与l1正则矩阵分解联合学习的推荐方法 |
CN108090229A (zh) * | 2018-01-10 | 2018-05-29 | 广东工业大学 | 一种基于卷积神经网络确定评分矩阵的方法和装置 |
WO2019165944A1 (zh) * | 2018-02-28 | 2019-09-06 | 中国银联股份有限公司 | 基于转移概率网络的商户推荐方法及其系统 |
CN109241440A (zh) * | 2018-09-29 | 2019-01-18 | 北京工业大学 | 一种基于深度学习的面向隐式反馈推荐方法 |
CN110210933A (zh) * | 2019-05-21 | 2019-09-06 | 清华大学深圳研究生院 | 一种基于生成对抗网络的隐语义推荐方法 |
Non-Patent Citations (1)
Title |
---|
乔平安;曹宇;任泽乾;: "融合隐语义模型和K-meansplus聚类模型的推荐算法", 计算机与数字工程, no. 06, pages 45 - 48 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111553745A (zh) * | 2020-05-08 | 2020-08-18 | 深圳前海微众银行股份有限公司 | 基于联邦的模型更新方法、装置、设备及计算机存储介质 |
CN113971471A (zh) * | 2020-07-22 | 2022-01-25 | 上海顺如丰来技术有限公司 | 产品信息预测模型构建方法与产品信息预测方法 |
CN112347361A (zh) * | 2020-11-16 | 2021-02-09 | 百度在线网络技术(北京)有限公司 | 推荐对象的方法、神经网络及其训练方法、设备和介质 |
CN112347361B (zh) * | 2020-11-16 | 2024-03-01 | 百度在线网络技术(北京)有限公司 | 推荐对象的方法、神经网络及其训练方法、设备和介质 |
CN112418423A (zh) * | 2020-11-24 | 2021-02-26 | 百度在线网络技术(北京)有限公司 | 利用神经网络向用户推荐对象的方法、设备和介质 |
CN112418423B (zh) * | 2020-11-24 | 2023-08-15 | 百度在线网络技术(北京)有限公司 | 利用神经网络向用户推荐对象的方法、设备和介质 |
CN115396831A (zh) * | 2021-05-08 | 2022-11-25 | 中国移动通信集团浙江有限公司 | 交互模型生成方法、装置、设备及存储介质 |
CN113656692B (zh) * | 2021-08-17 | 2023-05-30 | 中国平安财产保险股份有限公司 | 基于知识迁移算法的产品推荐方法、装置、设备及介质 |
CN113656692A (zh) * | 2021-08-17 | 2021-11-16 | 中国平安财产保险股份有限公司 | 基于知识迁移算法的产品推荐方法、装置、设备及介质 |
CN113822776A (zh) * | 2021-09-29 | 2021-12-21 | 中国平安财产保险股份有限公司 | 课程推荐方法、装置、设备及存储介质 |
CN113822776B (zh) * | 2021-09-29 | 2023-11-03 | 中国平安财产保险股份有限公司 | 课程推荐方法、装置、设备及存储介质 |
CN114547482B (zh) * | 2022-03-03 | 2023-01-20 | 智慧足迹数据科技有限公司 | 业务特征生成方法、装置、电子设备及存储介质 |
CN114547482A (zh) * | 2022-03-03 | 2022-05-27 | 智慧足迹数据科技有限公司 | 业务特征生成方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2021051515A1 (zh) | 2021-03-25 |
CN110838020B (zh) | 2023-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110838020B (zh) | 基于向量迁移的推荐方法、装置、计算机设备及存储介质 | |
WO2019204086A1 (en) | System and methods for processing and interpreting text messages | |
JP6696257B2 (ja) | ボキャブラリ学習サポートシステム | |
US11403700B2 (en) | Link prediction using Hebbian graph embeddings | |
CN109376222A (zh) | 问答匹配度计算方法、问答自动匹配方法及装置 | |
CN112861012B (zh) | 基于上下文和用户长短期偏好自适应学习的推荐方法及装置 | |
CN110598120A (zh) | 基于行为数据的理财推荐方法及装置、设备 | |
CN111897954B (zh) | 一种用户评论方面挖掘系统、方法、及存储介质 | |
US9881000B1 (en) | Avoiding sentiment model overfitting in a machine language model | |
CN109117442B (zh) | 一种应用推荐方法及装置 | |
WO2022052744A1 (zh) | 会话信息处理方法、装置、计算机可读存储介质及设备 | |
CN110826686B (zh) | 有属性序列的机器学习系统和方法 | |
CN111160000B (zh) | 作文自动评分方法、装置终端设备及存储介质 | |
CN113420212A (zh) | 基于深度特征学习的推荐方法、装置、设备及存储介质 | |
CN109063120B (zh) | 一种基于聚类的协同过滤推荐方法和装置 | |
CN113763019A (zh) | 一种用户信息管理方法和装置 | |
CN111695024A (zh) | 对象评估值的预测方法及系统、推荐方法及系统 | |
CN112036954A (zh) | 物品推荐方法和装置、计算机可读存储介质、电子设备 | |
CN113963205A (zh) | 基于特征融合的分类模型训练方法、装置、设备及介质 | |
CN112632377A (zh) | 一种基于用户评论情感分析与矩阵分解的推荐方法 | |
CN113221019A (zh) | 基于即时学习的个性化推荐方法和系统 | |
CN110796504B (zh) | 物品推荐方法和装置 | |
Gao et al. | Convergence of the backward deep BSDE method with applications to optimal stopping problems | |
CN113779380B (zh) | 跨域推荐、内容推荐方法、装置及设备 | |
CN116028715A (zh) | 内容推荐方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |