CN116720918A - 视图编码器训练方法、物品推荐方法、装置、设备及介质 - Google Patents
视图编码器训练方法、物品推荐方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN116720918A CN116720918A CN202310727995.0A CN202310727995A CN116720918A CN 116720918 A CN116720918 A CN 116720918A CN 202310727995 A CN202310727995 A CN 202310727995A CN 116720918 A CN116720918 A CN 116720918A
- Authority
- CN
- China
- Prior art keywords
- target
- original
- view encoder
- sample pair
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 87
- 238000012549 training Methods 0.000 title claims abstract description 59
- 230000006870 function Effects 0.000 claims description 77
- 238000004590 computer program Methods 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 230000002829 reductive effect Effects 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 230000000873 masking effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q40/00—Finance; Insurance; Tax strategies; Processing of corporate or income taxes
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Technology Law (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了视图编码器训练方法、物品推荐方法、装置、设备及介质。该视图编码器训练方法可以应用在金融产品购买平台向用户推荐金融产品以及商业购买平台向用户推荐相关商品的场景中,该方法包括:获取第一增强图、第二增强图和高流行度子图;获取第一编码表示、第二编码表示和第三编码表示;获取正样本、第一负样本对和第二负样本对;基于正样本对、第一负样本对和第二负样本对,对原始视图编码器进行更新,获取目标视图编码器。该方法缩小正样本对之间的差异,扩大负样本对之间的差异,使最终更新完成的目标视图编码器在进行视图编码时,减少产生流行度较高的编码表示,实现在进行金融产品以及商品等物品推荐时,降低流行度偏差的目的。
Description
技术领域
本发明涉及人工智能领域,尤其涉及一种视图编码器训练方法、物品推荐方法、装置、设备及介质。
背景技术
随着人工智能技术的发展,能够支持用户进行多种产品购买的平台相继被开发出来,例如,金融企业推出的支持用户理财的金融产品购买平台,以及电商企业推出的支持用户进行商品购买的商业购买平台等。这些平台不仅可以支持用户的购买行为,也可以向用户进行相关金融产品和/或相关商品等物品的推荐。例如,金融产品购买平台根据用户的购买记录或者高流行度的金融产品向用户进行相关金融产品的推荐,商业购买平台根据用户的购买历史或者高流行度的物品向用户进行相关商品的推荐。
现有技术中,通常基于历史数据训练物品推荐模型,使用训练完成的物品推荐模型对用户进行物品推荐,但是,基于历史数据训练产生的物品推荐模型更倾向于推荐流行度更高的物品,从而导致马太效应,即随着时间的推移,流行度高的物品变得更流行,流行度低的物品越来越被边缘化。长此以往,会降低物品推荐的多样性,使得用户视野长期被流行度高的物品占据,造成物品推荐时产生流行度偏差的问题。如何在物品推荐时,降低物品的流行度偏差,使得推荐给用户的物品符合用户的实际需求,是需要物品推荐技术亟需解决的问题。
发明内容
本发明实施例提供一种物品推荐方法、装置、计算机设备及存储介质,以解决降低物品推荐的流行度偏差的问题。
一种视图编码器训练方法,包括:
获取原始物品数据对应的原始图;
对所述原始图进行图增强处理,获取第一增强图和第二增强图;
对所述原始图进行高流行度抽取,获取高流行度子图;
将所述第一增强图、所述第二增强图和所述高流行度子图输入至原始视图编码器,获取所述第一增强图对应的第一编码表示、所述第二增强图对应的第二编码表示和所述高流行度子图对应的第三编码表示;
基于所述第一编码表示和所述第二编码表示,获取正样本对;基于所述第一编码表示和所述第三编码表示,获取第一负样本对;基于所述第二编码表示和所述第三编码表示,获取第二负样本对;
基于所述正样本对、所述第一负样本对和所述第二负样本对,对所述原始视图编码器进行更新,获取目标视图编码器。
优选地,所述对所述原始图进行高流行度抽取,获取高流行度子图,包括:
对所述原始图中的N个原始节点进行中心性计算,确定每一原始节点对应的节点中心性,其中,N>2;
基于每一所述原始节点对应的节点中心性,对所述原始图中的N个原始节点进行高流行度抽取,获取包含M个目标节点的高流行度子图,其中,2≤M<N。
优选地,所述基于每一所述原始节点对应的节点中心性,对所述原始图中的N个原始节点进行高流行度抽取,获取包含M个目标节点的高流行度子图,包括:
基于每一所述原始节点对应的节点中心性,确定每一原始节点对应的中心性倒数值;
依据N个原始节点对应的中心性倒数值,由大到小依次丢弃K个原始节点和所述原始节点对应的无向边,获取N-K个剩余节点,其中,K≥1;
从N-K个所述剩余节点中,选取所述节点中心性大于预设中心性的M个目标节点,基于M个所述目标节点和所述目标节点对应的无向边,构建高流行度子图。
优选地,所述基于所述正样本对、所述第一负样本对和所述第二负样本对,对所述原始视图编码器进行更新,获取目标视图编码器,包括:
基于所述正样本对、所述第一负样本对和所述第二负样本对,获取所述原始视图编码器对应的目标损失函数,并根据所述目标损失函数对所述原始视图编码器进行更新;
若所述目标损失函数达到目标收敛条件,则将所述原始视图编码器确定为所述目标视图编码器。
优选地,所述基于所述正样本对、所述第一负样本对和所述第二负样本对,获取所述原始视图编码器对应的目标损失函数,包括:
获取所述正样本对的互信息量下界、所述第一负样本对的第一互信息量上界和所述第二负样本对的第二互信息量上界;
将所述第一负样本对的第一互信息量上界和所述第二负样本对的第二互信息量上界的和值,确定为原始互信息量上界;
采用超参数对所述原始互信息量上界进行修正,获取目标互信息量上界;
将所述互信息量下界和所述目标互信息量上界的差值,确定为所述原始视图编码器对应的目标损失函数。
一种物品推荐方法,包括:
获取目标物品数据对应的目标图;
调用目标视图编码器,将所述目标图输入至所述目标视图编码器中,获取所述目标图对应的目标编码表示;所述目标视图编码器是使用上述视图编码器训练方法训练得到的;
计算所述目标编码表示中,每一节点与相连节点之间的相关性;
按照所述相关性从大到小的顺序,对所述目标编码表示中的节点进行排序,保留较大的前L个节点,作为所述目标物品数据对应的目标推荐结果,其中,L≥1。
一种视图编码器训练装置,包括:
原始图获取模块,用于获取原始物品数据对应的原始图;
增强图获取模块,用于对所述原始图进行图增强处理,获取第一增强图和第二增强图;
高流行度子图获取模块,用于对所述原始图进行高流行度抽取,获取高流行度子图;
编码模块,用于将所述第一增强图、所述第二增强图和所述高流行度子图输入至原始视图编码器,获取所述第一增强图对应的第一编码表示、所述第二增强图对应的第二编码表示和所述高流行度子图对应的第三编码表示;
样本对获取模块,基于所述第一编码表示和所述第二编码表示,获取正样本对;基于所述第一编码表示和所述第三编码表示,获取第一负样本对;基于所述第二编码表示和所述第三编码表示,获取第二负样本对;
目标视图编码器获取模块,基于所述正样本对、所述第一负样本对和所述第二负样本对,对所述原始视图编码器进行更新,获取目标视图编码器。
一种物品推荐装置,包括:
目标图获取模块,用于获取目标物品数据对应的目标图;
目标编码表示获取模块,用于调用目标视图编码器,将所述目标图输入至所述目标视图编码器中,获取所述目标图对应的目标编码表示;所述目标视图编码器是使用上述视图编码器训练方法训练得到的;
相关性计算模块,用于计算所述目标编码表示中,每一节点与相连节点之间的相关性;
目标推荐结果获取模块,用于按照所述相关性从大到小的顺序,对所述目标编码表示中的节点进行排序,保留较大的前L个节点,作为所述目标物品数据对应的目标推荐结果,其中,L≥1。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述视图编码器训练方法,或者,所述处理器执行所述计算机程序时实现上述物品推荐方法。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现上述视图编码器训练方法,或者,所述计算机程序被处理器执行时实现上述物品推荐方法。
上述视图编码器训练方法、物品推荐方法、装置、设备及介质,基于正样本对、第一负样本对和第二负样本对,对原始视图编码器进行更新,获取目标视图编码器,缩小正样本对之间的差异,扩大负样本对之间的差异,使最终更新完成的目标视图编码器在进行视图编码时,减少产生流行度较高的编码表示,实现在进行金融产品以及商品等物品推荐时,降低流行度偏差的目的。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中视图编码器训练方法的一应用环境示意图;
图2是本发明一实施例中视图编码器训练方法的一流程图;
图3是本发明一实施例中视图编码器训练方法的另一流程图;
图4是本发明一实施例中视图编码器训练方法的另一流程图;
图5是本发明一实施例中视图编码器训练方法的另一流程图;
图6是本发明一实施例中视图编码器训练方法的另一流程图;
图7是本发明另一实施例中物品推荐方法的一流程图;
图8是本发明一实施例中视图编码器训练装置的一示意图;
图9是本发明一实施例中物品推荐装置的一示意图;
图10是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的视图编码器训练方法,该视图编码器训练方法可应用如图1所示的应用环境中。具体地,该视图编码器训练方法应用在视图编码器训练系统中,该视图编码器训练系统包括如图1所示的客户端和服务器,客户端与服务器通过网络进行通信,用于实现降低物品推荐时的流行度偏差的目的。其中,客户端又称为用户端,是指与服务器相对应,为客户提供本地服务的程序。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一实施例中,如图2所示,提供一种视图编码器训练方法,以该方法应用在图1中的服务器为例进行说明,包括如下步骤:
S201:获取原始物品数据对应的原始图;
S202:对原始图进行图增强处理,获取第一增强图和第二增强图;
S203:对原始图进行高流行度抽取,获取高流行度子图;
S204:将第一增强图、第二增强图和高流行度子图输入至原始视图编码器,获取第一增强图对应的第一编码表示、第二增强图对应的第二编码表示和高流行度子图对应的第三编码表示;
S205:基于第一编码表示和第二编码表示,获取正样本对;基于第一编码表示和第三编码表示,获取第一负样本对;基于第二编码表示和第三编码表示,获取第二负样本对;
S206:基于正样本对、第一负样本对和第二负样本对,对原始视图编码器进行更新,获取目标视图编码器。
其中,原始物品数据是指预先收集的用于训练原始视图编码器的物品数据。原始图是指与原始物品数据对应的数据图。在原始图中,每一节点代表一个原始物品数据,若节点与节点相连接,则表示这两个节点对应的原始物品数据之间具有相关性。在原始图中,一个节点可以通过无向边和多个节点相互连接。原始图中的每一节点为原始节点。
作为一示例,步骤S201中,服务器获取一定数量的原始物品数据,将一定数量的原始物品数据按照节点与节点之间是否具有相关性进行连接,以获取原始物品数据对应的原始图。在该原始图为G=(V,E,A,D),其中,V={v1,v2,…,vN},为N个原始物品数据对应的原始节点,E={eij},为N个原始节点中,第i个和第j个节点之间是否通过无向边相连,若相连,则eij=1;若不相连,则eij=0。A={a1,a2,…,aN},表示对应的原始节点是否为高流行度节点。若第i个原始节点为高流行度节点,则为ai=1;若第i个原始节点不为高流行度节点,则为ai=0。D={1degree,2degree,…,Ndegree},表示原始图中每一原始节点的度,即每一原始节点与几个无向边相连。例如,服务器在金融产品购买平台中,获取金融产品购买平台中的金融产品数据,将获取到的金融产品数据作为原始物品数据将一定数量的原始物品数据按照节点与节点之间是否具有相关性进行连接,获取原始物品数据对应的原始图,便于后续对金融产品购买平台对应的原始图进行增强处理和高流行度抽取。又例如,服务器在商业购买平台中,获取商品数据,将获取到的商品数据作为原始物品数据,将一定数量的原始物品数据按照节点与节点之间是否具有相关性进行连接,获取原始物品数据对应的原始图,便于后续对商业购买平台对应的原始图进行增强处理和高流行度抽取。本示例中,根据原始物品数据确定对应的原始图,便于后续对原始图进行图增强处理和高流行度抽取。
其中,图增强处理是使用视图增强方法对原始图进行图增强,获取增强图的处理过程。第一增强图和第二增强图是对原始图进行图增强处理,分别获取到的两个增强图。
作为一示例,步骤S202中,服务器对获取到的原始图进行图增强处理,获取第一增强图和第二增强图。本示例中,服务器相应的使用节点删除、边扰动、属性掩蔽和子图采样中的至少一种视图增强方法对原始图进行图增强处理,分别获取第一增强图和第二增强图。第一增强图和第二增强图是使用图增强处理方法对原始图进行增强处理时得到的两个不相同的增强图。并且,每次对原始图进行图增强处理时,得到的第一增强图与其他次图对原始图进行增强处理得到的第一增强图不同,得到的第二增强图与其他次对原始图进行图增强处理得到的第二增强图也不同,以使原始视图编码器每次对第一增强图和第二增强图进行视图编码时,均与其他任何一次视图编码的第一增强图和第二增强图不同。即每次图增强处理获得的第一增强图与其他任何一次图增强处理获得的第一增强图不同,每次图增强处理获得的第二增强图与其他任何一次图增强处理获得的第二增强图也不同。其中,节点删除是指将原始图中的部分原始节点以及和该原始节点相连的无向边进行丢弃处理。边扰动是指通过添加部分原始节点和原始节点之间的无向边或者删除部分原始节点和原始节点之间的无向边来扰动原始图中的连通性。属性掩蔽是指屏蔽原始图中的部分原始节点的节点属性。本示例中,对原始图进行图增强处理,获取第一增强图和第二增强图,有目的地强调原始图中的部分原始节点的特性,保留原始图中的有效信息,便于后续使用原始视图编码器对第一增强图和第二增强图进行视图编码。
其中,高流行度抽取是指极大地保留原始图中,原始物品数据的流行度较高的原始节点的子图抽取方法。高流行度子图是对原始图进行高流行度抽取后,获取得到的子图。
作为一示例,步骤S203中,服务器使用子图抽取方法,对原始图进行高流行度抽取,获取高流行度子图。例如,在原始图G=(V,E,A,D)中,将表示对应的原始节点是否为高流行度节点的集合A={a1,a2,…,aN}中的高流行度的原始节点和对应的无向边保留,形成高流行度子图。又例如,获取原始图G=(V,E,A,D)中,每一原始节点的中心性,根据每一原始节点的中心性的大小,保留对应的节点以及与节点对应的无向边,形成高流行度子图。本示例中,使用高流行度抽取的方法获取高流行度子图,使得高流行度子图中的节点对应的原始物品数据具有较高的流行度,便于后续对高流行度子图进行视图编码,更新原始视图编码器。
其中,第一编码表示是指将第一增强图输入至原始视图编码器中,提取到的第一增强图的潜在表示。第二编码表示是指将第二增强图输入至原始视图编码器中,提取到的第二增强图的潜在表示。第三编码表示是指将高流行度子图输入至原始视图编码器中,提取到的高流行度子图的潜在表示。
其中,原始视图编码器是用于对第一增强图、第二增强图和高流行度子图进行视图编码的编码器。可理解地,原始视图编码器包括多层感知机(MLP,MultilayerPerceptron)、图神经网络(GNN,Graph Neural Network)、图卷积神经网络(GCN,GraphConvolutional Network)和图注意力神经网络(GAT,Graph Attention Network)。
作为一示例,步骤S204中,服务器分别将第一增强图、第二增强图和高流行度子图输入至原始视图编码器,分别获取第一增强图对应的第一编码表示、第二增强图对应的第二编码表示和高流行度子图对应的第三编码表示。本示例中,原始视图编码器包括图神经网络GNN和多层感知机MLP。原始视图编码器在对第一增强图进行视图编码时,首先将第一增强图输入至图神经网络GNN中进行编码,在获取对应的编码输出后,将该编码输出输入至多层感知机MLP中进行二次编码,输出第一编码表示。原始视图编码器在对第二增强图进行视图编码时,首先将第二增强图输入至图神经网络GNN中进行编码,在获取对应的编码输出后,将该编码输出输入至多层感知机MLP中进行二次编码,输出第二编码表示。原始视图编码器在对高流行度子图进行视图编码时,首先将高流行度子图输入至图神经网络GNN中进行编码,在获取对应的编码输出后,将该编码输出输入至多层感知机MLP中进行二次编码,输出第三编码表示。本示例中,使用原始视图编码器分别对图增强处理得到的第一增强图和第二增强图,以及高流行度抽取获取到的高流行度子图进行编码处理,提取出对应图的潜在表示,输出第一编码表示、第二编码表示和第三编码表示,便于原始视图编码器尽可能学习到第一增强图、第二增强图和高流行度子图的流行度信息,便于后续根据第一编码表示、第二编码表示和第三编码表示,构建对应的正样本对和负样本对,对原始视图编码器进行更新。
作为一示例,步骤S205中,服务器将第一编码表示中的任一节点和第二编码表示中的任一节点,作为正样本对,将第一编码表示中的任一节点和第三编码表示中的任一节点作为第一负样本对,将第二编码表示中的任一节点和第三编码表示中的任一节点作为第二负样本对。可理解地,由于第一编码表示是由第一增强图经过原始视图编码器编码得到的,第二编码表示是由第二增强图经过原始视图编码器编码得到的,而第三编码表示是由高流行度子图经过原始视图编码器编码得到的,因此,第一增强图和第二增强图均通过相同方式获取得到,第一增强图和第二增强图包括的节点信息差异较小,而高流行度子图包含的节点对应流行度较高的原始推荐物品,与第一增强图和第二增强图的节点信息差异较大。相应地,原始视图编码器输出的第一编码表示和第二编码表示之间的节点信息差异较小,第一编码表示和第二编码表示分别与第三编码表示的节点信息差异均比较大,因此,将第一编码表示中的任一节点与第二编码表示中的任一节点作为正样本对,将将第一编码表示中的任一节点和第三编码表示中的任一节点作为第一负样本对,将第二编码表示中的任一节点和第三编码表示中的任一节点作为第二负样本对,便于后续使原始视图编码器在多次更新后,缩小正样本对之间的差异,扩大负样本对之间的差异,使最终更新完成的目标视图编码器在用于物品推荐时,减少产生流行度较高的编码表示,实现对流行度偏差进行纠正的目的。
其中,目标视图编码器是指更新完成后的原始视图编码器。
作为一示例,步骤S206中,服务器基于获取到的正样本对、第一负样本对和第二负样本对,对原始视图编码器进行更新,获取目标视图编码器。本示例中,服务器基于构建的正样本对、第一负样本对和第二负样本对,获取原始视图编码器对应的损失函数,根据损失函数,对原始视图编码器进行更新,在损失函数满足对应的收敛条件后,停止更新原始视图编码器,获取更新完毕的原始视图编码器,将更新完毕的原始视图编码器作为目标视图编码器。在损失函数不满足对应的收敛条件时,继续执行步骤S202,对原始视图编码器进行更新,直至损失函数满足对应的收敛条件,进而获取目标视图编码器。本示例中,在根据正样本对、第一负样本对和第二负样本对,更新原始视图编码器时,缩小正样本对之间的差异,扩大负样本对之间的差异,使最终更新完成的目标视图编码器在进行视图编码时,减少产生流行度较高的编码表示,实现在进行物品推荐时降低流行度偏差的目的。
本实施例获取到的目标视图编码器可以应用在相关的购买平台中,将购买平台中,流行度中等或者流行度不高的物品推荐给用户,以实现在进行物品推荐时降低流行度偏差的目的。例如,在金融产品购买平台向用户推荐金融产品时,服务器获取金融产品购买平台中金融产品数据对应的视图,将该视图输入至目标视图编码器,输出对应的编码表示,该编码表示包含较少的流行度较高的金融产品的信息,包含较多的流行度不高的金融产品的信息,便于在对用户进行金融产品推荐时,将金融产品购买平台推出的金融产品中,流行度不高的或者新开发的金融产品推荐给用户,以实现降低流行度偏差的目的。又例如,在商业购买平台向用户推荐商品时,服务器获取商业购买平台中商品数据对应的视图,将该视图输入至目标视图编码器,输出对应的编码表示,该编码表示包含较少的流行度较高的商品信息,包含较多的流行度不高的商品信息,便于在对用户进行商品推荐时,将商业购买平台中,流行度不高的商品、新加入店铺对应的商品或者已有店铺中新上架的商品推荐给用户,以实现降低流行度偏差的目的。
本实施例所提供的视图编码器训练方法,通过对原始图进行图增强处理,获取第一增强图和第二增强图,有目的地强调原始图中的部分原始节点的特性,保留原始图中的有效信息;对原始图进行高流行度抽取,获取高流行度子图,使得高流行度子图中的节点对应的原始物品数据具有较高的流行度;将第一增强图、第二增强图和高流行度子图输入至原始视图编码器,获取第一增强图对应的第一编码表示、第二增强图对应的第二编码表示和高流行度子图对应的第三编码表示,便于原始视图编码器尽可能学习到第一增强图、第二增强图和高流行度子图的流行度信息;基于第一编码表示和第二编码表示,获取正样本对;基于第一编码表示和第三编码表示,获取第一负样本对;基于第二编码表示和第三编码表示,获取第二负样本对;基于正样本对、第一负样本对和第二负样本对,对原始视图编码器进行更新,获取目标视图编码器,缩小正样本对之间的差异,扩大负样本对之间的差异,使最终更新完成的目标视图编码器在进行视图编码时,减少产生流行度较高的编码表示,实现在进行金融产品以及商品等物品推荐时,降低流行度偏差的目的。
在一实施例中,如图3所示,步骤S203,对原始图进行高流行度抽取,获取高流行度子图,包括:
S301:对原始图中的N个原始节点进行中心性计算,确定每一原始节点对应的节点中心性,其中,N>2;
S302:基于每一原始节点对应的节点中心性,对原始图中的N个原始节点进行高流行度抽取,获取包含M个目标节点的高流行度子图,其中,2≤M<N。
其中,中心性用于判断原始图中节点对应的原始物品数据的流行程度。可理解地,中心性可以为度中心性、特征向量中心性、中介中心性和连接中心性中的任一个。节点中心性是指每一原始节点的中心性。N为原始图中对应的原始节点的数量,N>2。
作为一示例,步骤S301中,服务器对原始图中的N个原始节点进行中心性计算,确定每一原始节点对应的节点中心性。本示例中,服务器可以选择通过计算N个原始节点的度中心性、特征向量中心性、中介中心性和连接中心性中的任意一种中心性,确定每一原始节点对应的节点中心性。其中,度中心性其中,idegree为第i个原始节点对应的度,可查询原始图G=(V,E,A,D)中的D={1degree,2degree,…,Ndegree}获取,N为该原始图中的原始节点的数量。中介中心性/>Ai为经过第i个原始节点的最短路径的数量,Bi为除第i个原始节点外,其余两两原始节点的最短路径数量。连接中心性/>Si为第i个原始节点到其他原始节点的最短路径之和。本示例中,获取原始图中每一原始节点的节点中心性,便于表征每一原始节点的流行度,便于后续根据节点中心性进行高流行度抽取。
其中,M是指N个原始节点中,节点中心性较高的原始节点的数量,2≤M<N。目标节点是指具有高流行度的原始节点。
作为一示例,步骤S302中,服务器基于每一原始节点对应的节点中心性,对原始图中的N个原始节点进行高流行度抽取,获取包含M个目标节点的高流行度子图。本示例中,将该M个具有高流行度的原始节点作为目标节点,保留原始图中的M个目标节点和对应的无向边,作为高流行度子图。本示例中,根据节点中心性抽取高流行度子图,可以获取较为精确的高流行度子图,便于后续根据高流行度子图进行视图编码,使原始视图编码器学习到高流行度子图的信息。
本实施例所提供的视图编码器训练方法,计算原始图中每一原始节点的节点中心性,根据节点中心性抽取高流行度子图,可以获取较为精确的高流行度子图,便于后续根据高流行度子图进行视图编码,使原始视图编码器学习到高流行度子图的信息。
在一实施例中,如图4所示,步骤S302,基于每一原始节点对应的节点中心性,对原始图中的N个原始节点进行高流行度抽取,获取包含M个目标节点的高流行度子图,包括:
S401:基于每一原始节点对应的节点中心性,确定每一原始节点对应的中心性倒数值;
S402:依据N个原始节点对应的中心性倒数值,由大到小依次丢弃K个原始节点和原始节点对应的无向边,获取N-K个剩余节点,其中,K≥1;
S403:从N-K个剩余节点中,选取节点中心性大于预设中心性的M个目标节点,基于M个目标节点和目标节点对应的无向边,构建高流行度子图。
其中,中心性倒数值是指原始图中的每一原始节点对应的节点中心性的倒数。
作为一示例,步骤S401中,服务器在获取每一原始节点对应的节点中心性后,确定每一原始节点对应的中心性倒数值。可理解地,原始节点对应的节点中心性越大,其对应的中心性倒数值就越小,获取节点中心性对应的中心性倒数值,便于后续根据中心性倒数值,将流行度较低的原始物品数据对应的原始节点丢弃。
其中,K为原始图中丢弃的原始节点的数量,K≥1。
作为一示例,步骤S402中,服务器依据N个原始节点对应的中心性倒数值,由大到小依次丢弃K个原始节点和原始节点对应的无向边,获取N-K个剩余节点。可理解地,为获取高流行度子图,需要将原始图中,原始物品数据的流行度较低的原始节点和相关的无向边删除,保留原始物品数据的流行度较高的原始节点。节点中心性反映了原始节点对应的原始物品数据的流行度,节点中心性越高,该原始节点对应的原始物品数据的流行度越高,而原始节点的节点中心性与对应的中心性倒数值成反比,因此,获取每一原始节点的中心性倒数值,并按照中心性倒数值从大到小的顺序对原始节点进行排序,丢弃前K个原始节点以及与原始节点相连的无向边,保留N-K个剩余节点及其对应的无向边。本示例中,根据每一原始节点对应的中心性倒数值,进行原始节点丢弃,保留节点中心性较高的原始节点,便于后续根据保留的节点中心性较高的原始节点构建高流行度子图。
其中,预设中心性是预先设置的用于根据节点中心性筛选原始节点的阈值。预设中心性可以根据对原始视图编码器的更新次数改变,以使在对原始视图编码器每次更新时,使用的高流行度子图不同。目标节点是指节点中心性大于预设中心性的原始节点。
作为一示例,步骤S403中,服务器从N-K个剩余节点中,选取节点中心性大于预设中心性的M个目标节点,基于M个目标节点和目标节点对应的无向边,构建高流行度子图。本示例中,在对原始图中的原始节点进行节点丢弃后,保留N-K个剩余节点和对应的无向边,在N-K个剩余节点和对应的无向边中,选取节点中心性大于预设中心性的M个目标节点,并保留该M个目标节点及对应的无向边。例如,对于N-K个剩余节点和对应的无向边,获取每一剩余节点以及与该剩余节点相连的剩余节点的节点中心性,保留节点中心性大于预设中心性的剩余节点,舍弃其余节点中心性不大于预设中心性的剩余节点,对每一剩余节点按照上述方法保留和舍弃相连的剩余节点,构建高流行度子图。本示例中,按照每一剩余节点的节点中心性是否大于预设中心性,对M-K个剩余节点进行保留和舍弃,构建高流行度子图,使构建的高流行度子图中的每一节点对应的原始物品数据均具有较高的流行度,便于后续使用原始视图编码器对高流行度子图进行视图编码,并根据编码输出更新原始视图编码器。
本实施例所提供的视图编码器训练方法,确定每一原始节点对应的中心性倒数值,依据N个原始节点对应的中心性倒数值,由大到小依次丢弃K个原始节点和原始节点对应的无向边,获取N-K个剩余节点,从N-K个剩余节点中,选取节点中心性大于预设中心性的M个目标节点,基于M个目标节点和目标节点对应的无向边,构建高流行度子图,该方法使构建的高流行度子图中的每一节点对应的原始物品数据均具有较高的流行度,便于后续使用原始视图编码对高流行度子图进行视图编码,并根据编码输出更新原始视图编码器。
在一实施例中,如图5所示,步骤S206,基于正样本对、第一负样本对和第二负样本对,对原始视图编码器进行更新,获取目标视图编码器,包括:
S501:基于正样本对、第一负样本对和第二负样本对,获取原始视图编码器对应的目标损失函数,并根据目标损失函数对原始视图编码器进行更新;
S502:若目标损失函数达到目标收敛条件,则将原始视图编码器确定为目标视图编码器。
其中,目标损失函数是指基于正样本对、第一负样本对和第二负样本对构建的损失函数,用于判断原始视图编码器是否训练更新完毕。
作为一示例,步骤S501中,服务器基于最大化第一负样本对和第二负样本对的互信息量,最小化正样本对的互信息量,构建原始视图编码器对应的目标损失函数,并根据目标损失函数对原始视图编码器进行更新。本示例中,基于正样本对、第一负样本对和第二负样本对,获取目标损失函数,例如,根据目标损失函数,使用梯度下降算法对原始视图编码器进行更新,使后续根据原始视图编码器获取到的目标视图编码器进行视图编码时,减少产生流行度较高的物品信息对应节点的编码表示,使产生的编码表示中包含较少的高流行度的物品信息,便于降低流行度偏差。
其中,目标收敛条件是用于判断目标损失函数是否达到收敛的预设条件。
作为一示例,步骤S502中,服务器判断目标损失函数是否达到目标收敛条件,在确定目标损失函数达到目标收敛条件时,将根据目标损失函数更新后的原始视图编码器确定为目标视图编码器。
例如,目标收敛条件可以是目标损失函数小于一个预设的损失函数阈值,在判断目标损失函数小于预设的损失函数阈值时,停止对原始视图编码器的更新,将根据目标损失函数更新后的原始视图编码器确定为目标视图编码器。根据目标损失函数对原始视图编码器进行更新后,在判断目标损失函数不小于预设的损失函数阈值时,继续对原始图进行视图增强和高流行度抽取,获取第一增强图、第二增强图和高流行度子图,再次对第一增强图、第二增强图和高流行度子图进行视图编码,进而再次获取对应的目标损失函数,对原始视图编码器进行更新,直至判断目标损失函数小于预设的损失函数阈值。即在判断目标损失函数不小于预设的损失函数阈值时,继续执行步骤S202至S206,直至判断目标损失函数小于预设的损失函数阈值。
又例如,目标收敛条件可以是相邻两次视图编码获取到的目标损失函数的差值小于预设值,在相邻两次视图编码获取到的目标损失函数的差值小于预设值时,停止对原始视图编码器的更新,将根据目标损失函数更新后的原始视图编码器确定为目标视图编码器。根据最新获取的目标损失函数对原始视图编码器进行更新后,在判断相邻两次视图编码获取到的目标损失函数的差值不小于预设值时,继续执行步骤S202至S206,直至判断相邻两次视图编码获取到的目标损失函数的差值小于预设值。
本示例中,在判断目标损失函数达到目标收敛条件时,将原始视图编码器确定为目标视图编码器,从而获取得到目标视图编码器,该目标视图编码器在进行视图编码时,可以减少产生流行度较高的物品信息对应节点的编码表示,使产生的编码表示中包含较少的高流行度的物品信息,实现降低流行度偏差的目的。
本实施例所提供的视图编码器训练方法,基于正样本对、第一负样本对和第二负样本对,获取原始视图编码器对应的目标损失函数,并根据所述目标损失函数对所述原始视图编码器进行更新;在判断目标损失函数达到目标收敛条件时,将原始视图编码器确定为目标视图编码器。该方法获取到的目标视图编码器在进行视图编码时,可以减少产生流行度较高的物品信息对应节点的编码表示,使产生的编码表示中包含较少的高流行度的物品信息,该目标编码器在用于物品推荐时,可以实现降低流行度偏差的目的。
在一实施例中,如图6所示,步骤S501,基于正样本对、第一负样本对和第二负样本对,获取原始视图编码器对应的目标损失函数,包括:
S601:获取正样本对的互信息量下界、第一负样本对的第一互信息量上界和第二负样本对的第二互信息量上界;
S602:将第一负样本对的第一互信息量上界和第二负样本对的第二互信息量上界的和值,确定为原始互信息量上界;
S603:采用超参数对原始互信息量上界进行修正,获取目标互信息量上界;
S604:将互信息量下界和目标互信息量上界的差值,确定为原始视图编码器对应的目标损失函数。
其中,互信息量下界是指正样本对之间的互信息量的最小值。第一互信息量上界是指第一负样本对之间的互信息量的最大值。第二互信息量上界是指第二负样本对之间的互信息量的最大值。
作为一示例,步骤S601中,服务器获取正样本对的互信息量下界、第一负样本对的第一互信息量上界和第二负样本对的第二互信息量上界。本示例中,服务器获取正样本对的互信息量下界MINE(ci,cj)、第一负样本对的第一互信息量上界CLUB(ci,ck)和第二负样本对的第二互信息量上界CLUB(cj,ck)。其中,ci为原始视图编码器对第一增强图的第一编码表示,ci={x1,x2,…,xi,…,xN};cj为原始视图编码器对第二增强图的第二编码表示,cj={y1,y2,…,yj,…,yN};ck为原始视图编码器对高流行度子图的第三编码表示,ck={z1,z2,…,zk,…,zN}。ci中的任一编码表示的节点与cj中的任一编码表示的节点互为正样本对,ci中的任一编码表示的节点与ck中的任一编码表示的节点互为第一负样本对,cj中的任一编码表示的节点与ck中的任一编码表示的节点互为第二负样本对。
本示例中,其中,qθ(zi|xi)是对真实后验概率p(zi|xi)的近似估计值。p(zi|xi)为在xi存在的条件下zi存在的概率。qθ(zk|xi)是对真实后验概率p(zk|xi)的近似估计值。p(zk|xi)为在xi存在的条件下zk存在的概率。
其中,qθ(zj|yj)是对真实后验概率p(zj|yj)的近似估计值。p(zj|yj)为在yj存在的条件下zj存在的概率。qθ(zk|yj)是对真实后验概率p(zk|yj)的近似估计值。p(zk|yj)为在yj存在的条件下zk存在的概率。
并且,其中,DKL(p(ci,cj)||p(ci)p(cj))为p(ci,cj)和p(ci)p(cj)之间的KL散度;θ为拟合参数;Θ为θ取值的参数集合;Tθ为满足可积性条件的任何函数;p(ci,cj)为ci中对应的编码表示与cj中对应的编码表示同时存在的概率。MINE(ci,cj)为上式成立时,的取值。
本示例中,获取正样本对的互信息量下界、第一负样本对的第一互信息量上界和第二负样本对的第二互信息量上界,便于后续根据根据互信息量下界、第一互信息量上界和第二互信息量上界确定目标损失函数。
作为一示例,步骤S602中,服务器将第一负样本对的第一互信息量上界CLUB(ci,ck)和第二负样本对的第二互信息量上界CLUB(cj,ck)的和值,确定为原始互信息量上界。本示例中,确定的原始互信息量上界为:CLUB(ci,ck)+CLUB(cj,ck)。本示例中,获取原始互信息量上界,获取第一负样本和第二负样本的互信息量上界,便于后续获取的目标损失函数中,负样本对应的互信息量最小。
其中,超参数用于对原始互信息量上界进行修正。
作为一示例,步骤S603中,服务器采用超参数对原始互信息量上界进行修正,获取目标互信息量上界。本示例中,使用超参数β对原始互信息量上界进行修正,获取到的目标互信息量上界为:β[CLUB(ci,ck)+CLUB(cj,ck)]。本示例中,使用超参数对原始互信息量上界进行,使获取到的目标互信息量上界更加精确。
作为一示例,步骤S604中,服务器将互信息量下界和目标互信息量上界的差值,确定为原始视图编码器对应的目标损失函数。本示例中,目标损失函数Loss=MINE(ci,cj)-β[CLUB(ci,ck)+CLUB(cj,ck)]。本示例中,将互信息量下界和目标互信息量上界的差值,确定为原始视图编码器对应的目标损失函数,保证负样本对之间的互信息量最小,正样本对之间的互信息量最大便于根据目标损失函数对原始视图编码器进行修正时,使原始视图编码器减少对流行度较高的物品对应的节点的编码表示,实现降低流行度偏差的目的。
本实施例所提供的视图编码器训练方法,将互信息量下界和目标互信息量上界的差值,确定为原始视图编码器对应的目标损失函数,保证负样本对之间的互信息量最小,正样本对之间的互信息量最大,便于根据目标损失函数对原始视图编码器进行修正时,使原始视图编码器减少对流行度较高的物品对应的节点的编码表示,实现降低流行度偏差的目的。
在另一实施例中,如图7所示,提供一种物品推荐方法,包括:
S701:获取目标物品数据对应的目标图;
S702:调用目标视图编码器,将目标图输入至目标视图编码器中,获取目标图对应的目标编码表示;目标视图编码器是使用上述视图编码器训练方法训练得到的;
S703:计算目标编码表示中,每一节点与相连节点之间的相关性;
S704:按照相关性从大到小的顺序,对目标编码表示中的节点进行排序,保留较大的前L个节点,作为目标物品数据对应的目标推荐结果,其中,L≥1。
其中,目标物品数据是用于给用户进行物品推荐的物品数据。目标图是与目标物品数据对应的数据图。在目标图中,每一节点代表一个目标物品数据,若节点与节点相连接,则表示这两个节点对应的目标物品数据之间具有相关性。在目标图中,一个节点可以通过无向边和多个节点相互连接。
作为一示例,步骤S701中,服务器获取目标物品数据,基于目标物品数据,形成对应的目标图。本示例中,获取目标物品数据对应的目标图,便于后续对该目标图进行视图编码,进行物品推荐。
其中,目标视图编码器是使用上述视图编码器训练方法训练得到的编码器。目标编码表示是指将目标图输入至目标视图编码器中,提取到的目标图的潜在表示。
作为一示例,步骤S702中,服务器调用目标视图编码器,将目标图输入至目标视图编码器中,获取目标图对应的目标编码表示。本示例中,调用目标视图编码器对目标图进行视图编码,可以使获取的目标编码表示包含较少的高流行度的目标物品数据的编码表示,便于后续确定的目标物品数据对应的目标推荐结果,具有较少的高流行度物品,便于实现降低流行性偏差的目的。
其中,相关性是目标编码表示中节点与节点之间的相关程度。
作为一示例,步骤S703中,服务器计算目标编码表示中,每一节点与相连节点之间的相关性。本示例中,可以根据目标编码表示中,每一节点相连的无向边的数量,确定每一节点与相连节点之间的相关性,可以确定无向边数量多的节点相关性较大。本示例中,确定每一节点与相连节点之间的相关性,便于后续根据相关性进行节点的筛选,实现目标推荐结果的筛选。
其中,L为目标编码表示中需要保留的相关性较大的节点的数量,L≥1。
作为一示例,步骤S704中,服务器按照相关性从大到小的顺序,对目标编码表示中的节点进行排序,保留相关性较大的前L个节点,作为目标物品数据对应的目标推荐结果。本示例中,筛选目标编码表示中,相关性较大的前L个节点,将相关性较大的L个节点对应的目标物品数据,作为目标推荐结果,实现进行较低流行度偏差的物品推荐的目的。
例如,在金融产品购买平台向客户推荐金融产品时,服务器获取金融产品数据,将该金融产品数据作为目标物品数据,获取目标物品数据对应的目标图;调用采用上述视图编码器训练方法训练得到的目标视图编码器,将目标图输入至目标视图编码器中,获取目标图对应的目标编码表示;计算目标编码表示中,每一节点与相连节点之间的相关性;按照相关性从大到小的顺序,对目标编码表示中的节点进行排序,保留较大的前L个节点,作为目标物品数据对应的目标推荐结果,该目标推荐结果对应相关金融产品。该物品推荐方法可以将流行度不高的或者新开发的金融产品推荐给用户,以实现降低流行度偏差的目的。
又例如,在具有一定用户数量的商业购买平台中,服务器获取该商业购买平台中的商品数据,将获取到的商品数据作为目标物品数据,使用目标视图编码器对该目标物品数据形成的目标图进行视图编码,获取目标编码表示,根据获取的目标编码表示,计算每一节点与相连节点之间的相关性,按照相关性从大到小的顺序,对目标编码表示中的节点进行排序,保留相关性较大的前L个节点,将相关性较大的前L个节点对应的目标物品数据,作为目标推荐结果,该目标推荐结果对应商业购买平台中相关的物品数据。该方法可以将流行度不是很高的物品推荐给用户,实现降低流行度偏差的目的,使得目标推荐结果更加关注冷门物品的需求,有助于帮助商家发掘长尾物品,实现更加个性化的推荐,节约注意力资源,实现利润增长。
本实施例所提供的物品推荐方法,调用目标视图编码器,将目标图输入至目标视图编码器中,获取目标图对应的目标编码表示,计算目标编码表示中,每一节点与相连节点之间的相关性,按照相关性从大到小的顺序,对目标编码表示中的节点进行排序,保留较大的前L个节点,作为目标物品数据对应的目标推荐结果,实现较低流行度偏差的物品推荐,实现降低流行度偏差的目的,使得目标推荐结果更加关注冷门物品的需求,有助于帮助商家发掘长尾物品,实现更加个性化的推荐,节约注意力资源。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种视图编码器训练装置,该视图编码器训练装置与上述实施例中视图编码器训练方法一一对应。如图8所示,该视图编码器训练装置包括原始图获取模块801、增强图获取模块802、高流行度子图获取模块803、编码模块804、样本对获取模块805和目标视图编码器获取模块806。各功能模块详细说明如下:
原始图获取模块801,用于获取原始物品数据对应的原始图;
增强图获取模块802,用于对原始图进行图增强处理,获取第一增强图和第二增强图;
高流行度子图获取模块803,用于对原始图进行高流行度抽取,获取高流行度子图;
编码模块804,用于将第一增强图、第二增强图和高流行度子图输入至原始视图编码器,获取第一增强图对应的第一编码表示、第二增强图对应的第二编码表示和高流行度子图对应的第三编码表示;
样本对获取模块805,基于第一编码表示和第二编码表示,获取正样本对;基于第一编码表示和第三编码表示,获取第一负样本对;基于第二编码表示和第三编码表示,获取第二负样本对;
目标视图编码器获取模块806,基于正样本对、第一负样本对和第二负样本对,对原始视图编码器进行更新,获取目标视图编码器。
在一实施例中,高流行度子图获取模块803包括:
节点中心性确定子模块,用于对原始图中的N个原始节点进行中心性计算,确定每一原始节点对应的节点中心性,其中,N>2;
高流行度子图获取子模块,基于每一原始节点对应的节点中心性,对原始图中的N个原始节点进行高流行度抽取,获取包含M个目标节点的高流行度子图,其中,2≤M<N。
在一实施例中,高流行度子图获取子模块包括:
中心性倒数值获取单元,基于每一原始节点对应的节点中心性,确定每一原始节点对应的中心性倒数值;
剩余节点获取单元,用于依据N个原始节点对应的中心性倒数值,由大到小依次丢弃K个原始节点和原始节点对应的无向边,获取N-K个剩余节点,其中,K≥1;
高流行度子图构建单元,用于从N-K个剩余节点中,选取节点中心性大于预设中心性的M个目标节点,基于M个目标节点和目标节点对应的无向边,构建高流行度子图。
在一实施例中,目标视图编码器获取模块806包括:
更新子模块,基于正样本对、第一负样本对和第二负样本对,获取原始视图编码器对应的目标损失函数,并根据目标损失函数对原始视图编码器进行更新;
判断子模块,用于若目标损失函数达到目标收敛条件,则将原始视图编码器确定为目标视图编码器。
在一实施例中,更新子模块包括:
互信息量获取单元,用于获取正样本对的互信息量下界、第一负样本对的第一互信息量上界和第二负样本对的第二互信息量上界;
原始互信息量上界确定单元,用于将第一负样本对的第一互信息量上界和第二负样本对的第二互信息量上界的和值,确定为原始互信息量上界;
目标互信息量上界获取单元,用于采用超参数对原始互信息量上界进行修正,获取目标互信息量上界;
目标损失函数确定单元,用于将互信息量下界和目标互信息量上界的差值,确定为原始视图编码器对应的目标损失函数。
在另一实施例中,提供一种物品推荐装置,该物品推荐装置与上述实施例中物品推荐方法一一对应。如图9所示,该物品推荐装置包括目标图获取模块901、目标编码表示获取模块902、相关性计算模块903和目标推荐结果获取模块904。各功能模块详细说明如下:
目标图获取模块901,用于获取目标物品数据对应的目标图;
目标编码表示获取模块902,用于调用目标视图编码器,将目标图输入至目标视图编码器中,获取目标图对应的目标编码表示;目标视图编码器是使用上述视图编码器训练方法训练得到的;
相关性计算模块903,用于计算目标编码表示中,每一节点与相连节点之间的相关性;
目标推荐结果获取模块904,用于按照相关性从大到小的顺序,对目标编码表示中的节点进行排序,保留较大的前L个节点,作为目标物品数据对应的目标推荐结果,其中,L≥1。
关于视图编码器训练装置的具体限定可以参见上文中对于视图编码器训练方法的限定,在此不再赘述。关于物品推荐装置的具体限定可以参见上文中对于物品推荐方法的限定,在此也不再赘述。上述视图编码器训练装置和物品推荐装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图10所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储执行视图编码器训练方法过程中采用或者生成的数据,或者,该计算机设备的数据库用于存储执行物品推荐方法过程中采用或者生成的数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种视图编码器训练方法,或者,该计算机程序被处理器执行时以实现一种物品推荐方法。
在一实施例中,提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中视图编码器训练方法,例如图2所示S201-S206,或者图3至图6中所示,为避免重复,这里不再赘述。或者,处理器执行计算机程序时实现视图编码器训练装置这一实施例中的各模块/单元的功能,例如图8所示的原始图获取模块801、增强图获取模块802、高流行度子图获取模块803、编码模块804、样本对获取模块805和目标视图编码器获取模块806的功能,为避免重复,这里不再赘述。或者,处理器执行计算机程序时实现上述实施例中物品推荐方法,例如图7所示S701-S704,为避免重复,这里不再赘述。或者,处理器执行计算机程序时实现物品推荐装置这一实施例中的各模块/单元的功能,例如图9所示的目标图获取模块901、目标编码表示获取模块902、相关性计算模块903和目标推荐结果获取模块904的功能,为避免重复,这里不再赘述。
在一实施例中,提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中视图编码器训练方法,例如图2所示S201-S206,或者图3至图6中所示,为避免重复,这里不再赘述。或者,该计算机程序被处理器执行时实现上述视图编码器训练装置这一实施例中的各模块/单元的功能,例如图8所示的原始图获取模块801、增强图获取模块802、高流行度子图获取模块803、编码模块804、样本对获取模块805和目标视图编码器获取模块806的功能,为避免重复,这里不再赘述。或者,该计算机程序被处理器执行时实现上述实施例中物品推荐方法,例如图7所示S701-S704,为避免重复,这里不再赘述。或者,该计算机程序被处理器执行时实现上述物品推荐装置这一实施例中的各模块/单元的功能,例如图9所示的目标图获取模块901、目标编码表示获取模块902、相关性计算模块903和目标推荐结果获取模块904的功能,为避免重复,这里不再赘述。所述计算机可读存储介质可以是非易失性,也可以是易失性。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种视图编码器训练方法,其特征在于,包括:
获取原始物品数据对应的原始图;
对所述原始图进行图增强处理,获取第一增强图和第二增强图;
对所述原始图进行高流行度抽取,获取高流行度子图;
将所述第一增强图、所述第二增强图和所述高流行度子图输入至原始视图编码器,获取所述第一增强图对应的第一编码表示、所述第二增强图对应的第二编码表示和所述高流行度子图对应的第三编码表示;
基于所述第一编码表示和所述第二编码表示,获取正样本对;基于所述第一编码表示和所述第三编码表示,获取第一负样本对;基于所述第二编码表示和所述第三编码表示,获取第二负样本对;
基于所述正样本对、所述第一负样本对和所述第二负样本对,对所述原始视图编码器进行更新,获取目标视图编码器。
2.如权利要求1所述的视图编码器训练方法,其特征在于,所述对所述原始图进行高流行度抽取,获取高流行度子图,包括:
对所述原始图中的N个原始节点进行中心性计算,确定每一原始节点对应的节点中心性,其中,N>2;
基于每一所述原始节点对应的节点中心性,对所述原始图中的N个原始节点进行高流行度抽取,获取包含M个目标节点的高流行度子图,其中,2≤M<N。
3.如权利要求2所述的视图编码器训练方法,其特征在于,所述基于每一所述原始节点对应的节点中心性,对所述原始图中的N个原始节点进行高流行度抽取,获取包含M个目标节点的高流行度子图,包括:
基于每一所述原始节点对应的节点中心性,确定每一原始节点对应的中心性倒数值;
依据N个原始节点对应的中心性倒数值,由大到小依次丢弃K个原始节点和所述原始节点对应的无向边,获取N-K个剩余节点,其中,K≥1;
从N-K个所述剩余节点中,选取所述节点中心性大于预设中心性的M个目标节点,基于M个所述目标节点和所述目标节点对应的无向边,构建高流行度子图。
4.如权利要求1所述的视图编码器训练方法,其特征在于,所述基于所述正样本对、所述第一负样本对和所述第二负样本对,对所述原始视图编码器进行更新,获取目标视图编码器,包括:
基于所述正样本对、所述第一负样本对和所述第二负样本对,获取所述原始视图编码器对应的目标损失函数,并根据所述目标损失函数对所述原始视图编码器进行更新;
若所述目标损失函数达到目标收敛条件,则将所述原始视图编码器确定为所述目标视图编码器。
5.如权利要求4所述的视图编码器训练方法,其特征在于,所述基于所述正样本对、所述第一负样本对和所述第二负样本对,获取所述原始视图编码器对应的目标损失函数,包括:
获取所述正样本对的互信息量下界、所述第一负样本对的第一互信息量上界和所述第二负样本对的第二互信息量上界;
将所述第一负样本对的第一互信息量上界和所述第二负样本对的第二互信息量上界的和值,确定为原始互信息量上界;
采用超参数对所述原始互信息量上界进行修正,获取目标互信息量上界;
将所述互信息量下界和所述目标互信息量上界的差值,确定为所述原始视图编码器对应的目标损失函数。
6.一种物品推荐方法,其特征在于,包括:
获取目标物品数据对应的目标图;
调用目标视图编码器,将所述目标图输入至所述目标视图编码器中,获取所述目标图对应的目标编码表示;所述目标视图编码器是使用权利要求1至5任一项所述的视图编码器训练方法训练得到的;
计算所述目标编码表示中,每一节点与相连节点之间的相关性;
按照所述相关性从大到小的顺序,对所述目标编码表示中的节点进行排序,保留较大的前L个节点,作为所述目标物品数据对应的目标推荐结果,其中,L≥1。
7.一种视图编码器训练装置,其特征在于,包括:
原始图获取模块,用于获取原始物品数据对应的原始图;
增强图获取模块,用于对所述原始图进行图增强处理,获取第一增强图和第二增强图;
高流行度子图获取模块,用于对所述原始图进行高流行度抽取,获取高流行度子图;
编码模块,用于将所述第一增强图、所述第二增强图和所述高流行度子图输入至原始视图编码器,获取所述第一增强图对应的第一编码表示、所述第二增强图对应的第二编码表示和所述高流行度子图对应的第三编码表示;
样本对获取模块,基于所述第一编码表示和所述第二编码表示,获取正样本对;基于所述第一编码表示和所述第三编码表示,获取第一负样本对;基于所述第二编码表示和所述第三编码表示,获取第二负样本对;
目标视图编码器获取模块,基于所述正样本对、所述第一负样本对和所述第二负样本对,对所述原始视图编码器进行更新,获取目标视图编码器。
8.一种物品推荐装置,其特征在于,包括:
目标图获取模块,用于获取目标物品数据对应的目标图;
目标编码表示获取模块,用于调用目标视图编码器,将所述目标图输入至所述目标视图编码器中,获取所述目标图对应的目标编码表示;所述目标视图编码器是使用权利要求1至5任一项所述的视图编码器训练方法训练得到的;
相关性计算模块,用于计算所述目标编码表示中,每一节点与相连节点之间的相关性;
目标推荐结果获取模块,用于按照所述相关性从大到小的顺序,对所述目标编码表示中的节点进行排序,保留较大的前L个节点,作为所述目标物品数据对应的目标推荐结果,其中,L≥1。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述的视图编码器训练方法,或者,所述处理器执行所述计算机程序时实现如权利要求6所述的物品推荐方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述的视图编码器训练方法,或者,所述计算机程序被处理器执行时实现如权利要求6所述的物品推荐方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310727995.0A CN116720918A (zh) | 2023-06-16 | 2023-06-16 | 视图编码器训练方法、物品推荐方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310727995.0A CN116720918A (zh) | 2023-06-16 | 2023-06-16 | 视图编码器训练方法、物品推荐方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116720918A true CN116720918A (zh) | 2023-09-08 |
Family
ID=87867597
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310727995.0A Pending CN116720918A (zh) | 2023-06-16 | 2023-06-16 | 视图编码器训练方法、物品推荐方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116720918A (zh) |
-
2023
- 2023-06-16 CN CN202310727995.0A patent/CN116720918A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107657015B (zh) | 一种兴趣点推荐方法、装置、电子设备及存储介质 | |
CN110837602B (zh) | 基于表示学习和多模态卷积神经网络的用户推荐方法 | |
CN110473083B (zh) | 树状风险账户识别方法、装置、服务器及存储介质 | |
US11030265B2 (en) | Cross-platform data matching method and apparatus, computer device and storage medium | |
CN110880014B (zh) | 数据处理方法、装置、计算机设备及存储介质 | |
CN113011529B (zh) | 文本分类模型的训练方法、装置、设备及可读存储介质 | |
CN112328909B (zh) | 信息推荐方法、装置、计算机设备及介质 | |
CN112052404A (zh) | 多源异构关系网络的群体发现方法、系统、设备及介质 | |
CN112131261A (zh) | 基于社区网络的社区查询方法、装置和计算机设备 | |
CN111489196B (zh) | 基于深度学习网络的预测方法、装置、电子设备及介质 | |
CN112905906A (zh) | 一种融合局部协同与特征交叉的推荐方法及系统 | |
CN113515519A (zh) | 图结构估计模型的训练方法、装置、设备及存储介质 | |
CN116361546A (zh) | 搜索请求的处理方法、装置、电子设备和存储介质 | |
CN116467466A (zh) | 基于知识图谱的编码推荐方法、装置、设备及介质 | |
CN116720918A (zh) | 视图编码器训练方法、物品推荐方法、装置、设备及介质 | |
CN113254638B (zh) | 一种产品意象确定方法、计算机设备及存储介质 | |
CN108711074A (zh) | 业务分类方法、装置、服务器及可读存储介质 | |
CN114493674A (zh) | 一种广告点击率预测模型及方法 | |
CN115345687A (zh) | 一种跨网站商品对齐方法及装置 | |
CN116089722B (zh) | 基于图产出标签的实现方法、装置、计算设备和存储介质 | |
CN118036756B (zh) | 大模型多轮对话的方法、装置、计算机设备及存储介质 | |
CN111815396B (zh) | 基于元图的产品筛选方法、系统、设备及存储介质 | |
CN118193822A (zh) | 基于图神经网络的协同过滤推荐方法、装置、设备及介质 | |
CN117114821A (zh) | 物品推荐方法、装置、存储介质和电子设备 | |
CN115222489A (zh) | 商品推荐方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |