CN111738414A - 推荐模型的生成、内容推荐方法、装置、设备和介质 - Google Patents
推荐模型的生成、内容推荐方法、装置、设备和介质 Download PDFInfo
- Publication number
- CN111738414A CN111738414A CN202010529738.2A CN202010529738A CN111738414A CN 111738414 A CN111738414 A CN 111738414A CN 202010529738 A CN202010529738 A CN 202010529738A CN 111738414 A CN111738414 A CN 111738414A
- Authority
- CN
- China
- Prior art keywords
- low
- rank
- matrix
- graph
- recommendation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 75
- 239000011159 matrix material Substances 0.000 claims abstract description 259
- 238000012549 training Methods 0.000 claims abstract description 107
- 238000010801 machine learning Methods 0.000 claims abstract description 46
- 230000015654 memory Effects 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 18
- 238000011478 gradient descent method Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 11
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 21
- 238000000354 decomposition reaction Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000008571 general function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2133—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on naturality criteria, e.g. with non-negative factorisation or negative correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种推荐模型的生成、内容推荐方法、装置、设备和介质,涉及人工智能领域和深度学习领域。推荐模型的生成方法的实现方案为:获取图训练样本集;将图训练样本集输入至机器学习模型中进行训练,机器学习模型包括至少一个低秩图卷积网络,低秩图卷积网络包括由第一低秩矩阵和第二低秩矩阵构成的完整权重矩阵;低秩图卷积网络的训练目标包括:能够分解为第一低秩矩阵和第二低秩矩阵的组合的非凸低秩项;在检测到满足训练结束条件时,得到与图训练样本集匹配的推荐模型,本申请实施例的技术方案在保证低秩GCN对原始GCN的拟合效果的同时,减小了低秩GCN中所需学习的数据量,并提高了低秩GCN的参数学习速度。
Description
技术领域
本申请实施例涉及计算机技术,具体涉及人工智能领域和深度学习领域,尤其涉及一种推荐模型的生成、内容推荐方法、装置、设备和介质。
背景技术
GCN(Graph Convolutional Network,图卷积神经网络)是对卷积神经网络(Convolutional Neural Networks,CNN)的扩展。GCN通过图谱理论或空间局部定义图形卷积,实现了在不规则的网络数据结构上定义卷积,从而更好的利用关系信息进行预测。由于图卷积网络的权重矩阵规模很大,通常需要大量的训练数据才能完成学习。因此,如图1a所示,学术界提出了基于矩阵分解(MatrixFactorization,MF)的低秩GCN,将原始GCN的权重矩阵分解为两个较小的低秩矩阵和 以得到低秩GCN。
低秩GCN有效,是因为原始GCN所学数据中存在大量的相似信息,因此对应学出的权重矩阵具有低秩结构。但是,从低秩学习的角度,矩阵分解早已不是最佳选择,尽管它的求解速度较快,但低秩GCN并不能很好的拟合原始GCN。
发明内容
本申请实施例提供了一种推荐模型的生成、内容推荐方法、装置、设备和介质,在保证低秩GCN对原始GCN的拟合效果的同时,最大程度的减小了低秩GCN中所需学习的数据量,并提高了低秩GCN的参数学习速度。
第一方面,本申请实施例提供了一种推荐模型的生成方法,包括:
获取图训练样本集,图训练样本包括:用户关系矩阵、推荐内容关系矩阵,以及用户和推荐内容联合关系矩阵;
将图训练样本集输入至设定机器学习模型中,对机器学习模型进行训练,机器学习模型包括至少一个低秩图卷积网络,低秩图卷积网络包括由第一低秩矩阵和第二低秩矩阵构成的完整权重矩阵;
其中,低秩图卷积网络的训练目标包括:第一低秩矩阵参数项、第二低秩矩阵参数项和非凸低秩项,所述非凸低秩项能够分解为第一低秩矩阵和第二低秩矩阵的组合;
在检测到满足训练结束条件时,将当前训练的机器学习模型,确定为与所述图训练样本集匹配的推荐模型。
第二方面,本申请实施例提供了一种内容推荐方法,包括:
获取目标用户关系矩阵以及目标推荐内容关系矩阵;
将所述目标用户关系矩阵以及目标内容关系矩阵输入至通过如本申请任一实施例所述的推荐模型的生成方法预先训练的推荐模型中,获取所述推荐模型输出的目标用户和推荐内容联合关系矩阵;
在目标用户和推荐内容联合关系矩阵中,获取与各用户分别对应的权重最高的推荐内容作为目标推荐内容;
将各所述目标推荐内容分别推荐给对应的用户。
第三方面,本申请实施例还提供了一种推荐模型的生成的装置,包括:
图训练样本集获取模块,用于获取图训练样本集,图训练样本包括:用户关系矩阵、推荐内容关系矩阵,以及用户和推荐内容联合关系矩阵;
推荐模型训练模块,用于将图训练样本集输入至设定机器学习模型中,对机器学习模型进行训练,机器学习模型包括至少一个低秩图卷积网络,低秩图卷积网络包括由第一低秩矩阵和第二低秩矩阵构成的完整权重矩阵;
其中,低秩图卷积网络的训练目标包括:第一低秩矩阵参数项、第二低秩矩阵参数项和非凸低秩项,所述非凸低秩项能够分解为第一低秩矩阵和第二低秩矩阵的组合;
推荐模型生成模块,用于在检测到满足训练结束条件时,将当前训练的机器学习模型,确定为与所述图训练样本集匹配的推荐模型。
第四方面,本申请实施例还提供了一种内容推荐装置,包括:
输入矩阵获取模块,用于获取目标用户关系矩阵以及目标推荐内容关系矩阵;
联合关系矩阵获取模块,用于将所述目标用户关系矩阵以及目标内容关系矩阵输入至通过如本申请任一实施例所述的推荐模型的生成方法预先训练的推荐模型中,获取所述推荐模型输出的目标用户和推荐内容联合关系矩阵;
目标推荐内容获取模块,用于在目标用户和推荐内容联合关系矩阵中,获取与各用户分别对应的权重最高的推荐内容作为目标推荐内容;
用户推荐模块,用于将各所述目标推荐内容分别推荐给对应的用户。
第五方面,本申请实施例还公开了一种电子设备,包括至少一个处理器,以及与至少一个处理器通信连接的存储器,其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行本申请任一实施例中的推荐模型的生成方法,或者,能够执行本申请任一实施例中的内容推荐方法。
第六方面,本申请实施例公开了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行本申请任一实施例中的推荐模型的生成方法,或者执行本申请任一实施例中的内容推荐方法。
本申请实施例的技术方案通过使用能够分解为第一低秩矩阵和第二低秩矩阵的组合的非凸低秩项构造低秩图卷积网络的训练目标,基于该非凸低秩项,保证了低秩图卷积网络所分解得到的两个低秩矩阵对原权重矩阵的拟合准确度,大大提升低秩GCN对原GCN的拟合效果,同时保持低秩GCN权重规模小、所需数据量小、运算速度快的特点。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1a是现有技术中的一种原有GCN网络与低秩GCN网络的结构关系对照示意图;
图1b是本申请第一实施例中的一种推荐模型的生成方法的实现流程图;
图1c是本申请第一实施例所适用的一种用户关系图的示意图;
图2是本申请第二实施例中的一种推荐模型的生成方法的实现流程图;
图3是本申请第三实施例中的一种内容推荐方法的实现流程图;
图4是本申请第四实施例中的一种推荐模型的生成装置的结构图;
图5是本申请第五实施例中的一种内容推荐装置的结构图;
图6是本申请第六实施例中的一种用来实现本申请实施例的推荐模型的生成方法,或者内容推荐方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
第一实施例
图1b是本申请第一实施例提供的一种推荐模型的生成方法的流程图,本申请实施例的技术方案可以适用于使用非凸低秩项构造低秩GCN的训练目标的情况。该方法可以由推荐模型的生成装置来实现,该装置可以由软件和/或硬件实现,并一般集成在具有数据处理功能的终端或者服务器中。
如图1b所示,本申请实施例的技术方案,具体包括如下步骤:
S110、获取图训练样本集,图训练样本包括:用户关系矩阵、推荐内容关系矩阵,以及用户和推荐内容联合关系矩阵。
在本实施例中,待训练的推荐模型是基于GCN构成的模型,基于该GCN可以在不规则的图网络结构(例如:用户-推荐内容网络结构)中定义卷积,进而可以通过模型确定向不同用户提供不同的推荐内容。其中,上述推荐内容可以包括电影、电视剧、新闻、小说或者音乐等具有人群属性趋向性的内容。
相应的,需要基于推荐模型的性质,使用匹配的图训练样本集,对预设的机器学习模型进行训练,以得到所需的推荐模型。
其中,所述用户关系矩阵,具体是指用于表示不同用户之间关联关系的矩阵,上述用户关系矩阵具体可以通过用户关系图生成。其中,在图1c中示出了一种用户关系图的示意图。其中,图1c中的4个数字1、2、3、4代表四个用户,每两个用户之间的箭头代表两者之间的关联关系,每个箭头上的数字,代表关联权重。上述用户关系图中箭头方向的确定以及关联权重的选取可以根据实际情况进行预设,例如,根据用户的年龄、职业以及兴趣爱好等,本实施例对此并不进行限定。
具体的,根据如图1c所述的用户关系图,可以得到形如所示的用户关系矩阵(也即图的邻接矩阵),其中,第一行到第四行以及第一列到第四列代表从用户1到用户4。例如,第一行第一列中的元素0,代表用户1指向用户1的关联权重为0,而第一行第二列中的元素3,代表用户1指向用户2的关联权重为3,用户关系图确定后,用户关系矩阵也被唯一确定。一般来说,由M个用户构成的用户关系图,对应于一个M*M矩阵。
相类似的,所述推荐内容关系矩阵,具体是指用于表示不同推荐内容之间关联关系的矩阵,上述推荐内容关系矩阵具体可以通过推荐内容关系图生成。一般来说,N个推荐内容构成的推荐内容关系图,对应于一个N*N矩阵。
所述用户和推荐内容联合关系矩阵,具体是指用于表示用户和推荐内容之间关联关系的矩阵,上述用户和推荐内容联合关系矩阵具体可以通过用户和推荐内容联合关系图生成。其中,用户和推荐内容联合关系矩阵中的每一行代表一个用户,每一列代表一个推荐内容,例如,用户和推荐内容联合关系矩阵中第一行第一列的元素A,代表用户1与推荐内容1之间的关联权重,关联权重越高,用户对该推荐内容的满意度,或者说该推荐内容对用户的实际需求的命中率也越高。一般来说,M个用户、N个推荐内容构成的用户和推荐内容联合关系图,对应于一个M*N矩阵。
其中,通过将上述形式的图训练样本集输入至机器学习模型中进行训练,可以使得该机器学习模型学习到在不同用户关系矩阵和推荐内容关系矩阵的联合作用下,用户和推荐内容联合关系矩阵的数据形式。
需要说明的是,在构造图训练样本时,无需要求用户和推荐内容联合关系矩阵中的每个元素都有对应的取值,只要保证每个用户对至少一个推荐内容有相应的关系权重,以及,每个推荐内容都有至少一个用户与其有对应的关系权重即可。也即,只要保证用户和推荐内容联合关系矩阵的任一行,以及任一列均不为全0即可。
S120、将图训练样本集输入至设定机器学习模型中,对机器学习模型进行训练。
其中,所述机器学习模型包括至少一个低秩图卷积网络,低秩图卷积网络包括由第一低秩矩阵和第二低秩矩阵构成的完整权重矩阵。也即,如图1a所示,每个低秩图卷积网络中,通过第一低秩矩阵W以及第二低秩矩阵H,组成原有GCN中的完整权重矩阵X。
具体的,各个低秩图卷积网络可以根据具体的模型形式,选择串行或者并行连接,本实施例对此并不进行限制。
如前所述,针对现有技术中的原有图卷积网络,假设该图卷积网络的完整权重矩阵的行、列上均具有几何结构,被保存在无向图Gr(对应图训练样本中的用户关系矩阵)和Gc(对应图训练样本中的推荐内容关系矩阵)中。对每个图(以Gc为例,Gr的处理方法是对应的),可以抽取其标准化后的拉普拉斯矩阵其中Ac为对应Gc的邻接矩阵,而则对应度数矩阵。
用XΘ代表矩阵参数为Θ的GCN的输出结果(也即,完整权重矩阵)。以一层GCN为例,多图GCN将XΘ表示为:
XΘ=GCN(X0;Θ)=relu(LrXOLcΘ);
X0为随机生成的权重矩阵。其中,relu函数是激活函数的一种,代表的的是“修正线性单元”,relu函数将输入矩阵内所有负值都设为零,其余的值不变。relu函数的计算是在卷积之后进行的。
为了优化完整权重矩阵的矩阵参数Θ,GCN的训练目标可以概括为如下形式:
其中,Y为从前一层GCN输入至当前GCN的已知信息,或者,直接输入至机器学习模型中的信息;λ为用于协调不同项贡献的超参数;‖·‖F为矩阵的F范数。f为机器学习模型的损失函数,该损失函数可以根据不同学习问题定义,这里并不进行限制。
如前所述,当完整权重矩阵为M*N形式时,需要学习的矩阵参数Θ为M*N个,未知参数数量巨大,需要大量的图训练样本。
相应的,在利用矩阵分解,将原有GCN优化为低秩GCN后,低秩GCN的训练目标可以概括为如下形式:
其中,W0,H0为随机初始化的权重矩阵。
显然,通过将X分解为W和H两个低秩矩阵,可以大大降低训练目标中包括的待学习矩阵参数,在一个具体的例子中:如果为M*k形式,为N*k形式,则需要学习的矩阵参数Θr和Θc的总和为k(M+N),k为低秩GCN中需要学习的一个参数。可见,权重参数的学习数量远远小于原有GCN。
通过研究发现,如果使用现有的,基于矩阵分解的低秩GCN,不能很好的拟合原始GCN,因而最终训练得到的推荐模型的推荐准确率无法保证。目前,非凸正则项(nonconvexregularizer,也可以称为非凸低秩项)在拟合效果优于矩阵分解。但是,通过对现有非凸低秩项的研究发现,使用现有的非凸正则项学习得到低秩GCN时,其求解速度过慢,且算法需要定制,无法有效的应用到低秩GCN的学习过程中。
基于此,创造性的提出了一种新的,可以应用在低秩GCN中的非凸低秩项,该非凸低秩项能够分解为第一低秩矩阵和第二低秩矩阵的组合,上述非凸低秩项,在保证低秩GCN对原始GCN的拟合效果的同时,可以被快速求解,进而可以有效应用在低秩GCN的结构中。
相应的,在本实施例中,低秩图卷积网络的训练目标包括:第一低秩矩阵参数项、第二低秩矩阵参数项和非凸低秩项,所述非凸低秩项能够分解为第一低秩矩阵和第二低秩矩阵的组合。
具体的,在对机器学习模型进行训练的过程中,可以使用随机梯度下降法、梯度下降法或者批量梯度下降法等方式,对各低秩图卷积网络中的第一低秩矩阵参数项以及第二低秩矩阵参数项进行学习。
S130、在检测到满足训练结束条件时,将当前训练的机器学习模型,确定为与所述图训练样本集匹配的推荐模型。
具体的,所述训练结束条件可以为损失函数满足预设的阈值条件,或者说当前的迭代训练次数已经超过设定阈值条件等,本实施例对此并不进行限制。
在满足训练结束条件后,可以将当前训练得到的机器学习模型,作为与该图训练样本集匹配的推荐模型。基于该推荐模型,可以在输入新的用户关系矩阵以及新的推荐内容关系矩阵后,生成相应的用户和推荐内容联合关系矩阵,进而可以基于该用户和推荐内容联合关系矩阵,对用户进行有效的内容推荐。
本申请实施例的技术方案通过使用能够分解为第一低秩矩阵和第二低秩矩阵的组合的非凸低秩项构造低秩图卷积网络的训练目标,基于该非凸低秩项,保证了低秩图卷积网络所分解得到的两个低秩矩阵对原权重矩阵的拟合准确度,大大提升低秩GCN对原GCN的拟合效果,同时保持低秩GCN权重规模小、所需数据量小、运算速度快的特点。
第二实施例
图2是本申请第二实施例提供的一种推荐模型的生成方法的流程图。本实施例在上述实施例的基础上,对非凸低秩项的形式进行了进一步细化。
相应的,如图2所示,本申请实施例的技术方案,具体包括以下步骤:
S210、获取图训练样本集。
其中,图训练样本包括:用户关系矩阵、推荐内容关系矩阵,以及用户和推荐内容联合关系矩阵。
S220、依次获取一个图训练样本输入至设定机器学习模型中,对机器学习模型进行训练。
其中,机器学习模型包括至少一个低秩图卷积网络,低秩图卷积网络包括由第一低秩矩阵和第二低秩矩阵构成的完整权重矩阵。
其中,低秩图卷积网络的训练目标包括:第一低秩矩阵参数项、第二低秩矩阵参数项和非凸低秩项,所述非凸低秩项能够分解为第一低秩矩阵和第二低秩矩阵的组合。
在本实施例中,所述非凸低秩项表示为所述完整权重矩阵的核范式与F范式的差值矩阵。
通过大量研究发现,现有技术中所提出的非凸低秩项(例如,MCP或者cappedL1)中,均对权重矩阵的每个奇异值采用了不同的惩罚函数。因而如果使用上述非凸低秩项作为低秩GCN的训练目标时,需要大量进行奇异值分解操作,计算代价高,求解速度慢。同时,因为无法找到一个通用函数一次性的惩罚包含所有奇异值的向量,上述非凸低秩项也无法利用矩阵分解的方式进行加速。进而通过理论分析和实验实践,提出了一种新型非凸低秩项的结构,并表示为所述完整权重矩阵的核范式与F范式的差值矩阵。这一新型非凸低秩项可以达到与现有技术的非凸低秩项同样的矩阵拟合效果。同时,上述新型非凸低秩项中的核范式和F范式均可以被分解为两个低秩矩阵的组合,从而以解决了现有技术的计算瓶颈,也减少了样本需求量。
相应的,该新型非凸低秩项的数据形式为:
r(X)=||X||*-||X||F
接下来,利用以下性质:
进而,通过应用这一新型非凸低秩项,既可以获得现有非凸正则项的好效果,也能保持矩阵分解的快速度。
相应的,低秩图卷积网络的训练目标可以具体包括:
其中,Θr为第一低秩矩阵参数项,Θc为第二低秩矩阵参数项,‖·‖F为矩阵的F范数,λ为超参数,为机器学习模型中的损失函数;为在参数项Θr下的第一低秩矩阵,为在参数项Θc下的第二低秩矩阵;XΘ为在全部参数项Θ下的权重矩阵,Y为输入至低秩图卷积网络的已知信息。
其中,Ω为Y中存在观测数据的位置,也即,Y中数据值不为0的位置。通过使用用于解决矩阵补全问题的损失函数,可以进一步提高第一低秩矩阵以及第二低秩矩阵对该完整权重矩阵的拟合程度,进而可以进一步提高最终得到的推荐模型的预测精准度。
S230、通过所述机器学习模型根据所述图训练样本,使用随机梯度下降法对各低秩图卷积网络中的第一低秩矩阵参数项以及第二低秩矩阵参数项进行学习。
在本实施例中,从优化模型参数Θr,Θc的角度,可以使用随机梯度下降算法,不是(批量)梯度下降算法。随机选择一个样本来更新模型参数,可以以最大的概率加快算法的收敛速度。
S240、判断是否满足训练结束条件:若是,执行S250;否则,返回执行S220。
S250、将当前训练的机器学习模型,确定为与所述图训练样本集匹配的推荐模型。
本申请实施例的技术方案使用核范式与F范式的差值构造非凸低秩项作为低秩GCN的训练目标,基于该非凸低秩项,保证了低秩图卷积网络所分解得到的两个低秩矩阵对原权重矩阵的拟合准确度,大大提升低秩GCN对原GCN的拟合效果,同时保持低秩GCN权重规模小、所需数据量小、运算速度快的特点。
第三实施例
图3是本申请第三实施例提供的一种内容推荐方法的实现流程图,本申请实施例的的技术方案可以适用于向基于用户关系图以及推荐内容关系图向用户推荐匹配的推荐内容的情况,该方法可以由内容推荐装置来实现,该装置可以由软件和/或硬件实现,并一般集成在具有数据处理功能的终端或者服务器中。
如图3所示,本申请实施例的技术方案,具体包括如下步骤:
S310、获取目标用户关系矩阵以及目标推荐内容关系矩阵。
具体的,所述目标用户关系矩阵具体是指根据待推荐的多个用户的用户关系图生成的,用于表示不同用户之间关联关系的矩阵;所述目标推荐内容关系矩阵具体是指根据可以作为推荐目标的多个推荐内容的内容关系图生成,用于表示不同推荐内容之间关联关系的矩阵。
S320、将所述目标用户关系矩阵以及目标内容关系矩阵输入至通过本申请任一实施例所述的推荐模型的生成方法预先训练的推荐模型中,获取所述推荐模型输出的目标用户和推荐内容联合关系矩阵。
在本实施例中,所述推荐模型通过本申请任一实施例所述的推荐模型的生成方法训练生成,该推荐模型中包括至少一个低秩GCN,该低秩GCN的训练目标中,包括了能够分解为第一低秩矩阵和第二低秩矩阵的组合的非凸低秩项,因此,该低秩GCN可以很好的拟合原有GCN,进而最终得到的推荐模型的推荐准确率可以得到很好地保证。
相应的,将目标用户关系矩阵以及目标推荐内容关系矩阵输入至该推荐模型后,该推荐模型可以相应的输出目标用户和推荐内容联合关系矩阵。
其中,目标用户和推荐内容联合关系矩阵,具体是指每个待推荐的用户,与每个可以作为推荐目标的推荐内容的关联关系的矩阵。目标用户和推荐内容联合关系矩阵中的每一行代表一个待推荐用户,每一列代表一个可以作为推荐对象的推荐内容。
S330、在目标用户和推荐内容联合关系矩阵中,获取与各用户分别对应的权重最高的推荐内容作为目标推荐内容。
如前所述,在目标用户和推荐内容联合关系矩阵中,每一个矩阵行,对应于某一个具体的待推荐用户与各个推荐内容之间的对应关系,因此,可以选择每一个矩阵行的最大值对应的推荐内容,作为与该矩阵行的用户对应的目标推荐内容。
S340、将各所述目标推荐内容分别推荐给对应的用户。
本申请实施例的技术方案通过使用由能够分解为第一低秩矩阵和第二低秩矩阵的组合的非凸低秩项作为低秩GCN的训练目标最终生成的推荐模型,并基于该推荐模型获取与每个待推荐用户对应的推荐内容,可以进一步提高模型的预测精准度,进而可以提高推荐内容对用户实际需求的命中率,以进一步提高用户的使用体验以及推荐满意度。
第四实施例
图4是本申请第四实施例提供的一种推荐模型的生成装置的结构示意图,如图4所示,所述装置包括:图训练样本集获取模块410、推荐模型训练模块420以及推荐模型生成模块430。其中:
图训练样本集获取模块410,用于获取图训练样本集,图训练样本包括:用户关系矩阵、推荐内容关系矩阵,以及用户和推荐内容联合关系矩阵;
推荐模型训练模块420,用于将图训练样本集输入至设定机器学习模型中,对机器学习模型进行训练,机器学习模型包括至少一个低秩图卷积网络,低秩图卷积网络包括由第一低秩矩阵和第二低秩矩阵构成的完整权重矩阵;
其中,低秩图卷积网络的训练目标包括:第一低秩矩阵参数项、第二低秩矩阵参数项和非凸低秩项,所述非凸低秩项能够分解为第一低秩矩阵和第二低秩矩阵的组合;
推荐模型生成模块430,用于在检测到满足训练结束条件时,将当前训练的机器学习模型,确定为与所述图训练样本集匹配的推荐模型。
本申请实施例的技术方案通过使用能够分解为第一低秩矩阵和第二低秩矩阵的组合的非凸低秩项构造低秩图卷积网络的训练目标,基于该非凸低秩项,保证了低秩图卷积网络所分解得到的两个低秩矩阵对原权重矩阵的拟合准确度,大大提升低秩GCN对原GCN的拟合效果,同时保持低秩GCN权重规模小、所需数据量小、运算速度快的特点。
在上述各实施例的基础上,其中,所述非凸低秩项表示为所述完整权重矩阵的核范式与F范式的差值。
在上述各实施例的基础上,其中,低秩图卷积网络的训练目标尅包括:
其中,Θr为第一低秩矩阵参数项,Θc为第二低秩矩阵参数项,‖·‖F为矩阵的F范数,λ为超参数,为机器学习模型中的损失函数;为在参数项Θr下的第一低秩矩阵,为在参数项Θc下的第二低秩矩阵;XΘ为在全部参数项Θ下的完整权重矩阵,Y为输入至低秩图卷积网络的已知信息。
其中,Ω为Y中存在观测数据的位置。
在上述各实施例的基础上,其中,所述推荐模型训练模块具体用于:
在对机器学习模型进行训练的过程中,使用随机梯度下降法对各低秩图卷积网络中的第一低秩矩阵参数项以及第二低秩矩阵参数项进行训练。
本申请实施例所提供的推荐模型的生成装置可执行本申请任意实施例所提供的推荐模型的生成方法,具备执行方法相应的功能模块和有益效果。
第五实施例
图5是本申请第五实施例提供的一种内容推荐装置的结构示意图,如图5所示,所述装置包括:输入矩阵获取模块510、联合关系矩阵获取模块520、目标推荐内容获取模块530以及用户推荐模块540,其中:
输入矩阵获取模块510,用于获取目标用户关系矩阵以及目标推荐内容关系矩阵;
联合关系矩阵获取模块520,用于将所述目标用户关系矩阵以及目标内容关系矩阵输入至通过如本申请任一实施例所述的推荐模型的生成方法预先训练的推荐模型中,获取所述推荐模型输出的目标用户和推荐内容联合关系矩阵;
目标推荐内容获取模块530,用于在目标用户和推荐内容联合关系矩阵中,获取与各用户分别对应的权重最高的推荐内容作为目标推荐内容;
用户推荐模块540,用于将各所述目标推荐内容分别推荐给对应的用户。
本申请实施例的技术方案通过使用由核范式和F范式的差值构造非凸低秩项作为低秩GCN的训练目标最终生成的推荐模型,并基于该推荐模型获取与每个待推荐用户对应的推荐内容,可以进一步提高模型的预测精准度,进而可以提高推荐内容对用户实际需求的命中率,以进一步挺提供用户的使用体验以及推荐满意度。
本申请实施例所提供的内容推荐装置可执行本申请任意实施例所提供的内容推荐方法,具备执行方法相应的功能模块和有益效果。
第六实施例
根据本申请的第六实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是用来实现本申请任一实施例的推荐模型的生成方法,或者内容推荐方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的推荐模型的生成方法,或者内容推荐方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的推荐模型的生成方法,或者内容推荐方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的推荐模型的生成方法对应的程序指令/模块(例如,附图4所示的图训练样本集获取模块410、推荐模型训练模块420和推荐模型生成模块430)。或者,如本申请实施例中的内容推荐方法对应的程序指令/模块(例如,附图5所示的输入矩阵获取模块510、联合关系矩阵获取模块520、目标推荐内容获取模块530以及用户推荐模块540)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的推荐模型的生成方法,或者内容推荐方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储用来实现本申请任一实施例的推荐模型的生成方法,或者内容推荐方法的的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至用来实现本申请任一实施例的推荐模型的生成方法,或者内容推荐方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
用来实现本申请任一实施例的推荐模型的生成方法,或者内容推荐方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与用来实现本申请任一实施例的推荐模型的生成方法,或者内容推荐方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
本申请实施例的技术方案通过使用能够分解为第一低秩矩阵和第二低秩矩阵的组合的非凸低秩项构造低秩图卷积网络的训练目标,基于该非凸低秩项,保证了低秩图卷积网络所分解得到的两个低秩矩阵对原权重矩阵的拟合准确度,大大提升低秩GCN对原GCN的拟合效果,同时保持低秩GCN权重规模小、所需数据量小、运算速度快的特点。
同时,本申请实施例的技术方案通过使用核范式与F范式的差值构造非凸低秩项作为低秩GCN的训练目标最终生成的推荐模型,并基于该推荐模型获取与每个待推荐用户对应的推荐内容,可以进一步提高模型的预测精准度,进而可以提高推荐内容对用户实际需求的命中率,以进一步挺提供用户的使用体验以及推荐满意度。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (14)
1.一种推荐模型的生成方法,包括:
获取图训练样本集,图训练样本包括:用户关系矩阵、推荐内容关系矩阵,以及用户和推荐内容联合关系矩阵;
将图训练样本集输入至设定机器学习模型中,对机器学习模型进行训练,机器学习模型包括至少一个低秩图卷积网络,低秩图卷积网络包括由第一低秩矩阵和第二低秩矩阵构成的完整权重矩阵;
其中,低秩图卷积网络的训练目标包括:第一低秩矩阵参数项、第二低秩矩阵参数项和非凸低秩项,所述非凸低秩项能够分解为第一低秩矩阵和第二低秩矩阵的组合;
在检测到满足训练结束条件时,将当前训练的机器学习模型,确定为与所述图训练样本集匹配的推荐模型。
2.根据权利要求1所述的方法,其中,所述非凸低秩项为所述完整权重矩阵的核范式与F范式的差值矩阵。
5.根据权利要求1所述的方法,其中,在对机器学习模型进行训练的过程中,使用随机梯度下降法对各低秩图卷积网络中的第一低秩矩阵参数项以及第二低秩矩阵参数项进行学习。
6.一种内容推荐方法,包括:
获取目标用户关系矩阵以及目标推荐内容关系矩阵;
将所述目标用户关系矩阵以及目标内容关系矩阵输入至通过权利要求1-5任一项所述的方法预先训练的推荐模型中,获取所述推荐模型输出的目标用户和推荐内容联合关系矩阵;
在目标用户和推荐内容联合关系矩阵中,获取与各用户分别对应的权重最高的推荐内容作为目标推荐内容;
将各所述目标推荐内容分别推荐给对应的用户。
7.一种推荐模型的生成的装置,包括:
图训练样本集获取模块,用于获取图训练样本集,图训练样本包括:用户关系矩阵、推荐内容关系矩阵,以及用户和推荐内容联合关系矩阵;
推荐模型训练模块,用于将图训练样本集输入至设定机器学习模型中,对机器学习模型进行训练,机器学习模型包括至少一个低秩图卷积网络,低秩图卷积网络包括由第一低秩矩阵和第二低秩矩阵构成的完整权重矩阵;
其中,低秩图卷积网络的训练目标包括:第一低秩矩阵参数项、第二低秩矩阵参数项和非凸低秩项,所述非凸低秩项能够分解为第一低秩矩阵和第二低秩矩阵的组合;
推荐模型生成模块,用于在检测到满足训练结束条件时,将当前训练的机器学习模型,确定为与所述图训练样本集匹配的推荐模型。
8.根据权利要求7所述的装置,其中,所述非凸低秩项为所述完整权重矩阵的核范式与F范式的差值矩阵。
11.根据权利要求7所述的装置,其中,所述推荐模型训练模块具体用于:
在对机器学习模型进行训练的过程中,使用随机梯度下降法对各低秩图卷积网络中的第一低秩矩阵参数项以及第二低秩矩阵参数项进行训练。
12.一种内容推荐装置,包括:
输入矩阵获取模块,用于获取目标用户关系矩阵以及目标推荐内容关系矩阵;
联合关系矩阵获取模块,用于将所述目标用户关系矩阵以及目标内容关系矩阵输入至通过权利要求1-5任一项所述的方法预先训练的推荐模型中,获取所述推荐模型输出的目标用户和推荐内容联合关系矩阵;
目标推荐内容获取模块,用于在目标用户和推荐内容联合关系矩阵中,获取与各用户分别对应的权重最高的推荐内容作为目标推荐内容;
用户推荐模块,用于将各所述目标推荐内容分别推荐给对应的用户。
13.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的推荐模型的生成方法,或者,能够执行如权利要求6所述的内容推荐方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的推荐模型的生成方法,或者,执行如权利要求6所述的内容推荐方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010529738.2A CN111738414B (zh) | 2020-06-11 | 2020-06-11 | 推荐模型的生成、内容推荐方法、装置、设备和介质 |
US17/171,507 US20210390394A1 (en) | 2020-06-11 | 2021-02-09 | Method and apparatus for generating recommendation model, content recommendation method and apparatus, device and medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010529738.2A CN111738414B (zh) | 2020-06-11 | 2020-06-11 | 推荐模型的生成、内容推荐方法、装置、设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111738414A true CN111738414A (zh) | 2020-10-02 |
CN111738414B CN111738414B (zh) | 2023-04-07 |
Family
ID=72648799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010529738.2A Active CN111738414B (zh) | 2020-06-11 | 2020-06-11 | 推荐模型的生成、内容推荐方法、装置、设备和介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20210390394A1 (zh) |
CN (1) | CN111738414B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112312216A (zh) * | 2020-10-16 | 2021-02-02 | 山东海看新媒体研究院有限公司 | 基于模因理论的可追溯电视推荐方法及系统 |
CN112632403A (zh) * | 2020-12-24 | 2021-04-09 | 北京百度网讯科技有限公司 | 推荐模型的训练方法、推荐方法、装置、设备和介质 |
CN112734006A (zh) * | 2020-12-31 | 2021-04-30 | 杭州电子科技大学 | 一种基于gcn和集成学习的推荐算法 |
CN113033318A (zh) * | 2021-03-01 | 2021-06-25 | 深圳大学 | 人体动作的检测方法、装置及计算机可读存储介质 |
CN113554104A (zh) * | 2021-07-28 | 2021-10-26 | 哈尔滨工程大学 | 一种基于深度学习模型的图像分类方法 |
WO2022169480A1 (en) * | 2021-02-05 | 2022-08-11 | Visa International Service Association | Structured graph convolutional networks with stochastic masks for network embeddings |
WO2022252596A1 (zh) * | 2021-05-31 | 2022-12-08 | 华为云计算技术有限公司 | 构建ai集成模型的方法、ai集成模型的推理方法及装置 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114330299B (zh) * | 2021-12-20 | 2024-08-27 | 哈尔滨工程大学 | 基于多方面全局关系项目表示学习的会话推荐方法、系统、设备和介质 |
CN114861065B (zh) * | 2022-05-31 | 2023-06-06 | 山东省人工智能研究院 | 基于多行为的级联残差图卷积网络的个性化推荐方法 |
CN116028728B (zh) * | 2023-03-31 | 2023-06-16 | 特斯联科技集团有限公司 | 基于图学习的跨域推荐方法及系统 |
CN116993720B (zh) * | 2023-09-25 | 2024-01-09 | 深圳市希格莱特科技有限公司 | 用于电子烟pcb板的生产缺陷识别方法 |
CN117830046B (zh) * | 2024-03-06 | 2024-05-07 | 长春电子科技学院 | 一种基于互联网的在线课程数据云管理系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108563660A (zh) * | 2017-12-29 | 2018-09-21 | 温州大学 | 服务推荐方法、系统及服务器 |
CN109685155A (zh) * | 2018-12-29 | 2019-04-26 | 广东工业大学 | 基于多视图的子空间聚类方法、装置、设备及存储介质 |
CN110008397A (zh) * | 2019-01-04 | 2019-07-12 | 华为技术有限公司 | 一种推荐模型训练方法及装置 |
CN110188427A (zh) * | 2019-05-19 | 2019-08-30 | 北京工业大学 | 一种基于非负低秩动态模式分解的交通数据填充方法 |
CN110321422A (zh) * | 2018-03-28 | 2019-10-11 | 腾讯科技(深圳)有限公司 | 在线训练模型的方法、推送方法、装置以及设备 |
CN111177559A (zh) * | 2019-12-30 | 2020-05-19 | 中国联合网络通信集团有限公司 | 文旅服务推荐方法、装置、电子设备及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102276339B1 (ko) * | 2014-12-09 | 2021-07-12 | 삼성전자주식회사 | Cnn의 근사화를 위한 학습 장치 및 방법 |
US10762163B2 (en) * | 2016-12-05 | 2020-09-01 | Microsoft Technology Licensing, Llc | Probabilistic matrix factorization for automated machine learning |
CN108268947A (zh) * | 2016-12-30 | 2018-07-10 | 富士通株式会社 | 用于提高神经网络的处理速度的装置和方法及其应用 |
WO2018217829A1 (en) * | 2017-05-23 | 2018-11-29 | Intel Corporation | Methods and apparatus for enhancing a neural network using binary tensor and scale factor pairs |
WO2020061884A1 (en) * | 2018-09-27 | 2020-04-02 | Intel Corporation | Composite binary decomposition network |
-
2020
- 2020-06-11 CN CN202010529738.2A patent/CN111738414B/zh active Active
-
2021
- 2021-02-09 US US17/171,507 patent/US20210390394A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108563660A (zh) * | 2017-12-29 | 2018-09-21 | 温州大学 | 服务推荐方法、系统及服务器 |
CN110321422A (zh) * | 2018-03-28 | 2019-10-11 | 腾讯科技(深圳)有限公司 | 在线训练模型的方法、推送方法、装置以及设备 |
CN109685155A (zh) * | 2018-12-29 | 2019-04-26 | 广东工业大学 | 基于多视图的子空间聚类方法、装置、设备及存储介质 |
CN110008397A (zh) * | 2019-01-04 | 2019-07-12 | 华为技术有限公司 | 一种推荐模型训练方法及装置 |
CN110188427A (zh) * | 2019-05-19 | 2019-08-30 | 北京工业大学 | 一种基于非负低秩动态模式分解的交通数据填充方法 |
CN111177559A (zh) * | 2019-12-30 | 2020-05-19 | 中国联合网络通信集团有限公司 | 文旅服务推荐方法、装置、电子设备及存储介质 |
Non-Patent Citations (6)
Title |
---|
ANKIT PAREKH: "Enhanced Low-Rank Matrix Approximation" * |
MINGLONG LEI: "DigGCN: Learning Compact Graph Convolutional Networks via Diffusion Aggregation" * |
YAQING WANG: "Generalized Convolutional Sparse Coding With Unknown Noise" * |
YAQING WANG: "Scalable Online Convolutional Sparse Coding" * |
张腾敏: "基于多特征的图像显著性检测" * |
王格华: "非凸正则化方法研究" * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112312216A (zh) * | 2020-10-16 | 2021-02-02 | 山东海看新媒体研究院有限公司 | 基于模因理论的可追溯电视推荐方法及系统 |
CN112632403A (zh) * | 2020-12-24 | 2021-04-09 | 北京百度网讯科技有限公司 | 推荐模型的训练方法、推荐方法、装置、设备和介质 |
CN112632403B (zh) * | 2020-12-24 | 2024-04-09 | 北京百度网讯科技有限公司 | 推荐模型的训练方法、推荐方法、装置、设备和介质 |
CN112734006A (zh) * | 2020-12-31 | 2021-04-30 | 杭州电子科技大学 | 一种基于gcn和集成学习的推荐算法 |
WO2022169480A1 (en) * | 2021-02-05 | 2022-08-11 | Visa International Service Association | Structured graph convolutional networks with stochastic masks for network embeddings |
US11966832B2 (en) | 2021-02-05 | 2024-04-23 | Visa International Service Association | Structured graph convolutional networks with stochastic masks for network embeddings |
CN113033318A (zh) * | 2021-03-01 | 2021-06-25 | 深圳大学 | 人体动作的检测方法、装置及计算机可读存储介质 |
CN113033318B (zh) * | 2021-03-01 | 2023-09-26 | 深圳大学 | 人体动作的检测方法、装置及计算机可读存储介质 |
WO2022252596A1 (zh) * | 2021-05-31 | 2022-12-08 | 华为云计算技术有限公司 | 构建ai集成模型的方法、ai集成模型的推理方法及装置 |
CN113554104A (zh) * | 2021-07-28 | 2021-10-26 | 哈尔滨工程大学 | 一种基于深度学习模型的图像分类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111738414B (zh) | 2023-04-07 |
US20210390394A1 (en) | 2021-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111738414B (zh) | 推荐模型的生成、内容推荐方法、装置、设备和介质 | |
CN111259222B (zh) | 物品推荐方法、系统、电子设备及存储介质 | |
CN110795569B (zh) | 知识图谱的向量表示生成方法、装置及设备 | |
CN111639710A (zh) | 图像识别模型训练方法、装置、设备以及存储介质 | |
CN111143686B (zh) | 资源推荐方法及装置 | |
CN112632403B (zh) | 推荐模型的训练方法、推荐方法、装置、设备和介质 | |
CN111626119A (zh) | 目标识别模型训练方法、装置、设备以及存储介质 | |
CN111582479B (zh) | 神经网络模型的蒸馏方法和装置 | |
CN111667056B (zh) | 用于搜索模型结构的方法和装置 | |
CN111737995A (zh) | 基于多种词向量训练语言模型的方法、装置、设备及介质 | |
CN111311321B (zh) | 用户消费行为预测模型训练方法、装置、设备及存储介质 | |
US11343572B2 (en) | Method, apparatus for content recommendation, electronic device and storage medium | |
CN111860769A (zh) | 预训练图神经网络的方法以及装置 | |
CN110852379B (zh) | 用于目标物体识别的训练样本生成方法及装置 | |
CN111079945A (zh) | 端到端模型的训练方法及装置 | |
CN110427524A (zh) | 知识图谱补全的方法、装置、电子设备及存储介质 | |
CN111539220A (zh) | 语义相似度模型的训练方法、装置、电子设备及存储介质 | |
CN114492788A (zh) | 训练深度学习模型的方法和装置、电子设备及存储介质 | |
CN114202074A (zh) | 用于目标检测任务的预训练模型生成方法、装置及设备 | |
CN116523554A (zh) | 点击率预测模型的训练方法及装置 | |
CN111488972B (zh) | 数据迁移方法、装置、电子设备和存储介质 | |
CN112819497B (zh) | 转化率预测方法、装置、设备和存储介质 | |
CN113869377A (zh) | 训练方法、装置及电子设备 | |
CN111738325B (zh) | 图像识别方法、装置、设备以及存储介质 | |
CN111461306B (zh) | 特征评估的方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |