CN113779415A - 新闻推荐模型的训练方法、装置、设备以及存储介质 - Google Patents
新闻推荐模型的训练方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN113779415A CN113779415A CN202111234808.2A CN202111234808A CN113779415A CN 113779415 A CN113779415 A CN 113779415A CN 202111234808 A CN202111234808 A CN 202111234808A CN 113779415 A CN113779415 A CN 113779415A
- Authority
- CN
- China
- Prior art keywords
- news
- vector
- information
- preset
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 140
- 238000000034 method Methods 0.000 title claims abstract description 43
- 239000013598 vector Substances 0.000 claims abstract description 194
- 238000003062 neural network model Methods 0.000 claims abstract description 64
- 238000012795 verification Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000009467 reduction Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 claims description 7
- 238000013507 mapping Methods 0.000 claims description 5
- 239000000126 substance Substances 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种新闻推荐模型的训练方法、装置、设备以及存储介质,其中,方法包括:通过以每个所述用户信息与每个所述新闻信息的各个维度的匹配度,并基于各所述匹配度形成第一向量,基于各所述新闻信息的所述浏览用户的用户信息,形成对应所述新闻信息的第二向量,以及所述用户信息对应的第三向量以及所述新闻信息对应的第四向量,记为一组训练数据,将各组所述训练数据训练所述神经网络模型,得到所述新闻推荐模型。本发明的有益效果:实现了将精确的训练数据输入至神经网络模型中,使得到的新闻推荐模型的识别精度从使用时就具有较高的精度,从而避免了稀疏性和冷启动问题的困扰。
Description
技术领域
本发明涉及人工智能领域,特别涉及一种新闻推荐模型的训练方法、装置、设备以及存储介质。
背景技术
随着信息科技发展,大众足不出户便可在网络获取各式新闻信息。然而面对浩瀚的新闻,客户难以找到自己感兴趣的新闻。传统的新闻推荐系统应运而生,但是传统推荐系统在没有经过海量的训练数据进行训练的前提下,会存在稀疏性和冷启动问题的困扰。
发明内容
本发明的主要目的为提供一种新闻推荐模型的训练方法、装置、设备以及存储介质,旨在解决传统推荐系统在没有经过海量的训练数据进行训练的前提下,会存在稀疏性和冷启动问题的困扰的问题。
本发明提供了一种新闻推荐模型的训练方法,包括:
获取多个用户的用户信息、多个新闻信息,以及各个所述用户对各个所述新闻信息的浏览信息;
计算每个所述用户信息的各个维度与每个所述新闻信息的各个维度的匹配度,并基于各所述匹配度形成第一向量;以及基于所述浏览信息得到所述多个用户中,浏览各个所述新闻信息的浏览用户,并基于各所述新闻信息的所述浏览用户的用户信息,形成对应所述新闻信息的第二向量;
将所述用户信息和所述新闻信息分别进行向量化,得到所述用户信息对应的第三向量以及所述新闻信息对应的第四向量;
将其中一个所述新闻信息对应的第四向量、第二向量、第一向量以及一个所述用户信息对应的所述第三向量记为一组训练数据;
将各组所述训练数据依次输入至预先设置的神经网络模型中,并以预设的分值作为输出训练所述神经网络模型,得到所述新闻推荐模型。
进一步地,所述计算每个所述用户信息的各个维度与每个所述新闻信息的各个维度的匹配度,并基于各所述匹配度形成第一向量的步骤,包括:
将所述用户信息和所述新闻信息进行向量化,得到所述用户信息对应的用户向量X,以及所述新闻信息对应的新闻向量Y;
将所述用户向量和所述新闻向量分别映射至预设的维度中,得到各个维度的用户分向量Xi以及各个维度的新闻分向量Yi;其中,n表示用户分向量的个数,m表示新闻分向量的个数,Xi表示第i个用户分向量,Yi表示第i个维度的新闻分向量;
将各个维度的所述匹配度按照预设的维度顺序排列,得到所述第一向量。
进一步地,所述将各组所述训练数据依次输入至预先设置的神经网络模型中,并以预设的分值作为输出训练所述神经网络模型,得到所述新闻推荐模型的步骤,包括:
在所述神经网络模型中的输入层依次输入各组所述训练数据;
在所述神经网络模型中的卷积层对每个训练数据进行卷积,得到暂时向量st;
再通过公式ot=softmax(Vst)计算得到每一个所述暂时向量的输出向量ot,再将所述输出向量ot输入全连接层,得到对应的输出分值;其中,st=f(Uxt+Wst-1+b),st为第t步的计算函数,所述xt为第t个训练数据,s0为0向量,V、U、W、b均为预设的参数;
计算所述输出分值与所述预设的分值的误差,并判断所述误差是否超出了预设误差范围;
若超出了所述误差范围,则基于所述误差对所述神经网络模型中各层的权重参数进行调整,直至所有的所述训练数据与所述预设的分值的误差在所述预设误差范围内。
进一步地,所述将各组所述训练数据依次输入至预先设置的神经网络模型中,并以预设的分值作为输出训练所述神经网络模型,得到所述新闻推荐模型的步骤之后,还包括:
将指定用户的用户信息和实时新闻的新闻信息输入至所述新闻推荐模型中,得到给所述指定用户推荐所述实时新闻的推荐分值;
判断所述推荐分值是否大于预设的推荐阈值;
若大于所述预设的推荐阈值,则将所述实时新闻推送给所述指定用户。
进一步地,所述将所述用户信息和所述新闻信息分别进行向量化,得到所述用户信息对应的第三向量以及所述新闻信息对应的第四向量的步骤,包括:
将所述用户信息和所述新闻信息进行标准化处理,得到对应的标准用户信息和标准新闻信息;其中所述标准化处理包括根据预设的特殊字符标识库剔除所述用户信息和所述新闻信息中的标点符号、统一语种、删除不相关词句,所述不相关词句包括问候语和形容词;
将所述标准用户信息和所述标准新闻信息分别输入预设的BERT识别模型中,得到对应的所述第三向量和所述第四向量。
进一步地,所述将各组所述训练数据依次输入至预先设置的神经网络模型中,并以预设的分值作为输出训练所述神经网络模型,得到所述新闻推荐模型的步骤之后,还包括:
获取多个验证数据以及验证数据对应的实际分值;
将各个所述验证数据分别输入至所述新闻推荐模型中,得到各个所述验证数据的预测分值;
根据预设的损失函数公式计算所述新闻推荐模型的损失值;
根据所述损失值判断所述新闻推荐模型是否训练成功。
进一步地,所述将各组所述训练数据依次输入至预先设置的神经网络模型中的步骤,包括:
通过预设的堆叠降噪自编码器对各组所述训练数据进行一次或者多次降维,得到各组所述训练数据对应的目标训练数据;
将所述目标训练数据依次输入至预先设置的神经网络模型中。
本发明还提供了一种新闻推荐模型的训练装置,包括:
获取模块,用于获取多个用户的用户信息、多个新闻信息,以及各个所述用户对各个所述新闻信息的浏览信息;
计算模块,用于计算每个所述用户信息的各个维度与每个所述新闻信息的各个维度的匹配度,并基于各所述匹配度形成第一向量;以及基于所述浏览信息得到所述多个用户中,浏览各个所述新闻信息的浏览用户,并基于各所述新闻信息的所述浏览用户的用户信息,形成对应所述新闻信息的第二向量;
向量化模块,用于将所述用户信息和所述新闻信息分别进行向量化,得到所述用户信息对应的第三向量以及所述新闻信息对应的第四向量;
融合模块,用于将其中一个所述新闻信息对应的第四向量、第二向量、第一向量以及一个所述用户信息对应的所述第三向量记为一组训练数据;
训练模块,用于将各组所述训练数据依次输入至预先设置的神经网络模型中,并以预设的分值作为输出训练所述神经网络模型,得到所述新闻推荐模型。
本发明还提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述任一项所述方法的步骤。
本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一项所述的方法的步骤。
本发明的有益效果:通过以每个所述用户信息与每个所述新闻信息的各个维度的匹配度,并基于各所述匹配度形成第一向量,基于各所述新闻信息的所述浏览用户的用户信息,形成对应所述新闻信息的第二向量,以及所述用户信息对应的第三向量以及所述新闻信息对应的第四向量,记为一组训练数据,将各组所述训练数据训练所述神经网络模型,得到所述新闻推荐模型。从而实现了将精确的训练数据输入至神经网络模型中,使得到的新闻推荐模型的识别精度从使用时就具有较高的精度,从而避免了稀疏性和冷启动问题的困扰。
附图说明
图1是本发明一实施例的一种新闻推荐模型的训练方法的流程示意图;
图2是本发明一实施例的一种新闻推荐模型的训练装置的结构示意框图;
图3为本申请一实施例的计算机设备的结构示意框图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明,本发明实施例中所有方向性指示(诸如上、下、左、右、前、后等)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变,所述的连接可以是直接连接,也可以是间接连接。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。
另外,在本发明中如涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
参照图1,本发明提出一种新闻推荐模型的训练方法,包括:
S1:获取多个用户的用户信息、多个新闻信息,以及各个所述用户对各个所述新闻信息的浏览信息;
S2:计算每个所述用户信息的各个维度与每个所述新闻信息的各个维度的匹配度,并基于各所述匹配度形成第一向量;以及
基于所述浏览信息得到所述多个用户中,浏览各个所述新闻信息的浏览用户,并基于各所述新闻信息的所述浏览用户的用户信息,形成对应所述新闻信息的第二向量;
S3:将所述用户信息和所述新闻信息分别进行向量化,得到所述用户信息对应的第三向量以及所述新闻信息对应的第四向量;
S4:将其中一个所述新闻信息对应的第四向量、第二向量、第一向量以及一个所述用户信息对应的所述第三向量记为一组训练数据;
S5:将各组所述训练数据依次输入至预先设置的神经网络模型中,并以预设的分值作为输出训练所述神经网络模型,得到所述新闻推荐模型。
如上述步骤S1所述,获取多个用户的用户信息、多个新闻信息,以及各个所述用户对各个所述新闻信息的浏览信息。其中获取的方式可以是通过爬虫技术从对应的数据库中获取,也可以是通过接收人为上传的信息,即由相关人员预先统计好各个用户的用户信息新闻信息,以及各个所述用户对各个所述新闻信息的浏览信息。然后上传作为训练模型的数据。另外用户信息包括用户的喜好信息、职业信息以及性别等信息。新闻信息主要为新闻的类别信息,内容信息等,浏览信息指用户有没有点开对应的新闻信息进行浏览。
如上述步骤S2所述,计算每个所述用户信息的各个维度与每个所述新闻信息的各个维度的匹配度,并基于各所述匹配度形成第一向量,以及基于所述浏览信息得到所述多个用户中,浏览各个所述新闻信息的浏览用户,并基于各所述新闻信息的所述浏览用户的用户信息,形成对应所述新闻信息的第二向量。其中,匹配度的计算可为任意算法,例如为WMD算法(word mover’s distance)、simhash算法、基于余弦相似度的算法,后续有详细的计算说明此处不再赘述。基于所述浏览信息得到所述多个用户中,浏览各个所述新闻信息的浏览用户,并基于各所述新闻信息的所述浏览用户的用户信息,形成对应所述新闻信息的第二向量。其中,第二向量为根据各个用户信息进行形成,第二向量为矩阵,可以将每个用户信息作为矩阵中的一行信息,从而构建成矩阵,其目的在于分析各个新闻信息所查看的人群类别。
如上述步骤S3所述,将所述用户信息和所述新闻信息分别进行向量化,得到所述用户信息对应的第三向量以及所述新闻信息对应的第四向量。第三向量和第四向量则表明对应的用户信息和新闻信息,最终计算的是给用户信息对应的用户推荐该新闻信息对应的新闻的推荐分值,因此需要将其进行向量化输入至神经网络模型中。
如上述步骤S4所述,将其中一个所述新闻信息对应的第四向量、第二向量、第一向量以及一个所述用户信息对应的所述第三向量记为一组训练数据。即一组训练数据中含有新闻信息对应的第四向量、第二向量、第一向量以及用户信息对应的所述第三向量,从而使得一组训练数据中含有精确的数据,使得对于每一个用户都可以得到一个精确的推荐分值,从而避免了后续审的模型具有稀疏性和冷启动问题。
如上述步骤S5所述,将各组所述训练数据依次输入至预先设置的神经网络模型中,并以预设的分值作为输出训练所述神经网络模型,得到所述新闻推荐模型。即将具有精确数据的训练数据输入至预先设置的神经网络模型中,以预设的分值作为输出训练所述神经网络模型。训练的具体方式为,将各个训练数据输入至神经网络模型中,可以得到对应的预测分值,然后基于预设的分值不断调整神经网络模型中各层的参数,使预测分值不断接近预设的分值,从而完成对模型的训练。从而实现了将精确的训练数据输入至神经网络模型中,使得到的新闻推荐模型的识别精度从使用时就具有较高的精度,从而避免了稀疏性和冷启动问题的困扰。
在一个实施例中,所述计算每个所述用户信息的各个维度与每个所述新闻信息的各个维度的匹配度,并基于各所述匹配度形成第一向量的步骤S2,包括:
S201:将所述用户信息和所述新闻信息进行向量化,得到所述用户信息对应的用户向量X,以及所述新闻信息对应的新闻向量Y;
S202:将所述用户向量和所述新闻向量分别映射至预设的维度中,得到各个维度的用户分向量Xi以及各个维度的新闻分向量Yi;其中,n表示用户分向量的个数,m表示新闻分向量的个数,Xi表示第i个用户分向量,Yi表示第i个维度的新闻分向量;
S204:将各个维度的所述匹配度按照预设的维度顺序排列,得到所述第一向量。
如上述步骤S201-S204所述,实现了对第一向量的生成。具体地,将所述用户信息和所述新闻信息进行向量化,得到所述用户信息对应的用户向量X,以及所述新闻信息对应的新闻向量Y。其中,向量化的方式不做限定,例如可以通过预先设置的向量机进行向量化,其中所述用户向量和所述新闻向量均为多维的数据向量。将所述用户向量和所述新闻向量分别映射至预设的维度中,得到各个维度的用户分向量Xi以及各个维度的新闻分向量Yi;其中, n表示用户分向量的个数,m表示新闻分向量的个数,Xi表示第i个用户分向量,Yi表示第i个维度的新闻分向量。其中,映射实际上为求出用户向量和新闻向量在各个维度中的维度值,具体地计算方式可以是将用户向量和所述新闻向量乘以各个维度的单位向量,从而得到对应的维度值,然后再在该维度中用向量表示,即得到对应的用户分向量和新闻分向量。基于公式计算匹配度,再将匹配度按照预设的维度顺序排列,即可得到对应的第一向量。使得到的第一向量具有用户信息和新闻信息每个维度的匹配度,精度较高,从而使得后续训练模型也具有更高的精确度。
在一个实施例中,所述将各组所述训练数据依次输入至预先设置的神经网络模型中,并以预设的分值作为输出训练所述神经网络模型,得到所述新闻推荐模型的步骤S5,包括:
S501:在所述神经网络模型中的输入层依次输入各组所述训练数据;
S502:在所述神经网络模型中的卷积层对每个训练数据进行卷积,得到暂时向量st;
S503:再通过公式ot=softmax(Vst)计算得到每一个所述暂时向量的输出向量ot,再将所述输出向量ot输入全连接层,得到对应的输出分值;其中,st=f(Uxt+Wst-1+b),st为第t步的计算函数,所述xt为第t个训练数据,s0为0向量,V、U、W、b均为预设的参数。
S504:计算所述输出分值与所述预设的分值的误差,并判断所述误差是否超出了预设误差范围;
S505:若超出了所述误差范围,则基于所述误差对所述神经网络模型中各层的权重参数进行调整,直至所有的所述训练数据与所述预设的分值的误差在所述预设误差范围内。
如上述步骤S501-S505所述,实现了对神经网络模型的训练。具体地训练方式为对在输入层输入各个训练数据,需要说明的是,该各个训练数据为可以是依次训练。即上一个训练数据训练后才开始下一个训练数据的训练,也可以是同步进行训练,但是同步进行训练会导致神经网络模型的运算量较大,容易出现崩溃的场景,因此,优选为依次进行训练。根据公式可以知晓,另外每一个训练向量训练时,都会上一个训练向量的训练结果继续训练,从而增加了各个训练数据训练时的耦合性,使神经网络模型的训练精度进一步提升。
在一个实施例中,所述将各组所述训练数据依次输入至预先设置的神经网络模型中,并以预设的分值作为输出训练所述神经网络模型,得到所述新闻推荐模型的步骤S5之后,还包括:
S601:将指定用户的用户信息和实时新闻的新闻信息输入至所述新闻推荐模型中,得到给所述指定用户推荐所述实时新闻的推荐分值;
S602:判断所述推荐分值是否大于预设的推荐阈值;
S603:若大于所述预设的推荐阈值,则将所述实时新闻推送给所述指定用户。
如上述步骤S601-S603所述,实现了是否对指定用户推送实时新闻的判断,即将指定用户的用户信息和实时新闻的新闻信息输入至训练好的新闻推荐模型中,得到对应的推荐分值,判断所述推荐分值是否大于预设的推荐阈值。该推荐阈值为事先设定的分值,当推荐分值大于等于该推荐阈值时,即认为用户对该实时新闻感兴趣,从而可以将该实时新闻推送给用户,进而提升了客户的体验。
在一个实施例中,所述将所述用户信息和所述新闻信息分别进行向量化,得到所述用户信息对应的第三向量以及所述新闻信息对应的第四向量的步骤S3,包括:
S301:将所述用户信息和所述新闻信息进行标准化处理,得到对应的标准用户信息和标准新闻信息;其中所述标准化处理包括根据所述特殊字符标识库剔除所述问题中的标点符号、统一语种、删除不相关词句,所述不相关词句包括问候语和形容词;
S302:将所述标准用户信息和所述标准新闻信息分别输入预设的BERT识别模型中,得到对应的所述第三向量和所述第四向量。
如上述步骤S301-S302所述。实现了对第三向量和第四向量的生成,即先对所述用户信息和所述新闻信息进行标准化处理。从而删除一些具有干扰性的信息,提高数据的纯粹性,使其只包含有相关的信息。然后再将其输入预设的BERT识别模型中,BERT识别模型基于各种新闻信息和用户信息训练而成。从而可以得到对应的第三向量和第四向量。
在一个实施例中,所述将各组所述训练数据依次输入至预先设置的神经网络模型中,并以预设的分值作为输出训练所述神经网络模型,得到所述新闻推荐模型的步骤S5之后,还包括:
S611:获取多个验证数据以及验证数据对应的实际分值;
S612:将各个所述验证数据分别输入至所述新闻推荐模型中,得到各个所述验证数据的预测分值;
S613:根据预设的损失函数公式计算所述新闻推荐模型的损失值;
S614:根据所述损失值判断所述新闻推荐模型是否训练成功。
如上述步骤S611-S614所述,实现了损失值的计算。损失值的计算方式可以是通过各个验证数据的预测分值和实际分值进行计算,其中,损失函数为:
其中,xi表示第i个验证数据;yi表示第i个验证数据对应的实际分值,f(xi)表示第i个验证数据输入所述新闻推荐模型中得到的预测分值,n表示所述验证数据的个数,表示预设的参数值,εi表示第i个验证数据对应的匹配度,表示所述新闻推荐模型的损失值;
计算完成后得到相应的损失值,基于该计算的损失值,可以得到训练完成后新闻推荐模型的精确度,以此判断新闻推荐模型是否成功,具体地判定方式可以是设置一个损失阈值,当大于该损失阈值时,即认为该新闻推荐模型没有训练成功,通过计算该新闻推荐模型的损失值来判定该新闻推荐模型是否训练成功,从而实现了对新闻推荐模型的检测。
在一个实施例中,所述将各组所述训练数据依次输入至预先设置的神经网络模型中的步骤S5,包括:
S501:通过预设的堆叠降噪自编码器对所述训练数据进行一次或者多次降维,得到目标训练数据;
S502:将所述目标训练数据依次输入至预先设置的神经网络模型中。
如上述步骤S501-S502所述,实现了对数据的压缩处理,以减小神经网络模型的处理数据量。即通过预设的堆叠降噪自编码器对所述训练数据进行一次或者多次降维,得到目标训练数据。该堆叠降噪自编码器为将多个降噪自动编码器进行堆叠,而降噪自动编码器可以对数据进行降噪压缩,使得到的训练数据可以进一步压缩,由于训练数据较为庞大,因此需要将其进行压缩,才可以取得更好的训练效果,降低神经网络模型训练后所产生的鲁棒性。
本发明还提供了一种新闻推荐模型的训练装置,包括:
获取模块10,用于获取多个用户的用户信息、多个新闻信息,以及各个所述用户对各个所述新闻信息的浏览信息;
计算模块20,用于计算每个所述用户信息的各个维度与每个所述新闻信息的各个维度的匹配度,并基于各所述匹配度形成第一向量;以及基于所述浏览信息得到所述多个用户中,浏览各个所述新闻信息的浏览用户,并基于各所述新闻信息的所述浏览用户的用户信息,形成对应所述新闻信息的第二向量;
向量化模块30,用于将所述用户信息和所述新闻信息分别进行向量化,得到所述用户信息对应的第三向量以及所述新闻信息对应的第四向量;
融合模块40,用于将其中一个所述新闻信息对应的第四向量、第二向量、第一向量以及一个所述用户信息对应的所述第三向量记为一组训练数据;
训练模块50,用于将各组所述训练数据依次输入至预先设置的神经网络模型中,并以预设的分值作为输出训练所述神经网络模型,得到所述新闻推荐模型。
本发明的有益效果:通过以每个所述用户信息与每个所述新闻信息的各个维度的匹配度,并基于各所述匹配度形成第一向量,基于各所述新闻信息的所述浏览用户的用户信息,形成对应所述新闻信息的第二向量,以及所述用户信息对应的第三向量以及所述新闻信息对应的第四向量,记为一组训练数据,将各组所述训练数据训练所述神经网络模型,得到所述新闻推荐模型。从而实现了将精确的训练数据输入至神经网络模型中,使得到的新闻推荐模型的识别精度从使用时就具有较高的精度,从而避免了稀疏性和冷启动问题的困扰。
参照图3,本申请实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图3所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储各种用户信息、新闻信息等。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时可以实现上述任一实施例所述的新闻推荐模型的训练方法。
本领域技术人员可以理解,图3中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定。
本申请实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时可以实现上述任一实施例所述的新闻推荐模型的训练方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储与一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM一多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM(SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的权利要求范围之内。
Claims (10)
1.一种新闻推荐模型的训练方法,其特征在于,包括:
获取多个用户的用户信息、多个新闻信息,以及各个所述用户对各个所述新闻信息的浏览信息;
计算每个所述用户信息的各个维度与每个所述新闻信息的各个维度的匹配度,并基于各所述匹配度形成第一向量;以及基于所述浏览信息得到所述多个用户中,浏览各个所述新闻信息的浏览用户,并基于各所述新闻信息的所述浏览用户的用户信息,形成对应所述新闻信息的第二向量;
将所述用户信息和所述新闻信息分别进行向量化,得到所述用户信息对应的第三向量以及所述新闻信息对应的第四向量;
将其中一个所述新闻信息对应的第四向量、第二向量、第一向量以及一个所述用户信息对应的所述第三向量记为一组训练数据;
将各组所述训练数据依次输入至预先设置的神经网络模型中,并以预设的分值作为输出训练所述神经网络模型,得到所述新闻推荐模型。
2.如权利要求1所述的新闻推荐模型的训练方法,其特征在于,所述计算每个所述用户信息的各个维度与每个所述新闻信息的各个维度的匹配度,并基于各所述匹配度形成第一向量的步骤,包括:
将所述用户信息和所述新闻信息进行向量化,得到所述用户信息对应的用户向量X,以及所述新闻信息对应的新闻向量Y;
将所述用户向量和所述新闻向量分别映射至预设的维度中,得到各个维度的用户分向量Xi以及各个维度的新闻分向量Yi;其中,n表示用户分向量的个数,m表示新闻分向量的个数,Xi表示第i个用户分向量,Yi表示第i个维度的新闻分向量;
将各个维度的所述匹配度按照预设的维度顺序排列,得到所述第一向量。
3.如权利要求1所述的新闻推荐模型的训练方法,其特征在于,所述将各组所述训练数据依次输入至预先设置的神经网络模型中,并以预设的分值作为输出训练所述神经网络模型,得到所述新闻推荐模型的步骤,包括:
在所述神经网络模型中的输入层依次输入各组所述训练数据;
在所述神经网络模型中的卷积层对每个训练数据进行卷积,得到暂时向量st;
再通过公式ot=softmax(Vst)计算得到每一个所述暂时向量的输出向量ot,再将所述输出向量ot输入全连接层,得到对应的输出分值;其中,st=f(Uxt+Wst-1+b),st为第t步的计算函数,所述xt为第t个训练数据,s0为0向量,V、U、W、b均为预设的参数;
计算所述输出分值与所述预设的分值的误差,并判断所述误差是否超出了预设误差范围;
若超出了所述误差范围,则基于所述误差对所述神经网络模型中各层的权重参数进行调整,直至所有的所述训练数据与所述预设的分值的误差在所述预设误差范围内。
4.如权利要求1所述的新闻推荐模型的训练方法,其特征在于,所述将各组所述训练数据依次输入至预先设置的神经网络模型中,并以预设的分值作为输出训练所述神经网络模型,得到所述新闻推荐模型的步骤之后,还包括:
将指定用户的用户信息和实时新闻的新闻信息输入至所述新闻推荐模型中,得到给所述指定用户推荐所述实时新闻的推荐分值;
判断所述推荐分值是否大于预设的推荐阈值;
若大于所述预设的推荐阈值,则将所述实时新闻推送给所述指定用户。
5.如权利要求1所述的新闻推荐模型的训练方法,其特征在于,所述将所述用户信息和所述新闻信息分别进行向量化,得到所述用户信息对应的第三向量以及所述新闻信息对应的第四向量的步骤,包括:
将所述用户信息和所述新闻信息进行标准化处理,得到对应的标准用户信息和标准新闻信息;其中所述标准化处理包括根据预设的特殊字符标识库剔除所述用户信息和所述新闻信息中的标点符号、统一语种、删除不相关词句,所述不相关词句包括问候语和形容词;
将所述标准用户信息和所述标准新闻信息分别输入预设的BERT识别模型中,得到对应的所述第三向量和所述第四向量。
6.如权利要求1所述的新闻推荐模型的训练方法,其特征在于,所述将各组所述训练数据依次输入至预先设置的神经网络模型中,并以预设的分值作为输出训练所述神经网络模型,得到所述新闻推荐模型的步骤之后,还包括:
获取多个验证数据以及验证数据对应的实际分值;
将各个所述验证数据分别输入至所述新闻推荐模型中,得到各个所述验证数据的预测分值;
根据预设的损失函数公式计算所述新闻推荐模型的损失值;
根据所述损失值判断所述新闻推荐模型是否训练成功。
7.如权利要求1所述的新闻推荐模型的训练方法,其特征在于,所述将各组所述训练数据依次输入至预先设置的神经网络模型中的步骤,包括:
通过预设的堆叠降噪自编码器对各组所述训练数据进行一次或者多次降维,得到各组所述训练数据对应的目标训练数据;
将所述目标训练数据依次输入至预先设置的神经网络模型中。
8.一种新闻推荐模型的训练装置,其特征在于,包括:
获取模块,用于获取多个用户的用户信息、多个新闻信息,以及各个所述用户对各个所述新闻信息的浏览信息;
计算模块,用于计算每个所述用户信息的各个维度与每个所述新闻信息的各个维度的匹配度,并基于各所述匹配度形成第一向量;以及基于所述浏览信息得到所述多个用户中,浏览各个所述新闻信息的浏览用户,并基于各所述新闻信息的所述浏览用户的用户信息,形成对应所述新闻信息的第二向量;
向量化模块,用于将所述用户信息和所述新闻信息分别进行向量化,得到所述用户信息对应的第三向量以及所述新闻信息对应的第四向量;
融合模块,用于将其中一个所述新闻信息对应的第四向量、第二向量、第一向量以及一个所述用户信息对应的所述第三向量记为一组训练数据;
训练模块,用于将各组所述训练数据依次输入至预先设置的神经网络模型中,并以预设的分值作为输出训练所述神经网络模型,得到所述新闻推荐模型。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111234808.2A CN113779415A (zh) | 2021-10-22 | 2021-10-22 | 新闻推荐模型的训练方法、装置、设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111234808.2A CN113779415A (zh) | 2021-10-22 | 2021-10-22 | 新闻推荐模型的训练方法、装置、设备以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113779415A true CN113779415A (zh) | 2021-12-10 |
Family
ID=78873382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111234808.2A Pending CN113779415A (zh) | 2021-10-22 | 2021-10-22 | 新闻推荐模型的训练方法、装置、设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113779415A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116821502A (zh) * | 2023-06-30 | 2023-09-29 | 武汉大学 | 一种基于舆情热点的数据管理方法和系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090098863A1 (en) * | 2007-02-05 | 2009-04-16 | Wang Fangshan | Method, apparatus and system for selecting a crbt |
CN108985830A (zh) * | 2018-07-05 | 2018-12-11 | 北京邮电大学 | 基于异质信息网络的推荐评分方法、装置 |
CN111368210A (zh) * | 2020-05-27 | 2020-07-03 | 腾讯科技(深圳)有限公司 | 基于人工智能的信息推荐方法、装置以及电子设备 |
CN111639258A (zh) * | 2020-05-20 | 2020-09-08 | 苏州遐迩信息技术有限公司 | 一种基于神经网络的新闻推荐方法 |
CN112231569A (zh) * | 2020-10-23 | 2021-01-15 | 中国平安人寿保险股份有限公司 | 新闻推荐方法、装置、计算机设备及存储介质 |
US20210027172A1 (en) * | 2019-07-26 | 2021-01-28 | Samsung Electronics Co., Ltd. | Learning method of ai model and electronic apparatus |
CN112632318A (zh) * | 2020-12-24 | 2021-04-09 | 安克创新科技股份有限公司 | 一种音频推荐方法、装置、系统及存储介质 |
CN114677168A (zh) * | 2022-03-11 | 2022-06-28 | 百果园技术(新加坡)有限公司 | 一种资源推荐方法、装置、设备及介质 |
CN115409661A (zh) * | 2022-08-30 | 2022-11-29 | 西安交通大学 | 基于集成学习模型的就业推荐方法、系统、设备及介质 |
CN117056595A (zh) * | 2023-08-02 | 2023-11-14 | 广东技术师范大学 | 一种交互式的项目推荐方法、装置及计算机可读存储介质 |
-
2021
- 2021-10-22 CN CN202111234808.2A patent/CN113779415A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090098863A1 (en) * | 2007-02-05 | 2009-04-16 | Wang Fangshan | Method, apparatus and system for selecting a crbt |
CN108985830A (zh) * | 2018-07-05 | 2018-12-11 | 北京邮电大学 | 基于异质信息网络的推荐评分方法、装置 |
US20210027172A1 (en) * | 2019-07-26 | 2021-01-28 | Samsung Electronics Co., Ltd. | Learning method of ai model and electronic apparatus |
CN111639258A (zh) * | 2020-05-20 | 2020-09-08 | 苏州遐迩信息技术有限公司 | 一种基于神经网络的新闻推荐方法 |
CN111368210A (zh) * | 2020-05-27 | 2020-07-03 | 腾讯科技(深圳)有限公司 | 基于人工智能的信息推荐方法、装置以及电子设备 |
CN112231569A (zh) * | 2020-10-23 | 2021-01-15 | 中国平安人寿保险股份有限公司 | 新闻推荐方法、装置、计算机设备及存储介质 |
CN112632318A (zh) * | 2020-12-24 | 2021-04-09 | 安克创新科技股份有限公司 | 一种音频推荐方法、装置、系统及存储介质 |
CN114677168A (zh) * | 2022-03-11 | 2022-06-28 | 百果园技术(新加坡)有限公司 | 一种资源推荐方法、装置、设备及介质 |
CN115409661A (zh) * | 2022-08-30 | 2022-11-29 | 西安交通大学 | 基于集成学习模型的就业推荐方法、系统、设备及介质 |
CN117056595A (zh) * | 2023-08-02 | 2023-11-14 | 广东技术师范大学 | 一种交互式的项目推荐方法、装置及计算机可读存储介质 |
Non-Patent Citations (1)
Title |
---|
ASMAA ELBADRAWY ET AL: "User-Specific Feature-based Similarity Models for Top-n Recommendation of New Items", 《ACM》, 31 March 2013 (2013-03-31), pages 1 - 21 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116821502A (zh) * | 2023-06-30 | 2023-09-29 | 武汉大学 | 一种基于舆情热点的数据管理方法和系统 |
CN116821502B (zh) * | 2023-06-30 | 2024-03-08 | 武汉大学 | 一种基于舆情热点的数据管理方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111538908B (zh) | 搜索排序方法、装置、计算机设备和存储介质 | |
EP3971772A1 (en) | Model training method and apparatus, and terminal and storage medium | |
CN108763535B (zh) | 信息获取方法及装置 | |
CN110598206A (zh) | 文本语义识别方法、装置、计算机设备和存储介质 | |
CN111651992A (zh) | 命名实体标注方法、装置、计算机设备和存储介质 | |
CN111259113B (zh) | 文本匹配方法、装置、计算机可读存储介质和计算机设备 | |
CN110851641B (zh) | 跨模态检索方法、装置和可读存储介质 | |
CN111666399A (zh) | 基于知识图谱的智能问答方法、装置和计算机设备 | |
CN113792682B (zh) | 基于人脸图像的人脸质量评估方法、装置、设备及介质 | |
CN109740158B (zh) | 一种文本语义解析方法及装置 | |
CN112365385B (zh) | 基于自注意力的知识蒸馏方法、装置和计算机设备 | |
CN111860669A (zh) | Ocr识别模型的训练方法、装置和计算机设备 | |
CN112632253A (zh) | 基于图卷积网络的答案抽取方法、装置及相关组件 | |
CN113779415A (zh) | 新闻推荐模型的训练方法、装置、设备以及存储介质 | |
CN109858031B (zh) | 神经网络模型训练、上下文预测方法及装置 | |
CN113486140A (zh) | 知识问答的匹配方法、装置、设备及存储介质 | |
CN110990630B (zh) | 一种基于图建模视觉信息的利用问题指导的视频问答方法 | |
CN113128235A (zh) | 一种语义理解方法 | |
CN112989022B (zh) | 虚拟文本智能选取方法、装置以及计算机设备 | |
CN114398903B (zh) | 意图识别方法、装置、电子设备及存储介质 | |
CN110866637A (zh) | 评分预测方法、装置、计算机设备和存储介质 | |
CN115238124A (zh) | 视频人物检索方法、装置、设备和存储介质 | |
CN112364620B (zh) | 文本相似度的判断方法、装置以及计算机设备 | |
CN112329404B (zh) | 基于事实导向的文本生成方法、装置和计算机设备 | |
CN112016292B (zh) | 文章截断点的设定方法、装置以及计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |