CN116028617B - 资讯推荐方法、装置、设备、可读存储介质及程序产品 - Google Patents
资讯推荐方法、装置、设备、可读存储介质及程序产品 Download PDFInfo
- Publication number
- CN116028617B CN116028617B CN202211559482.5A CN202211559482A CN116028617B CN 116028617 B CN116028617 B CN 116028617B CN 202211559482 A CN202211559482 A CN 202211559482A CN 116028617 B CN116028617 B CN 116028617B
- Authority
- CN
- China
- Prior art keywords
- information
- vector
- model
- vectors
- vector corresponding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000003860 storage Methods 0.000 title claims abstract description 20
- 239000013598 vector Substances 0.000 claims abstract description 607
- 238000012545 processing Methods 0.000 claims abstract description 92
- 238000004364 calculation method Methods 0.000 claims abstract description 11
- 230000006870 function Effects 0.000 claims description 112
- 230000000873 masking effect Effects 0.000 claims description 48
- 238000012549 training Methods 0.000 claims description 40
- 238000013145 classification model Methods 0.000 claims description 38
- 238000011176 pooling Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 18
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 238000012935 Averaging Methods 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 abstract description 14
- 230000000875 corresponding effect Effects 0.000 description 179
- 238000005516 engineering process Methods 0.000 description 23
- 238000013527 convolutional neural network Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 101000928335 Homo sapiens Ankyrin repeat and KH domain-containing protein 1 Proteins 0.000 description 1
- 101000701393 Homo sapiens Serine/threonine-protein kinase 26 Proteins 0.000 description 1
- 102100030617 Serine/threonine-protein kinase 26 Human genes 0.000 description 1
- 241000700605 Viruses Species 0.000 description 1
- 102100029469 WD repeat and HMG-box DNA-binding protein 1 Human genes 0.000 description 1
- 101710097421 WD repeat and HMG-box DNA-binding protein 1 Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 229910001566 austenite Inorganic materials 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例提供了一种资讯推荐方法、装置、设备、可读存储介质及程序产品,涉及人工智能、地图等领域,应用场景包括但不限于资讯推荐场景。该方法包括:获取包括图文信息内容的目标资讯;将目标资讯和预设资讯集合中任一资讯输入至训练后的资讯识别模型,进行特征识别处理,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量;目标资讯对应的资讯向量用于表征目标资讯的文本特征和图像特征,任一资讯对应的资讯向量用于表征任一资讯的文本特征和图像特征;通过相似度计算,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的相似度;若相似度大于或等于相似度阈值,则将任一资讯作为推荐资讯。
Description
技术领域
本申请涉及计算机技术领域,具体而言,本申请涉及一种资讯推荐方法、装置、设备、可读存储介质及程序产品。
背景技术
现有技术中,资讯表征是资讯推荐系统中重要的基础部分,资讯表征一般为资讯向量,资讯表征可以用于资讯推荐中召回、排序等环节。一般通过word2vec、glove预训练模型等方法学习资讯向量,但是这些方法学习的资讯向量只能表征资讯的标题、正文等文本信息,资讯推荐系统往往将不相似的资讯推荐给用户;例如,资讯A和用户关注的资讯之间是不相似的,但是资讯推荐系统将资讯A推荐了给用户,从而导致资讯推荐的准确度较低。
发明内容
本申请针对现有的方式的缺点,提出一种资讯推荐方法、装置、设备、计算机可读存储介质及计算机程序产品,用于解决如何提高资讯推荐的准确度问题。
第一方面,本申请提供了一种资讯推荐方法,包括:
获取包括图文信息内容的目标资讯;
将目标资讯和预设资讯集合中任一资讯输入至训练后的资讯识别模型,进行特征识别处理,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量;目标资讯对应的资讯向量用于表征目标资讯的文本特征和图像特征,任一资讯对应的资讯向量用于表征任一资讯的文本特征和图像特征;
通过相似度计算,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的相似度;
若相似度大于或等于相似度阈值,则将任一资讯作为推荐资讯。
在一个实施例中,将目标资讯和预设资讯集合中任一资讯输入至训练后的资讯识别模型,进行特征识别处理,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量,包括:
将目标资讯输入至训练后的资讯识别模型,得到目标资讯对应的字向量和图向量,并将预设资讯集合中任一资讯输入至训练后的资讯识别模型,得到任一资讯对应的字向量和图向量;
将目标资讯对应的字向量和图向量进行均值处理,得到目标资讯对应的资讯向量,并将任一资讯对应的字向量和图向量进行均值处理,得到任一资讯对应的资讯向量。
在一个实施例中,将目标资讯对应的字向量和图向量进行均值处理,得到目标资讯对应的资讯向量,包括:
将目标资讯对应的全部向量进行求和,得到向量和,全部向量包括目标资讯对应的全部字向量和全部图向量;
将向量和除以全部向量的数量,得到目标资讯对应的资讯向量。
在一个实施例中,在将目标资讯和预设资讯集合中任一资讯输入至训练后的资讯识别模型之前,还包括:
将任意两个资讯样本输入至资讯识别模型中的图文模型,得到两个资讯样本中每个资讯样本对应的字向量和图向量;
通过资讯识别模型中的平均池化层,将每个资讯样本对应的字向量和图向量进行均值处理,得到每个资讯样本对应的资讯向量;
确定两个资讯样本对应的资讯向量之间的预测相似度;
基于预测相似度和预设的所述两个资讯样本之间的实际相似度,确定资讯识别模型的损失函数的值;
若资讯识别模型的损失函数的值大于第一损失阈值,则对资讯识别模型进行训练,更新资讯识别模型的网络参数;
重复执行将任意两个资讯样本输入至资讯识别模型中的图文模型,得到两个资讯样本中每个资讯样本对应的字向量和图向量、通过资讯识别模型中的平均池化层,将每个资讯样本对应的字向量和图向量进行均值处理,得到每个资讯样本对应的资讯向量、确定两个资讯样本对应的资讯向量之间的预测相似度、基于预测相似度和预设的两个资讯样本之间的实际相似度,确定资讯识别模型的损失函数的值、以及若资讯识别模型的损失函数的值大于损失阈值,则对资讯识别模型进行训练,更新资讯识别模型的网络参数,直至当资讯识别模型的损失函数的值等于第一损失阈值,得到训练后的资讯识别模型。
在一个实施例中,在将任意两个资讯样本输入至资讯识别模型中的图文模型,得到两个资讯样本中每个资讯样本对应的字向量和图向量之前,还包括:
构建原始资讯识别模型,原始资讯识别模型包括残差网络、多标签分类模型、遮掩语言模型、遮掩图片模型和原始图文模型;
将资讯样本输入至原始资讯识别模型,对原始资讯识别模型进行训练,得到训练后的原始资讯识别模型,训练后的原始资讯识别模型包括资讯识别模型中的图文模型。
在一个实施例中,资讯样本包括标题、正文和多个图片;将资讯样本输入至原始资讯识别模型,对原始资讯识别模型进行训练,得到训练后的原始资讯识别模型,包括:
将标题和正文转换成多个第一字向量,并通过残差网络将多个图片转换成多个第一图向量;
将多个第一字向量中至少一个第一字向量进行遮掩处理,得到至少一个遮掩处理后的第一字向量;并将多个第一图向量中至少一个第一图向量进行遮掩处理,得到至少一个遮掩处理后的第一图向量;
将多个第一字向量中除至少一个第一字向量之外的第一字向量、多个第一图向量中除至少一个第一图向量之外的第一图向量、至少一个遮掩处理后的第一字向量和至少一个遮掩处理后的第一图向量输入至原始图文模型,进行转换处理,得到多个第二字向量和多个第二图向量;
基于多个第二字向量和多个第二图向量,确定原始资讯识别模型的损失函数的值;
若原始资讯识别模型的损失函数的值大于第二损失阈值,则对原始资讯识别模型进行训练,更新原始资讯识别模型的网络参数;
若原始资讯识别模型的损失函数的值小于或大于第二损失阈值,则结束原始资讯识别模型的训练,并将训练得到的原始资讯识别模型作为训练后的原始资讯识别模型。
在一个实施例中,基于多个第二字向量和多个第二图向量,确定原始资讯识别模型的损失函数的值,包括:
基于多个第二字向量和多个第二图向量,通过多标签分类模型,确定多标签分类模型的损失函数的值;
基于多个第二字向量,通过遮掩语言模型,确定遮掩语言模型的损失函数的值;
基于多个第二图向量,通过遮掩图片模型,确定遮掩图片模型的损失函数的值;
基于多标签分类模型的损失函数的值、遮掩语言模型的损失函数的值、遮掩图片模型的损失函数的值和预设权重,确定原始资讯识别模型的损失函数的值。
在一个实施例中,基于多个第二字向量和多个第二图向量,通过多标签分类模型,确定多标签分类模型的损失函数的值,包括:
将多个第二字向量和多个第二图向量输入至多标签分类模型,确定资讯样本对应多个标签中每个标签的概率;
基于资讯样本对应各标签的概率,确定多标签分类模型的损失函数的值。
在一个实施例中,基于多个第二字向量,通过遮掩语言模型,确定遮掩语言模型的损失函数的值,包括:
将多个第二字向量输入至遮掩语言模型,确定至少一个遮掩处理后的第一字向量对应多个字中每个字的概率;
基于至少一个遮掩处理后的第一字向量对应各字的概率,确定遮掩语言模型的损失函数的值。
在一个实施例中,基于多个第二图向量,通过遮掩图片模型,确定遮掩图片模型的损失函数的值,包括:
将多个第二图向量输入至遮掩图片模型,从预设实际图向量集合中,确定至少一个遮掩处理后的第一图向量对应的实际图向量的概率;
基于至少一个遮掩处理后的第一图向量对应的实际图向量的概率,确定遮掩图片模型的损失函数的值。
第二方面,本申请提供了一种资讯推荐装置,包括:
第一处理模块,用于获取包括图文信息内容的目标资讯;
第二处理模块,用于将目标资讯和预设资讯集合中任一资讯输入至训练后的资讯识别模型,进行特征识别处理,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量;目标资讯对应的资讯向量用于表征目标资讯的文本特征和图像特征,任一资讯对应的资讯向量用于表征任一资讯的文本特征和图像特征;
第三处理模块,用于通过相似度计算,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的相似度;
第四处理模块,用于若相似度大于或等于相似度阈值,则将任一资讯作为推荐资讯。
第三方面,本申请提供了一种电子设备,包括:处理器、存储器和总线;
总线,用于连接处理器和存储器;
存储器,用于存储操作指令;
处理器,用于通过调用操作指令,执行本申请第一方面的资讯推荐方法。
第四方面,本申请提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被用于执行本申请第一方面的资讯推荐方法。
第五方面,本申请提供了一种计算机程序产品,包括计算机程序,计算机程序被处理器执行时实现本申请第一方面中资讯推荐方法的步骤。
本申请实施例提供的技术方案,至少具有如下有益效果:
获取包括图文信息内容的目标资讯;将目标资讯和预设资讯集合中任一资讯输入至训练后的资讯识别模型,进行特征识别处理,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量;目标资讯对应的资讯向量用于表征目标资讯的文本特征和图像特征,任一资讯对应的资讯向量用于表征任一资讯的文本特征和图像特征;通过相似度计算,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的相似度;若相似度大于或等于相似度阈值,则将任一资讯作为推荐资讯。如此,训练后的资讯识别模型将文本信息(文本特征)和图片信息(图像特征)融合到资讯向量中,提高了确定目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的相似度的准确度,即提高了预测相似度的准确度,从而提高了资讯推荐的准确度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对本申请实施例描述中所需要使用的附图作简单地介绍。
图1为本申请实施例提供的资讯推荐系统的架构示意图;
图2为本申请实施例提供的一种资讯推荐方法的流程示意图;
图3为本申请实施例提供的一种资讯推荐的示意图;
图4为本申请实施例提供的一种资讯推荐的示意图;
图5为本申请实施例提供的一种资讯推荐方法的流程示意图;
图6为本申请实施例提供的一种资讯推荐装置的结构示意图;
图7为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面结合本申请中的附图描述本申请的实施例。应理解,下面结合附图所阐述的实施方式,是用于解释本申请实施例的技术方案的示例性描述,对本申请实施例的技术方案不构成限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请实施例所使用的术语“包括”以及“包含”是指相应特征可以实现为所呈现的特征、信息、数据、步骤、操作、元件和/或组件,但不排除实现为本技术领域所支持其他特征、信息、数据、步骤、操作、元件、组件和/或它们的组合等。应该理解,当我们称一个元件被“连接”或“耦接”到另一元件时,该一个元件可以直接连接或耦接到另一元件,也可以指该一个元件和另一元件通过中间元件建立连接关系。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的术语“和/或”指示该术语所限定的项目中的至少一个,例如“A和/或B”指示实现为“A”,或者实现为“B”,或者实现为“A和B”。
可以理解的是,在本申请的具体实施方式中,涉及到资讯推荐相关的数据,当本申请以上实施例运用到具体产品或技术中时,需要获得用户许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
本申请实施例是资讯推荐系统提供的一种资讯推荐方法,该资讯推荐方法涉及人工智能、地图等领域。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习、自动驾驶、智慧交通等几大方向。
智能交通系统(Intelligent Traffic System,ITS)又称智能运输系统(Intelligent Transportation System),是将先进的科学技术(信息技术、计算机技术、数据通信技术、传感器技术、电子控制技术、自动控制理论、运筹学、人工智能等)有效地综合运用于交通运输、服务控制和车辆制造,加强车辆、道路、使用者三者之间的联系,从而形成一种保障安全、提高效率、改善环境、节约能源的综合运输系统。
为了更好的理解及说明本申请实施例的方案,下面对本申请实施例中所涉及到的一些技术用语进行简单说明。
手机管家:手机管家可以是一款主要包含手机病毒查杀、垃圾清理、骚扰拦截、流量管理、软件管理等功能的手机管理软件。
APP:APP(Application,应用程序)可以指手机上的应用程序。
推荐系统:推荐系统是一种信息过滤系统,通过对用户、项目以及用户和项目关联的信息进行分析来预测用户的偏好,进而推荐给特定用户最适合的物品;推荐的物品包括:APP、资讯、电影、音乐、新闻、书籍、学术论文、搜索查询、分众分类以及其他产品。
Transformer:Transformer在机器翻译任务上的表现超过了RNN、CNN等,只用encoder-decoder和attention机制就能达到很好的效果,最大的优点是可以高效地并行化;Transformer适用于序列问题的处理。
RNN:RNN(Recurrent neural network,循环神经网络)是神经网络的一种;单纯的RNN因为无法处理随着递归,权重指数级爆炸或梯度消失问题,难以捕捉长期时间关联;而结合不同的LSTM可以很好解决这个问题。
CNN:CNN(Convolutional Neural Network,卷积神经网络)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现;卷积神经网络由一个或多个卷积层和顶端的全连通层(对应经典的神经网络)组成,同时也包括关联权重和池化层(pooling layer);这一结构使得卷积神经网络能够利用输入数据的二维结构,与其他深度学习结构相比,卷积神经网络在图像和语音识别方面能够给出更好的结果;这一模型也可以使用反向传播算法进行训练;相比较其他深度、前馈神经网络,卷积神经网络需要考量的参数更少,使之成为一种颇具吸引力的深度学习结构。
BERT:BERT(Bidirectional Encoder Representation from Transformers,基于Transformer的双向编码器表征)是一个预训练的语言表征模型;模型结构为多层transformer-encoder,将文本token化后,输入模型,输出各个token的向量;这些向量可以很好地表征文本语义。
RESNET:RESNET残差网络的特点是容易优化,并且能够通过增加相当的深度来提高准确率;RESNET内部的残差块使用了跳跃连接,缓解了在深度神经网络中增加深度带来的梯度消失问题。
MLM:MLM(Masked Language Model,遮掩语言模型)是掩码/遮掩语言模型(双向的),在输入序列(一般是句子为基本单位)上随机遮掩(单词用[MASK]替换掉),然后让被改造后的序列去预测被遮掩的是哪些词;遮掩语言模型用于在BERT等文本预训练模型中。
tfrecord格式:tfrecord格式是一种适配于tensorflow深度学习框架的文件格式。
spearman系数:spearman系数为斯皮尔曼等级相关系数;spearman系数经常用希腊字母ρ表示;spearman系数是衡量两个变量的依赖性的非参数指标;spearman系数利用单调方程评价两个统计变量的相关性;若数据中没有重复值,并且当两个变量完全单调相关,则spearman系数为+1或-1。
本申请实施例提供的方案涉及人工智能技术,下面以具体的实施例对本申请的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
为了更好的理解本申请实施例提供的方案,下面结合具体的一个应用场景对该方案进行说明。
在一个实施例中,图1中示出了本申请实施例所适用的一种资讯推荐系统的架构示意图,可以理解的是,本申请实施例所提供的资讯推荐方法可以适用于但不限于应用于如图1所示的应用场景中。
本示例中,如图1所示,该示例中的资讯推荐系统的架构可以包括但不限于服务器10、终端20和数据库30。服务器10、终端20和数据库30之间可以通过网络40进行交互。服务器10获取包括图文信息内容的目标资讯;服务器10将目标资讯和预设资讯集合中任一资讯输入至训练后的资讯识别模型,进行特征识别处理,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量;目标资讯对应的资讯向量用于表征目标资讯的文本特征和图像特征,任一资讯对应的资讯向量用于表征任一资讯的文本特征和图像特征;服务器10通过相似度计算,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的相似度;若相似度大于或等于相似度阈值,则服务器10将任一资讯作为推荐资讯。服务器10将任一资讯发送给终端20进行资讯推荐。服务器10将目标资讯和任一资讯作为一个资讯对,并将该资讯对,以及目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的相似度发送给数据库30进行存储。
可理解,上述仅为一种示例,本实施例在此不作限定。
其中,终端包括但不限于智能手机(如Android手机、iOS手机等)、手机模拟器、平板电脑、笔记本电脑、数字广播接收器、MID(Mobile InternetDevices,移动互联网设备)、PDA(个人数字助理)、智能语音交互设备、智能家电、车载终端等。
服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器或服务器集群。
云计算(cloud computing)是一种计算模式,它将计算任务分布在大量计算机构成的资源池上,使各种应用系统能够根据需要获取计算力、存储空间和信息服务。提供资源的网络被称为“云”。“云”中的资源在使用者看来是可以无限扩展的,并且可以随时获取,按需使用,随时扩展,按使用付费。
作为云计算的基础能力提供商,会建立云计算资源池(简称云平台,一般称为IaaS(Infrastructure as a Service,基础设施即服务)平台,在资源池中部署多种类型的虚拟资源,供外部客户选择使用。云计算资源池中主要包括:计算设备(为虚拟化机器,包含操作系统)、存储设备、网络设备。
按照逻辑功能划分,在IaaS(Infrastructure as a Service,基础设施即服务)层上可以部署PaaS(Platform as a Service,平台即服务)层,PaaS层之上再部署SaaS(Software as a Service,软件即服务)层,也可以直接将SaaS部署在IaaS上。PaaS为软件运行的平台,如数据库、web容器等。SaaS为各式各样的业务软件,如web门户网站、短信群发器等。一般来说,SaaS和PaaS相对于IaaS是上层。
所谓人工智能云服务,一般也被称作是AIaaS(AI as a Service,中文为“AI即服务”)。这是目前主流的一种人工智能平台的服务方式,具体来说AIaaS平台会把几类常见的AI服务进行拆分,并在云端提供独立或者打包的服务。这种服务模式类似于开了一个AI主题商城:所有的开发者都可以通过API接口的方式来接入使用平台提供的一种或者是多种人工智能服务,部分资深的开发者还可以使用平台提供的AI框架和AI基础设施来部署和运维自已专属的云人工智能服务。
上述网络可以包括但不限于:有线网络,无线网络,其中,该有线网络包括:局域网、城域网和广域网,该无线网络包括:蓝牙、Wi-Fi及其他实现无线通信的网络。具体也可基于实际应用场景需求确定,在此不作限定。
参见图2,图2示出了本申请实施例提供的一种资讯推荐方法的流程示意图,其中,该方法可以由任一电子设备执行,如可以是服务器等;作为一可选实施方式,该方法可以由服务器执行,为了描述方便,在下文的一些可选实施例的描述中,将以服务器作为该方法执行主体为例进行说明。如图2所示,本申请实施例提供的资讯推荐方法包括如下步骤:
S201,获取包括图文信息内容的目标资讯。
具体地,目标资讯可以是用户关注过的资讯,目标资讯包括标题、正文和多个图片;训练后的资讯识别模型确定目标资讯和预设资讯集合(例如资讯数据库)中资讯A之间的相似度,若该相似度大于或等于相似度阈值,则可以将该资讯A向用户进行推荐。
S202,将目标资讯和预设资讯集合中任一资讯输入至训练后的资讯识别模型,进行特征识别处理,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量;目标资讯对应的资讯向量用于表征目标资讯的文本特征和图像特征,任一资讯对应的资讯向量用于表征任一资讯的文本特征和图像特征。
具体地,资讯识别模型包括图文模型和平均池化层(mean pooling),其中,图文模型可以是微调后的BERT;将资讯识别模型进行训练,得到训练后的资讯识别模型。训练后的资讯识别模型将目标资讯的文本特征(文本信息)和图像特征(图片信息)融合到目标资讯对应的资讯向量中;训练后的资讯识别模型将任一资讯的文本特征(文本信息)和图像特征(图片信息)融合到任一资讯对应的资讯向量中。
S203,通过相似度计算,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的相似度。
具体地,可以通过计算目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的余弦距离,得到目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的相似度。
S204,若相似度大于或等于相似度阈值,则将任一资讯作为推荐资讯。
具体地,相似度的取值范围可以是[0,1],其中,0表示不相似,越接近1表示越相似。相似度阈值可以预先设置,例如相似度阈值设置为0.9;若相似度大于或等于0.9,则将任一资讯作为推荐资讯,即将任一资讯向用户进行资讯推荐。
本申请实施例中,通过将目标资讯和预设资讯集合中任一资讯输入至训练后的资讯识别模型,进行特征识别处理,训练后的资讯识别模型将文本信息(文本特征)和图片信息(图像特征)融合到资讯向量中,提高了确定目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的相似度的准确度,即提高了预测相似度的准确度,从而更加准确的从预设资讯集合中确定与目标资讯相似的资讯,提高了资讯推荐的准确度。
在一个实施例中,将目标资讯和预设资讯集合中任一资讯输入至训练后的资讯识别模型,进行特征识别处理,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量,包括:
将目标资讯输入至训练后的资讯识别模型,得到目标资讯对应的字向量和图向量,并将预设资讯集合中任一资讯输入至训练后的资讯识别模型,得到任一资讯对应的字向量和图向量;
将目标资讯对应的字向量和图向量进行均值处理,得到目标资讯对应的资讯向量,并将任一资讯对应的字向量和图向量进行均值处理,得到任一资讯对应的资讯向量。
具体地,字向量和图向量都是token向量;目标资讯对应多个字向量和多个图向量,即目标资讯对应一个token向量矩阵;任一资讯对应多个字向量和多个图向量,即任一资讯对应一个token向量矩阵;将目标资讯对应的token向量矩阵进行均值处理,得到目标资讯对应的资讯向量,并将任一资讯对应的token向量矩阵进行均值处理,得到任一资讯对应的资讯向量。目标资讯对应的资讯向量和任一资讯对应的资讯向量的维度都可以为768维。
在一个实施例中,将目标资讯对应的字向量和图向量进行均值处理,得到目标资讯对应的资讯向量,包括:
将目标资讯对应的全部向量进行求和,得到向量和,全部向量包括目标资讯对应的全部字向量和全部图向量;将向量和除以全部向量的数量,得到目标资讯对应的资讯向量。
具体地,例如,目标资讯对应的全部向量为字向量A、字向量B、字向量C、图向量D、图向量E和图向量F,全部向量的数量为6;将字向量A、字向量B、字向量C、图向量D、图向量E和图向量F进行求和,得到向量和;将向量和除以数量6,得到目标资讯对应的资讯向量。
在一个实施例中,将任一资讯对应的字向量和图向量进行均值处理,得到任一资讯对应的资讯向量,包括:
将任一资讯对应的全部向量进行求和,得到向量和,全部向量包括任一资讯对应的全部字向量和全部图向量;
将向量和除以全部向量的数量,得到任一资讯对应的资讯向量。
在一个实施例中,在将目标资讯和预设资讯集合中任一资讯输入至训练后的资讯识别模型之前,还包括:
将任意两个资讯样本输入至资讯识别模型中的图文模型,得到两个资讯样本中每个资讯样本对应的字向量和图向量;
通过资讯识别模型中的平均池化层,将每个资讯样本对应的字向量和图向量进行均值处理,得到每个资讯样本对应的资讯向量;
确定两个资讯样本对应的资讯向量之间的预测相似度;
基于预测相似度和预设的两个资讯样本之间的实际相似度,确定资讯识别模型的损失函数的值;
若资讯识别模型的损失函数的值大于第一损失阈值,则对资讯识别模型进行训练,更新资讯识别模型的网络参数;
重复执行将任意两个资讯样本输入至资讯识别模型中的图文模型,得到两个资讯样本中每个资讯样本对应的字向量和图向量、通过资讯识别模型中的平均池化层,将每个资讯样本对应的字向量和图向量进行均值处理,得到每个资讯样本对应的资讯向量、确定两个资讯样本对应的资讯向量之间的预测相似度、基于预测相似度和预设的两个资讯样本之间的实际相似度,确定资讯识别模型的损失函数的值、以及若资讯识别模型的损失函数的值大于损失阈值,则对资讯识别模型进行训练,更新资讯识别模型的网络参数,直至当资讯识别模型的损失函数的值等于第一损失阈值,得到训练后的资讯识别模型。
具体地,任意两个资讯样本可以是资讯对,例如,任意两个资讯样本中的一个资讯样本是资讯i,任意两个资讯样本中的另一个资讯样本是资讯j,则资讯对表示为<资讯i,资讯j>;其中,资讯样本可以来源于人工标注,资讯样本也可以基于标签分类进行构建,资讯样本包括标题、正文和多个图片。资讯识别模型包括图文模型和平均池化层(meanpooling),其中,图文模型可以是微调后的BERT。
如图3所示,将任意两个资讯样本分别输入至资讯识别模型中微调后的BERT,得到两个资讯样本中每个资讯样本对应的多个字向量和多个图向量(token向量矩阵);通过资讯识别模型中的平均池化层(mean pooling),将每个资讯样本对应的字向量和图向量(token向量矩阵)进行均值处理,得到每个资讯样本对应的资讯向量;确定两个资讯样本对应的资讯向量之间的预测相似度;基于预测相似度和预设的两个资讯样本之间的实际相似度(真实相似度),确定资讯识别模型的损失函数Loss的值;该资讯识别模型的损失函数Loss的值与资讯向量i,资讯向量j以及资讯向量i和资讯向量j之间的真实相似度之间满足以下关系:
Loss=(cosine(资讯向量i,资讯向量j)-y真实相似度)2公式(1)
其中,两个资讯样本对应的资讯向量分为资讯向量i和资讯向量j,cosine(资讯向量i,资讯向量j)表示资讯向量i和资讯向量j之间的预测相似度;y真实相似度表示资讯向量i和资讯向量j之间的真实相似度,即两个资讯样本之间的实际相似度;资讯向量i和资讯向量j的维度都可以为768维;损失函数Loss为MSE(Mean-Square Error,均方误差)。
在一个实施例中,训练后的资讯识别模型评估指标可以是spearman系数,spearman系数越大,训练后的资讯识别模型确定的预测相似度越准确,计算spearman系数的公式(2)如下所示:
例如,如表(1)所示,假设有3个样本对,3个样本对中每个样本对有预测相似度X与真实相似度Y。
表(1):spearman系数示例
表(1)中的spearman系数等于:
其中,n为3,d为1、0和-1。
需要说明的是,基准(无图片的纯文本BERT模型)的spearman系数为0.75,本申请实施例提供的训练后的资讯识别模型的spearman系数为0.82,提升9.3%。
在一个实施例中,在将任意两个资讯样本输入至资讯识别模型中的图文模型,得到两个资讯样本中每个资讯样本对应的字向量和图向量之前,还包括:
构建原始资讯识别模型,原始资讯识别模型包括残差网络、多标签分类模型、遮掩语言模型、遮掩图片模型和原始图文模型;
将资讯样本输入至原始资讯识别模型,对原始资讯识别模型进行训练,得到训练后的原始资讯识别模型,训练后的原始资讯识别模型包括资讯识别模型中的图文模型。
具体地,原始图文模型可以为BERT模型、ALBERT模型等。例如,如图4所示,原始资讯识别模型包括残差网络RESNET、多标签分类模型、遮掩语言模型(MLM,Masked LanguageModel)、遮掩图片模型(MIM,Masked Image Model)和BERT模型;其中,原始图文模型为BERT模型;对原始资讯识别模型进行训练,从而对原始资讯识别模型中的BERT模型进行微调,得到微调后的BERT模型。
在一个实施例中,资讯样本包括标题、正文和多个图片;将资讯样本输入至原始资讯识别模型,对原始资讯识别模型进行训练,得到训练后的原始资讯识别模型,包括:
将标题和正文转换成多个第一字向量,并通过残差网络将多个图片转换成多个第一图向量;
将多个第一字向量中至少一个第一字向量进行遮掩处理,得到至少一个遮掩处理后的第一字向量;并将多个第一图向量中至少一个第一图向量进行遮掩处理,得到至少一个遮掩处理后的第一图向量;
将多个第一字向量中除至少一个第一字向量之外的第一字向量、多个第一图向量中除至少一个第一图向量之外的第一图向量、至少一个遮掩处理后的第一字向量和至少一个遮掩处理后的第一图向量输入至原始图文模型,进行转换处理,得到多个第二字向量和多个第二图向量;
基于多个第二字向量和多个第二图向量,确定原始资讯识别模型的损失函数的值;
若原始资讯识别模型的损失函数的值大于第二损失阈值,则对原始资讯识别模型进行训练,更新原始资讯识别模型的网络参数;
若原始资讯识别模型的损失函数的值小于或大于第二损失阈值,则结束原始资讯识别模型的训练,并将训练得到的原始资讯识别模型作为训练后的原始资讯识别模型。
具体地,通过hive等大数据技术,对数据集中每个资讯进行特征拼接,再转存为tfrecord格式的资讯,将每个tfrecord格式的资讯作为资讯样本。资讯样本包括标题、正文、图片和资讯标签;其中,资讯标签是由人工标注或其他模型的自动标注,资讯标签例如世界杯、足球、疫情防控、G20等。
对一个资讯样本中的标题与正文token化(按字符切分),将标题和正文转成多个文本token向量(多个第一字向量);该资讯样本可以包括多张图片,每张图片通过残差网络RESNET,将该图片转成一个图片token向量(一个第一图向量),即多张图片通过残差网络RESNET,转成多个图片token向量(多个第一图向量)。一个资讯样本对应的所有token向量(所有文本token向量和所有图片token向量)的数量不超过512;若所有token向量的数量不足512,则用[PAD]token来补足。
例如,对于文本token向量(第一字向量),在输入到BERT之前,会将15%的文本token向量(至少一个第一字向量)随机遮掩,其中的80%替换为[MASK]向量,剩下的20%替换为随机token向量,为遮掩语言模型MLM做准备;其中,随机token向量是随机从整个token词库中随机抽取出的token向量。
例如,对于图片token向量(第一图向量),在输入到BERT之前,会将15%的图片token向量(至少一个第一图向量)随机遮掩,替换为全0向量,为遮掩图片模型MIM做准备。
例如,一个资讯样本对应4个第一字向量和3个第一图向量;这4个第一字向量分别为字向量A、字向量B、字向量C和字向量D,将字向量C遮掩,将字向量C替换为MASK向量,将字向量D遮掩,将字向量D替换为随机token向量;将字向量A、字向量B、MASK向量和随机token向量输入至BERT,得到新的字向量A、新的字向量B、新的MASK向量和新的随机token向量,即得到多个第二字向量;这3个第一图向量分别为图向量E、图向量F和图向量G,将图向量F遮掩,将图向量F替换为全0向量,将图向量E、图向量F和全0向量输入至BERT,得到新的图向量D、新的图向量E和全0向量,即得到多个第二图向量;并将特殊字符token[CLS]向量和结束token[SEP]向量输入至BERT。
在一个实施例中,基于多个第二字向量和多个第二图向量,确定原始资讯识别模型的损失函数的值,包括:
基于多个第二字向量和多个第二图向量,通过多标签分类模型,确定多标签分类模型的损失函数的值;
基于多个第二字向量,通过遮掩语言模型,确定遮掩语言模型的损失函数的值;
基于多个第二图向量,通过遮掩图片模型,确定遮掩图片模型的损失函数的值;
基于多标签分类模型的损失函数的值、遮掩语言模型的损失函数的值、遮掩图片模型的损失函数的值和预设权重,确定原始资讯识别模型的损失函数的值。
具体地,基于多标签分类模型的损失函数LTC的值、遮掩语言模型的损失函数LMLM的值、遮掩图片模型的损失函数LMIT的值和预设权重(α1、α2和α3),确定原始资讯识别模型的损失函数Loss的值;该原始资讯识别模型的损失函数Loss的值、多标签分类模型的损失函数LTC的值、遮掩语言模型的损失函数LMLM的值、遮掩图片模型的损失函数LMIT的值和预设权重(α1、α2和α3)之间满足以下关系:
Loss=α1LTC+α2LMLM+α3LMIT 公式(3)
其中,α1、α2和α3都是超参数,可以经过多次训练验证,选择最优的α1、α2和α3。
在一个实施例中,基于多个第二字向量和多个第二图向量,通过多标签分类模型,确定多标签分类模型的损失函数的值,包括:
将多个第二字向量和多个第二图向量输入至多标签分类模型,确定资讯样本对应多个标签中每个标签的概率;
基于资讯样本对应各标签的概率,确定多标签分类模型的损失函数的值。
具体地,多标签分类模型包括一个全连接层和sigmoid层,多标签分类模型用于预测资讯样本对应多个标签中每个标签的概率。一个资讯样本可以对应至少两个标签,至少两个标签中各标签之间不互斥,例如预测【刘小红夺冠!】这个资讯样本对应冬奥标签与滑雪标签。该多标签分类模型的损失函数LTC的值和资讯样本对应标签的概率(p正例和p负例)之间满足以下关系:
LTC=-log(p正例*(1-p负例)) 公式(4)
其中,多标签分类模型的损失函数LTC是sigmoid二分类交叉熵。例如,一个LTC:该资讯样本对应冬奥标签为p正例,p正例例如99%,该资讯样本对应其他标签为p负例,p负例例如1%;另一个LTC:该资讯样本对应滑雪标签为p正例,p正例例如99%,该资讯样本对应其他标签为p负例,p负例为1%;则LTC=一个LTC+另一个LTc。
在一个实施例中,基于多个第二字向量,通过遮掩语言模型,确定遮掩语言模型的损失函数的值,包括:
将多个第二字向量输入至遮掩语言模型,确定至少一个遮掩处理后的第一字向量对应多个字中每个字的概率;
基于至少一个遮掩处理后的第一字向量对应各字的概率,确定遮掩语言模型的损失函数的值。
具体地,遮掩语言模型可以为一个全连接层,遮掩语言模型用于确定将遮掩处理后的字向量(例如[MASK]向量)预测成被遮掩之前的字的概率ptoken。例如【刘小[MASK]夺冠!】,遮掩语言模型预测出【红】这个token,此时,[MASK]向量对应“红”的概率p红比[MASK]向量对应其他字的ptoken大,[MASK]向量对应“红”的概率p红为99%,[MASK]向量对应“梅”的概率p梅为1%,“梅”为其他字。该遮掩语言模型的损失函数LMLM的值和至少一个遮掩处理后的第一字向量对应各字的概率满足以下关系:
LMLM=∑token-logptoken 公式(5)
其中,遮掩语言模型的损失函数LMLM是多类别交叉熵。
在一个实施例中,基于多个第二图向量,通过遮掩图片模型,确定遮掩图片模型的损失函数的值,包括:
将多个第二图向量输入至遮掩图片模型,从预设实际图向量集合中,确定至少一个遮掩处理后的第一图向量对应的实际图向量的概率;
基于至少一个遮掩处理后的第一图向量对应的实际图向量的概率,确定遮掩图片模型的损失函数的值。
具体地,遮掩图片模型可以为一个全连接层。资讯样本可以包括多张图片,每张图片通过残差网络RESNET,将该图片转成一个图片token向量(一个第一图向量),即多张图片通过残差网络RESNET,转成多个图片token向量(多个第一图向量)。第一图向量即图向量xv,多个第一图向量中15%的图向量会被重置为全0向量(记为xmasked)。被遮掩的图片的真实图向量是xv,遮掩后的图向量是xmasked(至少一个遮掩处理后的第一图向量)。将xmasked输入到BERT模型,输出新的token向量e(第二图向量);计算e的公式(6)和公式(7)如下所示:
h=BERT(xmasked) 公式(6)
e=wh+b 公式(7)
其中,W和b是对h做线性变换,W和b为BERT模型的参数。
若希望重建的向量ev(ev为e)与未遮掩前的真实图向量xv是接近的,即余弦距离接近1;同时希望向量ev与同一个批(batch)的其他样本图片的真实图向量xj不接近;记同一个批(batch)的其他样本图片的真实图向量集为集合V′,则记(遮掩处理后的第一图向量对应的实际图向量的概率)是重建后的图片向量ev从同一批样本的图片集合中选择正确图片的概率,计算/>的公式(8)如下所示:
记所有样本图片的真实图向量集合为V(预设实际图向量集合);该遮掩图片模型的损失函数LMIT的值和遮掩处理后的第一图向量对应的实际图向量的概率之间满足以下关系:
/>
应用本申请实施例,至少具有如下有益效果:
训练后的资讯识别模型将文本信息和图片信息融合到资讯向量中,提高了确定目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的相似度的准确度,即提高了预测相似度的准确度,从而提高了资讯推荐的准确度。
为了更好的理解本申请实施例所提供的方法,下面结合具体应用场景的示例对本申请实施例的方案进行进一步说明。
在一个具体应用场景实施例中,例如资讯推荐场景,参见图5,示出了一种资讯推荐方法的处理流程,如图5所示,本申请实施例提供的资讯推荐方法的处理流程包括如下步骤:
S501,服务器通过抽样处理,从资讯库中选择多个资讯,并将多个资讯构建为数据集。
具体地,例如从海量的资讯库中抽样挑选200万个资讯,如此,可以保证每个资讯分类的数量大致衡量。
S502,服务器将数据集进行切分处理,将数据集划分成训练集、验证集和测试集。
具体地,针对数据集,训练集、验证集和测试集的占比分别是80%、10%、10%。
S503,服务器基于数据集中的资讯,通过大数据技术,构建资讯样本。
具体地,通过hive等大数据技术,对数据集中每个资讯进行特征拼接,再转存为tfrecord格式的资讯,将每个tfrecord格式的资讯作为资讯样本。资讯样本包括标题、正文、图片和资讯标签。
S504,服务器构建原始资讯识别模型,并将资讯样本输入至原始资讯识别模型,对原始资讯识别模型进行训练,得到训练后的原始资讯识别模型,训练后的原始资讯识别模型包括图文模型。
具体地,例如,如图4所示,原始资讯识别模型包括残差网络RESNET、多标签分类模型、遮掩语言模型(MLM,Masked Language Model)、遮掩图片模型(MIM,Masked ImageModel)和BERT模型;对原始资讯识别模型进行训练,从而对原始资讯识别模型中的BERT模型进行微调,得到微调后的BERT模型。图文模型为微调后的BERT模型。
将资讯样本包括的标题和正文转换成多个第一字向量,并通过残差网络RESNET将资讯样本包括的多个图片转换成多个第一图向量;将多个第一字向量中至少一个第一字向量进行遮掩处理,得到至少一个遮掩处理后的第一字向量;并将多个第一图向量中至少一个第一图向量进行遮掩处理,得到至少一个遮掩处理后的第一图向量;将多个第一字向量中除至少一个第一字向量之外的第一字向量、多个第一图向量中除至少一个第一图向量之外的第一图向量、至少一个遮掩处理后的第一字向量和至少一个遮掩处理后的第一图向量输入至BERT模型,进行转换处理,得到多个第二字向量和多个第二图向量;基于多个第二字向量和多个第二图向量,通过多标签分类模型、遮掩语言模型MLM和遮掩图片模型MIM,确定原始资讯识别模型的损失函数的值;若原始资讯识别模型的损失函数的值大于第二损失阈值,则对原始资讯识别模型进行训练,更新原始资讯识别模型的网络参数;若原始资讯识别模型的损失函数的值小于或大于第二损失阈值,则结束原始资讯识别模型的训练,并将训练得到的原始资讯识别模型作为训练后的原始资讯识别模型。
S505,服务器构建资讯识别模型,资讯识别模型包括图文模型和平均池化层。
具体地,如图3所示,将任意两个资讯样本分别输入至资讯识别模型中微调后的BERT,得到两个资讯样本中每个资讯样本对应的多个字向量和多个图向量(token向量矩阵);通过资讯识别模型中的平均池化层(meanpooling),将每个资讯样本对应的字向量和图向量(token向量矩阵)进行均值处理,得到每个资讯样本对应的资讯向量。图文模型为微调后的BERT模型。
S506,服务器将资讯样本输入至资讯识别模型,对资讯识别模型进行训练,得到训练后的资讯识别模型。
具体地,将任意两个资讯样本输入至资讯识别模型中微调后的BERT,得到两个资讯样本中每个资讯样本对应的字向量和图向量;
通过资讯识别模型中的平均池化层,将每个资讯样本对应的字向量和图向量进行均值处理,得到每个资讯样本对应的资讯向量;
确定两个资讯样本对应的资讯向量之间的预测相似度;
基于预测相似度和预设的两个资讯样本之间的实际相似度,确定资讯识别模型的损失函数的值;
若资讯识别模型的损失函数的值大于第一损失阈值,则对资讯识别模型进行训练,更新资讯识别模型的网络参数;
重复执行将任意两个资讯样本输入至资讯识别模型中微调后的BERT,得到两个资讯样本中每个资讯样本对应的字向量和图向量、通过资讯识别模型中的平均池化层,将每个资讯样本对应的字向量和图向量进行均值处理,得到每个资讯样本对应的资讯向量、确定两个资讯样本对应的资讯向量之间的预测相似度、基于预测相似度和预设的两个资讯样本之间的实际相似度,确定资讯识别模型的损失函数的值、以及若资讯识别模型的损失函数的值大于损失阈值,则对资讯识别模型进行训练,更新资讯识别模型的网络参数,直至当资讯识别模型的损失函数的值等于第一损失阈值,得到训练后的资讯识别模型。
S507,基于训练后的原始资讯识别模型和训练后的资讯识别模型,服务器生成模型文件,该模型文件包括训练后的原始资讯识别模型的参数和配置,该模型文件还包括训练后的资讯识别模型的参数和配置。
S508,服务器获取用户关注过的目标资讯,目标资讯包括标题、正文和多个图片。
S509,服务器基于模型文件,加载训练后的资讯识别模型,并通过训练后的资讯识别模型,从物品库中召回与目标资讯相似的多个相似资讯。
具体地,服务器将目标资讯和物品库中任一资讯输入至训练后的资讯识别模型,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量;目标资讯对应的资讯向量用于表征目标资讯的文本特征和图像特征,任一资讯对应的资讯向量用于表征任一资讯的文本特征和图像特征;服务器确定目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的相似度;若相似度大于或等于相似度阈值,则将任一资讯确定为与目标资讯相似的相似资讯。物品库里有大量资讯,可以从物品库中获取候选物品(与目标资讯相似的相似资讯),候选物品的数量从几十到几千等。
S510,服务器将多个相似资讯进行排序处理,得到相似资讯的推荐顺序。
具体地,根据用户兴趣、场景特征、物品特征等,对每一个候选物品(相似资讯)计算评分,按评分的大小进行排序;相似度越大,则相应的评分越大。
S511,服务器将相似资讯的推荐顺序进行后排处理,得到推荐列表,并将推荐列表发送给终端。
具体地,后排处理包括过滤、截断等。
S512,终端接收到服务器发送的推荐列表,将推荐列表中的相似资讯依次展示给用户。
具体地,终端将推荐列表中排序在前的相似资讯优先展示给用户;例如,推荐列表中多个相似资讯排序从前到后依次是相似资讯A、相似资讯B、相似资讯C和相似资讯D,则终端首先将相似资讯A展示给用户,然后依次是相似资讯B、相似资讯C和相似资讯D。
应用本申请实施例,至少具有如下有益效果:
训练后的资讯识别模型将文本信息和图片信息融合到资讯向量中,提高了确定目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的相似度的准确度,即提高了预测相似度的准确度,从而提高了资讯推荐的准确度。
本申请实施例还提供了一种资讯推荐装置,该资讯推荐装置的结构示意图如图6所示,资讯推荐装置70,包括第一处理模块701、第二处理模块702、第三处理模块703和第四处理模块704。
第一处理模块701,用于获取包括图文信息内容的目标资讯;
第二处理模块702,用于将目标资讯和预设资讯集合中任一资讯输入至训练后的资讯识别模型,进行特征识别处理,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量;目标资讯对应的资讯向量用于表征目标资讯的文本特征和图像特征,任一资讯对应的资讯向量用于表征任一资讯的文本特征和图像特征;
第三处理模块703,用于通过相似度计算,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的相似度;
第四处理模块704,用于若相似度大于或等于相似度阈值,则将任一资讯作为推荐资讯。
在一个实施例中,第二处理模块702,具体用于:
将目标资讯输入至训练后的资讯识别模型,得到目标资讯对应的字向量和图向量,并将预设资讯集合中任一资讯输入至训练后的资讯识别模型,得到任一资讯对应的字向量和图向量;
将目标资讯对应的字向量和图向量进行均值处理,得到目标资讯对应的资讯向量,并将任一资讯对应的字向量和图向量进行均值处理,得到任一资讯对应的资讯向量。
在一个实施例中,第二处理模块702,具体用于:
将目标资讯对应的全部向量进行求和,得到向量和,全部向量包括目标资讯对应的全部字向量和全部图向量;
将向量和除以全部向量的数量,得到目标资讯对应的资讯向量。
在一个实施例中,资讯推荐装置70还包括第五处理模块,第五处理模块,具体用于:
将任意两个资讯样本输入至资讯识别模型中的图文模型,得到两个资讯样本中每个资讯样本对应的字向量和图向量;
通过资讯识别模型中的平均池化层,将每个资讯样本对应的字向量和图向量进行均值处理,得到每个资讯样本对应的资讯向量;
确定两个资讯样本对应的资讯向量之间的预测相似度;
基于预测相似度和预设的所述两个资讯样本之间的实际相似度,确定资讯识别模型的损失函数的值;
若资讯识别模型的损失函数的值大于第一损失阈值,则对资讯识别模型进行训练,更新资讯识别模型的网络参数;
重复执行将任意两个资讯样本输入至资讯识别模型中的图文模型,得到两个资讯样本中每个资讯样本对应的字向量和图向量、通过资讯识别模型中的平均池化层,将每个资讯样本对应的字向量和图向量进行均值处理,得到每个资讯样本对应的资讯向量、确定两个资讯样本对应的资讯向量之间的预测相似度、基于预测相似度和预设的两个资讯样本之间的实际相似度,确定资讯识别模型的损失函数的值、以及若资讯识别模型的损失函数的值大于损失阈值,则对资讯识别模型进行训练,更新资讯识别模型的网络参数,直至当资讯识别模型的损失函数的值等于第一损失阈值,得到训练后的资讯识别模型。
在一个实施例中,第五处理模块,还用于:
构建原始资讯识别模型,原始资讯识别模型包括残差网络、多标签分类模型、遮掩语言模型、遮掩图片模型和原始图文模型;
将资讯样本输入至原始资讯识别模型,对原始资讯识别模型进行训练,得到训练后的原始资讯识别模型,训练后的原始资讯识别模型包括资讯识别模型中的图文模型。
在一个实施例中,资讯样本包括标题、正文和多个图片;第五处理模块,具体用于:
将标题和正文转换成多个第一字向量,并通过残差网络将多个图片转换成多个第一图向量;
将多个第一字向量中至少一个第一字向量进行遮掩处理,得到至少一个遮掩处理后的第一字向量;并将多个第一图向量中至少一个第一图向量进行遮掩处理,得到至少一个遮掩处理后的第一图向量;
将多个第一字向量中除至少一个第一字向量之外的第一字向量、多个第一图向量中除至少一个第一图向量之外的第一图向量、至少一个遮掩处理后的第一字向量和至少一个遮掩处理后的第一图向量输入至原始图文模型,进行转换处理,得到多个第二字向量和多个第二图向量;
基于多个第二字向量和多个第二图向量,确定原始资讯识别模型的损失函数的值;
若原始资讯识别模型的损失函数的值大于第二损失阈值,则对原始资讯识别模型进行训练,更新原始资讯识别模型的网络参数;
若原始资讯识别模型的损失函数的值小于或大于第二损失阈值,则结束原始资讯识别模型的训练,并将训练得到的原始资讯识别模型作为训练后的原始资讯识别模型。
在一个实施例中,第五处理模块,具体用于:
基于多个第二字向量和多个第二图向量,通过多标签分类模型,确定多标签分类模型的损失函数的值;
基于多个第二字向量,通过遮掩语言模型,确定遮掩语言模型的损失函数的值;
基于多个第二图向量,通过遮掩图片模型,确定遮掩图片模型的损失函数的值;
基于多标签分类模型的损失函数的值、遮掩语言模型的损失函数的值、遮掩图片模型的损失函数的值和预设权重,确定原始资讯识别模型的损失函数的值。
在一个实施例中,第五处理模块,具体用于:
将多个第二字向量和多个第二图向量输入至多标签分类模型,确定资讯样本对应多个标签中每个标签的概率;
基于资讯样本对应各标签的概率,确定多标签分类模型的损失函数的值。
在一个实施例中,第五处理模块,具体用于:
将多个第二字向量输入至遮掩语言模型,确定至少一个遮掩处理后的第一字向量对应多个字中每个字的概率;
基于至少一个遮掩处理后的第一字向量对应各字的概率,确定遮掩语言模型的损失函数的值。
在一个实施例中,第五处理模块,具体用于:
将多个第二图向量输入至遮掩图片模型,从预设实际图向量集合中,确定至少一个遮掩处理后的第一图向量对应的实际图向量的概率;
基于至少一个遮掩处理后的第一图向量对应的实际图向量的概率,确定遮掩图片模型的损失函数的值。
应用本申请实施例,至少具有如下有益效果:
获取包括图文信息内容的目标资讯;将目标资讯和预设资讯集合中任一资讯输入至训练后的资讯识别模型,进行特征识别处理,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量;目标资讯对应的资讯向量用于表征目标资讯的文本特征和图像特征,任一资讯对应的资讯向量用于表征任一资讯的文本特征和图像特征;通过相似度计算,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的相似度;若相似度大于或等于相似度阈值,则将任一资讯作为推荐资讯。如此,训练后的资讯识别模型将文本信息(文本特征)和图片信息(图像特征)融合到资讯向量中,提高了确定目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的相似度的准确度,即提高了预测相似度的准确度,从而提高了资讯推荐的准确度。
本申请实施例还提供了一种电子设备,该电子设备的结构示意图如图7所示,图7所示的电子设备4000包括:处理器4001和存储器4003。其中,处理器4001和存储器4003相连,如通过总线4002相连。可选地,电子设备4000还可以包括收发器4004,收发器4004可以用于该电子设备与其他电子设备之间的数据交互,如数据的发送和/或数据的接收等。需要说明的是,实际应用中收发器4004不限于一个,该电子设备4000的结构并不构成对本申请实施例的限定。
处理器4001可以是CPU(Central Processing Unit,中央处理器),通用处理器,DSP(Digital Signal Processor,数据信号处理器),ASIC(Application SpecificIntegrated Circuit,专用集成电路),FPGA(FieldProgrammable Gate Array,现场可编程门阵列)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器4001也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等。
总线4002可包括一通路,在上述组件之间传送信息。总线4002可以是PCI(Peripheral Component Interconnect,外设部件互连标准)总线或EISA(ExtendedIndustry Standard Architecture,扩展工业标准结构)总线等。总线4002可以分为地址总线、数据总线、控制总线等。为便于表示,图7中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器4003可以是ROM(Read Only Memory,只读存储器)或可存储静态信息和指令的其他类型的静态存储设备,RAM(Random AccessMemory,随机存取存储器)或者可存储信息和指令的其他类型的动态存储设备,也可以是EEPROM(Electrically ErasableProgrammable Read OnlyMemory,电可擦可编程只读存储器)、CD-ROM(Compact Disc ReadOnlyMemory,只读光盘)或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质、其他磁存储设备、或者能够用于携带或存储计算机程序并能够由计算机读取的任何其他介质,在此不做限定。
存储器4003用于存储执行本申请实施例的计算机程序,并由处理器4001来控制执行。处理器4001用于执行存储器4003中存储的计算机程序,以实现前述方法实施例所示的步骤。
其中,电子设备包括但不限于:服务器等。
应用本申请实施例,至少具有如下有益效果:
获取包括图文信息内容的目标资讯;将目标资讯和预设资讯集合中任一资讯输入至训练后的资讯识别模型,进行特征识别处理,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量;目标资讯对应的资讯向量用于表征目标资讯的文本特征和图像特征,任一资讯对应的资讯向量用于表征任一资讯的文本特征和图像特征;通过相似度计算,确定目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的相似度;若相似度大于或等于相似度阈值,则将任一资讯作为推荐资讯。如此,训练后的资讯识别模型将文本信息(文本特征)和图片信息(图像特征)融合到资讯向量中,提高了确定目标资讯对应的资讯向量和任一资讯对应的资讯向量之间的相似度的准确度,即提高了预测相似度的准确度,从而提高了资讯推荐的准确度。
本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时可实现前述方法实施例的步骤及相应内容。
本申请实施例还提供了一种计算机程序产品,包括计算机程序,计算机程序被处理器执行时可实现前述方法实施例的步骤及相应内容。
基于与本申请实施例提供的方法相同的原理,本申请实施例还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述本申请任一可选实施例中提供的方法。
应该理解的是,虽然本申请实施例的流程图中通过箭头指示各个操作步骤,但是这些步骤的实施顺序并不受限于箭头所指示的顺序。除非本文中有明确的说明,否则在本申请实施例的一些实施场景中,各流程图中的实施步骤可以按照需求以其他的顺序执行。此外,各流程图中的部分或全部步骤基于实际的实施场景,可以包括多个子步骤或者多个阶段。这些子步骤或者阶段中的部分或全部可以在同一时刻被执行,这些子步骤或者阶段中的每个子步骤或者阶段也可以分别在不同的时刻被执行。在执行时刻不同的场景下,这些子步骤或者阶段的执行顺序可以根据需求灵活配置,本申请实施例对此不限制。
以上所述仅是本申请部分实施场景的可选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请的方案技术构思的前提下,采用基于本申请技术思想的其他类似实施手段,同样属于本申请实施例的保护范畴。
Claims (12)
1.一种资讯推荐方法,其特征在于,包括:
获取包括图文信息内容的目标资讯;
将所述目标资讯和预设资讯集合中任一资讯输入至训练后的资讯识别模型,进行特征识别处理,确定所述目标资讯对应的资讯向量和所述任一资讯对应的资讯向量;所述目标资讯对应的资讯向量用于表征所述目标资讯的文本特征和图像特征,所述任一资讯对应的资讯向量用于表征所述任一资讯的文本特征和图像特征;
通过相似度计算,确定所述目标资讯对应的资讯向量和所述任一资讯对应的资讯向量之间的相似度;
若所述相似度大于或等于相似度阈值,则将所述任一资讯作为推荐资讯;
所述将所述目标资讯和预设资讯集合中任一资讯输入至训练后的资讯识别模型,进行特征识别处理,确定所述目标资讯对应的资讯向量和所述任一资讯对应的资讯向量,包括:
将所述目标资讯输入至训练后的资讯识别模型,得到所述目标资讯对应的字向量和图向量,并将预设资讯集合中任一资讯输入至训练后的资讯识别模型,得到所述任一资讯对应的字向量和图向量;
将所述目标资讯对应的字向量和图向量进行均值处理,得到所述目标资讯对应的资讯向量,并将所述任一资讯对应的字向量和图向量进行均值处理,得到所述任一资讯对应的资讯向量。
2.根据权利要求1所述的方法,其特征在于,所述将所述目标资讯对应的字向量和图向量进行均值处理,得到所述目标资讯对应的资讯向量,包括:
将所述目标资讯对应的全部向量进行求和,得到向量和,所述全部向量包括所述目标资讯对应的全部字向量和全部图向量;
将所述向量和除以所述全部向量的数量,得到所述目标资讯对应的资讯向量。
3.根据权利要求1所述的方法,其特征在于,在所述将所述目标资讯和预设资讯集合中任一资讯输入至训练后的资讯识别模型之前,还包括:
将任意两个资讯样本输入至资讯识别模型中的图文模型,得到所述两个资讯样本中每个资讯样本对应的字向量和图向量;
通过所述资讯识别模型中的平均池化层,将所述每个资讯样本对应的字向量和图向量进行均值处理,得到所述每个资讯样本对应的资讯向量;
确定所述两个资讯样本对应的资讯向量之间的预测相似度;
基于所述预测相似度和预设的所述两个资讯样本之间的实际相似度,确定所述资讯识别模型的损失函数的值;
若所述资讯识别模型的损失函数的值大于第一损失阈值,则对所述资讯识别模型进行训练,更新所述资讯识别模型的网络参数;
重复执行所述将任意两个资讯样本输入至资讯识别模型中的图文模型,得到所述两个资讯样本中每个资讯样本对应的字向量和图向量、所述通过所述资讯识别模型中的平均池化层,将所述每个资讯样本对应的字向量和图向量进行均值处理,得到所述每个资讯样本对应的资讯向量、所述确定所述两个资讯样本对应的资讯向量之间的预测相似度、所述基于所述预测相似度和预设的所述两个资讯样本之间的实际相似度,确定所述资讯识别模型的损失函数的值、以及所述若所述资讯识别模型的损失函数的值大于损失阈值,则对所述资讯识别模型进行训练,更新所述资讯识别模型的网络参数,直至当所述资讯识别模型的损失函数的值等于第一损失阈值,得到训练后的资讯识别模型。
4.根据权利要求3所述的方法,其特征在于,在所述将任意两个资讯样本输入至资讯识别模型中的图文模型,得到所述两个资讯样本中每个资讯样本对应的字向量和图向量之前,还包括:
构建原始资讯识别模型,所述原始资讯识别模型包括残差网络、多标签分类模型、遮掩语言模型、遮掩图片模型和原始图文模型;
将资讯样本输入至所述原始资讯识别模型,对所述原始资讯识别模型进行训练,得到训练后的原始资讯识别模型,所述训练后的原始资讯识别模型包括资讯识别模型中的图文模型。
5.根据权利要求4所述的方法,其特征在于,所述资讯样本包括标题、正文和多个图片;所述将资讯样本输入至所述原始资讯识别模型,对所述原始资讯识别模型进行训练,得到训练后的原始资讯识别模型,包括:
将所述标题和所述正文转换成多个第一字向量,并通过所述残差网络将所述多个图片转换成多个第一图向量;
将所述多个第一字向量中至少一个第一字向量进行遮掩处理,得到至少一个遮掩处理后的第一字向量;并将所述多个第一图向量中至少一个第一图向量进行遮掩处理,得到至少一个遮掩处理后的第一图向量;
将所述多个第一字向量中除所述至少一个第一字向量之外的第一字向量、所述多个第一图向量中除所述至少一个第一图向量之外的第一图向量、所述至少一个遮掩处理后的第一字向量和所述至少一个遮掩处理后的第一图向量输入至所述原始图文模型,进行转换处理,得到多个第二字向量和多个第二图向量;
基于所述多个第二字向量和所述多个第二图向量,确定所述原始资讯识别模型的损失函数的值;
若所述原始资讯识别模型的损失函数的值大于第二损失阈值,则对所述原始资讯识别模型进行训练,更新所述原始资讯识别模型的网络参数;
若所述原始资讯识别模型的损失函数的值小于或大于第二损失阈值,则结束所述原始资讯识别模型的训练,并将训练得到的原始资讯识别模型作为训练后的原始资讯识别模型。
6.根据权利要求5所述的方法,其特征在于,所述基于所述多个第二字向量和所述多个第二图向量,确定所述原始资讯识别模型的损失函数的值,包括:
基于所述多个第二字向量和所述多个第二图向量,通过所述多标签分类模型,确定多标签分类模型的损失函数的值;
基于所述多个第二字向量,通过所述遮掩语言模型,确定遮掩语言模型的损失函数的值;
基于所述多个第二图向量,通过所述遮掩图片模型,确定遮掩图片模型的损失函数的值;
基于所述多标签分类模型的损失函数的值、所述遮掩语言模型的损失函数的值、所述遮掩图片模型的损失函数的值和预设权重,确定所述原始资讯识别模型的损失函数的值。
7.根据权利要求6所述的方法,其特征在于,所述基于所述多个第二字向量和所述多个第二图向量,通过所述多标签分类模型,确定多标签分类模型的损失函数的值,包括:
将所述多个第二字向量和所述多个第二图向量输入至所述多标签分类模型,确定所述资讯样本对应多个标签中每个标签的概率;
基于所述资讯样本对应各标签的概率,确定所述多标签分类模型的损失函数的值。
8.根据权利要求6所述的方法,其特征在于,所述基于所述多个第二字向量,通过所述遮掩语言模型,确定遮掩语言模型的损失函数的值,包括:
将所述多个第二字向量输入至所述遮掩语言模型,确定所述至少一个遮掩处理后的第一字向量对应多个字中每个字的概率;
基于所述至少一个遮掩处理后的第一字向量对应各字的概率,确定所述遮掩语言模型的损失函数的值。
9.根据权利要求6所述的方法,其特征在于,所述基于所述多个第二图向量,通过所述遮掩图片模型,确定遮掩图片模型的损失函数的值,包括:
将所述多个第二图向量输入至所述遮掩图片模型,从预设实际图向量集合中,确定所述至少一个遮掩处理后的第一图向量对应的实际图向量的概率;
基于所述至少一个遮掩处理后的第一图向量对应的实际图向量的概率,确定遮掩图片模型的损失函数的值。
10.一种资讯推荐装置,其特征在于,包括:
第一处理模块,用于获取包括图文信息内容的目标资讯;
第二处理模块,用于将所述目标资讯和预设资讯集合中任一资讯输入至训练后的资讯识别模型,进行特征识别处理,确定所述目标资讯对应的资讯向量和所述任一资讯对应的资讯向量;所述目标资讯对应的资讯向量用于表征所述目标资讯的文本特征和图像特征,所述任一资讯对应的资讯向量用于表征所述任一资讯的文本特征和图像特征;
第三处理模块,用于通过相似度计算,确定所述目标资讯对应的资讯向量和所述任一资讯对应的资讯向量之间的相似度;
第四处理模块,用于若所述相似度大于或等于相似度阈值,则将所述任一资讯作为推荐资讯;
所述第二处理模块,具体用于:
将所述目标资讯输入至训练后的资讯识别模型,得到所述目标资讯对应的字向量和图向量,并将预设资讯集合中任一资讯输入至训练后的资讯识别模型,得到所述任一资讯对应的字向量和图向量;
将所述目标资讯对应的字向量和图向量进行均值处理,得到所述目标资讯对应的资讯向量,并将所述任一资讯对应的字向量和图向量进行均值处理,得到所述任一资讯对应的资讯向量。
11.一种电子设备,包括存储器、处理器及存储在存储器上的计算机程序,其特征在于,所述处理器执行所述计算机程序以实现权利要求1-9中任一项所述方法的步骤。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-9中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211559482.5A CN116028617B (zh) | 2022-12-06 | 2022-12-06 | 资讯推荐方法、装置、设备、可读存储介质及程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211559482.5A CN116028617B (zh) | 2022-12-06 | 2022-12-06 | 资讯推荐方法、装置、设备、可读存储介质及程序产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116028617A CN116028617A (zh) | 2023-04-28 |
CN116028617B true CN116028617B (zh) | 2024-02-27 |
Family
ID=86069685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211559482.5A Active CN116028617B (zh) | 2022-12-06 | 2022-12-06 | 资讯推荐方法、装置、设备、可读存储介质及程序产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116028617B (zh) |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1024437A2 (en) * | 1999-01-26 | 2000-08-02 | Xerox Corporation | Multi-modal information access |
CN107895024A (zh) * | 2017-09-13 | 2018-04-10 | 同济大学 | 用于网页新闻分类推荐的用户模型构建方法及推荐方法 |
CN111241410A (zh) * | 2020-01-22 | 2020-06-05 | 深圳司南数据服务有限公司 | 一种行业新闻推荐方法及终端 |
CN111400591A (zh) * | 2020-03-11 | 2020-07-10 | 腾讯科技(北京)有限公司 | 资讯信息推荐方法、装置、电子设备及存储介质 |
CN111813929A (zh) * | 2020-05-27 | 2020-10-23 | 维沃移动通信有限公司 | 资讯处理方法、装置及电子设备 |
CN111914159A (zh) * | 2019-05-10 | 2020-11-10 | 招商证券股份有限公司 | 一种信息推荐方法及终端 |
CN112100221A (zh) * | 2019-06-17 | 2020-12-18 | 腾讯科技(北京)有限公司 | 一种资讯推荐方法、装置、推荐服务器及存储介质 |
CN112395506A (zh) * | 2020-12-04 | 2021-02-23 | 上海帜讯信息技术股份有限公司 | 一种资讯推荐方法、装置、电子设备和存储介质 |
CN112417289A (zh) * | 2020-11-29 | 2021-02-26 | 中国科学院电子学研究所苏州研究院 | 一种基于深度聚类的资讯信息智能推荐方法 |
CN112650919A (zh) * | 2020-11-30 | 2021-04-13 | 北京百度网讯科技有限公司 | 实体资讯分析方法、装置、设备及存储介质 |
CN112989186A (zh) * | 2021-02-25 | 2021-06-18 | 腾讯科技(深圳)有限公司 | 资讯信息推荐模型训练方法、装置、电子设备及存储介质 |
CN113868528A (zh) * | 2021-09-29 | 2021-12-31 | 平安银行股份有限公司 | 资讯推荐方法、装置、电子设备及可读存储介质 |
CN114064969A (zh) * | 2021-11-19 | 2022-02-18 | 浙江大学 | 基于情感曲线的动态图片联动展示装置 |
CN114863194A (zh) * | 2022-07-11 | 2022-08-05 | 北京邮电大学 | 科技资讯跨媒体检索特征映射网络训练方法、检索方法及装置 |
CN115098619A (zh) * | 2022-06-24 | 2022-09-23 | 平安银行股份有限公司 | 资讯去重方法、装置、电子设备及计算机可读取存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8719213B2 (en) * | 2011-03-29 | 2014-05-06 | Manyworlds, Inc. | Contextually transformed learning layer |
US20220384034A1 (en) * | 2021-05-26 | 2022-12-01 | Google Llc | Active Hidden Stressor Identification and Notification |
-
2022
- 2022-12-06 CN CN202211559482.5A patent/CN116028617B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1024437A2 (en) * | 1999-01-26 | 2000-08-02 | Xerox Corporation | Multi-modal information access |
CN107895024A (zh) * | 2017-09-13 | 2018-04-10 | 同济大学 | 用于网页新闻分类推荐的用户模型构建方法及推荐方法 |
CN111914159A (zh) * | 2019-05-10 | 2020-11-10 | 招商证券股份有限公司 | 一种信息推荐方法及终端 |
CN112100221A (zh) * | 2019-06-17 | 2020-12-18 | 腾讯科技(北京)有限公司 | 一种资讯推荐方法、装置、推荐服务器及存储介质 |
CN111241410A (zh) * | 2020-01-22 | 2020-06-05 | 深圳司南数据服务有限公司 | 一种行业新闻推荐方法及终端 |
CN111400591A (zh) * | 2020-03-11 | 2020-07-10 | 腾讯科技(北京)有限公司 | 资讯信息推荐方法、装置、电子设备及存储介质 |
CN111813929A (zh) * | 2020-05-27 | 2020-10-23 | 维沃移动通信有限公司 | 资讯处理方法、装置及电子设备 |
CN112417289A (zh) * | 2020-11-29 | 2021-02-26 | 中国科学院电子学研究所苏州研究院 | 一种基于深度聚类的资讯信息智能推荐方法 |
CN112650919A (zh) * | 2020-11-30 | 2021-04-13 | 北京百度网讯科技有限公司 | 实体资讯分析方法、装置、设备及存储介质 |
CN112395506A (zh) * | 2020-12-04 | 2021-02-23 | 上海帜讯信息技术股份有限公司 | 一种资讯推荐方法、装置、电子设备和存储介质 |
CN112989186A (zh) * | 2021-02-25 | 2021-06-18 | 腾讯科技(深圳)有限公司 | 资讯信息推荐模型训练方法、装置、电子设备及存储介质 |
CN113868528A (zh) * | 2021-09-29 | 2021-12-31 | 平安银行股份有限公司 | 资讯推荐方法、装置、电子设备及可读存储介质 |
CN114064969A (zh) * | 2021-11-19 | 2022-02-18 | 浙江大学 | 基于情感曲线的动态图片联动展示装置 |
CN115098619A (zh) * | 2022-06-24 | 2022-09-23 | 平安银行股份有限公司 | 资讯去重方法、装置、电子设备及计算机可读取存储介质 |
CN114863194A (zh) * | 2022-07-11 | 2022-08-05 | 北京邮电大学 | 科技资讯跨媒体检索特征映射网络训练方法、检索方法及装置 |
Non-Patent Citations (2)
Title |
---|
基于知识图谱的包装领域智能问答系统的设计;吴岳忠等;《包装工程》;20210810;第203-210页 * |
基于知识图谱的包装领域智能问答系统的设计;吴岳忠等;《湖南工业大学交通工程学院 》;第203-210页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116028617A (zh) | 2023-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110309427B (zh) | 一种对象推荐方法、装置及存储介质 | |
US9449271B2 (en) | Classifying resources using a deep network | |
CN113627447B (zh) | 标签识别方法、装置、计算机设备、存储介质及程序产品 | |
CN112364204B (zh) | 视频搜索方法、装置、计算机设备及存储介质 | |
CN108984555B (zh) | 用户状态挖掘和信息推荐方法、装置以及设备 | |
CN110909182A (zh) | 多媒体资源搜索方法、装置、计算机设备及存储介质 | |
CN111783712A (zh) | 一种视频处理方法、装置、设备及介质 | |
US20230004608A1 (en) | Method for content recommendation and device | |
Wang et al. | Urban perception of commercial activeness from satellite images and streetscapes | |
CN113094549A (zh) | 一种视频分类方法、装置、电子设备和存储介质 | |
CN111310025B (zh) | 模型训练方法、数据处理方法、装置以及相关设备 | |
CN116028617B (zh) | 资讯推荐方法、装置、设备、可读存储介质及程序产品 | |
CN116932873A (zh) | 视频账号的推荐方法、装置、设备、存储介质及程序产品 | |
CN115858911A (zh) | 信息推荐方法、装置、电子设备及计算机可读存储介质 | |
CN113076453A (zh) | 域名分类方法、设备及计算机可读存储介质 | |
CN113535946A (zh) | 基于深度学习的文本鉴别方法、装置、设备及存储介质 | |
CN114817697A (zh) | 标签信息的确定方法、装置、电子设备以及存储介质 | |
CN112183069A (zh) | 一种基于历史关键词投放数据的关键词构建方法及系统 | |
CN116628236B (zh) | 多媒体信息的投放方法、装置、电子设备及存储介质 | |
CN115222486B (zh) | 物品推荐模型训练方法、物品推荐方法、装置及存储介质 | |
CN110149810A (zh) | 限制在网络环境中操纵内容的传输 | |
CN116610871B (zh) | 媒体数据的推荐方法、装置、计算机设备和存储介质 | |
CN116578757A (zh) | 博文向量生成模型训练方法、博文推荐方法及装置、设备 | |
CN114707087A (zh) | 属性识别方法、装置及电子设备 | |
CN116049451A (zh) | 信息召回方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |