CN114218377A - 书籍推荐方法、电子设备及存储介质 - Google Patents

书籍推荐方法、电子设备及存储介质 Download PDF

Info

Publication number
CN114218377A
CN114218377A CN202111543802.3A CN202111543802A CN114218377A CN 114218377 A CN114218377 A CN 114218377A CN 202111543802 A CN202111543802 A CN 202111543802A CN 114218377 A CN114218377 A CN 114218377A
Authority
CN
China
Prior art keywords
book data
data set
network
book
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111543802.3A
Other languages
English (en)
Inventor
唐旺
明瑞刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhangyue Technology Co Ltd
Original Assignee
Zhangyue Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhangyue Technology Co Ltd filed Critical Zhangyue Technology Co Ltd
Priority to CN202111543802.3A priority Critical patent/CN114218377A/zh
Publication of CN114218377A publication Critical patent/CN114218377A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开实施例涉及一种书籍推荐方法、电子设备及存储介质。其中书籍推荐方法包括:基于预设推荐模型中的第一网络对第一书籍数据集进行第一筛选处理,得到第二书籍数据集;基于预设推荐模型中的第二网络对第二书籍数据集进行第二筛选处理,得到目标书籍数据集;基于目标书籍数据集,向用户推送书籍。根据本公开实施例,通过第一网络对书籍数据进行第一次快速筛选,第二网络基于第一网络筛选出的书籍数据进行第二次筛选,由于数据数量减少,极大提高了筛选速度,减少了系统开销,在保证推荐准确性的同时提高了推荐速度,实现了书籍推荐的实时性,提高了用户的阅读体验。

Description

书籍推荐方法、电子设备及存储介质
技术领域
本公开实施例涉及信息处理技术领域,尤其涉及一种书籍推荐方法、电子设备及存储介质。
背景技术
电子书形式的书籍由于具有获取方便等优势,受到了大量用户的喜爱。书籍资源是海量的,为了便于用户挑选适合自身的书籍,很多书籍平台都提供了书籍推荐系统向用户推荐书籍,但是现有的推荐系统使用的排序模型结构复杂,系统开销大,输出结果的实时性较差,无法做到书籍推荐的实时性,导致书籍推荐的效果不佳。因而亟需一种书籍推荐方法来实现书籍推荐的实时性,提高用户的阅读体验。
发明内容
为了解决上述技术问题或者至少部分地解决上述技术问题,本公开实施例提供了一种书籍推荐方法、电子设备及存储介质。
本公开实施例的第一方面提供了一种书籍推荐方法,该方法包括:
基于预设推荐模型中的第一网络对第一书籍数据集进行第一筛选处理,得到第二书籍数据集;
基于预设推荐模型中的第二网络对第二书籍数据集进行第二筛选处理,得到目标书籍数据集;
基于所述目标书籍数据集,向用户推送书籍。
本公开实施例的第二方面提供了一种电子设备,包括处理器和存储器,存储器用于存储可执行指令,可执行指令使所述处理器执行以下操作:
基于预设推荐模型中的第一网络对第一书籍数据集进行第一筛选处理,得到第二书籍数据集;
基于预设推荐模型中的第二网络对第二书籍数据集进行第二筛选处理,得到目标书籍数据集;
基于目标书籍数据集,向用户推送书籍。
本公开实施例的第三方面提供了一种计算机可读存储介质,该存储介质存储有计算机程序,当计算机程序被处理器执行时,使得处理器实现上述第一方面所述的书籍推荐方法。
本公开实施例提供的技术方案与现有技术相比具有如下优点:
本公开实施例通过基于预设推荐模型中的第一网络对第一书籍数据集进行第一筛选处理,得到第二书籍数据集;基于预设推荐模型中的第二网络对第二书籍数据集进行第二筛选处理,得到目标书籍数据集;基于目标书籍数据集,向用户推送书籍。根据本公开实施例,通过第一网络对书籍数据进行第一次快速筛选,第二网络基于第一网络筛选出的书籍数据进行第二次筛选,由于数据数量减少,极大提高了筛选速度,减少了系统开销,在保证推荐准确性的同时提高了推荐速度,实现了书籍推荐的实时性,提高了用户的阅读体验。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本公开实施例提供的一种书籍推荐方法的流程图;
图2是本公开实施例提供的另一种书籍推荐方法的流程图;
图3是本公开实施例提供的一种深度分解机DeepFM模型的原理示意图;
图4是本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
为了能够更清楚地理解本公开的上述目的、特征和优点,下面将对本公开的方案进行进一步描述。需要说明的是,在不冲突的情况下,本公开的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本公开,但本公开还可以采用其他不同于在此描述的方式来实施;显然,说明书中的实施例只是本公开的一部分实施例,而不是全部的实施例。
图1是本公开实施例提供的一种书籍推荐方法的流程图,该方法可以由一种电子设备来执行,该电子设备可以理解为任意一种具有计算功能和处理能力的设备。如图1所示,本公开实施例提供的书籍推荐方法包括如下步骤:
步骤101、基于预设推荐模型中的第一网络对第一书籍数据集进行第一筛选处理,得到第二书籍数据集。
本公开实施例所称的预设推荐模型可以理解为深度分解机(Deep FactorizationMachines,DeepFM)模型,该模型包括分解机(Factorization Machine,FM)网络和深度Deep网络。其中,FM网络是一种基于矩阵分解的机器学习算法,其使用特征向量来变换因子分解网络,通过低阶关系之间的内积表示为因子之间的交互关系。FM网络具有自动组合特征的优点,从而可以大量减少特征工程的工作。Deep网络可以理解为深度神经网络(DeepNeural Networks,DNN),可以同时兼顾高阶特征组合和低阶特征组合。DeepFM模型可以结合FM网络和DNN网络二者的优势,可以自动生成低阶特征和高阶特征,提高了特征工程方面的处理效率。
常见的DeepFM模型主要的功能模块包括稀疏特征处理网络,FM网络,Deep网络,输出网络。
本公开实施例所称的书籍数据集可以理解为预设推荐模型在召回阶段采用多路召回策略召回的多个书籍的书籍数据的集合,多路召回的策略可以为物品协同召回、用户协同召回等,这里不作限制。
本公开实施例中所称的第一网络可以理解为FM网络,FM网络结构简单,能够快速完成筛选。
本公开实施例中的书籍数据可以理解为书籍的多个特征数据的集合,该特征数据可以包括书籍特征数据、用户特征数据和用户对书籍的交互行为特征数据,其中,书籍特征数据可以包括书籍的标识信息(比如书籍的名称、作者、简介等信息)、书籍的出版信息、书籍的类别等特征数据;用户特征数据可以包括与书籍交互过的用户的标识信息、用户的阅读历史列表、书籍偏好类别等特征数据;用户对书籍的交互行为特征数据可以包括用户与书籍的交互时长、用户对书籍的标记等特征数据。
在本公开实施例中,基于预设推荐模型中的第一网络对第一书籍数据集进行第一筛选处理,可以通过DeepFM模型,首先对第一书籍数据集中的各个书籍的书籍数据进行稀疏特征处理,得到各个书籍的书籍数据的特征向量;将特征向量输入第一网络进行嵌入化处理,对特征向量进行两两特征交叉组合,计算交叉组合后的两两特征向量之间的数量积(也称为点积、点乘)值,对数量积值进行线性处理后得到各个书籍的书籍数据的第一打分,根据第一打分由大到小的顺序对第一书籍数据集中的书籍数据进行排序,得到第一打分排序结果;基于第一打分排序结果中排序高于第一预设阈值的书籍数据,生成第二书籍数据集。需要说明的是,这里仅是以打分方式为例对第一书籍数据集的第一筛选处理的方式进行说明,而不是唯一说明。
步骤102、基于预设推荐模型中的第二网络对第二书籍数据集进行第二筛选处理,得到目标书籍数据集。
本公开实施例中所称的第二网络可以理解为Deep网络,
需要说明的是,第一网络的筛选精度小于第二网络的筛选精度。
在本公开实施例中,基于预设推荐模型中的第二网络对第二书籍数据集进行第二筛选处理,得到目标书籍数据集的步骤,可以包括步骤S11-S12:
步骤S11、基于第二网络对第二书籍数据集中的书籍数据进行打分排序,得到第二打分排序结果。
本公开实施例中,可以通过DeepFM模型中的第一网络,对第一书籍数据集中的各个书籍的书籍数据进行稀疏特征处理和嵌入化处理,获得各个书籍的书籍数据的特征向量,基于特征向量对第一书籍数据集进行第一筛选处理,得到第二书籍数据集之后,可以通过DeepFM模型中的第二网络,通过若干个隐藏层对第二书籍数据集中的各个书籍的书籍数据的特征向量进行全连接处理,得到各个书籍的书籍数据的第二打分。根据第二打分由大到小的顺序对第二书籍数据集中的书籍的书籍数据进行排序,得到第二打分排序结果。
步骤S12、基于第二打分排序结果中排序高于第二预设阈值的书籍数据生成目标书籍数据集。
本公开实施例中,选择第二打分排序结果中排序高于第二预设阈值的书籍数据,生成目标书籍数据集。
步骤103、基于目标书籍数据集,向用户推送书籍。
在本公开实施例中,可以根据目标书籍数据集的第二打分排序结果,将第二打分排序高于第二预设阈值的书籍数据推送给用户。
本公开实施例提供的技术方案与现有技术相比具有如下优点:
本公开实施例通过基于预设推荐模型中的第一网络对第一书籍数据集进行第一筛选处理,得到第二书籍数据集;基于预设推荐模型中的第二网络对第二书籍数据集进行第二筛选处理,得到目标书籍数据集;基于目标书籍数据集,向用户推送书籍。根据本公开实施例,通过第一网络对书籍数据进行第一次快速筛选,第二网络基于第一网络筛选出的书籍数据进行第二次筛选,由于数据数量减少,极大提高了筛选速度,减少了系统开销,在保证推荐准确性的同时提高了推荐速度,实现了书籍推荐的实时性,提高了用户的阅读体验。
图2是本公开实施例提供的另一种书籍推荐方法的流程图,该方法可以由一种电子设备来执行,该电子设备可以理解为任意一种具有计算功能和处理能力的设备。如图2所示,本公开实施例提供的书籍推荐方法包括如下步骤:
步骤201、基于第一网络对第一书籍数据集中的书籍数据进行打分排序,得到第一打分排序结果。
本公开实施例中,在基于第一网络对第一书籍数据集中的书籍数据进行打分排序之前,需首先对第一书籍数据集中的各个书籍的书籍数据进行稀疏特征处理,得到各个书籍的书籍数据的特征向量。将特征向量输入第一网络进行嵌入化处理,对特征向量进行两两特征交叉组合,计算交叉组合后的两两特征向量之间的数量积(也称为点积、点乘)值,对数量积值进行线性处理后得到各个书籍的书籍数据的第一打分,根据第一打分由大到小的顺序对第一书籍数据集中的书籍数据进行排序,得到第一打分排序结果。
步骤202、基于第一打分排序结果中排序高于第一预设阈值的书籍数据,生成第二书籍数据集。
本公开实施例中,选择第一打分排序结果中排序高于第一预设阈值的书籍数据,生成第二书籍数据集。举例来说,假设第一书籍数据集中有100个书籍的书籍数据,通过步骤201对100个书籍的书籍数据分别进行第一打分,打分范围为0-1,按照第一打分由大到小的顺序对第一书籍数据集中的100个书籍的书籍数据进行排序,假设第一预设阈值为60,第一书籍数据集中排序为1到60的书籍数据被添加到数据集中得到第二书籍数据集。可以理解,这里仅是对生成第二书籍数据集的示例性说明,而不是唯一说明。
步骤203、基于第二网络对第二书籍数据集中的书籍数据进行打分排序,得到第二打分排序结果。
本公开实施例可以参考图1中步骤S11,这里不再赘述。
步骤204、基于第二打分排序结果中排序高于第二预设阈值的书籍数据生成目标书籍数据集。
本公开实施例中,选择第二打分排序结果中排序高于第二预设阈值的书籍数据,生成目标书籍数据集。举例来说,通过上述步骤从第一书籍数据集中的100个书籍的书籍数据中筛选出60个书籍的书籍数据组成第二书籍数据集,通过步骤203对60个书籍的书籍数据分别进行第二打分,打分范围为0-1,按照第二打分由大到小的顺序对第二书籍数据集中的60个书籍的书籍数据进行排序,假设第二预设阈值为20,第二书籍数据集中排序为1到20的书籍数据被添加到数据集中得到目标书籍数据集。可以理解,这里仅是对生成目标书籍数据集的示例性说明,而不是唯一说明。
步骤205、针对目标书籍数据集中的书籍数据,将书籍数据对应的第一网络的打分与书籍数据对应的第二网络的打分进行求和处理,得到书籍数据的总分。
本公开实施例中,将目标书籍数据集中的书籍数据对应的第一网络的打分与第二网络的打分输入DeepFM模型的输出网络,结合模型中的激活函数Sigmoid进行求和处理,得到书籍数据的总分。举例来说,目标书籍数据集中的书籍数据A通过第一网络的第一打分为0.7分,通过第二网络的第二打分为0.9分,对书籍数据A的第一打分和第二打分进行求和处理,得到书籍数据A的总分为1.6分。可以理解,这里仅是对得到书籍数据总分的示例性说明,而不是唯一说明。
步骤206、基于目标书籍数据集中的书籍数据的总分,对目标书籍数据集中的书籍数据进行排序。
根据目标书籍数据集中的书籍数据的总分按照由大到小的顺序对目标书籍数据集中的书籍数据进行排序,得到目标书籍数据集中的书籍数据的总分排序结果。
步骤207、将总分排序高于第三预设阈值的书籍数据推送给用户。
本公开实施例中,将目标书籍数据集中总分排序高于第三预设阈值的书籍数据推送给用户。举例来说,目标书籍数据集中有20个书籍的书籍数据,通过上述步骤对20个书籍的书籍数据分别进行第一打分和第二打分的求和处理,得到每个书籍的书籍数据的总分,按照总分由大到小的顺序对目标书籍数据集中的20个书籍的书籍数据进行排序,假设第三预设阈值为5,则将目标书籍数据集中排序为1到5的书籍的书籍数据推送给用户。可以理解,这里仅是根据总分向用户推送书籍数据的示例性说明,而不是唯一说明。
本公开实施例提供的技术方案与现有技术相比具有如下优点:
本公开实施例通过基于第一网络对第一书籍数据集中的书籍数据进行打分排序,得到第一打分排序结果;基于第一打分排序结果中排序高于第一预设阈值的书籍数据,生成第二书籍数据集;基于第二网络对第二书籍数据集中的书籍数据进行打分排序,得到第二打分排序结果;基于第二打分排序结果中排序高于第二预设阈值的书籍数据生成目标书籍数据集;针对目标书籍数据集中的书籍数据,将书籍数据对应的第一网络的打分与书籍数据对应的第二网络的打分进行求和处理,得到书籍数据的总分;基于目标书籍数据集中的书籍数据的总分,对目标书籍数据集中的书籍数据进行排序;将总分排序高于第三预设阈值的书籍数据推送给用户。根据本公开实施例,通过第一网络对书籍数据进行第一次快速筛选,第二网络基于第一网络筛选出的书籍数据进行第二次筛选,由于数据数量减少,极大提高了筛选速度,综合两次筛选的结果向用户推荐书籍,减少了系统开销,在保证推荐准确性的同时提高了推荐速度,实现了书籍推荐的实时性,提高了用户的阅读体验。
图3是本公开实施例提供的一种深度分解机DeepFM模型的原理示意图,该模型300主要包括稀疏特征处理网络310、FM网络320,Deep网络330,输出网络340。
其中,稀疏特征处理网络310主要用于实现对书籍数据集中的各个书籍的书籍数据的稀疏特征处理,得到书籍数据的特征向量。
FM网络320包括嵌入化处理子网络、FM处理子网络,FM网络主要用于第一网络的实现,对书籍数据的特征向量进行嵌入化处理,对特征向量进行两两特征交叉组合,计算交叉组合后的两两特征向量之间的数量积(也称为点积、点乘)值,对数量积值进行线性处理后得到各个书籍的书籍数据的第一打分,根据第一打分由大到小的顺序对第一书籍数据集中的书籍数据进行排序,输出第一打分排序结果,基于第一打分排序结果中排序高于第一预设阈值的书籍数据,生成第二书籍数据集。FM网络的结构简单,能够快速完成筛选。
Deep网络330主要用于第二网络的实现,通过若干个隐藏层对第二书籍数据集中的各个书籍的书籍数据的特征向量进行全连接处理,得到书籍的第二打分,根据第二打分由大到小的顺序对第二书籍数据集中的书籍数据进行排序,得到第二打分排序结果,基于第二打分排序结果中排序高于第二预设阈值的书籍数据生成目标书籍数据集。
输出网络340可以理解为DeepFM模型的顶层网络,主要基于目标书籍数据集中的书籍数据对应的第一网络的打分与第二网络的打分,结合激活函数Sigmoid进行求和处理,得到书籍数据的总分,基于目标书籍数据集中的书籍数据的总分,对目标书籍数据集中的书籍数据进行排序,将总分排序高于第三预设阈值的书籍数据推送给用户。
下面,对上述DeepFM模型的模型训练方法进行说明。该方法可以由一种计算设备来执行,该计算设备可以理解为任意一种具有计算功能和处理能力的设备。
首先在多路召回策略召回的书籍数据的集合中获取多个书籍的书籍数据,对各个书籍的书籍数据进行标注,获得每个书籍的书籍数据的推荐值标签,将书籍数据及书籍数据中每个书籍的书籍数据对应的推荐值标签作为训练样本,将多个训练样本按照预设的比例划分为训练集、验证集以及测试集,基于训练集训练模型,在验证集上验证模型的准确性。
本公开实施例中,可以采用训练集同时训练DeepFM模型中的FM网络和Deep网络,将第一书籍数据集输入FM网络,获得书籍数据的第一打分和第二书籍数据集,将第二书籍数据集输入Deep网络,获得书籍数据的第二打分和目标书籍数据集,基于第一打分和第二打分获得书籍数据的总分,经过多次迭代训练,通过损失函数不断优化模型参数,输出训练好的DeepFM模型。
本公开实施例中,每次得到书籍数据的第一打分后,对书籍数据的第一打分进行验证,基于验证结果和书籍数据对FM网络进行优化训练。具体的,将书籍数据的第一打分输入第一损失函数中,计算模型在验证集上的第一损失值,基于第一损失值不断优化FM网络的参数,当模型在验证集上的第一损失值小于或等于第一预设损失阈值,停止训练,确定FM网络的最终参数。
在本公开的另一种实施方式中,可以每隔预定时间间隔后,对书籍数据的总分进行验证,并基于验证结果和书籍数据对整个DeepFM模型进行优化训练。具体的,将书籍数据的总分输入第二损失函数中,计算模型在验证集上的第二损失值,基于第二损失值不断优化整个DeepFM模型的参数,当模型在验证集上的第二损失值小于或等于第二预设损失阈值,停止训练,确定DeepFM模型的最终参数。
本公开实施例提供的技术方案与现有技术相比具有如下优点:
本公开实施例在现有的并行方案的DeepFM模型的基础上,将DeepFM模型改进为串行方案,训练得到串行方案的DeepFM模型,利用FM网络对书籍数据进行第一次快速筛选,然后将第一次筛选结果输送至Deep网络进行第二次筛选,即FM网络的计算结果作为了Deep网络的输入,由于数据数量减少,极大提高了筛选速度,减少了系统开销,在保证推荐准确性的同时提高了推荐速度,实现了书籍推荐的实时性,提高了用户的阅读体验。
图4是本公开实施例提供的一种电子设备的结构示意图,该电子设备可以理解为任意一种具有计算功能和处理能力的设备。
本公开实施例提供的电子设备可以包括但不限于诸如智能手机、平板电脑、笔记本电脑等的移动终端,以及诸如数字TV、台式计算机等的固定终端。
需要说明的是,图4示出的电子设备400仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
电子设备400传统上包括处理器410和存储器420。存储器420可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。存储器420具有用于执行上述书籍推荐方法中的任何方法步骤的可执行指令(或程序代码)4211的存储空间421。例如,用于可执行指令的存储空间421可以包括分别用于实现上面的书籍推荐方法中的各种步骤的各个可执行指令4211。这些可执行指令可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。这些计算机程序产品包括诸如硬盘,光盘(CD)、存储卡或者软盘之类的程序代码载体。这样的计算机程序产品通常为便携式或者固定存储单元。该存储单元可以具有与图4的电子设备400中的存储器420类似布置的存储段或者存储空间等。可执行指令可以例如以适当形式进行压缩。通常,存储单元包括用于执行根据本发明的书籍推荐方法步骤的可执行指令,即可以由例如诸如处理器410之类的处理器读取的代码,这些代码当由电子设备400运行时,导致电子设备400执行上面所描述的书籍推荐方法中的各个步骤。
当然,为了简化,图4中仅示出了电子设备400中与本发明有关的组件中的一些,省略了诸如总线、输入/输出接口、输入装置和输出装置等等的组件。除此之外,根据具体应用情况,电子设备400还可以包括任何其他适当的组件。
电子设备400中的存储器420用于存储可执行指令4211,该可执行指令4211使处理器420执行以下操作:
基于预设推荐模型中的第一网络对第一书籍数据集进行第一筛选处理,得到第二书籍数据集;
基于预设推荐模型中的第二网络对第二书籍数据集进行第二筛选处理,得到目标书籍数据集;
基于目标书籍数据集,向用户推送书籍。
可选的,电子设备400中的预设推荐模型中的第一网络的筛选精度小于第二网络。
可选的,电子设备400在基于预设推荐模型中的第一网络对第一书籍数据集进行第一筛选处理,得到第二书籍数据集时,可执行指令4211还使处理器420执行:
基于第一网络对第一书籍数据集中的书籍数据进行打分排序,得到第一打分排序结果;
基于第一打分排序结果中排序高于第一预设阈值的书籍数据,生成第二书籍数据集。
可选的,电子设备400在基于预设推荐模型中的第二网络对第二书籍数据集进行第二筛选处理,得到目标书籍数据集时,可执行指令4211还使处理器420执行:
基于第二网络对第二书籍数据集中的书籍数据进行打分排序,得到第二打分排序结果;
基于第二打分排序结果中排序高于第二预设阈值的书籍数据生成目标书籍数据集。
可选的,电子设备400在基于目标书籍数据集,向用户推送书籍时,可执行指令4211还使处理器420执行:
针对目标书籍数据集中的书籍数据,将书籍数据对应的第一网络的打分与书籍数据对应的第二网络的打分进行求和处理,得到书籍数据的总分;
基于目标书籍数据集中的书籍数据的总分,对目标书籍数据集中的书籍数据进行排序;
将总分排序高于第三预设阈值的书籍数据推送给用户。
可选的,电子设备400中的预设推荐模型为深度分解机DeepFM模型,第一网络为FM网络,第二网络为Deep网络。
本公开实施例提供的电子设备能够执行上述书籍推荐方法,其执行方式和有益效果类似,在这里不再赘述。
本公开实施例提供了一种计算机可读存储介质,该存储介质中存储有计算机程序,当计算机程序被处理器执行时,使得处理器实现用上述书籍推荐方法,其执行方式和有益效果类似,在这里不再赘述。
上述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
上述计算机程序可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅是本公开的具体实施方式,使本领域技术人员能够理解或实现本公开。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本公开的精神或范围的情况下,在其它实施例中实现。因此,本公开将不会被限制于本文所述的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种书籍推荐方法,其特征在于,所述方法包括:
基于预设推荐模型中的第一网络对第一书籍数据集进行第一筛选处理,得到第二书籍数据集;
基于所述预设推荐模型中的第二网络对所述第二书籍数据集进行第二筛选处理,得到目标书籍数据集;
基于所述目标书籍数据集,向用户推送书籍。
2.根据权利要求1所述的方法,其特征在于,所述第一网络的筛选精度小于所述第二网络。
3.根据权利要求1所述的方法,其特征在于,所述基于预设推荐模型中的第一网络对第一书籍数据集进行第一筛选处理,得到第二书籍数据集,包括:
基于所述第一网络对所述第一书籍数据集中的书籍数据进行打分排序,得到第一打分排序结果;
基于所述第一打分排序结果中排序高于第一预设阈值的书籍数据,生成第二书籍数据集。
4.根据权利要求1或3所述的方法,其特征在于,所述基于所述预设推荐模型中的第二网络对所述第二书籍数据集进行第二筛选处理,得到目标书籍数据集,包括:
基于所述第二网络对所述第二书籍数据集中的书籍数据进行打分排序,得到第二打分排序结果;
基于所述第二打分排序结果中排序高于第二预设阈值的书籍数据生成目标书籍数据集。
5.根据权利要求4所述的方法,其特征在于,所述基于所述目标书籍数据集,向用户推送书籍,包括:
针对所述目标书籍数据集中的书籍数据,将所述书籍数据对应的第一网络的打分与所述书籍数据对应的第二网络的打分进行求和处理,得到所述书籍数据的总分;
基于所述目标书籍数据集中的书籍数据的总分,对所述目标书籍数据集中的书籍数据进行排序;
将总分排序高于第三预设阈值的书籍数据推送给用户。
6.根据权利要求1所述的方法,其特征在于,所述预设推荐模型为深度分解机DeepFM模型,所述第一网络为FM网络,所述第二网络为Deep网络。
7.一种电子设备,其特征在于,包括处理器和存储器,所述存储器用于存储可执行指令,所述可执行指令使所述处理器执行以下操作:
基于预设推荐模型中的第一网络对第一书籍数据集进行第一筛选处理,得到第二书籍数据集;
基于所述预设推荐模型中的第二网络对所述第二书籍数据集进行第二筛选处理,得到目标书籍数据集;
基于所述目标书籍数据集,向用户推送书籍。
8.根据权利要求7所述的电子设备,其特征在于,在基于所述预设推荐模型中的第二网络对所述第二书籍数据集进行第二筛选处理,得到目标书籍数据集时,所述可执行指令还使所述处理器执行:
基于所述第二网络对所述第二书籍数据集中的书籍数据进行打分排序,得到第二打分排序结果;
基于所述第二打分排序结果中排序高于第二预设阈值的书籍数据生成目标书籍数据集。
9.根据权利要求8所述的电子设备,其特征在于,在基于所述目标书籍数据集,向用户推送书籍时,所述可执行指令还使所述处理器执行:
针对所述目标书籍数据集中的书籍数据,将所述书籍数据对应的第一网络的打分与所述书籍数据对应的第二网络的打分进行求和处理,得到所述书籍数据的总分;
基于所述目标书籍数据集中的书籍数据的总分,对所述目标书籍数据集中的书籍数据进行排序;
将总分排序高于第三预设阈值的书籍数据推送给用户。
10.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,当所述计算机程序被处理器执行时,使得处理器实现用上述权利要求1-6中任一项所述的书籍推荐方法。
CN202111543802.3A 2021-12-16 2021-12-16 书籍推荐方法、电子设备及存储介质 Pending CN114218377A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111543802.3A CN114218377A (zh) 2021-12-16 2021-12-16 书籍推荐方法、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111543802.3A CN114218377A (zh) 2021-12-16 2021-12-16 书籍推荐方法、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN114218377A true CN114218377A (zh) 2022-03-22

Family

ID=80702962

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111543802.3A Pending CN114218377A (zh) 2021-12-16 2021-12-16 书籍推荐方法、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN114218377A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024041043A1 (zh) * 2022-08-24 2024-02-29 掌阅科技股份有限公司 书籍推荐方法、计算设备及计算机存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024041043A1 (zh) * 2022-08-24 2024-02-29 掌阅科技股份有限公司 书籍推荐方法、计算设备及计算机存储介质

Similar Documents

Publication Publication Date Title
CN112632385A (zh) 课程推荐方法、装置、计算机设备及介质
CN111353037B (zh) 一种题目生成方法、装置以及计算机可读存储介质
WO2018033030A1 (zh) 自然语言文句库的生成方法及装置
CN109325121B (zh) 用于确定文本的关键词的方法和装置
CN108984555B (zh) 用户状态挖掘和信息推荐方法、装置以及设备
CN111666416A (zh) 用于生成语义匹配模型的方法和装置
CN110796171A (zh) 机器学习模型的未分类样本处理方法、装置及电子设备
CN111859967A (zh) 实体识别方法、装置,电子设备
CN111985243A (zh) 情感模型的训练方法、情感分析方法、装置及存储介质
CN113821527A (zh) 哈希码的生成方法、装置、计算机设备及存储介质
CN111192170A (zh) 题目推送方法、装置、设备和计算机可读存储介质
CN114218377A (zh) 书籍推荐方法、电子设备及存储介质
CN113742578A (zh) 一种数据推荐方法、装置、电子设备及存储介质
CN116955591A (zh) 用于内容推荐的推荐语生成方法、相关装置和介质
CN112785391B (zh) 推荐处理方法、装置及智能设备、存储介质
Mulla et al. Leveraging well-formedness and cognitive level classifiers for automatic question generation on Java technical passages using T5 transformer
CN111783453B (zh) 文本的情感信息处理方法及装置
Raharjo et al. Machine Learning System Implementation of Education Podcast Recommendations on Spotify Applications Using Content-Based Filtering and TF-IDF
CN114020896A (zh) 一种智能问答方法、系统、电子设备及存储介质
CN113298360A (zh) 一种用于资源分配的风险控制方法、装置和系统
US11144832B2 (en) System and method for determining optimal solution in a swarm of solutions using swarm intelligence
CN113704462A (zh) 文本处理方法、装置、计算机设备及存储介质
CN112464087A (zh) 推荐概率的输出方法及装置、存储介质、电子设备
Alahmed et al. “How Does ChatGPT Work” Examining Functionality To The Creative AI CHATGPT on X's (Twitter) Platform
CN111897910A (zh) 信息推送方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination