CN112241785B - 一种基于深度强化学习的图书采访方法 - Google Patents

一种基于深度强化学习的图书采访方法 Download PDF

Info

Publication number
CN112241785B
CN112241785B CN202011083599.1A CN202011083599A CN112241785B CN 112241785 B CN112241785 B CN 112241785B CN 202011083599 A CN202011083599 A CN 202011083599A CN 112241785 B CN112241785 B CN 112241785B
Authority
CN
China
Prior art keywords
book
reinforcement learning
data
deep reinforcement
historical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011083599.1A
Other languages
English (en)
Other versions
CN112241785A (zh
Inventor
谭小彬
秦川
周国华
杨坚
郑烇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202011083599.1A priority Critical patent/CN112241785B/zh
Publication of CN112241785A publication Critical patent/CN112241785A/zh
Application granted granted Critical
Publication of CN112241785B publication Critical patent/CN112241785B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

本发明提供了一种基于深度强化学习的图书采访方法,应用于图书馆的图书采访工作,提高图书采访效率和质量。首先,获取历史书单数据、历史订单数据和历史借阅数据;然后对这些数据进行预处理,包括格式转换和统一、空值填充、去除冗余和错误等,然后将对应数据进行匹配和标记;接下来构建应用于图书采访的深度强化学习模型,将历史书单中包含的图书的信息转化为向量的表示形式;再利用历史书单中图书的状态、动作及奖赏对预先构建的深度强化学习模型进行训练;最后将待处理图书的信息转换后,输入训练好的深度强化学习模型,得到针对待处理图书的图书采访结果。本发明的方法可以利用构建的深度强化学习模型对图书进行图书采访决策,可以提高图书采访效率和准确性。

Description

一种基于深度强化学习的图书采访方法
技术领域
本发明属于深度学习中推荐算法领域,尤其涉及一种基于深度强化学习的图书采访方法。
背景技术
图书馆的采访工作,是指图书书籍的采购与访视,是图书馆征集图书的工作,其中“采”是指通过各种渠道进行广泛采集,“访”是指广泛、系统地进行研究调查。图书馆的藏书建设的好坏,与图书采访工作有直接重大的关系。图书采访工作的好坏,决定了图书馆藏书质量的高低。
现有图书采访工作主要存在以下问题:
(1)经费有限,需要有效利用经费进行馆藏资源建设;
(2)现有的图书采访模式主要由学科专家荐购和采访人员凭经验选购相结合,人工方式的采访效率较低,并且具有较大的主观性;
(3)依赖人工的经验进行采集,对于采访人员的知识、经验、技能有较高要求,并且容易忽略一些信息,导致采集的信息不全面,进而影响制定采购计划的准确性。由此可知,现有技术中的方法存在效率较低和准确性不高的技术问题。
发明内容
为了解决上述技术问题,本发明提出了一种基于深度强化学习的图书采访方法。该方法使用历史数据训练出一个深度强化学习模型,训练得到的模型可用于模拟图书采访人员的图书采访工作,可以提高图书采访效率和准确性。
本发明旨在利用深度学习的方法完成图书采访的工作,使得到的模型可以达到图书馆图书采访人员的工作水平。
为达上述目的,本发明提出了一种基于深度强化学习的图书采访方法,其特征在于,所述方法包括:
步骤S1:获取图书馆历史书单数据、历史订单数据、历史借阅记录数据,并对上述数据进行预处理;
步骤S2:将历史书单数据与历史订单数据及历史借阅记录数据进行匹配,根据匹配结果将历史书单数据中的图书标记为未购买或购买n本后预定时间内总借阅的册次k;
步骤S3:将历史书单数据中图书的信息转化为向量的表示形式;
步骤S4:设计用于图书采访的深度强化学习模型,确定深度强化学习训练过程中的状态、动作、奖赏、惩罚及训练参数;
步骤S5:用步骤S3中处理好的数据对深度强化学习模型进行训练,更新、存储深度强化学习模型参数,得到训练好的深度强化学习模型;
步骤S6:将待处理书单中图书的信息转换后,输入训练好的深度强化学习模型,得到待处理图书的采购推荐结果。
在一种实施方式中,步骤S1具体包括:
步骤S1.1:获取图书馆历史书单数据、历史订单数据、历史借阅记录数据;
步骤S1.2:对上述数据进行预处理,包括格式转换和统一、空值填充、去除冗余和错误等。
在一种实施方式中,步骤S2具体包括:
步骤S2.1:将历史书单数据与历史订单数据及历史借阅记录数据进行匹配;
步骤S2.2:如果历史书单数据中包含的图书出现在历史订单数据中,则继续匹配历史借阅记录数据,将历史书单数据中包含的图书标记为购买n本后预定时间内总借阅册次k,否则,将历史书单数据中包含图书的类别标记为未购买。
在一种实施方式中,步骤S3具体包括:
步骤S3.1:将历史书单数据中图书的信息进行分词,再得到每个词向量;
步骤S3.2:将历史书单数据中每一本图书的信息转换为特征向量。
在一种实施方式中,步骤S4具体包括:
步骤S4.1:根据图书采访目标及输入和输出数据维度等信息,并结合控制端的计算能力,确定用于图书采访的深度强化学习的具体模型;
步骤S4.2:设计深度强化学习模型中神经网络的结构、尺寸、神经元激活函数、损失函数及训练方法等;
步骤S4.3:根据图书馆的特征、图书采访目标及深度强化学习模型,确定训练过程中的状态、动作、奖赏和惩罚,确定神经网络的初始权值、学习率和学习率衰减值等训练参数。
在一种实施方式中,步骤S5具体包括:
步骤S5.1:将历史书单数据中图书的特征向量及标记购买借阅情况转换为深度强化学习模型的状态、采取的动作及奖赏或惩罚;
步骤S5.2:使用采集到并处理好的数据对深度强化学习模型采用离线的方式进行训练,同时更新和存储深度强化学习模型参数。
在一种实施方式中,步骤S6具体包括:
步骤S6.1:将待处理书单中图书的信息转换为深度强化学习模型的状态,输入深度强化学习模型;
步骤S6.2:深度强化学习模型根据训练得到的策略对输入的状态选择对应的动作。
本发明的上述技术方案,至少具有以下一种或多种技术效果:
本发明提供的一种基于深度强化学习的图书采访方法,首先,获取历史书单数据、历史订单数据和历史借阅记录数据;然后将历史书单数据与历史订单数据、历史借阅记录数据进行匹配,根据匹配结果将历史书单数据中的图书标记为未购买和购买n本后一定时间内借阅册次为k册次;接下来将历史书单数据中包含的图书的信息转化为向量的表示形式;再利用处理好的数据对预先构建的深度强化学习模型进行训练;最后将待处理图书的信息转换后,传入训练好的深度强化学习模型,得到待处理图书的图书采访结果。
本发明将深度学习技术引入到图书采访技术中,提供了一种基于深度强化学习的图书采访方法,首先根据历史书单数据与历史订单数据、历史借阅记录数据的匹配情况,对历史书单数据进行标记,用于后续模型的训练,并将历史书单数据中包含的图书的信息转化为向量的表示形式,然后利用处理好的数据对预先构建的深度强化学习模型进行训练;最后则可以利用训练好的深度强化学习模型进行图书采访决策,一方面,本发明提供的方法中通过深度强化学习模型来进行图书采访决策,可以提高效率,另一方面,由于模型是根据历史书单数据与历史订单数据、历史借阅数据匹配后进行标记,并通过对标记后的数据进行训练而得到的,因此可以得到效果较好的深度强化学习模型,从而可以提高图书采访决策的准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为深度强化学习模型图;
图2为实验流程框架图;
图3为数据处理过程图。
具体实施方式
下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。本领域技术人员可由本说明书所揭示的内容轻易地了解本发明的其它优点与功效。本发明亦可通过其它不同的具体实例加以施行或应用,本说明书中的各项细节亦可基于不同观点与应用,在不违背本发明的精神下进行各种修饰与变更。
本实施例提供了一种基于深度强化学习的图书采访方法,流程如图2所示,本实施例包括下面步骤:
步骤S1:获取图书馆历史书单数据、历史订单数据、历史借阅记录数据,并对上述数据进行预处理。
具体来说,历史书单数据是指所有图书供应商提供过的书单信息,历史订单数据是指图书馆购买过的图书信息,历史借阅记录数据是指图书馆购入图书后每本图书的借阅记录,预处理的方式包括格式转换和统一、空值填充、去除冗余和错误等。
在一种实施方式中,步骤S1具体包括:
步骤S1.1:获取图书馆历史书单数据、历史订单数据、历史借阅记录数据;
步骤S1.2:对上述数据进行预处理,包括格式转换和统一、空值填充、去除冗余和错误等。
步骤S2:将历史书单数据与历史订单数据及历史借阅记录数据进行匹配,根据匹配结果将历史书单数据中的图书标记为未购买或购买n本后预定时间内总借阅的册次k。
具体来说,步骤S2是对历史书单数据中的图书进行标记,便于后续进行模型的训练。
在一种实施方式中,步骤S2具体包括:
步骤S2.1:将历史书单数据与历史订单数据及历史借阅记录数据进行匹配;
步骤S2.2:如果历史书单数据中包含的图书出现在历史订单数据中,则继续匹配历史借阅记录数据,将历史书单数据中包含的图书标记为购买n本后预定时间内总借阅的册次k,否则,将历史书单数据中包含图书的类别标记为未购买。
具体来说,进行数据匹配后,得到历史书单数据中包含的图书的标记,即购买n本后预定时间内总借阅的册次k或者未购买,得到的带标记的历史书单数据。
步骤S3:将历史书单数据中图书的信息转化为向量的表示形式。
具体来说,为了更好地进行训练,需要将历史书单数据中图书的信息转化为向量的表示形式。
在一种实施方式中,步骤S3具体包括:
步骤S3.1:将历史书单数据中图书的信息进行分词,再得到每个词向量;
步骤S3.2:将历史书单数据中每一本图书的信息转换为特征向量。
具体来说,对历史书单数据中图书的信息中的文本序列进行分词,然后得到对应的词向量,再通过添加其他非文本信息并处理,将图书的信息转换为特征向量。文本序列对应的词向量可以通过现有的工具生成,添加的非文本信息可以通过标准化处理得到特征向量。
步骤S4:设计用于图书采访的深度强化学习模型,确定深度强化学习训练过程中的状态、动作、奖赏、惩罚及训练参数。
在一种实施方式中,步骤S4具体包括:
步骤S4.1:根据图书采访目标及输入和输出数据维度等信息,并结合控制端的计算能力,确定用于图书采访的深度强化学习的具体模型;
步骤S4.2:设计深度强化学习模型中神经网络的结构、尺寸、神经元激活函数、损失函数及训练方法等;
步骤S4.3:根据图书馆的特征、图书采访目标及深度强化学习模型,确定训练过程中的状态、动作、奖赏和惩罚,确定神经网络的初始权值、学习率和学习率衰减值等训练参数。
具体来说,即根据图书采访目标及数据维度选择合适的深度强化学习模型,在设计用于图书采访的深度强化学习模型中,状态取决于书单中图书的信息,动作即是否购买该图书及购买的册数,奖赏和惩罚即对是否购买及购买后图书的借阅情况是否达到预期进行刻画,训练参数即根据训练目标及实际情况确定的参数。
步骤S5:用步骤S3中处理好的数据对深度强化学习模型进行训练,更新、存储深度强化学习模型参数,得到训练好的深度强化学习模型。
在一种实施方式中,步骤S5具体包括:
步骤S5.1:将历史书单数据中图书的特征向量及标记购买借阅情况转换为深度强化学习模型的状态、采取的动作及奖赏或惩罚;
步骤S5.2:使用采集到并处理好的数据对深度强化学习模型采用离线的方式进行训练,同时更新和存储深度强化学习模型参数。
具体来说,即使用历史数据作为样本,训练深度强化学习模型使其达到此前图书采访人员处理书单的决策能力。
步骤S6:将待处理书单中图书的信息转换后,输入训练好的深度强化学习模型,得到待处理图书的图书采访结果。
具体来说,待处理图书的信息即新书单中的图书,例如书名、作者、出版社、内容简介、价格等。
在一种实施方式中,步骤S6具体包括:
步骤S6.1:将待处理书单中图书的信息转换为深度强化学习模型的状态,输入深度强化学习模型;
步骤S6.2:深度强化学习模型根据训练得到的策略对输入的状态选择对应的动作。
具体来说,即使用训练好的模型模拟图书采访人员对新书单进行决策。
通过本发明的方法,只需要将图书书单传入深度强化学习模型,模型会自动输出每一本图书的决策情况,可以大大缓解图书馆图书采访人员的工作压力,也提高了效率。
下面通过一个具体示例,对本发明提供的图书采访方法进行详细介绍。
本示例中所用到的数据集是中国科学技术大学图书馆近几年的图书采购数据,包括三个部分,第一部分是各个书商提供的书单,第二部分是中国科学技术大学图书馆采购图书的订单,第三部分是中国科学技术大学图书馆图书的借阅记录。每个书商提供的图书信息格式大同小异,书籍信息均以Excel表格形式存储,本示例选取了大多数书商都遵循的信息格式作为标准。
深度强化学习模型如图1所示,整个实验流程框架如图2所示,数据处理过程如图3所示,每一本书的属性信息,即图书信息,同时也是Excel书单首行属性有ISBN、主题名、作者、定价、出版者、读者对象、内容简介等。
将历史书单数据与历史订单数据及历史借阅记录数据进行匹配,根据匹配结果将历史书单数据中的图书标记为未购买和购买n本后一定时间内借阅册次为k册次。本例中将时间定为1年,此时间可根据时间情况做改变,并不局限于1年。若购买图书n本后一年内借阅册次为k册次,则该图书的平均图书利用率α为k/n,表示一年内平均每册书被借阅的次数。
将历史书单数据中图书的信息转化为向量的表示形式,可以将书单中的文本信息进行分词,然后得到对应的词向量。本例中使用word2vec得到每个词向量,亦可以使用其他现有工具生成。此外再通过添加其他非文本信息并处理,将图书的信息转换为固定维数的特征向量,维数可以根据信息的情况灵活调整。本例中添加的信息有出版社的评级信息(由新闻出版总署公布)、评书网站评分(转化为[0,1]区间内的数值)、目前馆藏数目n0及目前图书利用率α0(馆藏无图书则均为0),添加的信息亦不局限于上述信息,可根据图书采访目标进行调整。
结合得到的特征向量,设计深度强化学习模型,本例中可以选取最简单的深度强化学习模型DQN(Deep Q-Learning),此处选择不限于DQN,亦可选用其它的深度强化学习模型。如得到的特征向量为128维,则深度强化学习的神经网络输入维度即确定为128。为了简化说明,这里简单选取不购买、购买1本、购买2本、购买3本、购买4本、购买5本、购买6本和购买7本这8种输出状态,即深度强化学习的输出维度为8。深度强化学习模型中使用的神经网络及层数亦可根据情况设计,本例中使用CNN网络,层数设计为7层,即输入层、输出层和5个隐含层。输入层的维度为128,输出层的维度为8,中间隐含层的尺寸设定为128个节点。
根据图书馆的特征、图书采访目标及深度强化学习模型,确定奖励、惩罚及训练参数。在一批数据训练结束后,计算该批数据的总平均图书利用率
Figure BDA0002719530530000071
根据图书采访目标确定一个参数β,则某图书一年内平均利用率α在区间[α′-β,α′+β]时,奖赏记为0;α>α′+β时,奖赏记为1;α<α′-β时,惩罚记为-1;若不购买某图书,则记其平均利用率α=kα′,其中k为正参数,可以视图书采访目标设定为大于1、小于1或等于1,并使用上述方式记录奖赏或惩罚。上述奖赏及惩罚亦可根据实际情况进行调整,不限于上述方式。
用处理好的数据对深度强化学习模型进行训练,更新、存储深度强化学习模型参数。将历史书单中图书信息对应的状态、动作及奖赏和惩罚输入深度强化学习模型中进行训练,并更新存储深度强化学习模型参数。
训练完成后,将待处理书单中图书的信息转换后,输入训练好的深度强化学习模型,得到待处理图书的图书采访结果,即可处理新书单。亦可将本次决策后实际得到的借阅信息作为新的延迟奖赏,用于继续更新深度强化学习模型。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,且应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

Claims (8)

1.一种基于深度强化学习的图书采访方法,其特征在于,包括:
步骤S1:获取图书馆历史书单数据、历史订单数据、历史借阅记录数据,并对上述数据进行预处理;
步骤S2:将历史书单数据与历史订单数据及历史借阅记录数据进行匹配,根据匹配结果将历史书单数据中的图书标记为未购买或购买n本后预定时间内总借阅的册次k;
步骤S3:将历史书单数据中图书的信息转化为向量的表示形式;
步骤S4:设计用于图书采访的深度强化学习模型,确定深度强化学习训练过程中的状态、动作、奖赏、惩罚及训练参数;步骤S4具体包括:
步骤S4.1:根据图书采访目标及输入和输出数据维度信息,确定用于图书采访的深度强化学习的具体模型;
步骤S4.2:设计深度强化学习模型中神经网络的结构、尺寸、神经元激活函数、损失函数及训练方法;
步骤S4.3:根据图书馆的特征、图书采访目标及深度强化学习模型,确定训练过程中的状态、动作、奖赏和惩罚,确定神经网络的初始权值、学习率和学习率衰减值;
步骤S4.3具体包括:
根据图书采访目标及数据维度选择合适的深度强化学习模型,在设计用于图书采访的深度强化学习模型中,状态取决于书单中图书的信息,动作即是否购买该图书及购买的册数,奖赏和惩罚即对是否购买及购买后图书的借阅情况是否达到预期进行刻画,训练参数即根据训练目标及实际情况确定的参数;
步骤S5:用步骤S3中处理好的数据对深度强化学习模型进行训练,更新、存储深度强化学习模型参数,得到训练好的深度强化学习模型;
步骤S6:将待处理书单中图书的信息转换后,输入训练好的深度强化学习模型,得到待处理图书的采购推荐结果。
2.如权利要求1所述的一种基于深度强化学习的图书采访方法,其特征在于,步骤S1具体包括:
步骤S1.1:获取图书馆历史书单数据、历史订单数据、历史借阅记录数据;
步骤S1.2:对上述数据进行预处理,包括格式转换和统一、空值填充、去除冗余和错误。
3.如权利要求1所述的一种基于深度强化学习的图书采访方法,其特征在于,步骤S2具体包括:
步骤S2.1:将历史书单数据与历史订单数据及历史借阅记录数据进行匹配;
步骤S2.2:如果历史书单数据中包含的图书出现在历史订单数据中,则继续匹配历史借阅记录数据,将历史书单数据中包含的图书标记为购买n本后预定时间内总借阅册次k,否则,将历史书单数据中包含图书的类别标记为未购买。
4.如权利要求1所述的一种基于深度强化学习的图书采访方法,其特征在于,步骤S3具体包括:
步骤S3.1:将历史书单数据中图书的信息进行分词,再得到每个词向量;
步骤S3.2:将历史书单数据中每一本图书的信息转换为特征向量。
5.如权利要求1所述的一种基于深度强化学习的图书采访方法,其特征在于,步骤S5具体包括:
步骤S5.1:将历史书单数据中图书的特征向量及标记购买借阅情况转换为深度强化学习模型的状态、采取的动作及奖赏或惩罚;
步骤S5.2:使用采集到并处理好的数据对深度强化学习模型采用离线的方式进行训练,同时更新和存储深度强化学习模型参数。
6.如权利要求1所述的一种基于深度强化学习的图书采访方法,其特征在于,步骤S6具体包括:
步骤S6.1:将待处理书单中图书的信息转换为深度强化学习模型的状态,输入深度强化学习模型;
步骤S6.2:深度强化学习模型根据训练得到的策略对输入的状态选择对应的动作。
7.如权利要求4所述的一种基于深度强化学习的图书采访方法,其特征在于,步骤S3.1中,历史书单数据中图书的信息包括图书的题目、作者、出版社、主题、简介。
8.如权利要求4所述的一种基于深度强化学习的图书采访方法,其特征在于,步骤S3.1中,对历史书单数据中图书信息进行分词并得到词向量的方法为:
将全部图书信息使用分词工具进行分词后作为词向量生成工具的语料库,再使用词向量生成工具将图书信息转换为预定维度的词向量。
CN202011083599.1A 2020-10-12 2020-10-12 一种基于深度强化学习的图书采访方法 Active CN112241785B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011083599.1A CN112241785B (zh) 2020-10-12 2020-10-12 一种基于深度强化学习的图书采访方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011083599.1A CN112241785B (zh) 2020-10-12 2020-10-12 一种基于深度强化学习的图书采访方法

Publications (2)

Publication Number Publication Date
CN112241785A CN112241785A (zh) 2021-01-19
CN112241785B true CN112241785B (zh) 2022-09-06

Family

ID=74168646

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011083599.1A Active CN112241785B (zh) 2020-10-12 2020-10-12 一种基于深度强化学习的图书采访方法

Country Status (1)

Country Link
CN (1) CN112241785B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112948544B (zh) * 2021-02-25 2022-03-29 安徽农业大学 一种基于深度学习与质量影响的图书检索方法
CN116562927A (zh) * 2023-07-10 2023-08-08 北京人天书店集团股份有限公司 一种基于大数据的图书采访数据生成方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109255443A (zh) * 2018-08-07 2019-01-22 阿里巴巴集团控股有限公司 训练深度强化学习模型的方法及装置
CN110751524A (zh) * 2019-10-22 2020-02-04 电子科技大学 一种基于强化学习的优惠券智能派送方法
CN111080408A (zh) * 2019-12-06 2020-04-28 广东工业大学 一种基于深度强化学习的订单信息处理方法
CN111125338A (zh) * 2019-11-08 2020-05-08 中山赛伯坦智能科技有限公司 一种基于卷积神经网络的图书采购推荐方法及装置
CN111382977A (zh) * 2020-04-10 2020-07-07 郑州工程技术学院 基于用户借阅行为的图书采购方法、装置及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180374138A1 (en) * 2017-06-23 2018-12-27 Vufind Inc. Leveraging delayed and partial reward in deep reinforcement learning artificial intelligence systems to provide purchase recommendations

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109255443A (zh) * 2018-08-07 2019-01-22 阿里巴巴集团控股有限公司 训练深度强化学习模型的方法及装置
CN110751524A (zh) * 2019-10-22 2020-02-04 电子科技大学 一种基于强化学习的优惠券智能派送方法
CN111125338A (zh) * 2019-11-08 2020-05-08 中山赛伯坦智能科技有限公司 一种基于卷积神经网络的图书采购推荐方法及装置
CN111080408A (zh) * 2019-12-06 2020-04-28 广东工业大学 一种基于深度强化学习的订单信息处理方法
CN111382977A (zh) * 2020-04-10 2020-07-07 郑州工程技术学院 基于用户借阅行为的图书采购方法、装置及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Dynamic Pricing and Energy Consumption Scheduling With Reinforcement Learning;Byung-Gook Kim等;《 IEEE Transactions on Smart Grid》;20151106;第2187-2198页 *
人工智能图书采访模式设计及流程运维;王红等;《图书馆学研究》;20180531;第71-77页 *

Also Published As

Publication number Publication date
CN112241785A (zh) 2021-01-19

Similar Documents

Publication Publication Date Title
CN108334638B (zh) 基于长短期记忆神经网络与兴趣迁移的项目评分预测方法
CN106997375A (zh) 基于深度学习的客服回复推荐方法
CN112241785B (zh) 一种基于深度强化学习的图书采访方法
CN115641097B (zh) 基于云平台的非标准机械加工协同制造管理方法及系统
CN112990284B (zh) 一种基于XGBoost算法的个体出行行为预测方法、系统及终端
CN109670191A (zh) 机器翻译的校准优化方法、装置与电子设备
CN110489749B (zh) 一种智能办公自动化系统的业务流程优化方法
CN111309887B (zh) 一种训练文本关键内容提取模型的方法和系统
CN116541911B (zh) 一种基于人工智能的包装设计系统
CN113344615A (zh) 一种基于gbdt和dl融合模型的营销活动预测方法
CN112614011A (zh) 电力配网物资需求预测方法和装置、存储介质及电子设备
CN111221881B (zh) 用户特征数据合成方法、装置及电子设备
CN115526236A (zh) 一种基于多模态对比学习的文本网络图分类方法
CN115310722A (zh) 一种基于数据统计的农产品价格预测方法
Müller et al. Scientific machine and deep learning investigations of the local buckling behaviour of hollow sections
CN107368895A (zh) 一种结合机器学习和自动规划的动作知识提取方法
CN107491841A (zh) 非线性优化方法及存储介质
CN116503158A (zh) 基于数据驱动的企业破产风险预警方法、系统及装置
CN114969511A (zh) 基于分片的内容推荐方法、设备及介质
CN115994459A (zh) 一种海量电网基建项目建设时序优化方法、系统及设备
CN115689758A (zh) 一种股票预测模型构建方法、系统及其应用
CN115393098A (zh) 理财产品信息推荐方法及装置
Ivaschenko et al. Semantic analysis implementation in engineering enterprise content management systems
CN112348275A (zh) 一种基于在线增量学习的区域生态环境变化预测方法
CN111160662A (zh) 一种风险预测方法、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant