CN110609960B - 学习资源推荐方法、装置、数据处理设备及存储介质 - Google Patents

学习资源推荐方法、装置、数据处理设备及存储介质 Download PDF

Info

Publication number
CN110609960B
CN110609960B CN201910911097.4A CN201910911097A CN110609960B CN 110609960 B CN110609960 B CN 110609960B CN 201910911097 A CN201910911097 A CN 201910911097A CN 110609960 B CN110609960 B CN 110609960B
Authority
CN
China
Prior art keywords
learning
matrix
data
decomposition
preference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910911097.4A
Other languages
English (en)
Other versions
CN110609960A (zh
Inventor
易宝林
沈筱譞
刘三女牙
张维
刘海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central China Normal University
Original Assignee
Central China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central China Normal University filed Critical Central China Normal University
Priority to CN201910911097.4A priority Critical patent/CN110609960B/zh
Publication of CN110609960A publication Critical patent/CN110609960A/zh
Application granted granted Critical
Publication of CN110609960B publication Critical patent/CN110609960B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请提供的学习资源推荐方法、装置、数据处理设备及存储介质,应用于数据处理领域。该方法通过获取能被所述机器学习模型处理的编码数据,将该编码数据输入到预先训练好的机器学习模型中,获得预设的偏好矩阵的第一分解矩阵以及第二分解矩阵中各参数的概率密度函数。根据所述第一分解矩阵以及第二分解矩阵中各参数的概率密度函数获得目标学习人员对偏好矩阵中未学习过的学习资源的期望兴趣度。根据期望兴趣度从所述未学习过的学习资源中为所述目标学习人员推荐目标学习资源。由于该第一分解矩阵以及第二分解矩阵中各参数为概率密度函数,使得可以根据具体的需求选取不同的参数,获得不同的期望兴趣度,继而提高了推荐学习资源的灵活度。

Description

学习资源推荐方法、装置、数据处理设备及存储介质
技术领域
本申请涉及数据处理领域,具体而言,涉及一种学习资源推荐方法、装置、数据处理设备及存储介质。
背景技术
互联网规模和覆盖面的迅速增长带来了信息超载的问题。在此背景下,推荐系统变得越来越流行。推荐系统被用于很多场景,例如:电影、音乐、新闻、研究论文等。在线教育领域也采用推荐系统去提升学生的学习效率和体验度,并为学生提供个性化的学习服务。
目前,推荐系统采用的方法有很多种类,这些方法主要可分为两大类:协同过滤方法和基于内容的推荐方法。其中,协同过滤的基本思想是:在日常生活中,我们往往会利用好朋友的推荐来进行一些选择。基于该思想,找到与当前用户相似(比如兴趣相似)的其他用户,并结合相似用户的评价记录进行推荐。因此,目前的推荐系统给用户做推荐时,严重依赖于相似用户的喜好,导致推荐的结果往往偏向于某个集中的范围。然而,用户的喜好是存在波动,偶尔会表现出不同的喜好行为。现有的推荐系统普遍存在灵活性较差的问题,不能有效地处理用户偶尔表现出的不同喜好行为。
发明内容
为了克服现有技术中的至少一个不足,本申请的目的之一在于提供一种学习资源推荐方法,应用于数据处理设备,所述数据处理设备预设有训练好的机器学习模型,所述方法包括:
获取能被所述机器学习模型处理的编码数据,所述编码数据用于表征目标学习人员与历史学习资源之间的关系;
将所述编码数据输入到所述训练好的机器学习模型中,获得预设的偏好矩阵的第一分解矩阵以及第二分解矩阵中各参数的概率密度函数,所述偏好矩阵为所述第一分解矩阵与所述第二分解矩阵的乘积结果,所述偏好矩阵记录有不同学习人员对各自历史学习资源的偏好情况;
根据所述第一分解矩阵以及第二分解矩阵中各参数的概率密度函数获得该目标学习人员对该偏好矩阵中未学习过的学习资源的期望兴趣度;
根据所述期望兴趣度从所述未学习过的学习资源中为所述目标学习人员推荐目标学习资源。
可选地,所述目标学习人员与历史学习资源之间的关系包括高维度、高稀疏度的数据以及结构化的数据,所述获取能被所述机器学习模型处理的编码数据的步骤包括:
通过网络嵌入算法对所述高维度、高稀疏度的数据进行编码获得第一关系编码;
通过降维算法对所述结构化的数据进行编码获得第二关系编码;
将所述第一关系编码与所述第二关系编码进行组合获得所述编码数据。
可选地,所述高维度、高稀疏度的数据包括该目标学习人员的历史学习行为数据,所述结构化的数据包括该目标学习人员与学习相关的属性数据。
可选地,所述训练好的机器学习模型包括学习人员模型和学习资源模型,所述将所述编码数据输入到所述训练好的机器学习模型中,获得偏好矩阵的第一分解矩阵以及第二分解矩阵中各参数的概率密度函数的步骤包括:
通过所述学习人员模型获得所述第一分解矩阵各参数的概率密度函数;
通过所述学习资源模型获得所述第二分解矩阵中各参数的概率密度函数。
可选地,所述方法还包括:
获取能被所述机器学习模型处理的样本编码数据;
将所述样本编码数据输入到未训练好的机器学习模型中;
基于预设损失函数,对所述未训练好的机器学习模型的权值进行迭代调整,直到所述预设损失函数的输出小于预设阈值,获得所述训练好的机器学习模型。
可选地,所述方法还包括:
每间隔预设时间,获取能被所述机器学习模型处理的新的样本编码数据对所述训练好的机器学习模型进行调整。
本申请实施例的另一目的在于提供一种学习资源推荐装置,应用于数据处理设备,所述数据处理设备预设有训练好的机器学习模型,该学习资源推荐装置包括编码获取模块、矩阵分解模块、期望计算模块和资源推荐模块;
所述编码获取模块包括获取能被所述机器学习模型处理的编码数据,所述编码数据用于表征目标学习人员与历史学习资源之间的关系;
所述矩阵分解模块用于将所述编码数据输入到所述训练好的机器学习模型中,获得预设的偏好矩阵的第一分解矩阵以及第二分解矩阵中各参数的概率密度函数,所述偏好矩阵为所述第一分解矩阵与所述第二分解矩阵的乘积结果,所述偏好矩阵记录有不同学习人员对各自历史学习资源的偏好情况;
所述期望计算模块用于根据所述第一分解矩阵以及第二分解矩阵中各参数的概率密度函数获得该目标学习人员对该偏好矩阵中未学习过的学习资源的期望兴趣度;
所述资源推荐模块用于根据所述期望兴趣度从所述未学习过的学习资源中为所述目标学习人员推荐目标学习资源。
可选地,所述目标学习人员与历史学习资源之间的关系包括高维度、高稀疏度的数据以及结构化的数据,所述编码获取模块通过以下方式获得所述编码数据:
通过网络嵌入算法对所述高维度、高稀疏度的数据进行编码获得第一关系编码;
通过降维算法对所述结构化的数据进行编码获得第二关系编码;
将所述第一关系编码与所述第二关系编码进行组合获得所述编码数据。
本申请实施例的另一目的在于提供一种数据处理设备,包括处理器和存储器,所述存储器存储有能够被所述处理器执行的机器可执行指令,所述处理器可执行所述机器可执行指令以实所述学习资源推荐方法。
本申请实施例的另一目的在于提供一种存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现所述学习资源推荐方法。
相对于现有技术而言,本申请具有以下有益效果:
本申请实施例提供的学习资源推荐方法、装置、数据处理设备及存储介质,应用于数据处理领域。通过机器学习模型获得偏好矩阵的第一分解矩阵以及第二分解矩阵中各参数的概率密度函数。基于该第一分解矩阵以及第二分解矩阵中各参数的概率密度函数,可根据具体的实际需求选取不同的数据作为第一分解矩阵以及第二分解的实际参数。进而将第一分解矩阵与第二分解矩阵相乘可获得不同的偏好矩阵。以此获得目标学习人员对该偏好矩阵中未学习过的学习资源的不同期望兴趣度,继而提高了推荐学习资源的灵活度。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的数据处理设备的结构示意图;
图2为本申请实施例提供的学习资源推荐方法的步骤流程图;
图3为本申请实施例提供的偏好矩阵的示意图;
图4为本申请实施例提供的第一分解矩阵与第二分解矩阵的示意图;
图5为本申请实施例提供的学习资源推荐装置的结构示意图。
图标:100-数据处理设备;110-学习资源推荐装置;130-处理器;120-存储器;1101-编码获取模块;1102-矩阵分解模块;1103-期望计算模块;1104-资源推荐模块。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
在本申请的描述中,需要说明的是,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
请参照图1,图1为本申请实施例提供的数据处理设备100的结构示意图。所述数据处理设备100预设有训练好的机器学习模型,该数据处理设备100包括学习资源推荐装置110、存储器120以及处理器130。
所述存储器120、处理器130以及其他各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。所述学习资源推荐装置110包括至少一个可以软件或固件(firmware)的形式存储于所述存储器120中或固化在所述数据处理设备100的操作系统(Operating System,OS)中的软件功能模块。所述处理器130用于执行所述存储器120中存储的可执行模块,例如所述学习资源推荐装置110所包括的软件功能模块及计算机程序等。
其中,所述存储器120可以是,但不限于,随机存取存储器(Random AccessMemory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(ProgrammableRead-Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read-OnlyMemory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-OnlyMemory,EEPROM)等。其中,存储器120用于存储程序,所述处理器130在接收到执行指令后,执行所述程序。
所述处理器130可能是一种集成电路芯片,具有信号的处理能力。上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
请参照图2,图2为本申请实施例提供的应用于图1所示的数据处理设备100的一种学习资源推荐方法的流程图,以下将对所述方法包括各个步骤进行详细阐述。
步骤S100,获取能被所述机器学习模型处理的编码数据,所述编码数据用于表征目标学习人员与历史学习资源之间的关系。
可选地,该数据处理设备100收集并统计关于该目标学习人员与学习资源的各类信息。其中,关于该目标学习人员与学习资源的各类信息可以大致分为两类信息,包括高维度、高稀疏度的数据以及结构化的数据。
所述高维度、高稀疏度的数据包括该目标学习人员的历史学习行为。例如,该目标学习人员购买了计算机相关的书籍;更具体一点,可以是该目标学习人员购买了机器学习类的书籍;还可以是该目标人员浏览了某个计算机编程语言的课程等。
该结构化的数据包括该目标学习人员与学习相关的属性数据。例如,该目标学习人员的专业、年龄以及各学科考试成绩。
值得说明的是,上述目标学习人员与学习资源的各类信息不仅限于上述例子,还可以根据实际需求包括其他数据。例如,可以在该目标学习人员的历史学习行为和该目标学习人员与学习相关的属性数据的基础上添加该目标学习人员的社交关系信息等。
由于所述高维度、高稀疏度的数据以及结构化的数据为高层语义信息,即对人类而言是比较容易被理解的信息,但是并不能被计算机直接处理。因此,需要对所述高维度、高稀疏度的数据以及结构化的数据进行编码。
其中,针对高维度、高稀疏度的数据,该数据处理设备100可以通过网络嵌入算法对所述高维度、高稀疏度的数据其进行编码处理,以获得能够被所述机器学习模型处理第一关系编码。
针对结构化的数据,该数据处理设备100可以通过降维算法所述结构化的数据进行编码处理,以获得能够被所述机器学习模型处理第二关系编码。所述降维算法包括one-hot编码、主成分分析法以及自编码器等方法。进一步地,该数据处理设备100将所述第一关系编码与所述第二关系编码进行组合获得所述编码数据。
值得说明的是,获取表征目标学习人员与历史学习资源关系的编码数据还可以包括其他方法,只要能将表征目标学习人员与历史学习资源关系的信息转化成机器学习模型处理的编码数据即可。
例如,表示目标学习人员与学习资源关系的编码数据可表示为:
Figure BDA0002214759020000081
式中,设IUi与IVj表示目标学习人员与学习资源关系的编码数据,θui与θvj表示目标学习人员的历史学习行为的编码数据;ξui与ξvj表示在目标学习人员与学习相关的属性数据的编码数据;
Figure BDA0002214759020000082
表示组合操作;编码数据不仅限于上述两种,可以根据情况进行扩展。
以高维度、高稀疏度的数据为例,该数据处理设备100通过网络嵌入算法对其进行处理之前,将θui与θvj进行随机初始化之后,利用目标学习人员与学习资源是否发生交互进行概率建模所获得的损失函数,通过梯度下降等优化算法进行训练,最终获得表示目标学习人员的历史学习行为的编码数据。其中,该损失函数可表示为:
Figure BDA0002214759020000083
式中,log表示对数运算,G表示学习人员与学习资源交互行为的历史数据,Sneg表示学习人员与学习资源未发生交互行为的历史数据,h(.)表示Sigmoid函数。θui与θvj表示目标学习人员与学习资源关系的编码数据(例如,目标学习人员的历史学习行为的编码数据);T为矩阵转置运算;Eui,vj表示学习人员i对学习资源j的交互行为。
步骤S200,将所述编码数据输入到所述训练好的机器学习模型中,获得预设的偏好矩阵的第一分解矩阵以及第二分解矩阵中各参数的概率密度函数,所述偏好矩阵为所述第一分解矩阵与所述第二分解矩阵的乘积结果,所述偏好矩阵记录有不同学习人员对各自历史学习资源的偏好情况。
请参照图3,下面就结合图3对所述偏好矩阵进行详细说明。该数据处理设备100获取不同学习人员的对各自历史学习资源的偏好情况。
其中,人员A之前学习过资源A和资源C,未学习过资源B和资源D,且对资源A的偏好程度为R11,对资源C的偏好程度为R13。
人员B之前学习过资源C和资源D,未学习过资源C和资源B,且对资源C的偏好程度为R23,对资源D的偏好程度为R24。
人员C之前学习过资源A和资源D,未学习过资源B和资源C,且对资源A的偏好程度为R31,且对资源D的偏好程度为R34。
该数据处理设备100将上述不同学习人员的对各自历史学习资源的偏好情况记录成如图3所示的偏好矩阵,并对该偏好矩阵进行分解,获得如图4所示的第一矩阵和第二矩阵。其中,第一矩阵和第二矩阵相乘可获得所述偏好矩阵。相应的,即可获得人员A、人员B以及人员C对未学习过的资源的偏好程度。
值得说明的是,该数据处理设备100对偏好矩阵进行分解的过程中,需要保证第一矩阵和第二矩阵相乘之后,所述人员A、人员B和人员C各自对历史学习资源的偏好程度不变。即R11、R13、R23、R24、R31以及R34保持不变。
可选地,本申请实施例通过训练好的机器学习模型对该偏好矩阵进行分解,获得预设偏好矩阵的第一分解矩阵以及第二分解矩阵中各参数的均值和方差。由于,所述第一分解矩阵以及所述第二分解矩阵中的各参数的数值均相互独立且符合正态分布,因此,通过所述第一分解矩阵以及所述第二分解矩阵中各参数的均值和方差可获得所述第一分解矩阵以及所述第二分解矩阵中各参数的概率密度函数。
可选地,该训练好的机器学习模型包括学习人员模型和学习资源模型。其中,该数据处理设备100通过所述学习人员模型获得所述第一分解矩阵各参数的概率密度函数;通过所述学习资源模型获得所述第二分解矩阵中各参数的概率密度函数。
可选地,本申请实施例还包括对未训练好的机器学习模型的训练步骤。具体的,该数据处理设备100获取能被所述机器学习模型处理的样本编码数据。其中,所述样本编码数据为多个学习人员分别与各自历史学习资源之间的关系的编码数据。该数据处理设备100将所述样本编码数据输入到未训练好的机器学习模型中;基于预设损失函数,对所述未训练好的机器学习模型的权值进行迭代调整,直到所述预设损失函数的输出小于预设阈值,获得所述训练好的机器学习模型。
可选地,设FU(IuiU)与FV(IvjV)分别表示训练好的机器学习模型对第一分解矩阵各参数的概率密度函数以及第二分解矩阵中各参数的概率密度函数。其中,IUi与IVj表示目标学习人员与学习资源关系的编码数据,ΘU与ΘV分别表示深度神经网络中的参数,FU(·)与FV(·)的具体形式可以根据实际需求进行构建。例如:多层感知机、卷积神经网络以及时间递归神经网络等。
可选地,该机器学习模型的预设损失函数可表示为:
Figure BDA0002214759020000101
式中,GUi与GVj表示学习者与学习资源的全局影响因子。例如,若某个学习资源浏览的人数较多,属于比较热门的学习资源,相应的该学习资源的全局影响因子就越大。λ为该损失函数各部分的权重。s为第一分解矩阵和第二分解矩阵的维度;rij为偏好矩阵中用于表示学习人员对学习资源的偏好情况的参数值;上标T表示转置,1ij是指示函数,表示在训练集中学习者i是否浏览过学习资源j,浏览过则值为1,否则为0;其中
Figure BDA0002214759020000102
表示服从学习人员以及学习资源概率密度函数的特征采样结果,该特征采样结果可表示为:
Figure BDA0002214759020000111
式中,μU(Iui),δU(Iui)分别表示第一分解矩阵的均值与方差,μV(Ivj)和δV(Ivj)分别表示第二分解矩阵中各参数的均值与方差,ε(l)表示服从多元正态分布的随机数。
步骤S300,根据所述第一分解矩阵以及第二分解矩阵中各参数的概率密度函数获得该目标学习人员对该偏好矩阵中未学习过的学习资源的期望兴趣度。
步骤S400,根据所述期望兴趣度从所述未学习过的学习资源中为所述目标学习人员推荐目标学习资源。
可选地,所述期望兴趣度可以通过如下式子进行表示:
Figure BDA0002214759020000112
式中,FU(IuiU)与FV(IvjV)表示训练好的机器学习模型对第一分解矩阵各参数的概率密度函数以及第二分解矩阵中各参数的概率密度函数;GUi与GVj表示学习人员与学习资源的全局影响因子;U*,V*分别表示第一分解矩阵和第二分解矩阵中各参数的变量值。
例如,若某个学习资源浏览的人数较多,属于比较热门的学习资源,相应的该学习资源的全局影响因子就越大。
该数据处理设备100根据所述第一分解矩阵各参数的概率密度函数获得该第一分解矩阵各参数的数学期望,作为该第一分解矩阵的实际参数;根据所述第二分解矩阵各参数的概率密度函数获得该第二分解矩阵各参数的数学期望,作为该第一分解矩阵的实际参数;根据所述第一分解矩阵的实际参数以及所述第二分解矩阵的实际参数进行相乘,获得所述偏好矩阵。
该数据处理设备100根据所述偏好矩阵获得该目标学习人员对该偏好矩阵中未学习过的学习资源的期望兴趣度;并根据所述期望兴趣度从所述未学习过的学习资源中为所述目标学习人员推荐目标学习资源。
请再次参照图4,在一种可能的实施方式中,该数据处理设备100通过该机器学习模型获得如图4所示的第一分解矩阵各参数以及第二分解矩阵各参数的概率密度函数。
例如,人员A对类别A、类别B以及类别C的偏好程度P11、P12以及P13分别服从正态分布。该数据处理设备100通过该机器学习模型所获得的为偏好程度P11、P12以及P13的概率密度函数。
该数据处理设备100根据所述第一分解矩阵各参数的概率密度函数计算获得第一分解矩阵各参数的数学期望,作为第一分解矩阵的实际参数;根据第二分解矩阵各参数的概率密度函数计算获得第二分解矩阵各参数的数学期望,作为第二分解矩阵的实际参数。
例如,P11、P12以及P13分别服从正态分布,通过P11、P12以及P13的概率密度函数可获得其对应的数学期望。
请再次参照图2,在获得第一分解矩阵以及第二分解矩阵中各参数的数学期望后,该数据处理设备100将第一分解矩阵以及第二分解矩阵相乘,以获得所述偏好矩阵,进而获得人员A对资源B以及资源D的期望兴趣度。如此,该数据处理设备100根据人员A对资源B以及资源D的期望兴趣度,对人员A推荐学习资源。
可选地,请再次参照图4,该数据处理设备100根据所示第一分解矩阵以及第二分解矩中各参数的概率密度函数,选取所述各参数的最大值作为所述第一分解矩以及所述第二分解矩的实际参数;将包含最大值的第一分解矩阵以及第二分解矩阵相乘,以获得所述偏好矩阵,进而获得人员A对资源B以及资源D的期望兴趣度。如此,该数据处理设备100根据人员A对资源B以及资源D的期望兴趣度,对人员A推荐学习资源。
如此,该数据处理设备100通过所述机器学习模型所获得的为第一分解矩阵以及第二分解矩阵中各参数的概率密度函数。因此,基于该概率密度函数可根据实际需求选取不同的值作为所述第一分解矩阵以及第二分解矩阵的实际参数,以此获得目标学习人员对该偏好矩阵中未学习过的学习资源的不同期望兴趣度,继而提高了推荐学习资源的灵活度。
可选地,该数据处理设备100每间隔预设时间(如,一周或者一个月),获取能被所述机器学习模型处理的新的样本编码数据对所述训练好的机器学习模型进行调整。
如此,使得该机器学习模型能够及时更新,符合学习人员的偏好随外部环境影响而不断变化的实际情况。
请参照图5,本申请实施例还提供一种学习资源推荐装置110,应用于数据处理设备100。所述数据处理设备100预设有训练好的机器学习模型。该学习资源推荐装置110包括至少一个可以软件形式存储于存储器中的功能模块。从功能上划分,该学习资源推荐装置110包括编码获取模块1101、矩阵分解模块1102、期望计算模块1103和资源推荐模块1104。
所述编码获取模块1101包括获取能被所述机器学习模型处理的编码数据,所述编码数据用于表征目标学习人员与历史学习资源之间的关系。
在本实施例中,该编码获取模块1101用于执行图2中的步骤S100,关于该编码获取模块1101的详细描述可以参考步骤S100的详细描述。
所述矩阵分解模块1102用于将所述编码数据输入到所述训练好的机器学习模型中,获得预设的偏好矩阵的第一分解矩阵以及第二分解矩阵中各参数的概率密度函数,所述偏好矩阵为所述第一分解矩阵与所述第二分解矩阵的乘积结果,所述偏好矩阵记录有不同学习人员对各自历史学习资源的偏好情况。
在本实施例中,该矩阵分解模块1102用于执行图2中的步骤S200,关于该矩阵分解模块1102的详细描述可以参考步骤S200的详细描述。
所述期望计算模块1103用于根据所述第一分解矩阵以及第二分解矩阵中各参数的概率密度函数获得该目标学习人员对该偏好矩阵中未学习过的学习资源的期望兴趣度。
在本实施例中,该期望计算模块1103用于执行图2中的步骤S300,关于该期望计算模块1103详细描述可以参考步骤S300的详细描述。
所述资源推荐模块1104用于根据所述期望兴趣度从所述未学习过的学习资源中为所述目标学习人员推荐目标学习资源。
在本实施例中,该资源推荐模块1104用于执行图2中的步骤S400,关于该资源推荐模块1104的详细描述可以参考步骤S400的详细描述。
可选地,所述目标学习人员与历史学习资源之间的关系包括高维度、高稀疏度的数据以及结构化的数据,所述编码获取模块1101通过以下方式获得所述编码数据:
该数据处理设备100通过网络嵌入算法对所述高维度、高稀疏度的数据进行编码获得第一关系编码;通过降维算法对所述结构化的数据进行编码获得第二关系编码;将所述第一关系编码与所述第二关系编码进行组合获得所述编码数据。
本申请实施例的另一目的在于提供一种数据处理设备100,包括处理器130和存储器120,所述存储器120存储有能够被所述处理器130执行的机器可执行指令,所述处理器130可执行所述机器可执行指令以实所述学习资源推荐方法。
本申请实施例还提供一种存储介质,其上存储有计算机程序,所述计算机程序被处理器130执行时实现所述学习资源推荐方法。
综上所述,本申请实施例提供的学习资源推荐方法、装置、数据处理设备及存储介质,应用于数据处理领域。通过机器学习模型获得偏好矩阵的第一分解矩阵以及第二分解矩阵中各参数的概率密度函数。基于该第一分解矩阵以及第二分解矩阵中各参数的概率密度函数,可根据具体的实际需求选取不同的数据作为第一分解矩阵以及第二分解的实际参数。进而将第一分解矩阵与第二分解矩阵相乘可获得不同的偏好矩阵。以此获得目标学习人员对该偏好矩阵中未学习过的学习资源的不同期望兴趣度,继而提高了推荐学习资源的灵活度。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述,仅为本申请的各种实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。

Claims (10)

1.一种学习资源推荐方法,其特征在于,应用于数据处理设备,所述数据处理设备预设有训练好的机器学习模型,所述方法包括:
获取能被所述机器学习模型处理的编码数据,所述编码数据用于表征目标学习人员与历史学习资源之间的关系;
将所述编码数据输入到所述训练好的机器学习模型中,获得预设的偏好矩阵的第一分解矩阵以及第二分解矩阵中各参数的概率密度函数,所述偏好矩阵为所述第一分解矩阵与所述第二分解矩阵的乘积结果,所述偏好矩阵记录有不同学习人员对各自历史学习资源的偏好情况;
根据所述第一分解矩阵以及第二分解矩阵中各参数的概率密度函数获得该目标学习人员对该偏好矩阵中未学习过的学习资源的期望兴趣度,其中,所述期望兴趣度表示所述目标学习人员对所述未学习过的学习资源的喜好程度;
根据所述期望兴趣度从所述未学习过的学习资源中为所述目标学习人员推荐目标学习资源。
2.根据权利要求1所述的学习资源推荐方法,其特征在于,所述目标学习人员与历史学习资源之间的关系包括高维度、高稀疏度的数据以及结构化的数据,所述获取能被所述机器学习模型处理的编码数据的步骤包括:
通过网络嵌入算法对所述高维度、高稀疏度的数据进行编码获得第一关系编码;
通过降维算法对所述结构化的数据进行编码获得第二关系编码;
将所述第一关系编码与所述第二关系编码进行组合获得所述编码数据。
3.根据权利要求2所述的学习资源推荐方法,其特征在于,所述高维度、高稀疏度的数据包括该目标学习人员的历史学习行为数据,所述结构化的数据包括该目标学习人员与学习相关的属性数据。
4.根据权利要求1所述的学习资源推荐方法,其特征在于,所述训练好的机器学习模型包括学习人员模型和学习资源模型,所述将所述编码数据输入到所述训练好的机器学习模型中,获得偏好矩阵的第一分解矩阵以及第二分解矩阵中各参数的概率密度函数的步骤包括:
通过所述学习人员模型获得所述第一分解矩阵各参数的概率密度函数;
通过所述学习资源模型获得所述第二分解矩阵中各参数的概率密度函数。
5.根据权利要求1所述的学习资源推荐方法,其特征在于,所述方法还包括:
获取能被所述机器学习模型处理的样本编码数据;
将所述样本编码数据输入到未训练好的机器学习模型中;
基于预设损失函数,对所述未训练好的机器学习模型的权值进行迭代调整,直到所述预设损失函数的输出小于预设阈值,获得所述训练好的机器学习模型。
6.根据权利要求1所述的学习资源推荐方法,其特征在于,所述方法还包括:
每间隔预设时间,获取能被所述机器学习模型处理的新的样本编码数据对所述训练好的机器学习模型进行调整。
7.一种学习资源推荐装置,其特征在于,应用于数据处理设备,所述数据处理设备预设有训练好的机器学习模型,该学习资源推荐装置包括编码获取模块、矩阵分解模块、期望计算模块和资源推荐模块;
所述编码获取模块包括获取能被所述机器学习模型处理的编码数据,所述编码数据用于表征目标学习人员与历史学习资源之间的关系;
所述矩阵分解模块用于将所述编码数据输入到所述训练好的机器学习模型中,获得预设的偏好矩阵的第一分解矩阵以及第二分解矩阵中各参数的概率密度函数,所述偏好矩阵为所述第一分解矩阵与所述第二分解矩阵的乘积结果,所述偏好矩阵记录有不同学习人员对各自历史学习资源的偏好情况;
所述期望计算模块用于根据所述第一分解矩阵以及第二分解矩阵中各参数的概率密度函数获得该目标学习人员对该偏好矩阵中未学习过的学习资源的期望兴趣度,其中,所述期望兴趣度表示所述目标学习人员对所述未学习过的学习资源的喜好程度;
所述资源推荐模块用于根据所述期望兴趣度从所述未学习过的学习资源中为所述目标学习人员推荐目标学习资源。
8.根据权利要求7所述的学习资源推荐装置,其特征在于,所述目标学习人员与历史学习资源之间的关系包括高维度、高稀疏度的数据以及结构化的数据,所述编码获取模块通过以下方式获得所述编码数据:
通过网络嵌入算法对所述高维度、高稀疏度的数据进行编码获得第一关系编码;
通过降维算法对所述结构化的数据进行编码获得第二关系编码;
将所述第一关系编码与所述第二关系编码进行组合获得所述编码数据。
9.一种数据处理设备,其特征在于,包括处理器和存储器,所述存储器存储有能够被所述处理器执行的机器可执行指令,所述处理器可执行所述机器可执行指令以实现权利要求1-6任一项所述的学习资源推荐方法。
10.一种存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-6中任一项所述的学习资源推荐方法。
CN201910911097.4A 2019-09-25 2019-09-25 学习资源推荐方法、装置、数据处理设备及存储介质 Active CN110609960B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910911097.4A CN110609960B (zh) 2019-09-25 2019-09-25 学习资源推荐方法、装置、数据处理设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910911097.4A CN110609960B (zh) 2019-09-25 2019-09-25 学习资源推荐方法、装置、数据处理设备及存储介质

Publications (2)

Publication Number Publication Date
CN110609960A CN110609960A (zh) 2019-12-24
CN110609960B true CN110609960B (zh) 2022-02-22

Family

ID=68893421

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910911097.4A Active CN110609960B (zh) 2019-09-25 2019-09-25 学习资源推荐方法、装置、数据处理设备及存储介质

Country Status (1)

Country Link
CN (1) CN110609960B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111460249B (zh) * 2020-02-24 2022-09-09 桂林电子科技大学 一种基于学习者偏好建模的个性化学习资源推荐方法
CN112085158A (zh) * 2020-07-21 2020-12-15 西安工程大学 一种基于堆栈降噪自编码器的图书推荐方法
CN112001656A (zh) * 2020-09-01 2020-11-27 北京弘远博学科技有限公司 基于员工历史培训信息针对性进行培训课推荐的方法
CN112559874B (zh) * 2020-12-21 2023-05-16 南京康裕数字科技有限公司 基于智慧教育的用户推荐方法
CN116340625B (zh) * 2023-03-15 2024-04-05 武汉博奥鹏程科技投资有限公司 结合学习状态适合度和课程搭配度的课程推荐方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048288A (ja) * 2004-08-03 2006-02-16 Sony Corp 情報処理装置および方法、並びにプログラム
CN105868317A (zh) * 2016-03-25 2016-08-17 华中师范大学 一种数字教育资源推荐方法及系统
CN109615452A (zh) * 2018-10-29 2019-04-12 华中科技大学 一种基于矩阵分解的产品推荐方法
CN109656541A (zh) * 2018-11-20 2019-04-19 东软集团股份有限公司 开发资源的推荐方法、装置、存储介质和电子设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048288A (ja) * 2004-08-03 2006-02-16 Sony Corp 情報処理装置および方法、並びにプログラム
CN105868317A (zh) * 2016-03-25 2016-08-17 华中师范大学 一种数字教育资源推荐方法及系统
CN109615452A (zh) * 2018-10-29 2019-04-12 华中科技大学 一种基于矩阵分解的产品推荐方法
CN109656541A (zh) * 2018-11-20 2019-04-19 东软集团股份有限公司 开发资源的推荐方法、装置、存储介质和电子设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A content-based recommendation algorithm for learning resources;Jianbo Shu et al;《Multimedia System》;20170314;第24卷(第2期);第163-173页 *
在线学习系统中的深度学习推荐算法研究;沈筱譞;《中国优秀硕士学位论文全文数据库 社会科学Ⅱ辑》;20180215;第2018年卷(第02期);第H127-119页 *

Also Published As

Publication number Publication date
CN110609960A (zh) 2019-12-24

Similar Documents

Publication Publication Date Title
CN110609960B (zh) 学习资源推荐方法、装置、数据处理设备及存储介质
CN110717098B (zh) 基于元路径的上下文感知用户建模方法、序列推荐方法
CN107808278B (zh) 一种基于稀疏自编码器的Github开源项目推荐方法
Ewing et al. An ethical decision-making framework with serious gaming: a smart water case study on flooding
US8843427B1 (en) Predictive modeling accuracy
CN107507016A (zh) 一种消息推送方法和系统
CN113033090B (zh) 推送模型训练方法、数据推送方法、装置及存储介质
CN111143684B (zh) 基于人工智能的泛化模型的训练方法及装置
WO2022095376A1 (zh) 方面级别情感分类方法、装置、设备及可读存储介质
CN111737586B (zh) 信息推荐方法、装置、设备及计算机可读存储介质
CN107247728B (zh) 文本处理方法、装置及计算机存储介质
CN111429161B (zh) 特征提取方法、特征提取装置、存储介质及电子设备
CN111611488A (zh) 基于人工智能的信息推荐方法、装置、电子设备
CN107247753A (zh) 一种相似用户选取方法及装置
CN113204655B (zh) 多媒体信息的推荐方法、相关装置及计算机存储介质
CN112529071B (zh) 一种文本分类方法、系统、计算机设备和存储介质
CN118132856B (zh) 一种基于大数据的智能分析方法及系统
CN115271976A (zh) 一种顾问推荐的方法、装置及计算机可读存储介质
Blanquero et al. On optimal regression trees to detect critical intervals for multivariate functional data
Peyhardi et al. Partitioned conditional generalized linear models for categorical responses
CN109784406A (zh) 一种用户画像方法、装置、可读存储介质及终端设备
CN113656692B (zh) 基于知识迁移算法的产品推荐方法、装置、设备及介质
Ibrahim et al. Recommender systems: algorithms, evaluation and limitations
CN113469819A (zh) 基金产品的推荐方法、相关装置及计算机存储介质
Hidayati et al. The Influence of User Profile and Post Metadata on the Popularity of Image-Based Social Media: A Data Perspective

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant