CN112287239B - 课程推荐方法、装置、电子设备及存储介质 - Google Patents
课程推荐方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112287239B CN112287239B CN202011603628.2A CN202011603628A CN112287239B CN 112287239 B CN112287239 B CN 112287239B CN 202011603628 A CN202011603628 A CN 202011603628A CN 112287239 B CN112287239 B CN 112287239B
- Authority
- CN
- China
- Prior art keywords
- course
- instructor
- feature
- courses
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000003993 interaction Effects 0.000 claims abstract description 43
- 238000012549 training Methods 0.000 claims abstract description 28
- 238000012163 sequencing technique Methods 0.000 claims abstract description 14
- 239000013598 vector Substances 0.000 claims description 95
- 230000006399 behavior Effects 0.000 claims description 57
- 238000013528 artificial neural network Methods 0.000 claims description 19
- 230000002452 interceptive effect Effects 0.000 claims description 18
- 230000009467 reduction Effects 0.000 claims description 16
- 230000015654 memory Effects 0.000 claims description 10
- 239000010410 layer Substances 0.000 description 50
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000011161 development Methods 0.000 description 6
- 230000018109 developmental process Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000006403 short-term memory Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000008407 joint function Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Tourism & Hospitality (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Educational Technology (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及智慧教育技术领域,尤其涉及一种课程推荐方法、装置、电子设备及存储介质。本发明的课程推荐方法,通过获取当前导师的导师特征数据,并确定待推荐课程的课程特征数据;将导师特征数据和课程特征数据输入至预先训练好的DeepFM模型中,输出导师对待推荐课程产生交互行为的满意度预测值;根据各待推荐课程对应的所述满意度预测值,对各待推荐课程进行排序,根据排序结果向导师进行课程推荐。由于所采用的DeepFM模型是根据导师特征数据以及所述导师讲授的所有课程的课程特征数据训练得到的,充分利用了导师自身特征和课程自身特征,能够很好的预测导师授课的满意度,提高了课程推荐与导师之间的匹配度,使得推荐结果更加准确。
Description
技术领域
本发明涉及智慧教育技术领域,尤其涉及一种课程推荐方法、装置、电子设备及存储介质。
背景技术
在培训场景中,授课导师发挥着重要的作用,也是参与整个教育培训最重要的角色之一。授课导师通过讲授课程体现价值,一方面需要其拥有较好的授课经验、授课技巧等;另一方面,所讲授课程是否与导师匹配,最大程度发挥导师特点和擅长优势,也是决定导师是否能讲好课,发挥课程效果的关键因素。由此可见,授课导师和课程的匹配是一个重要且有意义的问题。
现有技术中导师和课程的匹配方法主要基于策略,通过导师过往讲课经历,统计其讲课效果最好的若干门课程,进而获取其课程标签,再基于该课程标签找寻其它关联课程,将关联课程推荐给导师。现有技术中的上述方案没有考虑到导师自身特征以及课程之间的差异,导师与课程之间的匹配度不佳,课程推荐准确度不高。
发明内容
本发明的目的在于提供一种课程推荐方法、装置、电子设备及存储介质,以解决现有技术中导师与课程之间的匹配度不佳及课程推荐准确度不高的技术问题。
本发明的技术方案如下:提供一种课程推荐方法,包括:
获取当前导师的导师特征数据,并确定待推荐课程的课程特征数据;
将所述导师特征数据和所述课程特征数据输入至预先训练好的DeepFM模型中,输出所述当前导师对所述待推荐课程产生交互行为的满意度预测值;其中,所述DeepFM模型基于历史导师的导师特征数据、所述历史导师讲授的课程的课程特征数据以及所述课程的实际满意度值训练得到;
根据各所述待推荐课程对应的所述满意度预测值,对各所述待推荐课程进行排序,根据排序结果向所述当前导师进行课程推荐。
优选地,所述DeepFM模型包括FM模型、降噪自编码器、DNN模型以及顶层网络;
所述将所述导师特征数据和所述课程特征数据输入至预先训练好的DeepFM模型中,输出所述当前导师对所述待推荐课程产生交互行为的满意度预测值,包括:
将所述导师特征数据和所述课程特征数据输入至所述FM模型中,分别得到所述导师特征向量和所述课程特征向量;
利用所述降噪自编码器分别在所述导师特征向量和所述课程特征向量中加入噪声,得到损坏的导师特征向量和损坏的课程特征向量;
利用所述降噪自编码器分别对所述损坏的导师特征向量和所述损坏的课程特征向量进行编码,得到导师隐含层特征向量和课程隐含层特征向量;
利用所述FM模型,对所述导师特征向量和所述课程特征向量进行交叉特征组合,得到第一输出结果;
将所述导师隐含层特征向量和所述课程隐含层特征向量输入至所述DNN模型中,对所述导师隐含层特征向量和所述课程隐含层特征向量进行全连接操作,得到第二输出结果;
利用所述顶层网络,对所述第一输出结果和所述第二输出结果进行满意度预测,得到输出结果。
优选地,所述将所述导师特征数据和所述课程特征数据输入至预先训练好的DeepFM模型中,输出所述当前导师对所述待推荐课程产生交互行为的满意度预测值之前,还包括:
根据所述导师在第一历史时间范围的学习行为信息,确定所述导师的第一衍生特征数据;
根据所述导师在第一历史时间范围的知识交互信息,确定所述导师的第二衍生特征数据;
将所述导师特征数据、所述第一衍生特征数据以及所述第二衍生特征数据合并为导师综合特征数据;
相应地,所述将所述导师特征数据和所述课程特征数据输入至预先训练好的DeepFM模型中,输出所述当前导师对所述待推荐课程产生交互行为的满意度预测值,包括:
将所述导师综合特征数据和所述课程特征数据输入至预先训练好的DeepFM模型中,根据所述DeepFM模型的输出结果确定所述导师对所述待推荐课程产生交互行为的满意度预测值。
优选地,所述根据所述导师在第一历史时间范围的学习行为信息,确定所述导师的第一衍生特征数据,包括:
获取所述导师在第一历史时间范围的学习行为信息,从所述学习行为信息中提取知识点标签词,其中,所述知识点标签词用于表征所述学习行为信息涉及的知识点;
将所述知识点标签词与所述课程进行匹配,并统计每个所述课程的知识点标签词的第一匹配数量;
根据所述课程以及所述课程对应的第一匹配数量,确定所述导师的第一衍生特征数据。
优选地,所述根据所述课程以及所述课程对应的第一匹配数量,确定所述导师的第一衍生特征数据,包括:
将每个所述课程的课程特征数据以及所述课程对应的第一匹配数量形成每个所述课程的课程特征更新数据;
将与所述学习行为信息匹配的各课程的课程特征更新数据组成第一衍生特征集合,输入至预先训练好的第一深度神经网络DNN模型中,得到第一衍生隐层状态特征,其中,所述第一深度神经网络DNN模型基于导师的历史第一衍生特征集合以及导师与第一衍生特征集合中的课程的实际交互倾向训练得到;
根据所述第一衍生隐层状态特征确定所述第一衍生特征数据。
优选地,所述根据所述导师在第一历史时间范围的知识交互信息,确定所述导师的第二衍生特征数据,包括:
获取所述导师在第一历史时间范围的知识交互信息,分析所述知识交互信息的主题关键词;
将所述主题关键词与所述课程进行匹配,并统计每个所述课程的主题关键词的第二匹配数量;
根据所述课程以及所述课程对应的第二匹配数量,确定所述导师的第二衍生特征数据。
优选地,所述根据所述课程以及所述课程对应的第二匹配数量,确定所述导师的第二衍生特征数据,包括:
将每个所述课程的课程特征数据以及所述课程对应的第二匹配数量形成每个所述课程的课程特征更新数据;
将与所述知识交互信息匹配的各课程的课程特征更新数据组成第二衍生特征集合,输入至预先训练好的第二深度神经网络DNN模型中,得到第二衍生隐层状态特征,其中,所述第二深度神经网络DNN模型基于导师的历史第二衍生特征集合以及导师与第二衍生特征集合中的课程的实际兴趣倾向训练得到;
根据所述第二衍生隐层状态特征确定所述第二衍生特征数据。
本发明的另一技术方案如下:提供一种课程推荐装置,包括:
特征获取模块,用于获取当前导师的导师特征数据,并确定待推荐课程的课程特征数据;
满意度预测模块,用于将所述导师特征数据和所述课程特征数据输入至预先训练好的DeepFM模型中,输出所述当前导师对所述待推荐课程产生交互行为的满意度预测值;其中,所述DeepFM模型基于历史导师的导师特征数据、所述历史导师讲授的课程的课程特征数据以及所述课程的实际满意度值训练得到;
课程推荐模块,用于根据各所述待推荐课程对应的所述满意度预测值,对各所述待推荐课程进行排序,根据排序结果向所述当前导师进行课程推荐。
本发明的另一技术方案如下:提供一种电子设备,包括处理器、以及与所述处理器耦接的存储器,所述存储器存储有可被所述处理器执行的程序指令;所述处理器执行所述存储器存储的所述程序指令时实现上述的课程推荐方法。
本发明的另一技术方案如下:提供一种存储介质,所述存储介质内存储有程序指令,所述程序指令被处理器执行时实现上述的课程推荐方法。
本发明的有益效果在于:本发明的课程推荐方法、装置、电子设备及存储介质,通过获取当前导师的导师特征数据,并确定待推荐课程的课程特征数据;将所述导师特征数据和所述课程特征数据输入至预先训练好的DeepFM模型中,输出所述导师对所述待推荐课程产生交互行为的满意度预测值;根据各所述待推荐课程对应的所述满意度预测值,对各所述待推荐课程进行排序,根据排序结果向所述导师进行课程推荐。由于所采用的DeepFM模型是根据导师特征数据以及所述导师讲授的所有课程的课程特征数据训练得到的,充分利用了导师自身特征和课程自身特征,能够很好的预测导师授课的满意度,提高了课程推荐与导师之间的匹配度,使得推荐结果更加准确。 在本发明的优选实施方式中,进一步引入了第一衍生特征数据和第二衍生特征数据,能够对导师的业务发展偏好和兴趣发展偏好进行追踪,充分体现了导师的个人成长变化,进一步提高了课程推荐与导师之间的匹配度,使得推荐结果更加准确。
附图说明
图1为本发明第一实施例的课程推荐方法的流程图。
图2为本发明第二实施例的课程推荐方法的流程图。
图3为本发明第三实施例的课程推荐装置的结构示意图。
图4为本发明第四实施例的电子设备的结构示意图。
图5为本发明第五实施例的存储介质的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明中的术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括至少一个该特征。本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。本发明实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本发明可以应用在培训场景中,为了最大程度发挥导师特点和擅长优势,导师所讲授的课程需与导师匹配,本发明将导师和课程的匹配问题转化为一种推荐问题,即给不同的导师推荐不同的课程,从而达到匹配的目的。
图1是本发明第一实施例的课程推荐方法的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图1所示的流程顺序为限。如图1所示,该课程推荐方法包括步骤:
S101,获取当前导师的导师特征数据,并确定待推荐课程的课程特征数据。
其中,导师特征数据用于表征不同导师对应的特征信息,以对不同导师进行区分,具体地,导师对应的特征信息主要来源于导师的属性信息以及授课交互信息。示例性地,导师对应的特征信息可以包括基本属性信息和授课交互信息,其中,基本属性信息包括导师基本信息(年龄、性别、兴趣爱好、性格自述)、导师资产、导师年资、导师教育经历以及导师工作经历,授课交互信息包括展业活动量、过往业绩水平、过往授课次数、过往授课频率、主要授课类型、讲授课程以及授课满意度。在导师特征数据中,对每一个特征信息进行离散化处理得到对应的离散特征,导师特征数据为特征信息对应的离散特征的集合。例如,离散化处理可以是one-hot编码,所述one-hot编码转换为对每一所述导师的特征信息中的内容分配一个整数值,即对每一导师的特征信息进行编码,然后将该整数值转换成二值数组向量,将导师的所有特征信息进行one-hot转换得到所述导师特征数据。
其中,课程特征数据用于表征不同课程对应的特征信息,以对不同的课程进行区分。示例性地,课程对应的特征信息可以包括课程内容、课程类型以及课程时长。在课程特征数据中,对每一个特征信息进行离散化处理得到对应的离散特征,课程特征数据为特征信息对应的离散特征的集合。进一步地,课程特征数据也可以采用上述one-hot编码获取。
S102,将所述导师特征数据和所述课程特征数据输入至预先训练好的DeepFM模型中,输出所述当前导师对所述待推荐课程产生交互行为的满意度预测值。
其中,DeepFM(Deep Factorization Machines,深度因子分解机)模型由FM(Factorization Machine,因子分解机)模型和DNN(Deep Neural Networks,深度神经网络)模型结合生成。其中,FM模型是一种基于矩阵分解的机器学习算法,其使用特征向量来变换因子分解模型,通过低阶关系之间的内积表示为因子之间的交互关系。FM模型具有自动组合特征的优点,从而可以大量减少特征工程的工作。DNN模型可以同时兼顾高阶特征组合和低阶特征组合,在本实施例中,DeepFM模型可以结合DNN模型和FM模型二者的优势,可以自动生成低阶特征和高阶特征,提高了特征工程方面的处理效率。一般地,满意度预测值越高,表明导师对相应课程产生交互行为(授课行为)的满意度越高。
在本实施例中,可以先采用DeepFM模型中的FM模型,将导师特征数据和课程特征数据中的每一个离散特征进行向量化,分别得到导师特征向量和课程特征向量,然后将所述导师特征向量和所述课程特征向量作为输入,输入至DNN模型,生成第一输出结果。再将所述导师特征向量和所述课程特征向量作为输入,输入至FM模型,生成第二输出结果。最后,将所述第一输出结果和所述第二输出结果,作为sigmoid函数的输入,来得到所述满意度预测值。
具体地,一部分是一个FM模型,公式如下:
通过DNN模型刻画导师特征向量和课程特征向量的高阶组合,实现模型泛化能力。
其中,Dense embedding layer输出表示为:=[,,...,],其中是第个filed的
embedding,m是filed数量;然后传递给DNN部分,前馈过程如下:+1=σ(+),其
中,σ为激活函数,l为神经网络层数,,,分别为l层的输出,权重和偏置。然后得到
稠密的实值特征向量,最后经过Sigmod函数做预测:yDNN=σ(w|H|+1h|H|+1+b|H|+1),其中
|H|为隐藏层层数。DNN模型为全连接神经网络主要利用多层神经元结构来构建复杂的非线
性特征变换,建立导师隐含表示信息以及课程隐含表示信息的联合函数,获取导师的隐含
特征。
其中,所述DeepFM模型基于历史导师的导师特征数据、所述历史导师讲授的课程的课程特征数据以及所述课程的实际满意度值训练得到。在DeepFM模型的模型训练阶段,预先获取大量导师的导师特征数据,以及针对每个导师,获取所述导师讲授的所有课程的课程特征数据,将所获取的导师特征数据和课程特征数据作为训练样本输入至预先设定的DeepFM模型中,得到输出结果;根据输出结果与对应的真实满意度值对DeepFM模型中的模型参数加以调整,直至DeepFM模型的预测准确率满足预设训练条件,得到训练好的DeepFM模型。
S103,根据各所述待推荐课程对应的所述满意度预测值,对各所述待推荐课程进行排序,根据排序结果向所述当前导师进行课程推荐。
其中,根据满意度预测值从大到小的顺序,对各个待推荐课程进行排序;按照预设的课程推荐规则,基于上述排序结构向导师进行课程推荐。例如,预设的课程推荐规则可以是推荐排序前第一数量位的课程,或者,推荐满意度预测值大于或等于第一预设阈值的课程。
在实际预测过程中,数据往往存在噪声,为了减少计算时间以及提高抗噪声的能力,提高模型的鲁棒性和泛化能力,在一个可选的实施方式中,在DeepFM模型中引入降噪自编码器(DAE,Denoising auto-encoder),包括腐蚀输入层和隐含层,根据一定的规则干扰原始输入和噪声,使原始输入被破坏形成损坏数据,损坏数据被输入到隐含层网络中,得到对应的隐含层的表示。具体地,步骤S102具体包括如下步骤:
S1021,将所述导师特征数据和所述课程特征数据输入至所述FM模型中,分别得到所述导师特征向量和所述课程特征向量;
在本步骤中,通过所述DeepFM模型中的FM模型对所述导师特征数据和所述课程特征数据进行embedding转变,得到导师特征向量和所述课程特征向量。
S1022,利用所述降噪自编码器分别在所述导师特征向量和所述课程特征向量中加入噪声,得到损坏的导师特征向量和损坏的课程特征向量;
在本步骤中,在特征向量中加入噪声的方式可以为在特征向量上添加一个服从正态分布的随机值;或者,用相同的输入形状生成二项分布随机数,再将随机数与特征向量相乘。
S1023,利用所述降噪自编码器分别对所述损坏的导师特征向量和所述损坏的课程特征向量进行编码,得到导师隐含层特征向量和课程隐含层特征向量;
在本步骤中,分别将损坏的导师特征向量和损坏的课程特征向量输入至所述降噪自编码器的隐含层,在所述隐含层中利用编码函数对损坏的特征向量进行编码,分别输出导师隐含层特征向量和课程隐含层特征向量,并且,隐含层的输出作为DNN模型的输入。
S1024,利用所述FM模型,对所述导师特征向量和所述课程特征向量进行交叉特征组合,得到第一输出结果;
在本步骤中,通过所述FM模型对所述导师特征向量和所述课程特征向量进行交叉特征组合,所述交叉特征组合为通过所述导师特征向量和所述课程特征向量中的两两特征向量之间的数量积(dot product,也称为点积、点乘)值,通过两两特征向量之间的数量积来判断特征向量之间和目标变量(满意反馈)之间的关系,将经过所述交叉特征组合后得到的所有数量积确定为第一输出结果,通过FM模型学习到了低维的交叉特征。
S1025,将所述导师隐含层特征向量和所述课程隐含层特征向量输入至所述DNN模型中,对所述导师隐含层特征向量和所述课程隐含层特征向量进行全连接操作,得到第二输出结果;
在本步骤中,通过若干个隐藏层对所述导师隐含层特征特征向量和所述课程隐含层特征向量进行全连接操作,通过DNN模型学习到了特征向量之间的高阶关系。
S1026,利用所述顶层网络,对所述第一输出结果和所述第二输出结果进行满意度预测,得到输出结果;
在本步骤中,所述顶层网络为DeepFM模型的输出层,接收到所述FM模型输出的第
一输出结果和所述DNN模型输出的第二输出结果,对所述第一输出结果和所述第二输出结
果进行回归得到所述输出结果。具体地,在获取到第一输出结果和第二输出结果后,可以结
合sigmoid函数来生成所述输出结果。假设第一输出结果为y1,第二输出结果为y2,则输出
结果Y = sigmod(w1y1+w2y2),即 1/(1+),Y的结果是一个[0,1]的概率
值,代表这位导师A对某一门课程L的偏好程度,其中,w1和w2为参数,上述参数由对DeepFM
模型进行训练生成。
DeepFM模型的顶层是一个单层网络,其将FM模型的输出和DNN模型的输出的联合作为输入,通过交叉熵损失函数来整体学习两个模型;最小化交叉熵损失函数如下:
在本实施例中,FM模型可以对一阶特征以及由一阶特征两两组合而成的二阶特征进行特征的提取;DNN模型可以对由输入的特征进行全连接等操作形成的高阶特征进行特征的提取。通过在DNN模型的输入端设置降噪自编码器,对输入的特征向量集合进行降噪压缩降维,能够减少计算时间及提高抗噪声能力。
图2是本发明第一实施例的课程推荐方法的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图2所示的流程顺序为限。如图2所示,该课程推荐方法包括步骤:
S201,获取当前导师的导师特征数据,并确定待推荐课程的课程特征数据。
步骤S201具体参见第一实施例的步骤S101的描述,在此不进行一一赘述。
S202,根据所述导师在第一历史时间范围的学习行为信息,确定所述导师的第一衍生特征数据。
其中,第一衍生特征数据用于表征第一历史时间范围内导师的学习内容,反映了导师第一历史时间范围内的业务发展偏好。学习内容可以包括导师攻读学位时的必修课内容及和选修课内容、导师发表论文内容、导师参加业务培训课程内容以及导师阅读书籍内容中的一种或多种。第一历史时间范围可以由技术人员根据实际情况或根据经验确定,可以随时进行调整。
下面对第一衍生数据特征的一种获取机制进行介绍,步骤S202可以通过如下步骤S2021至步骤S2023实现:
S2021,获取所述导师在第一历史时间范围的学习行为信息,从所述学习行为信息中提取知识点标签词,其中,所述知识点标签词用于表征所述学习行为信息涉及的知识点;
其中,知识点标签词用于表征学习行为信息所涉及的知识点,例如,导师在攻读知识产权硕士学位,参加了选修课《知识产权经营与管理》的学习,学习行为信息可以包括该门课程的课程简介、课本目录以及课件内容中的一种或多种,提取到的知识点标签例如为“知识产权战略”、“流程监控”、“创新与整合”及“宏观管理”等。
更具体地,可以利用长短期记忆网络模型(LSTM Long Short-Term Memory)实现知识点标签词的提取,具体包括如下步骤:首先,对所述学习行为信息进行分词处理,得到所述学习行为信息的分词词语;然后,根据预先确定的词语与词向量的对应关系,确定所述学习行为信息中每个分词词语对应的词向量,以生成所述学习行为信息的词向量矩阵;最后,将所述学习行为信息的词向量矩阵输入至长短期记忆网络模型中,得到所述学习行为信息中每个分词词语的类别,以提取所述学习行为信息中的知识点标签词,其中,所述类别包括为不同知识点。进一步地,可以利用word2vec模型得到所述分词词语的词向量。
S2022,将所述知识点标签词与所述课程进行匹配,并统计每个所述课程的知识点标签词的第一匹配数量;
其中,对课程进行分析,得到该课程涉及的知识点;针对每个课程,将课程的知识点与学习行为信息的知识点标签进行匹配,当所述课程有至少一个知识点与学习行为的知识点标签匹配时,判断所述课程与所述学习行为信息匹配;一个学习行为信息可以匹配一个或多个课程,例如,上述的《知识产权经营与管理》的学习内容,可能与课程1和课程2匹配。
S2023,根据所述课程以及所述课程对应的第一匹配数量,确定所述导师的第一衍生特征数据。
其中,例如,导师与课程1匹配3次、与课程10匹配1次、与课程11匹配10次,于是根据课程1的课程特征数据以及对应匹配次数、课程10的课程特征数据以及对应匹配次数以及课程11的课程特征数据以及对应匹配次数,生成第一衍生特征数据。
步骤S2023可以通过如下步骤实现,具体包括:将每个所述课程的课程特征数据以及所述课程对应的第一匹配数量形成每个所述课程的课程特征更新数据;将与所述学习行为信息匹配的各课程的课程特征更新数据组成第一衍生特征集合,输入至预先训练好的第一深度神经网络DNN模型中,得到第一衍生隐层状态特征,其中,所述第一深度神经网络DNN模型基于导师的历史第一衍生特征集合以及导师与第一衍生特征集合中的课程的实际交互倾向训练得到;根据所述第一衍生隐层状态特征确定所述第一衍生特征数据。
S203,根据所述导师在第一历史时间范围的知识交互信息,确定所述导师的第二衍生特征数据。
其中,第二衍生特征数据用于表征第一历史时间范围内导师的知识交互内容,反映了导师第一历史时间范围内的兴趣发展偏好。知识交互内容可以包括与知识相关的点击内容、分享内容、收藏内容以及下单内容中的一种或多种。
下面对第二衍生数据特征的一种获取机制进行介绍,步骤S203可以通过如下步骤S2031至步骤S2033实现:
S2031,获取所述导师在第一历史时间范围的知识交互信息,分析所述知识交互信息的主题关键词;
其中,主题关键词反映了知识交互信息的主题,例如,导师收藏了文章《组合的知识产权诉讼策略:商业秘密、著作权和专利纠纷》,对该知识交互信息进行分析后确定其涉及多个商业秘密、版权和专利联合诉讼的案例,案例均为软件IP领域,主题关键词为:“软件”、“知识产权联合诉讼”。
具体地,可以利用LDA(Latent Dirichlet Allocation)模型实现主题关键词的分析,具体包括如下步骤:利用LDA主题模型对所述知识交互信息进行文本语义分析,获得所述知识交互信息的主题向量表示;将所述知识交互信息划分到其主题向量中最大值所对应的维度,获取所述知识交互信息所对应的主题特征;根据所述主题特征确定所述知识交互信息的对应的各个主题关键词及对应每个主题关键词的百分比;将所述百分比大于预设阈值的主题关键词作为结果输出。
S2032,将所述主题关键词与所述课程进行匹配,并统计每个所述课程的主题关键词的第二匹配数量;
其中,对课程进行分析,得到该课程涉及的知识点;针对每个课程,将课程的知识点与知识交互信息的主题关键词进行匹配,当所述课程有至少一个知识点与知识交互信息的主题关键词匹配时,判断所述课程与所述知识交互信息匹配;一个知识交互信息可以匹配一个或多个课程。
S2033,根据所述课程以及所述课程对应的第二匹配数量,确定所述导师的第二衍生特征数据。
其中,步骤S2033可以通过如下步骤实现,具体包括:将每个所述课程的课程特征数据以及所述课程对应的第二匹配数量形成每个所述课程的课程特征更新数据;将与所述知识交互信息匹配的各课程的课程特征更新数据组成第二衍生特征集合,输入至预先训练好的第二深度神经网络DNN模型中,得到第二衍生隐层状态特征,其中,所述第二深度神经网络DNN模型基于导师的历史第二衍生特征集合以及导师与第二衍生特征集合中的课程的实际兴趣倾向训练得到;根据所述第二衍生隐层状态特征确定所述第二衍生特征数据。
S204,将所述导师特征数据、所述第一衍生特征数据以及所述第二衍生特征数据合并为导师综合特征数据。
S205,将所述导师综合特征数据和所述课程特征数据输入至预先训练好的DeepFM模型中,根据所述DeepFM模型的输出结果确定所述导师对所述待推荐课程产生交互行为的满意度预测值。
其中,所述DeepFM模型基于历史导师的导师特征数据、第一历史衍生特征数据、第二历史衍生特征数据、所述历史导师讲授的课程的课程特征数据以及所述课程的实际满意度值训练得到。在模型的训练过程中,预先获取大量历史导师的导师特征数据,以及针对每个导师,获取所述导师讲授的所有课程的课程特征数据;针对每个导师,获取其在第一历史时间段的历史学习行为信息,确定所述导师的第一历史衍生特征数据;获取其在第一历史时间段的历史知识交互信息,确定所述导师的第二历史衍生特征数据;将所获取的导师特征数据、第一历史衍生特征、第二历史衍生特征和课程特征数据作为训练样本输入至预先设定的DeepFM模型中,得到输出结果;根据输出结果与对应的真实满意度值对DeepFM模型中的模型参数加以调整,直至DeepFM模型的预测准确率满足预设训练条件,得到训练好的DeepFM模型。
其中,DeepFM模型的结构以及DeepFM模型对所述导师综合特征数据和所述课程特征数据处理的具体方式参见第一实施例中步骤S102的描述,在此不进行一一赘述。
S206,根据各所述待推荐课程对应的所述满意度预测值,对各所述待推荐课程进行排序,根据排序结果向所述当前导师进行课程推荐。
步骤S206具体参见第一实施例的步骤S103的描述,在此不进行一一赘述。
在本实施例中,DeepFM模型在使用过程中,能够对导师的业务发展偏好和兴趣发展偏好进行追踪,充分体现了导师的个人成长变化,提高了课程推荐与导师之间的匹配度,使得推荐结果更加准确。
另外,在一些实施方式中,输入DeepFM模型的待推荐课程的课程特征数据可以不必为课程库中的所有课程,而来源于第一衍生特征数据和第二衍生特征数据,具体地,在步骤S205之前,还包括如下步骤:根据所述第一衍生特征数据,确定所述导师对各待推荐课程产生交互行为的得到满意反馈的第一预测值;根据所述第二衍生特征数据,确定所述导师对各待推荐课程产生交互行为的得到满意反馈的第二预测值;根据各所述待推荐课程对应的所述第一预测值从大到小的顺序,对各所述待推荐课程进行排序,选择排序结果前第二预设阈值的课程;根据各所述待推荐课程对应的所述第二预测值从大到小的顺序,对各所述待推荐课程进行排序,选择排序结果前第三预设阈值的课程;将所选课程进行汇总,得到候选课程。
在进行满意度预测时,将当前导师的导师综合特征数据和候选课程的课程特征数据输入至所述DeepFM模型中,预测当前导师讲授候选课程的满意度。
图3是本发明第三实施例的课程推荐装置的结构示意图。如图3所示,该装置30包括特征获取模块31、满意度预测模块32和课程推荐模块33。
其中,特征获取模块31,用于获取当前导师的导师特征数据,并确定待推荐课程的课程特征数据;满意度预测模块32,用于将所述导师特征数据和所述课程特征数据输入至预先训练好的DeepFM模型中,输出所述当前导师对所述待推荐课程产生交互行为的满意度预测值;其中,所述DeepFM模型基于历史导师的导师特征数据、所述历史导师讲授的课程的课程特征数据以及所述课程的实际满意度值训练得到;课程推荐模块33,用于根据各所述待推荐课程对应的所述满意度预测值,对各所述待推荐课程进行排序,根据排序结果向所述当前导师进行课程推荐。
进一步地,所述DeepFM模型包括FM模型、降噪自编码器、DNN模型以及顶层网络;满意度预测模块32,用于将所述导师特征数据和所述课程特征数据输入至所述FM模型中,分别得到所述导师特征向量和所述课程特征向量;利用所述降噪自编码器分别在所述导师特征向量和所述课程特征向量中加入噪声,得到损坏的导师特征向量和损坏的课程特征向量;利用所述降噪自编码器分别对所述损坏的导师特征向量和所述损坏的课程特征向量进行编码,得到导师隐含层特征向量和课程隐含层特征向量;利用所述FM模型,对所述导师特征向量和所述课程特征向量进行交叉特征组合,得到第一输出结果;将所述导师隐含层特征向量和所述课程隐含层特征向量输入至所述DNN模型中,对所述导师隐含层特征向量和所述课程隐含层特征向量进行全连接操作,得到第二输出结果;利用所述顶层网络,对所述第一输出结果和所述第二输出结果进行满意度预测,得到输出结果。
该装置30还包括衍生特征模块,用于根据所述导师在第一历史时间范围的学习行为信息,确定所述导师的第一衍生特征数据;根据所述导师在第一历史时间范围的知识交互信息,确定所述导师的第二衍生特征数据;将所述导师特征数据、所述第一衍生特征数据以及所述第二衍生特征数据合并为导师综合特征数据。相应地,满意度预测模块32,用于将所述导师综合特征数据和所述课程特征数据输入至预先训练好的DeepFM模型中,根据所述DeepFM模型的输出结果确定所述导师对所述待推荐课程产生交互行为的满意度预测值。
进一步地,衍生特征模块,还用于获取所述导师在第一历史时间范围的学习行为信息,从所述学习行为信息中提取知识点标签词,其中,所述知识点标签词用于表征所述学习行为信息涉及的知识点;将所述知识点标签词与所述课程进行匹配,并统计每个所述课程的知识点标签词的第一匹配数量;根据所述课程以及所述课程对应的第一匹配数量,确定所述导师的第一衍生特征数据。
进一步地,衍生特征模块,还用于将每个所述课程的课程特征数据以及所述课程对应的第一匹配数量形成每个所述课程的课程特征更新数据;将与所述学习行为信息匹配的各课程的课程特征更新数据组成第一衍生特征集合,输入至预先训练好的第一深度神经网络DNN模型中,得到第一衍生隐层状态特征,其中,所述第一深度神经网络DNN模型基于导师的历史第一衍生特征集合以及导师与第一衍生特征集合中的课程的实际交互倾向训练得到;根据所述第一衍生隐层状态特征确定所述第一衍生特征数据。
进一步地,衍生特征模块,还用于获取所述导师在第一历史时间范围的知识交互信息,分析所述知识交互信息的主题关键词;将所述主题关键词与所述课程进行匹配,并统计每个所述课程的主题关键词的第二匹配数量;根据所述课程以及所述课程对应的第二匹配数量,确定所述导师的第二衍生特征数据。
进一步地,衍生特征模块,还用于将每个所述课程的课程特征数据以及所述课程对应的第二匹配数量形成每个所述课程的课程特征更新数据;将与所述知识交互信息匹配的各课程的课程特征更新数据组成第二衍生特征集合,输入至预先训练好的第二深度神经网络DNN模型中,得到第二衍生隐层状态特征,其中,所述第二深度神经网络DNN模型基于导师的历史第二衍生特征集合以及导师与第二衍生特征集合中的课程的实际兴趣倾向训练得到;根据所述第二衍生隐层状态特征确定所述第二衍生特征数据。
图4是本发明第四实施例的电子设备的结构示意图。如图4所示,该电子设备40包括处理器41及和处理器41耦接的存储器42。
存储器42存储有用于实现上述任一实施例该课程推荐方法的程序指令。
处理器41用于执行存储器42存储的程序指令以进行课程推荐。
其中,处理器41还可以称为CPU(Central Processing Unit,中央处理单元)。处理器41可能是一种集成电路芯片,具有信号的处理能力。处理器41还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
参阅图5,图5为本发明第五实施例的存储介质的结构示意图。本发明第五实施例的存储介质存储有能够实现上述所有方法的程序指令51,其中,该程序指令51可以以软件产品的形式存储在上述存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施方式所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质,或者是计算机、服务器、手机、平板等终端设备。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
以上所述的仅是本发明的实施方式,在此应当指出,对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出改进,但这些均属于本发明的保护范围。
Claims (7)
1.一种课程推荐方法,其特征在于,包括:
获取当前导师的导师特征数据,并确定待推荐课程的课程特征数据;
根据所述导师在第一历史时间范围的学习行为信息,确定所述导师的第一衍生特征数据,具体包括:获取所述导师在第一历史时间范围的学习行为信息,从所述学习行为信息中提取知识点标签词,其中,所述知识点标签词用于表征所述学习行为信息涉及的知识点;将所述知识点标签词与所述课程进行匹配,并统计每个所述课程的知识点标签词的第一匹配数量;根据所述课程以及所述课程对应的第一匹配数量,确定所述导师的第一衍生特征数据;
根据所述导师在第一历史时间范围的知识交互信息,确定所述导师的第二衍生特征数据,具体包括:获取所述导师在第一历史时间范围的知识交互信息,分析所述知识交互信息的主题关键词;将所述主题关键词与所述课程进行匹配,并统计每个所述课程的主题关键词的第二匹配数量;根据所述课程以及所述课程对应的第二匹配数量,确定所述导师的第二衍生特征数据;
将所述导师特征数据、所述第一衍生特征数据以及所述第二衍生特征数据合并为导师综合特征数据;
将所述导师综合特征数据和所述课程特征数据输入至预先训练好的DeepFM模型中,输出所述当前导师对所述待推荐课程产生交互行为的满意度预测值;其中,所述DeepFM模型基于历史导师的导师特征数据、所述历史导师讲授的课程的课程特征数据以及所述课程的实际满意度值训练得到;
根据各所述待推荐课程对应的所述满意度预测值,对各所述待推荐课程进行排序,根据排序结果向所述当前导师进行课程推荐。
2.根据权利要求1所述的课程推荐方法,其特征在于,所述DeepFM模型包括FM模型、降噪自编码器、DNN模型以及顶层网络;
所述将所述导师特征数据和所述课程特征数据输入至预先训练好的DeepFM模型中,输出所述当前导师对所述待推荐课程产生交互行为的满意度预测值,包括:
将所述导师特征数据和所述课程特征数据输入至所述FM模型中,分别得到所述导师特征向量和所述课程特征向量;
利用所述降噪自编码器分别在所述导师特征向量和所述课程特征向量中加入噪声,得到损坏的导师特征向量和损坏的课程特征向量;
利用所述降噪自编码器分别对所述损坏的导师特征向量和所述损坏的课程特征向量进行编码,得到导师隐含层特征向量和课程隐含层特征向量;
利用所述FM模型,对所述导师特征向量和所述课程特征向量进行交叉特征组合,得到第一输出结果;
将所述导师隐含层特征向量和所述课程隐含层特征向量输入至所述DNN模型中,对所述导师隐含层特征向量和所述课程隐含层特征向量进行全连接操作,得到第二输出结果;
利用所述顶层网络,对所述第一输出结果和所述第二输出结果进行满意度预测,得到输出结果。
3.根据权利要求1所述的课程推荐方法,其特征在于,所述根据所述课程以及所述课程对应的第一匹配数量,确定所述导师的第一衍生特征数据,包括:
将每个所述课程的课程特征数据以及所述课程对应的第一匹配数量形成每个所述课程的课程特征更新数据;
将与所述学习行为信息匹配的各课程的课程特征更新数据组成第一衍生特征集合,输入至预先训练好的第一深度神经网络DNN模型中,得到第一衍生隐层状态特征,其中,所述第一深度神经网络DNN模型基于导师的历史第一衍生特征集合以及导师与第一衍生特征集合中的课程的实际交互倾向训练得到;
根据所述第一衍生隐层状态特征确定所述第一衍生特征数据。
4.根据权利要求1所述的课程推荐方法,其特征在于,所述根据所述课程以及所述课程对应的第二匹配数量,确定所述导师的第二衍生特征数据,包括:
将每个所述课程的课程特征数据以及所述课程对应的第二匹配数量形成每个所述课程的课程特征更新数据;
将与所述知识交互信息匹配的各课程的课程特征更新数据组成第二衍生特征集合,输入至预先训练好的第二深度神经网络DNN模型中,得到第二衍生隐层状态特征,其中,所述第二深度神经网络DNN模型基于导师的历史第二衍生特征集合以及导师与第二衍生特征集合中的课程的实际兴趣倾向训练得到;
根据所述第二衍生隐层状态特征确定所述第二衍生特征数据。
5.一种课程推荐装置,其特征在于,包括:
特征获取模块,用于获取当前导师的导师特征数据,并确定待推荐课程的课程特征数据;
衍生特征模块,用于根据所述导师在第一历史时间范围的学习行为信息,确定所述导师的第一衍生特征数据;根据所述导师在第一历史时间范围的知识交互信息,确定所述导师的第二衍生特征数据;将所述导师特征数据、所述第一衍生特征数据以及所述第二衍生特征数据合并为导师综合特征数据;
满意度预测模块,用于将所述导师综合特征数据和所述课程特征数据输入至预先训练好的DeepFM模型中,输出所述当前导师对所述待推荐课程产生交互行为的满意度预测值;其中,所述DeepFM模型基于历史导师的导师特征数据、所述历史导师讲授的课程的课程特征数据以及所述课程的实际满意度值训练得到;
课程推荐模块,用于根据各所述待推荐课程对应的所述满意度预测值,对各所述待推荐课程进行排序,根据排序结果向所述当前导师进行课程推荐;
其中,衍生特征模块,还用于获取所述导师在第一历史时间范围的学习行为信息,从所述学习行为信息中提取知识点标签词,其中,所述知识点标签词用于表征所述学习行为信息涉及的知识点;将所述知识点标签词与所述课程进行匹配,并统计每个所述课程的知识点标签词的第一匹配数量;根据所述课程以及所述课程对应的第一匹配数量,确定所述导师的第一衍生特征数据;
衍生特征模块,还用于获取所述导师在第一历史时间范围的知识交互信息,分析所述知识交互信息的主题关键词;将所述主题关键词与所述课程进行匹配,并统计每个所述课程的主题关键词的第二匹配数量;根据所述课程以及所述课程对应的第二匹配数量,确定所述导师的第二衍生特征数据。
6.一种电子设备,其特征在于,包括处理器、以及与所述处理器耦接的存储器,所述存储器存储有可被所述处理器执行的程序指令;所述处理器执行所述存储器存储的所述程序指令时实现如权利要求1~4中任一项所述的课程推荐方法。
7.一种存储介质,其特征在于,所述存储介质内存储有程序指令,所述程序指令被处理器执行时实现如权利要求1~4中任一项所述的课程推荐方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011603628.2A CN112287239B (zh) | 2020-12-30 | 2020-12-30 | 课程推荐方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011603628.2A CN112287239B (zh) | 2020-12-30 | 2020-12-30 | 课程推荐方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112287239A CN112287239A (zh) | 2021-01-29 |
CN112287239B true CN112287239B (zh) | 2021-03-19 |
Family
ID=74426301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011603628.2A Active CN112287239B (zh) | 2020-12-30 | 2020-12-30 | 课程推荐方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112287239B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112884449B (zh) * | 2021-03-12 | 2024-05-14 | 北京乐学帮网络技术有限公司 | 用户引导方法、装置、计算机设备以及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103886054A (zh) * | 2014-03-13 | 2014-06-25 | 中国科学院自动化研究所 | 一种网络教学资源的个性化推荐系统和推荐方法 |
CN108989397A (zh) * | 2018-06-26 | 2018-12-11 | 腾讯音乐娱乐科技(深圳)有限公司 | 数据推荐方法、装置及存储介质 |
CN109271898A (zh) * | 2018-08-31 | 2019-01-25 | 电子科技大学 | 基于优化卷积神经网络的溶洞体识别算法 |
CN110363346A (zh) * | 2019-07-12 | 2019-10-22 | 腾讯科技(北京)有限公司 | 点击率预测方法、预测模型的训练方法、装置及设备 |
CN110413877A (zh) * | 2019-07-02 | 2019-11-05 | 阿里巴巴集团控股有限公司 | 一种资源推荐方法、装置及电子设备 |
CN111400592A (zh) * | 2020-03-12 | 2020-07-10 | 山东师范大学 | 基于眼动技术和深度学习的个性化课程推荐方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10430431B2 (en) * | 2016-09-29 | 2019-10-01 | Microsoft Technology Licensing, Llc | Recommending courses for an electronic presentation |
-
2020
- 2020-12-30 CN CN202011603628.2A patent/CN112287239B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103886054A (zh) * | 2014-03-13 | 2014-06-25 | 中国科学院自动化研究所 | 一种网络教学资源的个性化推荐系统和推荐方法 |
CN108989397A (zh) * | 2018-06-26 | 2018-12-11 | 腾讯音乐娱乐科技(深圳)有限公司 | 数据推荐方法、装置及存储介质 |
CN109271898A (zh) * | 2018-08-31 | 2019-01-25 | 电子科技大学 | 基于优化卷积神经网络的溶洞体识别算法 |
CN110413877A (zh) * | 2019-07-02 | 2019-11-05 | 阿里巴巴集团控股有限公司 | 一种资源推荐方法、装置及电子设备 |
CN110363346A (zh) * | 2019-07-12 | 2019-10-22 | 腾讯科技(北京)有限公司 | 点击率预测方法、预测模型的训练方法、装置及设备 |
CN111400592A (zh) * | 2020-03-12 | 2020-07-10 | 山东师范大学 | 基于眼动技术和深度学习的个性化课程推荐方法及系统 |
Non-Patent Citations (2)
Title |
---|
《DeepFM: A Factorization-Machine based Neural Network for CTR Prediction》;Huifeng Guo et al.;《arXiv:1703.04247v1》;20170313;第1-8页 * |
基于深度学习的推荐系统研究综述;黄立威 等;《计算机学报》;20180731;第41卷(第7期);第1619-1647页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112287239A (zh) | 2021-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Deep knowledge tracing on programming exercises | |
CN111931062A (zh) | 一种信息推荐模型的训练方法和相关装置 | |
CN113626719A (zh) | 信息推荐方法、装置、设备、存储介质及计算机程序产品 | |
CN111708950A (zh) | 内容推荐方法、装置及电子设备 | |
CN111680159A (zh) | 数据处理方法、装置及电子设备 | |
CN110555469A (zh) | 处理交互序列数据的方法及装置 | |
CN108984555B (zh) | 用户状态挖掘和信息推荐方法、装置以及设备 | |
CN112307351A (zh) | 用户行为的模型训练、推荐方法、装置和设备 | |
CN110659742A (zh) | 获取用户行为序列的序列表示向量的方法和装置 | |
CN113268609A (zh) | 基于知识图谱的对话内容推荐方法、装置、设备及介质 | |
CN109582786B (zh) | 一种基于自动编码的文本表示学习方法、系统及电子设备 | |
CN111680147A (zh) | 一种数据处理方法、装置、设备以及可读存储介质 | |
CN113239169A (zh) | 基于人工智能的回答生成方法、装置、设备及存储介质 | |
CN115222066A (zh) | 模型训练方法和装置、行为预测方法、设备及存储介质 | |
CN113392209A (zh) | 一种基于人工智能的文本聚类方法、相关设备及存储介质 | |
CN113392179A (zh) | 文本标注方法及装置、电子设备、存储介质 | |
Quan et al. | Comparative study of CNN and LSTM based attention neural networks for aspect-level opinion mining | |
CN116680386A (zh) | 基于多轮对话的答案预测方法和装置、设备、存储介质 | |
Khan et al. | Comparative analysis on Facebook post interaction using DNN, ELM and LSTM | |
CN112287239B (zh) | 课程推荐方法、装置、电子设备及存储介质 | |
CN114168819A (zh) | 一种基于图神经网络的岗位匹配方法及装置 | |
CN113704393A (zh) | 关键词提取方法、装置、设备及介质 | |
KR102466559B1 (ko) | 동적 텍스트 소스를 활용한 ai 기반 의사결정지원 시스템 | |
CN109902273A (zh) | 关键词生成模型的建模方法和装置 | |
Liu | Python machine learning by example: implement machine learning algorithms and techniques to build intelligent systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |