CN109948050B - 信息处理方法和装置,存储介质和电子设备 - Google Patents

信息处理方法和装置,存储介质和电子设备 Download PDF

Info

Publication number
CN109948050B
CN109948050B CN201910111812.6A CN201910111812A CN109948050B CN 109948050 B CN109948050 B CN 109948050B CN 201910111812 A CN201910111812 A CN 201910111812A CN 109948050 B CN109948050 B CN 109948050B
Authority
CN
China
Prior art keywords
questionnaire
prediction model
user
information
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910111812.6A
Other languages
English (en)
Other versions
CN109948050A (zh
Inventor
肖健
刘作坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Neusoft Corp
Original Assignee
Neusoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Neusoft Corp filed Critical Neusoft Corp
Priority to CN201910111812.6A priority Critical patent/CN109948050B/zh
Publication of CN109948050A publication Critical patent/CN109948050A/zh
Application granted granted Critical
Publication of CN109948050B publication Critical patent/CN109948050B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本公开的目的是提供一种信息处理方法和装置,存储介质和电子设备,以解决相关技术中预测题库中问卷题目的使用次数信息不够精准的问题。包括:获取包括用户历史使用的问卷题目以及使用次数信息的样本数据;使用样本数据中其他用户历史使用的问卷题目以及问卷题目使用次数通过预测模型,得到对目标用户历史使用的问卷题目的次数预测信息;根据次数预测信息,以及样本数据中目标用户历史使用问卷题目的真实次数信息,计算预测模型的损失函数;并根据损失函数更新预测模型中的学习因子,使得损失函数的计算结果减小;根据更新后的满足预设条件的学习因子确定目标预测模型。

Description

信息处理方法和装置,存储介质和电子设备
技术领域
本公开涉及信息处理技术领域,具体地,涉及一种信息处理方法和装置,存储介质和电子设备。
背景技术
随着信息技术的发展,很多业务都需要问卷来调查统计数据。数据种类更加多样,问卷的复杂程度有所提升。一般情况下,问卷由多道问卷题目组成,复杂的问卷中包括更加多样的问卷题目。
相关技术中,用户在创建填写问卷考题时可以通过选择题库中的问卷题目,直接创建问卷。在题库中问卷题目较少时,用户可以遍历这些问卷题目,挑选并组合所需的问卷题目组合生成问卷。随着题库中问卷题目不断补充,在为用户提供更多选择的同时,也给用户带来了“选择困难”的问题。为了便于用户挑选问卷题目,可以根据用户历史对问卷题目的使用次数,向用户推荐问卷题目。对于题库中使用次数未知的问卷题目,可以根据已有的使用次数信息,通过一元线性方法对问卷题目未知的使用次数信息进行预测。
发明内容
本公开的目的是提供一种信息处理方法和装置,存储介质和电子设备,以解决相关技术中预测题库中问卷题目的使用次数信息不够精准的问题。
为了实现上述目的,第一方面,本公开提供一种信息处理方法,包括:
获取样本数据,所述样本数据包括用户历史使用的问卷题目以及使用次数信息;
针对每一目标用户,使用所述样本数据中其他用户历史使用的问卷题目以及问卷题目使用次数通过预测模型进行问卷题目兴趣度预测,得到对所述目标用户历史使用的问卷题目的次数预测信息,所述预测模型包括学习因子;
根据所述次数预测信息,以及所述样本数据中所述目标用户历史使用问卷题目的真实次数信息,计算所述预测模型的损失函数;
根据所述损失函数更新所述预测模型中的学习因子,使得在新的学习因子下所述损失函数的计算结果减小;
根据更新后的满足预设条件的学习因子确定目标预测模型,所述目标预测模型用于根据所述样本数据计算任一所述用户未使用过的问卷题目的次数预测信息。
可选的,所述针对每一目标用户,使用所述样本数据中其他用户历史使用的问卷题目以及问卷题目使用次数通过预测模型进行问卷题目兴趣度预测,得到对所述目标用户历史使用的问卷题目的次数预测信息,所述预测模型包括学习因子,包括:
通过以下公式得到对所述目标用户历史使用的问卷题目i的次数预测信息Preui
Figure GDA0002852640540000021
其中,j表示问卷题目集合P中除所述问卷题目i以外的任一问卷题目;
Preui表示对应所述目标用户u对问卷题目i的所述次数预测信息;
Ruj表示所述目标用户u对问卷题目j的历史使用次数;
Nij表示所述样本数据中,用户集合Q中除所述目标用户u的所述其他用户u′历史使用的问卷题目中问卷题目i和问卷题目j均存在的交集样本数量;
TWij表示关联问卷题目i和问卷题目j的权重值;
Devij表示所述样本数据中,所述其他用户u′对问卷题目i的使用次数和问卷题目j使用次数之差的均值,即:
Figure GDA0002852640540000031
Ru′i表示任一所述其他用户u′对问卷题目i的历史使用次数;
Ru′j表示任一所述其他用户u′对问卷题目j的历史使用次数;
βij表示关联问卷题目i和问卷题目j的学习因子。
可选的,根据所述次数预测信息,以及所述样本数据中所述目标用户历史使用问卷题目的真实次数信息,计算所述预测模型的损失函数,包括:
通过以下公式表达所述损失函数Loss:
Figure GDA0002852640540000032
其中,Ruj表示所述目标用户u对问卷题目j的历史使用次数。
可选的,所述方法还包括:
通过如下公式计算所述关联问卷题目i和问卷题目j的权重值TWij
TWij=Nij×Simij
其中,Simij表示问卷题目i和问卷题目j之间的相似度。
可选的,所述根据所述损失函数更新所述预测模型中的学习因子,使得在新的学习因子下所述损失函数的计算结果减小,包括:
计算所述损失函数对所述学习因子的梯度值;
将所述梯度值与所述学习因子之和作为所述预测模型中的新的学习因子,使得在新的学习因子下所述损失函数的计算结果减小。
可选的,所述根据更新后的满足预设条件的学习因子确定目标预测模型,包括:
在对所述学习因子的更新次数达到预设阈值,和/或,所述损失函数的计算结果收敛时,将包括最近一次更新得到的学习因子的预测模型作为所述目标预测模型。
可选的,所述方法还包括:
将所述样本数据输入所述目标预测模型,计算任一所述用户未使用过的问卷题目的次数预测信息;
根据所述次数预测信息向所述用户推荐所述用户未使用过的问卷题目。
第二方面,本公开提供一种信息处理装置,包括:
获取模块,用于获取样本数据,所述样本数据包括用户历史使用的问卷题目以及使用次数信息;
预测模块,用于针对每一目标用户,使用所述样本数据中其他用户历史使用的问卷题目以及问卷题目使用次数通过预测模型进行问卷题目兴趣度预测,得到对所述目标用户历史使用的问卷题目的次数预测信息,所述预测模型包括学习因子;
计算模块,用于根据所述次数预测信息,以及所述样本数据中所述目标用户历史使用问卷题目的真实次数信息,计算所述预测模型的损失函数;
更新模块,用于根据所述损失函数更新所述预测模型中的学习因子,使得在新的学习因子下所述损失函数的计算结果减小;
确定模块,用于根据更新后的满足预设条件的学习因子确定目标预测模型,所述目标预测模型用于根据所述样本数据计算任一所述用户未使用过的问卷题目的次数预测信息。
可选的,所述预测模块,用于:
通过以下公式得到对所述目标用户历史使用的问卷题目i的次数预测信息Preui
Figure GDA0002852640540000041
其中,j表示问卷题目集合P中除所述问卷题目i以外的任一问卷题目;
Preui表示对应所述目标用户u对问卷题目i的所述次数预测信息;
Ruj表示所述目标用户u对问卷题目j的历史使用次数;
Nij表示所述样本数据中,用户集合Q中除所述目标用户u的所述其他用户u′历史使用的问卷题目中问卷题目i和问卷题目j均存在的交集样本数量;
TWij表示关联问卷题目i和问卷题目j的权重值;
Devij表示所述样本数据中,所述其他用户u′对问卷题目i的使用次数和问卷题目j使用次数之差的均值,即:
Figure GDA0002852640540000051
Ru′i表示任一所述其他用户u′对问卷题目i的历史使用次数;
Ru′j表示任一所述其他用户u′对问卷题目j的历史使用次数;
βij表示关联问卷题目i和问卷题目j的学习因子。
可选的,所述计算模块,用于:
通过以下公式表达所述损失函数Loss:
Figure GDA0002852640540000052
其中,Ruj表示所述目标用户u对问卷题目j的历史使用次数。
可选的,所述计算模块,还用于:
通过如下公式计算所述关联问卷题目i和问卷题目j的权重值TWij
TWij=Nij×Simij
其中,Simij表示问卷题目i和问卷题目j之间的相似度。
可选的,所述更新模块用于:
计算所述损失函数对所述学习因子的梯度值;
将所述梯度值与所述学习因子之和作为所述预测模型中的新的学习因子,使得在新的学习因子下所述损失函数的计算结果减小。
可选的,所述确定模块用于:
在对所述学习因子的更新次数达到预设阈值,和/或,所述损失函数的计算结果收敛时,将包括最近一次更新得到的学习因子的预测模型作为所述目标预测模型。
可选的,所述装置还包括推荐模块,用于:
将所述样本数据输入所述目标预测模型,计算任一所述用户未使用过的问卷题目的次数预测信息;
根据所述次数预测信息向所述用户推荐所述用户未使用过的问卷题目。
第三方面,本公开提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现任一项所述信息处理方法的步骤。
第四方面,本公开提供一种电子设备,包括:
存储器,其上存储有计算机程序;
处理器,用于执行所述存储器中的所述计算机程序,以实现任一项所述信息处理方法的步骤。
上述技术方案,至少能够达到以下技术效果:
通过预测模型得到对历史使用的问卷题目次数的次数预测信息,再根据所述次数预测信息,以及历史使用问卷题目的真实次数信息,计算所述预测模型的损失函数,进一步根据所述损失函数更新所述预测模型中的学习因子,使得在新的学习因子下所述损失函数的计算结果减小,继而得到更新后的满足预设条件的学习因子确定目标预测模型。由于多次迭代学习因子,能够使预测模型的次数预测信息与真实次数信息差值减小,因而预测模型能够更加准确的反映出题目之间的次数关系,使得根据样本数据计算任一所述用户未使用过的问卷题目的次数预测信息更加准确。
本公开的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
附图是用来提供对本公开的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本公开,但并不构成对本公开的限制。在附图中:
图1是根据一示例性实施例示出的一种信息处理方法流程图。
图2是根据一示例性实施例示出的一种信息处理方法的结果示意图。
图3是根据一示例性实施例示出的另一种信息处理方法流程图。
图4是根据一示例性实施例示出的一种信息处理装置的框图。
图5是根据一示例性实施例示出的一种电子设备的框图。
图6是根据一示例性实施例示出的另一种电子设备的框图。
具体实施方式
以下结合附图对本公开的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本公开,并不用于限制本公开。
表1是本公开实施例示出的一种样本数据示意图。
表1
Figure GDA0002852640540000071
以表1为例,数据库中包括问卷题目1-5,每一用户使用每一问卷题目的使用次数信息在相应的栏目中显示在对应的栏目中。其中,该使用次数信息可以是经归一化处理后的数值。比如说用户1对问卷题目2的使用次数为1000次,归一化处理后,对应的使用次数信息为1。在表1中,还有一些栏目的中标注“?”,这表明样本数据中暂无相应用户对相应问卷题目的使用次数信息。
在相关技术中,可以根据用户历史对问卷题目的使用次数,向用户推荐问卷题目。然而随着题库中问卷题目数量的增加,在样本数据中,可能并无用户对新加入的问卷题目的使用次数信息。比如说新加入的问卷题目为问卷题目5,而用户3对问卷题目5没有使用过,因此样本数据中用户3对问卷题目5的使用次数信息为“?”,即使用次数信息未知。
如果根据用户3历史对问卷题目的使用次数,向用户3推荐问卷题目。由于缺乏了问卷题目5对应的数据,在向用户3展示推荐问卷题目时,问卷题目5可能排列在其他问卷题目之后,这影响了向用户推荐问卷题目的全面性。
对此,可以根据已有的使用次数信息,通过一元线性方法对使用次数信息未知的栏目进行预测。比如说,用户1对问卷题目1的使用次数信息值为3,对问卷题目3的使用次数信息未知,进一步的,可以根据用户3和用户4对应的问卷题目使用次数信息对用户1对应的问卷题目使用次数信息进行关联的预测。具体的,用户3对问卷题目1的使用次数信息值为3,对问卷题目3的使用次数信息值为1,递减值为2;用户4对问卷题目1的使用次数信息值为5,对问卷题目3的使用次数信息值为3,递减值为2;递减值的平均值为2。即根据其他用户对两问卷题目的经验(也可理解成线性偏差规律),问卷题目1到问卷题目3平均会递减2分。
进一步的,可预测用户1对问卷题目1和问卷题目3的使用次数信息递减值为2,由此,得到用户1对问卷题目3的使用次数信息值为1(对问卷题目1的使用次数信息值3减去递减值2等于1)。
然而,问卷题目单纯的通过一元线性方法对使用次数信息未知的栏目进行预测方式过于死板,不能更好的反应问卷题目之间的关联性,这会导致预测结果不够精准。对此,本公开实施例提供一种信息处理方法,以提升预测的准确度。
图1是根据一示例性实施例示出的一种信息处理方法,该方法包括:
S11,获取样本数据,所述样本数据包括用户历史使用的问卷题目以及使用次数信息。
S12,针对每一目标用户,使用所述样本数据中其他用户历史使用的问卷题目以及问卷题目使用次数通过预测模型进行问卷题目兴趣度预测,得到对所述目标用户历史使用的问卷题目的次数预测信息,所述预测模型包括学习因子。
具体的,所述针对每一目标用户,使用所述样本数据中其他用户历史使用的问卷题目以及问卷题目使用次数通过预测模型进行问卷题目兴趣度预测,得到对所述目标用户历史使用的问卷题目的次数预测信息,所述预测模型包括学习因子,包括:
通过以下公式得到对所述目标用户历史使用的问卷题目i的次数预测信息Preui
Figure GDA0002852640540000091
其中,j表示问卷题目集合P中除所述问卷题目i以外的任一问卷题目;
Preui表示对应所述目标用户u对问卷题目i的所述次数预测信息;
Ruj表示所述目标用户u对问卷题目j的历史使用次数;
Nij表示所述样本数据中,用户集合Q中除所述目标用户u的所述其他用户u′历史使用的问卷题目中问卷题目i和问卷题目j均存在的交集样本数量;
TWij表示关联问卷题目i和问卷题目j的权重值;
Devij表示所述样本数据中,所述其他用户u′对问卷题目i的使用次数和问卷题目j使用次数之差的均值,即:
Figure GDA0002852640540000101
Ru′i表示任一所述其他用户u′对问卷题目i的历史使用次数;
Ru′j表示任一所述其他用户u′对问卷题目j的历史使用次数;
βij表示关联问卷题目i和问卷题目j的学习因子。
可选的,所述方法还包括:通过如下公式计算所述关联问卷题目i和问卷题目j的权重值TWij
TWij=Nij×Simij
其中,Simij表示问卷题目i和问卷题目j之间的相似度。
具体的,针对每一问卷题目设置有用于描述该问卷题目的各种特征属性,构建有相应的问卷题目属性矩阵。问卷题目i和问卷题目j之间的相似度可以是对两个问卷题目的问卷题目属性矩阵进行余弦计算得到的值。相似度越高,则余弦值越接近1;反之,相似度越低,余弦值越接近0。
S13,根据所述次数预测信息,以及所述样本数据中所述目标用户历史使用问卷题目的真实次数信息,计算所述预测模型的损失函数。
具体的,根据所述次数预测信息,以及所述样本数据中所述目标用户历史使用问卷题目的真实次数信息,计算所述预测模型的损失函数,包括:通过次数预测信息与真实次数信息之间的方差来体现预测模型的损失量,即通过以下公式表达所述损失函数Loss:
Figure GDA0002852640540000111
其中,Ruj表示所述目标用户u对问卷题目j的历史使用次数,m表示样本数据的数据量。
S14,根据所述损失函数更新所述预测模型中的学习因子,使得在新的学习因子下所述损失函数的计算结果减小。
具体的,所述根据所述损失函数更新所述预测模型中的学习因子,使得在新的学习因子下所述损失函数的计算结果减小,包括:计算所述损失函数对所述学习因子的梯度值;将所述梯度值与所述学习因子之和作为所述预测模型中的新的学习因子,使得在新的学习因子下所述损失函数的计算结果减小。
也就是说,可以利用梯度下降法求极值,反复迭代学习因子βij,使所述损失函数的计算结果减小。
对于样本数据中任意两个问卷题目,均可以通过梯度下降确定关联这两个问卷题目的学习因子βij,具体过程如下:
Figure GDA0002852640540000112
Figure GDA0002852640540000113
其中,Eui为次数预测信息与真实次数信息之间的差值即Rui-Preui,α为学习速率也可以理解为迭代的步长。在选取步长时,可以根据实际的使用需求选取步长,并设置学习因子βij的初始值。
S15,根据更新后的满足预设条件的学习因子确定目标预测模型,所述目标预测模型用于根据所述样本数据计算任一所述用户未使用过的问卷题目的次数预测信息。
可选的,所述根据更新后的满足预设条件的学习因子确定目标预测模型,包括:在对所述学习因子的更新次数达到预设阈值,和/或,所述损失函数的计算结果收敛时,将包括最近一次更新得到的学习因子的预测模型作为所述目标预测模型。
迭代停止的时候所确定的结果即为最优学习因子。迭代停止的情况可以有多种,比如说,当迭代的次数达到阈值便停止迭代,将最近一次迭代得到的学习因子βij输出;再比如说,当损失函数趋于收敛的时候便停止迭代,将最近一次迭代得到的学习因子βij输出。
为了更加直观的体现本示例性实施例所示方案的效果,选取用户使用频率较高的问卷题目i和问卷题目j拆分为不同比例的训练集和测试集,将上述迭代步长α设置为0.001,将学习因子βij的初始值设置成1。通过一元线性方法根据训练集对测试集的使用次数信息进行预测,预测结果的误差如图2“△点实线”所示;根据本实施例所示方法,由训练集训练得到目标预测模型,再对测试集的使用次数信息进行预测,预测结果的误差如图2“X点实线”所示。其中,横坐标为训练模型在训练过程中梯度下降的迭代次数,纵坐标为预测结果的标准误差RMSE。
标准误差RMSE越低准确性越高。随着动态迭代学习因子的增加,标准误差RMSE逐渐降低直至收敛,相应的推荐的准确性会逐渐增高直至收敛。
上述技术方案,至少能够达到以下技术效果:
通过预测模型得到对历史使用的问卷题目次数的次数预测信息,再根据所述次数预测信息,以及历史使用问卷题目的真实次数信息,计算所述预测模型的损失函数,进一步根据所述损失函数更新所述预测模型中的学习因子,使得在新的学习因子下所述损失函数的计算结果减小,继而得到更新后的满足预设条件的学习因子确定目标预测模型。由于多次迭代学习因子,能够使预测模型的次数预测信息与真实次数信息差值减小,因而预测模型能够更加准确的反映出题目之间的次数关系,使得根据样本数据计算任一所述用户未使用过的问卷题目的次数预测信息更加准确。
图3是根据一示例性实施例示出的一种信息处理方法,该方法包括:
S31,获取用户-题目矩阵,所述用户-题目矩阵包括任一用户对任一题目的使用次数信息。
具体的,所述样本数据可以是如表1所示的用户-题目矩阵。
S32,构建任意两个题目之间的使用次数偏差矩阵与相似度矩阵。
S33,根据所述任意两个题目之间的相似度和次数偏差矩阵中的样本数量初始化预测模型中的学习因子。
S34,根据梯度下降公式更新所述学习因子。
S35,根据所述使用次数偏差矩阵,以及所述预测模型计算次数预测信息。
S36,计算所述次数预测信息与所述用户-题目矩阵中使用次数信息之间的差值。
S37,判断所述差值是否小于预设阈值。
若所述差值小于预设阈值,则执行步骤S38;若所述差值未小于预设阈值,则跳转执行步骤S34。
在另一种可选的实施方式中,还判断重复执行步骤S34的次数是否到达预设阈值,判断迭代次数是否到达预设阈值,若达到预设阈值,则执行步骤S38;反之,跳转执行步骤S34。
S38,根据最近一次更新的学习因子确定目标预测模型。
在步骤S39之前,可以将生成的目标预测模型发送至线下。
S39,将线下数据输入所述目标预测模型计算任一所述用户未使用过的问卷题目的次数预测信息。
也就是说,读取所述目标预测函数,来填充线下数据中用户对题目使用次数的缺失项。填充之后,所述用户对题库中任一问卷题目的使用次数信息都已填充完整。进一步的,还可次数从高到底的顺序对题库中的题目进行排序。
S40,根据所述次数预测信息向所述用户推荐所述用户未使用过的问卷题目。
具体的,可以次数由优先向用户推荐次数预测值较高的问卷题目。
上述技术方案,通过构造的表征用户使用问卷题目的行为的用户-题目矩阵,且应用了学习因子去不断迭代优化预测函数,完成对矩阵中缺失的使用次数的预测,由于预测准确性有所提升,相应的根据预测值的推荐也更加准确。通过此种方式可以提高用户通过题库创建问卷时的效率,提升了用户体验。
图4是根据一示例性实施例示出的一种信息处理装置的框图。所述装置包括:
获取模块410,用于获取样本数据,所述样本数据包括用户历史使用的问卷题目以及使用次数信息;
预测模块420,用于针对每一目标用户,使用所述样本数据中其他用户历史使用的问卷题目以及问卷题目使用次数通过预测模型进行问卷题目兴趣度预测,得到对所述目标用户历史使用的问卷题目的次数预测信息,所述预测模型包括学习因子;
计算模块430,用于根据所述次数预测信息,以及所述样本数据中所述目标用户历史使用问卷题目的真实次数信息,计算所述预测模型的损失函数;
更新模块440,用于根据所述损失函数更新所述预测模型中的学习因子,使得在新的学习因子下所述损失函数的计算结果减小;
确定模块450,用于根据更新后的满足预设条件的学习因子确定目标预测模型,所述目标预测模型用于根据所述样本数据计算任一所述用户未使用过的问卷题目的次数预测信息。
上述技术方案,至少能够达到以下技术效果:
通过预测模型得到对历史使用的问卷题目次数的次数预测信息,再根据所述次数预测信息,以及历史使用问卷题目的真实次数信息,计算所述预测模型的损失函数,进一步根据所述损失函数更新所述预测模型中的学习因子,使得在新的学习因子下所述损失函数的计算结果减小,继而得到更新后的满足预设条件的学习因子确定目标预测模型。由于多次迭代学习因子,能够使预测模型的次数预测信息与真实次数信息差值减小,因而预测模型能够更加准确的反映出题目之间的次数关系,使得根据样本数据计算任一所述用户未使用过的问卷题目的次数预测信息更加准确。
可选的,所述预测模块,用于:
通过以下公式得到对所述目标用户历史使用的问卷题目i的次数预测信息Preui
Figure GDA0002852640540000151
其中,j表示问卷题目集合P中除所述问卷题目i以外的任一问卷题目;
Preui表示对应所述目标用户u对问卷题目i的所述次数预测信息;
Ruj表示所述目标用户u对问卷题目j的历史使用次数;
Nij表示所述样本数据中,用户集合Q中除所述目标用户u的所述其他用户u′历史使用的问卷题目中问卷题目i和问卷题目j均存在的交集样本数量;
TWij表示关联问卷题目i和问卷题目j的权重值;
Devij表示所述样本数据中,所述其他用户u′对问卷题目i的使用次数和问卷题目j使用次数之差的均值,即:
Figure GDA0002852640540000161
Ru′i表示任一所述其他用户u′对问卷题目i的历史使用次数;
Ru′j表示任一所述其他用户u′对问卷题目j的历史使用次数;
βij表示关联问卷题目i和问卷题目j的学习因子。
可选的,所述计算模块,用于:
通过以下公式表达所述损失函数Loss:
Figure GDA0002852640540000162
其中,Ruj表示所述目标用户u对问卷题目j的历史使用次数。
可选的,所述计算模块,还用于:
通过如下公式计算所述关联问卷题目i和问卷题目j的权重值TWij
TWij=Nij×Simij
其中,Simij表示问卷题目i和问卷题目j之间的相似度。
可选的,所述更新模块用于:
计算所述损失函数对所述学习因子的梯度值;
将所述梯度值与所述学习因子之和作为所述预测模型中的新的学习因子,使得在新的学习因子下所述损失函数的计算结果减小。
可选的,所述确定模块用于:
在对所述学习因子的更新次数达到预设阈值,和/或,所述损失函数的计算结果收敛时,将包括最近一次更新得到的学习因子的预测模型作为所述目标预测模型。
可选的,所述装置还包括推荐模块,用于:
将所述样本数据输入所述目标预测模型,计算任一所述用户未使用过的问卷题目的次数预测信息;
根据所述次数预测信息向所述用户推荐所述用户未使用过的问卷题目。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开实施例提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现任一项所述信息处理方法的步骤。
本公开实施例提供一种电子设备,包括:
存储器,其上存储有计算机程序;
处理器,用于执行所述存储器中的所述计算机程序,以实现任一项所述信息处理方法的步骤。
图5是根据一示例性实施例示出的一种电子设备500的框图。如图5所示,该电子设备500可以包括:处理器501,存储器502。该电子设备500还可以包括多媒体组件503,输入/输出(I/O)接口504,以及通信组件505中的一者或多者。
其中,处理器501用于控制该电子设备500的整体操作,以完成上述的信息处理方法中的全部或部分步骤。存储器502用于存储各种类型的数据以支持在该电子设备500的操作,这些数据例如可以包括用于在该电子设备500上操作的任何应用程序或方法的指令,以及应用程序相关的数据,例如,学习因子,预测函数模型,用户的信息,样本数据信息等等,还可以包括收发的消息,图像,视频,音频等信息。该存储器502可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,例如静态随机存取存储器(Static RandomAccess Memory,简称SRAM),电可擦除可编程只读存储器(Electrically ErasableProgrammable Read-Only Memory,简称EEPROM),可擦除可编程只读存储器(ErasableProgrammable Read-Only Memory,简称EPROM),可编程只读存储器(Programmable Read-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。多媒体组件503可以包括屏幕和音频组件。其中屏幕例如可以是触摸屏,音频组件用于输出和/或输入音频信号。例如,音频组件可以包括一个麦克风,麦克风用于接收外部音频信号。所接收的音频信号可以被进一步存储在存储器502或通过通信组件505发送。音频组件还包括至少一个扬声器,用于输出音频信号。I/O接口504为处理器501和其他接口模块之间提供接口,上述其他接口模块可以是键盘,鼠标,按钮等。这些按钮可以是虚拟按钮或者实体按钮。通信组件505用于该电子设备500与其他设备之间进行有线或无线通信。无线通信,例如Wi-Fi,蓝牙,近场通信(Near Field Communication,简称NFC),2G、3G、4G、NB-IOT、eMTC、或其他5G等等,或它们中的一种或几种的组合,在此不做限定。因此相应的该通信组件505可以包括:Wi-Fi模块,蓝牙模块,NFC模块等等。
在一示例性实施例中,电子设备500可以被一个或多个应用专用集成电路(Application Specific Integrated Circuit,简称ASIC)、数字信号处理器(DigitalSignal Processor,简称DSP)、数字信号处理设备(Digital Signal Processing Device,简称DSPD)、可编程逻辑器件(Programmable Logic Device,简称PLD)、现场可编程门阵列(Field Programmable Gate Array,简称FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述的信息处理方法。
在另一示例性实施例中,还提供了一种包括程序指令的计算机可读存储介质,该程序指令被处理器执行时实现上述的信息处理方法的步骤。例如,该计算机可读存储介质可以为上述包括程序指令的存储器502,上述程序指令可由电子设备500的处理器501执行以完成上述的信息处理方法。
图6是根据一示例性实施例示出的一种电子设备600的框图。例如,电子设备600可以被提供为一服务器。参照图6,电子设备600包括处理器622,其数量可以为一个或多个,以及存储器632,用于存储可由处理器622执行的计算机程序。存储器632中存储的计算机程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理器622可以被配置为执行该计算机程序,以执行上述的信息处理方法。
另外,电子设备600还可以包括电源组件626和通信组件650,该电源组件626可以被配置为执行电子设备600的电源管理,该通信组件650可以被配置为实现电子设备600的通信,例如,有线或无线通信。此外,该电子设备600还可以包括输入/输出(I/O)接口658。电子设备600可以操作基于存储在存储器632的操作系统,例如Windows ServerTM,Mac OSXTM,UnixTM,LinuxTM等等。
在另一示例性实施例中,还提供了一种包括程序指令的计算机可读存储介质,该程序指令被处理器执行时实现上述的信息处理方法的步骤。例如,该计算机可读存储介质可以为上述包括程序指令的存储器632,上述程序指令可由电子设备600的处理器622执行以完成上述的信息处理方法。
以上结合附图详细描述了本公开的优选实施方式,但是,本公开并不限于上述实施方式中的具体细节,在本公开的技术构思范围内,可以对本公开的技术方案进行多种简单变型,这些简单变型均属于本公开的保护范围。
另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合,为了避免不必要的重复,本公开对各种可能的组合方式不再另行说明。
此外,本公开的各种不同的实施方式之间也可以进行任意组合,只要其不违背本公开的思想,其同样应当视为本公开所公开的内容。

Claims (10)

1.一种信息处理方法,其特征在于,包括:
获取样本数据,所述样本数据包括用户历史使用的问卷题目以及使用次数信息;
针对每一目标用户,使用所述样本数据中其他用户历史使用的问卷题目以及问卷题目使用次数通过预测模型进行问卷题目兴趣度预测,得到对所述目标用户历史使用的问卷题目的次数预测信息,所述预测模型包括学习因子;
根据所述次数预测信息,以及所述样本数据中所述目标用户历史使用问卷题目的真实次数信息,计算所述预测模型的损失函数;
根据所述损失函数更新所述预测模型中的学习因子,使得在新的学习因子下所述损失函数的计算结果减小;
根据更新后的满足预设条件的学习因子确定目标预测模型,所述目标预测模型用于根据所述样本数据计算任一所述用户未使用过的问卷题目的次数预测信息。
2.根据权利要求1所述的方法,其特征在于,所述根据所述损失函数更新所述预测模型中的学习因子,使得在新的学习因子下所述损失函数的计算结果减小,包括:
计算所述损失函数对所述学习因子的梯度值;
将所述梯度值与所述学习因子之和作为所述预测模型中的新的学习因子,使得在新的学习因子下所述损失函数的计算结果减小。
3.根据权利要求1所述的方法,其特征在于,所述根据更新后的满足预设条件的学习因子确定目标预测模型,包括:
在对所述学习因子的更新次数达到预设阈值,和/或,所述损失函数的计算结果收敛时,将包括最近一次更新得到的学习因子的预测模型作为所述目标预测模型。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述方法还包括:
将所述样本数据输入所述目标预测模型,计算任一所述用户未使用过的问卷题目的次数预测信息;
根据所述次数预测信息向所述用户推荐所述用户未使用过的问卷题目。
5.一种信息处理装置,其特征在于,包括:
获取模块,用于获取样本数据,所述样本数据包括用户历史使用的问卷题目以及使用次数信息;
预测模块,用于针对每一目标用户,使用所述样本数据中其他用户历史使用的问卷题目以及问卷题目使用次数通过预测模型进行问卷题目兴趣度预测,得到对所述目标用户历史使用的问卷题目的次数预测信息,所述预测模型包括学习因子;
计算模块,用于根据所述次数预测信息,以及所述样本数据中所述目标用户历史使用问卷题目的真实次数信息,计算所述预测模型的损失函数;
更新模块,用于根据所述损失函数更新所述预测模型中的学习因子,使得在新的学习因子下所述损失函数的计算结果减小;
确定模块,用于根据更新后的满足预设条件的学习因子确定目标预测模型,所述目标预测模型用于根据所述样本数据计算任一所述用户未使用过的问卷题目的次数预测信息。
6.根据权利要求5所述的装置,其特征在于,所述更新模块用于:
计算所述损失函数对所述学习因子的梯度值;
将所述梯度值与所述学习因子之和作为所述预测模型中的新的学习因子,使得在新的学习因子下所述损失函数的计算结果减小。
7.根据权利要求5所述的装置,其特征在于,所述确定模块用于:
在对所述学习因子的更新次数达到预设阈值,和/或,所述损失函数的计算结果收敛时,将包括最近一次更新得到的学习因子的预测模型作为所述目标预测模型。
8.根据权利要求5-7任一项所述的装置,其特征在于,所述装置还包括推荐模块,用于:
将所述样本数据输入所述目标预测模型,计算任一所述用户未使用过的问卷题目的次数预测信息;
根据所述次数预测信息向所述用户推荐所述用户未使用过的问卷题目。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-4中任一项所述方法的步骤。
10.一种电子设备,其特征在于,包括:
存储器,其上存储有计算机程序;
处理器,用于执行所述存储器中的所述计算机程序,以实现权利要求1-4中任一项所述方法的步骤。
CN201910111812.6A 2019-02-12 2019-02-12 信息处理方法和装置,存储介质和电子设备 Active CN109948050B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910111812.6A CN109948050B (zh) 2019-02-12 2019-02-12 信息处理方法和装置,存储介质和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910111812.6A CN109948050B (zh) 2019-02-12 2019-02-12 信息处理方法和装置,存储介质和电子设备

Publications (2)

Publication Number Publication Date
CN109948050A CN109948050A (zh) 2019-06-28
CN109948050B true CN109948050B (zh) 2021-04-02

Family

ID=67007531

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910111812.6A Active CN109948050B (zh) 2019-02-12 2019-02-12 信息处理方法和装置,存储介质和电子设备

Country Status (1)

Country Link
CN (1) CN109948050B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110889490B (zh) * 2019-11-13 2024-04-26 联想(北京)有限公司 预测方法、装置、计算设备以及介质
CN114817222B (zh) * 2022-05-16 2023-09-05 河南翔宇医疗设备股份有限公司 一种量表优化方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106682768A (zh) * 2016-12-08 2017-05-17 北京粉笔蓝天科技有限公司 一种答题分数的预测方法、系统、终端及服务器
CN107967254A (zh) * 2017-10-31 2018-04-27 科大讯飞股份有限公司 知识点预测方法及装置、存储介质、电子设备
CN109272160A (zh) * 2018-09-17 2019-01-25 广州讯飞易听说网络科技有限公司 分数预测系统及预测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6832783B2 (ja) * 2017-04-20 2021-02-24 株式会社日立製作所 データ分析装置、データ分析方法、およびデータ分析プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106682768A (zh) * 2016-12-08 2017-05-17 北京粉笔蓝天科技有限公司 一种答题分数的预测方法、系统、终端及服务器
CN107967254A (zh) * 2017-10-31 2018-04-27 科大讯飞股份有限公司 知识点预测方法及装置、存储介质、电子设备
CN109272160A (zh) * 2018-09-17 2019-01-25 广州讯飞易听说网络科技有限公司 分数预测系统及预测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Informative prediction based on ordinal questionnaire data;Idé T, Dhurandhar A.;《IEEE International Conference on Data Mining》;20151231;191-200 *
The Sample Selection Model Based on Improved Autoencoder for the Online Questionnaire Investigation;Pang Y, Wu S, Zhu H.;《International Conference on Neural Information Processing》;20171231;175-184 *

Also Published As

Publication number Publication date
CN109948050A (zh) 2019-06-28

Similar Documents

Publication Publication Date Title
US10958748B2 (en) Resource push method and apparatus
US11122333B2 (en) User feature generation method and apparatus, device, and computer-readable storage medium
US10671933B2 (en) Method and apparatus for evaluating predictive model
CN110366734B (zh) 优化神经网络架构
US20190362222A1 (en) Generating new machine learning models based on combinations of historical feature-extraction rules and historical machine-learning models
CN112434188B (zh) 一种异构数据库的数据集成方法、装置及存储介质
CN107766573B (zh) 基于数据处理的商品推荐方法、装置、设备和存储介质
CN109948050B (zh) 信息处理方法和装置,存储介质和电子设备
CN112989146B (zh) 向目标用户推荐资源的方法、装置、设备、介质和程序产品
CN107291835B (zh) 一种搜索词的推荐方法和装置
US11550830B2 (en) Systems and methods for multi-source reference class identification, base rate calculation, and prediction
CN112364185A (zh) 多媒体资源的特征确定方法、装置、电子设备和存储介质
CN113366510A (zh) 经由训练的原始网络与双网络来执行多目标任务
CN113190154B (zh) 模型训练、词条分类方法、装置、设备、存储介质及程序
CN112905896A (zh) 一种推荐个数模型的训练方法、混合内容推荐方法及装置
CN110674330B (zh) 表情管理的方法、装置、电子设备及存储介质
CN112308196A (zh) 用于训练模型的方法、装置、设备以及存储介质
CN111459917B (zh) 知识库管理方法、装置及处理设备
CN112906994B (zh) 订单出餐时间预测方法、装置、电子设备及存储介质
US20230266720A1 (en) Quality aware machine teaching for autonomous platforms
CN109857838B (zh) 用于生成信息的方法和装置
US20200057959A1 (en) Reducing instances of inclusion of data associated with hindsight bias in a training set of data for a machine learning system
CN116662652A (zh) 模型训练方法、资源推荐方法、样本生成方法和装置
CN116385075A (zh) 神经网络的训练方法、装置、设备及计算机可读存储介质
CN117194687A (zh) 多媒体推荐方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant