CN111144546A - 评分方法、装置、电子设备及存储介质 - Google Patents

评分方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111144546A
CN111144546A CN201911056624.4A CN201911056624A CN111144546A CN 111144546 A CN111144546 A CN 111144546A CN 201911056624 A CN201911056624 A CN 201911056624A CN 111144546 A CN111144546 A CN 111144546A
Authority
CN
China
Prior art keywords
scoring
model
target
answer
question
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911056624.4A
Other languages
English (en)
Other versions
CN111144546B (zh
Inventor
陈桢博
金戈
徐亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Chuangke Technology Beijing Co ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201911056624.4A priority Critical patent/CN111144546B/zh
Publication of CN111144546A publication Critical patent/CN111144546A/zh
Priority to PCT/CN2020/119070 priority patent/WO2021082861A1/zh
Application granted granted Critical
Publication of CN111144546B publication Critical patent/CN111144546B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本发明提供一种评分方法、装置、电子设备及存储介质。该方法能够从获取的待评分数据中确定目标问题,当通过训练日志检测到所述目标问题不是首次出现时,调取记录的所述目标问题对应的目标关键词,从而以历史记录为依据,有效提升效率,进一步从所述待评分数据中确定目标答案,并调取预先训练的评分模型,所述评分模型是结合词向量字典以及通过随机森林算法提取的能够区分重要性的关键词训练卷积神经网络而得到,将所述目标关键词及所述目标答案输入到所述评分模型进行评分,不仅能够针对多种问题,精度又高,只需要训练一次模型,后续都可以直接使用,无需重复训练,减少了运算量,使模型更加轻量化,进而进行智能决策,实现对问题的自动评分。

Description

评分方法、装置、电子设备及存储介质
技术领域
本发明涉及智能决策技术领域,尤其涉及一种评分方法、装置、电子设备及存储介质。
背景技术
在现有技术方案中,通常采用深度学习算法或者传统的机器学习算法针对每一个问题一对一的建立模型,训练后的模型将根据答题内容输出评分结果。
然而,上述两种方式都存在一定的问题。
首先,当采用运算量较大的深度学习算法时,对于计算机的运算性能及存储性能均具有较高要求。
其次,当采用传统机器学习算法时,尽管对运算量的需求降低,但是模型精度也将下降。
因此,现有技术中一对一的评分模型,不仅使用不便,且无法取得运算量与精度之间的平衡。
发明内容
鉴于以上内容,有必要提供一种评分方法、装置、电子设备及存储介质,能够基于模型对问题答案进行自动评分。
一种评分方法,所述方法包括:
当接收到评分指令时,获取待评分数据;
从所述待评分数据中确定目标问题;
当通过训练日志检测到所述目标问题不是首次出现时,调取记录的所述目标问题对应的目标关键词;
从所述待评分数据中确定目标答案;
调取预先训练的评分模型,所述评分模型是结合词向量字典以及通过随机森林算法提取的能够区分重要性的关键词训练卷积神经网络而得到;
将所述目标关键词及所述目标答案输入到所述评分模型中,输出评分结果。
根据本发明优选实施例,所述方法还包括:
当通过所述训练日志检测到所述目标问题是首次出现时,基于所述随机森林算法提取所述目标问题对应的目标关键词。
根据本发明优选实施例,在调取预先训练的评分模型前,所述方法还包括:
获取样本数据,所述样本数据中包括至少一个问题,以及所述至少一个问题中每个问题的多种答案,及所述多种答案中每种答案的评分;
基于所述随机森林算法提取每个问题的关键词;
基于Word2Vec算法训练所述词向量字典;
采用卷积神经网络算法,基于所述词向量字典,以每个问题的关键词及每个问题的多种答案为输入,以每种答案的评分为输出,训练所述评分模型。
根据本发明优选实施例,在基于所述随机森林算法提取每个问题的关键词之前,所述方法还包括:
对每种答案进行分词处理;
提取分词处理后的每种答案的词袋模型特征;
对每种答案的评分进行二分类处理,得到高分答案及低分答案。
根据本发明优选实施例,所述基于所述随机森林算法提取每个问题的关键词包括:
基于所述随机森林算法,计算所述高分答案对应的词袋模型特征的第一重要性,及所述低分答案对应的词袋模型特征的第二重要性,其中,所述第一重要性是指所述高分答案对应的词袋模型特征在随机森林中的贡献,所述第二重要性是指所述低分答案对应的词袋模型特征在随机森林中的贡献;
按照重要性的高低,分别对所述第一重要性及所述第二重要性进行排序;
从所述第一重要性中获取重要性高的前预设个词袋模型特征作为所述高分答案的关键词;
从所述第二重要性中获取重要性高的前预设个词袋模型特征作为所述低分答案的关键词;
将所述高分答案的关键词及所述低分答案的关键词确定为每个问题的关键词。
根据本发明优选实施例,所述采用卷积神经网络算法,基于所述词向量字典,以每个问题的关键词及每个问题的多种答案为输入,以每种答案的评分为输出,训练所述评分模型包括:
在词嵌入层,基于所述词向量字典将每个问题的关键词及每个问题的多种答案转化为词向量;
将转化后的每个问题的关键词依次输入2层一维卷积层,得到第一输出;
将转化后的每个问题的多种答案依次输入4层卷积层,得到第二输出;
在全连接层汇总所述第一输出及所述第二输出,得到预测结果;
对比所述预测结果与每种答案的评分,得到误差;
基于反向传播算法调整所述误差,得到所述评分模型。
根据本发明优选实施例,在输出评分结果后,所述方法还包括:
加密所述评分结果;
将加密后的评分结果发送至指定终端设备。
一种评分装置,所述装置包括:
获取单元,用于当接收到评分指令时,获取待评分数据;
确定单元,用于从所述待评分数据中确定目标问题;
调取单元,用于当通过训练日志检测到所述目标问题不是首次出现时,调取记录的所述目标问题对应的目标关键词;
所述确定单元,还用于从所述待评分数据中确定目标答案;
所述调取单元,还用于调取预先训练的评分模型,所述评分模型是结合词向量字典以及通过随机森林算法提取的能够区分重要性的关键词训练卷积神经网络而得到;
输入单元,用于将所述目标关键词及所述目标答案输入到所述评分模型中,输出评分结果。
根据本发明优选实施例,所述装置还包括:
提取单元,用于当通过所述训练日志检测到所述目标问题是首次出现时,基于所述随机森林算法提取所述目标问题对应的目标关键词。
根据本发明优选实施例,所述获取单元,还用于在调取预先训练的评分模型前,获取样本数据,所述样本数据中包括至少一个问题,以及所述至少一个问题中每个问题的多种答案,及所述多种答案中每种答案的评分;
所述提取单元,还用于基于所述随机森林算法提取每个问题的关键词;
所述装置还包括:
训练单元,用于基于Word2Vec算法训练所述词向量字典;
所述训练单元,还用于采用卷积神经网络算法,基于所述词向量字典,以每个问题的关键词及每个问题的多种答案为输入,以每种答案的评分为输出,训练所述评分模型。
根据本发明优选实施例,所述装置还包括:
分词单元,用于在基于所述随机森林算法提取每个问题的关键词之前,对每种答案进行分词处理;
所述提取单元,还用于提取分词处理后的每种答案的词袋模型特征;
分类单元,用于对每种答案的评分进行二分类处理,得到高分答案及低分答案。
根据本发明优选实施例,所述提取单元基于所述随机森林算法提取每个问题的关键词包括:
基于所述随机森林算法,计算所述高分答案对应的词袋模型特征的第一重要性,及所述低分答案对应的词袋模型特征的第二重要性,其中,所述第一重要性是指所述高分答案对应的词袋模型特征在随机森林中的贡献,所述第二重要性是指所述低分答案对应的词袋模型特征在随机森林中的贡献;
按照重要性的高低,分别对所述第一重要性及所述第二重要性进行排序;
从所述第一重要性中获取重要性高的前预设个词袋模型特征作为所述高分答案的关键词;
从所述第二重要性中获取重要性高的前预设个词袋模型特征作为所述低分答案的关键词;
将所述高分答案的关键词及所述低分答案的关键词确定为每个问题的关键词。
根据本发明优选实施例,所述训练单元采用卷积神经网络算法,基于所述词向量字典,以每个问题的关键词及每个问题的多种答案为输入,以每种答案的评分为输出,训练所述评分模型包括:
在词嵌入层,基于所述词向量字典将每个问题的关键词及每个问题的多种答案转化为词向量;
将转化后的每个问题的关键词依次输入2层一维卷积层,得到第一输出;
将转化后的每个问题的多种答案依次输入4层卷积层,得到第二输出;
在全连接层汇总所述第一输出及所述第二输出,得到预测结果;
对比所述预测结果与每种答案的评分,得到误差;
基于反向传播算法调整所述误差,得到所述评分模型。
根据本发明优选实施例,所述装置还包括:
加密单元,用于在输出评分结果后,加密所述评分结果;
发送单元,用于将加密后的评分结果发送至指定终端设备。
一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现所述评分方法。
一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现所述评分方法。
由以上技术方案可以看出,本发明能够当接收到评分指令时,获取待评分数据,并从所述待评分数据中确定目标问题,当通过训练日志检测到所述目标问题不是首次出现时,调取记录的所述目标问题对应的目标关键词,从而以历史记录为依据,有效提升效率,进一步从所述待评分数据中确定目标答案,并调取预先训练的评分模型,所述评分模型是结合词向量字典以及通过随机森林算法提取的能够区分重要性的关键词训练卷积神经网络而得到,将所述目标关键词及所述目标答案输入到所述评分模型中,输出评分结果,由于随机森林算法提取的关键词能够区分好坏,且基于词向量字典训练的卷积神经网络不仅能够针对多种问题,精度又高,因此只需要训练一次卷积神经网络模型,后续再遇到新的问题时,都可以直接使用,无需重复训练,减少了运算量,使模型更加轻量化,并由此实现对问题的自动评分。
附图说明
图1是本发明评分方法的较佳实施例的流程图。
图2是本发明评分装置的较佳实施例的功能模块图。
图3是本发明实现评分方法的较佳实施例的电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明评分方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述评分方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能式穿戴式设备等。
所述电子设备还可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(CloudComputing)的由大量主机或网络服务器构成的云。
所述电子设备所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,当接收到评分指令时,获取待评分数据。
在本发明的至少一个实施例中,所述评分指令可以由任意用户触发,本发明不限制。
当然,在其他实施例中,为了提高安全性,所述方法还包括:
所述电子设备确定触发所述评分指令的用户,并对所述用户进行鉴权,当确定所述用户通过鉴权时,所述电子设备响应所述评分指令,或者当所述用户未通过鉴权时,所述电子设备不响应所述评分指令。
具体地,所述电子设备可以采用特征匹配的方式对所述用户进行鉴权,例如:虹膜匹配法、指纹匹配法等。
或者,所述电子设备还可以采用账号、密码匹配的方式对所述用户进行鉴权,以适应不同的使用场景。
通过上述实施方式,只有具备权限的用户才能对所述评分指令进行有效触发,以提高安全性。
在本发明的至少一个实施例中,所述待评分数据包括,但不限于以下一种或者多种的组合:
目标问题、目标答案等。
其中,所述目标问题是指用户回答的问题,所述目标答案是指用户针对所述目标问题所给出的答案。
S11,从所述待评分数据中确定目标问题。
在本发明的至少一个实施例中,所述待评分数据包括所述目标问题。
具体地,所述电子设备可以基于自然语言处理技术,从所述待评分数据中确定所述目标问题,或者通过识别关键标识(如:?)等从所述待评分数据中确定所述目标问题,本发明不限制。
S12,当通过训练日志检测到所述目标问题不是首次出现时,调取记录的所述目标问题对应的目标关键词。
在本发明的至少一个实施例中,当通过训练日志检测到所述目标问题不是首次出现时,说明所述目标问题已经被训练过,而为了方便后续使用,以提高效率,所述电子设备会记录所述目标问题的关键词,因此所述电子设备无需其他处理,可以直接调取记录的所述目标问题对应的目标关键词。
在本发明的至少一个实施例中,所述方法还包括:
当通过所述训练日志检测到所述目标问题是首次出现时,所述电子设备基于所述随机森林算法提取所述目标问题对应的目标关键词。
通过上述实施方式,能够在所述目标问题不是首次出现时,基于所述随机森林算法实现对所述目标关键词的提取,为后续的评分做准备。
S13,从所述待评分数据中确定目标答案。
在本发明的至少一个实施例中,所述待评分数据包括所述目标答案。
具体地,所述电子设备可以基于自然语言处理技术,从所述待评分数据中确定所述目标答案,或者通过识别关键标识(如:A)等从所述待评分数据中确定所述目标答案,本发明不限制。
S14,调取预先训练的评分模型。
在本发明的至少一个实施例中,所述评分模型是一种卷积神经网络模型,所述评分模型是结合词向量字典以及通过随机森林算法提取的能够区分重要性的关键词训练卷积神经网络而得到。
具体地,在调取预先训练的评分模型前,所述方法还包括:
所述电子设备训练所述评分模型。
具体地,所述电子设备获取样本数据,所述样本数据中包括至少一个问题,以及所述至少一个问题中每个问题的多种答案,及所述多种答案中每种答案的评分,所述电子设备进一步基于所述随机森林算法提取每个问题的关键词,并基于Word2Vec算法训练所述词向量字典,所述电子设备采用卷积神经网络算法,基于所述词向量字典,以每个问题的关键词及每个问题的多种答案为输入,以每种答案的评分为输出,训练所述评分模型。
其中,所述词向量字典能够量化词语,使每一个词语均对应一组向量,以量化其词义。并且,词义相近的词语往往具有距离相近的词向量。
首先,不同于现有技术中只是根据相似度进行评分模型训练的方式,本案中将随机森林算法与卷积神经网络算法相结合。现有技术中主要采用TF-IDF、Topic-model、RAKE(Rapid Automatic Keyword Extraction)算法进行关键词的提取。
由于本案的目的是评分,因此不仅要能够提取出关键词,还要能够区分关键词的好坏,为了达到上述目的,本案采用泛化程度高的随机森林算法构建关键词,通过多层决策树的构建,不仅能够不受样本多样性的影响,提取出区分好坏的关键词,还有效降低了由于多种问题的不均衡分配造成的偏差,鉴于本案中不仅限于一个问题,问题的多样性,使采用随机森林算法时精确度更高。
具体地,所述电子设备用有抽样放回的方法(bootstrap)从样本集中选取n个样本作为一个训练集,再用抽样得到的样本集生成一棵决策树。在生成的每一个结点,随机不重复地选择d个特征,并利用这d个特征分别对样本集进行划分,进而找到最佳的划分特征,重复上述步骤(重复的次数为随机森林中决策树的个数),再用训练得到的随机森林对测试样本进行预测,并用票选法决定预测的结果,整合预测的结果,得到所述关键词。其中,n、d为大于或者等于0的整数。在提取关键词的同时,所述电子设备计算每个关键词在随机森林中的每颗树上做了多大的贡献,然后计算贡献的平均值,最后比较关键词之间的贡献大小,以确定每个关键词的重要性。
其次,在本案中,基于一个词向量字典训练卷积神经网络,由于词向量字典中涵盖了海量数据作为支撑,因此,词向量字典的引入,能够使训练得到的卷积神经网络具有更强的泛化能力,进而能够使最终训练得到的评分模型适用于多种问题的评分。
最后,以采用随机森林算法提取的每个问题的关键词及每个问题的多种答案为输入,以每种答案的评分为输出,并基于词向量字典训练所述评分模型,由于随机森林算法提取的关键词能够区分好坏,且基于词向量字典训练的卷积神经网络不仅能够针对多种问题,精度又高,因此不同于现有技术方案中每次都要针对一个问题重新训练的方式,本案中只需要训练一次卷积神经网络模型,后续再遇到新的问题时,都可以直接使用,无需重复训练,达到一劳永逸的效果,这与现有技术中一对一训练的方式也是不同的,同时,由于无需重复训练所述卷积神经网络模型,减少了运算量,使模型更加轻量化。
在本发明的至少一个实施例中,在基于所述随机森林算法提取每个问题的关键词之前,所述方法还包括:
所述电子设备对每种答案进行分词处理,并提取分词处理后的每种答案的词袋模型特征,所述电子设备对每种答案的评分进行二分类处理,得到高分答案及低分答案。
具体地,所述电子设备对每种答案进行分词处理时主要采取了以下技术手段:
(1)所述电子设备基于Trie树结构实现高效的词图扫描,生成每种答案中汉字所有可能成词情况所构成的有向无环图(DAG)。
(2)所述电子设备采用动态规划查找最大概率路径,找出基于词频的最大切分组合。
(3)对于未登录词,所述电子设备采用基于汉字成词能力的隐马尔可夫模型(Hidden Markov Model,HMM),并使用了维特比(Viterbi)算法。
上面只对分词中的主要技术手段进行了简要描述,而由于此部分并非本案重点,因此对分词处理的详细步骤不再赘述。
进一步地,所述词袋模型特征是汇总每种答案中出现的词语后得到的特征。
例如:答案A中包括两个句子:“我喜欢吃苹果”,以及“他喜欢吃西瓜”,则所述答案A对应的词袋模型特征为“我、喜欢、吃、苹果、他、西瓜”。
更进一步地,所述电子设备对每种答案的评分进行二分类处理,得到高分答案及低分答案包括:
所述电子设备配置预设分值,当有第一答案的评分大于或者等于所述预设分值时,所述电子设备确定所述第一答案为高分答案;或者当有第二答案的评分小于所述预设分值时,所述电子设备确定所述第二答案为低分答案。
其中,所述预设分值可以进行自定义配置,例如:80分、85分等,本发明在此不做限制。
在本发明的至少一个实施例中,所述基于所述随机森林算法提取每个问题的关键词包括:
所述电子设备基于所述随机森林算法,计算所述高分答案对应的词袋模型特征的第一重要性,及所述低分答案对应的词袋模型特征的第二重要性,并按照重要性的高低,分别对所述第一重要性及所述第二重要性进行排序,所述电子设备从所述第一重要性中获取重要性高的前预设个词袋模型特征作为所述高分答案的关键词,并从所述第二重要性中获取重要性高的前预设个词袋模型特征作为所述低分答案的关键词,所述电子设备将所述高分答案的关键词及所述低分答案的关键词确定为每个问题的关键词。
具体地,所述电子设备基于所述随机森林算法,计算所述高分答案对应的词袋模型特征的第一重要性,及所述低分答案对应的词袋模型特征的第二重要性主要基于如下原理:
确定每个词袋模型特征在随机森林中的每颗树上做了多大的贡献,然后对贡献取平均值,最后对比每个词袋模型特征之间的贡献大小。
由于具体计算方式已经较为成熟,本发明在此不赘述。
在本发明的至少一个实施例中,所述电子设备采用卷积神经网络算法,基于所述词向量字典,以每个问题的关键词及每个问题的多种答案为输入,以每种答案的评分为输出,训练所述评分模型包括:
在词嵌入层,所述电子设备基于所述词向量字典将每个问题的关键词及每个问题的多种答案转化为词向量,并将转化后的每个问题的关键词依次输入2层一维卷积层,得到第一输出,所述电子设备将转化后的每个问题的多种答案依次输入4层卷积层,得到第二输出,进一步在全连接层汇总所述第一输出及所述第二输出,得到预测结果,所述电子设备对比所述预测结果与每种答案的评分,得到误差,并基于反向传播算法调整所述误差,得到所述评分模型。
在现有技术方案中,卷积神经网络通常由2层卷积和2层全连接网络构成,而为了达到更高的精度,使本案的评分更加精确,且同时满足评分需求,本案中对卷积神经网络的层级结构进行了调整,不仅加入了词嵌入层,且通过不断的试验,使评分模型的精确度不断提高,最终得到本案的层级结构。也就是说,不同于现有技术方案的是,本案中的神经网络算法包括词嵌入层、2层一维卷积层及4层卷积层,并最终在全连接层进行汇总,层级结构的改进使神经网络模型更加适用于评分,且这种层级结构上的优化也有效提高了模型的泛化能力,使模型更加适用于对多种问题进行评分。
具体地,在训练所述评分模型时,还可以采用损失函数(如:交叉熵),以及训练优化算法(如:Adam优化器)优化所述评分模型。
并且,所述评分模型的建立与训练均可以通过Python的tensorflow库实现,具体地,以所述tensorflow库为载体,由于所述tensorflow库中预先存储了多种网络结构模型,因此在所述tensorflow库基础上训练,降低了开发难度,使模型的训练更加高效。
通过上述实施方式,即可基于卷积神经网络算法训练得到所述评分模型,以供后续评分使用。
S15,将所述目标关键词及所述目标答案输入到所述评分模型中,输出评分结果。
在本发明的至少一个实施例中,由于所述评分模型的特性,所述评分结果并非一个具体的数值,而是一个分数区间。
通过上述事实方式,能够实现对多种问题的自动评分,并且对于新的问题,由于所述卷积神经网络模型无需重复训练,因此能够减少运算量,且模型精度较高,也并非一对一进行评分,适用性更好。
在本发明的至少一个实施例中,在输出评分结果后,所述方法还包括:
所述电子设备加密所述评分结果,并将加密后的评分结果发送至指定终端设备。
其中,所述指定终端设备可以是自定义的设备,如:触发所述评分指令的用户的终端设备、人资的终端设备等。
具体地,所述电子设备对加密方式不限制,如:对称加密方式、哈希加密方式、非对称加密方式等。
通过上述实施方式,能够有效保证评分结果的安全性,避免所述评分结果被恶意篡改,给用户造成麻烦。
由以上技术方案可以看出,本发明能够当接收到评分指令时,获取待评分数据,并从所述待评分数据中确定目标问题,当通过训练日志检测到所述目标问题不是首次出现时,调取记录的所述目标问题对应的目标关键词,从而以历史记录为依据,有效提升效率,进一步从所述待评分数据中确定目标答案,并调取预先训练的评分模型,所述评分模型是结合词向量字典以及通过随机森林算法提取的能够区分重要性的关键词训练卷积神经网络而得到,将所述目标关键词及所述目标答案输入到所述评分模型中,输出评分结果,由于随机森林算法提取的关键词能够区分好坏,且基于词向量字典训练的卷积神经网络不仅能够针对多种问题,精度又高,因此只需要训练一次卷积神经网络模型,后续再遇到新的问题时,都可以直接使用,无需重复训练,减少了运算量,使模型更加轻量化,并由此实现对问题的自动评分。
如图2所示,是本发明评分装置的较佳实施例的功能模块图。所述评分装置11包括获取单元110、确定单元111、调取单元112、输入单元113、提取单元114、训练单元115、分词单元116、分类单元117、加密单元118以及发送单元119。本发明所称的模块/单元是指一种能够被处理器13所执行,并且能够完成固定功能的一系列计算机程序段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
当接收到评分指令时,获取单元110获取待评分数据。
在本发明的至少一个实施例中,所述评分指令可以由任意用户触发,本发明不限制。
当然,在其他实施例中,为了提高安全性,所述方法还包括:
确定单元111确定触发所述评分指令的用户,并对所述用户进行鉴权,当确定所述用户通过鉴权时,所述确定单元111响应所述评分指令,或者当所述用户未通过鉴权时,所述确定单元111不响应所述评分指令。
具体地,所述确定单元111可以采用特征匹配的方式对所述用户进行鉴权,例如:虹膜匹配法、指纹匹配法等。
或者,所述确定单元111还可以采用账号、密码匹配的方式对所述用户进行鉴权,以适应不同的使用场景。
通过上述实施方式,只有具备权限的用户才能对所述评分指令进行有效触发,以提高安全性。
在本发明的至少一个实施例中,所述待评分数据包括,但不限于以下一种或者多种的组合:
目标问题、目标答案等。
其中,所述目标问题是指用户回答的问题,所述目标答案是指用户针对所述目标问题所给出的答案。
所述确定单元111从所述待评分数据中确定目标问题。
在本发明的至少一个实施例中,所述待评分数据包括所述目标问题。
具体地,所述确定单元111可以基于自然语言处理技术,从所述待评分数据中确定所述目标问题,或者通过识别关键标识(如:?)等从所述待评分数据中确定所述目标问题,本发明不限制。
当通过训练日志检测到所述目标问题不是首次出现时,调取单元112调取记录的所述目标问题对应的目标关键词。
在本发明的至少一个实施例中,当通过训练日志检测到所述目标问题不是首次出现时,说明所述目标问题已经被训练过,而为了方便后续使用,以提高效率,会记录所述目标问题的关键词,因此所述调取单元112无需其他处理,可以直接调取记录的所述目标问题对应的目标关键词。
在本发明的至少一个实施例中,所述方法还包括:
当通过所述训练日志检测到所述目标问题是首次出现时,提取单元114基于所述随机森林算法提取所述目标问题对应的目标关键词。
通过上述实施方式,能够在所述目标问题不是首次出现时,基于所述随机森林算法实现对所述目标关键词的提取,为后续的评分做准备。
所述确定单元111从所述待评分数据中确定目标答案。
在本发明的至少一个实施例中,所述待评分数据包括所述目标答案。
具体地,所述确定单元111可以基于自然语言处理技术,从所述待评分数据中确定所述目标答案,或者通过识别关键标识(如:A)等从所述待评分数据中确定所述目标答案,本发明不限制。
所述调取单元112调取预先训练的评分模型。
在本发明的至少一个实施例中,所述评分模型是一种卷积神经网络模型,所述评分模型是结合词向量字典以及通过随机森林算法提取的能够区分重要性的关键词训练卷积神经网络而得到。
具体地,在调取预先训练的评分模型前,所述方法还包括:
训练单元115训练所述评分模型。
具体地,所述训练单元115获取样本数据,所述样本数据中包括至少一个问题,以及所述至少一个问题中每个问题的多种答案,及所述多种答案中每种答案的评分,所述训练单元115进一步基于所述随机森林算法提取每个问题的关键词,并基于Word2Vec算法训练所述词向量字典,所述训练单元115采用卷积神经网络算法,基于所述词向量字典,以每个问题的关键词及每个问题的多种答案为输入,以每种答案的评分为输出,训练所述评分模型。
其中,所述词向量字典能够量化词语,使每一个词语均对应一组向量,以量化其词义。并且,词义相近的词语往往具有距离相近的词向量。
首先,不同于现有技术中只是根据相似度进行评分模型训练的方式,本案中将随机森林算法与卷积神经网络算法相结合。现有技术中主要采用TF-IDF、Topic-model、RAKE(Rapid Automatic Keyword Extraction)算法进行关键词的提取。
由于本案的目的是评分,因此不仅要能够提取出关键词,还要能够区分关键词的好坏,为了达到上述目的,本案采用泛化程度高的随机森林算法构建关键词,通过多层决策树的构建,不仅能够不受样本多样性的影响,提取出区分好坏的关键词,还有效降低了由于多种问题的不均衡分配造成的偏差,鉴于本案中不仅限于一个问题,问题的多样性,使采用随机森林算法时精确度更高。
具体地,所述训练单元115用有抽样放回的方法(bootstrap)从样本集中选取n个样本作为一个训练集,再用抽样得到的样本集生成一棵决策树。在生成的每一个结点,随机不重复地选择d个特征,并利用这d个特征分别对样本集进行划分,进而找到最佳的划分特征,重复上述步骤(重复的次数为随机森林中决策树的个数),再用训练得到的随机森林对测试样本进行预测,并用票选法决定预测的结果,整合预测的结果,得到所述关键词。其中,n、d为大于或者等于0的整数。在提取关键词的同时,所述训练单元115计算每个关键词在随机森林中的每颗树上做了多大的贡献,然后计算贡献的平均值,最后比较关键词之间的贡献大小,以确定每个关键词的重要性。
其次,在本案中,基于一个词向量字典训练卷积神经网络,由于词向量字典中涵盖了海量数据作为支撑,因此,词向量字典的引入,能够使训练得到的卷积神经网络具有更强的泛化能力,进而能够使最终训练得到的评分模型适用于多种问题的评分。
最后,以采用随机森林算法提取的每个问题的关键词及每个问题的多种答案为输入,以每种答案的评分为输出,并基于词向量字典训练所述评分模型,由于随机森林算法提取的关键词能够区分好坏,且基于词向量字典训练的卷积神经网络不仅能够针对多种问题,精度又高,因此不同于现有技术方案中每次都要针对一个问题重新训练的方式,本案中只需要训练一次卷积神经网络模型,后续再遇到新的问题时,都可以直接使用,无需重复训练,达到一劳永逸的效果,这与现有技术中一对一训练的方式也是不同的,同时,由于无需重复训练所述卷积神经网络模型,减少了运算量,使模型更加轻量化。
在本发明的至少一个实施例中,在基于所述随机森林算法提取每个问题的关键词之前,所述方法还包括:
分词单元116对每种答案进行分词处理,所述提取单元114提取分词处理后的每种答案的词袋模型特征,分类单元117对每种答案的评分进行二分类处理,得到高分答案及低分答案。
具体地,所述分词单元116对每种答案进行分词处理时主要采取了以下技术手段:
(1)所述分词单元116基于Trie树结构实现高效的词图扫描,生成每种答案中汉字所有可能成词情况所构成的有向无环图(DAG)。
(2)所述分词单元116采用动态规划查找最大概率路径,找出基于词频的最大切分组合。
(3)对于未登录词,所述分词单元116采用基于汉字成词能力的隐马尔可夫模型(Hidden Markov Model,HMM),并使用了维特比(Viterbi)算法。
上面只对分词中的主要技术手段进行了简要描述,而由于此部分并非本案重点,因此对分词处理的详细步骤不再赘述。
进一步地,所述词袋模型特征是汇总每种答案中出现的词语后得到的特征。
例如:答案A中包括两个句子:“我喜欢吃苹果”,以及“他喜欢吃西瓜”,则所述答案A对应的词袋模型特征为“我、喜欢、吃、苹果、他、西瓜”。
更进一步地,所述分类单元117对每种答案的评分进行二分类处理,得到高分答案及低分答案包括:
所述分类单元117配置预设分值,当有第一答案的评分大于或者等于所述预设分值时,所述分类单元117确定所述第一答案为高分答案;或者当有第二答案的评分小于所述预设分值时,所述分类单元117确定所述第二答案为低分答案。
其中,所述预设分值可以进行自定义配置,例如:80分、85分等,本发明在此不做限制。
在本发明的至少一个实施例中,所述提取单元114基于所述随机森林算法提取每个问题的关键词包括:
所述提取单元114基于所述随机森林算法,计算所述高分答案对应的词袋模型特征的第一重要性,及所述低分答案对应的词袋模型特征的第二重要性,并按照重要性的高低,分别对所述第一重要性及所述第二重要性进行排序,所述提取单元114从所述第一重要性中获取重要性高的前预设个词袋模型特征作为所述高分答案的关键词,并从所述第二重要性中获取重要性高的前预设个词袋模型特征作为所述低分答案的关键词,所述提取单元114将所述高分答案的关键词及所述低分答案的关键词确定为每个问题的关键词。
具体地,所述提取单元114基于所述随机森林算法,计算所述高分答案对应的词袋模型特征的第一重要性,及所述低分答案对应的词袋模型特征的第二重要性主要基于如下原理:
确定每个词袋模型特征在随机森林中的每颗树上做了多大的贡献,然后对贡献取平均值,最后对比每个词袋模型特征之间的贡献大小。
由于具体计算方式已经较为成熟,本发明在此不赘述。
在本发明的至少一个实施例中,所述训练单元115采用卷积神经网络算法,基于所述词向量字典,以每个问题的关键词及每个问题的多种答案为输入,以每种答案的评分为输出,训练所述评分模型包括:
在词嵌入层,所述训练单元115基于所述词向量字典将每个问题的关键词及每个问题的多种答案转化为词向量,并将转化后的每个问题的关键词依次输入2层一维卷积层,得到第一输出,所述训练单元115将转化后的每个问题的多种答案依次输入4层卷积层,得到第二输出,进一步在全连接层汇总所述第一输出及所述第二输出,得到预测结果,所述训练单元115对比所述预测结果与每种答案的评分,得到误差,并基于反向传播算法调整所述误差,得到所述评分模型。
在现有技术方案中,卷积神经网络通常由2层卷积和2层全连接网络构成,而为了达到更高的精度,使本案的评分更加精确,且同时满足评分需求,本案中对卷积神经网络的层级结构进行了调整,不仅加入了词嵌入层,且通过不断的试验,使评分模型的精确度不断提高,最终得到本案的层级结构。也就是说,不同于现有技术方案的是,本案中的神经网络算法包括词嵌入层、2层一维卷积层及4层卷积层,并最终在全连接层进行汇总,层级结构的改进使神经网络模型更加适用于评分,且这种层级结构上的优化也有效提高了模型的泛化能力,使模型更加适用于对多种问题进行评分。
具体地,在训练所述评分模型时,还可以采用损失函数(如:交叉熵),以及训练优化算法(如:Adam优化器)优化所述评分模型。
并且,所述评分模型的建立与训练均可以通过Python的tensorflow库实现,具体地,以所述tensorflow库为载体,由于所述tensorflow库中预先存储了多种网络结构模型,因此在所述tensorflow库基础上训练,降低了开发难度,使模型的训练更加高效。
通过上述实施方式,即可基于卷积神经网络算法训练得到所述评分模型,以供后续评分使用。
输入单元113将所述目标关键词及所述目标答案输入到所述评分模型中,输出评分结果。
在本发明的至少一个实施例中,由于所述评分模型的特性,所述评分结果并非一个具体的数值,而是一个分数区间。
通过上述事实方式,能够实现对多种问题的自动评分,并且对于新的问题,由于所述卷积神经网络模型无需重复训练,因此能够减少运算量,且模型精度较高,也并非一对一进行评分,适用性更好。
在本发明的至少一个实施例中,在输出评分结果后,所述方法还包括:
加密单元118加密所述评分结果,发送单元119将加密后的评分结果发送至指定终端设备。
其中,所述指定终端设备可以是自定义的设备,如:触发所述评分指令的用户的终端设备、人资的终端设备等。
具体地,所述加密单元118对加密方式不限制,如:对称加密方式、哈希加密方式、非对称加密方式等。
通过上述实施方式,能够有效保证评分结果的安全性,避免所述评分结果被恶意篡改,给用户造成麻烦。
由以上技术方案可以看出,本发明能够当接收到评分指令时,获取待评分数据,并从所述待评分数据中确定目标问题,当通过训练日志检测到所述目标问题不是首次出现时,调取记录的所述目标问题对应的目标关键词,从而以历史记录为依据,有效提升效率,进一步从所述待评分数据中确定目标答案,并调取预先训练的评分模型,所述评分模型是结合词向量字典以及通过随机森林算法提取的能够区分重要性的关键词训练卷积神经网络而得到,将所述目标关键词及所述目标答案输入到所述评分模型中,输出评分结果,由于随机森林算法提取的关键词能够区分好坏,且基于词向量字典训练的卷积神经网络不仅能够针对多种问题,精度又高,因此只需要训练一次卷积神经网络模型,后续再遇到新的问题时,都可以直接使用,无需重复训练,减少了运算量,使模型更加轻量化,并由此实现对问题的自动评分。
如图3所示,是本发明实现评分方法的较佳实施例的电子设备的结构示意图。
在本发明的一个实施例中,所述电子设备1包括,但不限于,存储器12、处理器13,以及存储在所述存储器12中并可在所述处理器13上运行的计算机程序,例如评分程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。
所述处理器13可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器13是所述电子设备1的运算核心和控制中心,利用各种接口和线路连接整个电子设备1的各个部分,及执行所述电子设备1的操作系统以及安装的各类应用程序、程序代码等。
所述处理器13执行所述电子设备1的操作系统以及安装的各类应用程序。所述处理器13执行所述应用程序以实现上述各个评分方法实施例中的步骤,例如图1所示的步骤S10、S11、S12、S13、S14、S15。
或者,所述处理器13执行所述计算机程序时实现上述各装置实施例中各模块/单元的功能,例如:当接收到评分指令时,获取待评分数据;从所述待评分数据中确定目标问题;当通过训练日志检测到所述目标问题不是首次出现时,调取记录的所述目标问题对应的目标关键词;从所述待评分数据中确定目标答案;调取预先训练的评分模型;将所述目标关键词及所述目标答案输入到所述评分模型中,输出评分结果。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述电子设备1中的执行过程。例如,所述计算机程序可以被分割成获取单元110、确定单元111、调取单元112、输入单元113、提取单元114、训练单元115、分词单元116、分类单元117、加密单元118以及发送单元119。
所述存储器12可用于存储所述计算机程序和/或模块,所述处理器13通过运行或执行存储在所述存储器12内的计算机程序和/或模块,以及调用存储在存储器12内的数据,实现所述电子设备1的各种功能。所述存储器12可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据电子设备的使用所创建的数据(比如音频数据等)等。此外,存储器12可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。
所述存储器12可以是电子设备1的外部存储器和/或内部存储器。进一步地,所述存储器12可以是集成电路中没有实物形式的具有存储功能的电路,如FIFO(First InFirst Out,)等。或者,所述存储器12也可以是具有实物形式的存储器,如内存条、TF卡(Trans-flash Card)等等。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
结合图1,所述电子设备1中的所述存储器12存储多个指令以实现一种评分方法,所述处理器13可执行所述多个指令从而实现:当接收到评分指令时,获取待评分数据;从所述待评分数据中确定目标问题;当通过训练日志检测到所述目标问题不是首次出现时,调取记录的所述目标问题对应的目标关键词;从所述待评分数据中确定目标答案;调取预先训练的评分模型;将所述目标关键词及所述目标答案输入到所述评分模型中,输出评分结果。
具体地,所述处理器13对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种评分方法,其特征在于,所述方法包括:
当接收到评分指令时,获取待评分数据;
从所述待评分数据中确定目标问题;
当通过训练日志检测到所述目标问题不是首次出现时,调取记录的所述目标问题对应的目标关键词;
从所述待评分数据中确定目标答案;
调取预先训练的评分模型,所述评分模型是结合词向量字典以及通过随机森林算法提取的能够区分重要性的关键词训练卷积神经网络而得到;
将所述目标关键词及所述目标答案输入到所述评分模型中,输出评分结果。
2.如权利要求1所述的评分方法,其特征在于,所述方法还包括:
当通过所述训练日志检测到所述目标问题是首次出现时,基于所述随机森林算法提取所述目标问题对应的目标关键词。
3.如权利要求1所述的评分方法,其特征在于,在调取预先训练的评分模型前,所述方法还包括:
获取样本数据,所述样本数据中包括至少一个问题,以及所述至少一个问题中每个问题的多种答案,及所述多种答案中每种答案的评分;
基于所述随机森林算法提取每个问题的关键词;
基于Word2Vec算法训练所述词向量字典;
采用卷积神经网络算法,基于所述词向量字典,以每个问题的关键词及每个问题的多种答案为输入,以每种答案的评分为输出,训练所述评分模型。
4.如权利要求3所述的评分方法,其特征在于,在基于所述随机森林算法提取每个问题的关键词之前,所述方法还包括:
对每种答案进行分词处理;
提取分词处理后的每种答案的词袋模型特征;
对每种答案的评分进行二分类处理,得到高分答案及低分答案。
5.如权利要求4所述的评分方法,其特征在于,所述基于所述随机森林算法提取每个问题的关键词包括:
基于所述随机森林算法,计算所述高分答案对应的词袋模型特征的第一重要性,及所述低分答案对应的词袋模型特征的第二重要性,其中,所述第一重要性是指所述高分答案对应的词袋模型特征在随机森林中的贡献,所述第二重要性是指所述低分答案对应的词袋模型特征在随机森林中的贡献;
按照重要性的高低,分别对所述第一重要性及所述第二重要性进行排序;
从所述第一重要性中获取重要性高的前预设个词袋模型特征作为所述高分答案的关键词;
从所述第二重要性中获取重要性高的前预设个词袋模型特征作为所述低分答案的关键词;
将所述高分答案的关键词及所述低分答案的关键词确定为每个问题的关键词。
6.如权利要求3所述的评分方法,其特征在于,所述采用卷积神经网络算法,基于所述词向量字典,以每个问题的关键词及每个问题的多种答案为输入,以每种答案的评分为输出,训练所述评分模型包括:
在词嵌入层,基于所述词向量字典将每个问题的关键词及每个问题的多种答案转化为词向量;
将转化后的每个问题的关键词依次输入2层一维卷积层,得到第一输出;
将转化后的每个问题的多种答案依次输入4层卷积层,得到第二输出;
在全连接层汇总所述第一输出及所述第二输出,得到预测结果;
对比所述预测结果与每种答案的评分,得到误差;
基于反向传播算法调整所述误差,得到所述评分模型。
7.如权利要求1所述的评分方法,其特征在于,在输出评分结果后,所述方法还包括:
加密所述评分结果;
将加密后的评分结果发送至指定终端设备。
8.一种评分装置,其特征在于,所述装置包括:
获取单元,用于当接收到评分指令时,获取待评分数据;
确定单元,用于从所述待评分数据中确定目标问题;
调取单元,用于当通过训练日志检测到所述目标问题不是首次出现时,调取记录的所述目标问题对应的目标关键词;
所述确定单元,还用于从所述待评分数据中确定目标答案;
所述调取单元,还用于调取预先训练的评分模型,所述评分模型是结合词向量字典以及通过随机森林算法提取的能够区分重要性的关键词训练卷积神经网络而得到;
输入单元,用于将所述目标关键词及所述目标答案输入到所述评分模型中,输出评分结果。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现如权利要求1至7中任意一项所述的评分方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述的评分方法。
CN201911056624.4A 2019-10-31 2019-10-31 评分方法、装置、电子设备及存储介质 Active CN111144546B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201911056624.4A CN111144546B (zh) 2019-10-31 2019-10-31 评分方法、装置、电子设备及存储介质
PCT/CN2020/119070 WO2021082861A1 (zh) 2019-10-31 2020-09-29 评分方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911056624.4A CN111144546B (zh) 2019-10-31 2019-10-31 评分方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN111144546A true CN111144546A (zh) 2020-05-12
CN111144546B CN111144546B (zh) 2024-01-02

Family

ID=70516950

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911056624.4A Active CN111144546B (zh) 2019-10-31 2019-10-31 评分方法、装置、电子设备及存储介质

Country Status (2)

Country Link
CN (1) CN111144546B (zh)
WO (1) WO2021082861A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021082861A1 (zh) * 2019-10-31 2021-05-06 平安科技(深圳)有限公司 评分方法、装置、电子设备及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113782187B (zh) * 2021-09-10 2023-06-27 深圳平安智慧医健科技有限公司 指标数据处理方法、相关设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180032870A1 (en) * 2015-10-22 2018-02-01 Tencent Technology (Shenzhen) Company Limited Evaluation method and apparatus based on text analysis, and storage medium
CN108038209A (zh) * 2017-12-18 2018-05-15 深圳前海微众银行股份有限公司 答案选择方法、装置和计算机可读存储介质
CN109284357A (zh) * 2018-08-29 2019-01-29 腾讯科技(深圳)有限公司 人机对话方法、装置、电子设备及计算机可读介质
CN109815317A (zh) * 2018-12-13 2019-05-28 重庆德塔蔓灵科技有限公司 一种排序学习方法、系统、计算机可读存储介质及设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4872214B2 (ja) * 2005-01-19 2012-02-08 富士ゼロックス株式会社 自動採点装置
CN107066553B (zh) * 2017-03-24 2021-01-01 北京工业大学 一种基于卷积神经网络与随机森林的短文本分类方法
CN108182175B (zh) * 2017-12-29 2021-01-05 中国银联股份有限公司 一种文本质量指标获取方法及装置
CN111144546B (zh) * 2019-10-31 2024-01-02 平安创科科技(北京)有限公司 评分方法、装置、电子设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180032870A1 (en) * 2015-10-22 2018-02-01 Tencent Technology (Shenzhen) Company Limited Evaluation method and apparatus based on text analysis, and storage medium
CN108038209A (zh) * 2017-12-18 2018-05-15 深圳前海微众银行股份有限公司 答案选择方法、装置和计算机可读存储介质
CN109284357A (zh) * 2018-08-29 2019-01-29 腾讯科技(深圳)有限公司 人机对话方法、装置、电子设备及计算机可读介质
CN109815317A (zh) * 2018-12-13 2019-05-28 重庆德塔蔓灵科技有限公司 一种排序学习方法、系统、计算机可读存储介质及设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021082861A1 (zh) * 2019-10-31 2021-05-06 平安科技(深圳)有限公司 评分方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN111144546B (zh) 2024-01-02
WO2021082861A1 (zh) 2021-05-06

Similar Documents

Publication Publication Date Title
CN110263324B (zh) 文本处理方法、模型训练方法和装置
Kluever et al. Balancing usability and security in a video CAPTCHA
Chang et al. Semantic pooling for complex event analysis in untrimmed videos
CN106302522B (zh) 一种基于神经网络和大数据的网络安全态势分析方法和系统
CN110162593A (zh) 一种搜索结果处理、相似度模型训练方法及装置
CN110019794B (zh) 文本资源的分类方法、装置、存储介质及电子装置
CN110234018B (zh) 多媒体内容描述生成方法、训练方法、装置、设备及介质
TW201435640A (zh) 人機識別方法及系統
Thieltges et al. The devil’s triangle: Ethical considerations on developing bot detection methods
CN108829656B (zh) 网络信息的数据处理方法及数据处理装置
Perry et al. No-doubt: Attack attribution based on threat intelligence reports
CN111816170B (zh) 一种音频分类模型的训练和垃圾音频识别方法和装置
CN111144546B (zh) 评分方法、装置、电子设备及存储介质
US11275994B2 (en) Unstructured key definitions for optimal performance
US9286529B1 (en) Generating weights for biometric tokens in probabilistic matching systems
CN114338064A (zh) 识别网络流量类型的方法、装置、设备和存储介质
KR20190118904A (ko) 영상 분석 기반 토픽 모델링 영상 검색 시스템 및 방법
US10783140B2 (en) System and method for augmenting answers from a QA system with additional temporal and geographic information
WO2021245924A1 (ja) 処理装置、処理方法および処理プログラム
CN112989007B (zh) 基于对抗网络的知识库扩展方法、装置及计算机设备
Silva et al. Method for collecting relevant topics from Twitter supported by big data
CN115935358A (zh) 一种恶意软件识别方法、装置、电子设备及存储介质
CN113269179B (zh) 数据处理方法、装置、设备及存储介质
US20220108071A1 (en) Information processing device, information processing system, and non-transitory computer readable medium
CN115314268A (zh) 基于流量指纹和行为的恶意加密流量检测方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20231206

Address after: Unit 1201, 12th Floor, Block B, 101, 3rd to 24th floors, Xinyuan South Road, Chaoyang District, Beijing

Applicant after: Ping An Chuangke Technology (Beijing) Co.,Ltd.

Address before: 518000 Guangdong, Shenzhen, Futian District Futian street Fu'an community Yitian road 5033, Ping An financial center, 23 floor.

Applicant before: PING AN TECHNOLOGY (SHENZHEN) Co.,Ltd.

GR01 Patent grant
GR01 Patent grant