CN114757154A - 基于深度学习的作业生成方法、装置、设备及存储介质 - Google Patents

基于深度学习的作业生成方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN114757154A
CN114757154A CN202210662947.3A CN202210662947A CN114757154A CN 114757154 A CN114757154 A CN 114757154A CN 202210662947 A CN202210662947 A CN 202210662947A CN 114757154 A CN114757154 A CN 114757154A
Authority
CN
China
Prior art keywords
standard
knowledge point
text
output
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210662947.3A
Other languages
English (en)
Other versions
CN114757154B (zh
Inventor
钟惠心
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Chengru Technology Co ltd
Original Assignee
Shenzhen Chengru Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Chengru Technology Co ltd filed Critical Shenzhen Chengru Technology Co ltd
Priority to CN202210662947.3A priority Critical patent/CN114757154B/zh
Publication of CN114757154A publication Critical patent/CN114757154A/zh
Application granted granted Critical
Publication of CN114757154B publication Critical patent/CN114757154B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/274Converting codes to words; Guess-ahead of partial word inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及人工智能技术,揭露了一种基于深度学习的作业生成方法,包括:将预先获取的目标知识点文本转化为初始句子序列;通过递归神经网络的次序递归算法生成初始句子序列的预测输出;并根据预设的交叉损失函数得到预测输出的损失值,根据损失值对递归神经网络的参数进行更新优化,得到例题生成模型;将预先获取的目标关联文本转化为标准关联词向量;利用预设的自注意算法和标准关联词向量对预设的自注意模型进行训练,得到选项生成模型;通过预设的作业管理平台接收教师端上传的关键词,利用例题生成模型和选项生成模型根据关键词生成目标作业。本发明还提出一种基于深度学习的作业生成装置、设备以及介质。本发明可以提高作业生成的灵活度。

Description

基于深度学习的作业生成方法、装置、设备及存储介质
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于深度学习的作业生成方法、装置、设备及存储介质。
背景技术
随着数字化时代的到来,人工智能逐渐走进了人们日常的生产生活中,为了减轻教师的教学压力,更新教材模板,需要帮助教师结合分析教学的知识点,进而根据知识点内容生成相关的作业。
现有的作业生成技术多为基于大数据的关键词匹配,进而从题库中检索相关的问题与选项,例如,将教师输入的知识点在数据库中进行检索,选取包含知识点关键字的题目推送给教师,实际应用中,在题库范围较小时,可能会检索不到与知识点相关的作业例题,可能导致生成的作业的题型过于单一,从而导致进行作业生成时的灵活度较低。
发明内容
本发明提供一种基于深度学习的作业生成方法、装置、设备及存储介质,其主要目的在于解决进行作业生成时的灵活度较低的问题。
为实现上述目的,本发明提供的一种基于深度学习的作业生成方法,包括:
对预先获取的目标知识点文本进行去噪处理,得到标准知识点文本;
对所述标准知识点文本进行文本分词,并根据文本分词的结果将所述标准知识点文本转化为初始句子序列;
利用所述递归神经网络的次序递归算法生成所述初始句子序列的预测向前输出和预测向后输出;
根据预设的交叉损失函数及所述预测向前输出得到向前损失值,根据所述交叉损失函数和所述预测向后输出得到向后损失值,根据所述向前损失值和所述向后损失值对所述递归神经网络的参数进行更新优化,得到例题生成模型;
对预先获取的目标关联文本进行分词处理,得到标准关联词语,并将所述标准关联词语转化为标准关联词向量;
利用预设的自注意算法和所述标准关联词向量对预设的自注意模型进行训练,得到选项生成模型;
通过预设的作业管理平台接收教师端上传的关键词,利用所述例题生成模型根据所述关键词生成对应的作业例题,利用所述选项生成模型根据所述关键词和所述作业例题生成对应的例题选项,将所述作业例题与所述例题选项进行组合,得到目标作业。
可选地,所述对所述标准知识点文本进行文本分词,并根据文本分词的结果将所述标准知识点文本转化为初始句子序列,包括:
对所述标准知识点文本进行文本分句,得到标准知识点句子;
对所述标准知识点句子进行分词处理,得到标准知识点词语;
对所述标准知识点词语进行序列化处理,得到知识点词语编号;
根据所述知识点词语编号将所述标准知识点句子转化为初始句子序列。
可选地,所述对所述标准知识点词语进行序列化处理,得到知识点词语编号,包括:
对所述标准知识点词语进行重复词语过滤,得到目标知识点词语;
将所述目标知识点词语按照预设的检索排序规则逐个存入预设的标准词典;
将所述目标知识点词语在所述标准词典中的次序作为所述知识点词语编号。
可选地,所述利用递归神经网络的次序递归算法生成所述初始句子序列的预测向前输出和预测向后输出,包括:
构建由输入层、向前隐藏层、向后隐藏层以及输出层组成的递归神经网络;
将所述初始句子序列输入所述递归神经网络的向前隐藏层,利用如下次序递归算法计算所述向前隐藏层输出的向前特征,并通过所述输出层的全连接层和归一层将所述向前特征转化成预测向前输出:
Figure 869839DEST_PATH_IMAGE001
Figure 209816DEST_PATH_IMAGE002
Figure 723974DEST_PATH_IMAGE003
其中,
Figure 588024DEST_PATH_IMAGE004
是指
Figure 323768DEST_PATH_IMAGE005
时刻所述向前隐藏层的第
Figure 880651DEST_PATH_IMAGE006
个隐藏单元的输入,
Figure 616526DEST_PATH_IMAGE007
是所述输入层的输 入单元的数量,
Figure 238263DEST_PATH_IMAGE008
是指第
Figure 641562DEST_PATH_IMAGE009
个输入单元到第
Figure 103768DEST_PATH_IMAGE006
个隐藏单元的预设权重参数,
Figure 779468DEST_PATH_IMAGE010
是指
Figure 782059DEST_PATH_IMAGE005
时刻第
Figure 977549DEST_PATH_IMAGE009
个 输入单元的输入,
Figure 141814DEST_PATH_IMAGE011
是隐藏单元的数量,
Figure 603013DEST_PATH_IMAGE012
是指第
Figure 346978DEST_PATH_IMAGE013
个隐藏单元到第
Figure 662553DEST_PATH_IMAGE006
个隐藏单元的预设 权重参数,
Figure 715829DEST_PATH_IMAGE014
是指t-1时刻第
Figure 179171DEST_PATH_IMAGE013
个隐藏单元的非线性可微分激活函数的输出,
Figure 726827DEST_PATH_IMAGE015
是指t时刻 第
Figure 693646DEST_PATH_IMAGE006
个隐藏单元的非线性可微分激活函数的输出,
Figure 702445DEST_PATH_IMAGE016
是最似然估计函数,
Figure 325187DEST_PATH_IMAGE017
是指第
Figure 942113DEST_PATH_IMAGE006
个隐藏 单元到第
Figure 12706DEST_PATH_IMAGE018
个输出单元的预设权重参数,
Figure 627359DEST_PATH_IMAGE019
是指
Figure 534135DEST_PATH_IMAGE005
时刻所述输出层的第
Figure 174326DEST_PATH_IMAGE018
个输出单元的输出;
对所述初始句子序列进行反向,得到逆向句子序列,将所述逆向句子序列输入所述递归神经网络的向后隐藏层,利用所述次序递归算法得到所述向后隐藏层输出的向后特征,并通过所述输出层的全连接层和归一层将所述向后特征转化成预测向后输出。
可选地,所述根据预设的交叉损失函数和所述预测向前输出得到向前损失值,包括:
利用如下交叉损失函数计算所述向前隐藏层的向前损失值:
Figure 381316DEST_PATH_IMAGE020
其中,
Figure 166870DEST_PATH_IMAGE021
是所述向前隐藏层的向前损失值,
Figure 810209DEST_PATH_IMAGE022
是所述初始句子序列的长度,
Figure 768938DEST_PATH_IMAGE023
是指第
Figure 502539DEST_PATH_IMAGE023
个所述目标知识点词语,
Figure 6464DEST_PATH_IMAGE024
是指第
Figure 887832DEST_PATH_IMAGE023
个所述目标知识点词语的向前损失值,
Figure 384672DEST_PATH_IMAGE025
是指所述标准词 典的大小,
Figure 300676DEST_PATH_IMAGE026
是指第
Figure 411720DEST_PATH_IMAGE023
个所述目标知识点词语在所述向前隐藏层的输出,
Figure 45964DEST_PATH_IMAGE027
是指所述向前隐 藏层的输出是所述标准词典中的第
Figure 80916DEST_PATH_IMAGE027
个所述目标知识点词语的正确概率,
Figure 602158DEST_PATH_IMAGE028
是第
Figure 634836DEST_PATH_IMAGE023
个所述目 标知识点词语的预测向前输出。
可选地,所述将所述标准关联词语转化为标准关联词向量,包括:
将所述标准关联词语按照所述检索排序规则逐个存入预设的关联词词典;
根据所述标准关联词语在所述关联词词典的序号,将所述标准关联词语向量化,得到初始关联词向量;
逐个在所述初始关联词向量中添加预设的位置向量,得到标准关联词向量。
可选地,所述利用预设的自注意算法和所述标准关联词向量对预设的自注意模型进行训练,得到选项生成模型,包括:
利用如下自注意算法将所述标准关联词向量编码为自注意力向量:
Figure 490797DEST_PATH_IMAGE029
其中,
Figure 578707DEST_PATH_IMAGE030
是指所述自注意力向量,
Figure 203724DEST_PATH_IMAGE031
是指所述标准关联词向量的数量,
Figure 469620DEST_PATH_IMAGE032
是指所述标 准关联词向量的序号,
Figure 547298DEST_PATH_IMAGE033
是归一化函数,
Figure 137767DEST_PATH_IMAGE034
表示第
Figure 617290DEST_PATH_IMAGE032
个所述标准关联词向量,
Figure 54087DEST_PATH_IMAGE035
Figure 133908DEST_PATH_IMAGE036
Figure 314353DEST_PATH_IMAGE037
是所 述标准关联词向量的预设权重矩阵,
Figure 851645DEST_PATH_IMAGE038
是指
Figure 475655DEST_PATH_IMAGE039
向量的维度,
Figure 527925DEST_PATH_IMAGE040
是转置函数;
利用预设的前馈网络对所述自注意力向量进行编码,得到关联词向量编码;
利用预构建的自注意模型的解码器对所述关联词向量编码进行解码,得到预测词向量;
通过预设的困惑度算法及所述预测词向量对所述自注意模型的权重参数进行更新优化,得到选项生成模型。
为了解决上述问题,本发明还提供一种基于深度学习的作业生成装置,所述装置包括:
文本去噪模块,用于对预先获取的目标知识点文本进行去噪处理,得到标准知识点文本;
文本序列化模块,用于对所述标准知识点文本进行文本分词,并根据文本分词的结果将所述标准知识点文本转化为初始句子序列;
预测输出模块,用于利用所述递归神经网络的次序递归算法生成所述初始句子序列的预测向前输出和预测向后输出;
损失优化模块,用于根据预设的交叉损失函数及所述预测向前输出得到向前损失值,根据所述交叉损失函数和所述预测向后输出得到向后损失值,根据所述向前损失值和所述向后损失值对所述递归神经网络的参数进行更新优化,得到例题生成模型;
文本向量化模块,用于对预先获取的目标关联文本进行分词处理,得到标准关联词语,并将所述标准关联词语转化为标准关联词向量;
模型训练模块,用于利用预设的自注意算法和标准关联词向量对预设的自注意模型进行训练,得到选项生成模型;
作业生成模块,用于通过预设的作业管理平台接收教师端上传的关键词,利用所述例题生成模型根据所述关键词生成对应的作业例题,利用所述选项生成模型根据所述关键词和所述作业例题生成对应的例题选项,将所述作业例题与所述例题选项进行组合,得到目标作业。
为了解决上述问题,本发明还提供一种基于深度学习的作业生成设备,所述设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述所述的基于深度学习的作业生成方法。
为了解决上述问题,本发明还提供一种存储介质,所述存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被基于深度学习的作业生成设备中的处理器执行以实现上述所述的基于深度学习的作业生成方法。
本发明实施例通过对所述标准知识点文本进行文本分词,并根据文本分词的结果将所述标准知识点文本转化为初始句子序列能够方便后续递归神经网络的训练,得到所述标准知识点文本上下文的特征,进而保证后续作业例题的可读性;通过所述递归神经网络的次序递归算法生成所述初始句子序列的预测向前输出和预测向后输出,能够保证生成的例题的灵活多样,进而提高目标作业的灵活度,根据所述向前损失值和所述向后损失值对递归神经网络的参数进行更新优化,得到例题生成模型,能够清楚地展示预测输出的差值,保证所述例题生成模型生成作业例题的可读性与关联性,提高作业例题的质量,所述对预先获取的目标关联文本进行分词处理,得到标准关联词语,并将所述标准关联词语转化为标准关联词向量能够保证后续生成的例题选项和关键词具有关联关系,符合作业例题的逻辑,同时也极大地增强了例题选项的灵活度,通过利用预设的自注意算法和标准关联词向量对预设的自注意模型进行训练,得到选项生成模型,能够提高自注意模型训练的速度与精确度,保障例题选项的混淆性,提高目标作业的质量。因此本发明提出的基于深度学习的作业生成方法、装置、设备及存储介质,可以解决进行作业生成时的灵活度较低的问题。
附图说明
图1为本发明一实施例提供的基于深度学习的作业生成方法的流程示意图;
图2为本发明一实施例提供的生成初始句子序列的流程示意图;
图3为本发明一实施例提供的生成标准关联词向量的流程示意图;
图4为本发明一实施例提供的基于深度学习的作业生成装置的功能模块图;
图5为本发明一实施例提供的实现所述基于深度学习的作业生成方法的设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种基于深度学习的作业生成方法。所述基于深度学习的作业生成方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的设备中的至少一种。换言之,所述基于深度学习的作业生成方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的基于深度学习的作业生成方法的流程示意图。在本实施例中,所述基于深度学习的作业生成方法包括:
S1、对预先获取的目标知识点文本进行去噪处理,得到标准知识点文本;
本发明实施例中,所述目标知识点文本可以是教材文本,包括,但不限于语文教材、历史教材以及英语教材等便于出题的教材文本。
详细地,对所述目标知识点文本进行去噪处理是指通过正则表达式去除所述目标知识点文本中的特殊符号与特定字符,例如“@”、“♬”及“#”,得到标准知识点文本。
本发明实施例中,所述对预先获取的目标知识点文本进行去噪处理,得到标准知识点文本能够保证后续文本分词的准确性。
S2、对所述标准知识点文本进行文本分词,并根据文本分词的结果将所述标准知识点文本转化为初始句子序列。
本发明实施例中,参照图2所示,所述对所述标准知识点文本进行文本分词,并根据文本分词的结果将所述标准知识点文本转化为初始句子序列,包括:
S21、对所述标准知识点文本进行文本分句,得到标准知识点句子;
S22、对所述标准知识点句子进行分词处理,得到标准知识点词语;
S23、对所述标准知识点词语进行序列化处理,得到知识点词语编号;
S24、根据所述知识点词语编号将所述标准知识点句子转化为初始句子序列。
详细地,本发明实施例可以通过正则表达式识别所述标准知识点文本中的标点符号,按照所述标点符号对所述标准知识点文本进行分句处理,得到标准知识点句子。
进一步地,本发明实施例可以通过最大匹配算法 (Maximum Matching)对所述标准知识点句子进行分词处理,得到标准知识点词语。
详细地,所述对所述标准知识点词语进行序列化处理,得到知识点词语编号,包括:
对所述标准知识点词语进行重复词语过滤,得目标知识点词语;
将所述目标知识点词语按照预设的检索排序规则逐个存入预设的标准词典;
将所述目标知识点词语在所述标准词典中的次序作为所述知识点词语编号。
具体地,所述检索排序规则为预先确定的用于将检索词存入词典时对检索词进行有序排列的规则,例如,将所述目标知识点词语按照首个字符拼音首字母的顺序进行排列;再例如,将所述目标知识点词语按照首个字符的笔画数量进行排序等。
本发明实施例中,所述对所述标准知识点文本进行文本分词,并根据文本分词的结果将所述标准知识点文本转化为初始句子序列能够方便后续对递归神经网络进行有序的训练,以提升所述递归神经网络的精确度。
S3、利用递归神经网络的次序递归算法生成所述初始句子序列的预测向前输出和预测向后输出;
本发明实施例中,所述利用递归神经网络的次序递归算法生成所述初始句子序列的预测向前输出和预测向后输出,包括:
构建由输入层、向前隐藏层、向后隐藏层以及输出层组成的递归神经网络;
将所述初始句子序列输入所述递归神经网络的向前隐藏层,利用如下次序递归算法计算所述向前隐藏层输出的向前特征,并通过所述输出层的全连接层和归一层将所述向前特征转化成预测向前输出:
Figure 246482DEST_PATH_IMAGE041
Figure 153127DEST_PATH_IMAGE042
Figure 931728DEST_PATH_IMAGE043
其中,
Figure 736872DEST_PATH_IMAGE004
是指
Figure 478695DEST_PATH_IMAGE005
时刻所述向前隐藏层的第
Figure 787316DEST_PATH_IMAGE006
个隐藏单元的输入,
Figure 205659DEST_PATH_IMAGE044
是所述输入层的输 入单元的数量,
Figure 419472DEST_PATH_IMAGE008
是指第
Figure 10990DEST_PATH_IMAGE009
个输入单元到第
Figure 174118DEST_PATH_IMAGE006
个隐藏单元的预设权重参数,
Figure 248516DEST_PATH_IMAGE010
是指
Figure 762674DEST_PATH_IMAGE005
时刻第
Figure 892304DEST_PATH_IMAGE009
个 输入单元的输入,
Figure 159206DEST_PATH_IMAGE011
是隐藏单元的数量,
Figure 716089DEST_PATH_IMAGE012
是指第
Figure 655226DEST_PATH_IMAGE013
个隐藏单元到第
Figure 67841DEST_PATH_IMAGE006
个隐藏单元的预设 权重参数,
Figure 939982DEST_PATH_IMAGE014
是指t-1时刻第
Figure 933346DEST_PATH_IMAGE013
个隐藏单元的非线性可微分激活函数的输出,
Figure 156517DEST_PATH_IMAGE015
是指t时刻 第个隐藏单元的非线性可微分激活函数的输出,
Figure 814900DEST_PATH_IMAGE016
是最似然估计函数,
Figure 72706DEST_PATH_IMAGE017
是指第
Figure 971392DEST_PATH_IMAGE006
个隐藏 单元到第
Figure 370275DEST_PATH_IMAGE018
个输出单元的预设权重参数,
Figure 645398DEST_PATH_IMAGE019
是指
Figure 210241DEST_PATH_IMAGE005
时刻所述输出层的第
Figure 14248DEST_PATH_IMAGE018
个输出单元的输出;
对所述初始句子序列进行反向,得到逆向句子序列,将所述逆向句子序列输入所述递归神经网络的向后隐藏层,利用所述次序递归算法得到所述向后隐藏层输出的向后特征,并通过所述输出层的全连接层和归一层将所述向后特征转化成预测向后输出。
详细地,所述对所述初始句子序列进行反向,得到逆向句子序列是指将所述初始句子序列中的词向量的顺序进行倒序排序。
本发明实施例中,通过所述递归神经网络的次序递归算法生成所述初始句子序列的预测向前输出和预测向后输出,能够保证生成的例题的灵活多样。
S4、根据预设的交叉损失函数及所述预测向前输出得到向前损失值,根据所述交叉损失函数和所述预测向后输出得到向后损失值,根据所述向前损失值和所述向后损失值对所述递归神经网络的参数进行更新优化,得到例题生成模型;
本发明实施例中,利用如下损失函数计算所述向前隐藏层的向前损失值:
Figure 477591DEST_PATH_IMAGE045
其中,
Figure 25247DEST_PATH_IMAGE021
是所述向前隐藏层的向前损失值,
Figure 742798DEST_PATH_IMAGE022
是所述初始句子序列的长度,
Figure 920970DEST_PATH_IMAGE023
是指第
Figure 606029DEST_PATH_IMAGE023
个所述目标知识点词语,
Figure 472223DEST_PATH_IMAGE024
是指第
Figure 293548DEST_PATH_IMAGE023
个所述目标知识点词语的向前损失值,
Figure 908200DEST_PATH_IMAGE025
是指所述标准词 典的大小,
Figure 565709DEST_PATH_IMAGE026
是指第
Figure 455168DEST_PATH_IMAGE023
个所述目标知识点词语在所述向前隐藏层的输出,
Figure 662158DEST_PATH_IMAGE027
是指所述向前隐 藏层的输出的正确概率,
Figure 978870DEST_PATH_IMAGE028
是第
Figure 825472DEST_PATH_IMAGE023
个所述目标知识点词语的预测向前输出。
详细地,所述根据所述交叉损失函数和所述预测向后输出得到向后损失值的步骤与上述根据预设的交叉损失函数和所述预测向前输出得到向前损失值的步骤一致,这里不再赘述。
本发明实施例中,所述根据所述向前损失值和所述向后损失值对递归神经网络的参数进行更新优化,得到例题生成模型,能够清楚地展示预测输出的差值,保证所述例题生成模型生成作业例题的可读性与关联性,提高作业例题的质量。
S5、对预先获取的目标关联文本进行分词处理,得到标准关联词语,并将所述标准关联词语转化为标准关联词向量;
本发明实施例中,所述目标关联文本可以是通过python在网络上爬取的日常课文文本。如,所述日常语言文本可以是网站上发布的古诗词、数学题、英语短文等。
本发明实施例中,所述对预先获取的目标关联文本进行分词处理,得到标准关联词语,包括:
对所述目标关联文本进行去噪处理,得到标准关联文本;
对所述目标关联文本进行文本分句,得到标准关联句子;
对所述标准关联句子进行文本分词、词形归一、以及停用词过滤操作,得到标准关联词语。
详细地,所述对所述目标关联文本进行去噪处理,得到标准关联文本的步骤与上述步骤S1中对所述目标知识点文本进行去噪处理,得到标准知识点文本的步骤一致,这里不再赘述。
具体地,所述对所述目标关联文本进行文本分句,得到标准关联句子的步骤与上述步骤S2中对所述标准知识点文本进行文本分句,得到标准知识点句子的步骤一致,这里不再赘述。
详细地,所述文本分词与上述步骤S2中对所述标准知识点句子进行分词处理,得到标准知识点词语的步骤一致,这里不再赘述。
具体地,所述词形归一是指将不同形态的同一词语进行归一化处理,方便后续处理,例如将“went”归一成“go”等;以及所述停用词过滤是指去除表意不明,没有意义的停用词,例如中文的“的”,英语的“the”等。
详细地,参照图3所示,所述将所述标准关联词语转化为标准关联词向量,包括:
S31、将所述标准关联词语按照所述检索排序规则逐个存入预设的关联词词典;
S32、根据所述标准关联词语在所述关联词词典的序号,将所述标准关联词语向量化,得到初始关联词向量;
S33、逐个在所述初始关联词向量中添加预设的位置向量,得到标准关联词向量。
详细地,可以通过独热编码将所述标准关联词语向量化,得到初始关联词向量。所述独热编码(One-Hot)编码,又称一位有效编码,其方法是使用N位状态寄存器来对N个状态进行编码,每个状态都有它独立的寄存器位,并且在任意时候,其中只有一位有效。
本发明实施例中,所述位置向量是指用于标识每个初始关联词向量对应的标准关联词的位置信息的向量。详细地,本发明实施例可以通过sin函数和cos函数给所述初始关联词向量加上预设的位置向量。
本发明实施例中通过对预先获取的目标关联文本进行分词处理,得到标准关联词语,并将所述标准关联词语转化为标准关联词向量能够将文本形式的标准关联词转换为数值形式,提升后续计算分析的效率。
S6、利用预设的自注意算法和所述标准关联词向量对预设的自注意模型进行训练,得到选项生成模型;
本发明实施例中,所述利用预设的自注意算法和所述标准关联词向量对预设的自注意模型进行训练,得到选项生成模型,包括:
利用如下自注意算法将所述标准关联词向量编码为自注意力向量:
Figure 784201DEST_PATH_IMAGE046
其中,
Figure 314539DEST_PATH_IMAGE030
是指所述自注意力向量,
Figure 78184DEST_PATH_IMAGE031
是指所述标准关联词向量的数量,
Figure 162814DEST_PATH_IMAGE032
是指所述标 准关联词向量的序号,
Figure 394076DEST_PATH_IMAGE033
是归一化函数,
Figure 293767DEST_PATH_IMAGE034
表示第
Figure 217861DEST_PATH_IMAGE032
个所述标准关联词向量,
Figure 55367DEST_PATH_IMAGE035
Figure 106631DEST_PATH_IMAGE036
Figure 611561DEST_PATH_IMAGE037
是所 述标准关联词向量的预设权重矩阵,
Figure 909819DEST_PATH_IMAGE038
是指
Figure 280626DEST_PATH_IMAGE039
向量的维度,
Figure 853690DEST_PATH_IMAGE040
是转置函数;
利用预设的前馈网络对所述自注意力向量进行编码,得到关联词向量编码;
利用预构建的自注意模型的解码器对所述关联词向量编码进行解码,得到预测词向量;
通过预设的困惑度算法及所述预测词向量对所述自注意模型的权重参数进行更新优化,得到选项生成模型。
详细地,所述自注意模型的解码器包括自注意力机制、注意力机制以及前馈网络。
详细地,所述困惑度算法(Perplexity)是用来评估一个语言模型好坏的算法,困惑度越低,表示语言模型的性能越好。
本发明实施例中,通过利用预设的自注意算法和标准关联词向量对预设的自注意模型进行训练,得到选项生成模型,能够提高自注意模型训练的速度与精确度,保障例题选项的混淆性,提高目标作业的质量。
S7、通过预设的作业管理平台接收教师端上传的关键词,利用所述例题生成模型根据所述关键词生成对应的作业例题,利用所述选项生成模型根据所述关键词和所述作业例题生成对应的例题选项,将所述作业例题与所述例题选项进行组合,得到目标作业。
本发明实施例中,所述作业管理平台是用于在线生成目标作业,发布所述目标作业的平台。
详细地,所述教师端是指面向教师群体的操作设备,例如,在对学员进行教学的过程中,教学的老师所使用的电脑终端为所述教师端。
本发明实施例中,所述利用所述例题生成模型根据所述关键词生成对应的作业例题是指通过所述例题生成模型的向前隐藏层逐个输出所述关键词的前置词语,通过所述例题生成模型的向后隐藏层逐个输出所述关键词的后置词语,进而得到作业例题。
详细地,所述利用所述选项生成模型根据所述关键词和所述作业例题生成对应的例题选项是指利用所述选项生成模型根据所述关键词和所述作业例题生成多个混淆选项,并将多个所述混淆选项和关键词组合成所述例题选项。
本发明实施例通过对所述标准知识点文本进行文本分词,并根据文本分词的结果将所述标准知识点文本转化为初始句子序列能够方便后续递归神经网络的训练,得到所述标准知识点文本上下文的特征,进而保证后续作业例题的可读性;通过所述递归神经网络的次序递归算法生成所述初始句子序列的预测向前输出和预测向后输出,能够保证生成的例题的灵活多样,进而提高目标作业的灵活度,根据所述向前损失值和所述向后损失值对递归神经网络的参数进行更新优化,得到例题生成模型,能够清楚地展示预测输出的差值,保证所述例题生成模型生成作业例题的可读性与关联性,提高作业例题的质量,所述对预先获取的目标关联文本进行分词处理,得到标准关联词语,并将所述标准关联词语转化为标准关联词向量能够保证后续生成的例题选项和关键词具有关联关系,符合作业例题的逻辑,同时也极大地增强了例题选项的灵活度,通过利用预设的自注意算法和标准关联词向量对预设的自注意模型进行训练,得到选项生成模型,能够提高自注意模型训练的速度与精确度,保障例题选项的混淆性,提高目标作业的质量。因此本发明提出的基于深度学习的作业生成方法,可以解决进行作业生成时的灵活度较低的问题。
如图4所示,是本发明一实施例提供的基于深度学习的作业生成装置的功能模块图。
本发明所述基于深度学习的作业生成装置100可以安装于设备中。根据实现的功能,所述基于深度学习的作业生成装置100可以包括文本去噪模块101、文本序列化模块102、预测输出模块103、损失优化模块104、文本向量化模块105、模型训练模块106及作业生成模块107。本发明所述模块也可以称之为单元,是指一种能够被设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述文本去噪模块101,用于对预先获取的目标知识点文本进行去噪处理,得到标准知识点文本;
所述文本序列化模块102,用于对所述标准知识点文本进行文本分词,并根据文本分词的结果将所述标准知识点文本转化为初始句子序列;
所述预测输出模块103,用于利用所述递归神经网络的次序递归算法生成所述初始句子序列的预测向前输出和预测向后输出;
所述损失优化模块104,用于根据预设的交叉损失函数及所述预测向前输出得到向前损失值,根据所述交叉损失函数和所述预测向后输出得到向后损失值,根据所述向前损失值和所述向后损失值对所述递归神经网络的参数进行更新优化,得到例题生成模型;
所述文本向量化模块105,用于对预先获取的目标关联文本进行分词处理,得到标准关联词语,并将所述标准关联词语转化为标准关联词向量;
所述模型训练模块106,用于利用预设的自注意算法和标准关联词向量对预设的自注意模型进行训练,得到选项生成模型;
所述作业生成模块107,用于通过预设的作业管理平台接收教师端上传的关键词,利用所述例题生成模型根据所述关键词生成对应的作业例题,利用所述选项生成模型根据所述关键词和所述作业例题生成对应的例题选项,将所述作业例题与所述例题选项进行组合,得到目标作业。
详细地,本发明实施例中所述基于深度学习的作业生成装置100中所述的各模块在使用时采用与上述图1至图3中所述的基于深度学习的作业生成方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
如图5所示,是本发明一实施例提供的实现基于深度学习的作业生成方法的设备的结构示意图。
所述设备1可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于深度学习的作业生成程序。
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述设备的控制核心(Control Unit),利用各种接口和线路连接整个设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行基于深度学习的作业生成程序等),以及调用存储在所述存储器11内的数据,以执行设备的各种功能和处理数据。
所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是设备的内部存储单元,例如该设备的移动硬盘。所述存储器11在另一些实施例中也可以是设备的外部存储设备,例如设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card, SMC)、安全数字(Secure Digital, SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于设备的应用软件及各类数据,例如基于深度学习的作业生成程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线12可以是外设部件互连标准(peripheral componentinterconnect,简称PCI)总线或扩展工业标准结构(extended industry standardarchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13用于上述设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该设备与其他设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在设备中处理的信息以及用于显示可视化的用户界面。
图中仅示出了具有部件的设备,本领域技术人员可以理解的是,图中示出的结构并不构成对所述设备的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述设备1中的所述存储器11存储的基于深度学习的作业生成程序是多个指令的组合,在所述处理器10中运行时,可以实现:
对预先获取的目标知识点文本进行去噪处理,得到标准知识点文本;
对所述标准知识点文本进行文本分词,并根据文本分词的结果将所述标准知识点文本转化为初始句子序列;
利用所述递归神经网络的次序递归算法生成所述初始句子序列的预测向前输出和预测向后输出;
根据预设的交叉损失函数及所述预测向前输出得到向前损失值,根据所述交叉损失函数和所述预测向后输出得到向后损失值,根据所述向前损失值和所述向后损失值对所述递归神经网络的参数进行更新优化,得到例题生成模型;
对预先获取的目标关联文本进行分词处理,得到标准关联词语,并将所述标准关联词语转化为标准关联词向量;
利用预设的自注意算法和标准关联词向量对预设的自注意模型进行训练,得到选项生成模型;
通过预设的作业管理平台接收教师端上传的关键词,利用所述例题生成模型根据所述关键词生成对应的作业例题,利用所述选项生成模型根据所述关键词和所述作业例题生成对应的例题选项,将所述作业例题与所述例题选项进行组合,得到目标作业。
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。所述存储介质可以是易失性的,也可以是非易失性的。例如,所述存储介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-OnlyMemory)。
本发明还提供一种存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被设备的处理器所执行时,可以实现:
对预先获取的目标知识点文本进行去噪处理,得到标准知识点文本;
对所述标准知识点文本进行文本分词,并根据文本分词的结果将所述标准知识点文本转化为初始句子序列;
利用所述递归神经网络的次序递归算法生成所述初始句子序列的预测向前输出和预测向后输出;
根据预设的交叉损失函数及所述预测向前输出得到向前损失值,根据所述交叉损失函数和所述预测向后输出得到向后损失值,根据所述向前损失值和所述向后损失值对所述递归神经网络的参数进行更新优化,得到例题生成模型;
对预先获取的目标关联文本进行分词处理,得到标准关联词语,并将所述标准关联词语转化为标准关联词向量;
利用预设的自注意算法和标准关联词向量对预设的自注意模型进行训练,得到选项生成模型;
通过预设的作业管理平台接收教师端上传的关键词,利用所述例题生成模型根据所述关键词生成对应的作业例题,利用所述选项生成模型根据所述关键词和所述作业例题生成对应的例题选项,将所述作业例题与所述例题选项进行组合,得到目标作业。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种基于深度学习的作业生成方法,其特征在于,所述方法包括:
对预先获取的目标知识点文本进行去噪处理,得到标准知识点文本;
对所述标准知识点文本进行文本分词,并根据文本分词的结果将所述标准知识点文本转化为初始句子序列;
利用递归神经网络的次序递归算法生成所述初始句子序列的预测向前输出和预测向后输出;
根据预设的交叉损失函数及所述预测向前输出得到向前损失值,根据所述交叉损失函数和所述预测向后输出得到向后损失值,根据所述向前损失值和所述向后损失值对所述递归神经网络的参数进行更新优化,得到例题生成模型;
对预先获取的目标关联文本进行分词处理,得到标准关联词语,并将所述标准关联词语转化为标准关联词向量;
利用预设的自注意算法和所述标准关联词向量对预设的自注意模型进行训练,得到选项生成模型;
通过预设的作业管理平台接收教师端上传的关键词,利用所述例题生成模型根据所述关键词生成对应的作业例题,利用所述选项生成模型根据所述关键词和所述作业例题生成对应的例题选项,将所述作业例题与所述例题选项进行组合,得到目标作业。
2.如权利要求1所述的基于深度学习的作业生成方法,其特征在于,所述对所述标准知识点文本进行文本分词,并根据文本分词的结果将所述标准知识点文本转化为初始句子序列,包括:
对所述标准知识点文本进行文本分句,得到标准知识点句子;
对所述标准知识点句子进行分词处理,得到标准知识点词语;
对所述标准知识点词语进行序列化处理,得到知识点词语编号;
根据所述知识点词语编号将所述标准知识点句子转化为初始句子序列。
3.如权利要求2所述的基于深度学习的作业生成方法,其特征在于,所述对所述标准知识点词语进行序列化处理,得到知识点词语编号,包括:
对所述标准知识点词语进行重复词语过滤,得到目标知识点词语;
将所述目标知识点词语按照预设的检索排序规则逐个存入预设的标准词典;
将所述目标知识点词语在所述标准词典中的次序作为所述知识点词语编号。
4.如权利要求1所述的基于深度学习的作业生成方法,其特征在于,所述利用递归神经网络的次序递归算法生成所述初始句子序列的预测向前输出和预测向后输出,包括:
构建由输入层、向前隐藏层、向后隐藏层以及输出层组成的递归神经网络;
将所述初始句子序列输入所述递归神经网络的向前隐藏层,利用如下次序递归算法计算所述向前隐藏层输出的向前特征,并通过所述输出层的全连接层和归一层将所述向前特征转化成预测向前输出:
Figure 756436DEST_PATH_IMAGE001
Figure 735893DEST_PATH_IMAGE002
Figure 312368DEST_PATH_IMAGE003
其中,
Figure 441998DEST_PATH_IMAGE004
是指
Figure 53108DEST_PATH_IMAGE005
时刻所述向前隐藏层的第
Figure 236090DEST_PATH_IMAGE006
个隐藏单元的输入,
Figure 971964DEST_PATH_IMAGE007
是所述输入层的输入单 元的数量,
Figure 764340DEST_PATH_IMAGE008
是指第
Figure 902060DEST_PATH_IMAGE009
个输入单元到第
Figure 488899DEST_PATH_IMAGE006
个隐藏单元的预设权重参数,
Figure 712070DEST_PATH_IMAGE010
是指
Figure 42557DEST_PATH_IMAGE005
时刻第
Figure 34784DEST_PATH_IMAGE009
个输 入单元的输入,
Figure 756972DEST_PATH_IMAGE011
是隐藏单元的数量,
Figure 592073DEST_PATH_IMAGE012
是指第
Figure 929513DEST_PATH_IMAGE013
个隐藏单元到第
Figure 635301DEST_PATH_IMAGE006
个隐藏单元的预设权 重参数,
Figure 799828DEST_PATH_IMAGE014
是指t-1时刻第
Figure 794329DEST_PATH_IMAGE013
个隐藏单元的非线性可微分激活函数的输出,
Figure 732198DEST_PATH_IMAGE015
是指t时刻第
Figure 699017DEST_PATH_IMAGE006
个隐藏单元的非线性可微分激活函数的输出,
Figure 64139DEST_PATH_IMAGE016
是最似然估计函数,
Figure 483619DEST_PATH_IMAGE017
是指第
Figure 664327DEST_PATH_IMAGE006
个隐藏单 元到第
Figure 610286DEST_PATH_IMAGE018
个输出单元的预设权重参数,
Figure 21676DEST_PATH_IMAGE019
是指
Figure 53086DEST_PATH_IMAGE005
时刻所述输出层的第
Figure 942545DEST_PATH_IMAGE018
个输出单元的输出;
对所述初始句子序列进行反向,得到逆向句子序列,将所述逆向句子序列输入所述递归神经网络的向后隐藏层,利用所述次序递归算法得到所述向后隐藏层输出的向后特征,并通过所述输出层的全连接层和归一层将所述向后特征转化成预测向后输出。
5.如权利要求3所述的基于深度学习的作业生成方法,其特征在于,所述根据预设的交叉损失函数和所述预测向前输出得到向前损失值,包括:
利用如下交叉损失函数计算所述向前隐藏层的向前损失值:
Figure 8590DEST_PATH_IMAGE020
其中,
Figure 590881DEST_PATH_IMAGE021
是所述向前隐藏层的向前损失值,
Figure 611052DEST_PATH_IMAGE022
是所述初始句子序列的长度,
Figure 100939DEST_PATH_IMAGE023
是指第
Figure 959173DEST_PATH_IMAGE023
个所 述目标知识点词语,
Figure 712366DEST_PATH_IMAGE024
是指第
Figure 718368DEST_PATH_IMAGE023
个所述目标知识点词语的向前损失值,
Figure 215208DEST_PATH_IMAGE025
是指所述标准词典 的大小,
Figure 990266DEST_PATH_IMAGE026
是指第
Figure 648781DEST_PATH_IMAGE023
个所述目标知识点词语在所述向前隐藏层的输出,
Figure 637684DEST_PATH_IMAGE027
是指所述向前隐藏 层的输出是所述标准词典中的第
Figure 672637DEST_PATH_IMAGE027
个所述目标知识点词语的正确概率,
Figure 833359DEST_PATH_IMAGE028
是第
Figure 397196DEST_PATH_IMAGE023
个所述目标 知识点词语的预测向前输出。
6.如权利要求3所述的基于深度学习的作业生成方法,其特征在于,所述将所述标准关联词语转化为标准关联词向量,包括:
将所述标准关联词语按照所述检索排序规则逐个存入预设的关联词词典;
根据所述标准关联词语在所述关联词词典的序号,将所述标准关联词语向量化,得到初始关联词向量;
逐个在所述初始关联词向量中添加预设的位置向量,得到标准关联词向量。
7.如权利要求1至6中任一项所述的基于深度学习的作业生成方法,其特征在于,所述利用预设的自注意算法和所述标准关联词向量对预设的自注意模型进行训练,得到选项生成模型,包括:
利用如下自注意算法将所述标准关联词向量编码为自注意力向量:
Figure 643369DEST_PATH_IMAGE029
其中,
Figure 482013DEST_PATH_IMAGE030
是指所述自注意力向量,
Figure 966083DEST_PATH_IMAGE031
是指所述标准关联词向量的数量,
Figure 231980DEST_PATH_IMAGE032
是指所述标准关 联词向量的序号,
Figure 935756DEST_PATH_IMAGE033
是归一化函数,
Figure 578090DEST_PATH_IMAGE034
表示第
Figure 182246DEST_PATH_IMAGE035
个所述标准关联词向量,
Figure 946940DEST_PATH_IMAGE036
Figure 308651DEST_PATH_IMAGE037
Figure 816993DEST_PATH_IMAGE038
是所述标 准关联词向量的预设权重矩阵,
Figure 947760DEST_PATH_IMAGE039
是指
Figure 384820DEST_PATH_IMAGE040
向量的维度,
Figure 437090DEST_PATH_IMAGE041
是转置函数;
利用预设的前馈网络对所述自注意力向量进行编码,得到关联词向量编码;
利用预构建的自注意模型的解码器对所述关联词向量编码进行解码,得到预测词向量;
通过预设的困惑度算法及所述预测词向量对所述自注意模型的权重参数进行更新优化,得到选项生成模型。
8.一种基于深度学习的作业生成装置,其特征在于,所述装置包括:
文本去噪模块,用于对预先获取的目标知识点文本进行去噪处理,得到标准知识点文本;
文本序列化模块,用于对所述标准知识点文本进行文本分词,并根据文本分词的结果将所述标准知识点文本转化为初始句子序列;
预测输出模块,用于利用所述递归神经网络的次序递归算法生成所述初始句子序列的预测向前输出和预测向后输出;
损失优化模块,用于根据预设的交叉损失函数及所述预测向前输出得到向前损失值,根据所述交叉损失函数和所述预测向后输出得到向后损失值,根据所述向前损失值和所述向后损失值对所述递归神经网络的参数进行更新优化,得到例题生成模型;
文本向量化模块,用于对预先获取的目标关联文本进行分词处理,得到标准关联词语,并将所述标准关联词语转化为标准关联词向量;
模型训练模块,用于利用预设的自注意算法和标准关联词向量对预设的自注意模型进行训练,得到选项生成模型;
作业生成模块,用于通过预设的作业管理平台接收教师端上传的关键词,利用所述例题生成模型根据所述关键词生成对应的作业例题,利用所述选项生成模型根据所述关键词和所述作业例题生成对应的例题选项,将所述作业例题与所述例题选项进行组合,得到目标作业。
9.一种基于深度学习的作业生成设备,其特征在于,所述设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任意一项所述的基于深度学习的作业生成方法。
10.一种存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的基于深度学习的作业生成方法。
CN202210662947.3A 2022-06-13 2022-06-13 基于深度学习的作业生成方法、装置、设备及存储介质 Active CN114757154B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210662947.3A CN114757154B (zh) 2022-06-13 2022-06-13 基于深度学习的作业生成方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210662947.3A CN114757154B (zh) 2022-06-13 2022-06-13 基于深度学习的作业生成方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN114757154A true CN114757154A (zh) 2022-07-15
CN114757154B CN114757154B (zh) 2022-09-30

Family

ID=82336443

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210662947.3A Active CN114757154B (zh) 2022-06-13 2022-06-13 基于深度学习的作业生成方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN114757154B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117435746A (zh) * 2023-12-18 2024-01-23 广东信聚丰科技股份有限公司 基于自然语言处理的知识点标注方法及系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103942993A (zh) * 2014-03-17 2014-07-23 深圳市承儒科技有限公司 一种基于irt的自适应在线测评系统及其方法
CN108182177A (zh) * 2018-01-24 2018-06-19 谢德刚 一种数学试题知识点自动化标注方法和装置
CN109960804A (zh) * 2019-03-21 2019-07-02 江西风向标教育科技有限公司 一种题目文本句子向量生成方法及装置
CN111177348A (zh) * 2019-12-20 2020-05-19 卓尔智联(武汉)研究院有限公司 问题生成模型的训练方法、装置、电子设备及存储介质
CN112487139A (zh) * 2020-11-27 2021-03-12 平安科技(深圳)有限公司 基于文本的自动出题方法、装置及计算机设备
CN112560443A (zh) * 2020-12-29 2021-03-26 平安银行股份有限公司 选择题生成模型训练方法、选择题生成方法、设备及介质
CN112667800A (zh) * 2020-12-21 2021-04-16 深圳壹账通智能科技有限公司 关键词生成方法、装置、电子设备及计算机存储介质
US20210209139A1 (en) * 2020-01-02 2021-07-08 International Business Machines Corporation Natural question generation via reinforcement learning based graph-to-sequence model
CN113157853A (zh) * 2021-05-27 2021-07-23 中国平安人寿保险股份有限公司 问题挖掘方法、装置、电子设备及存储介质
CN114548101A (zh) * 2022-04-25 2022-05-27 北京大学 基于可回溯序列生成方法的事件检测方法和系统
CN114611510A (zh) * 2022-03-23 2022-06-10 南京大学 基于生成模型辅助机器阅读理解的实现方法及装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103942993A (zh) * 2014-03-17 2014-07-23 深圳市承儒科技有限公司 一种基于irt的自适应在线测评系统及其方法
CN108182177A (zh) * 2018-01-24 2018-06-19 谢德刚 一种数学试题知识点自动化标注方法和装置
CN109960804A (zh) * 2019-03-21 2019-07-02 江西风向标教育科技有限公司 一种题目文本句子向量生成方法及装置
CN111177348A (zh) * 2019-12-20 2020-05-19 卓尔智联(武汉)研究院有限公司 问题生成模型的训练方法、装置、电子设备及存储介质
US20210209139A1 (en) * 2020-01-02 2021-07-08 International Business Machines Corporation Natural question generation via reinforcement learning based graph-to-sequence model
CN112487139A (zh) * 2020-11-27 2021-03-12 平安科技(深圳)有限公司 基于文本的自动出题方法、装置及计算机设备
CN112667800A (zh) * 2020-12-21 2021-04-16 深圳壹账通智能科技有限公司 关键词生成方法、装置、电子设备及计算机存储介质
CN112560443A (zh) * 2020-12-29 2021-03-26 平安银行股份有限公司 选择题生成模型训练方法、选择题生成方法、设备及介质
CN113157853A (zh) * 2021-05-27 2021-07-23 中国平安人寿保险股份有限公司 问题挖掘方法、装置、电子设备及存储介质
CN114611510A (zh) * 2022-03-23 2022-06-10 南京大学 基于生成模型辅助机器阅读理解的实现方法及装置
CN114548101A (zh) * 2022-04-25 2022-05-27 北京大学 基于可回溯序列生成方法的事件检测方法和系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
于尊瑞 等: "基于预训练语言模型的关键词感知问题生成", 《计算机工程》 *
董孝政: "融入特征和注意力机制的问题生成方法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117435746A (zh) * 2023-12-18 2024-01-23 广东信聚丰科技股份有限公司 基于自然语言处理的知识点标注方法及系统
CN117435746B (zh) * 2023-12-18 2024-02-27 广东信聚丰科技股份有限公司 基于自然语言处理的知识点标注方法及系统

Also Published As

Publication number Publication date
CN114757154B (zh) 2022-09-30

Similar Documents

Publication Publication Date Title
CN113704429A (zh) 基于半监督学习的意图识别方法、装置、设备及介质
CN114580424B (zh) 一种用于法律文书的命名实体识别的标注方法和装置
CN113378970B (zh) 语句相似性检测方法、装置、电子设备及存储介质
CN115392237B (zh) 情感分析模型训练方法、装置、设备及存储介质
CN112988963A (zh) 基于多流程节点的用户意图预测方法、装置、设备及介质
CN112667775A (zh) 基于关键词提示的检索方法、装置、电子设备及存储介质
CN113807973A (zh) 文本纠错方法、装置、电子设备及计算机可读存储介质
CN113821622A (zh) 基于人工智能的答案检索方法、装置、电子设备及介质
CN115238115A (zh) 基于中文数据的图像检索方法、装置、设备及存储介质
CN113360654B (zh) 文本分类方法、装置、电子设备及可读存储介质
CN114757154B (zh) 基于深度学习的作业生成方法、装置、设备及存储介质
CN113254814A (zh) 网络课程视频打标签方法、装置、电子设备及介质
CN112632264A (zh) 智能问答方法、装置、电子设备及存储介质
CN115146064A (zh) 意图识别模型优化方法、装置、设备及存储介质
CN115346095A (zh) 视觉问答方法、装置、设备及存储介质
CN115510188A (zh) 文本关键词关联方法、装置、设备及存储介质
CN114420168A (zh) 情绪识别方法、装置、设备及存储介质
CN114943306A (zh) 意图分类方法、装置、设备及存储介质
CN112749264A (zh) 基于智能机器人的问题分发方法、装置、电子设备及存储介质
CN112632260A (zh) 智能问答方法、装置、电子设备及计算机可读存储介质
CN115169330B (zh) 中文文本纠错及验证方法、装置、设备及存储介质
CN111680513B (zh) 特征信息的识别方法、装置及计算机可读存储介质
CN114462411B (zh) 命名实体识别方法、装置、设备及存储介质
CN113704478B (zh) 文本要素提取方法、装置、电子设备及介质
CN114970501A (zh) 基于文本的实体关系抽取方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant