CN109086273B - 基于神经网络解答语法填空题的方法、装置和终端设备 - Google Patents

基于神经网络解答语法填空题的方法、装置和终端设备 Download PDF

Info

Publication number
CN109086273B
CN109086273B CN201810925248.7A CN201810925248A CN109086273B CN 109086273 B CN109086273 B CN 109086273B CN 201810925248 A CN201810925248 A CN 201810925248A CN 109086273 B CN109086273 B CN 109086273B
Authority
CN
China
Prior art keywords
words
grammar
word
type
english
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810925248.7A
Other languages
English (en)
Other versions
CN109086273A (zh
Inventor
赵薇
柳景明
王亮
沈科伟
孙萌
贾若愚
郭常圳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Ape Power Future Technology Co Ltd
Original Assignee
Beijing Ape Power Future Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Ape Power Future Technology Co Ltd filed Critical Beijing Ape Power Future Technology Co Ltd
Priority to CN201810925248.7A priority Critical patent/CN109086273B/zh
Publication of CN109086273A publication Critical patent/CN109086273A/zh
Application granted granted Critical
Publication of CN109086273B publication Critical patent/CN109086273B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/247Thesauruses; Synonyms

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本申请提供基于神经网络解答语法填空题的方法、装置和终端设备,通过根据英文文本,按照预设的语法规则生成候选答案,根据预先训练得出的神经网络模型,从候选答案中筛选出正确答案。本申请实施例利用人工智能技术完成原本由人脑智力才能解答的语法填空题目,填补了现有技术中一直通过使用人脑智力解答文本类的题目的缺陷和空白,同时也避免人脑解题过程中的出现准确率不稳定的技术问题。节省人工完成语法填空的解题成本,加快解题速度。

Description

基于神经网络解答语法填空题的方法、装置和终端设备
技术领域
本申请涉及人工智能技术领域,特别涉及基于神经网络解答语法填空题的方法、装置和终端设备。
背景技术
随着科学技术的日益进步,人工智能技术也已经开启新的发展阶段,目前与人工智能相关的技术及产品已经参与到教育、医疗、家庭等方法面面。以教育为例,人工智能在同声传译、语音识别等方面皆取得了令人欣喜的科研成果。
然而,对于文本类的识别及处理,例如利用机器解答现有的文本类题目,目前还没有发现利用人工智能技术实现的相关方法及设备。为了填补现有技术中一直通过使用人脑智力解答文本类的题目的缺陷和空白,避免人脑解题过程中的出现准确率不稳定的技术问题,急需研发出机器答题的方法。
发明内容
有鉴于此,本申请实施例提供基于神经网络解答语法填空题的方法、装置和终端设备,以解决现有技术中存在的技术缺陷。
本申请实施例公开了基于神经网络解答语法填空题的方法,包括:
获取包含语法填空题的英文文本;
根据英文文本,按照预设的语法规则生成候选答案;
根据预先训练得出的神经网络模型,从候选答案中筛选出正确答案。
较佳地,该包含语法填空题的英文文本,包括:
获取带有示词的填空题,和/或
获取不带有提示词的填空题。
基于同一发明构思,本申请实施例还公开了基于神经网络解答语法填空题的装置,包括:
文本获取模块,用于获取包含语法填空题的英文文本;
候选答案生成模块,用于根据英文文本,按照预设的语法规则生成候选答案;
正确答案筛选模块,用于根据预先训练得出的神经网络模型,从候选答案中筛选出正确答案。
基于同一发明构思,本申请实施例还公开了一种终端设备,包括:
存储器;
处理器,与存储器电连接;
至少一个程序,存储于存储器中,被配置为由处理器执行时实现本申请实施例公开的基于神经网络解答语法填空题的方法。
基于同一发明构思,本申请实施例还公开了一种计算机存储介质,该存储介质上存储有与本申请实施例公开的基于神经网络解答语法填空题的方法所对应的计算机程序。
本申请提供基于神经网络解答语法填空题的方法、装置和终端设备,通过根据英文文本,按照预设的语法规则生成候选答案,根据预先训练得出的神经网络模型,从候选答案中筛选出正确答案。本申请实例利用人工智能技术完成原本由人脑智力才能解答的语法填空题目,填补了现有技术中一直通过使用人脑智力解答文本类的题目的缺陷和空白,同时也避免人脑解题过程中的出现准确率不稳定的技术问题。节省人工完成语法填空的解题成本,加快解题速度。
附图说明
图1是本申请实施例的基于神经网络解答语法填空题的方法的主要流程示意图。
图2-1是本申请实施例的一个语法填空题解答前的样例示意图;
图2-2是本申请实施例的一个语法填空题正确解答后的样例示意图;
图3是本申请实施例的神经网络模型的训练方法的一个实例示意图;
图4是本申请实施例的神经网络模型的整体架构示意图;
图5是本申请实施例的神经网络模型中包含k个过滤器的卷积模块的实例图;
图6是本申请实施例的神经网络模型中输出层的网络架构示意图;
图7是本申请实施例的基于神经网络解答语法填空题的装置结构示意图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施的限制。
在本申请中,提供了基于神经网络解答语法填空题的方法、装置、终端设备以及可读存储介质,在下面的实施例中逐一进行详细说明。
图1是本申请实施例的基于神经网络解答语法填空题的方法的主要流程示意图。图1示出了本申请实施例基于神经网络解答语法填空题的方法主要包括以下步骤:
S101,获取包含语法填空题的英文文本。
S102,根据英文文本,按照预设的语法规则生成候选答案。
S103,根据预先训练得出的神经网络模型,从候选答案中筛选出正确答案。
其中,步骤S101和步骤S102中涉及到的包含语法填空题的英文文本,包括多种类型:一种是带有提示词的填空题,另一种是不带有提示词的填空题,第三种是既存在带有提示词、也存在不带有提示词的填空题。本申请实施例提供的基于神经网络解答语法填空题的方法,能够解答多种类型的语法填空题,使得该方法所实施的题目对象涵盖了目前大部分英文文本的填空题类型,实现了较大程度地节省人力成本的良好技术效果。
图2-1是本申请实施例的一个语法填空题解答前的样例示意图。
如图2-1所示,文本中有一部分单词缺失,部分缺失单词会给出答案词的变形词,参见图2-1中下划线(也可理解为空格)后面括号里面的内容。文本中另一部分缺失单词则不给提示。在实际测试时,语法填空题在得到正确解答之前,图2-1中的下划线(也可理解为空格)上面的单词是不提供给被测试人员的。可见,图2-1中的样例就属于第三种类型,既存在带有提示词、也存在不带有提示词的填空题。
步骤S102中根据英文文本,按照预设的语法规则生成候选答案,具体包括如下步骤:
首先,判断包含语法填空题的英文文本的解题类型。
然后,若判断出待解答的填空题是带有第一类提示词的填空题,则按照预设的英文单词的词形变化规则,确定与第一类提示词相对应的至少一组候选答案。或者,若判断出待解答的填空题是带有第二类提示词的填空题,则将第二类提示词,与预先获取的辞典中的词表相比对,根据比对结果,确定与第二类提示词相对应的至少一组候选答案。
本申请实施例根据提示词的不同类型,将待解答的填空题划分为第一类提示词和第二类提示词,且分别对应有不同的解题步骤。这种分类处理的设计使得本申请实施例的基于神经网络解答语法填空题的方法能够有针对性、高效地处理填空题目,进一步提高了解题效率和准确率。
需要说明的是,本申请实施例中的第一类提示词是指能够通过使用预设的语法规则,例如英语单词的词形变化规则,生成对应的候选答案的提示词。这些候选答案可以是词汇、短语或者词汇与短语的合集。
例如:对于单词normal,通过使用预设的语法规则,对其应用添加前缀”ab-”(“normal”变成”abnormal”),添加后缀“-ly”(“normal”变成“normally”),添加助动词“is”(“normal”变成“is normal”)等等。在这一步骤并不约束第一类提示词在这些规则下所生成的单词必须为合法单词,因为后续可以通过预先获得的辞典过滤掉非合法单词。
第二类提示词是指无法通过预设的语法规则直接变形的单词。如:“eat”变成“ate”),此时选择使用预先获得的辞典中的词表来解决。
对于不带提示词的空,我们统计了95个最常见的用来填空的单词,如“a”,“he”,“she”,“what”,“that”,“when”等等。这95个单词来充当候选答案词汇。
若判断出待解答的填空题是不带有提示词的填空题,则将预先统计出的至少一组高频词汇,作为与不带有提示词的填空题相对应的候选答案。
预先统计出高频词汇,有利于基于历史经验,快速准确地获得候选答案,进一步提高了解题效率和准确率。
最后,利用辞典过滤掉非合法单词和低频单词。
图2-2是本申请实施例的一个语法填空题正确解答后的样例示意图。如图2-2所示,正确解答后的语法填空题的下划线(也可理解为空格)所在位置的单词或短语的空缺已经被正确答案填补上,形成语义连贯的文本。
图3是本申请实施例的神经网络模型的训练方法的一个实例示意图。
本申请实施例中涉及的神经网络模型通过如下步骤进行训练:
S301,输入多组英文单词样本、符号样本以及答案样本。
S302,生成表征英文单词样本、符号样本及答案样本的特征向量。
步骤S302中,生成表征英文单词样本、符号样本及答案样本的特征向量,具体包括:
通过查询预先获得的词向量表,建立英文单词样本、答案样本与词向量表之间的映射关系,词向量表是指用于表征英文单词样本、答案样本与实数的向量之间的映射关系的表,这是由于计算机无法直接识别英文单词样本和答案样本,需要将英文单词样本转换为能够令计算机接受的数字,这里称作单词向量。
将英文单词样本和答案样本转化为用实数数字表示的机器语言,能够使得计算机在接收英文文本之后,高效率地处理英文文本。
根据映射关系,确定每个英文单词样本、答案样本的单词向量。
确定出符号样本中可表征空格的空格向量。
S303,输入特征向量,利用预设的算法,计算并输出表征英文单词样本、符号样本之间的对应关系集合。
具体包括:根据单词向量,利用预设的算法,将多个单词向量相融合,获得融合后的可表征填空题的多维特征向量。
建立多维特征向量与空格特征向量之间的对应关系集合。
建立多维特征向量与空格特征向量之间的对应关系集合,有利于从中筛选出符合要求的对应关系,进一步有利于提高解题效率和准确率。
S304,基于答案样本与对应关系集合训练神经网络模型,该神经网络模型输出对应关系集合与答案样本之间的相关度。
预先通过上述步骤训练处神经网络模型,避免了每次实施该方法时都要对相应处理过程建模,一次建模,多次复用的筛选工具,有利于提高解题效率高、提高解题准确率。
至此,本申请实施例中涉及到的神经网络模型已经建立并完成训练任务,接下来即可以利用该神经网络模型的输出结果,从候选答案中筛选出正确答案,具体包括:基于所述神经网络,获得每个候选答案是正确答案的概率,筛选出概率大于预设阈值的候选答案,作为正确答案。
下面结合图4介绍本申请实施例的神经网络模型的整体架构示意图。
图4自下而上依次设置有输入层,处理层和输出层。图4中的神经网络模型可以看做是训练过程中的神经网络模型,也可以看做是训练任务完成后,投入应用的神经网络模型。因此,输入层(图4的最下部)可以理解为输入的是英文单词样本和带有空格的符号样本,也可以理解为输入的是英文单词和空格。
图4中“__”表示的是要填的空。“conv block,128,n”表示的是一个输出128维度的卷积模块,其中每个输出维度对应有相应长度的单词序列,其中n是输入的单词序列的长度,n为正整数。“LM”是“Language Model”(语言模型)的缩写。
图4中可以采用卷积神经网络,卷积神经网络可以观测一个窗口内的单词,卷积网络越深,可观测的窗口越大,卷积神经网络网络可以借此学习结合上下文的词向量。需要把需要填入空格位置的词向量(图4中LM output)与卷积的输出通过“skip connection”拼在一起传输至输出层,用以明确地使得卷积神经网络感知到需要填的是哪个空格,进而加速网络的收敛。这里的skip connection代表一种跳跃式传递。Skip connection将从输入层接收来的浅层的、位置信息精细的信息传递到深层的、位置信息粗糙的神经元上,以实现获得准确的语义信息和精细的位置信息。图4示出了在传输过程中,自输入层至输出层方向,逐层降低数据维度。如此设计,是因为考虑到降低了数据维度,能够有效地避免了过拟合现象的发生。
例如:预先准备一下带有答案的语法题空题目,用wi,i∈[1,n]来表示输入的问题文本,用“#__#”来表示需要填的空。开始训练图4中的神经网络。具体训练过程如下,其中
首先,通过查询词向量表,将wi转换为单词的向量表示ei,i∈[1,n]。People wereusing__every day.
w1:people
w2:were
w3:using
w4:__
w5:every
w6:day
w7:.
然后,这些单词向量表示通过一个双向的LSTM网络从而得到融合了上下文信息的单词向量表示。融合了上下文的单词向量表示通过一个卷积网络(Convolutional NeuralNetworks)得到输入文本的一个向量表示hc。然后再把hc与输入”#__#”对应的单词向量hlm拼起来,得到[hc;hlm]。
需要说明的是,hlm代表要填的空的多维特征向量。为了表示方便,本实例中的hc,hlm是自定义的符号,分别代表着卷积输出和要填的空的特征向量。
例如:hc是”people were using__every day.”这句英文句子通过卷积网络后得到的特征向量。
hlm是要填的空“__”的特征向量。
图5介绍了本申请实施例的神经网络模型中包含k个过滤器的卷积神经网络的卷积模块的一个实例。图5中展示的是有k个过滤器(filters)的卷积模块。其中,n是输入的单词序列的长度,n为正整数。“BN”是“Batch Normalization”(批量归一化)的缩写。k1,k2表示过滤器filter的个数是两个。图5示出的卷积模块有max-pooling层,该层包括神经元的最大值(max-pooling)。
“residual connection”含义是指把下层获得的特征向量拼接到上层的输出向量后面。“BN+RELU”表示的是本层包涵了BN处理和ReLU两个操作。
首先,经由第一个过滤器k1、且输入长度为n的英文单词,经由conv()函数计算出英文单词对应的向量的卷积和多项式乘法,并将经由第二个过滤器k2、且输入长度为n的英文单词作为处理结果输出。conv()函数是用于计算向量的卷积和多项式乘法。
在卷积层后面紧接着是一个ReLU层,ReLu(Rectified Linear Units)表示激活函数。多次经ReLU层处理后,逐层降低数据维度。如此设计,是因为考虑到降低了数据维度,能够有效地避免了过拟合现象的发生。
最后,[hc;hlm]被传输至输出层。图6是本申请实施例的神经网络模型中输出层的网络架构示意图。
输出层的架构如图6所示,图6的输出层包含一个N-way softmax层(该层设置有N-路softmax函数)。Softmax函数用于将多个神经元的输出,映射到(0,1)区间内,可以看成概率来理解。
左侧送入的“am going”,“went”,“has been going”等是系统经根据提示词的不同类型,将待解答的填空题划分为第一类提示词和第二类提示词,且分别对应有不同的解题步骤,处理得到的候选词汇。这些候选词汇所对应的单词向量是通过一个双向的LSTM网络,能够表征融合了上下文信息的候选词汇的单词向量,称作双向交互。
这些候选词汇经过LSTM编码,与上述图5中展示的含有k个过滤器(filters)的卷积模块处理后的输出结果[hc;hlm]计算相关度,从而得到每个候选词是答案的概率。
基于同一发明构思,本申请实施例还公开了基于神经网络解答语法填空题的装置70,图7是本申请实施例的基于神经网络解答语法填空题的装置结构示意图。如图7所示,该装置70包括:文本获取模块701、候选答案生成模块702和正确答案筛选模块703。其中,
文本获取模块701,用于获取包含语法填空题的英文文本。
候选答案生成模块702,用于根据英文文本,按照预设的语法规则生成候选答案。
正确答案筛选模块703,用于根据预先训练得出的神经网络模型,从候选答案中筛选出正确答案。
较佳地,该文本获取模块701包括:第一获取子模块,用于获取带有提示词的填空题,以及第二获取子模块,用于获取不带有提示词的填空题。
较佳地,候选答案生成模块702包括:解题类型判断模块,用于判断包含语法填空题的英文文本的解题类型,以及候选答案生成模块包括第一生成子模块,用于当解题类型判断模块判断出待解答的填空题是带有第一类提示词时,按照预设的英文单词的词形变化规则,确定与第一类提示词相对应的至少一组候选答案。
候选答案生成模块702还包括第二生成子模块,用于当解题类型判断模块判断出待解答的填空题带有第二类提示词时,将第二类提示词与预先获取的辞典中的词表相比对,根据比对结果,确定与第二类提示词相对应的至少一组候选答案。
基于同一发明构思,本申请实施例还公开了一种终端设备,包括:
存储器;
处理器,与存储器电连接;
至少一个程序,存储于存储器中,被配置为由处理器执行时实现本申请实施例公开的基于神经网络解答语法填空题的方法。
本申请实施例的终端设备所包含的部件包括但不限于存储器和处理器,还可以包括网络接口,网络接口使得终端设备能够经由一个或多个网络通信。这些网络的示例包括局域网(LAN)、广域网(WAN)、个域网(PAN)或诸如因特网的通信网络的组合。网络接口可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC))中的一个或多个,诸如IEEE802.11无线局域网(WLAN)无线接口、全球微波互联接入(Wi-MAX)接口、以太网接口、通用串行总线(USB)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC)接口,等等。
终端设备可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或PC的静止计算设备。终端设备还可以是移动式或静止式的服务器。
基于同一发明构思,本申请实施例还公开了一种计算机存储介质,该存储介质上存储有与本申请实施例公开的基于神经网络解答语法填空题的方法所对应的计算机程序。
所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本申请所必须的。
本申请提供基于神经网络解答语法填空题的方法、装置和终端设备,通过根据英文文本,按照预设的语法规则生成候选答案,根据预先训练得出的神经网络模型,从候选答案中筛选出正确答案。本申请实例利用人工智能技术完成原本由人脑智力才能解答的语法填空题目,填补了现有技术中一直通过使用人脑智力解答文本类的题目的缺陷和空白,同时也避免人脑解题过程中的出现准确率不稳定的技术问题。节省人工完成语法填空的解题成本,加快解题速度。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本申请优选实施例只是用于帮助阐述本申请。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本申请的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本申请。本申请仅受权利要求书及其全部范围和等效物的限制。

Claims (11)

1.基于神经网络解答语法填空题的方法,其特征在于,包括:
获取包含语法填空题的英文文本;
判断所述包含语法填空题的英文文本的解题类型;
若判断出待解答的填空题是带有第一类提示词的填空题,则按照预设的英文单词的词形变化规则,确定与第一类提示词相对应的至少一组候选答案,其中,所述第一类提示词是指能够通过使用预设的语法规则生成对应的候选答案的提示词;
或者,若判断出待解答的填空题是带有第二类提示词的填空题,则将第二类提示词,与预先获取的辞典中的词表相比对,根据比对结果,确定与第二类提示词相对应的至少一组候选答案,其中,所述第二类提示词是指无法通过预设的语法规则直接变形的单词;
基于所述神经网络,获得所述候选答案中每个候选答案是正确答案的概率,筛选出概率大于预设阈值的候选答案,作为正确答案。
2.根据权利要求1所述的方法,其特征在于,所述获取包含语法填空题的英文文本,包括:
获取带有提示词的填空题,和/或
获取不带有提示词的填空题。
3.根据权利要求2所述的方法,其特征在于,所述判断所述包含语法填空题的英文文本的解题类型的步骤之后,还包括:
若判断出待解答的填空题是不带有提示词的填空题,则将预先统计出的至少一组高频词汇,作为与所述不带有提示词的填空题相对应的候选答案。
4.根据权利要求1或3所述的方法,其特征在于,所述神经网络模型通过如下步骤进行训练:
输入多组英文单词样本、符号样本以及答案样本;
生成表征英文单词样本、符号样本及答案样本的特征向量;
输入所述特征向量,利用预设的算法,计算并输出表征英文单词样本、符号样本之间的对应关系集合;
基于所述答案样本与所述对应关系集合训练所述神经网络模型,所述神经网络模型输出所述对应关系集合与所述答案样本之间的相关度。
5.根据权利要求4所述的方法,其特征在于,所述生成表征英文单词样本、符号样本及答案样本的特征向量,包括:
通过查询预先获得的词向量表,建立所述英文单词样本、答案样本与所述词向量表之间的映射关系,所述词向量表是指用于表征英文单词样本、答案样本与实数的向量之间的映射关系的表;
根据所述映射关系,确定每个所述英文单词样本、答案样本的单词向量;确定出符号样本中可表征空格的空格向量。
6.根据权利要求5所述的方法,其特征在于,所述输入所述特征向量,利用预设的算法,计算并输出表征英文单词样本、符号样本之间的对应关系集合,包括:
根据所述单词向量,利用预设的算法,将多个所述单词向量相融合,获得融合后的可表征所述填空题的多维特征向量;
建立所述多维特征向量与空格特征向量之间的对应关系集合。
7.根据权利要求1所述的方法,其特征在于,
在所述获取包含语法填空题的英文文本之后,还包括,展示所述英文文本;
在从所述候选答案中筛选出正确答案之后,还包括,展示所述正确答案。
8.基于神经网络解答语法填空题的装置,其特征在于,包括:
文本获取模块,用于获取包含语法填空题的英文文本;
解题类型判断模块,用于判断所述包含语法填空题的英文文本的解题类型;
第一生成子模块,用于若判断出待解答的填空题是带有第一类提示词的填空题,则按照预设的英文单词的词形变化规则,确定与第一类提示词相对应的至少一组候选答案,其中,所述第一类提示词是指能够通过使用预设的语法规则生成对应的候选答案的提示词;
第二生成子模块,用于若判断出待解答的填空题是带有第二类提示词的填空题,则将第二类提示词,与预先获取的辞典中的词表相比对,根据比对结果,确定与第二类提示词相对应的至少一组候选答案,其中,所述第二类提示词是指无法通过预设的语法规则直接变形的单词;
正确答案筛选模块,用于基于所述神经网络,获得所述候选答案中每个候选答案是正确答案的概率,筛选出概率大于预设阈值的候选答案,作为正确答案。
9.根据权利要求8所述的基于神经网络解答语法填空题的装置,其特征在于,所述文本获取模块包括:
第一获取子模块,用于获取带有提示词的填空题;和/或
第二获取子模块,用于获取不带有提示词的填空题。
10.一种终端设备,其特征在于,包括:
存储器;
处理器,与所述存储器电连接;
至少一个程序,存储于所述存储器中,被配置为由所述处理器执行时实现权利要求1-7任一项所述的方法。
11.一种计算机存储介质,其特征在于,存储有如上述权利要求1-7任一项方法所对应的程序。
CN201810925248.7A 2018-08-14 2018-08-14 基于神经网络解答语法填空题的方法、装置和终端设备 Active CN109086273B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810925248.7A CN109086273B (zh) 2018-08-14 2018-08-14 基于神经网络解答语法填空题的方法、装置和终端设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810925248.7A CN109086273B (zh) 2018-08-14 2018-08-14 基于神经网络解答语法填空题的方法、装置和终端设备

Publications (2)

Publication Number Publication Date
CN109086273A CN109086273A (zh) 2018-12-25
CN109086273B true CN109086273B (zh) 2022-04-15

Family

ID=64793381

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810925248.7A Active CN109086273B (zh) 2018-08-14 2018-08-14 基于神经网络解答语法填空题的方法、装置和终端设备

Country Status (1)

Country Link
CN (1) CN109086273B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109949637B (zh) * 2019-03-13 2021-07-16 广东小天才科技有限公司 一种客观题目的自动解答方法和装置
CN110175332A (zh) * 2019-06-03 2019-08-27 山东浪潮人工智能研究院有限公司 一种基于人工神经网络的智能出题方法及系统
CN110489110B (zh) * 2019-08-20 2023-10-03 腾讯科技(深圳)有限公司 一种基于深度学习的代码生成方法及装置
KR102189894B1 (ko) * 2019-10-10 2020-12-11 주식회사 렉스퍼 외국어 문장 빈칸 추론 문제 자동 생성 방법 및 시스템
CN111858883A (zh) * 2020-06-24 2020-10-30 北京百度网讯科技有限公司 三元组样本的生成方法、装置、电子设备及存储介质
CN111782771A (zh) * 2020-07-09 2020-10-16 北京猿力未来科技有限公司 一种文字解题方法与装置
CN112069815B (zh) * 2020-09-04 2023-01-17 平安科技(深圳)有限公司 成语填空题的答案选择方法、装置和计算机设备
CN112801829B (zh) * 2020-12-31 2024-04-30 科大讯飞股份有限公司 试题预测网络模型的相关方法和装置
CN115035756A (zh) * 2021-03-08 2022-09-09 北京有竹居网络技术有限公司 一种英语解题视频的生成方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1791114A1 (en) * 2005-11-25 2007-05-30 Swisscom Mobile Ag A method for personalization of a service
CN101566998A (zh) * 2009-05-26 2009-10-28 华中师范大学 一种基于神经网络的中文问答系统
CN106095872A (zh) * 2016-06-07 2016-11-09 北京高地信息技术有限公司 用于智能问答系统的答案排序方法及装置
CN106997376A (zh) * 2017-02-28 2017-08-01 浙江大学 一种基于多级特征的问题和答案句子相似度计算方法
CN107818164A (zh) * 2017-11-02 2018-03-20 东北师范大学 一种智能问答方法及其系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL174107A0 (en) * 2006-02-01 2006-08-01 Grois Dan Method and system for advertising by means of a search engine over a data network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1791114A1 (en) * 2005-11-25 2007-05-30 Swisscom Mobile Ag A method for personalization of a service
CN101566998A (zh) * 2009-05-26 2009-10-28 华中师范大学 一种基于神经网络的中文问答系统
CN106095872A (zh) * 2016-06-07 2016-11-09 北京高地信息技术有限公司 用于智能问答系统的答案排序方法及装置
CN106997376A (zh) * 2017-02-28 2017-08-01 浙江大学 一种基于多级特征的问题和答案句子相似度计算方法
CN107818164A (zh) * 2017-11-02 2018-03-20 东北师范大学 一种智能问答方法及其系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Visual interpretability for deep learning:a survey";Quan-shi ZHANG 等;《rontiers of Information Technology & Electronic Engineering》;20180103;第19卷(第1期);第27-39页 *
"一种基于短文本相似度计算的主观题自动阅卷方法";张均胜 等;《图书情报工作》;20141005;第58卷(第19期);第31-38页 *

Also Published As

Publication number Publication date
CN109086273A (zh) 2018-12-25

Similar Documents

Publication Publication Date Title
CN109086273B (zh) 基于神经网络解答语法填空题的方法、装置和终端设备
US10831796B2 (en) Tone optimization for digital content
CN108682420B (zh) 一种音视频通话方言识别方法及终端设备
CN112269868B (zh) 一种基于多任务联合训练的机器阅读理解模型的使用方法
CN111651497B (zh) 用户标签挖掘方法、装置、存储介质及电子设备
CN110991195A (zh) 机器翻译模型训练方法、装置及存储介质
CN112417158A (zh) 文本数据分类模型的训练方法、分类方法、装置和设备
CN117332072B (zh) 对话处理、语音摘要提取以及目标对话模型训练方法
CN112101042A (zh) 文本情绪识别方法、装置、终端设备和存储介质
CN114969352A (zh) 文本处理方法、系统、存储介质及电子设备
CN114662484A (zh) 语义识别方法、装置、电子设备及可读存储介质
CN114385817A (zh) 实体关系的识别方法、设备及可读存储介质
CN114168743A (zh) 基于知识图谱的网络防御意图识别解析方法、设备及介质
CN113609390A (zh) 信息分析方法及装置、电子设备和计算机可读存储介质
CN110969005A (zh) 一种确定实体语料之间的相似性的方法及装置
CN117373591A (zh) 电子病历的疾病识别方法和装置、电子设备及存储介质
CN112580343A (zh) 模型生成方法、问答质量判断方法、装置、设备及介质
US11687796B2 (en) Document type-specific quality model
CN115934904A (zh) 文本处理方法以及装置
CN115391514A (zh) 问答语句生成方法、装置、电子设备及存储介质
CN114064873A (zh) 保险领域faq知识库构建方法、装置及电子设备
WO2022216462A1 (en) Text to question-answer model system
CN115809319A (zh) 问题解答方法及装置
Zergat et al. The voice as a material clue: a new forensic Algerian Corpus
CN114647717A (zh) 一种智能问答方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Units F01-03 and 05-10 on the 6th floor of No.1 Building, No.8 Courtyard, Guangshun South Street, Chaoyang District, Beijing

Applicant after: Beijing Ape Power Future Technology Co., Ltd.

Address before: Units F01-03 and 05-10 on the 6th floor of No.1 Building, No.8 Courtyard, Guangshun South Street, Chaoyang District, Beijing

Applicant before: Beijing chalk Future Technology Co., Ltd.

GR01 Patent grant
GR01 Patent grant