CN113343668B - 选择题解题方法、装置、电子设备及可读存储介质 - Google Patents

选择题解题方法、装置、电子设备及可读存储介质 Download PDF

Info

Publication number
CN113343668B
CN113343668B CN202110893748.9A CN202110893748A CN113343668B CN 113343668 B CN113343668 B CN 113343668B CN 202110893748 A CN202110893748 A CN 202110893748A CN 113343668 B CN113343668 B CN 113343668B
Authority
CN
China
Prior art keywords
information
emb
question
pool
groups
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110893748.9A
Other languages
English (en)
Other versions
CN113343668A (zh
Inventor
岳祥
丁文彪
刘霄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Century TAL Education Technology Co Ltd
Original Assignee
Beijing Century TAL Education Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Century TAL Education Technology Co Ltd filed Critical Beijing Century TAL Education Technology Co Ltd
Priority to CN202110893748.9A priority Critical patent/CN113343668B/zh
Publication of CN113343668A publication Critical patent/CN113343668A/zh
Application granted granted Critical
Publication of CN113343668B publication Critical patent/CN113343668B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本公开提供一种选择题解题方法、装置、电子设备及可读存储介质,其中,该方法包括:获取题目的题干信息、问题信息和N个选项信息;根据该题干信息、该问题信息和该N个选项信息生成N组信息;其中,每一组信息包括该题干信息、该问题信息和其中一个选项信息;分别根据N组信息获取对应的N组第一语义向量N_POOL_EMB;分别对N组第一语义向量N_POOL_EMB进行映射得到对应的N个第一一维向量Linear(N_POOL_EMB);根据N个第一一维向量Linear(N_POOL_EMB)从N个选项信息中选择正确答案。通过本公开提高了针对选择型阅读理解题目自动解题的正确性。

Description

选择题解题方法、装置、电子设备及可读存储介质
技术领域
本发明涉及自然语言处理技术领域,尤其涉及一种选择题解题方法、装置、电子设备及可读存储介质。
背景技术
阅读理解是指理解阅读对象的词句篇章、写作方法、思想内容、社会价值为目的的阅读。阅读理解要求能够正确理解文章含义,分析段落、章节之间的联系和层次,概括文章大意和要点,评鉴作品的写作方法和语言特色,阅读理解问答技术由此应运而生。在阅读理解问答中,有一种类型为选择型阅读理解,即基于阅读理解的背景材料提出一个问题,并提供针对该问题的多个选项。目前针对答案选择型题目,主要采用基于相似或相关性来确定正确答案的方法,此类方法通过计算选项与背景材料的句子之间的最相似或相关性来确定正确答案。
发明内容
根据本公开的一方面,提供了一种选择题解题方法,包括:
获取题目的题干信息、问题信息和N个选项信息;其中,N为大于等于2的正整数;
根据所述题干信息、所述问题信息和所述N个选项信息生成N组信息;其中,每一组信息包括所述题干信息、所述问题信息和其中一个选项信息;
分别根据所述N组信息获取对应的N组第一语义向量N_POOL_EMB;
分别对所述N组第一语义向量N_POOL_EMB进行映射得到对应的N个第一一维向量Linear(N_POOL_EMB);
根据所述N个第一一维向量Linear(N_POOL_EMB)从所述N个选项信息中选择正确答案。
根据本公开的另一方面,提供了一种选择题解题装置,包括:
第一获取模块,用于获取题目的题干信息、问题信息和N个选项信息;其中,N为大于等于2的正整数;
生成模块,用于根据所述题干信息、所述问题信息和所述N个选项信息生成N组信息;其中,每一组信息包括所述题干信息、所述问题信息和其中一个选项信息;
第二获取模块,用于分别根据所述N组信息获取对应的N组第一语义向量N_POOL_EMB;
映射模块,用于分别对所述N组第一语义向量N_POOL_EMB进行映射得到对应的N个第一一维向量Linear(N_POOL_EMB);
选择模块,用于根据所述N个第一一维向量Linear(N_POOL_EMB)从所述N个选项信息中选择正确答案。
根据本公开的另一方面,提供了一种电子设备,包括:
处理器;以及
存储程序的存储器,
其中,所述程序包括指令,所述指令在由所述处理器执行时使所述处理器执行根据上述实施例中任一项所述的选择题解题方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据上述实施例中任一项所述的选择题解题方法。
本申请实施例中提供的一个或多个技术方案,提高了针对选择型阅读理解题目自动解题的正确性。
附图说明
在下面结合附图对于示例性实施例的描述中,本公开的更多细节、特征和优点被公开,在附图中:
图1示出了根据本公开示例性实施例的选择题解题方法的流程图;
图2示出了根据本公开示例性实施例的选择题解题装置的示意性框图;
图3示出了能够用于实现本公开的实施例的示例性电子设备的结构框图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
阅读理解是人们从大量文本中获取信息的重要途径,很多时候用户并不想浏览全文,而是想知道某个问题的确切答案,阅读理解问答技术由此应运而生。在阅读理解问答中,有一种类型为选择型阅读理解,即基于阅读理解的背景材料提出一个问题,并提供针对该问题的多个选项,要求计算机能够自动地“阅读”完一篇材料后,根据对材料的“理解”从多个候选答案中选择正确的答案。在自然语言领域中,解答选择型阅读理解的方法直接影响选择出的答案的正确性。目前针对答案选择型题目,主要采用基于相似或相关性来确定正确答案的方法,此类方法通过计算选项与背景材料的句子之间的最相似或相关性来确定正确答案,然而,在语义上等价的句子往往会用不同的句法结构形式来表述,基于相似度与相关性的方法只能找到背景材料中与选项语法结构或语义表述相似度较高的句子,无法理解语义的细微差别,而句子间的细微差别是语言处理第一要务。同时,此类方法通过分析选项与整篇背景材料的相关性,但选项往往与文章中一句或几句话相关,因此,将选项与全文进行分析,引入了大量的噪声数据,影响答题准确率。
例如,题目样例如下表:
Figure DEST_PATH_IMAGE001
鉴于现有技术存在的上述不足,本公开实施例旨在提供一种具有实现复杂语言语义推理的能力的阅读机器人进行阅读理解的选择题解题方法、装置、电子设备及可读存储介质。
在本实施例中提供了一种选择题解题方法,可用于智能设备,如电脑、手机、平板电脑等,图1示出了根据本公开示例性实施例的选择题解题方法的流程图。如图1所示,该流程包括以下步骤:
步骤S101,获取题目的题干信息、问题信息和N个选项信息。
在一些实施例中,N为大于等于2的正整数。N表示各个选项,例如选项可以是1、2、3…,N还可以表示例如选项A、B、C、D…。例如对于一道题目,识别题目的题干、问题和选项,并将题目、问题和每一个选项进行拼接(拼接格式输入[CLS]题干[SEP]问题[SEP])。
步骤S102,根据题干信息、问题信息和N个选项信息生成N组信息。
在一些实施例中,每一组信息可以包括题干信息、问题信息和其中一个选项信息。
步骤S103,分别根据N组信息获取对应的N组第一语义向量N_POOL_EMB。
在一些实施例中,这里的N组第一语义向量N_POOL_EMB表示包含多个字的每一个选项对应的语义向量。N组第一语义向量N_POOL_EMB的获取方式可以包括多种,在一些实施例中,可以将上述N组信息输入至预测模型的第一语言子模型,例如Roberta-large(Roberta:ARobustly OptimizedBERT Pretraining Approach)模型,得到对应的N组第二语义向量N_SEQ_EMB,其中,该N组第二语义向量N_SEQ_EMB表示每个字对应的语义向量。以A、B、C、D四个选项为例,将拼接后的每一个选项对应的字符串输入至预测模型的Roberta-large模型,得到四个选项的向量表示SEQ_EMB,该向量用于表征文本语义(每个字都有对应的语义向量),高维度向量,一般为768或1024维,每个字对应一个高维度向量,如512个字,则是512*768。
A_SEQ_EMB = Roberta-large([CLS]题干[SEP]问题[SEP]选项A);
B_SEQ_EMB = Roberta-large([CLS]题干[SEP]问题[SEP]选项B);
C_SEQ_EMB = Roberta-large([CLS]题干[SEP]问题[SEP]选项C);
D_SEQ_EMB = Roberta-large([CLS]题干[SEP]问题[SEP]选项D)。
将该N组第二语义向量N_SEQ_EMB输入至该预测模型的第二语言子模型,例如DUMA(DUal Multi-head Co-Attention)模型,得到该N组第一语义向量N_POOL_EMB,具体地,可以将题干信息作为第一部分,将问题信息和N个选项信息作为第二部分;将第一部分作为查询向量query,第二部分作为键向量key,键值向量value进行多头注意力,另外将第二部分作为查询向量query,第一部分作为键向量key,键值向量value进行多头注意力得到上述N组第一语义向量N_POOL_EMB。在一些具体的可选实施例中,用DUMA对四个选项的向量表示SEQ_EMB进行处理,得到向量POOL_EMB,比如对[CLS]题干[SEP]问题[SEP]选项A中每一个token都会得到一个向量表示,然后分为两部分,一部分是题干,一部分是问题[SEP]选项,然后以第一部分为query,第二部分为key, value进行多头注意力,另外以第二部分为query,第一部分为key,value进行多头注意力,上述注意力可重复多次,实验中一次效果就可以达到很好。然后将得到的向量进行max_pooling,对比mean_pooling,max_pooling结果更好,得到每一个选项的向量表示。该向量用于表示文本语义(包含的多个字的一个选项对应一个语义向量),高维度向量,百维或千维,一般为768或1024维;
A_POOL_EMB = DUMA(A_SEQ_EMB);
B_POOL_EMB = DUMA(B_SEQ_EMB);
C_POOL_EMB = DUMA(C_SEQ_EMB);
D_POOL_EMB = DUMA(D_SEQ_EMB)。
该N组第一语义向量N_POOL_EMB的获取方式仅作为解释说明,不能作为对本公开实施例的限定。
步骤S104,分别对N组第一语义向量N_POOL_EMB进行映射得到对应的N个第一一维向量Linear(N_POOL_EMB);
步骤S105,根据该N个第一一维向量Linear(N_POOL_EMB)从该N个选项信息中选择正确答案。
通过上述步骤,根据题目的题干信息、问题信息和N个选项信息的语义向量对各个选项是否为正确答案进行预测,在理解了题干信息、问题信息和各个选项信息之间的语义基础上预测答案,相比于现有技术中仅仅分析选项与整篇背景材料的相关性影响答题准确率,本可选实施例,提高了针对选择型阅读理解题目自动解题的正确性。
阅读理解的选择题有正确项问题也有不正确项问题,例如如下定义:
定义1:正确项问题:如果一个问题是问正确的一项,选择符合的一项这样的问题是正确项问题。
定义2:不正确项问题:如果一个问题是问不正确的一项,选择不符合的一项这样的问题是不正确项问题。
定义3:正确项不正确项问题:如果一个问题是问正确的一项,符合的一项,或者不正确的一项,不符合的一项这样的问题是正确项不正确项问题。
定义4:可判断正确项不正确项问题:如果一个问题包含正确的一项,符合的一项,或者不正确的一项,不符合的一项这样的词汇为可判断正确项不正确项问题。
定义5:题目标签:假如一个题目有四个选项,如果正确答案为A,题目标签是[1,0, 0, 0],如果正确答案是B,题目标签为[0, 1, 0, 0],如果正确答案是C,题目标签为[0,0, 1, 0],如果正确答案是D,题目标签为[0, 0, 0, 1]。
定义6:题目转化标签:假如一个题目有四个选项,不失去一般性,假定A是正确答案,BCD是错误答案。假如问题是正确的一项,符合…的一项这样的问题,题目标签为[1, 0,0, 0],题目转化标签为[1, 0, 0, 0]。假如问题是不正确的一项,不符合…的一项,标签为[1, 0, 0, 0],题目转化标签为[0, 1, 1, 1]。即题目转化标签无论题目是问正确的一项,还是不正确的一项,都是题目转化为问正确项的标签。对于正确项问题,题目转化标签和题目标签一样,对于不正确项问题,题目转化标签与题目标签不一致。
在上述题目为正确项问题时,在一些可选实施例中,将N组第一语义向量N_POOL_EMB输入至预测模型的第一线性Linear层,得到该N个第一一维向量Linear(N_POOL_EMB)。具体地,对每个选项的向量POOL_EMB映射为1维向量(用于表示选项是正确的概率),如上述1024维,通过w_1 * x1 + w_2 * x2 + … +b,其中x1是POOL_EMB向量的第一个数,x2是POOL_EMB的第二个数,w_1, w_2,…,b是模型的参数。
A_EMB_1_DIM = Linear(A_POOL_EMB);
B_EMB_1_DIM = Linear (B_POOL_EMB);
C_EMB_1_DIM = Linear (C_POOL_EMB);
D_EMB_1_DIM = Linear (D_POOL_EMB)。
将该Linear(N_POOL_EMB)输入至该预测模型的Softmax函数或者Sigmoid函数得到每个选项信息为正确选项的第一概率。具体地,经过Softmax函数(需计算多个的概率,最终结果只有1个,但是根据业务场景,也可以用Sigmoid函数)得到每一个选项是正确的概率,该步骤进一步处理,以使概率值处于某个固定范围,比如0-1的范围。
PROB = Softmax(A_EMB_1_DIM, B_EMB_1_DIM, C_EMB_1_DIM, D_EMB_1_DIM),
在该第一概率大于第一阈值时,确定对应的选项信息为正确答案。
在一些可选实施例中,在训练预测模型时,可以通过如下第一损失函数进行训练得到:LOSS=CROSS_ENTROPY(PROB, LABEL),其中,LOSS表示预测模型的第一损失值,该CROSS_ENTROPY表示交叉熵,PROB表示每个选项信息为正确选项的概率,LABEL表示每个选项信息为正确选项的标签。即与正确的标签做交叉熵CROSS_ENTROPY得到损失,进行反向传播完成训练。其中如果正确选项是A,B,C,D对应到的标签分别是[1, 0, 0, 0],[0, 1, 0,0],[0, 0, 1, 0],[0, 0, 0, 1]。
在上述题目为错误项问题时,这里是计算转换项的概率,在一些可选实施例中,将N组第一语义向量N_POOL_EMB输入至该预测模型的第二线性Linear层,得到N个第二一维向量Linear_C(N_POOL_EMB)。具体地,对每个选项的向量POOL_EMB映射为1维向量,映射方式也是w_1 * x1 + w_2 * x2 + … +b,这里的映射参数与上述映射N个第一一维向量的映射参数不一致。
A_EMB_1_DIM_C = Linear_C(A_POOL_EMB)(A_POOL_EMB为复用上述A_POOL_EMB));
B_EMB_1_DIM_C = Linear_C(B_POOL_EMB);
C_EMB_1_DIM_C = Linear_C(C_POOL_EMB);
D_EMB_1_DIM_C = Linear_C(D_POOL_EMB)。
将该N个第二一维向量Linear_C(N_POOL_EMB)输入至该预测模型的Softmax函数模型或者Sigmoid函数模型得到每个选项信息为错误选项的第二概率;其中,该错误选项为正确选项的转换项。在调用Sigmoid函数模型时(需计算多个的概率,最终结果可能是多个,也可能是一个)得到每一个选项是正确的转换项的概率:
A_PROB_C = Sigmoid(A_EMB_1_DIM_C);
B_PROB_C = Sigmoid(B_EMB_1_DIM_C);
C_PROB_C = Sigmoid(C_EMB_1_DIM_C);
D_PROB_C = Sigmoid(D_EMB_1_DIM_C)。
在该第二概率大于第二阈值时,确定对应的选项信息为正确答案。
在一些可选实施例中,在训练预测模型时通过如下第二损失函数进行训练得到:
Figure DEST_PATH_IMAGE002
;其中,LOSS_C表示预测模型的第二损失值,
Figure DEST_PATH_IMAGE003
表示每个选项信息为错误选项的概率。与正确的标签做交叉熵CROSS_ENTROPY得到损失,进行反向传播完成训练。
A_LOSS_C = BINARY_CROSS_ENTROPY(A_PROB_C, A_LABEL_C);
B_LOSS_C = BINARY_CROSS_ENTROPY(B_PROB_C, B_LABEL_C);
C_LOSS_C = BINARY_CROSS_ENTROPY(C_PROB_C, C_LABEL _C);
D_LOSS _C = BINARY_CROSS_ENTROPY(D_PROB_C, D_LABEL _C)。
最终的转化损失为:
LOSS_C = (A_LOSS_C + B_LOSS_C + C_LOSS_C + D_LOSS _C) / 4.0。
预测模型联合训练的联合损失值为:FINAL_LOSS = LOSS + alpha * LOSS_C;其中,FINAL_LOSS表示该联合损失值,alpha大于等于0,alpha表示无法判断该题目为正确项问题或者错误项问题时取值为0。此时设置alpha为0,表示只用题目标签去训练,不用题目转化标签训练。
上述步骤S105涉及根据N个第一一维向量Linear(N_POOL_EMB)从N个选项信息中选择正确答案,在一些可选实施例中,预测模型的预测结果为:P + Beta * Q_TYPE * P_C;其中,P是某个选项信息是正确答案的概率,P_C是某个选项信息的转换项是正确答案的概率;Beta为超参数,可以根据实际情况做出调整;无法判断该题目为正确项问题或者错误项问题时,Q_TYPE取值为0;该题目为正确项问题时,Q_TYPE取值为1;该题目为错误项问题时,Q_TYPE取值为-1。
在本实施例中还提供了一种选择题解题装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”为可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
本实施例提供了一种选择题解题装置200,如图2所示,包括:
第一获取模块201,用于获取题目的题干信息、问题信息和N个选项信息;其中,N为大于等于2的正整数;
生成模块202,用于根据所述题干信息、所述问题信息和所述N个选项信息生成N组信息;其中,每一组信息包括所述题干信息、所述问题信息和其中一个选项信息;
第二获取模块203,用于分别根据所述N组信息获取对应的N组第一语义向量N_POOL_EMB;
映射模块204,用于分别对所述N组第一语义向量N_POOL_EMB进行映射得到对应的N个第一一维向量Linear(N_POOL_EMB);
选择模块205,用于根据所述N个第一一维向量Linear(N_POOL_EMB)从所述N个选项信息中选择正确答案。
本实施例中的选择题解题装置是以功能单元的形式来呈现,这里的单元是指ASIC电路,执行一个或多个软件或固定程序的处理器和存储器,和/或其他可以提供上述功能的器件。
上述各个模块的更进一步的功能描述与上述对应实施例相同,在此不再赘述。
本公开示例性实施例还提供一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器。所述存储器存储有能够被所述至少一个处理器执行的计算机程序,所述计算机程序在被所述至少一个处理器执行时用于使所述电子设备执行根据本公开实施例的方法。
本公开示例性实施例还提供一种存储有计算机程序的非瞬时计算机可读存储介质,其中,所述计算机程序在被计算机的处理器执行时用于使所述计算机执行根据本公开实施例的方法。
本公开示例性实施例还提供一种计算机程序产品,包括计算机程序,其中,所述计算机程序在被计算机的处理器执行时用于使所述计算机执行根据本公开实施例的方法。
参考图3,现将描述可以作为本公开的服务器或客户端的电子设备300的结构框图,其是可以应用于本公开的各方面的硬件设备的示例。电子设备旨在表示各种形式的数字电子的计算机设备,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图3所示,电子设备300包括计算单元301,其可以根据存储在只读存储器(ROM)302中的计算机程序或者从存储单元308加载到随机访问存储器(RAM)303中的计算机程序,来执行各种适当的动作和处理。在RAM 303中,还可存储设备300操作所需的各种程序和数据。计算单元301、ROM 302以及RAM 303通过总线304彼此相连。输入/输出(I/O)接口305也连接至总线304。
电子设备300中的多个部件连接至I/O接口305,包括:输入单元306、输出单元307、存储单元308以及通信单元309。输入单元306可以是能向电子设备300输入信息的任何类型的设备,输入单元306可以接收输入的数字或字符信息,以及产生与电子设备的用户设置和/或功能控制有关的键信号输入。输出单元307可以是能呈现信息的任何类型的设备,并且可以包括但不限于显示器、扬声器、视频/音频输出终端、振动器和/或打印机。存储单元308可以包括但不限于磁盘、光盘。通信单元309允许电子设备300通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据,并且可以包括但不限于调制解调器、网卡、红外通信设备、无线通信收发机和/或芯片组,例如蓝牙TM设备、WiFi设备、WiMax设备、蜂窝通信设备和/或类似物。
计算单元301可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元301的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元301执行上文所描述的各个方法和处理。例如,在一些实施例中,前述选择题解题方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元308。在一些实施例中,计算机程序的部分或者全部可以经由ROM 302和/或通信单元309而被载入和/或安装到电子设备300上。在一些实施例中,计算单元301可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行前述选择题解题方法。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
如本公开使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。

Claims (11)

1.一种选择题解题方法,包括:
获取题目的题干信息、问题信息和N个选项信息;其中,N为大于等于2的正整数;
根据所述题干信息、所述问题信息和所述N个选项信息生成N组信息;其中,每一组信息包括所述题干信息、所述问题信息和其中一个选项信息;
分别根据所述N组信息获取对应的N组第一语义向量N_POOL_EMB;
分别对所述N组第一语义向量N_POOL_EMB进行映射得到对应的N个第一一维向量Linear(N_POOL_EMB);
根据所述N个第一一维向量Linear(N_POOL_EMB)从所述N个选项信息中选择正确答案;
其中,分别根据所述N组信息获取对应的N组第一语义向量N_POOL_EMB包括:
将所述N组信息输入至预测模型的第一语言子模型,得到对应的N组第二语义向量N_SEQ_EMB;其中,所述N组第二语义向量N_SEQ_EMB表示每个字对应的语义向量;
将所述N组第二语义向量N_SEQ_EMB输入至所述预测模型的第二语言子模型,得到所述N组第一语义向量N_POOL_EMB;其中,所述N组第一语义向量N_POOL_EMB表示包含多个字的每一个选项对应的语义向量;
其中,将所述N组第二语义向量N_SEQ_EMB输入至所述预测模型的第二语言子模型,得到所述N组第一语义向量N_POOL_EMB包括:
将题干信息作为第一部分,将问题信息和N个选项信息作为第二部分;
将所述第一部分作为查询向量,所述第二部分作为键向量,键值向量进行多头注意力,另外将所述第二部分作为查询向量,所述第一部分作为键向量,键值向量进行多头注意力得到所述N组第一语义向量N_POOL_EMB。
2.如权利要求1所述的选择题解题方法,其中,所述第一语言子模型包括Roberta-large模型,所述第二语言子模型包括DUMA模型。
3.如权利要求1所述的选择题解题方法,其中,在所述题目为正确项问题时,
所述方法还包括:
将所述N组第一语义向量N_POOL_EMB输入至所述预测模型的第一线性层,得到所述N个第一一维向量Linear(N_POOL_EMB);
将所述Linear(N_POOL_EMB)输入至所述预测模型的Softmax函数或者Sigmoid函数得到每个选项信息为正确选项的第一概率;
在所述第一概率大于第一阈值时,确定对应的选项信息为正确答案。
4.如权利要求3所述的选择题解题方法,其中,所述预测模型通过如下第一损失函数进行训练得到:
LOSS=CROSS_ENTROPY(PROB, LABEL);
其中,LOSS表示预测模型的第一损失值,所述CROSS_ENTROPY表示交叉熵,PROB表示每个选项信息为正确选项的概率,LABEL表示每个选项信息为正确选项的标签。
5.如权利要求4所述的选择题解题方法,其中,在所述题目为错误项问题时,所述方法还包括:
将所述N组第一语义向量N_POOL_EMB输入至所述预测模型的第二线性层,得到N个第二一维向量Linear_C(N_POOL_EMB);
将所述N个第二一维向量Linear_C(N_POOL_EMB)输入至所述预测模型的Softmax函数模型或者Sigmoid函数模型得到每个选项信息为错误选项的第二概率;其中,所述错误选项为正确选项的转换项;
在所述第二概率大于第二阈值时,确定对应的选项信息为正确答案。
6.如权利要求5所述的选择题解题方法,其中,所述预测模型通过如下第二损失函数进行训练得到:
Figure 755261DEST_PATH_IMAGE001
其中,LOSS_C表示预测模型的第二损失值,
Figure 203560DEST_PATH_IMAGE002
表示每个选项信息为错误选项的概率。
7.如权利要求6所述的选择题解题方法,其中,所述预测模型联合训练的联合损失值为:FINAL_LOSS = LOSS + alpha * LOSS_C;
其中,FINAL_LOSS表示所述联合损失值,alpha大于等于0,在无法判断所述题目为正确项问题或者错误项问题时alpha取值为0。
8.如权利要求7所述的选择题解题方法,其中,根据所述N个第一一维向量Linear(N_POOL_EMB)从所述N个选项信息中选择正确答案包括:
所述预测模型的预测结果为:P + Beta * Q_TYPE * P_C;
其中,P是某个选项信息是正确答案的概率,P_C是某个选项信息的转换项是正确答案的概率;Beta为超参数;无法判断所述题目为正确项问题或者错误项问题时,Q_TYPE取值为0;所述题目为正确项问题时,Q_TYPE取值为1;所述题目为错误项问题时,Q_TYPE取值为-1。
9.一种选择题解题装置,包括:
第一获取模块,用于获取题目的题干信息、问题信息和N个选项信息;其中,N为大于等于2的正整数;
生成模块,用于根据所述题干信息、所述问题信息和所述N个选项信息生成N组信息;其中,每一组信息包括所述题干信息、所述问题信息和其中一个选项信息;
第二获取模块,用于分别根据所述N组信息获取对应的N组第一语义向量N_POOL_EMB;
映射模块,用于分别对所述N组第一语义向量N_POOL_EMB进行映射得到对应的N个第一一维向量Linear(N_POOL_EMB);
选择模块,用于根据所述N个第一一维向量Linear(N_POOL_EMB)从所述N个选项信息中选择正确答案;
其中,分别根据所述N组信息获取对应的N组第一语义向量N_POOL_EMB包括:
将所述N组信息输入至预测模型的第一语言子模型,得到对应的N组第二语义向量N_SEQ_EMB;其中,所述N组第二语义向量N_SEQ_EMB表示每个字对应的语义向量;
将所述N组第二语义向量N_SEQ_EMB输入至所述预测模型的第二语言子模型,得到所述N组第一语义向量N_POOL_EMB;其中,所述N组第一语义向量N_POOL_EMB表示包含多个字的每一个选项对应的语义向量;
其中,将所述N组第二语义向量N_SEQ_EMB输入至所述预测模型的第二语言子模型,得到所述N组第一语义向量N_POOL_EMB包括:
将题干信息作为第一部分,将问题信息和N个选项信息作为第二部分;
将所述第一部分作为查询向量,所述第二部分作为键向量,键值向量进行多头注意力,另外将所述第二部分作为查询向量,所述第一部分作为键向量,键值向量进行多头注意力得到所述N组第一语义向量N_POOL_EMB。
10.一种电子设备,包括:
处理器;以及
存储程序的存储器,
其中,所述程序包括指令,所述指令在由所述处理器执行时使所述处理器执行根据权利要求1-8中任一项所述的方法。
11.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使计算机执行根据权利要求1-8中任一项所述的方法。
CN202110893748.9A 2021-08-05 2021-08-05 选择题解题方法、装置、电子设备及可读存储介质 Active CN113343668B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110893748.9A CN113343668B (zh) 2021-08-05 2021-08-05 选择题解题方法、装置、电子设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110893748.9A CN113343668B (zh) 2021-08-05 2021-08-05 选择题解题方法、装置、电子设备及可读存储介质

Publications (2)

Publication Number Publication Date
CN113343668A CN113343668A (zh) 2021-09-03
CN113343668B true CN113343668B (zh) 2021-11-05

Family

ID=77480726

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110893748.9A Active CN113343668B (zh) 2021-08-05 2021-08-05 选择题解题方法、装置、电子设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN113343668B (zh)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3493609B1 (ja) * 2003-08-13 2004-02-03 有限会社快適ソフト コンピュータを利用した選択肢問題形式の学習用プログラム
CN107818085B (zh) * 2017-11-08 2021-04-23 山西大学 阅读机器人进行阅读理解的答案选择方法及系统
CN109766407B (zh) * 2018-11-28 2021-05-04 科大讯飞股份有限公司 数据处理方法和系统
CN111428104B (zh) * 2020-01-21 2023-10-10 广东工业大学 基于观点型阅读理解的癫痫病辅助医疗智能问答方法
CN112784579B (zh) * 2020-12-31 2022-05-27 山西大学 一种基于数据增强的阅读理解选择题答题方法

Also Published As

Publication number Publication date
CN113343668A (zh) 2021-09-03

Similar Documents

Publication Publication Date Title
CN110555095B (zh) 人机对话方法和装置
CN111428010B (zh) 人机智能问答的方法和装置
CN111625635A (zh) 问答处理、语言模型的训练方法、装置、设备及存储介质
WO2018118546A1 (en) Systems and methods for an emotionally intelligent chat bot
CN111708869B (zh) 人机对话的处理方法及装置
CN111428042B (zh) 对话服务中的实体级澄清
US10169466B2 (en) Persona-based conversation
CN110019742B (zh) 用于处理信息的方法和装置
CN116737908A (zh) 知识问答方法、装置、设备和存储介质
CN116521841B (zh) 用于生成回复信息的方法、装置、设备及介质
US20220358292A1 (en) Method and apparatus for recognizing entity, electronic device and storage medium
CN115309877A (zh) 对话生成方法、对话模型训练方法及装置
CN112101042A (zh) 文本情绪识别方法、装置、终端设备和存储介质
CN113326367B (zh) 基于端到端文本生成的任务型对话方法和系统
CN113421551B (zh) 语音识别方法、装置、计算机可读介质及电子设备
CN110738056B (zh) 用于生成信息的方法和装置
CN115062718A (zh) 语言模型训练方法、装置、电子设备及存储介质
CN112528654A (zh) 自然语言处理方法、装置及电子设备
WO2022221004A1 (en) Semantic parsing of utterance using contractive paraphrasing
CN112836013B (zh) 一种数据标注的方法、装置、可读存储介质和电子设备
CN111078848A (zh) 一种用于对话机器人的输入提示方法及装置
CN113792133B (zh) 判题方法、装置、电子设备和介质
CN113343668B (zh) 选择题解题方法、装置、电子设备及可读存储介质
CN114201589A (zh) 对话方法、装置、设备和存储介质
CN112037780A (zh) 用于智能语音机器人的语义识别方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant