CN109992785A - 基于机器学习的内容计算方法、装置及设备 - Google Patents
基于机器学习的内容计算方法、装置及设备 Download PDFInfo
- Publication number
- CN109992785A CN109992785A CN201910279685.0A CN201910279685A CN109992785A CN 109992785 A CN109992785 A CN 109992785A CN 201910279685 A CN201910279685 A CN 201910279685A CN 109992785 A CN109992785 A CN 109992785A
- Authority
- CN
- China
- Prior art keywords
- vector
- coding
- content
- arithmetic
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本申请实施例公开了一种基于机器学习的内容计算方法、装置及设备,属于计算机技术领域。所述方法包括:对待计算的内容进行分词运算,得到n个词汇,n为正整数;根据m个运算符和所述n个词汇生成语句向量,m为正整数;利用预先训练得到的编解码模型对所述语句向量进行处理,得到算数表达式;根据所述算数表达式计算所述内容的答案,所述算数表达式包括所述m个运算符中的至少一个运算符和所述内容中的至少两个数字。本申请实施例可以提高内容计算的准确性。
Description
技术领域
本申请实施例涉及计算机技术领域,特别涉及一种基于机器学习的内容计算方法、装置及设备。
背景技术
计算机可以对输入的内容进行处理后输出一个用于计算答案的算数表达式,该算数表达式包含运算符和该内容中的数字。通常,计算机是通过训练好的模型对内容进行计算的。比如,用户将内容“张姨用15元买了3双鞋,买5双鞋要多少元?”输入模型后,该模型输出算数表达式“15÷3×5”。
相关技术中,模型先从内容中提取有效的数字,再根据基于单位设定的规则对数字进行排序,最后确定两两数字之间的运算符,得到一个算数表达式。
当设定的规则不准确时,会影响算数表达式的准确性,从而影响内容计算的准确性。
发明内容
本申请实施例提供了一种基于机器学习的内容计算方法、装置及设备,用于解决设定的规则不准确时,影响内容计算的准确性的问题。所述技术方案如下:
一方面,提供了一种基于机器学习的内容计算方法,所述方法包括:
对待计算的内容进行分词运算,得到n个词汇,n为正整数;
根据m个运算符和所述n个词汇生成语句向量,m为正整数;
利用预先训练得到的编解码模型对所述语句向量进行处理,得到算数表达式;
根据所述算数表达式计算所述内容的答案,所述算数表达式包括所述m个运算符中的至少一个运算符和所述内容中的至少两个数字。
一方面,提供了一种基于机器学习的内容计算装置,所述装置包括:
分词模块,用于对待计算的内容进行分词运算,得到n个词汇,n为正整数;
生成模块,用于根据m个运算符和所述分词模块得到的所述n个词汇生成语句向量,m为正整数;
所述生成模块,还用于利用预先训练得到的编解码模型对所述语句向量进行处理,得到算数表达式;
计算模块,用于根据所述生成模块得到的所述算数表达式计算所述内容的答案,所述算数表达式包括所述m个运算符中的至少一个运算符和所述内容中的至少两个数字。
一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上所述的基于机器学习的内容计算方法。
一方面,提供了一种内容计算设备,所述内容计算设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如上所述的基于机器学习的内容计算方法。
本申请实施例提供的技术方案的有益效果至少包括:
在根据m个运算符和对内容进行分词得到的n个词汇生成语句向量后,将该语句向量输入训练得到的编解码模型中,编解码模型可以输出算数表达式,再根据该算式表达式即可计算出内容的答案,由于编解码模型是训练得到的,无需人为设定规则,避免了设定的规则不准确时,影响算数表达式的准确性的问题,从而提高了内容计算的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据部分示例性实施例示出的一种内容计算系统的结构示意图;
图2是本申请一个实施例提供的基于机器学习的内容计算方法的方法流程图;
图3是本申请一个实施例提供的流程示意图;
图4是本申请另一实施例提供的基于机器学习的内容计算方法的方法流程图;
图5是本申请另一实施例提供的编解码模型的架构图;
图6是本申请一个实施例提供的流程示意图;
图7是本申请一个实施例提供的基于机器学习的内容计算装置的结构框图;
图8是本申请再一实施例提供的服务器的结构框图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
下面对本申请涉及的应用场景进行介绍:
本申请应用于基于机器学习的内容计算的应用场景中,这里所说的内容可以是应用题,也可以是其他包含数字的可计算的文本,本实施例不作限定。下面以内容是应用题为例,对涉及应用题的三种应用场景进行说明。
第一种是儿童教辅类应用场景。本申请可以应用于儿童教辅类的产品中,比如,产品是习题解答产品,在习题是儿童数学应用题习题时,该产品可以批量生成习题的答案,减少人工生成习题的答案的成本,并提高生成习题的答案的效率。
第二种是在线答疑类应用场景。本申请可以应用于在线答疑类的产品中,比如,产品是应用题在线答疑产品,该产品可以对用户输入的应用题进行实时解答。
第三种是人工智能(Artificial Intelligence,AI)聊天类应用场景。本申请可以应用于人工智能聊天系统的产品中,比如,产品是人工智能聊天机器人等等,该产品可以实时解答用户提出的应用题,以增加人工智能聊天机器人的智能性和趣味性。
下面对本申请涉及的名词进行介绍:
语句向量:语句向量是根据运算符和内容中的词汇生成的向量。其中,运算符可以是加“+”、减“-”、乘“×”、除“÷”、括号“(”和“)”等等,本实施例不作限定。词汇是对内容进行分词得到的,比如,内容为“张姨用15元买了3双鞋,买5双鞋要多少元?”,则词汇可以是“张阿姨”、“15”、“买”、“3”、“鞋”、“5”等等。
由于需要利用编解码模型来对运算符和词汇进行处理,来得到算数表达式,而编解码模型无法识别运算符和词汇,所以,需要将运算符和词汇转换成编解码模型能够识别的向量。以上述6个运算符和6个词汇为例,假设6个运算符分别对应于词向量1-6,6个词汇分别对应于词向量7-12,则得到的语句向量=[词向量1、词向量2、词向量3、词向量4、词向量5、词向量6、词向量7、词向量8、词向量9、词向量10、词向量11、词向量12]。
编解码模型:编解码模型是一种将输入的语句向量转换成算数表达式的机器学习模型。其中,算数表达式是根据运算符和内容中的数字生成的。仍然以上文的内容为例,则在将语句向量输入编解码模型后,编解码模型可以输出“15÷3×5”的算数表达式。
需要说明的是,由于四则运算具有交换律、结合律、分配律等运算规则,所以,一个算数表达式可以有多种表现形式,所以,除了标准答案对应的算数表达式“15÷3×5”之外,编解码模型还可能生成“(15÷3)×5”、“5×(15÷3)”等等的算数表达式。本实施例中将标准答案对应的算数表达式称为第一表达式,将与第一表达式的计算结果相同且合法的算数表达式称为第二表达式。
编解码模型包括编码模型和解码模型,编码模型用于对语句向量进行编码,得到编码向量;解码模型用于对编码向量进行解码,得到算数表达式,详见下文中的描述。
本实施例中的编码模型提供了两种编码方式,第一种编码方式是对语句向量中的每个词向量(即词向量1-12)进行编码;第二种编码方式是对语句向量中与词汇对应的词向量(即词向量7-12)进行编码,本实施例不作限定。
示意性的,若以第一种编码方式进行编码,且对一个词向量进行编码得到一个元素向量,则得到的编码向量=[元素向量1、元素向量2、元素向量3、元素向量4、元素向量5、元素向量6、元素向量7、元素向量8、元素向量9、元素向量10、元素向量11、元素向量12]。若以第二种编码方式进行编码,且对一个词向量进行编码得到一个元素向量,则得到的编码向量=[词向量1、词向量2、词向量3、词向量4、词向量5、词向量6、元素向量7、元素向量8、元素向量9、元素向量10、元素向量11、元素向量12]。
示意性的,将上述两个编码向量中的任一个输入解码模型,该解码模型对该编码向量进行第1次解码,得到“15”;对该编码向量进行第2次解码,得到“÷”;对该编码向量进行第3次解码,得到“3”;对该编码向量进行第4次解码,得到“×”;对该编码向量进行第5次解码,得到“5”,得到最终的算数表达式“15÷3×5”。
值得注意的是,本申请实施例可以实现在终端中,也可以实现在服务器中,还可以由终端和服务器共同实现,如图1所示,终端11用于生成内容,并将该内容发送至服务器12,服务器12对该内容进行处理后,将得到的算数表达式(或根据算数表达式得到的计算结果)发送至终端11进行展示。可选地,终端11与服务器12之间通过通信网络进行连接,该通信网络可以是有线网络也可以是无线网络,本申请实施例对此不加以限定。
示意性的,服务器12中存储有用于计算内容的编解码模型,用户在终端11中输入需要计算的内容“张姨用15元买了3双鞋,买5双鞋要多少元?”后,终端11将该内容发送至服务器12,由服务器12对该内容进行预处理后,通过编解码模型对预处理后的内容进行计算得到算数表达式,并将该算数表达式发送至终端11进行展示。
请参考图2,其示出了本申请一个实施例提供的基于机器学习的内容计算方法的方法流程图。该基于机器学习的内容计算方法,包括:
步骤201,对待计算的内容进行分词运算,得到n个词汇。
这里所说的内容可以是应用题,也可以是其他包含数字的可计算的文本,本实施例不作限定。其中,应用题是指用语言或文字描述有关事实,反映某种数量关系,并求解未知数量的题目。
当内容是应用题时,对应于上述第一种应用场景,服务器可以接收用户批量输入的应用题,或者,服务器可以扫描习题册得到应用题。对应于上述第二种应用场景,服务器可以接收用户在线答疑系统中输入的应用题。对应于上述第三种应用场景,服务器可以接收用户语音输入的应用题。
在服务器得到内容后,可以对该内容进行分词运算,本实施例不对分词运算的运算方式作限定。
本实施例中,服务器对内容进行分词运算后得到n个词汇,n为正整数。
步骤202,根据m个运算符和n个词汇生成语句向量。
服务器可以先对m个运算符和n个词汇进行合并,得到词序列,再对词序列进行处理得到语句向量。
步骤203,利用预先训练得到的编解码模型对语句向量进行处理,得到算数表达式。
本实施例中,服务器在使用编解码模型之前,需要对编解码模型进行训练,下文中将对训练过程进行解释。
在得到训练好的编解码模型后,服务器可以将语句向量输入编解码模型中,编解码模型可以先利用编码模型对该语句向量进行编码,得到编码向量;再利用解码模型对该编码向量进行解码,得到算数表达式,详见下文中的解释。
步骤204,根据算数表达式计算内容的答案。
其中,算数表达式包括m个运算符中的至少一个运算符和内容中的至少两个数字。
本实施例中,服务器可以将算数表达式作为内容的答案,或者,服务器还可以通过计算器对算数表达式进行计算,得到一个数值,并将该数值作为内容的答案。
请参考图3所示的本申请的流程示意图,根据图3可知,在将内容输入编解码模型后,即可得到算数表达式,计算过程较为简洁,且不依赖于人为设定的规则,从而提高了内容计算的准确性。
综上所述,本申请实施例提供的基于机器学习的内容计算方法,在根据m个运算符和对内容进行分词得到的n个词汇生成语句向量后,将该语句向量输入训练得到的编解码模型中,编解码模型可以输出算数表达式,再根据该算式表达式即可计算出内容的答案,由于编解码模型是训练得到的,无需人为设定规则,避免了设定的规则不准确时,影响算数表达式的准确性的问题,从而提高了内容计算的准确性。
请参考图4,其示出了本申请另一实施例提供的基于机器学习的内容计算方法的方法流程图,本实施例中以内容计算为求解应用题为例进行举例说明。该基于机器学习的内容计算方法,包括:
步骤401,提取待求解的应用题中的各个数字,将各个数字替换成对应的替代符号。
服务器可以先对应用题中的数字进行识别,再按照预设的替换规则将数字替换成替代符号。其中,数字和替代符号之间是一一对应关系。
在一种可能的实现方式中,替代符号可以用预设符号+数字在应用题中出现的先后顺序表示。在一个示例中,替代符号用<number_p>表示,其中,number是预设符号,p是数字在应用题中出现的先后顺序。假设应用题为“张姨用15元买了3双鞋,买5双鞋要多少元?”,则替换后的应用题为“张姨用<number_1>元买了<number_2>双鞋,买<number_3>双鞋要多少元?”。
在另一种可能的实现方式会中,替代符号可以用不同的符号表示。在一个示例中,假设应用题为“张姨用15元买了3双鞋,买5双鞋要多少元?”,且15对应的替代符号为a,3对应的替代符号为b,5对应的替代符号为c,则替换后的应用题为“张姨用a元买了b双鞋,买c双鞋要多少元?”。
步骤402,对应用题进行分词运算,得到n个词汇。
其中,应用题的定义、获取方式以及分词方式详见步骤201中的描述,此处不作赘述。
本实施例中,服务器对应用题进行分词运算后得到n个词汇,n为正整数。假设应用题用Q表示,词汇用Wi q表示,则服务器可以得到一个序列
步骤403,将m个运算符和n个词汇进行组合,得到词序列。
服务器可以先对m个运算符和n个词汇进行合并,得到词序列。假设应用题用Q表示,运算符用Wi o表示,则服务器可以得到一个词序列m为正整数。
需要说明的是,本申请并不需要借助其他模型来判断应用题中哪些数字可用于构造算数表达式并对这些数字进行特殊处理(即提取有效的数字),而是直接由编解码模型判断哪些数字有效并输出算数表达式。
步骤404,利用词向量矩阵对词序列中的每个元素进行映射,得到语句向量。
由于需要利用编解码模型来对运算符和词汇进行处理,来得到算数表达式,而编解码模型无法识别运算符和词汇,所以,需要将运算符和词汇转换成编解码模型能够识别的向量。
在一种可能的实现方式中,服务器可以预先获取词向量矩阵,通过词向量矩阵将每个运算符和词汇映射成一个词向量,再将所有的词向量作为语句向量。其中,词向量矩阵可以是预先训练得到的,也可以是随机初始化得到的,本实施例不作限定。
假设用V表示词向量,则服务器对词序列进行映射后,可以得到语句向量
本实施例中,服务器可以将语句向量输入编解码模型中进行处理,在使用编解码模型之前,需要对编解码模型进行训练,下文中将对训练过程进行解释。
步骤405,利用编解码模型中的编码模型对语句向量进行编码,得到编码向量。
编解码模型的目的是使用编码模型对输入的序列进行编码,然后使用解码模型将编码结果转化成另一种类型的序列并输出。以本申请涉及的求解应用题为例,编码模型将对语句向量进行编码,之后通过解码模型将编码后的结果转化成算数表达式。
请参考图5,其示出了一种编解码模型的架构图。下面对图5中三种不同的方框进行解释。
1)白色框代表词向量。其中,运算符对应的词向量可以参与编码过程,也可以不参与编码过程,本实施例不作限定。图5中以运算符对应的词向量不参与编码过程进行示例。
2)黑色框代表编码模型中的第一处理节点。编码模型可以将长度不同的语句向量编码成维度相同的编码向量,编码向量包含了语句向量的语义信息。本实施例中,编码模型可以是单向编码模型,也可以是双向编码模型,其中双向编码模型可以是双向LSTM(LongShort-Term Memory,长短期记忆网络)网络、双向GRU(Gate Recurrent Unit,门控循环单元)网络等等,本实施例不作限定。图5中以单向编码模型,且编码方向为从前往后为例进行说明。
编码模型中每个第一处理节点(即时间节点)的输出不仅和当前输入有关,也和过去的输入有关,使用双向的网络可以让每个输出向量含有更丰富上下文语义信息。
3)阴影框为解码模型中的第二处理节点。解码模型可以采用基于pointernetwork的解码框架,还可以采用其他解码框架,本实施例不作限定。
下面先对编码过程进行说明。假设编码模型包括级联的k个第一处理节点,k为正整数,则利用编解码模型中的编码模型对语句向量进行编码,得到编码向量,可以包括以下步骤:
步骤4051,利用k个第一处理节点中的第t个第一处理节点,获取语句向量中的第j个词向量,词向量对应于一个运算符或一个词汇,1≤t≤k,j=t或j=m+t。
需要说明的第一点是:当运算符参与编码过程时,j=t;当运算符不参与编码过程时,j=m+t。
需要说明的第二点是:当编码模型是单向编码模型且编码方向为从前往后时,第t个第一处理节点是按照从前往后的顺序排列在k个第一处理节点中的第t个位置的第一处理节点;第j个词向量是按照从前往后的顺序排列在语句向量中的第j个位置的词汇。当编码模型是单向编码模型且编码方向为从后往前时,第t个第一处理节点是按照从后往前的顺序排列在k个第一处理节点中的第t个位置的第一处理节点;第j个词向量是按照从后往前的顺序排列在语句向量中的第j个位置的词汇。当编码模型是双向编码模型且编码方向包括从前往后和从后往前时,第t个第一处理节点包括按照从前往后的顺序排列在k个第一处理节点中的第t个位置的第一处理节点,以及按照从后往前的顺序排列在k个第一处理节点中的第k-t+1个位置的第一处理节点;第j个词汇包括按照从前往后的顺序排列在语句向量中的第j个位置的词汇,以及按照从后往前的顺序排列在语句向量中的第k-j+1个位置的词汇。
步骤4052,利用第t个第一处理节点,获取第t-1个第一处理节点输出的第t-1个隐态向量和第t-1个第一输出向量。
若用h表示隐态向量,C表示第一输出向量,则第t-1个隐态向量为ht-1,第t-1个第一输出向量为Ct-1。请参考图5,其中,第一输出向量为黑色框的横向箭头的输出向量。
步骤4053,利用第t个第一处理节点,对第j个词向量、第t-1个隐态向量和第t-1个第一输出向量进行运算,得到第t个隐态向量和第t个第一输出向量。
需要说明的是,第一处理节点的运算方式与编码模型所选用的网络相关,此处不作限定。
若用h表示隐态向量,C表示第一输出向量,则第t个隐态向量为ht,第t个第一输出向量为Ct。
假设语句向量为[x1,x2,…,xn]且编码方向为从前往后,则对于第t个时刻的输出的计算公式如1-6所示。
it=δ(Wi[ht-1;xt]+bi) (1)
ft=δ(Wf[ht-1;xt]+bf) (2)
ot=δ(Wo[ht-1;xt]+bo) (5)
其中,公式1中的Wi和bi、公式2中的Wf和bf、公式3中的Wc和bc和公式5中的Wo和bo都是训练得到的参数,训练过程将在下文中解释。
当编码方向为从后往前时,编码模型可以参照上述公式计算出第t个时刻的输出编码模型再对两个编码方向的输出进行结合,得到第t个时刻输出的隐态向量为第t个时刻输出的第一输出向量为Ct。
步骤4054,当j=t时,将得到的m+n个隐态向量确定为编码向量。
当j=t时,说明运算符参与编码过程,此时得到的编码向量为[h1,h2,...,hn]。
步骤4055,当j=m+t时,对语句向量中的前m个词向量和得到的n个隐态向量进行组合,得到编码向量。
当j=m+t时,说明运算符不参与编码过程,此时得到的编码向量为
需要说明的是第一点是:当t=0时,第0个第一处理节点可以获取初始值,再根据初始值计算第0个隐态向量和第0个第一输出向量,本实施例不对初始值作限定。
需要说明的第二点是:解码模型可以根据开始符号开始解码,根据结束符号结束解码,本实施例不对开始符号和结束符号进行限定。如图5中所示,开始符号是“=>”,结束符号是“<=”,即,在当前得到的元素向量是h0对应的“<=”时,结束解码过程。
步骤406,利用编解码模型中的解码模型对编码向量进行解码,得到算数表达式。
假设解码模型包括级联的r个第二处理节点,r为正整数,则利用编解码模型中的解码模型对编码向量进行解码,得到算数表达式,可以包括以下几个步骤:
步骤4061,当s≥1时,利用r个第二处理节点中的第s个第二处理节点,获取第s-1个第二处理节点输出的第s-1个元素向量和第s-1个第二输出向量,元素向量是编码向量中的一个向量。
请参考图5,其中,第二输出向量为阴影框的横向箭头的输出向量。
本实施例中将编码向量中的每个向量称为一个元素向量。其中,当j=t时,元素向量为m+n个隐态向量中的一个隐态向量;当j=m+t时,元素向量为语句向量中前m个词向量中的一个词向量,或,n个隐态向量中的一个隐态向量。
需要说明的是,第s-1个第二处理节点输出的第s-1个元素向量是编码向量中的一个元素向量,其并不一定是排列在编码向量中第s-1个位置的元素向量。
步骤4062,利用第s个第二处理节点,对第s-1个元素向量和第s-1个第二输出向量进行运算,得到第s个输出状态。
若用g表示输出状态,则第s个输出状态为gs。
步骤4063,利用第s个第二处理节点,分别计算第s个输出状态对于编码向量中每个元素向量的注意力值,并将最大的注意力值对应的元素向量作为第s个第二处理节点输出的第s个元素向量。
当运算符参与编码过程时,编码向量中的每个元素向量可以用ht表示,此时,可以通过公式7计算每个元素向量对应的注意力值。
αs,t=Wptrtanh(Uptrgs+Vptrht) (7)
其中,公式7中的Wptr、Uptr和Vptr都是训练得到的参数,训练过程将在下文中解释。
当运算符不参与编码过程时,对于编码向量中的前m个元素向量中的每个元素向量,可以通过将公式7中的ht替换成vo来计算每个元素向量对应的注意力值;对于编码向量中的后n个元素向量中的每个元素向量,可以通过公式7计算每个元素向量对应的注意力值。
在得到每个元素向量对应的注意力值后,解码模型可以通过公式8选择最大的注意力值对应的元素向量。
ys=arg max(αs,t) (8)
步骤4064,将得到的r-1个元素向量转换为算数表达式。
解码模型在得到r-1个元素向量后,可以获取每个元素向量对应的运算符或替代符号,得到包含运算符和替代符号的算数表达式。
需要说明的是,当s=0时,利用r个第二处理节点中的第0个第二处理节点,获取初始值和编码模型中第k个第一处理节点输出的第k个第一输出向量;利用第0个第二处理节点,对初始值和第k个第一输出向量进行运算,得到第0个输出状态;利用第0个第二处理节点,分别计算第0个输出状态对于编码向量中每个元素向量的注意力值,并将最大的注意力值对应的元素向量作为第0个第二处理节点输出的第0个元素向量。
步骤407,将算数表达式中的各个替代符号替换成对应的数字。
在一种可能的实现方式中,当替代符号用预设符号+数字在应用题中出现的先后顺序表示时,服务器可以根据替代符号中的顺序从应用题中查找对应的数字,并利用该数字来替换替代符号。
在另一种可能的实现方式会中,当替代符号用不同的符号表示时,服务器可以根据替代符号与数字的对应关系来查找对应的数字,并利用Giallo数字来替换替代符号。
步骤408,根据算数表达式计算应用题的答案。
其中,算数表达式包括m个运算符中的至少一个运算符和应用题中的至少两个数字。
本实施例中,服务器可以将算数表达式作为应用题的答案,或者,服务器还可以通过计算器对算数表达式进行计算,得到一个数值,并将该数值作为应用题的答案。
综上所述,本申请实施例提供的基于机器学习的应用题求解方法,在根据m个运算符和对应用题进行分词得到的n个词汇生成语句向量后,将该语句向量输入训练得到的编解码模型中,编解码模型可以输出算数表达式,再根据该算式表达式即可计算出应用题的答案,由于编解码模型是训练得到的,无需人为设定规则,避免了设定的规则不准确时,影响算数表达式的准确性的问题,从而提高了求解应用题的准确性。
由于可以根据运算符和所有数字的替代符号生成语句向量,再将语句向量输入编解码模型进行处理,而不需要通过额外的模型来提取应用题中有效的数字,这样,不需要借助其他工具即可求解应用题。另外,当额外的模型提取的有效的数字不准确时,会影响算数表达式的准确性,也就会影响求解应用题的准确性,所以,相比较来说,本实施例可以提高求解应用题的准确性。
在使用编解码模型之前,还需要对编解码模型进行训练。编解码模型训练的过程可以认为是参数调整的过程,其包括以下几个步骤:第一,通过损失函数来表示预期输出和编解码模型输出的差距,该差距即为损失值;第二,损失函数对编解码模型的参数进行求导,求导得到的值即为参数的变化方向;第三,在知道参数的变化方向之后,结合学习率可以获得参数的变化值,并对该参数进行调整;第四,重复第一到第三步骤,直到损失值低于预期时停止训练。在第一步损失值的计算中,我们会希望编解码模型所有正确输出的答案所对应的损失值是0。
传统的模型训练过程中,一般采用基于交叉熵的损失函数,如公式9所示,其中yi为数据的真实分类结果,pi为模型对于该数据分为第i类的预测的概率。
由于四则运算存在交换律、结合律和分配律等运算规则,所以不同的算数表达式也会得到相同的答案。比如,(2+3)*4=(3+2)*4=4*(3+2)=4*(2+3)=(2*4)+(3*4)=2*4+(3*4)=...。因此,若采用基于交叉熵的损失函数,我们必须知道该应用题所有的算数表达式,而现有的应用题数据中,通常只存在一个唯一正确的算数表达式(即标准答案对应的算数表达式),因此,基于交叉熵的损失函数并不能处理编解码模型输出其他正确的算数表达式的情况,凡是编解码模型输出的算数表达式与既定的唯一正确的算数表达式不符,使用该损失函数计算得到的损失值都不会等于0,从而影响编解码模型的准确性。
本实施例中,我们借鉴了强化学习的思想,即,对于编解码模型生成的算数表达式的可执行性和执行结果的正确性制定了对应的奖赏函数,使得所有正确的算数表达式对于编解码模型的反馈都是相同的。其中,算数表达式的可执行性指的是该算数表达式输入计算器之后是否返回异常,若未返回异常,则该表达式为合法表达式;算数表达式的执行结果的正确性指的是将该算数表达式输入计算器后所返回的答案与正确的算数表达式输入计算器后所返回的答案是否相同。
假设编解码模型输出的元素向量的序列为y=[y1,y2,...yt],qg为正确的算是表达式,则奖赏函数可以如公式10所示。
下面对编解码模型的训练过程进行介绍。
1)设置奖赏函数,奖赏函数用于为第一表达式和第二表达式提供相同的反馈,第一表达式是标准答案对应的算数表达式,第二表达式是与第一表达式的计算结果相同的合法表达式。
奖赏函数见公式10。
2)根据奖赏函数生成损失函数。
编解码模型的损失函数L=-E[R(y,qg)]。
3)利用损失函数对创建的编解码模型进行训练。
损失函数对各参数的求导结果如公式11所示。
其中,py(yt;Θ)表示第t个时间节点,在参数集合为Θ时,编解码模型的输出为yt的概率。参数集合为Θ包括公式1、2、3、5和7中的参数。
本实施例中,通过奖赏函数可以实现对一个应用题求解出多个算数表达式,相比于相关技术中对一个应用题只能求解一个算数表达式来说,可以提高计算结果的多样性,使得应用题具有更完善的求解方案。
请参考图6所示的本申请的流程示意图,根据图6可知,在将应用题输入编解码模型后,编解码模型可以输出算数表达式,并将算数表达式输出到计算器中,计算器将输入的标准答案对应的算数表达式作为第一表达式,再将从编解码模型接收到的算数表达式作为第二表达式,获取第二表达式的可执行性和计算结果,并将第一表达式的计算结果以及第二表达式的可执行性和计算结果输出给奖赏函数,奖赏函数根据接收到的数据调整训练参数。
请参考图7,其示出了本申请一个实施例提供的基于机器学习的内容计算装置的结构框图。该基于机器学习的内容计算装置,包括:
分词模块710,用于对待计算的内容进行分词运算,得到n个词汇,n为正整数;
生成模块720,用于根据m个运算符和分词模块710得到的n个词汇生成语句向量,m为正整数;
生成模块720,还用于利用预先训练得到的编解码模型对语句向量进行处理,得到算数表达式;
计算模块730,用于根据生成模块720得到的算数表达式计算内容的答案,算数表达式包括m个运算符中的至少一个运算符和内容中的至少两个数字。
在一种可能的实现方式中,该装置还包括:
替换模块,用于在分词模块710对待计算的内容进行分词运算,得到n个词汇之前,提取待计算的内容中的各个数字,将各个数字替换成对应的替代符号;
替换模块,还用于在计算模块730根据算数表达式计算内容的答案之前,将算数表达式中的各个替代符号替换成对应的数字。
在一种可能的实现方式中,生成模块720,还用于:
将m个运算符和n个词汇进行组合,得到词序列;
利用词向量矩阵对词序列中的每个元素进行映射,得到语句向量。
在一种可能的实现方式中,生成模块720,还用于:
利用编解码模型中的编码模型对语句向量进行编码,得到编码向量;
利用编解码模型中的解码模型对编码向量进行解码,得到算数表达式。
在一种可能的实现方式中,当编码模型包括级联的k个第一处理节点,k为正整数,生成模块720,还用于:
利用k个第一处理节点中的第t个第一处理节点,获取语句向量中的第j个词向量,词向量对应于一个运算符或一个词汇,1≤t≤k,j=t或j=m+t;
利用第t个第一处理节点,获取第t-1个第一处理节点输出的第t-1个隐态向量和第t-1个第一输出向量;
利用第t个第一处理节点,对第j个词向量、第t-1个隐态向量和第t-1个第一输出向量进行运算,得到第t个隐态向量和第t个第一输出向量;
当j=t时,将得到的m+n个隐态向量确定为编码向量;
当j=m+t时,对语句向量中的前m个词向量和得到的n个隐态向量进行组合,得到编码向量。
在一种可能的实现方式中,解码模型包括级联的r个第二处理节点,r为正整数,生成模块720,还用于:
当s≥1时,利用r个第二处理节点中的第s个第二处理节点,获取第s-1个第二处理节点输出的第s-1个元素向量和第s-1个第二输出向量,元素向量是编码向量中的一个向量;
利用第s个第二处理节点,对第s-1个元素向量和第s-1个第二输出向量进行运算,得到第s个输出状态;
利用第s个第二处理节点,分别计算第s个输出状态对于编码向量中每个元素向量的注意力值,并将最大的注意力值对应的元素向量作为第s个第二处理节点输出的第s个元素向量;
将得到的r-1个元素向量转换为算数表达式。
在一种可能的实现方式中,生成模块720,还用于:
当s=0时,利用r个第二处理节点中的第0个第二处理节点,获取初始值和编码模型中第k个第一处理节点输出的第k个第一输出向量;
利用第0个第二处理节点,对初始值和第k个第一输出向量进行运算,得到第0个输出状态;
利用第0个第二处理节点,分别计算第0个输出状态对于编码向量中每个元素向量的注意力值,并将最大的注意力值对应的元素向量作为第0个第二处理节点输出的第0个元素向量。
在一种可能的实现方式中,该装置还包括:
设置模块,用于在生成模块720利用预先训练得到的编解码模型对语句向量进行处理,得到算数表达式之前,设置奖赏函数,奖赏函数用于为第一表达式和第二表达式提供相同的反馈,第一表达式是标准答案对应的算数表达式,第二表达式是与第一表达式的计算结果相同的合法表达式;
生成模块720,还用于根据设置模块设置的奖赏函数生成损失函数;
训练模块,用于利用生成模块720生成的损失函数对创建的编解码模型进行训练。
综上所述,本申请实施例提供的基于机器学习的内容计算装置,在根据m个运算符和对内容进行分词得到的n个词汇生成语句向量后,将该语句向量输入训练得到的编解码模型中,编解码模型可以输出算数表达式,再根据该算式表达式即可计算出内容的答案,由于编解码模型是训练得到的,无需人为设定规则,避免了设定的规则不准确时,影响算数表达式的准确性的问题,从而提高了内容计算的准确性。
由于可以根据运算符和所有数字的替代符号生成语句向量,再将语句向量输入编解码模型进行处理,而不需要通过额外的模型来提取内容中有效的数字,这样,不需要借助其他工具即可计算内容。另外,当额外的模型提取的有效的数字不准确时,会影响算数表达式的准确性,也就会影响内容计算的准确性,所以,相比较来说,本实施例可以提高内容计算的准确性。
通过奖赏函数可以实现对一个内容计算出多个算数表达式,相比于相关技术中对一个内容只能计算出一个算数表达式来说,可以提高计算结果的多样性,使得内容具有更完善的计算方案。
本申请还提供了一种服务器,该服务器包括处理器和存储器,存储器中存储有至少一条指令,至少一条指令由处理器加载并执行以实现上述各个方法实施例提供的基于机器学习的内容计算方法。需要说明的是,该服务器可以是如下图8所提供的服务器。
请参考图8,其示出了本申请一个示例性实施例提供的服务器的结构框图。具体来讲:所述服务器800包括中央处理单元(CPU)801、包括随机存取存储器(RAM)802和只读存储器(ROM)803的系统存储器804,以及连接系统存储器804和中央处理单元801的系统总线805。所述服务器800还包括帮助计算机内的各个器件之间传输信息的基本输入/输出系统(I/O系统)806,和用于存储操作系统813、应用程序814和其他程序模块815的大容量存储设备807。
所述基本输入/输出系统806包括有用于显示信息的显示器808和用于用户输入信息的诸如鼠标、键盘之类的输入设备809。其中所述显示器808和输入设备809都通过连接到系统总线805的输入输出控制器810连接到中央处理单元801。所述基本输入/输出系统806还可以包括输入输出控制器810以用于接收和处理来自键盘、鼠标、或电子触控笔等多个其他设备的输入。类似地,输入输出控制器810还提供输出到显示屏、打印机或其他类型的输出设备。
所述大容量存储设备807通过连接到系统总线805的大容量存储控制器(未示出)连接到中央处理单元801。所述大容量存储设备807及其相关联的计算机可读存储介质为服务器800提供非易失性存储。也就是说,所述大容量存储设备807可以包括诸如硬盘或者CD-ROI驱动器之类的计算机可读存储介质(未示出)。
不失一般性,所述计算机可读存储介质可以包括计算机存储介质和通信介质。计算机存储介质包括以用于存储诸如计算机可读指令、数据结构、程序模块或其他数据等信息的任何方法或技术实现的易失性和非易失性、可移动和不可移动介质。计算机存储介质包括RAM、ROM、EPROM、EEPROM、闪存或其他固态存储其技术,CD-ROM、DVD或其他光学存储、磁带盒、磁带、磁盘存储或其他磁性存储设备。当然,本领域技术人员可知所述计算机存储介质不局限于上述几种。上述的系统存储器804和大容量存储设备807可以统称为存储器。
存储器存储有一个或多个程序,一个或多个程序被配置成由一个或多个中央处理单元801执行,一个或多个程序包含用于实现上述基于机器学习的内容计算方法的指令,中央处理单元801执行该一个或多个程序实现上述各个方法实施例提供的基于机器学习的内容计算方法。
根据本发明的各种实施例,所述服务器800还可以通过诸如因特网等网络连接到网络上的远程计算机运行。也即服务器800可以通过连接在所述系统总线805上的网络接口单元811连接到网络812,或者说,也可以使用网络接口单元811来连接到其他类型的网络或远程计算机系统(未示出)。
所述存储器还包括一个或者一个以上的程序,所述一个或者一个以上程序存储于存储器中,所述一个或者一个以上程序包含用于进行本发明实施例提供的基于机器学习的内容计算方法中由服务器所执行的步骤。
本申请实施例还提供一种计算机可读存储介质,该存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器810加载并执行以实现如上所述的基于机器学习的内容计算方法。
本申请还提供了一种计算机程序产品,当计算机程序产品在计算机上运行时,使得计算机执行上述各个方法实施例提供的基于机器学习的内容计算方法。
本申请一个实施例提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上所述的基于机器学习的内容计算方法。
本申请一个实施例提供了一种内容计算设备,所述内容计算设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如上所述的基于机器学习的内容计算方法。
需要说明的是:上述实施例提供的基于机器学习的内容计算装置在进行内容计算时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将基于机器学习的内容计算装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的基于机器学习的内容计算装置与基于机器学习的内容计算方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述并不用以限制本申请实施例,凡在本申请实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请实施例的保护范围之内。
Claims (10)
1.一种基于机器学习的内容计算方法,其特征在于,所述方法包括:
对待计算的内容进行分词运算,得到n个词汇,n为正整数;
根据m个运算符和所述n个词汇生成语句向量,m为正整数;
利用预先训练得到的编解码模型对所述语句向量进行处理,得到算数表达式;
根据所述算数表达式计算所述内容的答案,所述算数表达式包括所述m个运算符中的至少一个运算符和所述内容中的至少两个数字。
2.根据权利要求1所述的方法,其特征在于,
在所述对待计算的内容进行分词运算,得到n个词汇之前,所述方法还包括:提取所述待计算的内容中的各个数字,将各个数字替换成对应的替代符号;
在所述根据所述算数表达式计算所述内容的答案之前,所述方法还包括:将所述算数表达式中的各个替代符号替换成对应的数字。
3.根据权利要求1所述的方法,其特征在于,所述根据m个运算符和所述n个词汇生成语句向量,包括:
将所述m个运算符和所述n个词汇进行组合,得到词序列;
利用词向量矩阵对所述词序列中的每个元素进行映射,得到所述语句向量。
4.根据权利要求1所述的方法,其特征在于,所述利用预先训练得到的编解码模型对所述语句向量进行处理,得到算数表达式,包括:
利用所述编解码模型中的编码模型对所述语句向量进行编码,得到编码向量;
利用所述编解码模型中的解码模型对所述编码向量进行解码,得到所述算数表达式。
5.根据权利要求4所述的方法,其特征在于,当所述编码模型包括级联的k个第一处理节点,k为正整数,所述利用所述编解码模型中的编码模型对所述语句向量进行编码,得到编码向量,包括:
利用所述k个第一处理节点中的第t个第一处理节点,获取所述语句向量中的第j个词向量,所述词向量对应于一个运算符或一个词汇,1≤t≤k,j=t或j=m+t;
利用所述第t个第一处理节点,获取第t-1个第一处理节点输出的第t-1个隐态向量和第t-1个第一输出向量;
利用所述第t个第一处理节点,对所述第j个词向量、所述第t-1个隐态向量和所述第t-1个第一输出向量进行运算,得到第t个隐态向量和第t个第一输出向量;
当j=t时,将得到的m+n个隐态向量确定为所述编码向量;
当j=m+t时,对所述语句向量中的前m个词向量和得到的n个隐态向量进行组合,得到所述编码向量。
6.根据权利要求5所述的方法,其特征在于,所述解码模型包括级联的r个第二处理节点,r为正整数,所述利用所述编解码模型中的解码模型对所述编码向量进行解码,得到所述算数表达式,包括:
当s≥1时,利用所述r个第二处理节点中的第s个第二处理节点,获取第s-1个第二处理节点输出的第s-1个元素向量和第s-1个第二输出向量,所述元素向量是所述编码向量中的一个向量;
利用所述第s个第二处理节点,对所述第s-1个元素向量和所述第s-1个第二输出向量进行运算,得到第s个输出状态;
利用所述第s个第二处理节点,分别计算所述第s个输出状态对于所述编码向量中每个元素向量的注意力值,并将最大的注意力值对应的元素向量作为所述第s个第二处理节点输出的第s个元素向量;
将得到的r-1个元素向量转换为所述算数表达式。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
当s=0时,利用所述r个第二处理节点中的第0个第二处理节点,获取初始值和所述编码模型中第k个第一处理节点输出的第k个第一输出向量;
利用所述第0个第二处理节点,对所述初始值和所述第k个第一输出向量进行运算,得到第0个输出状态;
利用所述第0个第二处理节点,分别计算所述第0个输出状态对于所述编码向量中每个元素向量的注意力值,并将最大的注意力值对应的元素向量作为所述第0个第二处理节点输出的第0个元素向量。
8.根据权利要求1至7任一项所述的方法,其特征在于,在所述利用预先训练得到的编解码模型对所述语句向量进行处理,得到算数表达式之前,所述方法还包括:
设置奖赏函数,所述奖赏函数用于为第一表达式和第二表达式提供相同的反馈,所述第一表达式是标准答案对应的算数表达式,所述第二表达式是与所述第一表达式的计算结果相同的合法表达式;
根据所述奖赏函数生成损失函数;
利用所述损失函数对创建的编解码模型进行训练。
9.一种基于机器学习的内容计算装置,其特征在于,所述装置包括:
分词模块,用于对待计算的内容进行分词运算,得到n个词汇,n为正整数;
生成模块,用于根据m个运算符和所述分词模块得到的所述n个词汇生成语句向量,m为正整数;
所述生成模块,还用于利用预先训练得到的编解码模型对所述语句向量进行处理,得到算数表达式;
计算模块,用于根据所述生成模块得到的所述算数表达式计算所述内容的答案,所述算数表达式包括所述m个运算符中的至少一个运算符和所述内容中的至少两个数字。
10.一种内容计算设备,其特征在于,所述内容计算设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如权利要求1至8任一所述的基于机器学习的内容计算方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910279685.0A CN109992785B (zh) | 2019-04-09 | 2019-04-09 | 基于机器学习的内容计算方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910279685.0A CN109992785B (zh) | 2019-04-09 | 2019-04-09 | 基于机器学习的内容计算方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109992785A true CN109992785A (zh) | 2019-07-09 |
CN109992785B CN109992785B (zh) | 2023-07-25 |
Family
ID=67132624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910279685.0A Active CN109992785B (zh) | 2019-04-09 | 2019-04-09 | 基于机器学习的内容计算方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109992785B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110569628A (zh) * | 2019-09-09 | 2019-12-13 | 北京智游网安科技有限公司 | 一种代码的混淆方法以及装置、计算机设备、存储介质 |
CN111767708A (zh) * | 2020-07-09 | 2020-10-13 | 北京猿力未来科技有限公司 | 解题模型的训练方法及装置、解题公式生成方法及装置 |
CN111783423A (zh) * | 2020-07-09 | 2020-10-16 | 北京猿力未来科技有限公司 | 解题模型的训练方法及装置、解题方法及装置 |
CN112907409A (zh) * | 2021-03-08 | 2021-06-04 | 北京有竹居网络技术有限公司 | 应用题求解方法、装置、介质及电子设备 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170060854A1 (en) * | 2015-08-25 | 2017-03-02 | Alibaba Group Holding Limited | Statistics-based machine translation method, apparatus and electronic device |
US20170076199A1 (en) * | 2015-09-14 | 2017-03-16 | National Institute Of Information And Communications Technology | Neural network system, and computer-implemented method of generating training data for the neural network |
CN107357757A (zh) * | 2017-06-29 | 2017-11-17 | 成都考拉悠然科技有限公司 | 一种基于深度增强学习的代数应用题自动求解器 |
CN107590192A (zh) * | 2017-08-11 | 2018-01-16 | 深圳市腾讯计算机系统有限公司 | 文本问题的数学化处理方法、装置、设备和存储介质 |
CN108304439A (zh) * | 2017-10-30 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 一种语义模型优化方法、装置及智能设备、存储介质 |
CN108427771A (zh) * | 2018-04-09 | 2018-08-21 | 腾讯科技(深圳)有限公司 | 摘要文本生成方法、装置和计算机设备 |
CN108491386A (zh) * | 2018-03-19 | 2018-09-04 | 上海携程国际旅行社有限公司 | 自然语言理解方法及系统 |
US20180285348A1 (en) * | 2016-07-19 | 2018-10-04 | Tencent Technology (Shenzhen) Company Limited | Dialog generation method, apparatus, and device, and storage medium |
WO2018193906A1 (ja) * | 2017-04-20 | 2018-10-25 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 情報処理方法、情報処理装置およびプログラム |
CN108874785A (zh) * | 2018-06-01 | 2018-11-23 | 清华大学 | 一种翻译处理方法及系统 |
CN108932342A (zh) * | 2018-07-18 | 2018-12-04 | 腾讯科技(深圳)有限公司 | 一种语义匹配的方法、模型的学习方法及服务器 |
CN109408812A (zh) * | 2018-09-30 | 2019-03-01 | 北京工业大学 | 一种基于注意力机制的序列标注联合抽取实体关系的方法 |
-
2019
- 2019-04-09 CN CN201910279685.0A patent/CN109992785B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170060854A1 (en) * | 2015-08-25 | 2017-03-02 | Alibaba Group Holding Limited | Statistics-based machine translation method, apparatus and electronic device |
US20170076199A1 (en) * | 2015-09-14 | 2017-03-16 | National Institute Of Information And Communications Technology | Neural network system, and computer-implemented method of generating training data for the neural network |
US20180285348A1 (en) * | 2016-07-19 | 2018-10-04 | Tencent Technology (Shenzhen) Company Limited | Dialog generation method, apparatus, and device, and storage medium |
WO2018193906A1 (ja) * | 2017-04-20 | 2018-10-25 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 情報処理方法、情報処理装置およびプログラム |
CN107357757A (zh) * | 2017-06-29 | 2017-11-17 | 成都考拉悠然科技有限公司 | 一种基于深度增强学习的代数应用题自动求解器 |
CN107590192A (zh) * | 2017-08-11 | 2018-01-16 | 深圳市腾讯计算机系统有限公司 | 文本问题的数学化处理方法、装置、设备和存储介质 |
CN108304439A (zh) * | 2017-10-30 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 一种语义模型优化方法、装置及智能设备、存储介质 |
CN108491386A (zh) * | 2018-03-19 | 2018-09-04 | 上海携程国际旅行社有限公司 | 自然语言理解方法及系统 |
CN108427771A (zh) * | 2018-04-09 | 2018-08-21 | 腾讯科技(深圳)有限公司 | 摘要文本生成方法、装置和计算机设备 |
CN108874785A (zh) * | 2018-06-01 | 2018-11-23 | 清华大学 | 一种翻译处理方法及系统 |
CN108932342A (zh) * | 2018-07-18 | 2018-12-04 | 腾讯科技(深圳)有限公司 | 一种语义匹配的方法、模型的学习方法及服务器 |
CN109408812A (zh) * | 2018-09-30 | 2019-03-01 | 北京工业大学 | 一种基于注意力机制的序列标注联合抽取实体关系的方法 |
Non-Patent Citations (2)
Title |
---|
李潇;闵华松;林云汉;: "一种用于CBR推理机的案例学习算法研究", 计算机应用研究, no. 12 * |
苏林忠;: "两种学习算法在算术关系抽取中的应用比较", 电脑知识与技术, no. 19 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110569628A (zh) * | 2019-09-09 | 2019-12-13 | 北京智游网安科技有限公司 | 一种代码的混淆方法以及装置、计算机设备、存储介质 |
CN111767708A (zh) * | 2020-07-09 | 2020-10-13 | 北京猿力未来科技有限公司 | 解题模型的训练方法及装置、解题公式生成方法及装置 |
CN111783423A (zh) * | 2020-07-09 | 2020-10-16 | 北京猿力未来科技有限公司 | 解题模型的训练方法及装置、解题方法及装置 |
CN111783423B (zh) * | 2020-07-09 | 2024-09-06 | 北京猿力未来科技有限公司 | 解题模型的训练方法及装置、解题方法及装置 |
CN112907409A (zh) * | 2021-03-08 | 2021-06-04 | 北京有竹居网络技术有限公司 | 应用题求解方法、装置、介质及电子设备 |
WO2022188742A1 (zh) * | 2021-03-08 | 2022-09-15 | 北京有竹居网络技术有限公司 | 信息处理方法、装置、介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109992785B (zh) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Koncel-Kedziorski et al. | Text generation from knowledge graphs with graph transformers | |
CN109992785A (zh) | 基于机器学习的内容计算方法、装置及设备 | |
CN108319599B (zh) | 一种人机对话的方法和装置 | |
CN109582956B (zh) | 应用于句子嵌入的文本表示方法和装置 | |
CN112633010B (zh) | 基于多头注意力和图卷积网络的方面级情感分析方法及系统 | |
CN109101624A (zh) | 对话处理方法、装置、电子设备及存储介质 | |
CN107679225A (zh) | 一种基于关键词的回复生成方法 | |
CN112699215B (zh) | 基于胶囊网络与交互注意力机制的评级预测方法及系统 | |
CN113641830B (zh) | 模型预训练方法、装置、电子设备和存储介质 | |
CN111966811A (zh) | 意图识别和槽填充方法、装置、可读存储介质及终端设备 | |
CN114817508A (zh) | 融合稀疏图和多跳注意力的会话推荐系统 | |
CN110427524A (zh) | 知识图谱补全的方法、装置、电子设备及存储介质 | |
Martinez-Gil | A comparative study of ensemble techniques based on genetic programming: A case study in semantic similarity assessment | |
CN111125323A (zh) | 一种聊天语料标注方法、装置、电子设备及存储介质 | |
CN110929516A (zh) | 文本的情感分析方法、装置、电子设备及可读存储介质 | |
Deshpande et al. | RecT: A Recursive Transformer Architecture for Generalizable Mathematical Reasoning. | |
CN115796187A (zh) | 一种基于对话结构图约束的开放域对话方法 | |
CN115203412A (zh) | 情感观点信息分析方法、装置、存储介质及电子设备 | |
CN112434143A (zh) | 基于gru单元隐藏状态约束的对话方法、存储介质及系统 | |
Liu et al. | Auto-conversion from Natural Language to Structured Query Language using Neural Networks Embedded with Pre-training and Fine-tuning Mechanism | |
Ganesh | Reinforcement Learning on Social Chabot to Improve the Semantic Variation | |
CN114706983B (zh) | 一种基于图注意力机制的深度学习问答推理方法及装置 | |
Kumar et al. | Question generation from paragraphs: A tale of two hierarchical models | |
CN118503798B (zh) | 基于自然语言处理的文本指令意图识别方法及装置 | |
CN114330512B (zh) | 数据处理方法、装置、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |