CN109766355A - 一种支持自然语言的数据查询方法和系统 - Google Patents
一种支持自然语言的数据查询方法和系统 Download PDFInfo
- Publication number
- CN109766355A CN109766355A CN201811624939.XA CN201811624939A CN109766355A CN 109766355 A CN109766355 A CN 109766355A CN 201811624939 A CN201811624939 A CN 201811624939A CN 109766355 A CN109766355 A CN 109766355A
- Authority
- CN
- China
- Prior art keywords
- natural language
- translation
- model
- module
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
本发明公开了一种支持自然语言的数据查询方法,包括:接收用户自然语言查询语句;基于翻译模型建立自然语言查询语句翻译转换为目标标准SQL语句;判断能否获得目标标准SQL语句;若能,则基于目标标准SQL语句输出数据查询结果;若不能,则提示用户重新输入其它的自然语言查询语句,并且对翻译模型进行模型训练优化。本发明首先将自然语言查询语句解码翻译成SQL语句,将翻译模型无法翻译预测或者翻译错误的自然查询语句进行正确的标记,扩增模型训练样本集,持续训练以优化现有机器翻译模型,供自然语言查询系统调用。另一方面,还提供了一种支持自然语言的数据查询系统。
Description
技术领域
本发明涉及数据查询技术领域,具体来说,涉及一种支持自然语言的数据查询方法和系统。
背景技术
随着数据库应用及信息检索系统的广泛发展和普及,各种智能便携式信息终端的大量涌现和使用,越来越多的非专业用户需要一种易于掌握的人机接口去访问所需的信息。目前常见的形式大多是以窗口、菜单为主的数据报表,用户只需用鼠标点击以及少量的键盘操作就能从数据库中获取所需的信息。但这种方式不够灵活和全面,很多问题是无法或难以用这种方式表达的。另一种常见方式是通过标准的SQL语言进行数据库查询,尽管SQL语言具有简洁、明快和高效的特点,但它的语言形式有很高的格式要求,其形式也和中文表达方式相差甚远,一般只有数据库专业开发人员才能掌握,普通用户很难掌握。所以大多公司的数据查询方式是业务人员通过提交查询申请,由专业数据查询人员完成数据查询任务,再反馈相应结果。
自然语言是人类使用最多、最为方便的交流工具,因此通过自然语言直接和计算机进行交互,获取数据库查询结果,可以使没有数据库知识的用户也可以直接查询数据库,从而大大提高工作效率。
发明内容
针对相关技术中翻译准确率低、模型迭代优化速度慢、对翻译得到的语句的表达逻辑和内容的检查修正操作具有不可控性的问题,本发明提出一种支持自然语言的数据查询方法和系统,能够解决上述技术问题。
本发明的技术方案是这样实现的:
根据本发明的一个方面,提供了一种支持自然语言的数据查询方法,包括:
接收用户自然语言查询语句;
基于翻译模型建立所述自然语言查询语句翻译转换为目标标准SQL语句;
判断能否获得所述目标标准SQL语句;
若能,则基于所述目标标准SQL语句输出数据查询结果;
若不能,则提示用户重新输入其它的自然语言查询语句,并且对所述翻译模型进行模型训练优化。
在一些实施例中,在基于翻译模型将所述自然语言查询语句翻译转换为目标标准SQL语句的步骤中,包括:将所述自然语言查询语句中的时间和条件属性通过精确匹配方式进行提取后翻译转换为第一字段,将所述自然语言查询语句的剩余部分在所述翻译模型中进行翻译转换为第二字段,拼接所述第一字段和所述第二字段以获得所述目标标准SQL语句。
在一些实施例中,在拼接所述第一字段和所述第二字段以获得所述目标标准SQL语句的步骤前,包括字段检验、纠错和去重。
在一些实施例中,对所述翻译模型进行模型训练优化包括数据集准备、模型输入数据准备、模型训练、获得实验结果。
在一些实施例中,所述模型训练包括:
创建所述翻译模型,初始化相关超参数;
将所述自然语言查询语句输入训练集和测试集,并将所述自然语言查询语句按照长度放入Bucket;
对所述自然语言查询语句的样本进行训练,观察所述翻译模型混淆度,其中,所述混淆度越接近于1,表示模型损失函数值接近于0;
调整网络的各个所述超参数,如果混淆度值在最近3次迭代中没有降低,则减小学习率;
记录每一次的训练结果,将产生最优结果的所述翻译模型保存。
根据本发明的另一方面,提供了一种支持自然语言的数据查询系统,包括:
接收模块,用于接收用户自然语言查询语句;
翻译转换模块,用于基于翻译模型建立所述自然语言查询语句翻译转换为目标标准SQL语句;
判断模块,用于判断能否获得所述目标标准SQL语句;
输出模块,基于所述目标标准SQL语句输出数据查询结果;
提示模块,用于提示用户重新输入其它的自然语言查询语句;
模型训练优化模块,用于对所述翻译模型进行模型训练优化。
在一些实施例中,所述翻译转换模块包括:
第一转换模块,用于将所述自然语言查询语句中的时间和条件属性通过精确匹配方式进行提取后翻译转换为第一字段;
第二转换模块,用于将所述自然语言查询语句的剩余部分在所述翻译模型中进行翻译转换为第二字段;
拼接模块,用于拼接所述第一字段和所述第二字段以获得所述目标标准SQL语句。
在一些实施例中,所述翻译转换模块包括:
检查纠正模块,用于对字段进行检验、纠错和去重。
在一些实施例中,所述模型训练优化模块包括:数据集、模型输入数据、模型训练模块以及实验结果获取模块。
在一些实施例中,所述模型训练模块包括:
创建模块,用于创建所述翻译模型,初始化相关超参数;
输入模块,用于将所述自然语言查询语句输入训练集和测试集,并将所述自然语言查询语句按照长度放入Bucket;
训练模块,用于对所述自然语言查询语句的样本进行训练,当所述翻译模型混淆度越接近于1时,表示模型损失函数值接近于0;
调整模块,用于调整网络的各个所述超参数,如果混淆度值在最近3次迭代中没有降低,则减小学习率;
保存模块,用于记录每一次的训练结果,将产生最优结果的所述翻译模型保存。
基于以上实施例,本发明首先将自然语言查询语句解码翻译成SQL语句,将翻译模型无法翻译预测或者翻译错误的自然查询语句进行正确的标记,扩增模型训练样本集,持续训练以优化现有机器翻译模型,供自然语言查询系统调用。从而实现了自动化数据查询,使得不具备SQL知识的可以直接在数据中进行查询。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例的一种支持自然语言的数据查询方法的流程图;
图2示出了seq2seq模型结构图;
图3示出了注意力机制的结构图;
图4示出了自然语言查询seq2seq模型结构;
图5是本发明实施例的一种支持自然语言的数据查询系统。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,根据本发明的实施例,提供了一种支持自然语言的数据查询方法,包括:
S101:接收用户自然语言查询语句;
S102:基于翻译模型建立所述自然语言查询语句翻译转换为目标标准结构化查询语言(Structured Query Language,以后简称SQL)语句;
S103:判断能否获得所述目标标准SQL语句;
S104:若能,则基于所述目标标准SQL语句输出数据查询结果;
S105:若不能,则提示用户重新输入其它的自然语言查询语句,并且对所述翻译模型进行模型训练优化。
基于以上实施例,首先将自然语言查询语句解码翻译成SQL语句,将翻译模型无法翻译预测或者翻译错误的自然查询语句进行正确的标记,扩增模型训练样本集,持续训练以优化现有机器翻译模型,供自然语言查询系统调用。
因此,针对传统数据查询方式中使用数据报表或者专业人员帮助完成SQL查询,本发明创新性地将常用于机器翻译的深度学习模型Seq2Seq应用于数据查询场景中,建立了自然语言查询语句和SQL字段的有序映射,同时对查询条件进行规则匹配,最终拼接得到SQL语句,以实现从自然语言到SQL语句的自动翻译,实现自动化数据查询,使得不具备SQL知识的人可以直接在数据中进行查询。
传统的自然语言语句解码流程主要是基于整个语句进行翻译,即将整个语句不做拆解,直接全句进入模型,解码翻译成另一种语言的完整表达。由于语言表达的多样性,模型的训练样本覆盖度有限,往往基于此种方式的翻译准确率较低,且模型迭代优化速度较慢。对翻译得到的语句的表达逻辑和内容的检查修正操作,都具有不可控性。因此,在一些实施例中,在基于翻译模型将所述自然语言查询语句翻译转换为目标标准SQL语句的步骤中,包括:将所述自然语言查询语句中的时间和条件属性通过精确匹配方式进行提取后翻译转换为第一字段,将所述自然语言查询语句的剩余部分在所述翻译模型中进行翻译转换为第二字段,拼接所述第一字段和所述第二字段以获得所述目标标准SQL语句。通过这种方式可以将自然语言查询语句解码拆分成两部分,从而输出的不是完整语句,而是字段,通过将两部分拼接得到完整的SQL查询语句,从而增加了翻译准确率。
在一些实施例中,在拼接所述第一字段和所述第二字段以获得所述目标标准SQL语句的步骤前,包括字段检验、纠错和去重。从而可以对翻译出的语句进行有效的检查和修正操作。并且可以对条件属性字典内容不断扩充和迭代,可以有效提高翻译的准确性和多样性。
在一个具体的实施例中,本发明实施例中的自然语言查询语句解码步骤包括where条件的信息提取和进入模型预测解码。
1)where条件的信息提取
本算法的where条件信息提取有两种类型,时间信息和其他属性信息。其他属性信息采用精确匹配的方式。将查询表所有属性名及其对应的属性值建立字典映射,当在查询语句中通过精确匹配的方式找到属性值时,抽取出属性名和属性值构成相应字段放入where子句。将语句中的各种时间或条件属性通过精确匹配方式提前提取出来,此种方式的准确性较高。并且通过对映射字典的不断扩充和更新,可以对条件属性的匹配程度和范围不断提升。
时间信息对不同的时间表达方式,建立不同的正则匹配模式,获取时间匹配字段。时间信息的匹配流程如下:
a.提取标注的8位或者6位,形如20170329,20170。
b.提取中文表达,行为昨天、第一季度、前年。
c.将形如一月的中文标示方法替换为1月的数字表达方式。
d.按数字分隔,不同的数字结构对应不同的时间表达方式。
e.分隔后有3个数字,如果第一位是四位数,则原表达应形如2016/02/03,2016年2月3日,2016年二月三日,转化为20160203;如果第三位是四位数,则原表达应形如02/03/2016,2/3/2016,转化为20160203。
f.分隔后有2个数字,如果第一位是四位数,则原表达应形如2016/02,转化为between 20160201and 20160231;如果第一位是四位数,则原表达应形如02/2016,转化为between 20160201and 20160231;如果没有四位数,则认为是日和月的组合方式。如果第一位是一位数或两位数,形如2/3,默认为本年度,转化为20170203;如果两个数字分别是三位或四位数字,形如0203-0205,转化为between 20170203and 20170205。
g.分隔后超过3个数字,则是两个日期的组合,通过日期的连接符进行分隔,得到两个日期,再对两个日期表达方式重复步骤e,f。
h.分隔后只有1个数字,形如2016年,0320,10月,分别转化到合适的方式。
where条件的信息提取传入参数是原始的查询语句,返回时间表达方式,进入seq2seq模型的查询语句,原始查询语句匹配到的属性名列表及其对应的属性取值。后续seq2seq模型的实际查询语句是匹配后的查询语句,而非最初的查询语句。
2)进入模型预测解码
将经过属性值和时间表达方式匹配后的查询语句调用seq2seq模型进行翻译预测,获得计算字段和目标字段,对计算字段和目标字段进行检验、纠正和去重,然后结合上一步匹配到的属性值条件语句,日期条件语句,按照SQL句法规则拼接成SQL语句,继而自动从相应数据库中查询到数据结果。通过此种方式可以保证拼接后的SQL语句逻辑正确。但传统的整句翻译模式则无法对输出语句的表达逻辑正确性进行检查。
在一个具体的实施例中,本发明实施例中的对所述翻译模型进行模型训练优化包括数据集准备、模型输入数据准备、模型训练、获得实验结果。
在一个实施例中,数据集准备的具体操作包括:首先挑选常用的计算字段(交易的max,sum,count和avg)和目标字段(查询日期(acct_date),查询地区(bagent_area_name),查询对象ID(bagent_id)),构造单目标字段,两目标字段的查询,查询的计算字段覆盖单计算字段,两计算字段,三计算字段和四计算字段的所有可能,通过人工翻译得到真实数据集,共671条有效样本,以下称为样本一。基于真实的数据,又提炼出330种查询句式,每个计算字段和目标字段有多种表达方式。对每一个句式遍历计算字段和目标字段的所有组合方式,每一种组合方式下计算字段和目标字段的表达方式随机选取,通过该方式获得11320条根据规则生成的样本,以下称为样本二。样本的中文都是不带条件(where)子句的。将样本二按照训练集占比70%划分数据集,训练模型后,分别验证样本二测试集上的准确率和在样本一上的准确率。
在一个实施例中,模型输入数据准备的具体操作包括:首先对所有的中文语料进行分词,SQL语句进行字段分割,分别生成对应的词典。建立单词和表示位置顺序的一一映射,从而将原输入转化为索引表示的语料。统计语料中中文分词和SQL分割后的语料长度组,以确定后续的bucket_size参数。
在一个实施例中,模型训练的具体操作包括:
创建模型,初始化相关超参数等各种参数。
读入训练集和测试集进行处理,将句子对按照长度放入不同的Bucket。
对样本进行训练,观察结果(观察模型混淆度,混淆度越接近于1,表示模型损失函数值接近于0。
调整网络的各个超参数,如果混淆度值在最近3次迭代中没有降低,则减小学习率。
记录每一次的训练结果,将产生最优结果的模型(模型结构和节点权重)保存。
其中,常用可调参数包括:LSTM层参数(类型,层数,神经元个数,返回结构)、学习率、Bucket_size、梯度裁剪值、优化算法、损失函数。
其中,梯度裁剪值(Clipping Gradient)是为了解决爆炸梯度效应,可以在给定的阈值上修剪梯度。当给定序列的梯度向量的范数超过一个阈值,使用全局范数进行截断操作。优化算法(Optimizer)是用来最优化损失函数的算法,通常使用随机批量梯度下降算法,通过反复的调整各个节点之间的权重值,使得误差最小。损失函数(loss function/objective function)是衡量误差用的函数,常见的有MSE(均方误差),Categorical_crossentropy(多标签交叉熵)等,是用来计算当前计算值对应实际值的误差。神经网络学习的目标就是将损失函数的值尽可能减小,从而使分类效果最优。
在一些实施例中,获得试验结果的步骤包括:
参见图2,示出了seq2seq模型结构图。Seq2Seq(全称Sequence to Sequence,一种编码-解码形式的深度神经网络结构)解决问题的主要思路是通过深度神经网络模型(常用的是长短记忆神经网络(LSTM),一种循环神经网络)将一个作为输入的序列映射为一个作为输出的序列,这一过程由编码输入(encoder)与解码输出(decoder)两个环节组成。
由图2可知,在这个模型中每一时间的输入和输出是不一样的,比如对于序列数据就是将序列项依次传入,每个序列项再对应不同的输出。比如说现在有序列“A B C EOS”(其中EOS=End of Sentence,句末标识符)作为输入,那么目的就是将“A”,“B”,“C”,“EOS”依次传入模型后,把其映射为序列“W X Y Z EOS”作为输出。
编码(Encoder)的公式为:
公式中:ht为t时刻的隐藏层状态,xt为t时刻的输入序列,c为隐藏层输出的语境向量,f和ф为激活函数)
在Seq2Seq中,各类长度不同的输入序列x将会经由循环神经网络(Recurrentneural Network,RNN)构建的编码器编译为语境向量c。向量c通常为RNN中的最后一个隐节点(h,Hidden state),或是多个隐节点的加权总和。
解码(Decoder)的公式为:
st=f(yt-1,St-1,c)
p(yt|y<t,X)=g(yt-1,st,c)
公式中:yt-1为t-1时刻的输出序列,st-1为t-1时刻的输出层编码向量,X为输入序列,f和g为激活函数,c为语境向量,p(yt|yt-1,X)为t时刻输出序列的概率。
编码完成之后,语境向量c将会进入一个RNN解码器中进行解译。简单来说,解译的过程可以被理解为运用贪心算法(一种局部最优解算法,即选取一种度量标准,默认在当前状态下进行最好的选择)来返回对应概率最大的词汇,或是通过集束搜索(Beam Search,一种启发式搜索算法,可以基于设备性能给予时间允许内的最优解)在序列输出前检索大量的词汇,从而得到最优的选择。
作为Seq2Seq中的重要组成部分,注意机制(Attention Mechanism)最早由Bahdanau等人于2014年提出,该机制存在的目的是为了解决RNN中只支持固定长度输入的瓶颈。在图3中示出了注意力机制的结构图,在图3中,xi为i时刻的输入序列,hi为i时刻的隐藏层状态,at,i为i时刻的权重,si为i时刻的输出层编码向量,yi为i时刻的输出序列。
在该机制环境下,Seq2Seq中的编码器被替换为一个双向循环网络(bidirectional RNN)。如上图所示,在注意机制中,源序列x=(x1,x2,…,xt)分别被正向与反向地输入了模型中,进而得到了正反两层隐节点,语境向量c则由RNN中的隐节点h通过不同的权重a加权而成,其公式如下:
公式中:ct为t时刻的语境向量,at为t时刻的权重,st为t时刻的输出层编码向量,ht为t时刻的隐藏层状态,η为调整“注意回应强度”的函数。其中,η为一个调整“注意回应强度”的函数。每一个隐节点hi都包含了对应的输入字符xi以及其对上下文的联系,这么做意义就在于现在模型可以突破固定长度输入的限制,根据不同的输入长度构建不同个数的隐节点,故不论输入的序列长度如何,都可以得到模型输出结果。
以sequence2sequence神经网络协同注意力机制为基础提出了图4所示的自然语言查询seq2seq模型结构的神经网络结构。其中,图中的每个x代表输入语句中的单词,每个y代表通过模型输出的单词。
在确定了神经网络的结构之后,需要对算法的超参数进行调优,观察不同超参数条件下测试集的分类准确率和稳定性。利用真实样本和构造样本数据集建立模型,对各个超参数进行调优,经过大量实验调整的超参数包括:学习率(Learning_rate)、Bucket_size、损失函数、优化器。
学习率(Learning_rate)是一个非常重要的超参数,它控制着基于损失梯度调整神经网络权值的速度,大多数优化算法(如SGD、RMSprop、Adam)对它都有涉及。学习率越小,沿着损失梯度下降的速度越慢。学习率越大,梯度下降震动幅度增大,且不容易到达最小值点。一般常用的学习率有0.00001,0.0001,0.001,0.003,0.01,0.03,0.1,0.3,1,3,10等。
Bucketing策略可以用于处理不同长度的训练样例,如果把训练样例的输入和输出长度固定,那么在训练整个网络的时候,必然会引入很多的PAD辅助单词,而这些单词却包含了无用信息。所以,可以选择设置若干个buckets,每个bucket指定一个输入和输出长度,这样的话,经过bucketing策略处理后,会把所有的训练样例分成几份,其中每一份的输入序列和输出序列的长度分别相同。
损失函数(loss function/objective function):衡量误差用的函数,常见的有MSE(均方误差),Categorical_crossentropy(多标签交叉熵)等,是用来计算当前计算值对应实际值的误差。神经网络学习的目标就是将损失函数的值尽可能减小。尝试的损失函数包括:
sigmoid_cross_entropy_with_logits
softmax_cross_entropy_with_logits
sparse_softmax_cross_entropy_with_logits
weighted_cross_entropy_with_logits
调节优化器是编译Tensorflow模型必要的两个参数之一,通过调用优化器优化,就是通过增加数据量来进行交叉熵(cross_entropy)最小化。尝试的优化器包括:
GradientDescentOptimizer
AdagradOptimizer
MomentumOptimizer
AdamOptimizer
RMSPropOptimizer
由于可调的超参数过多,如果把所有可能的超参数排列组合情况逐一实验将会耗费大量的时间。因此,先将损失函数和优化算法这两个超参数固定,确定另两个超参数的最优组合,再回过来对前两个超参数进行调优。
对比不同learning_rate下的训练结果,每次随机选取样本进行训练,剩余样本用来验证,重复试验3次,分类准确率在较小范围内波动,模型分类稳定性较好。
对不同超参数组合下的训练结果进行交叉验证,确定超参数值,然后随机抽取样本进行稳定性测试,最终得到模型翻译预测准确率为96.94.%。
另一方面,参见图5,本发明实施例提供了一种支持自然语言的数据查询系统,包括:
接收模块510,用于接收用户自然语言查询语句;
翻译转换模块520,用于基于翻译模型建立所述自然语言查询语句翻译转换为目标标准SQL语句;
判断模块530,用于判断能否获得所述目标标准SQL语句;
输出模块540,基于所述目标标准SQL语句输出数据查询结果;
提示模块550,用于提示用户重新输入其它的自然语言查询语句;
模型训练优化模块560,用于对所述翻译模型进行模型训练优化。
在优选实施例中,所述翻译转换模块包括:
第一转换模块,用于将所述自然语言查询语句中的时间和条件属性通过精确匹配方式进行提取后翻译转换为第一字段;
第二转换模块,用于将所述自然语言查询语句的剩余部分在所述翻译模型中进行翻译转换为第二字段;
拼接模块,用于拼接所述第一字段和所述第二字段以获得所述目标标准SQL语句。
在优选实施例中,所述翻译转换模块包括:检查纠正模块,用于对字段进行检验、纠错和去重。
在优选实施例中,所述模型训练优化模块包括:数据集、模型输入数据、模型训练模块以及实验结果获取模块。
在优选实施例中,所述模型训练模块包括:
创建模块,用于创建所述翻译模型,初始化相关超参数;
输入模块,用于将所述自然语言查询语句输入训练集和测试集,并将所述自然语言查询语句按照长度放入Bucket;
训练模块,用于对所述自然语言查询语句的样本进行训练,当所述翻译模型混淆度越接近于1时,表示模型损失函数值接近于0;
调整模块,用于调整网络的各个所述超参数,如果混淆度值在最近3次迭代中没有降低,则减小学习率;
保存模块,用于记录每一次的训练结果,将产生最优结果的所述翻译模型保存。
因此,针对传统数据查询方式中使用数据报表或者专业人员帮助完成SQL查询,本发明实施例提供的支持自然语言的数据查询系统创新性地将常用于机器翻译的深度学习模型Seq2Seq应用于数据查询场景中,建立了自然语言查询语句和SQL字段的有序映射,同时对查询条件进行规则匹配,最终拼接得到SQL语句,以实现从自然语言到SQL语句的自动翻译,实现自动化数据查询,使得不具备SQL知识的人可以直接在数据中进行查询。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种支持自然语言的数据查询方法,其特征在于,包括:
接收用户自然语言查询语句;
基于翻译模型建立所述自然语言查询语句翻译转换为目标标准SQL语句;
判断能否获得所述目标标准SQL语句;
若能,则基于所述目标标准SQL语句输出数据查询结果;
若不能,则提示用户重新输入其它的自然语言查询语句,并且对所述翻译模型进行模型训练优化。
2.根据权利要求1所述的方法,其特征在于,在基于翻译模型将所述自然语言查询语句翻译转换为目标标准SQL语句的步骤中,包括:将所述自然语言查询语句中的时间和条件属性通过精确匹配方式进行提取后翻译转换为第一字段,将所述自然语言查询语句的剩余部分在所述翻译模型中进行翻译转换为第二字段,拼接所述第一字段和所述第二字段以获得所述目标标准SQL语句。
3.根据权利要求2所述的方法,其特征在于,在拼接所述第一字段和所述第二字段以获得所述目标标准SQL语句的步骤前,包括字段检验、纠错和去重。
4.根据权利要求1所述的方法,其特征在于,对所述翻译模型进行模型训练优化包括数据集准备、模型输入数据准备、模型训练、获得实验结果。
5.根据权利要求4所述的方法,其特征在于,所述模型训练包括:
创建所述翻译模型,初始化相关超参数;
将所述自然语言查询语句输入训练集和测试集,并将所述自然语言查询语句按照长度放入Bucket;
对所述自然语言查询语句的样本进行训练,观察所述翻译模型混淆度,其中,所述混淆度越接近于1,表示模型损失函数值接近于0;
调整网络的各个所述超参数,如果混淆度值在最近3次迭代中没有降低,则减小学习率;
记录每一次的训练结果,将产生最优结果的所述翻译模型保存。
6.一种支持自然语言的数据查询系统,其特征在于,包括:
接收模块,用于接收用户自然语言查询语句;
翻译转换模块,用于基于翻译模型建立所述自然语言查询语句翻译转换为目标标准SQL语句;
判断模块,用于判断能否获得所述目标标准SQL语句;
输出模块,基于所述目标标准SQL语句输出数据查询结果;
提示模块,用于提示用户重新输入其它的自然语言查询语句;
模型训练优化模块,用于对所述翻译模型进行模型训练优化。
7.根据权利要求6所述的系统,其特征在于,所述翻译转换模块包括:
第一转换模块,用于将所述自然语言查询语句中的时间和条件属性通过精确匹配方式进行提取后翻译转换为第一字段;
第二转换模块,用于将所述自然语言查询语句的剩余部分在所述翻译模型中进行翻译转换为第二字段;
拼接模块,用于拼接所述第一字段和所述第二字段以获得所述目标标准SQL语句。
8.根据权利要求7所述的系统,其特征在于,所述翻译转换模块包括:
检查纠正模块,用于对字段进行检验、纠错和去重。
9.根据权利要求1所述的系统,其特征在于,所述模型训练优化模块包括:数据集、模型输入数据、模型训练模块以及实验结果获取模块。
10.根据权利要求9所述的系统,其特征在于,所述模型训练模块包括:
创建模块,用于创建所述翻译模型,初始化相关超参数;
输入模块,用于将所述自然语言查询语句输入训练集和测试集,并将所述自然语言查询语句按照长度放入Bucket;
训练模块,用于对所述自然语言查询语句的样本进行训练,当所述翻译模型混淆度越接近于1时,表示模型损失函数值接近于0;
调整模块,用于调整网络的各个所述超参数,如果混淆度值在最近3次迭代中没有降低,则减小学习率;
保存模块,用于记录每一次的训练结果,将产生最优结果的所述翻译模型保存。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811624939.XA CN109766355A (zh) | 2018-12-28 | 2018-12-28 | 一种支持自然语言的数据查询方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811624939.XA CN109766355A (zh) | 2018-12-28 | 2018-12-28 | 一种支持自然语言的数据查询方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109766355A true CN109766355A (zh) | 2019-05-17 |
Family
ID=66451665
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811624939.XA Pending CN109766355A (zh) | 2018-12-28 | 2018-12-28 | 一种支持自然语言的数据查询方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109766355A (zh) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110222150A (zh) * | 2019-05-20 | 2019-09-10 | 平安普惠企业管理有限公司 | 一种自动提醒方法、自动提醒装置及计算机可读存储介质 |
CN110488755A (zh) * | 2019-08-21 | 2019-11-22 | 江麓机电集团有限公司 | 一种数控g代码的转换方法 |
CN110597857A (zh) * | 2019-08-30 | 2019-12-20 | 南开大学 | 一种基于共享样本的在线聚集方法 |
CN110968593A (zh) * | 2019-12-10 | 2020-04-07 | 上海达梦数据库有限公司 | 数据库sql语句优化方法、装置、设备和存储介质 |
CN111008213A (zh) * | 2019-12-23 | 2020-04-14 | 百度在线网络技术(北京)有限公司 | 用于生成语言转换模型的方法和装置 |
CN111125154A (zh) * | 2019-12-31 | 2020-05-08 | 北京百度网讯科技有限公司 | 用于输出结构化查询语句的方法和装置 |
CN111159220A (zh) * | 2019-12-31 | 2020-05-15 | 北京百度网讯科技有限公司 | 用于输出结构化查询语句的方法和装置 |
CN111209297A (zh) * | 2019-12-31 | 2020-05-29 | 深圳云天励飞技术有限公司 | 数据查询方法、装置、电子设备及存储介质 |
CN111506595A (zh) * | 2020-04-20 | 2020-08-07 | 金蝶软件(中国)有限公司 | 一种数据查询方法、系统及相关设备 |
CN111625554A (zh) * | 2020-07-30 | 2020-09-04 | 武大吉奥信息技术有限公司 | 一种基于深度学习语义理解的数据查询方法及装置 |
CN112182022A (zh) * | 2020-11-04 | 2021-01-05 | 北京安博通科技股份有限公司 | 基于自然语言的数据查询方法、装置及翻译模型 |
CN112270190A (zh) * | 2020-11-13 | 2021-01-26 | 浩鲸云计算科技股份有限公司 | 一种基于注意力机制的数据库字段翻译方法及系统 |
CN112447300A (zh) * | 2020-11-27 | 2021-03-05 | 平安科技(深圳)有限公司 | 基于图神经网络的医疗查询方法、装置、计算机设备及存储介质 |
CN112507098A (zh) * | 2020-12-18 | 2021-03-16 | 北京百度网讯科技有限公司 | 问题处理方法、装置、电子设备、存储介质及程序产品 |
CN113378553A (zh) * | 2021-04-21 | 2021-09-10 | 广州博冠信息科技有限公司 | 文本处理方法、装置、电子设备和存储介质 |
CN113536741A (zh) * | 2020-04-17 | 2021-10-22 | 复旦大学 | 中文自然语言转数据库语言的方法及装置 |
CN113569974A (zh) * | 2021-08-04 | 2021-10-29 | 网易(杭州)网络有限公司 | 编程语句纠错方法、装置、电子设备及存储介质 |
CN113609158A (zh) * | 2021-08-12 | 2021-11-05 | 国家电网有限公司大数据中心 | 一种sql语句的生成方法、装置、设备及介质 |
CN114444462A (zh) * | 2022-01-26 | 2022-05-06 | 北京百度网讯科技有限公司 | 模型训练方法及人机交互方法、装置 |
CN114598520A (zh) * | 2022-03-03 | 2022-06-07 | 平安付科技服务有限公司 | 资源访问控制的方法、装置、设备及存储介质 |
US11573957B2 (en) * | 2019-12-09 | 2023-02-07 | Salesforce.Com, Inc. | Natural language processing engine for translating questions into executable database queries |
CN115964471A (zh) * | 2023-03-16 | 2023-04-14 | 成都安哲斯生物医药科技有限公司 | 医疗数据近似查询方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101093493A (zh) * | 2006-06-23 | 2007-12-26 | 国际商业机器公司 | 数据库查询语言转换方法、转换装置、数据库查询系统 |
CN103226606A (zh) * | 2013-04-28 | 2013-07-31 | 浙江核新同花顺网络信息股份有限公司 | 查询选取方法及系统 |
CN104657440A (zh) * | 2015-01-30 | 2015-05-27 | 欧阳江 | 结构化查询语句生成系统及方法 |
CN104657439A (zh) * | 2015-01-30 | 2015-05-27 | 欧阳江 | 用于自然语言精准检索的结构化查询语句生成系统及方法 |
CN107818148A (zh) * | 2017-10-23 | 2018-03-20 | 南京南瑞集团公司 | 基于自然语言处理的自助式查询统计分析方法 |
-
2018
- 2018-12-28 CN CN201811624939.XA patent/CN109766355A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101093493A (zh) * | 2006-06-23 | 2007-12-26 | 国际商业机器公司 | 数据库查询语言转换方法、转换装置、数据库查询系统 |
CN103226606A (zh) * | 2013-04-28 | 2013-07-31 | 浙江核新同花顺网络信息股份有限公司 | 查询选取方法及系统 |
CN104657440A (zh) * | 2015-01-30 | 2015-05-27 | 欧阳江 | 结构化查询语句生成系统及方法 |
CN104657439A (zh) * | 2015-01-30 | 2015-05-27 | 欧阳江 | 用于自然语言精准检索的结构化查询语句生成系统及方法 |
CN107818148A (zh) * | 2017-10-23 | 2018-03-20 | 南京南瑞集团公司 | 基于自然语言处理的自助式查询统计分析方法 |
Cited By (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110222150A (zh) * | 2019-05-20 | 2019-09-10 | 平安普惠企业管理有限公司 | 一种自动提醒方法、自动提醒装置及计算机可读存储介质 |
CN110488755A (zh) * | 2019-08-21 | 2019-11-22 | 江麓机电集团有限公司 | 一种数控g代码的转换方法 |
CN110597857A (zh) * | 2019-08-30 | 2019-12-20 | 南开大学 | 一种基于共享样本的在线聚集方法 |
CN110597857B (zh) * | 2019-08-30 | 2023-03-24 | 南开大学 | 一种基于共享样本的在线聚集方法 |
US11573957B2 (en) * | 2019-12-09 | 2023-02-07 | Salesforce.Com, Inc. | Natural language processing engine for translating questions into executable database queries |
CN110968593A (zh) * | 2019-12-10 | 2020-04-07 | 上海达梦数据库有限公司 | 数据库sql语句优化方法、装置、设备和存储介质 |
CN110968593B (zh) * | 2019-12-10 | 2023-10-03 | 上海达梦数据库有限公司 | 数据库sql语句优化方法、装置、设备和存储介质 |
CN111008213A (zh) * | 2019-12-23 | 2020-04-14 | 百度在线网络技术(北京)有限公司 | 用于生成语言转换模型的方法和装置 |
CN111209297A (zh) * | 2019-12-31 | 2020-05-29 | 深圳云天励飞技术有限公司 | 数据查询方法、装置、电子设备及存储介质 |
CN111209297B (zh) * | 2019-12-31 | 2024-05-03 | 深圳云天励飞技术有限公司 | 数据查询方法、装置、电子设备及存储介质 |
CN111159220A (zh) * | 2019-12-31 | 2020-05-15 | 北京百度网讯科技有限公司 | 用于输出结构化查询语句的方法和装置 |
CN111159220B (zh) * | 2019-12-31 | 2023-06-23 | 北京百度网讯科技有限公司 | 用于输出结构化查询语句的方法和装置 |
CN111125154A (zh) * | 2019-12-31 | 2020-05-08 | 北京百度网讯科技有限公司 | 用于输出结构化查询语句的方法和装置 |
CN111125154B (zh) * | 2019-12-31 | 2021-04-02 | 北京百度网讯科技有限公司 | 用于输出结构化查询语句的方法和装置 |
US11449500B2 (en) | 2019-12-31 | 2022-09-20 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for outputting structured query sentence |
CN113536741A (zh) * | 2020-04-17 | 2021-10-22 | 复旦大学 | 中文自然语言转数据库语言的方法及装置 |
CN113536741B (zh) * | 2020-04-17 | 2022-10-14 | 复旦大学 | 中文自然语言转数据库语言的方法及装置 |
CN111506595A (zh) * | 2020-04-20 | 2020-08-07 | 金蝶软件(中国)有限公司 | 一种数据查询方法、系统及相关设备 |
CN111506595B (zh) * | 2020-04-20 | 2024-03-19 | 金蝶软件(中国)有限公司 | 一种数据查询方法、系统及相关设备 |
CN111625554A (zh) * | 2020-07-30 | 2020-09-04 | 武大吉奥信息技术有限公司 | 一种基于深度学习语义理解的数据查询方法及装置 |
CN111625554B (zh) * | 2020-07-30 | 2020-11-03 | 武大吉奥信息技术有限公司 | 一种基于深度学习语义理解的数据查询方法及装置 |
CN112182022B (zh) * | 2020-11-04 | 2024-04-16 | 北京安博通科技股份有限公司 | 基于自然语言的数据查询方法、装置及翻译模型 |
CN112182022A (zh) * | 2020-11-04 | 2021-01-05 | 北京安博通科技股份有限公司 | 基于自然语言的数据查询方法、装置及翻译模型 |
CN112270190A (zh) * | 2020-11-13 | 2021-01-26 | 浩鲸云计算科技股份有限公司 | 一种基于注意力机制的数据库字段翻译方法及系统 |
CN112447300A (zh) * | 2020-11-27 | 2021-03-05 | 平安科技(深圳)有限公司 | 基于图神经网络的医疗查询方法、装置、计算机设备及存储介质 |
CN112447300B (zh) * | 2020-11-27 | 2024-02-09 | 平安科技(深圳)有限公司 | 基于图神经网络的医疗查询方法、装置、计算机设备及存储介质 |
CN112507098B (zh) * | 2020-12-18 | 2022-01-28 | 北京百度网讯科技有限公司 | 问题处理方法、装置、电子设备、存储介质及程序产品 |
CN112507098A (zh) * | 2020-12-18 | 2021-03-16 | 北京百度网讯科技有限公司 | 问题处理方法、装置、电子设备、存储介质及程序产品 |
CN113378553A (zh) * | 2021-04-21 | 2021-09-10 | 广州博冠信息科技有限公司 | 文本处理方法、装置、电子设备和存储介质 |
CN113569974A (zh) * | 2021-08-04 | 2021-10-29 | 网易(杭州)网络有限公司 | 编程语句纠错方法、装置、电子设备及存储介质 |
CN113569974B (zh) * | 2021-08-04 | 2023-07-18 | 网易(杭州)网络有限公司 | 编程语句纠错方法、装置、电子设备及存储介质 |
CN113609158A (zh) * | 2021-08-12 | 2021-11-05 | 国家电网有限公司大数据中心 | 一种sql语句的生成方法、装置、设备及介质 |
CN114444462B (zh) * | 2022-01-26 | 2022-11-29 | 北京百度网讯科技有限公司 | 模型训练方法及人机交互方法、装置 |
CN114444462A (zh) * | 2022-01-26 | 2022-05-06 | 北京百度网讯科技有限公司 | 模型训练方法及人机交互方法、装置 |
CN114598520B (zh) * | 2022-03-03 | 2024-04-05 | 平安付科技服务有限公司 | 资源访问控制的方法、装置、设备及存储介质 |
CN114598520A (zh) * | 2022-03-03 | 2022-06-07 | 平安付科技服务有限公司 | 资源访问控制的方法、装置、设备及存储介质 |
CN115964471B (zh) * | 2023-03-16 | 2023-06-02 | 成都安哲斯生物医药科技有限公司 | 医疗数据近似查询方法 |
CN115964471A (zh) * | 2023-03-16 | 2023-04-14 | 成都安哲斯生物医药科技有限公司 | 医疗数据近似查询方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109766355A (zh) | 一种支持自然语言的数据查询方法和系统 | |
CN110597735B (zh) | 一种面向开源软件缺陷特征深度学习的软件缺陷预测方法 | |
CN107315738B (zh) | 一种文本信息的创新度评估方法 | |
CN111931506B (zh) | 一种基于图信息增强的实体关系抽取方法 | |
US7840400B2 (en) | Dynamic natural language understanding | |
CN109918489A (zh) | 一种多策略融合的知识问答方法和系统 | |
CN108304372A (zh) | 实体提取方法和装置、计算机设备和存储介质 | |
CN109885824A (zh) | 一种层次的中文命名实体识别方法、装置及可读存储介质 | |
CN109948340B (zh) | 一种卷积神经网络和XGBoost相结合的PHP-Webshell检测方法 | |
CN101510197A (zh) | 信息检索系统 | |
CN111159385A (zh) | 一种基于动态知识图谱的无模板通用智能问答方法 | |
KR20050036541A (ko) | 백과사전 질의응답 시스템의 지식베이스 반자동 구축 방법 | |
IES20020647A2 (en) | A data quality system | |
CN109857457B (zh) | 一种在双曲空间中学习源代码中的函数层次嵌入表示方法 | |
CN115599902A (zh) | 一种基于知识图谱的油气百科问答方法及系统 | |
CN109740164A (zh) | 基于深度语义匹配的电力缺陷等级识别方法 | |
CN112115242A (zh) | 一种基于朴素贝叶斯分类算法的智能客服问答系统 | |
CN110046943A (zh) | 一种网络消费者细分的优化方法及优化系统 | |
CN114118077A (zh) | 一种基于自动机器学习平台的智能信息抽取系统构建方法 | |
CN114238653A (zh) | 一种编程教育知识图谱构建、补全与智能问答的方法 | |
CN113076744A (zh) | 一种基于卷积神经网络的文物知识关系抽取方法 | |
CN115204143B (zh) | 一种基于prompt的文本相似度计算方法及系统 | |
CN107562774A (zh) | 小语种词嵌入模型的生成方法、系统及问答方法和系统 | |
WO2022264435A1 (ja) | エンティティとインテントとコーパスの自動生成装置及びプログラム | |
CN114328924A (zh) | 一种基于预训练模型结合句法子树的关系分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190517 |
|
RJ01 | Rejection of invention patent application after publication |