CN109325240A - 指标查询的方法、装置、设备和介质 - Google Patents
指标查询的方法、装置、设备和介质 Download PDFInfo
- Publication number
- CN109325240A CN109325240A CN201811464341.9A CN201811464341A CN109325240A CN 109325240 A CN109325240 A CN 109325240A CN 201811464341 A CN201811464341 A CN 201811464341A CN 109325240 A CN109325240 A CN 109325240A
- Authority
- CN
- China
- Prior art keywords
- term vector
- index
- singal reporting
- reporting code
- code
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 239000013598 vector Substances 0.000 claims abstract description 99
- 238000004891 communication Methods 0.000 claims abstract description 24
- 238000003062 neural network model Methods 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims description 14
- 238000013527 convolutional neural network Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000006116 polymerization reaction Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000009795 derivation Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 239000013604 expression vector Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种指标查询的方法、装置、设备和介质。该方法包括:将通信指标的文本信息进行预处理,得到词向量;基于预设神经网络模型,对词向量进行训练,得到目标词向量;根据目标词向量确定最优通信指标查询图;依据最优通信指标查询图生成通信指标查询代码,并执行通信指标查询代码得到通信指标的查询结果。根据本发明的实施例,能够提高搜索效率,提高通信指标查询的准确性。
Description
技术领域
本发明涉及通信技术领域,尤其涉及一种指标查询的方法、装置、设备和介质。
背景技术
为了满足指标信息在不同场景下的查询,通常会建立多个数据存储和查询的机制并提供不同的用户界面以适应不同的存储和查询机制。
目前,指标查询方案通常采用文本匹配的方式来进行指标查询,进而得到与文本匹配的查询结果。但是,比如问句“E-RAB建立成功率由哪些指标计算?”和“E-RAB建立成功率用来计算哪些指标”这两段文本数据意义差别很大,但文本匹配却倾向于给这两段文本极高的相似度,最终导致指标查询结果不符合用户需求。
因此,目前存在无法准确进行指标查询的技术问题。
发明内容
本发明实施例提供了一种指标查询的方法、装置、设备和介质,能够准确得到指标查询结果。
本发明实施例的一方面,提供一种指标查询的方法,该方法包括:
将通信指标的文本信息进行预处理,得到词向量;
基于预设神经网络模型,对词向量进行训练,得到目标词向量;
根据目标词向量确定最优通信指标查询图;
依据最优通信指标查询图生成通信指标查询代码,并执行通信指标查询代码得到通信指标查询结果。
本发明实施例的另一方面,提供一种指标查询的装置,该装置包括:
预处理模块,用于将通信指标的文本信息进行预处理,得到词向量;
词向量模块,用于基于预设神经网络模型,对词向量进行训练,得到目标词向量;
查询图模块,用于根据目标词向量确定最优通信指标查询图;
执行模块,用于依据最优通信指标查询图生成通信指标查询代码,并执行通信指标查询代码得到通信指标查询结果。
根据本发明实施例的另一方面,提供一种指标查询的设备,该设备包括:
处理器以及存储有计算机程序指令的存储器;
处理器执行计算机程序指令时实现如上述本发明实施例的任意一方面提供的指标查询的方法。
根据本发明实施例的另一方面,提供一种计算机存储介质,计算机存储介质上存储有计算机程序指令,计算机程序指令被处理器执行时实现如上述本发明实施例的任意一方面提供的指标查询的方法。
本发明实施例提供的指标查询的方法、装置、设备和介质。通过将文本信息进行向量化处理,构建查询图,进而利用查询图来进行指标查询,可以缩小搜索范围,进而提高搜索效率,提高搜索准确性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本发明一实施例的指标查询的方法的流程图;
图2示出本发明一实施例的CBOW模型的示意图;
图3示出本发明一实施例中CBOW模型的网络结构示意图;
图4示出本发明一实施例中通信指标查询图的示意图;
图5示出本发明一实施中有限状态自动机的示意图;
图6示出本发明一实施例中的确认主题词向量的示意图;
图7示出本发明一实施例中核心推导链的示意图;
图8示出本发明一实施例中multi-column卷积神经网络的结构;
图9示出本发明另一实施例中的约束规则和聚合规则示意图;
图10示出本发明一实施例的指标查询流程图;
图11示出本发明另一实施例的自然语言处理的流程图;
图12示出本发明一实施例的指标查询的装置的结构示意图;
图13示出能够实现根据本发明实施例的指标查询的方法和装置的计算设备的示例性硬件架构的结构图。
具体实施方式
下面将详细描述本发明的各个方面的特征和示例性实施例,为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细描述。应理解,此处所描述的具体实施例仅被配置为解释本发明,并不被配置为限定本发明。对于本领域技术人员来说,本发明可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本发明的示例来提供对本发明更好的理解。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
下面结合附图,详细描述根据本发明实施例的校验日志信息真伪的方法、装置、设备和介质。应注意,这些实施例并不是用来限制本发明公开的范围。
下面通过图1至图11详细介绍根据本发明实施例的指标查询的方法。
为了更好的理解本发明,下面结合图1对本发明一实施例的指标查询的方法进行详细说明,图1是示出本发明一实施例的指标查询的方法的流程图。
下面以无线指标为例,详细介绍本发明实施例的指标查询方法。
如图1所示,本发明实施例中的指标查询的方法100包括以下步骤:
S110,将通信指标的文本信息进行预处理,得到词向量。
在本发明的一个实施例中,首先将通信指标的文本信息进行分词处理,得到文本词条。具体的,可以采用中文词法分析(Chinese Lexical Analysis System,CLAS)分词方案进行词划分和词性标注。并且,可以采用自动扫描指标协议和人工录入相结合的方式对分词字典进行扩充,以满足所有无线网络优化专有词汇和地名可以被完整划分。
接下来,对文本词条进行词向量化处理,得到词向量。具体的,可以采用one-hot方式对文本词条进行词向量化处理。其中,one-hot方式是指一个维度为|V|的向量,其中|V|代表词典集合,|V|是词典集合的长度。|V|向量除了表征当前词的第nth位为1,其余位全部为零。
在本发明实施例中,通过对通信指标的文本信息进行预处理,得到词向量,便于后续通过通信指标查询图来进行指标的查询。
S120,基于预设神经网络模型,对词向量进行训练,得到目标词向量。
在本发明的一个实施例中,可以选用连续词袋(continuous bag of words,CBOW)模型对得到的词向量进行训练,得到一个长度可以为128且密集的向量。
具体的,CBOW模型的核心思路是使用单隐层神经网络算法,利用某个词的上下文信息对这个词语进行预测,从而达到训练的目的。使用单个词进行训练的模型的网络结构如图2所示,图2是示出本发明一实施例的CBOW模型的示意图。
输入x为经过预处理后得到的词向量,经过一个全连接层得到隐层h,h再经过一个全连接层得到另一个向量y,其对应当前的目标词。这是用一个词预测另一个词,隐层神经元的数量n为目标向量的长度128。训练结束后,使用隐层向量作为当前词的向量表示。
当使用多个词,即整个问句的上下文信息进行训练的时候,则将得到的值全部求和得到隐层的值。其网络结构如图3所示,图3是示出本发明一实施例中CBOW模型的网络结构示意图。
如图3所示,文本信息的上下文是“上周厦门地区平均”,要得到的一个目标词向量是“无线掉线率”。∑g表示将“上周”、“厦门”、“地区”和“平均”这几个词的隐层求和。
此网络结构的网络类似于是一个|V|类的分类器。由于|V|的数量非常巨大,训练的时候需要大量计算资源,可以通过抽样,增加一些词作为噪声词汇,将任务转化为二元分类问题。比如目标词向量是“无线掉线率”,加入诸如“维护人员”、“服务器”和“软硬采”等词,训练的目标变成判断输出是否为“无线掉线率”。设上下文为h,上下文的目标词向量是wt,噪声词汇为则损失函数L如表达式(1)所示。
其中,Qθ(D=1|wt,h)代表利用wt和h对应的词向量进行一次对数回归得到的概率。这样的对数回归实际可以看作一层神经网络,因为wt为目标词向量,所以对应D=1,为无关词,因此D=0,表示期望。
通过优化二元分类的损失函数来训练CBOW模型,最后得到的模型中的隐层当成当前词的向量表示。
在本发明实施例中,通过损失函数不断对CBOW模型进行优化,可以提高通过CBOW模型得到目标词向量的准确性。
S130,根据目标词向量确定最优通信指标查询图。
在本发明的一个实施例中,首先需要根据目标词确定主题词向量。具体的,可以采用S-MART方案作为实体连接系统,通过实体连接系统确认目标词向量中最接近查询需求的目标词向量,并将此目标词向量作为主题词向量。
接下来,将主题词向量在元数据或数据字典中对应的实体结点相关的结点路径作为核心推导链。应当注意的是,一个主题词向量可能同时存在多条核心推导链。核心推导链是指是将自然语言问题映射为正确的谓语序列。
其次,一个主题词向量和一条核心推导链共同构成一个通信指标查询图。由于一个主题词向量可能同时存在多条核心推导链,所以对于一个主题词向量会存在多个通信指标查询图。
最后,基于多柱(multi-column)卷积神经网络,对得到的多个通信指标查询图进行评估,得到最优通信指标查询图。
在本发明的一个实施例中,如图4所示,图4是示出本发明实施例中通信指标查询图的示意图。主题词向量在图中用圆角矩形表示,针对较为复杂的查询的中间变量在图中用阴影圆形表示,维度信息用阴影圆角矩形表示,聚合方式用菱形表示。图4中的主题词向量到结果x的路径可以转化为一系列关联操作,不同路径可以通过求交集操作结合到一起。
具体的,通信指标查询图的构成主要包括通信指标的文本信息中的主题词向量(也可以视为根节点)以及主题词向量到对应结果的这条路径涉及到的所有中间变量。这条路径可以看作是从问题到结果的一个核心推导过程,可以将其称为核心推导链。
在本发明的另一个实施例中,对于核心推导链里的中间变量,可以对它加一些约束规则和聚合规则。因此查询图的生成可以主要包括:确定主题词向量、确定核心推导链、约束规则以及聚合规则。
如图5所示,图5是示出本发明一实施中有限状态自动机的示意图。
状态集合S={φ,Se,Sp,Sc}分别表示空集、主题词向量结点集合、核心推导链集合和约束结点集合。动作集合A={Ae,Ap,Aa,Ac}分别表示选择主题词向量结点、选择核心推导链、聚合规则和加入约束规则。
按照上述的有限状态自动机,根据状态集合S,可以确定在该状态下可以采取的动作∏(S)。例如当前处在状态φ,根据自动机的动作为选择主题词结点。例如检测出有3个主题词候选,那么当前的动作集合大小为3。
通信指标查询图可以分阶段生成,通信指标查询图的生成过程本质上是搜索过程。如果搜索过程不加限制,搜索算法的时间复杂度是指数级。因此对于每一个状态S,可以增加奖励函数(reward function)对查询图进行评估。奖励函数γ得分越高表示这个状态对应的查询图和正确的语义解析表达越接近。
应当注意的是,在一些实施例中,奖励函数的训练使用对数线性模型,在奖励函数构建完成之后,就可以使用best-first的策略利用优先队列进行启发式搜索。
作为一个具体的实施例,下面“以上周厦门地区平均无线掉线率”为例,详细介绍通信指标查询图的构建过程。
首先是主题词向量的链接。如图6所示,图6是示出了本发明实施例中的确认主题词向量的示意图。构建通信指标查询图的第一个动作就是主题词链接(linking topicentity),即确定文本信息中的主题词向量。
在本发明的实施例中,可以采用S-MART方案作为实体连接系统。实体连接系统是针对带噪音的短文本设计,适用于对问句的主题词提取,它会为相应自然语言的实体给出链接得分(linking score)。考虑到对多个网络优化指标进行查询的需求。
接下来是确定核心推导链。在本发明的一个实施例中,针对主题词向量,将该主题词向量在元数据或数据字典中对应的实体结点相关的结点路径作为核心推导链的谓语序列候选。如图7所示,图7是示出本发明实施例中核心推导链的示意图。由此每一个主题词向量和一个核心推导链就构成查询图。
最后,是基于multi-column卷积神经网络,对多个通信指标查询图进行评估,得到最优通信指标查询图。其中,如图8所示,图8是示出本发明实施例中multi-column卷积神经网络的结构。将自然语言和谓语序列分别作为输入,经过两个结构相同的卷积神经网络得到一个300维的分布式表达向量,利用表达向量的相似程度计算自然语言和谓语序列的语义相似度得分,从而获得最优的谓语序列。
multi-column卷积神经网络的结构可以包括:
词嵌入(word-embedding):对于问句序列q=w1,…,wn,其中每一个词wi对应的词嵌入可以由词向量化得到,所有词都可以用d维向量表示。
卷积操作(convolution):对于一个含n个词的问句q,可以得到一个n×d的矩阵。如果把这个矩阵视为一个图片,那么就可以使用常规的卷积操作。与图片卷积操作不同之处在于,每一个卷积核的大小即卷积窗口是m×d,m代表每次对m个词进行卷积。
池化操作(pooling):对于每一个卷积核的输出,通过对该向量进行取最大值操作。
全连接操作(fully connection):在一些实施例中,可以采用带dropout的softmax全连接层,输出结果向量。
应当注意的是,基于上述的multi-column卷积神经网络的结构,对于不同长度的文本信息,可以采用补零的方式。
在本发明的又一个实施例中,还可以在multi-column卷积神经网络中加入约束规则和/或聚合规则。如图9所示,图9是示出本发明另一实施例中的约束规则和聚合规则示意图。
增加约束规则和聚合的规则是当实体链接检测到文本信息中出现其他实体,就增加约束。当文本信息中出现了类似“平均”或“最大”等词时,就增加聚合结点。综上,增加约束规则和聚合规则是对查询图进行扩展,缩小查询的目标范围以增加准确度。
在本发明实施例中,通过利用目标词向量构建查询图,缩小了查询结果的搜索范围,大大提高了搜索效率,同时也提高了搜索的准确性。
S140,依据最优通信指标查询图生成通信指标查询代码,并执行通信指标查询代码得到通信指标查询结果。
在本发明的一个实施例中,首先,根据通信指标查询图的谓词结构,判断查询类型。例如指标数据查询或指标定义查询等。从而确定数据源,即生成通信指标查询代码的执行目标。并且确定通信指标查询代码使用哪种变成编程语言进行生成。
接下来,基于通信指标查询图的主题词向量构建查询的字段,即构建通信指标查询代码的生成目标。
其次,按照通信指标查询图中的聚合信息,生成聚合代码或调整数据源的粒度。
最后,依据通信指标查询图中的约束信息,生成查询字段,进而得到通信指标查询结果。
作为一个具体的示例,生成的通信指标查询代码可以是:
select AVG(ENBHC07)from PM_CELL_DAILY
where DATED=datediff(week,inputdate,getdate())=1
在本发明的又一实施例中,在将文本信息进行预处理之前,指标查询的方法100还包括:
S150,对通信指标术语进行标注,并将标注后的通信指标术语录入至语料库中。S160,基于语音识别系统和语料库,将获取的语音数据转化为通信指标的文本信息。
在本发明实施例中,当用户用手机的应用程序(Application,APP)或个人计算机(personal computer,pc)端的麦克风等工具,对系统发出指令,要求查询特定条件下的指标数据或指标信息。例如:元数据和协议规范等。
首先,可以预先通过朗读的方式将通信指标术语录入至语料库中,并且还可以将通信指标术语进行标注,以使得语料库中的通信指标术语具有专有的标注记号,便于后续可以快速从语料库中查找到与语音数据相匹配的通信文本信息。例如可以通过朗读和标注的方式将网络优化专业术语和相关文档录入至语料库中。
其次,通过语义识别系统,根据获取到的语音数据在语料库中识别出对应的文本信息,完成语音数据到文本信息的转化。
在本发明的一实施例中,如图10所示,图10是示出本发明一实施例的指标查询流程图。本发明一实施例的指标查询方法1000包括:
S1010,语音查询。
S1020,语音转换。
S1030,文本信息。
S1040,自然语言处理。
S1050,查询图。
S1060,生成代码。
S1070,执行。
在本发明的另一实施例中,如图11所示,图11是示出本发明另一实施例的自然语言处理的流程图。本发明一实施例的指标查询方法1100包括:
S1110,文本信息。
S1120,分词。
S1130,词向量化。
S1140,查询图生成。
S1150,查询图。
下面通过图12详细介绍根据本发明实施例的指标查询的装置,指标查询的装置与指标查询的方法相对应。
图12示出了本发明一实施例的指标查询的装置的结构示意图。
如图12所示,指标查询的装置1200包括:
预处理模块1210,用于将通信指标的文本信息进行预处理,得到词向量。
词向量模块1220,用于基于预设神经网络模型,对词向量进行训练,得到目标词向量。
查询图模块1230,用于根据目标词向量确定最优通信指标查询图。
执行模块1240,用于依据最优通信指标查询图生成通信指标查询代码,并执行通信指标查询代码得到通信指标查询结果。
通过上述实施例提供的指标查询的装置,通过预处理模块1210得到词向量,通过词向量模块1220得到目标词向量,通过查询图模块1230确定最优查询图以及最后基于执行模块1240得到最后的查询结果。可以缩小搜索范围,进而提高搜索效率,提高搜索准确性。
在本发明的一个实施例中,指标查询的装置1200还包括:
语料库模块1250,用于对通信指标术语进行标注,并将标注后的通信指标术语录入至语料库中,以及
基于语音识别系统和语料库,将获取的语音数据转化为通信指标的文本信息。
在本发明实施例中,通过语料库模块1250对通信指标进行标注,使得语料库中的通信指标术语具有专有的标注记号,便于后续可以快速从语料库中查找到与语音数据相匹配的通信文本信息。
在本发明的一个实施例中,预处理模块1210具体用于将通信指标的文本信息进行分词处理,得到文本词条。对文本词条进行词向量化处理,得到词向量。
在本发明的一个实施例中,词向量模块1220具体用于基于连续词袋(ContinuousBag Of Words,CBOW),对词向量进行训练,得到目标词向量。
在本发明的一个实施例中,查询图模块1230具体用于基于实体连接系统和目标词向量,确认主题词向量。根据主题词向量得到多条核心推导链。依据主题词向量以及多条核心推导链构成多个通信指标查询图,每个通信指标查询图包括主题词和一条核心推导链。基于multi-column卷积神经网络,对多个通信指标查询图进行评估,得到最优通信指标查询图。其中,multi-column卷积神经网络还可以包括:约束规则和/或聚合规则。
图13示出了能够实现根据本发明实施例的指标查询的方法和装置的计算设备的示例性硬件架构的结构图。
如图13所示,计算设备1300包括输入设备1301、输入接口1302、中央处理器1303、存储器1304、输出接口1305、以及输出设备1306。其中,输入接口1302、中央处理器1303、存储器1304、以及输出接口1305通过总线1310相互连接,输入设备1301和输出设备1306分别通过输入接口1302和输出接口1305与总线1310连接,进而与计算设备1300的其他组件连接。
具体地,输入设备1301接收来自外部的输入信息,并通过输入接口1302将输入信息传送到中央处理器1303;中央处理器1303基于存储器1304中存储的计算机可执行指令对输入信息进行处理以生成输出信息,将输出信息临时或者永久地存储在存储器1304中,然后通过输出接口1305将输出信息传送到输出设备1306;输出设备1306将输出信息输出到计算设备1300的外部供用户使用。
也就是说,图13所示的计算设备也可以被实现指标查询的设备,该指标查询的设备可以包括:存储有计算机可执行指令的存储器;以及处理器,该处理器在执行计算机可执行指令时可以实现结合图1至图12描述的校验日志信息真伪的方法和装置。
本发明实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序指令;该计算机程序指令被处理器执行时实现本发明实施例提供的校验日志信息真伪。
需要明确的是,本发明并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本发明的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本发明的精神后,作出各种改变、修改和添加,或者改变步骤之间的顺序。以上所述的结构框图中所示的功能块可以实现为硬件、软件、固件或者它们的组合。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(ASIC)、适当的固件、插件、功能卡等等。当以软件方式实现时,本发明的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、ROM、闪存、可擦除ROM(EROM)、软盘、CD-ROM、光盘、硬盘、光纤介质、射频(RF)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。
本发明可以以其他的具体形式实现,而不脱离其精神和本质特征。例如,特定实施例中所描述的算法可以被修改,而设备体系结构并不脱离本发明的基本精神。因此,当前的实施例在所有方面都被看作是示例性的而非限定性的,本发明的范围由所附权利要求而非上述描述定义,并且,落入权利要求的含义和等同物的范围内的全部改变从而都被包括在本发明的范围之中。
Claims (10)
1.一种指标查询的方法,其特征在于,包括:
将通信指标的文本信息进行预处理,得到词向量;
基于预设神经网络模型,对所述词向量进行训练,得到目标词向量;
根据所述目标词向量确定最优通信指标查询图;
依据所述最优通信指标查询图生成通信指标查询代码,并执行所述通信指标查询代码得到通信指标查询结果。
2.根据权利要求1所述指标查询的方法,其特征在于,所述将通信指标的文本信息进行预处理,得到词向量,包括:
将所述通信指标的文本信息进行分词处理,得到文本词条;
对所述文本词条进行词向量化处理,得到所述词向量。
3.根据权利要求2所述指标查询的方法,其特征在于,所述将所述通信指标的文本信息进行分词处理,得到文本词条包括:
基于中文词法分析CLAS分词方案对所述通信指标的文本信息进行划分和词性标注,得到所述文本词条。
4.根据权利要求1所述指标查询的方法,其特征在于,所述预设神经网络模型包括:连续词袋CBOW模型。
5.根据权利要求1所述指标查询的方法,其特征在于,所述将通信指标的文本信息进行预处理之前,还包括:
对通信指标术语进行标注,并将标注后的通信指标术语录入至语料库中;
基于语音识别系统和所述语料库,将获取的语音数据转化为所述通信指标的文本信息。
6.根据权利要求1所述指标查询的方法,其特征在于,所述根据所述目标词向量确定最优通信指标查询图,包括:
基于实体连接系统和所述目标词向量,确认主题词向量;
根据所述主题词向量得到多条核心推导链;
依据所述主题词向量以及所述多条核心推导链构成多个通信指标查询图,每个所述通信指标查询图包括所述主题词和一条所述核心推导链;
基于多柱multi-column卷积神经网络,对所述多个通信指标查询图进行评估,得到所述最优通信指标查询图。
7.根据权利要求6所述指标查询的方法,其特征在于,所述multi-column卷积神经网络包括:约束规则和/或聚合规则。
8.一种指标查询的装置,其特征在于,包括:
预处理模块,用于将通信指标的文本信息进行预处理,得到词向量;
词向量模块,用于基于预设神经网络模型,对所述词向量进行训练,得到目标词向量;
查询图模块,用于根据所述目标词向量确定最优通信指标查询图;
执行模块,用于依据所述最优通信指标查询图生成通信指标查询代码,并执行所述通信指标查询代码得到通信指标查询结果。
9.一种指标查询的设备,其特征在于,所述设备包括:处理器以及存储有计算机程序指令的存储器;
所述处理器执行所述计算机程序指令时实现如权利要求1-7任意一项所述指标查询的方法。
10.一种计算机存储介质,其特征在于,所述计算机存储介质上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现如权利要求1-7任意一项所述指标查询的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811464341.9A CN109325240A (zh) | 2018-12-03 | 2018-12-03 | 指标查询的方法、装置、设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811464341.9A CN109325240A (zh) | 2018-12-03 | 2018-12-03 | 指标查询的方法、装置、设备和介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109325240A true CN109325240A (zh) | 2019-02-12 |
Family
ID=65256639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811464341.9A Pending CN109325240A (zh) | 2018-12-03 | 2018-12-03 | 指标查询的方法、装置、设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109325240A (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107402954A (zh) * | 2017-05-26 | 2017-11-28 | 百度在线网络技术(北京)有限公司 | 建立排序模型的方法、基于该模型的应用方法和装置 |
CN107562812A (zh) * | 2017-08-11 | 2018-01-09 | 北京大学 | 一种基于特定模态语义空间建模的跨模态相似性学习方法 |
KR20180110959A (ko) * | 2017-03-30 | 2018-10-11 | 오드컨셉 주식회사 | 벡터 양자화의 혼합에 기초한 부호화 방법 및 이를 이용한 최근접 이웃 검색(nns) 방법 |
-
2018
- 2018-12-03 CN CN201811464341.9A patent/CN109325240A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180110959A (ko) * | 2017-03-30 | 2018-10-11 | 오드컨셉 주식회사 | 벡터 양자화의 혼합에 기초한 부호화 방법 및 이를 이용한 최근접 이웃 검색(nns) 방법 |
CN107402954A (zh) * | 2017-05-26 | 2017-11-28 | 百度在线网络技术(北京)有限公司 | 建立排序模型的方法、基于该模型的应用方法和装置 |
CN107562812A (zh) * | 2017-08-11 | 2018-01-09 | 北京大学 | 一种基于特定模态语义空间建模的跨模态相似性学习方法 |
Non-Patent Citations (1)
Title |
---|
MING-WEI CHANG: "Semantic Parsing via Staged Query Graph Generation: Question Answering with Knowledge Base", 《PROCEEDINGS OF THE 53RD ANNUAL MEETING OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS AND THE 7TH INTERNATIONAL JOINT CONFERENCE ON NATURAL LANGUAGE PROCESSING》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10990767B1 (en) | Applied artificial intelligence technology for adaptive natural language understanding | |
CN108052583B (zh) | 电商本体构建方法 | |
US11842205B2 (en) | Natural language to API conversion | |
US20220050967A1 (en) | Extracting definitions from documents utilizing definition-labeling-dependent machine learning background | |
US20220318505A1 (en) | Inducing rich interaction structures between words for document-level event argument extraction | |
CN110489538A (zh) | 基于人工智能的语句应答方法、装置及电子设备 | |
US9613317B2 (en) | Justifying passage machine learning for question and answer systems | |
CN112507699B (zh) | 一种基于图卷积网络的远程监督关系抽取方法 | |
US20150142423A1 (en) | Phrase-based data classification system | |
CN109325040B (zh) | 一种faq问答库泛化方法、装置及设备 | |
US20230395075A1 (en) | Human-machine dialogue system and method | |
CN109857846B (zh) | 用户问句与知识点的匹配方法和装置 | |
CN112579733B (zh) | 规则匹配方法、规则匹配装置、存储介质及电子设备 | |
CN113326374A (zh) | 基于特征增强的短文本情感分类方法及系统 | |
CN116541517A (zh) | 文本信息处理方法、装置、设备、软件程序以及存储介质 | |
CN110413757A (zh) | 一种词语释义确定方法、装置及系统 | |
US20230153522A1 (en) | Image captioning | |
CN109325240A (zh) | 指标查询的方法、装置、设备和介质 | |
CN111949781B (zh) | 一种基于自然语句句法分析的智能交互方法及装置 | |
CN115658845A (zh) | 一种适用于开源软件供应链的智能问答方法及装置 | |
CN111222533B (zh) | 一种基于依赖树的深度学习视觉问答方法及系统 | |
CN111897932A (zh) | 一种文本大数据的查询处理方法及系统 | |
Wang et al. | A cnn-based feature extraction scheme for patent analysis | |
CN113743126B (zh) | 一种基于用户情绪的智能交互方法和装置 | |
CN113239164B (zh) | 多轮对话流程构建方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190212 |
|
RJ01 | Rejection of invention patent application after publication |