CN112860867A - 一种基于卷积神经网络的中文问答系统的属性选择方法及存储介质 - Google Patents

一种基于卷积神经网络的中文问答系统的属性选择方法及存储介质 Download PDF

Info

Publication number
CN112860867A
CN112860867A CN202110210928.2A CN202110210928A CN112860867A CN 112860867 A CN112860867 A CN 112860867A CN 202110210928 A CN202110210928 A CN 202110210928A CN 112860867 A CN112860867 A CN 112860867A
Authority
CN
China
Prior art keywords
question
attribute
training
neural network
matrixes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110210928.2A
Other languages
English (en)
Other versions
CN112860867B (zh
Inventor
匡平
李娜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110210928.2A priority Critical patent/CN112860867B/zh
Publication of CN112860867A publication Critical patent/CN112860867A/zh
Application granted granted Critical
Publication of CN112860867B publication Critical patent/CN112860867B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明属于问答系统领域,具体公开了一种基于卷积神经网络的中文问答系统的属性选择方法及存储介质,方法使用多种分词方式分别对问句、候选属性进行分词,并引入多头自注意力机制得到多个多头自注意力输入矩阵,分别输入到卷积神经网络中进行训练,得到多个问句特征向量和多个候选属征向量,分别将多个问句特征向量和多个候选属征向量拼接然后交互融合,得到交互融合矩阵;将所述矩阵再次进行卷积。本发明通过多粒度、多头自注意力机制、卷积池化操作后,对已经得到的能充分表示句子的特征向量进行交互融合,并在交互融合后再一次卷积,不管在句子表示方面还是相似度计算方面,都较传统的方法表现的更好。

Description

一种基于卷积神经网络的中文问答系统的属性选择方法及存 储介质
技术领域
本发明涉及问答系统领域领域,特别涉及一种基于卷积神经网络的中文问答系统的属性选择方法及存储介质。
背景技术
随着大数据时代的到来,传统的通过搜索引擎进行信息检索的方式已经不能完全满足用户的需求,信息的多样化也导致用户可能无法直接查询到有用的信息。问答系统则是针对以上不足,让用户直接提问,返回给用户清晰明了的答案,提高查询信息的效率。而在基于知识图谱的问答系统中,除了命名实体识别外,最关键的部分就是属性选择(关系预测),即在所有的候选属性中选择出最符合问句的三元组,并组织成答案返回给用户,但是基于知识图谱的问答系统在中文语料上的研究成果(论文、专利)相比于英文语料要少很多,在中文领域实现问答系统十分重要。
目前,中文问答系统的属性选择方法遇到的问题主要有以下几点:
(1)中文语句分词难度远远大于英文语句的分词,英文往往是以单词作为分词标准,而对于中文语句,因为中文的博大精深,很多单独的字也可以组成一个单词,很多词在不同的短语中的含义也不同,没有一个完美的分词器对句子进行分词。
(2)中文语义理解复杂,简单的神经网络无法充分理解句子的语义特征。
(3)卷积神经网络虽然在特定区域上可以很好的获取句子的局部特征,但是卷积神经网络很难获取到句子中部分词与词之间的关联信息。
发明内容
本发明主要提供一种基于卷积神经网络的中文问答系统的属性选择方法及存储介质,能够解决现有中文问答系统的属性选择方法遇到的问题。
为了解决上述技术问题,本发明提供一种基于卷积神经网络的中文问答系统的属性选择方法,包括以下内容:
使用多种分词方式分别对问句进行分词,预处理后进行映射得到多个问句词向量矩阵;使用所述多种分词方式分别对候选属性进行分词,预处理后进行映射得到多个属性词向量矩阵;
将所述多个问句词向量矩阵和多个属性词向量矩阵作为模型的输入层,并引入多头自注意力机制分别对所述多个问句词向量矩阵和多个属性词向量矩阵进行变换,得到多个多头自注意力输入矩阵;
对所述多个多头自注意力输入矩阵进行训练后输出问句和候选属性的相似度,并选择相似度最高的候选属性作为最终选择的属性。
优选地,对所述多个多头自注意力输入矩阵进行训练包括:
第一次训练:将所述多个多头自注意力输入矩阵分别输入到多个卷积神经网络中进行第一次训练并进行第一次池化处理和拼接,得到多个问句特征向量和多个候选属征向量;
将所述多个问句特征向量拼接到一起,形成总问句特征向量,将所述多个候选属征向量拼接到一起,形成总候选属性特征向量;
第二次训练:将所述总问句特征向量和总候选属性特征向量进行交互融合,得到一个融合矩阵,将所述融合矩阵输入到一个卷积神经网络中进行训练,得到第二次训练特征向量;
输出分类:将所述第二次训练特征向量依次进行第二次池化处理、拉平后输入到全连接层以及分类。
优选地,所述多种分词方式包括jieba分词工具、斯坦福中文分词器以及字符级分词器。
优选地,所述预处理包括:对分词后的问句去除标点符号、去停用词得到多个问句序列,对分词后的候选属性去除标点符号、去停用词得到多个候选属性序列。
优选地,所述映射包括:分别对所述多个问句序列和多个候选属性序列采用Word2Vec训练好的词向量进行映射。
优选地,进行所述第一次训练时,卷积核宽度和词向量宽度一致,卷积核在卷积时整行地进行卷积。
优选地,所述多个问句特征向量、多个候选属征向量的宽度均为1;所述总问句特征向量和总候选属性特征向量均为n行1列的矩阵,所述融合矩阵为n行n列的矩阵。
优选地,所述第一次池化处理、第二次池化处理均采用k-max池化。
优选地,所述拉平后输入到全连接层以及分类包括:使用ReLU函数作为全连接层的激活函数,并使用softmax分类器得到问句和候选属性的相似度。
本发明还提供一种计算机存储介质,所述计算机存储介质上存储有能够实现一种基于卷积神经网络的中文问答系统的属性选择方法的指令。
本发明的有益效果是:(1)区别于现有技术的情况,本发明使用多种分词方式分别对问句和候选属性进行分词,输入时采取了多种分词多种粒度的输入,解决了没有完美分词器的问题;加入多头的自注意力机制,用于捕获句子中的上下文信息,解决了单纯卷积神经网络无法捕获上下文信息的问题,提高计算的准确度;(2)本发明对已经得到的能充分表示句子的特征向量进行交互融合,并在交互融合后再一次输入到卷积神经网络中提取更深层次的相似度特征,再接全连接层进行训练,不管在句子表示方面还是相似度计算方面,都较传统的方法表现的更好,提高了计算的准确度;(3)提出了一种新的特征向量交互融合的方法,在第一次卷积激活池化拼接向量后进行问句和候选属性的交互融合更多地捕获了两个句子的相似特征。
附图说明
图1是本发明一种基于卷积神经网络的中文问答系统的属性选择方法的流程图;
图2是本发明中文问答系统的属性选择方法的网络模型图。
具体实施方式
为了使本发明的目的、技术方案和有益效果更加清楚和完整,以下实施例结合附图对本发明作进一步地阐述。
实施例1
提供一种基于卷积神经网络的中文问答系统的属性选择方法,包括以下内容:
使用多种分词方式分别对问句进行分词,预处理后进行映射得到多个问句词向量矩阵;使用多种分词方式分别对候选属性进行分词,预处理后进行映射得到多个属性词向量矩阵;多种分词方式根据实际需求可以是任意两种或3种或3种以上的分词方式。
将所述多个问句词向量矩阵和多个属性词向量矩阵作为模型的输入层,并引入多头自注意力机制分别对所述多个问句词向量矩阵和多个属性词向量矩阵进行变换,得到多个多头自注意力输入矩阵,这里多头自注意力输入矩阵的个数应当是问句词向量矩阵和属性词向量矩阵的总和;
对所述多个多头自注意力输入矩阵进行训练后输出问句和候选属性的相似度,并选择相似度最高的候选属性作为最终选择的属性。
该方法的原理是:使用多种分词方式分别对问句和候选属性进行分词,分词后得到多个问句词向量矩阵和多个候选属征向量,并引入多头自注意力机制分别对所述多个问句词向量矩阵和多个属性词向量矩阵进行变换,得到多个多头自注意力输入矩阵,用于捕获句子中的上下文信息,输入时形成多种分词多种粒度的输入,进行完美分词器的同时更能捕获句子中的上下文信息,提高检测的准确度。
进一步的,传统的方法都是表示出特征后直接进行余弦相似度计算得出最终答案,计算准确率较低。由此,本发明对后续的训练进行创新设计。
进一步地,对所述多个多头自注意力输入矩阵进行训练包括:
第一次训练:将所述多个多头自注意力输入矩阵分别输入到多个卷积神经网络中进行第一次训练并进行第一次池化处理和拼接,得到多个问句特征向量和多个候选属征向量;
将所述多个问句特征向量拼接到一起,形成总问句特征向量,将所述多个候选属征向量拼接到一起,形成总候选属性特征向量;
第二次训练:将所述总问句特征向量和总候选属性特征向量进行交互融合,得到一个融合矩阵,将所述融合矩阵输入到一个卷积神经网络中进行训练,得到第二次训练特征向量;
输出分类:将所述第二次训练特征向量依次进行第二次池化处理、拉平后输入到全连接层以及分类。
在进行完美分词之后,接着将所述多个问句特征向量拼接到一起,形成总问句特征向量,将所述多个候选属征向量拼接到一起,形成总候选属性特征向量,将所述总问句特征向量和总候选属性特征向量进行交互融合,得到一个融合矩阵,将所述融合矩阵输入到一个卷积神经网络中进行第二次训练,得到第二次训练特征向量;将所述第二次训练特征向量依次进行第二次池化处理、拉平后输入到全连接层以及分类,输出所述问句和候选属性的相似度,并选择相似度最高的候选属性作为最终选择的属性。
本发明对已经得到的能充分表示句子的特征向量进行交互融合,并在交互融合后再一次输入到卷积神经网络中提取更深层次的相似度特征,再接全连接层进行训练,不管在句子表示方面还是相似度计算方面,都较传统的方法表现的更好,提高了计算的准确度。
进一步地,所述多种分词方式包括jieba分词工具、斯坦福中文分词器以及字符级分词器。
进一步地,所述预处理包括:对分词后的问句去除标点符号、去停用词得到多个问句序列,对分词后的候选属性去除标点符号、去停用词得到多个候选属性序列。
进一步地,所述映射包括:分别对所述多个问句序列和多个候选属性序列采用Word2Vec训练好的词向量进行映射。
进一步地,进行所述第一次训练时,卷积核宽度和词向量宽度一致,卷积核在卷积时整行地进行卷积。
进一步地,所述多个问句特征向量、多个候选属征向量的宽度均为1;所述总问句特征向量和总候选属性特征向量均为n行1列的矩阵,所述融合矩阵为n行n列的矩阵。
进一步地,所述第一次池化处理、第二次池化处理均采用k-max池化。
进一步地,所述拉平后输入到全连接层以及分类包括:使用ReLU函数作为全连接层的激活函数,并使用softmax分类器得到问句和候选属性的相似度。
本发明还提供一种计算机存储介质,所述计算机存储介质上存储有能够实现一种基于卷积神经网络的中文问答系统的属性选择方法的指令。
实施例2
基于实施例1,提供一种基于卷积神经网络的中文问答系统的属性选择方法,使用三种分词方式进分词并进行多次训练,如图1、2所示,所述方法包括如下步骤:
S1、使用jieba分词工具、斯坦福中文分词器以及字符级分词器分别对问句q进行分词,预处理后进行映射得到三个问句词向量矩阵;使用jieba分词工具、斯坦福中文分词器以及字符级分词器别对候选属性a进行分词,预处理后进行映射得到三个属性词向量矩阵。加载停用词表,去除问句中的停用词和标点符号,形成三个问句序列q1、q2、q3;加载停用词表,去除候选属性中的停用词和标点符号,形成三个候选属性序列a1、a2、a3。值得一提的是,对问句和候选属性进行分词时采用的分词方式一致。
其中,分别对q1、q2、q3、a1、a2、a3六个序列采用Word2Vec训练好的词向量进行映射,形成六个输入词向量矩阵Q1、Q2、Q3、A1、A2、A3。
将输入词向量矩阵表示为s×d维的向量矩阵,其中s表示输入序列的长度,d表示词向量的维度。
S2、将所述三个问句词向量矩阵和三个属性词向量矩阵作为模型的输入层,并引入多头自注意力机制分别对所述三个问句词向量矩阵和三个属性词向量矩阵进行变换,形成六个包含更多上下文语义信息的输入矩阵,得到六个多头自注意力输入矩阵。
所述多头自注意力机制如下:
给定三个矩阵Query、Key和Value(简记为Q、K、V),Attentio n计算公式为:
Figure BDA0002952263390000081
其中,在单头注意力时dk=d(d为词向量的维度),在多头注意力时,dk=d/h(h是多头自注意力的头数),将Q、K和V分别进行线性变换得到
Figure BDA0002952263390000082
其中
Figure BDA0002952263390000083
都是用于计算Q、K、V的可学习参数矩阵。
多头自注意力机制是将Q、K、V映射到多个平行头上计算Attenti on值。每个平行头的公式如下:
Figure BDA0002952263390000084
根据上述公式计算出每一个头的Attention矩阵。
将通过计算的多头自注意力机制中每一个头的结果拼接起来,公式如下MultiHead(Q,K,V)=[head1,head2,......,headh]·Wo,其中h表示的是多头的个数,WO是可学习参数矩阵。
本发明使用的是多头自注意力,所以Q、K、V设置为输入的句子矩阵,即Q1、Q2、Q3、A1、A2、A3,经过MultiHead的计算,得出六个维度大小没有变化的多头自注意力矩阵Q1’、Q2’、Q3’、A1’、A2’、A3’。
S3、将所述六个多头自注意力输入矩阵分别输入到六个卷积神经网络中进行第一次训练并进行第一次池化处理和拼接,得到三个问句特征向量和三个候选属征向量。
具体地,将多头自注意力矩阵Q1’、Q2’、Q3’、A1’、A2’、A3’输入至卷积神经网络中进行训练,卷积核宽度和词向量宽度一致,卷积核大小设置为2、3、4,卷积核在卷积时整行地进行卷积(一维卷积),即只在纵向上面进行滑动。每个输入矩阵通过多个卷积核后都得到多个特征向量,这些特征向量的宽度均为1(一维卷积的原因)。
对得到的特征向量进行k-max池化操作,将六个卷积神经网络中经过k-max池化操作后的特征向量分别拼接到一起,得到六个特征向量。
S4、将得到的三个问句特征向量拼接到一起,形成总问句特征向量fq;将S5得到的三个候选属性特征向量拼接到一起,形成总候选属性特征向量fa
具体地,两个特征向量fq和fa的维度是相同的,都是n行1列的矩阵,可以表示为fq=[fq1,fq2,......,fqn];fa=[fa1,fa2,......,fan],将fq和fa进行交互融合,形成一个新的交互融合矩阵M,M矩阵是一个n行n列的矩阵,矩阵中的每一个元素mij=fqi⊙faj
S5、将融合后的二维矩阵M输入到一个卷积神经网络中进行第二次训练,在卷积神经网络中采取二维卷积的方式,将第二次训练后的特征向量进行最大池化操作,并拉平后输入到全连接层中,使用Relu函数作为全连接层的激活函数,最后通过softmax分类器进行分类,输出问句和候选属性的相似程度。
具体地,将S8训练后得特征向量进行最大池化操作,即cf=[max{cf1},max{cf2},......,max{cfn}],其中n为每个卷积神经网络中卷积核的个数;
使用ReLU函数作为全连接层的激活函数,公式如下:f(x)=max(0,x)。使用softmax分类器得到最终问句和候选属性的相似度。模型训练过程中loss函数选择的是二进制交叉熵函数。
S6、对所有候选属性和问句的相似度进行排序,选择相似度最高的属性作为最终选择的属性。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种基于卷积神经网络的中文问答系统的属性选择方法,其特征在于,包括以下内容:
使用多种分词方式分别对问句进行分词,预处理后进行映射得到多个问句词向量矩阵;使用所述多种分词方式分别对候选属性进行分词,预处理后进行映射得到多个属性词向量矩阵;
将所述多个问句词向量矩阵和多个属性词向量矩阵作为模型的输入层,并引入多头自注意力机制分别对所述多个问句词向量矩阵和多个属性词向量矩阵进行变换,得到多个多头自注意力输入矩阵;
对所述多个多头自注意力输入矩阵进行训练后输出问句和候选属性的相似度,并选择相似度最高的候选属性作为最终选择的属性。
2.根据权利要求1所述的一种基于卷积神经网络的中文问答系统的属性选择方法,其特征在于,对所述多个多头自注意力输入矩阵进行训练包括:
第一次训练:将所述多个多头自注意力输入矩阵分别输入到多个卷积神经网络中进行第一次训练并进行第一次池化处理和拼接,得到多个问句特征向量和多个候选属征向量;
将所述多个问句特征向量拼接到一起,形成总问句特征向量,将所述多个候选属征向量拼接到一起,形成总候选属性特征向量;
第二次训练:将所述总问句特征向量和总候选属性特征向量进行交互融合,得到一个融合矩阵,将所述融合矩阵输入到一个卷积神经网络中进行训练,得到第二次训练特征向量;
输出分类:将所述第二次训练特征向量依次进行第二次池化处理、拉平后输入到全连接层以及分类。
3.根据权利要求1所述的一种基于卷积神经网络的中文问答系统的属性选择方法,其特征在于,所述多种分词方式包括jieba分词工具、斯坦福中文分词器以及字符级分词器。
4.根据权利要求1所述的一种基于卷积神经网络的中文问答系统的属性选择方法,其特征在于,所述预处理包括:对分词后的问句去除标点符号、去停用词得到多个问句序列,对分词后的候选属性去除标点符号、去停用词得到多个候选属性序列。
5.根据权利要求4所述的一种基于卷积神经网络的中文问答系统的属性选择方法,其特征在于,所述映射包括:分别对所述多个问句序列和多个候选属性序列采用Word2Vec训练好的词向量进行映射。
6.根据权利要求1所述的一种基于卷积神经网络的中文问答系统的属性选择方法,其特征在于,进行所述第一次训练时,卷积核宽度和词向量宽度一致,卷积核在卷积时整行地进行卷积。
7.根据权利要求1所述的一种基于卷积神经网络的中文问答系统的属性选择方法,其特征在于,所述多个问句特征向量、多个候选属征向量的宽度均为1;所述总问句特征向量和总候选属性特征向量均为n行1列的矩阵,所述融合矩阵为n行n列的矩阵。
8.根据权利要求1所述的一种基于卷积神经网络的中文问答系统的属性选择方法,其特征在于,所述第一次池化处理、第二次池化处理均采用k-max池化。
9.根据权利要求2所述的一种基于卷积神经网络的中文问答系统的属性选择方法,其特征在于,所述拉平后输入到全连接层以及分类包括:使用ReLU函数作为全连接层的激活函数,并使用softmax分类器得到问句和候选属性的相似度。
10.一种计算机存储介质,其特征在于,所述计算机存储介质上存储有能够实现权利要求1-9中任意一项所述的一种基于卷积神经网络的中文问答系统的属性选择方法的指令。
CN202110210928.2A 2021-02-25 2021-02-25 一种基于卷积神经网络的中文问答系统的属性选择方法及存储介质 Active CN112860867B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110210928.2A CN112860867B (zh) 2021-02-25 2021-02-25 一种基于卷积神经网络的中文问答系统的属性选择方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110210928.2A CN112860867B (zh) 2021-02-25 2021-02-25 一种基于卷积神经网络的中文问答系统的属性选择方法及存储介质

Publications (2)

Publication Number Publication Date
CN112860867A true CN112860867A (zh) 2021-05-28
CN112860867B CN112860867B (zh) 2022-07-12

Family

ID=75989925

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110210928.2A Active CN112860867B (zh) 2021-02-25 2021-02-25 一种基于卷积神经网络的中文问答系统的属性选择方法及存储介质

Country Status (1)

Country Link
CN (1) CN112860867B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109408627A (zh) * 2018-11-15 2019-03-01 众安信息技术服务有限公司 一种融合卷积神经网络和循环神经网络的问答方法及系统
US20190102646A1 (en) * 2017-10-02 2019-04-04 Xnor.ai Inc. Image based object detection
CN109933653A (zh) * 2019-01-24 2019-06-25 平安科技(深圳)有限公司 问答系统的问答查询方法、系统及计算机设备
CN109948143A (zh) * 2019-01-25 2019-06-28 网经科技(苏州)有限公司 社区问答系统的答案抽取方法
CN110298037A (zh) * 2019-06-13 2019-10-01 同济大学 基于增强注意力机制的卷积神经网络匹配的文本识别方法
CN110599463A (zh) * 2019-08-26 2019-12-20 依脉人工智能医疗科技(天津)有限公司 一种基于轻量级联神经网络的舌像检测及定位算法
CN111353030A (zh) * 2020-02-26 2020-06-30 陕西师范大学 基于旅游领域知识图谱的知识问答检索方法及装置
CN111553160A (zh) * 2020-04-24 2020-08-18 北京北大软件工程股份有限公司 一种获取法律领域问句答案的方法和系统
CN111859964A (zh) * 2019-04-29 2020-10-30 普天信息技术有限公司 一种语句中命名实体的识别方法及装置
WO2021008015A1 (zh) * 2019-07-18 2021-01-21 平安科技(深圳)有限公司 意图识别方法、设备及计算机可读存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190102646A1 (en) * 2017-10-02 2019-04-04 Xnor.ai Inc. Image based object detection
CN109408627A (zh) * 2018-11-15 2019-03-01 众安信息技术服务有限公司 一种融合卷积神经网络和循环神经网络的问答方法及系统
CN109933653A (zh) * 2019-01-24 2019-06-25 平安科技(深圳)有限公司 问答系统的问答查询方法、系统及计算机设备
CN109948143A (zh) * 2019-01-25 2019-06-28 网经科技(苏州)有限公司 社区问答系统的答案抽取方法
CN111859964A (zh) * 2019-04-29 2020-10-30 普天信息技术有限公司 一种语句中命名实体的识别方法及装置
CN110298037A (zh) * 2019-06-13 2019-10-01 同济大学 基于增强注意力机制的卷积神经网络匹配的文本识别方法
WO2021008015A1 (zh) * 2019-07-18 2021-01-21 平安科技(深圳)有限公司 意图识别方法、设备及计算机可读存储介质
CN110599463A (zh) * 2019-08-26 2019-12-20 依脉人工智能医疗科技(天津)有限公司 一种基于轻量级联神经网络的舌像检测及定位算法
CN111353030A (zh) * 2020-02-26 2020-06-30 陕西师范大学 基于旅游领域知识图谱的知识问答检索方法及装置
CN111553160A (zh) * 2020-04-24 2020-08-18 北京北大软件工程股份有限公司 一种获取法律领域问句答案的方法和系统

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
VASU SHARMA 等: ""Segmentation guided attention networks for Visual Question Answering"", 《THE 55TH ANNUAL MEETING OF THE ASSOCIATION FOR COMPUTATIONAL LINGUISTICS- STUDENT RESEARCH WORKSHOP》 *
WEIDONG TIAN 等: ""Cascading Top-Down Attention for Visual Question Answering"", 《2020 INTERNATIONAL JOINT CONFERENCE ON NEURAL NETWORKS (IJCNN)》 *
宋文闯等: "问答系统中问句相似度研究", 《软件导刊》 *
张宁等: "中文问答系统问句分析研究综述", 《情报工程》 *
张群: ""基于多任务学习的中文命名实体识别研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
裴兵兵: ""基于Attention机制的自动问答技术研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
金文珍: ""基于神经网络和多头自注意力机制的中文机器阅读理解研究"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
陈茹等: "融合空洞卷积神经网络与层次注意力机制的中文命名实体识别", 《中文信息学报》 *

Also Published As

Publication number Publication date
CN112860867B (zh) 2022-07-12

Similar Documents

Publication Publication Date Title
CN111858954B (zh) 面向任务的文本生成图像网络模型
CN111522839B (zh) 一种基于深度学习的自然语言查询方法
CN106033426B (zh) 一种基于潜在语义最小哈希的图像检索方法
CN109783666B (zh) 一种基于迭代精细化的图像场景图谱生成方法
CN110222218B (zh) 基于多尺度NetVLAD和深度哈希的图像检索方法
Wilkinson et al. Neural Ctrl-F: segmentation-free query-by-string word spotting in handwritten manuscript collections
CN109918507B (zh) 一种基于TextCNN改进的文本分类方法
CN111652273A (zh) 一种基于深度学习的rgb-d图像分类方法
CN108427717A (zh) 一种基于逐步扩展的字母类语系医疗文本关系抽取方法
Levin et al. Out-of-sample extension of graph adjacency spectral embedding
CN112100212A (zh) 一种基于机器学习和规则匹配的案件情节抽取方法
CN115168579A (zh) 一种基于多头注意力机制和二维卷积操作的文本分类方法
CN116821291A (zh) 基于知识图谱嵌入与语言模型交替学习的问答方法及系统
CN113378938A (zh) 一种基于边Transformer图神经网络的小样本图像分类方法及系统
CN112860867B (zh) 一种基于卷积神经网络的中文问答系统的属性选择方法及存储介质
Adnan et al. Automated image annotation with novel features based on deep ResNet50-SLT
CN111241326A (zh) 基于注意力金字塔图网络的图像视觉关系指代定位方法
CN115017366A (zh) 基于多粒度语境化和多结构保存的无监督视频哈希检索方法
CN115048488A (zh) 专利摘要自动生成方法及存储介质
Qi et al. PQA: Perceptual question answering
CN111125308B (zh) 一种支持语义联想的轻量级文本模糊搜索的方法
Wang et al. Deep learning for font recognition and retrieval
CN111259650A (zh) 基于类标序列生成式对抗模型的文本自动生成方法
CN110543569A (zh) 用于短文本意图识别的网络层结构及短文本意图识别方法
CN116630726B (zh) 基于多模态的鸟类分类方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant