CN109460553B - 一种基于门限卷积神经网络的机器阅读理解方法 - Google Patents
一种基于门限卷积神经网络的机器阅读理解方法 Download PDFInfo
- Publication number
- CN109460553B CN109460553B CN201811308503.XA CN201811308503A CN109460553B CN 109460553 B CN109460553 B CN 109460553B CN 201811308503 A CN201811308503 A CN 201811308503A CN 109460553 B CN109460553 B CN 109460553B
- Authority
- CN
- China
- Prior art keywords
- word
- threshold
- answer
- vector
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供一种基于门限卷积神经网络的机器阅读理解方法,通过构建门限卷积神经网络模型,包括输入层、门限卷积层和答案层;输入层用于编码目标文章,将编码的文章向量序列、问题向量序列和答案向量序列传送给所述门限卷积层;门限卷积层通过交互的方式产生具有高层语义信息的文章,问题,答案表达,并将这些表达传送给答案层;最后由答案层进行推理决策,做出预测;确定目标文章,导入门限卷积神经网络模型中进行机器阅读理解,导出预测结果。本发明提供的一种基于门限卷积神经网络的机器阅读理解方法,有效简化了神经网络模型,大大减少了训练和测试时长,提高了处理效率,提升了用户体验感;保持文本的长期依赖关系,准确预测出答案信息。
Description
技术领域
本发明涉及自然语言处理领域,更具体的,涉及一种基于门限卷积神经网络的机器阅读理解方法。
背景技术
机器阅读理解的目标是教机器学会阅读和理解人类语言,这是自然语言处理领域中一个长期的目标,它的任务形式主要包括完型填空阅读理解,段落抽取阅读理解,和开放域阅读理解。当我们给出一个文段、一个问题还有几个候选答案,机器能根据给定的文段和问题,并结合常识知识进行推理得出最终的答案。现在在该任务上的主流模型都是基于传统的循环结构,该结果虽然可以学习到文本的长期依赖关系,有利于促进模型进行推理,但该模型在训练和测试阶段很费时,这种高时间复杂度的问题限制了该模型在许多NLP任务的使用,影响用户体验,不利于研究的开展。
发明内容
本发明为克服上述现有存在的模型复杂度高,存在耗时长、影响用户体验及不利于研究的开展的技术缺陷,提供一种于门限卷积神经网络的机器阅读理解方法。
为解决上述技术问题,本发明的技术方案如下:
一种基于门限卷积神经网络的机器阅读理解方法,包括以下步骤:
S1:构建门限卷积神经网络模型,包括输入层、门限卷积层和答案层;其中,所述输入层用于编码目标文章,将编码的文章向量序列、问题向量序列和答案向量序列传送给所述门限卷积层;所述门限卷积层通过交互的方式产生具有高层语义信息的文章,问题,答案表达,并将这些表达传送给答案层;最后由所述答案层进行推理决策,做出预测;
S2:确定目标文章,导入门限卷积神经网络模型中进行机器阅读理解,导出预测结果。
其中,步骤S1中,所述输入层利用多方位信息编码目标文章,计算每个单词的多个角度的特征表达,包括:词语嵌入、关系嵌入、词性标注和命名实体嵌入、特征嵌入;其中:
所述词语嵌入通过300维Glove词向量初始化词语嵌入矩阵,选择词频最高的10个单词对应的词向量进行微调,从而得到每个词对应的词语嵌入;
所述关系嵌入通过提取ConceptNet库中所有的关系并为每个提取出来的关系赋值一个随机初始化的10维向量,将关系嵌入变成一个二维矩阵,矩阵行数为ConceptNet库的关系总数,列数为10;对于目标文章每个单词,若在ConceptNet库中存在一条连接该单词和问题与答案中任一单词的边,那该单词的关系嵌入就是该边所对应的向量;
所述词性标注和命名实体嵌入先计算目标文章的每个单词的词性、所属的实体类型;然后将每个单词的词性训练为49个不同类型的词性标签,每个初始化为10维向量;最后将每个单词所属的实体类型训练为18个不同的标签,每个初始化为8维向量;
所述特征嵌入包括:对数词频特征、词语共现特征、词语模糊匹配特征;所述对数词频特征为基于英语维基百科统计每个单词的词频,取其对数作为该单词的对数词频特征;所述词语共现特征是一个二元特征,若一个单词同时出现在文章、问题和答案中,该单词就具备词语共现特征;所述词语模糊匹配特征仅需要部分匹配即可。
其中,步骤S1中,所述门限卷积层包括门限机制模块,该模块的具体计算公式为:
gi=relu(wi:i+k*wg+Vgvg+bg);
oi=tanh(wi:i+k*wo+bo);
ci=gi·oi;
其中,*为卷积操作;wi:i+k为被卷积的文章向量、问题向量或答案向量;wg和wo为卷积核;vg为参考向量;Vg和bg分别为线性变换参数和偏置参数;oi为对文本向量经过卷积后得到的特性映射;gi为结合参考向量;oi作为实际输出的比值,即为控制信息流动的门控;通过所述门限机制模块的一维卷积,门限卷积神经网络模型对文章、问题、答案进行交互,产生高层语义信息表达。
其中,所述门限卷积层还包括最大池化模块和自注意力机制;所述门限卷积神经网络模型对文章、问题、答案的交互具体包括以下步骤:
S21:利用普通卷积核为1和3的卷积网络对问题向量序列进行卷积并通过最大池化模块进行池化处理,得到一个表征问题语意信息的向量;
S22:将表征问题语意信息的向量作为参考向量,结合卷积核为3、4、5的一维卷积和门限机制模块对答案向量序列进行运算操作,并通过最大池化模块进行池化处理,得到一个表征答案语意信息的向量;
S23:将表征问题和答案语意信息的向量作为参考向量,结合卷积核为3、4、5的一维卷积和门限机制模块对文章向量序列进行运算操作,然后利用自注意力机制将目标文章文本每个单词的向量经过线性变换转化为一个标量,用softmax函数将得到的标量转化为对应的概率,即每个单词的权重,最后对这些单词向量加权求和,得到一个表征文章语义信息的向量。
其中,所述答案层将具有高层语义信息的文章、问题、答案表达串联起来,进行进一步建模,最终做出预测,具体采用双线性交互,具体计算公式为:
y=σ(cpW3cA+cQW4cA);
其中,cp,cQ,cA分别代表具有高层语义信息的文章、问题、答案表达;y是相应的候选答案的预测分数。
与现有技术相比,本发明技术方案的有益效果是:
本发明提供的一种基于门限卷积神经网络的机器阅读理解方法,采用门限卷积神经网络作为模型基础架构,结合自注意力机制,有效简化了神经网络模型,一方面大大减少了训练和测试时长,提高了处理效率,提升了用户体验感;另一方面保持文本的长期依赖关系,准确预测出答案信息。
附图说明
图1为本发明方法流程图;
图2为门限卷积神经网络模型交互过程流程图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种基于门限卷积神经网络的机器阅读理解方法,包括以下步骤:
S1:构建门限卷积神经网络模型,包括输入层、门限卷积层和答案层;其中,所述输入层用于编码目标文章,将编码的文章向量序列、问题向量序列和答案向量序列传送给所述门限卷积层;所述门限卷积层通过交互的方式产生具有高层语义信息的文章,问题,答案表达,并将这些表达传送给答案层;最后由所述答案层进行推理决策,做出预测;
S2:确定目标文章,导入门限卷积神经网络模型中进行机器阅读理解,导出预测结果。
更具体的,在步骤S1中,所述输入层利用多方位信息编码目标文章,计算每个单词的多个角度的特征表达,包括:词语嵌入、关系嵌入、词性标注和命名实体嵌入、特征嵌入;其中:
所述词语嵌入通过300维Glove词向量初始化词语嵌入矩阵,选择词频最高的10个单词对应的词向量进行微调,从而得到每个词对应的词语嵌入;
所述关系嵌入通过提取ConceptNet库中所有的关系并为每个提取出来的关系赋值一个随机初始化的10维向量,将关系嵌入变成一个二维矩阵,矩阵行数为ConceptNet库的关系总数,列数为10;对于目标文章每个单词,若在ConceptNet库中存在一条连接该单词和问题与答案中任一单词的边,那该单词的关系嵌入就是该边所对应的向量;
所述词性标注和命名实体嵌入先计算目标文章的每个单词的词性、所属的实体类型;然后将每个单词的词性训练为49个不同类型的词性标签,每个初始化为10维向量;最后将每个单词所属的实体类型训练为18个不同的标签,每个初始化为8维向量;
所述特征嵌入包括:对数词频特征、词语共现特征、词语模糊匹配特征;所述对数词频特征为基于英语维基百科统计每个单词的词频,取其对数作为该单词的对数词频特征;所述词语共现特征是一个二元特征,若一个单词同时出现在文章、问题和答案中,该单词就具备词语共现特征;所述词语模糊匹配特征仅需要部分匹配即可。
更具体的,在步骤S1中,所述门限卷积层包括门限机制模块,该模块的具体计算公式为:
gi=relu(wi:i+k*wg+Vgvg+bg);
oi=tanh(wi:i+k*wo+bo);
ci=gi·oi;
其中,*为卷积操作;wi:i+k为被卷积的文章向量、问题向量或答案向量;wg和wo为卷积核;vg为参考向量;Vg和bg分别为线性变换参数和偏置参数;oi为对文本向量经过卷积后得到的特性映射;gi为结合参考向量;oi作为实际输出的比值,即为控制信息流动的门控;通过所述门限机制模块的一维卷积,门限卷积神经网络模型对文章、问题、答案进行交互,产生高层语义信息表达。
更具体的,如图2所示,所述门限卷积层还包括最大池化模块和自注意力机制;所述门限卷积神经网络模型对文章、问题、答案的交互具体包括以下步骤:
S21:利用普通卷积核为1和3的卷积网络对问题向量序列进行卷积并通过最大池化模块进行池化处理,得到一个表征问题语意信息的向量;
S22:将表征问题语意信息的向量作为参考向量,结合卷积核为3、4、5的一维卷积和门限机制模块对答案向量序列进行运算操作,并通过最大池化模块进行池化处理,得到一个表征答案语意信息的向量;
S23:将表征问题和答案语意信息的向量作为参考向量,结合卷积核为3、4、5的一维卷积和门限机制模块对文章向量序列进行运算操作,然后利用自注意力机制将目标文章文本每个单词的向量经过线性变换转化为一个标量,用softmax函数将得到的标量转化为对应的概率,即每个单词的权重,最后对这些单词向量加权求和,得到一个表征文章语义信息的向量。
更具体的,所述答案层将具有高层语义信息的文章、问题、答案表达串联起来,进行进一步建模,最终做出预测,具体采用双线性交互,具体计算公式为:
y=σ(cpW3cA+cQW4cA);
其中,cp,cQ,cA分别代表具有高层语义信息的文章、问题、答案表达;y是相应的候选答案的预测分数。
在具体实施过程中,提出一个代替传统循环结构的门限卷积神经网络模型,充分利用门限卷积神经网络参数少,训练速度快并且能够有效提取局部特征的特点,结合自主力机制能有效建模长文本的长期依赖关系的优势,对文章,问题,答案进行有效地交互和推理,再做出预测。
在具体实施过程中,门限卷积神经网络是在普通卷积上加了一个门控开关,这个门控开关能结合参考向量,控制信息的流动,使得目标向量和参考向量能更好的交互,进而能得到具有更高层语义信息的表达。此外,门限卷积神经网络模型充分利用了外部知识,提取ConceptNet库的信息作为参考,有利于模型的推理和决策。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (2)
1.一种基于门限卷积神经网络的机器阅读理解方法,其特征在于,包括以下步骤:
S1:构建门限卷积神经网络模型,包括输入层、门限卷积层和答案层;其中,所述输入层用于编码目标文章,将编码的文章向量序列、问题向量序列和答案向量序列传送给所述门限卷积层;所述门限卷积层通过交互的方式产生具有高层语义信息的文章,问题,答案表达,并将这些表达传送给答案层;最后由所述答案层进行推理决策,做出预测;
步骤S1中,所述输入层利用多方位信息编码目标文章,计算每个单词的多个角度的特征表达,包括:词语嵌入、关系嵌入、词性标注和命名实体嵌入、特征嵌入;其中:
所述词语嵌入通过300维Glove词向量初始化词语嵌入矩阵,选择词频最高的10个单词对应的词向量进行微调,从而得到每个词对应的词语嵌入;
所述关系嵌入通过提取ConceptNet库中所有的关系并为每个提取出来的关系赋值一个随机初始化的10维向量,将关系嵌入变成一个二维矩阵,矩阵行数为ConceptNet库的关系总数,列数为10;对于目标文章每个单词,若在ConceptNet库中存在一条连接该单词和问题与答案中任一单词的边,那该单词的关系嵌入就是该边所对应的向量;
所述词性标注和命名实体嵌入先计算目标文章的每个单词的词性、所属的实体类型;然后将每个单词的词性训练为49个不同类型的词性标签,每个初始化为10维向量;最后将每个单词所属的实体类型训练为18个不同的标签,每个初始化为8维向量;
所述特征嵌入包括:对数词频特征、词语共现特征、词语模糊匹配特征;所述对数词频特征为基于英语维基百科统计每个单词的词频,取其对数作为该单词的对数词频特征;所述词语共现特征是一个二元特征,若一个单词同时出现在文章、问题和答案中,该单词就具备词语共现特征;所述词语模糊匹配特征仅需要部分匹配即可;
步骤S1中,所述门限卷积层包括门限机制模块,该模块的具体计算公式为:
gi=relu(wi:i+k*wg+Vgvg+bg);
oi=tanh(wi:i+k*wo+bo);
ci=gi·oi;
其中,*为卷积操作;wi:ik为被卷积的文章向量、问题向量或答案向量;
wg和wo为卷积核;vg为参考向量;Vg和bg分别为线性变换参数和偏置参数;oi为对文本向量经过卷积后得到的特性映射;gi为结合参考向量;ci作为实际输出的比值,即为控制信息流动的门控;通过所述门限机制模块的一维卷积,门限卷积神经网络模型对文章、问题、答案进行交互,产生高层语义信息表达;
所述门限卷积层还包括最大池化模块和自注意力机制;所述门限卷积神经网络模型对文章、问题、答案的交互具体包括以下步骤:
S21:利用普通卷积核为1和3的卷积网络对问题向量序列进行卷积并通过最大池化模块进行池化处理,得到一个表征问题语意信息的向量;
S22:将表征问题语意信息的向量作为参考向量,结合卷积核为3、4、5的一维卷积和门限机制模块对答案向量序列进行运算操作,并通过最大池化模块进行池化处理,得到一个表征答案语意信息的向量;
S23:将表征问题和答案语意信息的向量作为参考向量,结合卷积核为3、4、5的一维卷积和门限机制模块对文章向量序列进行运算操作,然后利用自注意力机制将目标文章文本每个单词的向量经过线性变换转化为一个标量,用softmax函数将得到的标量转化为对应的概率,即每个单词的权重,最后对这些单词向量加权求和,得到一个表征文章语义信息的向量;
S2:确定目标文章,导入门限卷积神经网络模型中进行机器阅读理解,导出预测结果。
2.根据权利要求1所述的一种基于门限卷积神经网络的机器阅读理解方法,其特征在于,所述答案层将具有高层语义信息的文章、问题、答案表达串联起来,进行进
一步建模,最终做出预测,具体采用双线性交互,具体计算公式为:
y=σ(cpW3cA+cQW4cA);
其中,cp,cQ,cA分别代表具有高层语义信息的文章、问题、答案表达;y是相应的候选答案的预测分数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811308503.XA CN109460553B (zh) | 2018-11-05 | 2018-11-05 | 一种基于门限卷积神经网络的机器阅读理解方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811308503.XA CN109460553B (zh) | 2018-11-05 | 2018-11-05 | 一种基于门限卷积神经网络的机器阅读理解方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109460553A CN109460553A (zh) | 2019-03-12 |
CN109460553B true CN109460553B (zh) | 2023-05-16 |
Family
ID=65609452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811308503.XA Active CN109460553B (zh) | 2018-11-05 | 2018-11-05 | 一种基于门限卷积神经网络的机器阅读理解方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109460553B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11544259B2 (en) * | 2018-11-29 | 2023-01-03 | Koninklijke Philips N.V. | CRF-based span prediction for fine machine learning comprehension |
CN110096698B (zh) * | 2019-03-20 | 2020-09-29 | 中国地质大学(武汉) | 一种考虑主题的机器阅读理解模型生成方法与系统 |
CN110134946B (zh) * | 2019-04-15 | 2023-04-18 | 深圳智能思创科技有限公司 | 一种针对复杂数据的机器阅读理解方法 |
CN110222144B (zh) * | 2019-04-17 | 2023-03-28 | 深圳壹账通智能科技有限公司 | 文本内容提取方法、装置、电子设备及存储介质 |
CN110688491B (zh) * | 2019-09-25 | 2022-05-10 | 暨南大学 | 基于深度学习的机器阅读理解方法、系统、设备及介质 |
CN110866098B (zh) * | 2019-10-29 | 2022-10-28 | 平安科技(深圳)有限公司 | 基于transformer和lstm的机器阅读方法、装置及可读存储介质 |
CN111027327B (zh) * | 2019-10-29 | 2022-09-06 | 平安科技(深圳)有限公司 | 机器阅读理解方法、设备、存储介质及装置 |
CN111414762A (zh) * | 2020-02-19 | 2020-07-14 | 重庆邮电大学 | 基于dcu编码和自注意力机制的机器阅读理解方法 |
CN111950701B (zh) * | 2020-07-13 | 2022-09-02 | 中国科学技术大学 | 一种融合公式信息的数学题求解方法及系统 |
CN112183085A (zh) * | 2020-09-11 | 2021-01-05 | 杭州远传新业科技有限公司 | 机器阅读理解方法、装置、电子设备及计算机存储介质 |
CN112487171A (zh) * | 2020-12-15 | 2021-03-12 | 中国人民解放军国防科技大学 | 一种开放域下的事件抽取系统和方法 |
CN112818128B (zh) * | 2021-01-21 | 2022-08-09 | 上海电力大学 | 一种基于知识图谱增益的机器阅读理解系统 |
CN113190659B (zh) * | 2021-06-29 | 2021-08-27 | 中南大学 | 基于多任务联合训练的文言文机器阅读理解方法 |
CN116432107A (zh) * | 2023-05-30 | 2023-07-14 | 江苏大学 | 一种细粒度情感分类方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10643120B2 (en) * | 2016-11-15 | 2020-05-05 | International Business Machines Corporation | Joint learning of local and global features for entity linking via neural networks |
CN107578106B (zh) * | 2017-09-18 | 2020-03-24 | 中国科学技术大学 | 一种融合单词语义知识的神经网络自然语言推理方法 |
CN110134946B (zh) * | 2019-04-15 | 2023-04-18 | 深圳智能思创科技有限公司 | 一种针对复杂数据的机器阅读理解方法 |
-
2018
- 2018-11-05 CN CN201811308503.XA patent/CN109460553B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109460553A (zh) | 2019-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109460553B (zh) | 一种基于门限卷积神经网络的机器阅读理解方法 | |
CN110188358B (zh) | 自然语言处理模型的训练方法及装置 | |
CN111368996B (zh) | 可传递自然语言表示的重新训练投影网络 | |
Lu et al. | Brain intelligence: go beyond artificial intelligence | |
CN107145483B (zh) | 一种基于嵌入式表示的自适应中文分词方法 | |
Oyedotun et al. | Deep learning in vision-based static hand gesture recognition | |
CN110674305B (zh) | 一种基于深层特征融合模型的商品信息分类方法 | |
Chen | Deep learning and practice with mindspore | |
Nguyen et al. | EO-CNN: an enhanced CNN model trained by equilibrium optimization for traffic transportation prediction | |
CN108830287A (zh) | 基于残差连接的Inception网络结合多层GRU的中文图像语义描述方法 | |
CN110532377A (zh) | 一种基于对抗训练和对抗学习网络的半监督文本分类方法 | |
Quilodrán-Casas et al. | Digital twins based on bidirectional LSTM and GAN for modelling the COVID-19 pandemic | |
CN107836000A (zh) | 用于语言建模和预测的改进的人工神经网络 | |
CN106126507A (zh) | 一种基于字符编码的深度神经翻译方法及系统 | |
CN107145484A (zh) | 一种基于隐多粒度局部特征的中文分词方法 | |
CN114860893B (zh) | 基于多模态数据融合与强化学习的智能决策方法及装置 | |
Smith et al. | Astronomia ex machina: a history, primer and outlook on neural networks in astronomy | |
CN113392210A (zh) | 文本分类方法、装置、电子设备及存储介质 | |
CN112527966B (zh) | 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法 | |
CN112733866A (zh) | 一种提高可控图像文本描述正确性的网络构建方法 | |
Chi et al. | Enhancing joint entity and relation extraction with language modeling and hierarchical attention | |
CN113887836B (zh) | 一种融合事件环境信息的叙述性事件预测方法 | |
Zhong et al. | Face expression recognition based on NGO-BILSTM model | |
Harikrishnan et al. | Handwritten digit recognition with feed-forward multi-layer perceptron and convolutional neural network architectures | |
CN116341564A (zh) | 基于语义理解的问题推理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |