CN111241849A - 一种文本语义分析方法及系统 - Google Patents

一种文本语义分析方法及系统 Download PDF

Info

Publication number
CN111241849A
CN111241849A CN202010070024.XA CN202010070024A CN111241849A CN 111241849 A CN111241849 A CN 111241849A CN 202010070024 A CN202010070024 A CN 202010070024A CN 111241849 A CN111241849 A CN 111241849A
Authority
CN
China
Prior art keywords
text
vector
network structure
convolution
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010070024.XA
Other languages
English (en)
Inventor
胡顺仁
马宇航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Technology
Original Assignee
Chongqing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Technology filed Critical Chongqing University of Technology
Priority to CN202010070024.XA priority Critical patent/CN111241849A/zh
Publication of CN111241849A publication Critical patent/CN111241849A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供了一种文本语义分析方法及系统,包括:提取表示文本语义的文本向量,然后将文本向量输入到基于卷积神经网络包含有TextCNN与FastCNN中的网络结构进行特征提取。通过在TextCNN增加卷积核的种类或数量,增加了该网络结构的宽度,使得卷积层的特征提取能力大大增强,采用类似于“残差神经网络结构”的连接方式,使得卷积层输出的第一向量与被FastCNN网络结构压缩的文本向量联结形成第二向量,第二向量经过全连接层传输至输出层,得到文本向量分类各类别的概率。使得从文本语义提取到的初始文本向量通过TextCNN的卷积池化非线性处理与FastCNN的线性处理等筛选方式映射为一系列隐性文本向量,实现了更加高效且精准地获取到文本向量的分类结果。

Description

一种文本语义分析方法及系统
技术领域
本发明涉及计算机人工智能的技术领域,尤其涉及一种文本语义分析方法及系统。
背景技术
人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学,也是计算机科学的一个分支,它企图了解智能思维模式的实质,并生产出一种新的能与人类思维模式相近,且同样能做出相应反应的智能机器。该领域的研究方向包括机器人、语言识别、图像识别和自然语言处理等,其中,自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。市场上的众多APP软件都会向用户终端主动推送一些文本语义相关的新闻。但是推送的内容,一些用户可能对此不感兴趣,长时间地被迫接受不感兴趣的新闻内容,可能会影响到用户的使用体验,因此需要通过人工智能的方法,对推送内容进行筛选,但是一般的推送有效内容信息的效率并不高。
目前,在人工智能领域的自然语言筛选方面以卷积神经网络为代表的深度学习更为突出,通过卷积神经网络能以更高的效率提取出更加优化的隐藏特征,用于反映自然语言文本中所包含的语义信息。
因此,有必要开发一种文本语义分析方法及系统。
发明内容
有鉴于此,本发明的目的在于提供一种文本语义分析方法及系统,更加高效地解决在精准提取有效文本向量的技术问题。
第一方面,本发明提供了一种文本语义分析方法,包括:提取表示所述文本语义的文本向量;将所述文本向量输入到网络结构中,其中,所述网络结构包括TextCNN网络结构与FastCNN网络结构,基于卷积神经网络对文本向量进行特征提取;获取所述网络结构输出的文本特征向量。
进一步地,将所述文本向量输入到所述网络结构中,具体步骤包括:将提取到的表示所述文本语义的文本向量输入至四种不同类型的卷积核中,在卷积层进行卷积处理;当提取到的所述文本语义的文本向量在卷积层完成卷积处理后,通过Chunk-Maxpooling在池化层进行池化处理,得到四类隐形特征矩阵;在得到所述四类隐形特征矩阵后,通过Flatten层将四类隐形特征矩阵展平为一维向量,通过Concatenate层后拼接为第一向量。
进一步地,所述四种不同类型的卷积核包括:5行一维卷积窗口、4行一维卷积窗口、3行一维卷积窗口和2行一维卷积窗口,其中,每种一维卷积窗口上的卷积核数量为三位数的数量级。
进一步地,所述第一向量与被所述FastCNN网络结构压缩的文本向量联结形成第二向量,所述第二向量经过全连接层传输至输出层,得到所述网络结构输出的文本特征向量。
进一步地,所述文本特征向量包括文本向量分类各类别的概率。
第二方面,本发明还提供了一种文本语义分析系统,所述文本语义分析系统包括:提取单元,用于提取表示所述文本语义的文本向量;输入单元,用于将所述文本向量输入到网络结构中,其中,所述网络结构包括TextCNN网络结构与FastCNN网络结构,基于卷积神经网络对文本向量进行特征提取;获取单元,用于获取所述网络结构输出的文本特征向量。
进一步地,当所述文本向量输入到所述网络结构中时,所述网络结构包括:卷积处理模块,将提取到的表示所述文本语义的文本向量输入至若干个四种不同类型的卷积核中,在卷积层进行卷积处理;池化处理模块,是当提取到的表示所述文本语义的文本向量在卷积层完成卷积处理后,通过Chunk-Maxpooling在池化层进行池化处理,得到四类隐形特征矩阵;展平模块,在得到所述四类隐形特征矩阵后,通过Flatten层将四类隐形特征矩阵展平为一维向量,通过Concatenate层后拼接为第一向量。
第三方面,本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行任一项所述的文本语义分析系统。
本发明带来了以下有益效果:
一种文本语义分析方法,首先提取文本语义的文本向量,然后将文本向量输入到基于卷积神经网络的包含有TextCNN与FastCNN中的网络结构进行特征提取,最后得到所述网络结构输出的的文本特征向量。通过在TextCNN增加卷积核的种类或数量,增加了该网络结构的宽度,使得卷积层的特征提取能力大大增强,还通过采用类似于“残差神经网络结构”,卷积输出的第一向量与被FastCNN网络结构压缩的所述文本向量联结形成第二向量,该第二向量经过全连接层传输至输出层,得到文本向量分类各类别的概率。使得从文本语义提取到的初始文本向量通过TextCNN的卷积池化非线性与FastCNN的线性处理等筛选方式映射为一系列隐性文本向量,实现了更加高效且精准地获取到输出的文本特征向量的文本向量的分类结果。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
图1为本发明提供的一种文本语义分析方法的流程图;
图2为本发明提供的一种文本语义分析方法的示意图;
图3位本发明提供的一种“残差神经网络结构”的示意图;
图4为本发明提供的一种TextCNN网络结构的文本语义分析系统的示意图;
图中:301-提取单元;
302-输入单元、3021-卷积处理模块、3022-池化处理模块、3023-展平模块、
303-获取单元。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一:
如图1所示,一种文本语义分析方法,具体步骤包括:
步骤S1,提取表示所述文本语义的文本向量;
步骤S2,将所述文本向量输入到网络结构中,其中,所述网络结构包括TextCNN网络结构与FastCNN网络结构,基于卷积神经网络对文本向量进行特征提取;
步骤S3,获取所述网络结构输出的文本特征向量。
在本实施例中,所述文本语义的文本向量是指文本数据或其他新闻媒体中包含的一些词汇,按照一定理论计算出各个文本向量的重要性,并据此保留重要的特征,同时舍去不太重要的文本向量。即,先对文本语义做一个基本的筛选,从而提高训练效率,但是为了使获取的输出向量具有更强的表达能力,将提取到的该文本语义的文本向量输入至包含有TextCNN与FastCNN组合成的网络结构中进行特征提取,最终获取到该网络结构输出的文本特征向量。
需要说明的是,以卷积神经网络为代表的深度学习能够在各种问题上取得优于传统机器学习方法的关键,在于卷积神经网络网络能以更高的效率提取出更优的隐藏特征,用于反应文本所包含的语义信息。即,将初始特征通过网络结构中的卷积和池化处理后,非线性映射为一系列隐性特征,从而实现了更为高效精准特征提取。尽管基于卷积神经网络在可解释性上较弱,但宏观角度上可以认为,卷积神经网络上可以更注重于提取数据蕴含的局部相关性。
当所述文本向量输入到所述网络结构中时,具体步骤包括:
步骤S21,将提取到的表示该文本语义的文本向量输入至四种不同类型的卷积核中,在卷积层进行卷积处理,其中,四种不同类型的卷积核包括:5行一维卷积窗口、4行一维卷积窗口、3行一维卷积窗口和2行一维卷积窗口,每种一维卷积窗口上的卷积核数量达到上百个。
步骤S22,当提取到的文本语义的文本向量在卷积层完成卷积处理之后,通过Chunk-Maxpooling在池化层进行池化处理,得到四类隐形特征矩阵。
步骤S23,在得到所述四类隐形特征矩阵之后,通过Flatten层将四类隐形特征矩阵展平为一维向量,通过Concatenate层后拼接为第一向量。
以上步骤可通过如图2所示的具体实施例得以展示,其中,n*d的词向量矩阵是由文本语义相关词汇转化而成的矩阵向量,例如,图中所示的文本语义“古代三国之间如何保持和平,并承认东汉王朝的存在”,其中,每个词汇都对应一个行向量,每个行向量由d维实数构成。首先是将示例中的一句文本语义数据转化为类似图像的稠密矩阵(即,提取到该文本语义的文本向量),然后将该稠密矩阵传输至卷积层得到多个5*d卷积核、4*d卷积核、3*d卷积核、2*d卷积核的卷积结果,再经过Relu激活函数输出,分别得到多个n-4维向量、n-3维向量、n-2维向量、n-1维向量,以此类推。再通过Chunk-Maxpooling,以chunk_size=2为例,在每两个行向量上的各个维度选取最大值作为新向量在该维度的值,得到四类隐性特征矩阵。然后再将四类隐形特征矩阵通过Flatten层将这些矩阵展平为一维向量并通过Concatenate层后拼接为第一向量。所述第一向量与被所述FastCNN网络结构压缩的文本向量通过类似于“残差神经网络结构”的联结方式形成第二向量,所述第二向量经过全连接层传输至输出层,得到所述网络结构输出的文本特征向量。当第二向量经过全连接层传输至输出层,得到该网络结构输出的文本特征向量,其中,该网络结构的输出文本向量包括文本向量分类各类别的概率。
需要说明的是,由于chunk_size的数值越大,后续全连接层的参数就越少,虽然计算效率就越高,但损失的信息也会因此增多;反之当chunk_size的数值越小,后续全连接层的参数就越多,计算效率就越低,但损失的信息就相对减少。且在该网络层采用了Word2Vec预训练词向量,解放了大量运算资源,因此选用了chunk_size为2,用于提取尽可能多的文本向量。在针对卷积神经网络结构上的改进,除了上述所提及的大量增加卷积核的数量之外,还可以通过将网络拓展至更深层,增加网络层数,但是由于能够提取到的文本语义的文本向量数量量较小,网络深度的增加会加深模型学习的过拟合。由于对于网络层数地增加存在一个数量级的问题,过多反而不好,所以在本实施例中,选择采用增加卷积核数量至上百个的方式,用来拓宽网络层的宽度,使得卷积层的特征提取能力大大增强,卷积层的输出向量也大大增加,避免出现因卷积神经网络结构模型的层数、深度和参数地快速上涨,从而导致模型的学习能力过强,出现过拟合的现象。
具体地,上述提及的“残差神经网络”联结方式的思路是以三层卷积为单位增加层数,如图3所示,将单位的输入数据与卷积输出直接相加作为下一单元的输入,英文名称为“short-cutconnection”。但“残差神经网络”及FastCNN模型则采用直接将文本向量经过Flatten层展平后与卷积输出的第一向量联结,则导致参数太多,失去了卷积文本向量提取的意义。当FastCNN在对该文本向量做了一定程度的压缩后,再与卷积输出的第一向量联结在网络的输出侧形成第二向量。即,FastCNN将提取到的文本向量进行压缩后与经基于卷积神经网络TextCNN网络结构卷积处理后输出的第一向量拼接为第二向量,该第二向量经过全连接层,再连接至输出层,在输出层得到了文本向量分类各类别的概率。
实施例二:
如图4所示,一种文本语义分析系统,该系统包括:提取单元301、输入单元302和获取单元303,其中,提取单元301用于提取表示所述文本语义的文本向量;输入单元302,用于将所述文本向量输入到网络结构中,其中,所述网络结构包括TextCNN网络结构与FastCNN网络结构,基于卷积神经网络对文本向量进行特征提取;获取单元303,用于获取所述TextCNN网络结构输出的文本特征向量。
当所述文本向量输入到TextCNN网络结构中时,所述网络结构包括:卷积处理模块3021、池化处理模块3022与展平模块3023,其中,卷积处理模块3021用于将提取到的表示所述文本语义的文本向量输入至若干个四种不同类型的卷积核中,在卷积层进行卷积处理;池化处理模块3022是指当提取到的所述文本语义的文本向量在卷积层完成卷积处理之后,通过Chunk-Maxpooling在池化层进行池化处理,得到四类隐形特征矩阵;展平模块3023是指在得到所述四类隐形特征矩阵之后,通过Flatten层将四类隐形特征矩阵展平为一维向量,通过Concatenate层后拼接为第一向量。
需要说明的是,在该网络层选用若干个四种不同类型的卷积核是因为在卷积层的卷积核之间的窗口宽度是不同的,不同维度的卷积层在于卷积神经网络存在“感受野”的问题。如名字所说,“感受野”是指网络能感知到的视野大小,其定义是每一层输出结果上的一点在原图上所映射的区域的大小,类似于网络的眼睛。将CNN应用于图像处理领域时,“感受野”此概念第一次被提出。在文本处理领域,不同的卷积核大小代表网络可能会探知到更多不同种类的信息,找到更多种类的隐性特征。所以,TextCNN网络结构中设计了多种维度的卷积窗口,分别有2行、3行、4行、5行的一维卷积窗口,但在每种一维卷积窗口数量上设有若干个卷积核,为增加卷积层的输出效率,卷积核的数量增加至上百个,用以拓展网络的宽度。
本发明所提供的一种文本语义分析系统还包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。

Claims (8)

1.一种文本语义分析方法,其特征在于,包括:
提取表示所述文本语义的文本向量;
将所述文本向量输入到网络结构中,其中,所述网络结构包括TextCNN网络结构与FastCNN网络结构,基于卷积神经网络对文本向量进行特征提取;
获取所述网络结构输出的文本特征向量。
2.根据权利要求1所述的文本语义分析方法,其特征在于,将所述文本向量输入到所述网络结构中,具体步骤包括:
将提取到的表示所述文本语义的文本向量输入至四种不同类型的卷积核中,在卷积层进行卷积处理;
当提取到的所述文本语义的文本向量在卷积层完成卷积处理后,通过Chunk-Maxpooling在池化层进行池化处理,得到四类隐形特征矩阵;
在得到所述四类隐形特征矩阵后,通过Flatten层将四类隐形特征矩阵展平为一维向量,通过Concatenate层后拼接为第一向量。
3.根据权利要求2所述的文本语义分析方法,其特征在于,所述四种不同类型的卷积核包括:5行一维卷积窗口、4行一维卷积窗口、3行一维卷积窗口和2行一维卷积窗口,其中,每种一维卷积窗口上的卷积核数量为三位数的数量级。
4.根据权利要求1或2所述的文本语义分析方法,其特征在于,所述第一向量与被所述FastCNN网络结构压缩的文本向量联结形成第二向量,所述第二向量经过全连接层传输至输出层,得到所述网络结构输出的文本特征向量。
5.根据权利要求4所述的文本语义分析方法,其特征在于,所述文本特征向量包括文本向量分类各类别的概率。
6.一种文本语义分析系统,其特征在于,所述文本语义分析系统包括:
提取单元,用于提取表示所述文本语义的文本向量;
输入单元,用于将所述文本向量输入到网络结构中,其中,所述网络结构包括TextCNN网络结构与FastCNN网络结构,基于卷积神经网络对文本向量进行特征提取;
获取单元,用于获取所述网络结构输出的文本特征向量。
7.根据权利要求6所述的文本语义分析系统,其特征在于,当所述文本向量输入到所述网络结构中时,所述网络结构包括:
卷积处理模块,将提取到的表示所述文本语义的文本向量输入至若干个四种不同类型的卷积核中,在卷积层进行卷积处理;
池化处理模块,是当提取到的表示所述文本语义的文本向量在卷积层完成卷积处理后,通过Chunk-Maxpooling在池化层进行池化处理,得到四类隐形特征矩阵;
展平模块,在得到所述四类隐形特征矩阵后,通过Flatten层将四类隐形特征矩阵展平为一维向量,通过Concatenate层后拼接为第一向量。
8.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器运行时执行上述权利要求6至7任一项所述的文本语义分析系统。
CN202010070024.XA 2020-01-21 2020-01-21 一种文本语义分析方法及系统 Pending CN111241849A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010070024.XA CN111241849A (zh) 2020-01-21 2020-01-21 一种文本语义分析方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010070024.XA CN111241849A (zh) 2020-01-21 2020-01-21 一种文本语义分析方法及系统

Publications (1)

Publication Number Publication Date
CN111241849A true CN111241849A (zh) 2020-06-05

Family

ID=70865442

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010070024.XA Pending CN111241849A (zh) 2020-01-21 2020-01-21 一种文本语义分析方法及系统

Country Status (1)

Country Link
CN (1) CN111241849A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112418354A (zh) * 2020-12-15 2021-02-26 江苏满运物流信息有限公司 货源信息分类方法、装置、电子设备、存储介质
CN112597764A (zh) * 2020-12-23 2021-04-02 青岛海尔科技有限公司 文本分类方法及装置、存储介质、电子装置
CN114020910A (zh) * 2021-11-03 2022-02-08 北京中科凡语科技有限公司 基于TextCNN的医疗文本特征提取方法及装置
CN115019235A (zh) * 2022-06-15 2022-09-06 天津市国瑞数码安全系统股份有限公司 一种场景划分和内容检测的方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109918507A (zh) * 2019-03-08 2019-06-21 北京工业大学 一种基于TextCNN改进的文本分类方法
CN110046353A (zh) * 2019-04-22 2019-07-23 重庆理工大学 一种基于多语言层次机制的方面级情感分析方法
CN110069252A (zh) * 2019-04-11 2019-07-30 浙江网新恒天软件有限公司 一种源代码文件多业务标签自动化分类方法
CN110489550A (zh) * 2019-07-16 2019-11-22 招联消费金融有限公司 基于组合神经网络的文本分类方法、装置和计算机设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109918507A (zh) * 2019-03-08 2019-06-21 北京工业大学 一种基于TextCNN改进的文本分类方法
CN110069252A (zh) * 2019-04-11 2019-07-30 浙江网新恒天软件有限公司 一种源代码文件多业务标签自动化分类方法
CN110046353A (zh) * 2019-04-22 2019-07-23 重庆理工大学 一种基于多语言层次机制的方面级情感分析方法
CN110489550A (zh) * 2019-07-16 2019-11-22 招联消费金融有限公司 基于组合神经网络的文本分类方法、装置和计算机设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XINDI WANG: "Incorporating Figure Captions and Descriptive Text into Mesh Term Indexing: A Deep Learning Approach", 《ELECTRONIC THESIS AND DISSERTATION REPOSITORY》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112418354A (zh) * 2020-12-15 2021-02-26 江苏满运物流信息有限公司 货源信息分类方法、装置、电子设备、存储介质
CN112418354B (zh) * 2020-12-15 2022-07-15 江苏满运物流信息有限公司 货源信息分类方法、装置、电子设备、存储介质
CN112597764A (zh) * 2020-12-23 2021-04-02 青岛海尔科技有限公司 文本分类方法及装置、存储介质、电子装置
CN112597764B (zh) * 2020-12-23 2023-07-25 青岛海尔科技有限公司 文本分类方法及装置、存储介质、电子装置
CN114020910A (zh) * 2021-11-03 2022-02-08 北京中科凡语科技有限公司 基于TextCNN的医疗文本特征提取方法及装置
CN115019235A (zh) * 2022-06-15 2022-09-06 天津市国瑞数码安全系统股份有限公司 一种场景划分和内容检测的方法和系统

Similar Documents

Publication Publication Date Title
CN111241849A (zh) 一种文本语义分析方法及系统
CN111554268A (zh) 基于语言模型的语言识别方法、文本分类方法和装置
CN111221944B (zh) 文本意图识别方法、装置、设备和存储介质
CN110837738B (zh) 相似问识别方法、装置、计算机设备及存储介质
WO2023134084A1 (zh) 多标签识别方法、装置、电子设备及存储介质
CN111553419B (zh) 一种图像识别方法、装置、设备以及可读存储介质
CN112580328A (zh) 事件信息的抽取方法及装置、存储介质、电子设备
CN112052687B (zh) 基于深度可分离卷积的语义特征处理方法、装置及介质
CN114330966A (zh) 一种风险预测方法、装置、设备以及可读存储介质
CN111159409A (zh) 基于人工智能的文本分类方法、装置、设备、介质
CN111625715A (zh) 信息提取方法、装置、电子设备及存储介质
CN111357051A (zh) 语音情感识别方法、智能装置和计算机可读存储介质
CN114332500A (zh) 图像处理模型训练方法、装置、计算机设备和存储介质
CN113806580A (zh) 基于层次语义结构的跨模态哈希检索方法
WO2021042895A1 (zh) 基于神经网络的验证码识别方法、系统及计算机设备
CN111339256A (zh) 用于文本处理的方法和装置
Li et al. Spatial-temporal dynamic hand gesture recognition via hybrid deep learning model
CN107506351B (zh) 一种基于字符卷积网络的推特语义相似性分析方法
US11914670B2 (en) Methods and systems for product quantization-based compression of a matrix
CN113743079A (zh) 一种基于共现实体交互图的文本相似度计算方法及装置
CN112749556B (zh) 多语言模型的训练方法和装置、存储介质和电子设备
CN113726730A (zh) 基于深度学习算法的dga域名检测方法及系统
CN110490876B (zh) 一种基于轻量级神经网络的图像分割方法
CN111553167A (zh) 文本类型识别方法和装置及存储介质
CN114491076B (zh) 基于领域知识图谱的数据增强方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200605

RJ01 Rejection of invention patent application after publication