CN110069778B - 中文融入嵌入词位置感知的商品情感分析方法 - Google Patents
中文融入嵌入词位置感知的商品情感分析方法 Download PDFInfo
- Publication number
- CN110069778B CN110069778B CN201910312096.8A CN201910312096A CN110069778B CN 110069778 B CN110069778 B CN 110069778B CN 201910312096 A CN201910312096 A CN 201910312096A CN 110069778 B CN110069778 B CN 110069778B
- Authority
- CN
- China
- Prior art keywords
- word
- vector
- emotion
- input
- words
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Abstract
本发明公开一种中文融入嵌入词位置感知的aspect级的商品情感分析方法,主要包括:输入字嵌入向量采用Laplace概率密度函数进行位置权重加权,采用双向GRU神经网络对文档中所有句子的情感语义及句子间的语义关系进行编码,对词向量集合中的每个词向量获取其上下文的信息,得到隐藏层当前的隐状态;给隐藏层当前的隐状态的添加注意力机制,得到句向量的概率分布;根据句向量的概率分布,用全连接层与soft‑max函数判断情感类别。嵌入词向量时同时采用位置感知方法可以有效提高嵌入词的情感信息。采用双向GRU神经网络可以减少训练时间,进一步提升情感分析精确度。
Description
技术领域
本发明涉及一种中文融入嵌入词位置感知的aspect级的商品情感分析方法。
背景技术
近年来,情感分析技术目前被广泛地应用于各种互联网应用当中,例如目前比较热门的在线翻译,用户评价分析和用户观点挖掘等热门领域当中。如何快速准确地从互联网海量的评论信息中分析所包含的用户情感已经成为当前人工智能领域的热点。商品情感分析中基本的任务是用户对商品的情感倾向进行分类,其中主要是二元分类。
基于机器学习的情感分析方法在过去取得了不错的成果,然而,传统的机器学习的方法仅考虑文本中单词出现的频率或次数,而忽略了语法结构和上下文信息,这对情感分类的准确度影响较大。除此之外,传统的机器学习方法依赖于人工设计的特征,耗时费力。
由于互联网上数据的快速增长,基于神经网络的深度学习模型在图像和语音识别领域显示出卓越的性能,自然语言处理领域也逐渐开始使用深度学习的方法,并取得了良好的效果。在自然语言处理中,深度学习的方法首先将文本转化为一组向量系列表示,然后将该向量序列输入神经网络模型提取特征,最后将特征输入分类器进行情感分类。
发明内容
本发明要解决的技术问题是:基于循环神经网络的特征提取方法将输入编码为一个定长的特征,但这种方法也没有考虑到用户评论中不同部分对评论的最终情感的贡献程度不同,可能会导致面对较长的用户评论时会降低情感分析的准确度。
为了解决上述技术问题,本发明的技术方案是提供了一种中文融入嵌入词位置感知的商品情感分析方法,其特征在于,包括如下步骤:
步骤一、载入中文商品评论语料库,并将语料库按比例进行分割,分为训练机和测试集;
步骤二、利用jieba分词工具对训练集和测试集分别进行分词处理;
步骤三、利用glove训练语料的词语向量,输入字嵌入向量由位置权重加权,使用位置权重来强调在生成句子向量的过程中对方面词的相关情感信息;
步骤四、利用双向GRU神经网络分别从词嵌入得到句子级情感向量表示,双向GRU神经网络包括采用正向学习的GRUL及采用反向学习的GRUR,GRUL的输入是前面的上下文信息加上目标方面词,GRUR的输入是后面的上下文信息加上方面词,从左往右运行GRUL,从右往左运行GRUR,分别得到对词向量集合中的每个词向量获取其上下文的信息,得到隐藏层当前的隐状态HL和HR;
步骤五、给隐藏层当前的隐状态HL和HR添加注意力机制,通过自动加权的方式决定输入文本需要关注的部分,分别得到句向量的概率分布:通过隐藏状态和方面词语义向量之间的感情语义相似性来计算注意权重,方位词语义向量包含方面词的语义信息,因此,与方面词相关的词越多,它占据的权重就越大;
步骤六、由注意力机制生成加权隐藏状态表示YL和YR,两个加权隐状态组合得到最终的句子向量表示;
步骤七、最终的句子向量经过soft-max函数判断情感类别的概率,得到情感结果。
优选地,步骤三中,使用拉普拉斯概率密度函数来获得所述位置权重:
对应于输入字嵌入向量e,e={e1,e2,...,ei,...en}的位置权重λ定义为:λ=[λ1,λ2,...,λi,...,λn],则有:
式中,i是句子中单词的索引;a是方面单词的索引,为单词的不同位置生成不同的输入位置权重;αl和βl是方面词左侧的上下文词的参数,而αr和βr是右侧的上下文词的参数;αm是方面词;
然后,输入位置权重被合并到输入字嵌入向量,如下式所示:
Ei=λi×ei
式中,Ei是由输入位置权重加权的第i个输入字的第i个新单词嵌入向量。
本发明主要是glove词向量嵌入位置感知,利用Laplace概率密度函数进行位置权重加权,输入字嵌入向量采用高斯概率密度函数进行位置权重加权,采用双向GRU获取其上下文的信息,并结合注意力机制进一步提高情感分类的准确率。
附图说明
图1为本发明实施的流程算法;
图2为本发明实施深度神经网络模型。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
本发明提供了一种中文融入嵌入词位置感知的aspect级的商品情感分析方法包括如下步骤:
步骤一:载入中文商品评论语料库,并将语料库按比例进行分割,分为训练机和测试集;
步骤二:利用jieba分词工具对训练集和测试集分别进行分词处理;
步骤三:利用glove训练语料的词语向量,输入字嵌入向量由位置权重加权。直接将词语向量输入到模型中并生成句子向量的表示将包含与方面词无关的信息。因此,本发明使用位置权重来强调在生成句子向量的过程中对方面词的相关情感信息。
最大程度地表达方面词的情感的关键词总是接近方面词本身。越接近方面词,它们可能包含的相关性信息越多。进一步注意到方面词的关键词总是只位于方面词的一侧。直接将单词向量输入到模型中并生成句子向量的表示将包含与方面单词无关的信息。因此,本发明使用位置权重来强调在生成句子向量的过程中对方面词的相关情感信息。与此同时,与方面词无关的词也相应地被削弱了。鉴于位置信息有利于获得更好的结果,输入字嵌入向量由位置权重加权。由于本发明期望远离方面词的词的权重下降得更快,这有助于防止与方面无关的信息的干扰,本发明使用拉普拉斯概率密度函数来获得位置权重。
对应于输入字嵌入向量e,e={e1,e2,...,ei,...en}的位置权重λ定义为:λ=[λ1,λ2,...,λi,...,λn],则有:
式中,i是句子中单词的索引;a是方面单词的索引,为单词的不同位置生成不同的输入位置权重;αl和βl是方面词左侧的上下文词的参数,而αr和βr是右侧的上下文词的参数;αm是方面词,所有这些都是用模型训练的。例如,如果左上下文单词的输入位置权重大于训练时的右侧,则表示左上下文单词对方面单词更重要。
然后,输入位置权重被合并到输入字嵌入向量,如下式所示:
Ei=λi×ei
式中,Ei是由输入位置权重加权的第i个输入字的第i个新单词嵌入向量。
步骤四:利用双向GRU神经网络分别从词嵌入得到句子级情感向量表示,双向GRU神经网络包括采用正向学习的GRUL及采用反向学习的GRUR,GRUL的输入是前面的上下文信息加上目标方面词,GRUR的输入是后面的上下文信息加上方面词,从左往右运行GRUL,从右往左运行GRUR,分别得到对词向量集合中的每个词向量获取其上下文的信息,得到隐藏层当前的隐状态HL和HR。
GRU(Gated Recurrent Unit)是LSTM的一种变体,它对LSTM做了很多简化。循环神经网络会以不受控制的方式在每个单位步长内重写自己的记忆,而LSTM有专门的学习机制能够在保持先前的状态的同时,记忆当前数据所输入的特征。LSTM神经网络模型包含有三个门:输入门,遗忘门和输出门。遗忘门用于决定保留多少个上一时刻的单元状态到当前时刻的单元状态;输入门用于决定保留多少个当前时刻的输入到当前时刻的单元状态;输出门用于决定当前时刻的单元状态有多少输出。GRU神经网络则是LSTM的简化版,相比于LSTM来说只有两个门:更新门和重置门。更新门用于控制前一时刻的状态信息被带入到当前状态中的程度,更新门的值越大说明前一时刻的状态信息被带入的越多;重置门用于控制忽略前一时刻的状态信息的程度,重置门越小说明忽略的信息越多。GRU神经网络的参数比LSTM减少了1/3,不容易产生过拟合,而且在收敛时间和需要的迭代次数上,GRU神经网络更胜一筹.GRU可以在保持LSTM效果的同时,使得模型的结构更加简单。GRU神经网络向前传播公式如下:
rt=σ(Wr·[ht-1,xt])
zt=σ(Wz·[ht-1,xt])
yt=σ(W0·ht)
xt表示为当前时刻的输入;ht-1表示上一时刻的输出;Wr、Wz、W0为相应的权重矩阵;zt和rt分别为更新门和重置门;σ表示sigmoid激活函数;/>表示更新时刻的输出;ht表示当前时刻的输出;yt表示输出结果。
由于循环神经网络模型具有遗忘性,一般来说,最后一个状态所包含的信息是有损的,而且序列越靠前信息损失得越严重。对于包含有许多序列建模任务而言,获取未来以及过去的背景信息对提高模型的准确率来说是有意义的。所以,如果同时训练两个GRU神经网络,一个采用正向学习,一个采用反向学习,将正向和反向的最后一个状态对应的向量连接后得到的向量作为最后的结果,则该模型便能同时利用过去和未来的所有信息。本发明使用双向的GRU神经网络模型。如图2所示,网络包含左右两个序列上下文的两个子网络,分别是前向和后向传递。
步骤五:给隐藏层当前的隐状态HL和HR添加注意力机制,通过自动加权的方式决定输入文发明需要关注的部分,分别得到句向量的概率分布。具体地,通过隐藏状态和方面词语义向量之间的感情语义相似性来计算注意权重,方位词语义向量包含方面词的语义信息。因此,与方面词相关的词越多,它占据的权重就越大。引入注意力机制,给不同的方面词赋予不同的权重,从而摒弃一些噪音数据,以此来提高分类器的性能。
步骤六:由注意力机制生成加权隐藏状态表示YL和YR,两个加权隐状态组合得到最终的句子向量表示。
步骤七:最终的句子向量经过soft-max函数判断情感类别的概率,得到情感结果。
Claims (1)
1.一种中文融入嵌入词位置感知的商品情感分析方法,其特征在于,包括如下步骤:
步骤一、载入中文商品评论语料库,并将语料库按比例进行分割,分为训练机和测试集;
步骤二、利用jieba分词工具对训练集和测试集分别进行分词处理;
步骤三、利用glove训练语料的词语向量,输入字嵌入向量由位置权重加权,使用位置权重来强调在生成句子向量的过程中对方面词的相关情感信息,其中,使用拉普拉斯概率密度函数来获得所述位置权重:
对应于输入字嵌入向量e,e={e1,e2,...,ei,...en}的位置权重λ定义为:λ=[λ1,λ2,...,λi,...,λn],则有:
式中,i是句子中单词的索引;a是方面单词的索引,为单词的不同位置生成不同的输入位置权重;αl和βl是方面词左侧的上下文词的参数,而αr和βr是右侧的上下文词的参数;αm是方面词;
然后,输入位置权重被合并到输入字嵌入向量,如下式所示:
Ei=λi×ei
式中,Ei是由输入位置权重加权的第i个输入字的第i个新单词嵌入向量
步骤四、利用双向GRU神经网络分别从词嵌入得到句子级情感向量表示,双向GRU神经网络包括采用正向学习的GRUL及采用反向学习的GRUR,GRUL的输入是前面的上下文信息加上目标方面词,GRUR的输入是后面的上下文信息加上方面词,从左往右运行GRUL,从右往左运行GRUR,分别得到对词向量集合中的每个词向量获取其上下文的信息,得到隐藏层当前的隐状态HL和HR;
步骤五、给隐藏层当前的隐状态HL和HR添加注意力机制,通过自动加权的方式决定输入文本需要关注的部分,分别得到句向量的概率分布:通过隐藏状态和方面词语义向量之间的感情语义相似性来计算注意权重,方位词语义向量包含方面词的语义信息,因此,与方面词相关的词越多,它占据的权重就越大;
步骤六、由注意力机制生成加权隐藏状态表示YL和YR,两个加权隐状态组合得到最终的句子向量表示;
步骤七、最终的句子向量经过soft-max函数判断情感类别的概率,得到情感结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910312096.8A CN110069778B (zh) | 2019-04-18 | 2019-04-18 | 中文融入嵌入词位置感知的商品情感分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910312096.8A CN110069778B (zh) | 2019-04-18 | 2019-04-18 | 中文融入嵌入词位置感知的商品情感分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110069778A CN110069778A (zh) | 2019-07-30 |
CN110069778B true CN110069778B (zh) | 2023-06-02 |
Family
ID=67368018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910312096.8A Active CN110069778B (zh) | 2019-04-18 | 2019-04-18 | 中文融入嵌入词位置感知的商品情感分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110069778B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110442723B (zh) * | 2019-08-14 | 2020-05-15 | 山东大学 | 一种基于多步判别的Co-Attention模型用于多标签文本分类的方法 |
CN110717334B (zh) * | 2019-09-10 | 2023-10-10 | 上海理工大学 | 基于bert模型和双通道注意力的文本情感分析方法 |
CN110826336B (zh) * | 2019-09-18 | 2020-11-06 | 华南师范大学 | 一种情感分类方法、系统、存储介质及设备 |
CN111144130A (zh) * | 2019-12-26 | 2020-05-12 | 辽宁工程技术大学 | 一种基于上下文感知的混合神经网络的细粒度情感分类方法 |
CN112711618A (zh) * | 2019-12-27 | 2021-04-27 | 山东鲁能软件技术有限公司 | 一种客户诉求情感分析方法及装置 |
CN111368524A (zh) * | 2020-03-05 | 2020-07-03 | 昆明理工大学 | 一种基于自注意力双向gru和svm的微博观点句识别方法 |
CN111683294B (zh) * | 2020-05-08 | 2021-05-07 | 华东师范大学 | 一种信息抽取的弹幕评论推荐方法 |
CN111523301B (zh) * | 2020-06-05 | 2023-05-05 | 泰康保险集团股份有限公司 | 合同文档合规性检查方法及装置 |
CN112527966B (zh) * | 2020-12-18 | 2022-09-20 | 重庆邮电大学 | 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法 |
CN113032567B (zh) * | 2021-03-29 | 2022-03-29 | 广东众聚人工智能科技有限公司 | 位置嵌入解释方法、装置、计算机设备及存储介质 |
CN113220887B (zh) * | 2021-05-31 | 2022-03-15 | 华南师范大学 | 一种利用目标知识增强模型的情感分类方法 |
CN113254592B (zh) * | 2021-06-17 | 2021-10-22 | 成都晓多科技有限公司 | 基于门机制的多级注意力模型的评论方面检测方法及系统 |
CN113435211B (zh) * | 2021-07-19 | 2022-07-19 | 北京理工大学 | 一种结合外部知识的文本隐式情感分析方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106649260A (zh) * | 2016-10-19 | 2017-05-10 | 中国计量大学 | 基于评论文本挖掘的产品特征结构树构建方法 |
CN108170681A (zh) * | 2018-01-15 | 2018-06-15 | 中南大学 | 文本情感分析方法、系统及计算机可读存储介质 |
CN109472031A (zh) * | 2018-11-09 | 2019-03-15 | 电子科技大学 | 一种基于双记忆注意力的方面级别情感分类模型及方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220231A (zh) * | 2016-03-22 | 2017-09-29 | 索尼公司 | 用于自然语言处理的电子设备和方法以及训练方法 |
-
2019
- 2019-04-18 CN CN201910312096.8A patent/CN110069778B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106649260A (zh) * | 2016-10-19 | 2017-05-10 | 中国计量大学 | 基于评论文本挖掘的产品特征结构树构建方法 |
CN108170681A (zh) * | 2018-01-15 | 2018-06-15 | 中南大学 | 文本情感分析方法、系统及计算机可读存储介质 |
CN109472031A (zh) * | 2018-11-09 | 2019-03-15 | 电子科技大学 | 一种基于双记忆注意力的方面级别情感分类模型及方法 |
Non-Patent Citations (1)
Title |
---|
基于深度学习的关联目标情感分析研究;蔡林森;《中国优秀硕士学位论文全文数据库信息科技辑》;20190115;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110069778A (zh) | 2019-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110069778B (zh) | 中文融入嵌入词位置感知的商品情感分析方法 | |
CN110083833B (zh) | 中文字词向量和方面词向量联合嵌入情感分析方法 | |
CN107609009B (zh) | 文本情感分析方法、装置、存储介质和计算机设备 | |
CN108875807B (zh) | 一种基于多注意力多尺度的图像描述方法 | |
CN109376242B (zh) | 基于循环神经网络变体和卷积神经网络的文本分类方法 | |
CN108416065B (zh) | 基于层级神经网络的图像-句子描述生成系统及方法 | |
CN112579778B (zh) | 基于多层次的特征注意力的方面级情感分类方法 | |
CN112560432B (zh) | 基于图注意力网络的文本情感分析方法 | |
CN110321563B (zh) | 基于混合监督模型的文本情感分析方法 | |
CN110390017B (zh) | 基于注意力门控卷积网络的目标情感分析方法及系统 | |
CN112163426A (zh) | 一种基于注意力机制与图长短时记忆神经网络结合的关系抽取方法 | |
CN109800434B (zh) | 基于眼动注意力的抽象文本标题生成方法 | |
CN111046668A (zh) | 多模态文物数据的命名实体识别方法与装置 | |
CN108829662A (zh) | 一种基于条件随机场结构化注意力网络的对话行为识别方法及系统 | |
CN112527966B (zh) | 基于Bi-GRU神经网络和自注意力机制的网络文本情感分析方法 | |
CN111985205A (zh) | 一种方面级情感分类模型 | |
CN110991290A (zh) | 基于语义指导与记忆机制的视频描述方法 | |
CN113435211A (zh) | 一种结合外部知识的文本隐式情感分析方法 | |
Wu et al. | Optimized deep learning framework for water distribution data-driven modeling | |
CN111477220A (zh) | 一种面向家居口语环境的神经网络语音识别方法及系统 | |
Zulqarnain et al. | An improved deep learning approach based on variant two-state gated recurrent unit and word embeddings for sentiment classification | |
CN117094291B (zh) | 基于智能写作的自动新闻生成系统 | |
CN112199503B (zh) | 一种基于特征增强的非平衡Bi-LSTM的中文文本分类方法 | |
CN112070139A (zh) | 基于bert与改进lstm的文本分类方法 | |
CN118170668A (zh) | 一种测试用例生成方法、装置、存储介质和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |