CN112328791A - 一种基于DiTextCNN的中文政务信息的文本分类方法 - Google Patents
一种基于DiTextCNN的中文政务信息的文本分类方法 Download PDFInfo
- Publication number
- CN112328791A CN112328791A CN202011238122.6A CN202011238122A CN112328791A CN 112328791 A CN112328791 A CN 112328791A CN 202011238122 A CN202011238122 A CN 202011238122A CN 112328791 A CN112328791 A CN 112328791A
- Authority
- CN
- China
- Prior art keywords
- ditextcnn
- chinese
- model
- text classification
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 239000013598 vector Substances 0.000 claims abstract description 20
- 238000011176 pooling Methods 0.000 claims abstract description 19
- 238000004364 calculation method Methods 0.000 claims abstract description 13
- 230000011218 segmentation Effects 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 6
- 102100033814 Alanine aminotransferase 2 Human genes 0.000 claims description 4
- 101710096000 Alanine aminotransferase 2 Proteins 0.000 claims description 4
- 230000007246 mechanism Effects 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 3
- 238000012886 linear function Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000009411 base construction Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000013486 operation strategy Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于DiTextCNN的中文政务信息的文本分类方法,该方法包括以下步骤:步骤1:使用中文分词工具将政务数据标题文本信息切分成若干个中文单词;步骤2:将文本信息中的各个中文单词依次通过预训练语言模型进行向量化处理,得到文本信息中的各个中文单词的词向量表示;步骤3:将中文单词的词向量输入DiTextCNN模型的卷积层进行卷积和池化计算,提取局部关键词特征。本发明构思巧妙,DiTextCNN模型的全连接层有两种特征输入,一种是政务数据标题经过卷积层提取的局部关键词特征,另一种是政务数据的来源部门编码得到的one‑hot向量,两种特征拼接得到更加丰富的特征,从而更好地对政务信息进行分类,提升分类精度。
Description
技术领域
本发明涉及文本分类技术领域,具体为一种基于DiTextCNN的中文政务信息的文本分类方法。
背景技术
政务信息对企业起着生死攸关的作用,企业需要时刻了解政府的各项规章制度和招标信息,抓住重要机遇,实现企业的繁荣发展。国内有很多提供招标信息的服务公司,但政务信息不仅包括招标信息,还包括经济和税收政策、行业管理办法、创新创业、产业基地建设、示范项目、招标中标、人才引进等,这些对企业来说同样至关重要。因此,对国内政务信息实行分类,从中筛选出对企业有利的信息,能够帮助企业及时了解政府发布的动态,进而调整经营战略,实现企业的长远发展。
政务信息具有时效性和长期性,假如采用人工的方法对政务信息分类,将十分耗时耗力,不仅增加人力成本,还可能导致企业无法及时获取有效信息,对政府的政策变化来不及做出反应。因此,设计一种基于DiTextCNN的中文政务信息的文本分类方法是很有必要的。
发明内容
针对上述情况,为克服现有技术的缺陷,本发明提供一种基于DiTextCNN的中文政务信息的文本分类方法,该文本分类方法,构思巧妙,DiTextCNN模型的全连接层有两种特征输入,一种是政务数据标题经过卷积层提取的局部关键词特征,另一种是政务数据的来源部门编码得到的one-hot 向量,两种特征拼接得到更加丰富的特征,从而更好地对政务信息进行分类,提升分类精度。
为实现上述目的,本发明提供如下技术方案:一种基于DiTextCNN的中文政务信息的文本分类方法,该方法包括以下步骤:
步骤1:使用中文分词工具将政务数据标题文本信息切分成若干个中文单词;
步骤2:将文本信息中的各个中文单词依次通过预训练语言模型进行向量化处理,得到文本信息中的各个中文单词的词向量表示;
步骤3:将中文单词的词向量输入DiTextCNN模型的卷积层进行卷积和池化计算,提取局部关键词特征;
步骤4:将政务数据的来源部门编码得到one-hot 向量;
步骤5:将文本信息的局部关键词特征和one-hot 向量拼接成更丰富的特征,输入DiTextCNN模型的输出层,得到文本分类结果。
优选的,所述中文分词工具包括:Jieba、SnowNLP、PkuSeg、THULAC或HanLP中的一个。
优选的,所述预训练语言模型包括:Bert、GPT-2、XLNet、Word2Vec、GLOVE或ELMo中的一个。
优选的,所述步骤3中DiTextCNN模型的卷积层提取的局部关键词特征的描述公式为:
令xi∈Rk为与句子中第i个单词相对应的k维词向量,长度为n的句子表示为:
X1:n=X1⊕X2⊕…⊕Xn
其中⊕是拼接操作,W∈Rhk表示与h个单词的窗口相对应的过滤器,利用它通过卷积运算产生一个新特征,
Ci=ƒ(W•Xn-h+1+b)
其中f是非线性函数,•表示矩阵乘法,过滤器在句子上滑动生成一个特征图c,
c=[c1, c2,…cn-h+1]。
优选的,所述DiTextCNN模型的输出层的激活函数为sigmoid函数。
优选的,所述sigmoid函数的描述公式为:
x的取值范围为(0,1)。
优选的,所述池化计算包括:使用最大值(max-pooling)池化算法来进行池化计算或者使用均值池(avg-pooling)算法来进行池化计算。
优选的,所述DiTextCNN模型训练过程中加入了正则化机制防止模型过拟合,包括L2 regularization,dropout,batchnormalization。
优选的,所述DiTextCNN模型还包括交叉熵损失函数和Adam优化器。
本发明的有益效果为:
1、DiTextCNN模型的全连接层有两种特征输入,一种是政务数据标题经过卷积层提取的局部关键词特征,另一种是政务数据的来源部门编码得到的one-hot 向量,两种特征拼接得到更加丰富的特征,从而更好地对政务信息进行分类,提升分类精度;
2、通过中文分词工具Jieba、SnowNLP、PkuSeg、THULAC或HanLP中的一个,通过预训练语言模型Bert、GPT-2、XLNet、Word2Vec、GLOVE或ELMo中的一个和TextCNN文本分类算法实现政务信息的分类,方便企业查找信息。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1是本发明DiTextCNN模型的结构示意图;
图2是本发明DiTextCNN模型主要参数的参考值。
具体实施方式
下面结合附图1-2对本发明的具体实施方式做进一步详细说明。
由图1给出,本发明提供如下技术方案:一种基于DiTextCNN的中文政务信息的文本分类方法,该方法包括以下步骤:
步骤1:使用中文分词工具将政务数据标题文本信息切分成若干个中文单词;
步骤2:将文本信息中的各个中文单词依次通过预训练语言模型进行向量化处理,得到文本信息中的各个中文单词的词向量表示;
步骤3:将中文单词的词向量输入DiTextCNN模型的卷积层进行卷积和池化计算,提取局部关键词特征;
步骤4:将政务数据的来源部门编码得到one-hot 向量;
步骤5:将文本信息的局部关键词特征和one-hot 向量拼接成更丰富的特征,输入DiTextCNN模型的输出层,得到文本分类结果。
优选的,中文分词工具包括:Jieba、SnowNLP、PkuSeg、THULAC或HanLP中的一个。
优选的,预训练语言模型包括:Bert、GPT-2、XLNet、Word2Vec、GLOVE或ELMo中的一个。
优选的,步骤3中DiTextCNN模型的卷积层提取的局部关键词特征的描述公式为:
令xi∈Rk为与句子中第i个单词相对应的k维词向量,长度为n的句子表示为:
X1:n=X1⊕X2⊕…⊕Xn
其中⊕是拼接操作,W∈Rhk表示与h个单词的窗口相对应的过滤器,利用它通过卷积运算产生一个新特征,
Ci=ƒ(W•Xn-h+1+b)
其中f是非线性函数,•表示矩阵乘法,过滤器在句子上滑动生成一个特征图c,
c=[c1, c2,…cn-h+1]。
优选的,DiTextCNN模型的输出层的激活函数为sigmoid函数。
优选的,sigmoid函数的描述公式为:
x的取值范围为(0,1)。
优选的,池化计算包括:使用最大值(max-pooling)池化算法来进行池化计算或者使用均值池(avg-pooling)算法来进行池化计算。
优选的,DiTextCNN模型训练过程中加入了正则化机制防止模型过拟合,包括L2regularization,dropout,batchnormalization。
优选的,DiTextCNN模型还包括交叉熵损失函数和Adam优化器。
优选的,所述DiTextCNN模型可以参考附图2的主要参数。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于DiTextCNN的中文政务信息的文本分类方法,其特征在于,该方法包括以下步骤:
步骤1:使用中文分词工具将政务数据标题文本信息切分成若干个中文单词;
步骤2:将文本信息中的各个中文单词依次通过预训练语言模型进行向量化处理,得到文本信息中的各个中文单词的词向量表示;
步骤3:将中文单词的词向量输入DiTextCNN模型的卷积层进行卷积和池化计算,提取局部关键词特征;
步骤4:将政务数据的来源部门编码得到one-hot 向量;
步骤5:将文本信息的局部关键词特征和one-hot 向量拼接成更丰富的特征,输入DiTextCNN模型的输出层,得到文本分类结果。
2.根据权利要求1所述的一种基于DiTextCNN的中文政务信息的文本分类方法,其特征在于:所述中文分词工具包括:Jieba、SnowNLP、PkuSeg、THULAC或HanLP中的一个。
3.根据权利要求1所述的一种基于DiTextCNN的中文政务信息的文本分类方法,其特征在于:所述预训练语言模型包括:Bert、GPT-2、XLNet、Word2Vec、GLOVE或ELMo中的一个。
4.根据权利要求1所述的一种基于DiTextCNN的中文政务信息的文本分类方法,其特征在于:所述步骤3中DiTextCNN模型的卷积层提取的局部关键词特征的描述公式为:
令xi∈Rk为与句子中第i个单词相对应的k维词向量,长度为n的句子表示为:
X1:n=X1⊕X2⊕…⊕Xn
其中⊕是拼接操作,W∈Rhk表示与h个单词的窗口相对应的过滤器,利用它通过卷积运算产生一个新特征,
Ci=ƒ(W•Xn-h+1+b)
其中f是非线性函数,•表示矩阵乘法,过滤器在句子上滑动生成一个特征图c,
c=[c1, c2,…cn-h+1]。
5.根据权利要求1所述的一种基于DiTextCNN的中文政务信息的文本分类方法,其特征在于:所述DiTextCNN模型的输出层的激活函数为sigmoid函数。
7.根据权利要求1所述的一种基于DiTextCNN的中文政务信息的文本分类方法,其特征在于:所述池化计算包括:使用最大值(max-pooling)池化算法来进行池化计算或者使用均值池(avg-pooling)算法来进行池化计算。
8.根据权利要求1所述的一种基于DiTextCNN的中文政务信息的文本分类方法,其特征在于:所述DiTextCNN模型训练过程中加入了正则化机制防止模型过拟合,包括L2regularization,dropout,batchnormalization。
9.根据权利要求1所述的一种基于DiTextCNN的中文政务信息的文本分类方法,其特征在于:所述DiTextCNN模型还包括交叉熵损失函数和Adam优化器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011238122.6A CN112328791A (zh) | 2020-11-09 | 2020-11-09 | 一种基于DiTextCNN的中文政务信息的文本分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011238122.6A CN112328791A (zh) | 2020-11-09 | 2020-11-09 | 一种基于DiTextCNN的中文政务信息的文本分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112328791A true CN112328791A (zh) | 2021-02-05 |
Family
ID=74316409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011238122.6A Pending CN112328791A (zh) | 2020-11-09 | 2020-11-09 | 一种基于DiTextCNN的中文政务信息的文本分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112328791A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113822061A (zh) * | 2021-08-13 | 2021-12-21 | 国网上海市电力公司 | 一种基于特征图构建的小样本专利分类方法 |
CN113868419A (zh) * | 2021-09-29 | 2021-12-31 | 中国平安财产保险股份有限公司 | 基于人工智能的文本分类方法、装置、设备及介质 |
CN116050383A (zh) * | 2023-03-29 | 2023-05-02 | 珠海金智维信息科技有限公司 | 一种理财产品销售环节飞单话术检测方法及系统 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170213280A1 (en) * | 2016-01-27 | 2017-07-27 | Huawei Technologies Co., Ltd. | System and method for prediction using synthetic features and gradient boosted decision tree |
CN109885692A (zh) * | 2019-01-11 | 2019-06-14 | 平安科技(深圳)有限公司 | 知识数据存储方法、装置、计算机设备和存储介质 |
CN110209805A (zh) * | 2018-04-26 | 2019-09-06 | 腾讯科技(深圳)有限公司 | 文本分类方法、装置、存储介质和计算机设备 |
CN110347777A (zh) * | 2019-07-17 | 2019-10-18 | 腾讯科技(深圳)有限公司 | 一种兴趣点poi的分类方法、装置、服务器及存储介质 |
CN110889427A (zh) * | 2019-10-15 | 2020-03-17 | 同济大学 | 一种拥堵交通流溯源分析方法 |
CN110955776A (zh) * | 2019-11-16 | 2020-04-03 | 中电科大数据研究院有限公司 | 一种政务文本分类模型的构建方法 |
CN111090749A (zh) * | 2019-12-23 | 2020-05-01 | 福州大学 | 一种基于TextCNN的报刊出版物分类方法及系统 |
CN111258798A (zh) * | 2020-01-14 | 2020-06-09 | 平安壹钱包电子商务有限公司 | 监控数据的故障定位方法、装置、计算机设备及存储介质 |
CN111444331A (zh) * | 2020-03-12 | 2020-07-24 | 腾讯科技(深圳)有限公司 | 基于内容的分布式特征提取方法、装置、设备及介质 |
CN111723203A (zh) * | 2020-06-15 | 2020-09-29 | 苏州意能通信息技术有限公司 | 一种基于终生学习的文本分类方法 |
CN111859936A (zh) * | 2020-07-09 | 2020-10-30 | 大连理工大学 | 一种基于深度混合网络的面向跨域立案的法律文书专业管辖权识别方法 |
-
2020
- 2020-11-09 CN CN202011238122.6A patent/CN112328791A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170213280A1 (en) * | 2016-01-27 | 2017-07-27 | Huawei Technologies Co., Ltd. | System and method for prediction using synthetic features and gradient boosted decision tree |
CN110209805A (zh) * | 2018-04-26 | 2019-09-06 | 腾讯科技(深圳)有限公司 | 文本分类方法、装置、存储介质和计算机设备 |
CN109885692A (zh) * | 2019-01-11 | 2019-06-14 | 平安科技(深圳)有限公司 | 知识数据存储方法、装置、计算机设备和存储介质 |
CN110347777A (zh) * | 2019-07-17 | 2019-10-18 | 腾讯科技(深圳)有限公司 | 一种兴趣点poi的分类方法、装置、服务器及存储介质 |
CN110889427A (zh) * | 2019-10-15 | 2020-03-17 | 同济大学 | 一种拥堵交通流溯源分析方法 |
CN110955776A (zh) * | 2019-11-16 | 2020-04-03 | 中电科大数据研究院有限公司 | 一种政务文本分类模型的构建方法 |
CN111090749A (zh) * | 2019-12-23 | 2020-05-01 | 福州大学 | 一种基于TextCNN的报刊出版物分类方法及系统 |
CN111258798A (zh) * | 2020-01-14 | 2020-06-09 | 平安壹钱包电子商务有限公司 | 监控数据的故障定位方法、装置、计算机设备及存储介质 |
CN111444331A (zh) * | 2020-03-12 | 2020-07-24 | 腾讯科技(深圳)有限公司 | 基于内容的分布式特征提取方法、装置、设备及介质 |
CN111723203A (zh) * | 2020-06-15 | 2020-09-29 | 苏州意能通信息技术有限公司 | 一种基于终生学习的文本分类方法 |
CN111859936A (zh) * | 2020-07-09 | 2020-10-30 | 大连理工大学 | 一种基于深度混合网络的面向跨域立案的法律文书专业管辖权识别方法 |
Non-Patent Citations (1)
Title |
---|
YOON KIM: "Convolutional Neural Networks for Sentence Classification", 《ARXIV》, 3 September 2014 (2014-09-03) * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113822061A (zh) * | 2021-08-13 | 2021-12-21 | 国网上海市电力公司 | 一种基于特征图构建的小样本专利分类方法 |
CN113822061B (zh) * | 2021-08-13 | 2023-09-08 | 国网上海市电力公司 | 一种基于特征图构建的小样本专利分类方法 |
CN113868419A (zh) * | 2021-09-29 | 2021-12-31 | 中国平安财产保险股份有限公司 | 基于人工智能的文本分类方法、装置、设备及介质 |
CN113868419B (zh) * | 2021-09-29 | 2024-05-31 | 中国平安财产保险股份有限公司 | 基于人工智能的文本分类方法、装置、设备及介质 |
CN116050383A (zh) * | 2023-03-29 | 2023-05-02 | 珠海金智维信息科技有限公司 | 一种理财产品销售环节飞单话术检测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111061856B (zh) | 一种基于知识感知的新闻推荐方法 | |
CN103064970B (zh) | 优化译员的检索方法 | |
EP4009219A1 (en) | Analysis of natural language text in document using hierarchical graph | |
CN110390017B (zh) | 基于注意力门控卷积网络的目标情感分析方法及系统 | |
CN106991085B (zh) | 一种实体的简称生成方法及装置 | |
CN112328791A (zh) | 一种基于DiTextCNN的中文政务信息的文本分类方法 | |
CN110458324B (zh) | 风险概率的计算方法、装置和计算机设备 | |
CN111914085A (zh) | 文本细粒度情感分类方法、系统、装置及存储介质 | |
CN112783921A (zh) | 一种数据库操作方法及装置 | |
CN110427480B (zh) | 个性化文本智能推荐方法、装置及计算机可读存储介质 | |
CN116304745B (zh) | 基于深层次语义信息的文本话题匹配方法及系统 | |
CN113434688B (zh) | 用于舆情分类模型训练的数据处理方法和装置 | |
CN116089873A (zh) | 模型训练方法、数据分类分级方法、装置、设备及介质 | |
CN111709225B (zh) | 一种事件因果关系判别方法、装置和计算机可读存储介质 | |
CN116843162A (zh) | 一种矛盾调解方案推荐与评分系统及方法 | |
CN115600605A (zh) | 一种中文实体关系联合抽取方法、系统、设备及存储介质 | |
CN111428502A (zh) | 一种面向军事语料的命名实体标注方法 | |
Mehra et al. | Analysis of task transferability in large pre-trained classifiers | |
CN116702784B (zh) | 实体链接方法、装置、计算机设备和存储介质 | |
CN117291722A (zh) | 对象管理方法、相关设备及计算机可读介质 | |
WO2023077562A1 (zh) | 一种基于图扰动策略的事件检测方法及装置 | |
CN115827871A (zh) | 互联网企业分类的方法、装置和系统 | |
CN111552827B (zh) | 标注方法和装置、行为意愿预测模型训练方法和装置 | |
CN113869058A (zh) | 基于lc-gcn方面级情感分析方法、系统、存储介质和电子设备 | |
CN115129863A (zh) | 意图识别方法、装置、设备、存储介质和计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210205 |
|
RJ01 | Rejection of invention patent application after publication |