CN115906835B - 一种基于聚类和对比学习的中文问句文本表示学习的方法 - Google Patents

一种基于聚类和对比学习的中文问句文本表示学习的方法 Download PDF

Info

Publication number
CN115906835B
CN115906835B CN202211480390.8A CN202211480390A CN115906835B CN 115906835 B CN115906835 B CN 115906835B CN 202211480390 A CN202211480390 A CN 202211480390A CN 115906835 B CN115906835 B CN 115906835B
Authority
CN
China
Prior art keywords
question
word
chinese
corpus
clustering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211480390.8A
Other languages
English (en)
Other versions
CN115906835A (zh
Inventor
王艺涵
李栓
许浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202211480390.8A priority Critical patent/CN115906835B/zh
Publication of CN115906835A publication Critical patent/CN115906835A/zh
Application granted granted Critical
Publication of CN115906835B publication Critical patent/CN115906835B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Machine Translation (AREA)

Abstract

本发明公开一种基于聚类和对比学习的中文问句文本表示学习的方法,该方法先对中文问句语料进行清洗,然后进行聚类,将字面相似的样本划分在相同的子集中;按顺序选定子集并按批次抽取问句,将不同批次问句按顺序输入SimCLR对比学习框架中,并生成与每个问句对应的语义相似问句表示,之后使用对比损失函数拉近问句与语义相似问句之间的距离,并扩大该问句与同批次其他问句之间的距离,得到训练好的SimCLR对比学习模型;最后将新的中文问句语料也进行相同的清洗和聚类,并将聚类后的子集按批次输入训练好的SimCLR对比学习模型,得到分类后的中文问句语料,实现中文问句语料的自动打标。本发明有效提升了模型对问句文本之间差异的辨析性能。

Description

一种基于聚类和对比学习的中文问句文本表示学习的方法
技术领域
本发明涉及自然语言处理领域,具体涉及一种基于聚类和对比学习的中文问句文本表示学习的方法。
背景技术
在问句语义匹配或问句检索的任务中,现阶段主流的方法是使用BERT在有标签数据集上进行微调,也就是有监督学习的方法,然而,大量文本的标注成本较高,常常需要领域内具有一定经验的工作人员耗费大量时间才可以完成标注,在现实场景任务中的适用性不高。近期,对比学习被广泛应用于各种自然语言任务,包括文本相似度匹配的无监督任务,但是研究的重点主要在英文文本的各类下游任务中,针对中文文本的研究很少且存在以下几点难题:
(1)在基于对比学习的无监督文本匹配的任务中,研究的重点常常聚焦于怎样构建相似文本对,经常忽略负样本对模型优化的影响,导致模型常常难以识别字面相似、语义不相似的文本对。
(2)因中文需要分词的原因,常常仅考虑词频,而忽略了词长的影响,导致中文文本字面相似的计算结果与实际有较大的出入。
因此,怎样在无监督或自监督学习的场景下提升中文文本的语义匹配精度逐渐变成一项重要且具有创新性的任务。
发明内容
针对现有技术的不足,本发明提供一种基于聚类和对比学习的中文问句文本表示学习的方法,使用聚类的方法将语料库中字面相似的问句划分到相同的子集中;按顺序选定子集并按批次抽取问句,将不同批次问句按顺序输入SimCLR对比学习框架中,并使用回译、噪声扰动等方法生成与每个问句对应的语义相似问句表示,之后使用对比损失函数拉近问句与语义相似问句之间的距离,并扩大该问句与同批次其他问句之间的距离。
本发明的目的通过如下的技术方案来实现:
一种基于聚类和对比学习的中文问句文本表示学习的方法,包括以下步骤:
(1)对大批量的中文问句语料进行清洗,生成清洗后的问句语料;
(2)使用聚类的方法将清洗后的问句语料中字面相似的样本划分在相同的子集中{s1,s2,s3…};
(3)打乱子集的顺序,按照打乱后的顺序选定子集,再打乱选定子集中中文问句的顺序,并按批次抽取固定数量的问句样本Q/{q1,q2,q3…},将不同批次的问句按顺序输入SimCLR对比学习模型中,并生成与每个问句对应的语义相似问句Q′/{q′1,q′2,q′3…};之后使用对比损失函数对SimCLR对比学习模型进行训练,拉近问句与语义相似问句之间的距离,并扩大该问句与同批次其他问句之间的距离,得到训练好的SimCLR对比学习模型;
(4)将新的中文问句语料重复步骤(1)和(2),然后将聚类后的子集按批次输入训练好的SimCLR对比学习模型,得到分类后的中文问句语料,实现中文问句语料的自动打标。
进一步地,所述步骤(2)包含以下子步骤:
(2.1)使用分词算法对大批量的中文问句语料中的每个问句进行分词处理,生成每个问句的词序列,使用停用词词表过滤切分后的每个问句的词序列,若词序列出现在该停用词表中,则删除该词,若不出现,则保留;
(2.2)统计词频并删除词频低于等于2的词,并依据词频生成词表文件Vocab/{w1,w2,w3…};遍历大批量的中文问句语料中的每个问句的词序列,若该词没有出现在词表文件Vocab/{w1,w2,w3…}中,则删除该词,若存在则保留生成每个问句新的词序列Tj/{tj1,tj2,tj3…};
(2.3)对每个问句的词序列进行向量化;
(2.4)对向量化后的问句进行聚类,将大批量的中文问句语料中字面相似的样本划分在相同的子集中{s1,s2,s3…},保证一半以上的子集中问句的数量大于SimCLR对比学习模型每批输入问句样本的数量的2倍。
进一步地,使用改进的指数TF-IDF算法对每个问句的词序列进行向量化,计算公式如下:
式中,ExpTFIDFi,j为改进的TF-IDF指数,ni,j表示词序列中第i个词在词序列tj中出现的次数,∑knk,j表示词序列tj中所有词出现的次数之和,S表示语料库中所有词序列,|S|表示词序列的总数;|{j:wi∈dj}|表示语料库中包含词fi的词序列的数量,len(fi)表示词fi的词长。
进一步地,所述步骤(2.4)中,保证70%以上的子集中问句的数量大于SimCLR对比学习模型每批输入问句样本的数量的2倍。
进一步地,所述步骤(3)中,按批次抽取的问句样本的数量为256,若子集中的样本数少于256,不足的问句从其他的子集中抽取。
进一步地,所述步骤(3)中,采用包括回译、噪声扰动在内的方法生成与每个问句对应的语义相似问句Q/ 1, 2, 3…};其中,使用噪声扰动生成与每个问句对应的语义相似问句Q/ 1, 2, 3…}具体包括:
使用对抗攻击扰动问句的向量表示进行增强、随机将问句的部分向量表示设置为0对问句的向量表示进行增强、随机打乱问句向量表示中的位置对问句的向量表示进行增强。
进一步地,所述步骤(3)中,对SimCLR对比学习模型进行训练时,采用清洗后的少量带标签的中文问句语义相似度判定语料,评估SimCLR对比学习模型的训练进度,当SimCLR对比学习模型在评估语料上的识别准确率在连续五轮训练内没有提升时,则停止模型的训练,得到训练好的SimCLR对比学习模型。
进一步地,所述分词算法选用jieba分词算法,所述停用词词表选用哈工大停用词表。
进一步地,所述步骤(2.4)中,采用K均值的方法对向量化后的问句进行聚类。
进一步地,对大批量的中文问句语料进行清洗时,依次进行英文字母大小写统一、中英文标点符号统一、繁体中文转简体中文、删除乱码及无法打印字符的清洗操作。
本发明的有益效果如下:
(1)本方法在中文问句文本表示学习的任务中,面对字面相似、语义不相似问句对难以识别的问题,创新性的使用聚类算法将字面相似的问句划分在相同的批次中,并使用对比学习扩大它们之间的差异,有效提升了模型对问句文本之间差异的辨析性能。
(2)本发明的方法可以对大规模缺失标签的语料进行自动打标,大幅提升对语料打标的效率。
(3)本发明的方法不受词长和词频的影响,使得中文问句文本字面相似的计算结果与实际相符。
附图说明
图1为问句语料清洗及子集划分流程示意图。
图2为SimCLR对比学习模型的训练流程示意图。
图3为SimCLR对比学习模型框架。
具体实施方式
下面根据附图和优选实施例详细描述本发明,本发明的目的和效果将变得更加明白,应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
作为其中一个方面,本发明的基于聚类和对比学习的中文问句文本表示学习的方法,包括如下步骤:
步骤一:对大批量的中文问句语料进行清洗,生成清洗后的问句语料。
清洗时,可以采用各种清洗方式对语料进行清洗。作为其中一种优选的实施方式,对大批量的中文问句语料依次进行英文字母大小写统一、中英文标点符号统一、繁体中文转简体中文、删除乱码及无法打印字符的清洗操作,生成清洗后的问句语料来当作模型的训练语料Strain。如在微博语料库中,存在大量的#,@及表情符号,用于话题指引与情绪表达。如:“#米吧秀图#月底了,敢说出你手机还有多少流量么?”。经过语料清洗工作,可将该语句清洗为“米吧秀图月底了,敢说出你手机还有多少流量么?”如:“男生和女生淘宝的区别,你中了吗?(=^ω^=)♀♂”经删除乱码及无法打印字符清洗,可将该语句清洗为“男生和女生淘宝的区别,你中了吗?”
步骤二:使用聚类的方法将清洗后的问句语料中字面相似的样本划分在相同的子集中{s1,s2,s3…},具体包括:
(2.1)使用jieba分词算法对大批量的中文问句语料中的每个问句进行分词处理,生成每个问句的词序列,使用停用词词表过滤切分后的每个问句的词序列,若词序列出现在该停用词表中,则删除该词,若不出现,则保留。
例如语句“月底了,敢说出你手机还有多少流量么?”,利用jieba分词算法可切分为“月/底/了/敢/说出/你/手机/还/有/多少/流量/么”。进一步的,使用哈工大停用词表遍历分词中的每一个词,发现“了”、“么”在停用词表中,则删除该词,得到分词语句“月/底/敢/说出/你/手机/还/有/多少/流量”。
(2.2)统计词频并删除词频低于等于2的词,并依据词频生成词表文件Vocab/{w1,w2,w3…};遍历大批量的中文问句语料中的每个问句的词序列,若该词没有出现在词表文件Vocab/{w1,w2,w3…}中,则删除该词,若存在则保留生成每个问句新的词序列Tj/{tj1,tj2,tj3…}。在本实施例中,统计微博语料库每个问句的词序列词频,并生成词表文件Vocab,用词表文件遍历语句“月/底/敢/说出/你/手机/还/有/多少/流量”中的每一个词,发现均在词表文件中,则保留该词序列。
(2.3)对每个问句的词序列进行向量化。
作为其中一种实施方式,采用改进的指数TF-IDF算法对每个问句的词序列进行向量化,具体计算公式如下:
式中,ExpTFIDFi,j为改进的TF-IDF指数,ni,j表示词序列中第i个词在词序列tj中出现的次数,∑knk,j表示词序列tj中所有词出现的次数之和,S表示语料库中所有词序列,||表示词序列的总数;|{j:fi∈dj}|表示语料库中包含词fi的词序列的数量,len(fi)表示词fi的词长。在本实施例中,利用改进的指数TF-IDF算法对微博语料中每个问句的词序列进行向量化,得到语句“月/底/敢/说出/你/手机/还/有/多少/流量”的向量表示如下:
{月:0.1221,底:0.0335,敢:0.0513,说出:0.1525,你:0.1831,手机:0.1603,还:0.0901,多少:0.0702,流量:0.0675}
(2.4)对向量化后的问句进行聚类,将大批量的中文问句语料中字面相似的样本划分在相同的子集中{s1,s2,s3…},保证一半以上的子集中问句的数量大于SimCLR对比学习模型每批输入问句样本的数量的2倍。步骤一和步骤二的流程如图1所示。
例如在chatterbot中文对话语料库中,可利用聚类方法将表示字面相似的问句划分到相同的子集中,如将“早上好,你好吗?”,“你好吗?”,“那么你呢?”等归至一个子类中。
另外,在对字面相似的样本进行划分时,优选保证70%以上的子集中问句的数量大于SimCLR对比学习模型每批输入问句样本的数量的2倍,这样分类的准确性更高。
步骤三:打乱子集的顺序,按照打乱后的顺序选定子集,再打乱选定子集中中文问句的顺序,并按批次抽取固定数量的问句样本Q/{q1,q2,q3…},将不同批次的问句按顺序输入SimCLR对比学习模型中,并生成与每个问句对应的语义相似问句Q/ 1, 2, 3…};之后使用对比损失函数对SimCLR对比学习模型进行训练,拉近问句与语义相似问句之间的距离,并扩大该问句与同批次其他问句之间的距离,得到训练好的SimCLR对比学习模型。具体的训练流程如图2所示。
在具体的实验中,每批次抽取的固定样本数量为256,若子集中的样本数少于设定固定数量的数值,不足的问句随机从其他的子集中抽取。
另外,生成与每个问句对应的语义相似问句Q/1 1, 2, 3…}时可以采用包括回译、噪声扰动在内的方法,其中,使用噪声扰动生成与每个问句对应的语义相似问句Q/{q 1, 2, 3…}具体包括:使用对抗攻击扰动问句的向量表示进行增强、随机将问句的部分向量表示设置为0对问句的向量表示进行增强、随机打乱问句向量表示中的位置对问句的向量表示进行增强。
以回译的方法方法为例,即利用通用翻译接口,如google翻译接口将原始问句转化为另一种语言,之后再翻译回原语言的方式以此对问句的向量表示进行增强。如语句1:为什么给我的花呗降额了?翻译为英文:Why reduce the amount of my Ant Credit Pay.经过回译处理后,该语句变为语句2:你为什么要减少我的蚂蚁信用支付金额。语句2为语句1经过回译的方法对问句进行的文本增强。
本实施例中,SimCLR对比学习模型框架如图3所示。其中Batch代表输入模型的不同批次的问句样本。首先,在语义增强(Augmentation)环节对Batch中的问句样本x进行两种方式的语义增强,分别为回译T(x和噪声扰动T′(x),以此生成对每个问句对应的语义相似问句Q1,Q2。其次利用CNN(Convolutional Neural Network)对问句样本进行卷积与池化后生成特征向量,并通过MLP(多层感知机)构建全连接网络,将特征向量投影至一维空间。最后,通过迭代更新对比损失函数Contrastive loss,使得在同一批次的问句样本中不断缩小语义相似问句之间的距离,同时扩大同一批次中语义不同问句之间的距离。
在本实施中,以chatterbot中文对话语料库为评估语料库,其中包含食物、情感、体育、历史、政治、科学等17种标签。利用该评估语料库对SimCLR对比学习模型进行训练,最终实现对相同标签下问句的聚类以及对不同标签下的问句的区分。如将语句“谁发明了电灯泡?”,“谁发明了蒸汽机?”统一标记为历史,将“什么是蜘蛛侠?”,“什么是teknolust?统一标记为电影。
步骤四:将新的中文问句语料重复步骤(1)和(2),然后将聚类后的子集按批次输入训练好的SimCLR对比学习模型,得到分类后的中文问句语料,实现中文问句语料的自动打标。
本发明实施例还提供的一种装置,包括一个或多个处理器,用于实现上述实施例中的基于聚类和对比学习的中文问句文本表示学习的方法。
本发明该装置的实施例可以应用在任意具备数据处理能力的设备上,该任意具备数据处理能力的设备可以为诸如计算机等设备或置。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在任意具备数据处理能力的设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。从硬件层面而言,除了处理器、内存、网络接口、以及非易失性存储器之外,实施例中装置所在的任意具备数据处理能力的设备通常根据该任意具备数据处理能力的设备的实际功能,还可以包括其他硬件,对此不再赘述。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本发明方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本发明实施例还提供一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时,实现上述实施例中的基于聚类和对比学习的中文问句文本表示学习的方法。
所述计算机可读存储介质可以是前述任一实施例所述的任意具备数据处理能力的设备的内部存储单元,例如硬盘或内存。所述计算机可读存储介质也可以是外部存储设备,例如所述设备上配备的插接式硬盘、智能存储卡(SmartMedia card,SMC)、SD卡、闪存卡(Flash card)等。进一步的,所述计算机可读存储介质还可以既包括任意具备数据处理能力的设备的内部存储单元也包括外部存储设备。所述计算机可读存储介质用于存储所述计算仉程序以及所述任意具备数据处理能力的设备所需的其他程序和数据,还可以用于暂时地存储己经输出或者将要输出的数据。
本领域技术人员在考虑说明书及实践这里公开的内容后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由权利要求指出。

Claims (8)

1.一种基于聚类和对比学习的中文问句文本表示学习的方法,其特征在于,包括以下步骤:
(1)对大批量的中文问句语料进行清洗,生成清洗后的问句语料;
(2)使用聚类的方法将清洗后的问句语料中字面相似的样本划分在相同的子集中{s1,s2,s3…};所述步骤(2)包含以下子步骤:
(2.1)使用分词算法对大批量的中文问句语料中的每个问句进行分词处理,生成每个问句的词序列,使用停用词词表过滤切分后的每个问句的词序列,若词序列出现在该停用词词表中,则删除该词,若不出现,则保留;
(2.2)统计词频并删除词频低于等于2的词,并依据词频生成词表文件Vocab/{w1,w2,w3…};遍历大批量的中文问句语料中的每个问句的词序列,若该词没有出现在词表文件Vocab/{w1,w2,w3…}中,则删除该词,若存在则保留生成每个问句新的词序列Tj/{tj1,tj2,tj3…};
(2.3)使用改进的指数TF-IDF算法对每个问句的词序列进行向量化,计算公式如下:
式中,ExpTFIDFi,j为改进的TF-IDF指数,ni,j表示词序列中第i个词在词序列tj中出现的次数,∑knk,j表示词序列tj中所有词出现的次数之和,S表示语料库中所有词序列,|S|表示词序列的总数;|{j:fi∈dj}|表示语料库中包含词fi的词序列的数量,len(fi)表示词fi的词长;
(2.4)对向量化后的问句进行聚类,将大批量的中文问句语料中字面相似的样本划分在相同的子集中{s1,s2,s3…},保证一半以上的子集中问句的数量大于SimCLR对比学习模型每批输入问句样本的数量的2倍;
(3)打乱子集的顺序,按照打乱后的顺序选定子集,再打乱选定子集中中文问句的顺序,并按批次抽取固定数量的问句样本Q/{q1,q2,q3…},将不同批次的问句按顺序输入SimCLR对比学习模型中,并生成与每个问句对应的语义相似问句Q′/{q′1,q′2,q′3…};之后使用对比损失函数对SimCLR对比学习模型进行训练,拉近问句与语义相似问句之间的距离,并扩大该问句与同批次其他问句之间的距离,得到训练好的SimCLR对比学习模型;
(4)将新的中文问句语料重复步骤(1)和(2),然后将聚类后的子集按批次输入训练好的SimCLR对比学习模型,得到分类后的中文问句语料,实现中文问句语料的自动打标。
2.根据权利要求1所述的基于聚类和对比学习的中文问句文本表示学习的方法,其特征在于,所述步骤(2.4)中,保证70%以上的子集中问句的数量大于SimCLR对比学习模型每批输入问句样本的数量的2倍。
3.根据权利要求1所述的基于聚类和对比学习的中文问句文本表示学习的方法,其特征在于,所述步骤(3)中,按批次抽取的问句样本的数量为256,若子集中的样本数少于256,不足的问句从其他的子集中抽取。
4.根据权利要求1所述的基于聚类和对比学习的中文问句文本表示学习的方法,其特征在于,所述步骤(3)中,采用包括回译、噪声扰动在内的方法生成与每个问句对应的语义相似问句Q/{q 1,q 2,q 3…};其中,使用噪声扰动生成与每个问句对应的语义相似问句Q/{q 1,q 2,q 3…}具体包括:
使用对抗攻击扰动问句的向量表示进行增强、随机将问句的部分向量表示设置为0对问句的向量表示进行增强、随机打乱问句向量表示中的位置对问句的向量表示进行增强。
5.根据权利要求1所述的基于聚类和对比学习的中文问句文本表示学习的方法,其特征在于,所述步骤(3)中,对SimCLR对比学习模型进行训练时,采用清洗后的少量带标签的中文问句语义相似度判定语料,评估SimCLR对比学习模型的训练进度,当SimCLR对比学习模型在评估语料上的识别准确率在连续五轮训练内没有提升时,则停止模型的训练,得到训练好的SimCLR对比学习模型。
6.根据权利要求1所述的基于聚类和对比学习的中文问句文本表示学习的方法,其特征在于,所述分词算法选用jieba分词算法,所述停用词词表选用哈工大停用词表。
7.根据权利要求1所述的基于聚类和对比学习的中文问句文本表示学习的方法,其特征在于,所述步骤(2.4)中,采用K均值的方法对向量化后的问句进行聚类。
8.根据权利要求1所述的基于聚类和对比学习的中文问句文本表示学习的方法,其特征在于,对大批量的中文问句语料进行清洗时,依次进行英文字母大小写统一、中英文标点符号统一、繁体中文转简体中文、删除乱码及无法打印字符的清洗操作。
CN202211480390.8A 2022-11-23 2022-11-23 一种基于聚类和对比学习的中文问句文本表示学习的方法 Active CN115906835B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211480390.8A CN115906835B (zh) 2022-11-23 2022-11-23 一种基于聚类和对比学习的中文问句文本表示学习的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211480390.8A CN115906835B (zh) 2022-11-23 2022-11-23 一种基于聚类和对比学习的中文问句文本表示学习的方法

Publications (2)

Publication Number Publication Date
CN115906835A CN115906835A (zh) 2023-04-04
CN115906835B true CN115906835B (zh) 2024-02-20

Family

ID=86490837

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211480390.8A Active CN115906835B (zh) 2022-11-23 2022-11-23 一种基于聚类和对比学习的中文问句文本表示学习的方法

Country Status (1)

Country Link
CN (1) CN115906835B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116541523B (zh) * 2023-04-28 2024-08-16 芽米科技(广州)有限公司 一种基于大数据的法律判决舆情分类方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109299270A (zh) * 2018-10-30 2019-02-01 云南电网有限责任公司信息中心 一种基于卷积神经网络的文本数据无监督聚类方法
CN109947928A (zh) * 2019-04-16 2019-06-28 上海海事大学 一种检索式人工智能问答机器人开发方法
WO2019214145A1 (zh) * 2018-05-10 2019-11-14 平安科技(深圳)有限公司 文本情绪分析方法、装置及存储介质
KR20200088164A (ko) * 2019-01-14 2020-07-22 성균관대학교산학협력단 소셜 네트워크 서비스 메시지의 감정 분석을 위한 POS(part of speech) 특징기반의 감정 분석 방법 및 이를 수행하는 감정 분석 장치
CN112668671A (zh) * 2021-03-15 2021-04-16 北京百度网讯科技有限公司 预训练模型的获取方法和装置
CN113407697A (zh) * 2021-06-28 2021-09-17 李蕊男 深度百科学习的中文医疗问句分类系统
JP2022003537A (ja) * 2020-12-09 2022-01-11 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 対話意図の認識方法及び装置、電子機器並びに記憶媒体
CN114548321A (zh) * 2022-03-05 2022-05-27 昆明理工大学 基于对比学习的自监督舆情评论观点对象分类方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019214145A1 (zh) * 2018-05-10 2019-11-14 平安科技(深圳)有限公司 文本情绪分析方法、装置及存储介质
CN109299270A (zh) * 2018-10-30 2019-02-01 云南电网有限责任公司信息中心 一种基于卷积神经网络的文本数据无监督聚类方法
KR20200088164A (ko) * 2019-01-14 2020-07-22 성균관대학교산학협력단 소셜 네트워크 서비스 메시지의 감정 분석을 위한 POS(part of speech) 특징기반의 감정 분석 방법 및 이를 수행하는 감정 분석 장치
CN109947928A (zh) * 2019-04-16 2019-06-28 上海海事大学 一种检索式人工智能问答机器人开发方法
JP2022003537A (ja) * 2020-12-09 2022-01-11 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 対話意図の認識方法及び装置、電子機器並びに記憶媒体
CN112668671A (zh) * 2021-03-15 2021-04-16 北京百度网讯科技有限公司 预训练模型的获取方法和装置
CN113407697A (zh) * 2021-06-28 2021-09-17 李蕊男 深度百科学习的中文医疗问句分类系统
CN114548321A (zh) * 2022-03-05 2022-05-27 昆明理工大学 基于对比学习的自监督舆情评论观点对象分类方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
A Simple Framework for Contrastive Learning of Visual Representations;Ting Chen等;International conference on machine learning;第119卷;第1597-1607页 *
基于双通道卷积神经网络的问句意图分类研究;杨志明;王来奇;王泳;;中文信息学报(05);全文 *
基于词向量和EMD距离的短文本聚类;黄栋;徐博;许侃;林鸿飞;杨志豪;;山东大学学报(理学版)(07);全文 *

Also Published As

Publication number Publication date
CN115906835A (zh) 2023-04-04

Similar Documents

Publication Publication Date Title
CN113011533B (zh) 文本分类方法、装置、计算机设备和存储介质
Ji et al. Representation learning for text-level discourse parsing
CN111738003B (zh) 命名实体识别模型训练方法、命名实体识别方法和介质
CN111709242B (zh) 一种基于命名实体识别的中文标点符号添加方法
CN110263325B (zh) 中文分词系统
Fonseca et al. A two-step convolutional neural network approach for semantic role labeling
CN108268539A (zh) 基于文本分析的视频匹配系统
US11783179B2 (en) System and method for domain- and language-independent definition extraction using deep neural networks
CN111143571B (zh) 实体标注模型的训练方法、实体标注方法以及装置
Ruokolainen et al. Painless semi-supervised morphological segmentation using conditional random fields
Nasim et al. Sentiment analysis on Urdu tweets using Markov chains
CN111046660B (zh) 一种识别文本专业术语的方法及装置
Xing et al. A convolutional neural network for aspect-level sentiment classification
CN113051914A (zh) 一种基于多特征动态画像的企业隐藏标签抽取方法及装置
CN114416979A (zh) 一种文本查询方法、设备和存储介质
CN112507124A (zh) 一种基于图模型的篇章级别事件因果关系抽取方法
CN116049387A (zh) 一种基于图卷积的短文本分类方法、装置、介质
CN115906835B (zh) 一种基于聚类和对比学习的中文问句文本表示学习的方法
CN112528653A (zh) 短文本实体识别方法和系统
CN117251524A (zh) 一种基于多策略融合的短文本分类方法
CN115759119A (zh) 一种金融文本情感分析方法、系统、介质和设备
Engin et al. Multimodal deep neural networks for banking document classification
Naqvi et al. Roman Urdu news headline classification empowered with machine learning
CN113486143A (zh) 一种基于多层级文本表示及模型融合的用户画像生成方法
Narayanan et al. Character level neural architectures for boosting named entity recognition in code mixed tweets

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant