CN110807086A - 文本数据标注方法及装置、存储介质、电子设备 - Google Patents

文本数据标注方法及装置、存储介质、电子设备 Download PDF

Info

Publication number
CN110807086A
CN110807086A CN201910951053.4A CN201910951053A CN110807086A CN 110807086 A CN110807086 A CN 110807086A CN 201910951053 A CN201910951053 A CN 201910951053A CN 110807086 A CN110807086 A CN 110807086A
Authority
CN
China
Prior art keywords
text data
data
similarity
similar
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910951053.4A
Other languages
English (en)
Other versions
CN110807086B (zh
Inventor
李快
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201910951053.4A priority Critical patent/CN110807086B/zh
Publication of CN110807086A publication Critical patent/CN110807086A/zh
Application granted granted Critical
Publication of CN110807086B publication Critical patent/CN110807086B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开提供一种文本数据标注方法及装置、电子设备、存储介质;涉及数据处理技术领域。所述文本数据标注方法包括:获取待标注的文本数据,并根据预训练的主题模型对所述文本数据进行转化处理以确定所述文本数据对应的向量表示数据;通过所述向量表示数据确定所述文本数据之间的相似度;确定所述相似度超过预设阈值的相似文本数据,并提取相似文本数据在预设相似度区间的第一文本数据以及第二文本数据;将所述第一文本数据以及所述第二文本数据呈现到显示界面,以使目标对象根据所述第一文本数据以及所述第二文本数据对所述相似文本数据进行标注。本公开可以提高样本文本数据的标签标注效率,提升用户使用体验。

Description

文本数据标注方法及装置、存储介质、电子设备
技术领域
本公开涉及数据处理技术领域,具体而言,涉及一种文本数据标注方法、文本数据标注装置、电子设备以及计算机可读存储介质。
背景技术
随着人工智能技术的飞速发展,学习模型的构建以及训练越来越得到人们的关注。在大多数学习模型进行训练时,需要提供标注好的样本数据。
目前,大多数样本文本数据进行标注时,均是人工结合关键词查询或者聚类算法等方式对样本文本数据进行批量标注。仅通过关键词的筛选对样本文本数据进行分类,没有考虑到关键词与文本主题的关联以及关键词的多义性,导致标注样本文本数据的准确率较低,而且会引入大量噪声,降低学习模型的训练成功率,影响用户的使用体验。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种文本数据标注方法、文本数据标注装置、电子设备以及计算机可读存储介质,进而在一定程度上克服由于相关技术的限制和缺陷而导致的,在现有技术对样本文本数据进行标注时,转去额度较低且样本文本数据噪声较多的问题。
根据本公开的第一方面,提供一种文本数据标注方法,包括:
获取待标注的文本数据,并根据预训练的主题模型对所述文本数据进行转化处理以确定所述文本数据对应的向量表示数据;
通过所述向量表示数据确定所述文本数据之间的相似度;
确定所述相似度超过预设阈值的相似文本数据,并提取相似文本数据在预设相似度区间的第一文本数据以及第二文本数据;
将所述第一文本数据以及所述第二文本数据呈现到显示界面,以使目标对象根据所述第一文本数据以及所述第二文本数据对所述相似文本数据进行标注。
在本公开的一种示例性实施例中,在根据预训练的主题模型对所述文本数据进行转化处理以确定所述文本数据对应的向量表示数据之前,所述方法还包括:
获取样本数据,并对所述样本数据进行分词处理以确定所述样本数据对应的训练数据;
根据所述训练数据对预先构建的主题模型进行训练以生成训练完成的所述主题模型。
在本公开的一种示例性实施例中,根据所述训练数据对预先构建的主题模型进行训练包括:
基于预设算法,根据所述训练数据对预先构建的主题模型进行训练以生成训练完成的所述主题模型;
其中,所述预设算法包括变分推断最大期望算法或者吉布斯采样算法中的任意一种。
在本公开的一种示例性实施例中,根据预训练的主题模型对所述文本数据进行转化处理以确定所述文本数据对应的向量表示数据,包括:
根据所述主题模型确定所述文本数据对应的主题分布数据;
基于所述主题模型,通过所述主题分布数据对所述文本数据进行转化处理以确定所述文本数据对应的向量表示数据。
在本公开的一种示例性实施例中,所述确定所述相似度超过预设阈值的相似文本数据包括:
根据所述文本数据选择主题数量以及超参数向量,并根据所述主题数量以及所述超参数向量构建并训练目标数量的所述主题模型;
基于目标数量的所述主题模型,分别确定所述相似度超过预设阈值的目标相似文本数据,并将所述目标相似文本数据的交集作为相似文本数据。
在本公开的一种示例性实施例中,通过所述向量表示数据确定所述文本数据之间的相似度包括:
通过预设算法确定所述向量表示数据的相似距离数据;
根据所述相似距离数据确定所述向量表示数据对应的所述文本数据之间的相似度。
在本公开的一种示例性实施例中,提取相似文本数据在预设相似度区间的第一文本数据以及第二文本数据包括:
根据所述相似文本数据的相似度对所述相似文本数据进行排序,确定所述相似文本数据对应的排序列表;
将所述排序列表中第一相似度区间的相似文本数据作为第一文本数据;以及
将所述排序列表中第二相似度区间的相似文本数据作为第二文本数据。
根据本公开的第二方面,提供一种文本数据标注装置,包括:
文本向量表示模块,用于获取待标注的文本数据,并根据预训练的主题模型对所述文本数据进行转化处理以确定所述文本数据对应的向量表示数据;
相似度确定模块,用于通过所述向量表示数据确定所述文本数据之间的相似度;
文本数据选取模块,用于确定所述相似度超过预设阈值的相似文本数据,并提取相似文本数据在预设相似度区间的第一文本数据以及第二文本数据;
文本数据标注模块,用于将所述第一文本数据以及所述第二文本数据呈现到显示界面,以使目标对象根据所述第一文本数据以及所述第二文本数据对所述相似文本数据进行标注。
在本公开的一种示例性实施例中,所述文本数据标注装置还包括:
训练数据确定单元,用于获取样本数据,并对所述样本数据进行分词处理以确定所述样本数据对应的训练数据;
主题模型训练单元,用于根据所述训练数据对预先构建的主题模型进行训练以生成训练完成的所述主题模型。
在本公开的一种示例性实施例中,所述主题模型训练单元还被配置为:
基于预设算法,根据所述训练数据对预先构建的主题模型进行训练以生成训练完成的所述主题模型;
其中,所述预设算法包括变分推断最大期望算法或者吉布斯采样算法中的任意一种。
在本公开的一种示例性实施例中,所述文本向量表示模块还包括主题分布数据确定单元,所述主题分布数据确定单元被配置为:
根据所述主题模型确定所述文本数据对应的主题分布数据;
基于所述主题模型,通过所述主题分布数据对所述文本数据进行转化处理以确定所述文本数据对应的向量表示数据。
在本公开的一种示例性实施例中,所述文本数据选取模块还包括相似文本数据确定单元,所述相似文本数据确定单元被配置为:
根据所述文本数据选择主题数量以及超参数向量,并根据所述主题数量以及所述超参数向量构建并训练目标数量的所述主题模型;
基于目标数量的所述主题模型,分别确定所述相似度超过预设阈值的目标相似文本数据,并将所述目标相似文本数据的交集作为相似文本数据。
在本公开的一种示例性实施例中,所述相似度确定模块还被配置为:
通过预设算法确定所述向量表示数据的相似距离数据;
根据所述相似距离数据确定所述向量表示数据对应的所述文本数据之间的相似度。
在本公开的一种示例性实施例中,所述文本数据选取模块还被配置为:
根据所述相似文本数据的相似度对所述相似文本数据进行排序,确定所述相似文本数据对应的排序列表;
将所述排序列表中第一相似度区间的相似文本数据作为第一文本数据;以及
将所述排序列表中第二相似度区间的相似文本数据作为第二文本数据。
根据本公开的第三方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的方法。
根据本公开的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的方法。
本公开示例性实施例可以具有以下部分或全部有益效果:
在本公开的一示例实施方式所提供的文本数据标注方法中,根据预训练的主题模型对待标注的文本数据进行转化处理,确定文本数据对应的向量表示数据;通过所述向量表示数据确定所述文本数据之间的相似度;并在相似度超过预设阈值的相似文本数据中,提取相似文本数据在预设相似度区间的第一文本数据以及第二文本数据,使目标对象根据第一文本数据以及第二文本数据对相似文本数据进行标注。一方面,根据主题模型对待标注的文本数据进行转化后计算文本数据的相似度,考虑了文本数据中的关键词与主题的关联性,降低了标注好的文本数据中的噪声,提升学习模型通过文本数据进行训练的成功率;另一方面,将相似文本数据在预设相似度区间的第一文本数据以及第二文本数据提取出来,使目标对象根据第一文本数据以及第二文本数据确定相似文本数据的标签,能够避免目标对象仅根据文章的主题对不同标签的相似文本数据标注成同一个标签,提高相似文本数据的标注准确度,提升用户的使用体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了可以应用本公开实施例的一种文本数据标注方法及装置的示例性系统架构的示意图;
图2示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图;
图3示意性示出了根据本公开的一个实施例的文本数据标注方法的流程示意图;
图4示意性示出了根据本公开的一个实施例的主题模型的输入数据的示意图;
图5示意性示出了根据本公开的一个实施例的主题模型概率转换的示意图;
图6示意性示出了根据本公开的一个实施例的训练主题模型的流程示意图;
图7示意性示出了根据本公开的一个实施例的第一文本数据以及第二文本数据在显示界面进行显示的示意图;
图8示意性示出了根据本公开的一个实施例的文本数据标注装置的示意框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
图1示出了可以应用本公开实施例的一种文本数据标注方法及装置的示例性应用环境的系统架构的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一个或多个,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于台式计算机、便携式计算机、智能手机和平板电脑等等。应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
本公开实施例所提供的文本数据标注方法一般由服务器105执行,相应地,文本数据标注装置一般设置于服务器105中。但本领域技术人员容易理解的是,本公开实施例所提供的文本数据标注方法也可以由终端设备101、102、103执行,相应的,文本数据标注装置也可以设置于终端设备101、102、103中,本示例性实施例中对此不做特殊限定。举例而言,在一种示例性实施例中,可以是用户通过终端设备101、102、103将待标注文本数据上传至服务器105,服务器通过本公开实施例所提供的文本数据标注方法将第一文本数据以及第二文本数据传输给终端设备101、102、103等。
图2示出了适于用来实现本公开实施例的电子设备的计算机系统的结构示意图。
需要说明的是,图2示出的电子设备的计算机系统200仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图2所示,计算机系统200包括中央处理单元(CPU)201,其可以根据存储在只读存储器(ROM)202中的程序或者从存储部分208加载到随机访问存储器(RAM)203中的程序而执行各种适当的动作和处理。在RAM 203中,还存储有系统操作所需的各种程序和数据。CPU201、ROM 202以及RAM 203通过总线204彼此相连。输入/输出(I/O)接口205也连接至总线204。
以下部件连接至I/O接口205:包括键盘、鼠标等的输入部分206;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分207;包括硬盘等的存储部分208;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分209。通信部分209经由诸如因特网的网络执行通信处理。驱动器210也根据需要连接至I/O接口205。可拆卸介质211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器210上,以便于从其上读出的计算机程序根据需要被安装入存储部分208。
特别地,根据本公开的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分209从网络上被下载和安装,和/或从可拆卸介质211被安装。在该计算机程序被中央处理单元(CPU)201执行时,执行本申请的方法和装置中限定的各种功能。
需要说明的是,本公开所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如下述实施例中所述的方法。例如,所述的电子设备可以实现如图3或者图6所示的各个步骤等。
以下对本公开实施例的技术方案进行详细阐述:
目前,进行文本数据分类标注的方法主要有:关键词的方法,标注人员通过关键词进行筛选,把包含特定词的文章赋予同一标签;文本聚类的方法,将待标注文档向量化之后进行聚类,然后对每个簇直接赋予同一标签;主题模型的方法,通过训练一批数据的主题模型,获取这批文档的主题,然后对主题进行人工筛选,把包含特定几个主题的文章赋予一个标签。
但是,关键词的方法只能通过几个特定的词就要对文中的标签做出判断,非常的不准确,因为长文档中可能出现一些与该文档主题完全不切合的词,或者切词本身的问题会导致标注人员选定的词和命中的词并不是一个含义,比如“戏剧”,但在文章中“戏剧化的一幕”,“戏剧”指的并不是一个含义,因此会引入大量噪音。聚类本身是无监督的,因此聚类的效果难以把控,常常会出现聚类不均衡的情况,大的聚类簇里的文章往往不属于同一个标签,直接赋予同一标签后会引入大量噪音。人工的干预方式只停留在主题层面上,没有聚焦到文档上,而特定几个主题的组合对应的是一大批的文档,这批文档往往不属于同一个标签,直接赋予同一标签后会引入大量噪音。
基于上述一个或多个问题,本示例实施方式提供了一种文本数据标注方法。该文本数据标注方法可以应用于上述服务器105,也可以应用于上述终端设备101、102、103中的一个或多个,本示例性实施例中对此不做特殊限定。下面以服务器执行该方法为例进行说明,参考图3所示,该文本数据标注方法可以包括以下步骤S310至步骤S340:
步骤S310、获取待标注的文本数据,并根据预训练的主题模型对所述文本数据进行转化处理以确定所述文本数据对应的向量表示数据;
步骤S320、通过所述向量表示数据确定所述文本数据之间的相似度;
步骤S330、确定所述相似度超过预设阈值的相似文本数据,并提取相似文本数据在预设相似度区间的第一文本数据以及第二文本数据;
步骤S340、将所述第一文本数据以及所述第二文本数据呈现到显示界面,以使目标对象根据所述第一文本数据以及所述第二文本数据对所述相似文本数据进行标注。
在本示例实施方式所提供的文本数据标注方法中,一方面,根据主题模型对待标注的文本数据进行转化后计算文本数据的相似度,考虑了文本数据中的关键词与主题的关联性,降低了标注好的文本数据中的噪声,提升学习模型通过文本数据进行训练的成功率;另一方面,将相似文本数据在预设相似度区间的第一文本数据以及第二文本数据提取出来,使目标对象根据第一文本数据以及第二文本数据确定相似文本数据的标签,能够避免目标对象仅根据文章的主题对不同标签的相似文本数据标注成同一个标签,提高相似文本数据的标注准确度,提升用户的使用体验。
下面,对于本示例实施方式的上述步骤进行更加详细的说明。
在步骤S310中,获取待标注的文本数据,并根据预训练的主题模型对所述文本数据进行转化处理以确定所述文本数据对应的向量表示数据。
本公开的一个示例实施例中,待标注的文本数据可以是指需要通过样本标签进行标注的数据,例如待标注的文本数据可以是数据库中存储的预先收集的样本文本数据,也可以是生产者(Business端)生产的线上文章,当然,待标注的文本数据还可以是其他方式获取的用以训练模型的文本数据,本示例实施例对此不做特殊限定。主题模型(topicmodel)可以是指以非监督学习的方式对文本数据集的隐含语义结构(latent semanticstructure)进行聚类(clustering)的统计模型,例如在本示例实施例中主题模型可以是隐含狄利克雷分布模型(Latent Dirichlet Allocation,LDA)。转化处理可以是指通过训练好的主题模型将待标注的文本数据转化成文本向量表示的处理过程。向量表示数据可以是指待标注的文本数据通过转化后生成的机器能够识别的数据。
可选的,在根据预训练的主题模型对所述文本数据进行转化处理之前,需要对主题模型进行训练。首先获取样本数据,并对样本数据进行分词处理以确定样本数据对应的训练数据;根据训练数据对预先构建的主题模型进行训练以生成训练完成的主题模型。样本数据可以是指预先存储的对主题模型进行训练的文章或者段落。分词处理可以是指通过分词算法对样本数据进行分词,并去除停用词得到样本数据对应的关键词的预处理过程。训练数据可以是指根据样本数据进行分词处理后生成的样本数据对应的关键词。根据训练数据对预先构建的主题模型(例如预先构建的LDA模型)进行训练,得到训练好的主题模型。通过训练数据对主题模型进行训练,能够提高主题模型的训练效率,以及训练好的主题模型的转化准确率。
具体的,根据主题模型确定文本数据对应的主题分布数据;基于主题模型,通过主题分布数据对文本数据进行转化处理以确定文本数据对应的向量表示数据。主题分布数据可以是指每一篇文本数据中的主题分布和每一个主题中词的分布。通过结合主题模型确定的主题分布数据将文本数据转化成向量表示数据,得到的向量表示数据能够更加贴合该文本数据的主题或者内容,提高文本数据的标注准确度。
进一步的,基于预设算法,根据训练数据对预先构建的主题模型进行训练以生成训练完成的所述主题模型;预设算法可以是指能够对主题模型进行训练时所使用的统计算法,例如预设算法可以是变分推断最大期望算法(变分推断EM算法),也可以是吉布斯采样算法(Gibbs采样算法),当然,预设算法还可以是其他能够对主题模型进行训练的算法,本示例实施例对此不做特殊限定。
图4示意性示出了根据本公开的一个实施例的主题模型的输入数据的示意图。
参考图4所示,假如有M篇文本数据,对应第d个文本数据中有Nd个词,则这Nd个词主题模型的输入(即通过样本数据得到的训练数据)。
在本示例实施例中,主题模型可以是隐含狄利克雷分布模型LDA模型,其原理具体是通过将图4所示的输入数据输入到主题模型中,目标是找到每一篇文档的主题分布和每一个主题中词的分布。在LDA模型中,先假定一个主题数目K,这样所有的分布就都基于K个主题展开。
图5示意性示出了根据本公开的一个实施例的主题模型概率转换的示意图。
参考图5所示,LDA模型可以假设文档对应主题的先验分布是Dirichlet分布,即对于任一文档d,其主题分布θd可以表示为关系式(1):
Figure BDA0002225667250000121
其中,α为分布的超参数,是一个K维向量。LDA假设主题中词的先验分布是Dirichlet分布,即对于任一主题k,其词分布βk可以表示为关系式(2):
Figure BDA0002225667250000122
其中,η为分布的超参数,是一个V维向量。V代表词汇表里所有词的个数。对于数据中任意一篇文档d中的第n个词,可以从主题分布θd中得到它的主题编号zdn的分布可以表示为关系式(3):
zdn=multi(θd) (3)
而对于该主题编号,得到词wdn的概率分布可以表示为关系式(4):
Figure BDA0002225667250000131
在上述模型里,有M个文档主题的Dirichlet分布,而对应的数据有M个主题编号的多项分布,这样
Figure BDA0002225667250000132
就组成了Dirichlet-multi共轭,可以使用前面提到的贝叶斯推断的方法得到基于Dirichlet分布的文档主题后验分布。
如果在第d个文档中,第k个主题的词的个数为:
Figure BDA0002225667250000133
则对应的多项分布的计数可以表示为关系式(5):
利用Dirichlet-multi共轭,得到θd的后验分布可以表示为关系式(6):
Figure BDA0002225667250000135
同样的道理,对于主题与词的分布,有K个主题与词的Dirichlet分布,而对应的数据有K个主题编号的多项分布,这样
Figure BDA0002225667250000136
就组成了Dirichlet-multi共轭,可以使用前面提到的贝叶斯推断的方法得到基于Dirichlet分布的主题词的后验分布。
如果在第k个主题中,第v个词的个数为:
Figure BDA0002225667250000137
则对应的多项分布的计数可以表示为关系式(7):
利用Dirichlet-multi共轭,得到βk的后验分布可以表示为关系式(8):
Figure BDA0002225667250000139
在Gibbs采样算法求解LDA的方法中,α,β是已知的先验输入,目标是得到各个zdn,wkn对应的整体
Figure BDA00022256672500001310
的概率分布,即文档主题的分布和主题词的分布。采用Gibbs采样法,则对于要求的目标分布,需要得到对应分布各个特征维度的条件概率分布。
所有文档联合起来形成的词向量
Figure BDA00022256672500001311
是已知的数据,不知道的是语料库主题
Figure BDA00022256672500001312
的分布。假如可以先求出w,z的联合分布
Figure BDA00022256672500001313
进而可以求出某一个词wi对应主题特征zi的条件概率分布其中,
Figure BDA00022256672500001315
代表去掉下标为i的词后的主题分布。有了条件概率分布
Figure BDA0002225667250000141
进行Gibbs采样,最终在Gibbs采样收敛后得到第i个词的主题。
通过采样得到了所有词的主题,那么通过统计所有词的主题计数,就可以得到各个主题的词分布。接着统计各个文档对应词的主题计数,就可以得到各个文档的主题分布。
其中,Gibbs采样的基本原理为:输入平稳分布π(x1,x2,…,xn)或者对应的所有特征的条件概率分布,设定状态转移次数阈值n1,需要的样本个数n2;随机初始化初始状态值
Figure BDA0002225667250000142
从条件概率分布
Figure BDA0002225667250000143
中采样得到样本从条件概率分布
Figure BDA0002225667250000145
中采样得到样本
Figure BDA0002225667250000146
以及从条件概率分布
Figure BDA0002225667250000147
中采样得到样本以此类推,从条件概率分布
Figure BDA0002225667250000149
中采样得到样本
Figure BDA00022256672500001410
则样本集
Figure BDA00022256672500001411
即为需要的平稳分布对应的样本集。
在步骤S320中,通过所述向量表示数据确定所述文本数据之间的相似度。
本公开的一个示例实施例中,相似度可以是指度量文本数据之间相似程度的数据,相似度越高则可以表示这两篇文本数据中的主题或者内容更加相似,可以归为同一标签。通过相关的相似度计算算法计算向量表示数据对应的文本数据之间的相似度。
具体的,通过预设算法确定向量表示数据的相似距离数据;根据相似距离数据确定向量表示数据对应的文本数据之间的相似度。预设算法可以是指预先设置的能够通过向量表示数据计算文本数据之间相似度的相似度计算算法,例如预设算法可以是余弦相似度算法,也可以是欧氏距离算法,当然,还可以是皮尔逊相关系数算法,本示例实施例对此不做特殊限定。相似距离数据可以是指通过预设算法确定的文本数据之间的相似距离的数据,例如相似距离数据可以是通过余弦相似度算法计算向量表示数据中向量之间的余弦值或者夹角角度,当然,相似距离数据还可以是通过欧氏距离算法计算向量表示数据中向量之间的实际距离,本示例实施例对此不做特殊限定,最后可以根据相似距离数据确定向量表示数据对应的文本数据之间的相似度。根据相似距离数据确定文本数据之间的相似度,提高了相似文本数据的判定准确率。
在步骤S330中,确定所述相似度超过预设阈值的相似文本数据,并提取相似文本数据在预设相似度区间的第一文本数据以及第二文本数据。
本公开的一个示例实施例中,预设阈值可以是指预先设置的用于判别文本数据为相似文本数据的数值,例如通过余弦相似度算法确定的文本数据之间的相似度在0到1之间,预设阈值可以是0.8,即相似度超过0.8的文本数据判定为相似的文本数据,相似度没有超过0.8的文本数据判定为不相似的文本数据。相似文本数据可以是指相似度超过预设阈值的文本数据的集合,即可以将相似度超过预设阈值的文本数据暂时认为是同一标签的相似的文本数据。预设相似度区间可以是指在筛选的相似文本数据中划分出的相似度区间,以根据在预设相似度区间中的文本数据判定相似文本数据的所有文本数据是否对应同一标签。第一文本数据可以是指预设相似度区间划分出的一部分文本数据的集合,第二文本数据可以是指预设相似度区间划分出的另一部分文本数据的集合,区别于第一文本数据且与第一文本数据相关联,目标对象可以结合第一文本数据以及第二文本数据的主题或者内容判定是否将第一文本数据以及第二文本数据对应的相似文本数据标注为同一标签,例如在判定第一文本数据以及第二文本数据对应的主题或者内容不相同时,则可以认为相似文本数据不能标注为同一类标签;在判定第一文本数据以及第二文本数据对应的主题或者内容相同时,则可以认为相似文本数据是同一类型的,可以标注为同一类标签。
具体的,根据相似文本数据的相似度对相似文本数据进行排序,确定相似文本数据对应的排序列表;将排序列表中第一相似度区间的相似文本数据作为第一文本数据;以及将排序列表中第二相似度区间的相似文本数据作为第二文本数据。排序列表可以是指将相似文本数据中的文本数据根据相似度进行排序生成的列表,例如排序列表可以是根据相似度大小由大到小排列,也可以是根据相似度大小由小到大排列,本示例实施例不以此为限。此时预设相似度区间可以包括第一相似度区间以及第二相似度区间,其中第一相似度区间可以表示排序列表中相似度较高的K个文本数据,第二相似度区间可以表示排序列表中相似度较低的K个文本数据。第一文本数据可以是指对应第一相似度区间的文本数据,即相似文本数据中相似度最高的K个文本数据的集合;第二文本数据可以是指对应第二相似度区间的文本数据,即相似文本数据中相似度最低的K个文本数据的集合。通过提取相似文本数据中的最相似的K个文本数据以及最不相似的K个第二文本数据,并通过最相似的K个文本数据以及最不相似的K个第二文本数据判定相似文本数据中的所有文本数据是否属于同一标签类型,能够在提升文本数据标注效率的同时,保证文本数据的标注准确率。
具体的,根据文本数据选择主题数量以及超参数向量,并根据主题数量以及超参数向量构建并训练目标数量的主题模型;基于目标数量的主题模型,分别确定相似度超过预设阈值的目标相似文本数据,并将目标相似文本数据的交集作为相似文本数据。主题数量可以是指在对主题模型进行训练时根据文本数据的数量以及涉及领域范围选取的数量,例如如果文本数据的数量有1000时,可以选择主题数量为20,如果文本数据的数量有10000时,可以选择主题数量为300,当然,此处仅是示意性说明,本示例实施例对此不做特殊限定。超参数向量可以是指在主题模型进行训练之前设置主题模型的向量,通过选择合适的超参数向量,可以提高主题模型训练的性能和效果。目标相似文本数据可以是指通过不同超参数训练的主题模型进行向量表示转换后得到地不同的相似文本数据,最后计算不同的目标相似文本数据的交集,并将交集计算之后的结果作为相似文本数据。
图6示意性示出了根据本公开的一个实施例的训练主题模型的流程示意图。
参考图6所示,步骤S610,根据语料规模和语料内容选择合适的主题数K以及选择合适的超参数向量α,β。其中超参数向量α,β主要是调整训练结果中词和主题之间的聚合程度。例如可以选取2组参数训练不同的主题模型,一组K=200、α=0.2、β=0.01,另一组为K=300、α=0.2、β=0.01;
步骤S620,对应语料库中每一篇文档的每一个词,随机的赋予一个topic编号z,用于初始化文档的主题分布;
步骤S630,重新扫描语料库,对于每一篇文档的每一个词,利用Gibbs采样公式更新它的topic编号,并更新语料库中该词的编号;
步骤S640,重复步骤S630的基于坐标轴轮换的Gibbs采样,直到Gibbs采样收敛;
步骤S650,统计语料库中的各个文档各个词的主题,得到文档主题分布θd,统计语料库中各个主题词的分布,得到LDA模型的主题与词的分布βk
在步骤S340中,将所述第一文本数据以及所述第二文本数据呈现到显示界面,以使目标对象根据所述第一文本数据以及所述第二文本数据对所述相似文本数据进行标注。
本公开的一个示例实施例中,显示界面可以是指呈现相似文本数据、第一文本数据以及第二文本数据的终端设备对应的显示单元。目标对象可以是指能够根据第一文本数据以及第二文本数据对应的主题或者内容判定相似文本数据中的文本数据是否属于同一标签类型的对象,例如目标对象可以是标注人员,也可以是具有判断分类能力的标注机器人,当然,目标对象还可以是具有与标注分类功能的标注脚本,本示例实施例对此不做特殊限定。例如在判定第一文本数据以及第二文本数据对应的主题或者内容不相同时,则可以认为相似文本数据不能标注为同一类标签;在判定第一文本数据以及第二文本数据对应的主题或者内容相同时,则可以认为相似文本数据是同一类型的,可以标注为同一类标签。
在本示例实施例中,可以使用Tornado网络服务框架,用于和前端进行交互。Tornado就是在FriendFeed的Web服务器及其常用工具的开源版本。Tornado和现在的主流Web服务器框架(包括大多数Python的框架)有着明显的区别:它是非阻塞式服务器,而且速度相当快。得利于其非阻塞的方式和对epoll的运用,Tornado每秒可以处理数以千计的连接,因此Tornado是实时Web服务的一个理想框架。由于在待标注数据较多时,文本距离的计算会消耗较长的时间,而通过使用Tornado网络服务框架能够在标注人员标注当前文本的时候会计算下一篇可以呈现给标注人员的文章,减少了标注人员的等待时长,提升了标注操作的流畅性。
图7示意性示出了根据本公开的一个实施例的第一文本数据以及第二文本数据在显示界面进行显示的示意图。
参考图7所示,首先系统从待标注数据库中随机选取的目标文章,呈现给标注人员,显示界面中的方框701可以用以显示与目标文章相似且相似度超过预设阈值的多个文章,并根据相似度进行排序后显示给标注人员;方框702可以显示方框701显示的文章中最相似的K篇文章;方框703可以显示显示方框701显示的文章中最不相似的K篇文章。标注人员给出该篇文章的正确标签,同时标注人员通过观察最相似的K篇文章和最不相似的K篇文章判断系统给出的相似文章是否可靠,如果可靠可以将给出的相似文章全部入库,大大的提升了标注效率。
应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
进一步的,本示例实施方式中,还提供了一种文本数据标注装置。该文本数据标注装置可以应用于一服务器或终端设备。参考图8所示,该文本数据标注装置800可以包括文本向量表示模块810、相似度确定模块820、文本数据选取模块830以及文本数据标注模块840。其中:
文本向量表示模块810用于获取待标注的文本数据,并根据预训练的主题模型对所述文本数据进行转化处理以确定所述文本数据对应的向量表示数据;
相似度确定模块820用于通过所述向量表示数据确定所述文本数据之间的相似度;
文本数据选取模块830用于确定所述相似度超过预设阈值的相似文本数据,并提取相似文本数据在预设相似度区间的第一文本数据以及第二文本数据;
文本数据标注模块840用于将所述第一文本数据以及所述第二文本数据呈现到显示界面,以使目标对象根据所述第一文本数据以及所述第二文本数据对所述相似文本数据进行标注。
在本公开的一种示例性实施例中,所述文本数据标注装置800还包括:
训练数据确定单元,用于获取样本数据,并对所述样本数据进行分词处理以确定所述样本数据对应的训练数据;
主题模型训练单元,用于根据所述训练数据对预先构建的主题模型进行训练以生成训练完成的所述主题模型。
在本公开的一种示例性实施例中,所述主题模型训练单元还被配置为:
基于预设算法,根据所述训练数据对预先构建的主题模型进行训练以生成训练完成的所述主题模型;
其中,所述预设算法包括变分推断最大期望算法或者吉布斯采样算法中的任意一种。
在本公开的一种示例性实施例中,所述文本向量表示模块810还包括主题分布数据确定单元,所述主题分布数据确定单元被配置为:
根据所述主题模型确定所述文本数据对应的主题分布数据;
基于所述主题模型,通过所述主题分布数据对所述文本数据进行转化处理以确定所述文本数据对应的向量表示数据。
在本公开的一种示例性实施例中,所述文本数据选取模块830还包括相似文本数据确定单元,所述相似文本数据确定单元被配置为:
根据所述文本数据选择主题数量以及超参数向量,并根据所述主题数量以及所述超参数向量构建并训练目标数量的所述主题模型;
基于目标数量的所述主题模型,分别确定所述相似度超过预设阈值的目标相似文本数据,并将所述目标相似文本数据的交集作为相似文本数据。
在本公开的一种示例性实施例中,所述相似度确定模块820还被配置为:
通过预设算法确定所述向量表示数据的相似距离数据;
根据所述相似距离数据确定所述向量表示数据对应的所述文本数据之间的相似度。
在本公开的一种示例性实施例中,所述文本数据选取模块830还被配置为:
根据所述相似文本数据的相似度对所述相似文本数据进行排序,确定所述相似文本数据对应的排序列表;
将所述排序列表中第一相似度区间的相似文本数据作为第一文本数据;以及
将所述排序列表中第二相似度区间的相似文本数据作为第二文本数据。
上述文本数据标注装置中各模块或单元的具体细节已经在对应的文本数据标注方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (10)

1.一种文本数据标注方法,其特征在于,包括:
获取待标注的文本数据,并根据预训练的主题模型对所述文本数据进行转化处理以确定所述文本数据对应的向量表示数据;
通过所述向量表示数据确定所述文本数据之间的相似度;
确定所述相似度超过预设阈值的相似文本数据,并提取相似文本数据在预设相似度区间的第一文本数据以及第二文本数据;
将所述第一文本数据以及所述第二文本数据呈现到显示界面,以使目标对象根据所述第一文本数据以及所述第二文本数据对所述相似文本数据进行标注。
2.根据权利要求1所述的文本数据标注方法,其特征在于,在根据预训练的主题模型对所述文本数据进行转化处理以确定所述文本数据对应的向量表示数据之前,所述方法还包括:
获取样本数据,并对所述样本数据进行分词处理以确定所述样本数据对应的训练数据;
根据所述训练数据对预先构建的主题模型进行训练以生成训练完成的所述主题模型。
3.根据权利要求2所述的文本数据标注方法,其特征在于,根据所述训练数据对预先构建的主题模型进行训练包括:
基于预设算法,根据所述训练数据对预先构建的主题模型进行训练以生成训练完成的所述主题模型;
其中,所述预设算法包括变分推断最大期望算法或者吉布斯采样算法中的任意一种。
4.根据权利要求1所述的文本数据标注方法,其特征在于,根据预训练的主题模型对所述文本数据进行转化处理以确定所述文本数据对应的向量表示数据包括:
根据所述主题模型确定所述文本数据对应的主题分布数据;
基于所述主题模型,通过所述主题分布数据对所述文本数据进行转化处理以确定所述文本数据对应的向量表示数据。
5.根据权利要求1所述的文本数据标注方法,其特征在于,所述确定所述相似度超过预设阈值的相似文本数据包括:
根据所述文本数据选择主题数量以及超参数向量,并根据所述主题数量以及所述超参数向量构建并训练目标数量的所述主题模型;
基于目标数量的所述主题模型,分别确定所述相似度超过预设阈值的目标相似文本数据,并将所述目标相似文本数据的交集作为相似文本数据。
6.根据权利要求1所述的文本数据标注方法,其特征在于,通过所述向量表示数据确定所述文本数据之间的相似度包括:
通过预设算法确定所述向量表示数据的相似距离数据;
根据所述相似距离数据确定所述向量表示数据对应的所述文本数据之间的相似度。
7.根据权利要求1所述的文本数据标注方法,其特征在于,所述预设相似度区间包括第一相似度区间以及第二相似度区间,所述提取相似文本数据在预设相似度区间的第一文本数据以及第二文本数据包括:
根据所述相似文本数据的相似度对所述相似文本数据进行排序,确定所述相似文本数据对应的排序列表;
将所述排序列表中所述第一相似度区间的相似文本数据作为第一文本数据;以及
将所述排序列表中所述第二相似度区间的相似文本数据作为第二文本数据。
8.一种文本数据标注装置,其特征在于,包括:
文本向量表示模块,用于获取待标注的文本数据,并根据预训练的主题模型对所述文本数据进行转化处理以确定所述文本数据对应的向量表示数据;
相似度确定模块,用于通过所述向量表示数据确定所述文本数据之间的相似度;
文本数据选取模块,用于确定所述相似度超过预设阈值的相似文本数据,并提取相似文本数据在预设相似度区间的第一文本数据以及第二文本数据;
文本数据标注模块,用于将所述第一文本数据以及所述第二文本数据呈现到显示界面,以使目标对象根据所述第一文本数据以及所述第二文本数据对所述相似文本数据进行标注。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7任一项所述的方法。
10.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-7任一项所述的方法。
CN201910951053.4A 2019-10-08 2019-10-08 文本数据标注方法及装置、存储介质、电子设备 Active CN110807086B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910951053.4A CN110807086B (zh) 2019-10-08 2019-10-08 文本数据标注方法及装置、存储介质、电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910951053.4A CN110807086B (zh) 2019-10-08 2019-10-08 文本数据标注方法及装置、存储介质、电子设备

Publications (2)

Publication Number Publication Date
CN110807086A true CN110807086A (zh) 2020-02-18
CN110807086B CN110807086B (zh) 2024-02-06

Family

ID=69488192

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910951053.4A Active CN110807086B (zh) 2019-10-08 2019-10-08 文本数据标注方法及装置、存储介质、电子设备

Country Status (1)

Country Link
CN (1) CN110807086B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111522854A (zh) * 2020-03-18 2020-08-11 大箴(杭州)科技有限公司 一种数据标注方法、装置、存储介质及计算机设备
CN111597336A (zh) * 2020-05-14 2020-08-28 腾讯科技(深圳)有限公司 训练文本的处理方法、装置、电子设备及可读存储介质
CN112069785A (zh) * 2020-08-06 2020-12-11 北京明略昭辉科技有限公司 用于提高标注效率的文本抽样方法及装置
CN112270185A (zh) * 2020-10-29 2021-01-26 山西大学 一种基于主题模型的文本表示方法
CN112836043A (zh) * 2020-10-13 2021-05-25 讯飞智元信息科技有限公司 一种基于预训练语言模型的长文本聚类方法及装置
CN113806565A (zh) * 2021-11-18 2021-12-17 中科雨辰科技有限公司 一种文本标注的数据处理系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106407169A (zh) * 2016-09-09 2017-02-15 北京工商大学 一种基于主题模型的文档标注方法
WO2019037195A1 (zh) * 2017-08-25 2019-02-28 平安科技(深圳)有限公司 用户兴趣识别方法、装置及计算机可读存储介质
CN110209810A (zh) * 2018-09-10 2019-09-06 腾讯科技(深圳)有限公司 相似文本识别方法以及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106407169A (zh) * 2016-09-09 2017-02-15 北京工商大学 一种基于主题模型的文档标注方法
WO2019037195A1 (zh) * 2017-08-25 2019-02-28 平安科技(深圳)有限公司 用户兴趣识别方法、装置及计算机可读存储介质
CN110209810A (zh) * 2018-09-10 2019-09-06 腾讯科技(深圳)有限公司 相似文本识别方法以及装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111522854A (zh) * 2020-03-18 2020-08-11 大箴(杭州)科技有限公司 一种数据标注方法、装置、存储介质及计算机设备
CN111522854B (zh) * 2020-03-18 2023-08-01 大箴(杭州)科技有限公司 一种数据标注方法、装置、存储介质及计算机设备
CN111597336A (zh) * 2020-05-14 2020-08-28 腾讯科技(深圳)有限公司 训练文本的处理方法、装置、电子设备及可读存储介质
CN111597336B (zh) * 2020-05-14 2023-12-22 腾讯科技(深圳)有限公司 训练文本的处理方法、装置、电子设备及可读存储介质
CN112069785A (zh) * 2020-08-06 2020-12-11 北京明略昭辉科技有限公司 用于提高标注效率的文本抽样方法及装置
CN112836043A (zh) * 2020-10-13 2021-05-25 讯飞智元信息科技有限公司 一种基于预训练语言模型的长文本聚类方法及装置
CN112270185A (zh) * 2020-10-29 2021-01-26 山西大学 一种基于主题模型的文本表示方法
CN113806565A (zh) * 2021-11-18 2021-12-17 中科雨辰科技有限公司 一种文本标注的数据处理系统
CN113806565B (zh) * 2021-11-18 2022-03-25 中科雨辰科技有限公司 一种文本标注的数据处理系统

Also Published As

Publication number Publication date
CN110807086B (zh) 2024-02-06

Similar Documents

Publication Publication Date Title
CN110807086B (zh) 文本数据标注方法及装置、存储介质、电子设备
CN109241524B (zh) 语义解析方法及装置、计算机可读存储介质、电子设备
CN107491432B (zh) 基于人工智能的低质量文章识别方法及装置、设备及介质
CN110727779A (zh) 基于多模型融合的问答方法及系统
CN112163424B (zh) 数据的标注方法、装置、设备和介质
CN111104526A (zh) 一种基于关键词语义的金融标签提取方法及系统
CN111460221B (zh) 评论信息处理方法、装置及电子设备
CN105279495A (zh) 一种基于深度学习和文本总结的视频描述方法
CN112148881B (zh) 用于输出信息的方法和装置
US11120268B2 (en) Automatically evaluating caption quality of rich media using context learning
US20200005194A1 (en) Machine learning for associating skills with content
CN108959305A (zh) 一种基于互联网大数据的事件抽取方法及系统
CN109948160B (zh) 短文本分类方法及装置
Lavanya et al. Twitter sentiment analysis using multi-class SVM
CN109086265A (zh) 一种语义训练方法、短文本中多语义词消歧方法
CN113051914A (zh) 一种基于多特征动态画像的企业隐藏标签抽取方法及装置
CN107368521A (zh) 一种基于大数据和深度学习的知识推介方法及系统
CN112188312A (zh) 用于确定新闻的视频素材的方法和装置
WO2020135054A1 (zh) 视频推荐方法、装置、设备及存储介质
CN115269816A (zh) 基于信息处理方法的核心人员挖掘方法、装置和存储介质
CN117891939A (zh) 粒子群算法结合cnn卷积神经网络的文本分类方法
CN117291192B (zh) 一种政务文本语义理解分析方法及系统
CN108694176A (zh) 文档情感分析的方法、装置、电子设备和可读存储介质
CN110457436B (zh) 信息标注方法、装置、计算机可读存储介质及电子设备
CN113705159A (zh) 商户名称的标注方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40021049

Country of ref document: HK

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant