CN111506729A - 一种信息处理方法、装置及计算机可读存储介质 - Google Patents

一种信息处理方法、装置及计算机可读存储介质 Download PDF

Info

Publication number
CN111506729A
CN111506729A CN202010304736.3A CN202010304736A CN111506729A CN 111506729 A CN111506729 A CN 111506729A CN 202010304736 A CN202010304736 A CN 202010304736A CN 111506729 A CN111506729 A CN 111506729A
Authority
CN
China
Prior art keywords
information
text
trained
vector
text information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010304736.3A
Other languages
English (en)
Other versions
CN111506729B (zh
Inventor
韩金新
汤玉垚
王凝华
刘鹤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010304736.3A priority Critical patent/CN111506729B/zh
Publication of CN111506729A publication Critical patent/CN111506729A/zh
Application granted granted Critical
Publication of CN111506729B publication Critical patent/CN111506729B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请实施例公开了一种信息处理方法、装置及计算机可读存储介质,本申请实施例通过获取目标待处理文本信息;通过训练后的神经网络模型从目标待处理文本信息中提取相应的文本向量信息,该训练后的模型为对带有标签的待训练文本信息形成的待训练文本向量信息按照标签类型进行空间分类训练得到;将文本向量信息按照空间距离进行聚类,确定不同聚类的文本信息。以此,可以通过按照标签类型进行空间分类训练的训练后的模型从目标待处理文本信息中提取分类界定更大的文本向量信息,使得根据文本向量信息按照空间距离进行聚类,得到的不同聚类的文本信息的聚类效果更准确,节省了人工成本,极大的提升了信息处理的效率。

Description

一种信息处理方法、装置及计算机可读存储介质
技术领域
本申请涉及通信技术领域,具体涉及一种信息处理方法、装置及计算机可读存储介质。
背景技术
目前用于解答用户问题的智能导购机器人,核心主要是基于知识库工作的,这里的知识库中存储有问题和答案,并且每个问题都会对应有一个答案,即问题与答案具有一个对应关系,用户提出的问题可以在知识库中匹配到对应的答案,则智能导购机器人可以快速的将答案反馈给用户。
现有技术中,建立知识库往往需要有经验的专业人员手动设立知识点,即专业人员针对当前领域的不同的问题手动设置不同的答案,实现知识库的建立,还可以人工将相似的问题进行归类处理,对于每一分类设置不同的答案,实现知识库的快速建立。
在对现有技术的研究和实践过程中,本申请的发明人发现,现有技术中,都是通过人工方式进行知识库的建立,费时费力,对于信息处理的效率较低。
发明内容
本申请实施例提供一种信息处理方法、装置及计算机可读存储介质,可以提升信息处理的效率。
为解决上述技术问题,本申请实施例提供以下技术方案:
一种信息处理方法,包括:
获取目标待处理文本信息;
通过训练后的神经网络模型从所述目标待处理文本信息中提取相应的文本向量信息,所述训练后的神经网络模型为对带有标签的待训练文本信息形成的待训练文本向量信息按照标签类型进行空间分类训练得到;
将所述文本向量信息按照空间距离进行聚类,确定不同聚类的文本信息。
一种信息处理装置,包括:
第一获取单元,用于获取目标待处理文本信息;
提取单元,用于通过训练后的神经网络模型从所述目标待处理文本信息中提取相应的文本向量信息,所述训练后的神经网络模型为对带有标签的待训练文本信息形成的待训练文本向量信息按照标签类型进行空间分类训练得到;
聚类单元,用于将所述文本向量信息按照空间距离进行聚类,确定不同聚类的文本信息。
在一些实施例中,所述预设损失函数为ArcFace损失函数,所述训练单元,用于:
将所述待训练文本向量信息输入至所述ArcFace损失函数;
通过所述ArcFace损失函数按照标签类型数量确定相应的空间距离,并将所述待训练文本向量信息转换为空间向量信息;
通过所述ArcFace损失函数基于所述空间距离按照所述标签类型对所述空间向量信息进行空间分类训练,得到训练后的神经网络模型。
在一些实施例中,所述装置还包括:
迭代训练单元,用于接收对所述不同聚类的文本信息的标签标定操作;
将标签标定操作之后的文本信息输出至训练后的神经网络模型进行迭代训练。
一种计算机可读存储介质,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行上述信息处理方法中的步骤。
本申请实施例通过获取目标待处理文本信息;通过训练后的神经网络模型从目标待处理文本信息中提取相应的文本向量信息,该训练后的模型为对带有标签的待训练文本信息形成的待训练文本向量信息按照标签类型进行空间分类训练得到;将文本向量信息按照空间距离进行聚类,确定不同聚类的文本信息。以此,可以通过按照标签类型进行空间分类训练的训练后的模型从目标待处理文本信息中提取分类界定更大的文本向量信息,使得根据文本向量信息按照空间距离进行聚类,得到的不同聚类的文本信息的聚类效果更准确,节省了人工成本,极大的提升了信息处理的效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的信息处理系统的场景示意图;
图2是本申请实施例提供的信息处理方法的流程示意图;
图3是本申请实施例提供的信息处理方法的另一流程示意图;
图4a为本申请实施例提供的信息处理方法的应用场景示意图;
图4b为本申请实施例提供的信息处理方法的另一应用场景示意图;
图4c为本申请实施例提供的信息处理方法的另一应用场景示意图;
图5是本申请实施例提供的信息处理装置的结构示意图;
图6是本申请实施例提供的服务器的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供一种信息处理方法、装置、及计算机可读存储介质。
请参阅图1,图1为本申请实施例所提供的信息处理系统的场景示意图,包括:终端A、和服务器(该信息处理系统还可以包括除终端A之外的其他终端,终端具体个数在此处不作限定),终端A与服务器之间可以通过通信网络连接,该通信网络,可以包括无线网络以及有线网络,其中无线网络包括无线广域网、无线局域网、无线城域网、以及无线个人网中的一种或多种的组合。网络中包括路由器、网关等等网络实体,图中并未示意出。终端A可以通过通信网络与服务器进行信息交互,比如终端A通过购物应用在线上向智能导购机器人进行提问时,终端A可以采集提问信息,如“请问寄到哪儿去了”等等,将该提问信息生成目标待处理文本信息发送至服务器。
该信息处理系统可以包括信息处理装置,该信息处理装置具体可以集成在服务器中,在一些实施方式中,该信息处理装置还可以集成在具有运算能力的终端中,在本实施例中,以该信息处理装置集成在服务器中进行说明,如图1所示,该服务器接收终端A发送的待处理文本信息,通过训练后的神经网络模型从该目标待处理文本信息中提取相应的文本向量信息,由于该训练后的神经网络模型为对带有标签的待训练文本向量信息按照标签类型进行空间分类训练得到,所以通过该训练后的神经网络模型提取的文本向量信息在分类的界定性更强,使得后续将文本向量信息按照空间距离进行聚类更加容易,可以准确的获取不同聚类的文本信息,进而将目标待处理文本信息自动的划分为不同聚类的文本信息,使得后续可以根据该不同聚类的文本信息快速建立知识库,很好的节省了人力成本,且引入空间分类训练模式,使得分类的准确率更好。
该信息处理系统中终端A可以安装各种用户需要的应用,比如购物类应用等,终端A可以在该购物类应用上发起提问信息,由服务器根据该提问信息查询相应的知识库,进行快速的答案反馈。
需要说明的是,图1所示的信息处理系统的场景示意图仅仅是一个示例,本申请实施例描述的信息处理系统以及场景是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域普通技术人员可知,随着信息处理系统的演变和新业务场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
以下分别进行详细说明。需说明的是,以下实施例的序号不作为对实施例优选顺序的限定。
在本实施例中,将从信息处理装置的角度进行描述,该信息处理装置具体可以集成在具备储存单元并安装有微处理器而具有运算能力的计算机设备中,计算机设备可以是服务器或者终端,在本实施例中以计算机设备是服务器为例进行说明。
请参阅图2,图2是本申请实施例提供的信息处理方法的流程示意图。该信息处理方法包括:
在步骤101中,获取目标待处理文本信息。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
自然语言处理(Nature Language processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
本申请实施例提供的方案涉及人工智能的自然语言处理技术等技术,具体通过如下实施例进行说明:
可以理解的是,每个商家为了快速回答用户的问题,往往会想建立智能导购机器人,会人工的将相似的问题进行归类处理,并对于每一分类的问题设置不同的答案,实现知识库的快速建立,但是该人工的设置方式往往会不够全面,出现新的问题还需要进行人工归纳,使得该智能导购机器人的维护比较麻烦。
其中,本申请中可以预先训练用于识别文本向量信息的神经网络模型,该神经网络模型可以为BERT模型,该BERT模型为基于Transormer的双向编码器表征,顾名思义,该BERT模型的根基就是Transormer,该Transormer是神经语言程序学(Neuro-LinguisticProgramming,NLP)领域主流的特征抽取器,BERT使用Transormer的编码器部分采用特定的任务在大规模语料上学习文本抽象表示,做为其他NLP任务的基础模型,但是,在实际过程中,到不同任务后还需要对模型做微调(finetune),其中,不同的微调任务对语义表示质量影响较大,相关技术中的文本语义分析分析均不能准确的提出到输入的目标待处理文本信息的文本向量信息,因此也就不能对目标待处理文本信息进行准确的分类。
例如,该BERT模型可以通过引入常规的损失函数对带有标签的待训练文本进行预先训练,使得训练后的BERT模型可以对目标待处理文本信息进行提取,得到相应的文本向量信息,由于该损失函数对语义表示质量较差,因而使得该文本向量信息的分类效果也不太理想,该文本向量信息由多个词向量(Word Embedding)组成,该词向量为词语嵌入式自然语言处理中的一组语言建模和特征学习技术的统称,来自词汇表的单词或短语被映射到实数的向量,从概念上讲,它涉及从每个单词一维的空间向量到具有更低维度的连续向量空间的数学嵌入,其中为了更好的说明本申请实施例,先对训练过程进行解释,首先获取大量的目标待训练文本信息,该目标待训练文本信息均带有相应的标签,该标签用于区分目标待训练文本信息的类别,例如,“签收”或者“物流时间”等标签,相关技术的BERT模型通过分析目标待训练文本信息的特征后直接使用常规损失函数进行计算,而不考虑标签间的互信息,例如该损失函数如下:
Figure BDA0002455333410000061
该损失函数是深度学习中的一种损失函数,用于度量预测结果和真实标记之间的差距损失,该N表示总的目标待训练文本信息的数量,e表示对特征进行指数变换,w,b表示对特征需要学习的向量参数,xi表示目标待训练文本信息相应的待训练文本向量信息,yi表示标签,在训练的过程中,将相应的目标待训练文本信息xi和标签yi代入损失函数,根据不断的调整该
Figure BDA0002455333410000062
的比重,进而调整该BERT模型的模型参数,使得训练后的BERT模型可以直接对目标待处理文本信息进行文本向量信息的提取,由于该常规的损失函数未考虑标签间的距离信息,所以通过该常规的损失函数训练得到的BERT模型对于目标待处理文本信息提取的文本向量信息之间区别度不是很大,进而影响后期的聚类效果。
而本申请实施例通过将该常规的损失函数进行替换,引入Arcface损失函数,对文本向量信息进行空间变换,使得标签间的距离信息能够得到更充分的利用,例如,该Arcface损失函数如下:
Figure BDA0002455333410000071
该Arcface损失函数在常规的损失函数的基础上通过将
Figure BDA0002455333410000072
转换为
Figure BDA0002455333410000073
将xi转换为
Figure BDA0002455333410000074
进而使得该
Figure BDA0002455333410000075
转化为cosθ,使得
Figure BDA0002455333410000076
转换为
Figure BDA0002455333410000077
该N表示总的目标待训练文本信息的数量,e表示对特征进行指数变换,该s为空间的半径,该m为不同标签之间的空间距离,yi表示标签,实现将目标待训练文本信息相应的待训练文本向量信息转化为空间向量信息,且设定不同标签的空间向量信息至少相隔m的空间距离,因而使得相同类别的空间向量信息更紧凑,不同类别的空间向量信息之间的间隔距离更大,所以通过该Arcface损失函数可以使得训练后的BERT模型对于目标待处理文本信息提取的文本向量信息之间区别度增大,进而更好的进行聚类区分。
基于此,本申请实施例获取需要进行区分的多个待处理文本信息,该待处理文本信息之间的类别可以相同,也可以不同,将该待处理文本信息的文字进行统一化处理,如去除符号、字体归一等等,得到标准化的目标待处理文本信息。
在一些实施方式中,该获取目标待处理文本信息的步骤,可以包括:
(1)获取待处理文本信息;
(2)对该待处理文本信息进行文本统一处理,得到目标待处理文本信息。
其中,获取待处理文本信息,该待处理文本信息可以包括多个,例如,“请问寄哪儿去了;没有一起发货是吗?等,对该待文本信息进行文本统一处理,具体为特殊符号去除处理、英文大小写转换以及繁简体字统一等等,得到后续可以集中处理的目标待处理文本信息,例如对于待处理文本信息“请问寄哪儿去了;没有一起发货是吗?进行特殊符号去除处理,得到“请问寄哪儿去了;没有一起发货是吗”。
在步骤102中,通过训练后的神经网络模型从该目标待处理文本信息中提取相应的文本向量信息。
其中,该训练后的神经网络模型为对带有标签的待训练文本信息形成的待训练文本向量信息按照标签类型进行空间分类训练得到,由于引入标签之间的区别进行训练,所以可以通过该训练后的神经网络模型直接对该目标处理文本信息进行向量提取,得到标签之间类差异更大的文本向量信息,该文本向量信息可以为与目标待处理文本信息数量相同的768维度的文本向量信息,每一文本向量信息之间都有空间距离,该距离空间越小,说明两个文本向量信息越接近,该距离空间越大,说明两个文本向量信息越不接近。
在步骤103中,将该文本向量信息按照空间距离进行聚类,确定不同聚类的文本信息。
其中,由于不同的文本向量信息之间都具有空间距离,且由于训练后的神经网络模型提取的文本向量信息之间的标签类间区别增大,相同标签的文本向量之间的类内关系更强,因而对该文本向量信息按照空间距离进行聚类的效果更好,相同的聚类的文本向量信息更容易进行聚集,而不同聚类的文本向量信息更容易进行区分,因此,可以得到更为准确的不同聚类的文本信息,实现自动将目标待处理文本信息快速分为不同聚类的文本信息,且该区分的准确度更高,使得商家可以基于不同聚类的文本信息快速进行知识点的提取,快速设置不同的答案,实现知识库的快速建立。
在一些实施方式中,该将该文本向量信息按照空间距离进行聚类,确定不同聚类的文本信息的步骤,可以包括:
(1)通过Faiss算法对每一文本向量信息进行向量距离计算;
(2)将向量距离小于预设阈值的文本向量信息进行归类,得到多个类别的向量归类集;
(3)将该存在公共文本向量信息的向量归类集进行聚合,得到不同聚类的文本信息。
其中,该Faiss算法为稠密向量提供高效相似度搜索和聚类,支持十亿级别向量的搜索,是目前最为成熟的近似近邻搜索库,本申请实施例通过该Faiss算法可以一次性快速的对每一文本向量的向量距离进行计算,该向量距离越小,说明两者越相似,该向量距离越大,说明两者越不相似。
进一步的,该预设阈值为界定两个文本向量之间是否为同一标签类型的参考值,将向量距离小于预设阈值的向量信息进行归类,得到多个类别的向量归类集,每个向量归类集中包括多个向量信息,在两个向量归类集存在公共文本向量信息时,说明两个向量归类集具有交点,可以将两个向量归类集进行聚合,得到不同聚类的文本信息。
在一些实施方式中,该将该存在公共文本向量信息的向量归类集进行聚合,得到不同聚类的文本信息的步骤,可以包括:
(1.1)通过DBSCAN聚类算法检测该向量归类集之间的公共文本向量信息;
(1.2)当检测到该向量归类集之间存在公共文本向量信息时,将存在公共文本向量信息的向量归类集进行合并,得到不同聚类的文本信息。
其中,该DBSCAN聚类算法是一种基于密度的聚类算法,这类密度聚类算法一般假定类别可以通过样本分布的紧密程度决定,同一类别的样本是紧密相连的,也就是说,在该类别任意样本周围不远处一定有同类别的样本存在。找到各节点的邻居后,通过不断迭代聚合得到最终聚类结果,本申请实施例通过该DBSCAN聚类算法检测向量归类集之间的公共文本向量信息。
进一步的,当检测到该向量归类集之间存在公共文本向量信息时,说明向量归类集为紧密相连的,将存在公共文本向量信息的向量归类集进行聚合,并通过不断迭代聚合得到最终不同聚类的文本信息。
由上述可知,本申请实施例通过获取目标待处理文本信息;通过训练后的神经网络模型从目标待处理文本信息中提取相应的文本向量信息,该训练后的模型为对带有标签的待训练文本信息形成的待训练文本向量信息按照标签类型进行空间分类训练得到;将文本向量信息按照空间距离进行聚类,确定不同聚类的文本信息。以此,可以通过按照标签类型进行空间分类训练的训练后的模型从目标待处理文本信息中提取分类界定更大的文本向量信息,使得根据文本向量信息按照空间距离进行聚类,得到的不同聚类的文本信息的聚类效果更准确,节省了人工成本,极大的提升了信息处理的效率。
结合上述实施例所描述的方法,以下将举例作进一步详细说明。
在本实施例中,将以该信息处理装置具体集成在服务器中为例进行说明,具体参照以下说明。
请参阅图3,图3为本申请实施例提供的信息处理方法的另一流程示意图。
该方法流程可以包括:
在步骤201中,服务器获取目标待训练文本信息和目标待训练文本信息的标签。
其中,服务器可以获取大量的目标待训练文本信息和每一目标待训练文本信息的标签,该标签可以包含多个种类,例如,“获取寄上海这边大概要几天”,该“获取寄上海这边大概要几天”的标签为“物流时间”。
在步骤202中,服务器将目标待训练文本信息输入至BERT模型,通过BERT模型中的双向编码器对目标待训练文本信息进行分析,得到相应的待训练文本向量信息。
其中,请一并参阅图4a,服务器将目标待训练文本信息输入至BERT模型,通过该BERT中的多层双向编码器(即Transormer)学习文本抽象表示,得到相应的待训练文本向量信息。
在步骤203中,服务器将待训练文本向量信息输入至ArcFace损失函数。
其中,请一并参阅图4a所示,与相关技术不同的是,本申请实施例将BERT模型集成相应的Arcface损失函数,形成全新的BERT-Arcface模型,服务器将该待训练文本向量信息输入值ArcFace损失函数中。
在步骤204中,服务器通过ArcFace损失函数按照标签类型数量确定相应的空间距离,并将待训练文本向量信息转换为空间向量信息,通过ArcFace损失函数基于空间距离按照标签类型对空间向量信息进行空间分类训练,得到训练后的神经网络模型。
其中,该ArcFace损失函数用公式表达如下:
Figure BDA0002455333410000101
该Arcface损失函数为在常规的损失函数的基础上通过将
Figure BDA0002455333410000102
转换为
Figure BDA0002455333410000103
将xi转换为
Figure BDA0002455333410000111
根据平面向量夹角公式:cos=(ab内积)/(|a||b|),a和b为向量,可以将常规损失函数中的
Figure BDA0002455333410000112
转化为cosθ,使得
Figure BDA0002455333410000113
转换为
Figure BDA0002455333410000114
实现将常规损失函数的向量转换为余弦空间向量形式,即将向量映射在球面上,该N表示总的目标待训练文本信息的数量,e表示对特征进行指数变换,该s为空间(即球)的半径,该m为不同标签之间的空间距离,yi表示标签,通过上述的平面向量夹角公式将将目标待训练文本信息相应的待训练文本向量信息xi和相应的向量参数w和b统一转化为相应余弦的空间向量信息,形成球体空间。且设定不同标签的空间向量信息在该球体空间上至少相隔m的空间距离,由于该m的空间距离挤压,使得相同标签类别的空间向量信息更紧凑,不同标签类别的空间向量信息之间的间隔距离更大,所以通过该Arcface损失函数可以使得训练后的BERT模型对于目标待处理文本信息提取的文本向量信息之间区别度增大,进而更好的进行聚类区分。
例如,请继续参考图4b所示,该s即为该球面的半径,该Arcface损失函数可以实现将A标签相应的目标待训练文本信息转化的空间向量信息映射在球面的部分区域上,将B标签相应的目标待训练文本信息转化的空间向量信息映射在球面的部分区域上,该A标签和B标签相应的空间距离至少为m的聚类,使得相同标签内的目标待训练文本信息的空间向量信息更接近,不同标签的目标待训练文本信息的空间向量的区别都更大,请继续参阅图4c所示,常规损失函数实现将A标签的目标待训练文本映射在显示区间21上,将B标签的目标待训练文本映射在显示区间22上,可以看出显示区间21和现实区间22之间的标签内的分类较松,不同标签的间距不够大,而本申请实施例提供的Arcface损失函数可以将A标签的目标待训练文本映射在显示区间23上,将B标签的目标待训练文本呢映射在现实区间24上,可以看出现实区间23和24的标签内的分类更紧,不同标签的间距更大。
基于此,服务器将该待训练文本向量输入至ArcFace损失函数,将该ArcFace损失函数按照标签类型数量确定相应的半径s距离和空间距离m,并将该待训练文本向量信息转换为空间向量信息,通过ArcFace损失函数基于该空间距离按照标签类型对空间向量信息进行空间分类训练,得到训练后的神经网络模型,即BERT-Arcface模型,该BERT-Arcface模型由于微调的方式不一致,本申请实施例提供的BERT-Arcface模型相对于常规损失函数对应的BERT模型,可以实现对文本信息在分类效果上准确,即相同类型标签的文本相应的向量会更接近,不同类型标签的文本相应的向量差异会跟大,使得后续对于目标待处理文本信息提取的文本向量信息之间区别度增大,可以实现更好的聚类区分。
在步骤205中,服务器获取待处理文本信息,对待处理文本信息进行文本统一处理,得到目标待处理文本信息。
其中,服务器获取待处理文本信息,例如“请问寄哪儿去了;没有一起发货是吗?;为什么要分开发货啊;寄广州这边大概要几天?;亲能帮我看一下快递到哪了;货要几天才能到;没收到货,为什么显示签收了?;怎么是发错地方了显示签收了;显示签收但没收到货怎么办;没到货,却说我已签收”。
进一步的,对该待处理文本信息进行特殊符号处理、英文大小写转换和繁简体字统一等文本统一处理,得到目标待处理文本信息为“请问寄哪儿去了;没有一起发货是吗;为什么要分开发货啊;寄广州这边大概要几天;亲能帮我看一下快递到哪了;货要几天才能到;没收到货,为什么显示签收了;怎么是发错地方了显示签收了;显示签收但没收到货怎么办;没到货,却说我已签收”。
在步骤206中,服务器通过训练后的神经网络模型从目标待处理文本信息中提取相应的文本向量信息。
其中,服务器通过训练后的BERT-Arcface模型调整后的Transormer从该目标待处理文本信息“请问寄哪儿去了;没有一起发货是吗;为什么要分开发货啊;寄广州这边大概要几天;亲能帮我看一下快递到哪了;货要几天才能到;没收到货,为什么显示签收了;怎么是发错地方了显示签收了;显示签收但没收到货怎么办;没到货,却说我已签收”提取相应的文本向量信息,该文本向量信息为10个768维度的句子向量,该句子向量可以用(a1、a2,…,a768)表示,每个句子向量都不相同。
在步骤207中,服务器通过Faiss算法对每一文本向量信息进行向量距离计算,将向量距离小于预设阈值的文本向量信息进行归类,得到多个类别的向量归类集。
其中,请一并参阅图4a所示,由于每个文本向量信息之间都有相应的向量距离,该向量距离越小,说明两个文本向量信息越接近,该向量距离越大,说明两个文本向量信息越不接近,以此,服务器可以通过该Faiss算法实现寻找邻居节点,一次性快速的对每一文本向量的向量距离进行计算,该预设阈值为界定两个文本向量之间是否为同一标签类型的参考值,不同文本向量信息之间具有不同的向量距离,该预设阈值为界定两个文本向量信息是否接近的临界值,可以为前述的空间距离m或者其他值,此处不作具体限定,将向量距离小于预设阈值的向量信息进行归为同一类,得到多个类别的向量归类集,每个向量归类集中包括多个向量信息。
在步骤208中,服务器通过DBSCAN聚类算法检测向量归类集之间的公共文本向量信息。
其中,请一并参阅图4a所示,在通过Faiss算法实现寻找邻居节点之后,服务器通过该DBSCAN聚类算法检测向量归类集之间的公共文本向量信息,例如A向量归类集包括[a、b、c、d、e],B向量归类集包括[a、b、h、g],那么两者之间存在公共文本向量信息a和b。例如,“没收到货,为什么显示签收了”、“显示签收但没收到货怎么办”和“没到货,却说我已签收”相应的文本向量信息为同一向量归类集,“怎么是发错地方了显示签收了”、“没收到货,为什么显示签收了”和“显示签收但没收到货怎么办”相应的文本向量信息为同一向量归类集,容易看出两个归类集之间存在公共文本向量信息“没收到货,为什么显示签收了”和“显示签收但没收到货怎么办”。
在步骤209中,当服务器检测到向量归类集之间存在公共文本向量信息时,将存在公共文本向量信息的向量归类集进行合并,得到不同聚类的文本信息。
其中,请一并参阅图4a所示,当服务器检测到该向量归类集之间存在公共文本向量信息时,说明向量归类集为紧密相连的,将存在公共文本向量信息的向量归类集进行聚合,并通过不断迭代聚合得到最终不同聚类的文本信息,例如,将A向量归类集和B向量归类集进行聚合得到新的向量归类集[a、b、c、d、e、h、g],最终得到候选知识集合(即不同聚类的文本信息)。例如,将存在公共文本向量信息“没收到货,为什么显示签收了”和“显示签收但没收到货怎么办”的向量归类集“没收到货,为什么显示签收了”、“显示签收但没收到货怎么办”和“没到货,却说我已签收”和向量归类集“怎么是发错地方了显示签收了”、“没收到货,为什么显示签收了”和“显示签收但没收到货怎么办”进行聚合,得到新的向量归类集“显示签收但没收到货怎么办”、“没到货,却说我已签收”、“怎么是发错地方了显示签收了”和“没收到货,为什么显示签收了?”以此类推,得到最终的“显示签收但没收到货怎么办;没到货,却说我已签收;怎么是发错地方了显示签收了;没收到货,为什么显示签收了?”|“亲能帮我看一下快递到哪了;请问寄哪儿去了”|“货要几天才能到;寄广州这边大概要几天?”|“没有一起发货是吗?;为什么要分开发货啊”的三个不同聚类的文本信息,该符号|即为聚类分隔符,商家可以基于不同聚类的文本信息快速进行知识点的提取,快速设置不同的答案,实现知识集合,进而完成知识库的快速建立。
在步骤210中,服务器接收对不同聚类的文本信息的标签标定操作,将标签标定操作之后的文本信息输出至训练后的神经网络模型进行迭代训练。
其中,请一并参阅图4a所示,商家可以对该不同聚类的文本信息进行商家审核来进行人工干预,确定每个聚类的知识点是否需要,即可以对需要的聚类的文本信息进行标签标定操作,将该标签标定操作之后的文本信息输出至训练后的BERT-Arcface模型进行迭代训练,形成闭环,提升模型自更新保证线上挖掘效果。
由上述可知,本申请实施例通过获取目标待处理文本信息;通过训练后的神经网络模型从目标待处理文本信息中提取相应的文本向量信息,该训练后的模型为对带有标签的待训练文本信息形成的待训练文本向量信息按照标签类型进行空间分类训练得到;将文本向量信息按照空间距离进行聚类,确定不同聚类的文本信息。以此,可以通过按照标签类型进行空间分类训练的训练后的模型从目标待处理文本信息中提取分类界定更大的文本向量信息,使得根据文本向量信息按照空间距离进行聚类,得到的不同聚类的文本信息的聚类效果更准确,节省了人工成本,极大的提升了信息处理的效率。
进一步的,本申请实施例还通过商家审核,将标签标定后的知识集合迭代优化训练后的神经网络模型,使得该模型自更新,可以进一步的提升信息处理的准确率。
为便于更好的实施本申请实施例提供的信息处理方法,本申请实施例还提供一种基于上述信息处理方法的装置。其中名词的含义与上述信息处理方法中相同,具体实现细节可以参考方法实施例中的说明。
请参阅图5,图5为本申请实施例提供的信息处理装置的结构示意图,其中该信息处理装置可以包括第一获取单元301、提取单元302以及聚类单元303等。
第一获取单元301,用于获取目标待处理文本信息。
其中,第一获取单元301获取需要进行区分的多个待处理文本信息,该待处理文本信息之间的类别可以相同,也可以不同,将该待处理文本信息的文字进行统一化处理,如去除符号、字体归一等等,得到标准化的目标待处理文本信息。
在一些实施方式中,该第一提取单元301,用于:
获取待处理文本信息;
对该待处理文本信息进行文本统一处理,得到目标待处理文本信息。
其中,第一提取单元301获取待处理文本信息,该待处理文本信息可以包括多个,例如,“请问寄哪儿去了;没有一起发货是吗?等,对该待文本信息进行文本统一处理,具体为特殊符号去除处理、英文大小写转换以及繁简体字统一等等,得到后续可以集中处理的目标待处理文本信息。
提取单元302,用于通过训练后的神经网络模型从该目标待处理文本信息中提取相应的文本向量信息,该训练后的神经网络模型为对带有标签的待训练文本信息形成的待训练文本向量信息按照标签类型进行空间分类训练得到。
其中,该训练后的神经网络模型为对带有标签的待训练文本信息形成的待训练文本向量信息按照标签类型进行空间分类训练得到,由于引入标签之间的区别进行训练,所以提取单元302可以通过该训练后的神经网络模型直接对该目标处理文本信息进行向量提取,得到标签之间类差异更大的文本向量信息,该文本向量信息可以为与目标待处理文本信息数量相同的768维度的文本向量信息,每一文本向量信息之间都有空间距离,该距离空间越大,说明两个文本向量信息越接近,该距离空间越小,说明两个文本向量信息越不接近。
聚类单元303,用于将该文本向量信息按照空间距离进行聚类,确定不同聚类的文本信息。
其中,由于不同的文本向量信息之间都具有空间距离,且由于训练后的神经网络模型提取的文本向量信息之间的标签类间区别增大,相同标签的文本向量之间的类内关系更强,因而聚类单元303对该文本向量信息按照空间距离进行聚类的效果更好,相同的聚类的文本向量信息更容易进行聚集,而不同聚类的文本向量信息更容易进行区分,因此,可以得到更为准确的不同聚类的文本信息,实现自动将目标待处理文本信息快速分为不同聚类的文本信息,且该区分的准确度更高,使得商家可以基于不同聚类的文本信息快速进行知识点的提取,快速设置不同的答案,实现知识库的快速建立。
在一些实施方式中,该聚类单元303,包括:
计算子单元,用于通过Faiss算法对每一文本向量信息进行向量距离计算;
归类子单元,用于将向量距离小于预设阈值的文本向量信息进行归类,得到多个类别的向量归类集;
聚类子单元,用于将该存在公共文本向量信息的向量归类集进行聚合,得到不同聚类的文本信息。
其中,该Faiss算法为稠密向量提供高效相似度搜索和聚类,支持十亿级别向量的搜索,是目前最为成熟的近似近邻搜索库,计算子单元通过该Faiss算法可以一次性快速的对每一文本向量的向量距离进行计算,该向量距离越小,说明两者越相似,该向量距离越大,说明两者越不相似。
进一步的,该预设阈值为界定两个文本向量之间是否为同一标签类型的参考值,归类子单元将向量距离小于预设阈值的向量信息进行归类,得到多个类别的向量归类集,每个向量归类集中包括多个向量信息,在两个向量归类集存在公共文本向量信息时,说明两个向量归类集具有交点,聚类子单元可以将两个向量归类集进行聚合,得到不同聚类的文本信息。
在一些实施方式中,该聚类子单元,用于:
通过DBSCAN聚类算法检测该向量归类集之间的公共文本向量信息;
当检测到该向量归类集之间存在公共文本向量信息时,将存在公共文本向量信息的向量归类集进行合并,得到不同聚类的文本信息。
其中,该DBSCAN聚类算法是一种基于密度的聚类算法,这类密度聚类算法一般假定类别可以通过样本分布的紧密程度决定,同一类别的样本是紧密相连的,也就是说,在该类别任意样本周围不远处一定有同类别的样本存在。找到各节点的邻居后,通过不断迭代聚合得到最终聚类结果,本申请实施例通过该DBSCAN聚类算法检测向量归类集之间的公共文本向量信息。
进一步的,当检测到该向量归类集之间存在公共文本向量信息时,说明向量归类集为紧密相连的,将存在公共文本向量信息的向量归类集进行聚合,并通过不断迭代聚合得到最终不同聚类的文本信息。
在一些实施方式中,该装置还包括:
第二获取单元,用于获取目标待训练文本信息和该目标待训练文本信息的标签;
输入单元,用于将该目标待训练文本信息输入至神经网络模型,得到相应的待训练文本向量信息;
训练单元,用于将该待训练文本向量信息输入至预设损失函数,通过该预设损失函数按照标签类型对该训练文本向量进行空间分类训练,得到训练后的神经网络模型。
在一些实施方式中,该神经网络模型为BERT模型,该输入单元,用于:
将该目标待训练文本信息输入至BERT模型;
通过该BERT中的双向编码器对该目标待训练文本信息进行分析,得到相应的待训练文本向量信息。
该预设损失函数为ArcFace损失函数,该训练单元,用于:
将该待训练文本向量信息输入至ArcFace损失函数;
通过该ArcFace损失函数按照标签类型数量确定相应的空间距离,并将该待训练文本向量信息转换为空间向量信息;
通过该ArcFace损失函数基于空间距离按照标签类型对该空间向量信息进行空间分类训练,得到训练后的神经网络模型。
其中,引入Arcface损失函数,对文本向量信息进行空间变换,使得标签间的信息能够得到更充分的利用,例如,该Arcface损失函数如下:
Figure BDA0002455333410000181
该Arcface损失函数在常规的损失函数的基础上通过将
Figure BDA0002455333410000182
转换为
Figure BDA0002455333410000183
将xi转换为
Figure BDA0002455333410000184
进而使得该
Figure BDA0002455333410000185
转化为cosθ,使得
Figure BDA0002455333410000186
转换为
Figure BDA0002455333410000187
该N表示总的目标待训练文本信息的数量,e表示对特征进行指数变换,该s为空间的半径,该m为不同标签之间的空间距离,yi表示标签,实现将目标待训练文本信息相应的待训练文本向量信息转化为空间向量信息,且设定不同标签的空间向量信息至少相隔m的空间距离,因而使得相同类别的空间向量信息更紧凑,不同类别的空间向量信息之间的间隔距离更大,所以通过该Arcface损失函数可以使得训练后的BERT模型对于目标待处理文本信息提取的文本向量信息之间区别度增大,进而更好的进行聚类区分。
在一些实施方式中,该装置还包括:
迭代训练单元,用于接收对不同聚类的文本信息的标签标定操作;
将标签标定操作之后的文本信息输出至训练后的神经网络模型进行迭代训练。
其中,商家可以对该不同聚类的文本信息进行商家审核来进行人工干预,确定每个聚类的知识点是否需要,即可以对需要的聚类的文本信息进行标签标定操作,迭代训练单元将该标签标定操作之后的文本信息输出至训练后的BERT-Arcface模型进行迭代训练,形成闭环,提升模型自更新保证线上挖掘效果。
以上各个单元的具体实施可参见前面的实施例,在此不再赘述。
由上述可知,本申请实施例通过第一获取单元301获取目标待处理文本信息;提取单元302通过训练后的神经网络模型从目标待处理文本信息中提取相应的文本向量信息,该训练后的模型为对带有标签的待训练文本信息形成的待训练文本向量信息按照标签类型进行空间分类训练得到;聚类单元303将文本向量信息按照空间距离进行聚类,确定不同聚类的文本信息。以此,可以通过按照标签类型进行空间分类训练的训练后的模型从目标待处理文本信息中提取分类界定更大的文本向量信息,使得根据文本向量信息按照空间距离进行聚类,得到的不同聚类的文本信息的聚类效果更准确,节省了人工成本,极大的提升了信息处理的效率。
本申请实施例还提供一种计算机设备,如图6所示,其示出了本申请实施例所涉及的服务器的结构示意图,具体来讲:
该计算机设备可以包括一个或者一个以上处理核心的处理器401、一个或一个以上计算机可读存储介质的存储器402、电源403和输入单元404等部件。本领域技术人员可以理解,图6中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器401是该计算机设备的控制中心,利用各种接口和线路连接整个计算机设备的各个部分,通过运行或执行存储在存储器402内的软件程序和/或模块,以及调用存储在存储器402内的数据,执行计算机设备的各种功能和处理数据,从而对计算机设备进行整体监控。可选的,处理器401可包括一个或多个处理核心;可选的,处理器401可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器401中。
存储器402可用于存储软件程序以及模块,处理器401通过运行存储在存储器402的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器402可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据服务器的使用所创建的数据等。此外,存储器402可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器402还可以包括存储器控制器,以提供处理器401对存储器402的访问。
计算机设备还包括给各个部件供电的电源403,可选的,电源403可以通过电源管理系统与处理器401逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源403还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
计算机设备还可包括输入单元404,该输入单元404可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
尽管未示出,计算机设备还可以包括显示单元等,在此不再赘述。具体在本实施例中,计算机设备中的处理器401会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器402中,并由处理器401来运行存储在存储器402中的应用程序,从而实现前述实施例提供的各种方法步骤,如下:
获取目标待处理文本信息;通过训练后的神经网络模型从该目标待处理文本信息中提取相应的文本向量信息,该训练后的神经网络模型为对带有标签的待训练文本信息形成的待训练文本向量信息按照标签类型进行空间分类训练得到;将该文本向量信息按照空间距离进行聚类,确定不同聚类的文本信息。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见上文针对信息处理方法的详细描述,此处不再赘述。
由上述可知,本申请实施例的计算机设备可以通过获取目标待处理文本信息;通过训练后的神经网络模型从目标待处理文本信息中提取相应的文本向量信息,该训练后的模型为对带有标签的待训练文本信息形成的待训练文本向量信息按照标签类型进行空间分类训练得到;将文本向量信息按照空间距离进行聚类,确定不同聚类的文本信息。以此,可以通过按照标签类型进行空间分类训练的训练后的模型从目标待处理文本信息中提取分类界定更大的文本向量信息,使得根据文本向量信息按照空间距离进行聚类,得到的不同聚类的文本信息的聚类效果更准确,节省了人工成本,极大的提升了信息处理的效率。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种计算机可读存储介质,其中存储有多条指令,该指令能够被处理器进行加载,以执行本申请实施例所提供的任一种信息处理方法中的步骤。例如,该指令可以执行如下步骤:
获取目标待处理文本信息;通过训练后的神经网络模型从该目标待处理文本信息中提取相应的文本向量信息,该训练后的神经网络模型为对带有标签的待训练文本信息形成的待训练文本向量信息按照标签类型进行空间分类训练得到;将该文本向量信息按照空间距离进行聚类,确定不同聚类的文本信息。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该计算机可读存储介质中所存储的指令,可以执行本申请实施例所提供的任一种信息处理方法中的步骤,因此,可以实现本申请实施例所提供的任一种信息处理方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本申请实施例所提供的一种信息处理方法、装置、计算机可读存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (15)

1.一种信息处理方法,其特征在于,包括:
获取目标待处理文本信息;
通过训练后的神经网络模型从所述目标待处理文本信息中提取相应的文本向量信息,所述训练后的神经网络模型为对带有标签的待训练文本信息形成的待训练文本向量信息按照标签类型进行空间分类训练得到;
将所述文本向量信息按照空间距离进行聚类,确定不同聚类的文本信息。
2.根据权利要求1所述的信息处理方法,其特征在于,所述将所述文本向量信息按照空间距离进行聚类,确定不同聚类的文本信息的步骤,包括:
通过Faiss算法对每一文本向量信息进行向量距离计算;
将向量距离小于预设阈值的文本向量信息进行归类,得到多个类别的向量归类集;
将存在公共文本向量信息的向量归类集进行聚合,得到所述不同聚类的文本信息。
3.根据权利要求2所述的信息处理方法,其特征在于,所述将存在公共文本向量信息的向量归类集进行聚合,得到所述不同聚类的文本信息的步骤,包括:
通过DBSCAN聚类算法检测所述向量归类集之间的公共文本向量信息;
当检测到所述向量归类集之间存在所述公共文本向量信息时,将存在所述公共文本向量信息的向量归类集进行合并,得到所述不同聚类的文本信息。
4.根据权利要求1所述的信息处理方法,其特征在于,所述获取目标待处理文本信息的步骤,包括:
获取待处理文本信息;
对所述待处理文本信息进行文本统一处理,得到目标待处理文本信息。
5.根据权利要求1至4任一项所述的信息处理方法,其特征在于,所述信息处理方法,还包括:
获取目标待训练文本信息和所述目标待训练文本信息的标签;
将所述目标待训练文本信息输入至神经网络模型,得到相应的待训练文本向量信息;
将所述待训练文本向量信息输入至预设损失函数,通过所述预设损失函数按照标签类型对所述训练文本向量进行空间分类训练,得到训练后的神经网络模型。
6.根据权利要求5所述的信息处理方法,其特征在于,所述神经网络模型为BERT模型,将所述目标待训练文本信息输入至神经网络模型,得到相应的待训练文本向量信息的步骤,包括:
将所述目标待训练文本信息输入至所述BERT模型;
通过所述BERT模型中的双向编码器对所述目标待训练文本信息进行分析,得到相应的待训练文本向量信息。
7.根据权利要求5所述的信息处理方法,其特征在于,所述预设损失函数为ArcFace损失函数,所述将所述待训练文本向量信息输入至预设损失函数,通过所述预设损失函数按照标签类型对所述训练文本向量进行空间分类训练,得到训练后的神经网络模型的步骤,包括:
将所述待训练文本向量信息输入至所述ArcFace损失函数;
通过所述ArcFace损失函数按照标签类型数量确定相应的空间距离,并将所述待训练文本向量信息转换为空间向量信息;
通过所述ArcFace损失函数基于所述空间距离按照所述标签类型对所述空间向量信息进行空间分类训练,得到训练后的神经网络模型。
8.根据权利要求1至4任一项所述的信息处理方法,其特征在于,所述将所述文本向量信息按照空间距离进行聚类,确定不同聚类的文本信息的步骤之后,还包括:
接收对所述不同聚类的文本信息的标签标定操作;
将标签标定操作之后的文本信息输出至训练后的神经网络模型进行迭代训练。
9.一种信息处理装置,其特征在于,包括:
第一获取单元,用于获取目标待处理文本信息;
提取单元,用于通过训练后的神经网络模型从所述目标待处理文本信息中提取相应的文本向量信息,所述训练后的神经网络模型为对带有标签的待训练文本信息形成的待训练文本向量信息按照标签类型进行空间分类训练得到;
聚类单元,用于将所述文本向量信息按照空间距离进行聚类,确定不同聚类的文本信息。
10.根据权利要求9所述的处理装置,其特征在于,所述聚类单元,包括:
计算子单元,用于通过Faiss算法对每一文本向量信息进行向量距离计算;
归类子单元,用于将向量距离小于预设阈值的文本向量信息进行归类,得到多个类别的向量归类集;
聚类子单元,用于将存在公共文本向量信息的向量归类集进行聚合,得到所述不同聚类的文本信息。
11.根据权利要求10所述的处理装置,其特征在于,所述聚类子单元,用于:
通过DBSCAN聚类算法检测所述向量归类集之间的公共文本向量信息;
当检测到所述向量归类集之间存在所述公共文本向量信息时,将存在所述公共文本向量信息的向量归类集进行合并,得到所述不同聚类的文本信息。
12.根据权利要求9所述的处理装置,其特征在于,所述第一获取单元,用于:
获取待处理文本信息;
对所述待处理文本信息进行文本统一处理,得到目标待处理文本信息。
13.根据权利要求9至12任一项所述的处理装置,其特征在于,所述装置还包括:
第二获取单元,用于获取目标待训练文本信息和所述目标待训练文本信息的标签;
输入单元,用于将所述目标待训练文本信息输入至神经网络模型,得到相应的待训练文本向量信息;
训练单元,用于将所述待训练文本向量信息输入至预设损失函数,通过所述预设损失函数按照标签类型对所述训练文本向量进行空间分类训练,得到训练后的神经网络模型。
14.根据权利要求13所述的处理装置,其特征在于,所述神经网络模型为BERT模型,所述输入单元,用于:
将所述目标待训练文本信息输入至所述BERT模型;
通过所述BERT模型中的双向编码器对所述目标待训练文本信息进行分析,得到相应的待训练文本向量信息。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行权利要求1至8任一项所述的信息处理方法中的步骤。
CN202010304736.3A 2020-04-17 2020-04-17 一种信息处理方法、装置及计算机可读存储介质 Active CN111506729B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010304736.3A CN111506729B (zh) 2020-04-17 2020-04-17 一种信息处理方法、装置及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010304736.3A CN111506729B (zh) 2020-04-17 2020-04-17 一种信息处理方法、装置及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN111506729A true CN111506729A (zh) 2020-08-07
CN111506729B CN111506729B (zh) 2023-08-29

Family

ID=71877729

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010304736.3A Active CN111506729B (zh) 2020-04-17 2020-04-17 一种信息处理方法、装置及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN111506729B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112528016A (zh) * 2020-11-19 2021-03-19 重庆兆光科技股份有限公司 一种基于低维球面投影的文本分类方法
CN112613550A (zh) * 2020-12-17 2021-04-06 平安科技(深圳)有限公司 一种数据分类方法、装置及相关设备
CN113704447A (zh) * 2021-03-03 2021-11-26 腾讯科技(深圳)有限公司 一种文本信息的识别方法以及相关装置
CN113806544A (zh) * 2021-09-23 2021-12-17 湖北天天数链技术有限公司 简历信息处理方法、装置、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106557485A (zh) * 2015-09-25 2017-04-05 北京国双科技有限公司 一种选取文本分类训练集的方法及装置
CN107085585A (zh) * 2016-02-12 2017-08-22 奥多比公司 用于图像搜索的准确的标签相关性预测
CN109299271A (zh) * 2018-10-30 2019-02-01 腾讯科技(深圳)有限公司 训练样本生成、文本数据、舆情事件分类方法及相关设备
CN109684477A (zh) * 2018-12-11 2019-04-26 北京极智感科技有限公司 一种专利文本特征提取方法及系统
CN110309331A (zh) * 2019-07-04 2019-10-08 哈尔滨工业大学(深圳) 一种基于自监督的跨模态深度哈希检索方法
CN110598213A (zh) * 2019-09-06 2019-12-20 腾讯科技(深圳)有限公司 一种关键词提取方法、装置、设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106557485A (zh) * 2015-09-25 2017-04-05 北京国双科技有限公司 一种选取文本分类训练集的方法及装置
CN107085585A (zh) * 2016-02-12 2017-08-22 奥多比公司 用于图像搜索的准确的标签相关性预测
CN109299271A (zh) * 2018-10-30 2019-02-01 腾讯科技(深圳)有限公司 训练样本生成、文本数据、舆情事件分类方法及相关设备
CN109684477A (zh) * 2018-12-11 2019-04-26 北京极智感科技有限公司 一种专利文本特征提取方法及系统
CN110309331A (zh) * 2019-07-04 2019-10-08 哈尔滨工业大学(深圳) 一种基于自监督的跨模态深度哈希检索方法
CN110598213A (zh) * 2019-09-06 2019-12-20 腾讯科技(深圳)有限公司 一种关键词提取方法、装置、设备及存储介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112528016A (zh) * 2020-11-19 2021-03-19 重庆兆光科技股份有限公司 一种基于低维球面投影的文本分类方法
CN112528016B (zh) * 2020-11-19 2024-05-07 重庆兆光科技股份有限公司 一种基于低维球面投影的文本分类方法
CN112613550A (zh) * 2020-12-17 2021-04-06 平安科技(深圳)有限公司 一种数据分类方法、装置及相关设备
CN113704447A (zh) * 2021-03-03 2021-11-26 腾讯科技(深圳)有限公司 一种文本信息的识别方法以及相关装置
CN113704447B (zh) * 2021-03-03 2024-05-03 腾讯科技(深圳)有限公司 一种文本信息的识别方法以及相关装置
CN113806544A (zh) * 2021-09-23 2021-12-17 湖北天天数链技术有限公司 简历信息处理方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN111506729B (zh) 2023-08-29

Similar Documents

Publication Publication Date Title
CN111506729B (zh) 一种信息处理方法、装置及计算机可读存储介质
US10013636B2 (en) Image object category recognition method and device
CN111143569B (zh) 一种数据处理方法、装置及计算机可读存储介质
CN109726391B (zh) 对文本进行情感分类的方法、装置及终端
CN110807474A (zh) 聚类方法及装置、存储介质、电子设备
CN116186594B (zh) 基于决策网络结合大数据实现环境变化趋势智能检测方法
CN114154570A (zh) 一种样本筛选方法、系统及神经网络模型训练方法
CN114510570A (zh) 基于小样本语料的意图分类方法、装置及计算机设备
TW202207091A (zh) 網路模型量化方法、裝置及電子設備
CN111046655B (zh) 一种数据处理方法、装置及计算机可读存储介质
Kasaei et al. Local-LDA: Open-ended learning of latent topics for 3D object recognition
CN115577698A (zh) 一种基于机器学习的数据和文本处理系统及其方法
Marques et al. Recognition of simple handwritten polynomials using segmentation with fractional calculus and convolutional neural networks
CN110688411A (zh) 一种文本识别方法及装置
CN114328800A (zh) 文本处理方法、装置、电子设备和计算机可读存储介质
CN111767404B (zh) 一种事件挖掘方法和装置
CN113704389A (zh) 一种数据评估方法、装置、计算机设备及存储介质
CN111898528B (zh) 数据处理方法、装置、计算机可读介质及电子设备
CN116049376B (zh) 一种信创知识检索回复的方法、装置和系统
CN110705274B (zh) 基于实时学习的融合型词义嵌入方法
CN112364912A (zh) 信息分类方法、装置、设备及存储介质
CN116741396A (zh) 文章归类方法和装置、电子设备和存储介质
CN114462526A (zh) 一种分类模型训练方法、装置、计算机设备及存储介质
CN114398482A (zh) 一种词典构造方法、装置、电子设备及存储介质
CN113704422A (zh) 一种文本推荐方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40027419

Country of ref document: HK

SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant