CN113515591B - 文本不良信息识别方法、装置、电子设备及存储介质 - Google Patents
文本不良信息识别方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN113515591B CN113515591B CN202110436894.9A CN202110436894A CN113515591B CN 113515591 B CN113515591 B CN 113515591B CN 202110436894 A CN202110436894 A CN 202110436894A CN 113515591 B CN113515591 B CN 113515591B
- Authority
- CN
- China
- Prior art keywords
- text
- word
- word vector
- node
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000007547 defect Effects 0.000 title claims abstract description 23
- 239000013598 vector Substances 0.000 claims abstract description 218
- 238000010586 diagram Methods 0.000 claims abstract description 76
- 238000012545 processing Methods 0.000 claims abstract description 27
- 230000011218 segmentation Effects 0.000 claims abstract description 26
- 238000004458 analytical method Methods 0.000 claims abstract description 25
- 230000006870 function Effects 0.000 claims description 21
- 238000013528 artificial neural network Methods 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 5
- 230000007246 mechanism Effects 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 238000003062 neural network model Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 abstract description 7
- 238000003058 natural language processing Methods 0.000 abstract description 2
- 230000001276 controlling effect Effects 0.000 description 6
- 238000007726 management method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Abstract
本发明涉及自然语言处理的技术领域,揭露了一种文本不良信息识别方法,包括:通过字符向量化方式和分词方式分别对待识别文本进行处理,得到字向量集合与词向量集合;将字向量集合中各个字向量作为节点进行连接,将词向量集合中词向量作为字与字的连接的边,将所有的节点与边都连接至预构建的中继节点上,得到文本结构图;利用预训练的文本识别模型对文本结构图进行分析,得到待识别文本中存在不良信息的得分值;判断得分值是否大于预设的第一阈值,当得分值大于第一阈值时,确定待识别文本中存在不良信息。本发明还提出了文本不良信息识别装置、设备及计算机可读存储介质。本发明目的在于增加文本分析的灵活度、减小文本分析的计算量。
Description
技术领域
本发明涉及自然语言处理技术领域,尤其涉及一种文本不良信息识别方法、装置、电子设备及计算机可读存储介质。
背景技术
文本不良信息识别是一种对文本信息进行识别,防止发布到网络上的文章出现“黄反”等不良信息的技术。由于中文等语言的词语边界较为模糊、话语灵活,不同情境下具有不同含义,因此文本不良信息识别通常需要预先构建一个庞大且固定格式的文本结构图,该文本结构图中有大量权重固定的边,利用大量权重固定的“边”连接各个节点,再通过分析文本结构图中是否有不良信息,但需要构建庞大且固定格式的文本结构图,且基于这种文本结构图的运算负责,因此这一计算过程计算量大、内存消耗大,且文本识别时的灵活性较低。
发明内容
本发明提供一种文本不良信息识别方法、装置、电子设备及计算机可读存储介质,目的在于增加文本分析的灵活度、减小文本分析的计算量。
为实现上述目的,本发明提供的一种文本不良信息识别方法,包括:
获取待识别文本;
通过字符向量化方式和分词方式分别对所述待识别文本进行处理,得到字向量集合与词向量集合;
将所述字向量集合中各个字向量作为节点进行连接,将所述词向量集合中词向量作为字与字的连接的边,将所有的节点与边都连接至预构建的中继节点上,得到文本结构图;
利用预训练的文本识别模型对所述文本结构图进行分析,得到所述待识别文本中存在不良信息的得分值;
判断所述得分值是否大于预设的第一阈值,当所述得分值大于所述第一阈值时,确定所述待识别文本中存在不良信息。
可选的,所述将所述字向量集合中各个字向量作为节点进行连接,将所述词向量集合中词向量作为字与字的连接的边,将所有的节点与边都连接至预构建的中继节点上,得到文本结构图,包括:
将所述字向量集合中多个字向量设置为节点,所述节点的初始值为所述节点对应的字向量;
将所述词向量集合中各个词向量和组成各个词向量的字向量进行运算,通过运算结果更新各个字向量对应的节点中的初始值;
将所述字向量集合中组成各个词向量的字向量分别连接,将连接字向量的边的值设置为由相连接的字向量组成的词向量;
构建中继节点,将各个所述边及没有边连接的节点分别与所述中继节点进行连接,得到文本结构图。
可选的,所述通过字符向量化方式和分词方式分别对所述待识别文本进行处理,得到字向量集合与词向量集合,包括:
利用预构建的语言模型对所述待识别文本进行字符提取和向量化处理,得到所述字向量集合;
利用预构建的分词工具将所述待识别文本进行分词处理,得到所述词向量集合。
可选的,所述利用预训练的文本识别模型对所述文本结构图进行分析,得到所述待识别文本中存在不良信息的得分值,包括:
对所述文本结构图进行特征提取,得到每个边或节点的特征值;
对各个节点与连接各个所述节点的边的所述特征值进行加权运算,通过遍历所述文本结构图中每个节点,获取每个节点对于所述中继节点的相对关系向量;
利用所述文本识别模型中的激活函数对所述相对关系向量进行不良信息识别,得到所述待识别文本中有不良信息的得分值。
可选的,所述判断所述得分值是否大于预设的第一阈值,当所述得分值大于所述第一阈值,确定所述待识别文本中存在不良信息,包括:
对所述得分值进行归一化运算,得到归一值;
当所述归一值大于所述第一阈值时,确定对所述待识别文本中存在不良信息。
可选的,所述利用预训练的文本识别模型对所述文本结构图进行分析之前,所述方法还包括:
步骤I、获取包含特征提取网络、多头注意力图神经网络的待训练文本识别模型;
步骤II、将预构建的训练样本集导入所述待训练文本识别模型中,利用所述特征提取网络对所述训练样本集进行特征提取,得到特征序列集及文本标签集;
步骤III、利用所述多头注意力图神经网络分析所述特征序列集,得到预测结果集;
步骤IV、根据所述文本标签集,计算所述预测结果集的方差值,当所述方差值大于预设的第二阈值,调整所述待训练文本识别模型的内部参数,返回至步骤II的操作,直至所述方差值小于所述第二阈值,得到所述预训练的文本识别模型。
可选的,所述根据所述文本标签集,计算所述预测结果集的方差值,当所述方差值大于预设的第二阈值,调整所述待训练文本识别模型的内部参数,包括:
通过将所述文本标签集及所述预测结果集映射至同一二维平面,计算所述文本标签集与所述预测结果集之间的方差值;
当所述方差值大于所述第二阈值,判定所述方差值未收敛,利用所述方差值调整所述待训练文本识别模型中的回归函数。
为了解决上述问题,本发明还提供一种文本不良信息识别装置,所述装置包括:
文本预处理模块,用于获取待识别文本,及通过字符向量化方式和分词方式分别对所述待识别文本进行处理,得到字向量集合与词向量集合;
文本结构图构建模块,用于将所述字向量集合中各个字向量作为节点进行连接,将所述词向量集合中词向量作为字与字的连接的边,将所有的节点与边都连接至预构建的中继节点上,得到文本结构图;
文本分析模块,用于利用预训练的文本识别模型对所述文本结构图进行分析,得到所述待识别文本中存在不良信息的得分值;
结果判断模块,用于判断所述得分值是否大于预设的第一阈值,当所述得分值大于所述第一阈值时,确定所述待识别文本中存在不良信息。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述所述的文本不良信息识别方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,包括存储数据区和存储程序区,存储数据区存储创建的数据,存储程序区存储有计算机程序;其中,所述计算机程序被处理器执行时实现上述所述的文本不良信息识别方法。
本发明实施例通过对待识别文本进行预处理,获取字向量集合及词向量集合,基于所述字向量集合及词向量集合构建节点和边,得到文本结构图,并构建中继节点将节点与边进行连接,使得各个不相邻的节点都是彼此的二阶节点,构图更加灵活且无需使用庞大且固定格式的文本结构图,减少运算量;此外,利用预训练完成的文本识别模型,进一步对通过前述操作构建的文本结构图进行分析,从提高文本分析的效率,增加文本分析的灵活度和计算量。因此,本发明实施例可以增加文本分析的灵活度、减小文本分析的计算量。
附图说明
图1为本发明一实施例提供的文本不良信息识别方法的流程示意图;
图2为图1提供的文本不良信息识别方法中一个步骤的详细流程图;
图3为本发明一实施例提供的文本不良信息识别装置的模块示意图;
图4为本发明一实施例提供的实现文本不良信息识别方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种文本不良信息识别方法。所述文本不良信息识别方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述文本不良信息识别方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示,为本发明一实施例提供的文本不良信息识别方法的流程示意图。在本实施例中,所述文本不良信息识别方法包括:
S1、获取待识别文本。
本发明实施例中,所述待识别文本为需要进行不良信息识别的文本。
例如,待识别文本为新闻发布之前需要进行文件识别的预构建的文本。
具体的,待识别文本可以从指定服务器(例如聊天服务器)获取,也可以是随机从网站或应用程序中获取的,或者是通过语音识别技术转换得到的文本信息。
S2、通过字符向量化方式和分词方式分别对所述待识别文本进行处理,得到字向量集合与词向量集合。
详细地,本发明实施例中,所述通过字符向量化方式和分词方式分别对所述待识别文本进行处理,得到字向量集合与词向量集合,包括:
利用预构建的语言模型对所述待识别文本进行字符提取和向量化处理,得到所述字向量集合;
利用预构建的分词工具将所述待识别文本进行分词处理,得到所述词向量集合。
本发明实施例中,所述字向量集合及所述词向量集合为待识别文本经过预构建的bert文本分析模型及jieba分词工具的处理得到的。
例如,输入的待识别文本为“武汉市长江大桥”。通过所述bert文本分析模型,可以得到字向量集为【“武”,“汉”,“市”,……,“桥”】,再将文本“武汉市长江大桥”输入所述jieba分词工具,得到的词向量集合为【“武汉”,“武汉市”,“市长”,“长江”……】。
S3、将所述字向量集合中各个字向量作为节点进行连接,将所述词向量集合中词向量作为字与字的连接的边,将所有的节点与边都连接至预构建的中继节点上,得到文本结构图。
本发明实施例构建一节点作为中继节点,将各个节点均连接至所述中继节点,得到文本结构图,使得任意不相连的节点都是彼此的二阶节点。
详细地,本发明实施例中,所述将所述字向量集合中各个字向量作为节点进行连接,将所述词向量集合中词向量作为字与字的连接的边,将所有的节点与边都连接至预构建的中继节点上,得到文本结构图,包括:
S31、将所述字向量集合中多个字向量设置为节点,所述节点的初始值为所述节点对应的字向量;
S32、将所述词向量集合中各个词向量和组成各个词向量的字向量进行运算,通过运算结果更新各个字向量对应的节点中的初始值。
本发明实施例中,各个字或词的量化值为【C1:“武”,C2:“汉”,C3:“市”,……,C7:“桥”】,【E12:“武汉”,E13:“武汉市”,E34:“市长”,E45“长江”……】,将词向量集合中各个词向量和组成各个词向量的字向量进行运算,得到【C1*(E12+E13):“武”,C2*(E12+E13):“汉”,C3*(E13+E34):“市”,……】,并将【C1*(E12+E13),C2*(E12+E13),C3*(E13+E34),……】赋值至各个节点中替换原来各个节点中的初始值,例如将“C1*(E12+E13)”赋值至“武”,将“C2*(E12+E13)”赋值至“汉”。
S33、将所述字向量集合中组成各个词向量的字向量分别连接,将连接字向量的边的值设置为由相连接的字向量组成的词向量。
本发明实施例中,利用边将各个边对应的节点进行连接,构建一个图。其中,节点的赋值为前述步骤S32中运算得到的结果,边的赋值为对应的词向量。
S34、构建中继节点,将各个所述边及没有边连接的节点分别与所述中继节点进行连接,得到文本结构图。
本发明实施例中,将各个没有组成词的字向量及每个词向量分别连接至所述中继节点,得到所述文本结构图,则所有的边和字节点都相连接,从而使得每个节点都是彼此的二级节点。
S4、利用预训练的文本识别模型对所述文本结构图进行分析,得到所述待识别文本中存在不良信息的得分值。
本发明实施例中,所述文本识别模型是基于TransForm模型框架构建的多头注意力图神经网络模型,可以鉴别文本中是否含有不良信息,例如是否含有“黄反”内容。
详细地,本发明实施例中,所述利用预训练的文本识别模型对所述文本结构图进行分析,得到所述待识别文本中存在不良信息的得分值,包括:
对所述文本结构图进行特征提取,得到每个边或节点的特征值;
对各个节点与连接各个所述节点的边的所述特征值进行加权运算,通过遍历所述文本结构图中每个节点,获取每个节点对于所述中继节点的相对关系向量;
利用所述文本识别模型中的激活函数对所述相对关系向量进行不良信息识别,得到所述待识别文本中有不良信息的得分值。
所述文本识别模型通过多头注意力机制对所述文本结构图中各个节点的向量进行向量运算,得到每个节点的与所述中继节点的相对关系向量。再将各个节点的所述相对关系向量导入包含多头图注意力神经网络中的全连接层进行网络激活,生成预设维数的向量结果,再将所述向量结果经过逻辑回归函数处理,得到1*2维的向量,即各个节点的不良信息类型及正常类别概率。
详细地,本发明实施例中,所述利用预训练的文本识别模型对所述文本结构图进行分析之前,所述方法还包括:
步骤I、获取包含特征提取网络、多头注意力图神经网络的待训练文本识别模型;
本发明实施例中在TransForm模型框架上依次连接所述全连接层、所述图注意力神经网络、所述样本文本结构图,得到待训练文本识别模型。其中所述图注意力神经网络中包含基于lstm门控的图更新过程,通过下述函数对所述节点及所述连线进行更新:
其中,表示预设窗口范围内邻接向量的拼接操作,例如,窗口大小预设为2。三个门控结构/>代表在第t轮迭代中控制全局特征向第i个字符表示/>的信息流动,从而调节词语的权值,缓解序列上边界模糊的问题。/>控制第i-1个字符在t-1轮迭代中的特征有多少被传入到第t轮迭代更新中的第i个字符中,/>控制第i个字符在t-1轮迭代中的特征有多少被传入到第t轮迭代更新中的第i个字符中,/>控制t-1轮迭代中聚合前后的第i-1个字符,第i个字符有多少被传入到第t轮迭代更新中的第i个字符中。
最终,所述多头注意力图网络神经网络可以得到文本中每个字符的表示,即每个节点表示每个字,每个节点的值就是最终每个字符的表示。
步骤II、将预构建的训练样本集导入所述待训练文本识别模型中,利用所述特征提取网络对所述训练样本集进行特征提取,得到特征序列集及文本标签集;
步骤III、利用所述多头注意力图神经网络分析所述特征序列集,得到预测结果集;
步骤IV、根据所述文本标签集,计算所述预测结果集的方差值,当所述方差值大于预设的第二阈值,调整所述待训练文本识别模型的内部参数,返回至步骤II的操作,直至所述方差值小于所述第二阈值,得到所述预训练的文本识别模型。
详细地,本发明实施例中,所述根据所述文本标签集,计算所述预测结果集的方差值,当所述方差值大于预设的第二阈值,调整所述待训练文本识别模型的内部参数,包括:
将所述文本标签集及所述预测结果集映射至同一二维平面,计算所述文本标签集与所述预测结果集之间的方差值;
当所述方差值大于所述第二阈值,判定所述方差值未收敛,利用所述方差值调整所述待训练文本识别模型中的回归函数。
本发明实施例中,当所述评估结果小于所述预设阈值时,表明所述待训练文本识别模型训练完成,得到训练好的文本识别模型,即预训练的文本识别模型。
S5、判断所述得分值是否大于预设的第一阈值,当所述得分值大于所述第一阈值时,确定所述待识别文本中存在不良信息。
详细地,本发明实施例中,所述判断所述得分值是否大于预设的第一阈值,当所述得分值大于所述第一阈值时,确定所述待识别文本中存在不良信息,包括:
对所述得分值进行归一化运算,得到归一值;
当所述归一值大于所述第一阈值时,确定所述待识别文本中存在不良信息。
进一步的,当所述归一值小于所述第一阈值时,确定所述待识别文本中不良信息的概率较小,判定所述待识别文本中没有不良信息。
具体的,本发明实施例中,利用所述文本识别模型对所述文章文本进行打分,通过对得分值进行划分,可以进一步判断待发布文本中是否有不良信息,增加检测结果准确性。
本发明实施例中,通过归一化算法将得分值转变为0~1直接的归一值,使得所述文本识别模型的识别结果更清晰。
本发明实施例通过对待识别文本进行预处理,获取字向量集合及词向量集合,基于所述字向量集合及词向量集合构建节点和边,得到文本结构图,并构建中继节点将节点与边进行连接,使得各个不相邻的节点都是彼此的二阶节点,构图更加灵活且无需使用庞大且固定格式的文本结构图,减少运算量;此外,利用预训练完成的文本识别模型,进一步对通过前述操作构建的文本结构图进行分析,从提高文本分析的效率,增加文本分析的灵活度和计算量。因此,本发明实施例可以增加文本分析的灵活度、减小文本分析的计算量。
如图3所示,是本发明文本不良信息识别装置的模块示意图。
本发明所述文本不良信息识别装置100可以安装于电子设备中。根据实现的功能,所述文本不良信息识别装置可以包括文本预处理模块模块101、文本结构图构建模块102、文本分析模块103、结果判断模块104。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述文本预处理模块模块101,用于获取待识别文本,及通过字符向量化方式和分词方式分别对所述待识别文本进行处理,得到字向量集合与词向量集合。
本发明实施例中,所述装置项文本预处理模块模块101,包含文本获取单元及文本处理单元。
所述文本获取单元,用于获取待识别文本。
本发明实施例中,所述待识别文本为需要进行不良信息识别的文本。
例如,待识别文本为新闻发布之前需要进行文件识别的预构建的文本。
具体的,待识别文本可以从指定服务器(例如聊天服务器)获取,也可以是随机从网站或应用程序中获取的,或者是通过语音识别技术转换得到的文本信息。
所述文本处理单元,用于通过字符向量化方式和分词方式分别对所述待识别文本进行处理,得到字向量集合与词向量集合。
详细地,本发明实施例中,所述通过字符向量化方式和分词方式分别对所述待识别文本进行处理,得到字向量集合与词向量集合,所述所述文本处理单元具体用于:
利用预构建的语言模型对所述待识别文本进行字符提取和向量化处理,得到所述字向量集合;
利用预构建的分词工具将所述待识别文本进行分词处理,得到所述词向量集合。
本发明实施例中,所述字向量集合及所述词向量集合为待识别文本经过预构建的bert文本分析模型及jieba分词工具的处理得到的。
例如,输入的待识别文本为“武汉市长江大桥”。通过所述bert文本分析模型,可以得到字向量集为【“武”,“汉”,“市”,……,“桥”】,再将文本“武汉市长江大桥”输入所述jieba分词工具,得到的词向量集合为【“武汉”,“武汉市”,“市长”,“长江”……】。
所述文本结构图构建模块102,用于将所述字向量集合中各个字向量作为节点进行连接,将所述词向量集合中词向量作为字与字的连接的边,将所有的节点与边都连接至预构建的中继节点上,得到文本结构图。
本发明实施例构建一节点作为中继节点,连接各个节点均连接至所述中继节点,得到所述样本文本结构图,使得任意不相连的节点都是彼此的二阶节点。
详细地,本发明装置项中,所述将所述字向量集合中各个字向量作为节点进行连接,将所述词向量集合中词向量作为字与字的连接的边,将所有的节点与边都连接至预构建的中继节点上,得到文本结构图,所述文本结构图构建模块102具体用于:
将所述字向量集合中多个字向量设置为节点,所述节点的初始值为所述节点对应的字向量;
将所述词向量集合中各个词向量和组成各个词向量的字向量进行运算,通过运算结果更新各个字向量对应的节点中的初始值。
本发明实施例中,各个字或词的量化值,如【C1:“武”,C2:“汉”,C3:“市”,……,C7:“桥”】,【E12:“武汉”,E13:“武汉市”,E34:“市长”,E45“长江”……】,利用所述词向量集合对所述字向量集合进行向量运算,得到运算结果为【C1*(E12+E13):“武”,C2*(E12+E13):“汉”,C3*(E13+E34):“市”,……】,并将【C1*(E12+E13),C2*(E12+E13),C3*(E13+E34),……】赋值至各个节点中替换原来各个节点中的初始值。
将所述字向量集合中组成各个词向量的字向量分别连接,将连接字向量的边的值设置为由相连接的字向量组成的词向量。
本发明实施例中,利用边将各个边对应的节点进行连接,构建一个图。其中,节点的赋值为前述步骤2中运算得到的结果,边的赋值为对应的词向量。
构建中继节点,将各个所述边及没有边连接的节点分别与所述中继节点进行连接,得到文本结构图。
本发明实施例中,将各个没有组成词的字向量及每个词向量分别连接至所述中继节点,得到所述文本结构图,则所有的边和字节点都相连接,从而使得每个节点都是彼此的二级节点。
所述文本分析模块103,用于利用预训练的文本识别模型对所述文本结构图进行分析,得到所述待识别文本中存在不良信息的得分值。
本发明实施例中,所述文本识别模型是基于TransForm模型框架构建的多头注意力图神经网络模型,可以鉴别文本中是否含有不良信息,例如是否含有“黄反”内容。
详细地,本发明实施例中,所述利用预训练的文本识别模型对所述文本结构图进行分析,得到所述待识别文本中存在不良信息的得分值,包括:
对所述文本结构图进行特征提取,得到每个边或节点的特征值;
对各个节点与连接各个所述节点的边的所述特征值进行加权运算,通过遍历所述文本结构图中每个节点,获取每个节点对于所述中继节点的相对关系向量;
利用所述文本识别模型中的激活函数对所述相对关系向量进行不良信息识别,得到所述待识别文本中有不良信息的得分值。
所述文本识别模型通过多头注意力机制对所述文本结构图中各个节点的向量进行向量运算,得到每个节点的与所述中继节点的相对关系向量。再将各个节点的所述相对关系向量导入包含多头图注意力神经网络中的全连接层进行网络激活,生成预设维数的向量结果,再将所述向量结果经过逻辑回归函数处理,得到1*2维的向量,即各个节点的不良信息类型及正常类别概率。
详细地,本发明实施例中,所述利用预训练的文本识别模型对所述文本结构图进行分析之前,所述文本分析模块103还能用于:
获取包含特征提取网络、多头注意力图神经网络的待训练文本识别模型;
本发明实施例中在TransForm模型框架上依次连接所述全连接层、所述图注意力神经网络、所述样本文本结构图,得到待训练文本识别模型。其中所述图注意力神经网络中包含基于lstm门控的图更新过程,通过下述函数对所述节点及所述连线进行更新:
其中,表示预设窗口范围内邻接向量的拼接操作,例如,窗口大小预设为2。三个门控结构/>代表在第t轮迭代中控制全局特征向第i个字符表示/>的信息流动,从而调节词语的权值,缓解序列上边界模糊的问题。/>控制第i-1个字符在t-1轮迭代中的特征有多少被传入到第t轮迭代更新中的第i个字符中,/>控制第i个字符在t-1轮迭代中的特征有多少被传入到第t轮迭代更新中的第i个字符中,/>控制t-1轮迭代中聚合前后的第i-1个字符,第i个字符有多少被传入到第t轮迭代更新中的第i个字符中。
最终,所述图网络神经网络可以得到文本中每个字符的表示,即每个节点表示每个字,每个节点的值就是最终每个字符的表示。
将预构建的训练样本集导入所述待训练文本识别模型中,利用所述特征提取网络对所述训练样本集进行特征提取,得到特征序列集及文本标签集;
利用所述多头注意力图神经网络分析所述特征序列集,得到预测结果集;
根据所述文本标签集,计算所述预测结果集的方差值,当所述方差值大于预设的第二阈值,调整所述待训练文本识别模型的内部参数,返回至步骤II的操作,直至所述方差值小于所述第二阈值,得到所述预训练的文本识别模型。
详细地,本发明实施例中,所述根据所述文本标签集,计算所述预测结果集的方差值,当所述方差值大于预设的第二阈值,调整所述待训练文本识别模型的内部参数,包括:
将所述文本标签集及所述预测结果集映射至同一二维平面,计算所述文本标签集与所述预测结果集之间的方差值;
当所述方差值大于所述第二阈值,判定所述方差值未收敛,利用所述方差值调整所述待训练文本识别模型中的回归函数。
本发明实施例中,当所述评估结果小于所述预设阈值时,表明所述待训练文本识别模型训练完成,得到训练好的文本识别模型,即预训练的文本识别模型。
所述结果判断模块104,用于判断所述得分值是否大于预设的第一阈值,当所述得分值大于所述第一阈值时,确定所述待识别文本中存在不良信息。
详细地,本发明实施例中,所述判断所述得分值是否大于预设的第一阈值,当所述得分值大于所述第一阈值时,确定所述待识别文本中存在不良信息,所述结果判断模块104具体用于:
对所述得分值进行归一化运算,得到归一值;
当所述归一值大于所述第一阈值时,确定所述待识别文本中存在不良信息。
进一步的,当所述归一值小于所述第一阈值时,确定所述待识别文本中不良信息的概率较小,判定所述待识别文本中没有不良信息。
具体的,本发明实施例中,利用所述文本识别模型对所述文章文本进行打分,通过对得分值进行划分,可以进一步判断待发布文本中是否有不良信息,增加检测结果准确性。
本发明实施例中,通过归一化算法将得分值转变为0~1直接的归一值,使得所述文本识别模型的识别结果更清晰。
本发明实施例通过对待识别文本进行预处理,获取字向量集合及词向量集合,基于所述字向量集合及词向量集合构建节点和边,得到文本结构图,并构建中继节点将节点与边进行连接,使得各个不相邻的节点都是彼此的二阶节点,构图更加灵活且无需使用庞大且固定格式的文本结构图,减少运算量;此外,利用预训练完成的文本识别模型,进一步对通过前述操作构建的文本结构图进行分析,从提高文本分析的效率,增加文本分析的灵活度和计算量。因此,本发明实施例可以增加文本分析的灵活度、减小文本分析的计算量。
如图4所示,是本发明实现文本不良信息识别方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如文本不良信息识别程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如文本不良信息识别程序12的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行文本不良信息识别程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图4仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图4示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的文本不良信息识别程序12是多个计算机程序的组合,在所述处理器10中运行时,可以实现:
获取待识别文本;
通过字符向量化方式和分词方式分别对所述待识别文本进行处理,得到字向量集合与词向量集合;
将所述字向量集合中各个字向量作为节点进行连接,将所述词向量集合中词向量作为字与字的连接的边,将所有的节点与边都连接至预构建的中继节点上,得到文本结构图;
利用预训练的文本识别模型对所述文本结构图进行分析,得到所述待识别文本中存在不良信息的得分值;
判断所述得分值是否大于预设的第一阈值,当所述得分值大于所述第一阈值时,确定所述待识别文本中存在不良信息。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
进一步地,所述计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取待识别文本;
通过字符向量化方式和分词方式分别对所述待识别文本进行处理,得到字向量集合与词向量集合;
将所述字向量集合中各个字向量作为节点进行连接,将所述词向量集合中词向量作为字与字的连接的边,将所有的节点与边都连接至预构建的中继节点上,得到文本结构图;
利用预训练的文本识别模型对所述文本结构图进行分析,得到所述待识别文本中存在不良信息的得分值;
判断所述得分值是否大于预设的第一阈值,当所述得分值大于所述第一阈值时,确定所述待识别文本中存在不良信息。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图表记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (8)
1.一种文本不良信息识别方法,其特征在于,所述方法包括:
获取待识别文本;
通过字符向量化方式和分词方式分别对所述待识别文本进行处理,得到字向量集合与词向量集合;
将所述字向量集合中各个字向量作为节点进行连接,将所述词向量集合中词向量作为字与字的连接的边,将所有的节点与边都连接至预构建的中继节点上,得到文本结构图,包括:将所述字向量集合中多个字向量设置为节点,所述节点的初始值为所述节点对应的字向量,将所述词向量集合中各个词向量和组成各个词向量的字向量进行运算,通过运算结果更新各个字向量对应的节点中的初始值,将所述字向量集合中组成各个词向量的字向量分别连接,将连接字向量的边的值设置为由相连接的字向量组成的词向量,构建中继节点,将各个所述边及没有边连接的节点分别与所述中继节点进行连接,得到所述文本结构图;
利用预训练的文本识别模型对所述文本结构图进行分析,得到所述待识别文本中存在不良信息的得分值,包括:利用所述文本识别模型的多头注意力机制对所述文本结构图中各个节点的向量进行向量运算,得到每个节点与所述中继节点的相对关系向量 ,包括:对所述文本结构图进行特征提取,得到每个边或节点的特征值,对各个节点与连接各个所述节点的边的所述特征值进行加权运算,通过遍历所述文本结构图中每个节点,获取每个节点对于所述中继节点的相对关系向量;
利用所述文本识别模型中的激活函数对所述相对关系向量进行不良信息识别,得到所述待识别文本中有不良信息的得分值,所述文本识别模型是基于TransForm模型框架构建的多头注意力图神经网络模型;
判断所述得分值是否大于预设的第一阈值,当所述得分值大于所述第一阈值时,确定所述待识别文本中存在不良信息。
2.如权利要求1所述的文本不良信息识别方法,其特征在于,所述通过字符向量化方式和分词方式分别对所述待识别文本进行处理,得到字向量集合与词向量集合,包括:
利用预构建的语言模型对所述待识别文本进行字符提取和向量化处理,得到所述字向量集合;
利用预构建的分词工具将所述待识别文本进行分词处理,得到所述词向量集合。
3.如权利要求1至2中任意一项的所述的文本不良信息识别方法,其特征在于,所述判断所述得分值是否大于预设的第一阈值,当所述得分值大于所述第一阈值,确定所述待识别文本中存在不良信息,包括:
对所述得分值进行归一化运算,得到归一值;
当所述归一值大于所述第一阈值时,确定对所述待识别文本中存在不良信息。
4.如权利要求1至2中任一项所述的文本不良信息识别方法,其特征在于,所述利用预训练的文本识别模型对所述文本结构图进行分析之前,所述方法还包括:
步骤I、获取包含特征提取网络、多头注意力图神经网络的待训练文本识别模型;
步骤II、将预构建的训练样本集导入所述待训练文本识别模型中,利用所述特征提取网络对所述训练样本集进行特征提取,得到特征序列集及文本标签集;
步骤III、利用所述多头注意力图神经网络分析所述特征序列集,得到预测结果集;
步骤IV、根据所述文本标签集,计算所述预测结果集的方差值,当所述方差值大于预设的第二阈值,调整所述待训练文本识别模型的内部参数,返回至步骤II的操作,直至所述方差值小于所述第二阈值,得到所述预训练的文本识别模型。
5.如权利要求4所述的文本不良信息识别方法,其特征在于,所述根据所述文本标签集,计算所述预测结果集的方差值,当所述方差值大于预设的第二阈值,调整所述待训练文本识别模型的内部参数,包括:
通过将所述文本标签集及所述预测结果集映射至同一二维平面,计算所述文本标签集与所述预测结果集之间的方差值;
当所述方差值大于所述第二阈值,判定所述方差值未收敛,利用所述方差值调整所述待训练文本识别模型中的回归函数。
6.一种文本不良信息识别装置,其特征在于,所述装置包括:
文本预处理模块,用于获取待识别文本,及通过字符向量化方式和分词方式分别对所述待识别文本进行处理,得到字向量集合与词向量集合;
文本结构图构建模块,用于将所述字向量集合中各个字向量作为节点进行连接,将所述词向量集合中词向量作为字与字的连接的边,将所有的节点与边都连接至预构建的中继节点上,得到文本结构图,包括:将所述字向量集合中多个字向量设置为节点,所述节点的初始值为所述节点对应的字向量,将所述词向量集合中各个词向量和组成各个词向量的字向量进行运算,通过运算结果更新各个字向量对应的节点中的初始值,将所述字向量集合中组成各个词向量的字向量分别连接,将连接字向量的边的值设置为由相连接的字向量组成的词向量,构建中继节点,将各个所述边及没有边连接的节点分别与所述中继节点进行连接,得到所述文本结构图;
文本分析模块,用于利用预训练的文本识别模型对所述文本结构图进行分析,得到所述待识别文本中存在不良信息的得分值,包括:利用所述文本识别模型的多头注意力机制对所述文本结构图中各个节点的向量进行向量运算,得到每个节点与所述中继节点的相对关系向量 ,包括:对所述文本结构图进行特征提取,得到每个边或节点的特征值,对各个节点与连接各个所述节点的边的所述特征值进行加权运算,通过遍历所述文本结构图中每个节点,获取每个节点对于所述中继节点的相对关系向量;
利用所述文本识别模型中的激活函数对所述相对关系向量进行不良信息识别,得到所述待识别文本中有不良信息的得分值,所述文本识别模型是基于TransForm模型框架构建的多头注意力图神经网络模型;
结果判断模块,用于判断所述得分值是否大于预设的第一阈值,当所述得分值大于所述第一阈值时,确定所述待识别文本中存在不良信息。
7.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至5中任一项所述的文本不良信息识别方法。
8.一种计算机可读存储介质,包括存储数据区和存储程序区,存储数据区存储创建的数据,存储程序区存储有计算机程序;其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述的文本不良信息识别方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110436894.9A CN113515591B (zh) | 2021-04-22 | 2021-04-22 | 文本不良信息识别方法、装置、电子设备及存储介质 |
PCT/CN2021/097077 WO2022222228A1 (zh) | 2021-04-22 | 2021-05-30 | 文本不良信息识别方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110436894.9A CN113515591B (zh) | 2021-04-22 | 2021-04-22 | 文本不良信息识别方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113515591A CN113515591A (zh) | 2021-10-19 |
CN113515591B true CN113515591B (zh) | 2024-03-15 |
Family
ID=78062739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110436894.9A Active CN113515591B (zh) | 2021-04-22 | 2021-04-22 | 文本不良信息识别方法、装置、电子设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113515591B (zh) |
WO (1) | WO2022222228A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116939292B (zh) * | 2023-09-15 | 2023-11-24 | 天津市北海通信技术有限公司 | 轨道交通环境下的视频文本内容监测方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111241820A (zh) * | 2020-01-14 | 2020-06-05 | 平安科技(深圳)有限公司 | 不良用语识别方法、装置、电子装置及存储介质 |
CN111435410A (zh) * | 2019-01-14 | 2020-07-21 | 阿里巴巴集团控股有限公司 | 用于医疗文本的关系抽取方法及其装置 |
CN112231562A (zh) * | 2020-10-15 | 2021-01-15 | 北京工商大学 | 一种网络谣言识别方法及系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10395654B2 (en) * | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
US20210081717A1 (en) * | 2018-05-18 | 2021-03-18 | Benevolentai Technology Limited | Graph neutral networks with attention |
CN110427610A (zh) * | 2019-06-25 | 2019-11-08 | 平安科技(深圳)有限公司 | 文本分析方法、装置、计算机装置及计算机存储介质 |
CN111062199B (zh) * | 2019-11-05 | 2023-12-22 | 北京中科微澜科技有限公司 | 一种不良信息识别方法及装置 |
CN112464655A (zh) * | 2020-11-27 | 2021-03-09 | 绍兴达道生涯教育信息咨询有限公司 | 中文字符和拼音相结合的词向量表示方法、装置、介质 |
CN112597312A (zh) * | 2020-12-28 | 2021-04-02 | 深圳壹账通智能科技有限公司 | 文本分类方法、装置、电子设备及可读存储介质 |
-
2021
- 2021-04-22 CN CN202110436894.9A patent/CN113515591B/zh active Active
- 2021-05-30 WO PCT/CN2021/097077 patent/WO2022222228A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111435410A (zh) * | 2019-01-14 | 2020-07-21 | 阿里巴巴集团控股有限公司 | 用于医疗文本的关系抽取方法及其装置 |
CN111241820A (zh) * | 2020-01-14 | 2020-06-05 | 平安科技(深圳)有限公司 | 不良用语识别方法、装置、电子装置及存储介质 |
CN112231562A (zh) * | 2020-10-15 | 2021-01-15 | 北京工商大学 | 一种网络谣言识别方法及系统 |
Non-Patent Citations (1)
Title |
---|
A Lexicon-Based Graph Neural Network for Chinese NER;Tao Gui et al;《Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing》;第1040-1050页 * |
Also Published As
Publication number | Publication date |
---|---|
WO2022222228A1 (zh) | 2022-10-27 |
CN113515591A (zh) | 2021-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112861648B (zh) | 文字识别方法、装置、电子设备及存储介质 | |
CN113157927B (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN113592605B (zh) | 基于相似产品的产品推荐方法、装置、设备及存储介质 | |
CN112988963A (zh) | 基于多流程节点的用户意图预测方法、装置、设备及介质 | |
CN114840684A (zh) | 基于医疗实体的图谱构建方法、装置、设备及存储介质 | |
CN113658002B (zh) | 基于决策树的交易结果生成方法、装置、电子设备及介质 | |
CN113344125B (zh) | 长文本匹配识别方法、装置、电子设备及存储介质 | |
CN113360654B (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN114491047A (zh) | 多标签文本分类方法、装置、电子设备及存储介质 | |
CN113515591B (zh) | 文本不良信息识别方法、装置、电子设备及存储介质 | |
CN112579781B (zh) | 文本归类方法、装置、电子设备及介质 | |
CN115146653B (zh) | 对话剧本构建方法、装置、设备及存储介质 | |
CN116401602A (zh) | 事件检测方法、装置、设备及计算机可读介质 | |
CN113626605B (zh) | 信息分类方法、装置、电子设备及可读存储介质 | |
CN112580505B (zh) | 网点开关门状态识别方法、装置、电子设备及存储介质 | |
CN114996386A (zh) | 业务角色识别方法、装置、设备及存储介质 | |
CN113706207A (zh) | 基于语义解析的订单成交率分析方法、装置、设备及介质 | |
CN113806540A (zh) | 文本打标签方法、装置、电子设备及存储介质 | |
CN113656586B (zh) | 情感分类方法、装置、电子设备及可读存储介质 | |
CN113592606B (zh) | 基于多重决策的产品推荐方法、装置、设备及存储介质 | |
CN115146627B (zh) | 实体识别方法、装置、电子设备及存储介质 | |
CN113221888B (zh) | 车牌号管理系统测试方法、装置、电子设备及存储介质 | |
CN115221875B (zh) | 词权重生成方法、装置、电子设备及存储介质 | |
CN114462411B (zh) | 命名实体识别方法、装置、设备及存储介质 | |
CN115525730B (zh) | 基于页面赋权的网页内容提取方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |