CN111401062B - 文本的风险识别方法、装置及设备 - Google Patents

文本的风险识别方法、装置及设备 Download PDF

Info

Publication number
CN111401062B
CN111401062B CN202010216591.1A CN202010216591A CN111401062B CN 111401062 B CN111401062 B CN 111401062B CN 202010216591 A CN202010216591 A CN 202010216591A CN 111401062 B CN111401062 B CN 111401062B
Authority
CN
China
Prior art keywords
text
risk
weight
vocabulary
sliding window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010216591.1A
Other languages
English (en)
Other versions
CN111401062A (zh
Inventor
周书恒
祝慧佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202010216591.1A priority Critical patent/CN111401062B/zh
Publication of CN111401062A publication Critical patent/CN111401062A/zh
Application granted granted Critical
Publication of CN111401062B publication Critical patent/CN111401062B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本说明书实施例提供一种文本的风险识别方法、装置及设备,其中,方法包括:标注待进行风险识别的第一文本中各词汇的风险权重,所述风险权重用于表征词汇的风险程度;根据所述第一文本中各词汇的风险权重从所述第一文本中提取至少一个文本片段形成第二文本;每个所述文本片段中词汇的风险权重满足预设权重条件;对所述第二文本采用预先训练得到的文本分类模型进行风险识别,得到所述第二文本的风险识别结果。本说明书实施例的方案,能够在保证文本分类模型处理能力的情况下防止风险漏识,有效提高文本的风险识别效率。

Description

文本的风险识别方法、装置及设备
技术领域
本文件涉及文本识别技术领域,尤其涉及一种文本的风险识别方法、装置及设备。
背景技术
在文本内容安全领域,短文本的风险防控方案已经非常成熟,但是长文本由于其特殊性,目前的识别手段主要包括如下几种:
1.使用关键词策略进行风险识别;
2.对长文进行截断,将其视作短文本进行识别;
3.对长文进行分段,逐个或批量进行识别。
其中,方案1容易造成误识别,且更新维护成本高;方案2容易丢弃风险片段,造成风险遗漏;方案3中串行识别则耗时高,并行识别则对模型部署方案要求高。
发明内容
本说明书提供了一种文本的风险识别方法、装置及设备,能够在保证文本分类模型处理能力的情况下防止风险漏识,有效提高文本的风险识别效率。
为达到上述目的,本说明书的实施例采用如下技术方案:
第一方面,本说明书实施例提供了一种文本的风险识别方法,包括:
标注待进行风险识别的第一文本中各词汇的风险权重,所述风险权重用于表征词汇的风险程度;
根据所述第一文本中各词汇的风险权重从所述第一文本中提取至少一个文本片段形成第二文本;每个所述文本片段中词汇的风险权重满足预设权重条件;
对所述第二文本采用预先训练得到的文本分类模型进行风险识别,得到所述第二文本的风险识别结果。
第二方面,本说明书实施例提供了一种文本的风险识别装置,包括:
风险标注模块,标注待进行风险识别的第一文本中各词汇的风险权重,所述风险权重用于表征词汇的风险程度;
文本提取模块,根据所述第一文本中各词汇的风险权重从所述第一文本中提取至少一个文本片段形成第二文本;每个所述文本片段中词汇的风险权重满足预设权重条件;
风险识别模块,对所述第二文本采用预先训练得到的文本分类模型进行风险识别,得到所述第二文本的风险识别结果。
第三方面,本说明书实施例提供了一种文本的风险识别设备,包括:
处理器;以及,
被安排成存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器:
标注待进行风险识别的第一文本中各词汇的风险权重,所述风险权重用于表征词汇的风险程度;
根据所述第一文本中各词汇的风险权重从所述第一文本中提取至少一个文本片段形成第二文本;每个所述文本片段中词汇的风险权重满足预设权重条件;
对所述第二文本采用预先训练得到的文本分类模型进行风险识别,得到所述第二文本的风险识别结果。
第四方面,本说明书实施例提供了一种存储介质。该存储介质用于存储计算机可执行指令。所述计算机可执行指令在被执行时实现以下流程:
标注待进行风险识别的第一文本中各词汇的风险权重,所述风险权重用于表征词汇的风险程度;
根据所述第一文本中各词汇的风险权重从所述第一文本中提取至少一个文本片段形成第二文本;每个所述文本片段中词汇的风险权重满足预设权重条件;
对所述第二文本采用预先训练得到的文本分类模型进行风险识别,得到所述第二文本的风险识别结果。
本说明书提供了一种文本的风险识别方法、装置及设备,在利用预先训练得到的文本分类模型对待进行风险识别的第一文本进行风险识别前,先标注第一文本中各词汇的风险权重,该风险权重用于表征词汇的风险程度;根据第一文本中各词汇的风险权重从第一文本中提取至少一个文本片段形成第二文本;每个文本片段中词汇的风险权重满足预设权重条件;然后仅对第二文本采用所述文本分类模型进行风险识别,得到第二文本的风险识别结果,从而在保证文本分类模型处理能力的情况下防止风险漏识,有效提高文本的风险识别效率。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
为了更清楚地说明本说明书一个或多个实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书实施例的文本的风险识别逻辑架构示意图;
图2为本说明书实施例的文本的风险识别方法的流程示意图一;
图3为本说明书实施例的文本的风险识别方法的流程示意图二;
图4为本说明书实施例的文本的风险识别方法的流程示意图三;
图5为本说明书实施例的文本的风险识别方法的流程示意图四;
图6为本说明书实施例的文本的风险识别装置的结构示意图;
图7为本说明书实施例的文本的风险识别设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本说明书实施例改善了现有技术在进行长文本(文字长度大约达到1000字以上)的风险识别中,识别准确度低、风险遗漏、模型部署要求高的缺陷,其核心思想在于,在对待进行风险识别的第一文本采用文本分类模型进行风险识别前,先对待识别的风险权重的长文本中的各词汇进行风险权重标注,确定出词汇的风险程度,然后根据各词汇的风险权重从长文本中提取至少一个文本片段形成短文本(文字长度大约在100字以内);每个文本片段中词汇的风险权重满足预设权重条件;最后对短文本采用预先训练得到的文本分类模型进行风险识别,得到短文本的风险识别结果。这样,通过设定待提取的文本片段中词汇的风险权重所满足的权重条件,可以从待进行风险识别的长文本中提取出满足指定风险条件的文本片段形成短文本输入至文本分类模型进行风险识别,该提取过程既可以有效降低进入文本分类模型的文本长度,保证文本分类模型的处理能力,同时还可以防止风险漏识,有效提高文本的风险识别效率。
基于上述核心思想,本说明书实施例提供了一种文本的风险识别逻辑架构。如图1所示,该逻辑架构中包括:
标注待进行风险识别的第一文本中各词汇的风险权重,该风险权重用于表征词汇的风险程度;根据第一文本中各词汇的风险权重从第一文本中提取至少一个文本片段形成第二文本;每个文本片段中词汇的风险权重满足预设权重条件;对第二文本采用预先训练得到的文本分类模型进行风险识别,得到第二文本的风险识别结果,例如识别第二文本是否存在风险,以及在存在风险时所存在风险的类型。
其中,待进行风险识别的第一文本可以为长文本,从第一文本中提取的文本片段所形成第二文本可以为短文本。
进一步地,在标注待进行风险识别的第一文本中各词汇的风险权重时,可以基于关键词标注,或者是基于嵌入有注意力(Attention)层的网络模型(简称“注意力模型”),借助Attention模型的文本特征权重机制来标注词汇的风险权重。
例如,对第一文本中各词汇采用预先训练得到的注意力模型进行风险特征权重标注;将第一文本中各词汇在注意力模型中被标注的风险特征权重作为第一文本中对应词汇的风险权重。
其中,上述注意力模型包括嵌入注意力层的深度学习模型,深度学习模型可包括:双向长短期记忆网络模型、卷积神经网络模型、递归神经网络模型、循环神经网络中的任一种。
进一步地,在根据第一文本中各词汇的风险权重从第一文本中提取至少一个文本片段形成第二文本时,可以对第一文本进行滑动窗口扫描处理,并计算每个滑动窗口中词汇的风险权重的权重和值;提取权重和值大于预设权重阈值的滑动窗口中的文本,且每个滑动窗口中的文本作为一个文本片段;将提取的所有文本片段进行合并,形成第二文本。
或者进一步地,在根据第一文本中各词汇的风险权重从第一文本中提取至少一个文本片段形成第二文本时,可以对第一文本进行滑动窗口扫描处理,并计算每个滑动窗口中词汇的风险权重的权重和值;提取权重和值最大的N(N为大于0的整数)个滑动窗口所包含的文本,且每个滑动窗口中的文本作为一个文本片段;将提取的所有文本片段进行合并,形成第二文本。
为了方便使提取出第二文本进入到后续的文本分类模型进行风险识别,在对第一文本进行滑动窗口扫描处理时,可设置上述滑动窗口的大小与后续文本分类模型的输入文本长度相匹配。
下面通过多个实施例来进一步说明本申请的技术方案。
实施例一
图2为本说明书实施例提供的文本的风险识别方法的流程示意图一,该方法可应用于对长文本的风险识别系统中,如图2所示,该文本的风险识别方法包括如下步骤:
S102,标注待进行风险识别的第一文本中各词汇的风险权重,风险权重用于表征词汇的风险程度;
其中,待进行风险识别的第一文本可以为长文本。第一文本中所包含的词汇可以是单字词汇、多字词汇。根据待识别文本所属的领域不同,可以对第一文本中各词汇在相应领域中的风险程度进行标注,具体可通过量化的风险权重对词汇的风险程度进行表征。
具体地,在标注第一文本中各词汇的风险权重时,可以采用关键词标注,即预先生成不同领域的风险关键词列表,然后基于该列表中的风险关键词对第一文本中各词汇的风险权重进行标注;也可以采用各种预先训练得到的风险权重的标注模型进行标注。本实施例对标注模型的训练以及标注原理不做限定。
S104,根据第一文本中各词汇的风险权重从第一文本中提取至少一个文本片段形成第二文本;每个文本片段中词汇的风险权重满足预设权重条件;
具体地,可以对第一文本按任意方式进行划分形成多个文本片段,然后统计每个文本片段中词汇的风险权重情况,当任一文本片段中词汇的风险权重满足预设权重条件时,则表征该文本片段存在风险的可能性很大。此时,从第一文本中提取出该文本片段,以待进入后续文本分类模型进行风险识别。对从第一文本中提取出的所有文本片段进行合并,即形成第二文本。该第二文本相较于第一文本为短文本。
其中,所述预设权重条件可以灵活设置,其作用是作为判断某一文本片段存在很大风险可能时,该文本片段中词汇的风险权重所满足的权重条件。
S106,对第二文本采用预先训练得到的文本分类模型进行风险识别,得到第二文本的风险识别结果。
其中,预先训练得到的文本分类模型可以是可用于识别文本风险的任一种类模型。例如可以是基于传统的贝叶斯、支持向量机(SVM)、随机森林、K最近邻(KNN)等算法训练的模型,也可以是基于深度学习网络如textCNN、FastText、RNN、LSTM、HAN、TextRNN(Bi-directional RNN)、TextRNN+Attention、TextRCNN(TextRNN+CNN)等神经网络构建的文本分类模型。
具体地,在从第一文本中提取形成第二文本后,可以将第二文本采用如上述任一算法或模型预先训练得到的文本分类模型进行风险识别,得到第二文本的风险识别结果,包括如第二文本是否存在风险,以及在存在风险时所存在风险的类型。
本实施例的中,将长文本的第一文本,在尽可能防止风险漏识(通过设置权重条件)的情况下,缩短为短文本的第二文本,然后再利用文本分类模型对第二文本进行风险识别,以保证文本分类模型的处理能力。
本说明书提供的文本的风险识别方法、在利用预先训练得到的文本分类模型对待进行风险识别的第一文本进行风险识别前,先标注第一文本中各词汇的风险权重,该风险权重用于表征词汇的风险程度;根据第一文本中各词汇的风险权重从第一文本中提取至少一个文本片段形成第二文本;每个文本片段中词汇的风险权重满足预设权重条件;然后仅对第二文本采用所述文本分类模型进行风险识别,得到第二文本的风险识别结果,从而在保证文本分类模型处理能力的情况下防止风险漏识,有效提高文本的风险识别效率。
实施例二
本实施例在实施例一的基础上,对图2所示的文本的风险识别方法进行拓展和补充。
图3为本说明书实施例提供的文本的风险识别方法的流程示意图二,该方法中上述步骤102可具体包括:
S102-2,对第一文本中各词汇采用预先训练得到的注意力模型进行风险特征权重标注;该注意力模型可以是嵌入有注意力层的深度学习模型,用于识别第一文本的风险程度;
通常,训练嵌入有注意力层的深度学习模型的步骤可包括:
1.收集风险文本和无风险文本,在实际收集文本时,可以将多种风险类别合并在一起,也可以只收集某种特定的风险类型;
2.对收集的文本进行预处理操作,例如繁简(字)转换、大小写转换,然后再进行切词(字)等操作;
3.对步骤2产生的文本序列进行index(索引)化,将每个词或者字映射到一个数值上去,便于下游的神经网络处理;
4.以比较常见的Bi-LSTM为例,在Bi-LSTM的模型上加入Attention层,在Bi-LSTM中用最后一个时序的输出向量作为特征向量,进行如softmax分类。Attention是先计算每个时序的权重,然后将所有时序的向量进行加权求和后作为特征向量,然后进行softmax分类。
具体地,本实施例中采用预先训练得到的嵌入有注意力层的深度学习模型(如Bi-LSTM)对第一文本进行风险特征权重标注,本步骤中该嵌入有注意力层的深度学习模型用于识别第一文本的风险程度。
可选地,上述深度学习模型可具体包括:双向长短期记忆网络模型(Bi-LSTM)、卷积神经网络(CNN)模型、递归神经网络(ANN)模型、循环神经网络(RNN)模型中的任一种。
S102-4,将第一文本中各词汇在注意力模型中被标注的风险特征权重作为第一文本中对应词汇的风险权重。
需要指出的是,本实施例中采用嵌入有注意力层的深度学习模型对第一文本进行模型处理,其目的不是要识别第一文本的风险,而是利用其产生的附加结果,即利用Attention机制学习得到(第一文本)的词汇风险特征权重。然后以该词汇风险特征权重作为第一文本中对应词汇的风险权重。这样可以更好的利用Attention机制对词汇的特征(风险程度)进行权重标注。
当然,由于本实施例中利用嵌入有注意力层的深度学习模型是获取词汇特征进行风险权重标注,因此在全连接层(softmax分类)上可以适应性降低网络复杂度,从而降低模型处理的成本,提高处理效率。
进一步地,图4为本说明书实施例提供的文本的风险识别方法的流程示意图三,该方法中上述步骤104可具体包括:
S104-2,对第一文本进行滑动窗口扫描处理,并计算每个滑动窗口中词汇的风险权重的权重和值;
其中,为了方便使提取出第二文本进入到后续的文本分类模型进行风险识别,在对第一文本进行滑动窗口扫描处理时,可设置上述滑动窗口的大小与后续文本分类模型的输入文本长度相匹配。滑动窗口的步长可以根据实际需求进行调整。
在滑动窗口扫描处理过程中,计算每个滑动窗口中词汇的风险权重的权重和值。
S104-4,提取权重和值大于预设权重阈值的滑动窗口中的文本,且每个滑动窗口中的文本作为一个文本片段;
其中,所述权重阈值用于判断滑动窗口中的文本的风险程度是否达到进入后续文本分类模型的标准;如果大于该权重阈值,则表征滑动窗口中的文本的风险程度很高,可以进入后续文本分类模型进行进一步的风险识别处理;如果不大于该权重阈值,则表征滑动窗口中的文本的风险程度不高,不需要进入后续文本分类模型进行风险识别处理。
S104-6,将提取的所有文本片段进行合并,形成第二文本;
所形成的第二文本被认为是风险程度很高的文本,需要进入后续文本分类模型进行进一步的风险识别处理,以最终得到第二文本的风险识别结果,包括第二文本是否存在风险,及存在风险时所存在风险的风险类型。
可替代地,图5为本说明书实施例提供的文本的风险识别方法的流程示意图四,该方法较图4所示方法做了稍许变更,即上述步骤104可具体包括:
S104-2,对第一文本进行滑动窗口扫描处理,并计算每个滑动窗口中词汇的风险权重的权重和值;
其中,为了方便使提取出第二文本进入到后续的文本分类模型进行风险识别,在对第一文本进行滑动窗口扫描处理时,可设置上述滑动窗口的大小与后续文本分类模型的输入文本长度相匹配。滑动窗口的步长可以根据实际需求进行调整。
在滑动窗口扫描处理过程中,计算每个滑动窗口中词汇的风险权重的权重和值。
S104-8,提取权重和值最大的N个滑动窗口所包含的文本,且每个滑动窗口中的文本作为一个文本片段;
具体地,可以根据第一文本所包含的滑动窗口数量(反映第一文本的长度),以及各滑动窗口中词汇的风险权重的权重和值分布情况确定数目N(N为大于0的整数)。在对所有滑动窗口按其所对应的权重和值按从大到小的顺序进行排序后,认为排序前N的滑动窗口所包含的文本的风险程度很高,可以进入后续文本分类模型进行进一步的风险识别处理;排序非前N的滑动窗口所包含的文本的风险程度不高,不需要进入后续文本分类模型进行风险识别处理。
S104-6,将提取的所有文本片段进行合并,形成第二文本;
所形成的第二文本被认为是风险程度很高的文本,需要进入后续文本分类模型进行进一步的风险识别处理,以最终得到第二文本的风险识别结果,包括第二文本是否存在风险,及存在风险时所存在风险的风险类型。
本说明书提供的文本的风险识别方法、在利用预先训练得到的文本分类模型对待进行风险识别的第一文本进行风险识别前,先标注第一文本中各词汇的风险权重,该风险权重用于表征词汇的风险程度;根据第一文本中各词汇的风险权重从第一文本中提取至少一个文本片段形成第二文本;每个文本片段中词汇的风险权重满足预设权重条件;然后仅对第二文本采用所述文本分类模型进行风险识别,得到第二文本的风险识别结果,从而在保证文本分类模型处理能力的情况下防止风险漏识,有效提高文本的风险识别效率。
进一步地,本说明书实施例中利用attention机制获取第一文本中各词汇的风险权重,然后利用滑动窗口获取每个窗口中的权重和值,最后再将权重和值大于权重阈值,或者排序前N的滑动窗口所包含的文本片段输入下游的文本分类模型进行识别,从而在保证模型处理能力的情况下防止风险漏识。
实施例三
对应上述图2至图5描述的文本的风险识别方法,基于相同的技术构思,本说明书实施例还提供一种文本的风险识别装置。图6为本说明书实施例提供的文本的风险识别装置的模块组成示意图,该装置用于执行图2至图5描述的文本的风险识别方法,如图6所示,该装置包括:
风险标注模块201,标注待进行风险识别的第一文本中各词汇的风险权重,风险权重用于表征词汇的风险程度;
文本提取模块202,根据第一文本中各词汇的风险权重从第一文本中提取至少一个文本片段形成第二文本;每个文本片段中词汇的风险权重满足预设权重条件;
风险识别模块203,对第二文本采用预先训练得到的文本分类模型进行风险识别,得到第二文本的风险识别结果。
本说明书实施例提供的文本的风险识别装置,在利用预先训练得到的文本分类模型对待进行风险识别的第一文本进行风险识别前,先标注第一文本中各词汇的风险权重,该风险权重用于表征词汇的风险程度;根据第一文本中各词汇的风险权重从第一文本中提取至少一个文本片段形成第二文本;每个文本片段中词汇的风险权重满足预设权重条件;然后仅对第二文本采用所述文本分类模型进行风险识别,得到第二文本的风险识别结果,从而在保证文本分类模型处理能力的情况下防止风险漏识,有效提高文本的风险识别效率。
可选地,风险标注模块201,对第一文本中各词汇采用预先训练得到的注意力模型进行风险特征权重标注;
将第一文本中各词汇在注意力模型中被标注的风险特征权重作为第一文本中对应词汇的风险权重。
可选地,注意力模型包括嵌入注意力层的深度学习模型,深度学习模型可包括:双向长短期记忆网络模型、卷积神经网络模型、递归神经网络模型、循环神经网络中的任一种。
可选地,文本提取模块202,对第一文本进行滑动窗口扫描处理,并计算每个滑动窗口中词汇的风险权重的权重和值;
提取权重和值大于预设权重阈值的滑动窗口中的文本,且每个滑动窗口中的文本作为一个文本片段;
将提取的所有文本片段进行合并,形成第二文本。
可替代地,文本提取模块202,对第一文本进行滑动窗口扫描处理,并计算每个滑动窗口中词汇的风险权重的权重和值;
提取权重和值最大的N个滑动窗口所包含的文本,且每个滑动窗口中的文本作为一个文本片段;
将提取的所有文本片段进行合并,形成第二文本。
可选地,滑动窗口的大小与风险识别模型的输入文本长度相匹配。
本说明书实施例提供的文本的风险识别装置,利用attention机制获取第一文本中各词汇的风险权重,然后利用滑动窗口获取每个窗口中的权重和值,最后再将权重和值大于权重阈值,或者排序前N的滑动窗口所包含的文本片段输入下游的文本分类模型进行识别,从而在保证模型处理能力的情况下防止风险漏识。
需要说明的是,本说明书中关于文本的风险识别装置的实施例与本说明书中关于文本的风险识别方法的实施例基于同一发明构思,因此该实施例的具体实施可以参见前述对应的文本的风险识别方法的实施,重复之处不再赘述。
实施例四
对应上述图2至图5描述的文本的风险识别方法,基于相同的技术构思,本说明书实施例还提供一种文本的风险识别设备,该设备用于执行上述的文本的风险识别方法,图7为本说明书实施例提供的一种文本的风险识别设备的结构示意图。
如图7所示,文本的风险识别设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器301和存储器302,存储器302中可以存储有一个或一个以上存储应用程序或数据。其中,存储器302可以是短暂存储或持久存储。存储在存储器302的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括文本的风险识别设备中的一系列计算机可执行指令。更进一步地,处理器301可以设置为与存储器302通信,在文本的风险识别设备上执行存储器302中的一系列计算机可执行指令。文本的风险识别设备还可以包括一个或一个以上电源303,一个或一个以上有线或无线网络接口304,一个或一个以上输入输出接口305,一个或一个以上键盘306等。
在一个具体的实施例中,文本的风险识别设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对文本的风险识别设备中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
标注待进行风险识别的第一文本中各词汇的风险权重,所述风险权重用于表征词汇的风险程度;
根据所述第一文本中各词汇的风险权重从所述第一文本中提取至少一个文本片段形成第二文本;每个所述文本片段中词汇的风险权重满足预设权重条件;
对所述第二文本采用预先训练得到的文本分类模型进行风险识别,得到所述第二文本的风险识别结果。
本说明书实施例中提供的文本的风险识别设备,在利用预先训练得到的文本分类模型对待进行风险识别的第一文本进行风险识别前,先标注第一文本中各词汇的风险权重,该风险权重用于表征词汇的风险程度;根据第一文本中各词汇的风险权重从第一文本中提取至少一个文本片段形成第二文本;每个文本片段中词汇的风险权重满足预设权重条件;然后仅对第二文本采用所述文本分类模型进行风险识别,得到第二文本的风险识别结果,从而在保证文本分类模型处理能力的情况下防止风险漏识,有效提高文本的风险识别效率。
可选地,计算机可执行指令在被执行时,所述标注待进行风险识别的第一文本中各词汇的风险权重包括:
对所述第一文本中各词汇采用预先训练得到的注意力模型进行风险特征权重标注;
将所述第一文本中各词汇在所述注意力模型中被标注的风险特征权重作为所述第一文本中对应词汇的风险权重。
可选地,计算机可执行指令在被执行时,所述注意力模型包括嵌入注意力层的深度学习模型,所述深度学习模型包括:双向长短期记忆网络模型、卷积神经网络模型、递归神经网络模型、循环神经网络中的任一种。
可选地,计算机可执行指令在被执行时,所述根据所述第一文本中各词汇的风险权重从所述第一文本中提取至少一个文本片段形成第二文本包括:
对所述第一文本进行滑动窗口扫描处理,并计算每个滑动窗口中词汇的风险权重的权重和值;
提取所述权重和值大于预设权重阈值的滑动窗口中的文本,且每个滑动窗口中的文本作为一个所述文本片段;
将提取的所有所述文本片段进行合并,形成所述第二文本。
可选地,计算机可执行指令在被执行时,所述根据所述第一文本中各词汇的风险权重从所述第一文本中提取至少一个文本片段形成第二文本包括:
对所述第一文本进行滑动窗口扫描处理,并计算每个滑动窗口中词汇的风险权重的权重和值;
提取所述权重和值最大的N个滑动窗口所包含的文本,且每个滑动窗口中的文本作为一个所述文本片段;
将提取的所有所述文本片段进行合并,形成所述第二文本。
可选地,计算机可执行指令在被执行时,所述滑动窗口的大小与所述文本分类模型的输入文本长度相匹配。
本说明书提供的文本的风险识别设备、利用attention机制获取第一文本中各词汇的风险权重,然后利用滑动窗口获取每个窗口中的权重和值,最后再将权重和值大于权重阈值,或者排序前N的滑动窗口所包含的文本片段输入下游的文本分类模型进行识别,从而在保证模型处理能力的情况下防止风险漏识。
需要说明的是,本说明书中关于文本的风险识别设备的实施例与本说明书中关于文本的风险识别方法的实施例基于同一发明构思,因此该实施例的具体实施可以参见前述对应的文本的风险识别方法的实施,重复之处不再赘述。
实施例五
对应上述图2至图5描述的文本的风险识别方法,基于相同的技术构思,本说明书实施例还提供一种存储介质,用于存储计算机可执行指令,一个具体的实施例中,该存储介质可以为U盘、光盘、硬盘等,该存储介质存储的计算机可执行指令在被处理器执行时,能实现以下流程:
标注待进行风险识别的第一文本中各词汇的风险权重,所述风险权重用于表征词汇的风险程度;
根据所述第一文本中各词汇的风险权重从所述第一文本中提取至少一个文本片段形成第二文本;每个所述文本片段中词汇的风险权重满足预设权重条件;
对所述第二文本采用预先训练得到的文本分类模型进行风险识别,得到所述第二文本的风险识别结果。
本说明书实施例中提供的存储介质所存储的计算机可执行指令在被处理器执行时,在利用预先训练得到的文本分类模型对待进行风险识别的第一文本进行风险识别前,先标注第一文本中各词汇的风险权重,该风险权重用于表征词汇的风险程度;根据第一文本中各词汇的风险权重从第一文本中提取至少一个文本片段形成第二文本;每个文本片段中词汇的风险权重满足预设权重条件;然后仅对第二文本采用所述文本分类模型进行风险识别,得到第二文本的风险识别结果,从而在保证文本分类模型处理能力的情况下防止风险漏识,有效提高文本的风险识别效率。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述标注待进行风险识别的第一文本中各词汇的风险权重包括:
对所述第一文本中各词汇采用预先训练得到的注意力模型进行风险特征权重标注;
将所述第一文本中各词汇在所述注意力模型中被标注的风险特征权重作为所述第一文本中对应词汇的风险权重。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述注意力模型包括嵌入注意力层的深度学习模型,所述深度学习模型包括:双向长短期记忆网络模型、卷积神经网络模型、递归神经网络模型、循环神经网络中的任一种。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述根据所述第一文本中各词汇的风险权重从所述第一文本中提取至少一个文本片段形成第二文本包括:
对所述第一文本进行滑动窗口扫描处理,并计算每个滑动窗口中词汇的风险权重的权重和值;
提取所述权重和值大于预设权重阈值的滑动窗口中的文本,且每个滑动窗口中的文本作为一个所述文本片段;
将提取的所有所述文本片段进行合并,形成所述第二文本。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述根据所述第一文本中各词汇的风险权重从所述第一文本中提取至少一个文本片段形成第二文本包括:
对所述第一文本进行滑动窗口扫描处理,并计算每个滑动窗口中词汇的风险权重的权重和值;
提取所述权重和值最大的N个滑动窗口所包含的文本,且每个滑动窗口中的文本作为一个所述文本片段;
将提取的所有所述文本片段进行合并,形成所述第二文本。
可选地,该存储介质存储的计算机可执行指令在被处理器执行时,所述滑动窗口的大小与所述文本分类模型的输入文本长度相匹配。
本说明书实施例中提供的存储介质所存储的计算机可执行指令在被处理器执行时,利用attention机制获取第一文本中各词汇的风险权重,然后利用滑动窗口获取每个窗口中的权重和值,最后再将权重和值大于权重阈值,或者排序前N的滑动窗口所包含的文本片段输入下游的文本分类模型进行识别,从而在保证模型处理能力的情况下防止风险漏识。
需要说明的是,本说明书中关于存储介质的实施例与本说明书中关于文本的风险识方法的实施例基于同一发明构思,因此该实施例的具体实施可以参见前述对应的文本的风险识方法的实施,重复之处不再赘述。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
在20世纪30年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书实施例时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书一个或多个实施例可提供为方法、系统或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书一个或多个实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书的一个或多个实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本文件的实施例而已,并不用于限制本文件。对于本领域技术人员来说,本文件可以有各种更改和变化。凡在本文件的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本文件的权利要求范围之内。

Claims (14)

1.一种文本的风险识别方法,包括:
标注待进行风险识别的第一文本中各词汇的风险权重,所述风险权重用于表征词汇的风险程度;
根据所述第一文本中各词汇的风险权重从所述第一文本中提取至少一个文本片段形成第二文本;每个所述文本片段中词汇的风险权重满足预设权重条件;
对所述第二文本采用预先训练得到的文本分类模型进行风险识别,得到所述第二文本的风险识别结果。
2.根据权利要求1所述的方法,其中,所述标注待进行风险识别的第一文本中各词汇的风险权重包括:
对所述第一文本中各词汇采用预先训练得到的注意力模型进行风险特征权重标注;
将所述第一文本中各词汇在所述注意力模型中被标注的风险特征权重作为所述第一文本中对应词汇的风险权重。
3.根据权利要求2所述的方法,其中,所述注意力模型包括嵌入注意力层的深度学习模型,所述深度学习模型包括:双向长短期记忆网络模型、卷积神经网络模型、递归神经网络模型、循环神经网络中的任一种。
4.根据权利要求1所述的方法,其中,所述根据所述第一文本中各词汇的风险权重从所述第一文本中提取至少一个文本片段形成第二文本包括:
对所述第一文本进行滑动窗口扫描处理,并计算每个滑动窗口中词汇的风险权重的权重和值;
提取所述权重和值大于预设权重阈值的滑动窗口中的文本,且每个滑动窗口中的文本作为一个所述文本片段;
将提取的所有所述文本片段进行合并,形成所述第二文本。
5.根据权利要求1所述的方法,其中,所述根据所述第一文本中各词汇的风险权重从所述第一文本中提取至少一个文本片段形成第二文本包括:
对所述第一文本进行滑动窗口扫描处理,并计算每个滑动窗口中词汇的风险权重的权重和值;
提取所述权重和值最大的N个滑动窗口所包含的文本,且每个滑动窗口中的文本作为一个所述文本片段;
将提取的所有所述文本片段进行合并,形成所述第二文本。
6.根据权利要求4或5所述的方法,其中,所述滑动窗口的大小与所述文本分类模型的输入文本长度相匹配。
7.一种文本的风险识别装置,包括:
风险标注模块,标注待进行风险识别的第一文本中各词汇的风险权重,所述风险权重用于表征词汇的风险程度;
文本提取模块,根据所述第一文本中各词汇的风险权重从所述第一文本中提取至少一个文本片段形成第二文本;每个所述文本片段中词汇的风险权重满足预设权重条件;
风险识别模块,对所述第二文本采用预先训练得到的文本分类模型进行风险识别,得到所述第二文本的风险识别结果。
8.根据权利要求7所述的装置,其中,所述风险标注模块,对所述第一文本中各词汇采用预先训练得到的注意力模型进行风险特征权重标注;
将所述第一文本中各词汇在所述注意力模型中被标注的风险特征权重作为所述第一文本中对应词汇的风险权重。
9.根据权利要求8所述的装置,其中,所述注意力模型包括嵌入注意力层的深度学习模型,所述深度学习模型包括:双向长短期记忆网络模型、卷积神经网络模型、递归神经网络模型、循环神经网络中的任一种。
10.根据权利要求7所述的装置,其中,所述文本提取模块,对所述第一文本进行滑动窗口扫描处理,并计算每个滑动窗口中词汇的风险权重的权重和值;
提取所述权重和值大于预设权重阈值的滑动窗口中的文本,且每个滑动窗口中的文本作为一个所述文本片段;
将提取的所有所述文本片段进行合并,形成所述第二文本。
11.根据权利要求7所述的装置,其中,所述文本提取模块,对所述第一文本进行滑动窗口扫描处理,并计算每个滑动窗口中词汇的风险权重的权重和值;
提取所述权重和值最大的N个滑动窗口所包含的文本,且每个滑动窗口中的文本作为一个所述文本片段;
将提取的所有所述文本片段进行合并,形成所述第二文本。
12.根据权利要求10或11所述的装置,其中,所述滑动窗口的大小与所述风险识别模型的输入文本长度相匹配。
13.一种文本的风险识别设备,包括:
处理器;以及,
被安排成存储计算机可执行指令的存储器,所述计算机可执行指令在被执行时使所述处理器:
标注待进行风险识别的第一文本中各词汇的风险权重,所述风险权重用于表征词汇的风险程度;
根据所述第一文本中各词汇的风险权重从所述第一文本中提取至少一个文本片段形成第二文本;每个所述文本片段中词汇的风险权重满足预设权重条件;
对所述第二文本采用预先训练得到的文本分类模型进行风险识别,得到所述第二文本的风险识别结果。
14.一种存储介质,用于存储计算机可执行指令,所述计算机可执行指令在被执行时实现以下流程:
标注待进行风险识别的第一文本中各词汇的风险权重,所述风险权重用于表征词汇的风险程度;
根据所述第一文本中各词汇的风险权重从所述第一文本中提取至少一个文本片段形成第二文本;每个所述文本片段中词汇的风险权重满足预设权重条件;
对所述第二文本采用预先训练得到的文本分类模型进行风险识别,得到所述第二文本的风险识别结果。
CN202010216591.1A 2020-03-25 2020-03-25 文本的风险识别方法、装置及设备 Active CN111401062B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010216591.1A CN111401062B (zh) 2020-03-25 2020-03-25 文本的风险识别方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010216591.1A CN111401062B (zh) 2020-03-25 2020-03-25 文本的风险识别方法、装置及设备

Publications (2)

Publication Number Publication Date
CN111401062A CN111401062A (zh) 2020-07-10
CN111401062B true CN111401062B (zh) 2023-04-18

Family

ID=71431162

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010216591.1A Active CN111401062B (zh) 2020-03-25 2020-03-25 文本的风险识别方法、装置及设备

Country Status (1)

Country Link
CN (1) CN111401062B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112149404A (zh) * 2020-09-18 2020-12-29 支付宝(杭州)信息技术有限公司 一种用户隐私数据的风险内容识别方法、装置及系统
CN112308453B (zh) * 2020-11-19 2023-04-28 度小满科技(北京)有限公司 风险识别模型训练方法、用户风险识别方法及相关装置
CN112861511A (zh) * 2021-03-03 2021-05-28 深圳前海微众银行股份有限公司 风险文本的提取方法、装置、电子设备及存储介质
CN115831339B (zh) * 2023-02-21 2023-04-28 四川大学华西医院 基于深度学习的医疗系统风险管控事前预测方法、系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8180713B1 (en) * 2007-04-13 2012-05-15 Standard & Poor's Financial Services Llc System and method for searching and identifying potential financial risks disclosed within a document
CN108304868A (zh) * 2018-01-25 2018-07-20 阿里巴巴集团控股有限公司 模型训练方法、数据类型识别方法和计算机设备
CN108763209A (zh) * 2018-05-22 2018-11-06 阿里巴巴集团控股有限公司 一种特征提取和风险识别的方法、装置及设备
CN109492401A (zh) * 2018-09-30 2019-03-19 阿里巴巴集团控股有限公司 一种内容载体风险检测方法、装置、设备及介质
CN110245228A (zh) * 2019-04-29 2019-09-17 阿里巴巴集团控股有限公司 确定文本类别的方法和装置
CN110442712A (zh) * 2019-07-05 2019-11-12 阿里巴巴集团控股有限公司 风险的确定方法、装置、服务器和文本审理系统
CN110675269A (zh) * 2019-08-16 2020-01-10 阿里巴巴集团控股有限公司 文本审核方法以及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8180713B1 (en) * 2007-04-13 2012-05-15 Standard & Poor's Financial Services Llc System and method for searching and identifying potential financial risks disclosed within a document
CN108304868A (zh) * 2018-01-25 2018-07-20 阿里巴巴集团控股有限公司 模型训练方法、数据类型识别方法和计算机设备
CN108763209A (zh) * 2018-05-22 2018-11-06 阿里巴巴集团控股有限公司 一种特征提取和风险识别的方法、装置及设备
CN109492401A (zh) * 2018-09-30 2019-03-19 阿里巴巴集团控股有限公司 一种内容载体风险检测方法、装置、设备及介质
CN110245228A (zh) * 2019-04-29 2019-09-17 阿里巴巴集团控股有限公司 确定文本类别的方法和装置
CN110442712A (zh) * 2019-07-05 2019-11-12 阿里巴巴集团控股有限公司 风险的确定方法、装置、服务器和文本审理系统
CN110675269A (zh) * 2019-08-16 2020-01-10 阿里巴巴集团控股有限公司 文本审核方法以及装置

Also Published As

Publication number Publication date
CN111401062A (zh) 2020-07-10

Similar Documents

Publication Publication Date Title
CN111401062B (zh) 文本的风险识别方法、装置及设备
CN110032730B (zh) 一种文本数据的处理方法、装置和设备
CN116227474B (zh) 一种对抗文本的生成方法、装置、存储介质及电子设备
CN112417093B (zh) 一种模型训练的方法及装置
CN116205290B (zh) 一种基于中间特征知识融合的知识蒸馏方法和装置
CN113221555A (zh) 一种基于多任务模型的关键词识别方法、装置及设备
CN112308113A (zh) 一种基于半监督的目标识别方法、设备及介质
CN110728147B (zh) 一种模型训练方法及命名实体识别方法
CN113887227A (zh) 一种模型训练与实体识别方法及装置
CN112182217A (zh) 多标签文本类别的识别方法、装置、设备和存储介质
CN113887206B (zh) 一种模型训练及关键词提取方法及装置
CN114860905A (zh) 意图识别方法、装置及设备
CN114358243A (zh) 通用特征提取网络训练方法、装置及通用特征提取网络
CN116151355B (zh) 一种模型训练和业务执行的方法、装置、介质及设备
CN116186330B (zh) 一种基于多模态学习的视频去重方法及装置
CN116543264A (zh) 图像分类模型的训练方法、图像分类方法及装置
CN116186231A (zh) 一种回复文本的生成方法、装置、存储介质及电子设备
CN114912513A (zh) 一种模型训练的方法、识别信息的方法及装置
CN110321433B (zh) 确定文本类别的方法及装置
CN115700555A (zh) 模型训练方法、预测方法、装置和电子设备
CN111539520A (zh) 增强深度学习模型鲁棒性的方法及装置
CN111598092A (zh) 图像中目标区域的确定方法、目标识别方法及装置
CN117079646B (zh) 一种语音识别模型的训练方法、装置、设备及存储介质
CN115827935B (zh) 一种数据处理方法、装置及设备
CN115423485B (zh) 数据处理方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40032965

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant