CN112069392A - 涉网犯罪防控方法、装置、计算机设备及存储介质 - Google Patents

涉网犯罪防控方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN112069392A
CN112069392A CN202010738475.6A CN202010738475A CN112069392A CN 112069392 A CN112069392 A CN 112069392A CN 202010738475 A CN202010738475 A CN 202010738475A CN 112069392 A CN112069392 A CN 112069392A
Authority
CN
China
Prior art keywords
case
crime
model
information
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010738475.6A
Other languages
English (en)
Other versions
CN112069392B (zh
Inventor
丁伟杰
李海军
傅团结
陈立力
李保敏
沈旭晨
郑滋椀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Police College
Original Assignee
Zhejiang Police College
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Police College filed Critical Zhejiang Police College
Priority to CN202010738475.6A priority Critical patent/CN112069392B/zh
Publication of CN112069392A publication Critical patent/CN112069392A/zh
Application granted granted Critical
Publication of CN112069392B publication Critical patent/CN112069392B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/55Push-based network services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Tourism & Hospitality (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Alarm Systems (AREA)

Abstract

本发明涉及涉网犯罪防控方法、装置、计算机设备及存储介质,该方法包括获取需要分析的犯罪案件信息,以得到初始数据;将初始数据输入至案件分类模型内进行案件分类处理,以得到分类结果;判断分类结果是否是涉网新型犯罪案件;若分类结果是涉网新型犯罪案件,则将初始数据输入至要素提取模型内进行关键要素提取,以得到关键信息;根据关键信息生成知识图谱;根据知识图谱生成防控信息,并将防控信息推送至对应的终端。本发明实现对公安数据进行自动和精准分析,提取关键信息后,生成针对性的防控信息,并针对性推送给对应的终端,以提高整个分析效率和优化防控效果。

Description

涉网犯罪防控方法、装置、计算机设备及存储介质
技术领域
本发明涉及犯罪防控方法,更具体地说是指涉网犯罪防控方法、装置、计算机设备及存储介质。
背景技术
新型涉网犯罪渗透在普通大众日常生活的各个角落,对人民群众的财产安全带来极大的危害,因此,目前国家政府针对涉网新型犯罪提出多种打击惩罚措施,比如发布《电信网络诈骗意见》进一步明确了办理电信网络诈骗案件的入罪量刑标准,统一了执法司法尺度,要求形成严厉打击电信网络诈骗犯罪的高压态势;提出在《刑法》中单设“电信网络诈骗罪”,并提高定刑幅度;提出在《刑法》第177条“妨害信用卡管理罪”的基础上出台司法解释或修正案,进一步加大对买卖银行卡犯罪行为的惩处力度。
国家层面明确指出加强对于涉网新型犯罪的打击和惩罚力度,但由于涉网新型犯罪以互联网作为作案媒介,事后打击难度较大,因此目前现有技术提出了多种事先防控措施,包括强化对电信金融行业的监管;完善公民个人信息保护规范;增强全社会的安全防骗意识。目前现有的防控方式都是以政策导向、电信金融监管和安全防范宣传等宏观政策进行指导和宣传,但是这种方式缺乏针对性,采用电子屏、宣传手册以及短信通知等统一的宣传策略,这些宣传策略大多是人工针对现有已发生的案件进行概括后生成的防控信息,由于是人工概括,效率低,且在后期防控过程中,采用统一宣传的方式无法引起人们的重视,防控效果较差。
因此,有必要设计一种新的方法,实现对公安数据进行自动和精准分析,提取关键信息后,生成针对性的防控信息,并针对性推送给对应的终端,以提高整个分析效率和优化防控效果。
发明内容
本发明的目的在于克服现有技术的缺陷,提供涉网犯罪防控方法、装置、计算机设备及存储介质。
为实现上述目的,本发明采用以下技术方案:涉网犯罪防控方法,包括:
获取需要分析的犯罪案件信息,以得到初始数据;
将所述初始数据输入至案件分类模型内进行案件分类处理,以得到分类结果;
判断所述分类结果是否是涉网新型犯罪案件;
若所述分类结果是涉网新型犯罪案件,则将初始数据输入至要素提取模型内进行关键要素提取,以得到关键信息;
根据所述关键信息生成知识图谱;
根据所述知识图谱生成防控信息,并将所述防控信息推送至对应的终端;
其中,所述案件分类模型是通过带有案件类别标签的犯罪案件信息作为第一样本数据集训练文本分类模型所得的;
所述要素提取模型是通过带有关键信息位置标签的犯罪案件信息作为第二样本数据集训练命名实体识别模型所得的。
其进一步技术方案为:所述根据所述关键信息生成知识图谱之后,还包括:
建立涉网犯罪案件的采集标准;
根据采集标准采集相关的涉网犯罪信息,以更新知识图谱。
其进一步技术方案为:所述案件分类模型是通过带有案件类别标签的犯罪案件信息作为第一样本数据集训练文本分类模型所得的,包括:
构建文本分类模型,并进行预训练;
获取若干个涉网犯罪案件信息以及若干个非涉网犯罪案件信息,并对涉网犯罪案件信息以及非涉网犯罪案件信息对应的案件类别标签,以得到第一样本数据集;
将第一样本数据集划分为第一训练集以及第一测试集;
根据第一训练集对文本分类模型进行微调,以得到微调后的文本分类模型;使用微调后的文本分类模型对第一测试集进行预测,以得到测试结果;
判断测试结果是否符合要求;
若测试结果符合要求,则微调后的文本分类模型为案件分类模型;
若测试结果不符合要求,则执行所述根据第一训练集对文本分类模型进行微调,以得到微调后的文本分类模型。
其进一步技术方案为:所述根据第一训练集对文本分类模型进行微调,以得到微调后的文本分类模型,包括:
将第一训练集输入至文本分类模型内进行计算,以得到样本的语义向量;
使用全连接层对样本的语义向量计算涉网新型犯罪案件类别以及非涉网新型犯罪案件类别所对应的语义特征,以得到特征值;
根据特征值计算涉网新型犯罪案件类别以及非涉网新型犯罪案件类别对应的概率,以得到训练结果;
根据训练结果以及对应的案件类别标签计算交叉熵损失函数值,通过损失函数值进行反向传播微调文本分类模型的参数,以得到微调后的文本分类模型。
其进一步技术方案为:所述文本分类模型包括通用预训练语言表示模型、神经网络模型以及非神经网络中至少一种。
其进一步技术方案为:所述要素提取模型是通过带有关键信息位置标签的犯罪案件信息作为第二样本数据集训练命名实体识别模型所得的,包括:
构建命名实体识别模型,并进行预训练;
获取若干个涉网犯罪案件信息,并对涉网犯罪案件信息的关键信息进行位置标签的标注,以得到第二样本数据集;
根据第二样本数据集对命名实体识别模型进行微调,以得到微调后的命名实体识别模型;
将所有涉网犯罪案件信息作为测试数据集,使用微调后的命名实体识别模型对测试数据集进行预测,以得到预测结果;
判断预测结果是否符合要求;
若预测结果符合要求,则微调后的命名实体识别模型为要素提取模型;
若预测结果不符合要求,则执行所述根据第二样本数据集对命名实体识别模型进行微调,以得到微调后的命名实体识别模型。
其进一步技术方案为:所述根据第二样本数据集对命名实体识别模型进行微调,以得到微调后的命名实体识别模型,包括:
将第二样本数据集输入至命名实体识别模型内进行语义计算,以得到语义信息;
对语义信息使用非线性映射方式计算每个字作为实体的起始位置和终止位置的概率,以得到概率集合;
筛选概率集合中超过设定阈值的概率所对应的位置索引,以得到位置结果;
根据位置结果以及对应的关键信息位置标签计算交叉熵损失函数值,通过损失函数值进行反向传播微调命名实体识别模型的参数,以得到微调后的命名实体识别模型。
本发明还提供了涉网犯罪防控装置,包括:
初始数据获取单元,用于获取需要分析的犯罪案件信息,以得到初始数据;
分类处理单元,用于将所述初始数据输入至案件分类模型内进行案件分类处理,以得到分类结果;
判断单元,用于判断所述分类结果是否是涉网新型犯罪案件;
提取单元,用于若所述分类结果是涉网新型犯罪案件,则将初始数据输入至要素提取模型内进行关键要素提取,以得到关键信息;
图谱生成单元,用于根据所述关键信息生成知识图谱;
推送单元,用于根据所述知识图谱生成防控信息,并将所述防控信息推送至对应的终端。
本发明提供了一种计算机设备,所述计算机设备包括存储器及处理器,所述存储器上存储有计算机程序,所述处理器执行所述计算机程序时实现上述的方法。
本发明还提供了一种存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时可实现上述的方法。
本发明与现有技术相比的有益效果是:本发明通过获取需要分析的犯罪案件信息,并通过案件分类模型进行分类后,针对涉网新型犯罪案件进行关键要素提取,并由提取的信息生成知识图谱,结合知识图谱生成防控信息,消除案件之间的信息孤岛,进而获取不同种类的案件特征,实现对公安数据进行自动和精准分析,提取关键信息后,生成针对性的防控信息,并针对性推送给对应的终端,以提高整个分析效率和优化防控效果。
下面结合附图和具体实施例对本发明作进一步描述。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的涉网犯罪防控方法的应用场景示意图;
图2为本发明实施例提供的涉网犯罪防控方法的流程示意图;
图3为本发明另一实施例提供的涉网犯罪防控方法的流程示意图;
图4为本发明实施例提供的涉网犯罪防控装置的示意性框图;
图5为本发明另一实施例提供的涉网犯罪防控装置的示意性框图;
图6为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1和图2,图1为本发明实施例提供的涉网犯罪防控方法的应用场景示意图。图2为本发明实施例提供的涉网犯罪防控方法的示意性流程图。该涉网犯罪防控方法应用于服务器中。服务器与第一终端和第二终端进行数据交互,其中第二终端为公安操作系统所在的设备,服务器通过对公安数据进行涉网犯罪类别的分析以及关键要素的提取,以便于构建知识图谱,可以生成针对性更强的防控信息,针对性的推送给对应的终端,实现对公安数据进行自动和精准分析,提取关键信息后,生成针对性的防控信息,并针对性推送给对应的终端,以提高整个分析效率和优化防控效果。
图2是本发明实施例提供的涉网犯罪防控方法的流程示意图。如图2所示,该方法包括以下步骤S110至S160。
S110、获取需要分析的犯罪案件信息,以得到初始数据。
在本实施例中,上述的初始数据是指来自公安系统的犯罪案件数据以及执法人员在执法过程中所得到的犯罪案件数据。
S120、将所述初始数据输入至案件分类模型内进行案件分类处理,以得到分类结果。
在本实施例中,分类结果是指初始数据对应的案件类别,包括涉网新型犯罪案件类别以及非涉网新型犯罪案件类别。
其中,上述的案件分类模型是通过带有案件类别标签的犯罪案件信息作为第一样本数据集训练文本分类模型所得的。
目前公安数据存在案件类别误判的问题,从而导致政府决策层无法准确掌握涉网新型犯罪案件的案发态势,导致后续防控措施的制定缺乏数据支撑。因此,需要对犯罪案件的类别先进行划分,以便于针对性地生成防控通知。基层干警对涉网新型犯罪理解不够深刻等多种原因,在案件归类时出现案件类别错误分类的情况,导致相关政府决策层无法准确掌握实际案发情况,因此首先在海量案件中准别甄别出涉网新型犯罪案件。
在本实施例中,首先使用自然语言处理语义分析的方式在海量公安警情数据中准确甄别出涉网新型犯罪案件。具体地,采用语义分析的方式,获取警情案件的语义信息,根据语义信息甄别出涉网新型犯罪案件。
在一实施例中,上述的案件分类模型是通过带有案件类别标签的犯罪案件信息作为第一样本数据集训练文本分类模型所得的可包括步骤S121~S127。
S121、构建文本分类模型,并进行预训练。
在本实施例中,在进行文本分类模型的训练时,需要对获取有质量的数据,以便于提高整个模型的准确性,良好的数据质量是分析建模的基础,因此首先对公安警情数据进行数据质量探查,包括数据字段的空值率以及警情案件数据文本长度等,根据警情案件数据的文本长度设置模型参数值。其中,警情案件数据是指涉网犯罪案件信息以及非涉网犯罪案件信息。
目前顶级的BERT(基于Transformer的双向编码器表征,Bidirectional EncoderRepresentations from Transformers)语言模型已在海量数据集中进行了预训练,具备强大的语义获取能力,为使得BERT语言模型更加适配于警情数据,使用千万数据量级别的警情数据按照其最初的预训练方法对BERT语言模型再次进行预训练,进一步提升其警情数据语义获取能力。
在本实施例中,所述文本分类模型包括通用预训练语言表示模型、神经网络模型以及非神经网络中至少一种。
S122、获取若干个涉网犯罪案件信息以及若干个非涉网犯罪案件信息,并对涉网犯罪案件信息以及非涉网犯罪案件信息对应的案件类别标签,以得到第一样本数据集。
对预训练的BERT语言模型进行模型参数微调,使其适用于警情案件文本分类任务。
在本实施例中,第一样本数据集是指若干个带有案件类别标签的涉网犯罪案件信息以及若干个带有案件类别标签的非涉网犯罪案件信息的集合。
具体地,选取N个涉网犯罪案件信息和M个非涉网犯罪案件信息构建第一样本数据集Train={a1,a2…aN,aN+1,aN+2…aN+M},其中ai代表实数域上的L×E阶矩阵:
Figure BDA0002605964760000071
其中L代表训练样本的文本长度,E代表词向量维度,其中,训练样本指的是第一样本数据集。
S123、将第一样本数据集划分为第一训练集以及第一测试集。
在本实施例中,可以根据实际情况按照一定的比例如9:1等将第一样本数据集划分为两部分,其中第一训练集用于对文本分类模型进行微调,第一测试集用于对微调后的文本分类模型进行预测,以确保微调后的文本分类模型是适合分类犯罪案件。
S124、根据第一训练集对文本分类模型进行微调,以得到微调后的文本分类模型。
在本实施例中,微调后的文本分类模型是指文本分类模型在采用第一训练集进行二次训练后调整参数至二次训练出来的结果符合要求时所对应的模型。
在一实施例中,上述的步骤S124可包括步骤S1241~S1244。
S1241、将第一训练集输入至文本分类模型内进行计算,以得到样本的语义向量。
在本实施例中,样本的语义向量是指第一训练集输入至文本分类模型中分析所得的语义向量。
将训练样本集按照符合模型输入类型的计算流在BERT模型中进行计算得到样本的语义向量:sem=(cls,token1,token2…tokenL,sep),其中cls=(x1,x2…xE)代表该第一训练集的语义,tokeni=(x1,x2…xE)代表第一训练集中每个字的语义。
S1242、使用全连接层对样本的语义向量计算涉网新型犯罪案件类别以及非涉网新型犯罪案件类别所对应的语义特征,以得到特征值。
在本实施例中,特征值是指涉网新型犯罪案件类别以及非涉网新型犯罪案件类别所对应的语义向量使用全连接层计算所得的语义特征。
使用全连接层计算得到第一训练集的语义cls分别属于两个类别的语义特征。为得到警情案件文本中比较丰富的语义信息,在使用BERT模型进行计算时会输出维度比较高的语义向量,但本实施例最终是属于二分类任务,即全连接层的输出为二维向量,因此为避免高维度语义向量直接降维到二维向量时损失较多的语义信息,在全连接层中采用逐层减半并与上层向量拼接的方式进行逐层降维。
第一训练集的语义cls作为全连接的输入,第一层隐藏层的计算方式为:
Figure BDA0002605964760000081
Figure BDA0002605964760000082
其中,cls_dim为第一训练集的语义cls的向量维度
Figure BDA0002605964760000083
Figure BDA0002605964760000084
b0,1、b0,2和b0,cls_dim/2均是全连接层参数,计算得到第一层隐藏层的向量维度为cls_dim/2,将全连接的输入层与第一层隐藏层进行向量拼接得到维度为(cls_dim+cls_dim/2)的向量作为第二层隐藏层的输入;具体地计算方式是采用输入层进行维度减半,并输入值第一隐藏层后得到的结果进行向量拼接,此后在进行维度减半,以得到第二隐藏层的输入,后续的隐藏层均按照上述的维度减半后向量拼接的方式进行,最终计算得到输入的警情案件文本分别属于涉网案件和非涉网案件的语义特征向量z1,z2
S1243、根据特征值计算涉网新型犯罪案件类别以及非涉网新型犯罪案件类别对应的概率,以得到训练结果。
在本实施例中,训练结果是指第一训练集处于涉网新型犯罪案件类别以及非涉网新型犯罪案件类别的概率中概率高的案件类别。
使用softmax函数计算该训练样本分别属于涉网类别和非涉网类别的概率:
Figure BDA0002605964760000091
选取概率值较大的类别作为该第一训练集的预测类别。
S1244、根据训练结果以及对应的案件类别标签计算交叉熵损失函数值,通过损失函数值进行反向传播微调文本分类模型的参数,以得到微调后的文本分类模型。
具体地,计算第一训练集的预测类别和真实类别之间的交叉熵损失函数值,通过损失函数值进行反向传播微调模型参数。损失函数值
Figure BDA0002605964760000092
Figure BDA0002605964760000093
损失函数值处于稳定且小于某一阈值,则表明微调后的文本分类模型已收敛,可以作为实际案件类别筛选的模型。
具体地,当损失函数值维持不变,即微调后的文本分类模型已经收敛,即损失函数值基本不变且非常小,也表明当前的微调后的文本分类模型是可以被用作案件分类模型的,一般是开始训练时损失值比较大,越往后训,损失值越小,倘若该损失函数值未维持不变,表明当前微调后的文本分类模型不可以用作案件分类模型,也就是评估出来的类别并不准确,会导致后期的关键要素相关处理也不准确,需要进再次反向传播微调。
S125、使用微调后的文本分类模型对第一测试集进行预测,以得到测试结果。
在本实施例中,测试结果是指利用第一测试集输入至微调后的文本分类模型后,得到的类别。
具体地,还可以选取公安警情数据中没有明确标记为涉网或者非涉网的数据作为第一测试集:Test={b1,b2…bK},其中bi同样代表实数域上的L×E阶矩阵,使用微调后的BERT模型对测试数据进行预测,使用softmax函数计算得到第一测试集i属于每一个涉网和非涉网的概率,选取最大概率值所对应的类别作为第一测试集i的预测类别。
S126、判断测试结果是否符合要求;
S127、若测试结果符合要求,则微调后的文本分类模型为案件分类模型;
若测试结果不符合要求,则执行所述步骤S125。
当测试结果的精度和召回率这两个指标评估符合条件,则表明拟合程度符合要求,便可认为测试结果是符合要求的;否则,则认为该测试结果不符合要求。微调后的文本分类模型收敛时停止训练。微调后的文本分类模型后训练好后对微调后的文本分类模型进行测试,如果测试结果不好,需要调整训练策略重新进行微调后的文本分类模型训练。当然,在训练的过程中,会进行训练和测试,训练时测试是为了实时查看训练情况;而训练微调后的文本分类模型完成后的测试,用精度和召回率这两个指标评估整个微调后的文本分类模型的执行准确程度。
利用案件类别模型自动进行犯罪案件的分类,可以减少对执法人员的要求,且分类准确度高。为进一步精确的甄别出涉网新型犯罪案件,需要在模型预测结果中添加后验知识进行进一步的筛选。
甄别涉网新型犯罪案件的核心技术是文本分类,本实施例中使用BERT模型进行案件类别分类,此外可使用循环神经网络、卷积神经网络等多种神经网络模型以及关键词筛选等多种非神经网络来实现案件类别分类,只要可实现文本类别分类的技术方案均为本部分的替代方案。
S130、判断所述分类结果是否是涉网新型犯罪案件;
S140、若所述分类结果是涉网新型犯罪案件,则将初始数据输入至要素提取模型内进行关键要素提取,以得到关键信息。
为实现精准防控,需要对涉网新型犯罪案件特征具有全面、充分的理解,针对其作案手段、受害人职业等维度制定具有针对性的防控措施,例如经要素实体提取后挖掘得到地点A处年龄在50-60岁之间的居民经常在晚上9:00-10:00之间受到冒充类诈骗,即可针对此类情况制定针对性的防控措施,在准确甄别涉网新型犯罪案件的基础上提取出涉网新型犯罪案件的作案时间、作案地点等要素实体。
在本实施例中,关键信息是指包括作案地点、作案时间、人员姓名、身份证、作案行为、涉及金额、邮箱账号、支付宝账号、电话号码、QQ号码、组织机构、银行账号以及银行机构等等的关键要素。
其中,所述要素提取模型是通过带有关键信息位置标签的犯罪案件信息作为第二样本数据集训练命名实体识别模型所得的。
在一实施例中,上述的步骤S140可包括步骤S141~S146。
S141、构建命名实体识别模型,并进行预训练。
采用自然语言处理领域中的命名实体识别技术提取案件警情文本数据中的要素实体。
在本实施例中,所述命名实体识别模型包括通用预训练语言表示模型、神经网络模型以及非神经网络中至少一种。
S142、获取若干个涉网犯罪案件信息,并对涉网犯罪案件信息的关键信息进行位置标签的标注,以得到第二样本数据集。
在本实施例中,第二样本数据集是指若干个标注关键信息的起始位置标签和终止位置标签的涉网犯罪案件信息。
具体地,选取N个涉网犯罪案件信息第二样本数据集训练样本集:Train={a1,a2…aN},其中ai代表实数域上的L×E阶矩阵。
S143、根据第二样本数据集对命名实体识别模型进行微调,以得到微调后的命名实体识别模型。
在本实施例中,微调后的命名实体识别模型是指命名实体识别模型在采用第二训练集进行二次训练后调整参数至二次训练出来的结果符合要求时所对应的模型。
在一实施例中,上述的步骤S143可包括步骤S1431~S1434。
S1431、将第二样本数据集输入至命名实体识别模型内进行语义计算,以得到语义信息。
在本实施例中,语义信息是指第二训练集输入至命名实体识别模型中分析所得的语义向量。
使用在千万数据量级别的警情数据中预训练的BERT模型计算得到训练样本的语义BERT(ai)=(cls,token1,token2…tokenL,sep),其中cls=(x1,x2…xE)代表该第二训练集的语义,tokeni=(x1,x2…xE)代表第二训练集中每个字的语义。
S1432、对语义信息使用非线性映射方式计算每个字作为实体的起始位置和终止位置的概率,以得到概率集合。
在本实施例中,概率集合是指每一个字作为实体起始位置和终止位置的概率。
获取每一个字的语义{token1,token2…tokenL},使用非线性映射的方式分别计算每一个字作为实体起始位置和终止位置的概率:
Figure BDA0002605964760000121
Figure BDA0002605964760000122
当计算得到某个字作为实体起始位置的概率高于一定阈值时,将其位置索引作为实体的起始位置,实体终止位置亦采用相同的方式进行判定。其中,位置索引是指命名实体识别模型在计算每个字作为实体的起始位置和终止位置所做的标志。
S1433、筛选概率集合中超过设定阈值的概率所对应的位置索引,以得到位置结果。
在本实施例中,位置结果是指符合要求的概率所对应的位置索引所指的位置。
S1434、根据位置结果以及对应的关键信息位置标签计算交叉熵损失函数值,通过损失函数值进行反向传播微调命名实体识别模型的参数,以得到微调后的命名实体识别模型。
具体地,计算第二训练集实际输出的位置结果和真实位置即标注的位置标签之间的交叉熵损失函数值,通过损失函数值进行反向传播微调模型参数。损失函数值处于稳定且小于某一阈值,则表明微调后的命名实体识别模型已收敛,可以作为实际关键要素提取的模型。
在本实施例中,针对一个实体,命名实体识别模型的预测值包括以下三种情况:一是实体的起始和终止标签均预测正确;二是实体的起始和终止标签只有一个预测正确;三是实体的起始和终止标签均预测错误。
在计算损失函数值时针对不同的预测情况调整相对应的损失函数值,增强对预测错误实体的惩罚力度,定义的损失函数如下所示:
Figure BDA0002605964760000131
其中fun代表多分类的交叉熵损失函数,α和β分别代表不同预测情况下损失函数值的权重,在训练过程中均为可训练的参数,loss为交叉熵损失函数值。通过上述公式计算损失函数值进行反向传播微调模型参数。
具体地,当损失函数值维持不变,即微调后的命名实体识别模型已经收敛,即损失函数值基本不变且非常小,也表明当前的微调后的命名实体识别模型是可以被用作要素提取模型的,一般是开始训练时损失值比较大,越往后训,损失值越小,倘若该损失函数值未维持不变,表明当前微调后的命名实体识别模型不可以用作要素提取模型,也就是提取出来的关键要素并不准确,会导致后期的知识图谱生成也不准确,需要进再次反向传播微调。
S144、将所有涉网犯罪案件信息作为测试数据集,使用微调后的命名实体识别模型对测试数据集进行预测,以得到预测结果。
在本实施例中,测试结果是指利用测试数据集输入至微调后的命名实体识别模型后,得到关键要素的位置信息,以此得到每个关键要素实体。
将所有涉网新型犯罪案件作为测试数据集:Test={Tpre_net1,Tpre_net2…Tpre_netN,Tnet1,Tnet2…TnetM}。
其中,测试数据集包括如下两部分数据:一是所甄别出的涉网新型犯罪案件;二是公安警情数据中明确标记为涉网新型犯罪案件的案件数据。使用微调后的模型提取测试数据集中每一条数据的案件要素实体。
S145、判断预测结果是否符合要求;
S146、若预测结果符合要求,则微调后的命名实体识别模型为要素提取模型;
若预测结果不符合要求,则执行所述步骤S143。
当测试结果的精度和召回率这两个指标评估符合条件,则表明拟合程度符合要求,便可认为测试结果是符合要求的;否则,则认为该测试结果不符合要求。微调后的命名实体识别模型收敛时停止训练。微调后的命名实体识别模型后训练好后对微调后的命名实体识别模型进行测试,如果测试结果不好,需要调整训练策略重新进行微调后的命名实体识别模型训练。当然,在训练的过程中,会进行训练和测试,训练时测试是为了实时查看训练情况;而训练微调后的命名实体识别模型完成后的测试,用精度和召回率这两个指标评估整个微调后的命名实体识别模型的执行准确程度。
具体地,整个要素提取模型的训练与案件分类模型的训练类似,此处不再赘述。
另外,涉网新型犯罪案件的要素实体提取的核心技术是命名实体识别,本实施例中使用BERT模型进行案件类别分类,此外可使用循环神经网络、卷积神经网络等多种神经网络模型以及规则提取等多种非神经网络的实现方式,只要可实现命名实体识别的技术方案均为本部分的替代方案。
S150、根据所述关键信息生成知识图谱。
在本实施例中,知识图谱是指根据关键信息确定所有案件的关联关系,比如是犯罪地址相同等关联关系构成形成的图谱。
目前公安部门以姓名、身份证号等检索标识检索得到的案件信息离散化、孤岛化无法进行案件之间的有效关联,因此出构建涉网新型犯罪案件要素实体提取所提取出的涉网新型犯罪案件要素实体的知识图谱。
在提取涉网新型犯罪案件要素实体的基础上,通过构建知识图谱的方式消除案件之间的信息孤岛,进一步融合多个案件之间的作案手段、受害人群职业、属地、年龄、资金支付方式等多维数据,分析挖掘得到某一类案件数据的高发人群、高发期、高发职业等等多种潜在信息。
构建涉网新型犯罪案件中的作案时间、作案手段、作案地点、支付方式等多种要素实体的知识图谱,从而消除案件之间的信息孤岛,进而获取不同种类的案件特征,例如:冒充子女类案件经常发生在节假日,并且受害人员主要为60岁以上老人,即可针对此类案件的作案时间和受害人年龄制定与相关群众切身相关的针对性防控措施,从而提高防控效果。
S160、根据所述知识图谱生成防控信息,并将所述防控信息推送至对应的终端。
在本实施例中,防控信息是指根据知识图谱的犯罪地址、涉案人员年龄等作案相关信息生成对应的信息,并根据公安所登记的公民信息,进行针对性的推荐,以提高整个分析效率和优化防控效果。
若所述分类结果不是涉网新型犯罪类型,则执行所述步骤S110。
以公安警情数据的治理以及警情数据中蕴含的犯罪规律分析与挖掘为出发点,基于深度学习语义分析进行涉网新型犯罪精准防控,针对不同人群的年龄、职业等特点,提出具有针对性的防控措施,用于解决目前防控措施过于宽泛的问题。
利用自然语言处理、数据挖掘、知识图谱等相关技术,对公安警情数据进行深度分析挖掘,构建涉网新型犯罪案件中的作案时间、作案手段、作案地点、支付方式等多种要素实体的知识图谱,从而消除案件之间的信息孤岛,进而获取不同种类的案件特征,可针对的作案时间和受害人年龄制定与相关群众切身相关的针对性防控信息,从而提高防控效果。
举个例子:
假设公安警情数据的数据字段如下表所示:
案件编号 案件内容 案件类型
123456 王刚报警称…支付宝被骗1000元 网络诈骗
张亮报警称…自行车被盗 偷盗类
通过统计得到案件编号、案件内容和案件类型的空值率分别为50%,0%,0%;案件内容的文本长度都小于500,则可将案件分类模型的最大文本长度设置为500。
为便于描述,分别选取1个简短的涉网案件a1:王刚报警称支付宝被骗1000元和1个非涉网案件a2:张亮报警称自行车被盗为例进行描述。构建训练样本集得到:Train={a1,a2},则a1和a2分别代表12×768阶矩阵和10×768阶矩阵,其中768为默认的向量维度,a1和a2的具体值分别如下所示:
Figure BDA0002605964760000151
Figure BDA0002605964760000161
将训练样本集按照符合模型输入类型的计算流在BERT模型中对上述训练样本集进行计算,得到每个样本的语义向量:sem1=(cls,token1…tokenL)=((0.1256…-0.3248),(-0.1657…-0.2384)…(0.3217…0.2684));sem2=(cls,token1…tokenL)=((0.2461…-0.1692),(0.1867…0.2367)…(0.1463…0.0257));
使用全连接层计算两个第一训练集的语义cls分别属于涉网和非涉网的语义特征。768维的向量作为全连接层的输入,第一层隐藏层的计算如下:
Figure BDA0002605964760000162
将第一层隐藏层384维向量与768维输入向量进行拼接得到1152维向量作为第二层隐藏层的输入,同样经过维度减半第二层隐藏层计算得到576维向量,依次计算直至得到两个样本分别属于涉网案件和非涉网案件的二维语义特征向量:z1=(z1,1,z1,2)=(0.2971,0.0165);z2=(z2,1,z2,2)=(0.0168,0.2024)。
使用softmax函数计算该训练样本分别属于涉网类别和非涉网类别的概率:
Figure BDA0002605964760000163
Figure BDA0002605964760000164
计算训练样本的预测类别和真实类别之间的交叉熵损失函数值:loss1=-[1×log 0.57+0×log0.43]=0.2441;loss2=-[0×log 0.45+1×log0.55=0.2596。
该训练样本集的平均损失为:
Figure BDA0002605964760000165
并使用平均损失进行反向传播微调模型参数。
为便于描述,选取两个简短的案件t1“张红报警称银行卡余额突然变少,怀疑被盗刷,经民警核实为设置自动充值,非盗窃案件”和t2“赵刚报警称银行卡在超市被盗刷2000元,系网络盗窃案件”作为测试数据,Test={t1,t2},t1和t2分别为实数域中的36×768阶矩阵和23×768阶矩阵,其中768为默认的向量维度,t1和t2的具体值分别为:
Figure BDA0002605964760000171
Figure BDA0002605964760000172
按照模型微调过程计算得到t1和t2案件分别属于涉网类别和非涉网类别的概率为0.67/0.33和0.86/0.14,显然将t1和t2均预测为涉网类别。在上述两个测试数据中,由于案件t1的案件描述与涉网案件非常相似,模型将其预测为涉网类型,但是在案件的最后部分使用非常简短的内容来表明此案件为非涉网案件,经添加后验知识进行进一步筛选,将其类别改为非涉网案件。
对于关键要素提取而言,以案件“王刚报警称2020年5月10日晚9点接到电话,对方声称是公司领导,现急需用钱,让其转账5000元,后发觉被骗遂报警,民警判定为被人以冒充领导的方式诈骗。”为例,使用微调后的BERT模型计算得到此样本的语义:sem=(cls,token1…tokenL)=((0.0126…-0.3365,-0.1429…-0.2326…0.1456…0.1568。分别计算该案件中每个字作为实体起始位置和实体终止位置的概率,通过获取实体起始位置和终止位置之间的内容得到此案件中的受害人:王刚、作案时间:2020年5月10日晚9点、涉案金额:5000元、作案手段:冒充领导等要素实体,以构建步涉网新型犯罪案件要素实体提取出的案件要素实体的知识图谱;当案件数量多时将会形成一张巨大的关系网络,可基于该网络对多个案件进行融合,消除案件之间的信息孤岛。
为进一步说明本实施例所提供的方法在案件类别分类和案件要素提取方面带来的有益效果,将本实施例和3种现有方法,BERT+全连接层、LSTM+全连接层、RNN+全连接层在真实案件数据中分别进行案件类别分类和案件要素提取,为便于描述在本文中只详细给出本文方法和RNN+全连接层方法在每一步中的计算结果,最终给出每个方法在真实数据集中的准确率,具体如下:
选取1个涉网案件a1:王刚报警称在网上刷单被骗1000元和1个非涉网案件a2:张亮报警称支付宝余额少了1500元,后经查实为借给朋友后续忘记,并非被骗为例进行描述。本实施例构建训练样本集得到:Train={a1,a2},则a1和a2分别代表17×768阶矩阵和36×768阶矩阵,其中768为BERT模型默认的向量维度17和36分别代表案件的文本长度,a1和a2的具体值分别如下所示:
Figure BDA0002605964760000181
RNN+全连接层构建训练样本集得到:Train={a1,a2},由于RNN并非是预训练的语言模型没有预训练得到的向量值,因此采用服从正态分布的随机300维向量初始化的方式对向量值进行初始化,并且随机初始化的向量值在训练过程中为可训练参数,a1和a2的随机初始化具体值分别如下所示:
Figure BDA0002605964760000182
Figure BDA0002605964760000183
在BERT模型中对上述训练样本集进行计算,得到每个样本的语义向量:
sem1=(cls,token1…tokenL,sep)=((0.01246…-0.14231)……(-0.1257…-0.2013));
sem2=(cls,token1…tokenL,sep)=((-0.26421…-0.16745)…(0.0034…0.10276))。
对RNN模型而言,将RNN输入层和隐藏层维度均设置为300,按照RNN网络结构对上述训练样本集进行计算,得到每个样本的语义向量:sem1=(token1…tokenL)=((0.00264…-0.01468)……(-0.13462…-0.20014));sem2=(token1…tokenL)=((-0.01543…0.1368)…(-0.00165…0.1006))。
本实施例使用全连接层逐层拼接的方式进行计算,使用全连接层计算两个训练样本语义cls分别属于涉网和非涉网的语义特征,768维的向量作为全连接层的输入,第一层隐藏层为
Figure BDA0002605964760000191
Figure BDA0002605964760000192
将第一层隐藏层384维向量与768维输入向量进行拼接得到1152维向量作为第二层隐藏层的输入,同样经过维度减半第二层隐藏层计算得到576维向量,依次计算直至得到两个样本分别属于涉网案件和非涉网案件的二维语义特征向量:z1=(z1,1,z1,2)=(0.0137,0.1684);z2=(z2,1,z2,2)=(0.1039,0.0064)。
RNN+全连接层进行计算,经RNN模型计算后分别得到两个样本的300维语义向量(-0.13462…-0.20014),(-0.00165…0.1006),使用输入特征维度为300,输出特征维度为2的全连接层进行计算分别得到两个样本属于涉网案件和非涉网案件的二维语义特征向量:
Figure BDA0002605964760000193
Figure BDA0002605964760000194
本实施例使用softmax函数计算每个样本属于涉网类别和非涉网类别的概率:使用softmax函数计算两个训练样本分别属于涉网类别和非涉网类别的概率:
Figure BDA0002605964760000195
Figure BDA0002605964760000196
RNN+全连接层使用softmax函数计算每个样本属于涉网类别和非涉网类别的概率:使用softmax函数计算该训练样本分别属于涉网类别和非涉网类别的概率:
Figure BDA0002605964760000197
Figure BDA0002605964760000198
由上述计算结果可知本实例将案件一预测为涉网,案件二预测为非涉网,RNN+全连接层的方式将两个案件均预测为涉网案件,而真实情况为案件一为涉网案件、案件二为非涉网案件。
经过在真实全量案件数据中进行实验,对比效果如表1所示,实验结果证明本实例优于其他几种方法。
表1.案件类别分类方法效果对比
方法 准确率
BERT+全连接层(逐层向量拼接) 96.49%
BERT+全连接层 91.24%
LSTM+全连接层 83.71%
RNN+全连接层 79.65%
对于案件要素提取对比而言,以案件“王刚报警称2020年5月10日晚9点接到电话,对方声称是公司领导,现急需用钱,让其转账5000元,后发觉被骗遂报警,民警判定为被人以冒充领导的方式诈骗。”为例进行描述。为便于描述,详细给出本实施例和RNN+无参交叉熵的具体计算过程。
本实施例获取案件语义向量:使用BERT语言模型对上述案件进行编码得到其语义向量:
sem=(cls,token1…tokenL,sep)=((0.0126…-0.3365),(-0.1429…-0.2326…0.1456…0.1568;
RNN+无参交叉熵获取案件语义向量,将服从正态分布的300维随机初始化向量作为案件的初始语义向量:
sem=(token1…tokenL)=((-0.0106…0.3365),(-0.1632…-0.3048)…(0.1642…0.2641))。
计算每个实体的起始位置时,本实施例计算得到时间实体的起始位置分别为5和17(2020年5月10日晚9点),金额实体的起始位置分别是41和47(转账5000元);RNN计算得到时间实体的起始位置分别为5和17(2020年5月10日晚9点),金额实体的起始位置分别是39和47(让其转账5000元)
针对上述预测结果,本实施例和RNN+无参交叉熵将时间实体的起始位置均预测正确,金额实体的起始位置预测错误、终止位置预测正确,通过本文定义的有参交叉熵损失函数计算得到金额实体的损失函数值为0.67,RNN+无参交叉熵方法中通过无参交叉熵损失函数计算损失函数值为0.59。
在全量真实案件数据中进行实验计算得到各个实体类别的准确率,如表2所示,实验结果证明本文方法优于其他几种方法。
表2.案件要素提取方法在各类别实体中的效果对比
Figure BDA0002605964760000211
上述的涉网犯罪防控方法,通过获取需要分析的犯罪案件信息,并通过案件分类模型进行分类后,针对涉网新型犯罪案件进行关键要素提取,并由提取的信息生成知识图谱,结合知识图谱生成防控信息,消除案件之间的信息孤岛,进而获取不同种类的案件特征,实现对公安数据进行自动和精准分析,提取关键信息后,生成针对性的防控信息,并针对性推送给对应的终端,以提高整个分析效率和优化防控效果。
图3是本发明另一实施例提供的一种涉网犯罪防控方法的流程示意图。如图3所示,本实施例的涉网犯罪防控方法包括步骤S210-S280。其中步骤S210-S250与上述实施例中的步骤S110-S150类似,步骤S280与上述实施例中的步骤S160类似,在此不再赘述。下面详细说明本实施例中所增加的步骤S260-S270。
S260、建立涉网犯罪案件的采集标准;
S270、根据采集标准采集相关的涉网犯罪信息,以更新知识图谱。
为减少推进后续精准防控措施的工作量,建立涉网新型犯罪案件数据采集标准,执法办案人员按照该标准进行案件信息搜集,包括采集案件的作案时间、作案地点、受害人职业等维度,即受害人姓名、受害人性别、受害人年龄、作案手段等等要素实体,直接将非结构化的警情案件进行结构化,即可直接依据所采集的案件信息构建涉网新型犯罪案件要素实体知识图谱,为制定精准防控措施提供依据,在实际运用过程中实时更新知识图谱,以提升防控信息生成的准确性。
另外,建立涉网新型犯罪案件数据采集标准,按照此标准提取案件要素实体,将非结构化的案件文本数据进行结构化,即可直接用于构建知识图谱,减少后续工作量。
图4是本发明实施例提供的一种涉网犯罪防控装置300的示意性框图。如图4所示,对应于以上涉网犯罪防控方法,本发明还提供一种涉网犯罪防控装置300。该涉网犯罪防控装置300包括用于执行上述涉网犯罪防控方法的单元,该装置可以被配置于终端中。具体地,请参阅图4,该涉网犯罪防控装置300包括初始数据获取单元301、分类处理单元302、判断单元303、提取单元304、图谱生成单元305以及推送单元308。
初始数据获取单元301,用于获取需要分析的犯罪案件信息,以得到初始数据;分类处理单元302,用于将所述初始数据输入至案件分类模型内进行案件分类处理,以得到分类结果;判断单元303,用于判断所述分类结果是否是涉网新型犯罪案件;提取单元304,用于若所述分类结果是涉网新型犯罪案件,则将初始数据输入至要素提取模型内进行关键要素提取,以得到关键信息;图谱生成单元305,用于根据所述关键信息生成知识图谱;推送单元308,用于根据所述知识图谱生成防控信息,并将所述防控信息推送至对应的终端。
在一实施例中,上述的装置还包括第一构建单元,所述第一构建单元,用于通过带有案件类别标签的犯罪案件信息作为第一样本数据集训练文本分类模型,以得到案件分类模型。
在一实施例中,所述第一构建单元包括分类模型构建子单元、第一获取子单元、划分子单元、分类微调子单元、分类预测子单元以及第一判断子单元。
分类模型构建子单元,用于构建文本分类模型,并进行预训练;第一获取子单元,用于获取若干个涉网犯罪案件信息以及若干个非涉网犯罪案件信息,并对涉网犯罪案件信息以及非涉网犯罪案件信息对应的案件类别标签,以得到第一样本数据集;划分子单元,用于将第一样本数据集划分为第一训练集以及第一测试集;分类微调子单元,用于根据第一训练集对文本分类模型进行微调,以得到微调后的文本分类模型;分类预测子单元,用于使用微调后的文本分类模型对第一测试集进行预测,以得到测试结果;第一判断子单元,用于判断测试结果是否符合要求;若测试结果符合要求,则微调后的文本分类模型为案件分类模型;若测试结果不符合要求,则执行所述根据第一训练集对文本分类模型进行微调,以得到微调后的文本分类模型。
在一实施例中,所述分类微调子单元包括向量计算模块、特征计算模块、类别概率计算模块以及第一微调模块。
向量计算模块,用于将第一训练集输入至文本分类模型内进行计算,以得到样本的语义向量;特征计算模块,用于使用全连接层对样本的语义向量计算涉网新型犯罪案件类别以及非涉网新型犯罪案件类别所对应的语义特征,以得到特征值;类别概率计算模块,用于根据特征值计算涉网新型犯罪案件类别以及非涉网新型犯罪案件类别对应的概率,以得到训练结果;第一微调模块,用于根据训练结果以及对应的案件类别标签计算交叉熵损失函数值,通过损失函数值进行反向传播微调文本分类模型的参数,以得到微调后的文本分类模型。
在一实施例中,上述的装置还包括第二构建单元,第二构建单元用于通过带有关键信息位置标签的犯罪案件信息作为第二样本数据集训练命名实体识别模型,以得到要素提取模型。
在一实施例中,所述第二构建单元包括识别模型构建子单元、第二获取子单元、识别微调子单元、识别预测子单元以及第二判断子单元。
识别模型构建子单元,用于构建命名实体识别模型,并进行预训练;第二获取子单元,用于若干个涉网犯罪案件信息,并对涉网犯罪案件信息的关键信息进行位置标签的标注,以得到第二样本数据集;识别微调子单元,用于根据第二样本数据集对命名实体识别模型进行微调,以得到微调后的命名实体识别模型;识别预测子单元,用于将所有涉网犯罪案件信息作为测试数据集,使用微调后的命名实体识别模型对测试数据集进行预测,以得到预测结果;第二判断子单元,用于判断预测结果是否符合要求;若预测结果符合要求,则微调后的命名实体识别模型为要素提取模型;若预测结果不符合要求,则执行所述根据第二样本数据集对命名实体识别模型进行微调,以得到微调后的命名实体识别模型。
在一实施例中,所述识别微调子单元包括语义信息获取模块、概率获取模块、筛选模块以及第二微调模块。
语义信息获取模块,用于将第二样本数据集输入至命名实体识别模型内进行语义计算,以得到语义信息;概率获取模块,用于对语义信息使用非线性映射方式计算每个字作为实体的起始位置和终止位置的概率,以得到概率集合;筛选模块,用于筛选概率集合中超过设定阈值的概率所对应的位置索引,以得到位置结果;第二微调模块,用于根据位置结果以及对应的关键信息位置标签计算交叉熵损失函数值,通过损失函数值进行反向传播微调命名实体识别模型的参数,以得到微调后的命名实体识别模型。
图5是本发明另一实施例提供的一种涉网犯罪防控装置300的示意性框图。如图5所示,本实施例的涉网犯罪防控装置300是上述实施例的基础上增加了标准建立单元306以及更新单元307。
标准建立单元306,用于建立涉网犯罪案件的采集标准;更新单元307,用于根据采集标准采集相关的涉网犯罪信息,以更新知识图谱。
需要说明的是,所属领域的技术人员可以清楚地了解到,上述涉网犯罪防控装置300和各单元的具体实现过程,可以参考前述方法实施例中的相应描述,为了描述的方便和简洁,在此不再赘述。
上述涉网犯罪防控装置300可以实现为一种计算机程序的形式,该计算机程序可以在如图6所示的计算机设备上运行。
请参阅图6,图6是本申请实施例提供的一种计算机设备的示意性框图。该计算机设备500可以是服务器,其中,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。
参阅图6,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032包括程序指令,该程序指令被执行时,可使得处理器502执行一种涉网犯罪防控方法。
该处理器502用于提供计算和控制能力,以支撑整个计算机设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行一种涉网犯罪防控方法。
该网络接口505用于与其它设备进行网络通信。本领域技术人员可以理解,图6中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现如下步骤:
获取需要分析的犯罪案件信息,以得到初始数据;将所述初始数据输入至案件分类模型内进行案件分类处理,以得到分类结果;判断所述分类结果是否是涉网新型犯罪案件;若所述分类结果是涉网新型犯罪案件,则将初始数据输入至要素提取模型内进行关键要素提取,以得到关键信息;根据所述关键信息生成知识图谱;根据所述知识图谱生成防控信息,并将所述防控信息推送至对应的终端。
其中,所述案件分类模型是通过带有案件类别标签的犯罪案件信息作为第一样本数据集训练文本分类模型所得的;所述要素提取模型是通过带有关键信息位置标签的犯罪案件信息作为第二样本数据集训练命名实体识别模型所得的。
在一实施例中,处理器502在实现所述根据所述关键信息生成知识图谱步骤之后,还实现如下步骤:
建立涉网犯罪案件的采集标准;根据采集标准采集相关的涉网犯罪信息,以更新知识图谱。
在一实施例中,处理器502在实现所述案件分类模型是通过带有案件类别标签的犯罪案件信息作为第一样本数据集训练文本分类模型所得的步骤时,具体实现如下步骤:
构建文本分类模型,并进行预训练;获取若干个涉网犯罪案件信息以及若干个非涉网犯罪案件信息,并对涉网犯罪案件信息以及非涉网犯罪案件信息对应的案件类别标签,以得到第一样本数据集;将第一样本数据集划分为第一训练集以及第一测试集;根据第一训练集对文本分类模型进行微调,以得到微调后的文本分类模型;使用微调后的文本分类模型对第一测试集进行预测,以得到测试结果;判断测试结果是否符合要求;若测试结果符合要求,则微调后的文本分类模型为案件分类模型;若测试结果不符合要求,则执行所述根据第一训练集对文本分类模型进行微调,以得到微调后的文本分类模型。
在一实施例中,处理器502在实现所述根据第一训练集对文本分类模型进行微调,以得到微调后的文本分类模型步骤时,具体实现如下步骤:
将第一训练集输入至文本分类模型内进行计算,以得到样本的语义向量;使用全连接层对样本的语义向量计算涉网新型犯罪案件类别以及非涉网新型犯罪案件类别所对应的语义特征,以得到特征值;根据特征值计算涉网新型犯罪案件类别以及非涉网新型犯罪案件类别对应的概率,以得到训练结果;根据训练结果以及对应的案件类别标签计算交叉熵损失函数值,通过损失函数值进行反向传播微调文本分类模型的参数,以得到微调后的文本分类模型。
其中,所述文本分类模型包括通用预训练语言表示模型、神经网络模型以及非神经网络中至少一种。
在一实施例中,处理器502在实现所述要素提取模型是通过带有关键信息位置标签的犯罪案件信息作为第二样本数据集训练命名实体识别模型所得的步骤时,具体实现如下步骤:
构建命名实体识别模型,并进行预训练;获取若干个涉网犯罪案件信息,并对涉网犯罪案件信息的关键信息进行位置标签的标注,以得到第二样本数据集;根据第二样本数据集对命名实体识别模型进行微调,以得到微调后的命名实体识别模型;将所有涉网犯罪案件信息作为测试数据集,使用微调后的命名实体识别模型对测试数据集进行预测,以得到预测结果;判断预测结果是否符合要求;若预测结果符合要求,则微调后的命名实体识别模型为要素提取模型;若预测结果不符合要求,则执行所述根据第二样本数据集对命名实体识别模型进行微调,以得到微调后的命名实体识别模型。
在一实施例中,处理器502在实现所述根据第二样本数据集对命名实体识别模型进行微调,以得到微调后的命名实体识别模型步骤时,具体实现如下步骤:
将第二样本数据集输入至命名实体识别模型内进行语义计算,以得到语义信息;对语义信息使用非线性映射方式计算每个字作为实体的起始位置和终止位置的概率,以得到概率集合;筛选概率集合中超过设定阈值的概率所对应的位置索引,以得到位置结果;根据位置结果以及对应的关键信息位置标签计算交叉熵损失函数值,通过损失函数值进行反向传播微调命名实体识别模型的参数,以得到微调后的命名实体识别模型。
应当理解,在本申请实施例中,处理器502可以是中央处理单元(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
本领域普通技术人员可以理解的是实现上述实施例的方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成。该计算机程序包括程序指令,计算机程序可存储于一存储介质中,该存储介质为计算机可读存储介质。该程序指令被该计算机系统中的至少一个处理器执行,以实现上述方法的实施例的流程步骤。
因此,本发明还提供一种存储介质。该存储介质可以为计算机可读存储介质。该存储介质存储有计算机程序,其中该计算机程序被处理器执行时使处理器执行如下步骤:
获取需要分析的犯罪案件信息,以得到初始数据;将所述初始数据输入至案件分类模型内进行案件分类处理,以得到分类结果;判断所述分类结果是否是涉网新型犯罪案件;若所述分类结果是涉网新型犯罪案件,则将初始数据输入至要素提取模型内进行关键要素提取,以得到关键信息;根据所述关键信息生成知识图谱;根据所述知识图谱生成防控信息,并将所述防控信息推送至对应的终端。
其中,所述案件分类模型是通过带有案件类别标签的犯罪案件信息作为第一样本数据集训练文本分类模型所得的;
所述要素提取模型是通过带有关键信息位置标签的犯罪案件信息作为第二样本数据集训练命名实体识别模型所得的。
在一实施例中,所述处理器在执行所述计算机程序而实现所述根据所述关键信息生成知识图谱步骤之后,还实现如下步骤:
建立涉网犯罪案件的采集标准;根据采集标准采集相关的涉网犯罪信息,以更新知识图谱。
在一实施例中,所述处理器在执行所述计算机程序而实现所述案件分类模型是通过带有案件类别标签的犯罪案件信息作为第一样本数据集训练文本分类模型所得的步骤时,具体实现如下步骤:
构建文本分类模型,并进行预训练;获取若干个涉网犯罪案件信息以及若干个非涉网犯罪案件信息,并对涉网犯罪案件信息以及非涉网犯罪案件信息对应的案件类别标签,以得到第一样本数据集;将第一样本数据集划分为第一训练集以及第一测试集;根据第一训练集对文本分类模型进行微调,以得到微调后的文本分类模型;使用微调后的文本分类模型对第一测试集进行预测,以得到测试结果;判断测试结果是否符合要求;若测试结果符合要求,则微调后的文本分类模型为案件分类模型;若测试结果不符合要求,则执行所述根据第一训练集对文本分类模型进行微调,以得到微调后的文本分类模型。
在一实施例中,所述处理器在执行所述计算机程序而实现所述根据第一训练集对文本分类模型进行微调,以得到微调后的文本分类模型步骤时,具体实现如下步骤:
将第一训练集输入至文本分类模型内进行计算,以得到样本的语义向量;使用全连接层对样本的语义向量计算涉网新型犯罪案件类别以及非涉网新型犯罪案件类别所对应的语义特征,以得到特征值;根据特征值计算涉网新型犯罪案件类别以及非涉网新型犯罪案件类别对应的概率,以得到训练结果;根据训练结果以及对应的案件类别标签计算交叉熵损失函数值,通过损失函数值进行反向传播微调文本分类模型的参数,以得到微调后的文本分类模型。
其中,所述文本分类模型包括通用预训练语言表示模型、神经网络模型以及非神经网络中至少一种。
在一实施例中,所述处理器在执行所述计算机程序而实现所述要素提取模型是通过带有关键信息位置标签的犯罪案件信息作为第二样本数据集训练命名实体识别模型所得的步骤时,具体实现如下步骤:
构建命名实体识别模型,并进行预训练;获取若干个涉网犯罪案件信息,并对涉网犯罪案件信息的关键信息进行位置标签的标注,以得到第二样本数据集;根据第二样本数据集对命名实体识别模型进行微调,以得到微调后的命名实体识别模型;将所有涉网犯罪案件信息作为测试数据集,使用微调后的命名实体识别模型对测试数据集进行预测,以得到预测结果;判断预测结果是否符合要求;若预测结果符合要求,则微调后的命名实体识别模型为要素提取模型;若预测结果不符合要求,则执行所述根据第二样本数据集对命名实体识别模型进行微调,以得到微调后的命名实体识别模型。
在一实施例中,所述处理器在执行所述计算机程序而实现所述根据第二样本数据集对命名实体识别模型进行微调,以得到微调后的命名实体识别模型步骤时,具体实现如下步骤:
将第二样本数据集输入至命名实体识别模型内进行语义计算,以得到语义信息;对语义信息使用非线性映射方式计算每个字作为实体的起始位置和终止位置的概率,以得到概率集合;筛选概率集合中超过设定阈值的概率所对应的位置索引,以得到位置结果;根据位置结果以及对应的关键信息位置标签计算交叉熵损失函数值,通过损失函数值进行反向传播微调命名实体识别模型的参数,以得到微调后的命名实体识别模型。
所述存储介质可以是U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的计算机可读存储介质。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的。例如,各个单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
本发明实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减。本发明实施例装置中的单元可以根据实际需要进行合并、划分和删减。另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。
该集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,终端,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.涉网犯罪防控方法,其特征在于,包括:
获取需要分析的犯罪案件信息,以得到初始数据;
将所述初始数据输入至案件分类模型内进行案件分类处理,以得到分类结果;
判断所述分类结果是否是涉网新型犯罪案件;
若所述分类结果是涉网新型犯罪案件,则将初始数据输入至要素提取模型内进行关键要素提取,以得到关键信息;
根据所述关键信息生成知识图谱;
根据所述知识图谱生成防控信息,并将所述防控信息推送至对应的终端;
其中,所述案件分类模型是通过带有案件类别标签的犯罪案件信息作为第一样本数据集训练文本分类模型所得的;
所述要素提取模型是通过带有关键信息位置标签的犯罪案件信息作为第二样本数据集训练命名实体识别模型所得的。
2.根据权利要求1所述的涉网犯罪防控方法,其特征在于,所述根据所述关键信息生成知识图谱之后,还包括:
建立涉网犯罪案件的采集标准;
根据采集标准采集相关的涉网犯罪信息,以更新知识图谱。
3.根据权利要求2所述的涉网犯罪防控方法,其特征在于,所述案件分类模型是通过带有案件类别标签的犯罪案件信息作为第一样本数据集训练文本分类模型所得的,包括:
构建文本分类模型,并进行预训练;
获取若干个涉网犯罪案件信息以及若干个非涉网犯罪案件信息,并对涉网犯罪案件信息以及非涉网犯罪案件信息对应的案件类别标签,以得到第一样本数据集;
将第一样本数据集划分为第一训练集以及第一测试集;
根据第一训练集对文本分类模型进行微调,以得到微调后的文本分类模型;
使用微调后的文本分类模型对第一测试集进行预测,以得到测试结果;
判断测试结果是否符合要求;
若测试结果符合要求,则微调后的文本分类模型为案件分类模型;
若测试结果不符合要求,则执行所述根据第一训练集对文本分类模型进行微调,以得到微调后的文本分类模型。
4.根据权利要求3所述的涉网犯罪防控方法,其特征在于,所述根据第一训练集对文本分类模型进行微调,以得到微调后的文本分类模型,包括:
将第一训练集输入至文本分类模型内进行计算,以得到样本的语义向量;
使用全连接层对样本的语义向量计算涉网新型犯罪案件类别以及非涉网新型犯罪案件类别所对应的语义特征,以得到特征值;
根据特征值计算涉网新型犯罪案件类别以及非涉网新型犯罪案件类别对应的概率,以得到训练结果;
根据训练结果以及对应的案件类别标签计算交叉熵损失函数值,通过损失函数值进行反向传播微调文本分类模型的参数,以得到微调后的文本分类模型。
5.根据权利要求1所述的涉网犯罪防控方法,其特征在于,所述文本分类模型包括通用预训练语言表示模型、神经网络模型以及非神经网络中至少一种。
6.根据权利要求1所述的涉网犯罪防控方法,其特征在于,所述要素提取模型是通过带有关键信息位置标签的犯罪案件信息作为第二样本数据集训练命名实体识别模型所得的,包括:
构建命名实体识别模型,并进行预训练;
获取若干个涉网犯罪案件信息,并对涉网犯罪案件信息的关键信息进行位置标签的标注,以得到第二样本数据集;
根据第二样本数据集对命名实体识别模型进行微调,以得到微调后的命名实体识别模型;
将所有涉网犯罪案件信息作为测试数据集,使用微调后的命名实体识别模型对测试数据集进行预测,以得到预测结果;
判断预测结果是否符合要求;
若预测结果符合要求,则微调后的命名实体识别模型为要素提取模型;
若预测结果不符合要求,则执行所述根据第二样本数据集对命名实体识别模型进行微调,以得到微调后的命名实体识别模型。
7.根据权利要求6所述的涉网犯罪防控方法,其特征在于,所述根据第二样本数据集对命名实体识别模型进行微调,以得到微调后的命名实体识别模型,包括:
将第二样本数据集输入至命名实体识别模型内进行语义计算,以得到语义信息;
对语义信息使用非线性映射方式计算每个字作为实体的起始位置和终止位置的概率,以得到概率集合;
筛选概率集合中超过设定阈值的概率所对应的位置索引,以得到位置结果;
根据位置结果以及对应的关键信息位置标签计算交叉熵损失函数值,通过损失函数值进行反向传播微调命名实体识别模型的参数,以得到微调后的命名实体识别模型。
8.涉网犯罪防控装置,其特征在于,包括:
初始数据获取单元,用于获取需要分析的犯罪案件信息,以得到初始数据;
分类处理单元,用于将所述初始数据输入至案件分类模型内进行案件分类处理,以得到分类结果;
判断单元,用于判断所述分类结果是否是涉网新型犯罪案件;
提取单元,用于若所述分类结果是涉网新型犯罪案件,则将初始数据输入至要素提取模型内进行关键要素提取,以得到关键信息;
图谱生成单元,用于根据所述关键信息生成知识图谱;
推送单元,用于根据所述知识图谱生成防控信息,并将所述防控信息推送至对应的终端。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器及处理器,所述存储器上存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的方法。
10.一种存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时可实现如权利要求1至7中任一项所述的方法。
CN202010738475.6A 2020-07-28 2020-07-28 涉网犯罪防控方法、装置、计算机设备及存储介质 Active CN112069392B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010738475.6A CN112069392B (zh) 2020-07-28 2020-07-28 涉网犯罪防控方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010738475.6A CN112069392B (zh) 2020-07-28 2020-07-28 涉网犯罪防控方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN112069392A true CN112069392A (zh) 2020-12-11
CN112069392B CN112069392B (zh) 2021-08-27

Family

ID=73657572

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010738475.6A Active CN112069392B (zh) 2020-07-28 2020-07-28 涉网犯罪防控方法、装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN112069392B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113919544A (zh) * 2021-08-30 2022-01-11 浙江警察学院 犯罪预警方法、装置、计算机设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106909662A (zh) * 2017-02-27 2017-06-30 腾讯科技(上海)有限公司 知识图谱构建方法及装置
CN109064313A (zh) * 2018-07-20 2018-12-21 重庆富民银行股份有限公司 基于知识图谱技术的贷后预警监测系统
CN109299255A (zh) * 2018-09-12 2019-02-01 东莞数汇大数据有限公司 基于朴素贝叶斯的案件文本分类方法、系统和存储介质
CN109871452A (zh) * 2019-01-31 2019-06-11 深度好奇(北京)科技有限公司 确定犯罪特征的方法、装置以及存储介质
CN110443143A (zh) * 2019-07-09 2019-11-12 武汉科技大学 多分支卷积神经网络融合的遥感图像场景分类方法
CN110458373A (zh) * 2019-08-22 2019-11-15 电子科技大学成都学院 一种基于知识图谱融合的犯罪预测方法及系统
CN111010595A (zh) * 2019-12-25 2020-04-14 广州欢聊网络科技有限公司 一种新节目推荐的方法及装置
US10628490B2 (en) * 2015-11-05 2020-04-21 Microsoft Technology Licensing, Llc Techniques for digital entity correlation

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10628490B2 (en) * 2015-11-05 2020-04-21 Microsoft Technology Licensing, Llc Techniques for digital entity correlation
CN106909662A (zh) * 2017-02-27 2017-06-30 腾讯科技(上海)有限公司 知识图谱构建方法及装置
CN109064313A (zh) * 2018-07-20 2018-12-21 重庆富民银行股份有限公司 基于知识图谱技术的贷后预警监测系统
CN109299255A (zh) * 2018-09-12 2019-02-01 东莞数汇大数据有限公司 基于朴素贝叶斯的案件文本分类方法、系统和存储介质
CN109871452A (zh) * 2019-01-31 2019-06-11 深度好奇(北京)科技有限公司 确定犯罪特征的方法、装置以及存储介质
CN110443143A (zh) * 2019-07-09 2019-11-12 武汉科技大学 多分支卷积神经网络融合的遥感图像场景分类方法
CN110458373A (zh) * 2019-08-22 2019-11-15 电子科技大学成都学院 一种基于知识图谱融合的犯罪预测方法及系统
CN111010595A (zh) * 2019-12-25 2020-04-14 广州欢聊网络科技有限公司 一种新节目推荐的方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
苗林林等: "基于知识图谱可视化分析法的电信诈骗研究", 《公安学刊-浙江警察学院学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113919544A (zh) * 2021-08-30 2022-01-11 浙江警察学院 犯罪预警方法、装置、计算机设备及存储介质
CN113919544B (zh) * 2021-08-30 2022-05-27 浙江警察学院 犯罪预警方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
CN112069392B (zh) 2021-08-27

Similar Documents

Publication Publication Date Title
CN109615116B (zh) 一种电信诈骗事件检测方法和检测系统
CN110674840B (zh) 一种多方证据关联模型构建方法和证据链提取方法及装置
CN109672674A (zh) 一种网络威胁情报可信度识别方法
CN113326377A (zh) 一种基于企业关联关系的人名消歧方法及系统
CN111368529B (zh) 基于边缘计算的移动终端敏感词识别方法、装置及系统
CN112015901A (zh) 文本分类方法及装置、警情分析系统
CN116596095B (zh) 基于机器学习的碳排放量预测模型的训练方法及装置
CN107145516A (zh) 一种文本聚类方法及系统
CN112560105B (zh) 保护多方数据隐私的联合建模方法及装置
CN111177367A (zh) 案件分类方法、分类模型训练方法及相关产品
CN112016313A (zh) 口语化要素识别方法及装置、警情分析系统
CN108228687A (zh) 大数据知识挖掘及精准跟踪方法与系统
CN109858974A (zh) 已购车用户识别模型构建方法及识别方法
CN115688024A (zh) 基于用户内容特征和行为特征的网络异常用户预测方法
Song Sentiment analysis of Japanese text and vocabulary learning based on natural language processing and SVM
CN116975267A (zh) 一种信息处理方法、装置及计算机设备、介质、产品
CN113887214B (zh) 基于人工智能的意愿推测方法、及其相关设备
CN118468061A (zh) 一种算法自动匹配及参数优化方法及系统
CN112069392B (zh) 涉网犯罪防控方法、装置、计算机设备及存储介质
WO2024087754A1 (zh) 一种多维度文本综合辨识方法
KR102663767B1 (ko) Ai기반 가상자산 고위험 지갑주소 db 자동 업데이트 방법
Chang et al. Automated feature engineering for fraud prediction in online credit loan services
CN116541792A (zh) 一种基于图神经网络节点分类进行团伙识别的方法
CN112070112B (zh) 涉网犯罪分类方法、装置、计算机设备及存储介质
CN113177164B (zh) 基于大数据的多平台协同新媒体内容监控管理系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant