CN113111176A - 基于深度学习模型作案手段识别方法与装置、设备及介质 - Google Patents

基于深度学习模型作案手段识别方法与装置、设备及介质 Download PDF

Info

Publication number
CN113111176A
CN113111176A CN202010349352.3A CN202010349352A CN113111176A CN 113111176 A CN113111176 A CN 113111176A CN 202010349352 A CN202010349352 A CN 202010349352A CN 113111176 A CN113111176 A CN 113111176A
Authority
CN
China
Prior art keywords
word
descriptor
text
sequence
participle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010349352.3A
Other languages
English (en)
Inventor
彭涛
张鹏
杨欣雨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Mingyi Technology Co ltd
Original Assignee
Beijing Mingyi Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Mingyi Technology Co ltd filed Critical Beijing Mingyi Technology Co ltd
Priority to CN202010349352.3A priority Critical patent/CN113111176A/zh
Publication of CN113111176A publication Critical patent/CN113111176A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/18Legal services

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Tourism & Hospitality (AREA)
  • Computing Systems (AREA)
  • Technology Law (AREA)
  • Databases & Information Systems (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了基于深度学习模型作案手段识别方法与装置、设备及介质。该方法的一具体实施方式包括:对待识别接处警文本进行切词得到相应的分词序列;对于所得到的分词序列中的每个分词,将该分词对应的词向量输入作案手段描述词分类模型以确定该分词是否为作案手段描述词,其中,上述作案手段描述词分类模型是基于深度学习模型预先训练得到的,作案手段描述词为用于描述作案手段的作案手段描述文本中的词语;用所得到的分词序列中由连续相邻的作案手段描述词组成的分词序列片段生成作案手段描述文本;用所生成的各作案手段描述文本生成上述待识别接处警文本对应的作案手段描述文本集合。该实施方式实现了自动提取接处警文本中的作案手段描述文本。

Description

基于深度学习模型作案手段识别方法与装置、设备及介质
技术领域
本公开涉及计算机技术领域,具体涉及基于深度学习模型作案手段识别方法与装置、设备及介质。
背景技术
公安机关在接警后会生成接警文本,在处警后会生成处警文本。接处警文本即包括上述接警文本和处警文本。实践中,有的接处警文本中会涉及关于作案手段的描述。这里,作案手段指作案人员为达到目的在作案过程中所采取的方法和措施。例如,在盗抢窃类案件中,可以包括溜门盗窃、翻窗盗窃、持刀抢劫、徒步抢劫、骑摩托车抢等具体的作案手段。对公安机关而言,不同的作案手段的实际作战情况可能不同。比如发现某小区经常有人翻窗,可能会去调查是否是同一个人翻窗,如果是则针对同一个人部署抓捕工作。或者针对某小区的翻窗盗窃作案手段,可以在该小区定制关于翻窗盗窃作案的相应宣传内容等。因此,对公安机关而言,通过接处警文本识别出作案手段至关重要,即提取出接处警文本中用于描述作案手段的作案手段描述文本是很重要的。
然而,目前基本是靠人工提取接处警文本中的作案手段描述文本,所需的人力和时间成本较高。尤其是每天公安机关都会产生大量的接处警文本,人工提取无法满足实时性,存在严重滞后,对办案效率带来影响。另外,由于接处警文本大多采用自然语言描述、表达方式严重口语化且无规则,人工提取难度较高,依赖于人工经验,即人工提取接处警文本中的作案手段描述文本的过程学习成本较高。
发明内容
本公开提出了基于深度学习模型作案手段识别方法与装置、设备及介质。
第一方面,本公开提供了一种基于深度学习模型的作案手段识别方法,该方法包括:对待识别接处警文本进行切词得到相应的分词序列;对于所得到的分词序列中的每个分词,将该分词对应的词向量输入作案手段描述词分类模型以确定该分词是否为作案手段描述词,其中,上述作案手段描述词分类模型是基于深度学习模型预先训练得到的,作案手段描述词为用于描述作案手段的作案手段描述文本中的词语;用所得到的分词序列中由连续相邻的作案手段描述词组成的分词序列片段生成作案手段描述文本;用所生成的各作案手段描述文本生成上述待识别接处警文本对应的作案手段描述文本集合。
在一些可选的实施方式中,上述作案手段描述词分类模型是通过如下训练步骤预先训练得到的:获取训练样本集合,其中,训练样本包括对历史接处警文本进行切词所得到的分词序列以及对应的标注信息序列,标注信息序列中的标注信息用于指示相应分词序列中相应分词是否属于相应历史接处警文本所包括的作案手段描述文本;根据上述训练样本集合的各训练样本中的标注信息序列,确定上述训练样本集合的各训练样本的分词序列中的作案手段描述词和非作案手段描述词;生成正样本集合和负样本集合,其中,正样本包括所确定的作案手段描述词对应的词向量和用于指示是作案手段描述词的标注分类结果,负样本包括所确定的非作案手段描述词对应的词向量和用于指示非作案手段描述词的标注分类结果;以上述正样本集合和上述负样本集合中的词向量作为实际输入,以相应的标注分类结果作为期望输出,训练初始深度学习模型,得到上述作案手段描述词分类模型。
在一些可选的实施方式中,作案手段描述词对应的词向量和非作案手段描述词对应的词向量中的各分量分别与预设词典中的各词语一一对应,作案手段描述词对应的词向量中与该作案手段描述词对应的分量为该作案手段描述词的词频-逆文本频率指数,不同于该作案手段描述词对应的分量的分量为第一预设数值,非作案手段描述词对应的词向量中与该非作案手段描述词对应的分量为该非作案手段描述词的词频-逆文本频率指数,不同于该非作案手段描述词对应的分量的分量为上述第一预设数值。
在一些可选的实施方式中,上述正样本集合中正样本的数目除以上述负样本集合中负样本的数目所得的比值在预设比例范围内。
第二方面,本公开提供了一种基于深度学习模型的作案手段识别装置,该装置包括:切词单元,被配置成对待识别接处警文本进行切词得到相应的分词序列;分类单元,被配置成对于所得到的分词序列中的每个分词,将该分词对应的词向量输入作案手段描述词分类模型以确定该分词是否为作案手段描述词,其中,上述作案手段描述词分类模型是基于深度学习模型预先训练得到的,作案手段描述词为用于描述作案手段的作案手段描述文本中的词语;第一生成单元,被配置成用所得到的分词序列中由连续相邻的作案手段描述词组成的分词序列片段生成作案手段描述文本;第二生成单元,被配置成用所生成的各作案手段描述文本生成上述待识别接处警文本对应的作案手段描述文本集合。
在一些可选的实施方式中,上述作案手段描述词分类模型是通过如下训练步骤预先训练得到的:获取训练样本集合,其中,训练样本包括对历史接处警文本进行切词所得到的分词序列以及对应的标注信息序列,标注信息序列中的标注信息用于指示相应分词序列中相应分词是否为相应历史接处警文本所包括的作案手段描述文本中的作案手段描述词;根据上述训练样本集合的各训练样本中的标注信息序列,确定上述训练样本集合的各训练样本的分词序列中的作案手段描述词和非作案手段描述词;生成正样本集合和负样本集合,其中,正样本包括所确定的作案手段描述词对应的词向量和用于指示是作案手段描述词的标注分类结果,负样本包括所确定的非作案手段描述词对应的词向量和用于指示非作案手段描述词的标注分类结果;以上述正样本集合和上述负样本集合中的词向量作为实际输入,以相应的标注分类结果作为期望输出,训练初始深度学习模型,得到上述作案手段描述词分类模型。
在一些可选的实施方式中,作案手段描述词对应的词向量和非作案手段描述词对应的词向量中的各分量分别与预设词典中的各词语一一对应,作案手段描述词对应的词向量中与该作案手段描述词对应的分量为该作案手段描述词的词频-逆文本频率指数,不同于该作案手段描述词对应的分量的分量为第一预设数值,非作案手段描述词对应的词向量中与该非作案手段描述词对应的分量为该非作案手段描述词的词频-逆文本频率指数,不同于该非作案手段描述词对应的分量的分量为上述第一预设数值。
在一些可选的实施方式中,上述正样本集合中正样本的数目除以上述负样本集合中负样本的数目所得的比值在预设比例范围内。
第三方面,本公开提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本公开提供了一种计算机可读存储介质,其上存储有计算机程序,其中,该计算机程序被一个或多个处理器执行时实现如第一方面中任一实现方式描述的方法。
本公开提供的基于深度学习模型的作案手段识别方法和装置,通过首先对待识别接处警文本进行切词得到相应的分词序列。再对于所得到的分词序列中的每个分词,将该分词对应的词向量输入作案手段描述词分类模型以确定该分词是否为作案手段描述词。而后,用所得到的分词序列中由连续相邻的作案手段描述词组成的分词序列片段生成作案手段描述文本。最后,用所生成的各作案手段描述文本生成待识别接处警文本对应的作案手段描述文本集合。整个过程无需人工操作,降低了生成与待识别接处警文本对应的作案手段描述文本集合的人工成本和时间成本。当上述作案手段识别方法和装置应用于处理大量近期(例如一天之内)产生的接处警文本时,可以快速从大量的接处警文本中提取出作案手段描述文本集合。有了提取出的作案手段描述文本,公安机关可以及时根据所得到的作案手段描述文本进行相应处理,提高了公安机关对不同作案手段最新动态、情况的处理反应速度,以及可以实现公安机关对不同作案手段最新动态、情况的精准应对,提高办案效率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的基于深度学习模型的作案手段识别方法的一个实施例的流程图;
图3是根据本公开的训练步骤的一个实施例的流程图;
图4是根据本公开的基于深度学习模型的作案手段识别装置的一个实施例的结构示意图;
图5是适于用来实现本公开的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的基于深度学习模型的作案手段识别方法或基于深度学习模型的作案手段识别装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、网络102和服务器103。网络102用以在终端设备101和服务器103之间提供通信链路的介质。网络102可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101通过网络102与服务器103交互,以接收或发送消息等。终端设备101上可以安装有各种通讯客户端应用,例如接处警记录类应用、接处警文本作案手段识别类应用、网页浏览器应用等。
终端设备101可以是硬件,也可以是软件。当终端设备101为硬件时,可以是具有显示屏并且支持文本输入的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供接处警文本作案手段识别服务),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器103可以是提供各种服务的服务器,例如对终端设备101发送的接处警文本提供作案手段识别服务的后台服务器。后台服务器可以对接收到的接处警文本进行分析等处理,并将处理结果(例如作案手段描述文本集合)反馈给终端设备。
在一些情况下,本公开所提供的基于深度学习模型的作案手段识别方法可以由终端设备101和服务器103共同执行,例如,“对待识别接处警文本进行切词得到相应的分词序列”的步骤可以由终端设备101执行,其余步骤可以由服务器103执行。本公开对此不做限定。相应地,基于深度学习模型的作案手段识别装置也可以分别设置于终端设备101和服务器103中。
在一些情况下,本公开所提供的基于深度学习模型的作案手段识别方法可以由服务器103执行,相应地,基于深度学习模型的作案手段识别装置也可以设置于服务器103中,这时,系统架构100也可以不包括终端设备101。
在一些情况下,本公开所提供的基于深度学习模型的作案手段识别方法可以由终端设备101执行,相应地,基于深度学习模型的作案手段识别装置也可以设置于终端设备101中,这时,系统架构100也可以不包括服务器103。
需要说明的是,服务器103可以是硬件,也可以是软件。当服务器103为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器103为软件时,可以实现成多个软件或软件模块(例如用来提供接处警文本作案手段识别服务),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,其示出了根据本公开的基于深度学习模型的作案手段识别方法的一个实施例的流程200。该基于深度学习模型的作案手段识别方法,包括以下步骤:
步骤201,对待识别接处警文本进行切词得到相应的分词序列。
在本实施例中,基于深度学习模型的作案手段识别方法的执行主体(例如,图1所示的服务器)可以首先获取待识别接处警文本。然后,可以采用各种切词方法对所获取的待识别接处警文本进行切词得到相应的分词序列。
这里,上述执行主体可以获取本地存储的待识别接处警文本,或者上述执行主体也可以远程地从与上述执行主体网络连接的其他电子设备(例如,图1所示的终端设备)获取待识别接处警文本。
这里,待识别接处警文本可以是接警员根据接警电话的内容整理的文本数据或者处警员根据处警过程整理的文本数据。待识别接处警文本也可以是从终端设备接收的用户在终端设备上安装的报警类应用或者具备报警功能的网页中输入的报警文本。
需要说明的是,如何对文本进行切词是本领域广泛研究和应用的现有技术,在此不再赘述。例如,可以采用基于字符串匹配的分词方法、基于理解的分词方法或者基于统计的分词方法等等。例如,对待识别接处警文本“有人报警称某街道有人持刀抢劫”进行切词可以得到分词序列“有/人/报警/称/某/街道/有/人/持/刀/抢劫”。
步骤202,对于所得到的分词序列中的每个分词,将该分词对应的词向量输入作案手段描述词分类模型以确定该分词是否为作案手段描述词。
在本实施例中,上述执行主体可以对于所得到的分词序列中的每个分词,首先确定该分词对应的词向量,然后将该分词对应的词向量输入作案手段描述词分类模型以确定该分词是否为作案手段描述词。这里,作案手段描述词可以是用于描述作案手段的作案手段描述文本中的词语。
这里,作案手段描述词分类模型可以是基于深度学习模型预先训练得到的。作案手段描述词分类模型用于表征词语对应的词向量与用于表征该词语是否是作案手段描述词的分类结果之间的对应关系。可以理解的是,将该分词对应的词向量输入作案手段描述词分类模型后,如果得到的是用于表征该分词是作案手段描述词的分类结果,可以确定该分词为作案手段描述词;反之,如果得到的是用于表征该分词不是作案手段描述词的分类结果,可以确定该分词不是作案手段描述词。
作为示例,作案手段描述词分类模型可以是基于大量的样本词语的词向量和对应的用于表征该样本词语是否为作案手段描述词的标注样本分类结果,对深度学习模型预先进行训练而得到的。
实践中,上述执行主体可以采用各种实现方式确定该分词对应的词向量。
在一些可选的实施方式中,该分词对应的词向量可以包括N维分量,其中,N为正整数,且上述N维分量中的各维分量分别与预设词典的各词语一一对应。在确定该分词对应的词向量的过程中,可以将该分词的词向量的各分量中与该分词对应的分量设置为第二预设数值(例如,1);将该分词对应的词向量的其他分量(即,与预设词典中不同于该分词的词语对应的分量)设置为第三预设数值(例如,0)。
在一些可选的实施方式中,该分词对应的词向量可以包括N维分量,其中,N为正整数,且上述N维分量中的各维分量分别与预设词典的各词语一一对应。在确定该分词对应的词向量的过程中,上述执行主体也可以首先计算该分词在待识别接处警文本中的词频-逆文本频率指数(TF-IDF,Term Frequency–Inverse Document Frequency),再将该分词对应的词向量中与该分词对应的分量设置为计算得到的该分词的词频-逆文本频率指数,最后再将该分词对应的词向量的其他分量(即,与预设词典中不同于该分词的词语对应的分量)设置为第四预设数值(例如,0)。
例如,对待识别接处警文本“有人报警称某街道有人持刀抢劫”相应的分词序列“有/人/报警/称/某/街道/有/人/持/刀/抢劫”中的每个分词,将该分词对应的词向量输入预先训练的作案手段描述词分类模型,得到用于表征该分词是否为作案手段描述词的分类结果。具体结果请参考表1,表1示出了将上述分词序列中各个分词分别输入上述作案手段描述词分类模型所得到的分类结果。
表1
分词 分类结果
报警
街道
抢劫
从表1中可以看出,分词序列“有/人/报警/称/某/街道/有/人/持/刀/抢劫”中是作案手段描述词的有“某/街道/有/人/持/刀/抢劫”这七个分词,不是作案手段描述词的有“有/人/报警/称”这四个分词。
需要说明的是,经过步骤202,可能所得到的分词序列中不包括任何作案手段描述词,也可能所得到的分词序列中包括至少一个作案手段描述词。
步骤203,用所得到的分词序列中由连续相邻的作案手段描述词组成的分词序列片段生成作案手段描述文本。
在步骤202中已经确定了步骤201中所得到的分词序列中哪些词是作案手段描述词,哪些词不是作案手段描述词,而分词序列中的各个分词是按照其在待识别接处警文本中的出现顺序排列的。如果分词序列中存在连续相邻的作案手段描述词,而作案手段描述词是作案手段描述文本中的词,即可以认为这些连续相邻的作案手段描述词可以组成作案手段描述文本。因此,在本实施例中,上述执行主体可以用所得到的分词序列中由连续相邻的作案手段描述词组成的分词序列片段生成作案手段描述文本。
为便于理解,继续沿用上述待识别接处警文本的举例以及表1的分类结果可知,分词序列“有/人/报警/称/某/街道/有/人/持/刀/抢劫”中由连续作案手段描述词组成的分词序列片段为“某/街道/有/人/持/刀/抢劫”,而用该分词序列片段生成的文本“某街道有人持刀抢劫”即为作案手段描述文本。
需要说明的是,如果经过步骤202,确定所得到的分词序列中不包括任何作案手段描述词,则在执行步骤203时不会生成作案手段描述文本。如果经过步骤202后,所得到的分词序列中包括至少一个作案手段描述词,但该分词序列中可能包括一个由连续相邻的作案手段描述词组成的分词序列片段,则在执行步骤203时可以用上述所包括的一个分词序列片段生成一个作案手段描述文本。还可能该分词序列中包括多于一个由连续相邻的作案手段描述词组成的分词序列片段,比如包括S个分词序列片段,S为大于等于2的正整数,则在执行完步骤203后可以分别用上述S个分词序列片段中每个分词序列片段生成相应的作案手段描述文本,即可以生成S个作案手段描述文本。
步骤204,用所生成的各作案手段描述文本生成待识别接处警文本对应的作案手段描述文本集合。
在本实施例中,上述执行主体可以用步骤203中所生成的各作案手段描述文本生成待识别接处警文本对应的作案手段描述文本集合。
需要说明的是,由于步骤203中生成的作案手段描述文本的数量可能为0,1或者大于1的正整数,则步骤204中生成的作案手段描述文本集合中可能包括的作案手段描述文本的数量也可能是0,1或者大于1的正整数。即,可能待识别接处警文本中存在至少一段描述作案手段的作案手段描述文本,也可能待识别接处警文本中不存在描述作案手段的作案手段描述文本。
在一些可选的实现方式中,作案手段描述词分类模型可以是通过如图3所示的训练步骤预先训练得到的。请参考图3,图3示出了根据本公开的训练步骤的一个实施例的流程300。该训练步骤包括以下步骤:
这里,训练步骤的执行主体可以与上述基于深度学习模型的作案手段识别方法的执行主体相同。这样,训练步骤的执行主体可以在训练得到作案手段分类模型后,将作案手段分类模型的模型参数存储在上述执行主体本地,并在执行上述基于深度学习模型的作案手段识别方法的过程中读取上述训练得到的作案手段描述词分类模型的模型结构信息和模型参数信息。
这里,训练步骤的执行主体也可以与上述基于深度学习模型的作案手段识别方法的执行主体不同。这样,训练步骤的执行主体可以在训练得到作案手段描述词分类模型后,将作案手段描述词分类模型的模型参数发送给上述基于深度学习模型的作案手段识别方法的执行主体。这样,上述基于深度学习模型的作案手段识别方法的执行主体可以在执行上述基于深度学习模型的作案手段识别方法的过程中读取上述从训练步骤的执行主体接收到的作案手段描述词分类模型的模型结构信息和模型参数信息。
步骤301,获取训练样本集合。
这里,训练步骤的执行主体可以首先获取训练样本集合。其中,每个训练样本可以包括对历史接处警文本进行切词所得到的分词序列以及对应的标注信息序列,标注信息序列中的标注信息用于指示相应分词序列中相应分词是否属于相应历史接处警文本所包括的作案手段描述文本。
作为示例,训练样本可以包括对历史接处警文本“有人报警称某街道有人持刀抢劫”进行切词所得到的分词序列“有/人/报警/称/某/街道/有/人/持/刀/抢劫”和对应的标注信息序列“0/0/0/0/1/1/1/1/1/1/1”,其中,“0”用于指示分词序列“有/人/报警/称/某/街道/有/人/持/刀/抢劫”中与该“0”在标注信息序列中所在位置相同的位置对应的分词不是作案手段描述词,而“1”用于指示分词序列“有/人/报警/称/某/街道/有/人/持/刀/抢劫”中与该“1”在标注信息序列中所在位置相同的位置对应的分词是作案手段描述词。也就是,其中,“某/街道/有/人/持/刀/抢劫”这七个分词是作案手段描述词,而“有/人/报警/称”这三个分词不是作案手段描述词。
实践中,可以采用各种实现方式对历史接处警文本进行切词得到分词序列,可以参看前文相关记载,在此不再赘述。而分词序列对应的标注信息序列可以通过人工标注得到。
步骤302,根据训练样本集合的各训练样本中的标注信息序列,确定训练样本集合的各训练样本的分词序列中的作案手段描述词和非作案手段描述词。
由于每个训练样本中包括了分词序列和相应的标注信息序列,而标注信息序列表征了相应分词序列中相应分词是否属于该分词序列对应的历史接处警文本所包括的作案手段描述文本,而如果分词序列中的某个词属于该分词序列对应的历史接处警文本所包括的作案手段描述文本,则可以认为该分词相对于该历史接处警文本为作案手段描述词。如果分词序列中的某个词不属于该分词序列对应的历史接处警文本所包括的作案手段描述文本,则可以认为该分词相对于该历史接处警文本为非作案手段描述词。因此,训练步骤的执行主体可以根据训练样本集合的各训练样本中的标注信息序列,确定训练样本集合的各训练样本的分词序列中的作案手段描述词和非作案手段描述词。可以理解的是,实践中,可能出现某个词相对于一个历史接处警文本为作案手段描述词,而相对于另一个历史接处警文本为非作案手段描述词。
步骤303,生成正样本集合和负样本集合。
这里,训练步骤的执行主体可以基于步骤302所确定的作案手段描述词和非作案手段描述词,采用各种方式生成正样本集合和负样本集合。其中,正样本可以包括所确定的作案手段描述词对应的词向量和用于指示是作案手段描述词的标注分类结果,负样本可以包括所确定的非作案手段描述词对应的词向量和用于指示非作案手段描述词的标注分类结果。
在一些可选的实施方式中,训练步骤的执行主体可以用步骤302中所确定的所有作案手段描述词对应的词向量和用于指示是作案手段描述词的标注分类结果生成正样本集合,用步骤302中所确定的所有非作案手段描述词对应的词向量和用于指示非作案手段描述词的标注分类结果生成负样本集合。
在一些可选的实施方式中,为了控制正样本和负样本的数量比以达到较好的训练效果,训练步骤的执行主体可以从步骤302中所确定的作案手段描述词和非作案手段描述词中选取相应数量的作案手段描述词和非作案手段描述词以生成正样本集合和负样本集合,并且,所生成的正样本集合中正样本的数目除以负样本集合中负样本的数目所得的比值在预设比例范围内。例如,预设比例范围可以是大于等于2小于等于6。即,相对而言正样本数量多于负样本数量,但也要有负样本。
在一些可选的实施方式中,作案手段描述词对应的词向量和非作案手段描述词对应的词向量可以包括N维分量,其中,N为正整数,且上述N维分量中的各维分量分别与预设词典的各词语一一对应。在确定作案手段描述词和非作案手段描述词对应的词向量的过程中,可以将作案手段描述词和非作案手段描述词对应的词向量的各分量中与该作案手段描述词和非作案手段描述词对应的分量设置为第二预设数值(例如,1);将该分词对应的词向量的其他分量(即,与预设词典中不同于该作案手段描述词和非作案手段描述词的词语对应的分量)设置为第三预设数值(例如,0)。
在一些可选的实现方式中,作案手段描述词对应的词向量和非作案手段描述词对应的词向量中的各分量可以分别与预设词典中的各词语一一对应,作案手段描述词对应的词向量中与该作案手段描述词对应的分量可以为该作案手段描述词的词频-逆文本频率指数,不同于该作案手段描述词对应的分量的分量可以为第一预设数值(例如,0),非作案手段描述词对应的词向量中与该非作案手段描述词对应的分量可以为该非作案手段描述词的词频-逆文本频率指数,不同于该非作案手段描述词对应的分量的分量为第一预设数值(例如,0)。
步骤304,以正样本集合和负样本集合中的词向量作为实际输入,以相应的标注分类结果作为期望输出,训练初始深度学习模型,得到作案手段描述词分类模型。
这里,有了正样本集合和负样本集合,训练步骤的执行主体可以以正样本集合和负样本集合中的词向量作为实际输入,以相应的标注分类结果作为期望输出,训练初始深度学习模型,得到作案手段描述词分类模型。具体而言,可以如下进行:
首先,可以确定初始深度学习模型的模型结构。
这里,初始深度学习模型可以包括各种深度学习模型。例如,初始深度学习模型可以包括以下至少一项:卷积神经网络、循环神经网络、长短期记忆网络、条件随机场。
作为示例,如果确定初始深度学习模型为卷积神经网络,这里可以确定卷积神经网络具体包括哪些层,比如包括哪些卷积层、池化层、全连接层,以及层与层之间的先后连接关系。如果包括卷积层,可以确定卷积层的卷积核的大小,卷积步长。如果包括池化层,可以确定池化方法。
其次,可以确定初始深度学习模型所包括的模型参数的初始值。
例如,如果确定初始深度学习模型为卷积神经网络,这里可以对卷积神经网络中可能包括的卷积层的卷积核参数进行初始化,针对全连接层的连接参数进行初始化等等。
最后,可以执行参数调整操作,直到满足预设训练结束条件,上述参数调整操作可以包括:将正样本集合中的正样本中的作案手段描述词对应的词向量或者负样本集合中的负样本中的非作案手段描述词对应的词向量输入初始深度学习模型,输入初始深度学习模型得到相应的实际输出结果,再计算上述所得到的实际输出结果和相应的用于指示是作案手段描述词的标注分类结果或者用于指示非作案手段描述词的标注分类结果之间的差异,并基于所得到的差异调整上述初始深度学习模型的模型参数。这里,训练结束条件例如可以包括以下至少一项:执行参数调整操作的次数达到预设最多训练次数,计算得到的差异小于预设差异阈值,针对正样本集合和负样本集合中的均已执行过参数调整操作。
经过上述参数调整操作,初始深度学习模型的模型参数得到了优化,可以将上述参数优化之后的初始深度学习模型确定为作案手段描述词分类模型。需要说明的是,如何基于计算所得到的差异对初始深度学习模型的模型参数进行调整优化是本领域广泛研究和应用的现有技术,在此不再赘述。例如,可以采用梯度下降法。
利用上述流程300所示的训练步骤,可以自动生成作案手段描述词分类模型,降低了生成作案手段描述词分类模型的人工成本。随着时间的推移,人们表达方式会产生变化,反应在接处警文本中也会产生变化,另外随着社会的发展也可能会出现新型的作案手段。这时,可以获取新的训练样本集合采用训练步骤重新进行训练得到更新后的作案手段描述词分类模型,以符合当前接处警文本的表达方式变化需求以及新型的作案手段描述词的提取需求。
本公开的上述实施例提供的方法通过利用预先训练的作案手段描述词分类模型,将对待识别接处警文本进行切词得到分词序列中的每个分词对应的词向量输入上述作案手段描述词分类模型,以确定每个分词是否为作案手段描述词。最后,基于上述确定的分类结果,生成待识别接处警文本对应的作案手段描述文本集合。从而实现了自动生成待识别接处警文本对应的作案手段描述文本集合,降低了人工成本和时间成本。进而,基于所得到的作案手段描述文本,可以提高公安机关对作案手段最新动态、情况的处理反应速度,以及可以实现公安机关对作案手段最新动态、情况的精准应对。
进一步参考图4,作为对上述各图所示方法的实现,本公开提供了一种基于深度学习模型的作案手段识别装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例的基于深度学习模型的作案手段识别装置400包括:切词单元401、分类单元402、第一生成单元403和第二生成单元404。其中,切词单元401,被配置成对待识别接处警文本进行切词得到相应的分词序列;分类单元402,被配置成对于所得到的分词序列中的每个分词,将该分词对应的词向量输入作案手段描述词分类模型以确定该分词是否为作案手段描述词,其中,上述作案手段描述词分类模型是基于深度学习模型预先训练得到的,作案手段描述词为用于描述作案手段的作案手段描述文本中的词语;第一生成单元403,被配置成用所得到的分词序列中由连续相邻的作案手段描述词组成的分词序列片段生成作案手段描述文本;而第二生成单元404,被配置成用所生成的各作案手段描述文本生成上述待识别接处警文本对应的作案手段描述文本集合。
在本实施例中,基于深度学习模型的作案手段识别装置400的切词单元401、分类单元402、第一生成单元403和第二生成单元404的具体处理及其所带来的技术效果可分别参考图2对应实施例中步骤201、步骤202、步骤203和步骤204的相关说明,在此不再赘述。
在一些可选的实施方式中,上述作案手段描述词分类模型可以是通过如下训练步骤预先训练得到的:获取训练样本集合,其中,训练样本包括对历史接处警文本进行切词所得到的分词序列以及对应的标注信息序列,标注信息序列中的标注信息用于指示相应分词序列中相应分词是否为相应历史接处警文本所包括的作案手段描述文本中的作案手段描述词;根据上述训练样本集合的各训练样本中的标注信息序列,确定上述训练样本集合的各训练样本的分词序列中的作案手段描述词和非作案手段描述词;生成正样本集合和负样本集合,其中,正样本包括所确定的作案手段描述词对应的词向量和用于指示是作案手段描述词的标注分类结果,负样本包括所确定的非作案手段描述词对应的词向量和用于指示非作案手段描述词的标注分类结果;以上述正样本集合和上述负样本集合中的词向量作为实际输入,以相应的标注分类结果作为期望输出,训练初始深度学习模型,得到上述作案手段描述词分类模型。
在一些可选的实施方式中,作案手段描述词对应的词向量和非作案手段描述词对应的词向量中的各分量可以分别与预设词典中的各词语一一对应,作案手段描述词对应的词向量中与该作案手段描述词对应的分量可以为该作案手段描述词的词频-逆文本频率指数TF-IDF,不同于该作案手段描述词对应的分量的分量可以为第一预设数值,非作案手段描述词对应的词向量中与该非作案手段描述词对应的分量可以为该非作案手段描述词的词频-逆文本频率指数TF-IDF,不同于该非作案手段描述词对应的分量的分量可以为上述第一预设数值。
在一些可选的实施方式中,上述正样本集合中正样本的数目除以上述负样本集合中负样本的数目所得的比值可以在预设比例范围内。
需要说明的是,本公开提供的基于深度学习模型的作案手段识别装置中各单元的实现细节和技术效果可以参考本公开中其它实施例的说明,在此不再赘述。
下面参考图5,其示出了适于用来实现本公开的电子设备的计算机系统500的结构示意图。图5示出的电子设备仅仅是一个示例,不应对本公开的功能和使用范围带来任何限制。
如图5所示,计算机系统500包括中央处理单元(CPU,Central Processing Unit)501,其可以根据存储在只读存储器(ROM,Read Only Memory)502中的程序或者从存储部分508加载到随机访问存储器(RAM,Random Access Memory)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有系统500操作所需的各种程序和数据。CPU 501、ROM502以及RAM 503通过总线504彼此相连。输入/输出(I/O,Input/Output)接口505也连接至总线504。
以下部件连接至I/O接口505:包括触控屏、手写板、键盘或鼠标等的输入部分506;包括诸如阴极射线管(CRT,Cathode Ray Tube)、液晶显示器(LCD,Liquid CrystalDisplay)等以及扬声器等的输出部分507;包括硬盘等的存储部分508;以及包括诸如LAN(局域网,Local Area Network)卡、调制解调器等的网络接口卡的通信部分509。通信部分509经由诸如因特网的网络执行通信处理。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分509从网络上被下载和安装。在该计算机程序被中央处理单元(CPU)501执行时,执行本公开的方法中限定的上述功能。需要说明的是,本公开所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++、Python,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括切词单元、分类单元、第一生成单元和第二生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,切词单元还可以被描述为“对待识别接处警文本进行切词得到相应的分词序列的单元”。
作为另一方面,本公开还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:对待识别接处警文本进行切词得到相应的分词序列;对于所得到的分词序列中的每个分词,将该分词对应的词向量输入作案手段描述词分类模型以确定该分词是否为作案手段描述词,其中,上述作案手段描述词分类模型是基于深度学习模型预先训练得到的,作案手段描述词为用于描述作案手段的作案手段描述文本中的词语;用所得到的分词序列中由连续相邻的作案手段描述词组成的分词序列片段生成作案手段描述文本;用所生成的各作案手段描述文本生成上述待识别接处警文本对应的作案手段描述文本集合。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种基于深度学习模型的作案手段识别方法,包括:
对待识别接处警文本进行切词得到相应的分词序列;
对于所得到的分词序列中的每个分词,将该分词对应的词向量输入作案手段描述词分类模型以确定该分词是否为作案手段描述词,其中,所述作案手段描述词分类模型是基于深度学习模型预先训练得到的,作案手段描述词为用于描述作案手段的作案手段描述文本中的词语;
用所得到的分词序列中由连续相邻的作案手段描述词组成的分词序列片段生成作案手段描述文本;
用所生成的各作案手段描述文本生成所述待识别接处警文本对应的作案手段描述文本集合。
2.根据权利要求1所述的方法,其中,所述作案手段描述词分类模型是通过如下训练步骤预先训练得到的:
获取训练样本集合,其中,训练样本包括对历史接处警文本进行切词所得到的分词序列以及对应的标注信息序列,标注信息序列中的标注信息用于指示相应分词序列中相应分词是否属于相应历史接处警文本所包括的作案手段描述文本;
根据所述训练样本集合的各训练样本中的标注信息序列,确定所述训练样本集合的各训练样本的分词序列中的作案手段描述词和非作案手段描述词;
生成正样本集合和负样本集合,其中,正样本包括所确定的作案手段描述词对应的词向量和用于指示是作案手段描述词的标注分类结果,负样本包括所确定的非作案手段描述词对应的词向量和用于指示非作案手段描述词的标注分类结果;
以所述正样本集合和所述负样本集合中的词向量作为实际输入,以相应的标注分类结果作为期望输出,训练初始深度学习模型,得到所述作案手段描述词分类模型。
3.根据权利要求2所述的方法,其中,作案手段描述词对应的词向量和非作案手段描述词对应的词向量中的各分量分别与预设词典中的各词语一一对应,作案手段描述词对应的词向量中与该作案手段描述词对应的分量为该作案手段描述词的词频-逆文本频率指数TF-IDF,不同于该作案手段描述词对应的分量的分量为第一预设数值,非作案手段描述词对应的词向量中与该非作案手段描述词对应的分量为该非作案手段描述词的词频-逆文本频率指数TF-IDF,不同于该非作案手段描述词对应的分量的分量为所述第一预设数值。
4.根据权利要求3所述的方法,其中,所述正样本集合中正样本的数目除以所述负样本集合中负样本的数目所得的比值在预设比例范围内。
5.一种基于深度学习模型的作案手段识别装置,包括:
切词单元,被配置成对待识别接处警文本进行切词得到相应的分词序列;
分类单元,被配置成对于所得到的分词序列中的每个分词,将该分词对应的词向量输入作案手段描述词分类模型以确定该分词是否为作案手段描述词,其中,所述作案手段描述词分类模型是基于深度学习模型预先训练得到的,作案手段描述词为用于描述作案手段的作案手段描述文本中的词语;
第一生成单元,被配置成用所得到的分词序列中由连续相邻的作案手段描述词组成的分词序列片段生成作案手段描述文本;
第二生成单元,被配置成用所生成的各作案手段描述文本生成所述待识别接处警文本对应的作案手段描述文本集合。
6.根据权利要求5所述的装置,其中,所述作案手段描述词分类模型是通过如下训练步骤预先训练得到的:
获取训练样本集合,其中,训练样本包括对历史接处警文本进行切词所得到的分词序列以及对应的标注信息序列,标注信息序列中的标注信息用于指示相应分词序列中相应分词是否为相应历史接处警文本所包括的作案手段描述文本中的作案手段描述词;
根据所述训练样本集合的各训练样本中的标注信息序列,确定所述训练样本集合的各训练样本的分词序列中的作案手段描述词和非作案手段描述词;
生成正样本集合和负样本集合,其中,正样本包括所确定的作案手段描述词对应的词向量和用于指示是作案手段描述词的标注分类结果,负样本包括所确定的非作案手段描述词对应的词向量和用于指示非作案手段描述词的标注分类结果;
以所述正样本集合和所述负样本集合中的词向量作为实际输入,以相应的标注分类结果作为期望输出,训练初始深度学习模型,得到所述作案手段描述词分类模型。
7.根据权利要求6所述的装置,其中,作案手段描述词对应的词向量和非作案手段描述词对应的词向量中的各分量分别与预设词典中的各词语一一对应,作案手段描述词对应的词向量中与该作案手段描述词对应的分量为该作案手段描述词的词频-逆文本频率指数TF-IDF,不同于该作案手段描述词对应的分量的分量为第一预设数值,非作案手段描述词对应的词向量中与该非作案手段描述词对应的分量为该非作案手段描述词的词频-逆文本频率指数TF-IDF,不同于该非作案手段描述词对应的分量的分量为所述第一预设数值。
8.根据权利要求7所述的装置,其中,所述正样本集合中正样本的数目除以所述负样本集合中负样本的数目所得的比值在预设比例范围内。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-4中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-4中任一所述的方法。
CN202010349352.3A 2020-04-28 2020-04-28 基于深度学习模型作案手段识别方法与装置、设备及介质 Pending CN113111176A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010349352.3A CN113111176A (zh) 2020-04-28 2020-04-28 基于深度学习模型作案手段识别方法与装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010349352.3A CN113111176A (zh) 2020-04-28 2020-04-28 基于深度学习模型作案手段识别方法与装置、设备及介质

Publications (1)

Publication Number Publication Date
CN113111176A true CN113111176A (zh) 2021-07-13

Family

ID=76708890

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010349352.3A Pending CN113111176A (zh) 2020-04-28 2020-04-28 基于深度学习模型作案手段识别方法与装置、设备及介质

Country Status (1)

Country Link
CN (1) CN113111176A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106095996A (zh) * 2016-06-22 2016-11-09 量子云未来(北京)信息科技有限公司 用于文本分类的方法
CN106202177A (zh) * 2016-06-27 2016-12-07 腾讯科技(深圳)有限公司 一种文本分类方法及装置
CN109271574A (zh) * 2018-08-28 2019-01-25 麒麟合盛网络技术股份有限公司 一种热词推荐方法及装置
CN110795553A (zh) * 2019-09-09 2020-02-14 腾讯科技(深圳)有限公司 一种摘要生成方法及设备
CN110991171A (zh) * 2019-09-30 2020-04-10 奇安信科技集团股份有限公司 敏感词检测方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106095996A (zh) * 2016-06-22 2016-11-09 量子云未来(北京)信息科技有限公司 用于文本分类的方法
CN106202177A (zh) * 2016-06-27 2016-12-07 腾讯科技(深圳)有限公司 一种文本分类方法及装置
CN109271574A (zh) * 2018-08-28 2019-01-25 麒麟合盛网络技术股份有限公司 一种热词推荐方法及装置
CN110795553A (zh) * 2019-09-09 2020-02-14 腾讯科技(深圳)有限公司 一种摘要生成方法及设备
CN110991171A (zh) * 2019-09-30 2020-04-10 奇安信科技集团股份有限公司 敏感词检测方法及装置

Similar Documents

Publication Publication Date Title
CN111709240A (zh) 实体关系抽取方法、装置、设备及其存储介质
CN109087667B (zh) 语音流利度识别方法、装置、计算机设备及可读存储介质
CN108509921B (zh) 用于生成信息的方法和装置
CN112560504B (zh) 抽取表单文档中信息的方法、电子设备和计算机可读介质
CN112926308A (zh) 匹配正文的方法、装置、设备、存储介质以及程序产品
CN111723180A (zh) 一种面试方法和装置
CN113392920B (zh) 生成作弊预测模型的方法、装置、设备、介质及程序产品
CN113111167A (zh) 基于深度学习模型的接处警文本车辆型号提取方法和装置
CN113096687A (zh) 音视频处理方法、装置、计算机设备及存储介质
CN112633004A (zh) 文本标点符号删除方法、装置、电子设备和存储介质
CN113742450B (zh) 用户数据等级落标的方法、装置、电子设备和存储介质
CN113111174A (zh) 基于深度学习模型的群体识别方法与装置、设备及介质
CN114066603A (zh) 贷后风险预警方法、装置、电子设备和计算机可读介质
CN113111176A (zh) 基于深度学习模型作案手段识别方法与装置、设备及介质
CN113111897A (zh) 基于支持向量机的接警警情类别确定方法和装置
CN113111169A (zh) 基于深度学习模型的接处警文本地址信息提取方法和装置
CN113850072A (zh) 文本情感分析方法、情感分析模型训练方法、装置、设备及介质
CN113111165A (zh) 基于深度学习模型的接警警情类别确定方法和装置
CN113392215A (zh) 生产问题分类模型的训练方法、生产问题分类方法及装置
CN113111234A (zh) 基于正则表达式的处警警情类别确定方法和装置
CN113094499A (zh) 基于深度学习模型的组织识别方法与装置、设备及介质
CN113111175A (zh) 基于深度学习模型极端行为识别方法与装置、设备及介质
CN113111895A (zh) 基于支持向量机的处警警情类别确定方法和装置
CN113111170A (zh) 基于深度学习模型接处警文本轨迹地信息提取方法和装置
CN113111171A (zh) 基于深度学习模型的处警警情类别确定方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination