CN110503099B - 基于深度学习的信息识别方法及相关设备 - Google Patents

基于深度学习的信息识别方法及相关设备 Download PDF

Info

Publication number
CN110503099B
CN110503099B CN201910665925.0A CN201910665925A CN110503099B CN 110503099 B CN110503099 B CN 110503099B CN 201910665925 A CN201910665925 A CN 201910665925A CN 110503099 B CN110503099 B CN 110503099B
Authority
CN
China
Prior art keywords
scene
image
information
classification
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910665925.0A
Other languages
English (en)
Other versions
CN110503099A (zh
Inventor
张起
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910665925.0A priority Critical patent/CN110503099B/zh
Publication of CN110503099A publication Critical patent/CN110503099A/zh
Application granted granted Critical
Publication of CN110503099B publication Critical patent/CN110503099B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/03Credit; Loans; Processing thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Finance (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Accounting & Taxation (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Technology Law (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及图像分类识别技术领域,尤其涉及一种基于深度学习的信息识别方法及相关设备,所述方法包括:从所述待认证信息中抽取地理位置,根据所述地理位置从数据库中抽取出对应的背景图像;获取数个不同工作场景的样本场景图像,将所述样本场景图像入参到卷积神经网络模型中进行训练后得到场景分类模型;以实时场景图像作为待分类样本入参到所述场景分类模型中进行分类后得到所述场景图像类别信息;提取所述场景图像中的场景特征;提取所述背景图像的图像特征点,将所述图像特征点与所述场景特征进行比较。本申请通过在对贷款人贷款资格审核时,引入场景信息核验,从而避免了贷款人通过虚构工作情况以获得贷款申请资格的问题。

Description

基于深度学习的信息识别方法及相关设备
技术领域
本申请涉及图像分类识别技术领域,尤其涉及一种基于深度学习的信息识别方法及相关设备。
背景技术
随着经济和社会的不断发展,信贷业务已深入社会各阶层,影响着企业、机构、组织的运转以及个人的生活,同时信贷反欺诈技术也成为了信贷业务正常运转的基础。目前在贷款审核过程中需要对贷款人的身份进行多个信息采集然后在进行比较进而确定贷款人的身份,这就造成了识别贷款人身份过程需要耗费大量的人力物力,
虽然,目前市场上已经存在着多个针对欺诈行为的甄别方法,比如微表情识别、数据可靠性识别等。但是,目前在对贷款人身份信息进行识别时,存在着信息准确性低,无法将贷款人的工作场景图像中的元素进行快速有效识别的问题。
发明内容
基于此,有必要针对目前在对贷款人身份信息进行识别时,存在着信息准确性低,无法将贷款人的工作场景图像中的元素进行快速有效识别的问题,提供一种基于深度学习的信息识别方法及相关设备。
一种基于深度学习的信息识别方法,包括如下步骤:
接收客户端上传的待认证信息,从所述待认证信息中抽取出所述客户端上传所述待认证信息时的地理位置,根据所述地理位置从数据库中抽取出对应的背景图像;
获取数个不同工作场景的样本场景图像,将所述样本场景图像入参到卷积神经网络模型中进行训练后得到场景分类模型;
接收客户端上传的实时场景图像,将所述实时场景图像作为待分类样本入参到所述场景分类模型中进行分类后得到所述场景图像类别信息;
根据所述场景类别信息,提取所述场景图像中的场景特征;
提取所述背景图像的图像特征点,将所述图像特征点与所述场景特征进行比较,若一致,则赋予所述客户端以权限,否则不赋予;
其中,所述将所述样本场景图像入参到卷积神经网络模型中进行训练后得到场景分类模型,包括:
连接所述卷积神经网络模型中的卷积层,根据所述卷积层的数量,确定各所述卷积层之间的距离和输入到所述卷积神经网络各卷积层的场景图像的数量;
其中,所述场景图像的数量计算公式如下:
Figure GDA0004176152060000021
式子中,SL表示输入到第L卷积层的场景图像数,G表示卷积层之间的梯度,l表示向第L卷积层输入的带有所述场景图像的卷积层个数,ΔL表示第一卷积层与最后一层卷积层之间的距离,h表示相邻两个卷积层之前的距离,S表示第一卷积层输入的场景图像数,S0表示相邻两个卷积层之间传递的场景图像数;
根据所述卷积层之间的梯度,确定级联的卷积层位置;
以所述场景图像数作为卷积层级联的数量,根据所述级联的卷积层位置连接所述卷积层后,得到所述场景分类模型。
在其中一个可能的实施例中,所述接收客户端上传的待认证信息之后,所述方法还包括:
获取预设的分类规则,根据预设的分类规则将所述客户端上传的待认证信息分类成数个子信息;
提取各所述子信息的信息特征,得到所述地理位置。
在其中一个可能的实施例中,所述接收客户端上传的实时场景图像,将所述实时场景图像作为待分类样本入参到所述场景分类模型中进行分类后得到所述场景图像类别信息,包括:
接收客户端上传的实时场景图像,将所述场景图像分割成数个场景图像子块,将所述场景图像子块分为二组,第一组为测试组,第二组为验证组;
将所述测试组入参到所述场景分类模型中进行投票分类,得到测试组分类结果;
将所述验证组入参到所述场景分类模型中进行投票分类,得到验证组分类结果;
比较所述测试组分类结果和所述验证组分类结果,若两个分类结果一致,则根据分类结果得到所述场景图像中各场景元素的场景图像类别信息;否则重新投票直到两个分类结果一致。
在其中一个可能的实施例中,所述接收客户端上传的实时场景图像之后,所述方法还包括:
将所述实时场景图像分割成数个图像子块;
获取所述图像子块的像素值,根据所述像素值将所述图像子块归类为人物图像或背景图像;
若所述图像子块为人物图像,则应用光流法对人物图像是否为真实人脸图像进行识别;
若所述图像子块为背景图像,则获取所述背景图像的图像参数,根据所述图像参数将所述背景图像进行分类;
汇总人脸图像识别结果和背景图像分类结果得到所述初始分类结果。
在其中一个可能的实施例中,所述应用预设的场景分类算法对所述图像子块进行特征识别后形成初始分类结果,包括:
获取所述图像子块的像素值特征,根据所述像素值特征将所述图像子块归类为人物图像或背景图像;
若所述图像子块为人物图像,则应用光流法对人物图像是否为真实人脸图像进行识别;
若所述图像子块为背景图像,则对获取所述背景图像的图像参数,根据所述图像参数将所述背景图像进行分类;
汇总人脸图像识别结果和背景图像分类结果得到所述初始分类结果。
一种基于深度学习的信息识别装置,包括如下模块:
背景图像获取模块,设置为接收客户端上传的待认证信息,从所述待认证信息中抽取出所述客户端上传所述待认证信息时的地理位置,根据所述地理位置从数据库中抽取出对应的背景图像;
场景分类模型模块,设置为获取数个不同工作场景的样本场景图像,将所述样本场景图像入参到卷积神经网络模型中进行训练后得到场景分类模型;
实时场景分类模块,设置为接收客户端上传的实时场景图像,将所述实时场景图像作为待分类样本入参到所述场景分类模型中进行分类后得到所述场景图像类别信息;
场景特征提取模块,设置为根据所述场景类别信息,提取所述场景图像中的场景特征;
权限赋予模块,设置为提取所述背景图像的图像特征点,将所述图像特征点与所述场景特征进行比较,若一致,则赋予所述客户端以权限,否则不赋予。
在其中一个可能的实施例中,所述背景图像获取模块还设置为:
获取预设的分类规则,根据预设的分类规则将所述客户端上传的待认证信息分类成数个子信息;获取预设的数个信息特征集,抽取出包含所述子信息的信息特征集,以所述包含所述子信息的信息特征集的名称作为所述子信息的信息特征;遍历各所述子信息的信息特征,得到包含所述地理位置的子信息。
在其中一个可能的实施例中,所述场景分类模型模块还设置为:
从数据库中随机抽取出数个不同工作场景的样本场景图像,将每一张所述样本场景图像分割成数个图像子块,其中,每一个图像子块中至少包含一个场景特征;应用预设的场景分类算法对所述图像子块进行特征识别后形成初始分类结果;将所述初始分类结果入参到卷积神经网络模型中进行训练后得到最终分类结果;汇总所有最终分类结果后形成所述场景分类模型。
在其中一个实施例中,所述场景分类模型模块还设置为:
将所述实时场景图像分割成数个子块;获取所述图像子块的像素值,根据所述像素值将所述图像子块归类为人物图像或背景图像;若所述图像子块为人物图像,则应用光流法对人物图像是否为真实人脸图像进行识别;若所述图像子块为背景图像,则获取所述背景图像的图像参数,根据所述图像参数将所述背景图像进行分类;汇总人脸图像识别结果和背景图像分类结果得到所述初始分类结果,以所述初始分类结果作为所述待分类样本。
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行上述基于深度学习的信息识别方法的步骤。
一种存储有计算机可读指令的存储介质,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行上述基于深度学习的信息识别方法的步骤。
与现有机制相比,本申请具有以下优点:
(1)通过对卷积神经网络模型机型进行级联,从而加快了神经网络模型对于图像上元素识别的准度和速度。
(2)通过在对贷款人贷款资格审核时,引入场景信息核验,从而避免了贷款人通过虚构工作情况以获得贷款申请资格的问题;通过将贷款申请人的信息进行拆解,然后将拆解后的子信息进行有效归类,从而准确的获得贷款申请人的身份特征;
(3)建立场景类别分类模型对场景特征进行了有效分析,从而对贷款申请人的贷款资格进行了更加有效的分析;
(4)通过人物信息比对和场景信息比对,两次比对均符合贷款要求的贷款申请人才能被赋予贷款资格,从而避免了由单一贷款人身份核对带来的信息造假情况。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本申请的限制。
图1为本申请在一个实施例中的一种基于深度学习的信息识别方法的整体流程图;
图2为本申请在一个实施例中的一种基于深度学习的信息识别方法中的信息采集过程示意图;
图3为本申请在一个实施例中的一种基于深度学习的信息识别方法中的比较分析过程示意图;
图4为本申请在一个实施例中的一种基于深度学习的信息识别装置的结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。
图1为本申请在一个实施例中的一种基于深度学习的信息识别方法的整体流程图,如图1所示,一种基于深度学习的信息识别方法,包括以下步骤:
S1、接收客户端上传的待认证信息,从所述待认证信息中抽取出所述客户端上传所述待认证信息时的地理位置,根据所述地理位置从数据库中抽取出对应的背景图像;
具体的,在待认证信息中有贷款申请人的工作场所信息,根据工作场所信息可以确定贷款申请人在进行贷款申请时应该处于的背景场所;在贷款申请人进行个人信息上传时,获取他所使用终端的设备指纹,根据设备指纹可以防止贷款人进行地理位置修改从而进行欺诈行为,在确定好A贷款人所使用终端信息后,从该终端处获得贷款申请人所处的地理位置,地理位置可以通过GPS定位获得,申请时间可以是服务器上的系统时间。选取这2个参数可以有效的获知贷款申请人应该处于的背景信息。
S2、获取数个不同工作场景的样本场景图像,将所述样本场景图像入参到卷积神经网络模型中进行训练后得到场景分类模型;
具体的,卷积神经网络模型可以是SVM模型,也可以是由Adaboost学习算法进行分类后得到的分类模型。将样本场景图像入参到卷积神经网络模型中进行分类后可以得到样本场景图像中的人物图像和背景图像。
在工作场景中必须包含有人物,人物可以是多个人物,对于室外场景还需要采集不同季节的场景图像,以便排出季节对于场景分析的干扰。
其中,所述将所述样本场景图像入参到卷积神经网络模型中进行训练后得到场景分类模型,包括:
连接所述卷积神经网络模型中的卷积层,根据所述卷积层的数量,确定各所述卷积层之间的距离和输入到所述卷积神经网络各卷积层的场景图像的数量;
其中,所述场景图像的数量计算公式如下:
Figure GDA0004176152060000081
式子中,SL表示输入到第L卷积层的场景图像数,G表示卷积层之间的梯度,l表示向第L卷积层输入的带有所述场景图像的卷积层个数,ΔL表示第一卷积层与最后一层卷积层之间的距离,h表示相邻两个卷积层之前的距离,S表示第一卷积层输入的场景图像数,S0表示相邻两个卷积层之间传递的场景图像数;
根据所述卷积层之间的梯度,确定级联的卷积层位置;
以所述场景图像数作为卷积层级联的数量,根据所述级联的卷积层位置连接所述卷积层后,得到所述场景分类模型。
S3、接收客户端上传的实时场景图像,将所述实时场景图像作为待分类样本入参到所述场景分类模型中进行分类后得到所述场景图像类别信息;
具体的,在客户端的贷款申请人上传个人信息时,向客户端终端发出图像采集指令,在贷款申请人输入个人信息的同时拍摄至少一张贷款申请人所在场景的场景图像,在场景图像中即包括贷款申请人的人物图像,同时也包括贷款申请人所在地的地点图像。其中,人物图像用于对贷款人的进行人脸识别以确定是否为贷款申请人所输入的个人信息所对应的人;地点图像用于对贷款申请人输入的个人信息中工作情况进行核验。即,场景特征包括人物特征和地点特征两类。
其中,对客户端上传的贷款申请人申请贷款时的实时场景图像先要进行室内场景和室外场景的区分,若根据贷款申请人上传的个人信息是室外场景,而贷款申请人在上传个人信息时的场景图像为室内场景,则需向贷款申请人终端发出重新选定上传个人信息地点的指令。在应用场景分类模型对测试样本进行分类时,可以将场景图像进行划分,然后对每一块的场景图像进行分析。
S4、根据所述场景类别信息,提取所述场景图像中的场景特征;
具体的,在客户端上传个人信息时,向客户端端发出图像采集指令,在贷款申请人输入个人信息的同时拍摄至少一张贷款申请人所在场景的场景图像,在场景图像中即包括贷款申请人的人物图像,同时也包括贷款申请人所在地的地点图像。其中,人物图像用于对贷款人的进行人脸识别以确定是否为贷款申请人所输入的个人信息所对应的人;地点图像用于对贷款申请人输入的个人信息中工作情况进行核验。即,场景特征包括人物特征和地点特征两类。
S5、提取所述背景图像的图像特征点,将所述图像特征点与所述场景特征进行比较,若一致,则赋予所述客户端以权限,否则不赋予。
具体的,在进行特征比较时,要先确定某一场景特征与哪一个信息特征相对应,比如,通过对场景图像中某一区域进行分析后得到的场景特征是地点特征,则对应的信息特征为工作状况,而通过对图像中某一区域进行分析后得到的场景特征是人物特征,则对应的信息特征为姓名等反应贷款人与生俱来的固有属性特征。其中,可以建立一个背景图像的图像特征点矩阵,在特征点矩阵中,图像特征点位置为图像特征点矩阵中的行列信息,比如一个图像特征点在背景图像上的位置坐标为(3,2)则在图像特征矩阵中的位置为第3行,第2列。相应的建立一个背景特征矩阵,根据背景特征在场景图像上的位置,将各个场景特征写入到场景特征矩阵中。将2个矩阵中的元素进行对比,获取差异元素,将差异元素的数量与预设的误差阈值进行比较,若大于误差阈值,则存在欺诈,否则不存在背景图像欺诈。
本实施例,通过对卷积神经网络模型机型进行级联,从而加快了神经网络模型对于图像上元素识别的准度和速度,进而提升了计算机对贷款人上传资料是场景信息的识别能力。
图2为本申请在一个实施例中的一种基于深度学习的信息识别方法中的信息采集过程示意图,如图所示,所述接收客户端上传的待认证信息之后,所述方法还包括:
S11、获取预设的分类规则,根据预设的分类规则将所述客户端上传的待认证信息分类成数个子信息;
具体的,预设的分类规则,可以是根据数字和文字进行分类,比如将姓名和年龄进行区分。获取预设的分类规则,根据预设的分类规则将所述个人信息分割成数个初始自信息字段;应用训练好的语义分析模型对所述初始子信息段的进行语义分析,若所述初始子信息段是一个完整语义,则将所述初始子信息字段作为所述子信息,否则重新对所述个人信息进行分割直到每一个所述初始子信息字段是一个完整语义。其中,语义分析模型可以采用循环神经网络模型或者卷积神经网络模型。
S12、提取各所述子信息的信息特征,得到所述地理位置。
其中,地理位置子信息可以采用特征词识别的方式,即可以将信息特征的文字进行词向量转换,然后将词向量与地理位置的词向量进行相似度计算,当相似度计算后得到的结果大于预期阈值时,则该信息特征为地理位置信息特征,那么该信息特征对应的子信息就为地理位置信息。
本实施例,通过将待认证信息进行有效分析,从而能够准确的获知贷款人所上传的个人信息中的地理位置信息。
图3为本申请在一个实施例中的基于深度学习的信息识别方法中的场景图像类别确定过程示意图,如图所示,所述S3、接收客户端上传的实时场景图像,将所述实时场景图像作为待分类样本入参到所述场景分类模型中进行分类后得到所述场景图像类别信息,包括:
S31、接收客户端上传的实时场景图像,将所述场景图像分割成数个场景图像子块,将所述场景图像子块分为二组,第一组为测试组,第二组为验证组;
其中,在将场景图像进行分割时可以将场景图像分割成9块,每一块中至少需要保证有一个场景特征,比如第一块中有1个人脸,第二块中有一个桌子,对于场景图像的分割方式与前述实施例中所述采用的方式一致,均是采用像素值识别,不在赘述。若测试组中包含有人物图像,验证组中也需要包含有对测试组中一模一样的人物图像。
S32、将所述测试组入参到所述场景分类模型中进行投票分类,得到测试组分类结果;
其中,投票分类是机器学习中常用的方法,根据分类模型中的类别分类器依次对测试组中的图像进行投票,若某一个分类器投票结果为“1”则该图像属于该分类器对应的类别,若有超过1个的分类器投票结果为“1”则需要重新投票。
S33、将所述验证组入参到所述场景分类模型中进行投票分类,得到验证组分类结果;
S34、比较所述测试组分类结果和所述验证组分类结果,若两个分类结果一致,则根据分类结果得到所述场景图像中各场景元素的场景图像类别信息;,否则重新投票直到两个分类结果一致。
本实施例,应用投票机制对场景图像的分类进行了有效划分。
在一个实施例中,所述接收客户端上传的实时场景图像之后,所述方法还包括:
将所述实时场景图像分割成数个图像子块;
获取所述图像子块的像素值特征,根据所述像素值特征将所述图像子块归类为人物图像或背景图像;
若所述图像子块为人物图像,则应用光流法对人物图像是否为真实人脸图像进行识别;
其中,光流法是关于视域中的物体运动检测中的概念。用来描述相对于观察者的运动所造成的观测目标、表面或边缘的运动。光流法在样型识别、计算机视觉以及其他影像处理领域中非常有用,可用于运动检测、物件切割、碰撞时间与物体膨胀的计算、运动补偿编码,或者通过物体表面与边缘进行立体的测量等等。
若所述图像子块为背景图像,则对获取所述背景图像的图像参数,根据所述图像参数将所述背景图像进行分类;
具体的,在背景图像中有一片海洋,则海洋所处位置的像素值为单一的海蓝色像素值。
汇总人脸图像识别结果和背景图像分类结果得到所述初始分类结果,以所述初始分类结果作为所述待分类样本。
本实施例,通过光流法对人脸图像进行识别和图像参数对背景图像进行分类后,能够准确的得到场景图像的初始分类。
在一个实施例中,提出了一种基于深度学习的信息识别装置,如图4所示,包括如下模块:
背景图像获取模块,设置为接收客户端上传的待认证信息,从所述待认证信息中抽取出所述客户端上传所述待认证信息时的地理位置,根据所述地理位置从数据库中抽取出对应的背景图像;
场景分类模型模块,设置为获取数个不同工作场景的样本场景图像,将所述样本场景图像入参到卷积神经网络模型中进行训练后得到场景分类模型;
实时场景分类模块,设置为接收客户端上传的实时场景图像,将所述实时场景图像作为待分类样本入参到所述场景分类模型中进行分类后得到所述场景图像类别信息;
场景特征提取模块,设置为根据所述场景类别信息,提取所述场景图像中的场景特征;
权限赋予模块,设置为提取所述背景图像的图像特征点,将所述图像特征点与所述场景特征进行比较,若一致,则赋予所述客户端以权限,否则不赋予。
在其中一个实施例中,所述背景图像获取模块还设置为:
获取预设的分类规则,根据预设的分类规则将所述客户端上传的待认证信息分类成数个子信息;获取预设的数个信息特征集,抽取出包含所述子信息的信息特征集,以所述包含所述子信息的信息特征集的名称作为所述子信息的信息特征;遍历各所述子信息的信息特征,得到包含所述地理位置的子信息。
在其中一个实施例中,所述场景分类模型模块还设置为:
从数据库中随机抽取出数个不同工作场景的样本场景图像,将每一张所述样本场景图像分割成数个图像子块,其中,每一个图像子块中至少包含一个场景特征;应用预设的场景分类算法对所述图像子块进行特征识别后形成初始分类结果;将所述初始分类结果入参到卷积神经网络模型中进行训练后得到最终分类结果;汇总所有最终分类结果后形成所述场景分类模型。
在其中一个实施例中,所述场景分类模型模块还设置为:
将所述实时场景图像分割成数个子块;获取所述图像子块的像素值,根据所述像素值将所述图像子块归类为人物图像或背景图像;若所述图像子块为人物图像,则应用光流法对人物图像是否为真实人脸图像进行识别;若所述图像子块为背景图像,则获取所述背景图像的图像参数,根据所述图像参数将所述背景图像进行分类;汇总人脸图像识别结果和背景图像分类结果得到所述初始分类结果,以所述初始分类结果作为所述待分类样本。
在一个实施例中,提出了一种计算机设备,所述计算机设备包括存储器和处理器,存储器中存储有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行上述各实施例中的所述基于深度学习的信息识别方法的步骤。
在一个实施例中,提出了一种存储有计算机可读指令的存储介质,该计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行上述各实施例中的所述基于深度学习的信息识别方法的步骤。其中,所述存储介质可以为非易失性存储介质。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、磁盘或光盘等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请一些示例性实施例,其中描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种基于深度学习的信息识别方法,其特征在于,包括:
接收客户端上传的待认证信息,从所述待认证信息中抽取出所述客户端上传所述待认证信息时的地理位置,根据所述地理位置从数据库中抽取出对应的背景图像;
获取数个不同工作场景的样本场景图像,将所述样本场景图像入参到卷积神经网络模型中进行训练后得到场景分类模型;
接收客户端上传的实时场景图像,将所述实时场景图像作为待分类样本入参到所述场景分类模型中进行分类后得到所述场景图像类别信息;
根据所述场景图像类别信息,提取所述场景图像中的场景特征;
提取所述背景图像的图像特征点,将所述图像特征点与所述场景特征进行比较,若一致,则赋予所述客户端以权限,否则不赋予;
其中,所述将所述样本场景图像入参到卷积神经网络模型中进行训练后得到场景分类模型,包括:
连接所述卷积神经网络模型中的卷积层,根据所述卷积层的数量,确定各所述卷积层之间的距离和输入到所述卷积神经网络各卷积层的场景图像的数量;
其中,所述场景图像的数量计算公式如下:
Figure FDA0004176152050000011
式子中,SL表示输入到第L卷积层的场景图像数,G表示卷积层之间的梯度,l表示向第L卷积层输入的带有所述场景图像的卷积层个数,ΔL表示第一卷积层与最后一层卷积层之间的距离,h表示相邻两个卷积层之前的距离,S表示第一卷积层输入的场景图像数,S0表示相邻两个卷积层之间传递的场景图像数;
根据所述卷积层之间的梯度,确定级联的卷积层位置;
以所述场景图像数作为卷积层级联的数量,根据所述级联的卷积层位置连接所述卷积层后,得到所述场景分类模型。
2.根据权利要求1所述的基于深度学习的信息识别的方法,其特征在于,所述接收客户端上传的待认证信息之后,所述方法还包括:
获取预设的分类规则,根据预设的分类规则将所述客户端上传的待认证信息分类成数个子信息;
提取各所述子信息的信息特征,得到所述地理位置。
3.根据权利要求1述的基于深度学习的信息识别的方法,其特征在于,所述接收客户端上传的实时场景图像,将所述实时场景图像作为待分类样本入参到所述场景分类模型中进行分类后得到所述场景图像类别信息,包括:
接收客户端上传的实时场景图像,将所述场景图像分割成数个场景图像子块,将所述场景图像子块分为二组,第一组为测试组,第二组为验证组;
将所述测试组入参到所述场景分类模型中进行投票分类,得到测试组分类结果;
将所述验证组入参到所述场景分类模型中进行投票分类,得到验证组分类结果;
比较所述测试组分类结果和所述验证组分类结果,若两个分类结果一致,则根据分类结果得到所述场景图像中各场景元素的场景图像类别信息;否则重新投票直到两个分类结果一致。
4.根据权利要求1所述的基于深度学习的信息识别的方法,其特征在于,所述接收客户端上传的实时场景图像之后,所述方法还包括:
将所述实时场景图像分割成数个图像子块;
获取所述图像子块的像素值,根据所述像素值将所述图像子块归类为人物图像或背景图像;
若所述图像子块为人物图像,则应用光流法对人物图像是否为真实人脸图像进行识别;
若所述图像子块为背景图像,则获取所述背景图像的图像参数,根据所述图像参数将所述背景图像进行分类;
汇总人脸图像识别结果和背景图像分类结果得到初始分类结果,以所述初始分类结果作为所述待分类样本。
5.一种基于深度学习的信息识别装置,其特征在于,包括以下模块:
背景图像获取模块,设置为接收客户端上传的待认证信息,从所述待认证信息中抽取出所述客户端上传所述待认证信息时的地理位置,根据所述地理位置从数据库中抽取出对应的背景图像;
场景分类模型模块,设置为获取数个不同工作场景的样本场景图像,将所述样本场景图像入参到卷积神经网络模型中进行训练后得到场景分类模型;
实时场景分类模块,设置为接收客户端上传的实时场景图像,将所述实时场景图像作为待分类样本入参到所述场景分类模型中进行分类后得到所述场景图像类别信息;
场景特征提取模块,设置为根据所述场景类别信息,提取所述场景图像中的场景特征;
权限赋予模块,设置为提取所述背景图像的图像特征点,将所述图像特征点与所述场景特征进行比较,若一致,则赋予所述客户端以权限,否则不赋予;
其中,所述将所述样本场景图像入参到卷积神经网络模型中进行训练后得到场景分类模型,包括:
连接所述卷积神经网络模型中的卷积层,根据所述卷积层的数量,确定各所述卷积层之间的距离和输入到所述卷积神经网络各卷积层的场景图像的数量;
其中,所述场景图像的数量计算公式如下:
Figure FDA0004176152050000041
式子中,SL表示输入到第L卷积层的场景图像数,G表示卷积层之间的梯度,l表示向第L卷积层输入的带有所述场景图像的卷积层个数,ΔL表示第一卷积层与最后一层卷积层之间的距离,h表示相邻两个卷积层之前的距离,S表示第一卷积层输入的场景图像数,S0表示相邻两个卷积层之间传递的场景图像数;
根据所述卷积层之间的梯度,确定级联的卷积层位置;
以所述场景图像数作为卷积层级联的数量,根据所述级联的卷积层位置连接所述卷积层后,得到所述场景分类模型。
6.根据权利要求5述的基于深度学习的信息识别的装置,其特征在于,所述背景图像获取模块还设置为:
获取预设的分类规则,根据预设的分类规则将所述客户端上传的待认证信息分类成数个子信息;获取预设的数个信息特征集,抽取出包含所述子信息的信息特征集,以所述包含所述子信息的信息特征集的名称作为所述子信息的信息特征;遍历各所述子信息的信息特征,得到包含所述地理位置的子信息。
7.根据权利要求5所述的基于深度学习的信息识别的装置,其特征在于,所述场景分类模型模块还设置为:
从数据库中随机抽取出数个不同工作场景的样本场景图像,将每一张所述样本场景图像分割成数个图像子块,其中,每一个图像子块中至少包含一个场景特征;应用预设的场景分类算法对所述图像子块进行特征识别后形成初始分类结果;将所述初始分类结果入参到卷积神经网络模型中进行训练后得到最终分类结果;汇总所有最终分类结果后形成所述场景分类模型。
8.根据权利要求5所述的基于深度学习的信息识别的装置,其特征在于,所述场景分类模型模块还设置为:
将所述实时场景图像分割成数个图像子块;获取所述图像子块的像素值,根据所述像素值将所述图像子块归类为人物图像或背景图像;若所述图像子块为人物图像,则应用光流法对人物图像是否为真实人脸图像进行识别;若所述图像子块为背景图像,则获取所述背景图像的图像参数,根据所述图像参数将所述背景图像进行分类;汇总人脸图像识别结果和背景图像分类结果得到初始分类结果,以所述初始分类结果作为所述待分类样本。
9.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行如权利要求1至4中任一项权利要求所述基于深度学习的信息识别方法的步骤。
10.一种存储有计算机可读指令的存储介质,其特征在于,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如权利要求1至4中任一项权利要求所述基于深度学习的信息识别方法的步骤。
CN201910665925.0A 2019-07-23 2019-07-23 基于深度学习的信息识别方法及相关设备 Active CN110503099B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910665925.0A CN110503099B (zh) 2019-07-23 2019-07-23 基于深度学习的信息识别方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910665925.0A CN110503099B (zh) 2019-07-23 2019-07-23 基于深度学习的信息识别方法及相关设备

Publications (2)

Publication Number Publication Date
CN110503099A CN110503099A (zh) 2019-11-26
CN110503099B true CN110503099B (zh) 2023-06-20

Family

ID=68586673

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910665925.0A Active CN110503099B (zh) 2019-07-23 2019-07-23 基于深度学习的信息识别方法及相关设备

Country Status (1)

Country Link
CN (1) CN110503099B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368761B (zh) * 2020-03-09 2022-12-16 腾讯科技(深圳)有限公司 店铺营业状态识别方法、装置、可读存储介质和设备
CN111447656B (zh) * 2020-03-30 2022-09-16 深圳信可通讯技术有限公司 一种智能切换拨号上网的方法及装置
CN113283978B (zh) * 2021-05-06 2024-05-10 北京思图场景数据科技服务有限公司 基于生物基础与行为特征及业务特征的金融风险评估方法
CN113343959A (zh) * 2021-08-06 2021-09-03 禾多科技(北京)有限公司 场景图像识别方法、装置、电子设备和计算机可读介质
CN117132843B (zh) * 2023-10-26 2024-04-09 长春中医药大学 野山参、林下山参、园参原位鉴别方法、系统及相关设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108710847A (zh) * 2018-05-15 2018-10-26 北京旷视科技有限公司 场景识别方法、装置及电子设备
CN109086742A (zh) * 2018-08-27 2018-12-25 Oppo广东移动通信有限公司 场景识别方法、场景识别装置及移动终端
CN109101931A (zh) * 2018-08-20 2018-12-28 Oppo广东移动通信有限公司 一种场景识别方法、场景识别装置及终端设备
CN109783360A (zh) * 2018-12-14 2019-05-21 深圳壹账通智能科技有限公司 操作系统对比测试方法与装置、电子设备、存储介质
CN109829358A (zh) * 2018-12-14 2019-05-31 深圳壹账通智能科技有限公司 微表情贷款控制方法、装置、计算机设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108710847A (zh) * 2018-05-15 2018-10-26 北京旷视科技有限公司 场景识别方法、装置及电子设备
CN109101931A (zh) * 2018-08-20 2018-12-28 Oppo广东移动通信有限公司 一种场景识别方法、场景识别装置及终端设备
CN109086742A (zh) * 2018-08-27 2018-12-25 Oppo广东移动通信有限公司 场景识别方法、场景识别装置及移动终端
CN109783360A (zh) * 2018-12-14 2019-05-21 深圳壹账通智能科技有限公司 操作系统对比测试方法与装置、电子设备、存储介质
CN109829358A (zh) * 2018-12-14 2019-05-31 深圳壹账通智能科技有限公司 微表情贷款控制方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
CN110503099A (zh) 2019-11-26

Similar Documents

Publication Publication Date Title
CN110503099B (zh) 基于深度学习的信息识别方法及相关设备
CN112613501A (zh) 信息审核分类模型的构建方法和信息审核方法
CN110210301B (zh) 基于微表情评价面试者的方法、装置、设备和存储介质
CN110532855A (zh) 基于深度学习的自然场景证件图像文字识别方法
Huber et al. Mask-invariant face recognition through template-level knowledge distillation
US20190147218A1 (en) User specific classifiers for biometric liveness detection
CN108268785B (zh) 一种敏感数据识别和脱敏的装置及方法
US20190347472A1 (en) Method and system for image identification
Júnior et al. An in-depth study on open-set camera model identification
CN106650670A (zh) 活体人脸视频的检测方法及装置
US10423817B2 (en) Latent fingerprint ridge flow map improvement
CN111178290A (zh) 一种签名验证方法和装置
CN110502694A (zh) 基于大数据分析的律师推荐方法及相关设备
CN111709313A (zh) 基于局部和通道组合特征的行人重识别方法
CN105740808A (zh) 人脸识别方法和装置
CN111738199B (zh) 图像信息验证方法、装置、计算装置和介质
CN113111880A (zh) 证件图像校正方法、装置、电子设备及存储介质
CN112232336A (zh) 一种证件识别方法、装置、设备及存储介质
CN111832402A (zh) 一种人脸识别方法及装置
CN114266643A (zh) 基于融合算法的企业挖掘方法、装置、设备及存储介质
CN111062338B (zh) 一种证照人像一致性比对方法及其系统
CN114820476A (zh) 基于合规性检测的身份证识别方法
CN111429156A (zh) 一种手机使用的人工智能识别系统及其应用
Nandalal et al. Smart system for women safety in cyberspace by fake profile detection
CN117058432B (zh) 图像查重方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant