CN114819142B - 拍屏图像识别及其模型的训练方法、装置和电子设备 - Google Patents
拍屏图像识别及其模型的训练方法、装置和电子设备 Download PDFInfo
- Publication number
- CN114819142B CN114819142B CN202210406287.2A CN202210406287A CN114819142B CN 114819142 B CN114819142 B CN 114819142B CN 202210406287 A CN202210406287 A CN 202210406287A CN 114819142 B CN114819142 B CN 114819142B
- Authority
- CN
- China
- Prior art keywords
- original image
- image
- screen capturing
- features
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000012549 training Methods 0.000 title claims abstract description 65
- 230000004927 fusion Effects 0.000 claims abstract description 121
- 238000013527 convolutional neural network Methods 0.000 claims description 40
- 238000013528 artificial neural network Methods 0.000 claims description 38
- 238000012545 processing Methods 0.000 claims description 20
- 230000009466 transformation Effects 0.000 claims description 18
- 238000013145 classification model Methods 0.000 claims description 8
- 230000007246 mechanism Effects 0.000 claims description 5
- 238000012417 linear regression Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000004590 computer program Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000012795 verification Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011022 operating instruction Methods 0.000 description 2
- RWSOTUBLDIXVET-UHFFFAOYSA-N Dihydrogen sulfide Chemical compound S RWSOTUBLDIXVET-UHFFFAOYSA-N 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本说明书实施例公开了一种拍屏图像识别及其模型的训练方法、装置和电子设备,该方法包括:对原始图像进行特征解耦以得到原始图像的拍屏特征,所述拍屏特征至少包括边框特征、摩尔纹特征、反光特征和其他拍屏特征;基于原始图像的拍屏特征进行特征融合得到原始图像的融合特征;基于多个不同原始图像对应的融合特征和所述多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到所述拍屏图像识别模型。
Description
技术领域
本文件涉及机器学习技术领域,尤其涉及一种拍屏图像识别及其模型的训练方法、装置和电子设备。
背景技术
目前,随着计算机技术的快速发展,越来越多的服务均可通过线上办理,通常由用户将个人资料上传到线上进行审核办理。这为大多数用户带来便利的同时,也为一些不法分子盗用他人资料进行账号注册、事务办理提供了可趁之机。其中,一种很广泛的作弊手段,是使用手机等终端设备对着电脑屏幕、手机屏幕、或打印纸张拍摄图像得到拍屏图像,并上传拍屏图像,企图欺骗线上的资料审核系统。
对于这种拍屏图像的样本,由于其拍摄的图像中涉及到用户的真实信息,因此存在能够欺骗线上的资料审核系统的可能。而如果对这类拍屏图像采用人工的方式进行审核,则需要耗费大量的时间和人力成本。因此,如何在用户个人资料审核中提高对拍屏图像的识别效率和准确率,仍然需要提供进一步的解决方案。
发明内容
本申请实施例的目的是提供一种拍屏图像识别方法、装置及电子设备,用于在用户个人资料审核中提高对拍屏图像的识别效率和准确率。
为解决上述技术问题,本申请实施例是这样实现的:
第一方面,提出了一种拍屏图像识别模型的训练方法,包括:
对原始图像进行特征解耦以得到原始图像的拍屏特征,所述拍屏特征至少包括边框特征、摩尔纹特征、反光特征和其他拍屏特征;
基于原始图像的拍屏特征进行特征融合得到原始图像的融合特征;
基于多个不同原始图像对应的融合特征和所述多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到所述拍屏图像识别模型。
第二方面,提出了一种拍屏图像识别方法,包括:
获取待识别图像;
对所述待识别图像进行特征解耦以得到所述待识别图像的拍屏特征,所述拍屏特征至少包括边框特征、摩尔纹特征、反光特征和其他拍屏特征;
基于所述待识别图像的拍屏特征进行特征融合,得到所述待识别图像的融合特征;
将所述待识别图像的融合特征输入至第一方面训练得到的所述拍屏图像识别模型中,以识别所述待识别图像是否为拍屏图像。
第三方面,提出了一种拍屏图像识别模型的训练装置,包括:
特征解耦模块,对原始图像进行特征解耦以得到原始图像的拍屏特征,所述拍屏特征至少包括边框特征、摩尔纹特征、反光特征和其他拍屏特征;
特征融合模块,基于原始图像的拍屏特征进行特征融合得到原始图像的融合特征;
模型训练模块,基于多个不同原始图像对应的融合特征和所述多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到所述拍屏图像识别模型。
第四方面,提出了一种拍屏图像识别装置,包括:
图像获取模块,获取待识别图像;
特征解耦模块,对所述待识别图像进行特征解耦以得到所述待识别图像的拍屏特征,所述拍屏特征至少包括边框特征、摩尔纹特征、反光特征和其他拍屏特征;
特征融合模块,基于所述待识别图像的拍屏特征进行特征融合,得到所述待识别图像的融合特征;
图像识别模块,将所述待识别图像的融合特征输入至第一方面训练得到的所述拍屏图像识别模型中,以识别所述待识别图像是否为拍屏图像。
第五方面,提出了一种电子设备,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行以下操作:
对原始图像进行特征解耦以得到原始图像的拍屏特征,所述拍屏特征至少包括边框特征、摩尔纹特征、反光特征和其他拍屏特征;
基于原始图像的拍屏特征进行特征融合得到原始图像的融合特征;
基于多个不同原始图像对应的融合特征和所述多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到所述拍屏图像识别模型。
第六方面,提出了一种计算机可读存储介质,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被包括多个应用程序的电子设备执行时,使得所述电子设备执行以下操作:
对原始图像进行特征解耦以得到原始图像的拍屏特征,所述拍屏特征至少包括边框特征、摩尔纹特征、反光特征和其他拍屏特征;
基于原始图像的拍屏特征进行特征融合得到原始图像的融合特征;
基于多个不同原始图像对应的融合特征和所述多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到所述拍屏图像识别模型。
第七方面,提出了一种电子设备,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行以下操作:
获取待识别图像;
对所述待识别图像进行特征解耦以得到所述待识别图像的拍屏特征,所述拍屏特征至少包括边框特征、摩尔纹特征、反光特征和其他拍屏特征;
基于所述待识别图像的拍屏特征进行特征融合,得到所述待识别图像的融合特征;
将所述待识别图像的融合特征输入至第一方面训练得到的所述拍屏图像识别模型中,以识别所述待识别图像是否为拍屏图像。
第八方面,提出了一种计算机可读存储介质,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被包括多个应用程序的电子设备执行时,使得所述电子设备执行以下操作:
获取待识别图像;
对所述待识别图像进行特征解耦以得到所述待识别图像的拍屏特征,所述拍屏特征至少包括边框特征、摩尔纹特征、反光特征和其他拍屏特征;
基于所述待识别图像的拍屏特征进行特征融合,得到所述待识别图像的融合特征;
将所述待识别图像的融合特征输入至第一方面训练得到的所述拍屏图像识别模型中,以识别所述待识别图像是否为拍屏图像。
由以上本说明书实施例提供的技术方案可见,本说明书实施例方案至少具备如下一种技术效果:
采用本说明书实施例提供的方法,能够对原始图像中的拍屏特征进行特征解耦,即分别提取原始图像中的边框特征、摩尔纹特征、反光特征和其他拍屏特征等拍屏特征,并将提取的不同类型的拍屏特征进行特征融合得到融合特征,最后基于多个不同原始图像对应的融合特征和多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到拍屏图像识别模型。使得当拍屏图像中包含了边框特征、摩尔纹特征、反光特征和其他拍屏特征等任意一种拍屏特征时,通过本说明书实施例提供的方法训练得到的拍屏图像识别模型都可以准确识别出该图像为拍屏图像。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本说明书的一个实施例提供的一种拍屏图像识别模型的训练方法的实施流程示意图。
图2是本说明书的一个实施例提供的拍屏图像识别模型的训练方法应用在一种实际场景中的流程示意图。
图3是本说明书的一个实施例提供的一种拍屏图像识别方法的实施流程示意图。
图4是本说明书的一个实施例提供的拍屏图像识别方法应用在一种实际场景中的流程示意图。
图5是本说明书的一个实施例提供的一种拍屏图像识别模型的训练装置的结构示意图。
图6是本说明书的一个实施例提供的一种拍屏图像识别装置的结构示意图。
图7是本说明书的一个实施例提供的一种电子设备的结构示意图。
图8是本说明书的一个实施例提供的另一种电子设备的结构示意图。
具体实施方式
为使本文件的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本文件保护的范围。
为了在用户个人资料审核中提高对拍屏图像的识别效率和准确率,本说明书一个或多个实施例提供一种拍屏图像识别模型的训练方法,用于在用户个人资料审核中提高对拍屏图像的识别效率和准确率。具体地,能够对原始图像中的拍屏特征进行特征解耦,即分别提取原始图像中的边框特征、摩尔纹特征、反光特征和其他拍屏特征等拍屏特征,并将提取的不同类型的拍屏特征进行特征融合得到融合特征,最后基于多个不同原始图像对应的融合特征和多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到拍屏图像识别模型。使得当拍屏图像中包含了边框特征、摩尔纹特征、反光特征和其他拍屏特征等任意一种拍屏特征时,通过本说明书实施例提供的方法训练得到的拍屏图像识别模型都可以准确识别出该图像为拍屏图像。
应理解,本说明书实施例提供的拍屏图像识别模型的训练方法的执行主体,可以但不限于服务器、电脑等能够被配置为执行本说明书实施例提供的该方法用户终端中的至少一种。
为便于描述,下文以该方法的执行主体为能够执行该方法的服务器为例,对该方法的实施方式进行介绍。可以理解,该方法的执行主体为服务器只是一种示例性的说明,并不应理解为对该方法的限定。
图1是本说明书的一个实施例提供的一种拍屏图像识别模型的训练方法的实施流程示意图。图1的方法可包括:
S110,对原始图像进行特征解耦以得到原始图像的拍屏特征,该拍屏特征至少包括边框特征、摩尔纹特征、反光特征和其他拍屏特征。
其中,拍屏图像可以是手机、iPad等终端设备的摄像头对着电脑屏幕、手机屏幕、iPad屏幕、打印纸张等进行拍摄得到的图像。在线上资料审核过程中,一些非法分子通常利用拍屏图像冒充原始图像来通过资料审核。
一般来说,拍屏图像会出现几种明显的拍屏特征,比如边框特征、摩尔纹特征、反光特征和其他拍屏特征。其中,边框特征是拍屏图像中包含的屏幕边框,摩尔纹特征是拍屏图像中包含的类似于波纹状的摩尔纹,反光特征是拍摄屏幕时可能会出现反光,进而使得拍屏图像可能包含反光特征。此外,除了边框特征、摩尔纹特征、反光特征,拍屏特征还可能会包含鼠标指针、用户手指等其他拍屏特征,即其他拍屏特征可至少包括鼠标指针和用户手指等特征。
可选地,在拍屏图像识别模型的训练过程中,为了获取基于原始图像变换的多种类型的拍屏图像,可对原始图像进行处理,得到具备不同类型的拍屏特征的拍屏图像,再对处理后的原始图像进行特征解耦,得到不同类型的拍屏特征。具体地,对原始图像进行特征解耦以得到原始图像的拍屏特征,包括:
将拉普拉斯算子处理后的原始图像输入至第一卷积神经网络,解耦得到原始图像的边框特征;
将小波变换处理后的原始图像输入至第二卷积神经网络,解耦得到原始图像的摩尔纹特征;
将原始图像的RGB特征空间变换为YCrCb色彩空间,以及将变换后的原始图像输入至第三卷积神经网络,解耦得到原始图像的反光特征;
将原始图像输入至第四卷积神经网络,解耦得到原始图像的其他拍屏特征。
可选地,第一卷积神经网络、第二卷积神经网络和第三卷积神经网络包括高斯卷积神经网络和Canny卷积神经网络中的一种;
第四卷积神经网络包括添加了SeNet、CBAM和SKNet中的一种注意力机制的卷积神经网络。
例如,由于拉普拉斯算子对一张图像处理后便能够有效获取边界信息,因此将拉普拉斯算子处理后的原始图像输入至第一卷积神经网络,解耦得到原始图像的边框特征,具体可将原始图像使用拉普拉斯算子进行处理,假设处理后的原始图像表示为I1。再将拉普拉斯算子处理后的原始图像I1,输入至高斯卷积神经网络和Canny卷积神经网络等卷积神经网络中,提取得到处理后的原始图像I1的边框特征F1。
由于小波变换处理后的一张图像能够有效提取该图像的摩尔纹信息,因此将小波变换处理后的原始图像输入至第二卷积神经网络,解耦得到原始图像的摩尔纹特征,具体可将原始图像使用小波变换进行处理,假设处理后的原始图像表示为I2。再将小波变换处理后的原始图像I2,输入至高斯卷积神经网络和Canny卷积神经网络等卷积神经网络中,提取得到处理后的原始图像I2的摩尔纹特征F2。
由于在YCrCb色彩空间下,当亮度低于170,属于漫反射光,人的视觉感觉比较柔和,属于漫反光的范围,当亮度大于200接近255时,图像呈现高光,属于镜面反射范围,本说明书实施例基于该变换特点可以得到原始图像的反光特征。具体可将原始图像由RGB特征空间变换为YCrCb色彩空间,假设处理后的原始图像表示为I3。再将处理后的原始图像I3,输入至高斯卷积神经网络和Canny卷积神经网络等卷积神经网络中,提取得到处理后的原始图像I3的反光特征F3。
由于SeNet注意力机制模块能够使模型自主关注感兴趣的区域,比如包含鼠标指针的区域等,本说明书实施例基于这一点将原始图像不做任何变换,并将该原始图像表示为I4。再将原始图像I4输入至添加SeNet、CBAM和SKNet中的一种注意力机制的卷积神经网络中,提取原始图像I4的其他拍屏特征F4。
本说明书实施例通过以上四种方式,可将原始图像的拍屏特征进行解耦,分别得到原始图像的边框特征、摩尔纹特征、反光特征和其他拍屏特征等拍屏特征。
图2是本说明书的一个实施例提供的拍屏图像识别模型的训练方法应用在一种实际场景中的流程示意图。在图2中,原始图像分别经过拉普拉斯算子处理得到边框图像、经过小波变换处理得到摩尔纹图像、由RGB特征空间变换为YCrCb色彩空间处理得到反光图像、以及不经过任何处理的原始图像。再分别对边框图像进行特征解耦得到边框特征,对摩尔纹图像进行特征解耦得到摩尔纹特征,对反光图像进行特征解耦得到反光特征,对原始图像进行特征解耦得到其他拍屏特征。
S120,基于原始图像的拍屏特征进行特征融合得到原始图像的融合特征。
可选地,为了实现对不同类别的拍屏特征的特征融合,本说明书实施例可在训练拍屏图像识别模型的同时训练权重分配模型,该权重分配模型用于预测原始图像中的不同类别的拍屏特征的权重。具体地,基于原始图像的拍屏特征进行特征融合得到原始图像的融合特征,包括:
通过权重分配模型预测得到原始图像中的拍屏特征的权重,该权重分配模型为基于多个原始图像中的拍屏特征训练得到;
基于原始图像中的拍屏特征、以及原始图像中的拍屏特征的权重进行特征融合,得到原始图像的融合特征。
本说明书实施例考虑对不同类别的拍屏特征的组合进行动态融合,可根据不同的原始图像中不同的拍屏特征,动态调整融合的特征。其中,融合特征的具体实现方式可以表示为下式:
Ffuse=a*F1+b*F2+c*F3+d*F4
其中a、b、c和d这四个参数,分别表示四种拍屏特征在拍屏图像识别模型的分类中的重要程度,Ffuse为融合后的特征,a、b、c和d这四个参数是可以根据输入图像的不同,通过单独的一个权重分配模型学习得到,即通过权重分配模型预测待识别图像中最主要的特征是哪个特征,即分别确定a、b、c、d四个权重的大小,将a、b、c、d这四个值中最大的一个值对应的拍屏特征作为待识别图像中最主要的拍屏特征。通过公式Ffuse=a*F1+b*F2+c*F3+d*F4能够实现拍屏特征的自适应动态融合,得到原始图像最终的融合特征Ffuse。
S130,基于多个不同原始图像对应的融合特征和所述多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到拍屏图像识别模型。
可选地,基于多个不同原始图像对应的融合特征和所述多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到拍屏图像识别模型,包括:
将多个不同原始图像对应的融合特征和多个不同原始图像对应的拍屏标签输入至全连接神经网络或分类模型中,对拍屏图像识别模型进行训练,得到拍屏图像识别模型;
其中,所述分类模型至少包括SVM分类器模型和线性回归分类器模型中的一种。
例如,将多个不同原始图像对应的融合特征和多个不同原始图像对应的拍屏标签输入至全连接神经网络或分类模型中,对拍屏图像识别模型进行训练,得到拍屏图像识别模型,具体可将多个不同原始图像对应的融合特征和多个不同原始图像对应的拍屏标签输入至全连接神经网络或分类模型中,使用交叉熵损失函数进行模型训练,通过拍屏图像识别模型的反向梯度传播更新拍屏图像识别模型,使得拍屏图像识别模型能够争取识别输入的待识别图像是否为拍屏图像。
采用本说明书实施例提供的方法,能够对原始图像中的拍屏特征进行特征解耦,即分别提取原始图像中的边框特征、摩尔纹特征、反光特征和其他拍屏特征等拍屏特征,并将提取的不同类型的拍屏特征进行特征融合得到融合特征,最后基于多个不同原始图像对应的融合特征和多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到拍屏图像识别模型。使得当拍屏图像中包含了边框特征、摩尔纹特征、反光特征和其他拍屏特征等任意一种拍屏特征时,通过本说明书实施例提供的方法训练得到的拍屏图像识别模型都可以准确识别出该图像为拍屏图像。
图3是本说明书的一个实施例提供的一种拍屏图像识别方法的实施流程示意图。图3的方法可包括:
S310,获取待识别图像。
S320,对待识别图像进行特征解耦以得到待识别图像的拍屏特征,该拍屏特征至少包括边框特征、摩尔纹特征、反光特征和其他拍屏特征。
S330,基于待识别图像的拍屏特征进行特征融合,得到待识别图像的融合特征。
S340,将待识别图像的融合特征输入至拍屏图像识别模型中,以识别待识别图像是否为拍屏图像。
图4是本说明书的一个实施例提供的拍屏图像识别方法应用在一种实际场景中的流程示意图。
在图4中,在获取待识别图像后,可对待识别图像进行特征解耦,分别获取待识别图像边框特征、摩尔纹特征、反光特征和其他拍屏特征;再对待识别图像的边框特征、摩尔纹特征、反光特征和其他拍屏特征进行特征融合得到融合特征;最后将融合特征输入至拍屏图像识别模型中,输出识别结果。其中,对待识别图像的边框特征、摩尔纹特征、反光特征和其他拍屏特征进行特征融合得到融合特征,具体可通过权重分配模型来预测待识别图像的边框特征、摩尔纹特征、反光特征和其他拍屏特征的权重,再基于待识别图像的边框特征、摩尔纹特征、反光特征和其他拍屏特征的权重、以及待识别图像的边框特征、摩尔纹特征、反光特征和其他拍屏特征进行特征融合,得到待识别图像的融合特征。
图3所示实施例相关步骤的具体实现可参考图1~图2所示实施例中对应的步骤的具体实现,本说明书在此不再赘述。
本说明书提供的一种或多个实施例,能够对原始图像中的拍屏特征进行特征解耦,即分别提取原始图像中的边框特征、摩尔纹特征、反光特征和其他拍屏特征等拍屏特征,并将提取的不同类型的拍屏特征进行特征融合得到融合特征,最后基于多个不同原始图像对应的融合特征和多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到拍屏图像识别模型。这样不管待识别图像中包含了边框特征、摩尔纹特征、反光特征和其他拍屏特征等任意一种拍屏特征,通过本说明书实施例提供的方法训练得到的拍屏图像识别模型都可以准确识别出待识别图像为拍屏图像。
图5是本说明书的一个实施例提供的一种拍屏图像识别模型的训练装置500的结构示意图。请参考图5,在一种软件实施方式中,拍屏图像识别模型的训练装置500可包括:
特征解耦模块501,对原始图像进行特征解耦以得到原始图像的拍屏特征,所述拍屏特征至少包括边框特征、摩尔纹特征、反光特征和其他拍屏特征;
特征融合模块502,基于原始图像的拍屏特征进行特征融合得到原始图像的融合特征;
模型训练模块503,基于多个不同原始图像对应的融合特征和所述多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到所述拍屏图像识别模型。
可选地,在一种实施方式中,所述特征解耦模块501,用于:
将拉普拉斯算子处理后的原始图像输入至第一卷积神经网络,解耦得到原始图像的边框特征;
将小波变换处理后的原始图像输入至第二卷积神经网络,解耦得到原始图像的摩尔纹特征;
将原始图像的RGB特征空间变换为YCrCb色彩空间,以及将变换后的原始图像输入至第三卷积神经网络,解耦得到原始图像的反光特征;
将原始图像输入至第四卷积神经网络,解耦得到原始图像的其他拍屏特征。
可选地,在一种实施方式中,所述第一卷积神经网络、所述第二卷积神经网络和所述第三卷积神经网络包括高斯卷积神经网络和Canny卷积神经网络中的一种;
所述第四卷积神经网络包括添加了SeNet、CBAM和SKNet中的一种注意力机制的卷积神经网络。
可选地,在一种实施方式中,所述特征融合模块502,用于:
通过权重分配模型预测得到原始图像中的拍屏特征的权重,所述权重分配模型为基于多个原始图像中的拍屏特征训练得到;
基于原始图像中的拍屏特征、以及原始图像中的拍屏特征的权重进行特征融合,得到原始图像的融合特征。
可选地,在一种实施方式中,所述模型训练模块503,用于:
将多个不同原始图像对应的融合特征和所述多个不同原始图像对应的拍屏标签输入至全连接神经网络或分类模型中,对所述拍屏图像识别模型进行训练,得到所述拍屏图像识别模型;
其中,所述分类模型至少包括SVM分类器模型和线性回归分类器模型中的一种。
拍屏图像识别模型的训练装置500能够实现图1的方法实施例的方法,具体可参考图1所示实施例的拍屏图像识别模型的训练方法,不再赘述。
图6是本说明书的一个实施例提供的一种拍屏图像识别装置600的结构示意图。请参考图6,在一种软件实施方式中,拍屏图像识别装置600可包括:
图像获取模块601,获取待识别图像;
特征解耦模块602,对所述待识别图像进行特征解耦以得到所述待识别图像的拍屏特征,所述拍屏特征至少包括边框特征、摩尔纹特征、反光特征和其他拍屏特征;
特征融合模块603,基于所述待识别图像的拍屏特征进行特征融合,得到所述待识别图像的融合特征;
图像识别模块604,将所述待识别图像的融合特征输入至图1训练得到的所述拍屏图像识别模型中,以识别所述待识别图像是否为拍屏图像。
拍屏图像识别装置600能够实现图3的方法实施例的方法,具体可参考图1所示实施例的拍屏图像识别方法,不再赘述。
图7是本说明书的一个实施例电子设备的结构示意图。请参考图7,在硬件层面,该电子设备包括处理器,可选地还包括内部总线、网络接口、存储器。其中,存储器可能包含内存,例如高速随机存取存储器(Random-Access Memory,RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少1个磁盘存储器等。当然,该电子设备还可能包括其他业务所需要的硬件。
处理器、网络接口和存储器可以通过内部总线相互连接,该内部总线可以是ISA(Industry Standard Architecture,工业标准体系结构)总线、PCI(PeripheralComponent Interconnect,外设部件互连标准)总线或EISA(Extended Industry StandardArchitecture,扩展工业标准结构)总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图7中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
存储器,用于存放程序。具体地,程序可以包括程序代码,所述程序代码包括计算机操作指令。存储器可以包括内存和非易失性存储器,并向处理器提供指令和数据。
处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,在逻辑层面上形成拍屏图像识别模型的训练装置。处理器,执行存储器所存放的程序,并具体用于执行以下操作:
对原始图像进行特征解耦以得到原始图像的拍屏特征,所述拍屏特征至少包括边框特征、摩尔纹特征、反光特征和其他拍屏特征;
基于原始图像的拍屏特征进行特征融合得到原始图像的融合特征;
基于多个不同原始图像对应的融合特征和所述多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到所述拍屏图像识别模型。
上述如本说明书图1~图2所示实施例揭示的拍屏图像识别模型的训练装置执行的方法可以应用于处理器中,或者由处理器实现。处理器可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器,包括中央处理器(CentralProcessing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific IntegratedCircuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本说明书实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本说明书实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
该电子设备还可执行图1的方法,并实现拍屏图像识别模型的训练装置在图1所示实施例的功能,本说明书实施例在此不再赘述。
本说明书实施例还提出了一种计算机可读存储介质,该计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,该指令当被包括多个应用程序的便携式电子设备执行时,能够使该便携式电子设备执行图1所示实施例的方法,并具体用于执行以下操作:
对原始图像进行特征解耦以得到原始图像的拍屏特征,所述拍屏特征至少包括边框特征、摩尔纹特征、反光特征和其他拍屏特征;
基于原始图像的拍屏特征进行特征融合得到原始图像的融合特征;
基于多个不同原始图像对应的融合特征和所述多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到所述拍屏图像识别模型。
当然,除了软件实现方式之外,本说明书的电子设备并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
图8是本说明书的一个实施例电子设备的结构示意图。请参考图8,在硬件层面,该电子设备包括处理器,可选地还包括内部总线、网络接口、存储器。其中,存储器可能包含内存,例如高速随机存取存储器(Random-Access Memory,RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少1个磁盘存储器等。当然,该电子设备还可能包括其他业务所需要的硬件。
处理器、网络接口和存储器可以通过内部总线相互连接,该内部总线可以是ISA(Industry Standard Architecture,工业标准体系结构)总线、PCI(PeripheralComponent Interconnect,外设部件互连标准)总线或EISA(Extended Industry StandardArchitecture,扩展工业标准结构)总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图8中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
存储器,用于存放程序。具体地,程序可以包括程序代码,所述程序代码包括计算机操作指令。存储器可以包括内存和非易失性存储器,并向处理器提供指令和数据。
处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,在逻辑层面上形成拍屏图像识别装置。处理器,执行存储器所存放的程序,并具体用于执行以下操作:
获取待识别图像;
对所述待识别图像进行特征解耦以得到所述待识别图像的拍屏特征,所述拍屏特征至少包括边框特征、摩尔纹特征、反光特征和其他拍屏特征;
基于所述待识别图像的拍屏特征进行特征融合,得到所述待识别图像的融合特征;
将所述待识别图像的融合特征输入至图1训练得到的所述拍屏图像识别模型中,以识别所述待识别图像是否为拍屏图像。
上述如本说明书图3~图4所示实施例揭示的拍屏图像识别装置执行的方法可以应用于处理器中,或者由处理器实现。处理器可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器,包括中央处理器(Central ProcessingUnit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本说明书实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本说明书实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
该电子设备还可执行图3的方法,并实现拍屏图像识别装置在图3所示实施例的功能,本说明书实施例在此不再赘述。
本说明书实施例还提出了一种计算机可读存储介质,该计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,该指令当被包括多个应用程序的便携式电子设备执行时,能够使该便携式电子设备执行图3所示实施例的方法,并具体用于执行以下操作:
获取待识别图像;
对所述待识别图像进行特征解耦以得到所述待识别图像的拍屏特征,所述拍屏特征至少包括边框特征、摩尔纹特征、反光特征和其他拍屏特征;
基于所述待识别图像的拍屏特征进行特征融合,得到所述待识别图像的融合特征;
将所述待识别图像的融合特征输入至图1训练得到的所述拍屏图像识别模型中,以识别所述待识别图像是否为拍屏图像。
当然,除了软件实现方式之外,本说明书的电子设备并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
总之,以上所述仅为本说明书的较佳实施例而已,并非用于限定本说明书的保护范围。凡在本说明书的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本说明书的保护范围之内。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
Claims (11)
1.一种拍屏图像识别模型的训练方法,包括:
将拉普拉斯算子处理后的原始图像输入至第一卷积神经网络,解耦得到原始图像的边框特征;将小波变换处理后的原始图像输入至第二卷积神经网络,解耦得到原始图像的摩尔纹特征;将原始图像的RGB特征空间变换为YCrCb色彩空间,以及将变换后的原始图像输入至第三卷积神经网络,解耦得到原始图像的反光特征;将原始图像输入至第四卷积神经网络,解耦得到原始图像的其他拍屏特征,所述其他拍屏特征包括鼠标指针和/或用户手指的特征;
基于原始图像的拍屏特征进行特征融合得到原始图像的融合特征;
基于多个不同原始图像对应的融合特征和所述多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到所述拍屏图像识别模型。
2.如权利要求1所述的方法,
所述第一卷积神经网络、所述第二卷积神经网络和所述第三卷积神经网络包括高斯卷积神经网络和Canny卷积神经网络中的一种;
所述第四卷积神经网络包括添加了SeNet、CBAM和SKNet中的一种注意力机制的卷积神经网络。
3.如权利要求1所述的方法,基于原始图像的拍屏特征进行特征融合得到原始图像的融合特征,包括:
通过权重分配模型预测得到原始图像中的拍屏特征的权重,所述权重分配模型为基于多个原始图像中的拍屏特征训练得到;
基于原始图像中的拍屏特征、以及原始图像中的拍屏特征的权重进行特征融合,得到原始图像的融合特征。
4.如权利要求1所述的方法,基于多个不同原始图像对应的融合特征和所述多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到所述拍屏图像识别模型,包括:
将多个不同原始图像对应的融合特征和所述多个不同原始图像对应的拍屏标签输入至全连接神经网络或分类模型中,对所述拍屏图像识别模型进行训练,得到所述拍屏图像识别模型;
其中,所述分类模型至少包括SVM分类器模型和线性回归分类器模型中的一种。
5.一种拍屏图像识别方法,包括:
获取待识别图像;
将拉普拉斯算子处理后的原始图像输入至第一卷积神经网络,解耦得到原始图像的边框特征;将小波变换处理后的原始图像输入至第二卷积神经网络,解耦得到原始图像的摩尔纹特征;将原始图像的RGB特征空间变换为YCrCb色彩空间,以及将变换后的原始图像输入至第三卷积神经网络,解耦得到原始图像的反光特征;将原始图像输入至第四卷积神经网络,解耦得到原始图像的其他拍屏特征,所述其他拍屏特征包括鼠标指针和/或用户手指的特征;
基于所述待识别图像的拍屏特征进行特征融合,得到所述待识别图像的融合特征;
将所述待识别图像的融合特征输入至权利要求1~4中训练得到的所述拍屏图像识别模型中,以识别所述待识别图像是否为拍屏图像。
6.一种拍屏图像识别模型的训练装置,包括:
特征解耦模块,将拉普拉斯算子处理后的原始图像输入至第一卷积神经网络,解耦得到原始图像的边框特征;将小波变换处理后的原始图像输入至第二卷积神经网络,解耦得到原始图像的摩尔纹特征;将原始图像的RGB特征空间变换为YCrCb色彩空间,以及将变换后的原始图像输入至第三卷积神经网络,解耦得到原始图像的反光特征;将原始图像输入至第四卷积神经网络,解耦得到原始图像的其他拍屏特征,所述其他拍屏特征包括鼠标指针和/或用户手指的特征;
特征融合模块,基于原始图像的拍屏特征进行特征融合得到原始图像的融合特征;
模型训练模块,基于多个不同原始图像对应的融合特征和所述多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到所述拍屏图像识别模型。
7.一种拍屏图像识别装置,包括:
图像获取模块,获取待识别图像;
特征解耦模块,将拉普拉斯算子处理后的原始图像输入至第一卷积神经网络,解耦得到原始图像的边框特征;将小波变换处理后的原始图像输入至第二卷积神经网络,解耦得到原始图像的摩尔纹特征;将原始图像的RGB特征空间变换为YCrCb色彩空间,以及将变换后的原始图像输入至第三卷积神经网络,解耦得到原始图像的反光特征;将原始图像输入至第四卷积神经网络,解耦得到原始图像的其他拍屏特征,所述其他拍屏特征包括鼠标指针和/或用户手指等特征;
特征融合模块,基于所述待识别图像的拍屏特征进行特征融合,得到所述待识别图像的融合特征;
图像识别模块,将所述待识别图像的融合特征输入至权利要求1~4中训练得到的所述拍屏图像识别模型中,以识别所述待识别图像是否为拍屏图像。
8.一种电子设备,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行以下操作:
将拉普拉斯算子处理后的原始图像输入至第一卷积神经网络,解耦得到原始图像的边框特征;将小波变换处理后的原始图像输入至第二卷积神经网络,解耦得到原始图像的摩尔纹特征;将原始图像的RGB特征空间变换为YCrCb色彩空间,以及将变换后的原始图像输入至第三卷积神经网络,解耦得到原始图像的反光特征;将原始图像输入至第四卷积神经网络,解耦得到原始图像的其他拍屏特征,所述其他拍屏特征包括鼠标指针和/或用户手指的特征;
基于原始图像的拍屏特征进行特征融合得到原始图像的融合特征;
基于多个不同原始图像对应的融合特征和所述多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到所述拍屏图像识别模型。
9.一种计算机可读存储介质,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被包括多个应用程序的电子设备执行时,使得所述电子设备执行以下操作:
将拉普拉斯算子处理后的原始图像输入至第一卷积神经网络,解耦得到原始图像的边框特征;将小波变换处理后的原始图像输入至第二卷积神经网络,解耦得到原始图像的摩尔纹特征;将原始图像的RGB特征空间变换为YCrCb色彩空间,以及将变换后的原始图像输入至第三卷积神经网络,解耦得到原始图像的反光特征;将原始图像输入至第四卷积神经网络,解耦得到原始图像的其他拍屏特征,所述其他拍屏特征包括鼠标指针和/或用户手指的特征;
基于原始图像的拍屏特征进行特征融合得到原始图像的融合特征;
基于多个不同原始图像对应的融合特征和所述多个不同原始图像对应的拍屏标签,对拍屏图像识别模型进行训练,得到所述拍屏图像识别模型。
10.一种电子设备,包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行以下操作:
获取待识别图像;
将拉普拉斯算子处理后的原始图像输入至第一卷积神经网络,解耦得到原始图像的边框特征;将小波变换处理后的原始图像输入至第二卷积神经网络,解耦得到原始图像的摩尔纹特征;将原始图像的RGB特征空间变换为YCrCb色彩空间,以及将变换后的原始图像输入至第三卷积神经网络,解耦得到原始图像的反光特征;将原始图像输入至第四卷积神经网络,解耦得到原始图像的其他拍屏特征,所述其他拍屏特征包括鼠标指针和/或用户手指的特征;
基于所述待识别图像的拍屏特征进行特征融合,得到所述待识别图像的融合特征;
将所述待识别图像的融合特征输入至权利要求1~4中训练得到的所述拍屏图像识别模型中,以识别所述待识别图像是否为拍屏图像。
11.一种计算机可读存储介质,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被包括多个应用程序的电子设备执行时,使得所述电子设备执行以下操作:
获取待识别图像;
将拉普拉斯算子处理后的原始图像输入至第一卷积神经网络,解耦得到原始图像的边框特征;将小波变换处理后的原始图像输入至第二卷积神经网络,解耦得到原始图像的摩尔纹特征;将原始图像的RGB特征空间变换为YCrCb色彩空间,以及将变换后的原始图像输入至第三卷积神经网络,解耦得到原始图像的反光特征;将原始图像输入至第四卷积神经网络,解耦得到原始图像的其他拍屏特征,所述其他拍屏特征包括鼠标指针和/或用户手指的特征;
基于所述待识别图像的拍屏特征进行特征融合,得到所述待识别图像的融合特征;
将所述待识别图像的融合特征输入至权利要求1~4中训练得到的所述拍屏图像识别模型中,以识别所述待识别图像是否为拍屏图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210406287.2A CN114819142B (zh) | 2022-04-18 | 2022-04-18 | 拍屏图像识别及其模型的训练方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210406287.2A CN114819142B (zh) | 2022-04-18 | 2022-04-18 | 拍屏图像识别及其模型的训练方法、装置和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114819142A CN114819142A (zh) | 2022-07-29 |
CN114819142B true CN114819142B (zh) | 2024-09-06 |
Family
ID=82536590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210406287.2A Active CN114819142B (zh) | 2022-04-18 | 2022-04-18 | 拍屏图像识别及其模型的训练方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114819142B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104598933A (zh) * | 2014-11-13 | 2015-05-06 | 上海交通大学 | 一种基于多特征融合的图像翻拍检测方法 |
CN108549836A (zh) * | 2018-03-09 | 2018-09-18 | 通号通信信息集团有限公司 | 照片的翻拍检测方法、装置、设备及可读存储介质 |
CN109325933A (zh) * | 2017-07-28 | 2019-02-12 | 阿里巴巴集团控股有限公司 | 一种翻拍图像识别方法及装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229499A (zh) * | 2017-10-30 | 2018-06-29 | 北京市商汤科技开发有限公司 | 证件识别方法及装置、电子设备和存储介质 |
CN111488756B (zh) * | 2019-01-25 | 2023-10-03 | 杭州海康威视数字技术股份有限公司 | 基于面部识别的活体检测的方法、电子设备和存储介质 |
CN109858471A (zh) * | 2019-04-03 | 2019-06-07 | 深圳市华付信息技术有限公司 | 基于图像质量的活体检测方法、装置及计算机设备 |
CN111368944B (zh) * | 2020-05-27 | 2020-09-08 | 支付宝(杭州)信息技术有限公司 | 翻拍图像、证件照识别、模型训练方法、装置及电子设备 |
CN111767828B (zh) * | 2020-06-28 | 2023-12-08 | 京东科技控股股份有限公司 | 证件图像翻拍识别方法、装置、电子设备和存储介质 |
-
2022
- 2022-04-18 CN CN202210406287.2A patent/CN114819142B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104598933A (zh) * | 2014-11-13 | 2015-05-06 | 上海交通大学 | 一种基于多特征融合的图像翻拍检测方法 |
CN109325933A (zh) * | 2017-07-28 | 2019-02-12 | 阿里巴巴集团控股有限公司 | 一种翻拍图像识别方法及装置 |
CN108549836A (zh) * | 2018-03-09 | 2018-09-18 | 通号通信信息集团有限公司 | 照片的翻拍检测方法、装置、设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114819142A (zh) | 2022-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200160040A1 (en) | Three-dimensional living-body face detection method, face authentication recognition method, and apparatuses | |
CN111832535B (zh) | 人脸识别方法及装置 | |
Huh et al. | Fighting fake news: Image splice detection via learned self-consistency | |
TWI701603B (zh) | 輔助物品的圖像合規的方法、裝置和電子設備 | |
US11244157B2 (en) | Image detection method, apparatus, device and storage medium | |
CN110163053B (zh) | 生成人脸识别的负样本的方法、装置及计算机设备 | |
CN108875731B (zh) | 目标识别方法、装置、系统及存储介质 | |
CN107368827B (zh) | 字符识别方法及装置、用户设备、服务器 | |
CN109345553B (zh) | 一种手掌及其关键点检测方法、装置和终端设备 | |
CN110990795A (zh) | 基于对抗样本的隐私信息保护方法、装置及电子设备 | |
CN110032931B (zh) | 生成对抗网络训练、网纹去除方法、装置及电子设备 | |
CN111339884A (zh) | 图像识别方法以及相关设备、装置 | |
CN111353514A (zh) | 模型训练方法、图像识别方法、装置及终端设备 | |
CN113111880A (zh) | 证件图像校正方法、装置、电子设备及存储介质 | |
CN110401488B (zh) | 一种解调方法及装置 | |
CN113129298B (zh) | 文本图像的清晰度识别方法 | |
CN111144425A (zh) | 检测拍屏图片的方法、装置、电子设备及存储介质 | |
CN111178398A (zh) | 检测身份证图像信息篡改的方法、系统、存储介质及装置 | |
CN114202457A (zh) | 低分辨率图像的处理方法、电子设备及计算机程序产品 | |
CN109583910A (zh) | 一种商品授权鉴定方法、装置及设备 | |
CN114819142B (zh) | 拍屏图像识别及其模型的训练方法、装置和电子设备 | |
CN117197857A (zh) | 人脸伪造攻击检测、人脸识别方法、装置和设备 | |
CN111179245A (zh) | 图像质量检测方法、装置、电子设备和存储介质 | |
CN111275071A (zh) | 预测模型训练、预测方法、装置及电子设备 | |
Rathgeb et al. | Effects of image compression on face image manipulation detection: A case study on facial retouching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |