CN116228644A - 图像检测方法、电子设备及存储介质 - Google Patents
图像检测方法、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116228644A CN116228644A CN202211615659.9A CN202211615659A CN116228644A CN 116228644 A CN116228644 A CN 116228644A CN 202211615659 A CN202211615659 A CN 202211615659A CN 116228644 A CN116228644 A CN 116228644A
- Authority
- CN
- China
- Prior art keywords
- detection
- image
- sample image
- area
- fake
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本公开提供了一种图像检测方法、电子设备及存储介质,应用于图像处理技术领域。该方法将待测图像输入深度伪造检测模型中,获取目标检测的检测结果,该检测结果包括待测图像中伪造区域的位置信息;其中,深度伪造检测模型基于融合样本图像训练得到,该融合样本图像通过将伪造样本图像的伪造区域与对应原样本图像的目标区域融合得到,目标区域为伪造区域对应区域之外的区域,且伪造区域根据伪造样本图像与原样本图像间的结构性差异确定。该方法通过对伪造区域进行目标检测,减少了背景信息的干扰,提升鲁棒性;采用成对真伪图像融合训练,提升融合效果;并基于结构性差异确定伪造区域,能够更好地保留伪造特征,无需人工介入,稳定提升检测准确性。
Description
技术领域
本公开属于图像处理技术领域,具体涉及一种图像检测方法、电子设备及存储介质。
背景技术
深度伪造(deepfake)是应用于图像、视频的篡改和生成的图像融合技术,通常基于生成式对抗网络实现,可以将伪造内容融合、拼接到原图像、视频上,形成伪造图像、视频。可以看出,深度伪造技术对图像、视频信息传递的真实可靠形成了威胁。因此,在广泛传播的媒体数据中,可以通过深度伪造检测技术识别伪造图像、视频,以保证信息的真实性、可靠性。
目前,深度伪造检测技术可以基于二分类标签监督的二分类模型实现,通过二分类模型对已知分类标签的原图像、伪造图像进行整体学习,进而对未知分类标签的图像进行分类预测,以识别伪造图像。二分类模型预测的方法受模型鲁棒性影响,对伪造图像识别的泛用性较差。在伪造图像的伪造内容、伪造算法等变化时往往难以检出。或者也可以通过人工定义伪造图像中广泛存在的伪造特征,以及通过随机选取真伪图像进行融合构造训练样本,从而提高伪造图像识别的鲁棒性。但是,人工定义伪造特征人力成本较高,且依赖于人为主观因素影响,难以保证伪造特征定义的准确性、稳定性,且随机选取真伪图像融合使得图像融合效果差,对深度伪造检测泛化性的提升效果有限。
发明内容
本公开的目的是提供一种图像检测方法、电子设备及存储介质,能够解决对深度伪造图像的检测中,二分类模型泛用性差,而随机融合真伪图像的融合效果差,对泛化能力提升效果有限,且人工构造特征时成本高,受主观因素影响,检测的准确性、稳定性差的问题。
为了解决上述技术问题,本公开是这样实现的:
第一方面,本公开提供了一种图像检测方法,该方法可以包括:获取待测图像;将待测图像输入深度伪造检测模型,由深度伪造检测模型对待测图像进行目标检测,获得深度伪造检测模型输出的检测结果,检测结果包括待测图像中伪造区域的位置信息;深度伪造检测模型基于融合样本图像训练得到;融合样本图像通过将伪造样本图像的伪造区域与对应原样本图像中的目标区域进行融合得到的;目标区域为伪造区域相对应区域之外的区域;伪造区域根据伪造样本图像与原样本图像间的结构性差异确定的。
可选地,确定伪造区域的步骤包括:针对各个滑动窗口,确定伪造样本图像与原样本图像在滑动窗口区域内的结构性差异;根据结构性差异确定符合目标条件的目标滑动窗口;将伪造样本图像中目标滑动窗口所对应区域确定为伪造区域。
可选地,检测结果还包括待测图像的第一真伪信息,将待测图像输入深度伪造检测模型,由深度伪造检测模型对待测图像进行目标检测,获得深度伪造检测模型输出的检测结果,包括:将待测图像输入深度伪造检测模型,由深度伪造检测模型对待测图像进行真伪检测和目标检测,输出待测图像的第一真伪信息以及第一检测框,第一检测框用于指示待测图像中伪造区域的位置。
可选地,深度伪造检测模型的训练步骤包括:构建初始深度伪造检测模型,初始深度伪造检测模型包括二分类检测子模型与目标检测子模型;将融合样本图像输入初始深度伪造检测模型,通过初始深度伪造检测模型中的二分类检测子模型对融合样本图像进行二分类检测,获得融合样本图像对应的伪造特征图与第二真伪信息;通过目标检测子模型对伪造特征图进行目标检测,获得第二检测框,第二检测框用于指示融合样本图像中伪造区域的位置;根据第二检测框、第二真伪信息确定损失值,并根据损失值对初始深度伪造检测模型进行更新至收敛,获得深度伪造检测模型。
可选地,通过目标检测子模型对伪造特征图进行目标检测,获得第二检测框,包括:通过目标检测子模型为伪造特征图分配默认检测框,并针对默认检测框进行位置偏移预测与真伪预测,获得预测框;以及,对预测框进行筛选,获得第二检测框。
可选地,对预测框进行筛选,获得第二检测框,包括:分别确定各预测框与伪造区域的交并比;采用非极大值抑制法筛选目标交并比,将目标交并比所对应的预测框作为第二检测框。
可选地,根据第二检测框、第二真伪信息确定损失值,包括:根据默认检测框、第二检测框确定检测损失值,检测损失值包括检测框位置偏移损失值、检测框真伪分类损失值中的至少一种;根据第二真伪信息与融合样本图像所属的伪造分类计算二分类损失值;根据检测损失值和二分类损失值确定损失值。
可选地,获取待测图像,包括:获取原始图像;对原始图像进行人脸检测,确定原始图像中的人脸区域与人脸关键点;基于人脸区域裁剪原始图像,并根据人脸关键点对裁剪后得到的图像进行对齐处理,获得待测图像。
第二方面,本公开提供了一种电子设备,该电子设备包括处理器、存储器及存储在该存储器上并可在该处理器上运行的程序或指令,该程序或指令被该处理器执行时实现如第一方面的图像检测方法的步骤。
第三方面,本公开提供了一种可读存储介质,可读存储介质上存储程序或指令,该程序或指令被处理器执行时实现如第一方面的图像检测方法的步骤。
第四方面,本公开提供了一种芯片,该芯片包括处理器和通信接口,通信接口和处理器耦合,该处理器用于运行程序或指令,实现如第一方面的图像检测方法的步骤。
第五方面,本公开提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行如实现如第一方面的图像检测方法的步骤。
在本公开提供的图像检测方法中,可以将待测图像输入深度伪造检测模型中,并由深度伪造检测模型对待测图像进行目标检测获得输出的检测结果,该检测结果包括待测图像中伪造区域的位置信息;其中,深度伪造检测模型基于融合样本图像训练得到,该融合样本图像通过将伪造样本图像的伪造区域与对应原样本图像的目标区域融合得到,目标区域为伪造区域对应区域之外的区域,且伪造区域根据伪造样本图像与原样本图像间的结构性差异确定。该方法以待测图像的伪造区域为识别目标进行目标检测,减少了深度伪造算法种类、非伪造区域等背景信息对检测结果的干扰,能够更广泛地适用于不同伪造内容、伪造方法,有效提升了深度伪造检测的鲁棒性;而所采用的深度伪造检测模型,通过融合成对的伪造样本图像与原样本图像得到融合样本图像训练得到,能够有效地提升图像融合效果,更好地提升模型泛化能力;并且伪造区域基于原样本图像与伪造样本图像的结构性差异确定,能够在融合样本图像中保留伪造样本图像所包含的伪造特征,也无需人工介入,能更稳定地提升深度伪造检测的准确性,并降低成本。
附图说明
图1为本公开实施例提供的图像检测方法的步骤流程图之一;
图2为本公开实施例提供的本公开实施例提供的伪造区域确定方法的步骤流程图;
图3为本公开实施例提供的基于伪造区域的图像融合流程示意图;
图4为本公开实施例提供的图像检测方法的步骤流程图之二;
图5为本公开实施例提供的初深度伪造检测模型的训练流程示意图;
图6为本公开实施例提供的深度伪造检测装置的结构框图;
图7为本公开实施例提供的一种电子设备的结构示意图;
图8为本公开实施例提供的一种电子设备的硬件示意图。
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
本公开的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”等所区分的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
需要说明的是,本公开获取的数据,包括原图像、伪造图像、人脸图像等相关数据,均在明确告知用户或相关数据所属方对数据的采集内容、数据用途、处理方式等信息后,在用户或相关数据所属方同意、授权的情况下访问、采集、存储并应用于后续分析处理,且可以向用户或相关数据所属方提供访问、更正、删除该数据的途径,以及撤销同意、授权的方法。
下面结合附图,通过具体的实施例及其应用场景对本公开实施例提供的图像检测方法的步骤流程进行详细地说明。
图1为本公开实施例提供的图像检测方法的步骤流程图之一。该方法可以包括如下步骤101至步骤102。
步骤101、获取待测图像。
本公开实施例中,待测图像可以是待深度伪造检测的任意图像。在待测图像中可能存在人像面部伪造,如人像面部的局部或全局替换;也可能存在动作伪造,如根据原动作序列驱动伪造主体的动作变化;也可能存在物体添加、替换的伪造,如人体衣物添加或替换伪造,背景中人像、场景装饰等的添加或替换伪造等,本公开实施例对待侧图像可能存在的伪造内容,或伪造方式不作具体限制。
步骤102、将待测图像输入深度伪造检测模型,由深度伪造检测模型对待测图像进行目标检测,获得深度伪造检测模型输出的检测结果,检测结果包括待测图像中伪造区域的位置信息;深度伪造检测模型基于融合样本图像训练得到;融合样本图像通过将伪造样本图像的伪造区域与对应原样本图像中的目标区域进行融合得到的;目标区域为伪造区域相对应区域之外的区域;伪造区域根据伪造样本图像与原样本图像间的结构性差异确定的。
其中,深度伪造检测模型用于对待测图像进行深度伪造检测,以输出对应检测结果。本公开实施例中,深度伪造检测模型可以对待测图像进行目标检测,以获得包括待测图像中伪造区域的位置信息的检测结果。目标检测用于对图像中目标所处的位置,以及目标所属的类型进行检测,通过目标检测可以区分图像中不同类型的识别目标与图像背景。深度伪造检测模型可以以伪造区域为识别目标,对待测图像中伪造区域进行目标检测,从而在待测图像中存在伪造区域时,输出伪造区域对应的位置信息。该位置信息可以是指示伪造区域位置的检测框,也可以是坐标信息,还可以在待测图像中对伪造区域高亮显示等,该位置信息所表达的含义包括指示区域的位置,以及该指示区域为伪造区域,以区分待测图像中的其他背景区域。可以看出,通过对伪造区域进行目标检测,可以避免待测图像背景的无关信息对检测的干扰,解决对图像整体进行二分类检测鲁棒性差的问题,能够降低伪造内容、伪造算法的变化对检测结果的影响。
在本公开实施例中,深度伪造检测模型采用融合样本图像训练得到,其中,融合样本图像由对应的伪造样本图像(Fake)与原样本图像(Source)融合得到。对应的伪造样本图像与原样本图像,可以由原样本图像,以及在原样本图像基础上进行深度伪造获得的伪造样本图像组成,原样本图像可以是未经过深度伪造的任意图像,如人脸图像、场景图像、物体图像等,每一伪造样本图像对应一个原样本图像,而每一原样本图像根据伪造内容、伪造方式的不同,可以对应一个或两个以上伪造样本图像。目前常随机选取真实图像、伪造图像进行融合构造训练样本,但是随机选取的真实图像、伪造图像在局部融合边缘易产生边缘不对齐的问题,使得训练样本的融合效果差。而本公开实施例中,在伪造样本图像与原样本图像对应匹配的情况下融合获得融合样本图像,能够在图像融合中更好地边缘对齐,有效提升图像的融合效果。
进一步的,融合样本图像由原样本图像的目标区域与伪造样本图像的伪造区域融合得到,目标区域为伪造区域相对应区域以外的区域,且伪造区域根据伪造样本图像与原样本图像间的结构性差异确定。结构性差异(DSSIM),也可以称为结构相异性,是基于结构相似性(Structural Similarity,SSIM)的距离度量。结构相似性通过对图像间进行亮度、对比度、结构等多个维度的比较获得,能够表征视觉感知上图像结构间的关联,从而更符合图像在视觉呈现上效果的相似性。因此,基于结构相似性确定的图像间结构性差异,能够更准确的确定伪造样本图像上相对原样本图像的伪造区域,从而基于伪造区域对伪造样本图像、原样本图像进行融合获得融合样本图像时,能够在融合样本图像中更好地保留伪造特征,避免随机融合真实图像与伪造图像可能造成伪造特征难以有效保留的问题,更好地提升检测精度。
本公开实施例中,融合样本图像还可以包含指示伪造区域的标注信息,该标注信息可以指示融合样本图像中伪造区域所处的位置,以及伪造区域与其他区域所属的不同分类。从而基于融合样本图像训练得到的深度伪造检测模型可以对待测图像进行伪造区域的目标检测,并在待测图像存在伪造区域的情况下,通过检测识别目标与图像背景,输出包括伪造区域的位置信息的检测结果。
在本公开的一方法实施例中,图2示出了本公开实施例提供的伪造区域确定方法的步骤流程图,如图2所示,确定伪造区域的步骤可以包括如下步骤201至步骤203。
步骤201、针对各个滑动窗口,确定伪造样本图像与原样本图像在滑动窗口区域内的结构性差异。
其中,滑动窗口是一种计算机视觉技术,在图像中采用不同尺度的窗口对局部区域进行定位,以对该局部区域进行检测,并通过在图像中移动该窗口使已检测的局部区域能够覆盖图像全局区域,能够对图像在不同尺度下重复扫描。本公开实施例中,同一滑动窗口可以在伪造样本图像、原样本图像中定位相同的局部区域,并分别在伪造样本图像、原样本图像中对局部区域进行扫描,以计算该滑动窗口区域内的结构性差异。各个滑动窗口可以是滑动窗口的位置不同,也可以是滑动窗口的尺度不同。结构性差异可以在结构相似性的基础上确定,结构相似性综合亮度、对比度以及结构等维度,通过如下公式(1)可以度量伪造样本图像与原样本图像间的相似性。
公式(1)中,μf是伪造样本图像中对应滑动窗口内像素平均值,μs是原样本图像中对应滑动窗口内像素平均值,δf 2是伪造样本图像中对应滑动窗口内像素方差,δs 2是原样本图像中对应滑动窗口内像素方差,δfs为原样本图像与伪造样本图像在对应滑动窗口处像素值的协方差,C1、C2为常数。公式(1)中以均值作为亮度指标,方差作为对比度指标,协方差作为结构性指标。
进一步的,DSSIM是对SSIM的距离度量,根据不同的图像处理需求、计算条件等,DSSIM确定方式可以不同,如可以通过如下公式(2)确定:
DSSIM(f,s)=C3(1-SSIM(f,s)) (2)
公式(2)中,C3为常数。
或者,可以通过如下公式(3)确定:
或者,可以通过如下公式(4)确定:
本公开实施例中,对基于结构相似性确定原样本图像与伪造样本图像间,不同滑动窗口对应的结构相异性的方式不作具体限定。
步骤202、根据结构性差异确定符合目标条件的目标滑动窗口。
其中,结构性差异的数值可以表示伪造样本图像、原样本图像在不同滑动窗口局域内结构上的差异性,由于伪造样本图像在原样本图像的基础上经过深度伪造得到,即对原样本图像在局部区域进行伪造。因此可以采用结构性差异作为衡量指标,确定伪造样本图像相对原样本图像伪造的程度。伪造条件可以是基于结构性差异确定的,滑动窗口中伪造样本图像相对原样本图像的达到伪造程度的条件,符合伪造条件的滑动窗口可以作为目标滑动窗口。伪造条件可以是结构性差异的数值与伪造阈值的关系,如在结构性差异的数值越大表示滑动窗口中伪造样本图像与原样本图像的差异越大时,伪造条件可以是结构性差异的数值大于伪造阈值,或结构性差异的数值为各滑动窗口中的最大值等。
如,伪造条件为滑动窗口对应的结构性差异最大,则可以通过如下公式(5)筛选获得目标滑动窗口:
其中,w表示滑动窗口的宽,h表示滑动窗口的高,IF表示伪造样本图像,IS表示原样本图像,(x,y)表示滑动窗口的位置坐标。
步骤203、将伪造样本图像中目标滑动窗口所对应区域确定为伪造区域。
其中,目标滑动窗口对应伪造样本图像相对原样本图像结构性差异符合伪造条件的区域,即伪造样本图像相对原样本图像发生深度伪造的区域。因此,可以在伪造样本图像中,将目标滑动窗口对应的区域作为伪造样本图像相对原样本图像的伪造区域,以确定伪造样本图像相对原样本图像进行深度伪造的位置和范围。进一步的,在原样本图像中伪造区域相对应区域之外的区域,可以作为目标区域。
在本公开实施例中,在确定伪造样本图像中的伪造区域,以及原样本图像中的目标区域后,可以对伪造样本图像、原样本图像进行融合,以获得融合样本图像,使得融合后的融合样本图像包括伪造样本图像的伪造区域,以及原样本图像的目标区域。融合获得的融合样本图像既能够在伪造区域中保留足够的伪造特征,也能够使伪造区域外的目标区域与原样本图像保持一致,避免无关信息在模型训练过程中的干扰,且伪造样本图像与原样本图像间对应,能够有效提升融合效果,避免出现边缘不对齐的问题。
例如,可以根据伪造区域生成对应位置的掩码,并根据如下所示公式(6),以根据掩码对伪造样本图像、原样本图像进行融合,获得融合样本图像:
I′F=8LENDING(IF,IS,M) (6)
其中,M为伪造区域对应的掩码。
在本公开的一方法实施例中,可以采用阿尔法融合实现,阿尔法融合的公式(7)如下所示:
I′F=IF*M+IS*(1-M) (7)。
进一步的,对融合得到的融合样本图像还可以添加标注信息。其中,融合样本图像与原样本图像具有对齐的身份信息,对融合样本图像添加的标注信息可以包括伪造区域的位置坐标,还可以进一步包括伪造区域的所属分类,如对融合样本图像I′Ft,可以添加标注信息包括([xt,yt,xt+h,yt+w],f),h为I′1t中伪造区域的高,w为I′Ft中伪造区域的宽,(xt,yt)为I′1t中伪造区域的位置坐标。
图3为本公开实施例提供的基于伪造区域的图像融合流程示意图,如图3所示,以人像组图为例,包括原样本图像301、伪造样本图像302以及融合样本图像303,其中,伪造样本图像302中以虚线方框A示意结构性差异符合伪造条件的目标滑动框,在融合样本图像303中以虚线方框B对伪造区域进行定位标注。
在本公开的一方法实施例中,检测结果还可以包括待测图像的第一真伪信息。在此基础上,图4示出了本公开实施例提供的图像检测方法的步骤流程图之二。该方法可以包括如下步骤401至步骤402。
步骤401、获取待测图像。
本公开实施例中,步骤401可对应参照前述步骤101的相关描述,为避免重复,在此不再赘述。
步骤402、将待测图像输入深度伪造检测模型,由深度伪造检测模型对待测图像进行真伪检测和目标检测,输出待测图像的第一真伪信息以及第一检测框,第一检测框用于指示待测图像中伪造区域的位置;深度伪造检测模型基于融合样本图像训练得到;融合样本图像通过将伪造样本图像的伪造区域与对应原样本图像中的目标区域进行融合得到的;目标区域为伪造区域相对应区域之外的区域;伪造区域根据伪造样本图像与原样本图像间的结构性差异确定的。
本公开实施例中,深度伪造检测模型还可以对待测图像进行二分类的真伪检测,真伪检测可以对待测图像整体进行评分,以预测待测图像所属分类为真实,或是为伪造。深度伪造检测模型可以采用标注所属分类的融合样本图像进行训练,从而能够实现对待测图像的真伪检测。深度伪造检测模型输出的检测结果可以包括第一真伪信息以及第一检测框,其中,第一真伪信息用于指示待测图像整体的分类检测结果,为真实或为伪造,第一检测框用于定位待测图像中被预测为伪造区域的局部区域,具体可参照前述步骤101的相关描述,为避免重复,在此不再赘述。
在本公开的一方法实施例中,在人脸深度伪造检测的场景中,获取的待测图像可以包含人脸图像,步骤401可以包括如下步骤A1至步骤A3。
步骤A1、获取原始图像。
其中,原始图像可以是包括待深度伪造检测人脸的任意图像,如包括人像的照片,或视频帧等。原始图像尺寸可能不同,且人像分布也具有随机性,可以进行预处理,便于后续模型的检测任务。
步骤A2、对原始图像进行人脸检测,确定原始图像中的人脸区域与人脸关键点。
本公开实施例中,可以对原始图像进行人脸检测,以确定原始图像中人脸的数量、大小、位置,以及面部特征等,人脸检测的结果可以包括人脸区域、以及人脸关键点等。其中,人脸区域可以包括位置坐标、人脸检测框等,以及对应的置信度得分,人脸关键点可以根据面部特征确定,如五官、眉毛、脸颊等。
在本公开的一方法实施例中,还可以根据置信度得分对人脸区域进行筛选,进而保留置信度得分大于或等于置信度阈值的人脸区域,以及该人脸区域对应的人脸关键点,从而在原始图像中准确定位包含人脸的局部区域,避免其他背景对后续检测任务的干扰。
步骤A3、基于人脸区域裁剪原始图像,并根据人脸关键点对裁剪后得到的图像进行对齐处理,获得待测图像。
进一步的,可以基于人脸区域对原始图像进行裁剪,去除无关干扰的背景图像,并根据人脸关键点对裁剪后的原始图像进行透视变换操作,以使不同人脸间五官等面部特征居中对齐,获得待测图像。其中,为了适应模型的识别条件,还可以将裁剪后对齐的原始图像缩放到相同的尺寸,以获得待测图像,如可以缩放到224x224。
本公开实施例中,融合样本图像具有与原样本图像对齐的身份信息,以及伪造区域位置坐标、所属分类的标注信息,在此基础上,可以采用样本融合图像进行目标检测模型的训练,以使目标检测模型学习对融合样本图像中伪造区域特征、位置的预测,从而获得能够对待测图像进行目标检测,获得检测结果包括伪造区域位置信息的深度伪造检测模型。目标检测模型可以采用YOLO(You Only Look Once,你只看一次)、SSD(Single ShotMultiBox Detector,单视多窗检测器)等方法实现,本申请对构建目标检测模型的方式不作具体限制。
在本公开的一方法实施例中,图4示出了本公开实施例提供的深度伪造检测模型训练的步骤流程图,如图4所示,前述图1至3图像检测方法中所应用的深度伪造检测模型的训练步骤可以包括如下步骤401至步骤404。其中,该深度伪造检测模型包括二分类检测子模型与目标检测子模型。
步骤401、构建初始深度伪造检测模型,初始深度伪造检测模型包括二分类检测子模型与目标检测子模型。
本公开实施例中,可以采用二分类检测、目标检测结合的方式实现深度伪造检测,在此基础上,深度伪造检测模型可以包括二分类检测子模型与目标检测子模型,其中,目标检测子模型可以参照前述说明,为避免重复,在此不再赘述;二分类检测子模型可以采用ResNet(ResidualNet,残差神经网络)、CNN(Convolutional Neural Networks,卷积神经网络)等方法实现,本领域技术人员可以根据实际数据质量、业务需求、计算条件等选择不用的模型组合。在确定二分类检测子模型、目标检测子模型所组合的结构后,可以建立对应的初始深度伪造检测模型。
步骤402、将融合样本图像输入初始深度伪造检测模型,通过初始深度伪造检测模型中的二分类检测子模型对融合样本图像进行二分类检测,获得融合样本图像对应的伪造特征图与第二真伪信息。
其中,可以将携带有标注信息的融合样本图像输入构建的初始深度伪造检测模型中,使二分类检测子模型基于标注信息学习融合样本图像的真伪分类。基于融合样本图像二分类检测子模块可以输出对应多尺度的伪造特征图,以及融合样本图像对应的第二真伪信息,从而实现对融合样本图像进行整体真伪分类检测的过程。
步骤403、通过目标检测子模型对伪造特征图进行目标检测,获得第二检测框,第二检测框用于指示融合样本图像中伪造区域的位置。
其中,目标检测子模型可以基于二分类检测子模型提供的伪造特征图,对融合样本图像中的伪造区域进行目标检测,从而获得指示融合样本图像中伪造区域位置的第二检测框,该第二检测框可以作为模型训练过程中检测结果所包含的位置信息。
在本公开的一可选实施例中,步骤403可以具体包括如下步骤B。
步骤B、通过目标检测子模型为伪造特征图分配默认检测框,并针对默认检测框进行位置偏移预测与真伪预测,获得预测框;以及,对预测框进行筛选,获得第二检测框。
其中,目标检测子模型可以对伪造特征图的每个单元分配多尺度的默认检测框,并针对每个默认检测框进行位置偏移预测,以及真伪预测,以获得发生位置偏移后,且框内包括伪造特征的预测框。其中,位置偏移预测用于预测预测框相对默认检测框的位置偏移量,真伪预测用于预测预测框中是否包含伪造特征,即预测框中属于真实或伪造分类。
进一步的,还可以对预测框进行筛选,去除存在重复率高、伪造分类的预测得分低等问题的预测框,以使获得的第二检测框能够显著区分融合样本图像的伪造区域,与背景的其他区域。在此基础上,获得的第二检测框可以更准确地指示伪造区域的位置,并避免背景无关信息的干扰。
在本公开的一可选实施例中,步骤B可以具体包括如下步骤B1至步骤B2。
步骤B1、分别确定各预测框与伪造区域的交并比。
步骤B2、采用非极大值抑制法筛选目标交并比,将目标交并比所对应的预测框作为第二检测框。
步骤404、根据第二检测框、第二真伪信息确定损失值,并根据损失值对初始深度伪造检测模型进行更新至收敛,获得深度伪造检测模型。
其中,在深度伪造检测模型中,可以通过目标检测子模型根据融合样本图像中的伪造区域,分别确定每一预测框与伪造区域的交并比,并基于交并比采用非极大值抑制法筛选预测框,获得第二检测框。在此过程中,交并比(Intersection over Union,loU)通过计算两边界框之间交集与并集的比获得,可以表征两边界框之间的重合程度。因此,预测框相对伪造区域的交并比可以衡量预测框的预测准确度。通常来说,交并比越大,预测框的预测准确度越高,因此可以采用非极大值抑制法(Non-Maximum Suppression,NMS)对滑动窗口进行邻域局部搜索,抑制交并比低,以及重复、重叠的预测框,获得显著的第二检测框。
在本公开的一可选实施例中,在步骤B的基础上,还可以根据深度伪造检测模型输出的第二检测框、第二真伪信息等确定损失值,其中可以包括第二真伪信息对应的损失值,以及第二检测框对应的损失值。进一步,根据损失值可以对初始深度伪造检测模型进行参数调整,至损失值或迭代次数达到达到收敛条件,获得深度伪造检测模型。即步骤404可以具体包括如下步骤C1至步骤C3。
步骤C1、根据默认检测框、第二检测框确定检测损失值,检测损失值包括检测框位置偏移损失值、检测框真伪分类损失值中的至少一种。
本公开实施例中,损失值可以包括第二检测框对应的检测损失值,检测损失值可以基于默认检测框、第二检测框,以及伪造区域的位置进行计算,如可以包括默认检测框是否匹配伪造区域,以及检测框位置偏移损失值、检测框真伪分类损失值等;检测框位置偏移损失值可以是第二检测框的位置偏移,与默认检测框相比伪造区域的位置偏移的光滑损失;检测框真伪分类损失值可以是第二检测框内真实分类、伪造分类预测的二分类交叉熵损失。
如,检测损失Ldet可以通过如下公式(8)计算:
其中,Lconf是检测框真伪分类损失值;x∈{0,1}表示默认检测框是否匹配伪造区域,{0}表示未匹配,{1}表示匹配;Lloc是第二检测框的位置偏移l与默认检测框相比伪造区域的位置偏移g的光滑损失。
步骤C2、根据第二真伪信息与融合样本图像所属的伪造分类计算二分类损失值。
本公开实施例中,二分类损失值可以是对融合样本图像真伪检测的二分类交叉熵损失,即初始深度伪造检测模型输出的第二真伪信息相对融合样本图像的实际分类间的损失。
步骤C3、根据检测损失值和二分类损失值确定损失值。
本公开实施例中,根据检测损失值、二分类损失值等多种损失值,可以确定初始深度伪造检测模型对融合样本图像预测的损失值,其中,可以对检测损失值、二分类损失值通过如下公式(9)进行加权求和获得损失值:
L=βLdet+LTls (9)
其中,Lcls为二分类损失值,β为加权权重。
图5为本公开实施例提供的深度伪造检测模型的训练流程示意图,如图5所示,初始深度伪造检测模型50包括二分类检测子模型501与目标检测子模型502,融合样本图像输入初始深度伪造检测模型50,由二分类检测子模型501对融合样本图像执行步骤402进行真伪检测,获得多尺寸的伪造特征图与第二真伪信息,其中伪造特征图的尺寸按照7x7、5x5、3x3、1x1的逐级递减;由目标检测子模型对伪造特征图执行步骤403,获得第二检测框;根据第二检测框、第二真伪信息执行步骤404,确定损失值;并根据损失值对初始深度伪造检测模型50进行迭代,至其收敛,获得深度伪造检测模型。
在本公开提供的图像检测方法中,可以将待测图像输入深度伪造检测模型中,并由深度伪造检测模型对待测图像进行目标检测获得输出的检测结果,该检测结果包括待测图像中伪造区域的位置信息;其中,深度伪造检测模型基于融合样本图像训练得到,该融合样本图像通过将伪造样本图像的伪造区域与对应原样本图像的目标区域融合得到,目标区域为伪造区域对应区域之外的区域,且伪造区域根据伪造样本图像与原样本图像间的结构性差异确定。该方法以待测图像的伪造区域为识别目标进行目标检测,减少了深度伪造算法种类、非伪造区域等背景信息对检测结果的干扰,能够更广泛地适用于不同伪造内容、伪造方法,有效提升了深度伪造检测的鲁棒性;而所采用的深度伪造检测模型,通过融合成对的伪造样本图像与原样本图像得到融合样本图像训练得到,能够有效地提升图像融合效果,更好地提升模型泛化能力;并且伪造区域基于原样本图像与伪造样本图像的结构性差异确定,能够在融合样本图像中保留伪造样本图像所包含的伪造特征,也无需人工介入,能更稳定地提升深度伪造检测的准确性,并降低成本。
图6为本公开实施例提供的深度伪造检测装置60的结构框图,该深度伪造检测装置可以包括:图像获取模块601,用于获取待测图像;图像检测模块602,用于将待测图像输入深度伪造检测模型,由深度伪造检测模型对待测图像进行目标检测,获得深度伪造检测模型输出的检测结果,检测结果包括待测图像中伪造区域的位置信息;深度伪造检测模型基于融合样本图像训练得到;融合样本图像通过将伪造样本图像的伪造区域与对应原样本图像中的目标区域进行融合得到的;目标区域为伪造区域相对应区域之外的区域;伪造区域根据伪造样本图像与原样本图像间的结构性差异确定的。
在本公开的一装置实施例中,图像获取模块601,具体用于针对各个滑动窗口,确定伪造样本图像与原样本图像在滑动窗口区域内的结构性差异;根据结构性差异确定符合目标条件的目标滑动窗口;将伪造样本图像中目标滑动窗口所对应区域确定为伪造区域。
在本公开的一装置实施例中,检测结果还包括待测图像的第一真伪信息,则图像检测模型602,具体用于将待测图像输入深度伪造检测模型,由深度伪造检测模型对待测图像进行真伪检测和目标检测,输出待测图像的第一真伪信息以及第一检测框,第一检测框用于指示待测图像中伪造区域的位置。
在本公开的一装置实施例中,深度伪造检测模型包括二分类检测子模型与目标检测子模型,该装置还可以包括模型训练模块,用于构建初始深度伪造检测模型,初始深度伪造检测模型包括二分类检测子模型与目标检测子模型;将融合样本图像输入初始深度伪造检测模型,通过初始深度伪造检测模型中的二分类检测子模型对融合样本图像进行二分类检测,获得融合样本图像对应的伪造特征图与第二真伪信息;通过目标检测子模型对伪造特征图进行目标检测,获得第二检测框,第二检测框用于指示融合样本图像中伪造区域的位置;根据第二检测框、第二真伪信息确定损失值,并根据损失值对初始深度伪造检测模型进行更新至收敛,获得深度伪造检测模型。
在本公开的一装置实施例中,模型训练模块,具体用于通过目标检测子模型为伪造特征图分配默认检测框,并针对默认检测框进行位置偏移预测与真伪预测,获得预测框;以及,对预测框进行筛选,获得第二检测框。
在本公开的一装置实施例中,模型训练模块,具体用于分别确定各预测框与伪造区域的交并比;采用非极大值抑制法筛选目标交并比,将目标交并比所对应的预测框作为第二检测框。
在本公开的一装置实施例中,模型训练模块,具体用于根据默认检测框、第二检测框确定检测损失值,检测损失值包括检测框位置偏移损失值、检测框真伪分类损失值中的至少一种;根据第二真伪信息与融合样本图像所属的伪造分类计算二分类损失值;根据检测损失值和二分类损失值确定损失值。
在本公开的一装置实施例中,图像获取模块601,具体用于获取原始图像;对原始图像进行人脸检测,确定原始图像中的人脸区域与人脸关键点;基于人脸区域裁剪原始图像,并根据人脸关键点对裁剪后得到的图像进行对齐处理,获得待测图像。
在本公开提供的深度伪造检测装置中,可以将待测图像输入深度伪造检测模型中,并由深度伪造检测模型对待测图像进行目标检测获得输出的检测结果,该检测结果包括待测图像中伪造区域的位置信息;其中,深度伪造检测模型基于融合样本图像训练得到,该融合样本图像通过将伪造样本图像的伪造区域与对应原样本图像的目标区域融合得到,目标区域为伪造区域对应区域之外的区域,且伪造区域根据伪造样本图像与原样本图像间的结构性差异确定。该方法以待测图像的伪造区域为识别目标进行目标检测,减少了深度伪造算法种类、非伪造区域等背景信息对检测结果的干扰,能够更广泛地适用于不同伪造内容、伪造方法,有效提升了深度伪造检测的鲁棒性;而所采用的深度伪造检测模型,通过融合成对的伪造样本图像与原样本图像得到融合样本图像训练得到,能够有效地提升图像融合效果,更好地提升模型泛化能力;并且伪造区域基于原样本图像与伪造样本图像的结构性差异确定,能够在融合样本图像中保留伪造样本图像所包含的伪造特征,也无需人工介入,能更稳定地提升深度伪造检测的准确性,并降低成本。
图7为本公开实施例提供的一种电子设备700的结构示意图,如图7所示,该电子设备700可以包括处理器701,存储器702,存储在存储器702上并可在处理器701上运行的程序或指令,该程序或指令被处理器701执行时实现上述图像检测方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要说明的是,图7示出的电子设备700仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
图8为本公开实施例提供的一种电子设备800的硬件示意图,如图8所示,电子设备800包括中央处理单元(Central Processing Unit,CPU)801,其可以根据存储在ROM(ReadOnly Memory,只读存储器,)802中的程序或者从存储部分808加载到RAM(Random AccessMemory,随机访问存储器)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有系统操作所需的各种程序和数据。CPU 801、ROM 802以及RAM 803通过总线804彼此相连。I/O(Input/Output,输入/输出)接口805也连接至总线804。
以下部件连接至I/O接口805:包括键盘、鼠标等的输入部分806;包括诸如CRT(Cathode Ray Tube,阴极射线管)、LCD(Liquid Crystal Display,液晶显示器)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN(Local AreaNetwork,无线网络)卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
特别地,根据本公开的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被中央处理单元(CPU501)执行时,执行本申请的系统中限定的各种功能。
本公开实施例还提供一种可读存储介质,可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述图像检测方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,处理器为上述实施例中的电子设备中的处理器。可读存储介质,包括计算机可读存储介质,如ROM、RAM、磁碟或者光盘等。
本公开实施例另提供了一种芯片,芯片包括处理器和通信接口,通信接口和处理器耦合,处理器用于运行程序或指令,实现上述图像检测方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本公开实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
本公开实施例提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行如上述的图像检测方法的步骤,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本公开实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,电子设备,空调器,或者网络设备等)执行本公开各个实施例的方法。
上面结合附图对本公开的实施例进行了描述,但是本公开并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本公开的启示下,在不脱离本公开宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本公开的保护之内。
Claims (11)
1.一种图像检测方法,其特征在于,所述方法包括:
获取待测图像;
将所述待测图像输入深度伪造检测模型,由所述深度伪造检测模型对所述待测图像进行目标检测,获得所述深度伪造检测模型输出的检测结果,所述检测结果包括所述待测图像中伪造区域的位置信息;所述深度伪造检测模型基于融合样本图像训练得到;所述融合样本图像通过将伪造样本图像的伪造区域与对应原样本图像中的目标区域进行融合得到的;所述目标区域为所述伪造区域相对应区域之外的区域;所述伪造区域根据所述伪造样本图像与所述原样本图像间的结构性差异确定的。
2.根据权利要求1所述的方法,其特征在于,确定所述伪造区域的步骤包括:
针对各个滑动窗口,确定所述伪造样本图像与所述原样本图像在所述滑动窗口区域内的结构性差异;
根据所述结构性差异确定符合目标条件的目标滑动窗口;
将所述伪造样本图像中所述目标滑动窗口所对应区域确定为所述伪造区域。
3.根据权利要求1或2所述的方法,其特征在于,所述检测结果还包括所述待测图像的第一真伪信息,所述将所述待测图像输入深度伪造检测模型,由所述深度伪造检测模型对所述待测图像进行目标检测,获得所述深度伪造检测模型输出的检测结果,包括:
将所述待测图像输入深度伪造检测模型,由所述深度伪造检测模型对所述待测图像进行真伪检测和目标检测,输出所述待测图像的第一真伪信息以及第一检测框,所述第一检测框用于指示所述待测图像中所述伪造区域的位置。
4.根据权利要求1或2所述的方法,其特征在于,所述深度伪造检测模型的训练步骤包括:
构建初始深度伪造检测模型,所述初始深度伪造检测模型包括二分类检测子模型与目标检测子模型;
将所述融合样本图像输入初始深度伪造检测模型,通过所述初始深度伪造检测模型中的所述二分类检测子模型对所述融合样本图像进行二分类检测,获得所述融合样本图像对应的伪造伪造特征图与第二真伪信息;
通过所述目标检测子模型对所述伪造特征图进行目标检测,获得第二检测框,所述第二检测框用于指示所述融合样本图像中所述伪造区域的位置;
根据所述第二检测框、所述第二真伪信息确定损失值,并根据所述损失值对所述初始深度伪造检测模型进行更新至收敛,获得所述深度伪造检测模型。
5.根据权利要求4所述的方法,其特征在于,所述通过所述目标检测子模型对所述伪造特征图进行目标检测,获得第二检测框,包括:
通过所述目标检测子模型为所述伪造伪造特征图分配默认检测框,并针对所述默认检测框进行位置偏移预测与真伪预测,获得预测框;以及,对所述预测框进行筛选,获得第二检测框。
6.根据权利要求5所述的方法,其特征在于,所述对所述预测框进行筛选,获得第二检测框,包括:
分别确定各所述预测框与所述伪造区域的交并比;
采用非极大值抑制法筛选目标交并比,将所述目标交并比所对应的预测框作为所述第二检测框。
7.根据权利要求5所述的方法,其特征在于,所述根据所述第二检测框、所述第二真伪信息确定损失值,包括:
根据所述默认检测框、所述第二检测框确定检测损失值,所述检测损失值包括检测框位置偏移损失值、检测框真伪分类损失值中的至少一种;
根据所述第二真伪信息与所述融合样本图像所属的伪造分类计算二分类损失值;
根据所述检测损失值和所述二分类损失值确定所述损失值。
8.根据权利要求1所述的方法,其特征在于,所述获取待测图像,包括:
获取原始图像;
对所述原始图像进行人脸检测,确定所述原始图像中的人脸区域与人脸关键点;
基于所述人脸区域裁剪所述原始图像,并根据所述人脸关键点对裁剪后得到的图像进行对齐处理,获得所述待测图像。
9.一种电子设备,其特征在于,所述电子设备包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-8任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-8任一项所述的方法。
11.一种计算机程序产品,其特征在于,所述计算机程序产品上存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-8任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211615659.9A CN116228644A (zh) | 2022-12-15 | 2022-12-15 | 图像检测方法、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211615659.9A CN116228644A (zh) | 2022-12-15 | 2022-12-15 | 图像检测方法、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116228644A true CN116228644A (zh) | 2023-06-06 |
Family
ID=86572006
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211615659.9A Pending CN116228644A (zh) | 2022-12-15 | 2022-12-15 | 图像检测方法、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116228644A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117611923A (zh) * | 2024-01-08 | 2024-02-27 | 北京锐融天下科技股份有限公司 | 一种身份证件真伪识别方法及系统 |
-
2022
- 2022-12-15 CN CN202211615659.9A patent/CN116228644A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117611923A (zh) * | 2024-01-08 | 2024-02-27 | 北京锐融天下科技股份有限公司 | 一种身份证件真伪识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021139324A1 (zh) | 图像识别方法、装置、计算机可读存储介质及电子设备 | |
CN101142584B (zh) | 面部特征检测的方法 | |
US8064653B2 (en) | Method and system of person identification by facial image | |
CN111144366A (zh) | 一种基于联合人脸质量评估的陌生人脸聚类方法 | |
WO2020200095A1 (zh) | 动作识别方法和装置、电子设备、存储介质 | |
CN111325769A (zh) | 一种目标对象检测方法及装置 | |
Piekarczyk | Hierarchical random graph model for off-line handwritten signatures recognition | |
CN111178146A (zh) | 基于人脸特征识别主播的方法及装置 | |
CN112560584A (zh) | 一种人脸检测方法及装置、存储介质、终端 | |
CN113344000A (zh) | 证件翻拍识别方法、装置、计算机设备和存储介质 | |
JP2005032250A (ja) | 顔を検出する処理方法及び画像中の顔の検出装置 | |
CN116228644A (zh) | 图像检测方法、电子设备及存储介质 | |
CN111553914A (zh) | 基于视觉的货物检测方法、装置、终端及可读存储介质 | |
CN111402185B (zh) | 一种图像检测方法及装置 | |
CN116206373A (zh) | 活体检测方法、电子设备及存储介质 | |
CN110751623A (zh) | 基于联合特征的缺陷检测方法、装置、设备及存储介质 | |
CN114758384A (zh) | 人脸检测方法、装置、设备及存储介质 | |
CN111753722B (zh) | 一种基于特征点类型的指纹识别方法及装置 | |
CN110245590B (zh) | 一种基于皮肤图像检测的产品推荐方法及系统 | |
CN114067401A (zh) | 目标检测模型的训练及身份验证方法和装置 | |
CN113191227A (zh) | 柜门状态的检测方法、装置、设备及存储介质 | |
CN111414895A (zh) | 一种人脸识别方法,装置及存储设备 | |
CN114092743B (zh) | 敏感图片的合规性检测方法、装置、存储介质及设备 | |
CN117495855B (zh) | 基于图像处理的皮肤缺陷评价方法及系统 | |
CN112418218B (zh) | 目标区域检测方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |