CN117576791B - 基于生机线索和垂直领域大模型范式的活体检测方法 - Google Patents

基于生机线索和垂直领域大模型范式的活体检测方法 Download PDF

Info

Publication number
CN117576791B
CN117576791B CN202410064846.5A CN202410064846A CN117576791B CN 117576791 B CN117576791 B CN 117576791B CN 202410064846 A CN202410064846 A CN 202410064846A CN 117576791 B CN117576791 B CN 117576791B
Authority
CN
China
Prior art keywords
living body
body detection
branch structure
training
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410064846.5A
Other languages
English (en)
Other versions
CN117576791A (zh
Inventor
王东
何昊驰
陈志安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Moredian Technology Co ltd
Original Assignee
Hangzhou Moredian Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Moredian Technology Co ltd filed Critical Hangzhou Moredian Technology Co ltd
Priority to CN202410064846.5A priority Critical patent/CN117576791B/zh
Publication of CN117576791A publication Critical patent/CN117576791A/zh
Application granted granted Critical
Publication of CN117576791B publication Critical patent/CN117576791B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0895Weakly supervised learning, e.g. semi-supervised or self-supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及一种基于生机线索和垂直领域大模型范式的活体检测方法,其中,该方法通过根据预先获取的训练数据集进行自监督学习模型训练;根据训练好的自监督学习模型中的全局分支结构,构建活体检测模型,活体检测模型包括回归任务和分类任务,回归任务用于抑制训练数据中攻击人脸样本生成生机线索,分类任务用于获取第一真实人脸概率;根据活体检测模型,基于待检测图像,获取第一真实人脸概率和生机线索特征图,基于生机线索特征图,获取第二真实人脸概率,基于第一真实人脸概率和第二真实人脸概率,获取检测结果。实现了人脸活体精确检测,解决相关技术中人脸活体检测存在精确度低的问题,提高人脸活体检测的精确度。

Description

基于生机线索和垂直领域大模型范式的活体检测方法
技术领域
本申请涉及图像处理技术领域,特别是涉及一种基于生机线索和垂直领域大模型范式的活体检测方法、系统、设备和介质。
背景技术
人脸活体检测是保障人脸识别系统安全性的重要技术模块,负责防御相片、屏幕、3D头模等载体呈现的假人脸对系统进行攻击。人脸活体检测技术在现实场景中的应用面临着艰巨的挑战。攻击手段和防御方法的发展是一个交替迭代进化的过程,攻击手段层出不穷,并且其进化通常要领先于防御方法。因此负责防御的人脸活体检测技术面临的是一个开集问题,相比其他常见的闭集计算机视觉任务,未知呈现形式的攻击手段对算法的泛化能力要求更高。2D成像中的人脸活体检测是该领域的重点和难点。
目前,真实人脸和假人脸之间的区分性视觉特征不显著,无法对其进行泛化性的定义,所以任务本身的特殊性阻碍了算法的可视化和可解释性发展。目前业界应用的算法主要分为2类:基于分类监督的方法、像素级辅助监督的方法。第一种方法简单地套用了闭集计算机视觉分类方法,在没有良好数据基础的情况下很难取得好的效果;第二种方法在任务针对性设计上比第一种有所突破,应用像素级分类监督,结合了基于人类先验知识的标签(如伪深度、反射图),然而这类掩码标签在现有的方法中假定了面部区域的所有像素都具有相同的分布,这样的强约束会导致在处理局部攻击呈现形式时(如眼部区域挖孔的面具)非常不精确。
因此,相关技术中人脸活体检测存在精确度低的问题。
发明内容
本申请实施例提供了一种基于生机线索和垂直领域大模型范式的活体检测方法、系统、设备和介质,以至少解决相关技术中人脸活体检测存在精确度低的问题。
第一方面,本申请实施例提供了一种基于生机线索和垂直领域大模型范式的活体检测方法,所述方法包括:
根据预先获取的训练数据集进行自监督学习模型训练,所述自监督学习模型包括局部分支结构和全局分支结构,所述局部分支结构和全局分支结构均包括编码网络和解码网络,通过所述局部分支结构的权重更新所述全局分支结构的权重;
根据训练好的所述自监督学习模型中的所述全局分支结构,构建活体检测模型,所述活体检测模型包括回归任务和分类任务,所述回归任务用于抑制训练数据中攻击人脸样本生成生机线索,并获取生机线索特征图,所述分类任务用于根据训练数据中所述攻击人脸样本和人脸真实样本,获取第一真实人脸概率;
根据所述活体检测模型,基于待检测图像,获取所述第一真实人脸概率和所述生机线索特征图,基于所述生机线索特征图,获取第二真实人脸概率,基于所述第一真实人脸概率和所述第二真实人脸概率,获取检测结果。
在一实施例中,所述根据训练好的所述自监督学习模型中的所述全局分支结构,构建活体检测模型,包括:
将所述全局分支结构的权重,以及所述编码网络、所述解码网络作为所述活体检测模型的基础结构;
在所述活体检测模型中设置回归任务和分类任务,其中,所述回归任务以带有标签的攻击人脸样本和真实人脸样本作为数据输入,输出生机线索特征图,所述分类任务以带有标签的攻击人脸样本和真实人脸样本作为数据输入,输出真实人脸概率;
对所述回归任务和所述分类任务进行优化,响应于所述回归任务获取攻击人脸样本生成全0的生机线索特征图,以及响应于所述分类任务获取最小化交叉熵损失函数的参数,获取活体检测模型。
在一实施例中,对所述回归任务进行优化,包括:
根据所述攻击人脸样本的数量以及所述生机线索特征图的矩阵一范数,对所述回归任务进行优化。
在一实施例中,所述根据预先获取的训练数据集进行自监督学习模型训练,包括:
以所述训练数据集中训练样本的局部视角图像块作为所述局部分支结构的输入,经过所述编码网络和所述解码网络,获取第一特征图;
以所述训练数据集中训练样本的全局视角图像块作为所述全局分支结构的输入,经过所述编码网络和所述解码网络,获取第二特征图;
根据所述局部分支结构的梯度反向传播,通过局部分支结构权重的指数移动平均,更新所述全局分支结构的权重参数;
根据所述第一特征图中的特征点和所述第二特征图中的相对应特征点,响应于所述特征点与所述相对应特征点的最小化特征二范数距离,以完成所述自监督学习模型训练。
在一实施例中,所述全局视角图像块作为所述全局分支结构的输入,经过所述编码网络和所述解码网络之后,还经过中心化操作。
在一实施例中,所述在根据预先获取的训练数据集进行自监督学习模型训练之前,所述方法还包括:
获取训练数据集,所述训练数据集包括训练样本的局部视角图像块和训练样本的全局视角图像块。
在一实施例中,所述基于所述第一真实人脸概率和所述第二真实人脸概率,获取检测结果,包括:
对所述第二真实人脸概率赋予预设权重;
将赋予预设权重后的所述第二真实人脸概率和所述第一真实人脸概率相结合,获取所述待检测图像为真实人脸的概率;将所述真实人脸的概率作为检测结果。
第二方面,本申请实施例提供了一种基于生机线索和垂直领域大模型范式的活体检测的系统,所述系统包括自监督学习模型训练模块、构建活体检测模型模块和获取检测结果模块,其中:
自监督学习模型训练模块,根据预先获取的训练数据集进行自监督学习模型训练,所述自监督学习模型包括局部分支结构和全局分支结构,所述局部分支结构和全局分支结构均包括编码网络和解码网络,通过所述局部分支结构的权重更新所述全局分支结构的权重;
构建活体检测模型模块,用于根据训练好的所述自监督学习模型中的所述全局分支结构,构建活体检测模型,所述活体检测模型包括回归任务和分类任务,所述回归任务用于抑制训练数据中攻击人脸样本生成生机线索,并获取生机线索特征图,所述分类任务用于根据训练数据中所述攻击人脸样本和人脸真实样本,获取第一真实人脸概率;
获取检测结果模块,用于根据所述活体检测模型,基于待检测图像,获取所述真实人脸概率和所述生机线索特征图,基于所述生机线索特征图,获取第二真实人脸概率,基于所述真实一人脸概率和所述第二真实人脸概率,获取检测结果。
第三方面,本申请实施例提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面所述的一种基于生机线索和垂直领域大模型范式的活体检测方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上述第一方面所述的一种基于生机线索和垂直领域大模型范式的活体检测方法。
本申请实施例提供的一种基于生机线索和垂直领域大模型范式的活体检测方法、系统、设备和介质至少具有以下技术效果。
根据训练数据集进行自监督学习模型训练,对训练好的自监督学习模型进行调整以构建活体检测模型,将待检测图像输入活体检测模型,输出第一真实人脸概率和生机线索特征图,基于生机线索特征图,获取第二真实人脸概率,根据第一真实人脸概率和第二真实人脸概率,获取活体检测的结果。实现了人脸活体精确检测,解决相关技术中人脸活体检测存在精确度低的问题,提高人脸活体检测的精确度。
本申请的一个或多个实施例的细节在以下附图和描述中提出,以使本申请的其他特征、目的和优点更加简明易懂。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是一种基于生机线索和垂直领域大模型范式的活体检测的流程图;
图2是根据一示例性实施例示出的进行自监督学习模型训练的流程示意图;
图3是根据一示例性实施例示出的自监督学习模型训练的结构示意图;
图4是根据一示例性实施例示出的构建活体检测模型的流程示意图;
图5是根据一示例性实施例示出的活体检测模型的结构示意图;
图6是根据一示例性实施例示出的一种基于生机线索和垂直领域大模型范式的活体检测的系统的结构框图;
图7是根据一示例性实施例示出的电子设备的结构框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行描述和说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。基于本申请提供的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
显而易见地,下面描述中的附图仅仅是本申请的一些示例或实施例,对于本领域的普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图将本申请应用于其他类似情景。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本申请公开的内容相关的本领域的普通技术人员而言,在本申请揭露的技术内容的基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本申请公开的内容不充分。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域普通技术人员显式地和隐式地理解的是,本申请所描述的实施例在不冲突的情况下,可以与其它实施例相结合。
除非另作定义,本申请所涉及的技术术语或者科学术语应当为本申请所属技术领域内具有一般技能的人士所理解的通常意义。本申请所涉及的“一”、“一个”、“一种”、“该”等类似词语并不表示数量限制,可表示单数或复数。本申请所涉及的术语“包括”、“包含”、“具有”以及它们任何变形,意图在于覆盖不排他的包含;例如包含了一系列步骤或模块(单元)的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可以还包括没有列出的步骤或单元,或可以还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。本申请所涉及的“连接”、“相连”、“耦接”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电气的连接,不管是直接的还是间接的。本申请所涉及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。本申请所涉及的术语“第一”、“第二”、“第三”等仅仅是区别类似的对象,不代表针对对象的特定排序。
第一方面,本申请实施例提供了一种基于生机线索和垂直领域大模型范式的活体检测方法,图1是一种基于生机线索和垂直领域大模型范式的活体检测的流程图,如图1所示,一种基于生机线索和垂直领域大模型范式的活体检测方法包括:
步骤S101、根据预先获取的训练数据集进行自监督学习模型训练,自监督学习模型包括局部分支结构和全局分支结构,局部分支结构和全局分支结构均包括编码网络和解码网络,通过局部分支结构的权重更新全局分支结构的权重。
步骤S102、根据训练好的自监督学习模型中的全局分支结构,构建活体检测模型,活体检测模型包括回归任务和分类任务,回归任务用于抑制训练数据中攻击人脸样本生成生机线索,并获取生机线索特征图,分类任务用于根据训练数据中攻击人脸样本和人脸真实样本,获取第一真实人脸概率。
步骤S103、根据活体检测模型,基于待检测图像,获取第一真实人脸概率和生机线索特征图,基于生机线索特征图,获取第二真实人脸概率,基于第一真实人脸概率和第二真实人脸概率,获取检测结果。
综上,本申请实施例提供的一种基于生机线索和垂直领域大模型范式的活体检测方法,根据训练数据集进行自监督学习模型训练,对训练好的自监督学习模型进行调整以构建活体检测模型,将待检测图像输入活体检测模型,输出第一真实人脸概率和生机线索特征图,基于生机线索特征图,获取第二真实人脸概率,根据第一真实人脸概率和第二真实人脸概率,获取活体检测的结果。实现了人脸活体精确检测,解决相关技术中人脸活体检测存在精确度低的问题,提高人脸活体检测的精确度。
在一实施例中,在步骤S101、根据预先获取的训练数据集进行自监督学习模型训练之前,基于生机线索和垂直领域大模型范式的活体检测方法还包括:
获取训练数据集,训练数据集包括训练样本的局部视角图像块和训练样本的全局视角图像块。
可选地,训练样本的局部视角图像块是从训练样本的全局视角图像块中裁剪或分割的局部图像块,例如,局部视角图像块中眼睛图像块是从全局视角图像块人脸图像块裁剪或分割的。其中,训练数据集为巨量的去除身份标签的开源人脸识别数据集,没有活体检测相关标签,也即局部视角图像块和局部视角图像块为无标签数据。攻击人脸样本为海报、屏幕、3D蜡像等呈现的假人脸。这些数据正是活体检测领域稀缺的假人脸数据,真实人脸样本为真实的人脸图像数据。现有活体检测模型难以快速精准地找出这些数据以扩充活体检测数据集。通过获取训练数据集,将训练样本的局部视角图像块和全局视角图像块,融入到自监督学习中,为后续的构建活体检测模型提供良好的模型初始化。
在一实施例中,自监督学习模型包括局部分支结构和全局分支结构,局部分支结构和全局分支结构均包括编码网络和解码网络,通过局部分支结构的权重更新全局分支结构的权重。图2是根据一示例性实施例示出的进行自监督学习模型训练的流程示意图,如图2所示,步骤S101、根据预先获取的训练数据集进行自监督学习模型训练,具体包括以下步骤:
步骤S1011、以训练数据集中的训练样本的局部视角图像块作为局部分支结构的输入,经过编码网络和解码网络,获取第一特征图;
步骤S1012、以训练数据集中的训练样本的全局视角图像块作为全局分支结构的输入,经过编码网络和解码网络,获取第二特征图;
步骤S1013、根据局部分支结构的梯度反向传播,通过局部分支结构权重的指数移动平均,更新全局分支结构的权重参数;
步骤S1014、根据第一特征图中的特征点和第二特征图中的相对应特征点,响应于特征点与相对应特征点的最小化特征二范数距离,以完成自监督学习模型训练。
可选地,图3是根据一示例性实施例示出的自监督学习模型训练的结构示意图,如图3所示,自监督学习模型的输入不需要提供任何语义标签信息,训练数据集中原始人脸图片经过随机变化产生的局部人脸图像(包括假人脸和真人脸)和全局人脸(包括假人脸和真人脸)图像分别输入到局部分支结构和全局分支结构。左右两个局部视角也即局部分支结构和全局视角也即全局分支结构,分支共用相同的深度卷积网络结构。随后经过各自的编码网络(Encoder Net)和解码网络(Decoder Net)后生成特征图。局部分支结构的梯度进行常规的反向传播,利用局部分支结构权重的指数移动平均(EMA)来更新全局分支结构的权重参数。此外,全局视角分支经过中心化(centering)操作,也即将归一化前的特征图减去批次(batch) 的样本均值,防止模型坍塌。局部分支结构输出局部特征图M1(也即第一特征图),全局分支结构输出全局特征图M2(也即第二特征图),以局部特征图M1和全局特征图M2的坐标交集的二范数来度量特征的相似度,优化目标为局部特征图M1的特征点与M1相对应的M2特征点的最小化特征距离,损失函数计算公式如下式所示:L1 = ||M1-M2||2 。通过预先获取的训练数据集进行自监督学习模型训练,以完成自监督学习模型训练,将泛领域大模型理论迁移至垂直领域,预训练一个自监督学习以挖掘人脸通用表征,在人脸活体检测模型建模中发挥人脸识别的巨量数据优势,应对活体检测领域数据稀缺性问题。
图4是根据一示例性实施例示出的活体检测模型的流程示意图,如图4所示,步骤S102、根据训练好的自监督学习模型中的全局分支结构,构建活体检测模型,具体包括以下步骤:
步骤S1021、将全局分支结构的权重,以及编码网络、解码网络作为活体检测模型的基础结构;
步骤S1022、在活体检测模型中设置回归任务和分类任务,其中,回归任务以带有标签的攻击人脸样本和真实人脸样本作为数据输入,输出生机线索特征图,分类任务以带有标签的攻击人脸样本和真实人脸样本作为数据输入,输出第一真实人脸概率;
步骤S1023、对回归任务和分类任务进行优化,响应于回归任务获取攻击人脸样本生成全0的生机线索特征图,以及响应于分类任务获取最小化交叉熵损失函数的参数,获取活体检测模型。
可选地,图5是根据一示例性实施例示出的活体检测模型的结构示意图,如图5所示,将全局分支结构的权重,以及编码网络、解码网络作为活体检测模型的基础结构,对活体检测数据进行微调,其中微调为:活体检测数据的输入数据是带有标签的,对全局分支结构的权重以较小的学习率进行更新。在活体检测模型中设置回归任务和分类任务,其中,回归任务以带有标签的攻击人脸样本和真实人脸样本作为数据输入,经过编码网络和解码网络,输出生机线索特征图,分类任务以带有标签的攻击人脸样本和真实人脸样本作为数据输入,经过编码网络后输出真实人脸概率。对回归任务进行和分类任务进行优化,对真实人脸样本不加显式的约束,当回归任务获取攻击人脸样本生成全0的生机线索特征图,以及当分类任务获取最小化交叉熵损失函数的参数时,获取活体检测模型。通过构建活体检测模型,其软约束形式使得算法能够在更广泛的空间内搜索隐含的特征,并且在泛化层面上兼具可视化和可解释性。
值得注意的是,活体检测是典型的类间不对称任务,真实人脸这一类的载体只有真人这一种,其特征是紧凑聚敛的;而攻击人脸这一类的载体多样(如屏幕、纸张、蜡像等)且呈现形式不断迭代和增长,其特征是复杂离散的。紧凑聚敛的特征更利于学习建模,基于此,本实施例提出生机线索概念,在肉眼视觉层面上可以解释为真实人脸的立体感、皮肤纹理和反射光的真实感,还包含一些潜在的难以人为定义的生机线索。不同于现有算法中攻击线索(spoof cue)挖掘的思路,本发明提出的生机线索(live cue)挖掘思路以不变(紧凑聚敛的真实人脸特征)应万变(复杂离散的攻击人脸特征),降低了学习的难度。
在一实施例中,对回归任务进行优化,具体包括:根据攻击人脸样本的数量以及生机线索特征图的矩阵一范数,对回归任务进行优化。
可选地,在攻击人脸样本中抑制生机线索的生成,同时对正样本不加显式的约束,优化目标为对所有攻击人脸样本生成全0的生机线索特征图,损失函数计算公式如下:
其中,Ns为攻击人脸样本数量,表示当前攻击人脸样本的生机线索特征矩阵的一范数。对分类任务进行优化,具体包括:分类分支即为编码器后接入的一个通用的基于交叉熵二分类,响应于分类任务获取最小化交叉熵损失函数的参数。活体检测模型为多任务的形式,能够在分类任务的形式的基础上,明确模型想要做什么,旨在确保训练的稳定性。
在一实施例中,步骤S103、根据活体检测模型,基于待检测图像,获取第一真实人脸概率和生机线索特征图,基于生机线索特征图,获取第二真实人脸概率,具体包括:
可选地,将待检测的人脸图像输入到活体检测模型中,得到分类任务关于是第一真实人脸概率p1,以及得到回归任务生机线索特征图,根据生机线索特征图,求得特征图的像素均值,即是第二真实人脸概率p2,具体地,例如,生机线索特征图是 100 乘以 100 的像素值,即1万个像素值,对它进行归一化,使得每一个数都映射到 0 到 1 之间,每一个点都代表一个概率,再除以1万,就是平均的一个概率值加起来之后除以1万,得到第二真实人脸概率p2。通过获取第一真实人脸概率和第二真实人脸概率有利于计算活体检测模型的检测结果。
在一实施例中,基于第一真实人脸概率和第二真实人脸概率,获取检测结果。具体包括:
对第二真实人脸概率赋予预设权重;
将赋予预设权重后的第二真实人脸概率和第一真实人脸概率相结合,获取待检测图像为真实人脸的概率;将真实人脸的概率作为检测结果。
可选地,两者的综合概率P=p1+λ*p2,表示待分析人脸图像是真人脸的最终概率,其中,λ为预设权重。将综合概率P作为检测结果。通过将第一真实人脸概率和第二真实人脸概率进行相加,提高了活体检测模型的检测精确度。
综上,本申请实施例提供的一种基于生机线索和垂直领域大模型范式的活体检测方法,根据训练数据集进行自监督学习模型训练,对训练好的自监督学习模型进行调整以构建活体检测模型,将待检测图像输入活体检测模型,输出真实人脸的概率和生机线索特征图,基于生机线索特征图,获取第二真实人脸概率,根据第一真实人脸的概率和第二真实人脸概率,获取活体检测的结果。实现了人脸活体精确检测,解决相关技术中人脸活体检测存在精确度低的问题,提高人脸活体检测的精确度。
第二方面,本申请实施例提供了一种基于生机线索和垂直领域大模型范式的活体检测的系统。图6是根据一示例性实施例示出的一种基于生机线索和垂直领域大模型范式的活体检测的系统的框图。如图6所示,系统包括自监督学习模型训练模块、构建活体检测模型模块和获取检测结果模块,其中:
自监督学习模型训练模块,根据预先获取的训练数据集进行自监督学习模型训练,自监督学习模型包括局部分支结构和全局分支结构,局部分支结构和全局分支结构均包括编码网络和解码网络,通过局部分支结构的权重更新全局分支结构的权重;
构建活体检测模型模块,用于根据训练好的自监督学习模型中的全局分支结构,构建活体检测模型,活体检测模型包括回归任务和分类任务,回归任务用于抑制训练数据中攻击人脸样本生成生机线索,并获取生机线索特征图,分类任务用于根据训练数据中攻击人脸样本和人脸真实样本,获取第一真实人脸概率;
获取检测结果模块,用于根据活体检测模型,基于待检测图像,获取第一真实人脸概率和生机线索特征图,基于生机线索特征图,获取第二真实人脸概率,基于第一真实人脸概率和第二真实人脸概率,获取检测结果。
综上,本申请提供的一种基于生机线索和垂直领域大模型范式的活体检测的系统。通过自监督学习模型训练模块、构建活体检测模型模块和获取检测结果模块,根据训练数据集进行自监督学习模型训练,对训练好的自监督学习模型进行调整以构建活体检测模型,将待检测图像输入活体检测模型,输出第一真实人脸概率和生机线索特征图,基于生机线索特征图,获取第二真实人脸概率,根据第一真实人脸概率和第二真实人脸概率,获取活体检测的结果。实现了人脸活体精确检测,解决相关技术中人脸活体检测存在精确度低的问题,提高人脸活体检测的精确度。
在一实施例中,构建活体检测模型模块在根据训练好的自监督学习模型中的全局分支结构,构建活体检测模型时,用于:
将全局分支结构的权重,以及编码网络、解码网络作为活体检测模型的基础结构;
在活体检测模型中设置回归任务和分类任务,其中,回归任务以带有标签的攻击人脸样本和真实人脸样本作为数据输入,输出生机线索特征图,分类任务以带有标签的攻击人脸样本和真实人脸样本作为数据输入,输出第一真实人脸概率;
对回归任务和分类任务进行优化,响应于回归任务获取攻击人脸样本生成全0的生机线索特征图,以及响应于分类任务获取最小化交叉熵损失函数的参数,获取活体检测模型。
在一实施例中,构建活体检测模型模块在对回归任务进行优化时,用于:
根据攻击人脸样本的数量以及生机线索特征图的矩阵一范数,对回归任务进行优化。
在一实施例中,自监督学习模型训练模块根据预先获取的训练数据集进行自监督学习模型训练时,用于:
以训练数据集中的训练样本的局部视角图像块作为局部分支结构的输入,经过编码网络和解码网络,获取第一特征图;
以训练数据集中的训练样本的全局视角图像块作为全局分支结构的输入,经过编码网络和解码网络,获取第二特征图;
根据局部分支结构的梯度反向传播,通过局部分支结构权重的指数移动平均,更新全局分支结构的权重参数;
根据第一特征图中的特征点和第二特征图中的相对应特征点,响应于特征点与相对应特征点的最小化特征二范数距离,以完成自监督学习模型训练。
在一实施例中,自监督学习模型训练模块在全局视角图像块作为全局分支结构的输入,经过解码网络和解码网络之后,还经过中心化操作。
在一实施例中,在根据预先获取的训练数据集进行自监督学习模型训练之前,系统还包括:
获取训练数据集,训练数据集包括训练样本的局部视角图像块和训练样本的全局视角图像块。
在一实施例中,获取检测结果模块在基于第一真实人脸概率和第二真实人脸概率,获取检测结果时,用于:
对第二真实人脸概率赋予预设权重;
将赋予预设权重后的第二真实人脸概率和第一真实人脸概率相结合,获取待检测图像为真实人脸的概率;将真实人脸的概率作为检测结果。
综上,本申请提供的一种基于生机线索和垂直领域大模型范式的活体检测的系统。通过自监督学习模型训练模块、构建活体检测模型模块和获取检测结果模块,根据训练数据集进行自监督学习模型训练,对训练好的自监督学习模型进行调整以构建活体检测模型,将待检测图像输入活体检测模型,输出第一真实人脸概率和生机线索特征图,基于生机线索特征图,获取第二真实人脸概率,根据第一真实人脸概率和第二真实人脸概率,获取活体检测的结果。实现了人脸活体精确检测,解决相关技术中人脸活体检测存在精确度低的问题,提高人脸活体检测的精确度。
需要说明的是,本实施例提供的一种基于生机线索和垂直领域大模型范式的活体检测的系统用于实现上述实施方式,已经进行过说明的不再赘述。如以上所使用的,术语“模块”、“单元”、“子单元”等可以实现预定功能的软件和/或硬件的组合。尽管以上实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
第三方面,本申请实施例提供了一种电子设备,图7是根据一示例性实施例示出的电子设备的框图。如图7所示,该电子设备可以包括处理器71以及存储有计算机程序指令的存储器72。
具体地,上述处理器71可以包括中央处理器(CPU),或者特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
其中,存储器72可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器72可包括硬盘驱动器(Hard Disk Drive,简称为HDD)、软盘驱动器、固态驱动器(SolidState Drive,简称为SSD)、闪存、光盘、磁光盘、磁带或通用串行总线(Universal SerialBus,简称为USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器72可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器72可在数据处理装置的内部或外部。在特定实施例中,存储器72是非易失性(Non-Volatile)存储器。在特定实施例中,存储器72包括只读存储器(Read-Only Memory,简称为ROM)和随机存取存储器(RandomAccess Memory,简称为RAM)。在合适的情况下,该ROM可以是掩模编程的ROM、可编程ROM(Programmable Read-Only Memory,简称为PROM)、可擦除PROM(Erasable ProgrammableRead-Only Memory,简称为EPROM)、电可擦除PROM(Electrically Erasable ProgrammableRead-Only Memory,简称为EEPROM)、电可改写ROM(Electrically Alterable Read-OnlyMemory,简称为EAROM)或闪存(FLASH)或者两个或更多个以上这些的组合。在合适的情况下,该RAM可以是静态随机存取存储器(Static Random-Access Memory,简称为SRAM)或动态随机存取存储器(Dynamic Random Access Memory,简称为DRAM),其中,DRAM可以是快速页模式动态随机存取存储器(Fast Page Mode Dynamic Random Access Memory,简称为FPMDRAM)、扩展数据输出动态随机存取存储器(Extended Date Out Dynamic RandomAccess Memory,简称为EDODRAM)、同步动态随机存取内存(Synchronous Dynamic Random-Access Memory,简称SDRAM)等。
存储器72可以用来存储或者缓存需要处理和/或通信使用的各种数据文件,以及处理器71所执行的可能的计算机程序指令。
处理器71通过读取并执行存储器72中存储的计算机程序指令,以实现上述实施例中的任意一种基于生机线索和垂直领域大模型范式的活体检测方法。
在一实施例中,一种基于生机线索和垂直领域大模型范式的活体检测的设备还可包括通信接口73和总线70。其中,如图7所示,处理器71、存储器72、通信接口73通过总线70连接并完成相互间的通信。
通信接口73用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。通信端口73还可以实现与其他部件例如:外接设备、图像/数据采集设备、数据库、外部存储以及图像/数据处理工作站等之间进行数据通信。
总线70包括硬件、软件或两者,将一种基于生机线索和垂直领域大模型范式的活体检测的设备的部件彼此耦接在一起。总线70包括但不限于以下至少之一:数据总线(DataBus)、地址总线(Address Bus)、控制总线(Control Bus)、扩展总线(Expansion Bus)、局部总线(Local Bus)。举例来说而非限制,总线70可包括图形加速接口(AcceleratedGraphics Port,简称为AGP)或其他图形总线、增强工业标准架构(Extended IndustryStandard Architecture,简称为EISA)总线、前端总线(Front Side Bus,简称为FSB)、超传输(Hyper Transport,简称为HT)互连、工业标准架构(Industry Standard Architecture,简称为ISA)总线、无线带宽(InfiniBand)互连、低引脚数(Low Pin Count,简称为LPC)总线、存储器总线、微信道架构(Micro Channel Architecture,简称为MCA)总线、外围组件互连(Peripheral Component Interconnect,简称为PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(Serial Advanced Technology Attachment,简称为SATA)总线、视频电子标准协会局部(Video Electronics Standards Association Local Bus,简称为VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线70可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有程序,程序被处理器执行时,实现第一方面中提供的一种基于生机线索和垂直领域大模型范式的活体检测方法。
其中,可读存储介质可以采用的更具体可以包括但不限于:便携式盘、硬盘、随机存取存储器、只读存储器、可擦拭可编程只读存储器、光存储器件、磁存储器件或上述的任意合适的组合。
在可能的实施方式中,本发明还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行实现第一方面提供的一种基于生机线索和垂直领域大模型范式的活体检测方法的步骤。
其中,可以以一种或多种程序设计语言的任意组合来编写用于执行本发明的程序代码,程序代码可以完全地在用户设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户设备上部分在远程设备上执行或完全在远程设备上执行。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (8)

1.一种基于生机线索和垂直领域大模型范式的活体检测方法,其特征在于,所述方法包括:
根据预先获取的训练数据集进行自监督学习模型训练,所述自监督学习模型包括局部分支结构和全局分支结构,所述局部分支结构和全局分支结构均包括编码网络和解码网络,通过所述局部分支结构的权重更新所述全局分支结构的权重;
根据训练好的所述自监督学习模型中的所述全局分支结构,构建活体检测模型,所述活体检测模型包括回归任务和分类任务,所述回归任务用于抑制训练数据中攻击人脸样本生成生机线索,并获取生机线索特征图,所述分类任务用于根据训练数据中所述攻击人脸样本和人脸真实样本,获取第一真实人脸概率;
根据所述活体检测模型,基于待检测图像,获取所述第一真实人脸概率和所述回归任务的生机线索特征图,基于所述回归任务的生机线索特征图,获取第二真实人脸概率,基于所述第一真实人脸概率和所述第二真实人脸概率,获取检测结果;
其中,所述根据训练好的所述自监督学习模型中的所述全局分支结构,构建活体检测模型,包括:
将所述全局分支结构的权重,以及所述编码网络、所述解码网络作为所述活体检测模型的基础结构;
在所述活体检测模型中设置回归任务和分类任务,其中,所述回归任务以带有标签的攻击人脸样本和真实人脸样本作为数据输入,经过编码网络和解码网络,输出生机线索特征图,所述分类任务以带有标签的攻击人脸样本和真实人脸样本作为数据输入,经过编码网络后输出第一真实人脸概率;
对所述回归任务和所述分类任务进行优化,响应于所述回归任务获取攻击人脸样本生成全0的生机线索特征图,以及响应于所述分类任务获取最小化交叉熵损失函数的参数,获取活体检测模型;
所述根据预先获取的训练数据集进行自监督学习模型训练,包括:
以所述训练数据集中训练样本的局部视角图像块作为所述局部分支结构的输入,经过所述编码网络和所述解码网络,获取第一特征图;
以所述训练数据集中训练样本的全局视角图像块作为所述全局分支结构的输入,经过所述编码网络和所述解码网络,获取第二特征图;
根据所述局部分支结构的梯度反向传播,通过局部分支结构权重的指数移动平均,更新所述全局分支结构的权重参数;
根据所述第一特征图中的特征点和所述第二特征图中的相对应特征点,响应于所述特征点与所述相对应特征点的最小化特征二范数距离,以完成所述自监督学习模型训练;
损失函数计算公式如下:
其中,Ns为攻击人脸样本数量,表示当前攻击人脸样本的生机线索特征矩阵的一范数。
2.根据权利要求1所述的方法,其特征在于,对所述回归任务进行优化,包括:
根据所述攻击人脸样本的数量以及所述生机线索特征图的矩阵一范数,对所述回归任务进行优化。
3.根据权利要求1所述的方法,其特征在于,所述全局视角图像块作为所述全局分支结构的输入,经过所述解码网络和所述解码网络之后,还经过中心化操作。
4.根据权利要求1所述的方法,其特征在于,所述在根据预先获取的训练数据集进行自监督学习模型训练之前,所述方法还包括:
获取训练数据集,所述训练数据集包括训练样本的局部视角图像块和训练样本的全局视角图像块。
5.根据权利要求1所述的方法,其特征在于,基于所述第一真实人脸概率和所述第二真实人脸概率,获取检测结果,包括:
对所述第二真实人脸概率赋予预设权重;
将赋予预设权重后的所述第二真实人脸概率和所述第一真实人脸概率相结合,获取所述待检测图像为真实人脸的概率;将所述真实人脸的概率作为检测结果。
6.一种基于生机线索和垂直领域大模型范式的活体检测系统,其特征在于,所述系统包括自监督学习模型训练模块、构建活体检测模型模块和获取检测结果模块,其中:
自监督学习模型训练模块,根据预先获取的训练数据集进行自监督学习模型训练,所述自监督学习模型包括局部分支结构和全局分支结构,所述局部分支结构和全局分支结构均包括编码网络和解码网络,通过所述局部分支结构的权重更新所述全局分支结构的权重;
构建活体检测模型模块,用于根据训练好的所述自监督学习模型中的所述全局分支结构,构建活体检测模型,所述活体检测模型包括回归任务和分类任务,所述回归任务用于抑制训练数据中攻击人脸样本生成生机线索,并获取生机线索特征图,所述分类任务用于根据训练数据中所述攻击人脸样本和人脸真实样本,获取第一真实人脸概率;
获取检测结果模块,用于根据所述活体检测模型,基于待检测图像,获取所述第一真实人脸概率和所述生机线索特征图,基于所述生机线索特征图,获取第二真实人脸概率,基于所述第一真实人脸概率和所述第二真实人脸概率,获取检测结果;
其中,所述根据训练好的所述自监督学习模型中的所述全局分支结构,构建活体检测模型,包括:
将所述全局分支结构的权重,以及所述编码网络、所述解码网络作为所述活体检测模型的基础结构;
在所述活体检测模型中设置回归任务和分类任务,其中,所述回归任务以带有标签的攻击人脸样本和真实人脸样本作为数据输入,经过编码网络和解码网络,输出生机线索特征图,所述分类任务以带有标签的攻击人脸样本和真实人脸样本作为数据输入,经过编码网络后输出第一真实人脸概率;
对所述回归任务和所述分类任务进行优化,响应于所述回归任务获取攻击人脸样本生成全0的生机线索特征图,以及响应于所述分类任务获取最小化交叉熵损失函数的参数,获取活体检测模型;
所述根据预先获取的训练数据集进行自监督学习模型训练,包括:
以所述训练数据集中训练样本的局部视角图像块作为所述局部分支结构的输入,经过所述编码网络和所述解码网络,获取第一特征图;
以所述训练数据集中训练样本的全局视角图像块作为所述全局分支结构的输入,经过所述编码网络和所述解码网络,获取第二特征图;
根据所述局部分支结构的梯度反向传播,通过局部分支结构权重的指数移动平均,更新所述全局分支结构的权重参数;
根据所述第一特征图中的特征点和所述第二特征图中的相对应特征点,响应于所述特征点与所述相对应特征点的最小化特征二范数距离,以完成所述自监督学习模型训练;
损失函数计算公式如下:
其中,Ns为攻击人脸样本数量,表示当前攻击人脸样本的生机线索特征矩阵的一范数。
7.一种电子设备,其特征在于,包括存储器和处理器,存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至5中任一项所述的一种基于生机线索和垂直领域大模型范式的活体检测方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至5中任一项所述的一种基于生机线索和垂直领域大模型范式的活体检测方法。
CN202410064846.5A 2024-01-17 2024-01-17 基于生机线索和垂直领域大模型范式的活体检测方法 Active CN117576791B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410064846.5A CN117576791B (zh) 2024-01-17 2024-01-17 基于生机线索和垂直领域大模型范式的活体检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410064846.5A CN117576791B (zh) 2024-01-17 2024-01-17 基于生机线索和垂直领域大模型范式的活体检测方法

Publications (2)

Publication Number Publication Date
CN117576791A CN117576791A (zh) 2024-02-20
CN117576791B true CN117576791B (zh) 2024-04-30

Family

ID=89895961

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410064846.5A Active CN117576791B (zh) 2024-01-17 2024-01-17 基于生机线索和垂直领域大模型范式的活体检测方法

Country Status (1)

Country Link
CN (1) CN117576791B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113052144A (zh) * 2021-04-30 2021-06-29 平安科技(深圳)有限公司 活体人脸检测模型的训练方法、装置、设备及存储介质
CN114783070A (zh) * 2022-04-11 2022-07-22 北京三快在线科技有限公司 活体检测模型的训练方法、装置、电子设备及存储介质
CN115131880A (zh) * 2022-05-30 2022-09-30 上海大学 一种多尺度注意力融合的双重监督人脸活体检测方法
CN115984977A (zh) * 2022-11-15 2023-04-18 支付宝(杭州)信息技术有限公司 活体检测方法和系统
WO2023098128A1 (zh) * 2021-12-01 2023-06-08 马上消费金融股份有限公司 活体检测方法及装置、活体检测系统的训练方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113052144A (zh) * 2021-04-30 2021-06-29 平安科技(深圳)有限公司 活体人脸检测模型的训练方法、装置、设备及存储介质
WO2023098128A1 (zh) * 2021-12-01 2023-06-08 马上消费金融股份有限公司 活体检测方法及装置、活体检测系统的训练方法及装置
CN114783070A (zh) * 2022-04-11 2022-07-22 北京三快在线科技有限公司 活体检测模型的训练方法、装置、电子设备及存储介质
CN115131880A (zh) * 2022-05-30 2022-09-30 上海大学 一种多尺度注意力融合的双重监督人脸活体检测方法
CN115984977A (zh) * 2022-11-15 2023-04-18 支付宝(杭州)信息技术有限公司 活体检测方法和系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CFAT2023人脸活体检测挑战赛榜单发布及经验分享;张旭 等;《中国安防》;20231130;8-12 *
Learning Generalized Spoof Cues for Face Anti-spoofing;Haocheng Feng et al.;《arXiv》;20200508;1-8 *
Wild Face Anti-Spoofing Challenge 2023:Benchmark and Results;Dong Wang et al.;《2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)》;20230814;6380-6391 *

Also Published As

Publication number Publication date
CN117576791A (zh) 2024-02-20

Similar Documents

Publication Publication Date Title
US11574453B2 (en) Generation of synthetic 3-dimensional object images for recognition systems
CN110599492B (zh) 图像分割模型的训练方法、装置、电子设备及存储介质
CN111754596B (zh) 编辑模型生成、人脸图像编辑方法、装置、设备及介质
CN110659582A (zh) 图像转换模型训练方法、异质人脸识别方法、装置及设备
CN110533707B (zh) 照明估计
CN109492627B (zh) 一种基于全卷积网络的深度模型的场景文本擦除方法
WO2023185785A1 (zh) 一种图像处理方法、模型训练方法及相关装置
EP3963516B1 (en) Teaching gan (generative adversarial networks) to generate per-pixel annotation
CN111275784B (zh) 生成图像的方法和装置
GB2585396A (en) Utilizing a critical edge detection neural network and a geometric model to determine camera parameters from a single digital image
CN112614144A (zh) 一种图像分割方法、装置、设备及存储介质
US20230143452A1 (en) Method and apparatus for generating image, electronic device and storage medium
CN114298997B (zh) 一种伪造图片检测方法、装置及存储介质
WO2023231182A1 (zh) 图像处理方法、装置、计算机设备、存储介质及程序产品
CN113379877A (zh) 人脸视频生成方法、装置、电子设备及存储介质
CN114972010A (zh) 图像处理方法、装置、计算机设备、存储介质及程序产品
CN113743277A (zh) 一种短视频分类方法及系统、设备和存储介质
CN116503508B (zh) 一种个性化模型构建方法、系统、计算机及可读存储介质
CN113392769A (zh) 人脸图像的合成方法、装置、电子设备及存储介质
CN117576791B (zh) 基于生机线索和垂直领域大模型范式的活体检测方法
CN112183303A (zh) 变电设备图像分类方法、装置、计算机设备和介质
CN115565186B (zh) 文字识别模型的训练方法、装置、电子设备和存储介质
JP7479507B2 (ja) 画像処理方法及び装置、コンピューター機器、並びにコンピュータープログラム
CN112070877A (zh) 点云处理方法、装置、设备及计算机可读存储介质
CN115082298A (zh) 图像生成方法、装置、电子设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant