CN117315758A - 面部表情的检测方法、装置、电子设备及存储介质 - Google Patents
面部表情的检测方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN117315758A CN117315758A CN202311353728.8A CN202311353728A CN117315758A CN 117315758 A CN117315758 A CN 117315758A CN 202311353728 A CN202311353728 A CN 202311353728A CN 117315758 A CN117315758 A CN 117315758A
- Authority
- CN
- China
- Prior art keywords
- image
- detection model
- detection
- facial
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 188
- 230000008921 facial expression Effects 0.000 title claims abstract description 46
- 238000003860 storage Methods 0.000 title claims abstract description 28
- 230000014509 gene expression Effects 0.000 claims abstract description 107
- 238000012549 training Methods 0.000 claims abstract description 105
- 230000001815 facial effect Effects 0.000 claims abstract description 57
- 238000000034 method Methods 0.000 claims abstract description 44
- 238000000605 extraction Methods 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 13
- 238000013138 pruning Methods 0.000 claims description 8
- 238000012216 screening Methods 0.000 claims description 5
- 238000013101 initial test Methods 0.000 claims 1
- 238000012360 testing method Methods 0.000 claims 1
- 230000010365 information processing Effects 0.000 abstract description 6
- 230000006870 function Effects 0.000 description 18
- 238000012545 processing Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000010606 normalization Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 230000002829 reductive effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Abstract
本公开涉及信息处理技术领域,尤其涉及一种面部表情的检测方法、装置、电子设备及存储介质,所述检测方法包括:获取人脸图像;将所述人脸图像输入检测模型,得到所述人脸图像对应的表情系数;根据所述表情系数、表情系数与面部表情之间预设的对应关系,确定所述人脸图像对应的面部表情。本公开实施例中的训练数据包括了表情系数标签、辅助标签,故可提升表情系数的生成精度,有利于最终的人脸图像的面部表情的确定精度。
Description
技术领域
本公开涉及信息处理技术领域,尤其涉及一种面部表情的检测方法、装置、电子设备及存储介质。
背景技术
表情识别技术是指从包含人脸的图像或视频序列中获取人脸表情并加以识别的技术,可被应用于人机交互、辅助驾驶等领域。例如:在商场中,可通过表情识别技术确定目标人物是否体现出开心的情绪,以对消费体验进行统计。再例如:在车辆行驶过程中,可通过表情识别技术确定目标人物是否体现出疲惫情绪,以对疲劳驾驶行为进行检测。表情识别技术的识别结果通常与上层任务的精度相关,故如何更好地进行面部表情的检测是开发人员亟需解决的技术问题。
发明内容
本公开提出了一种面部表情的检测技术方案。
根据本公开的一方面,提供了一种面部表情的检测方法,所述检测方法包括:获取人脸图像;将所述人脸图像输入检测模型,得到所述人脸图像对应的表情系数;其中,所述检测模型由训练数据训练得到,所述训练数据包括训练图像、训练图像对应的表情系数标签以及训练图像对应的至少一个辅助标签;根据所述表情系数、表情系数与面部表情之间预设的对应关系,确定所述人脸图像对应的面部表情。
在一种可能的实施方式中,所述检测模型由初始检测模型训练得到,所述初始检测模型包括:特征提取模块、与所述特征提取模块相连的表情系数检测模块、与所述特征提取模块相连的至少一个辅助检测模块;所述检测模型通过如下方式得到:将所述训练图像输入第一检测模型的所述特征提取模块,得到训练图像对应的图像特征;其中,所述第一检测模型为所述初始检测模型或第二检测模型;将所述图像特征输入所述表情系数检测模块,得到预测表情系数;将所述图像特征输入所述至少一个辅助检测模块,得到对应的至少一个辅助预测标签;基于所述预测表情系数、所述表情系数标签以及所述至少一个辅助预测标签,调整第一检测模型的模型参数,得到新的第二检测模型;响应于满足训练完成条件,利用所述第二检测模型得到所述检测模型。
在一种可能的实施方式中,所述特征提取模块包括:输入卷积层、与所述输入卷积层相连的深度可分离卷积层,所述将所述训练图像输入第一检测模型的所述特征提取模块,得到训练图像对应的图像特征,包括:通过所述输入卷积层,对训练图像进行卷积,得到初始图像特征;通过所述深度可分离卷积层,对所述初始图像特征进行深度可分离卷积,得到训练图像对应的图像特征。
在一种可能的实施方式中,所述基于所述预测表情系数、所述表情系数标签以及所述至少一个辅助预测标签,调整目标模型的模型参数,得到新的第二检测模型,包括:根据所述预测表情系数与训练图像对应的表情系数标签之间的第一差异、所述第一差异对应的第一权重,得到第一损失值;根据所述至少一个辅助预测标签与训练图像对应的至少一个辅助标签之间的至少一个第二差异、每个第二差异对应的第二权重,得到至少一个第二损失值;其中,第一权重的数值高于所述至少一个第二差异对应的至少一个第二权重的数值的总和;根据所述第一损失值、所述至少一个第二损失值,调整第一检测模型的模型参数,得到新的第二检测模型。
在一种可能的实施方式中,所述调整第一检测模型的模型参数,得到新的第二检测模型,包括:调整所述第一检测模型的模型参数,得到调整后的第一检测模型;将调整后的第一检测模型中的所述至少一个辅助检测模块进行剪枝,将剪枝后的、调整后的第一检测模型作为新的第二检测模型。
在一种可能的实施方式中,所述检测方法还包括:获取初始训练图像;筛选所述初始训练图像中满足至少一种预设条件的图像,作为所述训练图像;所述预设条件包括:初始训练图像对应的采集角度为至少一种预设采集角度、初始训练图像对应的年龄段为至少一种预设年龄段、初始训练图像对应的性别为至少一种预设性别、初始训练图像与图像采集装置之间的距离为至少一种预设距离。
在一种可能的实施方式中,所述辅助标签为头部姿态标签、面部关键点标签中的任意一种。
在一种可能的实施方式中,所述将所述人脸图像输入检测模型,得到所述人脸图像对应的表情系数,包括:根据所述人脸图像,确定所述人脸图像对应的面部检测框;根据所述人脸图像对应的面部检测框,确定面部区域图像;根据所述面部区域图像,确定所述面部区域图像中的面部关键点;根据所述面部关键点、预设关键点之间的位置关系,对所述面部区域图像进行调整;将调整后的面部区域图像输入至检测模型,得到所述人脸图像对应的表情系数。
根据本公开的一方面,提供了一种面部表情的检测装置,所述检测装置包括:图像获取模块,用以获取人脸图像;表情系数确定模块,用以将所述人脸图像输入检测模型,得到所述人脸图像对应的表情系数;其中,所述检测模型由训练数据训练得到,所述训练数据包括训练图像、训练图像对应的表情系数标签以及训练图像对应的至少一个辅助标签;面部表情确定模块,用以根据所述表情系数、表情系数与面部表情之间预设的对应关系,确定所述人脸图像对应的面部表情。
根据本公开的一方面,提供了一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为调用所述存储器存储的指令,以执行上述方法。
根据本公开的一方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述方法。
在本公开实施例中,可获取人脸图像,而后将所述人脸图像输入检测模型,得到所述人脸图像对应的表情系数,最终根据所述表情系数、表情系数与面部表情之间预设的对应关系,确定所述人脸图像对应的面部表情。本公开实施例中的训练数据包括了表情系数标签、辅助标签,故可提升表情系数的生成精度,有利于最终的人脸图像的面部表情的确定精度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1示出了根据本公开实施例提供的面部表情的检测方法的流程图。
图2示出了根据本公开实施例提供的面部表情的检测方法的流程图。
图3示出了根据本公开实施例提供的面部表情的检测装置的框图。
图4示出了根据本公开实施例提供的一种电子设备的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
另外,为了更好地说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
参阅图1所示,图1示出了根据本公开实施例提供的面部表情的检测方法的流程图,结合图1,本公开实施例提供了一种面部表情的检测方法,所述检测方法包括:
步骤S100,获取人脸图像。示例性地,上述人脸图像可通过相关技术中的图像采集装置获取,具体的图像格式本公开实施例在此不做限制,人脸图像中包括目标人物的面部即可。
步骤S200,将所述人脸图像输入检测模型,得到所述人脸图像对应的表情系数。其中,所述检测模型由训练数据训练得到,所述训练数据包括训练图像、训练图像对应的表情系数标签以及训练图像对应的至少一个辅助标签进行训练得到。示例性地,可将人脸图像输入至检测模型,得到人脸图像对应的表情系数。在一个示例中,也可先对人脸图像进行图像处理,例如先对人脸图像进行面部区域图像的检测,再将检测得到的面部区域图像输入至检测模型中得到其对应的表情系数,以提高表情系数的生成精度。上述表情系数可用以表示面部器官的状态即可,例如可表现为相关技术中的BlendShape表情参数。示例性地,辅助标签可选用与表情系数的生成可能存在影响的标签,具备辅助监督训练的功能即可。在一个示例中,辅助标签可为头部姿态标签、面部关键点标签中的任意一种。本公开实施例通过添加辅助标签的方式,可降低辅助标签对应的信息在实际场景中对表情系数的生成精度的影响,进而提高表情系数的生成精度。
在一种可能的实施方式中,所述检测方法还包括:获取初始训练图像,而后筛选所述初始训练图像中满足至少一种预设条件的图像,作为所述训练图像。示例性地,初始图像可为图像采集装置采集到的图像,可供筛选即可。所述预设条件包括:初始训练图像对应的采集角度为至少一种预设采集角度、初始训练图像对应的年龄段为至少一种预设年龄段、初始训练图像对应的性别为至少一种预设性别、初始训练图像与图像采集装置之间的距离为至少一种预设距离。示例性地,上述预设采集角度可包括头部姿态角中yaw方向上的角度(或称偏航角)、pitch方向上的角度(或称俯仰角)、roll方向上的角度(或称翻滚角)。上述预设年龄段可为年轻人年龄段、老年人年龄段、儿童年龄段。预设性别可包括男性、女性。预设距离可结合实际场景设定。具体可结合检测模型的应用场景进行预设采集角度、预设年龄段、预设距离的选取。例如:表情识别功能在年轻人年龄段的使用次数更多,故可提升训练样本预设年龄段中年轻人年龄段对应的训练样本的占比。再例如:在一般的使用场景下,人脸距离摄像头的距离为50厘米左右,则可将预设距离设定为20厘米至100厘米以扩大实际场景的适用范围。
在一种可能的实施方式中,步骤S200可包括:根据所述人脸图像,确定所述人脸图像对应的面部检测框。示例性地,上述面部检测框可通过相关技术中的面部检测算法或面部检测模型得到,本公开实施例在此不做赘述。而后根据所述人脸图像对应的面部检测框,确定面部区域图像。示例性地,面部检测框可表现为一个矩形框的四个顶点在人脸图像中的坐标信息,连接该四个顶点,可确定出一个矩形框区域,并可将该矩形框区域对应的图像作为上述面部区域图像。再根据所述面部区域图像,确定所述面部区域图像中的面部关键点。示例性地,面部关键点可通过相关技术中的面部关键点检测算法或面部关键点模型得到,每个面部关键点可对应有面部关键点的位置信息、面部关键点编号,具体可视面部关键点检测算法或面部关键点模型的输出而定。而后根据所述面部关键点、预设关键点之间的位置关系,对所述面部区域图像进行调整。示例性地,可在所有面部关键点中选取若干关键点或生成虚拟关键点(具体可结合选取的若干关键点是否可以直接被面部关键点检测算法或面部关键点模型检测得到,若可直接检测得到,则选取即可,若不可直接检测得到,则生成即可),例如:可选取的关键点生成的虚拟关键点可包括左眼中心的关键点A1、右眼中心的关键点B1、嘴唇中心的关键点C1。预设面部关键点在此情况下可包括左眼中心的预设关键点A2、右眼中心的预设关键点B2、嘴唇中心的预设关键点C2,每个预设关键点对应一个预设的坐标信息,可由开发人员进行设定。而后通过图像变换,将关键点A1映射至预设关键点A2,将关键点B1映射至预设关键点B2,将关键点C1映射至预设关键点C2,据此可得到映射矩阵。而后将面部区域图像中的每个像素点通过该映射矩阵进行位置变换,即可得到调整后的面部区域图像。在一个示例中,进行位置变换后的面部区域图像中的像素点可能与位置变换前的面部区域图像中的像素点无法一一对应(例如对局部进行了拉伸),可对此类像素值不明确的像素点进行相邻像素点的插值运算(例如:求邻近像素点的平均值、加权求平均值等),即可得到其对应的像素值,进而得到调整后的面部区域图像。调整后的不同面部区域图像之间面部关键点基本处于相近的位置中,例如:调整前的面部区域图像A人物面部朝向左侧,调整前的面部区域图像B人物面部朝向右侧,预设面部关键点为正脸对应的面部关键点,则通过调整后,两个人物的面部均与正脸相近。本公开实施例通过对面部区域图像进行调整的方式,可使得检测模型降低对无关特征的关注度,有利于提高人脸图像对应的表情系数精度。最终将调整后的面部区域图像输入至检测模型,得到所述人脸图像对应的表情系数。
在一种可能的实施方式中,所述检测模型由初始检测模型训练得到,所述初始检测模型包括:特征提取模块、与所述特征提取模块相连的表情系数检测模块、与所述特征提取模块相连的至少一个辅助检测模块。参阅图2所示,图2示出了根据本公开实施例提供的面部表情的检测方法的流程图,结合图2,所述检测模型通过如下方式得到:步骤S10,将所述训练图像输入第一检测模型的所述特征提取模块,得到训练图像对应的图像特征。其中,所述第一检测模型为所述初始检测模型或第二检测模型。在一个示例中,所述第二检测模型可为初始检测模型经过若干次迭代训练后得到的检测模型。示例性地,上述特征提取模块具备特征提取功能即可。在一个示例中,特征提取模块可包括:输入卷积层、与所述输入卷积层相连的深度可分离卷积层,步骤S10可包括:通过所述输入卷积层,对训练图像进行卷积,得到初始图像特征。示例性地,上述输入卷积层可表现为一个卷积核,其具体大小可由开发人员根据实际需求进行设定。而后通过所述深度可分离卷积层,对所述初始图像特征进行深度可分离卷积,得到训练图像对应的图像特征。示例性地,上述深度可分离卷积层可表现为多个依次相连的深度可分离卷积组。每个深度可分离卷积组的参数设定存在不同,例如每个深度可分离卷积组的输入大小依次递减,深度可分离卷积组的输入大小与前一个与之相连的深度可分离卷积组的输出大小相等,以实现数据的降维处理。在一个示例中,每个深度可分离卷积组可包括依次相连的深度可分离卷积核、与深度可分离卷积核相连的归一层、与归一层相连的激活层。其中,归一层用以对数据进行归一化,使数据的分布规范为标准正态分布,可表现为相关技术中的批归一化操作(或称Batch Normalization)。上述激活层用以对数据加入非线性因素,提高模型的表达能力,可表现为相关技术中的激活函数,例如Relu(全称为Rectified Linear Unit)激活函数。在一个示例中,也可在深度可分离卷积组中使用残差结构,即将深度可分离卷积组的输入与输出进行组合,将组合后的数据发送至与之相连的下一个深度可分离卷积组,以提升特征的提取效果。本公开实施例可通过使用深度可分离卷积层的方式,可降低检测模型的计算量、参数量,有利于提高检测模型的检测速度、降低检测模型的部署难度。
步骤S20,将所述图像特征输入所述表情系数检测模块,得到预测表情系数。示例性地,可将图像特征输入至表情系数检测模块,得到预测表情系数。上述表情系数检测模块可表现为一个检测头,具体的参数设定本公开实施例在此不做限制,可基于图像特征输出标签即可。
步骤S30,将所述图像特征输入所述至少一个辅助检测模块,得到对应的至少一个辅助预测标签。示例性地,每个辅助检测模块可表现为一个检测头,具体的参数设定本公开实施例在此不做限制,可基于图像特征输出标签即可。
步骤S40,基于所述预测表情系数、所述表情系数标签以及所述至少一个辅助预测标签,调整第一检测模型的模型参数,得到新的第二检测模型。通过所述损失确定模块,根据所述预测表情系数与训练图像对应的表情系数标签之间的第一差异、以及所述至少一个辅助预测标签与训练图像对应的至少一个辅助标签之间的至少一个第二差异,调整所述第一检测模型的模型参数,得到新的第二检测模型。示例性地,上述第一差异、第二差异可通过相关技术中的损失函数得到。例如:可通过相关技术中的smooth L1损失(一种分段损失函数)确定预测表情系数与表情系数标签之间的损失值,作为上述第一差异。再例如:可通过相关技术中的L2损失(或称均方误差)确定辅助预测标签与辅助标签之间差值平方的平均值,作为上述第二差异。示例性地,上述调整可表现为相关技术中的反向传播。在一个示例中,第一差异、第二差异所使用的损失函数可不同,以加速检测模型的训练收敛速度。
在一种可能的实施方式中,步骤S40中调整第一检测模型的模型参数,得到新的第二检测模型,可包括:调整所述第一检测模型的模型参数,得到调整后的第一检测模型。将调整后的第一检测模型中的所述至少一个辅助检测模块进行剪枝,将剪枝后的、调整后的第一检测模型作为新的第二检测模型。本公开实施例可在模型的应用阶段将其至少一个辅助检测模块予以去除,而特征提取模块在经由辅助检测模块监督训练后,已兼顾了辅助标签与表情系数标签,故可在保持精度不变的情况下,实现检测模型的轻量化。应当理解的是,若实际应用场景需要辅助预测标签,则辅助检测模块可予以保留。例如:同时需要检测头部姿态与面部表情的场景、同时需要检测面部关键点与面部表情的场景等。
在一种可能的实施方式中,步骤S40可包括:根据所述预测表情系数与训练图像对应的表情系数标签之间的第一差异、所述第一差异对应的第一权重,得到第一损失值。而后根据所述至少一个辅助预测标签与训练图像对应的至少一个辅助标签之间的至少一个第二差异、每个第二差异对应的第二权重,得到至少一个第二损失值。示例性地,上述第一权重、第二权重的数值大小可由开发人员根据实际需求进行设定。在一个示例中。第一权重的数值高于所述至少一个第二差异对应的至少一个第二权重的数值的总和。本公开实施例可通过设定第一权重的数值高于所述至少一个第二差异对应的至少一个第二权重的数值的总和的方式,可使检测模型以预测表情系数作为主要任务,有利于提高表情系数的生成精度。最终根据所述第一损失值、所述至少一个第二损失值,调整第一检测模型的模型参数,得到新的第二检测模型。示例性地,第一检测模型可以将所述第一损失值与所述至少一个第二损失值的和值减小为训练目标,以得到新的第二检测模型。
步骤S50,响应于满足训练完成条件,利用所述第二检测模型得到所述检测模型。示例性地,训练完成条件可包括,损失值小于预定数值、训练迭代次数达到预设次数等任意一项,本公开实施例在此不做限定。
继续参阅图1所示,步骤S300,根据所述表情系数、表情系数与面部表情之间预设的对应关系,确定所述人脸图像对应的面部表情。示例性地,表情系数可包括多个表情子系数,每个表情子系数可对应一个面部器官,每个表情子系数可位于一定的数值范围,同一个表情子系数的数值范围不同,则其对应的面部器官的状态不同,具体取决于表情系数与面部表情之间预设的对应关系,可由开发人员根据实际场景予以设定。此处以左眼为例,左眼对应的表情子系数的数值范围可为0至100,其中0代表左眼完全闭合,100代表左眼完全打开,即可通过表情系数确定面部表情。
参阅图3,图3示出了根据本公开实施例提供的面部表情的检测装置的框图,所述检测装置100包括:图像获取模块110,用以获取人脸图像;表情系数确定模块120,用以将所述人脸图像输入检测模型,得到所述人脸图像对应的表情系数;其中,所述检测模型由训练数据训练得到,所述训练数据包括训练图像、训练图像对应的表情系数标签以及训练图像对应的至少一个辅助标签;面部表情确定模块130,用以根据所述表情系数、表情系数与面部表情之间预设的对应关系,确定所述人脸图像对应的面部表情。
在一种可能的实施方式中,所述检测模型由初始检测模型训练得到,所述初始检测模型包括:特征提取模块、与所述特征提取模块相连的表情系数检测模块、与所述特征提取模块相连的至少一个辅助检测模块;所述检测模型通过如下方式得到:将所述训练图像输入第一检测模型的所述特征提取模块,得到训练图像对应的图像特征;其中,所述第一检测模型为所述初始检测模型或第二检测模型;将所述图像特征输入所述表情系数检测模块,得到预测表情系数;将所述图像特征输入所述至少一个辅助检测模块,得到对应的至少一个辅助预测标签;基于所述预测表情系数、所述表情系数标签以及所述至少一个辅助预测标签,调整第一检测模型的模型参数,得到新的第二检测模型;响应于满足训练完成条件,利用所述第二检测模型得到所述检测模型。
在一种可能的实施方式中,所述特征提取模块包括:输入卷积层、与所述输入卷积层相连的深度可分离卷积层,所述将所述训练图像输入第一检测模型的所述特征提取模块,得到训练图像对应的图像特征,包括:通过所述输入卷积层,对训练图像进行卷积,得到初始图像特征;通过所述深度可分离卷积层,对所述初始图像特征进行深度可分离卷积,得到训练图像对应的图像特征。
在一种可能的实施方式中,所述基于所述预测表情系数、所述表情系数标签以及所述至少一个辅助预测标签,调整目标模型的模型参数,得到新的第二检测模型,包括:根据所述预测表情系数与训练图像对应的表情系数标签之间的第一差异、所述第一差异对应的第一权重,得到第一损失值;根据所述至少一个辅助预测标签与训练图像对应的至少一个辅助标签之间的至少一个第二差异、每个第二差异对应的第二权重,得到至少一个第二损失值;其中,第一权重的数值高于所述至少一个第二差异对应的至少一个第二权重的数值的总和;根据所述第一损失值、所述至少一个第二损失值,调整第一检测模型的模型参数,得到新的第二检测模型。
在一种可能的实施方式中,所述调整第一检测模型的模型参数,得到新的第二检测模型,包括:调整所述第一检测模型的模型参数,得到调整后的第一检测模型;将调整后的第一检测模型中的所述至少一个辅助检测模块进行剪枝,将剪枝后的、调整后的第一检测模型作为新的第二检测模型。
在一种可能的实施方式中,所述检测装置还用以:获取初始训练图像;筛选所述初始训练图像中满足至少一种预设条件的图像,作为所述训练图像;所述预设条件包括:初始训练图像对应的采集角度为至少一种预设采集角度、初始训练图像对应的年龄段为至少一种预设年龄段、初始训练图像对应的性别为至少一种预设性别、初始训练图像与图像采集装置之间的距离为至少一种预设距离。
在一种可能的实施方式中,所述辅助标签为头部姿态标签、面部关键点标签中的任意一种。
在一种可能的实施方式中,所述将所述人脸图像输入检测模型,得到所述人脸图像对应的表情系数,包括:根据所述人脸图像,确定所述人脸图像对应的面部检测框;根据所述人脸图像对应的面部检测框,确定面部区域图像;根据所述面部区域图像,确定所述面部区域图像中的面部关键点;根据所述面部关键点、预设关键点之间的位置关系,对所述面部区域图像进行调整;将调整后的面部区域图像输入至检测模型,得到所述人脸图像对应的表情系数。
可以理解,本公开提及的上述各个方法实施例,在不违背原理逻辑的情况下,均可以彼此相互结合形成结合后的实施例,限于篇幅,本公开不再赘述。本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
此外,本公开还提供了电子设备、计算机可读存储介质、程序,上述均可用来实现本公开提供的任一种操作系统的切换方法,相应技术方案和描述和参见方法部分的相应记载,不再赘述。
该方法与计算机系统的内部结构存在特定技术关联,且能够解决如何提升硬件运算效率或执行效果的技术问题(包括减少数据存储量、减少数据传输量、提高硬件处理速度等),从而获得符合自然规律的计算机系统内部性能改进的技术效果。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
本公开实施例还提出一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述方法。计算机可读存储介质可以是易失性或非易失性计算机可读存储介质。
本公开实施例还提出一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为调用所述存储器存储的指令,以执行上述方法。
本公开实施例还提供了一种计算机程序产品,包括计算机可读代码,或者承载有计算机可读代码的非易失性计算机可读存储介质,当所述计算机可读代码在电子设备的处理器中运行时,所述电子设备中的处理器执行上述方法。
电子设备可以被提供为终端设备、服务器或其它形态的设备。
参阅图4所示,图4示出了根据本公开实施例提供的一种电子设备1900的框图。例如,电子设备1900可以被提供为一服务器或终端设备。参照图4,电子设备1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
电子设备1900还可以包括一个电源组件1926被配置为执行电子设备1900的电源管理,一个有线或无线网络接口1950被配置为将电子设备1900连接到网络,和一个输入输出接口1958。电子设备1900可以操作基于存储在存储器1932的操作系统,例如微软服务器操作系统(Windows ServerTM),苹果公司推出的基于图形用户界面操作系统(Mac OS XTM),多用户多进程的计算机操作系统(UnixTM),自由和开放原代码的类Unix操作系统(LinuxTM),开放原代码的类Unix操作系统(FreeBSDTM)或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由电子设备1900的处理组件1922执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是(但不限于)电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
该计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software Development Kit,SDK)等等。
上文对各个实施例的描述倾向于强调各个实施例之间的不同之处,其相同或相似之处可以互相参考,为了简洁,本文不再赘述。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
若本申请技术方案涉及个人信息,应用本申请技术方案的产品在处理个人信息前,已明确告知个人信息处理规则,并取得个人自主同意。若本申请技术方案涉及敏感个人信息,应用本申请技术方案的产品在处理敏感个人信息前,已取得个人单独同意,并且同时满足“明示同意”的要求。例如,在摄像头等个人信息采集装置处,设置明确显著的标识告知已进入个人信息采集范围,将会对个人信息进行采集,若个人自愿进入采集范围即视为同意对其个人信息进行采集;或者在个人信息处理的装置上,利用明显的标识/信息告知个人信息处理规则的情况下,通过弹窗信息或请个人自行上传其个人信息等方式获得个人授权;其中,个人信息处理规则可包括个人信息处理者、个人信息处理目的、处理方式以及处理的个人信息种类等信息。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (11)
1.一种面部表情的检测方法,其特征在于,所述检测方法包括:
获取人脸图像;
将所述人脸图像输入检测模型,得到所述人脸图像对应的表情系数;其中,所述检测模型由训练数据训练得到,所述训练数据包括训练图像、训练图像对应的表情系数标签以及训练图像对应的至少一个辅助标签;
根据所述表情系数、表情系数与面部表情之间预设的对应关系,确定所述人脸图像对应的面部表情。
2.如权利要求1所述的检测方法,其特征在于,所述检测模型由初始检测模型训练得到,所述初始检测模型包括:特征提取模块、与所述特征提取模块相连的表情系数检测模块、与所述特征提取模块相连的至少一个辅助检测模块;
所述检测模型通过如下方式得到:
将所述训练图像输入第一检测模型的所述特征提取模块,得到训练图像对应的图像特征;其中,所述第一检测模型为所述初始检测模型或第二检测模型;
将所述图像特征输入所述表情系数检测模块,得到预测表情系数;
将所述图像特征输入所述至少一个辅助检测模块,得到对应的至少一个辅助预测标签;
基于所述预测表情系数、所述表情系数标签以及所述至少一个辅助预测标签,调整第一检测模型的模型参数,得到新的第二检测模型;
响应于满足训练完成条件,利用所述第二检测模型得到所述检测模型。
3.如权利要求2所述的检测方法,其特征在于,所述特征提取模块包括:输入卷积层、与所述输入卷积层相连的深度可分离卷积层,所述将所述训练图像输入第一检测模型的所述特征提取模块,得到训练图像对应的图像特征,包括:
通过所述输入卷积层,对训练图像进行卷积,得到初始图像特征;
通过所述深度可分离卷积层,对所述初始图像特征进行深度可分离卷积,得到训练图像对应的图像特征。
4.如权利要求2所述的检测方法,其特征在于,所述基于所述预测表情系数、所述表情系数标签以及所述至少一个辅助预测标签,调整目标模型的模型参数,得到新的第二检测模型,包括:
根据所述预测表情系数与训练图像对应的表情系数标签之间的第一差异、所述第一差异对应的第一权重,得到第一损失值;
根据所述至少一个辅助预测标签与训练图像对应的至少一个辅助标签之间的至少一个第二差异、每个第二差异对应的第二权重,得到至少一个第二损失值;其中,第一权重的数值高于所述至少一个第二差异对应的至少一个第二权重的数值的总和;
根据所述第一损失值、所述至少一个第二损失值,调整第一检测模型的模型参数,得到新的第二检测模型。
5.如权利要求2所述的检测方法,其特征在于,所述调整第一检测模型的模型参数,得到新的第二检测模型,包括:
调整所述第一检测模型的模型参数,得到调整后的第一检测模型;
将调整后的第一检测模型中的所述至少一个辅助检测模块进行剪枝,将剪枝后的、调整后的第一检测模型作为新的第二检测模型。
6.如权利要求1所述的检测方法,其特征在于,所述检测方法还包括:
获取初始训练图像;
筛选所述初始训练图像中满足至少一种预设条件的图像,作为所述训练图像;所述预设条件包括:初始训练图像对应的采集角度为至少一种预设采集角度、初始训练图像对应的年龄段为至少一种预设年龄段、初始训练图像对应的性别为至少一种预设性别、初始训练图像与图像采集装置之间的距离为至少一种预设距离。
7.如权利要求1所述的检测方法,其特征在于,所述辅助标签为头部姿态标签、面部关键点标签中的任意一种。
8.如权利要求1至7中任意一项所述的检测方法,其特征在于,所述将所述人脸图像输入检测模型,得到所述人脸图像对应的表情系数,包括:
根据所述人脸图像,确定所述人脸图像对应的面部检测框;
根据所述人脸图像对应的面部检测框,确定面部区域图像;
根据所述面部区域图像,确定所述面部区域图像中的面部关键点;
根据所述面部关键点、预设关键点之间的位置关系,对所述面部区域图像进行调整;
将调整后的面部区域图像输入至检测模型,得到所述人脸图像对应的表情系数。
9.一种面部表情的检测装置,其特征在于,所述检测装置包括:
图像获取模块,用以获取人脸图像;
表情系数确定模块,用以将所述人脸图像输入检测模型,得到所述人脸图像对应的表情系数;其中,所述检测模型由训练数据训练得到,所述训练数据包括训练图像、训练图像对应的表情系数标签以及训练图像对应的至少一个辅助标签;
面部表情确定模块,用以根据所述表情系数、表情系数与面部表情之间预设的对应关系,确定所述人脸图像对应的面部表情。
10.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为调用所述存储器存储的指令,以执行权利要求1至8中任意一项所述的面部表情的检测方法。
11.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至8中任意一项所述的面部表情的检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311353728.8A CN117315758A (zh) | 2023-10-18 | 2023-10-18 | 面部表情的检测方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311353728.8A CN117315758A (zh) | 2023-10-18 | 2023-10-18 | 面部表情的检测方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117315758A true CN117315758A (zh) | 2023-12-29 |
Family
ID=89273539
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311353728.8A Pending CN117315758A (zh) | 2023-10-18 | 2023-10-18 | 面部表情的检测方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117315758A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117540789A (zh) * | 2024-01-09 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 模型训练方法、面部表情迁移方法、装置、设备及介质 |
-
2023
- 2023-10-18 CN CN202311353728.8A patent/CN117315758A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117540789A (zh) * | 2024-01-09 | 2024-02-09 | 腾讯科技(深圳)有限公司 | 模型训练方法、面部表情迁移方法、装置、设备及介质 |
CN117540789B (zh) * | 2024-01-09 | 2024-04-26 | 腾讯科技(深圳)有限公司 | 模型训练方法、面部表情迁移方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11200696B2 (en) | Method and apparatus for training 6D pose estimation network based on deep learning iterative matching | |
CN108898186B (zh) | 用于提取图像的方法和装置 | |
US11734851B2 (en) | Face key point detection method and apparatus, storage medium, and electronic device | |
US10991074B2 (en) | Transforming source domain images into target domain images | |
US11557085B2 (en) | Neural network processing for multi-object 3D modeling | |
US11227182B2 (en) | Method, apparatus, and storage medium for recognizing image object | |
US11651214B2 (en) | Multimodal data learning method and device | |
US20230237841A1 (en) | Occlusion Detection | |
CN107679466B (zh) | 信息输出方法和装置 | |
CN110163205B (zh) | 图像处理方法、装置、介质和计算设备 | |
CN110490959B (zh) | 三维图像处理方法及装置、虚拟形象生成方法以及电子设备 | |
WO2023005386A1 (zh) | 模型训练方法和装置 | |
JP2022177232A (ja) | 画像処理方法、テキスト認識方法及び装置 | |
CN117315758A (zh) | 面部表情的检测方法、装置、电子设备及存储介质 | |
CN116363261A (zh) | 图像编辑模型的训练方法、图像编辑方法和装置 | |
CN113780326A (zh) | 一种图像处理方法、装置、存储介质及电子设备 | |
EP4343616A1 (en) | Image classification method, model training method, device, storage medium, and computer program | |
CN114240770A (zh) | 一种图像处理方法、装置、服务器及存储介质 | |
CN111815748B (zh) | 一种动画处理方法、装置、存储介质及电子设备 | |
CN113379877A (zh) | 人脸视频生成方法、装置、电子设备及存储介质 | |
US20230021551A1 (en) | Using training images and scaled training images to train an image segmentation model | |
CN116402914A (zh) | 用于确定风格化图像生成模型的方法、装置及产品 | |
KR20230068989A (ko) | 멀티-태스크 모델의 학습을 수행하는 방법 및 전자 장치 | |
CN115457365A (zh) | 一种模型的解释方法、装置、电子设备及存储介质 | |
CN114596209A (zh) | 指纹图像修复方法、系统、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |