CN114080632A - 图像中的面部定位 - Google Patents

图像中的面部定位 Download PDF

Info

Publication number
CN114080632A
CN114080632A CN202080031201.1A CN202080031201A CN114080632A CN 114080632 A CN114080632 A CN 114080632A CN 202080031201 A CN202080031201 A CN 202080031201A CN 114080632 A CN114080632 A CN 114080632A
Authority
CN
China
Prior art keywords
face
neural network
image
predicted
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080031201.1A
Other languages
English (en)
Inventor
邓健康
斯特凡诺斯·扎菲里乌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of CN114080632A publication Critical patent/CN114080632A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本说明书涉及在图像中进行面部定位的方法。根据本说明书的第一方面,描述了一种训练神经网络以进行人脸定位的计算机实现的方法,所述方法包括:向所述神经网络输入训练图像,所述训练图像包括一个或多个人脸;使用所述神经网络处理所述训练图像;从所述神经网络为所述训练图像中的多个训练锚点中的每一个训练锚点输出一组或多组输出数据,每组输出数据包括预测面部分类、对应的人脸框的预测位置和一个或多个对应的特征向量;根据目标函数更新所述神经网络的参数。对于所述训练图像中的每个正锚点,所述目标函数包括:分类损失,用于将所述正锚点的预测分类与所述正锚点的已知分类进行比较;框回归损失,用于将所述正锚点的人脸框的预测位置与所述人脸框的已知位置进行比较;特征损失,用于将所述正锚点的所述一个或多个特征向量的基于像素的属性与和所述正锚点相关联的、人脸的已知的基于像素的属性进行比较。

Description

图像中的面部定位
技术领域
本说明书涉及在图像中进行面部定位的方法。具体地,本说明书涉及神经网络的使用和训练,以在图像中进行面部定位。
背景技术
图像中的面部定位是为了确定图像中是否存在面部以及确定面部的位置。图像中的面部定位还可以包括识别包围确定在图像中存在的每个人脸的边界框的位置。在许多应用中,例如面部属性(例如,表情和/或年龄)和/或面部身份识别,自动人脸定位是人脸图像分析的前提步骤。通常,训练神经网络(面部分类/检测神经网络)以在图像中进行面部定位包括仅使用分类和框回归损失。
面部检测与通用对象检测在几个方面不同。面部检测的比率变化较小(例如,从1:1到1:1.5),但缩放变化要大得多(例如,从几像素到几千像素)。将通用对象检测器用于面部检测和定位存在重大挑战。
发明内容
根据本说明书的第一方面,描述了一种训练神经网络以进行人脸定位的计算机实现的方法,所述方法包括:向所述神经网络输入训练图像,所述训练图像包括一个或多个人脸;使用所述神经网络处理所述训练图像;从所述神经网络为所述训练图像中的多个训练锚点中的每一个训练锚点输出一组或多组输出数据,每组输出数据包括预测面部分类、对应的人脸框的预测位置和一个或多个对应的特征向量;根据目标函数更新所述神经网络的参数。对于所述训练图像中的每个正锚点,所述目标函数包括:分类损失,用于将所述正锚点的预测分类与所述正锚点的已知分类进行比较;框回归损失,用于将所述正锚点的人脸框的预测位置与所述人脸框的已知位置进行比较;特征损失,用于将所述正锚点的所述一个或多个特征向量的基于像素的属性与和所述正锚点相关联的、人脸的已知的基于像素的属性进行比较。
所述一个或多个特征向量可以包括人脸的多个面部特征点的预测位置,其中,所述特征损失包括面部特征点回归损失,用于将所述多个面部特征点的所述预测位置与所述多个面部特征点的已知位置进行比较。
所述一个或多个特征向量可以包括预测人脸框内的人脸的编码表示,并且所述方法还可以包括:使用网格解码器神经网络生成所述人脸的三维表示,所述网格解码器神经网络包括一个或多个几何卷积层;使用可微渲染器从所述人脸的所述三维表示生成所述人脸的二维图像,其中,所述特征损失包括将所述生成的人脸的二维图像与所述预测人脸框内的所述人脸的实测值图像进行比较的密集回归损失。
所述特征向量还可以包括相机参数和/或照明参数,其中,所述可微渲染器在从所述人脸的所述三维表示生成所述人脸的所述二维图像时使用所述相机参数和/或照明参数。
所述密集回归损失可以是所述生成的人脸的二维图像与所述预测人脸框内的所述人脸的所述实测值图像之间的像素差。
所述网格解码器可以包括多个几何卷积层和多个放大层,其中,所述多个放大层与所述多个几何卷积层交错。
对于所述训练图像中的每个负锚点,所述目标函数包括分类损失,用于将所述负锚点的预测分类与所述负锚点的已知分类进行比较。
所述方法还可以包括使用一个或多个其它训练图像迭代所述方法,直到满足阈值条件。
所述神经网络可以包括:第一多个卷积层,包括输入层、多个卷积过滤器和一个或多个跳跃连接;第二多个卷积层,横向连接到所述第一多个卷积层,并用于以自上而下的方式处理所述第一多个卷积层的输出。第二多个卷积层可以包括一个或多个可变形卷积层。
每个横向连接可以用于将所述第一多个卷积层中的一个层的输出与所述第二多个卷积层的前一层的输出合并。
神经网络还可以包括一个或多个上下文模块,每个上下文模块用于使用一个或多个可变形卷积网络处理所述第二多个卷积层中的一个层的所述输出。
根据本说明书的另一方面,描述了一种人脸定位方法,所述方法包括:使用神经网络识别输入图像中的一个或多个人脸;使用所述神经网络识别所述输入图像中的一个或多个对应的人脸框,其中,所述神经网络已经使用本文所述的训练方法中的一种进行训练。
根据本说明书的另一方面,描述了一种计算机实现的人脸定位方法,所述方法包括:向所述神经网络输入图像,所述图像包括一个或多个人脸;使用所述神经网络处理所述图像;从所述神经网络输出一组或多组输出数据,每组输出数据包括预测面部分类、对应的人脸框的预测位置和一个或多个对应的特征向量。所述神经网络包括:第一多个卷积层,包括输入层、多个卷积过滤器和一个或多个跳跃连接;第二多个卷积层,横向连接到所述第一多个卷积层,并用于以自上而下的方式处理所述第一多个卷积层的输出。
每个横向连接可以用于将所述第一多个卷积层中的一个层的输出与所述第二多个卷积层的前一层的输出合并。第二多个卷积层可以包括一个或多个可变形卷积层。
神经网络还可以包括一个或多个上下文模块,每个上下文模块用于使用一个或多个可变形卷积网络处理第二多个卷积层中的层的输出。
神经网络可以使用本文描述的任何训练方法进行训练。
根据本说明书的另一方面,描述了一种系统,所述系统包括:一个或多个处理器;存储器,所述存储器包括计算机可读指令,当由所述一个或多个处理器执行时,所述计算机可读指令使所述系统执行本文所述的方法中的一个或多个。
根据本说明书的另一方面,描述了一种计算机程序产品,所述计算机程序产品包括计算机可读指令,当由计算设备执行时,所述计算机可读指令使所述计算设备执行本文所述的方法中的一个或多个。
如本文所使用,术语“面部定位”和/或“人脸定位”优选用于表示以下各项中的一个或多个:人脸检测;人脸对齐;像素人脸解析;和/或3D密集对应回归。
附图说明
现在将参考附图通过非限制性示例来描述实施例,其中:
图1示出了在图像中进行面部定位的方法的示意性概述;
图2示出了使用多任务损失训练神经网络以在图像中进行面部定位的方法的示意性概述;
图3示出了训练神经网络以在图像中进行面部定位的方法的流程图;
图4示出了用于在图像中进行面部定位的神经网络结构的示例;
图5示出了用于在图像中进行面部定位的神经网络中横向连接的示例;
图6示出了用于在图像中进行面部定位的神经网络结构的另一示例;
图7示出了用于执行面部定位的计算机系统的示例。
具体实施方式
在本文描述的实施例中,面部识别神经网络除了可以用于输出人脸评分(即,一个位置是否存在人脸的指示)和人脸框之外,还可以用于输出其它特征向量。例如,面部识别神经网络可以输出一个或多个面部特征点位置。或者或另外,面部识别神经网络可以输出人脸框内区域的嵌套(embedding)。这些输出可用于多任务损失函数,以训练面部识别神经网络。
与其它面部定位方法相比,使用这种多任务损失函数可以提高面部分类/检测神经网络的性能。例如,面部分类/检测神经网络可以具有较低的错误率。
在一些实施例中,采用了轻量级骨干网。这可以使面部分类/检测神经网络在单个CPU内核上实时运行。
图1示出了在图像中进行面部定位的方法100的示意性概述。包括一个或多个人脸104的图像102输入到神经网络106中。神经网络106通过多个神经网络层处理图像,并输出一组或多组输出面部数据108。每组输出面部数据108包括图像102中的人脸106的预测面部分类、对应的人脸框的预测位置,以及对图像102中对应人脸的一个或多个属性进行编码的一个或多个对应特征向量。
输入图像102(即,I)是包括一个或多个人脸的图像。输入图像102可以包括阵列(例如,二维或三维阵列)中的一组像素值。例如,在彩色图像
Figure BDA0003319202280000033
中,H是图像的高度(以像素为单位),W是图像的宽度(以像素为单位),图像具有三个彩色信道(例如,RGB或CIELAB)。在一些实施例中,图像102可以是黑白的/灰度的。
神经网络106包括多层节点,每个节点与一个或多个参数相关联。神经网络的每个节点的参数可以包括一个或多个权重和/或偏差。节点将上一层中的节点的一个或多个输出作为输入。上一层中的节点的一个或多个输出由节点用于使用激活函数和神经网络的参数生成激活值。经过训练的生成器神经网络106的一个或多个层可以是卷积层。经过训练的生成器神经网络106的一个或多个层可以是可变形卷积层。
在一些实施例中,神经网络106可以包括残差网络和特征金字塔网络。神经网络106可以包括残差网络的层与特征金字塔网络的层之间的横向连接。特征金字塔可以以自上而下的方式处理残差网络的输出。下面结合图4至图6描述使用残差网络和特征金字塔的神经网络架构的示例。
神经网络106的参数可以使用多任务目标函数
Figure BDA0003319202280000032
(本文也称为损失函数)来训练。多任务目标函数可以包括面部分类损失、人脸框回归损失、面部特征点回归损失和/或密集人脸回归损失中的两个或多个。多任务损失函数可以包括监督损失和/或自监督损失。下面结合图2和图3描述神经网络的训练方法的示例。
对于由神经网络在图像102中识别的每个潜在人脸,一组输出面部数据108包括图像102中的人脸106的预测面部分类108a。预测分类108a包括图像中的锚点是人脸的概率。
对于由神经网络在图像102中识别的每个潜在人脸,一组输出面部数据108还包括图像102中的人脸106的预测边界框108b。例如,预测的边界框108b可以是潜在人脸的边界框110的角点的坐标。
对于由神经网络在图像102中识别的每个潜在人脸,一组输出面部数据108还包括对人脸的一个或多个属性进行编码的一个或多个特征向量108c。例如,特征向量108c可以包括一个或多个面部特征点的位置,所述面部特征点例如人脸上的眼睛、鼻子、下巴和/或嘴。或者或另外,特征向量108c包括包含在边界框110中的人脸的嵌套。
图2示出了使用多任务损失训练神经网络以在图像中进行的面部定位的方法的示意性概述。该方法包括使用多任务损失函数204在一组训练图像102上训练神经网络106。对于训练数据集中的多个图像202中的每一个图像,训练图像202被输入到神经网络106中,并通过多个神经网络层进行处理。神经网络106根据输入训练图像202输出一组预测面部数据206。使用多任务损失函数204将预测面部数据206与对应训练图像202的已知面部数据进行比较,并且该比较用于更新神经网络106的参数。
训练图像202从训练集中获得。训练集包括多个包含人脸的图像,以及每个图像的一组已知面部数据。已知面部数据包括对应图像中每个人脸的位置,以及对应图像中每个人脸的边界框的位置。在一些实施例中,已知面部数据还包括对应图像中的每个人脸的一个或多个面部特征点的位置。
每个训练图像可以与多个训练锚点相关联。每个锚点表示图像中可能存在人脸的“先前(prior)”框。每个锚点可以被定义为包括中心位置和标度的参考框。但是,应理解,锚点可以以其它方式定义。锚点用于面部检测,用于区分正负训练样本。正锚点定义为存在人脸的锚点。负锚点定义为不存在人脸的锚点。以下文献中提供了使用锚点的示例:“更快的R-CNN:使用区域建议网络实现实时对象检测(Faster R-CNN:Towards Real-Time ObjectDetection with Regional Proposal Networks)”(Shaoqing Ren等人,arXiv:1506.01497,其内容通过引用的方式并入本文中)。
预测面部数据206包括面部分类210。预测面部分类210包括相关联的锚点i是人脸的概率pi。在一些实施例中,预测面部分类210可以具有对应于“存在人脸”和“不存在人脸”的两个部分。
锚点的预测面部分类210与分类损失
Figure BDA0003319202280000041
相关联,其中,
Figure BDA0003319202280000042
是锚点i的已知面部分类(即,1表示正锚点,0表示负锚点)。分类损失将锚点的预测分类与锚点的已知分类进行比较。例如,分类损失可以是二进制情况的softmax损失,例如交叉熵损失或二进制合页损失。但是,本领域技术人员将理解,可以使用其它损失函数。在一些实施例中,分类损失可以仅用于正锚点。在其它实施例中,分类损失可以用于正锚点和负锚点。
预测面部数据206包括预测面部框位置212(即,ti)。预测面部框位置212包括识别锚点i的对应人脸的边界框的预测位置的数据。预测面部框位置212可以是例如用于人脸的预测边界框的角点的坐标,例如框的所有四个角点或框的两个对角线相对的角点的坐标。或者,预测面部框位置212可以是边界框的中心以及框的高度和宽度的坐标。其它示例也是可能的。
正锚点的预测面部框位置212与框回归损失
Figure BDA0003319202280000043
相关联,其中,
Figure BDA0003319202280000044
是正锚点i的已知面部框位置。框回归损失将预测面部框位置212(即,ti)与对应人脸框的已知位置
Figure BDA0003319202280000045
进行比较。例如,框回归损失可以是鲁棒损失函数,例如平滑L1损失函数。但是,本领域技术人员将理解,可以使用其它损失函数。在一些实施例中,框回归目标可以归一化到框的中心位置以及宽度和高度。
预测面部数据还包括一个或多个预测特征向量,每个预测特征向量对具有面部框的区域的一个或多个基于像素的属性进行编码。特征向量分别与特征损失
Figure BDA0003319202280000046
相关联,所述特征损失用于将正锚点的一个或多个特征向量的基于像素的属性与和正锚点相关联的、人脸的已知的基于像素的属性进行比较。
这种特征向量的示例是面部特征点数据214。面部特征点数据214包括预测面部框内一个或多个面部特征点的预测坐标/位置。例如,可以使用对应于眼睛、嘴角和鼻子的五个面部特征点。
面部特征点数据214与面部特征点回归损失
Figure BDA0003319202280000051
相关联,其中,
Figure BDA0003319202280000052
是正锚点i的已知面部特征点位置。面部特征点回归损失将预测面部特征点位置214(即,li)与对应的面部特征点的已知位置
Figure BDA0003319202280000053
进行比较。例如,面部特征点回归损失可以是鲁棒损失函数,例如平滑L1损失函数。但是,本领域技术人员将理解,可以使用其它损失函数。在一些实施例中,面部特征点位置目标可以归一化到中心位置。
或者或另外,特征向量可以包括边界框内潜在人脸的嵌套216(即,PST)。嵌套216可以包括对应边界框内的人脸的形状和纹理参数。在一些实施例中,相机参数218和/或照明参数220也可以由神经网络106输出。相机参数218可以包括以下各项中的一个或多个:相机位置;相机姿势;和/或相机的焦距。照明(Lighting或illumination)参数可以包括以下各项中的一个或多个:光源位置;光源的颜色值;和/或环境光颜色。相机参数218和/或照明参数220可以被称为渲染参数。
嵌套216可以与密集回归损失函数Lpixel相关联。密集回归损失不直接将嵌套216与已知嵌套进行比较。相反,嵌套被后处理以生成预测面部图像222,然后使用回归损失函数将所述预测面部图像与潜在面部图像(即,边界框中的图像)进行比较。因此,该过程的这一分支可被视为自监督。
为了生成预测面部图像222,可以使用网格解码器神经网络224处理嵌套,以生成潜在人脸的三维表示,例如三维网格。网格解码器神经网络224包括多层节点,每个节点与一个或多个参数相关联。神经网络的每个节点的参数可以包括一个或多个权重和/或偏差。节点将上一层中的节点的一个或多个输出作为输入。上一层中的节点的一个或多个输出由节点用于使用激活函数和神经网络的参数生成激活值。网格解码器神经网络224包括一个或多个几何卷积层(本文中也称为网格卷积层)。几何卷积层是在几何深度学习中使用的神经网络的一种卷积过滤器层,可以直接应用于网格域。
网格解码器还可以包括一个或多个放大层,用于放大网格(即,增加网格中顶点的数量)。放大层可以与几何卷积层交错。例如,几何卷积层可以与放大层交替。
网格解码器224用于将嵌套参数216作为输入,并使用一系列神经网络层处理输入,以从训练图像输出二维潜在人脸的形状图和纹理图。网格解码器神经网络的输出可以用符号表示为
Figure BDA0003319202280000054
形状和纹理图包括与输入视觉数据相关的三维形状和纹理信息。在一些实施例中,输出是参数集,描述网格中点的(x,y,z)坐标和网格中每个点的对应(r,g,b)值。在一些实施例中,输出可以是单位球面内的彩色网格。
网格解码器可以被预训练,并在神经网络106的训练期间固定其参数。可以结合共同待决的GB专利申请第902524.6号(其内容通过引用的方式并入本文中),描述网格解码器神经网络的示例以及如何训练网格解码器神经网络。
网格可以根据无向连通图
Figure BDA0003319202280000055
定义,其中,
Figure BDA0003319202280000056
是包含联合形状(例如(x,y,z))和纹理(例如(r,g,b))信息的n个顶点的集合,ε∈{0,1}n×n是定义顶点之间连接状态的邻接矩阵。但是,应理解,可以使用网格的替代表示。
图/网格上的卷积运算符的示例可以使用递归多项式(例如,契比雪夫(Chebyshev)多项式)通过用内核gθ制定网格过滤来定义。在网格上定义这种卷积运算符时,按以下方式定义一些中间变量是很有用的。非归一化图拉普拉斯(Laplacian)可以定义为
Figure BDA0003319202280000061
其中,
Figure BDA0003319202280000062
是对角线矩阵,其中,Dii=∑jεij。然后,归一化图拉普拉斯可以定义为L=In-D-1/2εD-1/2,其中,In是单位矩阵。
拉普拉斯可以被傅里叶(Fourier)基对角线化
Figure BDA0003319202280000063
使得L=U∧UT,其中,
Figure BDA0003319202280000064
然后,可以将给定网格的图傅里叶表示定义为
Figure BDA0003319202280000065
Figure BDA0003319202280000066
的倒数。
给出这些定义,可以定义图/网格上的卷积运算符gθ的示例。过滤器gθ可以参数化为K阶的截断契比雪夫多项展开式,如
Figure BDA0003319202280000067
其中,
Figure BDA0003319202280000068
是契比雪夫系数的向量,
Figure BDA0003319202280000069
是在缩放的拉普拉斯
Figure BDA00033192022800000610
Figure BDA00033192022800000611
时求得的k阶契比雪夫多项式。Tk(x)可以使用Tk(x)=2xTk-1(x)-Tk-2(x)递归计算,其中,T0(x)=1,T0(x)=1。
然后,谱卷积可以定义为
Figure BDA00033192022800000612
其中,
Figure BDA00033192022800000613
是输入,且
Figure BDA00033192022800000614
这种过滤操作非常高效,仅需要
Figure BDA00033192022800000615
运算。
或者或另外,可以使用其它类型的几何/网格卷积(或图卷积)。例如,可以使用其它正交多项式集来代替契比雪夫多项式。
使用可微渲染器226对联合形状和纹理图进行进一步处理,以生成边界框内潜在人脸的2D渲染表示222,
Figure BDA00033192022800000616
所述表示可以包括联合形状和纹理图在图像平面上的二维投影。渲染参数集218、220可用于渲染二维视觉数据的表示,例如用于定义渲染中使用的相机模型的参数,即,2D渲染表示222通过
Figure BDA00033192022800000617
表示。例如,可微渲染器226可以是将彩色网格
Figure BDA00033192022800000618
投影到2D图像平面上的3D网格渲染器。这种可微渲染器226的示例可以在Genova等人的(CVPR,2018.2,3)中找到,但也可以使用其它渲染器。
密集回归损失Lpixel将渲染的2D人脸222(即,
Figure BDA00033192022800000619
)与训练图像202中的原始面部图像(即,预测面部框内的实测值图像)进行比较。像素差可用于执行比较。密集回归损失的示例可通过以下方式给出:
Figure BDA00033192022800000620
其中,I*是实测值训练图像的锚点修剪,H和W分别是锚点修剪的宽度和高度。∥x∥n是L-n范数,例如L-1范数。或者,可以使用其它像素损失函数。
多任务目标函数204包括分类损失、框回归损失和特征损失的组合。训练的目的是,对于每个训练锚点i,最小化多任务目标函数。锚点i的多任务损失函数的示例是:
Figure BDA00033192022800000621
其中,{λi}是控制多任务目标函数中不同损失函数的相对重要性的常数。例如,这些参数可以在(0,1]范围内。例如,λ1=0.25、λ2=0.1,且λ3=0.01。
多任务目标函数204用于在训练期间更新神经网络106的参数。神经网络106的参数可以使用旨在优化多任务损失函数208的优化过程来更新。例如,优化过程可以是梯度下降算法。优化过程可以使用反向传播,例如通过将多任务损失函数204反向传播到神经网络106的参数。优化程序可以与训练期间变化的学习速率相关联。例如,学习速率可以从初始值(例如10^(–3))开始,然后在第一阈值个周期之后增大,例如在5个周期之后增大到10^(–2)。然后,学习速率可以在进一步的阈值周期之后减小,例如在预定义周期个数时减小预定义倍数。例如,在55和68个周期时,学习速率可能会减小10倍。
图3示出了训练神经网络以在图像中进行面部定位的方法的流程图。该方法可以对应于上面结合图2描述的方法。
在操作3.1中,将训练图像输入到神经网络,该训练图像包括一个或多个人脸。训练图像可以从包括多个图像的训练数据集中选择,每个图像包括位于已知位置的一个或多个人脸,并具有已知的边界框。人脸的一个或多个特征,例如面部特征点的位置,也可以是已知的。
在操作3.2中,使用神经网络处理输入训练图像。
在操作3.3中,神经网络为训练图像中的多个训练锚点中的每一个训练锚点输出一组或多组输出数据,每组输出数据包括预测面部分类、对应的人脸框的预测位置和一个或多个对应的特征向量。
操作3.1至3.3可以在训练数据中的训练示例的子集上迭代,以形成训练示例的集合。该集合可用于确定操作3.4中的目标函数,例如通过在集合上平均多任务目标函数。或者,可以对每个训练示例单独地执行操作3.4。
在操作3.4中,神经网络的参数根据目标函数更新。对于所述训练图像中的每个正锚点,所述目标函数包括:分类损失,用于将所述正锚点的预测分类与所述正锚点的已知分类进行比较;框回归损失,用于将所述正锚点的人脸框的预测位置与所述人脸框的已知位置进行比较;特征损失,用于将所述正锚点的所述一个或多个特征向量的基于像素的属性与和所述正锚点相关联的、人脸的已知的基于像素的属性进行比较。更新可以在操作3.1至3.3的每次迭代之后执行。或者,更新可以在操作3.1至3.3的多次迭代之后执行。在这些实施例中,多任务损失函数可以包括在训练示例集合上获取的一个或多个期望值。
操作3.1至3.4可以在训练数据集上迭代,直到满足阈值条件。阈值条件可以是训练周期的阈值个数。训练周期的阈值个数可以在50-150的范围内,例如70-90的范围内,例如为80。
图4示出了用于在图像中进行面部定位的神经网络结构的示例。在一些实施例中,神经网络106可以使用这种结构。
神经网络400包括骨干网402。骨干网402可以包括多个卷积层。骨干网402还可以包括多个下采样层,这些下采样层减少了对该层的输入的维数。骨干网可以初始化为预训练的分类网络,例如ResNet网络(例如,ResNet-152)。例如,对于640×640彩色像素的输入图像404大小,骨干网402的结构可以通过以下方式给出:
Figure BDA0003319202280000071
Figure BDA0003319202280000081
其中,卷积构建块显示在方括号中,下采样由conv3_1、conv4_1和conv5_1执行,步幅为2。骨干网402用于以“自下而上”的方式(即从低索引层到高索引层)通过一系列卷积层(在该示例中标记为C2-C6)处理输入图像404并为每个卷积层生成输出。尽管在本示例中示出了六个层,但可以使用更少或更多的层。在训练期间,可以固定预训练的骨干网的一个或多个层,例如前两层,以提高精度。
在训练期间,一个或多个卷积层可以固定到它们的初始预训练值。例如,前两层可以是固定的。这可以在训练后实现更高的神经网络精度。
神经网络400还包括特征金字塔网络406。特征金字塔网络406包括多个特征金字塔级别(在本示例中标记为P2-P6,其中,P6直接作用在骨干网402的最后一层上/与该最后一层共享)。特征金字塔级别可以包括卷积层。卷积层可以是可变形卷积层。卷积层可以与一个或多个放大层交错。特征金字塔406用于以“自上而下”的方式(即,从高索引层到低索引层)处理骨干网402中的对应层的输出,以便生成多个特征图。
特征金字塔结构的示例如下所示:
Figure BDA0003319202280000082
其中,每个层的输出的维度在第一列中表示,“锚点”列表示与金字塔的每个层相关联的标度,“步幅”列表示每个层执行的卷积的步幅。例如,在该示例中,P2层与锚点标度16×16、20.16×20.16和25.4×25.4相关联,并使用步幅4执行卷积。但是,应理解,可以选择使用不同的标度和卷积。特征金字塔的较低级别可以与比较高级别更小的标度相关联和/或具有较小的步幅。
神经网络400包括骨干网402的层的输出与特征金字塔406的层之间的多个横向连接408。在一些实施例中,横向连接408可以处理关联骨干网402层的输出,然后将其与较高特征金字塔层的输出一起输入到对应的特征金字塔层。换句话说,最高层之后的每个特征金字塔层接收对应骨干网络层的输出和特征金字塔的前一高层的输出的组合作为输入,例如,特征金字塔的层P3接收骨干网的层C3的输出和特征金字塔的层P4的输出的组合作为输入。特征金字塔的较高层(在本示例中,层P6和P5)从骨干网接收其输入,而不将其与前一层的输出组合。
特征金字塔的每一层都输出一组特征。可以进一步处理特征以生成输出数据108和/或多任务损失208。每个层中的特征数量可以固定为相同。例如,每个层可以固定为具有256个特征。
使用横向连接可以使“自下而上”路径和“自上而下”路径组合。一般来说,自上而下路径可能在语义上较强,但在空间上较粗糙,而自下而上的路径可能在空间上较精细,但在语义上较弱。通过使用横向连接组合路径,可以提高神经网络在面部定位中的性能。
在一些实施例中,骨干网402可以是MobileNet网络,例如MobileNet-0.25。这提供了一个更轻量级的模型,可以在单个CPU上基本上实时运行。这些轻量级模型可以在输入图像上使用步幅为4的7×7卷积来减小数据大小。密集锚点可以在P4-P5上平铺,以提高性能。在一些实施例中,可变形卷积层被卷积层取代,以加速处理。在训练期间,可以固定预训练的骨干网的一个或多个层,例如前两层,以提高精度。
图5示出了用于在图像中进行面部定位的神经网络中横向连接的示例。在该示例中,横向连接适用于特征金字塔的P3级别,尽管它可以经过必要的修改应用于层之间的任何横向连接。
横向连接500将骨干网402的层502(在该示例中,骨干网的C3层)的输出提供到特征金字塔网络406的对应层(在该示例中,特征金字塔的P3层)。横向连接500可用于处理骨干网402的层502的输出以生成处理后的输出504。例如,该处理可以改变骨干网402的层502的输出的维数,使得它可以用作对应特征金字塔层的输入。在所示的示例中,使用1×1卷积将骨干网的层502的输出的维数从80×80×512减少到80×80×256。每个横向连接可以应用不同的卷积以减少或增加相关联的输出层的维数,以匹配对应的特征金字塔层。
对来自特征金字塔的紧接较高层506的输出(在该示例中,P4)进行上采样以增加其维数。在所示的示例中,金字塔网络的P4层的输出被放大了2倍,从40×40×256到80×80×256。例如,放大可以通过最近邻居上采样来执行。然后,将放大的输出添加到来自横向连接500的处理后的输出504中,以便生成合并图508。元素加法可用于合并放大的输出与处理后的输出504。
合并图508被用作对应于横向连接500(在该示例中,P3层)的特征金字塔网络406的层的输入。P3层将3×3可变形卷积应用于合并图508,以便生成输出特征图510。使用可变形卷积可以减少上采样的混叠效应,并执行非刚性上下文建模。
图6示出了用于在图像中进行面部定位的神经网络结构的另一示例。该示例的神经网络600基本上与图4的神经网络相同,但为每个特征金字塔层添加了上下文模块602。上下文模块602可以增加接受域并增强神经网络600的刚性上下文建模能力。
每个上下文模块602从对应的特征金字塔层获取特征图604作为输入。使用特征图604执行一系列可变形卷积。在第一可变形卷积之后的每个可变形卷积被应用到前一个可变形卷积的输出606a-606c。在所示的示例中,应用了三个3×3可变形卷积。但是,应理解,可以应用更少或更多数量的可变形卷积,并且可以使用不同大小的可变形卷积。
每个可变形卷积606a-606c的输出被组合以形成增强的输出608。可以进一步处理增强的输出608以生成输出数据108和/或多任务损失208。
图7示出了用于执行本文描述的任何方法的系统/装置的示意性示例。所示的系统/装置是计算设备的示例。本领域技术人员应理解,其它类型的计算设备/系统可替代地用于实现本文所述的方法,例如分布式计算系统。
装置(或系统)700包括一个或多个处理器702。一个或多个处理器控制系统/装置700的其它组件的操作。一个或多个处理器702例如可以包括通用处理器。一个或多个处理器702可以是单核设备或多核设备。一个或多个处理器702可以包括中央处理单元(centralprocessing unit,CPU)或图形处理单元(graphical processing unit,GPU)。或者,一个或多个处理器702可以包括专用处理硬件,例如RISC处理器或具有嵌入式固件的可编程硬件。可以包括多个处理器。
系统/装置包括工作或易失性存储器704。一个或多个处理器可以访问易失性存储器704,以便处理数据,并且可以控制将数据存储在存储器中。易失性存储器704可以包括任何类型的RAM,例如静态RAM(Static RAM,SRAM)、动态闪存,例如SD-Card。
系统/装置包括非易失性存储器706。非易失性存储器706存储一组操作指令708,用于以计算机可读指令的形式控制处理器702的操作。非易失性存储器706可以是任何类型的存储器,例如只读存储器(read only memory,ROM)、闪存或磁驱动存储器。
一个或多个处理器702用于执行操作指令408以使系统/装置执行本文所述的任何方法。操作指令708可以包括与系统/装置700的硬件组件有关的代码(即,驱动程序),以及与系统/装置700的基本操作有关的代码。一般来说,一个或多个处理器702使用易失性存储器704来临时存储在执行所述操作指令708期间生成的数据,从而执行永久或半永久存储在非易失性存储器706中的操作指令708的一个或多个指令。
本文描述的方法的实现可以在数字电子电路、集成电路、专门设计的专用继承电路(application specific integrated circuit,ASIC)、计算机硬件、固件、软件和/或其组合中实现。这些可以包括计算机程序产品(例如,存储在例如磁盘、光盘、存储器、可编程逻辑器件上的软件),包括计算机可读指令,当由计算机(例如结合图7描述的计算机)执行时,使所述计算机执行本文所述的一个或多个方法。
本文所述的任何系统特征也可以作为方法特征提供,反之亦然。如本文所使用,装置加功能特征可以根据它们的对应结构来表示。具体地,方法方面可以应用于系统方面,反之亦然。
此外,一个方面中的任何、一些和/或所有特征可以以任何适当的组合应用于任何另一方面中的任何、一些和/或所有特征。还应理解,在本发明的任何方面中描述和定义的各种特征的特定组合可以独立地实现和/或提供和/或使用。
尽管已经示出和描述了若干实施例,但本领域技术人员将理解,在不背离本发明的原理的情况下,可以在这些实施例中进行改变,其范围在权利要求中定义。

Claims (20)

1.一种训练神经网络以进行人脸定位的计算机实现的方法,其特征在于,所述方法包括:
向所述神经网络输入训练图像,所述训练图像包括一个或多个人脸;
使用所述神经网络处理所述训练图像;
从所述神经网络为所述训练图像中的多个训练锚点中的每一个训练锚点输出一组或多组输出数据,每组输出数据包括预测面部分类、对应的人脸框的预测位置和一个或多个对应的特征向量;
根据目标函数更新所述神经网络的参数,其中,对于所述训练图像中的每个正锚点,所述目标函数包括:
分类损失,用于将所述正锚点的预测分类与所述正锚点的已知分类进行比较;
框回归损失,用于将所述正锚点的人脸框的预测位置与所述人脸框的已知位置进行比较;
特征损失,用于将所述正锚点的所述一个或多个特征向量的基于像素的属性与和所述正锚点相关联的、人脸的已知的基于像素的属性进行比较。
2.根据权利要求1所述的方法,其特征在于,所述一个或多个特征向量包括人脸的多个面部特征点的预测位置,其中,所述特征损失包括面部特征点回归损失,用于将所述多个面部特征点的所述预测位置与所述多个面部特征点的已知位置进行比较。
3.根据权利要求1或2所述的方法,其特征在于,所述一个或多个特征向量包括预测人脸框内的人脸的编码表示,其中,所述方法包括:
使用网格解码器神经网络生成所述人脸的三维表示,所述网格解码器神经网络包括一个或多个几何卷积层;
使用可微渲染器从所述人脸的所述三维表示生成所述人脸的二维图像,
其中,所述特征损失包括密集回归损失,用于将所述生成的人脸的二维图像与所述预测人脸框内的所述人脸的实测值图像进行比较。
4.根据权利要求3所述的方法,其特征在于,所述特征向量还包括相机参数和/或照明参数,其中,所述可微渲染器在从所述人脸的所述三维表示生成所述人脸的所述二维图像时使用所述相机参数和/或照明参数。
5.根据权利要求3或4所述的方法,其特征在于,所述密集回归损失是所述生成的人脸的二维图像与所述预测人脸框内的所述人脸的所述实测值图像之间的像素差。
6.根据权利要求3至5中任一项所述的方法,其特征在于,所述网格解码器包括多个几何卷积层和多个放大层,其中,所述多个放大层与所述多个几何卷积层交错。
7.根据上述权利要求中任一项所述的方法,其特征在于,对于所述训练图像中的每个负锚点,所述目标函数包括分类损失,用于将所述负锚点的预测分类与所述负锚点的已知分类进行比较。
8.根据上述权利要求中任一项所述的方法,其特征在于,还包括使用一个或多个其它训练图像迭代所述方法,直到满足阈值条件。
9.根据上述权利要求中任一项所述的方法,其特征在于,所述神经网络包括:
第一多个卷积层,包括输入层、多个卷积过滤器和一个或多个跳跃连接;
第二多个卷积层,横向连接到所述第一多个卷积层,并用于以自上而下的方式处理所述第一多个卷积层的输出。
10.根据权利要求9所述的方法,其特征在于,每个横向连接用于将所述第一多个卷积层中的一个层的输出与所述第二多个卷积层的前一层的输出合并。
11.根据权利要求9或10所述的方法,其特征在于,所述第二多个卷积层包括一个或多个可变形卷积。
12.根据权利要求9至11中任一项所述的方法,其特征在于,所述神经网络还包括一个或多个上下文模块,每个上下文模块用于使用一个或多个可变形卷积网络处理所述第二多个卷积层中的一个层的所述输出。
13.一种计算机实现的人脸定位方法,其特征在于,所述方法包括:
使用神经网络识别输入图像中的一个或多个人脸;
使用所述神经网络识别所述输入图像中的一个或多个对应的人脸框,
其中,所述神经网络已经使用根据上述权利要求中任一项所述的方法进行了训练。
14.一种计算机实现的人脸定位方法,其特征在于,所述方法包括:
向神经网络输入图像,所述图像包括一个或多个人脸;
使用所述神经网络处理所述图像;
从所述神经网络输出一组或多组输出数据,每组输出数据包括预测面部分类、对应的人脸框的预测位置和一个或多个对应的特征向量,
其中,所述神经网络包括:
第一多个卷积层,包括输入层、多个卷积过滤器和一个或多个跳跃连接;
第二多个卷积层,横向连接到所述第一多个卷积层,并用于以自上而下的方式处理所述第一多个卷积层的输出。
15.根据权利要求14所述的方法,其特征在于,每个横向连接用于将所述第一多个卷积层中的一个层的输出与所述第二多个卷积层的前一层的输出合并。
16.根据权利要求14或15所述的方法,其特征在于,所述第二多个卷积层包括一个或多个可变形卷积。
17.根据权利要求14至16中任一项所述的方法,其特征在于,所述神经网络还包括一个或多个上下文模块,每个上下文模块用于使用一个或多个可变形卷积网络处理所述第二多个卷积层中的一个层的所述输出。
18.根据权利要求14至17中任一项所述的方法,其特征在于,所述神经网络已经使用根据权利要求1至8中任一项所述的方法进行了训练。
19.一种系统,其特征在于,包括:
一个或多个处理器;
存储器,所述存储器包括计算机可读指令,当由所述一个或多个处理器执行时,所述计算机可读指令使所述系统执行根据上述权利要求中任一项所述的方法。
20.一种计算机程序产品,其特征在于,包括计算机可读指令,当由计算设备执行时,使所述计算设备执行根据权利要求1至18中任一项所述的方法。
CN202080031201.1A 2019-04-30 2020-04-24 图像中的面部定位 Pending CN114080632A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1906027.6A GB2582833B (en) 2019-04-30 2019-04-30 Facial localisation in images
GB1906027.6 2019-04-30
PCT/GB2020/051012 WO2020221990A1 (en) 2019-04-30 2020-04-24 Facial localisation in images

Publications (1)

Publication Number Publication Date
CN114080632A true CN114080632A (zh) 2022-02-22

Family

ID=66809192

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080031201.1A Pending CN114080632A (zh) 2019-04-30 2020-04-24 图像中的面部定位

Country Status (3)

Country Link
CN (1) CN114080632A (zh)
GB (1) GB2582833B (zh)
WO (1) WO2020221990A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115410265A (zh) * 2022-11-01 2022-11-29 合肥的卢深视科技有限公司 模型训练方法、人脸识别方法、电子设备及存储介质

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110414417B (zh) * 2019-07-25 2022-08-12 电子科技大学 一种基于多层次融合多尺度预测的交通标志牌识别方法
CN113496139B (zh) * 2020-03-18 2024-02-13 北京京东乾石科技有限公司 从图像中检测目标和训练目标检测模型的方法和设备
CN111462002B (zh) * 2020-03-19 2022-07-12 重庆理工大学 一种基于卷积神经网络的水下图像增强与复原方法
CN111985642B (zh) * 2020-08-17 2023-11-14 厦门真景科技有限公司 一种美颜神经网络训练方法、装置、设备和存储介质
CN112364754B (zh) * 2020-11-09 2024-05-14 云南电网有限责任公司迪庆供电局 螺栓缺陷检测方法及系统
CN112396053A (zh) * 2020-11-25 2021-02-23 北京联合大学 一种基于级联神经网络的环视鱼眼图像目标检测方法
CN113435466B (zh) * 2020-12-26 2024-07-05 上海有个机器人有限公司 电梯门位置和开关状态的检测方法、装置、介质和终端
CN112733672B (zh) * 2020-12-31 2024-06-18 深圳一清创新科技有限公司 基于单目相机的三维目标检测方法、装置和计算机设备
CN112964693A (zh) * 2021-02-19 2021-06-15 山东捷讯通信技术有限公司 一种拉曼光谱谱带区域分割方法
CN113705320A (zh) * 2021-05-24 2021-11-26 中国科学院深圳先进技术研究院 手术动作识别模型的训练方法、介质和设备
CN113326773A (zh) * 2021-05-28 2021-08-31 北京百度网讯科技有限公司 识别模型训练方法、识别方法、装置、设备及存储介质
CN113221842B (zh) * 2021-06-04 2023-12-29 第六镜科技(北京)集团有限责任公司 模型训练方法、图像识别方法、装置、设备及介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB902524A (en) 1959-06-03 1962-08-01 Oswald Arthur Silk Improvements in or relating to seed sowing apparatus
US10614289B2 (en) * 2010-06-07 2020-04-07 Affectiva, Inc. Facial tracking with classifiers
CN106295678B (zh) * 2016-07-27 2020-03-06 北京旷视科技有限公司 神经网络训练与构建方法和装置以及目标检测方法和装置
CN107194376A (zh) * 2017-06-21 2017-09-22 北京市威富安防科技有限公司 面具造假卷积神经网络训练方法及人脸活体检测方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115410265A (zh) * 2022-11-01 2022-11-29 合肥的卢深视科技有限公司 模型训练方法、人脸识别方法、电子设备及存储介质
CN115410265B (zh) * 2022-11-01 2023-01-31 合肥的卢深视科技有限公司 模型训练方法、人脸识别方法、电子设备及存储介质

Also Published As

Publication number Publication date
GB2582833A (en) 2020-10-07
WO2020221990A1 (en) 2020-11-05
GB2582833B (en) 2021-04-07
GB201906027D0 (en) 2019-06-12

Similar Documents

Publication Publication Date Title
CN114080632A (zh) 图像中的面部定位
Petersen et al. Pix2vex: Image-to-geometry reconstruction using a smooth differentiable renderer
US20200143522A1 (en) Denoising monte carlo renderings using machine learning with importance sampling
Saito et al. Real-time facial segmentation and performance capture from rgb input
US20190243928A1 (en) Semantic segmentation of 2d floor plans with a pixel-wise classifier
WO2021027759A1 (en) Facial image processing
CN111461212B (zh) 一种用于点云目标检测模型的压缩方法
US20230070008A1 (en) Generating three-dimensional object models from two-dimensional images
Cherabier et al. Learning priors for semantic 3d reconstruction
Endo et al. Animating landscape: self-supervised learning of decoupled motion and appearance for single-image video synthesis
Henderson et al. Unsupervised object-centric video generation and decomposition in 3D
CN113298837A (zh) 一种图像边缘提取方法、装置、存储介质及设备
CN113449784B (zh) 基于先验属性图谱的图像多分类方法、装置、设备及介质
CN112507943A (zh) 基于多任务神经网络的视觉定位导航方法、系统及介质
US11138812B1 (en) Image processing for updating a model of an environment
Veeravasarapu et al. Model-driven simulations for deep convolutional neural networks
CN115731365A (zh) 基于二维图像的网格模型重建方法、系统、装置及介质
CN113065459A (zh) 一种基于动态条件卷积的视频实例分割方法及系统
CN108520532B (zh) 识别视频中物体运动方向的方法及装置
CN117237623A (zh) 一种无人机遥感图像语义分割方法及系统
CN116452599A (zh) 基于轮廓的图像实例分割方法及系统
Wongtanawijit et al. Rubber tapping line detection in near-range images via customized YOLO and U-Net branches with parallel aggregation heads convolutional neural network
CN113516670B (zh) 一种反馈注意力增强的非模式图像分割方法及装置
CN116030181A (zh) 3d虚拟形象生成方法与装置
Ibrahim et al. Re-designing cities with conditional adversarial networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination