CN111626241B - 一种人脸检测方法及装置 - Google Patents

一种人脸检测方法及装置 Download PDF

Info

Publication number
CN111626241B
CN111626241B CN202010477847.4A CN202010477847A CN111626241B CN 111626241 B CN111626241 B CN 111626241B CN 202010477847 A CN202010477847 A CN 202010477847A CN 111626241 B CN111626241 B CN 111626241B
Authority
CN
China
Prior art keywords
image
image area
face
point cloud
cloud data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010477847.4A
Other languages
English (en)
Other versions
CN111626241A (zh
Inventor
侯丽丽
李骊
董晶
王亮
金博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Add Subtract Information Technology Shenzhen Co ltd
Beijing HJIMI Technology Co Ltd
Original Assignee
Add Subtract Information Technology Shenzhen Co ltd
Beijing HJIMI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Add Subtract Information Technology Shenzhen Co ltd, Beijing HJIMI Technology Co Ltd filed Critical Add Subtract Information Technology Shenzhen Co ltd
Priority to CN202010477847.4A priority Critical patent/CN111626241B/zh
Publication of CN111626241A publication Critical patent/CN111626241A/zh
Application granted granted Critical
Publication of CN111626241B publication Critical patent/CN111626241B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种人脸检测方法及装置,可以获得2D图像,获得与2D图像配准的深度图像,在已获得的2D图像中确定人脸所在的第一图像区域,根据2D图像、深度图像和第一图像区域,确定第一图像区域对应的点云数据,将第一图像区域对应的点云数据输入至已训练好的3D实例分割模型中,根据3D实例分割模型的输出结果确定第一图像区域是否包含人脸,如果是,则将第一图像区域对应的点云数据输入至已训练好的3D框回归模型,获得3D框回归模型输出的对3D人脸进行标识的3D框。本发明可以在避免点云数据损失的同时,有效减小点云数据的数据量,减小处理点云数据时的运算量,并可以使得运算过程简单化,减少运算量。

Description

一种人脸检测方法及装置
技术领域
本发明涉及图像检测领域,尤其涉及一种人脸检测方法及装置。
背景技术
随着图像检测技术的发展,人脸检测技术不断提高。
当前,人脸检测技术可以包括2D人脸检测技术和3D人脸检测技术。
其中,3D人脸检测技术具有更高的人脸识别准确率和活体检测准确率,但是3D人脸检测技术的检测过程复杂;而2D人脸检测技术的检测过程虽更为简单快捷,但是其人脸识别准确率和活体检测准确率较低。
发明内容
鉴于上述问题,本发明提供一种克服上述问题或者至少部分地解决上述问题的人脸检测方法及装置,技术方案如下:
一种人脸检测方法,所述方法包括:
获得2D图像,获得与所述2D图像配准的深度图像;
在已获得的所述2D图像中确定人脸所在的第一图像区域;
根据所述2D图像、所述深度图像和所述第一图像区域,确定所述第一图像区域对应的点云数据;
将所述第一图像区域对应的点云数据输入至已训练好的3D实例分割模型中;
根据所述3D实例分割模型的输出结果确定所述第一图像区域是否包含人脸,如果是,则将所述第一图像区域对应的点云数据输入至已训练好的3D框回归模型,获得所述3D框回归模型输出的对所述3D人脸进行标识的3D框。
可选的,所述在已获得的所述2D图像中确定人脸所在的第一图像区域,包括:
将已获得的所述2D图像输入至已训练好的2D人脸检测模型中,获得由所述2D人脸检测模型输出的用于标识人脸的2D框;
将所述2D框内的图像区域确定为人脸所在的第一图像区域。
可选的,所述根据所述2D图像、所述深度图像和所述第一图像区域,确定所述第一图像区域对应的点云数据,包括:
在所述深度图像中确定所述第一图像区域对应的第二图像区域;
对所述第一图像区域和所述第二图像区域进行坐标系转换,获得所述第一图像区域对应的点云数据。
可选的,所述根据所述3D实例分割模型的输出结果确定所述第一图像区域是否包含人脸,包括:
获得所述3D实例分割模型输出的所述第一图像区域中每个个体归属于人脸类别的概率;
当所述第一图像区域中存在归属于人脸类别的概率大于预设阈值的个体时,确定所述第一图像区域包含人脸;
当所述第一图像区域中每个个体归属于人脸类别的概率均不大于预设阈值时,确定所述第一图像区域未包含人脸。
可选的,所述3D实例分割模型为PointNet模型。
可选的,所述3D框回归模型为PointNet++模型。
一种人脸检测装置,所述装置包括:第一获得单元、第一确定单元、第二确定单元、第一输入单元、第三确定单元和第二获得单元,其中:
所述第一获得单元,用于获得2D图像,获得与所述2D图像配准的深度图像;
所述第一确定单元,用于在已获得的所述2D图像中确定人脸所在的第一图像区域;
所述第二确定单元,用于根据所述2D图像、所述深度图像和所述第一图像区域,确定所述第一图像区域对应的点云数据;
所述第一输入单元,用于将所述第一图像区域对应的点云数据输入至已训练好的3D实例分割模型中;
所述第三确定单元,用于根据所述3D实例分割模型的输出结果确定所述第一图像区域是否包含人脸,如果是,则触发所述第二获得单元;
所述第二获得单元,用于将所述第一图像区域对应的点云数据输入至已训练好的3D框回归模型,获得所述3D框回归模型输出的对所述3D人脸进行标识的3D框。
可选的,所述第一确定单元具体包括:第三获得单元和第四确定单元,其中:
所述第三获得单元,用于将已获得的所述2D图像输入至已训练好的2D人脸检测模型中,获得由所述2D人脸检测模型输出的用于标识人脸的2D框;
所述第四确定单元,用于将所述2D框内的图像区域确定为人脸所在的第一图像区域。
可选的,所述第二确定单元具体包括:第五确定单元和第四获得单元,其中:
所述第五确定单元,用于在所述深度图像中确定所述第一图像区域对应的第二图像区域;
所述第四获得单元,用于对所述第一图像区域和所述第二图像区域进行坐标系转换,获得所述第一图像区域对应的点云数据。
可选的,所述第三确定单元具体包括:第五获得单元、第六确定单元和第七确定单元,其中:
所述第五获得单元,用于获得所述3D实例分割模型输出的所述第一图像区域中每个个体归属于人脸类别的概率;
所述第六确定单元,用于当所述第一图像区域中存在归属于人脸类别的概率大于预设阈值的个体时,确定所述第一图像区域包含人脸;
所述第七确定单元,用于当所述第一图像区域中每个个体归属于人脸类别的概率均不大于预设阈值时,确定所述第一图像区域未包含人脸。
可选的,所述3D实例分割模型为PointNet模型。
可选的,所述3D框回归模型为PointNet++模型。
本发明提出的人脸检测方法及装置,可以获得2D图像,获得与所述2D图像配准的深度图像,在已获得的所述2D图像中确定人脸所在的第一图像区域,根据所述2D图像、所述深度图像和所述第一图像区域,确定所述第一图像区域对应的点云数据,将所述第一图像区域对应的点云数据输入至已训练好的3D实例分割模型中,根据所述3D实例分割模型的输出结果确定所述第一图像区域是否包含人脸,如果是,则将所述第一图像区域对应的点云数据输入至已训练好的3D框回归模型,获得所述3D框回归模型输出的对所述3D人脸进行标识的3D框。
本发明可以在进行人脸检测的过程中,先行使用2D人脸检测的方式在2D图像中确定人脸所在的第一图像区域,之后再在深度图像中确定与第一图像区域相应的深度信息,将第一图像区域和相应的深度信息转换为点云数据,而无需将整张2D图像和深度图像全部转换为点云数据,可以有效减小点云数据的数据量,减小处理点云数据时的运算量;本发明可以将点云数据直接输入3D实例分割模型和3D框回归模型来进行3D人脸检测,而无需执行将点云数据转换为体素网格,再对体素网格进行3D人脸检测的过程,可以使得运算过程简单化,减少运算量;本发明也无需执行将点云数据投影到某些特定视角图(如鸟瞰图和俯视图),再对投影后的数据进行3D人脸检测的过程,可以避免点云数据在投影过程中的数据损失,提高人脸检测的准确率。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1示出了本发明实施例提供的一种人脸检测方法的流程图;
图2示出了本发明实施例提供的另一种人脸检测方法的流程图;
图3示出了本发明实施例提供的一种人脸检测装置的结构示意图;
图4示出了本发明实施例提供的另一种人脸检测装置的结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
如图1所示,本实施例提出了一种人脸检测方法,该方法可以包括以下步骤:
S10、获得2D图像,获得与所述2D图像配准的深度图像;
其中,2D图像即为二维图像。
具体的,2D图像可以包含人脸,也可以不包含人脸。
具体的,2D图像可以是红绿蓝(RGB,Red-Green-Blue)图像,也可以是灰度图,本发明对于2D图像的具体类型不做限定。
可以理解的是,本发明对于2D图像的具体格式同样不做限定,比如,2D图像的格式可以是联合图像专家小组(JPEG,Joint Photographic Expert s Group)格式,也可以是位图(BMP,Bitmap)格式。
具体的,本发明可以通过2D摄像头对场景(如包含人脸的场景)进行拍摄来获得2D图像,如RGB摄像头。
其中,深度图像为包含深度信息的图像。
其中,深度图像可以包含人脸,也可以不包含人脸。
具体的,本发明可以使用基于3D结构光、双目立体视觉或飞行时间(TOF,Time offlight)等成像原理的深度摄像头,对场景(如包含人脸的场景)进行拍摄以获得深度图像。
其中,本实施例中的3D可以是三维。
其中,深度图像中的各个像素点均可以表征被拍摄场景中的某一点与深度摄像头的距离。比如,本发明可以通过像素点的不同灰度值来体现被拍摄场景中的某一点与深度摄像头的距离。
需要说明的是,本实施例中的2D图像和深度图像可以是同一场景的图像,且本实施例中深度图像可以是与2D图像完成配准后的深度图像。
具体的,本发明可以使用包含有2D摄像头和深度摄像头(比如RGB摄像头和3D结构光摄像头)的相机对场景进行拍摄,获得同一场景的2D图像和深度图像。之后,本发明可以对获得的2D图像和深度图像进行配准,以获得完成配准后的深度图像。
还需要说明的是,配准后的深度图像与2D图像中的像素点可以一一对应。
具体的,对于2D图像中已知坐标的像素点,本发明均可以在配准后的深度图像中确定出相应坐标的像素点。
进一步,对于2D图像中已知坐标范围的图像区域,本发明均可以在配准后的深度图像中确定出相应坐标范围的图像区域。
可以理解的是,对于2D图像中已知坐标范围的人脸所覆盖的图像区域,本发明可以在配准后的深度图像中确定出相应坐标范围的该人脸所覆盖的图像区域。
S20、在已获得的所述2D图像中确定人脸所在的第一图像区域;
其中,2D图像可以包含一张人脸。
其中,第一图像区域可以是2D图像中的、包含一张人脸的图像区域。
可以理解的是,第一图像区域可以是2D图像中的全部图像区域,也可以是包含人脸的2D图像中的部分图像区域。
具体的,本发明可以在包含2D图像中的人脸的前提下,使得第一图像区域的面积尽量小,以减少第一图像区域的数据量,进而使得本发明后续步骤对第一图像区域进行处理时,可以减少相关运算量。
具体的,第一图像区域可以正好是人脸在2D图像中所覆盖的图像区域。此时,本发明后续步骤在对第一图像区域进行处理时,可以进一步减少相关运算量。
需要说明的是,第一图像区域还可以包含2D图像中非人脸类别的个体,比如猫脸、花朵。
具体的,本发明可以通过确定第一图像区域在相关坐标系(如2D图像的图像坐标系、像素坐标系)中的坐标范围,来确定第一图像区域。
还需要说明的是,如果本发明步骤S20未能在2D图像中确定人脸所在的第一图像区域,则可以确定2D图像未包含人脸,本发明可以结束对当前2D图像和深度图像的人脸检测,而无需再执行后续的相关步骤,以减少对运算资源的消耗。
可选的,在本实施例提出的其它人脸检测方法中,步骤S20可以具体包括步骤S21和S22,如图2所示。
S21、将已获得的所述2D图像输入至已训练好的2D人脸检测模型中,获得由所述2D人脸检测模型输出的用于标识人脸的2D框;
具体的,本发明可以使用基于Faster R-CNN、MTCNN、Faceness-Net等检测算法或神经网络的2D人脸检测模型,来对2D图像中的人脸进行检测及标识。
其中,2D人脸检测模型的输入可以是2D图像,2D人脸检测模型的输出可以是用于标识人脸的2D框。
其中,2D框可以包含人脸在2D图像中覆盖的图像区域。可以理解的是,2D框内的图像区域可以正好是人脸在2D图像中覆盖的图像区域。
需要说明的是,本发明对于2D框的具体形状不做限定(如矩形、圆形),本发明对于2D框的具体尺寸、框边的颜色同样不做限定。
具体的,本发明可以在使用2D人脸检测模型对2D图像进行人脸检测之前,对2D人脸检测模型进行训练。
具体的,本发明在对2D人脸检测模型进行训练时,可以先行采集多张包含人脸的2D图像(正样本)、多张未包含人脸的2D图像(负样本)作为训练样本集。本发明可以在正样本的每张2D图像中,标注出用于标识人脸的2D框。
具体的,本发明可以使用上述训练数据集对2D人脸检测模型进行训练,使得2D人脸检测模型可以检测出2D图像的人脸,以及使用2D框对检测出的人脸进行标识。
还需要说明的是,本发明对于2D人脸检测模型的训练过程所采用的具体方式不做限定。
具体的,本发明可以通过确定2D框在相关坐标系(如2D图像的图像坐标系、像素坐标系)中的坐标范围来确定2D框。
S22、将所述2D框内的图像区域确定为人脸所在的第一图像区域。
具体的,本发明可以将2D框的坐标范围确定为第一图像区域的范围,进而确定第一图像区域。
还需要说明的是,本发明使用2D人脸检测模型对2D图像进行人脸检测时,可以较快的检测出人脸所在的图像区域,且其运算过程较为简单。
S30、根据所述2D图像、所述深度图像和所述第一图像区域,确定所述第一图像区域对应的点云数据;
其中,点云数据可以由多个点构成,这些点均可以包含世界坐标系下的三维坐标和相关信息(如RGB值)。
需要说明的是,点云数据可以聚集为相应场景的三维模型。比如,人脸对应的点云数据可以聚集为人脸的三维模型。
可选的,步骤S30可以具体包括:
在所述深度图像中确定所述第一图像区域对应的第二图像区域;
对所述第一图像区域和所述第二图像区域进行坐标系转换,获得所述第一图像区域对应的点云数据。
具体的,本发明可以根据第一图像的坐标范围,在深度图像中确定相应坐标范围的图像区域,即第二图像区域。
具体的,本发明可以基于现有技术中2D图像的像素坐标系、2D图像的图像坐标系、相机坐标系和世界坐标系间的坐标系转换原理,将第一图像区域和第二图像区域的图像转换为相应的点云数据。
具体的,基于上述坐标系转换原理,当世界坐标系的原点和坐标轴与相机坐标系重合时,本发明可以使用公式:
Figure BDA0002516379500000081
来将2D图像的坐标信息和配准后的深度图转换为相应的点云数据。
其中:xω、yω和zω为点云数据中的点在世界坐标系下的三维坐标,zc为相机坐标的z轴值(即深度图像所包含的深度信息),u为2D图像的像素坐标系下像素的行数值,v为2D图像的像素坐标系下像素的列数值,u0为2D图像的图像坐标系(以物理尺寸为单位,如毫米)的原点在2D图像的像素坐标系下像素的行数值,v0为2D图像的图像坐标系的原点在2D图像的像素坐标系下像素的列数值,dx为2D图像的像素点在2D图像的图像坐标系的x轴中的物理尺寸,dy为2D图像的像素在2D图像的图像坐标系的y轴中的物理尺寸,fx为相机坐标系中x轴的焦距,fy为相机坐标系中y轴的焦距。
其中,对于第一图像区域中坐标为(u,v)的像素点,本发明均可以在第二图像区域中确定相应坐标的像素点,之后可以将该相应坐标的像素点所包含的深度信息确定为上述坐标(u,v)对应的深度信息zc
需要说明的是,当2D图像为RGB图像时,经坐标系转换获得的点云数据中的点,还可以包含相应的RGB值。比如,对于点云数据中三维坐标为(xω,yω,zω)的点,该点可以包含2D图像中相应坐标(u,v)的像素点所包含的RGB值。
S40、将所述第一图像区域对应的点云数据输入至已训练好的3D实例分割模型中;
可选的,3D实例分割模型可以为PointNet模型。当然,3D实例分割模型也可以为PointNet++模型。
需要说明的是,本发明在将第一图像区域对应的点云数据输入至3D实例分割模型后,可以根据3D实例分割模型的输出结果来确定该点云数据对应的场景中是否包含人脸。
其中,3D实例分割模型的输出可以为输入的点云数据所对应的场景中每个个体归属于人脸的概率。
具体的,如果第一图像区域可以正好是人脸在2D图像中所覆盖的图像区域,则本发明可以根据3D实例分割模型的输出结果来确定第一图像区域对应的点云数据是否为人脸对应的点云数据。
具体的,本发明在应用3D实例分割模型前,可以先行对3D实例分割模型进行训练。
具体的,本发明在对3D实例分割模型进行训练时,可以先行采集多份包含人脸的场景所对应的点云数据(正样本)、多份未包含人脸的场景所对应的点云数据(负样本)作为训练数据集。本发明可以在正样本中将人脸对应的点云数据标注为人脸。
具体的,本发明可以使用点云数据的训练数据集对3D实例分割模型进行训练,使得3D实例分割模型可以确定输入的点云数据对应的场景中是否包含人脸。
需要说明的是,本发明可以使用损失函数对3D实例分割模型进行训练时。其中,该损失函数可以是公式:
Figure BDA0002516379500000101
其中,L为损失函数的值,N为训练数据集中样本的总个数,λ0为系数,W为权重加权和,Li为:
Figure BDA0002516379500000102
,其中:fyi为网络的输出,
Figure BDA0002516379500000103
为归一化后的概率值,Li为损失函数的值。
需要说明的是,本发明可以使用训练好的3D实例分割模型对点云数据直接进行人脸检测,确定点云数据对应的场景中是否包含人脸,而无需执行将点云数据转换为体素网格,再对体素网格进行人脸检测的过程,可以使得运算过程简单化,减少运算量;本发明也无需执行将点云数据投影到某些特定视角图(如鸟瞰图和俯视图),再对投影后的数据进行人脸检测的过程,可以避免点云数据在投影过程中的数据损失,提高人脸检测的准确率。
S50、根据所述3D实例分割模型的输出结果确定所述第一图像区域是否包含人脸,如果是,则执行步骤S60;
具体的,步骤S50可以具体包括:
获得所述3D实例分割模型输出的所述第一图像区域中每个个体归属于人脸类别的概率;
当所述第一图像区域中存在归属于人脸类别的概率大于预设阈值的个体时,确定所述第一图像区域包含人脸;
当所述第一图像区域中每个个体归属于人脸类别的概率均不大于预设阈值时,确定所述第一图像区域未包含人脸。
其中,预设阈值的具体数值可以由技术人员根据实际需求进行制定,本发明对此不做限定。
需要说明的是,本发明可以将归属于人脸类别的概率大于预设阈值的个体即确定为人脸。
可以理解的是,如果确定所述第一图像区域未包含人脸,则本发明可以结束对当前的2D图像和深度图像的人脸检测,而无需再执行后续步骤,以有效减少对运算资源的消耗。
S60、将所述第一图像区域对应的点云数据输入至已训练好的3D框回归模型,获得所述3D框回归模型输出的对所述3D人脸进行标识的3D框。
可选的,3D框回归模型可以为PointNet++模型。当然,3D框回归模型也可以为PointNet模型。
其中,3D框可以包含人脸所对应的点云数据的三维模型。
需要说明的是,本发明对于3D框的具体形状不做限定,比如,3D框可以是长方体,也可以是圆柱体。当然,本发明对于3D框的具体尺寸、框边的颜色同样不做限定。
具体的,本发明在应用3D框回归模型前,可以先行对3D框回归模型进行训练。
具体的,本发明在对3D框回归模型进行训练时,可以先行采集多份包含人脸的场景所对应的点云数据(正样本)、多份未包含人脸的场景所对应的点云数据(负样本)作为训练数据集。本发明可以使用3D框对正样本中的人脸对应的点云数据进行标识。
具体的,本发明可以使用点云数据的训练数据集对3D框回归模型进行训练,使得3D框回归模型可以使用3D框对输入的点云数据中人脸所对应的点云数据进行标识。
需要说明的是,本发明可以使用损失函数对3D框回归模型进行训练,当损失函数值未满足期望值时,可以对3D框回归模型中的参数进行调整。其中,该损失函数可以是公式:
L=Lseg1(Lreg+Lh-cls+Lh-reg+Ls-cls+Ls-reg+γLcorner)
其中,Lseg为图像分割的损失,λ1为系数,Lreg为3D框估计的中心回归损失,Lh-cls为朝向的类别损失,Lh-reg为朝向的回归损失,Ls-cls为3D框的类别损失,Ls-reg为3D框尺寸的回归损失,γ为系数,Lcorner为3D框的角损失。
其中,Lcorner可以为:
Figure BDA0002516379500000121
,其中,δij为系数值,Pij k为anchor边界框第k个角三维矢量,索引i为8种大小anchor边界框中边界框的序号,j为12种航向角边界框中航向角边界框的序号,Pk *为真实3D边界框的第k个角三维矢量,||Pij k-Pk *||为3Danchor边界框第k个角与真实3D边界框第k个角间的距离,Pk **为3D真实边界框翻转角度Π后第k个角三维矢量,||Pij k-Pk **||为3Danchor边界框第k个角与翻转后边界框第k个角间的距离。
具体的,当本实施例中的2D图像包含有多张人脸时,本发明可以在步骤S20中确定出包含一张人脸的多个第一图像区域,并可以在后续步骤S30、S40、S50、S60中,对确定的多个第一图像区域分别进行处理。
比如,当本发明在步骤S20中确定出包含第一人脸的第一图像区域、包含第二人脸的第一图像区域和包含第三人脸的第一图像区域,本发明可以在后续步骤S30、S40、S50、S60中,先行对包含第一人脸的第一图像区域进行处理,之后对包含第二人脸的第一图像区域进行处理,最后对包含第三人脸的第一图像区域进行处理。
需要说明的是,本发明在进行人脸检测的过程中,可以先行使用2D人脸检测的方式在2D图像中确定人脸所在的第一图像区域,之后再在深度图像中确定与第一图像区域相应的深度信息,将第一图像区域和相应的深度信息转换为点云数据,而无需将整张2D图像和深度图像全部转换为点云数据,有效减小了点云数据的数据量,减小处理点云数据时的运算量。
还需要说明的是,本发明可以将点云数据直接输入3D实例分割模型和3D框回归模型来进行3D人脸检测,而无需执行将点云数据转换为体素网格,再对体素网格进行3D人脸检测的过程,可以使得运算过程简单化,减少运算量;本发明也无需执行将点云数据投影到某些特定视角图(如鸟瞰图和俯视图),再对投影后的数据进行3D人脸检测的过程,可以避免点云数据在投影过程中的数据损失,提高人脸检测的准确率。
本实施例提出的人脸检测方法,可以获得2D图像,获得与所述2D图像配准的深度图像,在已获得的所述2D图像中确定人脸所在的第一图像区域,根据所述2D图像、所述深度图像和所述第一图像区域,确定所述第一图像区域对应的点云数据,将所述第一图像区域对应的点云数据输入至已训练好的3D实例分割模型中,根据所述3D实例分割模型的输出结果确定所述第一图像区域是否包含人脸,如果是,则将所述第一图像区域对应的点云数据输入至已训练好的3D框回归模型,获得所述3D框回归模型输出的对所述3D人脸进行标识的3D框。该方法可以在避免点云数据损失的同时,有效减小点云数据的数据量,减小处理点云数据时的运算量,并使得运算过程简单化,减少运算量。
基于图1所示的步骤,本实施例提出一种人脸检测装置,如图3所示,该装置可以包括:第一获得单元100、第一确定单元200、第二确定单元300、第一输入单元400、第三确定单元500和第二获得单元600,其中:
所述第一获得单元100,用于获得2D图像,获得与所述2D图像配准的深度图像;
其中,2D图像可以包含一张人脸。
其中,第一图像区域可以是2D图像中的、包含一张人脸的图像区域。
可以理解的是,第一图像区域可以是2D图像中的全部图像区域,也可以是包含人脸的2D图像中的部分图像区域。
具体的,本发明可以在包含2D图像中的人脸的前提下,使得第一图像区域的面积尽量小,以减少第一图像区域的数据量,进而使得本发明后续对第一图像区域进行处理时,可以减少相关运算量。
具体的,第一图像区域可以正好是人脸在2D图像中所覆盖的图像区域。此时,本发明后续在对第一图像区域进行处理时,可以进一步减少相关运算量。
需要说明的是,第一图像区域还可以包含2D图像中非人脸类别的个体。
具体的,本发明可以通过确定第一图像区域在相关坐标系(如2D图像的图像坐标系、像素坐标系)中的坐标范围,来确定第一图像区域。
可选的,在本实施例提出的其它人脸检测装置中,如图4所示,所述第一确定单元200可以具体包括:第三获得单元210和第四确定单元220,其中:
所述第三获得单元210,用于将已获得的所述2D图像输入至已训练好的2D人脸检测模型中,获得由所述2D人脸检测模型输出的用于标识人脸的2D框;
具体的,本发明可以使用2D人脸检测模型对2D图像中的人脸进行检测及标识。
其中,2D人脸检测模型的输入可以是2D图像,2D人脸检测模型的输出可以是用于标识人脸的2D框。
其中,2D框可以包含人脸在2D图像中覆盖的图像区域。可以理解的是,2D框内的图像区域可以正好是人脸在2D图像中覆盖的图像区域。
具体的,本发明可以在使用2D人脸检测模型对2D图像进行人脸检测之前,对2D人脸检测模型进行训练。
具体的,本发明在对2D人脸检测模型进行训练时,可以先行采集多张包含人脸的2D图像(正样本)、多张未包含人脸的2D图像(负样本)作为训练样本集。本发明可以在正样本的每张2D图像中,标注出用于标识人脸的2D框。
具体的,本发明可以使用上述训练数据集对2D人脸检测模型进行训练,使得2D人脸检测模型可以检测出2D图像的人脸,以及使用2D框对检测出的人脸进行标识。
具体的,本发明可以通过确定2D框在相关坐标系(如2D图像的图像坐标系、像素坐标系)中的坐标范围来确定2D框。
所述第四确定单元220,用于将所述2D框内的图像区域确定为人脸所在的第一图像区域。
具体的,本发明可以将2D框的坐标范围确定为第一图像区域的范围,进而确定第一图像区域。
还需要说明的是,本发明使用2D人脸检测模型对2D图像进行人脸检测时,可以较快的检测出人脸所在的图像区域,且其运算过程较为简单。
所述第二确定单元300,用于根据所述2D图像、所述深度图像和所述第一图像区域,确定所述第一图像区域对应的点云数据;
其中,点云数据可以由多个点构成,这些点均可以包含世界坐标系下的三维坐标和相关信息(如RGB值)。
需要说明的是,点云数据可以聚集为相应场景的三维模型。比如,人脸对应的点云数据可以聚集为人脸的三维模型。
可选的,所述第二确定单元300可以具体包括:第五确定单元和第四获得单元,其中:
所述第五确定单元,用于在所述深度图像中确定所述第一图像区域对应的第二图像区域;
所述第四获得单元,用于对所述第一图像区域和所述第二图像区域进行坐标系转换,获得所述第一图像区域对应的点云数据。
具体的,本发明可以根据第一图像的坐标范围,在深度图像中确定相应坐标范围的图像区域,即第二图像区域。
具体的,本发明可以基于现有技术中2D图像的像素坐标系、2D图像的图像坐标系、相机坐标系和世界坐标系间的坐标系转换原理,将第一图像区域和第二图像区域的图像转换为相应的点云数据。
具体的,基于上述坐标系转换原理,当世界坐标系的原点和坐标轴与相机坐标系重合时,本发明可以使用公式:
Figure BDA0002516379500000151
/>
来将2D图像的坐标信息和配准后的深度图转换为相应的点云数据。
其中:xω、yω和zω为点云数据中的点在世界坐标系下的三维坐标,zc为相机坐标的z轴值(即深度图像所包含的深度信息),u为2D图像的像素坐标系下像素的行数值,v为2D图像的像素坐标系下像素的列数值,u0为2D图像的图像坐标系(以物理尺寸为单位,如毫米)的原点在2D图像的像素坐标系下像素的行数值,v0为2D图像的图像坐标系的原点在2D图像的像素坐标系下像素的列数值,dx为2D图像的像素点在2D图像的图像坐标系的x轴中的物理尺寸,dy为2D图像的像素在2D图像的图像坐标系的y轴中的物理尺寸,fx为相机坐标系中x轴的焦距,fy为相机坐标系中y轴的焦距。
其中,对于第一图像区域中坐标为(u,v)的像素点,本发明均可以在第二图像区域中确定相应坐标的像素点,之后可以将该相应坐标的像素点所包含的深度信息确定为上述坐标(u,v)对应的深度信息zc
需要说明的是,当2D图像为RGB图像时,经坐标系转换获得的点云数据中的点,还可以包含相应的RGB值。比如,对于点云数据中三维坐标为(xω,yω,zω)的点,该点可以包含2D图像中相应坐标(u,v)的像素点所包含的RGB值。
所述第一输入单元400,用于将所述第一图像区域对应的点云数据输入至已训练好的3D实例分割模型中;
可选的,3D实例分割模型可以为PointNet模型。当然,3D实例分割模型也可以为PointNet++模型。
需要说明的是,本发明在将第一图像区域对应的点云数据输入至3D实例分割模型后,可以根据3D实例分割模型的输出结果来确定该点云数据对应的场景中是否包含人脸。
其中,3D实例分割模型的输出可以为输入的点云数据所对应的场景中每个个体归属于人脸的概率。
具体的,如果第一图像区域可以正好是人脸在2D图像中所覆盖的图像区域,则本发明可以根据3D实例分割模型的输出结果来确定第一图像区域对应的点云数据是否为人脸对应的点云数据。
具体的,本发明在应用3D实例分割模型前,可以先行对3D实例分割模型进行训练。
具体的,本发明在对3D实例分割模型进行训练时,可以先行采集多份包含人脸的场景所对应的点云数据(正样本)、多份未包含人脸的场景所对应的点云数据(负样本)作为训练数据集。本发明可以在正样本中将人脸对应的点云数据标注为人脸。
具体的,本发明可以使用点云数据的训练数据集对3D实例分割模型进行训练,使得3D实例分割模型可以确定输入的点云数据对应的场景中是否包含人脸。
需要说明的是,本发明可以使用损失函数对3D实例分割模型进行训练时。其中,该损失函数可以是公式:
Figure BDA0002516379500000171
其中,L为损失函数的值,N为训练数据集中样本的总个数,λ0为系数,W为权重加权和,Li为:
Figure BDA0002516379500000172
,其中:fyi为网络的输出,
Figure BDA0002516379500000173
为归一化后的概率值,Li为损失函数的值。
所述第三确定单元500,用于根据所述3D实例分割模型的输出结果确定所述第一图像区域是否包含人脸,如果是,则触发所述第二获得单元600;
可选的,所述第三确定单元500可以具体包括:第五获得单元、第六确定单元和第七确定单元,其中:
所述第五获得单元,用于获得所述3D实例分割模型输出的所述第一图像区域中每个个体归属于人脸类别的概率;
所述第六确定单元,用于当所述第一图像区域中存在归属于人脸类别的概率大于预设阈值的个体时,确定所述第一图像区域包含人脸;
所述第七确定单元,用于当所述第一图像区域中每个个体归属于人脸类别的概率均不大于预设阈值时,确定所述第一图像区域未包含人脸。
其中,预设阈值的具体数值可以由技术人员根据实际需求进行制定,本发明对此不做限定。
需要说明的是,本发明可以将归属于人脸类别的概率大于预设阈值的个体即确定为人脸。
可以理解的是,如果确定所述第一图像区域未包含人脸,则本发明可以结束对当前的2D图像和深度图像的人脸检测,而无需再执行后续过程,以有效减少对运算资源的消耗。
所述第二获得单元,用于将所述第一图像区域对应的点云数据输入至已训练好的3D框回归模型,获得所述3D框回归模型输出的对所述3D人脸进行标识的3D框。
可选的,3D框回归模型可以为PointNet++模型。当然,3D框回归模型也可以为PointNet模型。
其中,3D框可以包含人脸所对应的点云数据的三维模型。
具体的,本发明在应用3D框回归模型前,可以先行对3D框回归模型进行训练。
具体的,本发明在对3D框回归模型进行训练时,可以先行采集多份包含人脸的场景所对应的点云数据(正样本)、多份未包含人脸的场景所对应的点云数据(负样本)作为训练数据集。本发明可以使用3D框对正样本中的人脸对应的点云数据进行标识。
具体的,本发明可以使用点云数据的训练数据集对3D框回归模型进行训练,使得3D框回归模型可以使用3D框对输入的点云数据中人脸所对应的点云数据进行标识。
需要说明的是,本发明可以使用损失函数对3D框回归模型进行训练,当损失函数值未满足期望值时,可以对3D框回归模型中的参数进行调整。其中,该损失函数可以是公式:
L=Lseg1(Lreg+Lh-cls+Lh-reg+Ls-cls+Ls-reg+γLcorner)
其中,Lseg为图像分割的损失,λ1为系数,Lreg为3D框估计的中心回归损失,Lh-cls为朝向的类别损失,Lh-reg为朝向的回归损失,Ls-cls为3D框的类别损失,Ls-reg为3D框尺寸的回归损失,γ为系数,Lcorner为3D框的角损失。
其中,Lcorner可以为:
Figure BDA0002516379500000191
,其中,δij为系数值,Pij k为anchor边界框第k个角三维矢量,索引i为8种大小anchor边界框中边界框的序号,j为12种航向角边界框中航向角边界框的序号,Pk *为真实3D边界框的第k个角三维矢量,||Pij k-Pk *||为3Danchor边界框第k个角与真实3D边界框第k个角间的距离,Pk **为3D真实边界框翻转角度Π后第k个角三维矢量,||Pij k-Pk **||为3Danchor边界框第k个角与翻转后边界框第k个角间的距离。
具体的,当本实施例中的2D图像包含有多张人脸时,本发明可以在第一确定单元200中确定出包含一张人脸的多个第一图像区域,并可以在第二确定单元300、第一输入单元400、第三确定单元500和第二获得单元600中,对确定的多个第一图像区域分别进行处理。
需要说明的是,本发明在进行人脸检测的过程中,可以先行使用2D人脸检测的方式在2D图像中确定人脸所在的第一图像区域,之后再在深度图像中确定与第一图像区域相应的深度信息,将第一图像区域和相应的深度信息转换为点云数据,而无需将整张2D图像和深度图像全部转换为点云数据,有效减小了点云数据的数据量,减小处理点云数据时的运算量。
还需要说明的是,本发明可以将点云数据直接输入3D实例分割模型和3D框回归模型来进行3D人脸检测,而无需执行将点云数据转换为体素网格,再对体素网格进行3D人脸检测的过程,可以使得运算过程简单化,减少运算量;本发明也无需执行将点云数据投影到某些特定视角图(如鸟瞰图和俯视图),再对投影后的数据进行3D人脸检测的过程,可以避免点云数据在投影过程中的数据损失,提高人脸检测的准确率。
本实施例提出的人脸检测装置,可以在避免点云数据损失的同时,有效减小点云数据的数据量,减小处理点云数据时的运算量,并使得运算过程简单化,减少运算量。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (10)

1.一种人脸检测方法,其特征在于,所述方法包括:
获得2D图像,获得与所述2D图像配准的深度图像;
在已获得的所述2D图像中确定人脸所在的第一图像区域;
根据所述2D图像、所述深度图像和所述第一图像区域,确定所述第一图像区域对应的点云数据;
将所述第一图像区域对应的点云数据输入至已训练好的3D实例分割模型中;
根据所述3D实例分割模型的输出结果确定所述第一图像区域是否包含人脸,如果是,则将所述第一图像区域对应的点云数据输入至已训练好的3D框回归模型,获得所述3D框回归模型输出的对所述3D人脸进行标识的3D框。
2.根据权利要求1所述的方法,其特征在于,所述在已获得的所述2D图像中确定人脸所在的第一图像区域,包括:
将已获得的所述2D图像输入至已训练好的2D人脸检测模型中,获得由所述2D人脸检测模型输出的用于标识人脸的2D框;
将所述2D框内的图像区域确定为人脸所在的第一图像区域。
3.根据权利要求1所述的方法,其特征在于,所述根据所述2D图像、所述深度图像和所述第一图像区域,确定所述第一图像区域对应的点云数据,包括:
在所述深度图像中确定所述第一图像区域对应的第二图像区域;
对所述第一图像区域和所述第二图像区域进行坐标系转换,获得所述第一图像区域对应的点云数据。
4.根据权利要求1所述的方法,其特征在于,所述根据所述3D实例分割模型的输出结果确定所述第一图像区域是否包含人脸,包括:
获得所述3D实例分割模型输出的所述第一图像区域中每个个体归属于人脸类别的概率;
当所述第一图像区域中存在归属于人脸类别的概率大于预设阈值的个体时,确定所述第一图像区域包含人脸;
当所述第一图像区域中每个个体归属于人脸类别的概率均不大于预设阈值时,确定所述第一图像区域未包含人脸。
5.根据权利要求1所述的方法,其特征在于,所述3D实例分割模型为PointNet模型。
6.根据权利要求1所述的方法,其特征在于,所述3D框回归模型为PointNet++模型。
7.一种人脸检测装置,其特征在于,所述装置包括:第一获得单元、第一确定单元、第二确定单元、第一输入单元、第三确定单元和第二获得单元,其中:
所述第一获得单元,用于获得2D图像,获得与所述2D图像配准的深度图像;
所述第一确定单元,用于在已获得的所述2D图像中确定人脸所在的第一图像区域;
所述第二确定单元,用于根据所述2D图像、所述深度图像和所述第一图像区域,确定所述第一图像区域对应的点云数据;
所述第一输入单元,用于将所述第一图像区域对应的点云数据输入至已训练好的3D实例分割模型中;
所述第三确定单元,用于根据所述3D实例分割模型的输出结果确定所述第一图像区域是否包含人脸,如果是,则触发所述第二获得单元;
所述第二获得单元,用于将所述第一图像区域对应的点云数据输入至已训练好的3D框回归模型,获得所述3D框回归模型输出的对所述3D人脸进行标识的3D框。
8.根据权利要求7所述的装置,其特征在于,所述第一确定单元具体包括:第三获得单元和第四确定单元,其中:
所述第三获得单元,用于将已获得的所述2D图像输入至已训练好的2D人脸检测模型中,获得由所述2D人脸检测模型输出的用于标识人脸的2D框;
所述第四确定单元,用于将所述2D框内的图像区域确定为人脸所在的第一图像区域。
9.根据权利要求7所述的装置,其特征在于,所述第二确定单元具体包括:第五确定单元和第四获得单元,其中:
所述第五确定单元,用于在所述深度图像中确定所述第一图像区域对应的第二图像区域;
所述第四获得单元,用于对所述第一图像区域和所述第二图像区域进行坐标系转换,获得所述第一图像区域对应的点云数据。
10.根据权利要求7所述的装置,其特征在于,所述第三确定单元具体包括:第五获得单元、第六确定单元和第七确定单元,其中:
所述第五获得单元,用于获得所述3D实例分割模型输出的所述第一图像区域中每个个体归属于人脸类别的概率;
所述第六确定单元,用于当所述第一图像区域中存在归属于人脸类别的概率大于预设阈值的个体时,确定所述第一图像区域包含人脸;
所述第七确定单元,用于当所述第一图像区域中每个个体归属于人脸类别的概率均不大于预设阈值时,确定所述第一图像区域未包含人脸。
CN202010477847.4A 2020-05-29 2020-05-29 一种人脸检测方法及装置 Active CN111626241B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010477847.4A CN111626241B (zh) 2020-05-29 2020-05-29 一种人脸检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010477847.4A CN111626241B (zh) 2020-05-29 2020-05-29 一种人脸检测方法及装置

Publications (2)

Publication Number Publication Date
CN111626241A CN111626241A (zh) 2020-09-04
CN111626241B true CN111626241B (zh) 2023-06-23

Family

ID=72271836

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010477847.4A Active CN111626241B (zh) 2020-05-29 2020-05-29 一种人脸检测方法及装置

Country Status (1)

Country Link
CN (1) CN111626241B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112465910B (zh) * 2020-11-26 2021-12-28 成都新希望金融信息有限公司 一种目标拍摄距离获取方法、装置、存储介质及电子设备
CN113344950A (zh) * 2021-07-28 2021-09-03 北京朗视仪器股份有限公司 一种深度学习结合点云语义的cbct图像牙齿分割方法
CN114694233B (zh) * 2022-06-01 2022-08-23 成都信息工程大学 一种基于多特征的考场监控视频图像中人脸定位方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104978549A (zh) * 2014-04-03 2015-10-14 北京邮电大学 三维人脸图像特征提取方法和系统
CN109697688A (zh) * 2017-10-20 2019-04-30 虹软科技股份有限公司 一种用于图像处理的方法和装置
CN109977794A (zh) * 2019-03-05 2019-07-05 北京超维度计算科技有限公司 一种用深度神经网络进行人脸识别的方法
CN110059660A (zh) * 2019-04-26 2019-07-26 北京迈格威科技有限公司 移动端平台3d人脸注册方法及装置
CN110388931A (zh) * 2018-04-17 2019-10-29 百度(美国)有限责任公司 将对象的二维边界框转换成自动驾驶车辆的三维位置的方法
CN110569768A (zh) * 2019-08-29 2019-12-13 四川大学 人脸模型的构建方法、人脸识别方法、装置及设备
CN111091075A (zh) * 2019-12-02 2020-05-01 北京华捷艾米科技有限公司 人脸识别方法、装置、电子设备及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10402724B2 (en) * 2017-10-03 2019-09-03 StradVision, Inc. Method for acquiring a pseudo-3D box from a 2D bounding box by regression analysis and learning device and testing device using the same
US10839234B2 (en) * 2018-09-12 2020-11-17 Tusimple, Inc. System and method for three-dimensional (3D) object detection

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104978549A (zh) * 2014-04-03 2015-10-14 北京邮电大学 三维人脸图像特征提取方法和系统
CN109697688A (zh) * 2017-10-20 2019-04-30 虹软科技股份有限公司 一种用于图像处理的方法和装置
CN110388931A (zh) * 2018-04-17 2019-10-29 百度(美国)有限责任公司 将对象的二维边界框转换成自动驾驶车辆的三维位置的方法
CN109977794A (zh) * 2019-03-05 2019-07-05 北京超维度计算科技有限公司 一种用深度神经网络进行人脸识别的方法
CN110059660A (zh) * 2019-04-26 2019-07-26 北京迈格威科技有限公司 移动端平台3d人脸注册方法及装置
CN110569768A (zh) * 2019-08-29 2019-12-13 四川大学 人脸模型的构建方法、人脸识别方法、装置及设备
CN111091075A (zh) * 2019-12-02 2020-05-01 北京华捷艾米科技有限公司 人脸识别方法、装置、电子设备及存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Dutagaci H.3D face recognition.《2006 IEEE 14th Signal Processing and Communication Application》.2006,全文. *
冯龙飞.基于深度学习的人脸3D关键点检测方法研究.《中国优秀硕士学位论文全文数据库(信息科技辑)》.2019,全文. *
王亮.基于3D人脸重建的大姿态人脸样本扩充与识别研究.《中国优秀硕士学位论文全文数据库(信息科技辑)》.2019,王亮. *

Also Published As

Publication number Publication date
CN111626241A (zh) 2020-09-04

Similar Documents

Publication Publication Date Title
CN112270249B (zh) 一种融合rgb-d视觉特征的目标位姿估计方法
KR102319177B1 (ko) 이미지 내의 객체 자세를 결정하는 방법 및 장치, 장비, 및 저장 매체
CN110348319B (zh) 一种基于人脸深度信息和边缘图像融合的人脸防伪方法
CN111626241B (zh) 一种人脸检测方法及装置
CN108921057B (zh) 基于卷积神经网络的对虾形态测量方法、介质、终端设备及装置
CN108986152B (zh) 一种基于差分图像的异物检测方法及装置
KR101261409B1 (ko) 영상 내 노면표시 인식시스템
CN110298281B (zh) 视频结构化方法、装置、电子设备及存储介质
CN111160291B (zh) 基于深度信息与cnn的人眼检测方法
CN112200056B (zh) 人脸活体检测方法、装置、电子设备及存储介质
CN110490936A (zh) 车辆摄像头的标定方法、装置、设备及可读存储介质
CN107944437B (zh) 一种基于神经网络和积分图像的人脸定位方法
CN107766864B (zh) 提取特征的方法和装置、物体识别的方法和装置
CN114692720B (zh) 基于鸟瞰图的图像分类方法、装置、设备及存储介质
CN114693661A (zh) 一种基于深度学习的快速分拣方法
CN114639115B (zh) 一种人体关键点与激光雷达融合的3d行人检测方法
US20220301176A1 (en) Object detection method, object detection device, terminal device, and medium
CN109919128B (zh) 控制指令的获取方法、装置及电子设备
CN114972646A (zh) 一种实景三维模型独立地物的提取与修饰方法及系统
WO2021118386A1 (ru) Способ получения набора объектов трехмерной сцены
KR102416714B1 (ko) 3차원 이미지 및 딥러닝을 활용한 도시 규모 나무 지도 작성 시스템 및 방법
CN110070490A (zh) 图像拼接方法和装置
CN112232272B (zh) 一种激光与视觉图像传感器融合的行人识别方法
CN113516069A (zh) 基于尺寸鲁棒的道路标识实时检测方法及装置
CN115131619B (zh) 基于点云和图像融合的特高压零件分拣方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant