CN115457644A - 一种基于扩展空间映射获得目标的识图方法及装置 - Google Patents
一种基于扩展空间映射获得目标的识图方法及装置 Download PDFInfo
- Publication number
- CN115457644A CN115457644A CN202211402038.2A CN202211402038A CN115457644A CN 115457644 A CN115457644 A CN 115457644A CN 202211402038 A CN202211402038 A CN 202211402038A CN 115457644 A CN115457644 A CN 115457644A
- Authority
- CN
- China
- Prior art keywords
- image
- face
- face image
- obtaining
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于扩展空间映射获得目标的识图方法及装置,具体包括以下步骤:S1、获取摄像头拍摄的人脸图像、场景图像及位置信息,所述场景图像包含人脸图像,所述位置信息为所述人脸图像在场景图像中的相对位置信息;S2、根据所述位置信息获取截取框;S3、根据所述截取框,获得拓展截取框;S3、根据所述拓展截取框对场景图像进行剪切,获得人物图像;S4、将所述人物图像及其对应的人脸图像,分别输入预先训练的识别模型,获得人物对应的标签。本发明在场景图像中,通过人脸图像准确定位人物图像,通过对人脸图像、人物图像的分析,获得客群属性,实现了高效、快速的客群属性分析。
Description
技术领域
本发明涉及智慧安检技术领域,具体涉及一种基于扩展空间映射获得目标的识图方法及装置。
背景技术
在安检的场景中,我们需要对摄像头采集的人脸图和对应的人物图进行分析获取客群属性,通过分析同年龄段的客户群里的自身属性、消费属性、决策属性等,对地铁覆盖范围内的客户做标签化分析,能够帮助公共交通制定针对性的项目设置策略、定价策略和服务策略。但是实际中摄像机发送上来的只有人脸图和人物所在的场景图。需要从场景图中找到对应的人物进行分析,分析人物的性别、年龄、发量等,并分析出衣服类型,身形、是否带眼镜等,然而场景图的数据量庞大,同时存在多种干扰因素,影响分析效率的同时,采集数据空间占用率越来越多,然而简单的空间映射仅仅通过头部识别框的大小来获取人物图像,得到人物图像并不是完全的包含目标人物本身,从而造成客群属性分析的偏差。
发明内容
本发明的目的在于提供一种基于扩展空间映射获得目标的识图方法及装置,在场景图像中,通过人脸图像准确定位人物图像,通过对人脸图像、人物图像的分析,获得客群属性,实现了高效、快速的客群属性分析。
一种基于扩展空间映射获得目标的识图方法,具体包括以下步骤:
S1、获取摄像头拍摄的人脸图像、场景图像及位置信息,所述场景图像包含人脸图像,所述位置信息为所述人脸图像在场景图像中的相对位置信息;
S2、根据所述位置信息获取截取框;
S3、根据所述截取框,获得拓展截取框;
S4、根据所述拓展截取框对场景图像进行剪切,获得人物图像;
S5、将所述人物图像及其对应的人脸图像,分别输入预先训练的识别模型,获得人物对应的标签。
进一步地,所述位置信息包括人脸图像在场景图像中的其中一个顶点坐标A以及人脸图像的宽width、高height,所述截取框为场景图像中的顶点坐标为A、宽为w0,高为h0的矩形检测框,其中w0≥width,h0≥height。
进一步地,所述截取框为矩形框,所述拓展截取框为将所述截取框沿第一方向和/或第二方向延伸对应的距离所生成的矩形框。
进一步地,所述第一方向与第二方向为两相反方向,且平行于人脸图像的下边缘,所述拓展截取框由以下步骤生成得到:
将所述截取框沿第一方向延伸第一距离,获得第一截取框;
将所述第一截取框沿第二方向延伸第二距离,获得拓展截取框;
其中,所述拓展截取框不超过人脸图像的边缘。
进一步地,所述人脸图像,通过以下步骤得到:
控制所述摄像头在扫描范围内,拍摄每一扫描时刻摄像头视野内的场景图像;
将所述场景图像输入预先训练的人脸检测模型获得至少一个人脸图像,所述人脸检测模型为利用标注了人脸图像标签的样本图像进行训练得到的;
比较所述场景图像中每个人脸图像对应的置信度;
将置信度最大的人脸图像作为第一目标人脸图像,获得所述人脸图像在场景图像中的相对位置信息,并将其从场景图像截取出来;
所述置信度为人脸的像素点个数。
进一步地,步骤S4具体包括以下步骤:
将所述人脸图像输入预先训练的人脸识别模型,获取人物的第一基本数据;
将所述人物图像输入预先训练的属性识别模型,获取人物的第二基本数据;
根据人物的第一基本数据和第二基本数据,实时获得人物对应的属性标签。
进一步地,所述人脸识别模型具体包括以下步骤:
对所述人脸图像进行相应分区,每个分区包括各个人脸组成部分;
提取分区后的人脸图像的各区的特征数据;
根据人脸图像的特征数据与所述人脸特征数据库内的对应数据进行比对并分别计算出人脸部分与所述人脸特征数据库内的各人脸数据的相似度,根据相似度最高的人脸数据确定人物的姓名、性别、年龄,所述人物的第一基本数据包括姓名、性别、年龄。
进一步地,第二基本数据通过以下步骤获得:
对所述人物图像进行相应分区,每个分区包括各个预设区域的组成部分;
提取分区后的人物图像的各区的特征数据;
根据人物图像的特征数据输入预先训练的属性识别模型,计算出整体部分内的各预设属性的相似度,根据相似度最高原则确定各预设属性的信息,确定为第二基本数据。
一种基于扩展空间映射获得目标的识图装置,包括:
一个或多个处理器;
存储单元,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,能使得所述一个或多个处理器实现所述的一种基于扩展空间映射获得目标的识图方法。
本发明具有的有益效果:
本申请定义了摄像头上传数据的内容,上传数据包括人脸图像、场景图像及位置信息,通过位置信息准确定位人脸图像对应的人物图像,从而根据人脸图像、人物图像进行客群属性分析,克服了现有客群属性分析方法的局限性,能够直接针对结果进行分析,有效地降低了需要分析操作的数据量,也降低了检验操作的系统资源消耗。
通过将截取框沿矩形框的长度和/或宽度方向延伸,获得拓展截取框,尽可能得将目标人物的信息囊括在人物图像中,提高客群属性分析的准确率。
附图说明
图1为本发明的整体流程示意图;
图2为本发明的人脸图像获取流程示意图;
图3为本发明的场景图像中多个人脸的示意图;
图4为本发明的相对位置信息示意图;
图5为本发明的截取框示意图;
图6为本发明的拓展截取框示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
另外,为了清楚和简洁起见,可能省略了对公知的结构、功能和配置的描述。本领域普通技术人员将认识到,在不脱离本公开的精神和范围的情况下,可以对本文描述的示例进行各种改变和修改。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它示例可以具有不同的值。
实施例1
如图1所示,一种基于扩展空间映射获得目标的识图方法,具体包括以下步骤:
S1、获取摄像头拍摄的人脸图像、场景图像及位置信息,所述场景图像包含人脸图像,所述位置信息为所述人脸图像在场景图像中的相对位置信息;
S2、根据所述位置信息获取截取框;
S3、根据所述截取框,获得拓展截取框;
S4、根据所述拓展截取框对场景图像进行剪切,获得人物图像;
S5、将所述人物图像及其对应的人脸图像,分别输入预先训练的识别模型,获得人物对应的标签。
需要说明的是,在具体实施时,实现本公开实施例提供的识别方法的应用客户端调用摄像头实时采集场景图像。
具体实施时,可以利用标注了人脸图像数据的样本图像对人脸检测模型进行训练。为了提高人脸识别模型识别的准确性和精确性,本公开实施例中,可以对人脸图像元素进行像素级精确定位,例如头发、眼睛、脖子、皮肤、嘴唇等,这样,通过训练可以获取人脸五官的准确特征信息。
如图2所示,根据本公开实施例训练得到的人脸检测模型,不仅能够检测出场景图像中包含的人脸图像,还可以对人脸图像的像素点个数进行计算。
具体实施时,基于标注的样本图像,可以利用卷积神经网络建立人脸检测模型进行训练。
具体地,所述位置信息包括人脸图像在场景图像中的其中一个顶点坐标A以及人脸图像的宽width、高height,所述截取框为场景图像中的顶点坐标为A、宽为w0,高为h0的矩形检测框,其中w0≥width,h0≥height。
具体地,所述截取框为矩形框,所述拓展截取框为将所述截取框沿第一方向和/或第二方向延伸对应的距离所生成的矩形框。
具体地,所述第一方向与第二方向为两相反方向,且平行于人脸图像的下边缘,所述拓展截取框由以下步骤生成得到:
将所述截取框沿第一方向延伸第一距离,获得第一截取框;
将所述第一截取框沿第二方向延伸第二距离,获得拓展截取框。
其中,所述拓展截取框不超过人脸图像的边缘。
示例性的:
摄像机传上来的人脸图记为S,场景图记为Q,同时传上来了人脸图S在全景图Q中的位置。位置信息包含{x,y,width,height},(x,y)是人脸图左上顶点在场景图中的坐标,width和height分别为人脸图的宽和高。记场景图的宽为w,高为h,如图4所示;
1、摄像机上传了人脸图S;
2、人物图的获取。向下取框,获得左上顶点为(x,y),右下顶点的坐标即为:(x+width,h);
此时的截取框如图5所示。
3、从上图可以看出,截取到的人物目标并不是完全的。同时根据身体的宽度差不多是头部宽度2倍,我们可以对截取框进行向左和向右的拓展,如图6所示:
得到左上顶点为(x-0.5*width,y)和右下顶点为(x+1.5*width,h)的区域B’,当x-0.5*width<0,左上顶点为(0,y)。当x+1.5*width>w,右下顶点为(w,h)。
对拓展截取框进行剪切获得人物图像。
具体地,所述人脸图像,通过以下步骤得到:
控制所述摄像头在扫描范围内,拍摄每一扫描时刻摄像头视野内的场景图像;
将所述场景图像输入预先训练的人脸检测模型获得至少一个人脸图像,所述人脸检测模型为利用标注了人脸图像标签的样本图像进行训练得到的;
计算所述场景图像中每个人脸图像对应的像素点个数;
将像素点个数最大的人脸图像作为第一目标人脸图像,获得所述人脸图像在场景图像中的相对位置信息,并将其从场景图像截取出来。
如图3所示,通常,在一张图片中,像素点个数最大的人物头像被认为是距离摄像头焦点距离最近的人物头像,因此,在本发明实施例中,获取每个人物头像对应的像素点个数后,将像素点个数最大的人物头像作为第一待拍摄人物头像,将距离摄像头焦点最近的人物头像作为第一待拍摄人物头像,提高了在多个人物头像中选出目标人物头像的准确率,并且这种选择方式更加符合用户需求。
具体地,所述人脸图像,通过以下步骤得到:
控制所述摄像头在扫描范围内,拍摄每一扫描时刻摄像头视野内的场景图像;
将所述场景图像输入预先训练的人脸检测模型获得至少一个人脸图像,所述人脸检测模型为利用标注了人脸图像标签的样本图像进行训练得到的;
比较所述场景图像中每个人脸图像对应的置信度;
将置信度最大的人脸图像作为第一目标人脸图像,获得所述人脸图像在场景图像中的相对位置信息,并将其从场景图像截取出来。
需要说明的是,上述步骤中提取出的用户的人脸图像有多个,则在一种实施方式中,可以通过显示屏显示提取出的所有用户人脸图像供用户选择,响应于用户的选择操作,确定用户选择的至少一个人脸图像为目标的人脸图像。在另外一种实施方式中,可以分别确定提取出的每一人脸图像对应的置信度;确定置信度大于预设阈值的人脸图像为目标人脸图像,例如,可以根据人脸图像占据场景图像的像素比例来确定每一人脸图像的置信度,将比例大于预设比例阈值的人脸图像确定为目标人脸图像。
具体地,步骤S4具体包括以下步骤:
将所述人脸图像输入预先训练的人脸识别模型,获取人物的第一基本数据;
将所述人物图像输入预先训练的属性识别模型,获取人物的第二基本数据;
根据人物的第一基本数据和第二基本数据,实时获得人物对应的属性标签。
具体地,所述人脸识别模型具体包括以下步骤:
对所述人脸图像进行相应分区,每个分区包括各个人脸组成部分;
提取分区后的人脸图像的各区的特征数据;
根据人脸图像的特征数据与所述人脸特征数据库内的对应数据进行比对并分别计算出人脸部分与所述人脸特征数据库内的各人脸数据的相似度,根据相似度最高的人脸数据确定人物的第一基本数据,所述人物的第一基本数据包括姓名、性别、年龄。
在一种实施例中,所述人脸识别模型具体包括以下步骤:
S110、预建包含多个人脸的人脸特征数据库,
S111、输入待识别的人脸图像。
S112、对输入的人脸图像进行人脸定位,即识别出人脸图像中的人脸部分。
S113、对定位后的人脸进行裁剪,例如可采用鼠标拉框或预先设置的取脸框对定位后的人脸进行裁剪。
S114、对裁剪后的人脸进行预处理,所述预处理包括人脸尺寸归一化、光照补偿及姿态校正,所述预处理都为本领域技术人员所熟悉的技术,在此不再详述。
S115、将所裁减后的人脸与所述人脸特征数据库内的对应数据进行比对并计算出待识别的人脸与所述人脸特征数据库内的各人脸的相似度。
S116、结果处理,即根据所计算出的相似度在人脸特征数据库内找出与待识别的人脸最为相似的人脸,并生成对应的乘客ID,乘客ID对应人脸的姓名、性别、年龄。
具体地,所述分区之前,还包括将所述人脸识别进行正面脸识别,将正面脸的人脸图像进行分区。对人脸图像进行正面脸识别,从而对所述人脸图像进行相应的正面脸分区,具体的包括:
对待识别的人脸图像进行人脸识别以确定其是否包含人脸,并对包含人脸的待识别人脸图像进行双眼定位;
根据定位的双眼判断所述双眼是否水平,若双眼不为水平,则旋转所述待识别的人脸图像以使所述双眼水平;
根据处于水平的双眼的距离自相应待识别的人脸图像中截取出相应人脸部分;
根据所截取出的相应人脸部分生成与所述人脸部分相应的镜像人脸;
根据所述人脸部分与镜像人脸对应各像素点的灰度值计算两图像之间的差距;按照公式计算所述差距,其中,d为差距,A(x,y)为截取出的人脸部分中像素点(x,y)的灰度值,B(x,y)为镜像人脸中对应像素点(x,y)的灰度值;
将所述差距与预设的阀值进行比较以判断所述待识别的人脸图像包含的人脸是否为正面脸。
具体地,第二基本数据通过以下步骤获得:
对所述人物图像进行相应分区,每个分区包括各个预设区域的组成部分;
需要说明的是人物的分区可以包括手部区域,穿着配饰区域,肩部区域,头顶部区域等等,分别用来识别标记对应的属性标签。
即从人脸图分析人物的性别、年龄、发量等。从人物图分析出衣服类型,身形、是否带眼镜等等特性。
提取分区后的人物图像的各区的特征数据;
根据人物图像的特征数据输入预先训练的属性识别模型,计算出整体部分内的各预设属性的相似度,根据相似度最高原则确定各预设属性的信息,确定为第二基本数据。
预设属性包括:对应人物的是否佩戴眼镜、是否携带包裹等等。
具体地,根据所述人物的第一基本数据调取人物的第三基本数据,第三基本数据包括乘坐里程、常去目的地。
在一种实时方式中,通过第一基本数据、第二基本数据、第三基本数据实时获得人物对应的属性标签。
属性标签包括年轻人、老年人、小孩、携带包裹、佩戴眼镜等等。
实施例2
一种基于扩展空间映射获得目标的识图装置,包括:
一个或多个处理器;
存储单元,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,能使得所述一个或多个处理器实现所述的一种基于扩展空间映射获得目标的识图方法。
实施例3,一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时能实现所述的一种基于扩展空间映射获得目标的识图方法。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,依据本发明的技术实质,在本发明的精神和原则之内,对以上实施例所作的任何简单的修改、等同替换与改进等,均仍属于本发明技术方案的保护范围之内。
Claims (10)
1.一种基于扩展空间映射获得目标的识图方法,其特征在于,具体包括以下步骤:
S1、获取摄像头拍摄的人脸图像、场景图像及位置信息,所述场景图像包含人脸图像,所述位置信息为所述人脸图像在场景图像中的相对位置信息;
S2、根据所述位置信息获取截取框;
S3、根据所述截取框,获得拓展截取框;
S4、根据所述拓展截取框对场景图像进行剪切,获得人物图像;
S5、将所述人物图像及其对应的人脸图像,分别输入预先训练的识别模型,获得人物对应的标签。
2.根据权利要求1所述的一种基于扩展空间映射获得目标的识图方法,其特征在于,所述位置信息包括人脸图像在场景图像中的其中一个顶点坐标A以及人脸图像的宽width、高height,所述截取框为场景图像中的顶点坐标为A、宽为w0,高为h0的矩形检测框,其中w0≥width,h0≥height。
4.根据权利要求2所述的一种基于扩展空间映射获得目标的识图方法,其特征在于,所述截取框为矩形框,所述拓展截取框为将所述截取框沿第一方向和/或第二方向延伸对应的距离所生成的矩形框。
5.根据权利要求4所述的一种基于扩展空间映射获得目标的识图方法,其特征在于,所述第一方向与第二方向为两相反方向,且平行于人脸图像的下边缘,所述拓展截取框由以下步骤生成得到:
将所述截取框沿第一方向延伸第一距离,获得第一截取框;
将所述第一截取框沿第二方向延伸第二距离,获得拓展截取框;
其中,所述拓展截取框不超过人脸图像的边缘。
6.根据权利要求1所述的一种基于扩展空间映射获得目标的识图方法,其特征在于,所述人脸图像,通过以下步骤得到:
控制所述摄像头在扫描范围内,拍摄每一扫描时刻摄像头视野内的场景图像;
将所述场景图像输入预先训练的人脸检测模型获得至少一个人脸图像,所述人脸检测模型为利用标注了人脸图像标签的样本图像进行训练得到的;
比较所述场景图像中每个人脸图像对应的置信度;
将置信度最大的人脸图像作为第一目标人脸图像,获得所述人脸图像在场景图像中的相对位置信息,并将其从场景图像截取出来;
所述置信度为人脸的像素点个数。
7.根据权利要求6所述的一种基于扩展空间映射获得目标的识图方法,其特征在于,步骤S4具体包括以下步骤:
将所述人脸图像输入预先训练的人脸识别模型,获取人物的第一基本数据;
将所述人物图像输入预先训练的属性识别模型,获取人物的第二基本数据;
根据人物的第一基本数据和第二基本数据,实时获得人物对应的属性标签。
8.根据权利要求7所述的一种基于扩展空间映射获得目标的识图方法,其特征在于,所述人脸识别模型具体包括以下步骤:
对所述人脸图像进行相应分区,每个分区包括各个人脸组成部分;
提取分区后的人脸图像的各区的特征数据;
根据人脸图像的特征数据与人脸特征数据库内的对应数据进行比对并分别计算出人脸部分与所述人脸特征数据库内的各人脸数据的相似度,根据相似度最高的人脸数据确定人物的姓名、性别、年龄,所述人物的第一基本数据包括姓名、性别、年龄。
9.根据权利要求7所述的一种基于扩展空间映射获得目标的识图方法,其特征在于,第二基本数据通过以下步骤获得:
对所述人物图像进行相应分区,每个分区包括各个预设区域的组成部分;
提取分区后的人物图像的各区的特征数据;
根据人物图像的特征数据输入预先训练的属性识别模型,计算出整体部分内的各预设属性的相似度,根据相似度最高原则确定各预设属性的信息,确定为第二基本数据。
10.一种基于扩展空间映射获得目标的识图装置,其特征在于,包括:
一个或多个处理器;
存储单元,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,能使得所述一个或多个处理器实现根据权利要求1至9中任意一项所述的一种基于扩展空间映射获得目标的识图方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211402038.2A CN115457644B (zh) | 2022-11-10 | 2022-11-10 | 一种基于扩展空间映射获得目标的识图方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211402038.2A CN115457644B (zh) | 2022-11-10 | 2022-11-10 | 一种基于扩展空间映射获得目标的识图方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115457644A true CN115457644A (zh) | 2022-12-09 |
CN115457644B CN115457644B (zh) | 2023-04-28 |
Family
ID=84295548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211402038.2A Active CN115457644B (zh) | 2022-11-10 | 2022-11-10 | 一种基于扩展空间映射获得目标的识图方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115457644B (zh) |
Citations (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101162500A (zh) * | 2006-10-13 | 2008-04-16 | 上海银晨智能识别科技有限公司 | 分区式人脸识别方法 |
CN101587543A (zh) * | 2009-06-19 | 2009-11-25 | 电子科技大学 | 一种人脸识别方法 |
CN103150561A (zh) * | 2013-03-19 | 2013-06-12 | 华为技术有限公司 | 人脸识别方法和设备 |
CN105389801A (zh) * | 2015-10-20 | 2016-03-09 | 厦门美图之家科技有限公司 | 人物轮廓设置方法、人物图像虚化方法、系统及拍摄终端 |
CN108573201A (zh) * | 2017-03-13 | 2018-09-25 | 金德奎 | 一种基于人脸识别技术的用户身份识别匹配方法 |
CN108596098A (zh) * | 2018-04-24 | 2018-09-28 | 北京京东尚科信息技术有限公司 | 人体部件的解析方法、系统、设备和存储介质 |
CN108960064A (zh) * | 2018-06-01 | 2018-12-07 | 重庆锐纳达自动化技术有限公司 | 一种基于卷积神经网络的人脸检测及识别方法 |
CN109993150A (zh) * | 2019-04-15 | 2019-07-09 | 北京字节跳动网络技术有限公司 | 用于识别年龄的方法和装置 |
CN110245712A (zh) * | 2019-06-19 | 2019-09-17 | 焦点科技股份有限公司 | 一种人体及人脸属性识别方法及系统 |
CN110399835A (zh) * | 2019-07-26 | 2019-11-01 | 北京文安智能技术股份有限公司 | 一种人员停留时间的分析方法、装置及系统 |
CN110472611A (zh) * | 2019-08-21 | 2019-11-19 | 图谱未来(南京)人工智能研究院有限公司 | 人物属性识别的方法、装置、电子设备及可读存储介质 |
CN110503023A (zh) * | 2019-08-19 | 2019-11-26 | 深圳市商汤科技有限公司 | 活体检测方法及装置、电子设备和存储介质 |
CN110688987A (zh) * | 2019-10-16 | 2020-01-14 | 山东建筑大学 | 一种行人位置检测与跟踪方法及系统 |
CN110728225A (zh) * | 2019-10-08 | 2020-01-24 | 北京联华博创科技有限公司 | 一种用于考勤的高速人脸搜索方法 |
CN111507283A (zh) * | 2020-04-21 | 2020-08-07 | 浙江蓝鸽科技有限公司 | 基于课堂场景的学生行为识别方法及系统 |
US20200293807A1 (en) * | 2019-03-15 | 2020-09-17 | Ali Ghobadzadeh | Adaptive image cropping for face recognition |
CN112016527A (zh) * | 2020-10-19 | 2020-12-01 | 成都大熊猫繁育研究基地 | 基于深度学习的大熊猫行为识别方法、系统、终端及介质 |
CN112036257A (zh) * | 2020-08-07 | 2020-12-04 | 华中师范大学 | 一种无感知人脸图像采集方法和系统 |
CN112116525A (zh) * | 2020-09-24 | 2020-12-22 | 百度在线网络技术(北京)有限公司 | 换脸识别方法、装置、设备和计算机可读存储介质 |
CN112287830A (zh) * | 2020-10-29 | 2021-01-29 | 泰康保险集团股份有限公司 | 一种图像的检测方法及装置 |
CN112307894A (zh) * | 2020-09-27 | 2021-02-02 | 青岛邃智信息科技有限公司 | 一种社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法 |
CN112530019A (zh) * | 2020-12-11 | 2021-03-19 | 中国科学院深圳先进技术研究院 | 三维人体重建方法、装置、计算机设备和存储介质 |
CN113076905A (zh) * | 2021-04-16 | 2021-07-06 | 华南理工大学 | 一种基于上下文交互关系的情绪识别方法 |
CN113242428A (zh) * | 2021-04-15 | 2021-08-10 | 中南大学 | 视频会议场景下基于roi区域的后处理加速方法 |
CN113486690A (zh) * | 2020-05-27 | 2021-10-08 | 海信集团有限公司 | 一种用户身份识别方法、电子设备及介质 |
CN114038044A (zh) * | 2021-11-23 | 2022-02-11 | 携程旅游信息技术(上海)有限公司 | 人脸性别年龄识别方法、装置、电子设备和存储介质 |
CN114627014A (zh) * | 2022-03-14 | 2022-06-14 | Oppo广东移动通信有限公司 | 图像处理方法、图像处理装置、存储介质与电子设备 |
US20220207266A1 (en) * | 2020-12-31 | 2022-06-30 | Sensetime International Pte. Ltd. | Methods, devices, electronic apparatuses and storage media of image processing |
CN114694064A (zh) * | 2022-03-23 | 2022-07-01 | 成都智元汇信息技术股份有限公司 | 一种基于目标识别的切图方法与系统 |
-
2022
- 2022-11-10 CN CN202211402038.2A patent/CN115457644B/zh active Active
Patent Citations (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101162500A (zh) * | 2006-10-13 | 2008-04-16 | 上海银晨智能识别科技有限公司 | 分区式人脸识别方法 |
CN101587543A (zh) * | 2009-06-19 | 2009-11-25 | 电子科技大学 | 一种人脸识别方法 |
CN103150561A (zh) * | 2013-03-19 | 2013-06-12 | 华为技术有限公司 | 人脸识别方法和设备 |
CN105389801A (zh) * | 2015-10-20 | 2016-03-09 | 厦门美图之家科技有限公司 | 人物轮廓设置方法、人物图像虚化方法、系统及拍摄终端 |
CN108573201A (zh) * | 2017-03-13 | 2018-09-25 | 金德奎 | 一种基于人脸识别技术的用户身份识别匹配方法 |
CN108596098A (zh) * | 2018-04-24 | 2018-09-28 | 北京京东尚科信息技术有限公司 | 人体部件的解析方法、系统、设备和存储介质 |
CN108960064A (zh) * | 2018-06-01 | 2018-12-07 | 重庆锐纳达自动化技术有限公司 | 一种基于卷积神经网络的人脸检测及识别方法 |
US20200293807A1 (en) * | 2019-03-15 | 2020-09-17 | Ali Ghobadzadeh | Adaptive image cropping for face recognition |
CN109993150A (zh) * | 2019-04-15 | 2019-07-09 | 北京字节跳动网络技术有限公司 | 用于识别年龄的方法和装置 |
CN110245712A (zh) * | 2019-06-19 | 2019-09-17 | 焦点科技股份有限公司 | 一种人体及人脸属性识别方法及系统 |
CN110399835A (zh) * | 2019-07-26 | 2019-11-01 | 北京文安智能技术股份有限公司 | 一种人员停留时间的分析方法、装置及系统 |
CN110503023A (zh) * | 2019-08-19 | 2019-11-26 | 深圳市商汤科技有限公司 | 活体检测方法及装置、电子设备和存储介质 |
CN110472611A (zh) * | 2019-08-21 | 2019-11-19 | 图谱未来(南京)人工智能研究院有限公司 | 人物属性识别的方法、装置、电子设备及可读存储介质 |
CN110728225A (zh) * | 2019-10-08 | 2020-01-24 | 北京联华博创科技有限公司 | 一种用于考勤的高速人脸搜索方法 |
CN110688987A (zh) * | 2019-10-16 | 2020-01-14 | 山东建筑大学 | 一种行人位置检测与跟踪方法及系统 |
CN111507283A (zh) * | 2020-04-21 | 2020-08-07 | 浙江蓝鸽科技有限公司 | 基于课堂场景的学生行为识别方法及系统 |
CN113486690A (zh) * | 2020-05-27 | 2021-10-08 | 海信集团有限公司 | 一种用户身份识别方法、电子设备及介质 |
CN112036257A (zh) * | 2020-08-07 | 2020-12-04 | 华中师范大学 | 一种无感知人脸图像采集方法和系统 |
CN112116525A (zh) * | 2020-09-24 | 2020-12-22 | 百度在线网络技术(北京)有限公司 | 换脸识别方法、装置、设备和计算机可读存储介质 |
CN112307894A (zh) * | 2020-09-27 | 2021-02-02 | 青岛邃智信息科技有限公司 | 一种社区监控场景下基于皱纹特征和姿态特征的行人年龄识别方法 |
CN112016527A (zh) * | 2020-10-19 | 2020-12-01 | 成都大熊猫繁育研究基地 | 基于深度学习的大熊猫行为识别方法、系统、终端及介质 |
CN112287830A (zh) * | 2020-10-29 | 2021-01-29 | 泰康保险集团股份有限公司 | 一种图像的检测方法及装置 |
CN112530019A (zh) * | 2020-12-11 | 2021-03-19 | 中国科学院深圳先进技术研究院 | 三维人体重建方法、装置、计算机设备和存储介质 |
US20220207266A1 (en) * | 2020-12-31 | 2022-06-30 | Sensetime International Pte. Ltd. | Methods, devices, electronic apparatuses and storage media of image processing |
CN113242428A (zh) * | 2021-04-15 | 2021-08-10 | 中南大学 | 视频会议场景下基于roi区域的后处理加速方法 |
CN113076905A (zh) * | 2021-04-16 | 2021-07-06 | 华南理工大学 | 一种基于上下文交互关系的情绪识别方法 |
CN114038044A (zh) * | 2021-11-23 | 2022-02-11 | 携程旅游信息技术(上海)有限公司 | 人脸性别年龄识别方法、装置、电子设备和存储介质 |
CN114627014A (zh) * | 2022-03-14 | 2022-06-14 | Oppo广东移动通信有限公司 | 图像处理方法、图像处理装置、存储介质与电子设备 |
CN114694064A (zh) * | 2022-03-23 | 2022-07-01 | 成都智元汇信息技术股份有限公司 | 一种基于目标识别的切图方法与系统 |
Non-Patent Citations (4)
Title |
---|
CHING-DA WU 等: "FACIAL EMOTION RECOGNITION USING DEEP LEARNING", 《ARXIV》 * |
陶飞;成科扬;张建明;汤宇豪;: "基于姿态与并行化属性学习的行人再识别方法" * |
魏颖 等: "基于生成对抗网络的多目标行人跟踪算法", 《东北大学学报(自然科学版)》 * |
黎佩馨 等: "基于头部姿态估计的多人低头跟踪检测系统", 《信息技术》 * |
Also Published As
Publication number | Publication date |
---|---|
CN115457644B (zh) | 2023-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9235751B2 (en) | Method and apparatus for image detection and correction | |
CN110532970B (zh) | 人脸2d图像的年龄性别属性分析方法、系统、设备和介质 | |
US20110025834A1 (en) | Method and apparatus of identifying human body posture | |
US20010000025A1 (en) | Method and apparatus for personnel detection and tracking | |
JP2017033469A (ja) | 画像識別方法、画像識別装置及びプログラム | |
AU2016266493A1 (en) | Method and system for facial recognition | |
WO2012013711A2 (en) | Semantic parsing of objects in video | |
JP2007164720A (ja) | 頭部検出装置、頭部検出方法および頭部検出プログラム | |
CN111860091A (zh) | 人脸图像评估方法和系统、服务器和计算机可读存储介质 | |
CN112036284B (zh) | 图像处理方法、装置、设备及存储介质 | |
CN104091173A (zh) | 一种基于网络摄像机的性别识别方法及装置 | |
JP2007048172A (ja) | 情報分類装置 | |
CN115661903B (zh) | 一种基于空间映射协同目标过滤的识图方法及装置 | |
JP2015230616A (ja) | 画像処理方法および画像処理装置 | |
US20240104769A1 (en) | Information processing apparatus, control method, and non-transitory storage medium | |
CN109919128A (zh) | 控制指令的获取方法、装置及电子设备 | |
US20170007118A1 (en) | Apparatus and method for estimating gaze from un-calibrated eye measurement points | |
CN111275754B (zh) | 一种基于深度学习的脸部痘印比例计算方法 | |
KR102250712B1 (ko) | 전자 장치 및 제어 방법 | |
US11527090B2 (en) | Information processing apparatus, control method, and non-transitory storage medium | |
WO2012153868A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
CN115578777B (zh) | 一种基于空间映射获得目标的识图方法及装置 | |
CN111145082A (zh) | 人脸图像处理方法、装置、电子设备及存储介质 | |
CN115457644B (zh) | 一种基于扩展空间映射获得目标的识图方法及装置 | |
JP2017175466A (ja) | 映像処理装置、映像処理システムおよび制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |