CN116884078A - 摄像装置控制方法、监控设备和计算机可读介质 - Google Patents
摄像装置控制方法、监控设备和计算机可读介质 Download PDFInfo
- Publication number
- CN116884078A CN116884078A CN202311147729.7A CN202311147729A CN116884078A CN 116884078 A CN116884078 A CN 116884078A CN 202311147729 A CN202311147729 A CN 202311147729A CN 116884078 A CN116884078 A CN 116884078A
- Authority
- CN
- China
- Prior art keywords
- image
- user
- information
- face
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000012806 monitoring device Methods 0.000 title claims description 23
- 210000003462 vein Anatomy 0.000 claims abstract description 105
- 238000012545 processing Methods 0.000 claims abstract description 51
- 230000004044 response Effects 0.000 claims abstract description 35
- 238000012544 monitoring process Methods 0.000 claims abstract description 30
- 230000001815 facial effect Effects 0.000 claims description 40
- 210000000697 sensory organ Anatomy 0.000 claims description 30
- 238000001514 detection method Methods 0.000 claims description 23
- 210000000056 organ Anatomy 0.000 claims description 22
- 230000004927 fusion Effects 0.000 claims description 19
- 238000000605 extraction Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 10
- 238000010606 normalization Methods 0.000 claims description 9
- 238000007499 fusion processing Methods 0.000 claims description 5
- 238000003709 image segmentation Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 230000006399 behavior Effects 0.000 description 59
- 238000013528 artificial neural network Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000000354 decomposition reaction Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 9
- 239000002699 waste material Substances 0.000 description 9
- 238000013145 classification model Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 206010000117 Abnormal behaviour Diseases 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Abstract
本公开的实施例公开了摄像装置控制方法、监控设备和计算机可读介质。该方法的一具体实施方式包括:响应于用户位置信息满足预设位置条件,控制摄像装置采集用户人眼图像和用户手势图像;对用户手势图像进行手势识别处理,得到手势识别结果信息;对用户人眼图像进行视线识别处理,得到视线关注区域信息;根据手势识别结果信息和视线关注区域信息,确定用户行为类型信息;响应于确定用户行为类型信息满足预设行为条件,控制摄像装置采集用户人脸图像和用户人脸静脉图像,以及将用户人脸图像和用户人脸静脉图像存储至人脸图像数据库,其中,摄像装置包括红外相机,红外相机用于采集用户人脸静脉图像。该实施方式可以提高监控区域的安全性。
Description
技术领域
本公开的实施例涉及安防监控领域,具体涉及摄像装置控制方法、监控设备和计算机可读介质。
背景技术
越来越多的人脸识别技术给了用户更好的体验也提供了更便捷的服务,作为人脸识别技术的基础设备,双摄像头的摄像装置的应用越来越广泛。目前,在控制摄像装置采集人脸图像时,通常采用的方式为:当检测到用户到达预定位置时,控制摄像装置调整到预设角度采集用户人脸图像以用于人脸识别。
然而,发明人发现,当采用上述方式控制摄像装置采集人脸图像时,经常会存在如下技术问题:
第一,当用户到达预定位置但并未有拍照需求时,直接控制摄像装置采集用户人脸图像,导致存储的无效的用户人脸图像较多,造成存储资源的浪费。
第二,通过同一角度采集用户人脸图像用于人脸识别,当用户的人脸所处的位置采集到的用户人脸图像的图像质量较低时,用户根据个人感觉和经验调整位置,从而导致调整后位置的准确性较低,造成摄像装置重复采集的次数较多,进而导致摄像装置采集用户人脸图像时耗费的功耗较大。
第三,当检测到用户到达预定位置时,仅采集用户人脸图像,没有对用户的行为进行分析,当用户在监控区域进行不良行为时,导致监控区域的安全性较低。
该背景技术部分中所公开的以上信息仅用于增强对本发明构思的背景的理解,并因此,其可包含并不形成本国的本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了摄像装置控制方法、监控设备和计算机可读介质,来解决以上背景技术部分提到的技术问题中的一项或多项。
第一方面,本公开的一些实施例提供了一种摄像装置控制方法,应用于监控设备,该方法包括:响应于确定检测到的用户位置信息满足预设位置条件,控制上述监控设备包括的摄像装置采集用户人眼图像和用户手势图像;对上述用户手势图像进行手势识别处理,得到手势识别结果信息;对上述用户人眼图像进行视线识别处理,得到视线关注区域信息;根据上述手势识别结果信息和上述视线关注区域信息,确定用户行为类型信息;响应于确定上述用户行为类型信息满足预设行为条件,控制上述摄像装置采集用户人脸图像和用户人脸静脉图像,以及将上述用户人脸图像和上述用户人脸静脉图像存储至人脸图像数据库,其中,上述摄像装置包括红外相机,上述红外相机用于采集用户人脸静脉图像。
第二方面,本公开的一些实施例提供了一种监控设备,包括:一个或多个处理器;摄像装置,用于采集图像,其中,上述摄像装置包括红外相机,上述红外相机用于采集用户人脸静脉图像;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述第一方面任一实现方式所描述的方法。
第三方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,上述计算机程序被处理器执行时实现上述第一方面任一实现方式所描述的方法。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的摄像装置控制方法,可以减少存储资源的浪费。具体来说,造成存储资源的浪费的原因在于:当用户到达预定位置但并未有拍照需求时,直接控制摄像装置采集用户人脸图像,导致存储的无效的用户人脸图像较多,造成存储资源的浪费。基于此,本公开的一些实施例的摄像装置控制方法,应用于监控设备,首先,响应于确定检测到的用户位置信息满足预设位置条件,控制上述监控设备包括的摄像装置采集用户人眼图像和用户手势图像。由此,当用户处在指定位置范围内时,可以得到用户的人眼图像和手势图像。其次,对上述用户手势图像进行手势识别处理,得到手势识别结果信息。由此,可以识别得到用户的手势,从而可以用于通过手势判断用户是否需要拍照。然后,对上述用户人眼图像进行视线识别处理,得到视线关注区域信息。由此,可以得到用户视线的关注区域,从而可以用于判定用户是否看着摄像头准备拍照。之后,根据上述手势识别结果信息和上述视线关注区域信息,确定用户行为类型信息。由此,可以通过手势和用户关注的区域判断用户是否存在拍照需求,从而用于控制摄像装置拍照。最后,响应于确定上述用户行为类型信息满足预设行为条件,控制上述摄像装置采集用户人脸图像和用户人脸静脉图像,以及将上述用户人脸图像和上述用户人脸静脉图像存储至人脸图像数据库。其中,上述摄像装置包括红外相机。上述红外相机用于采集用户人脸静脉图像。由此,当判断用户存在拍照需求时,可以控制摄像装置对用户人脸进行拍照,从而可以用于人脸识别。也因为在控制摄像装置对用户人脸进行拍照时,不仅判断了用户所处的位置,而且判断了用户的拍照需求,从而减少了无效的用户人脸图像的存储,由此,可以减少存储资源的浪费。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
图1是根据本公开的摄像装置控制方法的一些实施例的流程图;
图2是适于用来实现本公开的一些实施例的监控设备的包括的各个电子元件的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
本公开中所涉及的用户个人信息(例如用户人脸图像、用户人脸静脉图像、用户图像)的收集、存储、使用等操作,在执行相应操作之前,相关组织或个人尽到包括开展个人信息安全影响评估、向个人信息主体履行告知义务、事先征得个人信息主体的授权同意等义务,以及符合相关法律法规的规定。
下面将参考附图并结合实施例来详细说明本公开。
图1示出了根据本公开的摄像装置控制方法的一些实施例的流程100。该摄像装置控制方法,应用于监控设备,包括以下步骤:
步骤101,响应于确定检测到的用户位置信息满足预设位置条件,控制监控设备包括的摄像装置采集用户人眼图像和用户手势图像。
在一些实施例中,摄像装置控制方法的执行主体(例如监控设备)可以响应于确定检测到的用户位置信息满足预设位置条件,控制上述监控设备包括的摄像装置采集用户人眼图像和用户手势图像。其中,上述用户位置信息可以是由与监控设备相关联的距离传感器检测得到的。上述距离传感器可以为超声波距离传感器,也可以为激光距离传感器。上述预设位置条件可以为用户位置信息在预设位置范围内。上述预设位置范围可以为预先设定的用户相对于监控设备的距离的范围。上述预设位置范围可以表征能够对用户进行图像采集的距离范围。例如,上述预设位置范围可以为(0.3米,0.5米)。上述摄像装置可以包括摄像头。上述用户人眼图像可以为用户的人眼图像。上述用户手势图像可以为用户的手势图像。
步骤102,对用户手势图像进行手势识别处理,得到手势识别结果信息。
在一些实施例中,上述执行主体可以对上述用户手势图像进行手势识别处理,得到手势识别结果信息。实践中,上述执行主体可以通过各种方式对上述用户手势图像进行手势识别处理,得到手势识别结果信息。
在一些实施例的一些可选的实现方式中,上述执行主体可以通过以下步骤对上述用户手势图像进行手势识别处理,得到手势识别结果信息:
第一步,对上述用户手势图像进行图像分割处理,得到分割手势图像。实践中,首先,上述执行主体可以通过预设颜色空间转换算法对上述用户手势图像进行图像转换处理,得到转换手势图像。其中,上述预设颜色空间转换算法可以为预先设定的用于将RGB图像转换为YCbCr颜色空间中的图像的算法。然后,通过基于阈值的图像分割算法对上述转换手势图像进行分割处理,得到分割手势图像。
第二步,对上述分割手势图像进行手部轮廓检测处理,得到手部轮廓图像。实践中,上述执行主体可以通过预设轮廓特征提取算法,对上述分割手势图像进行手部轮廓特征提取处理,得到手部特征信息。其中,上述预设轮廓特征提取算法可以为用于提取图像的边缘轮廓的算法。例如,上述预设轮廓特征提取算法可以为Canny算法。
第三步,对上述手部轮廓图像进行膨胀处理,得到膨胀手部轮廓图像。实践中,上述执行主体可以对上述手部轮廓图像进行膨胀操作,得到膨胀手部轮廓图像。
第四步,对上述膨胀手部轮廓图像进行分类处理,得到手势识别结果信息。实践中,上述执行主体可以将上述膨胀手部轮廓图像输入预先训练的图像分类模型中,得到手势类型。其中,上述图像分类模型可以为用于进行图像分类模型。例如,上述图像分类模型可以为支持向量机。上述手势类型可以表征用户的手势。然后,响应于确定上述手势类型与预设手势类型相同,将预设识别成功信息确定为手势识别结果信息。其中,上述预设手势类型可以为预先设定的表征用户有拍照需求的手势。上述预设识别成功信息可以表征用户的手势识别成功。例如,上述预设识别成功信息可以为“识别成功”。最后,响应于确定上述手势类型与预设手势类型相异,将预设识别失败信息确定为手势识别结果信息。其中,上述预设识别失败信息可以表征用户的手势识别失败。例如,上述预设识别失败信息可以为“识别失败”。
步骤103,对用户人眼图像进行视线识别处理,得到视线关注区域信息。
在一些实施例中,上述执行主体可以对上述用户人眼图像进行视线识别处理,得到视线关注区域信息。实践中,上述执行主体可以将上述用户人眼图像输入预先训练的视线关注区域信息生成模型,得到视线关注区域信息。其中,上述视线关注区域信息生成模型可以为以用户人眼图像为输入,以视线关注区域信息为输出的神经网络。上述神经网络可以为VGG网络。上述视线关注区域信息可以为用户的实现关注的区域。上述区域可以为长方形框所围成的区域。上述视线关注区域信息可以包括但不限于顶点坐标组。上述顶点坐标组可以为用户的实现关注的区域的四个顶点对应的各个坐标。
步骤104,根据手势识别结果信息和视线关注区域信息,确定用户行为类型信息。
在一些实施例中,上述执行主体可以根据上述手势识别结果信息和上述视线关注区域信息,确定用户行为类型信息。其中,上述用户行为类型信息可以表征用户的行为是否有拍照需求。实践中,上述执行主体可以通过各种方式根据上述手势识别结果信息和上述视线关注区域信息,确定用户行为类型信息。
在一些实施例的一些可选的实现方式中,上述执行主体可以响应于确定上述手势识别结果信息满足预设手势条件,且上述视线关注区域信息满足预设视线条件,将预设用户拍照类型确定为用户行为类型信息。其中,上述预设手势条件可以为手势识别结果信息表征用户的手势识别成功。上述预设视线条件可以为上述视线关注区域信息对应的区域中包含摄像装置包括的用于采集用户人脸图像的摄像头所在的区域。上述预设用户拍照类型可以为预先设定的表征用户有拍照需求的类型。
步骤105,响应于确定用户行为类型信息满足预设行为条件,控制摄像装置采集用户人脸图像和用户人脸静脉图像,以及将用户人脸图像和用户人脸静脉图像存储至人脸图像数据库。
在一些实施例中,上述执行主体可以响应于确定上述用户行为类型信息满足预设行为条件,控制上述摄像装置采集用户人脸图像和用户人脸静脉图像,以及将上述用户人脸图像和上述用户人脸静脉图像存储至人脸图像数据库。其中,上述预设行为条件可以为用户行为类型信息表征用户有拍照需求。上述摄像装置还可以包括红外相机。上述红外相机可以用于采集用户人脸静脉图像。上述用户人脸静脉图像可以为用户的人脸静脉的图像。上述摄像装置还可以包括可见光相机。上述可见光相机可以用于采集用户人脸图像。上述用户人脸图像可以为可见光下采集的用户的人脸的图像。上述人脸图像数据库可以为用于存储用户人脸图像和用户人脸静脉图像的数据库。
可选地,上述执行主体还可以执行以下步骤:
第一步,对用户人脸图像和用户人脸静脉图像执行以下检测步骤:
第一检测步骤,对用户人脸图像和用户人脸静脉图像进行图像融合处理,得到融合人脸图像。实践中,上述执行主体可以通过各种方式对用户人脸图像和用户人脸静脉图像进行图像融合处理,得到融合人脸图像。
第二检测步骤,对上述融合人脸图像进行图像质量检测处理,得到图像质量分数信息。实践中,上述执行主体可以通过各种方式对上述融合人脸图像进行图像质量检测处理,得到图像质量分数信息。
在一些实施例的一些可选的实现方式中,上述执行主体可以通过以下步骤对上述融合人脸图像进行图像质量检测处理,得到图像质量分数信息:
步骤一,对上述融合人脸图像进行五官检测,得到五官区域信息集。其中,上述五官区域信息集中的五官区域信息可以为检测得到的对应五官的区域。上述五官区域信息集中的五官区域信息可以包括但不限于五官区域面积和五官标识。上述五官区域面积可以为检测得到的对应五官的区域的矩形框的面积。上述五官标识可以为对应五官的标识。上述五官标识可以为但不限于以下中的一项:左耳、右耳、左眼、右眼、鼻、口。实践中,上述执行主体可以通过预先训练的五官检测模型对上述融合人脸图像进行五官检测,得到五官区域信息集。其中,上述五官检测模型可以为以融合人脸图像为输入,以五官区域信息集为输出的神经网络。上述神经网络可以为卷积神经网络。
步骤二,对于上述五官区域信息集包括的每个五官区域信息,执行以下子步骤:
第一子步骤,将对应上述五官区域信息的五官标识确定为目标五官标识。
第二子步骤,将对应上述目标五官标识的预设五官区域面积确定为目标五官区域面积。其中,上述预设五官区域面积可以为预先设定的对应五官标识的五官区域的面积。
第三子步骤,根据上述五官区域信息包括的五官区域面积和上述目标五官区域面积,生成区域分数信息。实践中,首先,上述执行主体可以将上述五官区域信息包括的五官区域面积与上述目标五官区域面积的比值确定为面积占比信息。然后,将上述面积占比信息与预设分数的乘积确定为区域分数信息。其中,上述预设分数可以为预先设定的分数。例如,上述预设分数可以为100。
步骤三,根据所生成的各个区域分数信息和对应上述五官区域信息集中的各个五官标识的预设五官权重值集,生成图像质量分数信息。其中,上述预设五官权重值集中的预设五官权重值与上述各个五官标识中的五官标识可以一一对应。上述预设五官权重值集中的预设五官权重值可以为预先设定的对应五官标识所占的权重。实践中,首先,对于上述各个五官标识中的每个五官标识,上述执行主体可以将所生成的各个区域分数信息中对应上述五官标识的区域分数信息与预设五官权重值集中对应上述五官标识的预设五官权重值的乘积确定为五官质量分数。然后,将所确定的各个五官质量分数的和确定为图像质量分数信息。
第二步,响应于确定上述图像质量分数信息满足预设分数条件,对上述融合人脸图像进行特征提取处理,得到融合图像特征信息。其中,上述预设分数条件可以为图像质量分数信息大于等于预设分数。上述预设分数可以为预先设定的表征图像质量符合要求的分数。实践中,上述执行主体可以响应于确定上述图像质量分数信息满足预设分数条件,通过预设人脸图像特征提取算法对上述融合人脸图像进行特征提取处理,得到融合图像特征信息。其中,上述预设人脸图像特征提取算法可以为基于神经网络的特征提取算法。
第三步,根据上述融合图像特征信息,生成图像识别结果信息。其中,上述图像识别结果信息可以表征用户的身份验证是否通过。实践中,首先,对预设融合人脸图像集中的每个预设融合人脸图像,执行以下步骤:
第一子步骤,对上述预设融合人脸图像进行特征提取处理,得到参考融合图像特征信息。其中,上述预设融合人脸图像可以为预先设定的融合人脸图像。实践中,上述执行主体可以通过上述预设人脸图像特征提取算法对上述预设融合人脸图像进行特征提取处理,得到参考融合图像特征信息。
第二子步骤,根据上述融合图像特征信息和上述参考融合图像特征信息,生成特征相似度信息。实践中,上述执行主体可以将上述融合图像特征信息和上述参考融合图像特征信息的相似度确定为特征相似度信息。其中,上述相似度可以为余弦相似度。
然后,响应于确定所生成的各个特征相似度信息满足预设相似度条件,将预设匹配成功信息确定为图像识别结果信息。其中,上述预设相似度条件可以为所生成的各个特征相似度信息中存在大于预设相似度的特征相似度信息。上述预设相似度可以为预先设定的表征图像匹配成功的相似度。上述预设匹配成功信息可以为预先设定的表征预设融合人脸图像与融合人脸图像匹配成功的信息。例如,上述预设匹配成功信息可以为“验证成功”。
可选地,上述执行主体还可以响应于确定所生成的各个特征相似度信息未满足上述预设相似度条件,将预设匹配失败信息确定为图像识别结果信息。上述预设匹配失败信息可以为预先设定的表征预设融合人脸图像与融合人脸图像匹配失败的信息。例如,上述预设匹配成功信息可以为“验证失败”。
第四步,响应于确定上述图像识别结果信息满足预设识别结果条件,控制与上述监控设备相关联的门锁组件执行开锁操作。其中,上述预设识别结果条件可以为图像识别结果信息表征预设融合人脸图像与融合人脸图像匹配成功。上述门锁组件可以为用于打开和关闭门锁的组件。上述开锁操作可以为开锁的操作。
在一些实施例的一些可选的实现方式中,上述执行主体可以通过以下步骤对用户人脸图像和用户人脸静脉图像进行图像融合处理,得到融合人脸图像:
第一步,对用户人脸图像进行分解处理,得到用户人脸低频子带图像和对应预设层级集合的用户人脸高频子带图像集。其中,上述预设层级集合可以为预先设定的分解的层数对应的各个层级的集合。上述用户人脸低频子带图像可以为用户人脸图像对应低频子带的图像。用户人脸高频子带图像集中的用户人脸高频子带图像可以为用户人脸图像在对应层数的高频子带的图像。实践中,上述执行主体可以通过预设图像多尺度分解算法对用户人脸图像进行对应预设分解层数的分解处理,得到用户人脸低频子带图像和对应预设层级集合的用户人脸高频子带图像集。其中,上述预设分解层数可以为预先设定的分解的层数。上述预设图像多尺度分解算法可以为NSCT(Nonsubsampled Contourlet Transform,非下采样Contourlet变换)算法。
第二步,对用户人脸静脉图像进行分解处理,得到人脸静脉低频子带图像和对应上述预设层级集合的人脸静脉高频子带图像集。其中,上述用户人脸低频子带图像可以为用户人脸静脉图像对应低频子带的图像。用户人脸高频子带图像集中的用户人脸高频子带图像可以为用户人脸静脉图像在对应层数的高频子带的图像。实践中,上述执行主体可以通过上述预设图像多尺度分解算法对用户人脸静脉图像进行分解处理,得到人脸静脉低频子带图像和对应上述预设层级集合的人脸静脉高频子带图像集。
第三步,对用户人脸静脉图像进行显著性检测,得到人脸静脉显著性图像。实践中,上述执行主体可以通过预设显著性检测算法,对用户人脸静脉图像进行显著性检测,得到人脸静脉显著性图像。例如,上述预设显著性检测算法可以为FT(Frequency-tuned)算法。
第四步,对上述人脸静脉显著性图像进行归一化处理,得到人脸静脉归一化图像。
第五步,对上述人脸静脉归一化图像进行对比度拉伸处理,得到人脸静脉拉伸图像。实践中,上述执行主体可以通过预设对比度拉伸函数对上述人脸静脉归一化图像进行对比度拉伸处理,得到人脸静脉拉伸图像。其中,上述预设对比度拉伸函数可以为预先设定的对图像进行对比度拉伸的函数。
第六步,对上述人脸静脉拉伸图像进行归一化处理,得到目标归一化图像。
第七步,根据上述用户人脸低频子带图像、上述人脸静脉低频子带图像和上述目标归一化图像,生成低频子带融合图像。其中,上述低频子带融合图像可以为对应低频子带融合用户人脸图像和人脸静脉图像后的图像。上述用户人脸低频子带图像中的每个像素点可以对应有第一低频子带灰度值。上述第一低频子带灰度值可以为上述用户人脸低频子带图像中对应像素点的灰度值。上述人脸静脉低频子带图像中的每个像素点对应有第二低频子带灰度值。上述第二低频子带灰度值可以为上述人脸静脉低频子带图像中对应像素点的灰度值。实践中,首先,对上述人脸静脉低频子带图像包括的每个像素点,上述执行主体执行以下子步骤:
第一子步骤,将上述目标归一化图像中对应上述像素点的图像像素点的灰度值确定为上述像素点的静脉权重值。其中,上述静脉权重值可以为人脸静脉低频子带图像中对应像素点的第二低频子带灰度值的权重值。上述对应上述像素点的图像像素点可以为目标归一化图像中像素点的位置与上述像素点在人脸静脉低频子带图像中的位置相同的像素点。
第二子步骤,根据上述静脉权重值,生成人脸图像权重值。其中,上述人脸图像权重值可以为用户人脸低频子带图像中对应像素点的第一低频子带灰度值的权重值。实践中,上述执行主体可以将预设总权重值与上述静脉权重值的差确定为人脸图像权重值。上述预设总权重值可以为预先设定的静脉权重值与人脸图像权重值的和。例如,上述预设总权重值可以为1。
第三子步骤,将上述用户人脸低频子带图像中对应上述像素点的像素点确定为人脸图像像素点。
第四子步骤,将对应上述像素点的第一低频子带灰度值与上述静脉权重值的积确定为第一灰度值。
第五子步骤,将对应上述人脸图像像素点的第二低频子带灰度值与上述人脸图像权重值的积确定为第二灰度值。
第六子步骤,将上述第一灰度值与上述第二灰度值的和确定为低频子带图像灰度值。
然后,将所确定的各个低频子带图像灰度值对应的子带图像确定为低频子带融合图像。
第八步,根据上述用户人脸高频子带图像集和上述人脸静脉高频子带图像集,生成高频子带融合图像集。其中,上述高频子带融合图像集中的高频子带融合图像可以为在高频子带对应层级融合用户人脸图像和人脸静脉图像后的图像。上述用户人脸高频子带图像集包括的用户人脸高频子带图像中的每个像素点可以对应有第一高频子带灰度值。上述第一高频子带灰度值可以为用户人脸高频子带图像中的对应像素点的灰度值。上述人脸静脉高频子带图像集包括的人脸静脉高频子带图像中的每个像素点对应有第二高频子带灰度值。实践中,首先,对上述用户人脸高频子带图像集包括的每个用户人脸高频子带图像,上述执行主体可以执行以下子步骤:
第一子步骤,将上述人脸静脉高频子带图像集中对应上述用户人脸高频子带图像的人脸静脉高频子带图像确定为目标人脸静脉高频子带图像。
第二子步骤,对上述用户人脸高频子带图像中的每个像素点,执行以下步骤:
步骤一,将上述目标人脸静脉高频子带图像中对应上述像素点的静脉图像像素点确定为目标像素点。其中,上述静脉图像像素点可以为目标人脸静脉高频子带图像中像素点的位置与上述像素点在用户人脸高频子带图像中的位置相同的像素点。
步骤二,根据上述像素点对应的第一高频子带灰度值和上述目标像素点对应的第二高频子带灰度值,确定高频子带灰度值。实践中,上述执行主体可以响应于确定上述像素点对应的第一高频子带灰度值的绝对值大于等于上述目标像素点对应的第二高频子带灰度值的绝对值,将上述像素点对应的第一高频子带灰度值确定为高频子带灰度值。响应于确定上述像素点对应的第一高频子带灰度值的绝对值小于上述目标像素点对应的第二高频子带灰度值的绝对值,将上述目标像素点对应的第二高频子带灰度值确定为高频子带灰度值。
第三子步骤,将所确定的各个高频子带灰度值对应的子带图像确定为高频子带融合图像。
然后,将所确定的各个高频子带融合图像确定为高频子带融合图像集。
第九步,根据上述低频子带融合图像和上述高频子带融合图像集,生成融合人脸图像。实践中,上述执行主体可以通过上述预设图像多尺度分解算法的逆变换,对上述低频子带融合图像和上述高频子带融合图像集进行图像变换处理,得到融合人脸图像。上述预设图像多尺度分解算法的逆变换可以为NSCT逆变换。
可选地,上述执行主体还可以执行以下步骤:
第一步,响应于确定上述图像质量分数信息未满足上述预设分数条件,根据上述五官区域信息集包括的各个五官标识和预设五官标识集,生成待识别五官标识集。其中,上述预设五官标识集可以对应预先设定的人脸的各个五官。上述预设五官标识集中的预设五官标识可以为预先设定的五官标识。上述待识别五官标识集可以为未检测到的各个五官标识。实践中,上述执行主体可以响应于确定上述图像质量分数信息未满足上述预设分数条件,将预设五官标识集中与上述各个五官标识相同的各个预设五官标识删除,得到删除后的预设五官标识集作为待识别五官标识集。
第二步,将上述待识别五官标识集输入预设待识别区域信息生成模型,待识别区域方位信息。其中,上述预设待识别区域信息生成模型可以为以上述待识别五官标识集为输入,以待识别区域方位信息为输出的分类模型。上述待识别区域方位信息可以为待采集的人脸区域相对于摄像装置的方位。例如,上述待识别区域方位信息可以为但不限于以下中的一项:脸部左上方,脸部右下方,鼻子正下方。作为示例,上述预设待识别区域信息生成模型可以将待识别五官标识集与预设待识别区域方位信息关系表中多组待识别五官标识集依次进行比较。上述预设待识别区域方位信息关系表可以为基于大量的待识别五官标识集进行分析而创建的。每组待识别五官标识集对应有预设待识别区域方位信息。上述预设待识别区域方位信息可以为预先设定的待识别区域方位信息。若上述预设待识别区域方位信息关系表中的任意一组待识别五官标识集与该待识别五官标识集的相似度小于预先设定的阈值,则可以将上述任意一组待识别五官标识集对应的预设待识别区域方位信息确定为对应该待识别五官标识集的待识别区域方位信息。
第三步,将上述待识别区域方位信息输入预先训练的调整角度信息生成模型,得到调整角度信息。其中,上述调整角度信息生成模型可以为以待识别区域方位信息为输入,以调整角度信息为输出的神经网络。上述神经网络可以为BP(Back-propagation,反向传播)神经网络。上述调整角度信息可以为上述摄像装置需要调整的角度的信息。上述调整角度信息可以包括但不限于调整方向和调整角度。上述调整方向可以为摄像装置需要调整的方向。上述调整方向可以为但不限于以下中的一项:上、下、左、右。上述调整角度可以为摄像装置需要在对应的调整方向上调整的角度。
第四步,根据上述调整角度信息,控制上述摄像装置执行角度调整操作。其中,上述角度调整操作可以为调整摄像装置的角度的操作。实践中,上述执行主体可以控制上述摄像装置在上述调整角度信息包括的调整方向上调整上述调整角度信息包括的调整角度。
第五步,控制调整后的摄像装置采集用户人脸图像和用户人脸静脉图像分别作为二次用户人脸图像和二次用户人脸静脉图像。
第六步,将上述二次用户人脸图像作为用户人脸图像,以及将上述二次用户人脸静脉图像作为用户人脸静脉图像执行上述检测步骤。
上述技术方案及其相关内容作为本公开的实施例的一个发明点,解决了背景技术提及的技术问题二“通过同一角度采集用户人脸图像用于人脸识别,当用户的人脸所处的位置采集到的用户人脸图像的图像质量较低时,用户根据个人感觉和经验调整位置,从而导致调整后位置的准确性较低,造成摄像装置重复采集的次数较多,进而导致摄像装置采集用户人脸图像时耗费的功耗较大”。导致摄像装置采集用户人脸图像时耗费的功耗较大的因素往往如下:通过同一角度采集用户人脸图像用于人脸识别,当用户的人脸所处的位置采集到的用户人脸图像的图像质量较低时,用户无法确定图像质量较低的原因,在调整位置时仅根据经验调整位置,从而导致用户调整后的准确性较低,造成摄像装置重复采集的次数较多,进而导致摄像装置采集用户人脸图像时耗费的功耗较大。如果解决了上述因素,就能达到减少摄像装置采集用户人脸图像时耗费的功耗的效果。为了达到这一效果,本公开的一些实施例的摄像装置控制方法,应用于监控设备,首先,响应于确定上述图像质量分数信息未满足上述预设分数条件,根据上述五官区域信息集包括的各个五官标识和预设五官标识集,生成待识别五官标识集。由此,可以得到未采集到的各个五官标识,从而可以用于确定未采集到的人脸区域。其次,将上述待识别五官标识集输入预设待识别区域信息生成模型,待识别区域方位信息。由此,可以得到未采集到的人脸区域的方位,从而可以用于确定摄像装置的调整角度。然后,将上述待识别区域方位信息输入预先训练的调整角度信息生成模型,得到调整角度信息。由此,可以得到摄像装置的调整角度,从而可以用于调整摄像装置的角度。之后,根据上述调整角度信息,控制上述摄像装置执行角度调整操作。由此,可以调整摄像装置的角度,从而可以重新采集图像质量较高的用户人脸图像和用户人脸静脉图像。接着,控制调整后的摄像装置采集用户人脸图像和用户人脸静脉图像分别作为二次用户人脸图像和二次用户人脸静脉图像。由此,可以得到图像质量较高的用户人脸图像和用户人脸静脉图像。最后,将上述二次用户人脸图像作为用户人脸图像,以及将上述二次用户人脸静脉图像作为用户人脸静脉图像执行上述检测步骤。由此,可以对再次采集的图像质量较高的用户人脸图像和用户人脸静脉图像进行识别。也因为当摄像装置首次采集到的用户人脸图像和用户人脸静脉图像的图像质量较低时,通过分析未采集到的人脸区域,确定摄像装置的调整角度,得到准确性较高的调整角度,便于提高二次采集的用户人脸图像和用户人脸静脉图像的图像质量,从而减少了摄像装置重复采集的次数,由此,可以减少摄像装置采集用户人脸图像时耗费的功耗。
可选地,上述执行主体还可以执行以下步骤:
第一步,响应于确定上述用户行为类型信息未满足上述预设行为条件,控制上述摄像装置采集用户图像序列。其中,上述用户图像序列可以为对应预设间隔时长的各个用户图像按照时间先后顺序进行排序的序列。上述预设间隔时长可以为预先设定的连续采集用户图像的时长。例如,上述预设间隔时长可以为2分钟。上述用户图像序列中的用户图像可以为用户全身的图像。
第二步,对于上述用户图像序列中的每个用户图像,将上述用户图像输入预先训练的预估人体骨架信息生成模型,得到预估人体骨架信息序列。其中,上述预估人体骨架信息生成模型可以为用于预测人体姿态,以用户图像为输入,以预估人体骨架信息为输出的神经网络。例如,上述预估人体骨架信息生成模型可以为HRNET(High-Resolution Net,高分辨率网络)模型。预估人体骨架信息可以为预估的表征人体骨架的信息。上述预估人体骨架信息序列中的预估人体骨架信息包括对应预设关节点标识集合的各个关节点坐标。其中,上述预设关节点标识集合中的预设关节点标识可以为预先设定的人体的关节点的标识。上述预设关节点标识集合中的预设关节点标识与上述各个关节点坐标中的关节点坐标一一对应。上述各个关节点坐标中的关节点坐标可以为关节点在用户图像坐标系下的坐标。上述用户图像坐标系可以为以用户图像的左下角为原点,以用户图像的水平方向为x轴方向,以用户图像的竖直方向为y轴方向的平面坐标系。上述预估人体骨架信息序列可以为各个预估人体骨架信息按照对应的各个用户图像在用户图像序列中的顺序进行排序的序列。
第三步,对于上述预设关节点标识集合中的每个预设关节点标识,根据上述预估人体骨架信息序列中对应上述预设关节点标识的各个关节点坐标,生成对应上述预设关节点标识的关节点坐标序列。实践中,上述执行主体可以将上述预估人体骨架信息序列中对应上述预设关节点标识的各个关节点坐标按照对应的各个预估人体骨架信息在预估人体骨架信息序列中的顺序进行排序处理,得到对应上述预设关节点标识的关节点坐标序列。
第四步,将所生成的各个关节点坐标序列输入预先训练的预测人体骨架信息生成模型,得到预测人体骨架信息。其中,上述预测人体骨架信息生成模型可以为以各个关节点坐标序列为输入,以预测人体骨架信息为输出的神经网络。上述预测人体骨架信息生成模型可以为用于处理空间和时间序列数据的神经网络。例如,上述预测人体骨架信息生成模型可以为ST-LSTM(Spatio-Temporal LSTM)模型。上述预测人体骨架信息生成模型与上述预估人体骨架信息生成模型相异。上述预测人体骨架信息可以为预测的人体骨架的信息。预测人体骨架信息可以包括但不限于对应上述预设关节点标识集合的各个预测关节点坐标。上述预设关节点标识集合中的预设关节点标识与各个预测关节点坐标中的预测关节点坐标可以一一对应。上述各个预测关节点坐标中的预测关节点坐标可以为预测的人体的关节点的坐标。
第五步,对上述预测人体骨架信息进行行为分类处理,得到行为类型信息。其中,上述行为类型信息可以为用户的行为类型。上述行为类型可以表征用户的行为是否异常。上述行为类型可以为但不限于以下中的一项:行为正常、行为异常。上述行为异常可以表征用户的行为存在产生不良行为的隐患。实践中,上述执行主体可以将上述预测人体骨架信息输入预先训练的行为类型信息分类模型,得到行为类型信息。上述行为类型信息分类模型可以为以预测人体骨架信息为输入,以行为类型信息为输出的分类模型。上述分类模型可以为支持向量机模型,也可以为卷积神经网络。
第六步,响应于确定上述行为类型信息满足预设类型条件,控制上述监控设备包括的声音播放设备播放预设报警语音信息,以及将预设报警提示信息发送至用户终端。其中,上述预设类型条件可以为行为类型信息表征用户的行为异常。上述预设报警语音信息可以为预先设定的用于报警的语音。上述预设报警提示信息可以为预先设定的用于向负责监控设备的用户进行报警和提示的信息。例如,上述预设报警提示信息可以为“门前用户行为异常”。上述用户终端可以为负责监控设备的用户的终端。
上述技术方案及其相关内容作为本公开的实施例的一个发明点,解决了背景技术提及的技术问题三“当检测到用户到达预定位置时,仅采集用户人脸图像,没有对用户的行为进行分析,当用户在监控区域进行不良行为时,导致监控区域的安全性较低”。导致监控区域的安全性较低的因素往往如下:当检测到用户到达预定位置时,仅采集用户人脸图像,没有对用户的行为进行分析,当用户在监控区域进行不良行为时,导致监控区域的安全性较低。如果解决了上述因素,就能达到提高监控区域的安全性的效果。为了达到这一效果,本公开的一些实施例的摄像装置控制方法,应用于监控设备,首先,响应于确定上述用户行为类型信息未满足上述预设行为条件,控制与上述摄像装置采集用户图像序列。由此,当用户没有拍照需求时,可以得到对应一定间隔时长的用户图像序列,从而可以用于分析用户的行为是否存在异常。其次,对于上述用户图像序列中的每个用户图像,将上述用户图像输入预先训练的预估人体骨架信息生成模型,得到预估人体骨架信息序列。其中,上述预估人体骨架信息序列中的预估人体骨架信息包括对应预设关节点标识集合的各个关节点坐标。由此,可以得到预估人体骨架信息序列,从而可以用于预测用户在未来时刻的人体骨架信息。然后,对于上述预设关节点标识集合中的每个预设关节点标识,根据上述预估人体骨架信息序列中对应上述预设关节点标识的各个关节点坐标,生成对应上述预设关节点标识的关节点坐标序列。由此,可以得到对应各个预设关节点标识的各个关节点坐标序列。之后,将所生成的各个关节点坐标序列输入预先训练的预测人体骨架信息生成模型,得到预测人体骨架信息。由此,可以结合时间和空间提前预测用户未来时刻的各个关节点的坐标,从而可以用于判定用户的行为是否异常。接着,对上述预测人体骨架信息进行行为分类处理,得到行为类型信息。由此,可以确定用户的行为是否存在异常。最后,响应于确定上述行为类型信息满足预设类型条件,控制上述监控设备包括的声音播放设备播放预设报警语音信息,以及将预设报警提示信息发送至用户终端。由此,当检测到用户的行为异常时,监控设备可以进行报警操作以警示行为存在异常的用户,并提示负责监控设备的用户监控区域存在安全隐患,从而可以提高监控区域的安全性。也因为当用户没有拍照需求时,对用户进行了一段时间的监控,并通过的预测人体骨架信息生成模型提前对用户未来时刻的行为姿态进行识别,从而提高了检测用户不良行为的效率,由此,可以提高监控区域的安全性。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的摄像装置控制方法,可以减少存储资源的浪费。具体来说,造成存储资源的浪费的原因在于:当用户到达预定位置但并未有拍照需求时,直接控制摄像装置采集用户人脸图像,导致存储的无效的用户人脸图像较多,造成存储资源的浪费。基于此,本公开的一些实施例的摄像装置控制方法,应用于监控设备,首先,响应于确定检测到的用户位置信息满足预设位置条件,控制上述监控设备包括的摄像装置采集用户人眼图像和用户手势图像。由此,当用户处在指定位置范围内时,可以得到用户的人眼图像和手势图像。其次,对上述用户手势图像进行手势识别处理,得到手势识别结果信息。由此,可以识别得到用户的手势,从而可以用于通过手势判断用户是否需要拍照。然后,对上述用户人眼图像进行视线识别处理,得到视线关注区域信息。由此,可以得到用户视线的关注区域,从而可以用于判定用户是否看着摄像头准备拍照。之后,根据上述手势识别结果信息和上述视线关注区域信息,确定用户行为类型信息。由此,可以通过手势和用户关注的区域判断用户是否存在拍照需求,从而用于控制摄像装置拍照。最后,响应于确定上述用户行为类型信息满足预设行为条件,控制上述摄像装置采集用户人脸图像和用户人脸静脉图像,以及将上述用户人脸图像和上述用户人脸静脉图像存储至人脸图像数据库。其中,上述摄像装置包括红外相机。上述红外相机用于采集用户人脸静脉图像。由此,当判断用户存在拍照需求时,可以控制摄像装置对用户人脸进行拍照,从而可以用于人脸识别。也因为在控制摄像装置对用户人脸进行拍照时,不仅判断了用户所处的位置,而且判断了用户的拍照需求,从而减少了无效的用户人脸图像的存储,由此,可以减少存储资源的浪费。
下面参考图2,其示出了适于用来实现本公开的一些实施例的监控设备200的结构示意图。图2示出的监控设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图2所示,监控设备200可以包括处理装置(例如中央处理器、图形处理器等)201,其可以根据存储在只读存储器(ROM)202中的程序或者从存储装置208加载到随机访问存储器(RAM)203中的程序而执行各种适当的动作和处理。在RAM 203中,还存储有监控设备200操作所需的各种程序和数据。处理装置201、ROM 202以及RAM 203通过总线204彼此相连。输入/输出(I/O)接口205也连接至总线204。
通常,以下装置可以连接至I/O接口205:包括例如触摸屏、触摸板、键盘、摄像装置、麦克风、加速度计、陀螺仪等的输入装置206;包括例如液晶显示器(LCD)、声音播放设备、振动器等的输出装置207;以及通信装置209。通信装置209可以允许监控设备200与其他设备进行无线或有线通信以交换数据。其中,上述摄像装置可以为用于采集图像的装置。上述摄像装置包可以包括红外相机。上述红外相机可以用于采集用户人脸静脉图像。虽然图2示出了具有各种装置的监控设备200,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图2中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置209从网络上被下载和安装,或者从存储装置208被安装,或者从ROM 202被安装。在该计算机程序被处理装置201执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例中记载的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(Hyper Text TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述监控设备中所包含的;也可以是单独存在,而未装配入该监控设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该监控设备执行时,使得该监控设备:响应于确定检测到的用户位置信息满足预设位置条件,控制上述监控设备包括的摄像装置采集用户人眼图像和用户手势图像;对上述用户手势图像进行手势识别处理,得到手势识别结果信息;对上述用户人眼图像进行视线识别处理,得到视线关注区域信息;根据上述手势识别结果信息和上述视线关注区域信息,确定用户行为类型信息;响应于确定上述用户行为类型信息满足预设行为条件,控制上述摄像装置采集用户人脸图像和用户人脸静脉图像,以及将上述用户人脸图像和上述用户人脸静脉图像存储至人脸图像数据库,其中,上述摄像装置包括红外相机,上述红外相机用于采集用户人脸静脉图像。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (8)
1.一种摄像装置控制方法,应用于监控设备,包括:
响应于确定检测到的用户位置信息满足预设位置条件,控制所述监控设备包括的摄像装置采集用户人眼图像和用户手势图像;
对所述用户手势图像进行手势识别处理,得到手势识别结果信息;
对所述用户人眼图像进行视线识别处理,得到视线关注区域信息;
根据所述手势识别结果信息和所述视线关注区域信息,确定用户行为类型信息;
响应于确定所述用户行为类型信息满足预设行为条件,控制所述摄像装置采集用户人脸图像和用户人脸静脉图像,以及将所述用户人脸图像和所述用户人脸静脉图像存储至人脸图像数据库,其中,所述摄像装置包括红外相机,所述红外相机用于采集用户人脸静脉图像。
2.根据权利要求1所述的方法,其中,所述对所述用户手势图像进行手势识别处理,得到手势识别结果信息,包括:
对所述用户手势图像进行图像分割处理,得到分割手势图像;
对所述分割手势图像进行手部轮廓检测处理,得到手部轮廓图像;
对所述手部轮廓图像进行膨胀处理,得到膨胀手部轮廓图像;
对所述膨胀手部轮廓图像进行分类处理,得到手势识别结果信息。
3.根据权利要求1所述的方法,其中,所述根据所述手势识别结果信息和所述视线关注区域信息,确定用户行为类型信息,包括:
响应于确定所述手势识别结果信息满足预设手势条件,且所述视线关注区域信息满足预设视线条件,将预设用户拍照类型确定为用户行为类型信息。
4.根据权利要求1所述的方法,其中,所述方法还包括:
对用户人脸图像和用户人脸静脉图像执行以下检测步骤:
对用户人脸图像和用户人脸静脉图像进行图像融合处理,得到融合人脸图像;
对所述融合人脸图像进行图像质量检测处理,得到图像质量分数信息;
响应于确定所述图像质量分数信息满足预设分数条件,对所述融合人脸图像进行特征提取处理,得到融合图像特征信息;
根据所述融合图像特征信息,生成图像识别结果信息;
响应于确定所述图像识别结果信息满足预设识别结果条件,控制与所述监控设备相关联的门锁组件执行开锁操作。
5.根据权利要求4所述的方法,其中,所述对用户人脸图像和用户人脸静脉图像进行图像融合处理,得到融合人脸图像,包括:
对用户人脸图像进行分解处理,得到用户人脸低频子带图像和对应预设层级集合的用户人脸高频子带图像集;
对用户人脸静脉图像进行分解处理,得到人脸静脉低频子带图像和对应所述预设层级集合的人脸静脉高频子带图像集;
对用户人脸静脉图像进行显著性检测,得到人脸静脉显著性图像;
对所述人脸静脉显著性图像进行归一化处理,得到人脸静脉归一化图像;
对所述人脸静脉归一化图像进行对比度拉伸处理,得到人脸静脉拉伸图像;
对所述人脸静脉拉伸图像进行归一化处理,得到目标归一化图像;
根据所述用户人脸低频子带图像、所述人脸静脉低频子带图像和所述目标归一化图像,生成低频子带融合图像;
根据所述用户人脸高频子带图像集和所述人脸静脉高频子带图像集,生成高频子带融合图像集;
根据所述低频子带融合图像和所述高频子带融合图像集,生成融合人脸图像。
6.根据权利要求4所述的方法,其中,所述对所述融合人脸图像进行图像质量检测处理,得到图像质量分数信息,包括:
对所述融合人脸图像进行五官检测,得到五官区域信息集,其中,所述五官区域信息集中的五官区域信息包括五官区域面积和五官标识;
对于所述五官区域信息集包括的每个五官区域信息,执行以下步骤:
将对应所述五官区域信息的五官标识确定为目标五官标识;
将对应所述目标五官标识的预设五官区域面积确定为目标五官区域面积;
根据所述五官区域信息包括的五官区域面积和所述目标五官区域面积,生成区域分数信息;
根据所生成的各个区域分数信息和对应所述五官区域信息集中的各个五官标识的预设五官权重值集,生成图像质量分数信息。
7.一种监控设备,包括:
一个或多个处理器;
摄像装置,用于采集图像,其中,所述摄像装置包括红外相机,所述红外相机用于采集用户人脸静脉图像;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
8.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-6中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311147729.7A CN116884078B (zh) | 2023-09-07 | 2023-09-07 | 摄像装置控制方法、监控设备和计算机可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311147729.7A CN116884078B (zh) | 2023-09-07 | 2023-09-07 | 摄像装置控制方法、监控设备和计算机可读介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116884078A true CN116884078A (zh) | 2023-10-13 |
CN116884078B CN116884078B (zh) | 2023-11-24 |
Family
ID=88262549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311147729.7A Active CN116884078B (zh) | 2023-09-07 | 2023-09-07 | 摄像装置控制方法、监控设备和计算机可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116884078B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101901350A (zh) * | 2010-07-23 | 2010-12-01 | 北京航空航天大学 | 一种基于特征向量的静态手势识别方法 |
CN104851166A (zh) * | 2015-05-08 | 2015-08-19 | 邹骁 | 一种门禁系统、方法及相关设备 |
CN208722285U (zh) * | 2018-09-30 | 2019-04-09 | 南京成君电子科技有限公司 | 一种基于脸静脉传感器的门禁安防系统 |
CN114445919A (zh) * | 2021-12-01 | 2022-05-06 | 浙江大华技术股份有限公司 | 一种人脸识别方法、系统、电子设备以及存储介质 |
WO2022116282A1 (zh) * | 2020-12-04 | 2022-06-09 | 郑州中业科技股份有限公司 | 基于动态手势识别的人机交互方法及系统 |
CN116311650A (zh) * | 2023-03-21 | 2023-06-23 | 宁波工程学院 | 基于智能门禁的视线跟踪与手势识别的人机交互方法 |
CN116524628A (zh) * | 2023-05-09 | 2023-08-01 | 浙江德施曼科技智能股份有限公司 | 一种智能门锁和开锁方法 |
-
2023
- 2023-09-07 CN CN202311147729.7A patent/CN116884078B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101901350A (zh) * | 2010-07-23 | 2010-12-01 | 北京航空航天大学 | 一种基于特征向量的静态手势识别方法 |
CN104851166A (zh) * | 2015-05-08 | 2015-08-19 | 邹骁 | 一种门禁系统、方法及相关设备 |
CN208722285U (zh) * | 2018-09-30 | 2019-04-09 | 南京成君电子科技有限公司 | 一种基于脸静脉传感器的门禁安防系统 |
WO2022116282A1 (zh) * | 2020-12-04 | 2022-06-09 | 郑州中业科技股份有限公司 | 基于动态手势识别的人机交互方法及系统 |
CN114445919A (zh) * | 2021-12-01 | 2022-05-06 | 浙江大华技术股份有限公司 | 一种人脸识别方法、系统、电子设备以及存储介质 |
CN116311650A (zh) * | 2023-03-21 | 2023-06-23 | 宁波工程学院 | 基于智能门禁的视线跟踪与手势识别的人机交互方法 |
CN116524628A (zh) * | 2023-05-09 | 2023-08-01 | 浙江德施曼科技智能股份有限公司 | 一种智能门锁和开锁方法 |
Non-Patent Citations (2)
Title |
---|
肖志勇;秦华标;: "基于视线跟踪和手势识别的人机交互", 计算机工程, no. 15 * |
辜丽宇;刘沥文;叶圣昕;罗干;黄成嵩;: "基于人脸和手势混合识别的门禁研究", 科技创新导报, no. 18 * |
Also Published As
Publication number | Publication date |
---|---|
CN116884078B (zh) | 2023-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109902659B (zh) | 用于处理人体图像的方法和装置 | |
US20210133468A1 (en) | Action Recognition Method, Electronic Device, and Storage Medium | |
CN111914812B (zh) | 图像处理模型训练方法、装置、设备及存储介质 | |
CN112036331B (zh) | 活体检测模型的训练方法、装置、设备及存储介质 | |
CN111461089A (zh) | 一种人脸检测的方法、人脸检测模型的训练方法及装置 | |
CN111079576A (zh) | 活体检测方法、装置、设备及存储介质 | |
CN111325699B (zh) | 图像修复方法和图像修复模型的训练方法 | |
CN111368811B (zh) | 活体检测方法、装置、设备及存储介质 | |
CN109670444B (zh) | 姿态检测模型的生成、姿态检测方法、装置、设备及介质 | |
CN111274928A (zh) | 一种活体检测方法、装置、电子设备和存储介质 | |
US11087140B2 (en) | Information generating method and apparatus applied to terminal device | |
CN109766755A (zh) | 人脸识别方法及相关产品 | |
CN107832721B (zh) | 用于输出信息的方法和装置 | |
CN111444826A (zh) | 视频检测方法、装置、存储介质及计算机设备 | |
CN111652087A (zh) | 验车方法、装置、电子设备和存储介质 | |
CN108470131B (zh) | 用于生成提示信息的方法和装置 | |
CN111062248A (zh) | 图像检测的方法、装置、电子设备及介质 | |
CN108241855B (zh) | 图像生成方法和装置 | |
CN114359225A (zh) | 图像检测方法、装置、计算机设备及存储介质 | |
CN111783677B (zh) | 人脸识别方法、装置、服务器和计算机可读介质 | |
CN111310595B (zh) | 用于生成信息的方法和装置 | |
CN113850109A (zh) | 一种基于注意力机制和自然语言处理的视频图像告警方法 | |
CN116884078B (zh) | 摄像装置控制方法、监控设备和计算机可读介质 | |
CN115830668A (zh) | 基于面部识别的用户认证方法、装置、计算设备和介质 | |
CN114882576A (zh) | 人脸识别方法、电子设备、计算机可读介质和程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |