CN113792827A - 目标对象识别方法、电子设备和计算机可读存储介质 - Google Patents
目标对象识别方法、电子设备和计算机可读存储介质 Download PDFInfo
- Publication number
- CN113792827A CN113792827A CN202111365537.4A CN202111365537A CN113792827A CN 113792827 A CN113792827 A CN 113792827A CN 202111365537 A CN202111365537 A CN 202111365537A CN 113792827 A CN113792827 A CN 113792827A
- Authority
- CN
- China
- Prior art keywords
- image
- pixel points
- pixel
- type
- pixel point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000007637 random forest analysis Methods 0.000 claims abstract description 42
- 238000001559 infrared map Methods 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 10
- 238000012360 testing method Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 abstract description 4
- 239000011159 matrix material Substances 0.000 description 14
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000003066 decision tree Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000011084 recovery Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 108010047303 von Willebrand Factor Proteins 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例涉及图像处理技术领域,公开了一种目标对象识别方法、电子设备和计算机可读存储介质,该方法包括:获取第一图像;其中,第一图像包括同一帧的第一彩色图、第一红外图和第一深度图;对第一彩色图、第一红外图和第一深度图进行像素对齐,得到像素对齐的第一图像;将像素对齐的第一图像输入至预训练的随机森林模型,获得随机森林模型输出的第一图像中第一类像素点的数量;计算第一类像素点的数量与第一图像的像素点总数的比值,若比值大于第一预设阈值,则将第一图像输入至预设的识别网络,进行目标对象识别,可以剔除图像中遮挡区域、阴影区域对目标对象识别的影响,大幅降低目标对象识别的误识别率,从而提升用户的使用体验。
Description
技术领域
本申请实施例涉及图像处理技术领域,特别涉及一种目标对象识别方法、电子设备和计算机可读存储介质。
背景技术
随着图像处理技术以及光学摄像技术的发展,包括人脸识别技术在内的目标对象识别技术逐渐应用到各个领域中,比如在门禁、电子产品的开机、移动支付等需要身份验证识别的场景,都可以通过人脸识别技术进行身份验证,其在安防监控等领域也得到了广泛应用,可以理解的是,目标识别是否准确,对用户的使用体验来说是非常重要的,误识别率,即目标对象识别发生错误的概率,是目标对象识别的一个重要指标,误识别率可以衡量一个目标对象识别系统的性能,而在支付、门禁、电子产品开机的场景下,用户对误识别的可容忍程度是非常低的,零误识别率是目标对象识别技术的终极追求。
然而,本申请的发明人发现,在进行目标对象识别时,相机采集到的图像中很可能因拍摄环境等因素,存在遮挡区域、阴影区域等问题,这些区域的存在会改变目标对象的光学特征信息,使得目标对象区域发生形变或者颜色失真,使用这样的图像进行目标对象识别是不准确、不合理的,增大了目标对象识别的误识别率,给用户带来了不好的使用体验。
发明内容
本申请实施例的目的在于提供一种目标对象识别方法、电子设备和计算机可读存储介质,可以剔除图像中遮挡区域、阴影区域对目标对象识别的影响,大幅降低目标对象识别的误识别率,从而提升用户的使用体验。
为解决上述技术问题,本申请的实施例提供了一种目标对象识别方法,包括以下步骤:获取第一图像;其中,所述第一图像包括同一帧的第一彩色图、第一红外图和第一深度图;对所述第一彩色图、所述第一红外图和所述第一深度图进行像素对齐,得到像素对齐的第一图像;将所述像素对齐的第一图像输入至预训练的随机森林模型,获得所述随机森林模型输出的所述第一图像中第一类像素点的数量;其中,所述随机森林模型用于判断像素点为第一类像素点或第二类像素点,所述第一类像素点为非遮挡、阴影区域的像素点,所述第二类像素点为遮挡、阴影区域的像素点;计算所述第一类像素点的数量与所述第一图像的像素点总数的比值,若所述比值大于第一预设阈值,则将所述第一图像输入至预设的识别网络,进行目标对象识别。
本申请的实施例还提供了一种电子设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述目标对象识别方法。
本申请的实施例还提供了一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现上述目标对象识别方法。
本申请实施例提供的目标对象识别方法、电子设备和计算机可读存储介质,服务器先获取包括同一帧的第一彩色图、第一红外图和第一深度图在内的第一图像,再对同一帧的第一彩色图、第一红外图和第一深度图进行像素对齐,得到像素对齐的第一图像,将像素对齐的第一图像输入至预训练的随机森林模型,获得随机森林模型输出的第一图像中第一类像素点的数量,预训练的随机森林模型用于判断一个像素点是第一类像素点还是第二类像素点,第一类像素点为非遮挡、阴影区域的像素点,第二类像素点为遮挡、阴影区域的像素点,若第一类像素点的数量与第一图像的像素点总数的比值大于第一预设阈值,则将第一图像输入至预设的识别网络,进行目标对象识别,考虑到相机采集到的图像中很可能因拍摄环境等因素,存在遮挡区域、阴影区域等区域,这些区域的存在会改变目标对象的光学特征信息,使得目标对象区域发生形变或者颜色失真,不利于目标对象识别,而本申请的实施例通过使用预先训练的随机森林模型进行判断的方式,确定图像中遮挡区域、阴影区域,并剔除图像中遮挡区域、阴影区域对目标对象识别的影响,大幅降低目标对象识别的误识别率,从而提升用户的使用体验。
另外,所述预训练的随机森林模型基于包括像素对齐的同一帧的第二彩色图、第二红外图和第二深度图的第二图像,通过以下步骤训练:根据所述第二彩色图的颜色空间特性,确定所述第二彩色图中的第一类像素点和第二类像素点;根据所述第二红外图中各像素点的灰度值,确定所述第二红外图中的第一类像素点和第二类像素点;根据所述第二深度图中各像素点的深度值,确定所述第二深度图中的第一类像素点和第二类像素点;根据所述第二彩色图中的第一类像素点、所述第二红外图中的第一类像素点和所述第二深度图中的第一类像素点,确定所述第二图像的第一类像素点,并根据所述第二彩色图中的第二类像素点、所述第二红外图中的第二类像素点和所述第二深度图中的第二类像素点,确定所述第二图像的第二类像素点;基于所述第二图像的第一类像素点和所述第二图像的第二类像素点生成样本集和测试集,对预设的随机森林模型进行训练,以彩色图的颜色空间特性,红外图中各像素点的灰度值,深度图中各像素点的深度值为种子训练随机森林模型,可以快速、准确、合理地使随机森林模型获得区分第一类像素点和第二类像素点的能力,即快速地使随机森林模型获得区分图像中遮挡、阴影区域和非遮挡、阴影区域的能力。
另外,所述第二彩色图为RGB空间图像,所述根据所述第二彩色图的颜色空间特性,确定所述第二彩色图中的第一类像素点和第二类像素点,包括:获取所述RGB空间图像中的B分量图像和R分量图像;对所述RGB空间图像进行颜色空间转换,获得HIS空间图像,并获取HIS空间图像中的I分量图像;遍历所述第二彩色图的像素点,计算所述第二彩色图的像素点在B分量图像中的像素值与在R分量图像中的像素值的差值;若所述差值的绝对值大于第二预设阈值,且所述第二彩色图的像素点在I分量图像中的亮度值小于第三预设阈值,则确定所述第二彩色图的像素点为所述第二彩色图中的第二类像素点;若所述差值的绝对值不大于所述第二预设阈值,或所述第二彩色图的像素点在I分量图像中的亮度值不小于所述第三预设阈值,则确定所述第二彩色图的像素点为所述第二彩色图中的第一类像素点,考虑到漫反射系数与波长成正比,在遮挡、阴影区域中,像素点的像素值在R分量受影响最大,在B分量受影响最少,而在I分量上,遮挡、阴影区域的亮度明显比非遮挡、阴影区域的亮度低,因此通过确定像素点在B分量图像中的像素值与在R分量图像中的像素值的差值是否大于第二预设阈值,以及像素点在I分量图像中的亮度值是否小于第三预设阈值的方式,可以准确地确定出第二彩色图中的第一类像素点和第二类像素点。
另外,所述根据所述第二红外图中各像素点的灰度值,确定所述第二红外图中的第一类像素点和第二类像素点,包括:计算所述第二红外图的灰度值均值和灰度值标准差;根据所述灰度值均值和所述灰度值标准差,确定灰度值范围;遍历所述第二红外图的像素点,若所述第二红外图的像素点的灰度值位于所述灰度值范围之内,则确定所述第二红外图的像素点为所述第二红外图中的第一类像素点;若所述第二红外图的像素点的灰度值位于所述灰度值范围之外,则确定所述第二红外图的像素点为所述第二红外图中的第二类像素点,在红外图中,遮挡、阴影区域的灰度值可能特别高或特别低,因此根据红外图的灰度值均值和灰度值标准差,确定灰度值范围,再判断像素点的灰度值是否在灰度值范围内,可以准确地确定出第二红外中的第一类像素点和第二类像素点。
另外,所述根据所述第二深度图中各像素点的深度值,确定所述第二深度图中的第一类像素点和第二类像素点,包括:遍历所述第二深度图的像素点,判断所述第二深度图的像素点的深度值是否大于第四预设阈值;若所述第二深度图的像素点的深度值大于第四预设阈值,则确定所述第二深度图的像素点为所述第二深度图中的第一类像素点;若所述第二深度图的像素点的深度值小于或等于第四预设阈值,则确定所述第二深度图的像素点为所述第二深度图中的第二类像素点,在进行深度恢复时,遮挡、阴影区域很可能会恢复失败,导致深度值为0或很小,因此通过判断像素点的深度值是否大于第四预设阈值,可以准确地确定出第二深度图中的第一类像素点和第二类像素点。
另外,所述目标对象包括人脸,所述目标对象识别包括人脸识别,在所述获取第一图像之后,所述对所述第一彩色图、所述第一红外图和所述第一深度图进行像素对齐之前,包括:对所述第一图像进行人脸区域检测,确定所述第一图像的人脸区域;其中,所述第一图像的人脸区域包括所述第一彩色图的人脸区域、所述第一红外图的人脸区域和所述第一深度图的人脸区域;所述对所述第一彩色图、所述第一红外图和所述第一深度图进行像素对齐,包括:
对所述第一彩色图的人脸区域、所述第一红外图的人脸区域和所述第一深度图的人脸区域进行像素对齐,当目标对象为人脸时,先进行人脸区域检测,从而舍弃掉背景区域,减少不必要的计算,可以提升人脸识别的效率,进一步提升用户的使用体验。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定。
图1是根据本申请的一个实施例的目标对象识别方法的流程图;
图2是根据本申请的一个实施例中,对随机森林模型进行训练的流程图;
图3是根据本申请的一个实施例中,根据第二彩色图的颜色空间特性,确定第二彩色图中的第一类像素点和第二类像素点的流程图;
图4是根据本申请的一个实施例中,根据第二红外图中各像素点的灰度值,确定第二红外图中的第一类像素点和第二类像素点的流程图;
图5是根据本申请的一个实施例中,根据第二深度图中各像素点的深度值,确定第二深度图中的第一类像素点和第二类像素点的流程图;
图6是根据本申请的一个实施例中,对第一彩色图、第一红外图和第一深度图进行像素对齐的流程图;
图7是根据本申请的另一个实施例的电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请的各实施例进行详细的阐述。然而,本领域的普通技术人员可以理解,在本申请各实施例中,为了使读者更好地理解本申请而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施例的种种变化和修改,也可以实现本申请所要求保护的技术方案。以下各个实施例的划分是为了描述方便,不应对本申请的具体实现方式构成任何限定,各个实施例在不矛盾的前提下可以相互结合相互引用。
为了方便理解本发明的实施例,首先在此介绍本申请实施例描述中引入的“随机森林模型”的相关内容。
随机森林算法(Random Forest,简称:RF)由美国人布莱曼于2001年提出,该算法是由许多决策树组成的一个“森林”,将每棵决策树的结果进行投票得到一个客观数据的最佳分类结果。大量理论和实验证明随机森林有很高的预测准确率,对数据的噪声和缺失都有很好的容忍度,能防止过拟合现象。随机森林主要有以下优点:学习速度快;可以处理大量的输入变量;当数据量大的时候,能产生高精确度的分类器;评估变量重要性;在数据集缺失严重的情况下仍能维持很高精度等。
构成“随机森林”的每个决策树都是一个树状分类模型(如:二叉树),由节点和有向边组成,决策树的节点包含根节点、中间节点和叶子节点三类,决策树的根节点只有一个,是全体训练样本的集合,每一个中间节点代表一个特征属性测试,根据特征属性为到达该节点的数据选择输出分支,不同分支表示该特征的不同值域输出,每个叶子节点存放带有分类标签的测试子集或训练子集,决策树分类的过程就是从根节点出发,通过中间节点为待分类数据选择输出分支,直到到达叶子节点,决策树的算法有很多,一般使用自顶向下递归的贪婪算法,每个中间节点选择最佳分类属性来分裂该节点,直到所有训练数据都被准确分类或达到预定义标准。
本申请的一个实施例涉及一种目标对象识别方法,应用于电子设备,其中,电子设备可以为终端或服务器,本实施例以及以下个各个实施例中电子设备以服务器为例进行说明,下面对本实施例的目标对象识别方法的实现细节进行具体的说明,以下内容仅为方便理解提供的实现细节,并非实施本方案的必须。
本实施例的目标对象识别方法的具体流程可以如图1所示,包括:
步骤101,获取第一图像,第一图像包括同一帧的第一彩色图、第一红外图和第一深度图。
在具体实现中,服务器在进行目标对象识别时,先获取待识别图像,即第一图像,比如结构光相机实时采集的图像,结构光相机实时采集的图像是多帧图像,服务器选取其中同一帧对应的第一彩色图、第一红外图和第一深度图,同一帧对应的第一彩色图、第一红外图和第一深度图是时序对齐的,可以保证第一彩色图、第一红外图和第一深度图的基本内容一致,保证第一彩色图、第一红外图和第一深度图受到的影响基本相同。
在一个例子中,目标对象为人脸,即服务器要进行的目标对象识别为人脸识别,服务器在获取到第一图像之后,可以对第一图像进行人脸区域检测,确定出第一图像的人脸区域,包括第一彩色图的人脸区域、第一红外图的人脸区域和第一深度图的人脸区域,当目标对象为人脸时,先进行人脸区域检测,从而舍弃掉背景区域,可以减少不必要的计算,提升人脸识别的效率,进一步提升用户的使用体验。
步骤102,对第一彩色图、第一红外图和第一深度图进行像素对齐,得到像素对齐的第一图像。
在具体实现中,服务器可以以第一彩色图、第一红外图和第一深度图中的任意一张图为基准,根据预设的像素对齐算法,对其他两张图的像素点进行变换,得到像素对齐的第一彩色图、第一红外图和第一深度图,即像素对齐的第一图像,像素对齐后的第一彩色图、第一红外图和第一深度图分辨率一致,相同区域、相同像素点的内容基本相同。
在一个例子中,服务器可以以第一红外图为基准对第一彩色图、第一红外图和第一深度图进行像素对齐,考虑到第一图像中的第一深度图是基于第一红外图得到的,第一深度图与第一红外图是自然对齐的,因此以第一红外图为基准对第一彩色图、第一红外图和第一深度图进行像素对齐,只需对第一彩色图的各像素点进行相应变换即可,可以减少像素对齐过程的计算量,从而提升目标对象识别的效率。
在一个例子中,目标对象为人脸,即服务器要进行的目标对象识别为人脸识别,服务器在获取到第一图像之后,可以对第一图像进行人脸区域检测,确定出第一图像的人脸区域,包括第一彩色图的人脸区域、第一红外图的人脸区域和第一深度图的人脸区域,服务器只需对第一彩色图的人脸区域、第一红外图的人脸区域和第一深度图的人脸区域进行像素对齐即可。
步骤103,将像素对齐的第一图像输入至预训练的随机森林模型,获得随机森林模型输出的
第一图像中第一类像素点的数量。
具体而言,预训练的随机森林模型用于判断像素点为第一类像素点或第二类像素点,第一类像素点即非遮挡、阴影区域的像素点,第二类像素点即遮挡、阴影区域的像素点。
在具体实现中,服务器内部的存储器中存储有预训练的随机森林模型,服务器在得到像素对齐的第一图像后,可以调用预存的预训练的随机森林模型,将像素对齐的第一图像,即像素对齐的第一彩色图、第一红外图和第一深度图作为模型的输入,输入至预训练的随机森林模型,获取随机森林模型输出的第一类像素点的数量。
步骤104,计算第一类像素点的数量与第一图像的像素点总数的比值,若第一类像素点的数量与第一图像的像素点总数的比值大于第一预设阈值,则将第一图像输入至预设的识别网络,进行目标对象识别。
在具体实现中,服务器在获取随机森林模型输出的第一类像素点的数量后,可以计算第一类像素点的数量与第一图像的像素点总数的比值,并判断该比值是否大于第一预设阈值,若该比值大于第一预设阈值,说明第一图像受遮挡、阴影区域的影响较小,可以进行目标对象识别,服务器随即将该第一图像输入至预设的识别网络,进行目标对象识别;若该比值小于或等于第一预设阈值,说明第一图像受遮挡、阴影区域的影响很大,第一图像质量不佳,不适合进行目标对象识别,服务器忽略该图像,其中,第一预设阈值和预设的识别网络均可以由本领域的技术人员根据实际需要进行设置,本申请的实施例对此不作具体限定。
在一个例子中,服务器确定第一类像素点的数量与第一图像的像素点总数的比值大于第一预设阈值后,可以将第一图像中的第一彩色图、第一红外图和第一深度图中的任意一张,任意两张或全部三张输入至预设的识别网络,进行目标对象识别。
在一个例子中,服务器确定第一类像素点的数量与第一图像的像素点总数的比值小于或等于第一预设阈值后,可以发出提示,重新获取第一图像,如提示相机重新采集图像等。
本实施例,服务器先获取包括同一帧的第一彩色图、第一红外图和第一深度图在内的第一图像,再对同一帧的第一彩色图、第一红外图和第一深度图进行像素对齐,得到像素对齐的第一图像,将像素对齐的第一图像输入至预训练的随机森林模型,获得随机森林模型输出的第一图像中第一类像素点的数量,预训练的随机森林模型用于判断一个像素点是第一类像素点还是第二类像素点,第一类像素点为非遮挡、阴影区域的像素点,第二类像素点为遮挡、阴影区域的像素点,若第一类像素点的数量与第一图像的像素点总数的比值大于第一预设阈值,则将第一图像输入至预设的识别网络,进行目标对象识别,考虑到相机采集到的图像中很可能因拍摄环境等因素,存在遮挡区域、阴影区域等区域,这些区域的存在会改变目标对象的光学特征信息,使得目标对象区域发生形变或者颜色失真,不利于目标对象识别,而本申请的实施例通过使用预先训练的随机森林模型进行判断的方式,确定图像中遮挡区域、阴影区域,并剔除图像中遮挡区域、阴影区域对目标对象识别的影响,大幅降低目标对象识别的误识别率,从而提升用户的使用体验。
在一个实施例中,预训练的随机森林模型基于包括像素对齐的同一帧的第二彩色图、第二红外图和第二深度图的第二图像,通过如图2所示的各步骤进行训练,具体包括:
步骤201,根据第二彩色图的颜色空间特性,确定第二彩色图中的第一类像素点和第二类像素点。
在具体实现中,阴影、遮挡区域的存在会导致图像发生颜色失真,包括亮度的影响等,这些统称为彩色图的颜色空间特性,即阴影、遮挡区域的存在会导致彩色图的颜色空间特性发生变化,服务器可以根据第二彩色图的颜色空间特性,确定第二彩色图中的第一类像素点和第二类像素点。
在一个例子中,第二彩色图为HIS空间图像,H通道为色调,I通道为亮度,S通道为饱和度,服务器可以抽取HIS空间图像中的I分量图像,根据I分量图像中各像素点的亮度值,确定第二彩色图中的第一类像素点和第二类像素点。
步骤202,根据第二红外图中各像素点的灰度值,确定第二红外图中的第一类像素点和第二类像素点。
在具体实现中,阴影、遮挡区域的存在会导致红外图的部分区域灰度值过低或过高,即暗斑区域和亮斑区域,因此,服务器可以根据第二红外图中各像素点的灰度值,确定第二红外图中的第一类像素点和第二类像素点。
步骤203,根据第二深度图中各像素点的深度值,确定第二深度图中的第一类像素点和第二类像素点。
在具体实现中,阴影、遮挡区域的存在会导致深度图的部分区域深度恢复失败,即深度值异常,因此服务器可以根据第二深度图中各像素点的深度值,确定第二深度图中的第一类像素点和第二类像素点。
步骤204,根据第二彩色图中的第一类像素点、第二红外图中的第一类像素点和第二深度图中的第一类像素点,确定第二图像的第一类像素点,并根据第二彩色图中的第二类像素点、第二红外图中的第二类像素点和第二深度图中的第二类像素点,确定第二图像的第二类像素点。
在一个例子中,服务器可以遍历第二图像的各像素点,依次将第二图像的各像素点作为目标像素点,若目标像素点在第二彩色图、第二红外图和第二深度图中对应的像素点均为第一类像素点,则确定目标像素点为第二图像的第一类像素点,若目标像素点在第二彩色图、第二红外图和第二深度图中对应的像素点至少有一个为第二类像素点,则确定目标像素点为第二图像的第二类像素点。
步骤205,基于第二图像的第一类像素点和第二图像的第二类像素点生成样本集和测试集,对预设的随机森林模型进行训练。
本实施例,所述预训练的随机森林模型基于包括像素对齐的同一帧的第二彩色图、第二红外图和第二深度图的第二图像,通过以下步骤训练:根据所述第二彩色图的颜色空间特性,确定所述第二彩色图中的第一类像素点和第二类像素点;根据所述第二红外图中各像素点的灰度值,确定所述第二红外图中的第一类像素点和第二类像素点;根据所述第二深度图中各像素点的深度值,确定所述第二深度图中的第一类像素点和第二类像素点;根据所述第二彩色图中的第一类像素点、所述第二红外图中的第一类像素点和所述第二深度图中的第一类像素点,确定所述第二图像的第一类像素点,并根据所述第二彩色图中的第二类像素点、所述第二红外图中的第二类像素点和所述第二深度图中的第二类像素点,确定所述第二图像的第二类像素点;基于所述第二图像的第一类像素点和所述第二图像的第二类像素点生成样本集和测试集,对预设的随机森林模型进行训练,以彩色图的颜色空间特性,红外图中各像素点的灰度值,深度图中各像素点的深度值为种子训练随机森林模型,可以快速、准确、合理地使随机森林模型获得区分第一类像素点和第二类像素点的能力,即快速地使随机森林模型获得区分图像中遮挡、阴影区域和非遮挡、阴影区域的能力。
在一个实施例中,第二彩色图为RGB空间图像,服务器根据第二彩色图的颜色空间特性,确定第二彩色图中的第一类像素点和第二类像素点,可以通过如图3所示的各步骤实现,具体包括:
步骤301,获取RGB空间图像中的B分量图像和R分量图像。
具体而言,RGB空间图像中,R通道表示红色,G通道表示绿色,B通道表示蓝色,服务器可以从RGB空间图像中抽取得到B分量图像和R分量图像。
步骤302,对RGB空间图像进行颜色空间转换,获得HIS空间图像,并获取HIS空间图像中的I分量图像。
具体而言,服务器无法在RGB空间图像中直接获取I分量图像,服务器相对RGB空间图像进行颜色空间转换,转换成HIS空间图像,再从HIS空间图像中抽取I分量图像。
步骤303,遍历第二彩色图的像素点,计算第二彩色图的像素点在B分量图像中的像素值与在R分量图像中的像素值的差值。
步骤304,判断该差值是否大于第二预设阈值,如果是,执行步骤305,否则,执行步骤306。
在具体实现中,服务器获取RGB空间图像中的B分量图像和R分量图像后,可以遍历第二彩色图的像素点,计算第二彩色图的像素点在B分量图像中的像素值与在R分量图像中的像素值的差值,并判断该差值是否大于第二预设阈值,若该差值大于第二预设阈值,则服务器继续下一步判断,若该差值小于或等于第二预设阈值,说明受遮挡、阴影区域的影响不大,直接确定该像素点为第二彩色图的第一类像素点,其中,第二预设阈值可以由本领域的技术人员根据实际需要进行设置,本申请的实施例对此不做具体限定。
可以理解的是,根据冯氏光照模型,物体表面的亮度由环境光、漫反射光和镜面反射光构成,具体公式如下:
式中,I为物体表面的亮度,Ia为环境光强度,Id为光源强度,Ka为环境反射系数,Kd为漫反射系数,Ks为镜面反射系数,θ为入射光与物体表面法线之间的夹角,α为镜面反射光与视线之间的夹角,n为高光系数。
在遮挡、阴影区域中,直射光即光源被挡,,物体表面的亮度变为:,即光强差为:,由于Kd与光线波长成正比,在RGB空间中,R通道波长最长,B通道波长最短,也就是说,在遮挡、阴影区域中,R分量图像光强度损伤损失最大,B分量图像光强度损失最小。
步骤305,判断像素点在I分量图像中的亮度值是否小于第三预设阈值,如果是,执行步骤307,否则,执行步骤306。
步骤306,确定该像素点为第二彩色图中的第一类像素点。
步骤307,确定该像素点为第二彩色图中的第二类像素点。
在具体实现中,服务器在确定像素点在B分量图像中的像素值与在R分量图像中的像素值的差值大于第二预设阈值后,可以继续判断该像素点在I分量图像中的亮度值是否小于第三预设阈值,若该像素点在I分量图像中的亮度值小于第三预设阈值,说明该像素点位于遮挡、阴影区域,服务器确定该像素点为第二彩色图中的第二类像素点,若该像素点在I分量图像中的亮度值大于或等于第三预设阈值,说明该像素点没有位于遮挡、阴影区域,服务器确定该像素点为第二彩色图中的第一类像素点,其中,第三预设阈值可以由本领域的技术人员根据实际需要进行设置,本申请的实施例对此不做具体限定,考虑到漫反射系数与波长成正比,在遮挡、阴影区域中,像素点的像素值在R分量受影响最大,在B分量受影响最少,而在I分量上,遮挡、阴影区域的亮度明显比非遮挡、阴影区域的亮度低,因此通过确定像素点在B分量图像中的像素值与在R分量图像中的像素值的差值是否大于第二预设阈值,以及像素点在I分量图像中的亮度值是否小于第三预设阈值的方式,可以准确地确定出第二彩色图中的第一类像素点和第二类像素点。
在一个例子中,服务器可以创建一个与第二图像大小相同的第一矩阵,将在B分量图像中的像素值与在R分量图像中的像素值的差值大于第二预设阈值,且在I分量图像中的亮度值小于第三预设阈值像素点,在第一矩阵中的位置赋值为1,并将其他情况的像素点在第一矩阵中的位置赋值为0。
在一个实施例中,服务器根据第二红外图中各像素点的灰度值,确定红外图中的第一类像素点和第二类像素点,可以通过如图4所示的各步骤实现,具体包括:
步骤401,计算第二红外图的灰度值均值和灰度值标准差。
具体而言,服务器可以根据第二红外图中各像素点的灰度值,计算出第二红外图的灰度值均值μ和灰度值标准差δ。
步骤402,根据灰度值均值和灰度值标准差,确定灰度值范围。
在一个例子中,服务器确定的灰度值范围为(μ-δ,μ+δ)。
在一个例子中,服务器确定的灰度值范围为(μ-2δ,μ+2δ)。
在一个例子中,服务器确定的灰度值范围为(μ-3δ,μ+3δ)。
步骤403,遍历第二红外图的像素点,判断当前像素点的灰度值是否位于灰度值范围之内,如果是,执行步骤404,否则,执行步骤405。
步骤404,确定该像素点为第二红外图中的第一类像素点。
步骤405,确定该像素点为第二红外图中的第二类像素点。
具体而言,服务器确定出灰度值范围后,可以遍历第二红外图的像素点,判断当前像素点的灰度值是否位于灰度值范围之内,若当前像素点的灰度值位于灰度值范围之内,则可以确定该像素点为第二红外图中的第一类像素点,若当前像素点的灰度值位于灰度值范围之内,则可以确定该像素点为第二红外图中的第二类像素点。
在具体实现中,在红外图中,遮挡、阴影区域的灰度值可能特别高或特别低,因此根据第二红外图的灰度值均值和灰度值标准差,确定灰度值范围,再判断像素点的灰度值是否在灰度值范围内,可以准确地确定出第二红外中的第一类像素点和第二类像素点。
在一个例子中,服务器可以创建一个与第二图像大小相同的第二矩阵,将灰度值位于灰度值范围之内的像素点在第二矩阵中的位置赋值为0,并将灰度值位于灰度值范围之外的像素点在第二矩阵中的位置赋值为1。
在一个实施例中,服务器根据第二深度图中各像素点的深度值,确定第二深度图中的第一类像素点和第二类像素点,可以通过如图5所示的各步骤实现,具体包括:
步骤501,遍历第二深度图的像素点,判断当前像素点的深度值是否大于第四预设阈值,如果是,执行步骤502,否则,执行步骤503。
步骤502,确定该像素点为第二深度图中的第一类像素点。
步骤503,确定该像素点为第二深度图中的第二类像素点。
具体而言,服务器在根据第二深度图中各像素点的深度值,确定第二深度图中的第一类像素点和第二类像素点时,可以遍历第二深度图的各像素点,判断当前像素点的深度值是否大于第四预设阈值,若当前像素点的深度值大于第四预设阈值,服务器确定该像素点为第二深度图中的第一类像素点;若当前像素点的深度值小于或等于第四预设阈值,服务器则确定该像素点为第二深度图中的第二类像素点,其中,第四预设阈值可以有本领域的技术人员根据实际需要进行设置。
在一个例子中,第四预设阈值为0,即服务器可以将第二深度图中深度值大于0的像素点作为第二深度图的第一类像素点,将第二深度图中深度值等于0的像素点作为第二深度图的第二类像素点。
在一个例子中,服务器可以创建一个与第二图像大小相同的第三矩阵,将深度值大于0的像素点在第三矩阵中的位置赋值为0,并将深度值等于0的像素点在第三矩阵中的位置赋值为1。
在具体实现中,在进行深度恢复,即生成深度图时,遮挡、阴影区域很可能会恢复失败,导致该区域深度值为0或很小,因此通过判断像素点的深度值是否大于第四预设阈值,可以准确地确定出第二深度图中的第一类像素点和第二类像素点。
在一个实施例中,服务器根据第二彩色图中的第一类像素点、第二红外图中的第一类像素点和第二深度图中的第一类像素点,确定第二图像的第一类像素点,并根据第二彩色图中的第二类像素点、第二红外图中的第二类像素点和第二深度图中的第二类像素点,确定第二图像的第二类像素点时,可以遍历第二图像的各像素点,若当前像素点在第二彩色图、第二红外图和第二深度图中对应的像素点均为第一类像素点,则服务器可以确定该像素点为第二图像的第一类像素点,若当前像素点在第二彩色图、第二红外图和第二深度图中对应的像素点均为第二类像素点,则服务器可以确定该像素点为所述样本图像的第二类像素点。
在一个例子中,服务器可以通过如下公式,基于第一矩阵、第二矩阵和第三矩阵,确定第二图像的第一类像素点和第二类像素点:
式中,P1为第二图像的第一类像素点,P2为第二图像的第二类像素点,Pa(i,j)=0为第二彩色图中的第一类像素点,Pa(i,j)=1为第二彩色图中的第二类像素点,Pb(i,j)=0为第二红外图中的第一类像素点,Pb(i,j)=1为第二红外图中的第二类像素点,Pc(i,j)=0为第二深度图中的第一类像素点,Pc(i,j)=1为第二深度图中的第二类像素点。
在一个实施例中,服务器对第一彩色图、第一红外图和第一深度图进行像素对齐,可以通过如图6所示的故步骤实现,具体包括:
步骤601,遍历第一红外图的像素点,根据当前像素点的坐标、该像素点在第一深度图中对应的深度值和预设的对齐公式,确定第一红外图的像素点与第一彩色图的像素点的对应关系。
步骤602,根据对应关系,对第一彩色图的像素点进行赋值,得到与第一红外图像素对齐的第一彩色图。
在具体实现中,考虑到第一深度图和第一红外图是自然对齐的,服务器可以遍历第一红外图的像素点,根据当前像素点的坐标、该像素点在第一深度图中对应的像素值和预设的对齐公式,确定第一红外图的像素点与第一彩色图的像素点的对应关系,并根据该对应关系,对第一彩色图的像素点进行赋值,得到与第一红外图像素对齐的第一彩色图,即完成了第一彩色图、第一红外图和第一深度图三张图的像素对齐。
在一个例子中,预设的对齐公式如下:
展开简化可得:
式中,UR为第一彩色图的行,VR为第一彩色图的列,UL为第一红外图的行,VL为第一红外图的列,ZL为第一红外图的像素点在第一深度图中对应的深度值,r11至r44均为根据相机内外参数、旋转矩阵和平移矩阵确定的预设参数。
上面各种方法的步骤划分,只是为了描述清楚,实现时可以合并为一个步骤或者对某些步骤进行拆分,分解为多个步骤,只要包括相同的逻辑关系,都在本专利的保护范围内;对算法中或者流程中添加无关紧要的修改或者引入无关紧要的设计,但不改变其算法和流程的核心设计都在该专利的保护范围内。
本申请另一个实施例涉及一种电子设备,如图7所示,包括:至少一个处理器701;以及,与所述至少一个处理器701通信连接的存储器702;其中,所述存储器702存储有可被所述至少一个处理器701执行的指令,所述指令被所述至少一个处理器701执行,以使所述至少一个处理器701能够执行上述各实施例中的目标对象识别方法。
其中,存储器和处理器采用总线方式连接,总线可以包括任意数量的互联的总线和桥,总线将一个或多个处理器和存储器的各种电路连接在一起。总线还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路连接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口在总线和收发机之间提供接口。收发机可以是一个元件,也可以是多个元件,比如多个接收器和发送器,提供用于在传输介质上与各种其他装置通信的单元。经处理器处理的数据通过天线在无线介质上进行传输,进一步,天线还接收数据并将数据传送给处理器。
处理器负责管理总线和通常的处理,还可以提供各种功能,包括定时,外围接口,电压调节、电源管理以及其他控制功能。而存储器可以被用于存储处理器在执行操作时所使用的数据。
本申请另一个实施例涉及一种计算机可读存储介质,存储有计算机程序。计算机程序被处理器执行时实现上述方法实施例。
即,本领域技术人员可以理解,实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,简称:ROM)、随机存取存储器(Random Access Memory,简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域的普通技术人员可以理解,上述各实施例是实现本申请的具体实施例,而在实际应用中,可以在形式上和细节上对其作各种改变,而不偏离本申请的精神和范围。
Claims (10)
1.一种目标对象识别方法,其特征在于,包括:
获取第一图像;其中,所述第一图像包括同一帧的第一彩色图、第一红外图和第一深度图;
对所述第一彩色图、所述第一红外图和所述第一深度图进行像素对齐,得到像素对齐的第一图像;
将所述像素对齐的第一图像输入至预训练的随机森林模型,获得所述随机森林模型输出的所述第一图像中第一类像素点的数量;其中,所述随机森林模型用于判断像素点为第一类像素点或第二类像素点,所述第一类像素点为非遮挡、阴影区域的像素点,所述第二类像素点为遮挡、阴影区域的像素点;
计算所述第一类像素点的数量与所述第一图像的像素点总数的比值,若所述比值大于第一预设阈值,则将所述第一图像输入至预设的识别网络,进行目标对象识别。
2.根据权利要求1所述的目标对象识别方法,其特征在于,所述预训练的随机森林模型基于包括像素对齐的同一帧的第二彩色图、第二红外图和第二深度图的第二图像,通过以下步骤训练:
根据所述第二彩色图的颜色空间特性,确定所述第二彩色图中的第一类像素点和第二类像素点;
根据所述第二红外图中各像素点的灰度值,确定所述第二红外图中的第一类像素点和第二类像素点;
根据所述第二深度图中各像素点的深度值,确定所述第二深度图中的第一类像素点和第二类像素点;
根据所述第二彩色图中的第一类像素点、所述第二红外图中的第一类像素点和所述第二深度图中的第一类像素点,确定所述第二图像的第一类像素点,并根据所述第二彩色图中的第二类像素点、所述第二红外图中的第二类像素点和所述第二深度图中的第二类像素点,确定所述第二图像的第二类像素点;
基于所述第二图像的第一类像素点和所述第二图像的第二类像素点生成样本集和测试集,对预设的随机森林模型进行训练。
3.根据权利要求2中所述的目标对象识别方法,其特征在于,所述第二彩色图为RGB空间图像,所述根据所述第二彩色图的颜色空间特性,确定所述第二彩色图中的第一类像素点和第二类像素点,包括:
获取所述RGB空间图像中的B分量图像和R分量图像;
对所述RGB空间图像进行颜色空间转换,获得HIS空间图像,并获取HIS空间图像中的I分量图像;
遍历所述第二彩色图的像素点,计算所述第二彩色图的像素点在B分量图像中的像素值与在R分量图像中的像素值的差值;
若所述差值的绝对值大于第二预设阈值,且所述第二彩色图的像素点在I分量图像中的亮度值小于第三预设阈值,则确定所述第二彩色图的像素点为所述第二彩色图中的第二类像素点;
若所述差值的绝对值不大于所述第二预设阈值,或所述第二彩色图的像素点在I分量图像中的亮度值不小于所述第三预设阈值,则确定所述第二彩色图的像素点为所述第二彩色图中的第一类像素点。
4.根据权利要求2所述的目标对象识别方法,其特征在于,所述根据所述第二红外图中各像素点的灰度值,确定所述第二红外图中的第一类像素点和第二类像素点,包括:
计算所述第二红外图的灰度值均值和灰度值标准差;
根据所述灰度值均值和所述灰度值标准差,确定灰度值范围;
遍历所述第二红外图的像素点,若所述第二红外图的像素点的灰度值位于所述灰度值范围之内,则确定所述第二红外图的像素点为所述第二红外图中的第一类像素点;
若所述第二红外图的像素点的灰度值位于所述灰度值范围之外,则确定所述第二红外图的像素点为所述第二红外图中的第二类像素点。
5.根据权利要求2所述的目标对象识别方法,其特征在于,所述根据所述第二深度图中各像素点的深度值,确定所述第二深度图中的第一类像素点和第二类像素点,包括:
遍历所述第二深度图的像素点,判断所述第二深度图的像素点的深度值是否大于第四预设阈值;
若所述第二深度图的像素点的深度值大于第四预设阈值,则确定所述第二深度图的像素点为所述第二深度图中的第一类像素点;
若所述第二深度图的像素点的深度值小于或等于第四预设阈值,则确定所述第二深度图的像素点为所述第二深度图中的第二类像素点。
6.根据权利要求2至权利要求5中任一项所述的目标对象识别方法,其特征在于,所述根据所述第二彩色图中的第一类像素点、所述第二红外图中的第一类像素点和所述第二深度图中的第一类像素点,确定所述第二图像的第一类像素点,并根据所述第二彩色图中的第二类像素点、所述第二红外图中的第二类像素点和所述第二深度图中的第二类像素点,确定所述第二图像的第二类像素点,包括:
遍历所述第二图像的像素点,若所述第二图像的像素点在所述第二彩色图、所述第二红外图和所述第二深度图中均为第一类像素点,则确定所述第二图像的像素点为所述第二图像的第一类像素点;
若所述第二图像的像素点在所述第二彩色图、所述第二红外图和所述第二深度图中均为第二类像素点,则确定所述第二图像的像素点为所述第二图像的第二类像素点。
7.根据权利要求1所述的目标对象识别方法,其特征在于,所述对所述第一彩色图、所述第一红外图和所述第一深度图进行像素对齐,包括:
遍历所述第一红外图的像素点,根据所述第一红外图的像素点的坐标、所述第一红外图的像素点在所述深度图中对应的深度值和预设的对齐公式,确定所述第一红外图的像素点与所述第一彩色图的像素点的对应关系;
根据所述对应关系,对所述第一彩色图的像素点进行赋值,得到与所述第一红外图像素对齐的第一彩色图。
8.根据权利要求1至权利要求5中任一项所述的目标对象识别方法,其特征在于,所述目标对象包括人脸,所述目标对象识别包括人脸识别,在所述获取第一图像之后,所述对所述第一彩色图、所述第一红外图和所述第一深度图进行像素对齐之前,包括:
对所述第一图像进行人脸区域检测,确定所述第一图像的人脸区域;其中,所述第一图像的人脸区域包括所述第一彩色图的人脸区域、所述第一红外图的人脸区域和所述第一深度图的人脸区域;
所述对所述第一彩色图、所述第一红外图和所述第一深度图进行像素对齐,包括:
对所述第一彩色图的人脸区域、所述第一红外图的人脸区域和所述第一深度图的人脸区域进行像素对齐。
9.一种电子设备,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至权利要求8中任一所述的目标对象识别方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至权利要求8中任一项所述的目标对象识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111365537.4A CN113792827B (zh) | 2021-11-18 | 2021-11-18 | 目标对象识别方法、电子设备和计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111365537.4A CN113792827B (zh) | 2021-11-18 | 2021-11-18 | 目标对象识别方法、电子设备和计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113792827A true CN113792827A (zh) | 2021-12-14 |
CN113792827B CN113792827B (zh) | 2022-03-25 |
Family
ID=78877384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111365537.4A Active CN113792827B (zh) | 2021-11-18 | 2021-11-18 | 目标对象识别方法、电子设备和计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113792827B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114255185A (zh) * | 2021-12-16 | 2022-03-29 | 武汉高德智感科技有限公司 | 一种图像处理的方法、装置、终端及存储介质 |
CN114677264A (zh) * | 2022-03-18 | 2022-06-28 | 合肥的卢深视科技有限公司 | 图像对齐方法、系统、电子设备及存储介质 |
CN115546536A (zh) * | 2022-09-22 | 2022-12-30 | 南京森林警察学院 | 一种象牙制品识别方法及系统 |
CN117593341A (zh) * | 2024-01-19 | 2024-02-23 | 深圳市超诺科技有限公司 | 一种基于打猎相机目标物监控数据的处理系统及方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103473571A (zh) * | 2013-09-12 | 2013-12-25 | 天津大学 | 一种人体检测方法 |
CN108551552A (zh) * | 2018-05-14 | 2018-09-18 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及移动终端 |
CN109934112A (zh) * | 2019-02-14 | 2019-06-25 | 青岛小鸟看看科技有限公司 | 一种人脸对齐方法和相机 |
CN111652242A (zh) * | 2020-04-20 | 2020-09-11 | 北京迈格威科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
WO2020181685A1 (zh) * | 2019-03-12 | 2020-09-17 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
CN112258507A (zh) * | 2020-11-20 | 2021-01-22 | 财拓云计算(上海)有限公司 | 互联网数据中心的目标对象检测方法、装置和电子设备 |
WO2021136979A1 (en) * | 2019-12-30 | 2021-07-08 | Sensetime International Pte. Ltd. | Image processing method and apparatus, electronic device, and storage medium |
-
2021
- 2021-11-18 CN CN202111365537.4A patent/CN113792827B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103473571A (zh) * | 2013-09-12 | 2013-12-25 | 天津大学 | 一种人体检测方法 |
CN108551552A (zh) * | 2018-05-14 | 2018-09-18 | Oppo广东移动通信有限公司 | 图像处理方法、装置、存储介质及移动终端 |
CN109934112A (zh) * | 2019-02-14 | 2019-06-25 | 青岛小鸟看看科技有限公司 | 一种人脸对齐方法和相机 |
WO2020181685A1 (zh) * | 2019-03-12 | 2020-09-17 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
WO2021136979A1 (en) * | 2019-12-30 | 2021-07-08 | Sensetime International Pte. Ltd. | Image processing method and apparatus, electronic device, and storage medium |
CN111652242A (zh) * | 2020-04-20 | 2020-09-11 | 北京迈格威科技有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN112258507A (zh) * | 2020-11-20 | 2021-01-22 | 财拓云计算(上海)有限公司 | 互联网数据中心的目标对象检测方法、装置和电子设备 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114255185A (zh) * | 2021-12-16 | 2022-03-29 | 武汉高德智感科技有限公司 | 一种图像处理的方法、装置、终端及存储介质 |
CN114255185B (zh) * | 2021-12-16 | 2022-11-25 | 武汉高德智感科技有限公司 | 一种图像处理的方法、装置、终端及存储介质 |
CN114677264A (zh) * | 2022-03-18 | 2022-06-28 | 合肥的卢深视科技有限公司 | 图像对齐方法、系统、电子设备及存储介质 |
CN115546536A (zh) * | 2022-09-22 | 2022-12-30 | 南京森林警察学院 | 一种象牙制品识别方法及系统 |
CN117593341A (zh) * | 2024-01-19 | 2024-02-23 | 深圳市超诺科技有限公司 | 一种基于打猎相机目标物监控数据的处理系统及方法 |
CN117593341B (zh) * | 2024-01-19 | 2024-05-07 | 深圳市超诺科技有限公司 | 一种基于打猎相机目标物监控数据的处理系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113792827B (zh) | 2022-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113792827B (zh) | 目标对象识别方法、电子设备和计算机可读存储介质 | |
CN109614996B (zh) | 基于生成对抗网络的弱可见光与红外图像融合的识别方法 | |
WO2020078229A1 (zh) | 目标对象的识别方法和装置、存储介质、电子装置 | |
Ajmal et al. | A comparison of RGB and HSV colour spaces for visual attention models | |
US7224735B2 (en) | Adaptive background image updating | |
US9460521B2 (en) | Digital image analysis | |
WO2023155324A1 (zh) | 图像融合方法、装置及设备、存储介质 | |
CN105103187A (zh) | 用于阴影检测和减弱的多光谱成像系统 | |
CN109472193A (zh) | 人脸检测方法及装置 | |
AU2015201623A1 (en) | Choosing optimal images with preference distributions | |
US20230059499A1 (en) | Image processing system, image processing method, and non-transitory computer readable medium | |
CN112115979B (zh) | 一种红外图像和可见图像的融合方法及设备 | |
CN114331946B (zh) | 一种图像数据处理方法、设备以及介质 | |
KR20120069539A (ko) | 광원 추정 장치 및 광원 추정 방법 | |
CN111738964A (zh) | 一种基于建模的图像数据增强的方法 | |
CN110309715B (zh) | 基于深度学习的灯具识别的室内定位方法、装置及系统 | |
CN114187515A (zh) | 图像分割方法和图像分割装置 | |
CN113450297A (zh) | 红外图像和可见光图像的融合模型构建方法及系统 | |
CN106960188B (zh) | 天气图像分类方法及装置 | |
CN117649694A (zh) | 一种基于图像增强的人脸检测方法、系统及装置 | |
US11113537B2 (en) | Image detection using multiple detection processes | |
Yang et al. | Improved single-illumination estimation accuracy via redefining the illuminant-invariant descriptor and the grey pixels | |
Dehesa‐González et al. | Lighting source classification applied in color images to contrast enhancement | |
CN114820707A (zh) | 一种用于摄像头目标自动追踪的计算方法 | |
CN113793291A (zh) | 一种图像融合方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230411 Address after: 230091 room 611-217, R & D center building, China (Hefei) international intelligent voice Industrial Park, 3333 Xiyou Road, high tech Zone, Hefei, Anhui Province Patentee after: Hefei lushenshi Technology Co.,Ltd. Address before: 100083 room 3032, North B, bungalow, building 2, A5 Xueyuan Road, Haidian District, Beijing Patentee before: BEIJING DILUSENSE TECHNOLOGY CO.,LTD. Patentee before: Hefei lushenshi Technology Co.,Ltd. |