CN109800679A - 一种确定待识别对象的属性信息的方法及装置 - Google Patents
一种确定待识别对象的属性信息的方法及装置 Download PDFInfo
- Publication number
- CN109800679A CN109800679A CN201811643460.0A CN201811643460A CN109800679A CN 109800679 A CN109800679 A CN 109800679A CN 201811643460 A CN201811643460 A CN 201811643460A CN 109800679 A CN109800679 A CN 109800679A
- Authority
- CN
- China
- Prior art keywords
- identification
- attribute
- image
- identified
- image information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Image Processing (AREA)
Abstract
本发明实施例提供一种确定待识别对象的属性信息的方法及装置,涉及视频处理技术领域,方法包括:获取待识别对象的识别图像信息;针对任一识别图像信息的任一个待识别对象的待检测的属性类别,在待识别对象的识别图像信息划分M个识别区域,且M个识别区域的大小不同,M个识别区域对应一种属性类别,M大于等于2;将M个识别区域输入至对应的属性识别模型,得到识别图像信息的识别区域对应的属性类别的属性值;根据至少一个识别图像信息的各属性类别的属性值,确定待识别对象的各属性类别的属性值。通过设置不同尺度的区域进一步提高了确定属性值的准确性,从而减少了计算量,提高了效率。
Description
技术领域
本发明涉及视频处理技术领域,尤其涉及一种确定待识别对象的属性信息的方法及装置。
背景技术
当今社会中,出于安防管理的需要,监控设备布满了街道、社区、楼宇等各种公共场合。在发生警情时,先从监控设备采集的视频数据中确定出嫌疑人或嫌疑车辆的图像,然后由警务人员根据嫌疑人或嫌疑车辆的图像搜捕嫌疑人或嫌疑车辆。
现有技术中,监控设备采集视频流后,多采用对视频流中的每帧图像进行检测和识别,该方法由于需要对每帧图像进行检测和识别,计算量较大,效率低。
发明内容
基于现有技术中的问题,本申请实施例提供了一种确定待识别对象的属性信息的方法及装置。
一方面,本发明实施例提供一种确定待识别对象的属性信息的方法,该方法包括:
获取待识别对象的识别图像信息,所述待识别对象是从监控设备拍摄的待处理视频中识别出的各待识别对象中的任一个;所述待识别对象包括至少一个识别图像信息;
针对任一识别图像信息的任一个所述待识别对象的待检测的属性类别,在所述待识别对象的识别图像信息划分M个识别区域,且M个识别区域的大小不同,M个识别区域对应一种属性类别,M大于等于2;
将M个所述识别区域输入至对应的属性识别模型,得到所述识别图像信息的识别区域对应的属性类别的属性值;
根据至少一个识别图像信息的各属性类别的属性值,确定所述待识别对象的各属性类别的属性值。
进一步地,所述将M个所述识别区域输入至对应的属性识别模型,得到所述识别图像信息的识别区域对应的属性类别的属性值,包括:
若M个属性类别的属性值中有不同的属性值,则将数量最多的属性值作为所述识别图像信息的识别区域对应的属性类别的属性值。
进一步地,所述待识别对象为行人,所述待识别对象包括P个待检测的属性类别,针对任一个属性类别中的任一个识别区域,所述识别区域分布为头部区域、脸部区域、上半身区域以及下半身区域。
进一步地,所述从监控设备拍摄的待处理视频中识别出的各待识别对象,包括:
所述待处理视频中包括N帧图像;N大于等于2;
针对第一图像,若所述第一图像为检测帧图像,则检测所述第一图像中各识别对象的类型及各识别对象对应的检测图像信息;若所述第一图像为预测帧图像,则根据第二图像中的各识别对象对应的图像信息,预测所述各识别对象在所述第一图像中对应的预测图像信息;所述第一图像是所述N帧图像中的任一个,所述第二图像是所述第一图像相邻的图像且已确定出或预测出识别对象对应的图像信息。
一方面,本发明提供一种确定待识别对象的属性信息的装置,包括:
获取单元,用于获取待识别对象的识别图像信息,所述待识别对象是从监控设备拍摄的待处理视频中识别出的各待识别对象中的任一个;所述待识别对象包括至少一个识别图像信息;
属性类别确定单元,用于针对任一识别图像信息的任一个所述待识别对象的待检测的属性类别,在所述待识别对象的识别图像信息划分M个识别区域,且M个识别区域的大小不同,M个识别区域对应一种属性类别,M大于等于2;
属性值确定单元,用于将M个所述识别区域输入至对应的属性识别模型,得到所述识别图像信息的识别区域对应的属性类别的属性值;根据至少一个识别图像信息的各属性类别的属性值,确定所述待识别对象的各属性类别的属性值。
进一步地,所述属性值确定单元具体用于:
若M个属性类别的属性值中有不同的属性值,则将数量最多的属性值作为所述识别图像信息的识别区域对应的属性类别的属性值。
进一步地,所述待识别对象为行人,所述待识别对象包括P个待检测的属性类别,针对任一个属性类别中的任一个识别区域,所述识别区域分布为头部区域、脸部区域、上半身区域以及下半身区域。
进一步地,所述获取单元具体用于:
所述待处理视频中包括N帧图像;N大于等于2;
针对第一图像,若所述第一图像为检测帧图像,则检测所述第一图像中各识别对象的类型及各识别对象对应的检测图像信息;若所述第一图像为预测帧图像,则根据第二图像中的各识别对象对应的图像信息,预测所述各识别对象在所述第一图像中对应的预测图像信息;所述第一图像是所述N帧图像中的任一个,所述第二图像是所述第一图像相邻的图像且已确定出或预测出识别对象对应的图像信息。
本发明实施例提供一种电子设备,包括至少一个处理单元、以及至少一个存储单元,其中,所述存储单元存储有计算机程序,当所述程序被所述处理单元执行时,使得所述处理单元执行本发明实施例提供的任一确定识别图像的方法的步骤。
本发明实施例提供一种计算机可读介质,其存储有可由电子设备执行的计算机程序,当所述程序在电子设备上运行时,使得所述电子设备执行本发明实施例提供任一确定识别图像的方法的步骤。
基于上述技术方案,将待识别对象的识别图像信息划分多个识别区域,并输入至每个属性识别模型中,从而能够得到多个属性值,并且为了更准确的确定每个属性值,将同一个待识别属性划分为不同的多个区域输入到属性识别模型中,得到多个属性值,并根据多个属性值来确定针对该待识别图像的该属性类别的属性值,与现有技术相比,可以通过一张识别图像输入,得到该识别图像的所有属性信息,并且通过设置不同尺度的区域进一步提高了确定属性值的准确性,从而减少了计算量,提高了效率。
附图说明
图1为本申请实施例适用的系统架构图;
图2为本发明实施例提供的一种确定待识别对象的属性信息的方法的流程示意图;
图3为本发明实施例提供的一种确定待识别图像的方法的示意图;
图4为本发明实施例提供的一种确定识别区域的方法的示意图;
图5为本发明实施例提供的一种确定多尺度识别区域的方法的示意图;
图6为本发明实施例提供的一种确定待识别图像的装置的结构示意图;
图7为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本申请实施例中的确定识别图像的方法可以行人查询,比如在采用监控设备采集的视频流进行归档时,可以采用本申请实施例中确定待识别对象的属性信息的方法确定视频流中同一行人在每帧待识别图像中的行人框,然后根据行人框确定该行人的属性信息,并根据该属性信息进行查询。
本申请实施例中的确定识别图像的方法可以应用于车辆查询,如在采用监控设备采集的视频流进行车辆查询时,可以采用本申请实施例中确定待识别对象的属性信息的方法确定视频流中同一车辆在每帧待识别图像中的车辆框,然后将该车辆对应的车辆框作为待查询信息,在车辆库中进行查询。
图1示例性示出了本申请实施例适用的系统架构,在该系统架构中包括监控设备101、服务器102。监控设备101实时采集视频流,然后将采集的视频流发送至服务器102,服务器102中包括确定待识别对象的装置,服务器102从视频流中获取待识别图像,然后确定待识别图像中的待识别对象对应的图像区域,其中待识别对象可以是人脸、车辆等。监控设备101通过无线网络与服务器102连接,监控设备是具备采集图像功能的电子设备,比如摄像头、摄像机、录像机等。服务器102是一台服务器或若干台服务器组成的服务器集群或云计算中心。
基于图1所示的系统架构,本发明实施例提供一种确定待识别对象的属性信息的方法的流程,如图2所示,包括:
步骤201,获取待识别对象的识别图像信息,所述待识别对象是从监控设备拍摄的待处理视频中识别出的各待识别对象中的任一个;所述待识别对象包括至少一个识别图像信息;
步骤202,针对任一识别图像信息的任一个所述待识别对象的待检测的属性类别,在所述待识别对象的识别图像信息划分M个识别区域,且M个识别区域的大小不同,M个识别区域对应一种属性类别,M大于等于2;
步骤203,将M个所述识别区域输入至对应的属性识别模型,得到所述识别图像信息的识别区域对应的属性类别的属性值;
步骤204,根据至少一个识别图像信息的各属性类别的属性值,确定所述待识别对象的各属性类别的属性值。
在步骤201中,从监控设备拍摄的待处理视频中首先确定各待识别对象,然后针对每个识别对象,确定该识别对象的识别图像信息。
可选的,在本发明实施例中,从监控设备中获取待处理的视频,所述待处理视频包括N帧图像;N大于等于2;将第一图像输入至分类模型,得到所述第一图像中各识别对象;所述识别对象包括识别对象的类型及识别对象对应的图像信息;所述识别对象的类型包括行人、非机动车和机动车;所述第一图像是所述N帧图像中的任一个;从所述待处理视频中提取各识别对象对应的图像信息,并标记各图像信息对应的识别对象的类型。
本发明实施例中,将监控设备获取的待处理的视频中的任一帧图像输入到分类模型中,通过分类模型,能够得到该帧图像中具有的多识别对象的类型以及该识别对象对应的图像信息;在本发明实施例中,识别对象的类型包括行人、非机动车和机动车,所以在本发明实施例中,针对一帧图像,若该帧图像中包括每种识别对象的类型,则将该帧图像输入至分类器后,可以确定出该帧图像中包括行人、非机动车和机动车,且能够确定出针对每个识别对象的识别区域。
也就是说,在本发明实施例中,步骤201中,获取到的待识别对象的识别图像信息是行人框、车辆框或者非机动车框。例如图3所示,将一帧图像中所有的待识别对象使用检测框来表示,检测框中的图像信息为待识别对象。
可选的,在本发明实施例中,在监控设备拍摄的待处理视频中的检测帧以及预测帧分别通过不同的方式确定待识别对象,示例性的,设定视频流中包括10帧待识别图像,其中第一帧待识别图像为检测帧图像,将第一帧待识别图像输入至分类模型中,得到行人、机动车以及非机动车的图像信息,根据第一帧图像中的各类图像信息确定第二帧待识别图像、第三帧待识别图像……第十帧待识别图像中的各待识别对象的图像信息。
具体的,若待识别对象为行人,将第一帧待识别图像输入至分类模型中,确定第一帧待识别图像中的各行人的第一行人检测框。针对第一帧待识别图像中行人A的第一行人检测框,先对第一行人检测框中行人A的关键点进行检测,根据检测的关键点调整第一行人检测框。然后判断行人A的第一行人检测框是否为行人图像,若是,则预测行人A的第一行人检测框在第二帧待识别图像对应的第二行人预测框。对第二行人预测框中行人A的关键点进行检测,根据检测的关键点调整第二行人预测框。之后再判断行人A的第二行人预测框是否为行人图像,若是,则预测行人A的第二行人预测框在第三帧待识别图像中对应的第三行人预测框,对第三行人预测框中行人A的关键点进行检测,直到对第十帧待识别图像中的各行人进行预测框标记。
具体地,关键点是用于确定识别对象的关键点,比如行人的关键点为头部、四肢、上半身、下半身等。车的关键点包括车牌、车窗、车轮等。
在步骤202中,针对获取到的任一待识别对象的图像信息,即上述示例中的行人框、机动车框以及非机动车框,针对获取到的一个行人的所有行人框中的任一个行人框,根据该行人框的待检测属性的类别,针对每个待检测属性的类别,在行人框中划分M个识别区域,且M个识别区域的大小不同。
在发明实施例中,若待识别对象为行人框,可以将识别区域分布为头部区域、脸部区域、上半身区域以及下半身区域,针对头部区域,属性类别可以是是否佩戴眼镜,是否佩戴帽子;针对上半身区域,属性类别可以是衣服颜色以及衣服种类,下半身区域对应的属性类别可以是裤子种类以及裤子颜色。例如,如图4所示,图4中的行人划分为头部区域、脸部区域、上半身区域以及下半身区域,图4中a为一个行人框输入,得到四个检测框输出。
而为了进一步准确的确定每个区域的属性值,在每个属性类别生成多个尺寸的区域,例如,图5中的行人的头部区域为三个不同尺寸的区域,分别为第一区域,第二区域以及第三区域,第一区域的面积大于第二区域的面积,第二区域的面积大于第三区域的面积,并且使用三个检测框将三个区域标出。
可选的,在本发明实施例中,待识别对象为车辆,则可以将识别区域分布为车身区域以及车牌区域。则针对车身区域可以产生多个检测区域,用检测框标出。
在步骤203中,将多个区域输入至对应的属性识别类型中,以上述例子进行解释,将一个行人框变为多个头部区域、多个脸部区域、多个上半身区域以及多个下半身区域,将多个头部区域输入到上衣颜色识别模型以及上衣种类识别模型,将多个脸部区域输入至帽子识别模型以及眼镜识别模型,将多个下半身区域输入到下衣颜色识别模型以及下衣种类识别模型。
可选的,在本发明实施例中,可以通过神经网络模型来确定各个区域,通过人工标注的方式进行神经网络模型的训练,比如,头部区域通过人工标注的方式在一个行人框上进行标注,然后根据多个标注的样本训练神经网络模型,然后根据训练好的神经网络模型确定输入的行人框的头部区域。
可选的,在本发明实施例中,还可以通过训练好的神经网络模型确定初步的头部区域,再通过调整初步头部区域的面积,来确定最终的头部区域。
可选的,在本发明实施例中,将M个所述识别区域输入至对应的属性识别模型,得到所述识别图像信息的识别区域对应的属性类别的属性值,包括:
若M个属性类别的属性值中有不同的属性值,则将数量最多的属性值作为所述识别图像信息的识别区域对应的属性类别的属性值。
也就是说,当存在多个同一属性类别的区域输出的属性值是不同的,则将数量最多的属性值作为该待识别图像的该属性类别的属性值。例如,若针对是否佩戴眼镜存在三个检测区域,第一检测区域的属性值为佩戴眼镜,第二检测区域的属性值为佩戴眼镜,第三检测区域的属性值为未佩戴眼镜,则将佩戴眼镜作为该识别图像的是否佩戴眼镜的属性的属性值。
可选的,在本发明实施例中,还可以通过设置权重,来确定该属性的属性值,例如,以图像的质量为分配权重的原则,第一区域的图像质量最佳,其次为第二区域以及第三区域,则根据图像质量分配的权重为第一区域的权重最高,其次为第二区域的权重以及第三区域的权重。则根据不同的权重确定该识别图像信息的识别区域对应的属性类别的属性值。
在步骤204中,在确定了每个待识别图像信息的每个属性类别的属性值后,根据每个待识别图像信息的属性值,确定该识别对象针对该属性的属性值,即假设N帧图像为4帧图像,分别为第一帧图像,第二帧图像,第三帧图像以及第四帧图像,针对第一帧图像,确定了第一行人框,针对第二帧图像,确定了第二行人框,针对第三帧图像,确定了第三行人框,针对第四帧图像,确定了第四行人框。其中,每个行人框均为同一个行人的行人框。
针对行人是否佩戴帽子,确定了每个行人框得到的是否佩戴帽子的属性值,得到第一属性值、第二属性值、第三属性值以及第四属性值,通过第一属性值、第二属性值、第三属性值以及第四属性值确定该行人是否佩戴。
可选的,在本发明实施例中,若针对一个属性,确定了多种属性值,则将多数的属性值作为该属性的属性值,以上述示例进行解释,若第一属性值、第二属性值、第三属性值为佩戴帽子,第四属性值为未佩戴帽子,则可以将佩戴帽子作为是否佩戴帽子的属性值。
可选的,在本发明实施例中,若针对一个属性,确定了多种属性值,还可以通过设置权重,来确定该属性的属性值,例如,以图像的质量为分配权重的原则,第一行人框的图像质量最佳,其次为第二行人框、第三行人框以及第四行人框,则根据图像质量分配的权重为第一行人框的权重最高,其次为第二行人框的权重、第三行人框的权重以及第四行人框的权重。则根据权重确定属性值。
基于相同的技术构思,本发明实施例提供一种确定待识别对象的属性信息的装置,如图6所示,该装置600包括:
获取单元601,用于获取待识别对象的识别图像信息,所述待识别对象是从监控设备拍摄的待处理视频中识别出的各待识别对象中的任一个;所述待识别对象包括至少一个识别图像信息;
属性类别确定单元602,用于针对任一识别图像信息的任一个所述待识别对象的待检测的属性类别,在所述待识别对象的识别图像信息划分M个识别区域,且M个识别区域的大小不同,M个识别区域对应一种属性类别,M大于等于2;
属性值确定单元603,用于将M个所述识别区域输入至对应的属性识别模型,得到所述识别图像信息的识别区域对应的属性类别的属性值;根据至少一个识别图像信息的各属性类别的属性值,确定所述待识别对象的各属性类别的属性值。
一种可能的实现方式,所述属性值确定单元603具体用于:
若M个属性类别的属性值中有不同的属性值,则将数量最多的属性值作为所述识别图像信息的识别区域对应的属性类别的属性值。
一种可能的实现方式,所述待识别对象为行人,所述待识别对象包括P个待检测的属性类别,针对任一个属性类别中的任一个识别区域,所述识别区域分布为头部区域、脸部区域、上半身区域以及下半身区域。
一种可能的实现方式,所述获取单元601具体用于:
所述待处理视频中包括N帧图像;N大于等于2;
针对第一图像,若所述第一图像为检测帧图像,则检测所述第一图像中各识别对象的类型及各识别对象对应的检测图像信息;若所述第一图像为预测帧图像,则根据第二图像中的各识别对象对应的图像信息,预测所述各识别对象在所述第一图像中对应的预测图像信息;所述第一图像是所述N帧图像中的任一个,所述第二图像是所述第一图像相邻的图像且已确定出或预测出识别对象对应的图像信息。
基于相同的技术构思,本申请实施例提供了一种电子设备,如图7所示,包括至少一个处理器701,以及与至少一个处理器连接的存储器702,本申请实施例中不限定处理器701与存储器702之间的具体连接介质,图7中处理器701和存储器702之间通过总线连接为例。总线可以分为地址总线、数据总线、控制总线等。
在本申请实施例中,存储器702存储有可被至少一个处理器701执行的指令,至少一个处理器701通过执行存储器702存储的指令,可以执行前述确定待识别对象的属性信息的方法中所包括的步骤。
其中,处理器701是电子设备的控制中心,可以利用各种接口和线路连接电子设备的各个部分,通过运行或执行存储在存储器702内的指令以及调用存储在存储器702内的数据,从而确定待识别对象的属性信息。可选的,处理器701可包括一个或多个处理单元,处理器701可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1801中。在一些实施例中,处理器701和存储器702可以在同一芯片上实现,在一些实施例中,它们也可以在独立的芯片上分别实现。
处理器701可以是通用处理器,例如中央处理器(CPU)、数字信号处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本申请实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
存储器702作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块。存储器702可以包括至少一种类型的存储介质,例如可以包括闪存、硬盘、多媒体卡、卡型存储器、随机访问存储器(Random AccessMemory,RAM)、静态随机访问存储器(StaticRandom Access Memory,SRAM)、可编程只读存储器(Programmable Read OnlyMemory,PROM)、只读存储器(Read Only Memory,ROM)、带电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性存储器、磁盘、光盘等等。存储器702是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本申请实施例中的存储器702还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。
基于同一发明构思,本申请实施例提供了一种计算机可读介质,其存储有可由电子设备执行的计算机程序,当所述程序在电子档设备上运行时,使得所述电子设备执行确定待识别对象的属性信息的方法的步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种确定待识别对象的属性信息的方法,其特征在于,所述方法包括:
获取待识别对象的识别图像信息,所述待识别对象是从监控设备拍摄的待处理视频中识别出的各待识别对象中的任一个;所述待识别对象包括至少一个识别图像信息;
针对任一识别图像信息的任一个所述待识别对象的待检测的属性类别,在所述待识别对象的识别图像信息划分M个识别区域,且M个识别区域的大小不同,M个识别区域对应一种属性类别,M大于等于2;
将M个所述识别区域输入至对应的属性识别模型,得到所述识别图像信息的识别区域对应的属性类别的属性值;
根据至少一个识别图像信息的各属性类别的属性值,确定所述待识别对象的各属性类别的属性值。
2.根据权利要求1所述的方法,其特征在于,所述将M个所述识别区域输入至对应的属性识别模型,得到所述识别图像信息的识别区域对应的属性类别的属性值,包括:
若M个属性类别的属性值中有不同的属性值,则将数量最多的属性值作为所述识别图像信息的识别区域对应的属性类别的属性值。
3.根据权利要求1所述的方法,其特征在于,所述待识别对象为行人,所述待识别对象包括P个待检测的属性类别,针对任一个属性类别中的任一个识别区域,所述识别区域分布为头部区域、脸部区域、上半身区域以及下半身区域。
4.根据权利要求1~3任一所述的方法,其特征在于,所述从监控设备拍摄的待处理视频中识别出的各待识别对,包括:
所述待处理视频中包括N帧图像;N大于等于2;
针对第一图像,若所述第一图像为检测帧图像,则检测所述第一图像中各识别对象的类型及各识别对象对应的检测图像信息;若所述第一图像为预测帧图像,则根据第二图像中的各识别对象对应的图像信息,预测所述各识别对象在所述第一图像中对应的预测图像信息;所述第一图像是所述N帧图像中的任一个,所述第二图像是所述第一图像相邻的图像且已确定出或预测出识别对象对应的图像信息。
5.一种确定待识别对象的属性信息的装置,其特征在于,包括:
获取单元,用于获取待识别对象的识别图像信息,所述待识别对象是从监控设备拍摄的待处理视频中识别出的各待识别对象中的任一个;所述待识别对象包括至少一个识别图像信息;
属性类别确定单元,用于针对任一识别图像信息的任一个所述待识别对象的待检测的属性类别,在所述待识别对象的识别图像信息划分M个识别区域,且M个识别区域的大小不同,M个识别区域对应一种属性类别,M大于等于2;
属性值确定单元,用于将M个所述识别区域输入至对应的属性识别模型,得到所述识别图像信息的识别区域对应的属性类别的属性值;根据至少一个识别图像信息的各属性类别的属性值,确定所述待识别对象的各属性类别的属性值。
6.根据权利要求5所述的装置,其特征在于,所述属性值确定单元具体用于:
若M个属性类别的属性值中有不同的属性值,则将数量最多的属性值作为所述识别图像信息的识别区域对应的属性类别的属性值。
7.根据权利要求5所述的装置,其特征在于,所述待识别对象为行人,所述待识别对象包括P个待检测的属性类别,针对任一个属性类别中的任一个识别区域,所述识别区域分布为头部区域、脸部区域、上半身区域以及下半身区域。
8.根据权利要求5~7任一所述的装置,其特征在于,所述获取单元具体用于:
所述待处理视频中包括N帧图像;N大于等于2;
针对第一图像,若所述第一图像为检测帧图像,则检测所述第一图像中各识别对象的类型及各识别对象对应的检测图像信息;若所述第一图像为预测帧图像,则根据第二图像中的各识别对象对应的图像信息,预测所述各识别对象在所述第一图像中对应的预测图像信息;所述第一图像是所述N帧图像中的任一个,所述第二图像是所述第一图像相邻的图像且已确定出或预测出识别对象对应的图像信息。
9.一种电子设备,其特征在于,包括至少一个处理单元、以及至少一个存储单元,其中,所述存储单元存储有计算机程序,当所述程序被所述处理单元执行时,使得所述处理单元执行权利要求1~4任一权利要求所述方法的步骤。
10.一种计算机可读介质,其特征在于,其存储有可由电子设备执行的计算机程序,当所述程序在电子设备上运行时,使得所述电子设备执行权利要求1~4任一所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811643460.0A CN109800679A (zh) | 2018-12-29 | 2018-12-29 | 一种确定待识别对象的属性信息的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811643460.0A CN109800679A (zh) | 2018-12-29 | 2018-12-29 | 一种确定待识别对象的属性信息的方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109800679A true CN109800679A (zh) | 2019-05-24 |
Family
ID=66558341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811643460.0A Withdrawn CN109800679A (zh) | 2018-12-29 | 2018-12-29 | 一种确定待识别对象的属性信息的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109800679A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110532944A (zh) * | 2019-08-28 | 2019-12-03 | 河北冀云气象技术服务有限责任公司 | 一种智能图像识别天气现象系统及方法 |
CN110782515A (zh) * | 2019-10-31 | 2020-02-11 | 北京字节跳动网络技术有限公司 | 虚拟形象的生成方法、装置、电子设备及存储介质 |
CN110796721A (zh) * | 2019-10-31 | 2020-02-14 | 北京字节跳动网络技术有限公司 | 虚拟形象的颜色渲染方法、装置、终端及存储介质 |
CN110879995A (zh) * | 2019-12-02 | 2020-03-13 | 上海秒针网络科技有限公司 | 目标物品检测方法及装置、存储介质及电子装置 |
CN110991417A (zh) * | 2019-12-23 | 2020-04-10 | 珠海格力电器股份有限公司 | 厨具处理方法、装置和橱柜 |
CN111178128A (zh) * | 2019-11-22 | 2020-05-19 | 北京迈格威科技有限公司 | 图像识别方法、装置、计算机设备和存储介质 |
CN111191527A (zh) * | 2019-12-16 | 2020-05-22 | 北京迈格威科技有限公司 | 属性识别方法、装置、电子设备及可读存储介质 |
CN115131825A (zh) * | 2022-07-14 | 2022-09-30 | 北京百度网讯科技有限公司 | 人体属性的识别方法、装置、电子设备和存储介质 |
CN116108225A (zh) * | 2023-04-13 | 2023-05-12 | 深圳开鸿数字产业发展有限公司 | 视频数据结构化方法、装置、终端设备及存储介质 |
-
2018
- 2018-12-29 CN CN201811643460.0A patent/CN109800679A/zh not_active Withdrawn
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110532944A (zh) * | 2019-08-28 | 2019-12-03 | 河北冀云气象技术服务有限责任公司 | 一种智能图像识别天气现象系统及方法 |
CN110782515A (zh) * | 2019-10-31 | 2020-02-11 | 北京字节跳动网络技术有限公司 | 虚拟形象的生成方法、装置、电子设备及存储介质 |
CN110796721A (zh) * | 2019-10-31 | 2020-02-14 | 北京字节跳动网络技术有限公司 | 虚拟形象的颜色渲染方法、装置、终端及存储介质 |
CN111178128A (zh) * | 2019-11-22 | 2020-05-19 | 北京迈格威科技有限公司 | 图像识别方法、装置、计算机设备和存储介质 |
CN111178128B (zh) * | 2019-11-22 | 2024-03-19 | 北京迈格威科技有限公司 | 图像识别方法、装置、计算机设备和存储介质 |
CN110879995A (zh) * | 2019-12-02 | 2020-03-13 | 上海秒针网络科技有限公司 | 目标物品检测方法及装置、存储介质及电子装置 |
CN111191527A (zh) * | 2019-12-16 | 2020-05-22 | 北京迈格威科技有限公司 | 属性识别方法、装置、电子设备及可读存储介质 |
CN111191527B (zh) * | 2019-12-16 | 2024-03-12 | 北京迈格威科技有限公司 | 属性识别方法、装置、电子设备及可读存储介质 |
CN110991417A (zh) * | 2019-12-23 | 2020-04-10 | 珠海格力电器股份有限公司 | 厨具处理方法、装置和橱柜 |
CN115131825A (zh) * | 2022-07-14 | 2022-09-30 | 北京百度网讯科技有限公司 | 人体属性的识别方法、装置、电子设备和存储介质 |
CN116108225A (zh) * | 2023-04-13 | 2023-05-12 | 深圳开鸿数字产业发展有限公司 | 视频数据结构化方法、装置、终端设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109800679A (zh) | 一种确定待识别对象的属性信息的方法及装置 | |
CN109815842A (zh) | 一种确定待识别对象的属性信息的方法及装置 | |
CN109740517A (zh) | 一种确定待识别对象的方法及装置 | |
CN112016464B (zh) | 检测人脸遮挡的方法、装置、电子设备及存储介质 | |
CN110717414A (zh) | 一种目标检测追踪方法、装置及设备 | |
CN104063712B (zh) | 一种车辆信息提取方法和系统 | |
CN110753892A (zh) | 在自动驾驶车辆中用于经由交叉模态验证的即时物体标记的方法和系统 | |
CN109887283B (zh) | 一种基于卡口数据的道路拥堵预测方法、系统及装置 | |
CN110869936A (zh) | 用于自动驾驶车辆中的分布式学习与适应的方法和系统 | |
CN109800682B (zh) | 驾驶员属性识别方法及相关产品 | |
CN110378236A (zh) | 基于深度学习的车辆身份识别模型构建、识别方法和系统 | |
CN104166841A (zh) | 一种视频监控网络中指定行人或车辆的快速检测识别方法 | |
CN104915673B (zh) | 一种基于视觉词袋模型的目标分类方法和系统 | |
CN110799982A (zh) | 用于自动驾驶车辆中的以物体为中心的立体视觉的方法和系统 | |
CN112070074B (zh) | 物体检测方法、装置、终端设备和存储介质 | |
CN103136504A (zh) | 人脸识别方法及装置 | |
CN110689043A (zh) | 一种基于多重注意力机制的车辆细粒度识别方法及装置 | |
CN109800675A (zh) | 一种确定人脸对象的识别图像的方法及装置 | |
CN108764338B (zh) | 一种应用于视频分析的行人跟踪方法 | |
CN110188828A (zh) | 一种基于虚拟样本集成学习的图像来源鉴别方法 | |
CN109740609A (zh) | 一种轨距检测方法及装置 | |
CN114724122A (zh) | 一种目标追踪方法、装置、电子设备及存储介质 | |
CN106603546A (zh) | 物联网入侵监测方法及装置 | |
CN108154199B (zh) | 一种基于深度学习的高精度快速单类目标检测方法 | |
CN109800678A (zh) | 一种视频中对象的属性确定方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20190524 |