CN109815842A - 一种确定待识别对象的属性信息的方法及装置 - Google Patents
一种确定待识别对象的属性信息的方法及装置 Download PDFInfo
- Publication number
- CN109815842A CN109815842A CN201811643440.3A CN201811643440A CN109815842A CN 109815842 A CN109815842 A CN 109815842A CN 201811643440 A CN201811643440 A CN 201811643440A CN 109815842 A CN109815842 A CN 109815842A
- Authority
- CN
- China
- Prior art keywords
- image
- attribute
- identified
- identification
- image information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Traffic Control Systems (AREA)
Abstract
本发明实施例提供一种确定待识别对象的属性信息的方法及装置,涉及视频处理技术领域,方法包括:获取待识别对象的识别图像信息,待识别对象是从监控设备拍摄的待处理视频中识别出的各待识别对象中的任一个;根据待识别对象的待检测的属性类别,将待识别对象的识别图像信息划分为P个识别区域,每个识别区域对应至少一个属性类别;P大于等于2;针对P个识别区域中的任一个,将识别区域输入至对应的属性识别模型,得到识别区域对应的属性类别的属性值;根据至少一个识别图像信息的各属性类别的属性值,确定待识别对象的各属性类别的属性值。可以通过一张识别图像输入,得到该识别图像的所有属性信息,从而减少了计算量,提高了效率。
Description
技术领域
本发明涉及视频处理技术领域,尤其涉及一种确定待识别对象的属性信息的方法及装置。
背景技术
当今社会中,出于安防管理的需要,监控设备布满了街道、社区、楼宇等各种公共场合。在发生警情时,先从监控设备采集的视频数据中确定出嫌疑人或嫌疑车辆的图像,然后由警务人员根据嫌疑人或嫌疑车辆的图像搜捕嫌疑人或嫌疑车辆。
现有技术中,监控设备采集视频流后,多采用对视频流中的每帧图像进行检测和识别,该方法由于需要对每帧图像进行检测和识别,计算量较大,效率低。
发明内容
基于现有技术中的问题,本申请实施例提供了一种确定待识别对象的属性信息的方法及装置。
一方面,本发明实施例提供一种确定待识别对象的属性信息的方法,该方法包括:
获取待识别对象的识别图像信息,所述待识别对象是从监控设备拍摄的待处理视频中识别出的各待识别对象中的任一个;所述待识别对象包括至少一个识别图像信息;
根据所述待识别对象的待检测的属性类别,将所述待识别对象的识别图像信息划分为P个识别区域,每个识别区域对应至少一个属性类别;P大于等于2;
针对所述P个识别区域中的任一个,将所述识别区域输入至对应的属性识别模型,得到所述识别区域对应的属性类别的属性值;
根据至少一个识别图像信息的各属性类别的属性值,确定所述待识别对象的各属性类别的属性值。
进一步地,根据至少一个识别图像信息的各属性类别,确定所述待识别对象的各属性类别的属性值,包括:
针对一个属性类别,若确定存在针对所述属性类别的多个属性值,则将数量最多的属性值作为所述属性类别的属性值。
进一步地,所述待识别对象为行人,所述P个识别区域分布为头部区域、脸部区域、上半身区域以及下半身区域。
进一步地,所述从监控设备拍摄的待处理视频中识别出的各待识别对象,包括:
所述待处理视频中包括N帧图像;N大于等于2;
针对第一图像,若所述第一图像为检测帧图像,则检测所述第一图像中各识别对象的类型及各识别对象对应的检测图像信息;若所述第一图像为预测帧图像,则根据第二图像中的各识别对象对应的图像信息,预测所述各识别对象在所述第一图像中对应的预测图像信息;所述第一图像是所述N帧图像中的任一个,所述第二图像是所述第一图像相邻的图像且已确定出或预测出识别对象对应的图像信息。
一方面,本发明提供一种确定待识别对象的属性信息的装置,包括:
获取单元,用于获取待识别对象的识别图像信息,所述待识别对象是从监控设备拍摄的待处理视频中识别出的各待识别对象中的任一个;所述待识别对象包括至少一个识别图像信息;
属性类别确定单元,用于根据所述待识别对象的待检测的属性类别,将所述待识别对象的识别图像信息划分为P个识别区域,每个识别区域对应至少一个属性类别;P大于等于2;
属性值确定单元,用于针对所述P个识别区域中的任一个,将所述识别区域输入至对应的属性识别模型,得到所述识别区域对应的属性类别的属性值;根据至少一个识别图像信息的各属性类别的属性值,确定所述待识别对象的各属性类别的属性值。
进一步地,所述属性值确定单元具体用于:
针对一个属性类别,若确定存在针对所述属性类别的多个属性值,则将数量最多的属性值作为所述属性类别的属性值。
进一步地,所述待识别对象为行人,所述P个识别区域分布为头部区域、脸部区域、上半身区域以及下半身区域。
进一步地,所述获取单元具体用于:
所述待处理视频中包括N帧图像;N大于等于2;
针对第一图像,若所述第一图像为检测帧图像,则检测所述第一图像中各识别对象的类型及各识别对象对应的检测图像信息;若所述第一图像为预测帧图像,则根据第二图像中的各识别对象对应的图像信息,预测所述各识别对象在所述第一图像中对应的预测图像信息;所述第一图像是所述N帧图像中的任一个,所述第二图像是所述第一图像相邻的图像且已确定出或预测出识别对象对应的图像信息。
本发明实施例提供一种电子设备,包括至少一个处理单元、以及至少一个存储单元,其中,所述存储单元存储有计算机程序,当所述程序被所述处理单元执行时,使得所述处理单元执行本发明实施例提供的任一确定识别图像的方法的步骤。
本发明实施例提供一种计算机可读介质,其存储有可由电子设备执行的计算机程序,当所述程序在电子设备上运行时,使得所述电子设备执行本发明实施例提供任一确定识别图像的方法的步骤。
基于上述技术方案,将待识别对象的识别图像信息划分为P个识别区域,并输入至P个属性识别模型中,从而能够得到P个属性值,与现有技术相比,可以通过一张识别图像输入,得到该识别图像的所有属性信息,从而减少了计算量,提高了效率。
附图说明
图1为本申请实施例适用的系统架构图;
图2为本发明实施例提供的一种确定待识别对象的属性信息的方法的流程示意图;
图3为本发明实施例提供的一种确定待识别图像的方法的示意图;
图4为本发明实施例提供的一种确定识别区域的方法的示意图;
图5为本发明实施例提供的一种确定待识别图像的装置的结构示意图;
图6为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本申请实施例中的确定识别图像的方法可以行人查询,比如在采用监控设备采集的视频流进行归档时,可以采用本申请实施例中确定待识别对象的属性信息的方法确定视频流中同一行人在每帧待识别图像中的行人框,然后根据行人框确定该行人的属性信息,并根据该属性信息进行查询。
本申请实施例中的确定识别图像的方法可以应用于车辆查询,如在采用监控设备采集的视频流进行车辆查询时,可以采用本申请实施例中确定待识别对象的属性信息的方法确定视频流中同一车辆在每帧待识别图像中的车辆框,然后将该车辆对应的车辆框作为待查询信息,在车辆库中进行查询。
图1示例性示出了本申请实施例适用的系统架构,在该系统架构中包括监控设备101、服务器102。监控设备101实时采集视频流,然后将采集的视频流发送至服务器102,服务器102中包括确定待识别对象的装置,服务器102从视频流中获取待识别图像,然后确定待识别图像中的待识别对象对应的图像区域,其中待识别对象可以是人脸、车辆等。监控设备101通过无线网络与服务器102连接,监控设备是具备采集图像功能的电子设备,比如摄像头、摄像机、录像机等。服务器102是一台服务器或若干台服务器组成的服务器集群或云计算中心。
基于图1所示的系统架构,本发明实施例提供一种确定待识别对象的属性信息的方法的流程,如图2所示,包括:
步骤201,获取待识别对象的识别图像信息,所述待识别对象是从监控设备拍摄的待处理视频中识别出的各待识别对象中的任一个;所述待识别对象包括至少一个识别图像信息;
步骤202,根据所述待识别对象的待检测的属性类别,将所述待识别对象的识别图像信息划分为P个识别区域,每个识别区域对应至少一个属性类别;P大于等于2;
步骤203,针对所述P个识别区域中的任一个,将所述识别区域输入至对应的属性识别模型,得到所述识别区域对应的属性类别的属性值;
步骤204,根据至少一个识别图像信息的各属性类别的属性值,确定所述待识别对象的各属性类别的属性值。
在步骤201中,从监控设备拍摄的待处理视频中首先确定各待识别对象,然后针对每个识别对象,确定该识别对象的识别图像信息。
可选的,在本发明实施例中,从监控设备中获取待处理的视频,所述待处理视频包括N帧图像;N大于等于2;将第一图像输入至分类模型,得到所述第一图像中各识别对象;所述识别对象包括识别对象的类型及识别对象对应的图像信息;所述识别对象的类型包括行人、非机动车和机动车;所述第一图像是所述N帧图像中的任一个;从所述待处理视频中提取各识别对象对应的图像信息,并标记各图像信息对应的识别对象的类型。
本发明实施例中,将监控设备获取的待处理的视频中的任一帧图像输入到分类模型中,通过分类模型,能够得到该帧图像中具有的多识别对象的类型以及该识别对象对应的图像信息;在本发明实施例中,识别对象的类型包括行人、非机动车和机动车,所以在本发明实施例中,针对一帧图像,若该帧图像中包括每种识别对象的类型,则将该帧图像输入至分类器后,可以确定出该帧图像中包括行人、非机动车和机动车,且能够确定出针对每个识别对象的识别区域。
也就是说,在本发明实施例中,步骤201中,获取到的待识别对象的识别图像信息是行人框、车辆框或者非机动车框。例如图3所示,将一帧图像中所有的待识别对象使用检测框来表示,检测框中的图像信息为待识别对象。
可选的,在本发明实施例中,在监控设备拍摄的待处理视频中的检测帧以及预测帧分别通过不同的方式确定待识别对象,示例性的,设定视频流中包括10帧待识别图像,其中第一帧待识别图像为检测帧图像,将第一帧待识别图像输入至分类模型中,得到行人、机动车以及非机动车的图像信息,根据第一帧图像中的各类图像信息确定第二帧待识别图像、第三帧待识别图像……第十帧待识别图像中的各待识别对象的图像信息。
具体的,若待识别对象为行人,将第一帧待识别图像输入至分类模型中,确定第一帧待识别图像中的各行人的第一行人检测框。针对第一帧待识别图像中行人A的第一行人检测框,先对第一行人检测框中行人A的关键点进行检测,根据检测的关键点调整第一行人检测框。然后判断行人A的第一行人检测框是否为行人图像,若是,则预测行人A的第一行人检测框在第二帧待识别图像对应的第二行人预测框。对第二行人预测框中行人A的关键点进行检测,根据检测的关键点调整第二行人预测框。之后再判断行人A的第二行人预测框是否为行人图像,若是,则预测行人A的第二行人预测框在第三帧待识别图像中对应的第三行人预测框,对第三行人预测框中行人A的关键点进行检测,直到对第十帧待识别图像中的各行人进行预测框标记。
具体地,关键点是用于确定识别对象的关键点,比如行人的关键点为头部、四肢、上半身、下半身等。车的关键点包括车牌、车窗、车轮等。
在步骤202中,将获取到的各待识别对象的图像信息进行属性区域划分,根据不同的待检测的属性类别,至少划分为一个属性类别。例如,若待识别对象为行人框,可以将识别区域分布为头部区域、脸部区域、上半身区域以及下半身区域,针对头部区域,属性类别可以是是否佩戴眼镜,是否佩戴帽子;针对上半身区域,属性类别可以是衣服颜色以及衣服种类,下半身区域对应的属性类别可以是裤子种类以及裤子颜色。例如,如图4所示,图4中的行人划分为头部区域、脸部区域、上半身区域以及下半身区域,图4中a为一个行人框输入,得到四个检测框输出。
可选的,在本发明实施例中,待识别对象为车辆,P个识别区域分布为车身区域以及车牌区域。
在步骤203中,将划分区域后的区域部分输入至对应的属性识别类型中,以上述例子进行解释,将一个行人框变为头部区域、脸部区域、上半身区域以及下半身区域,将头部区域输入到上衣颜色识别模型以及上衣种类识别模型,将脸部区域输入至帽子识别模型以及眼镜识别模型,将下半身区域输入到下衣颜色识别模型以及下衣种类识别模型。
可选的,在本发明实施例中,可以通过神经网络模型来确定各个区域,通过人工标注的方式进行神经网络模型的训练,比如,头部区域通过人工标注的方式在一个行人框上进行标注,然后根据多个标注的样本训练神经网络模型,然后根据训练好的神经网络模型确定输入的行人框的头部区域。
可选的,在本发明实施例中,还可以通过训练好的神经网络模型确定初步的头部区域,再通过调整初步头部区域的面积,来确定最终的头部区域。
在步骤204中,根据每个待识别图像信息的属性值,确定该识别对象针对该属性的属性值,即假设N帧图像为4帧图像,分别为第一帧图像,第二帧图像,第三帧图像以及第四帧图像,针对第一帧图像,确定了第一行人框,针对第二帧图像,确定了第二行人框,针对第三帧图像,确定了第三行人框,针对第四帧图像,确定了第四行人框。其中,每个行人框均为同一个行人的行人框。
针对行人是否佩戴眼镜属性,确定了每个行人框的头部区域,将第一头部区域,第二头部区域,第三头部区域以及第四头部区域输入到眼镜属性判断模型,得到第一属性值、第二属性值、第三属性值以及第四属性值,通过第一属性值、第二属性值、第三属性值以及第四属性值确定该行人是否佩戴眼镜。
可选的,在本发明实施例中,若针对一个属性,确定了多种属性值,则将多数的属性值作为该属性的属性值,以上述示例进行解释,若第一属性值、第二属性值、第三属性值为佩戴眼镜,第四属性值为未佩戴眼镜,则可以将佩戴眼镜作为是否佩戴眼镜的属性值。
可选的,在本发明实施例中,若针对一个属性,确定了多种属性值,还可以通过设置权重,来确定该属性的属性值,例如,以图像的质量为分配权重的原则,第一行人框的图像质量最佳,其次为第二行人框、第三行人框以及第四行人框,则根据图像质量分配的权重为第一行人框的权重最高,其次为第二行人框的权重、第三行人框的权重以及第四行人框的权重。通过权重来确定该属性的属性值。
基于相同的技术构思,本发明实施例提供一种确定待识别对象的属性信息的装置,如图5所示,该装置500包括:
获取单元501,用于获取待识别对象的识别图像信息,所述待识别对象是从监控设备拍摄的待处理视频中识别出的各待识别对象中的任一个;所述待识别对象包括至少一个识别图像信息;
属性类别确定单元502,用于根据所述待识别对象的待检测的属性类别,将所述待识别对象的识别图像信息划分为P个识别区域,每个识别区域对应至少一个属性类别;P大于等于2;
属性值确定单元503,用于针对所述P个识别区域中的任一个,将所述识别区域输入至对应的属性识别模型,得到所述识别区域对应的属性类别的属性值;根据至少一个识别图像信息的各属性类别的属性值,确定所述待识别对象的各属性类别的属性值。
一种可能的实现方式,所述属性值确定单元503具体用于:
针对一个属性类别,若确定存在针对所述属性类别的多个属性值,则将数量最多的属性值作为所述属性类别的属性值。
一种可能的实现方式,所述待识别对象为行人,所述P个识别区域分布为头部区域、脸部区域、上半身区域以及下半身区域。
一种可能的实现方式,所述获取单元501具体用于:
所述待处理视频中包括N帧图像;N大于等于2;
针对第一图像,若所述第一图像为检测帧图像,则检测所述第一图像中各识别对象的类型及各识别对象对应的检测图像信息;若所述第一图像为预测帧图像,则根据第二图像中的各识别对象对应的图像信息,预测所述各识别对象在所述第一图像中对应的预测图像信息;所述第一图像是所述N帧图像中的任一个,所述第二图像是所述第一图像相邻的图像且已确定出或预测出识别对象对应的图像信息。
基于相同的技术构思,本申请实施例提供了一种电子设备,如图6所示,包括至少一个处理器601,以及与至少一个处理器连接的存储器602,本申请实施例中不限定处理器601与存储器602之间的具体连接介质,图6中处理器601和存储器602之间通过总线连接为例。总线可以分为地址总线、数据总线、控制总线等。
在本申请实施例中,存储器602存储有可被至少一个处理器601执行的指令,至少一个处理器601通过执行存储器602存储的指令,可以执行前述确定待识别对象的属性信息的方法中所包括的步骤。
其中,处理器601是电子设备的控制中心,可以利用各种接口和线路连接电子设备的各个部分,通过运行或执行存储在存储器602内的指令以及调用存储在存储器602内的数据,从而确定待识别对象的属性信息。可选的,处理器601可包括一个或多个处理单元,处理器601可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1801中。在一些实施例中,处理器601和存储器602可以在同一芯片上实现,在一些实施例中,它们也可以在独立的芯片上分别实现。
处理器601可以是通用处理器,例如中央处理器(CPU)、数字信号处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件,可以实现或者执行本申请实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
存储器602作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块。存储器602可以包括至少一种类型的存储介质,例如可以包括闪存、硬盘、多媒体卡、卡型存储器、随机访问存储器(Random AccessMemory,RAM)、静态随机访问存储器(Static Random Access Memory,SRAM)、可编程只读存储器(Programmable Read Only Memory,PROM)、只读存储器(Read Only Memory,ROM)、带电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性存储器、磁盘、光盘等等。存储器602是能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。本申请实施例中的存储器602还可以是电路或者其它任意能够实现存储功能的装置,用于存储程序指令和/或数据。
基于同一发明构思,本申请实施例提供了一种计算机可读介质,其存储有可由电子设备执行的计算机程序,当所述程序在电子档设备上运行时,使得所述电子设备执行确定待识别对象的属性信息的方法的步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种确定待识别对象的属性信息的方法,其特征在于,所述方法包括:
获取待识别对象的识别图像信息,所述待识别对象是从监控设备拍摄的待处理视频中识别出的各待识别对象中的任一个;所述待识别对象包括至少一个识别图像信息;
根据所述待识别对象的待检测的属性类别,将所述待识别对象的识别图像信息划分为P个识别区域,每个识别区域对应至少一个属性类别;P大于等于2;
针对所述P个识别区域中的任一个,将所述识别区域输入至对应的属性识别模型,得到所述识别区域对应的属性类别的属性值;
根据至少一个识别图像信息的各属性类别的属性值,确定所述待识别对象的各属性类别的属性值。
2.根据权利要求1所述的方法,其特征在于,根据至少一个识别图像信息的各属性类别,确定所述待识别对象的各属性类别的属性值,包括:
针对一个属性类别,若确定存在针对所述属性类别的多个属性值,则将数量最多的属性值作为所述属性类别的属性值。
3.根据权利要求1所述的方法,其特征在于,所述待识别对象为行人,所述P个识别区域分布为头部区域、脸部区域、上半身区域以及下半身区域。
4.根据权利要求1~3任一所述的方法,其特征在于,所述从监控设备拍摄的待处理视频中识别出的各待识别对象,包括:
所述待处理视频中包括N帧图像;N大于等于2;
针对第一图像,若所述第一图像为检测帧图像,则检测所述第一图像中各识别对象的类型及各识别对象对应的检测图像信息;若所述第一图像为预测帧图像,则根据第二图像中的各识别对象对应的图像信息,预测所述各识别对象在所述第一图像中对应的预测图像信息;所述第一图像是所述N帧图像中的任一个,所述第二图像是所述第一图像相邻的图像且已确定出或预测出识别对象对应的图像信息。
5.一种确定待识别对象的属性信息的装置,其特征在于,包括:
获取单元,用于获取待识别对象的识别图像信息,所述待识别对象是从监控设备拍摄的待处理视频中识别出的各待识别对象中的任一个;所述待识别对象包括至少一个识别图像信息;
属性类别确定单元,用于根据所述待识别对象的待检测的属性类别,将所述待识别对象的识别图像信息划分为P个识别区域,每个识别区域对应至少一个属性类别;P大于等于2;
属性值确定单元,用于针对所述P个识别区域中的任一个,将所述识别区域输入至对应的属性识别模型,得到所述识别区域对应的属性类别的属性值;根据至少一个识别图像信息的各属性类别的属性值,确定所述待识别对象的各属性类别的属性值。
6.根据权利要求5所述的装置,其特征在于,所述属性值确定单元具体用于:
针对一个属性类别,若确定存在针对所述属性类别的多个属性值,则将数量最多的属性值作为所述属性类别的属性值。
7.根据权利要求5所述的装置,其特征在于,所述待识别对象为行人,所述P个识别区域分布为头部区域、脸部区域、上半身区域以及下半身区域。
8.根据权利要求5~7任一所述的装置,其特征在于,所述获取单元具体用于:
所述待处理视频中包括N帧图像;N大于等于2;
针对第一图像,若所述第一图像为检测帧图像,则检测所述第一图像中各识别对象的类型及各识别对象对应的检测图像信息;若所述第一图像为预测帧图像,则根据第二图像中的各识别对象对应的图像信息,预测所述各识别对象在所述第一图像中对应的预测图像信息;所述第一图像是所述N帧图像中的任一个,所述第二图像是所述第一图像相邻的图像且已确定出或预测出识别对象对应的图像信息。
9.一种电子设备,其特征在于,包括至少一个处理单元、以及至少一个存储单元,其中,所述存储单元存储有计算机程序,当所述程序被所述处理单元执行时,使得所述处理单元执行权利要求1~4任一权利要求所述方法的步骤。
10.一种计算机可读介质,其特征在于,其存储有可由电子设备执行的计算机程序,当所述程序在电子设备上运行时,使得所述电子设备执行权利要求1~4任一所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811643440.3A CN109815842A (zh) | 2018-12-29 | 2018-12-29 | 一种确定待识别对象的属性信息的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811643440.3A CN109815842A (zh) | 2018-12-29 | 2018-12-29 | 一种确定待识别对象的属性信息的方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109815842A true CN109815842A (zh) | 2019-05-28 |
Family
ID=66603053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811643440.3A Pending CN109815842A (zh) | 2018-12-29 | 2018-12-29 | 一种确定待识别对象的属性信息的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109815842A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110889437A (zh) * | 2019-11-06 | 2020-03-17 | 北京达佳互联信息技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN110991417A (zh) * | 2019-12-23 | 2020-04-10 | 珠海格力电器股份有限公司 | 厨具处理方法、装置和橱柜 |
CN111209807A (zh) * | 2019-12-25 | 2020-05-29 | 航天信息股份有限公司 | 一种基于yolov3的视频结构化方法及系统 |
CN112016413A (zh) * | 2020-08-13 | 2020-12-01 | 南京领行科技股份有限公司 | 对象间异常行为的检测方法及装置 |
CN112149461A (zh) * | 2019-06-27 | 2020-12-29 | 中科智云科技有限公司 | 用于识别对象的方法和设备 |
CN112418017A (zh) * | 2020-11-09 | 2021-02-26 | 西安万像电子科技有限公司 | 图像处理的方法、装置及系统 |
WO2021108969A1 (zh) * | 2019-12-02 | 2021-06-10 | Oppo广东移动通信有限公司 | 属性信息的预测方法、编码器、解码器、及存储介质 |
CN115131825A (zh) * | 2022-07-14 | 2022-09-30 | 北京百度网讯科技有限公司 | 人体属性的识别方法、装置、电子设备和存储介质 |
CN116108225A (zh) * | 2023-04-13 | 2023-05-12 | 深圳开鸿数字产业发展有限公司 | 视频数据结构化方法、装置、终端设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102521565A (zh) * | 2011-11-23 | 2012-06-27 | 浙江晨鹰科技有限公司 | 低分辨率视频的服装识别方法及系统 |
CN104899544A (zh) * | 2014-03-04 | 2015-09-09 | 佳能株式会社 | 图像处理装置和图像处理方法 |
CN107944403A (zh) * | 2017-11-29 | 2018-04-20 | 青岛海信网络科技股份有限公司 | 一种图像中的行人属性检测方法及装置 |
-
2018
- 2018-12-29 CN CN201811643440.3A patent/CN109815842A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102521565A (zh) * | 2011-11-23 | 2012-06-27 | 浙江晨鹰科技有限公司 | 低分辨率视频的服装识别方法及系统 |
CN104899544A (zh) * | 2014-03-04 | 2015-09-09 | 佳能株式会社 | 图像处理装置和图像处理方法 |
CN107944403A (zh) * | 2017-11-29 | 2018-04-20 | 青岛海信网络科技股份有限公司 | 一种图像中的行人属性检测方法及装置 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112149461A (zh) * | 2019-06-27 | 2020-12-29 | 中科智云科技有限公司 | 用于识别对象的方法和设备 |
CN110889437B (zh) * | 2019-11-06 | 2022-11-11 | 北京达佳互联信息技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN110889437A (zh) * | 2019-11-06 | 2020-03-17 | 北京达佳互联信息技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
US12080034B2 (en) | 2019-12-02 | 2024-09-03 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Attribute information prediction method, encoder, decoder and storage medium |
WO2021108969A1 (zh) * | 2019-12-02 | 2021-06-10 | Oppo广东移动通信有限公司 | 属性信息的预测方法、编码器、解码器、及存储介质 |
US11704840B2 (en) | 2019-12-02 | 2023-07-18 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Attribute information prediction method, encoder, decoder and storage medium |
US20220292723A1 (en) | 2019-12-02 | 2022-09-15 | Guangdong Oppo Mobile Telecommunications Corp.,Ltd. | Attribute information prediction method, encoder, decoder and storage medium |
CN110991417A (zh) * | 2019-12-23 | 2020-04-10 | 珠海格力电器股份有限公司 | 厨具处理方法、装置和橱柜 |
CN111209807A (zh) * | 2019-12-25 | 2020-05-29 | 航天信息股份有限公司 | 一种基于yolov3的视频结构化方法及系统 |
CN112016413A (zh) * | 2020-08-13 | 2020-12-01 | 南京领行科技股份有限公司 | 对象间异常行为的检测方法及装置 |
CN112016413B (zh) * | 2020-08-13 | 2022-06-07 | 南京领行科技股份有限公司 | 对象间异常行为的检测方法及装置 |
CN112418017A (zh) * | 2020-11-09 | 2021-02-26 | 西安万像电子科技有限公司 | 图像处理的方法、装置及系统 |
CN115131825A (zh) * | 2022-07-14 | 2022-09-30 | 北京百度网讯科技有限公司 | 人体属性的识别方法、装置、电子设备和存储介质 |
CN116108225A (zh) * | 2023-04-13 | 2023-05-12 | 深圳开鸿数字产业发展有限公司 | 视频数据结构化方法、装置、终端设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109815842A (zh) | 一种确定待识别对象的属性信息的方法及装置 | |
CN109800679A (zh) | 一种确定待识别对象的属性信息的方法及装置 | |
CN109740517A (zh) | 一种确定待识别对象的方法及装置 | |
CN108596277B (zh) | 一种车辆身份识别方法、装置和存储介质 | |
CN112016464B (zh) | 检测人脸遮挡的方法、装置、电子设备及存储介质 | |
CN110869936B (zh) | 用于自动驾驶车辆中的分布式学习与适应的方法和系统 | |
CN104063712B (zh) | 一种车辆信息提取方法和系统 | |
CN110717414A (zh) | 一种目标检测追踪方法、装置及设备 | |
CN110753892A (zh) | 在自动驾驶车辆中用于经由交叉模态验证的即时物体标记的方法和系统 | |
CN109800682B (zh) | 驾驶员属性识别方法及相关产品 | |
CN110852269B (zh) | 一种基于特征聚类的跨镜头人像关联分析方法及装置 | |
CN111126224A (zh) | 车辆检测方法及分类识别模型训练方法 | |
CN110378236A (zh) | 基于深度学习的车辆身份识别模型构建、识别方法和系统 | |
Derpanis et al. | Classification of traffic video based on a spatiotemporal orientation analysis | |
CN110799982A (zh) | 用于自动驾驶车辆中的以物体为中心的立体视觉的方法和系统 | |
CN107529659B (zh) | 安全带佩戴检测方法、装置及电子设备 | |
CN109492560A (zh) | 基于时间尺度的人脸图像特征融合方法、装置和存储介质 | |
CN108694399A (zh) | 车牌识别方法、装置及系统 | |
CN109800675A (zh) | 一种确定人脸对象的识别图像的方法及装置 | |
CN110188828A (zh) | 一种基于虚拟样本集成学习的图像来源鉴别方法 | |
CN109800678A (zh) | 一种视频中对象的属性确定方法及装置 | |
Xue et al. | Nighttime pedestrian and vehicle detection based on a fast saliency and multifeature fusion algorithm for infrared images | |
CN114724122A (zh) | 一种目标追踪方法、装置、电子设备及存储介质 | |
CN116664873B (zh) | 图像信息处理方法、装置及存储介质 | |
CN109543568A (zh) | 一种车标定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190528 |