CN105631413A - 一种基于深度学习的跨场景行人搜索方法 - Google Patents
一种基于深度学习的跨场景行人搜索方法 Download PDFInfo
- Publication number
- CN105631413A CN105631413A CN201510977881.7A CN201510977881A CN105631413A CN 105631413 A CN105631413 A CN 105631413A CN 201510977881 A CN201510977881 A CN 201510977881A CN 105631413 A CN105631413 A CN 105631413A
- Authority
- CN
- China
- Prior art keywords
- image
- local feature
- picture
- sample storehouse
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的跨场景行人搜索方法,包括:对样本库中的每张图片进行预处理;构建卷积神经网络并训练;对经预处理的两组图像集提取上半身局部特征向量集和下半身局部特征向量集,然后将其融合得到全局特征向量;将待搜索图片经过预处理后,提取上半身局部特征向量和下半身局部特征向量并融合,得到的全局特征向量;将待搜索图片对应的全局特征向量与样本库图片对应的全局特征向量,通过余弦相似度依次进行比对,输出一组相似度值,并将相似度值按照排序算法进行排序。本发明的有益效果是:本发明是以监控视频中获取的行人图片作为样本库,不需要对特征进行设计、特征鲁棒性强且实际搜索准确率高。
Description
技术领域
本发明涉及信息技术技术领域,特别涉及一种基于深度学习的跨场景行人搜索方法。
背景技术
随着平安城市战略的启动,越来越多的网络监控摄像机被安装在大型广场、商场、公司、医院、公园、学校、地铁站等人群密集且易发生公共安全事件的场所。当事件发生后,需要从多个摄像机的监控视频画面中寻找可疑目标人物,而这些监控摄像机安装在各个地方且跨度很大,这样就给工作人员从多个监控视频画面中寻找该可疑目标行人带来巨大挑战。传统的搜索比对方法比较多,比如基于颜色、纹理和轮廓等,均是以公开库做样本库,而且需要对特征进行设计而且特征的鲁棒性不强,实际搜索应用的准确率不高。
发明内容
本发明提供了一种基于深度学习的跨场景行人搜索方法,是以监控视频中的获取的图片做样本库,不需要对特征进行设计、特征鲁棒性强且实际搜索准确率高。
为了实现上述发明目的,本发明提供了一种基于深度学习的跨场景行人搜索方法,其中,所述方法包括:
步骤S101:构建样本库,对样本库中的每张图片进行尺寸归一化、分割预处理,每张图片均得到对应的上半身图像和下半身图像,经上述处理后,样本库包括两组图像集,分别为上半身图像集和下半身图像集;
步骤S102:构建卷积神经网络,将步骤S101得到的上半身图像集和下半身图像集分别输入到卷积神经网络进行训练,得到最终训练好的卷积神经网络模型;
步骤S103:将步骤S101得到的两组图像集输入到训练好的卷积神经网络模型,得到与两组图像集对应的上半身局部特征向量集和下半身局部特征向量集,然后将同一图像对应的上半身局部特征向量和下半身局部特征向量融合,得到与样本库所有图片一一对应的全局特征向量;
步骤S104:将待搜索图片经过尺寸归一化、分割预处理后,输入到训练好的卷积神经网络模型,将得到的上半身局部特征向量和下半身局部特征向量融合,得到待搜索图片对应的全局特征向量;
步骤S105:通过余弦相似度将步骤S104得到的与待搜索图片对应的全局特征向量,与步骤S103得到的与样本库图片对应的全局特征向量,依次进行比对,输出一组相似度值,并将相似度值按照排序算法进行排序,得到最大相似度值对应的样本库中的图片。
其中,所述样本库是由利用Hog特征和SVM分类器,对监控视频的视频帧进行行人检测,获取的完整行人图片组成。
所述步骤S101和所述步骤S104中,所述尺寸归一化具体为:将图像统一归一化为60×160像素;所述分割预处理是将图像分割为上一半图像和下一半图像,且上一半图像与下一半图像有重叠部分,所述重叠部分至少占整张图像的1/3,经所述分割预处理的图像均得到与人体上半身图像对应的上一半图像和与人体下半身图像对应的下一半图像。
所述步骤S102中,所述卷积神经网络包括四层卷积池化层和三层全连接层。
本发明的有益效果是:本发明是以监控视频中获取的行人图片作为样本库,不需要对特征进行设计、特征鲁棒性强且实际搜索准确率高;本发明基于图像内容对图片进行分割,可以精确提取行人目标的局部特征,并对重要位置特征多次提取,增强特征效果,有效减少局部特征丢失,提高搜索准确率;构建一个适应于行人搜索的深度网络结构(卷积神经网络),采用大数据投入网络训练,利用深度卷积神经网络提取出高级特征,计算出它们的相似度,以此搜索目标行人;根据排序结果既可清晰的查到搜索行人的效果,最终实现跨场景行人搜索。
附图说明
图1为本发明实施例的方法流程图。
图2为本发明实施例中图像分割预处理的示意图。
图3为本发明实施例中卷积神经网络的结构图。
具体实施方式
本发明提供了一种基于深度学习的跨场景行人搜索方法,首先基于图像内容对图像进行分割,构建一个适应于行人搜索的深度网络结构,然后将处理过后的图像投入训练,得出训练模型,再根据此排名算法输出排名结果,最终达到跨场景搜索行人的目的。
参见图1,具体方法如下:
步骤S101:构建样本库,对样本库中的每张图片进行尺寸归一化、分割预处理,每张图片均得到对应的上半身图像和下半身图像,经上述处理后,样本库包括两组图像集,分别为上半身图像集和下半身图像集;
步骤S102:构建卷积神经网络,将步骤S101得到的上半身图像集和下半身图像集分别输入到卷积神经网络进行训练,得到最终训练好的卷积神经网络模型;
步骤S103:将步骤S101得到的两组图像集输入到训练好的卷积神经网络模型,得到与两组图像集对应的上半身局部特征向量集和下半身局部特征向量集,然后将同一图像对应的上半身局部特征向量和下半身局部特征向量融合,得到与样本库所有图片一一对应的全局特征向量;
步骤S104:将待搜索图片经过尺寸归一化、分割预处理后,输入到训练好的卷积神经网络模型,将得到的上半身局部特征向量和下半身局部特征向量融合,得到待搜索图片对应的全局特征向量;
步骤S105:通过余弦相似度将步骤S104得到的与待搜索图片对应的全局特征向量,与步骤S103得到的与样本库图片对应的全局特征向量,依次进行比对,输出一组相似度值,并将相似度值按照排序算法进行排序,得到最大相似度值对应的样本库中的图片。
其中,样本库是由利用Hog特征和SVM分类器,对监控视频的视频帧进行行人检测,获取的完整行人图片组成;监控视频中的视频帧为24张/s。
步骤S101和步骤S104中,尺寸归一化具体为:将图像统一归一化为60×160像素;分割预处理如图2所示,具体是将图像分割为上一半图像和下一半图像,且上一半图像与下一半图像有重叠部分,所述重叠部分至少占整张图像的1/3,经所述分割预处理的图像均得到与人体上半身图像对应的上一半图像和与人体下半身图像对应的下一半图像。
步骤S102中,卷积神经网络结构包括四层卷积池化层和三层全连接层;
如图3所示,卷积神经网络主要采用四层卷积(con1-con4)、池化层(pool1-pool4)和三层全连接层(ip1、ip2、ip3);具体过程如下:
1、原图是60×107像素(分辨率为72像素/英寸)的图片,通过第一次5×5的卷积核之后,得到尺寸为(60-5+1)×(107-5+1)的卷积图片,卷积核的权重是取一定范围内的随机值,该图片的像素还需要进行Relu函数的变换,normal层的处理,才能作为池化层的输入,将56×103像素的图片进行2×2的最大池化,得到尺寸为28×51的图片,作为下一层卷积层的输入;
2、剩余的三层卷积池化层(con2-con4、pool2-pool4)按照上述过程逐一进行;
3、将最后一层卷积池化后,进行全连接(ip1)输出4096维特征向量,然后进行Relu函数的变换,再通过dropout层去除多余权重信息;
4、最后经过全连接(ip1、ip2)处理,最终输出训练模型。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种基于深度学习的跨场景行人搜索方法,其特征在于,所述方法包括:
步骤S101:构建样本库,对样本库中的每张图片进行尺寸归一化和分割预处理,每张图片均得到对应的上半身图像和下半身图像,经上述处理后,样本库包括两组图像集,分别为上半身图像集和下半身图像集;
步骤S102:构建卷积神经网络,将步骤S101得到的上半身图像集和下半身图像集分别输入到卷积神经网络进行训练,得到训练好的卷积神经网络模型;
步骤S103:将步骤S101得到的两组图像集输入到训练好的卷积神经网络模型,得到与两组图像集对应的上半身局部特征向量集和下半身局部特征向量集,然后将同一图像对应的上半身局部特征向量和下半身局部特征向量融合,从而得到该图像的全局特征向量,对样本库中所有图像进行相同处理得到与样本库所有图片一一对应的全局特征向量;
步骤S104:将待搜索图片经过尺寸归一化和分割预处理后,输入到训练好的卷积神经网络模型,将得到的上半身局部特征向量和下半身局部特征向量融合,得到待搜索图片对应的全局特征向量;
步骤S105:通过余弦相似度将步骤S104得到的与待搜索图片对应的全局特征向量,与步骤S103得到的与样本库图片对应的全局特征向量,依次进行比对,输出一组相似度值,并将相似度值按照排序算法进行排序,得到最大相似度值对应的样本库中的图片。
2.根据权利要求1所述的基于深度学习的跨场景行人搜索方法,其特征在于,所述样本库是由利用Hog特征和SVM分类器,对监控视频的视频帧进行行人检测,获取的完整行人图片组成。
3.根据权利要求1或2所述的基于深度学习的跨场景行人搜索方法,其特征在于,所述步骤S101和所述步骤S104中,所述尺寸归一化具体为:将图像统一归一化为60×160像素;所述分割预处理是将图像分割为上一半图像和下一半图像,且上一半图像与下一半图像有重叠部分,所述重叠部分至少占整张图像的1/3,经所述分割预处理的图像均得到与人体上半身图像对应的上一半图像和与人体下半身图像对应的下一半图像。
4.根据权利要求1-3任一项所述的基于深度学习的跨场景行人搜索方法,其特征在于,所述步骤S102中,所述卷积神经网络包括四层卷积池化层和三层全连接层。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510977881.7A CN105631413A (zh) | 2015-12-23 | 2015-12-23 | 一种基于深度学习的跨场景行人搜索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510977881.7A CN105631413A (zh) | 2015-12-23 | 2015-12-23 | 一种基于深度学习的跨场景行人搜索方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105631413A true CN105631413A (zh) | 2016-06-01 |
Family
ID=56046326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510977881.7A Pending CN105631413A (zh) | 2015-12-23 | 2015-12-23 | 一种基于深度学习的跨场景行人搜索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105631413A (zh) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203506A (zh) * | 2016-07-11 | 2016-12-07 | 上海凌科智能科技有限公司 | 一种基于深度学习技术的行人检测方法 |
CN106227851A (zh) * | 2016-07-29 | 2016-12-14 | 汤平 | 基于深度卷积神经网络端对端的通过分层深度搜索的图像检索方法 |
CN106845415A (zh) * | 2017-01-23 | 2017-06-13 | 中国石油大学(华东) | 一种基于深度学习的行人精细化识别方法及装置 |
CN107066916A (zh) * | 2016-10-26 | 2017-08-18 | 中国科学院自动化研究所 | 基于反卷积神经网络的场景语义分割方法 |
CN107729804A (zh) * | 2017-08-31 | 2018-02-23 | 广东数相智能科技有限公司 | 一种基于服饰特征的人流量统计方法及装置 |
CN108197584A (zh) * | 2018-01-12 | 2018-06-22 | 武汉大学 | 一种基于三元组深度神经网络的行人重识别方法 |
CN108229344A (zh) * | 2017-12-19 | 2018-06-29 | 深圳市商汤科技有限公司 | 图像处理方法和装置、电子设备、计算机程序和存储介质 |
CN108229492A (zh) * | 2017-03-29 | 2018-06-29 | 北京市商汤科技开发有限公司 | 提取特征的方法、装置及系统 |
CN108345837A (zh) * | 2018-01-17 | 2018-07-31 | 浙江大学 | 一种基于人体区域对齐化特征表达学习的行人再识别方法 |
CN108875588A (zh) * | 2018-05-25 | 2018-11-23 | 武汉大学 | 基于深度学习的跨摄像头行人检测跟踪方法 |
CN109344688A (zh) * | 2018-08-07 | 2019-02-15 | 江苏大学 | 一种基于卷积神经网络的监控视频中人的自动识别方法 |
CN109359552A (zh) * | 2018-09-21 | 2019-02-19 | 中山大学 | 一种高效的跨摄像头行人双向跟踪方法 |
CN109460787A (zh) * | 2018-10-26 | 2019-03-12 | 北京交通大学 | 入侵检测模型建立方法、装置及数据处理设备 |
CN109960988A (zh) * | 2017-12-26 | 2019-07-02 | 浙江宇视科技有限公司 | 图像分析方法、装置、电子设备及可读存储介质 |
CN109977793A (zh) * | 2019-03-04 | 2019-07-05 | 东南大学 | 基于变尺度多特征融合卷积网络的路侧图像行人分割方法 |
CN110490901A (zh) * | 2019-07-15 | 2019-11-22 | 武汉大学 | 抗姿态变化的行人检测跟踪方法 |
CN110889428A (zh) * | 2019-10-21 | 2020-03-17 | 浙江大搜车软件技术有限公司 | 图像识别方法、装置、计算机设备与存储介质 |
CN111581418A (zh) * | 2020-04-29 | 2020-08-25 | 山东科技大学 | 一种基于图像关联人物信息的目标人员搜索方法 |
CN112446322A (zh) * | 2020-11-24 | 2021-03-05 | 杭州网易云音乐科技有限公司 | 眼球特征检测方法、装置、设备及计算机可读存储介质 |
WO2021098585A1 (en) * | 2019-11-22 | 2021-05-27 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image search based on combined local and global information |
CN113159081A (zh) * | 2020-01-23 | 2021-07-23 | 华为技术有限公司 | 一种图像处理方法以及相关设备 |
CN113705462A (zh) * | 2021-08-30 | 2021-11-26 | 平安科技(深圳)有限公司 | 人脸识别方法、装置、电子设备及计算机可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130343642A1 (en) * | 2012-06-21 | 2013-12-26 | Siemens Corporation | Machine-learnt person re-identification |
CN104915643A (zh) * | 2015-05-26 | 2015-09-16 | 中山大学 | 一种基于深度学习的行人再标识方法 |
CN105069466A (zh) * | 2015-07-24 | 2015-11-18 | 成都市高博汇科信息科技有限公司 | 基于数字图像处理的行人服饰颜色识别方法 |
-
2015
- 2015-12-23 CN CN201510977881.7A patent/CN105631413A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130343642A1 (en) * | 2012-06-21 | 2013-12-26 | Siemens Corporation | Machine-learnt person re-identification |
CN104915643A (zh) * | 2015-05-26 | 2015-09-16 | 中山大学 | 一种基于深度学习的行人再标识方法 |
CN105069466A (zh) * | 2015-07-24 | 2015-11-18 | 成都市高博汇科信息科技有限公司 | 基于数字图像处理的行人服饰颜色识别方法 |
Non-Patent Citations (1)
Title |
---|
YANG HU ET AL: "Cross Dataset Person Re-identification", 《ASIAN CONFERENCE ON COMPUTER VISION 2014 WORKSHOPS》 * |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203506B (zh) * | 2016-07-11 | 2019-06-21 | 上海凌科智能科技有限公司 | 一种基于深度学习技术的行人检测方法 |
CN106203506A (zh) * | 2016-07-11 | 2016-12-07 | 上海凌科智能科技有限公司 | 一种基于深度学习技术的行人检测方法 |
CN106227851A (zh) * | 2016-07-29 | 2016-12-14 | 汤平 | 基于深度卷积神经网络端对端的通过分层深度搜索的图像检索方法 |
CN106227851B (zh) * | 2016-07-29 | 2019-10-01 | 汤一平 | 基于深度卷积神经网络的分层深度搜索的图像检索方法 |
CN107066916A (zh) * | 2016-10-26 | 2017-08-18 | 中国科学院自动化研究所 | 基于反卷积神经网络的场景语义分割方法 |
CN107066916B (zh) * | 2016-10-26 | 2020-02-07 | 中国科学院自动化研究所 | 基于反卷积神经网络的场景语义分割方法 |
CN106845415A (zh) * | 2017-01-23 | 2017-06-13 | 中国石油大学(华东) | 一种基于深度学习的行人精细化识别方法及装置 |
CN106845415B (zh) * | 2017-01-23 | 2020-06-23 | 中国石油大学(华东) | 一种基于深度学习的行人精细化识别方法及装置 |
CN108229492B (zh) * | 2017-03-29 | 2020-07-28 | 北京市商汤科技开发有限公司 | 提取特征的方法、装置及系统 |
CN108229492A (zh) * | 2017-03-29 | 2018-06-29 | 北京市商汤科技开发有限公司 | 提取特征的方法、装置及系统 |
CN107729804A (zh) * | 2017-08-31 | 2018-02-23 | 广东数相智能科技有限公司 | 一种基于服饰特征的人流量统计方法及装置 |
CN108229344A (zh) * | 2017-12-19 | 2018-06-29 | 深圳市商汤科技有限公司 | 图像处理方法和装置、电子设备、计算机程序和存储介质 |
CN109960988A (zh) * | 2017-12-26 | 2019-07-02 | 浙江宇视科技有限公司 | 图像分析方法、装置、电子设备及可读存储介质 |
CN108197584A (zh) * | 2018-01-12 | 2018-06-22 | 武汉大学 | 一种基于三元组深度神经网络的行人重识别方法 |
CN108345837A (zh) * | 2018-01-17 | 2018-07-31 | 浙江大学 | 一种基于人体区域对齐化特征表达学习的行人再识别方法 |
CN108875588A (zh) * | 2018-05-25 | 2018-11-23 | 武汉大学 | 基于深度学习的跨摄像头行人检测跟踪方法 |
CN109344688A (zh) * | 2018-08-07 | 2019-02-15 | 江苏大学 | 一种基于卷积神经网络的监控视频中人的自动识别方法 |
CN109359552A (zh) * | 2018-09-21 | 2019-02-19 | 中山大学 | 一种高效的跨摄像头行人双向跟踪方法 |
CN109359552B (zh) * | 2018-09-21 | 2020-11-13 | 中山大学 | 一种高效的跨摄像头行人双向跟踪方法 |
CN109460787A (zh) * | 2018-10-26 | 2019-03-12 | 北京交通大学 | 入侵检测模型建立方法、装置及数据处理设备 |
CN109977793A (zh) * | 2019-03-04 | 2019-07-05 | 东南大学 | 基于变尺度多特征融合卷积网络的路侧图像行人分割方法 |
CN109977793B (zh) * | 2019-03-04 | 2022-03-04 | 东南大学 | 基于变尺度多特征融合卷积网络的路侧图像行人分割方法 |
CN110490901A (zh) * | 2019-07-15 | 2019-11-22 | 武汉大学 | 抗姿态变化的行人检测跟踪方法 |
CN110889428A (zh) * | 2019-10-21 | 2020-03-17 | 浙江大搜车软件技术有限公司 | 图像识别方法、装置、计算机设备与存储介质 |
WO2021098585A1 (en) * | 2019-11-22 | 2021-05-27 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image search based on combined local and global information |
CN113159081A (zh) * | 2020-01-23 | 2021-07-23 | 华为技术有限公司 | 一种图像处理方法以及相关设备 |
CN111581418A (zh) * | 2020-04-29 | 2020-08-25 | 山东科技大学 | 一种基于图像关联人物信息的目标人员搜索方法 |
CN112446322A (zh) * | 2020-11-24 | 2021-03-05 | 杭州网易云音乐科技有限公司 | 眼球特征检测方法、装置、设备及计算机可读存储介质 |
CN112446322B (zh) * | 2020-11-24 | 2024-01-23 | 杭州网易云音乐科技有限公司 | 眼球特征检测方法、装置、设备及计算机可读存储介质 |
CN113705462A (zh) * | 2021-08-30 | 2021-11-26 | 平安科技(深圳)有限公司 | 人脸识别方法、装置、电子设备及计算机可读存储介质 |
CN113705462B (zh) * | 2021-08-30 | 2023-07-14 | 平安科技(深圳)有限公司 | 人脸识别方法、装置、电子设备及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105631413A (zh) | 一种基于深度学习的跨场景行人搜索方法 | |
Guan et al. | Fusion of multispectral data through illumination-aware deep neural networks for pedestrian detection | |
Li et al. | Building-a-nets: Robust building extraction from high-resolution remote sensing images with adversarial networks | |
CN108764065B (zh) | 一种行人重识别特征融合辅助学习的方法 | |
CN109508663B (zh) | 一种基于多层次监督网络的行人重识别方法 | |
CN109961006A (zh) | 一种低像素多目标人脸检测和关键点定位方法以及对齐方法 | |
CN108090403A (zh) | 一种基于3d卷积神经网络的人脸动态识别方法及系统 | |
Lu et al. | Cascaded multi-task road extraction network for road surface, centerline, and edge extraction | |
CN102043953A (zh) | 一种实时鲁棒的针对特定场景的行人检测方法 | |
CN107527031A (zh) | 一种基于ssd的室内目标检测方法 | |
CN102034267A (zh) | 基于关注度的目标物三维重建方法 | |
CN104376334B (zh) | 一种多尺度特征融合的行人比对方法 | |
Lin et al. | Foreground detection in surveillance video with fully convolutional semantic network | |
CN107767416A (zh) | 一种低分辨率图像中行人朝向的识别方法 | |
CN103729620B (zh) | 一种基于多视角贝叶斯网络的多视角行人检测方法 | |
CN103218604A (zh) | 交通场景中基于路面提取的行人检测方法 | |
Zhai et al. | Group-split attention network for crowd counting | |
Zhou et al. | A study on attention-based LSTM for abnormal behavior recognition with variable pooling | |
Pismenskova et al. | Classification of a two-dimensional pose using a human skeleton | |
Wang et al. | YOLOv5_CSL_F: YOLOv5’s loss improvement and attention mechanism application for remote sensing image object detection | |
CN111027440A (zh) | 一种基于神经网络的人群异常行为检测装置和检测方法 | |
Zhang et al. | A pyramid attention network with edge information injection for remote sensing object detection | |
Pang et al. | Infrared and visible image fusion based on double fluid pyramids and multi-scale gradient residual block | |
Yu et al. | Motion target detection and recognition based on YOLOv4 algorithm | |
CN111062275A (zh) | 一种多层次监督的人群计数方法、装置、介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160601 |
|
RJ01 | Rejection of invention patent application after publication |