CN111274900A - 一种基于底层特征提取的空基人群计数方法 - Google Patents

一种基于底层特征提取的空基人群计数方法 Download PDF

Info

Publication number
CN111274900A
CN111274900A CN202010043542.2A CN202010043542A CN111274900A CN 111274900 A CN111274900 A CN 111274900A CN 202010043542 A CN202010043542 A CN 202010043542A CN 111274900 A CN111274900 A CN 111274900A
Authority
CN
China
Prior art keywords
feature map
feature
size
bottom layer
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010043542.2A
Other languages
English (en)
Other versions
CN111274900B (zh
Inventor
曹先彬
罗晓燕
张安然
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Beijing Institute of Technology BIT
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN202010043542.2A priority Critical patent/CN111274900B/zh
Publication of CN111274900A publication Critical patent/CN111274900A/zh
Application granted granted Critical
Publication of CN111274900B publication Critical patent/CN111274900B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于底层特征提取的空基人群计数方法,属于航空监视领域。首先无人机获得待检测的场景图并初步处理,然后使用卷积神经网路提取底层特征,对上述底层特征使用注意力机制生成注意力特征图。再将底层特征与注意力特征图使用解码器解码出高层特征。接着对高层特征使用卷积核大小为1的卷积层操作,获得通道为1的特征图Dout。最后对特征图Dout使用双线性插值方法逐步恢复空间分辨率,得到最终的人群密度图,对人群密度图中各像素值求和,得到该待检测场景图中的人群的数目。本发明生成的人群密度图更加清晰,对人群位置进行更精准的定位。

Description

一种基于底层特征提取的空基人群计数方法
技术领域
本发明属于航空监视领域,涉及一种基于底层特征提取的空基人群计数方法,可用于空基平台下密集场景的人群计数,对人群管理以及情报分析等任务有重大意义。
背景技术
近年来,在公共安全中,人群管理成为一个关键环节。由于各项人群聚集活动在世界范围内的增长,公共场所,如旅游景点,机场,火车站和体育场等地成为人口密集的地区。人群拥挤的状况下易突发紧急事件,因此,人群密度的实时监控对公共安全有着重大意义。
随着无人机技术的发展,越来越多的监视技术采用无人机携带摄像头的方法进行监视。其中,特别是对于人群的监控,空基平台的方法能提供整体的监控视角,能够更好地获得监控地区的人群密度。
然而,由于空基平台下密集人群的图片中人群较拥挤,个体与个体之间难以区分,造成计数困难。因此,需要一种方法对图片进行处理,以便明确区分每个个体,对人群密度做出准确评估。
发明内容
本发明为了获得高质量的人群密度图,提出一种基于底层特征提取的空基人群计数方法,可用于空基平台下密集场景的人群计数,对人群管理以及情报分析等任务有重大意义。
所述一种基于底层特征提取的空基人群计数方法,具体步骤如下:
步骤一,通过无人机携带的拍摄装置获得若干待检测的场景图,并分别进行初步处理。
所述的初步处理为:对每张待检测的场景图都进行人群裁剪处理,裁剪掉大范围的背景,保留人群部分。
步骤二,针对初步处理后的每张待检测场景图,使用卷积神经网络提取各自四张不同尺度的底层特征图F1,F2,F3和F4
具体为:
首先,使用7×7大小的卷积核降低当前待检测场景图片的分辨率,池化后的尺寸为原特征图的1/2。
然后,将尺寸为原特征图的1/2的特征图通过3×3大小的卷积核,并使用1/2倍数的池化操作,保存特征图F1
最后,对特征图F1重复使用3×3大小的卷积核和1/2倍数的池化操作,得到特征图F2
对特征图F2重复使用3×3大小的卷积核和1/2倍数的池化操作,得到特征图F3
对特征图F3重复使用3×3大小的卷积核和1/2倍数的池化操作,得到特征图F4
特征图F4为提取底层特征操作的输出,尺寸为原特征图的1/32。
步骤三,对当前待检测场景图的四张底层特征图,分别使用注意力机制生成四张对应的注意力特征图。
首先,对不同尺度的底层特征图F1,F2,F3和F4,分别通过卷积核大小为1×1,步长为1的卷积操作进行处理,得到对应的四个通道数为1的注意力特征模块;
然后,将每个注意力特征模块分别沿着通道方向复制,使各自的通道数与底层特征图的通道数相同,分别得到对应的注意力特征图M1,M2,M3和M4
步骤四,将底层特征图结合各自的注意力特征图,分别通过卷积层和上采样的方法得到高层特征图D’。
针对当前待检测场景图的底层特征图F4,使用卷积层和上采样的方法逐步恢复特征图的大小,得到不同尺度的高层特征,具体过程为:
步骤401,对底层特征图F4通过3×3大小的卷积核解码得到高层特征图D4
步骤402,将高层特征图D4与注意力特征图M4相加,通过3×3大小的卷积核和倍数为2的上采样操作得到高层特征图D3
步骤403,将高层特征图D3与注意力特征图M3相加,通过3×3大小的卷积核和倍数为2的上采样操作得到高层特征图D2
步骤404,将高层特征图D2与注意力特征图M2相加,通过3×3大小的卷积核和倍数为2的上采样操作得到高层特征图D1
步骤405,将高层特征图D1与注意力特征图M1相加作为最终输出的高层特征图D’;
步骤五,对高层特征图D’使用卷积核大小为1的卷积层操作,获得通道为1的特征图Dout
特征图Dout尺寸为原始输入图像的1/4。
步骤六,对特征图Dout使用双线性插值法逐步恢复空间分辨率,得到与原始图像尺寸相同的人群密度图。
步骤七,对人群密度图中各像素值求和,得到当前待检测场景图中的人群的数目Num。
Figure BDA0002368580270000021
其中M是人群密度图的像素点总数,Di是人群密度图中的第i个像素值。
本发明的优点及其带来的有益效果在于:
1、本发明一种基于底层特征提取的空基人群计数方法,获得了高质量的人群密度图,对于人群密集区域的监控和管理提供了一种便捷的方法。
2、本发明一种基于底层特征提取的空基人群计数方法,充分利用了底层特征和高层特征,使得生成的人群密度图更加清晰,包含更多细节。
3、本发明一种基于底层特征提取的空基人群计数方法,使用编解码器网络生成人群密度图,同时使用注意力机制,能对人群位置进行更精准的定位。
附图说明
图1为本发明一种基于底层特征提取的空基人群计数方法的流程图;
图2为本发明由底层特征图结合注意力特征图解码为高层特征图的原理图。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图对本发明作进一步的详细和深入描述。
由于空基平台下密集人群的图片人群较拥挤,个体与个体之间难以区分,造成计数困难。所以本发明提供了一种基于底层特征提取的空基人群计数方法,使用基于注意力机制的特征融合方法,充分利用卷积神经网络中的底层特征和高层特征,在解码器解码过程中,利用底层纹理清晰的特征生成注意力图,与高层特征进行融合,以获得高质量的人群密度图。
本发明一种基于底层特征提取的空基人群计数方法,如图1所示,本实施例提供的方法包括:
步骤一,通过无人机携带的拍摄装置获得若干待检测的场景图,并分别进行初步处理。
所述的初步处理为:对每张待检测的场景图都进行人群裁剪处理,裁剪掉大范围的背景,保留人群部分。
步骤二,针对初步处理后的某张待检测场景图,使用卷积神经网络提取四张不同尺度的底层特征图F1,F2,F3和F4
具体为:
首先,使用7×7大小的卷积核降低该待检测场景图片的分辨率,池化后的尺寸为原特征图的1/2。
然后,将尺寸为原特征图的1/2的特征图通过3×3大小的卷积核,并使用1/2倍数的池化操作,保存特征图F1
最后,对特征图F1重复使用3×3大小的卷积核和1/2倍数的池化操作,得到特征图F2
对特征图F2重复使用3×3大小的卷积核和1/2倍数的池化操作,得到特征图F3
对特征图F3重复使用3×3大小的卷积核和1/2倍数的池化操作,得到特征图F4
特征图F4为提取底层特征操作的输出,尺寸为原特征图的1/32。
步骤三,对四张底层特征图分别使用注意力机制生成各自对应的注意力特征图。
如图2所示,首先,对获取的不同尺度的底层特征图F1,F2,F3和F4,分别通过卷积核大小为1×1,步长为1的卷积操作进行处理,得到对应的四个通道数为1的注意力特征模块;1×1的卷积核使用通道方向的加权和得到了每个像素位置上的反应强度,能加强人群特征和非人群特征的区分性。
然后,将四个注意力特征模块分别沿着通道方向复制,使各自的通道数与底层特征图的通道数相同,分别得到对应的注意力特征图M1,M2,M3和M4
步骤四,将底层特征图结合各自的注意力特征图,使用解码器解码出高层特征,即分别通过卷积层和上采样的方法得到高层特征图D’。
针对底层特征图F4,使用卷积层和上采样的方法逐步恢复特征图的大小,得到不同尺度的高层特征,具体过程为:
步骤401,对底层特征图F4通过3×3大小的卷积核解码得到高层特征图D4
步骤402,将高层特征图D4与注意力特征图M4相加,通过3×3大小的卷积核和倍数为2的上采样操作得到高层特征图D3
步骤403,将高层特征图D3与注意力特征图M3相加,通过3×3大小的卷积核和倍数为2的上采样操作得到高层特征图D2
步骤404,将高层特征图D2与注意力特征图M2相加,通过3×3大小的卷积核和倍数为2的上采样操作得到高层特征图D1
步骤405,将高层特征图D1与注意力特征图M1相加作为最终输出的高层特征图D’;
步骤五,对高层特征图D’使用卷积核大小为1的卷积层操作,获得通道为1的特征图Dout
特征图Dout尺寸为原始输入图像的1/4。
步骤六,对特征图Dout使用双线性插值法逐步恢复空间分辨率,得到与原始图像尺寸相同的人群密度图。
步骤七,对人群密度图中各像素值求和,得到该待检测场景图中的人群的数目Num。
Figure BDA0002368580270000041
其中M是人群密度图的像素点总数,Di是人群密度图中的第i个像素值。

Claims (4)

1.一种基于底层特征提取的空基人群计数方法,其特征在于,具体步骤如下:
步骤一,通过无人机携带的拍摄装置获得若干待检测的场景图,并分别进行初步处理;
步骤二,针对初步处理后的每张待检测场景图,使用卷积神经网络提取各自四张不同尺度的底层特征图F1,F2,F3和F4
具体为:
首先,使用7×7大小的卷积核降低当前待检测场景图片的分辨率,池化后的尺寸为原特征图的1/2;
然后,将尺寸为原特征图的1/2的特征图通过3×3大小的卷积核,并使用1/2倍数的池化操作,保存特征图F1
最后,对特征图F1重复使用3×3大小的卷积核和1/2倍数的池化操作,得到特征图F2
对特征图F2重复使用3×3大小的卷积核和1/2倍数的池化操作,得到特征图F3
对特征图F3重复使用3×3大小的卷积核和1/2倍数的池化操作,得到特征图F4
特征图F4为提取底层特征操作的输出,尺寸为原特征图的1/32;
步骤三,对当前待检测场景图的四张底层特征图,分别使用注意力机制生成四张对应的注意力特征图;
首先,对获取的不同尺度的底层特征图F1,F2,F3和F4,分别通过卷积核大小为1×1,步长为1的卷积操作进行处理,得到对应的四个通道数为1的注意力特征模块;
然后,将每个注意力特征模块分别沿着通道方向复制,使各自的通道数与底层特征图的通道数相同,分别得到对应的注意力特征图M1,M2,M3和M4
步骤四,将底层特征图结合各自的注意力特征图,分别通过卷积层和上采样的方法得到高层特征图D’;
针对当前待检测场景图的底层特征图F4,使用卷积层和上采样的方法逐步恢复特征图的大小,得到不同尺度的高层特征,具体过程为:
步骤401,对底层特征图F4通过3×3大小的卷积核解码得到高层特征图D4
步骤402,将高层特征图D4与注意力特征图M4相加,通过3×3大小的卷积核和倍数为2的上采样操作得到高层特征图D3
步骤403,将高层特征图D3与注意力特征图M3相加,通过3×3大小的卷积核和倍数为2的上采样操作得到高层特征图D2
步骤404,将高层特征图D2与注意力特征图M2相加,通过3×3大小的卷积核和倍数为2的上采样操作得到高层特征图D1
步骤405,将高层特征图D1与注意力特征图M1相加作为最终输出的高层特征图D’;
步骤五,对高层特征图D’使用卷积核大小为1的卷积层操作,获得通道为1的特征图Dout
步骤六,对特征图Dout使用双线性插值法逐步恢复空间分辨率,得到与原始图像尺寸相同的人群密度图;
步骤七,对人群密度图中各像素值求和,得到当前待检测场景图中的人群的数目Num。
2.如权利要求1所述的一种基于底层特征提取的空基人群计数方法,其特征在于,步骤一中所述的初步处理为:对每张待检测的场景图都进行人群裁剪处理,裁剪掉大范围的背景,保留人群部分。
3.如权利要求1所述的一种基于底层特征提取的空基人群计数方法,其特征在于,所述的特征图Dout尺寸为原始输入图像的1/4。
4.如权利要求1所述的一种基于底层特征提取的空基人群计数方法,其特征在于,所述的待检测场景图中的人群的数目Num为:
Figure FDA0002368580260000021
其中M是人群密度图的像素点总数,Di是人群密度图中的第i个像素值。
CN202010043542.2A 2020-01-15 2020-01-15 一种基于底层特征提取的空基人群计数方法 Active CN111274900B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010043542.2A CN111274900B (zh) 2020-01-15 2020-01-15 一种基于底层特征提取的空基人群计数方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010043542.2A CN111274900B (zh) 2020-01-15 2020-01-15 一种基于底层特征提取的空基人群计数方法

Publications (2)

Publication Number Publication Date
CN111274900A true CN111274900A (zh) 2020-06-12
CN111274900B CN111274900B (zh) 2021-01-01

Family

ID=70999044

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010043542.2A Active CN111274900B (zh) 2020-01-15 2020-01-15 一种基于底层特征提取的空基人群计数方法

Country Status (1)

Country Link
CN (1) CN111274900B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100195865A1 (en) * 2008-08-08 2010-08-05 Luff Robert A Methods and apparatus to count persons in a monitored environment
CN102324016A (zh) * 2011-05-27 2012-01-18 郝红卫 一种高密度人群流量统计方法
WO2016183766A1 (en) * 2015-05-18 2016-11-24 Xiaogang Wang Method and apparatus for generating predictive models
CN106845621A (zh) * 2017-01-18 2017-06-13 山东大学 基于深度卷积神经网络的密集人群人数计数方法及系统
CN107742099A (zh) * 2017-09-30 2018-02-27 四川云图睿视科技有限公司 一种基于全卷积网络的人群密度估计、人数统计的方法
CN109241895A (zh) * 2018-08-28 2019-01-18 北京航空航天大学 密集人群计数方法及装置
KR20190022126A (ko) * 2017-08-25 2019-03-06 광운대학교 산학협력단 컨벌루션 신경망을 이용한 임베디드 플랫폼 상의 피플 카운팅 방법
CN109948553A (zh) * 2019-03-20 2019-06-28 北京航空航天大学 一种多尺度密集人群计数方法
CN109993269A (zh) * 2019-03-13 2019-07-09 华南理工大学 基于注意力机制的单张图像人群计数方法
CN110188685A (zh) * 2019-05-30 2019-08-30 燕山大学 一种基于双注意力多尺度级联网络的目标计数方法及系统
CN110503014A (zh) * 2019-08-08 2019-11-26 东南大学 基于多尺度掩码感知回馈卷积神经网络的人数统计方法
WO2020001302A1 (zh) * 2018-06-25 2020-01-02 苏州欧普照明有限公司 一种基于视觉传感器的人流量统计方法、装置及系统

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100195865A1 (en) * 2008-08-08 2010-08-05 Luff Robert A Methods and apparatus to count persons in a monitored environment
CN102324016A (zh) * 2011-05-27 2012-01-18 郝红卫 一种高密度人群流量统计方法
WO2016183766A1 (en) * 2015-05-18 2016-11-24 Xiaogang Wang Method and apparatus for generating predictive models
CN106845621A (zh) * 2017-01-18 2017-06-13 山东大学 基于深度卷积神经网络的密集人群人数计数方法及系统
KR20190022126A (ko) * 2017-08-25 2019-03-06 광운대학교 산학협력단 컨벌루션 신경망을 이용한 임베디드 플랫폼 상의 피플 카운팅 방법
CN107742099A (zh) * 2017-09-30 2018-02-27 四川云图睿视科技有限公司 一种基于全卷积网络的人群密度估计、人数统计的方法
WO2020001302A1 (zh) * 2018-06-25 2020-01-02 苏州欧普照明有限公司 一种基于视觉传感器的人流量统计方法、装置及系统
CN109241895A (zh) * 2018-08-28 2019-01-18 北京航空航天大学 密集人群计数方法及装置
CN109993269A (zh) * 2019-03-13 2019-07-09 华南理工大学 基于注意力机制的单张图像人群计数方法
CN109948553A (zh) * 2019-03-20 2019-06-28 北京航空航天大学 一种多尺度密集人群计数方法
CN110188685A (zh) * 2019-05-30 2019-08-30 燕山大学 一种基于双注意力多尺度级联网络的目标计数方法及系统
CN110503014A (zh) * 2019-08-08 2019-11-26 东南大学 基于多尺度掩码感知回馈卷积神经网络的人数统计方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
JIANG LIU等: ""DecideNet: Counting Varying Density Crowds Through Attention Guided Detection and Density Estimation"", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
LINGKE ZENG等: ""Multi-scale convolutional neural networks for crowd counting"", 《2017 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING (ICIP)》 *
SHUNQIANG LIU等: ""An effective approach to crowd counting with CNN-based statistical features"", 《2017 INTERNATIONAL SMART CITIES CONFERENCE (ISC2)》 *
XIAOLONG JIANG等: ""Crowd Counting and Density Estimation by Trellis Encoder-Decoder Networks"", 《2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
蓝海磊: ""人群计数算法综述"", 《计算机产品与流通》 *
陈美云等: ""基于像素级注意力机制的人群计数方法"", 《计算机应用》 *

Also Published As

Publication number Publication date
CN111274900B (zh) 2021-01-01

Similar Documents

Publication Publication Date Title
CN112163449B (zh) 一种轻量化的多分支特征跨层融合图像语义分割方法
CN110889449A (zh) 一种增强边缘的、多尺度的遥感影像建筑物语义特征提取方法
CN113344806A (zh) 一种基于全局特征融合注意力网络的图像去雾方法与系统
CN110717532A (zh) 基于SE-RetinaGrasp模型的机器人目标抓取区域实时检测方法
CN112581409B (zh) 一种基于端到端的多重信息蒸馏网络的图像去雾方法
CN111640116B (zh) 基于深层卷积残差网络的航拍图建筑物分割方法及装置
CN107730530A (zh) 一种基于智慧城市的远程应急管理控制方法
CN111582074A (zh) 一种基于场景深度信息感知的监控视频树叶遮挡检测方法
CN109523558A (zh) 一种人像分割方法及系统
CN113887472A (zh) 基于级联颜色及纹理特征注意力的遥感图像云检测方法
CN114519667A (zh) 一种图像超分辨率重建方法及系统
CN114140357B (zh) 一种基于协同注意力机制的多时相遥感图像云区重建方法
CN115035295A (zh) 一种基于共享卷积核和边界损失函数的遥感图像语义分割方法
CN115601236A (zh) 一种基于特征信息蒸馏网络的遥感图像超分辨重建方法
CN117475216A (zh) 一种基于aglt网络的高光谱与激光雷达数据融合分类方法
CN112668675B (zh) 一种图像处理方法、装置、计算机设备及存储介质
CN111274900B (zh) 一种基于底层特征提取的空基人群计数方法
CN116778169A (zh) 基于混合特征提取的遥感图像语义分割方法、装置和设备
CN115861922A (zh) 一种稀疏烟火检测方法、装置、计算机设备及存储介质
CN115953736A (zh) 一种基于视频监控与深度神经网络的人群密度估计方法
CN113094422B (zh) 一种城市道路交通流量图生成方法、系统及设备
CN114694031A (zh) 一种基于多任务注意力机制的遥感图像典型地物提取方法
CN111488834B (zh) 一种基于多层级特征融合的人群计数方法
Pang et al. PTRSegNet: A Patch-to-Region Bottom-Up Pyramid Framework for the Semantic Segmentation of Large-Format Remote Sensing Images
CN112528803A (zh) 道路特征提取方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Cao Xianbin

Inventor after: Luo Xiaoyan

Inventor after: Song Tao

Inventor after: He Shaomi

Inventor after: Zhang Anran

Inventor before: Cao Xianbin

Inventor before: Luo Xiaoyan

Inventor before: Zhang Anran

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20201204

Address after: 100191 Haidian District, Xueyuan Road, No. 37,

Applicant after: BEIHANG University

Applicant after: BEIJING INSTITUTE OF TECHNOLOGY

Address before: 100191 Haidian District, Xueyuan Road, No. 37,

Applicant before: BEIHANG University

GR01 Patent grant
GR01 Patent grant