CN110942015A - 人群密度估计方法 - Google Patents
人群密度估计方法 Download PDFInfo
- Publication number
- CN110942015A CN110942015A CN201911161705.0A CN201911161705A CN110942015A CN 110942015 A CN110942015 A CN 110942015A CN 201911161705 A CN201911161705 A CN 201911161705A CN 110942015 A CN110942015 A CN 110942015A
- Authority
- CN
- China
- Prior art keywords
- crowd
- network
- training
- density
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种人群密度估计方法,本发明通过使用AlexNet网络将人群图片数据集分为密集与稀疏两类,然后针对这两类图像密度特征的不同将其分别送入对应的特征提取网络,从而获取更好有效的人群密度估计特征。本发明用于估计高密度人群图片中的人群数量,可预防人群过度拥挤造成的意外情况发生。本发明是一种组合式网络人群密度估计算法,通过对人群稠密、稀疏这两类情况分别做人群密度估计。该发明能更好的提供有效的人群密度估计特征,且能改善密度图分布不相似的问题,具有较好的鲁棒性。
Description
技术领域
本发明涉及一种人群密度估计方法。
背景技术
近年来,基于卷积神经网络的视频图像分析成为机器视觉领域的一项热门课题,其应用非常广泛。其中,人群密度估计是一个重要分支。人群密度估计是指将高密度人群图片通过卷积神经网络输出相对应的人群密度图,对密度图中所有像素进行求和得到总人数的过程。
目前,除了传统的人群计数算法,很多基于深度学习的人群计数算法被不断提出。对于深度学习算法来讲,由于损失函数的影响,使得网络学习出来的密度图较为模糊,与真实对应的密度图差异较大,同时还可能造成过估计的问题。为了解决这种问题,采用对人口密度的大小进行分别处理,而这种处理方式较统一进行人口估计的情况误差小的多,能改善密度图分布不相似的问题,且鲁棒性更高,给大型人群聚集场所的安全方面与规划方面带来最为准确的数据。
发明内容
本发明的目的在于提供一种人群密度估计方法。
为解决上述问题,本发明提供一种人群密度估计方法,包括:
根据密度大于预设阈值的人群图像数据集给定的对应人群位置坐标构建相应真值图,训练用于图像情况分类的AlexNet网络、训练密集情况下的融合注意力机制的特征网络和训练稀疏情况下的融合空洞卷积的特征网络;
将所述AlexNet网络、融合注意力机制的特征网络和融合空洞卷积的特征网络搭建成一个具有分类图像、提取人群密度图像的最终训练网络。
进一步的,在上述方法中,根据密度大于预设阈值的人群图像数据集给定的对应人群位置坐标构建相应真值图,包括:
获取密度大于预设阈值的人群图像数据集中的原始图像,分为人群相对密集原始图像与稀疏原始图像两种情况对分别赋予不同的疏密情况标号;
利用自适应高斯核的人群密度图生成方法分别获得所述人群相对密集原始图像与稀疏原始图像中的人群位置坐标所对应的人群密度真值图。
进一步的,在上述方法中,训练用于图像情况分类的AlexNet网络,包括:
构建AlexNet网络,共8层,其中5层卷积层,3层全连接层。
分别将人群相对密集原始图像与稀疏原始图像作为输入,并将对应的疏密情况标号作为输出,将所述输入和输出导入到所述AlexNet网络中训练,训练完成,获得相对密集的图像集A与相对稀疏的图像集B,并保留训练后的AlexNet网络中的所有参数不变。
进一步的,在上述方法中,训练密集情况下的融合注意力机制的特征网络,包括:
构建融合注意力机制的特征网络;
将所述相对密集图像集A作为输入,导入到融合注意力机制的特征网络中进行训练,训练完成后,保留训练后该融合注意力机制的特征网络中的所有参数不变。
进一步的,在上述方法中,训练稀疏情况下的融合空洞卷积的特征网络,包括:
构建融合空洞卷积的特征网络
将所述相对稀疏图像集B作为输入,导入到融合空洞卷积特征网络中进行训练,训练完成后,保留训练后该融合空洞卷积的特征网络中的所有参数不变。
进一步的,在上述方法中,将所述AlexNet网络、融合注意力机制的特征网络和融合空洞卷积的特征网络搭建成一个具有分类图像、提取人群密度图像的最终训练网络之后,还包括:
在验证环节中,将待估计的单张人群密度图像输入到最终训练网络,获得相应的人群密度图片,对所述人群密度图中所有像素进行求和得到该人群密度图片中的总人数。
进一步的,在上述方法中,将所述AlexNet网络、融合注意力机制的特征网络和融合空洞卷积的特征网络搭建成一个具有分类图像、提取人群密度图像的最终训练网络,包括:
以训练完成的AlexNet网络作为总分类依据,以训练完成的密集情况下的融合注意力机制的特征网络、稀疏情况下的融合注意力机制的特征网络作为各分支情况下的处理方式,以此搭建最终训练网络。
与现有技术相比,本发明通过使用AlexNet网络将人群图片数据集分为密集与稀疏两类,然后针对这两类图像密度特征的不同将其分别送入对应的特征提取网络,从而获取更好有效的人群密度估计特征。本发明用于估计高密度人群图片中的人群数量,可预防人群过度拥挤造成的意外情况发生。本发明是一种组合式网络人群密度估计算法,通过对人群稠密、稀疏这两类情况分别做人群密度估计。该发明能更好的提供有效的人群密度估计特征,且能改善密度图分布不相似的问题,具有较好的鲁棒性。
附图说明
图1是本发明一实施例的整体训练模型的生成流程图;
图2是本发明一实施例的人群密度估计方法的流程图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1和2所示,本发明提供一种人群密度估计方法,在训练环节中包括:
步骤S1,根据密度大于预设阈值的人群图像数据集给定的对应人群位置坐标构建相应真值图,训练用于图像情况分类的AlexNet网络、训练密集情况下的融合注意力机制的特征网络和训练稀疏情况下的融合空洞卷积的特征网络;
步骤S2,将所述AlexNet网络、融合注意力机制的特征网络和融合空洞卷积的特征网络搭建成一个具有分类图像、提取人群密度图像的最终训练网络。
在此,通过对目前的人群计数算法研究发现,无论是传统人群计数算法还是基于深度学习的人群计数算法,其都有其各自的问题。对于深度学习算法来讲,由于损失函数的影响,使得网络学习出来的密度图较为模糊,与真实对应的密度图差异较大,同时还可能造成过估计的问题,这对准确进行人群密度估计造成了困难。并且,由于遮挡、透视畸变、尺度变化和人群分布的多样性等问题,精准的人群计数一直是计算机视觉中一个具有挑战性的问题。为了解决尺度变化的问题,本发明选择融合空洞卷积的网络结构,使网络能够提取到不同尺度的人群特征,以此来扩充上下文信息,辅助人群计数,此网络结构对于稀疏人群图像特征提取表现更好。对于相对密集的人群图像,使用了融合注意力机制的网络结构,通过注意力模块引导网络更多地关注人群头部位置,抑制背景噪声,以此提供更有效的人群密度图估计信息。
本发明通过使用AlexNet网络将人群图片数据集分为密集与稀疏两类,然后针对这两类图像密度特征的不同将其分别送入对应的特征提取网络,从而获取更好有效的人群密度估计特征。
本发明用于估计高密度人群图片中的人群数量,可预防人群过度拥挤造成的意外情况发生。本发明是一种组合式网络人群密度估计算法,通过对人群稠密、稀疏这两类情况分别做人群密度估计。该发明能更好的提供有效的人群密度估计特征,且能改善密度图分布不相似的问题,具有较好的鲁棒性。
通过本发明的方法,可准确的处理人群稠密或稀疏的问题,改善密度图分布不相似的问题,提高人群估计的准确性。且该发明具有较高的鲁棒性,能给大型人群聚集场所的安全方面与规划方面带来最为准确的数据。
本发明的人群密度估计方法一实施例中,步骤S2,将所述AlexNet网络、融合注意力机制的特征网络和融合空洞卷积的特征网络搭建成一个具有分类图像、提取人群密度图像的最终训练网络之后,还包括:
步骤S3,在验证环节中,将待估计的单张人群密度图像输入到最终训练网络,获得相应的人群密度图片,对所述人群密度图中所有像素进行求和得到该人群密度图片中的总人数。
在此,本发明的方法分为两个环节,其分别为训练环节与验证环节。通过该方法对高密度图像人数的估计,能给大型人群聚集场所的安全方面与规划方面带来最为准确的数据。
本发明的人群密度估计方法一实施例中,根据密度大于预设阈值的人群图像数据集给定的对应人群位置坐标构建相应真值图,包括:
步骤S11,获取密度大于预设阈值的人群图像数据集中的原始图像,分为人群相对密集原始图像与稀疏原始图像两种情况对分别赋予不同的疏密情况标号;
步骤S12,利用自适应高斯核的人群密度图生成方法分别获得所述人群相对密集原始图像与稀疏原始图像中的人群位置坐标所对应的人群密度真值图。
本发明的人群密度估计方法一实施例中,训练用于图像情况分类的AlexNet网络,包括:
步骤S111,构建AlexNet网络,共8层,其中5层卷积层,3层全连接层。
步骤S112,分别将人群相对密集原始图像与稀疏原始图像作为输入,并将对应的疏密情况标号作为输出,将所述输入和输出导入到所述AlexNet网络中训练,训练完成,获得相对密集的图像集A与相对稀疏的图像集B,并保留训练后的AlexNet网络中的所有参数不变。
本发明的人群密度估计方法一实施例中,训练密集情况下的融合注意力机制的特征网络,包括:
步骤S121,构建融合注意力机制的特征网络;
步骤S122,将所述相对密集图像集A作为输入,导入到融合注意力机制的特征网络中进行训练,训练完成后,保留训练后该融合注意力机制的特征网络中的所有参数不变。
本发明的人群密度估计方法一实施例中,训练稀疏情况下的融合空洞卷积的特征网络,包括:
步骤S131,构建融合空洞卷积的特征网络
步骤S132,将所述相对稀疏图像集B作为输入,导入到融合空洞卷积特征网络中进行训练,训练完成后,保留训练后该融合空洞卷积的特征网络中的所有参数不变。
本发明的人群密度估计方法一实施例中,步骤S2,将所述AlexNet网络、融合注意力机制的特征网络和融合空洞卷积的特征网络搭建成一个具有分类图像、提取人群密度图像的最终训练网络,包括:
以训练完成的AlexNet网络作为总分类依据,以训练完成的密集情况下的融合注意力机制的特征网络、稀疏情况下的融合注意力机制的特征网络作为各分支情况下的处理方式,以此搭建最终训练网络。
具体的,如图1所示,这是人群密度估计的训练环节,该环节的主要目的为获得能自主分类人口密度情况且能作出相应人口密度估计的模型。首先,将高密度人群图片数据集作为输入,用于训练AlexNet网络,使该网络获得具有分辨人群密度情况的能力。而后将分类后的两个图像集A、B根据不同的类别进行处理,最终获得相应的人群密度图像。将相对密集的人群图片输入到融合注意力机制的特征提取网络;将相对稀疏的人群图片输入到融合空洞卷积的特征提取网络。保持以上三个网络的参数不变,将其组合成一个整体网络。
如图2所示为本发明整体算法流程图。该算法包含两个环节,训练环节与验证环节。训练环节是将高密度人群图片数据集当做输入,训练并构成具有分辨人群密度情况且能够具有估计人群密度的模型。而在验证环节,则是需要将预估计的人群密度图像输入到训练好的模型中,则可以获得其相应的人群密度估计图。而后将密度图中所有像素相加即为该图的人群数量估计值。
本发明分为两个环节,其分别为训练环节与验证环节。通过训练环节产生的模型用于验证环节的人口估计。在训练环节中做了以下处理:
①根据密度大于预设阈值的人群图像数据集给定的对应人群位置坐标构建相应真值图:
首先,将密度大于预设阈值的人群图像数据集中的原始图像进行分类,相对密集的人群图像赋予标号1,相对稀疏是人群图像赋予标号0。获取每张图中对应人群位置的坐标数据,而后利用自适应高斯核的人群密度图生成方法获得对应人群密度真值图。
②训练用于图像情况分类的AlexNet网络:
构建AlexNet网络,共8层,其中5层卷积层,3层全连接层。而后将人群图像数据集作为输入,其对应的疏密情况作为输出,导入到AlexNet网络中训练。训练完成,获得相对密集的图像集A与相对稀疏的图像集B,并保留训练后AlexNet网络中的所有参数不变。
③训练密集情况下的融合注意力机制的特征网络:
根据注意力机制的特性,在密集人口情况下构建融合注意力机制的特征网络。而后将步骤②得到的相对密集图像集A作为输入,人群密度真值图像作为输出,导入到特征网络中进行训练,并设置迭代周期为400。训练完成后,保留训练后该融合注意力机制的特征网络中的所有参数不变。
④训练稀疏情况下的融合空洞卷积的特征网络:
根据融合空洞卷积的特性,在相对稀疏人群情况下构建融合空洞卷积的特征网络。将步骤②得到的相对稀疏图像集B作为输入,其对应的人群密度图像作为输出,导入到特征网络中进行训练,设置迭代周期为400。训练完成后,保留训练后该融合空洞卷积的特征网络中的所有参数不变。
⑤搭建具有分类图像、提取人群密度图像的整体训练模型:
该整体训练模型以AlexNet网络作为总分类依据,以密集情况下的融合注意力机制的特征网络和稀疏情况下的融合注意力机制的特征网络作为各分支情况下的处理方式,以此搭建整个训练模型。
而在验证环节,将待估计的单张人群密度图像输入到整体训练模型中,获得相应的人群密度图片,而后对人群密度图中所有像素进行求和得到该图片中的总人数。通过该算法对高密度图像人数的估计,能给大型人群聚集场所的安全方面与规划方面带来最为准确的数据。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
显然,本领域的技术人员可以对发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包括这些改动和变型在内。
Claims (7)
1.一种人群密度估计方法,其特征在于,包括:
根据密度大于预设阈值的人群图像数据集给定的对应人群位置坐标构建相应真值图,训练用于图像情况分类的AlexNet网络、训练密集情况下的融合注意力机制的特征网络和训练稀疏情况下的融合空洞卷积的特征网络;
将所述AlexNet网络、融合注意力机制的特征网络和融合空洞卷积的特征网络搭建成一个具有分类图像、提取人群密度图像的最终训练网络。
2.如权利要求1所述的人群密度估计方法,其特征在于,根据密度大于预设阈值的人群图像数据集给定的对应人群位置坐标构建相应真值图,包括:
获取密度大于预设阈值的人群图像数据集中的原始图像,分为人群相对密集原始图像与稀疏原始图像两种情况对分别赋予不同的疏密情况标号;
利用自适应高斯核的人群密度图生成方法分别获得所述人群相对密集原始图像与稀疏原始图像中的人群位置坐标所对应的人群密度真值图。
3.如权利要求2所述的人群密度估计方法,其特征在于,训练用于图像情况分类的AlexNet网络,包括:
构建AlexNet网络,共8层,其中5层卷积层,3层全连接层。
分别将人群相对密集原始图像与稀疏原始图像作为输入,并将对应的疏密情况标号作为输出,将所述输入和输出导入到所述AlexNet网络中训练,训练完成,获得相对密集的图像集A与相对稀疏的图像集B,并保留训练后的AlexNet网络中的所有参数不变。
4.如权利要求3所述的人群密度估计方法,其特征在于,训练密集情况下的融合注意力机制的特征网络,包括:
构建融合注意力机制的特征网络;
将所述相对密集图像集A作为输入,导入到融合注意力机制的特征网络中进行训练,训练完成后,保留训练后该融合注意力机制的特征网络中的所有参数不变。
5.如权利要求3所述的人群密度估计方法,其特征在于,训练稀疏情况下的融合空洞卷积的特征网络,包括:
构建融合空洞卷积的特征网络
将所述相对稀疏图像集B作为输入,导入到融合空洞卷积特征网络中进行训练,训练完成后,保留训练后该融合空洞卷积的特征网络中的所有参数不变。
6.如权利要求1所述的人群密度估计方法,其特征在于,将所述AlexNet网络、融合注意力机制的特征网络和融合空洞卷积的特征网络搭建成一个具有分类图像、提取人群密度图像的最终训练网络之后,还包括:
在验证环节中,将待估计的单张人群密度图像输入到最终训练网络,获得相应的人群密度图片,对所述人群密度图中所有像素进行求和得到该人群密度图片中的总人数。
7.如权利要求1所述的人群密度估计方法,其特征在于,将所述AlexNet网络、融合注意力机制的特征网络和融合空洞卷积的特征网络搭建成一个具有分类图像、提取人群密度图像的最终训练网络,包括:
以训练完成的AlexNet网络作为总分类依据,以训练完成的密集情况下的融合注意力机制的特征网络、稀疏情况下的融合注意力机制的特征网络作为各分支情况下的处理方式,以此搭建最终训练网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911161705.0A CN110942015B (zh) | 2019-11-22 | 2019-11-22 | 人群密度估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911161705.0A CN110942015B (zh) | 2019-11-22 | 2019-11-22 | 人群密度估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110942015A true CN110942015A (zh) | 2020-03-31 |
CN110942015B CN110942015B (zh) | 2023-04-07 |
Family
ID=69907661
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911161705.0A Active CN110942015B (zh) | 2019-11-22 | 2019-11-22 | 人群密度估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110942015B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626184A (zh) * | 2020-05-25 | 2020-09-04 | 齐鲁工业大学 | 一种人群密度估计方法及系统 |
CN111681236A (zh) * | 2020-06-12 | 2020-09-18 | 成都数之联科技有限公司 | 一种带注意力机制的目标密度估计方法 |
CN111767881A (zh) * | 2020-07-06 | 2020-10-13 | 中兴飞流信息科技有限公司 | 一种基于ai技术的自适应人群密度估计装置 |
CN111783589A (zh) * | 2020-06-23 | 2020-10-16 | 西北工业大学 | 基于场景分类和多尺度特征融合的复杂场景人群计数方法 |
CN112001274A (zh) * | 2020-08-06 | 2020-11-27 | 腾讯科技(深圳)有限公司 | 人群密度确定方法、装置、存储介质和处理器 |
CN112632601A (zh) * | 2020-12-16 | 2021-04-09 | 苏州玖合智能科技有限公司 | 面向地铁车厢场景的人群计数方法 |
CN112989916A (zh) * | 2020-12-17 | 2021-06-18 | 北京航空航天大学 | 一种结合密度估计与目标检测的人群计数方法 |
CN114155210A (zh) * | 2021-11-17 | 2022-03-08 | 大连民族大学 | 基于注意力机制与标准化密集空洞空间多尺度融合网络的人群计数方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016183766A1 (en) * | 2015-05-18 | 2016-11-24 | Xiaogang Wang | Method and apparatus for generating predictive models |
CN109858424A (zh) * | 2019-01-25 | 2019-06-07 | 佳都新太科技股份有限公司 | 人群密度统计方法、装置、电子设备和存储介质 |
CN110020606A (zh) * | 2019-03-13 | 2019-07-16 | 北京工业大学 | 一种基于多尺度卷积神经网络的人群密度估计方法 |
-
2019
- 2019-11-22 CN CN201911161705.0A patent/CN110942015B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016183766A1 (en) * | 2015-05-18 | 2016-11-24 | Xiaogang Wang | Method and apparatus for generating predictive models |
CN109858424A (zh) * | 2019-01-25 | 2019-06-07 | 佳都新太科技股份有限公司 | 人群密度统计方法、装置、电子设备和存储介质 |
CN110020606A (zh) * | 2019-03-13 | 2019-07-16 | 北京工业大学 | 一种基于多尺度卷积神经网络的人群密度估计方法 |
Non-Patent Citations (1)
Title |
---|
陈朋等: "多层次特征融合的人群密度估计", 《中国图象图形学报》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111626184A (zh) * | 2020-05-25 | 2020-09-04 | 齐鲁工业大学 | 一种人群密度估计方法及系统 |
CN111626184B (zh) * | 2020-05-25 | 2022-04-15 | 齐鲁工业大学 | 一种人群密度估计方法及系统 |
CN111681236A (zh) * | 2020-06-12 | 2020-09-18 | 成都数之联科技有限公司 | 一种带注意力机制的目标密度估计方法 |
CN111783589A (zh) * | 2020-06-23 | 2020-10-16 | 西北工业大学 | 基于场景分类和多尺度特征融合的复杂场景人群计数方法 |
CN111783589B (zh) * | 2020-06-23 | 2022-03-15 | 西北工业大学 | 基于场景分类和多尺度特征融合的复杂场景人群计数方法 |
CN111767881A (zh) * | 2020-07-06 | 2020-10-13 | 中兴飞流信息科技有限公司 | 一种基于ai技术的自适应人群密度估计装置 |
CN112001274A (zh) * | 2020-08-06 | 2020-11-27 | 腾讯科技(深圳)有限公司 | 人群密度确定方法、装置、存储介质和处理器 |
CN112001274B (zh) * | 2020-08-06 | 2023-11-17 | 腾讯科技(深圳)有限公司 | 人群密度确定方法、装置、存储介质和处理器 |
CN112632601A (zh) * | 2020-12-16 | 2021-04-09 | 苏州玖合智能科技有限公司 | 面向地铁车厢场景的人群计数方法 |
CN112632601B (zh) * | 2020-12-16 | 2024-03-12 | 苏州玖合智能科技有限公司 | 面向地铁车厢场景的人群计数方法 |
CN112989916A (zh) * | 2020-12-17 | 2021-06-18 | 北京航空航天大学 | 一种结合密度估计与目标检测的人群计数方法 |
CN114155210A (zh) * | 2021-11-17 | 2022-03-08 | 大连民族大学 | 基于注意力机制与标准化密集空洞空间多尺度融合网络的人群计数方法 |
CN114155210B (zh) * | 2021-11-17 | 2024-04-26 | 大连民族大学 | 基于注意力机制与标准化密集空洞空间多尺度融合网络的人群计数方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110942015B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110942015B (zh) | 人群密度估计方法 | |
CN108830145B (zh) | 一种基于深度神经网络的人数统计方法及存储介质 | |
US6940999B2 (en) | Method for target detection and identification by using proximity pixel information | |
CN106815563B (zh) | 一种基于人体表观结构的人群数量预测方法 | |
CN107424161B (zh) | 一种由粗至精的室内场景图像布局估计方法 | |
KR102127153B1 (ko) | 사이클 gan과 세그맨테이션을 사용한 깊이 추정 방법 및 시스템 | |
CN103810473B (zh) | 一种基于隐马尔科夫模型的人体对象的目标识别方法 | |
CN105144196A (zh) | 用于计算相机或对象姿态的方法和设备 | |
CN111507311A (zh) | 一种基于多模态特征融合深度网络的视频人物识别方法 | |
CN108805151B (zh) | 一种基于深度相似性网络的图像分类方法 | |
CN105574848A (zh) | 用于对象的自动分割的方法和装置 | |
JP7139749B2 (ja) | 画像認識学習装置、画像認識装置、方法、及びプログラム | |
CN109389156B (zh) | 一种图像定位模型的训练方法、装置及图像定位方法 | |
CN112541434B (zh) | 一种基于中心点跟踪模型的人脸识别方法 | |
CN116071709B (zh) | 一种基于改进型vgg16网络的人群计数方法、系统及存储介质 | |
Yang et al. | MPED: Quantifying point cloud distortion based on multiscale potential energy discrepancy | |
CN113221663A (zh) | 一种实时手语智能识别方法、装置及系统 | |
CN110991317A (zh) | 一种基于多尺度透视感知型网络的人群计数方法 | |
CN112016454A (zh) | 一种人脸对齐的检测方法 | |
CN114724218A (zh) | 视频检测方法、装置、设备及介质 | |
US20050185834A1 (en) | Method and apparatus for scene learning and three-dimensional tracking using stereo video cameras | |
CN111626197B (zh) | 一种基于人体行为识别网络模型的识别方法 | |
Ho et al. | Facial modeling from an uncalibrated face image using flexible generic parameterized facial models | |
US20210150274A1 (en) | Object recognition from images using cad models as prior | |
KR101937585B1 (ko) | 깊이 영상 생성을 위한 비용 집합 장치 및 방법과 이에 대한 기록 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |