CN117876968B - 联合多目标的密集行人检测方法 - Google Patents

联合多目标的密集行人检测方法 Download PDF

Info

Publication number
CN117876968B
CN117876968B CN202410269194.9A CN202410269194A CN117876968B CN 117876968 B CN117876968 B CN 117876968B CN 202410269194 A CN202410269194 A CN 202410269194A CN 117876968 B CN117876968 B CN 117876968B
Authority
CN
China
Prior art keywords
head
detection
pedestrian
dense
pedestrians
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410269194.9A
Other languages
English (en)
Other versions
CN117876968A (zh
Inventor
赖时伍
聂芸芸
夏炉系
张浒
罗富章
苗应亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxvision Technology Corp
Original Assignee
Maxvision Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxvision Technology Corp filed Critical Maxvision Technology Corp
Priority to CN202410269194.9A priority Critical patent/CN117876968B/zh
Publication of CN117876968A publication Critical patent/CN117876968A/zh
Application granted granted Critical
Publication of CN117876968B publication Critical patent/CN117876968B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明公开了一种联合多目标的密集行人检测方法,其特征在于,包括以下步骤:步骤(A):构建一种密集人头中心点检测网络,从而检测人头关键点;步骤(B):通过目标检测算法,进行人头检测和行人检测,采用所述密集人头中心点检测网络进行模型训练,使用训练好的密集人头中心点检测模型进行人头中心点检测;步骤(C):进行行人与人头框关联、行人补漏、NMS后处理;步骤(D):输出检测结果,生成行人检测框。

Description

联合多目标的密集行人检测方法
技术领域
本发明涉及行人检测技术领域,尤其涉及一种联合多目标的密集行人检测方法。
背景技术
在行人密集场景下,行人检测的难度加大,如,机场、海关、车站、场馆等交通枢纽和公共场所,密集场景下的行人检测具有如下技术难题:1)大量遮挡:行人密集场景中存在大量遮挡细节,使得部分人的特征无法被完整地提取和匹配,影响行人检测算法的准确度;2)光照不均匀:密集场景的光照条件差异化,部分人群可能处于过度曝光或者阴影中,使得图像中的人物的区分度较低;3)姿态和行为多样性:行人密集场景中存在着行为多样性和姿态多样性,如跑步、站立、弯腰、插兜等,这些姿态和行为的多样性使得人物特征更加复杂多变,加深了后期的识别检测难度。
现有技术包括以下两种方式:改进候选框质量和改进候选框的后处理。第一种改进候选框质量,对密集场景下尺寸较小或者被遮挡行人的检测有明显改善,但应用场景的多样性和复杂性,无法依靠单目标的检测根本上解决遮挡、光照、行为姿态多样性导致的漏检、误检问题,且即使目标检测正确,也没有有效的后处理方法过滤重叠的框,行人重叠度过大,还可能会出现保留了本应该过滤的重叠框,而过滤掉本该保留的目标框的问题。第二种改进候选框的后处理,通过自适应NMS方法,对每个包围框预测一个密度变量,根据密度自适应决定当前包围框非极大抑制使用的阈值,缺陷在于没有明确指定高阈值抑制检测框的位置,仍然会导致冗余的预测。此外,还有通过人头目标协同行人检测的方式,但采用IOU确定人和头的匹配关系的正确率较低,主要原因是在密集场景下一个人框内可能存在多个头框。
发明内容
本发明的一个目的在于提供一种联合多目标的密集行人检测方法,直接以人头中心点作为训练,并直接预测人头中心点坐标,能够更加准确的定位人头,避免了人头框回归不准确导致的模型优化错误和预测后处理失效,通过人头、行人、人头中心点三者的特性与关系创建了互补、筛查的后处理方法,可以有效的解决当前密集行人检测中存在的大部分漏检、误检的问题,同时也为NMS后处理提供先验信息,避免将正确的行人目标误删,进一步地,能够提高密集行人检测准确率。
本发明的其它优势和特点通过下述的详细说明得以充分体现并可通过所附权利要求中特地指出的手段和装置的组合得以实现。
依本发明的一个方面,能够实现前述目的和其他目的和优势的本发明的一种联合多目标的密集行人检测方法,包括以下步骤:
步骤A:构建一种密集人头中心点检测网络,从而检测人头关键点;
步骤B:通过目标检测算法,进行人头检测和行人检测,采用所述密集人头中心点检测网络进行模型训练,使用训练好的密集人头中心点检测模型进行人头中心点检测;
步骤C:进行行人与人头框关联、行人补漏、NMS后处理;
步骤D:输出最终检测结果,生成行人检测框。
根据本发明的一个实施例,所述步骤A包括子步骤A1:所述密集人头中心点检测网络以人头中心点作为训练样本,被训练生成后,直接输出人头中心点。
根据本发明的一个实施例,所述步骤A包括子步骤A2:所述密集人头中心点检测网络主干采用目标检测算法,通过两个分支:人头中心点回归分支和人头候选点分类分支,预测一系列人头候选点集。
根据本发明的一个实施例,所述步骤A包括子步骤A3:通过一对一匹配算法确定所述人头候选点各自的回归和分类标签,所述一对一匹配算法采用匈牙利匹配算法。
根据本发明的一个实施例,所述步骤A包括子步骤A4:通过代价矩阵和损失函数,联合监督所述人头中心点的分类和预测,进行所述密集人头中心点检测网络的优化和学习。
根据本发明的一个实施例,所述步骤B包括子步骤B1:采用所述密集人头中心点检测网络进行模型训练,对采集的行人数据进行所述人头中心点标注,处理为训练数据格式,并输入所述密集人头中心点检测网络进行迭代训练至模型收敛,使用训练好的密集人头中心点检测模型进行所述人头中心点检测,所述人头候选点通过置信度筛选输出最终预测中心点,即保留置信度大于阈值的预测结果。
根据本发明的一个实施例,所述步骤C包括子步骤C1:对于第i个行人的检测框,求所述第i个行人的检测框与所有人头框的IOU值,找出最大的IOU对应的人头框,如果存在人头中心点落在所述人头框中,则第i个行人与所述人头框完成关联,更改置信度分数令,并标记所述人头框为匹配,如果不存在人头中心点落入所述人头框,则不更改置信度分数,依照上述方法遍历所有的行人,完成所有行人与人头的关联,此过程完成后可以得到一个已关联的人头框集合,其中,IOU值计算公式如下:/>,其中,/>、/>分别是行人的检测框和人头框的面积,/>是行人的检测框和人头框的重叠部分的面积。
根据本发明的一个实施例,所述步骤C包括子步骤C2:从所有人头框集合中去除上一步已关联的人头框集合,对剩余的人头框进行筛查:如果存在所述人头中心点落入所述人头框则判定所述人头框有效,按照直立行人人头与人身常规比例,进行所述人头框扩展,从而生成一个扩展行人集合。
根据本发明的一个实施例,所述步骤C包括子步骤C3:对所有行人进行NMS后处理,所有行人包括已关联行人、无关联行人、扩展行人,其中,所述已关联行人是依据所述人头检测和所述人头中心点检测的先验信息筛选出的行人,所述扩展行人是通过所述人头框拓展得到的行人,无关联行人是未经过上述关联过程的行人,通过NMS处理得到的行人检测框即为最终输出检测结果。
根据本发明的一个实施例,所述步骤C包括子步骤C4:先验信息筛选出的行人给出高置信度得分,避免在NMS中错误过滤。
本发明的有益效果是:能够实现准确匹配人头和行人,且利用先验信息减少行人漏检,且能够给NMS提供先验信息,减少正确样本的误删。
附图说明
图1为本发明的一个实施例的联合多目标的密集行人检测方法的人头中心点检测网络结构图。
图2为本发明的上述实施例的联合多目标的密集行人检测方法的密集行人检测流程图。
图3为本发明的上述实施例的联合多目标的密集行人检测方法的行人扩展示意图。
图4为本发明的上述实施例的联合多目标的密集行人检测方法的行人关联示意图。
具体实施方式
以下描述用于揭露本发明以使本领域技术人员能够实现本发明。以下描述中的优选实施例只作为举例,本领域技术人员可以想到其他显而易见的变型。在以下描述中界定的本发明的基本原理可以应用于其他实施方案、变形方案、改进方案、等同方案以及没有背离本发明的精神和范围的其他技术方案。
本领域技术人员应理解的是,在本发明的揭露中,术语“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系是基于附图所示的方位或位置关系,其仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此上述术语不能理解为对本发明的限制。
可以理解的是,术语“一”应理解为“至少一”或“一个或多个”,即在一个实施例中,一个元件的数量可以为一个,而在另外的实施例中,该元件的数量可以为多个,术语“一”不能理解为对数量的限制。此外,在本发明的描述中,除非另有说明,“多个”的含义是两个或者两个以上。
在本发明的描述中,需要理解的是,属于“第一”、“第二”等仅用于描述目的,而不能理解为指示或者暗示相对重要性。本发明的描述中,需要说明的是,除非另有明确的规定和限定,属于“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接或者一体地连接;可以是机械连接,也可以是电连接;可以是直接连接,也可以是通过媒介间接连结。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
如图1至4所示,揭露了本发明的一个实施例的联合多目标的密集行人检测方法,所述联合多目标的密集行人检测方法能够以人头和人头中心点为辅助,包括如下步骤:
第一步:构建一种密集人头中心点检测网络,从而检测人头关键点,详而言之,如图1所示,所述密集人头中心点检测网络以人头中心点作为训练样本,被训练生成后,能够直接输出人头中心点,网络主干采用目标检测算法,如VGG16,通过两个分支:人头中心点回归分支和人头候选点分类分支,从而预测一系列人头候选点集,在训练阶段,人头候选点的位置是随机预测,与真实目标无对应关系,通过一对一匹配算法确定人头候选点各自的回归和分类标签,
优选地,一对一匹配算法采用匈牙利匹配算法,匹配距离代价综合考虑像素间距离和候选点置信度, 设人头中心点的真实点集为:,人头中心点的预测点集为:/>,其中,D是成对匹配的N × M代价矩阵,测量一对匹配点之间的距离,M为真实人头中心点的个数,N为预测人头点的个数,
在本发明的上述实施例的所述联合多目标的密集行人检测方法中,越接近匹配的预测点会有越高的置信度得分,代价函数不仅要简单地使用像素距离,而且也考虑置信度得分,代价矩阵D的公式如下:,其中,/>是欧几里得距离,/>是预测点/>的置信度分数,/>是平衡像素距离的权重,完成匹配的人头点集为:/>,未完成匹配的人头点集为:,进一步地,本方案采用欧几里得损失函数/>来监督人头中心点的回归,采用交叉熵损失函数/>监督人头中心点分类,损失函数的公式如下:/>,/>,其中,/>表示第i个人头点的分类置信度得分,L为总损失函数,通过所述代价矩阵和所述损失函数,联合监督所述人头中心点的分类和预测,从而进行所述密集人头中心点检测网络的优化和学习,从而使得预测所述人头候选点时,能够以尽可能高的置信度逐步接近标注人头点;
第二步:对于人头检测和行人检测,本方案采用yolo系列检测算法,人头的检测结果记为:,其中,/>是第i个人头检测框,/>是第i个人头框的置信度分数,行人的检测结果记为:/>,其中,/>是第i个行人检测框,/>是第i个行人框的置信度分数,采用所述密集人头中心点检测网络进行模型训练,对采集的行人数据进行人头中心点标注,处理为训练数据格式,并输入所述密集人头中心点检测网络进行迭代训练至模型收敛,使用训练好的密集人头中心点检测模型进行人头中心点检测,在此推理阶段无需一对一匹配过程,减少模型计算复杂度和运算时间,节省算力成本,人头候选点通过置信度筛选输出最终预测中心点,即保留置信度大于阈值的预测结果,如,阈值可设为0.5,人头中心点检测结果记为:
第三步:基于上述检测目标,接下来的处理过程依次为:行人与人头框关联、行人补漏、NMS后处理,
行人与人头框关联,详而言之,对于第i个行人的检测框,求所述第i个行人的检测框与所有人头框的IOU值,找出最大的IOU对应的人头框,如果存在人头中心点落在所述人头框中,则第i个行人与所述人头框完成关联,更改置信度分数令,并标记所述人头框为匹配,如果不存在人头中心点落入所述人头框,则不更改置信度分数,依照上述方法遍历所有的行人,完成所有行人与人头框的关联,此过程完成后可以得到一个已关联的人头框集合,
其中,IOU值计算公式如下:,其中,/>、/>分别是行人的检测框和人头框的面积,/>是行人的检测框和人头框的重叠部分的面积,其中,判断中心点:/>是否落入人头框/>中的方法是:如果满足且/>,则/>落在人头框/>内,若不满足,则/>未落在人头框内,
其中,是人头框的左上顶点,/>是人头框的右下顶点,r为第r个人头中心点,取值范围在1到Q之间,
随后进行行人补漏,详而言之,从所有人头框集合中去除上一步已关联的人头框集合,对剩余的人头框进行筛查:如果存在人头中心点落入所述人头框则判定所述人头框有效,按照直立行人人头与人身常规比例,进行人头框扩展,进一步地,以人头中心点为基准点,优选地,如图3所示,左、右分别扩展1.5倍的人头宽(图示记为1.5W),向上扩展1.5倍人头高(图示记为1.5W),向下扩展4.5倍的人头高(图示记为4.5W),扩展得到的行人框记为:,令:/>,从而生成一个扩展行人集合,
随后对所有行人进行NMS后处理,即非极大值抑制算法,所有行人包括已关联行人、无关联行人、扩展行人,其中,所述已关联行人是依据人头检测和人头中心点检测的先验信息筛选出的行人,所述扩展行人是通过所述人头框拓展得到的行人,无关联行人是未经过上述关联过程的行人,先验信息筛选出的行人给出高置信度得分,避免在NMS中错误过滤,通过NMS处理得到的行人检测框即为最终输出检测结果。此外,本方案中行人的筛查并没有通过单一的人头中心点或人头来判断,因为密集场景下,一个行人框经常会落入多个人头中心点或者多个人头,单一目标无法进行有效关联。
本发明构建的所述密集人头中心点检测网络直接以人头中心点作为训练,并直接预测人头中心点坐标,可以更加准确的定位人头,避免了人头框回归不准确导致的模型优化错误和预测后处理(即非极大抑制算法)失效,利用所述密集人头中心点检测模型预测的人头中心点集可以为行人检测提供有效的先验信息,在密集场景下受姿态、遮挡等因素影响人头检测的召回率一般大于行人召回率,因此人头框也可为行人目标提供先验信息。本发明利用人头、行人、人头中心点三者的特性与关系创建了互补、筛查的后处理方法,可以有效的解决当前密集行人检测中存在的大部分漏检、误检的问题,同时也为NMS后处理提供先验信息,避免将正确的行人目标误删,进一步地,能够提高密集行人检测准确率。

Claims (7)

1.一种联合多目标的密集行人检测方法,其特征在于,包括以下步骤:
步骤A:构建一种密集人头中心点检测网络,从而检测人头中心点;
步骤B:通过目标检测算法,进行人头检测和行人检测,采用所述密集人头中心点检测网络进行模型训练,使用训练好的密集人头中心点检测模型进行人头中心点检测;
步骤C:进行行人与人头框关联、行人补漏、NMS后处理;对于第i个行人的检测框,求所述第i个行人的检测框与所有人头框的IOU值,找出最大的IOU对应的人头框,如果存在人头中心点落在所述人头框中,则第i个行人与所述人头框完成关联,更改置信度分数令,并标记所述人头框为匹配,如果不存在人头中心点落入所述人头框,则不更改置信度分数,依照上述方法遍历所有的行人,完成所有行人与人头的关联,得到一个已关联的人头框集合,其中,IOU值计算公式如下:/>,其中,/>、/>分别是行人的检测框和人头框的面积,/>是行人的检测框和人头框的重叠部分的面积;从所有人头框集合中去除上一步已关联的人头框集合,对剩余的人头框进行筛查,如果存在所述人头中心点落入所述人头框则判定所述人头框有效,按照直立行人人头与人身常规比例,进行所述人头框扩展,从而生成一个扩展行人集合;对所有行人进行NMS后处理,所有行人包括已关联行人、无关联行人、扩展行人,其中,所述已关联行人是依据所述人头检测和所述人头中心点检测的先验信息筛选出的行人,所述扩展行人是通过所述人头框拓展得到的行人,无关联行人是未经过关联过程的行人,通过NMS处理得到的行人检测框即为最终输出检测结果;
步骤D:输出最终检测结果,生成行人检测框。
2.根据权利要求1所述的密集行人检测方法,其特征在于,所述步骤A包括:所述密集人头中心点检测网络以人头中心点作为训练样本,被训练生成后,直接输出人头中心点。
3.根据权利要求2所述的密集行人检测方法,其特征在于,所述步骤A包括:所述密集人头中心点检测网络主干采用目标检测算法,通过两个分支:人头中心点回归分支和人头候选点分类分支,预测一系列人头候选点集。
4.根据权利要求3所述的密集行人检测方法,其特征在于,所述步骤A包括:通过一对一匹配算法确定所述人头候选点各自的回归和分类标签,所述一对一匹配算法采用匈牙利匹配算法。
5.根据权利要求4所述的密集行人检测方法,其特征在于,所述步骤A包括:通过代价矩阵和损失函数,联合监督所述人头中心点的分类和预测,进行所述密集人头中心点检测网络的优化和学习。
6.根据权利要求5所述的密集行人检测方法,其特征在于,所述步骤B包括:采用所述密集人头中心点检测网络进行模型训练,对采集的行人数据进行所述人头中心点标注,处理为训练数据格式,并输入所述密集人头中心点检测网络进行迭代训练至模型收敛,使用训练好的密集人头中心点检测模型进行所述人头中心点检测,所述人头候选点通过置信度筛选输出最终预测中心点,即保留置信度大于阈值的预测结果。
7.根据权利要求6所述的密集行人检测方法,其特征在于,所述步骤C包括:先验信息筛选出的行人给出高置信度得分,避免在NMS中错误过滤。
CN202410269194.9A 2024-03-11 2024-03-11 联合多目标的密集行人检测方法 Active CN117876968B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410269194.9A CN117876968B (zh) 2024-03-11 2024-03-11 联合多目标的密集行人检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410269194.9A CN117876968B (zh) 2024-03-11 2024-03-11 联合多目标的密集行人检测方法

Publications (2)

Publication Number Publication Date
CN117876968A CN117876968A (zh) 2024-04-12
CN117876968B true CN117876968B (zh) 2024-05-28

Family

ID=90592288

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410269194.9A Active CN117876968B (zh) 2024-03-11 2024-03-11 联合多目标的密集行人检测方法

Country Status (1)

Country Link
CN (1) CN117876968B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210302A (zh) * 2019-04-26 2019-09-06 平安科技(深圳)有限公司 多目标跟踪方法、装置、计算机设备及存储介质
CN112070075A (zh) * 2020-11-12 2020-12-11 之江实验室 一种基于协同回归的人体检测方法
CN112488057A (zh) * 2020-12-17 2021-03-12 北京航空航天大学 一种利用人头点定位和关节点信息的单相机多目标跟踪方法
CN113191204A (zh) * 2021-04-07 2021-07-30 华中科技大学 一种多尺度遮挡行人检测方法及系统
WO2021244364A1 (zh) * 2020-06-03 2021-12-09 苏宁易购集团股份有限公司 基于深度图像的行人检测方法及装置
CN114202774A (zh) * 2021-12-07 2022-03-18 大连理工大学宁波研究院 密集行人检测方法
CN115100594A (zh) * 2022-06-22 2022-09-23 南京信息工程大学 一种行人目标检测方法、系统、装置及存储介质
CN115205904A (zh) * 2022-07-27 2022-10-18 南京华康智能科技有限公司 一种提高密集行人检测的方法
CN116958873A (zh) * 2023-07-25 2023-10-27 亚信科技(中国)有限公司 行人跟踪方法、装置、电子设备及可读存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11281227B2 (en) * 2019-08-20 2022-03-22 Volkswagen Ag Method of pedestrian activity recognition using limited data and meta-learning

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210302A (zh) * 2019-04-26 2019-09-06 平安科技(深圳)有限公司 多目标跟踪方法、装置、计算机设备及存储介质
WO2021244364A1 (zh) * 2020-06-03 2021-12-09 苏宁易购集团股份有限公司 基于深度图像的行人检测方法及装置
CN112070075A (zh) * 2020-11-12 2020-12-11 之江实验室 一种基于协同回归的人体检测方法
CN112488057A (zh) * 2020-12-17 2021-03-12 北京航空航天大学 一种利用人头点定位和关节点信息的单相机多目标跟踪方法
CN113191204A (zh) * 2021-04-07 2021-07-30 华中科技大学 一种多尺度遮挡行人检测方法及系统
CN114202774A (zh) * 2021-12-07 2022-03-18 大连理工大学宁波研究院 密集行人检测方法
CN115100594A (zh) * 2022-06-22 2022-09-23 南京信息工程大学 一种行人目标检测方法、系统、装置及存储介质
CN115205904A (zh) * 2022-07-27 2022-10-18 南京华康智能科技有限公司 一种提高密集行人检测的方法
CN116958873A (zh) * 2023-07-25 2023-10-27 亚信科技(中国)有限公司 行人跟踪方法、装置、电子设备及可读存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于改进YOLOv2网络的密集人群场景行人检测;张楚楚 等;《现代计算机》;20181031(第28期);第34-39页 *

Also Published As

Publication number Publication date
CN117876968A (zh) 2024-04-12

Similar Documents

Publication Publication Date Title
CN110929560B (zh) 融合目标检测与跟踪的视频半自动目标标注方法
CN109147254B (zh) 一种基于卷积神经网络的视频野外火灾烟雾实时检测方法
CN109191459B (zh) 连铸坯低倍组织中心偏析缺陷的自动识别与评级方法
CN110866430B (zh) 一种车牌识别方法及装置
CN111079518B (zh) 一种基于执法办案区场景下的倒地异常行为识别方法
CN114677502B (zh) 一种任意倾斜角度的车牌检测方法
CN113658132A (zh) 基于计算机视觉的结构件焊缝检测方法
CN112906547B (zh) 一种基于e-yolo的铁路列车风挡破损故障检测方法
CN109711389B (zh) 一种基于Faster R-CNN和HMM的哺乳母猪姿态转换识别方法
CN111753794B (zh) 水果品质分类方法、装置、电子设备及可读存储介质
EP2557539A2 (en) Image processing apparatus, image processing method, and image processing program
CN111539343A (zh) 一种基于卷积注意力网络的黑烟车检测方法
CN111915544A (zh) 基于图像融合的保护压板运行状态辨识方法
CN106251362A (zh) 一种基于快速相关邻域特征点的滑窗目标跟踪方法及系统
CN116109812A (zh) 一种基于非极大值抑制阈值优化的目标检测方法
CN114596592B (zh) 一种行人重识别方法、系统、设备及计算机可读存储介质
CN117876968B (zh) 联合多目标的密集行人检测方法
CN111723852A (zh) 针对目标检测网络的鲁棒训练方法
Kora et al. Automatic segmentation of polyps using U-net from colonoscopy images
CN111612749B (zh) 基于肺部影像的病灶检测方法和装置
CN114049546A (zh) 考虑目标间关系的遥感影像目标检测系统及方法
CN117671299A (zh) 一种回环检测方法、装置、设备及存储介质
CN115830302B (zh) 一种多尺度特征提取融合配电网设备定位识别方法
CN111105423A (zh) 一种基于深度学习的ct图像中肾脏分割方法
CN110598669A (zh) 一种复杂场景中人群密度的检测方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant