CN109344792A - 一种目标自动识别跟踪方法 - Google Patents
一种目标自动识别跟踪方法 Download PDFInfo
- Publication number
- CN109344792A CN109344792A CN201811212740.6A CN201811212740A CN109344792A CN 109344792 A CN109344792 A CN 109344792A CN 201811212740 A CN201811212740 A CN 201811212740A CN 109344792 A CN109344792 A CN 109344792A
- Authority
- CN
- China
- Prior art keywords
- target
- tracking
- monitoring
- image
- interesting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种目标自动识别跟踪方法,包括以下步骤:S1、获取若干个监控设备的监控图像;S2、分析若干个监控图像的关联性,并将其进行数据融合,得到多监控融合图像;S3、对多监控融合图像进行检测识别,提取感兴趣的目标特征信息,形成目标数据信息;S4、根据多监控融合图像和目标数据信息对跟踪目标进行自动识别跟踪。本发明提供的目标自动识别跟踪方法通过获取具有监控空间重叠的监控设备的监控图像,使获取的监控数据具有更强的空间约束性;能够实现对多个感兴趣种类、多个数量的待跟踪目标的自动检测识别与跟踪。
Description
技术领域
本发明属于视频监控技术领域,具体涉及一种目标自动识别跟踪方法。
背景技术
随着摄像头安装数量的增多,加上公共安全问题的重要性。采用人工的视频监控方式已经远远不能够满足现在安防的需求,因此智能监控技术得到越来越广泛的应用。
相关技术中,可以利用帧间差分法或混合高斯模型等方法提取场景中的前景进行运动目标检测。帧间差分法是一种通过对视频图像序列中相邻两帧作差分运算来获得运动目标伦果的方法,它可以很好的适用于存在多个目标运动和摄像机移动的情况,当监控场景中出现异常物体运动时,帧与帧之间会出现较为明显的差别,两帧相减得到两帧图像亮度差的绝对值,判断它是否大于阈值来分析视频或图像序列的运动特性,确定图像序列中有无物体运动;而混合高斯模型使用K(基本为3到5个)个高斯模型来表征图像中各个像素点的特征,在新一帧图像获得后更新混合高斯模型用当前图像中的每个像素点与混合高斯模型匹配,如果成功则判断该点为背景点,否则为前景点。
其中帧间算法在具体实现时,容易造成目标空洞的情况,如图1所示;混合高斯建模虽然效果比帧间差更好,但也会产生不少噪声,如图2所示,
同时,在具体实现时,摄像机通常固定在一个地方,不能移动。然后利用算法不断提取场景的前景,经过滤波处理之后得到运动目标,再利用检测得到结果做进一步分析处理。
上述检测跟踪技术主要存在如下缺陷:
单个相机视野有限,且不能移动相机,使得视频覆盖范围外出现的目标无法检测,对于目标较密集的场景以及负责天气情况,前景目标很难有效分割出来,而且对于检测到的前景目标不一定是感兴趣的目标。
发明内容
针对现有技术中的上述不足,本发明提供的目标自动识别跟踪方法解决了现有的单个相机视野有限,其视频覆盖范围外的目标无法检测的问题。
为了达到上述发明目的,本发明采用的技术方案为:一种目标自动识别跟踪方法,包括以下步骤:
S1、获取若干个监控设备的监控图像;
S2、分析若干个监控图像的关联性,并将其进行数据融合,得到多监控融合图像;
S3、对多监控融合图像进行检测识别,提取感兴趣的目标特征信息,形成目标数据信息;
S4、根据多监控融合图像和目标数据信息对跟踪目标进行自动识别跟踪。
进一步地,所述步骤S1中,每个监控设备和与其相邻的监控设备存在监控区域重叠部分;
每个监控设备的监控图像均为一个大场景横向分割的不同区域图像信息。
进一步地,所述步骤S2中,分析若干个监控设备的监控图像的关联性的方法具体为:
通过SIFT算子计算每个监控图像的角点特征匹配情况,从而得到各个监控图像的相对位置信息,并根据其相对位置信息将各个监控图像以横向顺序排列。
进一步地,所述步骤S2中,对图像监控数据进行数据融合的方法具体为:
利用图像拼接算法对横向顺序排列各个监控图像进行数据融合,拼接得到一个大场景的图像;
其中,大场景的图像为多监控融合图像。
进一步地,所述步骤S3具体为:
S31、基于YOLO目标检测识别算法,结合若干个不同场景的图像,训练得到感兴趣目标模型;
S32、通过感兴趣目标模型和YOLO目标检测识别算法,提取当前帧多监控融合图像中待跟踪的感兴趣目标对象群及其对应的目标特征信息;
其中,目标特征信息包括目标对象检测结果的可信概率;
S33、设置概率阈值,并根据可信概率与概率阈值的大小关系,更新感兴趣目标对象群,形成目标数据信息。
进一步地,所述步骤S32中提取的目标特征信息还包括目标对象的类别标签、目标对象的在多监控融合图像中的坐标信息和目标对象外接矩形的宽和高。
进一步地,所述步骤S33包括以下分步骤:
A1、依次判断每一个感兴趣目标对象的可信概率与概率阈值的大小关系;
若可信概率大于概率阈值,则进入步骤A2;
若可信概率小于或等于概率阈值,则进入步骤A3;
A2、将该可信概率对应的感兴趣目标对象保留在感兴趣目标对象群中,更新感兴趣目标对象群,进入步骤S4;
A3、将该可信概率对应的感兴趣目标对象从感兴趣目标对象群中丢弃,更新感兴趣目标对象群,进入步骤S4。
进一步地,所述步骤S4具体为:
S41、确定多监控融合图像中的当前跟踪目标序列;
S42、在连续的若干帧多监控融合图像中,将更新的感兴趣目标对象群中的感兴趣目标对象均与当前跟踪目标序列逐一进行关联性匹配;
S43、判断关联性匹配是否成功;
若是,则进入步骤S44;否则,进行步骤S45;
S44、将未能匹配的跟踪目标丢弃,并给对应的感兴趣目标对象添加一个跟踪器,进行新的跟踪目标确定,并进入步骤S45;
S45、在多监控融合图像中将能够匹配成功的跟踪目标的类别标签、唯一跟踪ID和外接矩形框作为识别跟踪结果。
进一步地,所述步骤S44中的跟踪器用于确定新的跟踪目标,且确定方法具体为:
B1、通过跟踪器在不依赖感兴趣目标对象的目标特征信息情况下,完成当前帧多监控融合图像中指定区域内跟踪目标的跟踪;
B2、在连续的若干帧多监控融合图像中,将跟踪器的跟踪结果与后续帧多监控融合图像中的所有感兴趣目标对象进行关联性匹配;
B3、判断关联性匹配是否成功;
若是,则进入步骤B4;
若否,则进入步骤B5;
B4、将跟踪器的跟踪结果作为新的跟踪目标加入当前跟踪目标序列中,并丢弃该跟踪器,完成新的跟踪目标的确定,进入步骤S45;
B5、将跟踪器的跟踪结果作为无用的结果,并丢弃这个跟踪器,完成新的跟踪目标的确定,进入步骤S45。
进一步地,所述步骤S45中,根据不同帧多监控融合图像中的同一跟踪目标的识别跟踪结果,确定该跟踪目标的运动轨迹。
本发明的有益效果为:本发明提供的目标自动识别跟踪方法通过获取具有监控空间重叠的监控设备的监控图像,使获取的监控数据具有更强的空间约束性;能够实现对多个感兴趣种类、多个数量的待跟踪目标的自动检测识别与跟踪。
附图说明
图1为本发明提供的实施例中现有技术中帧间差法实现目标跟踪效果示意图。
图2为本发明提供的实施例中现有技术中混合高斯模型法实现目标跟踪效果示意图。
图3为本发明提供的实施例中目标自动识别跟踪方法实现流程图。
图4为本发明提供的实施例中4个监控图像的效果示意图。
图5为本发明提供的实施例中4个监控图像融合效果示意图。
图6为本发明提供的实施例中形成目标数据信息方法实现流程图。
图7为本发明提供的实施例中更新感兴趣目标对象群方法实现流程图。
图8为本发明提供的实施例中跟踪目标自动识别跟踪方法实现流程图,
图9为本发明提供的实施例中通过跟踪器确定新的跟踪目标实现方法流程图。
图10为本发明提供的实施例中图像自动识别跟踪的效果示意图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
在本发明的一个实施例中,如图3所示,一种目标自动识别跟踪方法,其特征在于,包括以下步骤:
S1、获取若干个监控设备的监控图像;
S2、分析若干个监控图像的关联性,并将其进行数据融合,得到多监控融合图像;
S3、对多监控融合图像进行检测识别,提取感兴趣的目标特征信息,形成目标数据信息;
S4、根据多监控融合图像和目标数据信息对跟踪目标进行自动识别跟踪。
其中,步骤S1中,每个监控设备和与其相邻的监控设备存在监控区域重叠部分;
对于获取的若干个监控设备的监控图像需要一个大场景中的不同子区域,这些子区域和其相邻子区域有一定程度的重叠,重叠可以是一个子区域面积的四分之一到二分之一;因此每个监控设备的监控图像均为一个大场景横向分割的不同区域图像信息。
其中,步骤S2中,分析若干个监控设备的监控图像的关联性的方法具体为:
根据步骤S1后可以得到多个监控设备的监控图像数据,对这些监控图像的相互关联性进行分析,具体地可以通过角点特征算子,例如SIFT算子计算每个监控图像的角点特征匹配情况,从而得到各个监控图像的相对位置信息,并根据其相对位置信息将各个监控图像以横向顺序排列,得到如图4所示的4个监控图像的效果示意图。
在得到有序且有一定重叠区域对的监控图像数据后,利用图像拼接算法,比如M-L算法对横向顺序排列各个监控图像进行数据融合,拼接得到一个大场景的图像;其中的大场景的图像即为多监控融合图像;得到如图5所示的4个监控图像融合效果示意图。
如图6所示,上述步骤S3具体为:
S31、基于YOLO目标检测识别算法,结合若干个不同场景的图像,训练得到感兴趣目标模型;
S32、通过感兴趣目标模型和YOLO目标检测识别算法,提取当前帧多监控融合图像中待跟踪的感兴趣目标对象群及其对应的目标特征信息;
在使用YOLO检测算法时,将输入当前帧多监控融合图像分成S×S个栅格,当多监控融合图像中的某一物体中心若在某一栅格内时,该栅格就负责检测这个物体,每一个栅格预测得到B个不同种类物体的矩形框以及这个矩形框的得分,这个得分反应了模型对于这个栅格单元格中预测是否含有某种物体,以及是这个物体的可能性是多少;并提取该物体的目标特征信息;
该多监控融合图像中的检测到的若干个物体组成感兴趣目标对象群,其中的每一个物体对应一个感兴趣目标对象;
其中,提取的目标特征信息还包括目标对象的类别标签,比如人、飞机、汽车等等;目标对象的在多监控融合图像中的坐标信息、目标对象外接矩形的宽高和目标特征信息包括目标对象检测结果的可信概率;
S33、设置概率阈值,并根据可信概率与概率阈值的大小关系,更新感兴趣目标对象群,形成目标数据信息。
如图7所示,上述步骤S33具体包括以下分步骤:
A1、依次判断每一个感兴趣目标对象的可信概率与概率阈值的大小关系;
若可信概率大于概率阈值,则进入步骤A2;
若可信概率小于或等于概率阈值,则进入步骤A3;
A2、将该可信概率对应的感兴趣目标对象保留在感兴趣目标对象群中,更新感兴趣目标对象群,进入步骤S4;
A3、将该可信概率对应的感兴趣目标对象从感兴趣目标对象群中丢弃,更新感兴趣目标对象群,进入步骤S4。
例如,设置的概率阈值为0.4,那么检测结果的可信概率不低于0.4的感兴趣目标对象将被丢弃,进一步地可将概率阈值调整为0.3,那么将保留更多的感兴趣目标对象,从而提高检测识别结果的召回率,或将概率阈值调整为0.5将丢弃更多的低可信概率对应的感兴趣目标对象,从而提高检测识别结果的精确率;可根据实际目标跟踪需求,通过上述两种设置阈值概率的方法都可以用于更新感兴趣目标对象群。
如图8所示,步骤S4具体为:
S41、确定多监控融合图像中的当前跟踪目标序列;
S42、在连续的若干帧多监控融合图像中,将更新的感兴趣目标对象群中的感兴趣目标对象均与当前跟踪目标序列逐一进行关联性匹配;
S43、判断关联性匹配是否成功;
若是,则进入步骤S44;否则,进行步骤S45;
S44、将未能匹配的跟踪目标丢弃,并给对应的感兴趣目标对象添加一个跟踪器,进行新的跟踪目标确定,并进入步骤S45;
其中,跟踪器用于确定新的跟踪目标,可以采用相关滤波跟踪器,如图9所示,新的跟踪目标的确定方法具体为:
B1、通过跟踪器在不依赖感兴趣目标对象的目标特征信息情况下,完成当前帧多监控融合图像中指定区域内跟踪目标的跟踪;
B2、在连续的若干帧多监控融合图像中,将跟踪器的跟踪结果与后续帧多监控融合图像中的所有感兴趣目标对象进行关联性匹配;
B3、判断关联性匹配是否成功;
若是,则进入步骤B4;
若否,则进入步骤B5;
B4、将跟踪器的跟踪结果作为新的跟踪目标加入当前跟踪目标序列中,并丢弃该跟踪器,完成新的跟踪目标的确定,进入步骤S45;
B5、将跟踪器的跟踪结果作为无用的结果,并丢弃这个跟踪器,完成新的跟踪目标的确定,进入步骤S45。
S45、在多监控融合图像中将能够匹配成功的跟踪目标的类别标签、唯一跟踪ID和外接矩形框作为识别跟踪结果。
得到如图10所示的目标跟踪效果示意图。
在本发明的一个实施例中,根据实际需要,可以根据不同帧多监控融合图像中的同一跟踪目标的识别跟踪结果,确定该跟踪目标的运动轨迹。
在本发明的一个实施例中,在将跟踪器的跟踪结果与感兴趣目标对象进行关联性匹配、感兴趣目标对象与当前跟踪目标进行关联性匹配时,可以利用最邻近数据关联、概率数据关联等数据关联方法进行关联,只要是有效的检测结果,都有可能源于一个真实目标,只是每个检测结果源于一个真实目标的概率有所不同,这里的真实目标为正在跟踪的目标,并且认为一个真实目标的检测结果会落入以真实目标与圆心、半径为r的范围,这个范围称为有效探测范围。在K时刻有m个检测结果落入有效探测范围内,第j个有效检测结果源于目标的概率βj为:
特别的,所有结果都不源于目标的概率β0为:
其中,mk表示k时刻有m个检测结果;
ej表示第j个检测结果与目标的相似性度量值(越高则目标约相似);ej可以用第j个检测结果与真实目标的欧几里得距离的倒数表示;
b表示没有目标与目标匹配时的相似性度量值;
其中,λ是所有检测结果的空间分布密度;
S(k)是滤波残差协方差矩阵;
PD是检测结果的可信概率;
PG是源于目标的检测结果落入有效探测范围的概率,这里设为1;
最后将真实目标与源于这个目标概率最高的检测结果匹配。
在本发明的一个实施例中,在三个显示单元对监控图像和跟踪识别结果图像进行显示:第一显示单元将多个监控设备的监控图像进行显示,用于展示大场景中不同小场景的区域信息;第二显示单元用于显示多监控融合图像,展示大场景的全景信息;第三显示单元用于显示最终的跟踪效果的图像,展示大场景中的感兴趣的目标跟踪情况。
本发明的有益效果为:本发明提供的目标自动识别跟踪方法通过获取具有监控空间重叠的监控设备的监控图像,使获取的监控数据具有更强的空间约束性;能够实现对多个感兴趣种类、多个数量的待跟踪目标的自动检测识别与跟踪。
Claims (10)
1.一种目标自动识别跟踪方法,其特征在于,包括以下步骤:
S1、获取若干个监控设备的监控图像;
S2、分析若干个监控图像的关联性,并将其进行数据融合,得到多监控融合图像;
S3、对多监控融合图像进行检测识别,提取感兴趣的目标特征信息,形成目标数据信息;
S4、根据多监控融合图像和目标数据信息对跟踪目标进行自动识别跟踪。
2.根据权利要求1所述的目标自动识别跟踪方法,其特征在于,所述步骤S1中,每个监控设备和与其相邻的监控设备存在监控区域重叠部分;
每个监控设备的监控图像均为一个大场景横向分割的不同区域图像信息。
3.根据权利要求1所述的目标自动识别跟踪方法,其特征在于,所述步骤S2中,分析若干个监控设备的监控图像的关联性的方法具体为:
通过SIFT算子计算每个监控图像的角点特征匹配情况,从而得到各个监控图像的相对位置信息,并根据其相对位置信息将各个监控图像以横向顺序排列。
4.根据权利要求3所述的目标自动识别跟踪方法,其特征在于,所述步骤S2中,对图像监控数据进行数据融合的方法具体为:
利用图像拼接算法对横向顺序排列各个监控图像进行数据融合,拼接得到一个大场景的图像;
其中,大场景的图像为多监控融合图像。
5.根据权利要求4所述的目标自动识别跟踪方法,其特征在于,所述步骤S3包括以下分步骤:
S31、基于YOLO目标检测识别算法,结合若干个不同场景的图像,训练得到感兴趣目标模型;
S32、通过感兴趣目标模型和YOLO目标检测识别算法,提取当前帧多监控融合图像中待跟踪的感兴趣目标对象群及其对应的目标特征信息;
其中,目标特征信息包括目标对象检测结果的可信概率;
S33、设置概率阈值,并根据可信概率与概率阈值的大小关系,更新感兴趣目标对象群,形成目标数据信息。
6.根据权利要求5所述的目标自动识别跟踪方法,其特征在于,所述步骤S32中提取的目标特征信息还包括目标对象的类别标签、目标对象的在多监控融合图像中的坐标信息和目标对象外接矩形的宽和高。
7.根据权利要求6所述的目标自动识别跟踪方法,其特征在于,所述步骤S33具体包括以下分步骤:
A1、依次判断每一个感兴趣目标对象的可信概率与概率阈值的大小关系;
若可信概率大于概率阈值,则进入步骤A2;
若可信概率小于或等于概率阈值,则进入步骤A3;
A2、将该可信概率对应的感兴趣目标对象保留在感兴趣目标对象群中,更新感兴趣目标对象群,进入步骤S4;
A3、将该可信概率对应的感兴趣目标对象从感兴趣目标对象群中丢弃,更新感兴趣目标对象群,进入步骤S4。
8.根据权利要求7所述的目标自动识别跟踪方法,其特征在于,所述步骤S4具体为:
S41、确定多监控融合图像中的当前跟踪目标序列;
S42、在连续的若干帧多监控融合图像中,将更新的感兴趣目标对象群中的感兴趣目标对象均与当前跟踪目标序列逐一进行关联性匹配;
S43、判断关联性匹配是否成功;
若是,则进入步骤S44;否则,进行步骤S45;
S44、将未能匹配的跟踪目标丢弃,并给对应的感兴趣目标对象添加一个跟踪器,进行新的跟踪目标确定,并进入步骤S45;;
S45、在多监控融合图像中将能够匹配成功的跟踪目标的类别标签、唯一跟踪ID和外接矩形框,作为识别跟踪结果。
9.根据权利要求8所述的目标自动识别跟踪方法,其特征在于,所述步骤S44中的跟踪器用于确定新的跟踪目标,且确定方法具体为:
B1、通过跟踪器在不依赖感兴趣目标对象的目标特征信息情况下,完成当前帧多监控融合图像中指定区域内跟踪目标的跟踪;
B2、在连续的若干帧多监控融合图像中,将跟踪器的跟踪结果与后续帧多监控融合图像中的所有感兴趣目标对象进行关联性匹配;
B3、判断关联性匹配是否成功;
若是,则进入步骤B4;
若否,则进入步骤B5;
B4、将跟踪器的跟踪结果作为新的跟踪目标加入当前跟踪目标序列中,并丢弃该跟踪器,完成新的跟踪目标的确定,进入步骤S45;
B5、将跟踪器的跟踪结果作为无用的结果,并丢弃这个跟踪器,完成新的跟踪目标的确定,进入步骤S45。
10.根据权利要求7所述的目标识别自动跟踪方法,其特征在于,所述步骤S45中,根据不同帧多监控融合图像中的同一跟踪目标的识别跟踪结果,确定该跟踪目标的运动轨迹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811212740.6A CN109344792A (zh) | 2018-10-18 | 2018-10-18 | 一种目标自动识别跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811212740.6A CN109344792A (zh) | 2018-10-18 | 2018-10-18 | 一种目标自动识别跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109344792A true CN109344792A (zh) | 2019-02-15 |
Family
ID=65309904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811212740.6A Pending CN109344792A (zh) | 2018-10-18 | 2018-10-18 | 一种目标自动识别跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109344792A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110602449A (zh) * | 2019-09-01 | 2019-12-20 | 天津大学 | 一种基于视觉的大场景下施工安全智能监控系统方法 |
CN110866889A (zh) * | 2019-11-18 | 2020-03-06 | 成都威爱新经济技术研究院有限公司 | 一种监控系统中的多相机数据融合方法 |
CN111192297A (zh) * | 2019-12-31 | 2020-05-22 | 山东广域科技有限责任公司 | 一种基于度量学习的多摄像头目标关联跟踪方法 |
CN112307989A (zh) * | 2020-11-03 | 2021-02-02 | 广州海格通信集团股份有限公司 | 路面物体识别方法、装置、计算机设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101950426A (zh) * | 2010-09-29 | 2011-01-19 | 北京航空航天大学 | 一种多摄像机场景下车辆接力跟踪方法 |
US20110142283A1 (en) * | 2009-12-10 | 2011-06-16 | Chung-Hsien Huang | Apparatus and method for moving object detection |
CN102881024A (zh) * | 2012-08-24 | 2013-01-16 | 南京航空航天大学 | 一种基于tld的视频目标跟踪方法 |
CN103985254A (zh) * | 2014-05-29 | 2014-08-13 | 四川川大智胜软件股份有限公司 | 一种用于大场景交通监视的多视点视频融合及交通参数采集方法 |
CN104008371A (zh) * | 2014-05-22 | 2014-08-27 | 南京邮电大学 | 一种基于多摄像机的区域可疑目标跟踪与识别方法 |
CN106534780A (zh) * | 2016-11-11 | 2017-03-22 | 广西师范大学 | 三维全景视频监控装置及其视频图像处理方法 |
-
2018
- 2018-10-18 CN CN201811212740.6A patent/CN109344792A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110142283A1 (en) * | 2009-12-10 | 2011-06-16 | Chung-Hsien Huang | Apparatus and method for moving object detection |
CN101950426A (zh) * | 2010-09-29 | 2011-01-19 | 北京航空航天大学 | 一种多摄像机场景下车辆接力跟踪方法 |
CN102881024A (zh) * | 2012-08-24 | 2013-01-16 | 南京航空航天大学 | 一种基于tld的视频目标跟踪方法 |
CN104008371A (zh) * | 2014-05-22 | 2014-08-27 | 南京邮电大学 | 一种基于多摄像机的区域可疑目标跟踪与识别方法 |
CN103985254A (zh) * | 2014-05-29 | 2014-08-13 | 四川川大智胜软件股份有限公司 | 一种用于大场景交通监视的多视点视频融合及交通参数采集方法 |
CN106534780A (zh) * | 2016-11-11 | 2017-03-22 | 广西师范大学 | 三维全景视频监控装置及其视频图像处理方法 |
Non-Patent Citations (6)
Title |
---|
姜峰等: "《计算机视觉 运动分析》", 30 June 2018, 哈尔滨工业大学出版社 * |
张俊,许力: ""一种基于目标检测和联合概率数据关联的多目标跟踪方法"", 《工业控制计算机》 * |
徐光柱,雷帮军: "《实用性目标检测与跟踪算法原理及应用》", 30 April 2015, 国防工业出版社 * |
熊有伦等: "《机器人:建模、控制与视觉》", 31 March 2018, 华中科技大学出版社 * |
蒋恋华等: ""多目标跟踪综述"", 《计算机系统应用》 * |
韩九强: "《数字图像处理:基于XAVIS组态软件》", 31 May 2018, 西安交通大学出版社 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110602449A (zh) * | 2019-09-01 | 2019-12-20 | 天津大学 | 一种基于视觉的大场景下施工安全智能监控系统方法 |
CN110866889A (zh) * | 2019-11-18 | 2020-03-06 | 成都威爱新经济技术研究院有限公司 | 一种监控系统中的多相机数据融合方法 |
CN111192297A (zh) * | 2019-12-31 | 2020-05-22 | 山东广域科技有限责任公司 | 一种基于度量学习的多摄像头目标关联跟踪方法 |
CN112307989A (zh) * | 2020-11-03 | 2021-02-02 | 广州海格通信集团股份有限公司 | 路面物体识别方法、装置、计算机设备和存储介质 |
CN112307989B (zh) * | 2020-11-03 | 2024-05-03 | 广州海格通信集团股份有限公司 | 路面物体识别方法、装置、计算机设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110717414B (zh) | 一种目标检测追踪方法、装置及设备 | |
Wen et al. | Detection, tracking, and counting meets drones in crowds: A benchmark | |
Sidla et al. | Pedestrian detection and tracking for counting applications in crowded situations | |
CN110264493B (zh) | 一种针对运动状态下的多目标对象追踪方法和装置 | |
CN109344792A (zh) | 一种目标自动识别跟踪方法 | |
CN109145708B (zh) | 一种基于rgb和d信息融合的人流量统计方法 | |
US7149325B2 (en) | Cooperative camera network | |
CN100390811C (zh) | 实时的从视频中跟踪多个人脸的方法 | |
Bayona et al. | Comparative evaluation of stationary foreground object detection algorithms based on background subtraction techniques | |
CN109903312A (zh) | 一种基于视频多目标跟踪的足球球员跑动距离统计方法 | |
CN109919974A (zh) | 基于r-fcn框架多候选关联的在线多目标跟踪方法 | |
CN101089875A (zh) | 面部鉴别装置、面部鉴别方法以及入口和出口管理装置 | |
D'Orazio et al. | Color brightness transfer function evaluation for non overlapping multi camera tracking | |
CN108537829A (zh) | 一种监控视频人员状态识别方法 | |
Celik et al. | Towards a robust solution to people counting | |
Naik et al. | DeepPlayer-track: player and referee tracking with jersey color recognition in soccer | |
Han et al. | Dr. vic: Decomposition and reasoning for video individual counting | |
Abbott et al. | Multiple target tracking with lazy background subtraction and connected components analysis | |
CN103150552B (zh) | 一种基于人头计数的驾驶培训管理方法 | |
Davis et al. | An adaptive focus-of-attention model for video surveillance and monitoring | |
Kang et al. | Persistent objects tracking across multiple non overlapping cameras | |
CN109215150A (zh) | 人脸点名与计数方法及其系统 | |
CN114359817A (zh) | 基于出入口人行识别的人流量测量方法 | |
CN109977796A (zh) | 尾随通行检测方法及装置 | |
Spagnolo et al. | Non-invasive soccer goal line technology: a real case study |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190215 |