CN101616309B - 无重叠视域多摄像机人体目标跟踪方法 - Google Patents
无重叠视域多摄像机人体目标跟踪方法 Download PDFInfo
- Publication number
- CN101616309B CN101616309B CN2009100549253A CN200910054925A CN101616309B CN 101616309 B CN101616309 B CN 101616309B CN 2009100549253 A CN2009100549253 A CN 2009100549253A CN 200910054925 A CN200910054925 A CN 200910054925A CN 101616309 B CN101616309 B CN 101616309B
- Authority
- CN
- China
- Prior art keywords
- centerdot
- node
- target
- video camera
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种无重叠视域多摄像机人体目标跟踪方法,具体是一种在多摄像机之间拓扑关系已知的情况下,在无重叠视域的多摄像机视频中进行目标匹配与跟踪的方法,首先建立多摄像机之间的拓扑关系矩阵,然后提取行人目标的前景图像,接着通过人机交互界面在某个摄像机的视域范围选定跟踪目标,并使用混合高斯模型提取该目标的外观特征,包括颜色直方图特征和UV色度特征,在整个跟踪过程中,采用树的结构对跟踪任务进行管理,并采用贝叶斯模型估计全局相似度,根据全局相似度寻找最佳匹配目标。本发明具有精确度高、算法简单、易于实现、实时性强等优点,可以为多摄像机目标识别与跟踪提供一种新的实时可靠的方法。
Description
技术领域
本发明涉及一种多摄像机视频监控领域中的目标跟踪方法,具体是一种在多摄像机之间拓扑关系已知的情况下,在无重叠视域的多摄像机视频中进行人体目标匹配与跟踪的方法。属于视频监控技术领域。
背景技术
随着视频监控技术的快速发展,以及单摄像机有限的视域无法满足广域视频监控的要求,无重叠视域多摄像机目标跟踪成为有效解决广域视频监控问题的一种途径。无重叠视域多摄像机目标跟踪问题不同于单摄像机和重叠视域多摄像机跟踪问题。单摄像机目标跟踪的研究主要集中在背景建模、前景检测、阴影去除、遮挡处理等关键问题上,这些关键问题也是多摄像机目标跟踪的研究基础。多摄像机目标跟踪从视域角度上看可以分为重叠视域多摄像机目标跟踪与无重叠视域多摄像机目标跟踪。对于前者由于视域是重叠的,目标在离开前一个摄像机视域之前已经出现在后一个摄像机的视域中,因此摄像机之间的目标跟踪可以由一个摄像机传递给另一个。而对于后者由于摄像机之间存在一个盲区,目标在这个盲区内的运动无法获知,因此造成时间和空间上的不连续,这为问题的解决设置了巨大障碍,而且使得前者的许多研究方法无法有效地应用到后者中。对于无重叠视域多摄像机目标跟踪问题,由于问题本身的复杂性和困难性,目前仍处于研究的初级阶段。
经对现有技术文献的检索发现,无重叠视域多摄像机目标跟踪问题的研究主要集中在不同摄像机中相同目标的匹配以及监控摄像机之间拓扑关系的估计。目前已有的匹配方法主要为对目标建立外观模型。Javed等人于2008年在《Computer Vision and Image Understanding》(计算机视觉与图像理解)发表的论文“Modeling inter-camera space-time and appearance relationships for trackingacross non-overlapping views”(针对非重叠视域跟踪的多摄像机时空及外观关系建模)运用颜色直方图建立外观模型。Teixeira等人于2008年在《PatternRecognition Letters》)(模式识别快报)发表的论文“Video object matching acrossmultiple independent views using local descriptors and adaptive learning”(基于局部特征描述器及适应性学习的独立多摄像机视频目标匹配)运用一个由量化的局部特征描述器组成的直方图建立外观模型。然而,由于多摄像机视域中各摄像机之间多种因素变化的不确定性,这些特征均无法对于这些不确定因素同时具有鲁棒性。
Javed等人于2008年在《Computer Vision and Image Understanding》(计算机视觉与图像理解)发表的论文“Modeling inter-camera space-time andappearance relationships for tracking across non-overlapping views”(针对非重叠视域跟踪的多摄像机时空及外观关系建模)采用一个基于Parzen窗和高斯核的混合概率密度估计器来估计由时间间隔、进出观测视域的位置和进出视域时的运动速度等量组成的概率密度函数,整个估计过程通过学习训练集数据的方法实现。然而,这种方法算法复杂,不易实现,因此不适合实际的工程运用。
发明内容
本发明的目的在于针对现有技术的不足,提供一种无重叠视域多摄像机人体目标跟踪方法,能在多摄像机之间的拓扑关系已知的前提下,实时准确的跟踪单个行人目标。
为实现上述目的,本发明首先建立多摄像机之间的拓扑关系矩阵,然后提取行人目标的前景图像,接着通过人机交互界面在某个摄像机的视域范围选定跟踪目标,并使用混合高斯模型提取该目标的外观特征,包括颜色直方图特征和UV色度特征,在整个跟踪过程中,采用树的结构对跟踪任务进行管理,并采用贝叶斯模型估计全局相似度,根据全局相似度寻找最佳匹配目标。
本发明方法通过以下具体步骤实现:
1、为每个摄像机设定编号:1,2,……,N;为每个摄像机定义出入口编号:1,2,……,m;从一个摄像机的某个出口至另一个摄像机的某个入口所用平均时间为t;引入一个时间窗参数w,使得所有行人从一个摄像机的某个出口至另一个摄像机的某个入口所用时间落在(t-w,t+w)区间内;根据已知多摄像机之间的拓扑关系,建立拓扑关系矩阵:
其中,tij表示从摄像机i到摄像机j之间的连接信息,tij用以下结构表示:
tij={(摄像机号i,出口号),(摄像机号j,入口号),平均时间,时间窗}。
2、将摄像机采集的视频读入计算机,对每帧图像进行背景建模与背景实时更新,通过当前帧与背景帧相减的方法,得到每个行人目标的前景图像。
3、通过人机交互界面在某个摄像机的视域范围选定跟踪目标,根据与该跟踪目标对应的行人目标前景图像,使用混合高斯模型提取跟踪目标的外观特征,包括颜色直方图特征和UV色度特征。
4、当跟踪目标走出选定时所在摄像机视域范围,则针对该摄像机建立节点作为跟踪树的根节点;然后根据拓扑关系矩阵得到与该摄像机相连的所有摄像机,并向这些摄像机发布跟踪任务,同时针对这些摄像机为根节点分别建立子节点;所述节点的结构为:节点={父节点,子节点,摄像机号,对应跟踪任务,行人目标对象};其中行人目标对象包括行人目标的外观特征以及该行人目标与选定跟踪目标之间的全局相似度;所述跟踪任务的结构为:跟踪任务={监控时间,出入口号,对应节点}。
5、当行人目标进入某个摄像机的视域范围,则在该摄像机的跟踪任务列表中寻找与之匹配的跟踪任务;若存在匹配的跟踪任务,则根据该行人目标的前景图像,使用混合高斯模型提取该行人目标的颜色直方图特征和UV色度特征;计算该行人目标与选定跟踪目标之间的相似度,再利用贝叶斯模型估计全局相似度,将此全局相似度与该摄像机对应节点中保存行人目标对象的全局相似度进行比较,保留较大者对应的行人目标对象作为局部最佳匹配目标,再根据全局相似度在该摄像机所对应的当前层节点中寻找全局最佳匹配节点,对于失去全局最佳匹配节点身份的节点,删除其子节点。
6、当与全局最佳匹配节点对应的行人目标走出某个摄像机的视域范围,则根据拓扑关系矩阵得到所有与该摄像机相连的摄像机,并向这些摄像机发布跟踪任务,同时针对这些摄像机为当前节点分别建立子节点。
7、当某个跟踪任务的监控时间失效,在该跟踪任务对应节点的所有兄弟节点中寻找全局最佳匹配节点,若该跟踪任务对应节点不是全局最佳匹配节点,则删除该跟踪任务对应节点及其子节点。
8、若所有节点的跟踪任务时间均失效,则完成无重叠视域多摄像机的目标跟踪。
本发明与现有技术相比的显著效果在于:融合两种特征建立外观模型以实现更加精确的匹配,并利用已知的拓扑关系来辅助目标匹配,具有精确度高,算法简单,易于实现、实时性强等优点,可以为多摄像机目标识别与跟踪提供一种新的实时可靠的方法。
附图说明
图1为本发明方法步骤方框示意图。
图2为摄像机出入口号定义方式示意图。
图3为摄像机拓扑结构示意图。
图4为跟踪树示意图。
具体实施方式
下面结合附图和实施例对本发明的技术方案作详细说明。本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和过程,但本发明的保护范围不限于下述的实施例。
为了便于理解本发明提出的方法,在本实施例中选取非重叠视域摄像机数目为4,所选取的视频中共有两个行人分别为行人A与行人B先后经过,行人A依次经过摄像机1、2、4的视域,行人B依次经过摄像机1、3、4的视域。
图1给出了本发明方法流程示意图。如图1所示,本实施例具体实施步骤如下:
1、建立多摄像机之间的拓扑关系矩阵
在本实施例中选取非重叠视域摄像机数目为4,依次为每个摄像机设定编号:1,2,3,4;然后,所有摄像机均按附图2所示方式定义出入口编号:1,2,3,4;根据摄像机的实际连接方式以及以上定义,可以画出本实施例中4个摄像机的拓扑结构如附图3所示。定义从一个摄像机的某个出口至另一个摄像机的某个入口所用平均时间为t,引入一个时间窗参数w,使得所有行人从一个摄像机的某个出口至另一个摄像机的某个入口所用时间落在(t-w,t+w)区间内。t与w的取值根据一定数量的样本统计得到。如图3所示,本实施例中,行人A的行走路线中,1号摄像机的4号出口至2号摄像机的4号入口所用平均时间t为21s,时间窗参数w=5s;2号摄像机的2号出口至4号摄像机的4号入口所用平均时间t为44s,时间窗参数w=9s。行人B行走的路线中,1号摄像机的4号出口至3号摄像机的4号入口所用平均时间t为28s,时间窗参数w=7s;3号摄像机的2号出口至4号摄像机的4号入口所用平均时间t为35s,时间窗参数w=8s。
根据已知的拓扑关系,建立多摄像机之间的拓扑关系矩阵:
其中,tij表示从摄像机i到摄像机j之间的连接信息,包括出口号、入口号、平均时间以及时间窗参数。tij用以下结构表示:
tij={(摄像机号i,出口号),(摄像机号j,入口号),平均时间,时间窗}。
如果两摄像机之间不存在连接,则出口号与入口号赋-1,平均时间与时间窗赋0。
2、提取行人目标的前景图像
采用OpenCV(Intel开源计算机视觉库)中的功能函数进行视频读取,把摄像机采集的视频读入计算机,然后采用Tao Yang等人于2005年在CVPR(计算机视觉与模式识别会议)发表的论文“Real-time Multiple Objects Tracking withOcclusion Handling in Dynamic Scenes”(动态场景中的实时重叠多目标跟踪)中的方法对每帧图像进行背景建模与背景实时更新。通过当前帧与背景帧相减的方法,并结合高斯滤波与形态学处理,可以得到比较准确的每个行人目标的前景图像。
3、选定跟踪目标,提取跟踪目标的外观特征
当行人A首先出现在摄像机1的视域,通过人机交互界面选定它为跟踪目标。使用Cai等人于2007年在ACCV(亚洲计算机视觉会议)发表的论文“Continuously tracking objects across multiple widely separated cameras”(广域非重叠多摄像机持续目标跟踪)的方法提取基于前景分割的颜色直方图特征。根据空间关系将目标划分为三个部分,对于每部分使用高斯混合模型(GMM)来估计颜色分布,不同部分的权值由下式计算:
其中,as和bs代表摄像机A和B中的检测目标,p(Sai=Sbi)代表as和bs中的对应部分相匹配的概率,p(as=bs)代表摄像机A和B中的目标相匹配的概率。
使用Jeong和Jaynes于2008年在《Machine Vision and Applications》(机器视觉及应用)发表的论文“Object matching in disjoint cameras using a colortransfer approach”(使用颜色转换方法的非重叠摄像机目标匹配)提取UV色度空间模型。将目标划分为三个部分,根据YUV颜色空间的UV通道建立色度平面。对于平面上的颜色分布建立二维高斯混合模型。权值计算同颜色直方图。
多摄像机之间的跟踪任务管理采用树的结构进行,在本实施例中,整个管理过程依次通过以下几步实现:
4、选定的跟踪目标(行人A)走出摄像机1的视域范围,则针对摄像机1建立节点作为跟踪树的根节点;然后搜索拓扑关系矩阵,得到所有与之相连的摄像机为摄像机2和摄像机3;根据平均时间t与时间窗w向摄像机2和摄像机3发布跟踪任务,同时针对摄像机2和摄像机3为根节点建立子节点;所述节点的结构为:节点={父节点,子节点,摄像机号,对应跟踪任务,行人目标对象};其中行人目标对象包括行人目标的外观特征以及该行人目标与选定跟踪目标之间的全局相似度;所述跟踪任务的结构为:跟踪任务={监控时间,出入口号,对应节点};此时的跟踪树如附图4(a)所示。图中节点内的标号代表对应的摄像机号。
5、行人A进入摄像机2的视域,则在摄像机2的跟踪任务列表中根据待监控的摄像机出入口号以及有效监控时间寻找与之匹配的跟踪任务;结果为存在匹配的跟踪任务,则根据该行人目标的前景图像,使用混合高斯模型提取该行人目标的颜色直方图特征和UV色度特征;计算该行人目标与选定跟踪目标之间的相似度,再利用贝叶斯模型估计全局相似度,将该行人目标对象作为局部最佳匹配目标保存在摄像机2对应节点中;再根据全局相似度在摄像机1所对应的当前层节点中寻找全局最佳匹配节点,结果为摄像机2对应节点为最佳匹配节点。
接着,行人B进入摄像机3的视域,则在摄像机3的监控任务列表中根据待监控的摄像机出入口号以及有效监控时间寻找与之匹配的监控任务;结果为存在匹配的监控任务,则根据该行人目标的前景图像,使用混合高斯模型提取该行人目标的颜色直方图特征和UV色度特征;计算该行人目标与选定跟踪目标之间的相似度,再利用贝叶斯模型估计全局相似度,将该行人目标对象作为局部最佳匹配目标保存在摄像机3对应节点中;此时摄像机3所对应的当前层中有两个节点,比较它们的全局相似度,取相似度最大者为最佳匹配节点;结果上一步出现的行人(行人A)相似度更大,因此摄像机2对应节点被判为当前的最佳匹配节点;由于未发生最佳匹配节点身份的转移,所以不需进行删除子节点操作。
6、行人A走出摄像机2的视域,搜索拓扑关系矩阵,得到所有与摄像机2出口相连的摄像机为摄像机4;根据平均时间t与时间窗w向摄像机4发布跟踪任务,同时针对摄像机4为当前节点建立子节点;此时的跟踪树如附图4(b)所示。
7、摄像机2的跟踪任务监控时间失效,在摄像机2对应节点的所有兄弟节点中寻找全局最佳匹配节点,结果摄像机2对应节点为最佳匹配节点;因此不进行删除节点操作。
摄像机3的跟踪任务监控时间失效,在摄像机3对应节点的所有兄弟节点中寻找全局最佳匹配节点,结果摄像机2对应节点为最佳匹配节点;删除摄像机3对应节点及其子节点;此时的跟踪树如附图4(c)所示。
行人A走出摄像机2的视域范围后,进入了摄像机4的视域,采用与步骤5相同的方法进行跟踪任务管理。即在摄像机4的跟踪任务列表中根据待监控的摄像机出入口号以及有效监控时间寻找与之匹配的跟踪任务;结果为存在匹配的跟踪任务,则根据该行人目标的前景图像,使用混合高斯模型提取该行人目标的颜色直方图特征和UV色度特征;计算该行人目标与选定跟踪目标之间的相似度,再利用贝叶斯模型估计全局相似度,将该行人目标对象作为局部最佳匹配目标保存在摄像机2对应节点中,再根据全局相似度在摄像机4所对应的当前层节点中寻找全局最佳匹配节点,由于此时当前层只有一个节点,于是它被判为当前的最佳匹配目标。
行人A走出摄像机4的视域,搜索拓扑关系矩阵,没有与摄像机4出口相连的其它摄像机,不进行任何操作。
摄像机4的跟踪任务监控时间失效,在摄像机4对应节点的所有兄弟节点中寻找全局最佳匹配节点,由于当前层只有一个节点,结果摄像机4对应节点为最佳匹配节点;因此不进行删除节点操作。
8、摄像机4的跟踪任务监控时间失效,即所有摄像机的跟踪任务监控时间失效,则完成无重叠视域多摄像机的目标跟踪。于是,在整个跟踪过程中,成功地跟踪了行人A的运动轨迹。
Claims (1)
1.一种无重叠视域多摄像机人体目标跟踪方法,其特征在于包括以下步骤:
1)为每个摄像机设定编号:1,2,……,N;为每个摄像机定义出入口编号:1,2,……,m;从一个摄像机的某个出口至另一个摄像机的某个入口所用平均时间为t;引入一个时间窗参数w,使得所有行人从一个摄像机的某个出口至另一个摄像机的某个入口所用时间落在(t-w,t+w)区间内;根据已知多摄像机之间的拓扑关系,建立拓扑关系矩阵:
其中,tij表示从摄像机i到摄像机j之间的连接信息,tij用以下结构表示:
tij={(摄像机号i,出口号),(摄像机号j,入口号),平均时间,时间窗};
2)将摄像机采集的视频读入计算机,对每帧图像进行背景建模与背景实时更新,通过当前帧与背景帧相减的方法,得到每个行人目标的前景图像;
3)通过人机交互界面在某个摄像机的视域范围选定跟踪目标,根据与该跟踪目标对应的行人目标前景图像,使用混合高斯模型提取跟踪目标的外观特征,包括颜色直方图特征和UV色度特征;
4)当跟踪目标走出选定时所在摄像机视域范围,则针对该摄像机建立节点作为跟踪树的根节点;然后根据拓扑关系矩阵得到与该摄像机相连的所有摄像机,并向这些摄像机发布跟踪任务,同时针对这些摄像机分别建立节点作为根节点的子节点;所述节点的结构为:节点={父节点,子节点,摄像机号,对应跟踪任务,行人目标对象};其中行人目标对象包括行人目标的外观特征以及该行人目标与选定跟踪目标之间的全局相似度;所述跟踪任务的结构为:跟踪任务={监控时间,出入口号,对应节点};
5)当行人目标进入某个摄像机的视域范围,则在该摄像机的跟踪任务列表中寻找与之匹配的跟踪任务;若存在匹配的跟踪任务,则根据该行人目标的前景图像,使用混合高斯模型提取该行人目标的颜色直方图特征和UV色度特征;计算该行人目标与选定跟踪目标之间的相似度,再利用贝叶斯模型估计全局相似度,将此全局相似度与该摄像机对应节点中保存行人目标对象的全局相似度进行比较,保留较大者对应的行人目标对象作为局部最佳匹配目标,再根据全局相似度在该摄像机所对应的当前层节点中寻找全局最佳匹配节点;对于失去全局最佳匹配节点身份的节点,删除其子节点;
6)当与全局最佳匹配节点对应的行人目标走出某个摄像机的视域范围,则根据拓扑关系矩阵得到所有与该摄像机相连的摄像机,并向这些摄像机发布跟踪任务,同时针对这些摄像机分别建立节点作为当前节点的子节点;
7)当某个跟踪任务的监控时间失效,在该跟踪任务对应节点的所有兄弟节点中寻找全局最佳匹配节点,若该跟踪任务对应节点不是全局最佳匹配节点,则删除该跟踪任务对应节点及其子节点;
8)若所有节点的跟踪任务时间均失效,则完成无重叠视域多摄像机的目标跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100549253A CN101616309B (zh) | 2009-07-16 | 2009-07-16 | 无重叠视域多摄像机人体目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009100549253A CN101616309B (zh) | 2009-07-16 | 2009-07-16 | 无重叠视域多摄像机人体目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101616309A CN101616309A (zh) | 2009-12-30 |
CN101616309B true CN101616309B (zh) | 2010-12-29 |
Family
ID=41495660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009100549253A Expired - Fee Related CN101616309B (zh) | 2009-07-16 | 2009-07-16 | 无重叠视域多摄像机人体目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101616309B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014201891A1 (zh) * | 2013-06-21 | 2014-12-24 | 中兴通讯股份有限公司 | 多目标跟踪方法、系统及计算机存储介质 |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101860731B (zh) * | 2010-05-20 | 2012-05-30 | 杭州普维光电技术有限公司 | 视频信息处理方法、系统及服务器 |
CN102236785B (zh) * | 2011-06-29 | 2012-12-19 | 中山大学 | 一种非重叠摄像机视点之间的行人匹配方法 |
CN102592144B (zh) * | 2012-01-06 | 2014-03-26 | 东南大学 | 一种基于多摄像机无重叠视域行人匹配方法 |
CN104143077B (zh) * | 2013-05-09 | 2018-07-03 | 深圳先进技术研究院 | 基于图像的行人目标检索方法和系统 |
CN103325121B (zh) * | 2013-06-28 | 2017-05-17 | 安科机器人有限公司 | 一种监控场景中摄像机网络拓扑关系估算方法及系统 |
CN103617413B (zh) * | 2013-11-07 | 2015-05-20 | 电子科技大学 | 一种在图像中识别物体的方法 |
CN103984955B (zh) * | 2014-04-23 | 2017-02-22 | 浙江工商大学 | 基于显著性特征和迁移增量学习的多摄像机目标识别方法 |
CN104038729A (zh) * | 2014-05-05 | 2014-09-10 | 重庆大学 | 级联式多摄像机接力跟踪方法及系统 |
CN104010168B (zh) * | 2014-06-13 | 2017-06-13 | 东南大学 | 一种无重叠视域多摄像机监控网络拓扑自适应学习方法 |
CN104601964B (zh) * | 2015-02-06 | 2018-09-21 | 武汉大学 | 非重叠视域跨摄像机室内行人目标跟踪方法及系统 |
CN104954743B (zh) * | 2015-06-12 | 2017-11-28 | 西安理工大学 | 一种多相机语义关联目标跟踪方法 |
CN105447465B (zh) * | 2015-11-25 | 2020-02-07 | 中山大学 | 基于行人局部和整体融合匹配的无交叠视域摄像头之间的不完整行人匹配方法 |
CN105744223B (zh) * | 2016-02-04 | 2019-01-29 | 北京旷视科技有限公司 | 视频数据处理方法和装置 |
CN105933650A (zh) * | 2016-04-25 | 2016-09-07 | 北京旷视科技有限公司 | 视频监控系统及方法 |
CN106203260A (zh) * | 2016-06-27 | 2016-12-07 | 南京邮电大学 | 基于多摄像机监控网络的行人识别与跟踪方法 |
CN106250846A (zh) * | 2016-07-29 | 2016-12-21 | 昆明理工大学 | 一种基于视频监控的公安图像侦测方法 |
CN106295594B (zh) * | 2016-08-17 | 2019-10-15 | 北京大学 | 一种基于动态路径树的跨摄像头目标跟踪方法及装置 |
CN106303442B (zh) * | 2016-08-26 | 2020-05-26 | 浙江大华技术股份有限公司 | 追踪路径拓扑结构建立方法、目标对象追踪方法及设备 |
CN107292916B (zh) * | 2017-08-08 | 2020-10-27 | 阔地教育科技有限公司 | 目标关联方法、存储设备、直录播互动终端 |
CN107689054B (zh) * | 2017-08-24 | 2020-09-22 | 北京航空航天大学 | 一种多相机拓扑连通图建立与跨相机目标跟踪方法 |
KR20200053474A (ko) * | 2017-09-26 | 2020-05-18 | 소니 세미컨덕터 솔루션즈 가부시키가이샤 | 정보처리시스템 |
CN109308456B (zh) * | 2018-08-31 | 2021-06-08 | 北京字节跳动网络技术有限公司 | 目标对象的信息确定方法、装置、设备及存储介质 |
CN111402286B (zh) * | 2018-12-27 | 2024-04-02 | 杭州海康威视系统技术有限公司 | 一种目标跟踪方法、装置、系统及电子设备 |
CN109871783B (zh) * | 2019-01-28 | 2021-05-07 | 武汉恩特拉信息技术有限公司 | 一种基于视频图像的监控方法及监控系统 |
CN110428448B (zh) * | 2019-07-31 | 2021-05-14 | 腾讯科技(深圳)有限公司 | 目标检测跟踪方法、装置、设备及存储介质 |
CN110728249B (zh) * | 2019-10-21 | 2023-07-28 | 上海市刑事科学技术研究院 | 目标行人的跨摄像机识别方法、装置及系统 |
CN111427037B (zh) * | 2020-03-18 | 2022-06-03 | 北京百度网讯科技有限公司 | 障碍物的检测方法和装置、电子设备和车端设备 |
CN111866468B (zh) * | 2020-07-29 | 2022-06-24 | 浙江大华技术股份有限公司 | 对象跟踪分配方法、装置、存储介质及电子装置 |
CN114708545A (zh) * | 2021-08-20 | 2022-07-05 | 南京西三艾电子系统工程有限公司 | 基于图像的对象侦测方法、装置、设备和存储介质 |
CN114119674B (zh) * | 2022-01-28 | 2022-04-26 | 深圳佑驾创新科技有限公司 | 一种静态目标跟踪方法、装置及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003015384A2 (en) * | 2001-08-10 | 2003-02-20 | Koninklijke Philips Electronics N.V. | Portable electronic device having recording capability |
CN1449185A (zh) * | 2002-01-25 | 2003-10-15 | 日本微系统株式会社 | 移动目标监视管理装置 |
CN101329765A (zh) * | 2008-07-31 | 2008-12-24 | 上海交通大学 | 多摄像机目标匹配特征融合方法 |
-
2009
- 2009-07-16 CN CN2009100549253A patent/CN101616309B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003015384A2 (en) * | 2001-08-10 | 2003-02-20 | Koninklijke Philips Electronics N.V. | Portable electronic device having recording capability |
CN1449185A (zh) * | 2002-01-25 | 2003-10-15 | 日本微系统株式会社 | 移动目标监视管理装置 |
CN101329765A (zh) * | 2008-07-31 | 2008-12-24 | 上海交通大学 | 多摄像机目标匹配特征融合方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014201891A1 (zh) * | 2013-06-21 | 2014-12-24 | 中兴通讯股份有限公司 | 多目标跟踪方法、系统及计算机存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN101616309A (zh) | 2009-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101616309B (zh) | 无重叠视域多摄像机人体目标跟踪方法 | |
CN104268583B (zh) | 基于颜色区域特征的行人重识别方法及系统 | |
Craye et al. | Spatio-temporal semantic segmentation for drone detection | |
CN102436662B (zh) | 一种非重叠视域多摄像机网络中的人体目标跟踪方法 | |
Zhang et al. | Semantic segmentation of urban scenes using dense depth maps | |
CN102542289B (zh) | 一种基于多高斯计数模型的人流量统计方法 | |
Niu et al. | View-invariant human activity recognition based on shape and motion features | |
CN102256065B (zh) | 基于视频监控网络的视频自动浓缩方法 | |
CN103714181B (zh) | 一种层级化的特定人物检索方法 | |
CN101329765B (zh) | 多摄像机目标匹配特征融合方法 | |
CN109035293A (zh) | 适用于视频图像中显著人体实例分割的方法 | |
CN106203260A (zh) | 基于多摄像机监控网络的行人识别与跟踪方法 | |
CN107153824A (zh) | 基于图聚类的跨视频行人重识别方法 | |
CN103761514A (zh) | 基于广角枪机和多球机实现人脸识别的系统及方法 | |
CN107798313A (zh) | 一种人体姿态识别方法、装置、终端和存储介质 | |
CN109064484A (zh) | 基于子群组划分与动量特征融合的人群运动行为识别方法 | |
Wang et al. | An overview of 3d object detection | |
CN105069816B (zh) | 一种进出口人流量统计的方法及系统 | |
CN106127812A (zh) | 一种基于视频监控的客运站非出入口区域的客流统计方法 | |
CN113066129A (zh) | 基于动态环境下的目标检测的视觉定位与建图系统 | |
CN114648557A (zh) | 一种基于高空视角与地面视角的多目标协同跟踪方法 | |
Shu et al. | Small moving object detection and tracking based on event signals | |
Lee et al. | independent object detection based on two-dimensional contours and three-dimensional sizes | |
CN102156879A (zh) | 基于加权陆地运动距离的人体目标匹配方法 | |
Zhan et al. | Pictorial structures model based human interaction recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20101229 Termination date: 20130716 |