CN118018865B - 全天候场景的物体跨镜头追踪方法及系统 - Google Patents
全天候场景的物体跨镜头追踪方法及系统 Download PDFInfo
- Publication number
- CN118018865B CN118018865B CN202410292163.5A CN202410292163A CN118018865B CN 118018865 B CN118018865 B CN 118018865B CN 202410292163 A CN202410292163 A CN 202410292163A CN 118018865 B CN118018865 B CN 118018865B
- Authority
- CN
- China
- Prior art keywords
- target
- cross
- camera
- tracking
- border
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 239000013598 vector Substances 0.000 claims description 37
- 238000001514 detection method Methods 0.000 claims description 26
- 230000006399 behavior Effects 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 12
- 230000001502 supplementing effect Effects 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 6
- 238000009434 installation Methods 0.000 claims description 5
- 238000005457 optimization Methods 0.000 abstract description 3
- 230000003287 optical effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/131—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明涉及全天候场景的物体跨镜头追踪方法及系统,包括步骤:构建摄像头关系网络,每个摄像头至少对应有一个候选摄像头;单个摄像头检测目标并进行追踪,形成追踪目标列表;获取每一目标出现的时间、位置、外观特征和物体类别形成该目标的时空特征信息;摄像头判定目标的跨境头行为,构建跨境头通知消息,并将跨境头通知消息发送至候选摄像头,候选摄像头对目标进行匹配,实现跨境头追踪。本发明充分利用多个摄像头都可以共同拍摄到同一个区域的特点,进行更加细致的优化,在全天候场景下提高对物体跨境头追踪的准确性。
Description
技术领域
本发明涉及图像数据处理技术领域,特别涉及一种全天候场景的物体跨镜头追踪方法及系统。
背景技术
视频监控系统在各个领域有着广泛的应用,其主要功能是检测和追踪监控场景中的物体,并获取其运动轨迹和行为模式等信息。为了尽量覆盖整个区域,需要多个摄像头组成分布式网络,但这也带来了跨境头追踪的难度,即如何在不同摄像头之间正确地匹配同一个物体。物体跨境头追踪的方法可以分为基于外观特征和非外观特征两类,前者利用物体的颜色、纹理、形状等视觉信息进行识别;后者利用物体的运动轨迹、位置关系、时间窗口等信息进行识别。公开号为CN117528035A的专利文献公开了一种基于主动通知的物体跨境头追踪方法及系统,通过主动向候选摄像头发送通知消息的方式,避免当前摄像头向其他摄像头提取物体信息进行匹配的繁琐操作,能够快速的对同一物体进行匹配。但是其在匹配过程中,仅依靠时间、位置和外观特征通过消息队列进行匹配,匹配依据不全面;且外观特征会受到物体所在场景或环境的影响,匹配结果不稳定,尤其是当处于夜间场景的时候,摄像头可能会被车灯等强光干扰,使得画面过渡曝光,无法看到画面中的物体。另一方面,该专利文献提供的方法未考虑到实际监控摄像头安装场景中,可能存在多个摄像头都可以共同拍摄到同一个区域的特点,没有充分利用这个特点加以利用,进行更加细致的优化,故需要在全天候场景下提高对物体跨境头追踪的准确性。
发明内容
本发明的目的在于在全天候场景下提高对物体跨境头追踪的准确性,提供一种全天候场景的物体跨镜头追踪方法及系统。
为了实现上述发明目的,本发明实施例提供了以下技术方案:
全天候场景的物体跨镜头追踪方法,包括以下步骤:
步骤1,构建摄像头关系网络,每个摄像头至少对应有一个候选摄像头;
步骤2,单个摄像头检测目标并进行追踪,形成追踪目标列表;获取每一目标出现的时间、位置、外观特征和物体类别形成该目标的时空特征信息;
步骤3,摄像头判定目标的跨境头行为,构建跨境头通知消息,并将跨境头通知消息发送至候选摄像头,候选摄像头对目标进行匹配,实现跨境头追踪。
所述步骤1具体包括以下步骤:
根据摄像头的实际安装地理位置,在每个摄像头拍摄的画面中划定至少一个跨境头多边形区域;每个跨境头多边形区域对应了该摄像头的候选摄像头;
将跨境头多边形区域划分为存在画面重叠区和不存在画面重叠区两种类型。
所述步骤2具体包括以下步骤:
目标进入一摄像头后,该摄像头基于目标检测算法对目标进行检测,利用单镜头目标追踪算法将检测到的目标形成追踪目标列表,并对目标进行追踪;
同时识别目标出现的时间、位置、外观特征向量、物体类别和丢失追踪时长,形成目标的时空特征信息;
在追踪目标时,摄像头检测当前帧的目标,将摄像头检测到的目标和追踪目标列表中的目标进行匹配,以确定当前帧中所有目标的ID,匹配依据包括时间、预测位置、外观特征向量以及丢失追踪时长;对于匹配成功的追踪目标列表中的目标,保留其ID并更新该目标在追踪目标列表中记录的时空特征信息,同时将其丢失追踪时长修改为0,并将摄像头检测当前帧中对应的目标赋予该ID;对于摄像头检测当前帧的目标与追踪目标列表匹配失败的,为当前帧检测的目标赋予新的ID,并识别该目标出现的时间、位置和外观特征向量,形成该目标的时空特征信息,并将该目标加入到追踪目标列表中;对于追踪目标列表中在当前帧未被匹配到的目标,增加该目标的丢失追踪时长,如果丢失追踪时长超过设定的最大丢失追踪时长,则从追踪目标列表中删除该目标及其时空特征信息。
在当前帧检测到的目标与追踪目标列表中的目标进行匹配时,确定当前帧检测到的任一目标与追踪目标列表中的任一目标之间的连接权重矩阵,连接权重矩阵的大小为追踪目标列表中目标的个数乘以当前帧检测到的目标的个数;
连接权重的计算式为:
其中,Wi,j表示假设当前帧中被检测到的第i个目标是追踪目标列表中第j个目标的情况下,它们之间的连接权重;表示当前帧中被检测到的第i个目标和追踪目标列表中第j个目标之间的空间距离;/>表示当前帧中被检测到的第i个目标如果是追踪目标列表中第j个目标的话,根据当前帧被检测到的第i个目标的时间和追踪目标列表中第j个目标记录的最后一次更新时空特征信息的时间相减后取绝对值,代表丢失追踪时长的估计值;/>表示当前帧中被检测到的第i个目标和追踪目标列表中第j个目标最新的外观特征向量距离;/>、/>、/>分别为/>、/>、/>的权重常数;
其中,Ai表示当前帧中被检测到的第i个目标的检测框,Aj表示预测的追踪目标列表中第j个目标在当前帧的检测框;v表示宽高比差异函数;s表示面积差异函数;表示宽高比差异权重系数,/>表示面积差异权重系数;wi、hi分别表示检测框Ai的宽度、高度;wj、hj分别表示检测框Aj的宽度、高度。
或者连接权重的计算式为:
其中,表示目标速度变化值,具体计算方式为,首先根据追踪目标列表中第j个目标在过去几帧的位置计算其平均速度vj,然后假设当前帧中被检测到的第i个目标是追踪目标列表中第j个目标,并更新追踪目标列表中第j个目标的位置,据此可计算其新的平均速度v`j,最后用v`j减去vj并取绝对值得到/>;/>表示目标运动方向变化值,具体计算方式为,首先根据追踪目标列表中第j个目标在过去几帧的运动轨迹计算其平均运动方向/>,为数学极坐标系中的方向表示,然后假设当前帧中被检测到的第i个目标是追踪目标列表中第j的目标,并更新追踪目标列表中第j个目标的位置,据此计算其新的平均运动方向/>,最后用/>减去/>并取绝对值得到/>;/>、/>分别为/>、/>的权重常数。
所述步骤2还包括以下步骤:光敏元件检测光线强度,当光线强度充足时切换为可见光滤光片后采集目标图像;当光线强度不充足时切换为红外光滤光片后采集目标图像,并开启主动红外补光装置。
对于摄像头的跨境头多边形区域为不存在画面重叠区的类型时,所述步骤3具体包括以下步骤:
当目标从跨境头多边形区域外部跨越边界进入跨境头多边形区域内部的时刻,即上一帧目标中心点在跨境头多边形区域外,而当前帧目标在跨境头多边形区域内的这一时刻,摄像头判定目标此时发生了跨境头行为;
摄像头根据目标出现的时间、位置、外观特征向量以及摄像头自身的标识构建跨境头通知消息,并将跨境头通知消息发送至跨境头多边形区域对应的候选摄像头;
候选摄像头将接收到跨境头通知消息存放入类型为不存在画面重叠区域的跨境头消息队列中;候选摄像头将当前帧检测到的目标与跨境头消息队列中的目标进行匹配,匹配时的连接权重计算式为:
其中,i代表候选摄像头的跨境头消息队列中第i个目标,j代表候选摄像头中跨越跨境头多边形区域等待被匹配的第j个目标;Wi,j表示目标i与目标j之间的连接权重;表示摄像头发送跨境头通知消息的时间和候选摄像头进行匹配的时间的差值的绝对值;表示目标i与目标j最新的外观特征向量距离;/>、/>分别为/>、/>的权重常数;
如果跨境头匹配成功,则将跨境头消息队列中的目标ID赋予给匹配成功的目标,实现跨境头追踪,并删除该跨境头通知消息。
对于摄像头的跨境头多边形区域为存在画面重叠区的类型时,所述步骤3具体包括以下步骤:
目标在跨境头多边形区域内部移动时会持续判定为跨境头行为;
摄像头根据目标出现的时间、位置、外观特征向量、预测位置、以及摄像头自身的标识构建跨境头通知消息,并将跨境头通知消息发送至跨境头多边形区域对应的候选摄像头;
候选摄像头将接收到跨境头通知消息存放入类型为存在画面重叠区域的跨境头消息队列中;候选摄像头将当前帧检测到的目标与跨境头消息队列中的目标进行匹配,匹配时的连接权重计算式为:
其中,i代表候选摄像头的跨境头消息队列中第i个目标,j代表候选摄像头中跨越跨境头多边形区域等待被匹配的第j个目标;Wi,j表示目标i与目标j之间的连接权重;表示摄像头发送跨境头通知消息的时间和候选摄像头进行匹配的时间的差值的绝对值;表示目标i与目标j最新的外观特征向量距离;/>、/>、/>分别为/>、/>、/>的权重常数;
如果跨境头匹配成功,则将跨境头消息队列中的目标ID赋予给匹配成功的目标,实现跨境头追踪,并删除该跨境头通知消息。
全天候场景的物体跨镜头追踪系统,包括:图像采集模块、单镜头追踪模块、跨境头追踪模块;
所述单镜头追踪模块包括目标检测模块、身份识别单元、特征信息获取单元、二分图匹配单元;所述目标检测模块用于检测采集的图像中的目标,并形成或更新目标追踪列表;身份识别单元用于提取目标的车牌;特征信息获取单元用于识别目标出现的时间、位置、外观特征向量和物体类别,形成时空特征信息;二分图匹配单元用于基于时空特征信息对当前帧检测到的目标与目标追踪列表中的目标进行匹配。
所述跨境头追踪模块包括关系网络构建单元、跨境头追踪单元、数据收发单元;所述关系网络构建单元用于构建摄像头关系网络,使每个摄像头至少对应有一个候选摄像头,并构建摄像头拍摄区域内的跨境头多边形区域,以及将跨境头多边形区域分为存在画面重叠区和不存在画面重叠区两种类型;跨境头追踪单元用于判定目标的跨境头行为,构建跨境头通知消息,以及将检测到的目标与接收到的跨境头通知消息中的目标进行匹配;数据收发单元用于向候选摄像头发送跨境头通知消息,以及接收其他摄像头发送的跨境头通知消息。
与现有技术相比,本发明的有益效果:
本发明充分利用多个摄像头都可以共同拍摄到同一个区域的特点,进行更加细致的优化,在全天候场景下提高对物体跨境头追踪的准确性。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明方法流程图;
图2为本发明实施例摄像头拍摄画面示意图;
图3为本发明系统模块框图;
图4为本发明另一种系统模块框图。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性,或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。另外,术语“相连”、“连接”等可以是元件之间直接相连,也可以是经由其他元件的间接相连。
实施例:
本发明通过下述技术方案实现,如图1所示,一种全天候场景的物体跨镜头追踪方法,包括以下步骤:
步骤1,构建摄像头关系网络,每个摄像头至少对应有一个候选摄像头。
首先根据摄像头的实际安装地理位置,建立摄像头的空间关系,在每个摄像头拍摄的画面中划定若干个多边形区域,称为跨境头多边形区域,代表物体进入这些区域后,接下来可能会出现在哪个摄像头。根据摄像头之间的空间关系,可以将跨境头多边形区域的类型划分为“存在画面重叠区”和“不存在画面重叠区”,前者表示两相邻的摄像头所拍摄画面范围存在一部分画面重叠区,即物体在该区域内时会同时出现在这两个摄像头中;后者表示两个摄像头拍摄区域无重叠,一个物体不会同时出现在这两个摄像头中,两相邻的摄像头所拍摄画面结合后可能还会出现两个摄像头都无法拍摄到的盲区。
此时可以确定摄像头的一个跨境头多边形区域,代表物体进入该区域后就可以告诉下一摄像头该物体可能会进入下一个摄像头画面中。但并不绝对,因为若两摄像头的跨境头多边形区域类型为“不存在画面重叠区”,则物体可能停留在两摄像头的盲区中。每个摄像头的跨境头多边形区域都标记对应的候选摄像头,代表物体接下来会进入该候选摄像头,以及带有该候选摄像头的标识,如摄像头编号或摄像头名称。通常将实际安装地理位置最相近的摄像头标记为候选摄像头,如图2所示,摄像头A的候选摄像头为摄像头B,因此每个摄像头至少对应一个候选摄像头。但比如在十字路口时,在某些特定的摄像头安装方式下,如图2所示,摄像头B的候选摄像头则包括摄像头C和摄像头D。
对于“存在画面重叠区”的两摄像头,则依据这个特点,为每一对存在画面重叠区的摄像头求解坐标转换矩阵,根据坐标转换矩阵,将物体在前一摄像头中的位置映射到下一摄像头中,比如将物体在前一摄像头中的像素坐标乘以坐标转换矩阵,得到物体在下一摄像头中的预测位置。
步骤2,单个摄像头检测目标并进行追踪,形成追踪目标列表;获取每一目标出现的时间、位置、外观特征和物体类别形成该目标的时空特征信息。
目标进入一摄像头后,该摄像头基于目标检测算法对目标进行检测,同时识别目标出现的时间、位置、外观特征和物体类别,目标的位置和外观特征随着时间的变化而更新。一个摄像头在同一时间或同一时间段可能检测不到目标,也可能检测到的目标不止一个。对于检测到N个目标的情况,利用单镜头目标追踪算法将检测到的目标形成追踪目标列表,比如:{目标1,目标2,...,目标N},同时赋予各个目标唯一的ID,此外,还会记录追踪目标列表中每个目标对应的最新时空特征信息,用于后续帧的单镜头目标追踪算法中的匹配部分。
为了提高对目标外观特征的识别能力,特别是对光线强度不足时有强光照射摄像头或物体带来的过曝光情况,本方案对摄像头进行改进,所述摄像头包括图像传感器、滤光片切换装置、光敏元件、主动红外补光装置。
图像传感器用于捕捉目标的图像信号,能够在近红外光和可见光的光谱范围内进行成像。图像传感器可以是CCD或COMS等类型,具体可以根据不同的光谱需求选择合适的图像传感器。
滤光片切换装置包括红外光滤光片和可见光滤光片两种类型的滤光片,根据光线强度自动切换不同滤光片。当光线强度充足时切换为可见光滤光片,获取清晰的可见光图像并过滤红外光,以防止红外光干扰可见光的成像,造成画面出现较大色差的问题;当光线强度不充足时切换为红外光滤光片,仅利用红外光成像,以排除高亮度LED灯等强光照射摄像头或目标带来的干扰,提升目标识别和追踪的效果。红外光滤光片的截至频率可根据图像传感器的特性在750nm~950nm之间调节,优选800nm。滤光片切换装置通过电极或电磁铁实现自动切换,可根据光敏元件检测到的光线强度来控制切换时机。
主动红外补光装置设置在图像传感器旁,用于在光线强度不充足时发射红外光,增强目标的亮度和对比度,提高目标在红外光图像中的可见度。主动红外补光装置包括红外发光二极管阵列和控制器,红外发光二极管阵列用于发射红外光,控制器用于控制红外发光二极管阵列的开关和亮度。控制器可以与光敏元件连接,当光敏元件检测到光线强度低于设定阈值时控制器控制红外发光二极管阵列开启并切换为红外滤光片,当光敏元件检测到光线强度高于设定阈值时控制器控制红外发光二极管阵列关闭并切换为可见光滤光片。
通过对摄像头的改进后,所识别的目标的外观特征效果会更好,从而进一步得到外观特征向量,因此摄像头针对某一目标形成的时空特征信息包括该目标的时间、位置、物体类别和外观特征向量。
摄像头在追踪目标列表中记录每个目标最新的时空特征信息,根据目标在上一帧画面中出现的位置,利用预测算法预测其在当前帧的位置,得到对应的预测位置。预测算法可以是卡尔曼滤波、自适应卡尔曼滤波或其他可以用过去的观测数据预测当前位置的方法。
在追踪目标时,摄像头检测当前帧的目标,将摄像头检测到的目标与追踪目标列表中的目标进行匹配,以确定当前帧中所有目标的ID,匹配依据是时间、预测位置、外观特征向量以及丢失追踪时长等信息。对于与追踪目标列表中的目标匹配成功的目标,保留追踪目标列表中的ID并更新该目标在追踪目标列表中记录的时空特征信息,同时将其丢失追踪时长修改为0,并将摄像头检测当前帧中对应的目标赋予该ID;对于摄像头检测当前帧的目标与追踪目标列表匹配失败的,为当前帧检测的目标赋予新的ID,并识别该目标出现的时间、位置和外观特征向量,形成该目标的时空特征信息,并将该目标加入到追踪目标列表中;对于追踪目标列表中在当前帧未被匹配到的目标,增加该目标的丢失追踪时长,如果丢失追踪时长超过设定的最大丢失追踪时长,则从追踪目标列表中删除该目标及其时空特征信息。
在当前帧检测到的目标与追踪目标列表中的目标进行匹配时,需要建立二分图,即确定当前帧检测到的任一目标与追踪目标列表中的任一目标之间的连接权重矩阵,连接权重矩阵的大小为追踪目标列表中目标的个数乘以当前帧检测到的目标的个数。连接权重矩阵中的任一元素Wi,j表示假设当前帧中被检测到的第i个目标是追踪目标列表中第j个目标的情况下,它们之间的连接权重,Wi,j越大,说明目标i与目标j是同一目标的可能性越高。连接权重矩阵由外观特征向量距离、空间距离、时间距离、丢失追踪时长等因素综合计算。
其中,外观特征向量由深度学习模型或其他图像编码模型给出,为一个固定长度的向量,推荐长度为512,外观特征向量距离由欧式距离或余弦距离等度量方式计算。
空间距离为目标中心点的欧式距离,或者IOU、CIOU、DIOU等。其中IOU表示两个矩形区域的交并比;CIOU表示IOU加上中心点距离的惩罚项;DIOU表示IOU加上对角线距离的惩罚项,这些指标都是衡量两个多边形重叠程度和相似程度的指标,值越大代表多边形越相似和重叠,本方案采用的计算公式为基于CIOU改进方案,其计算过程为:
其中,Ai表示当前帧中被检测到的第i个目标的检测框,Aj表示预测的追踪目标列表中第j个目标在当前帧的检测框;表示目标i和目标j之间的空间距离;v表示宽高比差异函数,用来衡量两个检测框的宽高比不一致的程度,v越大表示两个检测框的宽高比越不一致;s表示面积差异函数,用来衡量两个检测框的面积不一致的程度,s越大表示两个检测框的面积越不一致;/>表示宽高比差异权重系数,/>表示面积差异权重系数,设置;wi、hi分别表示检测框Ai的宽度、高度;wj、hj分别表示检测框Aj的宽度、高度。改进的目的是更加准确的衡量两个目标的检测框的形状、大小和位置是否相似,提高匹配的准确性。
丢失追踪时长为秒或帧数,表示目标未被持续追踪的时长。
最终的连接权重的计算式为:
其中,表示当前帧中被检测到的第i个目标和追踪目标列表中第j个目标之间的空间距离;/>表示当前帧中被检测到的第i个目标如果是追踪目标列表中第j个目标的话,根据当前帧被检测到的第i个目标的时间和追踪目标列表中第j个目标记录的最后一次更新时空特征信息的时间相减后取绝对值,代表丢失追踪时长的估计值;/>表示当前帧中被检测到的第i个目标和追踪目标列表中第j个目标最新的外观特征向量距离;/>、/>、/>分别为/>、/>、/>的权重常数,需要根据实际情况进行调整,如/>可以设置为/>,其中,L表示最大丢失追踪时长。
基于此,本方案还通过优化连接权重的计算方法进一步提高匹配准确率,即考虑目标的速度、运动方向、类型等时空特征。比如对于车辆追踪时,可以假设目标的速度和运动方向不会突变,而是近似直线。则可以优化连接权重的计算式为:
其中,表示目标速度变化值,具体计算方式为,首先根据追踪目标列表中第j个目标在过去几帧的位置计算其平均速度vj,然后假设当前帧中被检测到的第i个目标是追踪目标列表中第j个目标,并更新追踪目标列表中第j个目标的位置,据此可计算其新的平均速度v`j,最后用v`j减去vj并取绝对值得到/>;/>表示目标运动方向变化值,具体计算方式为,首先根据追踪目标列表中第j个目标在过去几帧的运动轨迹计算其平均运动方向/>,为数学极坐标系中的方向表示,然后假设当前帧中被检测到的第i个目标是追踪目标列表中第j的目标,并更新追踪目标列表中第j个目标的位置,据此计算其新的平均运动方向/>,最后用/>减去/>并取绝对值得到/>;/>、/>分别为/>、/>的权重常数,需要根据实际情况进行调整。
当追踪目标列表中的某个目标在该摄像头中的丢失追踪时长已超过设定的最大丢失追踪时长,则判定该目标已经永久丢失,将其从追踪目标列表中删除。
步骤3,摄像头判定目标的跨境头行为,构建跨境头通知消息,并将跨境头通知消息发送至候选摄像头,候选摄像头对目标进行匹配,实现跨境头追踪。
如图2所示,当目标进入摄像头A的视野中标记候选摄像头为B的跨境头多边形区域时,摄像头A会根据目标的时间、位置、外观特征向量以及摄像头A的标识构建跨境头通知消息,并发送至摄像头B。摄像头B收到跨境头通知消息后会将其放入对应的跨境头消息队列中,跨境头消息队列是专门用于存放和处理跨境头通知消息的数据结构,可以是队列,也可以是链表等其他结构。同样,当目标进入摄像头B的视野中标记候选摄像头为C和D的跨境头多边形区域时,摄像头B会根据目标的时间、位置、外观特征向量以及摄像头标识构建跨境头通知消息,并发送至摄像头C和摄像头D,摄像头C和摄像头D也会将该跨境头通知消息放入各自的跨境头消息队列中。
根据跨境头多边形区域的类型,对于跨境头行为判定、消息收发以及目标匹配的过程均会有所不同。对于跨境头多边形区域的类型为“不存在画面重叠区”的,当目标从跨境头多边形区域外部跨越边界进入跨境头多边形区域内部的时刻,即上一帧目标中心点在跨境头多边形区域外,而当前帧目标在跨境头多边形区域内的这一时刻,摄像头会判定此时发生了跨境头行为,但在进入跨境头多边形区域之后便不再将其运动判定为跨境头行为。
对于跨境头多边形区域的类型为“存在画面重叠区”的,目标在跨境头多边形区域内部移动时会持续判定为跨境头行为,直到物体从摄像头拍摄画面中消失。因此相对于“不存在画面重叠区”的类型而言,不仅仅是在目标跨越边界时才触发判定。
由于跨境头多边形区域存在两种类型,因此对应的跨境头消息队列也对应存在两种类型,不同类型的跨境头通知消息将会分别存放到对应类型的跨境头消息队列中。当判定为跨境头行为的时候,摄像头将会向候选摄像头对应类型的跨境头消息队列发送跨境头通知消息。对于“不存在画面重叠区”类型的跨境头通知消息,跨境头通知消息将会包含目标最新出现的时间、位置、外观特征向量,以及摄像头的标识,便于让候选摄像头知道跨境头通知消息的是由哪个摄像头发送的。对于“存在画面重叠区”类型的跨境头通知消息,还会额外包含由坐标转换矩阵计算得到的该目标在摄像头B中的预测位置。
对于候选摄像头B拍摄的画面中,由摄像头A跨镜头到摄像头B的跨境头行为判断也是同理,对于“不存在画面重叠区”类型的跨境头多边形区域,只有目标从跨境头多边形区域内跨越边界到跨境头多边形区域外才会判定发生了跨境头行为,此时摄像头B才会去“不存在画面重叠区”类型的跨境头消息队列中匹配目标。对于“存在画面重叠区”类型的跨境头多边形区域,当目标在跨境头多边形区域内就会持续判定为跨境头行为,摄像头B持续在“存在画面重叠区”类型的跨境头消息队列中进行匹配,直到目标离开跨境头多边形区域。
对于类型为“不存在画面重叠区域”的跨境头通知消息的匹配,主要考虑的是时间差异和外观特征相似性。时间差异是指摄像头A发送跨境头通知消息的时间与摄像头B检测到目标穿越跨境头多边形区域边界的时间之差的绝对值。外观特征相似性则是指两个目标的外观特征向量的相似度。因此最终的连接权重计算公式可以总结为:
其中,i代表候选摄像头的跨境头消息队列中第i个目标,j代表候选摄像头中跨越跨境头多边形区域等待被匹配的第j个目标;Wi,j表示目标i与目标j之间的连接权重;表示摄像头发送跨境头通知消息的时间和候选摄像头进行匹配的时间的差值绝对值;/>表示目标i与目标j最新的外观特征向量距离;/>、/>分别为/>、/>的权重常数。
对于类型为“存在画面重叠区域”的跨境头通知消息的匹配,由于对于预测位置的计算是较为准确的,因此主要考虑的是预测位置和摄像头B中目标实际位置的空间距离,即在跨境头消息队列中找到与摄像头B拍摄画面中实际目标欧式距离或其他距离度量方式得到空间距离最近的目标,因此最终的连接权重计算公式为:
其中,表示候选摄像头的跨境头消息队列中第i个目标与候选摄像头中跨越跨境头多边形区域等待被匹配的第j个目标的空间距离;/>、/>、/>分别为/>、/>、的权重常数。
如果跨境头匹配成功,则会将跨境头消息队列中的目标ID赋予给匹配成功的目标,实现跨境头追踪,并删除该跨境头通知消息。此刻目标已经进入了摄像头B,并且实现了ID的一致性。
当该目标进入摄像头B中的候选摄像头为C、D的跨境头多边形区域时,重复上述的步骤,重新构建该目标的跨境头通知消息,并在判定发生跨境头行为时将该目标的跨境头通知消息发送至候选摄像头中对应类型的跨境头消息队列;候选摄像头检测目标,并与跨境头消息队列中的目标进行匹配,持续实现跨境头追踪。
如图2所示,摄像头B将跨境头通知消息分别发送给摄像头C和摄像头D,假设摄像头C成功匹配了目标,则摄像头C向摄像头D发送匹配成功的消息,使摄像头D删除目标的跨境头通知消息,避免重复匹配和计算消耗。
如图2所示,为一个十字路口的应用场景图,该路口布置了四个摄像头,分别为A、B、C、D,每个摄像头的监控区域用一个矩形框表示,A与B邻近,B为A的候选摄像头;C和D均与B邻近,故C和D均为B的候选摄像头;B和D均与C邻近,因此B和D均为C的候选摄像头。H、I、J、K分别是摄像头A、B、C、D拍摄画面的区域,E是摄像头A和B拍摄画面重叠区,F是摄像头B、C和D拍摄画面重叠区。
假设有一个红色汽车G在当前道路准备右转,行驶路线是从摄像头A进入摄像头B,再从摄像头B进入摄像头C,图2中的弧线箭头表示该车辆的行驶轨迹。同时摄像头具备身份识别单元,即车牌号识别功能,在红色汽车G进入摄像头A时可以获取其车牌信息。各个摄像头预先已经置入实现上述方法的程序模块,基于上述方法实现车辆追踪的过程如下:
1. 当检测到光线强度充足时,切换为可见光滤光片;当检测到光线强度不充足时,开启主动红外补光装置,并切换为红外光滤光片。
2. 当红色汽车G进入摄像头A的视野时,摄像头A检测到该目标以及其他目标,形成或更新追踪目标列表,并赋予红色汽车G唯一ID为1,同时身份识别模块给出红色汽车G的车牌号为川A12345(仅为举例,非真实牌照)。
3. 摄像头A利用一个深度学习模型或其他算法提取红色汽车G的外观特征向量,这些信息既可以用于单镜头追踪,也可以用于跨境头匹配。
4. 红色汽车G在摄像头A的视野中行驶时,摄像头A检测到当前帧的红色汽车G,通过计算连接权重的方式将其与追踪目标列表中的目标进行匹配,匹配成功则为当前帧的红色汽车G赋予对应的ID为1,同时更新追踪目标列表中红色汽车G的轨迹和最新的时空特征信息;匹配失败则为该红色汽车G赋予新的ID为2,并将ID为2的红色汽车G加入追踪目标列表,同时记录其轨迹和最新的时空特征信息;若追踪目标列表中有目标在当前帧未被匹配,则增加或更新该目标的丢失追踪时长。
5. 当红色汽车G进入摄像头A与B拍摄画面重叠区E时,摄像头A判定发生跨境头行为,根据红色汽车G的轨迹和最新的时空特征信息,以及摄像头A标识和摄像头B拍摄画面中的预测位置,形成红色汽车G的跨境头通知消息,并将该跨境头通知消息发送给摄像头B,该跨境头统一消息的类型为“存在画面重叠区”。
6. 摄像头B收到该跨境头通知消息,将其放入类型为“存在画面重叠区”的跨境头消息队列中。
7. 当红色汽车G进入摄像头B时,摄像头B检测到红色车辆G,先为其分配一个新的ID为3,并识别红色汽车G的时间、位置和外观特征向量;然后与跨境头消息队列中的目标进行匹配,若匹配成功,则修改红色汽车G的ID为1,实现跨境头追踪,并删除该跨境头通知消息。
8. 当红色汽车G进入摄像头B与C、D拍摄画面重叠区F时,摄像头B判定发生跨境头行为,重新构建红色汽车G的跨境头通知消息,并分别发送给摄像头C和摄像头D。
9. 若红色汽车G进入了摄像头C,摄像头C检测到红色汽车G并分配一个新ID为4,并识别红色汽车G的时间、位置和外观特征向量;然后与跨境头消息队列中的目标进行匹配,若匹配成功,则修改红色汽车G的ID为1,实现跨境头追踪,并删除该跨境通知消息,同时摄像头C通知摄像头D该红色汽车G已匹配成功,摄像头D删除该红色汽车G的跨境头通知消息。
每个摄像头中搭载有一种全天候场景的物体跨镜头追踪系统,请参见图3,所述系统包括图像采集模块、单镜头追踪模块、跨境头追踪模块。
所述图像采集模块用于采集图像,包括图像传感器、滤光片切换装置、光敏元件、主动红外补光装置。所述图像传感器用于采集图像;光敏元件分别与滤光片切换装置、主动红外补光装置连接,用于检测光线强度;滤光片切换装置用于当光线强度充足时,切换为可见光滤光片,当光线强度不充足时,切换为红外光滤光片;主动红外补光装置用于当光线强度不充足时发射红外光。
所述单镜头追踪模块包括目标检测模块、身份识别单元、特征信息获取单元、二分图匹配单元。所述目标检测模块用于检测采集的图像中的目标,并形成或更新目标追踪列表;身份识别单元用于目标的身份信息,如车辆的牌照、行人的面容、行人的身份等;特征信息获取单元用于识别目标出现的时间、位置、外观特征向量和物体类别,形成时空特征信息;二分图匹配单元用于基于时空特征信息对当前帧检测到的目标与目标追踪列表中的目标进行匹配。
所述跨境头追踪模块包括关系网络构建单元、跨境头追踪单元、数据收发单元。所述关系网络构建单元用于构建摄像头关系网络,使每个摄像头至少对应有一个候选摄像头,并构建摄像头拍摄区域内的跨境头多边形区域,以及将跨境头多边形区域分为“存在画面重叠区”和“不存在画面重叠区”两种类型;跨境头追踪单元用于判定目标的跨境头行为,构建跨境头通知消息,以及将检测到的目标与接收到的跨境头通知消息中的目标进行匹配;数据收发单元用于向候选摄像头发送跨境头通知消息,以及接收其他摄像头发送的跨境头通知消息。
容易理解地,请参见图4,由于跨境头追踪单元在生成跨境头通知消息时,也需要识别目标出现的时间、位置、外观特征向量和物体类别,因此所述特征信息获取单元和二分图匹配单元也可以属于所述跨境头追踪模块,但不影响单镜头追踪模块的使用,因为每个摄像头都同时具有单镜头追踪模块和跨境头追踪模块。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (5)
1.全天候场景的物体跨镜头追踪方法,其特征在于:包括以下步骤:
步骤1,构建摄像头关系网络,每个摄像头至少对应有一个候选摄像头;
所述步骤1具体包括以下步骤:
根据摄像头的实际安装地理位置,在每个摄像头拍摄的画面中划定至少一个跨境头多边形区域;每个跨境头多边形区域对应了该摄像头的候选摄像头;
将跨境头多边形区域划分为存在画面重叠区和不存在画面重叠区两种类型;
步骤2,单个摄像头检测目标并进行追踪,形成追踪目标列表;获取每一目标出现的时间、位置、外观特征和物体类别形成该目标的时空特征信息;
所述步骤2具体包括以下步骤:
目标进入一摄像头后,该摄像头基于目标检测算法对目标进行检测,利用单镜头目标追踪算法将检测到的目标形成追踪目标列表,并对目标进行追踪;
同时识别目标出现的时间、位置、外观特征向量、物体类别和丢失追踪时长,形成目标的时空特征信息;
在追踪目标时,摄像头检测当前帧的目标,将摄像头检测到的目标和追踪目标列表中的目标进行匹配,以确定当前帧中所有目标的ID,匹配依据包括时间、预测位置、外观特征向量以及丢失追踪时长;对于匹配成功的追踪目标列表中的目标,保留其ID并更新该目标在追踪目标列表中记录的时空特征信息,同时将其丢失追踪时长修改为0,并将摄像头检测当前帧中对应的目标赋予该ID;对于摄像头检测当前帧的目标与追踪目标列表匹配失败的,为当前帧检测的目标赋予新的ID,并识别该目标出现的时间、位置和外观特征向量,形成该目标的时空特征信息,并将该目标加入到追踪目标列表中;对于追踪目标列表中在当前帧未被匹配到的目标,增加该目标的丢失追踪时长,如果丢失追踪时长超过设定的最大丢失追踪时长,则从追踪目标列表中删除该目标及其时空特征信息;
在当前帧检测到的目标与追踪目标列表中的目标进行匹配时,确定当前帧检测到的任一目标与追踪目标列表中的任一目标之间的连接权重矩阵,连接权重矩阵的大小为追踪目标列表中目标的个数乘以当前帧检测到的目标的个数;
连接权重的计算式为:
其中,Wi,j表示假设当前帧中被检测到的第i个目标是追踪目标列表中第j个目标的情况下,它们之间的连接权重;表示当前帧中被检测到的第i个目标和追踪目标列表中第j个目标之间的空间距离;/>表示当前帧中被检测到的第i个目标如果是追踪目标列表中第j个目标的话,根据当前帧被检测到的第i个目标的时间和追踪目标列表中第j个目标记录的最后一次更新时空特征信息的时间相减后取绝对值,代表丢失追踪时长的估计值;/>表示当前帧中被检测到的第i个目标和追踪目标列表中第j个目标最新的外观特征向量距离;/>、/>、/>分别为/>、/>、/>的权重常数;
其中,Ai表示当前帧中被检测到的第i个目标的检测框,Aj表示预测的追踪目标列表中第j个目标在当前帧的检测框;v表示宽高比差异函数;s表示面积差异函数;表示宽高比差异权重系数,/>表示面积差异权重系数;wi、hi分别表示检测框Ai的宽度、高度;wj、hj分别表示检测框Aj的宽度、高度;
步骤3,摄像头判定目标的跨境头行为,构建跨境头通知消息,并将跨境头通知消息发送至候选摄像头,候选摄像头对目标进行匹配,实现跨境头追踪;
对于摄像头的跨境头多边形区域为不存在画面重叠区的类型时,所述步骤3具体包括以下步骤:
当目标从跨境头多边形区域外部跨越边界进入跨境头多边形区域内部的时刻,即上一帧目标中心点在跨境头多边形区域外,而当前帧目标在跨境头多边形区域内的这一时刻,摄像头判定目标此时发生了跨境头行为;
摄像头根据目标出现的时间、位置、外观特征向量以及摄像头自身的标识构建跨境头通知消息,并将跨境头通知消息发送至跨境头多边形区域对应的候选摄像头;
候选摄像头将接收到跨境头通知消息存放入类型为不存在画面重叠区域的跨境头消息队列中;候选摄像头将当前帧检测到的目标与跨境头消息队列中的目标进行匹配,匹配时的连接权重计算式为:
其中,i代表候选摄像头的跨境头消息队列中第i个目标,j代表候选摄像头中跨越跨境头多边形区域等待被匹配的第j个目标;Wi,j表示目标i与目标j之间的连接权重;表示摄像头发送跨境头通知消息的时间和候选摄像头进行匹配的时间的差值的绝对值;/>表示目标i与目标j最新的外观特征向量距离;/>、/>分别为/>、/>的权重常数;
如果跨境头匹配成功,则将跨境头消息队列中的目标ID赋予给匹配成功的目标,实现跨境头追踪,并删除该跨境头通知消息;
对于摄像头的跨境头多边形区域为存在画面重叠区的类型时,所述步骤3具体包括以下步骤:
目标在跨境头多边形区域内部移动时会持续判定为跨境头行为;
摄像头根据目标出现的时间、位置、外观特征向量、预测位置、以及摄像头自身的标识构建跨境头通知消息,并将跨境头通知消息发送至跨境头多边形区域对应的候选摄像头;
候选摄像头将接收到跨境头通知消息存放入类型为存在画面重叠区域的跨境头消息队列中;候选摄像头将当前帧检测到的目标与跨境头消息队列中的目标进行匹配,匹配时的连接权重计算式为:
其中,i代表候选摄像头的跨境头消息队列中第i个目标,j代表候选摄像头中跨越跨境头多边形区域等待被匹配的第j个目标;Wi,j表示目标i与目标j之间的连接权重;表示摄像头发送跨境头通知消息的时间和候选摄像头进行匹配的时间的差值的绝对值;/>表示候选摄像头的跨境头消息队列中第i个目标与候选摄像头中跨越跨境头多边形区域等待被匹配的第j个目标的空间距离;/>表示目标i与目标j最新的外观特征向量距离;/>、、/>分别为/>、/>、/>的权重常数;
如果跨境头匹配成功,则将跨境头消息队列中的目标ID赋予给匹配成功的目标,实现跨境头追踪,并删除该跨境头通知消息。
2.根据权利要求1所述的全天候场景的物体跨镜头追踪方法,其特征在于:或者连接权重的计算式为:
其中,表示目标速度变化值,具体计算方式为,首先根据追踪目标列表中第j个目标在过去几帧的位置计算其平均速度vj,然后假设当前帧中被检测到的第i个目标是追踪目标列表中第j个目标,并更新追踪目标列表中第j个目标的位置,据此可计算其新的平均速度v`j,最后用v`j减去vj并取绝对值得到/>;/>表示目标运动方向变化值,具体计算方式为,首先根据追踪目标列表中第j个目标在过去几帧的运动轨迹计算其平均运动方向/>,为数学极坐标系中的方向表示,然后假设当前帧中被检测到的第i个目标是追踪目标列表中第j的目标,并更新追踪目标列表中第j个目标的位置,据此计算其新的平均运动方向/>,最后用/>减去/>并取绝对值得到/>;/>、/>分别为/>、/>的权重常数。
3.根据权利要求1所述的全天候场景的物体跨镜头追踪方法,其特征在于:所述步骤2还包括以下步骤:光敏元件检测光线强度,当光线强度充足时切换为可见光滤光片后采集目标图像;当光线强度不充足时切换为红外光滤光片后采集目标图像,并开启主动红外补光装置。
4.全天候场景的物体跨镜头追踪系统,用于实现权利要求1-3任一项所述的全天候场景的物体跨镜头追踪方法,其特征在于:包括:图像采集模块、单镜头追踪模块、跨境头追踪模块;
所述单镜头追踪模块包括目标检测模块、身份识别单元、特征信息获取单元、二分图匹配单元;所述目标检测模块用于检测采集的图像中的目标,并形成或更新目标追踪列表;身份识别单元用于提取目标的身份标识;特征信息获取单元用于识别目标出现的时间、位置、外观特征向量和物体类别,形成时空特征信息;二分图匹配单元用于基于时空特征信息对当前帧检测到的目标与目标追踪列表中的目标进行匹配。
5.根据权利要求4所述的全天候场景的物体跨镜头追踪系统,其特征在于:所述跨境头追踪模块包括关系网络构建单元、跨境头追踪单元、数据收发单元;所述关系网络构建单元用于构建摄像头关系网络,使每个摄像头至少对应有一个候选摄像头,并构建摄像头拍摄区域内的跨境头多边形区域,以及将跨境头多边形区域分为存在画面重叠区和不存在画面重叠区两种类型;跨境头追踪单元用于判定目标的跨境头行为,构建跨境头通知消息,以及将检测到的目标与接收到的跨境头通知消息中的目标进行匹配;数据收发单元用于向候选摄像头发送跨境头通知消息,以及接收其他摄像头发送的跨境头通知消息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410292163.5A CN118018865B (zh) | 2024-03-14 | 2024-03-14 | 全天候场景的物体跨镜头追踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410292163.5A CN118018865B (zh) | 2024-03-14 | 2024-03-14 | 全天候场景的物体跨镜头追踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN118018865A CN118018865A (zh) | 2024-05-10 |
CN118018865B true CN118018865B (zh) | 2024-06-07 |
Family
ID=90953935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410292163.5A Active CN118018865B (zh) | 2024-03-14 | 2024-03-14 | 全天候场景的物体跨镜头追踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118018865B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101299233A (zh) * | 2008-04-08 | 2008-11-05 | 西安交通大学 | 基于fpga实现的运动目标识别与跟踪装置及方法 |
CN101965576A (zh) * | 2008-03-03 | 2011-02-02 | 视频监控公司 | 用于追踪、索引及搜寻的物件匹配 |
CN109302562A (zh) * | 2018-10-12 | 2019-02-01 | 中国民用航空总局第二研究所 | 基于视频的目标探测追踪方法、系统、介质及设备 |
CN116468753A (zh) * | 2023-03-20 | 2023-07-21 | 影石创新科技股份有限公司 | 目标追踪方法、装置、设备、存储介质和程序产品 |
CN117528035A (zh) * | 2024-01-05 | 2024-02-06 | 四川省寰宇众恒科技有限公司 | 一种基于主动通知的物体跨境头追踪方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2011265429B2 (en) * | 2011-12-21 | 2015-08-13 | Canon Kabushiki Kaisha | Method and system for robust scene modelling in an image sequence |
WO2014183004A1 (en) * | 2013-05-10 | 2014-11-13 | Robert Bosch Gmbh | System and method for object and event identification using multiple cameras |
US20230395237A1 (en) * | 2022-06-07 | 2023-12-07 | Shanghai United Imaging Healthcare Co., Ltd. | Systems and methods for image processing |
-
2024
- 2024-03-14 CN CN202410292163.5A patent/CN118018865B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101965576A (zh) * | 2008-03-03 | 2011-02-02 | 视频监控公司 | 用于追踪、索引及搜寻的物件匹配 |
CN101299233A (zh) * | 2008-04-08 | 2008-11-05 | 西安交通大学 | 基于fpga实现的运动目标识别与跟踪装置及方法 |
CN109302562A (zh) * | 2018-10-12 | 2019-02-01 | 中国民用航空总局第二研究所 | 基于视频的目标探测追踪方法、系统、介质及设备 |
CN116468753A (zh) * | 2023-03-20 | 2023-07-21 | 影石创新科技股份有限公司 | 目标追踪方法、装置、设备、存储介质和程序产品 |
CN117528035A (zh) * | 2024-01-05 | 2024-02-06 | 四川省寰宇众恒科技有限公司 | 一种基于主动通知的物体跨境头追踪方法及系统 |
Non-Patent Citations (1)
Title |
---|
跨摄像头目标跟踪综述;王先彬;严明;;现代计算机(专业版);20170325(09);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN118018865A (zh) | 2024-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8995723B2 (en) | Detecting and recognizing traffic signs | |
JP4612635B2 (ja) | 低照度の深度に適応可能なコンピュータ視覚を用いた移動物体検出 | |
US9483952B2 (en) | Runway surveillance system and method | |
US11010622B2 (en) | Infrastructure-free NLoS obstacle detection for autonomous cars | |
US11170272B2 (en) | Object detection device, object detection method, and computer program for object detection | |
CN107316488B (zh) | 信号灯的识别方法、装置和系统 | |
US11436839B2 (en) | Systems and methods of detecting moving obstacles | |
US11532170B2 (en) | License plate reading system with enhancements | |
EP1560160A2 (en) | A multiple camera system for obtaining high resolution images of objects | |
WO2012090200A1 (en) | Calibration device and method for use in a surveillance system for event detection | |
JP2003346278A (ja) | 車両待機行列の長さ測定装置及びその方法 | |
KR101026778B1 (ko) | 차량 영상 검지 장치 | |
CA3190528A1 (en) | Systems and methods for rapid license plate reading | |
CN118018865B (zh) | 全天候场景的物体跨镜头追踪方法及系统 | |
US11120292B2 (en) | Distance estimation device, distance estimation method, and distance estimation computer program | |
CN111199177A (zh) | 一种基于鱼眼图像校正的汽车后视行人检测报警方法 | |
CN117541993A (zh) | 自移动设备摄像头遮挡处理方法、自移动设备及存储介质 | |
JP2021077061A (ja) | 障害物検知装置及び障害物検知方法 | |
EP4089649A1 (en) | Neuromorphic cameras for aircraft | |
Fascioli et al. | Vision-based monitoring of pedestrian crossings | |
KR102313804B1 (ko) | 차량의 전방 또는 후방을 판별하기 위한 전자 장치 및 그 방법 | |
CN114973190B (zh) | 一种距离检测方法、装置及车辆 | |
US20230106188A1 (en) | Vehicular vision system with object classification based on change in orientation of object | |
CN117079089A (zh) | 光学传感器启用和融合 | |
AU2008293060B2 (en) | Runway surveillance system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |