CN117372953A - 基于二次目标跟踪算法的离岗检测方法 - Google Patents
基于二次目标跟踪算法的离岗检测方法 Download PDFInfo
- Publication number
- CN117372953A CN117372953A CN202311320581.2A CN202311320581A CN117372953A CN 117372953 A CN117372953 A CN 117372953A CN 202311320581 A CN202311320581 A CN 202311320581A CN 117372953 A CN117372953 A CN 117372953A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- tracking
- algorithm
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 89
- 230000006399 behavior Effects 0.000 claims abstract description 19
- 238000000034 method Methods 0.000 claims description 69
- 239000002245 particle Substances 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 23
- 238000012549 training Methods 0.000 claims description 15
- 238000003708 edge detection Methods 0.000 claims description 14
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000000605 extraction Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 10
- 230000011218 segmentation Effects 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 6
- 238000009826 distribution Methods 0.000 claims description 6
- 238000003064 k means clustering Methods 0.000 claims description 6
- 238000003709 image segmentation Methods 0.000 claims description 4
- 230000000452 restraining effect Effects 0.000 claims description 4
- 238000002360 preparation method Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 description 13
- 238000011176 pooling Methods 0.000 description 13
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 10
- 230000009466 transformation Effects 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 9
- 238000001914 filtration Methods 0.000 description 7
- 238000012544 monitoring process Methods 0.000 description 7
- 230000004927 fusion Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 206010034719 Personality change Diseases 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/54—Extraction of image or video features relating to texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明公开了一种基于二次目标跟踪算法的离岗检测方法,步骤为:S1数据准备,获取每帧图像数据;S2人员检测:采用基于yolov5的目标人员检测模型检测每帧图像数据中是否有目标人员出现,若有目标人员出现,则转至步骤S3,否则结束返回步骤S1对下一帧图像数据进行人员检测;S3第一次目标追踪:采用图像数据中颜色特征和纹理特征作为目标特征,使用基于特征的目标跟踪算法完成对当前帧的跟踪;S4第二次目标追踪:使用基于轮廓的目标跟踪算法进行基于轮廓的目标跟踪;S5行为分析和分类:对目标人员的运动轨迹和行为进行分析和分类,从而判断人员是否离岗。采取了两种跟踪算法的结合,进行了两次目标跟踪,提高了准确性。
Description
技术领域
本发明属于数字图像技术领域,尤其涉及一种基于二次目标跟踪算法的离岗检测方法。
背景技术
现有的技术采用基于深度学习的目标检测方法,使用深度学习的目标检测算法,如SSD、YOLO、Faster R-CNN等,可以检测监控视频中的人员,并通过目标位置的变化来判断是否发生离岗。这些方法在目标检测方面表现优秀,但在离岗检测中可能存在误判问题,特别是当人员离开岗位时可能出现姿态变化或部分遮挡,导致目标检测的准确率下降。这些变化可能会使算法难以准确地辨识离开岗位的行为。
现有的技术采用基于姿态估计的离岗检测,通过对人员姿态的估计来判断是否发生离岗,例如使用人体关键点检测来获取人员的姿态信息。然而,姿态估计本身可能受到图像质量和遮挡等因素的影响,从而影响离岗检测的准确性。这种方法在应对图像质量和遮挡等情况时存在一些局限。尽管基于姿态估计的方法在一些场景中表现出良好的性能,但在复杂环境下,图像质量可能变得较差,从而影响人体关键点检测的精度。模糊、噪声或光线不足等因素可能导致姿态估计的不准确性,进而影响离岗检测的可靠性。这种情况下,系统可能会将正常的姿态变化错误地解读为离岗行为,导致误报。
现有的技术采用行为识别方法,通过分析人员的行为特征来进行离岗检测,例如使用循环神经网络(RNN)或长短期记忆网络(LSTM)来建模人员的行为轨迹,判断是否发生离岗。这种方法对于连续的行为检测可能效果较好,但对于短暂离岗的情况可能会漏检。
中国专利文献(CN115965648A)公开了一种离岗检测方法、装置、电子设备及存储介质,该方法包括:获取当前存在的至少一个人体轨迹以及针对待检测的人员在岗区域采集到的当前帧,并对当前帧进行人体检测,得到至少一个人体检测框;针对至少一个人体轨迹中的每个人体轨迹,在至少一个人体检测框中存在与人体轨迹匹配的目标检测框的情况下,确定目标检测框与当前帧中对应于人员在岗区域的对应区域之间的重合比例;在重合比例满足预设的第一离岗条件的情况下,确定人体轨迹所表征的人员已离开人员在岗区域。本发明实施例的技术方案,可以以较低的人力成本实现全时段全范围覆盖的离岗检测,而且检测结果无需依赖人工。但该技术方案中仍存在漏检。
中国专利文献(CN115512298A)公开了一种基于框定区域下目标跟踪算法的集控区域离岗识别方法,包括以下步骤:S1,由摄像头进行持续拍摄获取监控区域的图像;S2,框定在岗区域;S3,检测监控区域内是否有人并跟踪人的位置;S4,离岗判定识别;S5,统计监盘人员的监盘状态;本发明使用Yolov5检测到监控图像内的目标后再通过DeepSORT跟踪算法跟踪目标的运行,从而判定是否存在离岗,能够24小时不间断的进行追踪,保证离岗判断的连续性,无需人工抽查监控,减少人工工作量,对监盘人员的离岗判定更为准确,误差小。但该技术方案中,采用的是deepsort跟踪算法,这个算法属于是业内公开的算法,当人体被场景内的物体遮挡或者当跟踪场景较为复杂时,使用deepsort这种单级跟踪算法就会出现检测跟踪目标丢失的问题,存在漏检。
由于以上离岗检测方法存在一些缺点:基于深度学习的目标检测技术在人员离开岗位时,发生姿态变化,或者被其他物体部分遮挡,从而导致目标检测算法的准确率下降;基于姿态估计的离岗检测方法在应对图像质量和遮挡等情况时可能会将正常的姿态变化错误地解读为离岗行为,导致误报;行为识别方法在处理连续行为的情况下表现较好,但在短暂离岗的场景下可能会存在漏检的问题。
发明内容
本发明要解决的技术问题是,提供一种基于二次目标跟踪算法的离岗检测方法,该方法对目标人员采取了两种跟踪算法的结合,进行了两次目标跟踪,从而提高了离岗检测的准确性,减少了漏检。
为了解决上述技术问题,本发明采用的技术方案是:该基于二次目标跟踪算法的离岗检测方法,具体包括以下步骤:
S1数据准备:采集图像数据,获取每帧图像数据;
S2人员检测:采用基于yolov5的目标人员检测模型检测每帧图像数据中是否有目标人员出现,若有目标人员出现,则转至步骤S3,否则结束返回步骤S1对下一帧图像数据进行人员检测;
S3第一次目标追踪:采用图像数据中颜色特征和纹理特征作为目标特征,使用基于特征的目标跟踪算法,完成对当前帧的跟踪,获得第一次跟踪结果;
S4第二次目标追踪:使用基于轮廓的目标跟踪算法,先分割图像并进行目标轮廓提取,再进行基于轮廓的目标跟踪;
S5行为分析和分类:在对目标人员进行两次跟踪后,对目标人员的运动轨迹和行为进行分析和分类,从而判断人员是否离岗。
采用上述技术方案,对目标首先进行基于特征的跟踪,把视频流的灰度信息(颜色特征)和纹理特征作为待跟踪目标的特征,进行初步跟踪;从而在保持跟踪准确性的前提下显著缩短了算法的计算时间;由于离岗检测在复杂背景环境下,在对目标检测与跟踪过程中,易受到目标遮挡等因素干扰,会导致目标跟踪性能极不稳定,甚至跟踪丢失的问题,因此引入了第二次基于轮廓的跟踪;在对目标人员进行两次跟踪后,对目标人员的运动轨迹和行为进行分析和分类,从而判断人员是否离岗,提高了离岗检测的准确性,减少了漏检。使用多跟踪算法可以通过在不同层次使用不同的跟踪方法,提高系统对于目标变化、遮挡和光照变化等情况的鲁棒性,并且多级跟踪可以将低层次的像素信息与高层次的语义信息相结合,从而获得更全面的目标表示,提高跟踪的效果。
优选地,所述步骤S2的具体步骤为:
S21:对视频进行抽帧处理,生成摔倒数据集;
S22:对数据集的图像数据进行增强处理,获得增强数据集;并划分为训练集和测试集;
S23:搭建YOLOV5算法模型,输入数据并训练,得到算法模型权重;
S24:采用训练集训练基于yolov5的目标人员检测模型,再采用训练好的基于yolov5的目标人员检测模型进行检测,获取图像数据中的目标人员。
优选地,所述步骤S3的具体步骤为:
S31:首先采用图像数据中的目标人员的混合特征进行跟踪;跟踪成功则判定为目标人员被定位到,转至步骤S32,否则转至步骤S33;
S32:再对目标人员的状态进行估计,加权求和后的状态参数即为当前帧中目标的状态,更新目标的特征,即在新的一帧中提取出目标的混合特征来更新原目标特征,从而完成对当前帧的跟踪;
S33:若目标人员没有被定位到,则视为丢失目标,若丢失目标未超过3秒,则重复步骤S2,若丢失目标超过3秒,返回原点位置。
优选地,所述步骤S31具体为:
S311:使用均值漂移(mean-shift)算法进行预跟踪,确定目标人员在新的一帧中出现的位置;初始化样本粒子、搜索窗口和特征模板,进行目标状态预测;
S312:提取候选目标的特征,求取粒子的权值;对于候选目标提取候选目标的特征协方差矩阵集/>然后通过特征协方差矩阵集/>计算对应的特征sigma set集/>表示其表观特征,Si表示第i个候选目标的特征sigma set,求取粒子权值,公式(1)为:
其中,N为图像的总像素;R为特征观测噪声方差;ρi为第i个候选目标特征与特征模板S之间的距离;
H(S,Si)=max{h(S,Si),h(S,Si)} (2);
其中指的是两个点之间的距离,d指的是特征的维数;j是一个索引,用于表示候选目标中的第j个特征;/>表示特征模板S中的第i个特征;/>表示候选目标i的特征sigma set中的第j个特征;
S313:根据粒子的权值重新初始化粒子,获得粒子状态参数,目标状态更新,并用于目标状态估计。
采用上述技方案,对目标首先进行基于特征的跟踪,把视频流的灰度信息(颜色特征)和纹理特征作为待跟踪目标的特征,结合了均值漂移算法和粒子滤波算法,再使用改进的基于sigma set的粒子滤波算法进行精确跟踪。同类算法一般采取基于协方差矩阵的粒子滤波算法,协方差矩阵融合了多种特征,可以对目标做出更精确的描述,从而可以提高跟踪精度。基于协方差矩阵的粒子滤波算法依旧采用传统的粒子滤波框架,只是对目标的表观特征的描述更换为协方差矩阵;本发明采取的是基于sigma set的粒子滤波算法,是在基于协方差矩阵的粒子滤波算法上的进一步改进,对于目标的表观建模,虽然协方差矩阵可以融合多特征,但是通过协方差矩阵只可以得到二阶统计信息。sigma set是在协方差矩阵的基础上提出来的,不仅融合了多特征,精确描述了目标特征,同时也可以得到一阶统计信息;从而在保持跟踪准确性的前提下显著缩短了算法的计算时间。
优选地,所述步骤S4的具体步骤为:
S41图像分割:首先通过K-Means聚类算法对图像数据进行初步目标分割,获得分割目标;
S42图像预处理:对分割后的图像数据中的目标进行预处理;并从目标中收集必要的目标信息,包括目标轮廓、目标强度模板和目标颜色模板,用于输入到目标跟踪算法中;
S43提取目标轮廓:采用动态阈值OTSU法对通过K-Means聚类算法初步分割的目标进行二值化处理,得到最佳的阈值二值化灰度图,可消除目标边界附近大量的噪声,再利用边缘检测方法提取连续且明显的目标轮廓;
S44目标跟踪:利用ASIFT算法提取目标轮廓ASIFT特征,再通过目标轮廓的ASIFT特征配对CamShift算法目标搜索窗口更新进行约束,实现目标跟踪。由于离岗检测在复杂背景环境下,在对目标检测与跟踪过程中,易受到目标遮挡等因素干扰,会导致目标跟踪性能极不稳定,甚至跟踪丢失的问题,因此引入了第二次基于轮廓的跟踪;提出一种基于轮廓和ASIFT特征匹配的目标检测与跟踪算法。首先,采用K-Means无监督聚类算法对视频序列图像进行分割,得到初步的分割目标;其次,在基于区域的基础上利用动态阈值OTSU法进行二值化处理,去除目标边界的噪声,经轮廓检测提取比较连续且明显的目标轮廓;最后,通过ASIFT算法提取目标轮廓特征,利用ASIFT特征匹配实现前后两帧序列图像间的精准匹配,采用CamShift算法实现目标跟踪,仅使用特定的目标匹配方法搜索以下图像帧中最相似的图像区域;还定义了目标搜索区域以减少处理时间。其中心与在目标检测器中获得的目标边界框的中心相同。然后,目标匹配方法搜索整个搜索区域,以在后续图像帧中定位目标的新位置。边缘检测是图像处理中的常见任务,用于检测图像中物体的边缘或轮廓。使用的Sobel和Scharr算子是图像处理中用于边缘检测的常见算法,它们基于梯度信息来识别图像中的边缘和轮廓。该算法的工作原理如下:
(1)卷积操作:该算法使用特定的卷积核(Sobel或Scharr核)对输入图像进行卷积。这些卷积核包含了权重,用来计算像素值在水平和垂直方向上的梯度;
(2)梯度计算:卷积操作产生了两个图像,一个表示水平方向的梯度,另一个表示垂直方向的梯度,这些梯度图像显示了图像中像素值的变化程度;
(3)梯度强度计算:该算法计算每个像素点的梯度强度,这是水平和垂直梯度的合并值,梯度强度表示了像素值在某个方向上的变化程度;
(4)边缘检测:根据梯度强度,算法将像素点分为两类:梯度强度高于某个阈值的像素被标记为边缘点,而梯度强度低于阈值的像素被标记为非边缘点。这样,算法可以找到图像中的边缘区域;Sobel和Scharr算子的不同之处在于它们的卷积核设计,Scharr算子的卷积核更平滑且精确,因此在某些情况下可以提供更好的边缘检测结果。这些算法通常用于计算机视觉和图像处理任务中,如边缘检测、特征提取和目标识别,以帮助识别图像中的重要特征。选择算法和阈值通常取决于具体的应用需求和图像特性。
ASIFT(Affine-SIFT)是一种用于图像处理和计算机视觉领域的特征提取算法,它在提取图像特征时具有对仿射变换(包括旋转、尺度变化、平移等)具有高度鲁棒性的特点,下面是ASIFT算法提取目标轮廓ASIFT特征的过程如下:(1)构建尺度空间金字塔:ASIFT算法使用了尺度空间金字塔,其中同一图像在不同尺度下都被处理。这是为了捕捉目标的不同尺度的特征;
(2)关键点检测:在每个尺度下,ASIFT算法使用SIFT(Scale-Invariant FeatureTransform)算法来检测关键点;这些关键点通常对应于图像中的显著特征,如角点、边缘等;
(3)计算SIFT描述符:对于每个检测到的关键点,ASIFT算法计算SIFT描述符,这是一个向量,描述了该关键点周围区域的局部特征;这些描述符对于不同尺度的关键点是不变的,因此可以用于匹配;
(4)仿射变换:在每个尺度下,ASIFT算法对图像进行多次仿射变换,包括旋转、平移和尺度变化等;这是为了模拟目标在不同视角下的外观变化;
(5)匹配关键点:对于每个关键点,ASIFT算法在不同尺度下找到最匹配的关键点;匹配通常使用描述符之间的距离来衡量,越小的距离表示越好的匹配;
(6)计算ASIFT特征:ASIFT特征由匹配的关键点和它们的仿射变换参数组成;这些特征描述了目标在不同尺度和角度下的外观;
(7)目标轮廓提取:在ASIFT特征中,您可以选择与目标轮廓相关的特征点。这通常涉及到根据匹配的关键点位置和外观来选择特定的ASIFT特征。
优选地,所述步骤S42中采用数学形态学的方法进行预处理,具体为:
S421:对分割后的图像进行腐蚀,采用4连通3×3或5×5正方形结构元素扫描图像的每一个像素,使图像轮廓向内收缩,可去除边界点;
S422:消除目标周围小区域噪声块,所述小区域噪声块的面积远小于目标区域面积;
S423:利用4连通3×3或5×5正方形结构元素的膨胀运算对图像轮廓进行扩充,达到消除目标区域内噪声孔的效果;
S424:重复步骤S421~S423将目标从图像数据中完整分割。
优选地,所述步骤S43中采用动态阈值OTSU法的具体步骤为:
设有一幅灰度图像的总像素为N,令其灰度级为L,灰度值集合G={0,1,…,L-1},与某灰度值g(g∈G)相对应的像素个数为ng,那么有:
因此,与某灰度值g(g∈G)相对应的像素出现的概率ωg为:
从而可知:
假设图像二值化分割阈值为T,灰度级处于[0,T-1]区间的所有像素记为背景区域R0,灰度级处于[T,L-1]区间的所有像素记为目标区域R1,则有所有背景区域像素出现的概率ω0和平均灰度μ0分别为:
所有目标区域像素出现的概率ω1和平均灰度μ1分别为:
图像所有像素总的平均灰度μI为:
由此可知,背景区域R0和目标区域R1的类间方差σ2为:
σ2=ω0(μ0-μI)2+ω1(μ1-μI)2 (9);
当类间方差值σ2达到最大时,可将图像中背景与目标有效地分离,取得较好的目标分割效果,μ1和ω1是用于计算图像二值化阈值的关键参数,μ1表示图像中所有像素的平均灰度值,即表示了整幅图像的平均亮度或灰度级;ω1表示目标区域R1中像素的出现概率之和。在图像二值化中,目标区域通常对应于感兴趣的目标或对象,而背景区域对应于其他区域;ω1是目标区域的权重,表示了目标在整幅图像中所占的比例。
优选地,由于直接使用OTSU法会带来较大的计算量,结合公式(4)~公式(7)可得出类间方差的等价公式:
σ2=ω0ω1(μ0-μ1)2 (10)。
优选地,所述步骤S44中在提取目标轮廓后采用ASIFT特征匹配对CamShift算法约束过程具体为:
S441:利用提取的图像目标轮廓构造出目标在图像中的大致区域,以目标轮廓最小外接矩形为准;通过区域内的所有像素计算出颜色概率分布图,从而在分布图中计算出目标区域的质心作为CamShift算法目标搜索窗口的标准质心;
S442:针对前后两帧图像数据的目标轮廓提取ASIFT特征并进行特征匹配,记录下所有匹配成功的特征并计算匹配成功的特征的主方向,利用特征的主方向对CamShift算法中目标搜索窗口形心向质心移动的方向进行约束;从而通过对CamShift算法的约束实现目标跟踪。约束CamShift算法形心与质心间的欧氏距离实现稳定跟踪的方法,解决了检测与跟踪中对光照变化、遮挡以及目标形变等因素敏感的问题。
与现有技术相比,本发明具有的有益效果为:
(1)多级跟踪策略:创新地将基于特征的跟踪和基于轮廓的跟踪方法结合起来,形成多级跟踪策略,通过多级跟踪,能够充分利用两种跟踪方法的优势,提高离岗检测系统对员工行为的感知能力和跟踪准确性,实现了高准确性;同时综合优势可以提高离岗检测系统的准确性和鲁棒性;
(2)基于特征的目标检测和跟踪:在第一级跟踪中,通过基于特征的跟踪方法,是把视频流的灰度信息和纹理信息作为待跟踪目标的特征,并实现对员工的初始跟踪;
(3)基于轮廓的二次跟踪:在第二级跟踪中,通过基于轮廓的跟踪方法。基于轮廓的目标跟踪是以目标的边界轮廓作为特征。目标的边界轮廓是通过图像分割或边缘检测技术提取的。轮廓是由一系列连接的边界点组成的闭合曲线,它描述了目标在图像中的形状和轮廓。对员工的轮廓进行跟踪,并进一步提取更丰富、更准确的目标特征。基于轮廓的跟踪方法可以更好地适应目标形状的变化和运动;
(4)将基于轮廓的跟踪算法与ASIFT特征结合,通过K-Means算法对图像进行初步分割,在作图像预处理之后利用最佳阈值法OTSU法对分割图像进行二值化自动阈值处理,降低目标边界附近噪声对检测的影响。经轮廓检测后可生成比较连续且明显的目标轮廓,有效提高目标检测效率和精度;利用前后两颇序列图像间的目标轮廓ASIFT特征匹配以及轮廉最小外接矩形CamShift算法进行约束,实现复杂背景因素下的精准目标检测与稳定目标跟踪。
附图说明
图1为本发明的基于二次目标跟踪算法的离岗检测方法的流程图;
图2为本发明的基于二次目标跟踪算法的离岗检测方法中步骤S3的流程图;
图3为本发明的基于二次目标跟踪算法的离岗检测方法中步骤S4的流程图。
具体实施方式
下面结合附图对本发明实施例进行详细描述,以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
本技术方案中的公知常识具体有:
YOLOv5目标检测算法:
YOLOv5是一种轻量级的目标检测算法,它采用了一种基于中心点的检测方式,具有检测速度快、模型轻量、准确度高等特点。与YOLOv3、YOLOv4相比,YOLOv5在算法结构、网络架构等方面都有了改进,因此具有更好的性能和可扩展性。YOLOv5的输入是一张图片,输出是图片中所有目标的类别、置信度和位置。在YOLOv5中,首先采用一种图像增强的方式对输入图片进行处理,然后通过一个主干网络进行特征提取,再通过neck网络进行特征融合,最后通过一个head网络进行目标检测和分类。针对更大分辨率的输入图像(1024*1024),增加检测层,在更大的下采样倍率上进行特征提取,可以进一步增强检测器对于细节信息的感知能力和对小目标的识别能力,由于在更大的下采样倍率下,特征图的分辨率会降低,因此需要通过增加检测层来提高感受野,同时保留更多的空间信息。此外,特征融合也是提高检测器性能的关键技术之一。在64倍下采样的特征图上进行特征融合,可以将来自不同层次的特征信息结合起来,从而进一步提高检测器的准确性和鲁棒性。通过特征融合,可以综合利用不同层次的特征信息,提取出更具有代表性的特征,从而进一步提高检测器的性能。
YOLOv5采用的主干网络是CSPNet(Cross Stage Partial Network),它由一系列CSP blocks组成,CSPNet的核心思想是将卷积操作分为两个阶段:中心卷积和周边卷积。中心卷积对输入数据进行卷积操作,而周边卷积则对卷积输出进行操作,这种分离卷积的方法可以减少网络参数和计算量,同时保持网络的表现力。CSP Block是CSPNet的关键组件,每CSP block由一个主干路径和一个残差路径组成,其中一条路径是一个小型的卷积神经网络,另一条路径是直接将输入数据进行降维处理,再通过一个大型的卷积神经网络进行卷积操作。两个路径的卷积输出进行拼接,形成CSP Block的输出。主干路径是一个深度卷积网络,可以提取图像特征。残差路径则是一个浅层的卷积网络,可以对图像特征进行微调。通过这种方式,CSPNet可以在保持高准确率的同时,大幅度减少计算量。
SPP(Spatial Pyramid Pooling)是一种用于卷积神经网络的池化操作,用于处理不同大小的输入图像。传统的池化层是固定大小的,这意味着当输入图像尺寸发生变化时,必须重新训练模型。SPP将多个池化层合并,池化层大小不再固定,而是可以处理不同大小的输入图像,具体来说,SPP将输入图像分割成多个不同大小的区域,对每个区域应用池化操作,并将不同大小的池化结果合并在一起,形成一个固定大小的特征向量,以供后续的全连接层使用。
SPPF(Serial Spatial Pyramid Fusion)是对SPP的改进,主要在计算效率上进行了串行池化的改进操作,在保持二者相同的池化能力的同时提高了池化速率。在SPP中,不同层级的金字塔是并行地进行池化的,这就导致了计算效率较低的问题。为了解决这个问题,SPPF提出了串行池化的思想即将SPP中并行的池化操作改为串行,SPPF在空间金字塔的每一层进行串行池化,将每层的输出串联起来,最终得到一个固定大小的特征向量。
在目标检测中,neck一般紧跟在主干网络后面,可以认为是特征提取的第二阶段。它的主要作用是将主干网络提取的特征进一步加工和优化,以便更好地进行目标检测。neck网络是YOLOv5的重要组成部分,用于融合不同尺度的特征图。YOLOv5采用了一种新的neck网络结构,即FPN(Feature Pyramid Network)+PANnet(Path Aggregation Network)。FPN可以从网络中不同层级提取出不同分辨率的特征图,然后通过上采样和下采样等操作将它们融合成一个金字塔形结构。PANnet则是一种新的特征融合方式,可以在不同尺度的特征图之间进行信息交互和共享,从而进一步提高检测精度。
head网络是YOLOv5的输出层,它是一个多任务的分类和回归网络。head网络包括多个输出层,每个输出层都用于预测不同尺度和不同类别的目标。具体来说,每个输出层都包括一个卷积层和一个全连接层,用于预测目标的置信度、类别和位置,通过这种多层输出的方式,YOLOv5可以有效地识别多个尺度、多个类别的目标。
实施例:如图1所示,该基于二次目标跟踪算法的离岗检测方法,具体包括以下步骤:
S1数据准备:采集图像数据,通过视频或者rtsp流,获取每帧图像数据;
S2人员检测:采用基于yolov5的目标人员检测模型检测每帧图像数据中是否有目标人员出现,若有目标人员出现,则转至步骤S3,否则结束返回步骤S1对下一帧图像数据进行人员检测;
所述步骤S2的具体步骤为:
S21:对视频进行抽帧处理,生成摔倒数据集;为提高模型检测的准确性,通过搜集大量人员离岗的真实场景下的视频以及模拟拍摄的人员离岗的视频,并采用视频抽帧的方式,对视频进行抽帧处理,生成摔倒数据集;
S22:对数据集的图像数据进行增强处理,如Mosaic数据增强、自适应锚框计算等,获得增强数据集;并划分为训练集和测试集;
S23:搭建YOLOV5算法模型,输入数据并训练,得到算法模型权重;
S24:采用训练集训练基于yolov5的目标人员检测模型,再采用训练好的基于yolov5的目标人员检测模型进行检测,获取图像数据中的目标人员;
S3第一次目标追踪:采用图像数据中颜色特征和纹理特征作为目标特征,使用基于特征的目标跟踪算法,完成对当前帧的跟踪,获得第一次跟踪结果;采用的图像的颜色特征和纹理特征作为目标的特征避免了由于采用单一的灰度特征或纹理特征无法表征目标信息而造成的目标跟踪丢失的情形。;
如图2所示,所述步骤S3的具体步骤为:
S31:首先采用图像数据中的目标人员的混合特征进行跟踪;跟踪成功则判定为目标人员被定位到,转至步骤S32,否则转至步骤S33;
S32:再对目标人员的状态进行估计,加权求和后的状态参数即为当前帧中目标的状态,更新目标的特征,即在新的一帧中提取出目标的混合特征来更新原目标特征,从而完成对当前帧的跟踪;
S33:若目标人员没有被定位到,则视为丢失目标,若丢失目标未超过3秒,则重复步骤S2,若丢失目标超过3秒,返回原点位置。
优选地,所述步骤S31具体为:
S311:使用均值漂移(mean-shift)算法进行预跟踪,确定目标人员在新的一帧中出现的位置;初始化样本粒子、搜索窗口和特征模板;并进行目标状态预测;具体为:先选择初始目标区域,在视频序列中,需要手动或使用其他目标检测方法选择初始的目标区域;所述初始目标区域将被用作均值漂移的初始搜索窗口;根据mean-shift算法搜索的目标区域,将粒子点分布在目标区域的周围;
S312:提取候选目标的特征,求取粒子的权值;对于候选目标提取候选目标的特征协方差矩阵集/>然后通过特征协方差矩阵集/>计算对应的特征sigmaset集/>表示其表观特征,Si表示第i个候选目标的特征sigma set,求取粒子权值,公式(1)为:
其中,N为图像的总像素;R为特征观测噪声方差;ρi为第i个候选目标特征与特征模板S之间的距离;
H(S,Si)=max{h(S,Si),h(S,Si)} (2);
其中指的是两个点之间的距离,d指的是特征的维数;j是一个索引,用于表示候选目标中的第j个特征;/>表示特征模板S中的第i个特征;/>表示候选目标i的特征sigma set中的第j个特征;
S313:根据粒子的权值重新初始化粒子,获得粒子状态参数,目标状态更新,并用于目标状态估计;具体为:输出目标的估计范围目标Target,若下一时刻观测信息到达,令k=k+1,转到步骤S311进行迭代,否则,目标跟踪过程结束;
S4第二次目标追踪:使用基于轮廓的目标跟踪算法,先分割图像并进行目标轮廓提取,再进行基于轮廓的目标跟踪;
如图3所示,所述步骤S4的具体步骤为:
S41图像分割:首先通过K-Means聚类算法对图像数据进行初步目标分割,获得分割目标;
S42图像预处理:对分割后的图像数据中的目标进行预处理;并从目标中收集必要的目标信息,包括目标轮廓、目标强度模板和目标颜色模板,用于输入到目标跟踪算法中;
所述步骤S42中采用数学形态学的方法进行预处理,具体为:
S421:对分割后的图像进行腐蚀,采用4连通3×3或5×5正方形结构元素扫描图像的每一个像素,使图像轮廓向内收缩,可去除边界点;
S422:消除目标周围小区域噪声块,所述小区域噪声块的面积远小于目标区域面积;
S423:利用4连通3×3或5×5正方形结构元素的膨胀运算对图像轮廓进行扩充,达到消除目标区域内噪声孔的效果;
S424:重复步骤S421~S423将目标从图像数据中完整分割。
S43提取目标轮廓:采用动态阈值OTSU法对通过K-Means聚类算法初步分割的目标进行二值化处理,得到最佳的阈值二值化灰度图,可消除目标边界附近大量的噪声,再利用边缘检测方法提取连续且明显的目标轮廓;
所述步骤S43中采用动态阈值OTSU法的具体步骤为:
设有一幅灰度图像的总像素为N,令其灰度级为L,灰度值集合G={0,1,…,L-1},与某灰度值g(g∈G)相对应的像素个数为ng,那么有:
因此,与某灰度值g(g∈G)相对应的像素出现的概率ωg为:
从而可知:
假设图像二值化分割阈值为T,灰度级处于[0,T-1]区间的所有像素记为背景区域R0,灰度级处于[T,L-1]区间的所有像素记为目标区域R1,则有所有背景区域像素出现的概率ω0和平均灰度μ0分别为:
所有目标区域像素出现的概率ω1和平均灰度μ1分别为:
图像所有像素总的平均灰度μI为:
由此可知,背景区域R0和目标区域R1的类间方差σ2为:
σ2=ω0(μ0-μI)2+ω1(μ1-μI)2 (9);
当类间方差值σ2达到最大时,可将图像中背景与目标有效地分离,取得较好的目标分割效果;μ1和ω1是用于计算图像二值化阈值的关键参数,μ1表示图像中所有像素的平均灰度值,即表示了整幅图像的平均亮度或灰度级;ω1表示目标区域R1中像素的出现概率之和。在图像二值化中,目标区域通常对应于感兴趣的目标或对象,而背景区域对应于其他区域;ω1是目标区域的权重,表示了目标在整幅图像中所占的比例;
由于直接使用OTSU法会带来较大的计算量,结合公式(4)~公式(7)可得出类间方差的等价公式:
σ2=ω0ω1(μ0-μ1)2 (10);
边缘检测是图像处理中的常见任务,用于检测图像中物体的边缘或轮廓。使用的Sobel和Scharr算子是图像处理中用于边缘检测的常见算法,它们基于梯度信息来识别图像中的边缘和轮廓。该算法的工作原理如下:
(1)卷积操作:该算法使用特定的卷积核(Sobel或Scharr核)对输入图像进行卷积。这些卷积核包含了权重,用来计算像素值在水平和垂直方向上的梯度;
(2)梯度计算:卷积操作产生了两个图像,一个表示水平方向的梯度,另一个表示垂直方向的梯度。这些梯度图像显示了图像中像素值的变化程度;
(3)梯度强度计算:该算法计算每个像素点的梯度强度,这是水平和垂直梯度的合并值,梯度强度表示了像素值在某个方向上的变化程度;
(4)边缘检测:根据梯度强度,算法将像素点分为两类:梯度强度高于某个阈值的像素被标记为边缘点,而梯度强度低于阈值的像素被标记为非边缘点。这样,算法可以找到图像中的边缘区域;Sobel和Scharr算子的不同之处在于它们的卷积核设计,Scharr算子的卷积核更平滑且精确,因此在某些情况下可以提供更好的边缘检测结果。这些算法通常用于计算机视觉和图像处理任务中,如边缘检测、特征提取和目标识别,以帮助识别图像中的重要特征;选择算法和阈值通常取决于具体的应用需求和图像特性;
S44目标跟踪:利用ASIFT算法提取目标轮廓ASIFT特征,再通过目标轮廓的ASIFT特征配对CamShift算法目标搜索窗口更新进行约束,实现目标跟踪;
ASIFT(Affine-SIFT)是一种用于图像处理和计算机视觉领域的特征提取算法,它在提取图像特征时具有对仿射变换(包括旋转、尺度变化、平移等)具有高度鲁棒性的特点,下面是ASIFT算法提取目标轮廓ASIFT特征的过程如下:(1)构建尺度空间金字塔:ASIFT算法使用了尺度空间金字塔,其中同一图像在不同尺度下都被处理。这是为了捕捉目标的不同尺度的特征;
(2)关键点检测:在每个尺度下,ASIFT算法使用SIFT(Scale-Invariant FeatureTransform)算法来检测关键点;这些关键点通常对应于图像中的显著特征,如角点、边缘等;
(3)计算SIFT描述符:对于每个检测到的关键点,ASIFT算法计算SIFT描述符,这是一个向量,描述了该关键点周围区域的局部特征;这些描述符对于不同尺度的关键点是不变的,因此可以用于匹配;
(4)仿射变换:在每个尺度下,ASIFT算法对图像进行多次仿射变换,包括旋转、平移和尺度变化等;这是为了模拟目标在不同视角下的外观变化;
(5)匹配关键点:对于每个关键点,ASIFT算法在不同尺度下找到最匹配的关键点;匹配通常使用描述符之间的距离来衡量,越小的距离表示越好的匹配;
(6)计算ASIFT特征:ASIFT特征由匹配的关键点和它们的仿射变换参数组成;这些特征描述了目标在不同尺度和角度下的外观;
(7)目标轮廓提取:在ASIFT特征中,您可以选择与目标轮廓相关的特征点。这通常涉及到根据匹配的关键点位置和外观来选择特定的ASIFT特征;
所述步骤S44中在提取目标轮廓后采用ASIFT特征匹配对CamShift算法约束过程具体为:
S441:利用提取的图像目标轮廓构造出目标在图像中的大致区域,以目标轮廓最小外接矩形为准;通过区域内的所有像素计算出颜色概率分布图,从而在分布图中计算出目标区域的质心作为CamShift算法目标搜索窗口的标准质心;
S442:针对前后两帧图像数据的目标轮廓提取ASIFT特征并进行特征匹配,记录下所有匹配成功的特征并计算匹配成功的特征的主方向,利用特征的主方向对CamShift算法中目标搜索窗口形心向质心移动的方向进行约束;从而通过对CamShift算法的约束实现目标跟踪;
S5行为分析和分类:在对目标人员进行两次跟踪后,对目标人员的运动轨迹和行为进行分析和分类,以检测人员是否离开了指定的区域、是否停留在某个位置、是否存在异常行为等,最终判断人员是否离岗。
对于本领域的普通技术人员而言,具体实施例只是对本发明进行了示例性描述,显然本发明具体实现并不受上述方式的限制,只要采用了本发明的方法构思和技术方案进行的各种非实质性的改进,或未经改进将本发明的构思和技术方案直接应用于其它场合的,均在本发明的保护范围之内。
Claims (9)
1.一种基于二次目标跟踪算法的离岗检测方法,其特征在于,具体包括以下步骤:
S1数据准备:采集图像数据,获取每帧图像数据;
S2人员检测:采用基于yolov5的目标人员检测模型检测每帧图像数据中是否有目标人员出现,若有目标人员出现,则转至步骤S3,否则结束返回步骤S1对下一帧图像数据进行人员检测;
S3第一次目标追踪:采用图像数据中颜色特征和纹理特征作为目标特征,使用基于特征的目标跟踪算法,完成对当前帧的跟踪,获得第一次跟踪结果;
S4第二次目标追踪:使用基于轮廓的目标跟踪算法,先分割图像并进行目标轮廓提取,再进行基于轮廓的目标跟踪;
S5行为分析和分类:在对目标人员进行两次跟踪后,对目标人员的运动轨迹和行为进行分析和分类,从而判断人员是否离岗。
2.根据权利要求1所述的基于二次目标跟踪算法的离岗检测方法,其特征在于,所述步骤S2的具体步骤为:
S21:对视频进行抽帧处理,生成摔倒数据集;
S22:对数据集的图像数据进行增强处理,获得增强数据集;并划分为训练集和测试集;
S23:搭建YOLOV5算法模型,输入数据并训练,得到算法模型权重;
S24:采用训练集训练基于yolov5的目标人员检测模型,再采用训练好的基于yolov5的目标人员检测模型进行检测,获取图像数据中的目标人员。
3.根据权利要求1所述的基于二次目标跟踪算法的离岗检测方法,其特征在于,所述步骤S3的具体步骤为:
S31:首先采用图像数据中的目标人员的混合特征进行跟踪;跟踪成功则判定为目标人员被定位到,转至步骤S32,否则转至步骤S33;
S32:再对目标人员的状态进行估计,加权求和后的状态参数即为当前帧中目标的状态,更新目标的特征,即在新的一帧中提取出目标的混合特征来更新原目标特征,从而完成对当前帧的跟踪;
S33:若目标人员没有被定位到,则视为丢失目标,若丢失目标未超过3秒,则重复步骤S2,若丢失目标超过3秒,返回原点位置。
4.根据权利要求3所述的基于二次目标跟踪算法的离岗检测方法,其特征在于,所述步骤S31具体为:
S311:使用均值漂移算法进行预跟踪,确定目标人员在新的一帧中出现的位置;初始化样本粒子、搜索窗口和特征模板,进行目标状态预测;
S312:提取候选目标的特征,求取粒子的权值;对于候选目标提取候选目标的特征协方差矩阵集/>然后通过特征协方差矩阵集/>计算对应的特征sigma set集表示其表观特征,Si表示第i个候选目标的特征sigma set,求取粒子权值,公式(1)为:
其中,N为图像的总像素;R为特征观测噪声方差;ρi为第i个候选目标特征与特征模板S之间的距离;
H(S,Si)=max{h(S,Si),h(S,Si)} (2);
其中指的是两个点之间的距离,d指的是特征的维数;j是一个索引,用于表示候选目标中的第j个特征;/>表示特征模板S中的第i个特征;/>表示候选目标i的特征sigma set中的第j个特征;
S313:根据粒子的权值重新初始化粒子,获得粒子状态参数,目标状态更新,并用于目标状态估计。
5.根据权利要求3所述的基于二次目标跟踪算法的离岗检测方法,其特征在于,所述步骤S4的具体步骤为:
S41图像分割:首先通过K-Means聚类算法对图像数据进行初步目标分割,获得分割目标;
S42图像预处理:对分割后的图像数据中的目标进行预处理;
S43提取目标轮廓:采用动态阈值OTSU法对通过K-Means聚类算法初步分割的目标进行二值化处理,得到最佳的阈值二值化灰度图,再利用边缘检测方法提取目标轮廓;
S44目标跟踪:利用ASIFT算法提取目标轮廓ASIFT特征,再通过目标轮廓的ASIFT特征配对CamShift算法目标搜索窗口更新进行约束,实现目标跟踪。
6.根据权利要求5所述的基于二次目标跟踪算法的离岗检测方法,其特征在于,所述步骤S42中采用数学形态学的方法进行预处理,具体为:
S421:对分割后的图像进行腐蚀,采用4连通3×3或5×5正方形结构元素扫描图像的每一个像素,使图像轮廓向内收缩,可去除边界点;
S422:消除目标周围小区域噪声块;
S423:利用4连通3×3或5×5正方形结构元素的膨胀运算对图像轮廓进行扩充;
S424:重复步骤S421~S423将目标从图像数据中完整分割。
7.根据权利要求6所述的基于二次目标跟踪算法的离岗检测方法,其特征在于,所述步骤S43中采用动态阈值OTSU法的具体步骤为:
设有一幅灰度图像的总像素为N,令其灰度级为L,灰度值集合G={0,1,…,L-1},与灰度值g(g∈G)相对应的像素个数为ng,那么有:
因此,与灰度值g(g∈G)相对应的像素出现的概率ωg为:
从而可知:
假设图像二值化分割阈值为T,灰度级处于[0,T-1]区间的所有像素记为背景区域R0,灰度级处于[T,L-1]区间的所有像素记为目标区域R1,则有所有背景区域像素出现的概率ω0和平均灰度μ0分别为:
所有目标区域像素出现的概率ω1和平均灰度μ1分别为:
图像所有像素总的平均灰度μI为:
由此可知,背景区域R0和目标区域R1的类间方差σ2为:
σ2=ω0(μ0-μI)2+ω1(μ1-μI)2 (9);
当类间方差值σ2达到最大时,能将图像中背景与目标分离;μ1和ω1是用于计算图像二值化阈值的关键参数,μ1表示图像中所有像素的平均灰度值,ω1表示目标区域R1中像素的出现概率之和。
8.根据权利要求7所述的基于二次目标跟踪算法的离岗检测方法,其特征在于,结合公式(4)~公式(7)可得出类间方差的等价公式:
σ2=ω0ω1(μ0-μ1)2 (10)。
9.根据权利要求6所述的基于二次目标跟踪算法的离岗检测方法,其特征在于,所述步骤S44中在提取目标轮廓后采用ASIFT特征匹配对CamShift算法约束过程具体为:
S441:利用提取的图像目标轮廓构造出目标在图像中的区域,以目标轮廓最小外接矩形为准;通过区域内的所有像素计算出颜色概率分布图,从而在分布图中计算出目标区域的质心作为CamShift算法目标搜索窗口的标准质心;
S442:针对前后两帧图像数据的目标轮廓提取ASIFT特征并进行特征匹配,记录下所有匹配成功的特征并计算匹配成功的特征的主方向,利用特征的主方向对CamShift算法中目标搜索窗口形心向质心移动的方向进行约束;从而通过对CamShift算法的约束实现目标跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311320581.2A CN117372953A (zh) | 2023-10-12 | 2023-10-12 | 基于二次目标跟踪算法的离岗检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311320581.2A CN117372953A (zh) | 2023-10-12 | 2023-10-12 | 基于二次目标跟踪算法的离岗检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117372953A true CN117372953A (zh) | 2024-01-09 |
Family
ID=89397654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311320581.2A Pending CN117372953A (zh) | 2023-10-12 | 2023-10-12 | 基于二次目标跟踪算法的离岗检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117372953A (zh) |
-
2023
- 2023-10-12 CN CN202311320581.2A patent/CN117372953A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111914664A (zh) | 基于重识别的车辆多目标检测和轨迹跟踪方法 | |
JP4479478B2 (ja) | パターン認識方法および装置 | |
Yin et al. | Likelihood map fusion for visual object tracking | |
WO2009109127A1 (en) | Real-time body segmentation system | |
Guo et al. | Improved hand tracking system | |
CN110929593A (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
Czyżewski et al. | Multi-stage video analysis framework | |
CN115240130A (zh) | 一种行人多目标跟踪方法、装置和计算机可读存储介质 | |
García-Martín et al. | Robust real time moving people detection in surveillance scenarios | |
Iraei et al. | Object tracking with occlusion handling using mean shift, Kalman filter and edge histogram | |
Afonso et al. | Automatic estimation of multiple motion fields from video sequences using a region matching based approach | |
CN110334703B (zh) | 一种昼夜图像中的船舶检测和识别方法 | |
CN110046601B (zh) | 针对十字路口场景的行人检测方法 | |
Waykole et al. | Detecting and tracking of moving objects from video | |
CN108985216B (zh) | 一种基于多元logistic回归特征融合的行人头部检测方法 | |
Fritz et al. | Object recognition using local information content | |
Gautam et al. | Computer vision based asset surveillance for smart buildings | |
Kim et al. | Unsupervised moving object segmentation and recognition using clustering and a neural network | |
Karaimer et al. | Detection and classification of vehicles from omnidirectional videos using temporal average of silhouettes | |
CN112347967B (zh) | 一种复杂场景下融合运动信息的行人检测方法 | |
Al Najjar et al. | A hybrid adaptive scheme based on selective Gaussian modeling for real-time object detection | |
CN117372953A (zh) | 基于二次目标跟踪算法的离岗检测方法 | |
Li et al. | Scene-independent feature-and classifier-based vehicle headlight and shadow removal in video sequences | |
Pham-Ngoc et al. | Multi-face detection system in video sequence | |
Kerdvibulvech | Hybrid model of human hand motion for cybernetics application |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |