CN118096835A - 高速小目标图像跟踪算法 - Google Patents

高速小目标图像跟踪算法 Download PDF

Info

Publication number
CN118096835A
CN118096835A CN202410508969.3A CN202410508969A CN118096835A CN 118096835 A CN118096835 A CN 118096835A CN 202410508969 A CN202410508969 A CN 202410508969A CN 118096835 A CN118096835 A CN 118096835A
Authority
CN
China
Prior art keywords
image
target
value
algorithm
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410508969.3A
Other languages
English (en)
Other versions
CN118096835B (zh
Inventor
董行
金明
刘鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Zhuoyu Intelligent Technology Co ltd
Original Assignee
Nanjing Zhuoyu Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Zhuoyu Intelligent Technology Co ltd filed Critical Nanjing Zhuoyu Intelligent Technology Co ltd
Priority to CN202410508969.3A priority Critical patent/CN118096835B/zh
Publication of CN118096835A publication Critical patent/CN118096835A/zh
Application granted granted Critical
Publication of CN118096835B publication Critical patent/CN118096835B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及图像跟踪技术领域,具体地说,涉及高速小目标图像跟踪算法,包括如下步骤:S1、图像采集:拍摄视频,并采集不同帧的图像;S2、图像预处理:对图像进行灰度处理和去噪处理;S3、数据处理:使用多种算法提取图像特征;S4、数据融合:基于鲸鱼算法寻找多种算法的最优权重;S5、特征储存:储存目标的特征模板,并根据不同帧的图像信息更新目标的特征模板;S6、目标跟踪:基于卡尔曼滤波预测目标的运动轨迹,并通过匹配当前帧中的目标与预测轨迹来实现连续跟踪。本发明中,采用多个算法,共同跟踪同一目标,达到稳定跟踪的效果,且选择了传统的跟踪算法,基于卡尔曼滤波的方式去实现目标的跟踪,不受限于平台和模型。

Description

高速小目标图像跟踪算法
技术领域
本发明涉及图像跟踪技术领域,具体地说,涉及高速小目标图像跟踪算法。
背景技术
高速小目标图像跟踪算法是对于跟踪小弱或高速目标的一项迫切需求,这包括但不限于以下需求:
反无人机:无人机速度较快,并且体型渺小,而且有着相对较低的成本,在部分禁飞区域或者军事地区反无人机就显得很重要;飞机航线及速度判断:飞机的速度非常快,对空的云台及部分军事设施上,需要预测飞机的航线,以及目标的速度。
已有的高速小目标图像跟踪算法包括但不限于:识别跟踪:通过识别物体的方式去实现跟踪,但如果目标较小或较弱就会导致误识别或识别不到的情况;深度网络跟踪:通过网络训练的模型去实现跟踪。然而,现有平台对于模型的部署存在一定困难,并且平台成本较高。
现有技术在高速小目标图像跟踪算法应用中存在一系列局限性,包括:
不稳定性:现有技术不能保证准确识别到小弱目标,识别本身也存在误识别的问题;工程化难:不管是识别还是AI网络的方式,对平台都存在局限性,导致成本较高,给工程化带来了很多难点和问题。
发明内容
本发明的目的在于提供高速小目标图像跟踪算法,以解决上述背景技术中提出的问题。
为实现上述技术问题的解决,本发明提供了高速小目标图像跟踪算法,包括如下步骤:
S1、图像采集:拍摄视频,并采集不同帧的图像;
S2、图像预处理:对图像进行灰度处理和去噪处理;
S3、数据处理:使用多种算法提取图像特征;
S4、数据融合:基于鲸鱼算法寻找多种算法的最优权重;
S5、特征储存:储存目标的特征模板,并根据不同帧的图像信息更新目标的特征模板;
S6、目标跟踪:基于卡尔曼滤波预测目标的运动轨迹,并通过匹配当前帧中的目标与预测轨迹来实现连续跟踪。
作为本技术方案的进一步改进,所述S3中使用的多种算法包括OTSU算法、Canny边缘检测算法和K-means聚类算法。
作为本技术方案的进一步改进,所述S3中OTSU算法的具体步骤包括:
设一幅大小为、灰度级为的灰度图像中,灰度值为的像素个数为,总像 素个数为表示灰度图像中灰度值为的像素点出现的概率,则
将图像中像素按灰度值用阈值分成背景和目标两类,,背景和目标各自分布的概率分别为,则
背景和目标各自分布的均值分别为,则
背景和目标各自分布的方差分别为,总体方差为,则
遍历0至寻找阈值使总体方差最大,大于阈值的像素被视为前景,小于或等 于阈值被视为背景。
作为本技术方案的进一步改进,所述S3中Canny边缘检测算法的具体步骤包括:
步骤1、计算梯度强度和方向:确定图像中每个像素点的梯度强度和方向;
步骤2、非极大值抑制:在梯度方向上,对每个像素点的梯度值进行比较,保留局部梯度最大的点;
步骤3、双阈值检测:设定高阈值和低阈值,分离图像中的强边缘和弱边缘;
步骤4、滞后阈值:对于每个像素,如果它的梯度值低于高阈值,但高于其周围像素的梯度值,则这个像素的梯度值会被提高到一个介于低阈值和高阈值之间的值;
步骤5、划分前景和背景:根据检测到的目标边缘,将图像中的目标视为前景,其余部分视为背景。
作为本技术方案的进一步改进,所述Canny边缘检测算法应用Sobel算子计算梯度,计算公式如下:
其中,为梯度,为梯度方向,分别为该像素点在水平方向和垂直方向上 的梯度;
其中,为Sobel算子,为灰度图像矩阵,为互相关运算。
作为本技术方案的进一步改进,所述S3中使用K-means聚类算法的具体步骤包括:
步骤1、数据准备:将灰度图像视为一个二维矩阵,其中每个像素点为一个数值,代表该点的灰度值,将二维矩阵展平为一维数组,每个像素成为一个数据点,用其灰度值作为特征向量;
步骤2、初始化聚类中心:随机从图像的像素灰度值中选择个不同的值作为初始 聚类中心;
步骤3、数据点分配:计算每个像素点与个聚类中心之间的距离,将每个像素点分 配到与其最近的聚类中心对应的类别中;
步骤4、更新聚类中心:计算所有属于该类别的像素点的灰度均值,并将这个均值作为新的聚类中心;
步骤5、重复迭代:重复数据点分配和更新聚类中心这两个步骤,直至算法收敛;
步骤6、结果输出:根据每个像素所属的类别重新构建图像,并依据重新构建的图像,将目标视为前景,将其余部分视为背景。
作为本技术方案的进一步改进,所述S4的具体步骤包括:
S41、数据准备:设图像中前景的判断值为1,背景的判断值为0,三种算法对应的权 重为,对于图像中的每个像素点,其使用三种算法和最终对应的判断值分别为,则
设置判断阈值为,若,则对应的像素点为前景,反之为背景;
S42、初始化参数:设置种群规模,空间维度,迭代次数,鲸鱼初始种群和最优鲸鱼的位置和适应度初值;
S43、边界条件处理,对种群中的个体分别进行处理,计算系数向量,产生均 匀分布决策随机数
其中,为控制向量,且在整个迭代周期内随迭代次数的增加从2下降到0,上的随机向量;
S44、计算适应度值:根据适应度函数计算适应度值;
S45、捕食寻找最优解:
随机搜索猎物:当时,
其中,为当前迭代次数,为当前种群中随机选择个体的位置向量, 为当前鲸鱼个体在第代的位置向量,表示距离向量;
收缩包围猎物:当时,
其中,为当前群体中目标函数最优位置向量;
螺旋更新位置:当时,
其中,为用于定义对数螺旋形状的常数,之间的均匀分布随机数;
S46、每次鲸鱼算法迭代后,基于模拟退火算法在一定程度上接受劣解。
作为本技术方案的进一步改进,所述S44中适应度函数为:
其中,为准确率,为判断正确的像素点个数。
作为本技术方案的进一步改进,所述S46的具体计算公式为:
其中,表示第次迭代时接受当前最优适应度值的概率,表示 第次迭代时得到的最优适应度值,T为当前系统温度,为设定的初始温度,为温度衰 减率。
与现有技术相比,本发明的有益效果:该高速小目标图像跟踪算法中,采用多个算法,共同跟踪同一目标,根据不同算法的本身准确度,进行判断目标是否正确,从而达到稳定跟踪的效果,且选择了传统的跟踪算法,基于卡尔曼滤波的方式去实现目标的跟踪,不受限于平台和模型,相较于AI网络模型,传统算法速度快,同时也没有大量的参数需要去加载,大大降低了资源的利用。
附图说明
图1为本发明的方法流程图;
图2为本发明中Canny边缘检测算法的流程图;
图3为本发明中K-means聚类算法的流程图;
图4为本发明中数据融合的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本实施例提供了高速小目标图像跟踪算法,包括如下步骤:
S1、图像采集:使用摄像头拍摄视频,并采集不同帧的图像;
S2、图像预处理:对图像进行灰度处理和去噪处理,灰度处理将彩色图像转换为灰度图像,减少图像信息中的颜色信息,专注于亮度信息,简化图像分析过程,减少计算量,同时保留足够的图像信息,去噪处理能够去除图像中的噪声,改善图像质量,使图像更加平滑,便于观察和分析,常用的去噪方法包括均值滤波、中值滤波、高斯滤波等;
S3、数据处理:使用多种算法提取图像特征,从图像中提取出需要跟踪的目标;
S4、数据融合:基于鲸鱼算法寻找多种算法的最优权重,结合使用多种算法,可以适应多种环境,适应性更强,根据不同算法的本身准确度,进行判断目标是否正确,从而达到稳定跟踪的效果;
S5、特征储存:储存目标的特征模板,并根据不同帧的图像信息更新目标的特征模板;
S6、目标跟踪:基于卡尔曼滤波预测目标的运动轨迹,并通过匹配当前帧中的目标与预测轨迹来实现连续跟踪,卡尔曼滤波器在预测目标运动轨迹方面具有显著优势,它能够有效抑制观测数据中的噪声,提供适应性强、鲁棒性好的状态估计;使用卡尔曼滤波器预测目标运动轨迹的步骤包括:首先,初始化状态估计和状态协方差;然后,根据系统的状态转移模型预测当前状态及其协方差;接着,当新的观测数据到来时,计算卡尔曼增益,并利用观测模型更新状态估计和协方差。随后,重复上述预测和更新步骤,逐步改进状态估计;根据选择的目标进行模板化,不需要提前预训练模型,大幅减少参数量的同时也解决了识别的局限性,再跟踪前后帧的目标信息,从而剔除不符合的目标,最终达到预期的效果。
S3中使用的多种算法包括OTSU算法、Canny边缘检测算法和K-means聚类算法,OTSU算法适用于灰度分布双峰明显的图像分割,Canny算法适用于边缘检测,而K-means聚类算法适用于图像中已知聚类个数的分割任务,每个算法都有其特定的优势和适用场景,结合使用可以符合复杂环境的需求。
S3中OTSU算法的具体步骤包括:
设一幅大小为、灰度级为的灰度图像中,灰度级常取0至255,灰度值为的 像素个数为,总像素个数为表示灰度图像中灰度值为的像素点出现的概率,则
将图像中像素按灰度值用阈值分成背景和目标两类,,背景和目标各自分布的概率分别为,则
背景和目标各自分布的均值分别为,则
背景和目标各自分布的方差分别为,总体方差为,则
遍历0至寻找阈值使总体方差最大,大于阈值的像素被视为前景,小于或等 于阈值被视为背景。
参考图2,S3中Canny边缘检测算法的具体步骤包括:
步骤1、计算梯度强度和方向:确定图像中每个像素点的梯度强度和方向,有助于确定可能的边缘点;梯度强度表示边缘的强度,梯度方向表示边缘的方向;
步骤2、非极大值抑制:在梯度方向上,对每个像素点的梯度值进行比较,保留局部梯度最大的点,使得边缘线条更加连续;这个步骤去除了那些非边缘的点,只保留可能的边缘点;
步骤3、双阈值检测:设定高阈值和低阈值,分离图像中的强边缘和弱边缘;
步骤4、滞后阈值:对于每个像素,如果它的梯度值低于高阈值,但高于其周围像素的梯度值,则这个像素的梯度值会被提高到一个介于低阈值和高阈值之间的值,有助于连接断开的边缘线,同时去除了那些不够明显的边缘点;
步骤5、划分前景和背景:根据检测到的目标边缘,将图像中的目标视为前景,其余部分视为背景。
Canny边缘检测算法应用Sobel算子计算梯度,计算公式如下:
其中,为梯度,为梯度方向,分别为该像素点在水平方向和垂直方向上 的梯度;
其中,为Sobel算子,为灰度图像矩阵,为互相关运算。
参考图3,S3中使用K-means聚类算法的具体步骤包括:
步骤1、数据准备:将灰度图像视为一个二维矩阵,其中每个像素点为一个数值,代表该点的灰度值,将二维矩阵展平为一维数组,每个像素成为一个数据点,用其灰度值作为特征向量;
步骤2、初始化聚类中心:随机从图像的像素灰度值中选择个不同的值作为初始 聚类中心;
步骤3、数据点分配:计算每个像素点与个聚类中心之间的距离,常使用欧式距 离,将每个像素点分配到与其最近的聚类中心对应的类别中;
步骤4、更新聚类中心:计算所有属于该类别的像素点的灰度均值,并将这个均值作为新的聚类中心;
步骤5、重复迭代:重复数据点分配和更新聚类中心这两个步骤,直至算法收敛;
步骤6、结果输出:根据每个像素所属的类别重新构建图像,并依据重新构建的图像,将目标视为前景,将其余部分视为背景。
参考图4,与其他优化算法相比,鲸鱼算法具有较少的参数,这简化了算法的实现和调整过程,S4的具体步骤包括:
S41、数据准备:设图像中前景的判断值为1,背景的判断值为0,三种算法对应的权 重为,对于图像中的每个像素点,其使用三种算法和最终对应的判断值分别为,则
设置判断阈值为,若,则对应的像素点为前景,反之为背景;
S42、初始化参数:设置种群规模,空间维度为3,分别代表三个算法的权重,迭代次数,鲸鱼初始种群和最优鲸鱼的位置和适应度初值;
S43、边界条件处理,对种群中的个体分别进行处理,计算系数向量,产生均 匀分布决策随机数
其中,为控制向量,且在整个迭代周期内随迭代次数的增加从2下降到0,上的随机向量;
S44、计算适应度值:根据适应度函数计算适应度值;
适应度函数为:
其中,为准确率,为判断正确的像素点个数;
S45、捕食寻找最优解:
随机搜索猎物:当时,
其中,为当前迭代次数,为当前种群中随机选择个体的位置向量, 为当前鲸鱼个体在第代的位置向量,表示距离向量,使算法能够在搜索过程中随机地探 索新的搜索空间,这有助于算法跳出局部最优解,发现新的潜在最优解区域。这增加了算法 的探索能力,有助于避免早熟收敛;
收缩包围猎物:当时,
其中,为当前群体中目标函数最优位置向量,减少了搜索空间,这有助于 减少算法的计算量,提高搜索效率。同时,减少搜索空间也有助于避免在无关区域进行不必 要的计算;
螺旋更新位置:当时,
其中,为用于定义对数螺旋形状的常数,之间的均匀分布随机数,为算 法提供了探索新区域的机会,同时保持了探索和开发的平衡。这种多样性有助于算法在全 局范围内寻找更好的解;
S46、每次鲸鱼算法迭代后,基于模拟退火算法在一定程度上接受劣解,具体计算公式为:
其中,表示第次迭代时接受当前最优适应度值的概率,表示 第次迭代时得到的最优适应度值,T为当前系统温度,为设定的初始温度,为温度衰减 率,模拟退火算法可以跳出局部最优解,避免早熟收敛。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的仅为本发明的优选例,并不用来限制本发明,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (9)

1.高速小目标图像跟踪算法,其特征在于,包括如下步骤:
S1、图像采集:拍摄视频,并采集不同帧的图像;
S2、图像预处理:对图像进行灰度处理和去噪处理;
S3、数据处理:使用多种算法提取图像特征;
S4、数据融合:基于鲸鱼算法寻找多种算法的最优权重;
S5、特征储存:储存目标的特征模板,并根据不同帧的图像信息更新目标的特征模板;
S6、目标跟踪:基于卡尔曼滤波预测目标的运动轨迹,并通过匹配当前帧中的目标与预测轨迹来实现连续跟踪。
2.根据权利要求1所述的高速小目标图像跟踪算法,其特征在于:所述S3中使用的多种算法包括OTSU算法、Canny边缘检测算法和K-means聚类算法。
3.根据权利要求1所述的高速小目标图像跟踪算法,其特征在于,所述S3中OTSU算法的具体步骤包括:
设一幅大小为、灰度级为/>的灰度图像中,灰度值为/>的像素个数为/>,总像素个数为/>,/>表示灰度图像中灰度值为/>的像素点出现的概率,则
将图像中像素按灰度值用阈值分成背景/>和目标/>两类,/>,背景/>和目标/>各自分布的概率分别为/>和/>,则
背景和目标/>各自分布的均值分别为/>和/>,则
背景和目标/>各自分布的方差分别为/>和/>,总体方差为/>,则
遍历0至寻找阈值/>使总体方差/>最大,大于阈值/>的像素被视为前景,小于或等于阈值/>被视为背景。
4.根据权利要求2所述的高速小目标图像跟踪算法,其特征在于,所述S3中Canny边缘检测算法的具体步骤包括:
步骤1、计算梯度强度和方向:确定图像中每个像素点的梯度强度和方向;
步骤2、非极大值抑制:在梯度方向上,对每个像素点的梯度值进行比较,保留局部梯度最大的点;
步骤3、双阈值检测:设定高阈值和低阈值,分离图像中的强边缘和弱边缘;
步骤4、滞后阈值:对于每个像素,如果它的梯度值低于高阈值,但高于其周围像素的梯度值,则这个像素的梯度值会被提高到一个介于低阈值和高阈值之间的值;
步骤5、划分前景和背景:根据检测到的目标边缘,将图像中的目标视为前景,其余部分视为背景。
5.根据权利要求4所述的高速小目标图像跟踪算法,其特征在于:所述Canny边缘检测算法应用Sobel算子计算梯度,计算公式如下:
其中,为梯度,/>为梯度方向,/>和/>分别为该像素点在水平方向和垂直方向上的梯度;
其中,和/>为Sobel算子,/>为灰度图像矩阵,/>为互相关运算。
6.根据权利要求2所述的高速小目标图像跟踪算法,其特征在于,所述S3中使用K-means聚类算法的具体步骤包括:
步骤1、数据准备:将灰度图像视为一个二维矩阵,其中每个像素点为一个数值,代表该点的灰度值,将二维矩阵展平为一维数组,每个像素成为一个数据点,用其灰度值作为特征向量;
步骤2、初始化聚类中心:随机从图像的像素灰度值中选择个不同的值作为初始聚类中心;
步骤3、数据点分配:计算每个像素点与个聚类中心之间的距离,将每个像素点分配到与其最近的聚类中心对应的类别中;
步骤4、更新聚类中心:计算所有属于该类别的像素点的灰度均值,并将这个均值作为新的聚类中心;
步骤5、重复迭代:重复数据点分配和更新聚类中心这两个步骤,直至算法收敛;
步骤6、结果输出:根据每个像素所属的类别重新构建图像,并依据重新构建的图像,将目标视为前景,将其余部分视为背景。
7.根据权利要求1所述的高速小目标图像跟踪算法,其特征在于,所述S4的具体步骤包括:
S41、数据准备:设图像中前景的判断值为1,背景的判断值为0,三种算法对应的权重为、/>和/>,对于图像中的每个像素点,其使用三种算法和最终对应的判断值分别为/>、/>和/>,则
设置判断阈值为,若/>,则对应的像素点为前景,反之为背景;
S42、初始化参数:设置种群规模,空间维度,迭代次数,鲸鱼初始种群和最优鲸鱼的位置和适应度初值;
S43、边界条件处理,对种群中的个体分别进行处理,计算系数向量和/>,产生均匀分布决策随机数/>
其中,为控制向量,且在整个迭代周期内随迭代次数的增加从2下降到0,/>为/>上的随机向量;
S44、计算适应度值:根据适应度函数计算适应度值;
S45、捕食寻找最优解:
随机搜索猎物:当且/>时,
其中,为当前迭代次数,/>为当前种群中随机选择个体的位置向量,/>为当前鲸鱼个体在第/>代的位置向量,/>表示距离向量;
收缩包围猎物:当且/>时,
其中,为当前群体中目标函数最优位置向量;
螺旋更新位置:当时,
其中,为用于定义对数螺旋形状的常数,/>为/>之间的均匀分布随机数;
S46、每次鲸鱼算法迭代后,基于模拟退火算法在一定程度上接受劣解。
8.根据权利要求7所述的高速小目标图像跟踪算法,其特征在于,所述S44中适应度函数为:
其中,为准确率,/>为判断正确的像素点个数。
9.根据权利要求7所述的高速小目标图像跟踪算法,其特征在于,所述S46的具体计算公式为:
其中,表示第/>次迭代时接受当前最优适应度值的概率,/>表示第/>次迭代时得到的最优适应度值,T为当前系统温度,/>为设定的初始温度,/>为温度衰减率。
CN202410508969.3A 2024-04-26 2024-04-26 高速小目标图像跟踪算法 Active CN118096835B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410508969.3A CN118096835B (zh) 2024-04-26 2024-04-26 高速小目标图像跟踪算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410508969.3A CN118096835B (zh) 2024-04-26 2024-04-26 高速小目标图像跟踪算法

Publications (2)

Publication Number Publication Date
CN118096835A true CN118096835A (zh) 2024-05-28
CN118096835B CN118096835B (zh) 2024-07-12

Family

ID=91155149

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410508969.3A Active CN118096835B (zh) 2024-04-26 2024-04-26 高速小目标图像跟踪算法

Country Status (1)

Country Link
CN (1) CN118096835B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106650693A (zh) * 2016-12-30 2017-05-10 河北三川科技有限公司 一种用于人脸比对的多特征融合识别算法
CN110136165A (zh) * 2019-05-17 2019-08-16 河南科技学院 一种基于自适应鲸鱼优化的突变运动目标跟踪方法
CN110210578A (zh) * 2019-06-19 2019-09-06 四川智动木牛智能科技有限公司 基于图论的宫颈癌组织病理学显微图像聚类系统
US20210216077A1 (en) * 2020-06-30 2021-07-15 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, apparatus and computer storage medium for training trajectory planning model
CN115082855A (zh) * 2022-06-20 2022-09-20 安徽工程大学 基于改进yolox算法的行人遮挡检测方法
CN115953570A (zh) * 2022-12-21 2023-04-11 西安电子科技大学 结合模板更新与轨迹预测的孪生网络目标跟踪方法
CN116740135A (zh) * 2023-05-18 2023-09-12 中国科学院空天信息创新研究院 红外弱小目标跟踪方法、装置、电子设备及存储介质
CN117315534A (zh) * 2023-08-02 2023-12-29 湖北工业大学 一种基于vgg-16和鲸鱼优化算法的短视频分类方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106650693A (zh) * 2016-12-30 2017-05-10 河北三川科技有限公司 一种用于人脸比对的多特征融合识别算法
CN110136165A (zh) * 2019-05-17 2019-08-16 河南科技学院 一种基于自适应鲸鱼优化的突变运动目标跟踪方法
CN110210578A (zh) * 2019-06-19 2019-09-06 四川智动木牛智能科技有限公司 基于图论的宫颈癌组织病理学显微图像聚类系统
US20210216077A1 (en) * 2020-06-30 2021-07-15 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, apparatus and computer storage medium for training trajectory planning model
CN115082855A (zh) * 2022-06-20 2022-09-20 安徽工程大学 基于改进yolox算法的行人遮挡检测方法
CN115953570A (zh) * 2022-12-21 2023-04-11 西安电子科技大学 结合模板更新与轨迹预测的孪生网络目标跟踪方法
CN116740135A (zh) * 2023-05-18 2023-09-12 中国科学院空天信息创新研究院 红外弱小目标跟踪方法、装置、电子设备及存储介质
CN117315534A (zh) * 2023-08-02 2023-12-29 湖北工业大学 一种基于vgg-16和鲸鱼优化算法的短视频分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
PUFANG MA: "An improved whale optimization algorithm based on multi-populations and multi-strategies for multilevel threshold image segmentation", 《INFORMATION AND COMMUNICATION ENGINEERING (NNICE)》, 1 April 2024 (2024-04-01) *
刘鑫: "基于机器学习的小目标检测算研究及其在医学影像中的应用", 《优秀硕士论文》, 15 August 2024 (2024-08-15) *

Also Published As

Publication number Publication date
CN118096835B (zh) 2024-07-12

Similar Documents

Publication Publication Date Title
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN111354017A (zh) 一种基于孪生神经网络及平行注意力模块的目标跟踪方法
CN106338733B (zh) 基于蛙眼视觉特性的前视声呐目标跟踪方法
CN109101897A (zh) 水下机器人的目标检测方法、系统及相关设备
CN108960059A (zh) 一种视频动作识别方法及装置
CN109214403B (zh) 图像识别方法、装置及设备、可读介质
CN111027493A (zh) 一种基于深度学习多网络软融合的行人检测方法
CN106709472A (zh) 一种基于光流特征的视频目标检测与跟踪方法
CN114972418A (zh) 基于核自适应滤波与yolox检测结合的机动多目标跟踪方法
CN111709285A (zh) 一种基于无人机的疫情防护监控方法、装置和存储介质
CN109658442B (zh) 多目标跟踪方法、装置、设备及计算机可读存储介质
CN112465021B (zh) 基于图像插帧法的位姿轨迹估计方法
CN111274964B (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法
CN113888461A (zh) 基于深度学习的小五金件缺陷检测方法、系统及设备
CN113592894A (zh) 一种基于边界框和同现特征预测的图像分割方法
CN113516713B (zh) 一种基于伪孪生网络的无人机自适应目标跟踪方法
CN113327272A (zh) 一种基于相关滤波的鲁棒性长时跟踪方法
CN110633727A (zh) 基于选择性搜索的深度神经网络舰船目标细粒度识别方法
CN114140469A (zh) 一种基于多层注意力的深度分层图像语义分割方法
CN113592893A (zh) 一种确定主体和精准化边缘相结合的图像前景分割方法
CN113379789A (zh) 一种复杂环境下运动目标跟踪方法
CN114332444B (zh) 一种基于增量漂移聚类的复杂星空背景目标识别方法
CN115424164A (zh) 一种场景自适应视频数据集的构建方法及系统
CN109886984B (zh) 利用前后景灰度差和深度学习网络的图像精确分割方法
CN112926667B (zh) 深度融合边缘与高层特征的显著性目标检测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant