CN117854011A - 一种智能ai摄像头识别对比方法及系统 - Google Patents
一种智能ai摄像头识别对比方法及系统 Download PDFInfo
- Publication number
- CN117854011A CN117854011A CN202410258061.1A CN202410258061A CN117854011A CN 117854011 A CN117854011 A CN 117854011A CN 202410258061 A CN202410258061 A CN 202410258061A CN 117854011 A CN117854011 A CN 117854011A
- Authority
- CN
- China
- Prior art keywords
- target
- motion
- state
- predicted position
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 124
- 230000033001 locomotion Effects 0.000 claims abstract description 158
- 239000011159 matrix material Substances 0.000 claims abstract description 78
- 230000003287 optical effect Effects 0.000 claims abstract description 57
- 238000012545 processing Methods 0.000 claims abstract description 33
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 32
- 239000013598 vector Substances 0.000 claims description 61
- 230000008569 process Effects 0.000 claims description 34
- 238000004458 analytical method Methods 0.000 claims description 28
- 238000001514 detection method Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 15
- 238000005316 response function Methods 0.000 claims description 14
- 238000003860 storage Methods 0.000 claims description 14
- 230000007704 transition Effects 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 11
- 230000002087 whitening effect Effects 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 6
- 238000013076 uncertainty analysis Methods 0.000 claims description 5
- 238000006467 substitution reaction Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 abstract description 12
- 230000006870 function Effects 0.000 description 27
- 230000001133 acceleration Effects 0.000 description 9
- 238000012795 verification Methods 0.000 description 7
- 238000013461 design Methods 0.000 description 5
- 238000009826 distribution Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000000354 decomposition reaction Methods 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 201000010099 disease Diseases 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006798 recombination Effects 0.000 description 2
- 238000005215 recombination Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000010924 continuous production Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000004141 dimensional analysis Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供一种智能AI摄像头识别对比方法及系统,涉及数据处理技术领域,所述方法包括:根据所述光流特征,获取目标的运动状态和运动轨迹;根据所述运动状态以及运动轨迹,获取预测位置;计算预测位置与实际位置之间的距离和角度;根据预测位置与实际位置之间的距离和角度,以及预设的匹配代价矩阵,以计算用于衡量预测位置与实际位置之间相似度的匹配代价;根据所述匹配代价,利用匈牙利算法求解最终的匹配,以得到最终的目标位置;将最终的目标位置与预设的数据库中的位置进行对比,以得到对比结果。本发明能够更准确地捕捉目标的动态变化,从而提高目标识别的精度。
Description
技术领域
本发明涉及数据处理技术领域,特别是指一种智能AI摄像头识别对比方法及系统。
背景技术
随着人工智能和计算机视觉技术的飞速发展,智能AI摄像头在各种应用场景中得到了广泛的应用,如智能监控、自动驾驶、人机交互等。在这些应用中,准确、快速地识别并定位目标是至关重要的。
然而,由于实际环境的复杂性和目标运动的多样性,传统的图像处理和目标识别方法往往难以满足高精度和高效率的要求。
发明内容
本发明要解决的技术问题是提供一种智能AI摄像头识别对比方法及系统,能够更准确地捕捉目标的动态变化,从而提高目标识别的精度。
为解决上述技术问题,本发明的技术方案如下:
第一方面,一种智能AI摄像头识别对比方法,所述方法包括:
提取原始图像中的目标特征,包括:对原始图像通过
进行初步处理,以得到初步处理图像,其中,是原始图像数据,是白化矩阵,M和N分
别代表图像的行数和列数,i和j是索引变量,和l是索引变量,是原始图像数据中的
一个元素,表示原始图像数据中位于第i行和第j列的像素值,是原始图像数据中的
一个元素,表示原始图像数据中位于第行和第l列的像素值;对初步处理图像通过进行滤波,以得到滤波数据,其中,和
是空间坐标,表示图像中的像素位置,是高斯滤波器的标准差,是高斯滤波器的权重系
数,是拉普拉斯滤波器的权重系数;根据滤波数据,通过进行目标提取,以得到目标特征,其中,表示输出特征图上位置(i,j)的值,K是卷积核,卷积核K的尺寸是M×N,m和n是卷积核K的
索引,和表示卷积操作中的空间位置,是卷积核K中的一个元素,表示卷积
核中位于第m行和第n列的权重值;
对所述目标特征中的目标区域进行角点检测,以提取光流特征;
根据所述光流特征,获取目标的运动状态和运动轨迹;
根据所述运动状态以及运动轨迹,获取预测位置;
计算预测位置与实际位置之间的距离和角度;
根据预测位置与实际位置之间的距离和角度,以及预设的匹配代价矩阵,以计算用于衡量预测位置与实际位置之间相似度的匹配代价;
根据所述匹配代价,利用匈牙利算法求解最终的匹配,以得到最终的目标位置;
将最终的目标位置与预设的数据库中的位置进行对比,以得到对比结果。
进一步的,对所述目标特征中的目标区域进行角点检测,以提取光流特征,包括:
计算图像I在每个像素点(x,y)处的梯度;
根据每个像素点(x,y),通过对应的梯度构建二阶矩阵,其中,,
其中,是图像在x方向的梯度,Iy是图像在y方向的梯度;
对于每个像素点,通过计算角点响应函数,
其中,是矩阵的行列式,是矩阵的迹,是经验常数;
根据角点响应函数,确定检测角点,根据检测角点,确定目标区域;
根据连续的两帧图像I(x,y,t)) 和I(x+u,y+v,t+1),确定每个像素点在连续帧之间的运动向量(u,v),其中,I表示像素强度,t和t+1表示时间戳,u和v分别是光流向量的水平和垂直分量;
确定用于衡量两帧图像之间像素点匹配程度的误差函数f(u,v),其中,,其中,是窗口函数;
通过优化方法确定误差函数f(u,v)最终的光流向量(u,v);
根据最终的光流向量(u,v),提取光流特征。
进一步的,根据所述光流特征,获取目标的运动状态和运动轨迹,包括:
根据光流特征,构建时间序列模型,其中,,是常数
项,是时间序列模型的阶数,是时间序列模型的第i个参数,表示时刻t-i对时刻t的影
响程度,是时间序列在时刻t-i的值,是随机误差项;
根据历史数据预测时间序列模型的参数;根据时间序列模型的参数预测目标在未来的运动状态;
确定状态空间模型,所述状态空间模型包括状态方程和观测方程,其中,状态方程
的计算公式为:;观测方程的计算公式为:;其中,是
在时刻t第个传感器的观测向量,是在时刻t第个观测噪声,是过程噪声;和分别是在时刻t和t-1的状态向量,是状态转移矩阵,是在时刻t第个观测矩阵;
根据确定状态空间模型,初始化滤波器的参数;根据初始化的滤波器参数,使用状态方程预测下一个时刻的状态;
根据下一个时刻的状态,使用卡尔曼滤波器预测目标的运动轨迹。
进一步的,根据所述运动状态以及运动轨迹,获取预测位置,包括:
获取目标的历史运动数据;
分析目标的运动状态,以得到分析结果;
根据分析结果,建立运动模型;
使用运动模型预测目标在未来时刻的位置。
进一步的,计算预测位置与实际位置之间的距离和角度,包括:
提取预测位置和实际位置的坐标信息;
根据应用场景和目标特性,确定每个预测位置和实际位置维度上的权重因子;
根据权重因子和坐标信息,计算预测位置与实际位置之间的距离差d,其中,,、和分别是x、
y和z坐标维度上的权重因子,(,,)是预测位置坐标,(,,)是实际位置坐标,是与时间差异相关的权重因子,是时间差异;
根据预测位置坐标和实际位置坐标,计算两个向量之间夹角的余弦值,;
根据两个向量之间夹角的余弦值,通过反余弦函数计算两个向量之间的夹
角。
进一步的,根据预测位置与实际位置之间的距离和角度,以及预设的匹配代价矩阵,以计算用于衡量预测位置与实际位置之间相似度的匹配代价,包括:
创建二维矩阵,其中每个元素代表特定距离和角度组合下的代价值;
确定预测位置与实际位置之间的距离和角度差异;
使用计算出的距离和角度在匹配代价矩阵中找到对应的代价值,从匹配代价矩阵中读取代价值,并进行相关的不确定性分析,以得到预测位置与实际位置之间的相似度。
第二方面,一种智能AI摄像头识别对比系统,包括:
获取模块,用于提取原始图像中的目标特征;对所述目标特征中的目标区域进行角点检测,以提取光流特征;根据所述光流特征,获取目标的运动状态和运动轨迹;根据所述运动状态以及运动轨迹,获取预测位置;
处理模块,用于计算预测位置与实际位置之间的距离和角度;根据预测位置与实际位置之间的距离和角度,以及预设的匹配代价矩阵,以计算用于衡量预测位置与实际位置之间相似度的匹配代价;根据所述匹配代价,利用匈牙利算法求解最终的匹配,以得到最终的目标位置;将最终的目标位置与预设的数据库中的位置进行对比,以得到对比结果。
第三方面,一种计算设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现所述的方法。
第四方面,一种计算机可读存储介质,所述计算机可读存储介质中存储有程序,该程序被处理器执行时实现所述的方法。
本发明的上述方案至少包括以下有益效果。
通过对原始图像中的目标特征进行提取,并对目标区域进行角点检测以提取光流特征,该方法能够更准确地捕捉目标的动态变化,从而提高目标识别的精度。
根据光流特征获取目标的运动状态和运动轨迹,进而预测目标的位置,这种方法能够在目标发生移动时,提前预测其可能到达的位置,增强了位置预测的准确性。
通过计算预测位置与实际位置之间的距离和角度,并结合预设的匹配代价矩阵,该方法能够更准确地衡量预测位置与实际位置之间的相似度,从而优化匹配过程,减少误匹配的可能性。
利用匈牙利算法求解最终的匹配,这种方法能够在多个可能的目标位置中快速找到最优解,提高了处理效率,适用于实时性要求较高的场景。
将最终的目标位置与预设的数据库中的位置进行对比,可以得到对比结果,这种方法不仅能够提供目标的位置信息,还能够根据对比结果对目标进行进一步的识别和分析,增强了系统的实用性。
通过预设的匹配代价矩阵,可以灵活地调整不同距离和角度下的代价值,使系统能够适应不同的应用场景和需求,增强了系统的适应性和灵活性。
附图说明
图1是本发明的实施例提供的一种智能AI摄像头识别对比方法的流程示意图。
图2是本发明的实施例提供的一种智能AI摄像头识别对比系统示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
如图1所示,本发明的实施例提出一种智能AI摄像头识别对比方法,所述方法包括以下步骤:
步骤11,提取原始图像中的目标特征;
步骤12,对所述目标特征中的目标区域进行角点检测,以提取光流特征;
步骤13,根据所述光流特征,获取目标的运动状态和运动轨迹;
步骤14,根据所述运动状态以及运动轨迹,获取预测位置;
步骤15,计算预测位置与实际位置之间的距离和角度;
步骤16,根据预测位置与实际位置之间的距离和角度,以及预设的匹配代价矩阵,以计算用于衡量预测位置与实际位置之间相似度的匹配代价;
步骤17,根据所述匹配代价,利用匈牙利算法求解最终的匹配,以得到最终的目标位置;
步骤18,将最终的目标位置与预设的数据库中的位置进行对比,以得到对比结果。
在本发明实施例中,通过对原始图像中的目标特征进行提取,并对目标区域进行角点检测以提取光流特征,该方法能够更准确地捕捉目标的动态变化,从而提高目标识别的精度。根据光流特征获取目标的运动状态和运动轨迹,进而预测目标的位置,这种方法能够在目标发生移动时,提前预测其可能到达的位置,增强了位置预测的准确性。通过计算预测位置与实际位置之间的距离和角度,并结合预设的匹配代价矩阵,该方法能够更准确地衡量预测位置与实际位置之间的相似度,从而优化匹配过程,减少误匹配的可能性。利用匈牙利算法求解最终的匹配,这种方法能够在多个可能的目标位置中快速找到最优解,提高了处理效率,适用于实时性要求较高的场景。将最终的目标位置与预设的数据库中的位置进行对比,可以得到对比结果,这种方法不仅能够提供目标的位置信息,还能够根据对比结果对目标进行进一步的识别和分析,增强了系统的实用性。通过预设的匹配代价矩阵,可以灵活地调整不同距离和角度下的代价值,使系统能够适应不同的应用场景和需求,增强了系统的适应性和灵活性。
在本发明一优选的实施例中,上述步骤11,可以包括:
步骤111,对原始图像通过进行初步
处理,以得到初步处理图像,其中,是原始图像数据,是白化矩阵,M和N分别代表图
像的行数和列数,i和j是索引变量,和l是索引变量,是原始图像数据中的一个元
素,表示原始图像数据中位于第i行和第j列的像素值,是原始图像数据中的一个元
素,表示原始图像数据中位于第行和第l列的像素值;对初步处理图像通过进行滤波,以得到滤波数据,其中,和
是空间坐标,表示图像中的像素位置,是高斯滤波器的标准差,是高斯滤波器的权重系
数,是拉普拉斯滤波器的权重系数;
步骤112,根据滤波数据,通过
进行目标提取,以得到目标特征,其中,表示输出特征图上位置(i,j)的值,K是卷积核,卷
积核K的尺寸是M×N,m和n是卷积核K的索引,和表示卷积操作中的空间位置,是卷积核K中的一个元素,表示卷积核中位于第m行和第n列的权重值;白化矩阵的计
算步骤包括:设图像被处理成一个向量集,其中,每个向量是一个像素,计算向量集的协方
差矩阵,其中,向量集的协方差矩阵的计算公式为:
;
其中,是第个像素值向量,代表转置操作;对向量集的协方差矩阵进
行特征值分解,以得到特征向量矩阵和特征值矩阵;通过特征向量矩阵与特征值矩阵的逆
平方根的乘积,计算白化矩阵。
在本发明实施例中,通过初步处理步骤,图像数据被标准化和白化,有助于消除图像中的冗余信息,提高图像的信噪比,从而改善图像质量。白化矩阵的应用进一步使得图像的不同特征具有相同的方差,有助于后续处理步骤中特征的提取和识别。滤波处理步骤结合了高斯滤波器和拉普拉斯滤波器的优点,既能够平滑图像中的噪声,又能够增强图像中的边缘信息。这对于目标提取步骤是非常有益的,因为边缘信息通常是区分目标和背景的关键特征。通过合理的索引变量和卷积核设计,目标提取步骤能够在保持较高精度的同时,降低计算的复杂度。白化矩阵的计算步骤考虑了图像的全局统计信息,这使得算法对于图像的亮度、对比度等变化具有较强的鲁棒性,此外,通过特征值分解计算白化矩阵,能够避免直接求逆矩阵可能导致的数值不稳定性问题。在处理过程中,可以通过调整高斯滤波器的标准差、权重系数等参数,以及卷积核的尺寸和索引方式,来优化处理效果,为用户提供了灵活的参数调整空间,可以根据具体的应用场景和需求来定制处理流程。
在本发明一优选的实施例中,上述步骤12,可以包括:
步骤121,计算图像I在每个像素点(x,y)处的梯度;根据每个像素点(x,y),通过对
应的梯度构建二阶矩阵,其中,,其中,是图像在x方
向的梯度,Iy是图像在y方向的梯度;
步骤122,对于每个像素点,通过计算角点响
应函数,其中,是矩阵的行列式,是矩阵的迹,是经验常数;
步骤123,根据角点响应函数,确定检测角点,根据检测角点,确定目标区域;
步骤124,根据连续的两帧图像I(x,y,t)) 和I(x+u,y+v,t+1),确定每个像素点在连续帧之间的运动向量(u,v),其中,I表示像素强度,t和t+1表示时间戳,u和v分别是光流向量的水平和垂直分量;
步骤125,确定用于衡量两帧图像之间像素点匹配程度的误差函数f(u,v),其中,,其中,是窗口函数,其
中,,其中,和是窗口的中心坐标,是高斯函数
的标准差,用于控制窗口的大小和形状;
步骤126,通过优化方法确定误差函数f(u,v)最终的光流向量(u,v);
步骤127,根据最终的光流向量(u,v),提取光流特征。
在本发明实施例中,通过角点检测,能够准确地定位图像中的角点,这些角点通常对应于目标的边缘或纹理变化丰富的区域,因此在目标跟踪过程中能够提供稳定的特征点。光流法能够估计每个像素点在连续帧之间的运动向量,从而提供精细的运动信息。与传统的基于块或特征点的运动估计方法相比,像素级的光流估计能够更准确地捕捉目标的运动轨迹和速度。误差函数和优化过程的设计使得光流法能够在一定程度上适应光照变化、遮挡和噪声等场景变化。通过优化误差函数,方法可以找到最匹配的光流向量,即使在图像质量下降或目标部分被遮挡的情况下,也能保持较好的性能。光流特征不仅包含了目标的运动方向和速度,还能够反映出目标的形状变化和运动模式。通过上述步骤中的优化方法和窗口函数的设计,可以在一定程度上平衡计算效率和精度;上述步骤12描述的图像处理方法通过结合角点检测和光流特征提取,增强了目标跟踪的稳定性、提高了运动估计的准确性、增强了对场景变化的适应性、提供了丰富的运动信息,并在计算效率与精度之间取得了平衡。
在本发明另一优选的实施例中,上述步骤123,可以包括:
步骤1231,获取步骤122中的角点响应函数,角点响应函数用于衡量该点是否可能是一个角点;为了确定哪些点是角点,设定一个阈值T1,如果某个像素点的角点响应函数R大于该阈值T1,则认为该点是一个候选角点;
步骤1232,检测到的角点可能分布在图像中的多个区域,为了确定目标区域,可以使用K-means算法将角点分组,每个聚类代表一个潜在的目标区域;
步骤1233,根据聚类的特性(如大小、形状、角点数量等),可以进一步筛选和合并聚类,以去除噪声;对于每个筛选后的区域,可以使用边界框定义其边界,这些边界框定义了目标在图像中的位置。
在本发明实施例中,通过设置阈值T1,可以快速筛选出可能的角点,避免对所有像素点进行复杂的处理,从而显著减少计算量。角点响应函数R的设计旨在准确衡量像素点作为角点的可能性,通过只选择角点响应函数R大于阈值T1的点作为候选角点,可以提高角点检测的准确性。步骤1232,K-means算法能够自动将相似的角点分组到一起,形成多个聚类,每个聚类代表一个潜在的目标区域,避免了手动分组的繁琐和主观性。K-means算法对初始条件不敏感,多次运行通常能得到相似的结果,这使得角点分组更加稳定和可靠,K-means算法可以处理大规模数据集,因此适用于包含大量角点的图像。步骤1233,通过根据聚类的特性(如大小、形状、角点数量等)进一步筛选和合并聚类,可以去除由于图像噪声或误检测产生的无效聚类,从而提高目标区域确定的准确性;使用边界框定义筛选后区域的边界,可以清晰地标识出目标在图像中的位置。通过提供明确的边界框,可以简化后续图像处理和分析的步骤,提高整体处理的效率和准确性,例如,在目标跟踪应用中,可以直接在边界框内搜索目标,而无需在整个图像中搜索。
在本发明另一优选的实施例中,使用K-means算法将角点分组,每个聚类代表一个潜在的目标区域,具体包括:
通过观察角点的分布确定聚类的数量K3;从检测到的角点集合中随机选择K3个点作为初始质心;对于每个角点,计算角点与所有质心之间的欧氏距离;根据欧氏距离,将每个角点分配给距离它最近的质心所在的聚类,这样,每个质心周围都会聚集一组角点,形成一个聚类;
对于每个聚类,计算所有分配给该聚类的角点的平均坐标,将得到的平均坐标作为新的质心,用新计算出的质心替换旧的质心;
重复步骤操作,重新分配角点到最近的质心,并更新质心的位置,这个过程会不断迭代进行,直到满足停止条件;停止条件可以是质心的位置不再发生显著变化,或者达到预设的最大迭代次数;
根据每个聚类的角点集合,可以定义该聚类的边界,例如通过计算边界框来确定潜在目标区域的边界。
在本发明实施例中,K-means算法能够自动地将角点分组,每个聚类代表一个潜在的目标区域,大大减少了手动标记和处理的工作量,提高了图像处理的自动化水平。通过计算角点与质心之间的欧氏距离,K-means算法能够准确地将相似的角点聚集在一起,形成紧凑的聚类,有助于更准确地确定目标区域的位置和边界。K-means算法对初始质心的选择具有一定的鲁棒性,尽管不同的初始质心可能会导致不同的聚类结果,但多次运行通常会收敛到相似的解,此外,算法在迭代过程中会不断优化质心的位置,使得聚类结果更加稳定。K-means算法适用于不同规模和分布的角点集合,通过观察角点的分布来确定聚类的数量K3,使得算法能够适应不同复杂度的图像,此外,算法的计算复杂度相对较低,使其能够处理大规模的图像数据。通过定义每个聚类的边界,如计算边界框,可以清晰地标识出潜在目标区域的位置和范围。K-means算法的结果可以直观地通过聚类边界或边界框在图像上展示,为分析人员提供直观的可视化支持,有助于更好地理解和解释图像内容。
在本发明另一优选的实施例中,上述步骤126,可以包括:
首先,为每个像素点设定一个初始的光流向量(u,v);
接着,计算光流向量(u,v)处误差函数f(u,v)的梯度,梯度是一个向量,用于表示误差函数f(u,v)在每个维度上的变化率;
使用计算得到的梯度,更新光流向量(u,v),更新的方向是梯度的反方向,因为梯度指向的是误差函数增长最快的方向,而需要减小误差,所以需要向相反的方向移动,更新的幅度由学习率控制,学习率为一个小的正数;
然后,重复上述计算梯度和更新光流向量的步骤,每次迭代后,都会得到一个新的光流向量(u,v),这个新的向量会使得误差函数f(u,v)的值更小一些,持续这个过程,直到误差函数的变化变得非常小,或者达到了预设的最大迭代次数;
当光流向量(u,v)的调整达到了预定的阈值时,则认为梯度下降法已经收敛,此时可以停止迭代,最终得到的光流向量(u,v)就是使得误差函数f(u,v)达到最小的解;
最后,输出每个像素点的光流向量(u,v)。
在本发明一优选的实施例中,上述步骤13,可以包括:
步骤131,根据光流特征,构建时间序列模型,其中,,是常数项,是时间序列模型的阶数,是时间序列模型的第i个参数,表示时刻t-i对时
刻t的影响程度,是时间序列在时刻t-i的值,是随机误差项;
步骤132,根据历史数据预测时间序列模型的参数;根据时间序列模型的参数预测目标在未来的运动状态;
步骤133,确定状态空间模型,所述状态空间模型包括状态方程和观测方程,其中,
状态方程的计算公式为:;观测方程的计算公式为:;其
中,是在时刻t第个传感器的观测向量,是在时刻t第个观测噪声,是过程噪声;和分别是在时刻t和t-1的状态向量,是状态转移矩阵,是在时刻t第个观测
矩阵;
步骤134,根据确定状态空间模型,初始化滤波器的参数;根据初始化的滤波器参数,使用状态方程预测下一个时刻的状态;
步骤135,根据下一个时刻的状态,使用卡尔曼滤波器预测目标的运动轨迹。
在本发明实施例中,根据光流特征构建时间序列模型,该模型考虑了历史时刻对当前时刻的影响;使用历史数据估计模型的参数,这些参数反映了不同时刻数据之间的依赖关系;通过构建时间序列模型,能够捕捉目标运动的历史趋势和周期性变化,从而提高对未来运动状态的预测准确性。利用估计出的模型参数,预测目标在未来的运动状态,这种预测是基于对历史数据的统计分析,能够捕捉到运动的总体趋势。
确定状态空间模型,包括状态方程和观测方程,状态方程描述了目标状态随时间的演变,而观测方程则关联了传感器的观测与目标状态,模型中的噪声项使得模型能够更真实地反映实际应用中的复杂情况。根据状态空间模型初始化滤波器的参数,这些参数是滤波器工作的基础,使用状态方程预测下一个时刻的目标状态,这是一个递归的过程,每次预测都基于前一个时刻的状态和当前的控制输入。利用卡尔曼滤波器结合观测数据和预测状态来估计目标的真实状态,卡尔曼滤波器通过权重调整来平衡预测和观测之间的不确定性,从而得到最优的状态。卡尔曼滤波器是一种有效的最优递归数据处理算法,它能够在存在噪声的情况下,通过最小化均方误差来估计目标的运动轨迹,从而提高预测的鲁棒性。整个预测过程是基于时间序列的递归计算,因此能够在每个时刻更新预测结果,提供实时的运动预测能力。
在本发明一优选的实施例中,上述步骤134,可以包括:
根据目标在初始时刻的已知条件,为状态空间模型设定一个初始状态向量 A0,这个向量包含了目标在初始时刻的位置和速度信息;
设定一个初始状态协方差矩阵P0,它表示初始状态估计的不确定性,初始状态协方差矩阵P0的大小与状态向量的维度相同;设定过程噪声协方差矩阵 Q,这个矩阵代表了模型的不确定性和过程噪声的统计特性;根据传感器的精度和可靠性,设定观测噪声协方差矩阵R,这个矩阵代表了观测数据的不确定性。
进一步的,滤波器的参数被初始化后,使用状态方程来预测下一个时刻的状态,具体的预测过程,可以包括:
初始化状态向量,首先,确定在初始时刻t-1的状态向量;
接下来,确定状态转移矩阵,状态转移矩阵描述了状态从一个时刻到下一个
时刻的线性变换;
将初始时刻t-1的状态向量和状态转移矩阵相乘计算下一个时刻t的预测
状态,这个预测状态是基于当前状态和状态转移矩阵得出的;
在实际应用中,过程噪声是不能被忽视的,代表了不确定性,为了考虑这种不确
定性,对预测状态添加一个过程噪声;
因此,将计算出的预测状态与过程噪声相加,得出最终的下一个时刻的状态向
量。
在本发明一优选的实施例中,上述步骤14,可以包括:
步骤141,获取目标的历史运动数据;
步骤142,分析目标的运动状态,以得到分析结果;
步骤143,根据分析结果,建立运动模型;
步骤144,使用运动模型预测目标在未来时刻的位置。
在本发明实施例中,步骤141,从传感器、摄像头、跟踪系统或其他数据源中收集目标在过去一段时间内的运动数据,包括位置、速度、加速度、方向等,并且通常以时间序列的形式存在。历史数据能够反映目标的运动习惯、模式或趋势。步骤142,对收集到的历史运动数据进行处理和分析,来识别目标的运动模式或状态变化,有助于理解目标的动态行为,并为建立准确的运动模型提供依据。步骤143,基于目标的运动状态分析结果,选择合适的运动模型来描述目标的运动,准确的运动模型能够捕捉目标的运动动态,为未来的位置预测和行为分析提供强有力的支持。步骤144,利用已建立的运动模型和估计的模型参数,对目标在未来一段时间内的位置进行预测,根据需要,可以对预测结果进行后处理,有助于理解目标的运动特性。
在本发明另一优选的实施例中,上述步骤142,可以包括:
步骤1421,获取经过预处理后的目标运动数据;
步骤1422,从预处理后的目标运动数据中提取能够描述目标运动状态的特征;
步骤1423,根据提取的特征,识别目标的运动模式,例如,目标可能处于匀速直线运动、加速运动、减速运动、转弯运动等状态;
步骤1424,将识别的运动状态输出作为分析结果,如文本描述、图表展示等。
在本发明实施例中,通过从获取经过预处理的目标运动数据开始,到最终将识别的运动状态作为分析结果输出,这一流程形成了一个完整、闭环的运动状态分析系统,确保了数据的充分利用,并为用户提供了从原始数据到最终结论的全面视角。步骤1422从预处理后的数据中提取能够描述目标运动状态的特征,这确保了后续运动模式识别的准确性,因为特征提取是模式识别中的关键步骤,有效的特征可以显著提高识别精度。该流程能够识别多种运动模式,如匀速直线运动、加速运动、减速运动、转弯运动等。步骤1424将识别的运动状态以文本描述、图表展示等方式输出,这大大增强了分析结果的可视化和可解释性,用户可以更直观地理解目标的运动状态。该流程设计为模块化,这意味着在需要时,可以轻松添加新的运动模式识别功能或改进现有的特征提取方法。这种可扩展性确保了该流程能够随着技术的进步和应用需求的变化而不断发展。通过自动化特征提取和运动模式识别,该流程显著提高了分析效率。相比于传统的手工分析方法,它可以更快地处理大量数据,并提供更及时的分析结果。自动化流程减少了人为干预和判断的需要,从而降低了因主观因素导致的错误和偏差,提高了分析的客观性和一致性,使得结果更加可靠。
在本发明另一优选的实施例中,上述步骤1422,可以包括:
步骤14221,从目标运动数据中计算基本运动学特征,运动学特征包括速度和加速度;
步骤14222,根据速度和加速度,提取目标运动数据在三维空间中的曲率和挠率;
步骤14223,根据曲率和挠率,通过计算目标运动数据的离
散程度,以及通过计算目标运动数据分布偏斜程度的统计
量,其中,是加权标准差,是偏度,是数据点的数量,是每个数据点的值,是每个
数据点的权重,是均值,是标准差,是加权均值。
在本发明实施例中,步骤14221,计算基本运动学特征,速度和加速度是描述物体运动的最基础、最直接的物理量,计算这些特征为后续更复杂的分析提供了坚实的基础。速度和加速度能够直观地反映物体的运动快慢和变化趋势。步骤14222,曲率和挠率能够更精确地描述物体在三维空间中的运动轨迹,通过引入三维空间中的曲率和挠率,该步骤提供了比传统二维分析更完整、更全面的运动描述。步骤14223,通过计算加权标准差和偏度,该步骤能够揭示数据的统计特性,如离散程度和分布偏斜情况,加权标准差考虑了不同数据点的权重,使得分析在数据存在异质性或噪声时更加鲁棒。
在本发明另一优选的实施例中,上述步骤1423,可以包括:
步骤14231,确定与运动模式相关的特征;
步骤14232,确定与运动模式相关的特征,这些特征(如加速度、转向角变化率、速度、轨迹曲率)能够捕捉到目标在运动过程中的关键动态信息;
步骤14233,根据问题的性质和数据的特征确定聚类算法;利用带有已知运动模式标签的历史数据来构建分类模型;使用聚类算法,对处理后的历史数据进行训练,形成不同的簇,每个簇代表一种潜在的运动模式;
步骤14234,通过和评估聚类
结果的准确性,其中,是样本总数,是第个样本的真实标签,是第个样本的聚类
结果,是指示函数,当条件成立时取1,否则取0,是类别(簇)的数量,是混淆矩阵对角
线上的一个元素,是混淆矩阵非对角线上的一个元素是指被正确聚类的样本所占的
比例。
在本发明实施例中,在步骤14231和14232中,详细描述了与运动模式相关的特征,这些特征(如加速度、转向角变化率、速度、轨迹曲率)不仅捕捉到了目标在运动过程中的关键动态信息,而且为后续的聚类分析提供了坚实的基础,通过精确选择特征,能够更准确地识别和区分不同的运动模式。在步骤14233中,根据问题的具体性质和数据的特征确定了聚类算法,这种针对性的选择确保了聚类算法能够有效地处理数据,并揭示出潜在的运动模式。此外,利用带有已知运动模式标签的历史数据来构建分类模型,进一步增强了模型对实际运动模式的识别能力。步骤14234引入了混淆矩阵和准确率的计算,以评估聚类结果的准确性,通过计算混淆矩阵中的元素和准确率指标,能够量化聚类算法的性能,并了解每个簇中包含正确标签样本的比例,这种验证和评估过程不仅提供了对聚类结果质量的客观度量,还提供了改进算法和调整参数的依据,不仅提高了流程的效率,还使得每一步的目的和作用更加明确,从而更容易理解和实施。综上所述,通过执行步骤14231至步骤14234,不仅能够更准确地识别和区分不同的运动模式,还能够有效地评估和验证聚类结果的质量。
在本发明另一优选的实施例中,上述步骤143,可以包括:
步骤1431,根据分析结果,确定运动模型,例如,对于匀速直线运动,选择线性模型;
步骤1432,利用步骤142中提取的特征和分析结果,预估运动模型的参数,参数包括速度、转向角等;
步骤1433,使用剩余数据对建立的运动模型进行验证,以得到验证结果,确保运动模型能够准确描述目标的运动状态;
步骤1434,根据验证结果对运动模型进行优化,如调整模型参数、改变模型类型等,以提高模型的预测准确性。
在本发明实施例中,步骤143提供了一个从模型确定到验证再到优化的完整流程,确保了运动模型建立和应用的系统性;通过验证和优化步骤,可以显著提高运动模型对目标运动状态描述的准确性,该流程允许根据实际情况调整和优化模型,增强了模型的适应性和灵活性。步骤1431,根据分析结果选择合适的运动模型,能够更有针对性地描述目标的运动状态,选择合适的模型可以简化后续的计算和分析过程,提高效率。步骤1432,通过利用步骤142中提取的特征和分析结果,可以更准确地预估模型参数,参数化描述使得运动模型更具体、更易于理解和应用。步骤1433,通过验证可以确保所建立的运动模型能够准确描述目标的运动状态,提高模型的可信度,验证过程中可能发现模型存在的问题或不足,为后续的优化提供了方向。步骤1434,优化步骤可以进一步提高模型的预测准确性,使其更好地适应实际应用场景,优化是一个持续的过程,可以根据需要不断进行调整和改进,确保模型的长期有效性。
在本发明另一优选的实施例中,上述步骤144,可以包括:
步骤1441,确定需要预测目标位置的未来时刻;
步骤1442,将预估运动模型的参数输入到运动模型中;
步骤1443,根据运动模型和输入的参数,计算目标在设定时刻的位置;
步骤1444,将预测的位置以适当的形式输出,如坐标值、地图上的标记点等。
在本发明实施例中,从确定预测时刻到输出预测结果,步骤144形成了一个完整、闭环的预测流程。步骤1441,通过明确需要预测的未来时刻,使得预测任务更加具体和明确,可以根据实际需求选择不同的预测时刻,如短期预测(几秒到几分钟)或长期预测(几小时到几天)。步骤1442,通过利用步骤143中预估得到的运动模型参数,可以确保预测基于最新和最准确的信息,基于模型的预测通常比无模型的预测更加准确和可靠,因为模型能够捕捉和利用目标运动的内在规律。步骤1443,通过运动模型和准确的参数输入,可以计算出目标在设定时刻的精确位置,只要给定相同的模型和参数,就可以重复计算出相同的结果,这对于验证和比较不同方法或策略非常有用。步骤1444,通过将预测位置以坐标值、地图上的标记点等形式输出,可以使得预测结果更加直观和易于理解。
在本发明一优选的实施例中,上述步骤15,可以包括:
步骤151,提取预测位置和实际位置的坐标信息;
步骤152,根据应用场景和目标特性,确定每个预测位置和实际位置维度上的权重因子;
步骤153,根据权重因子和坐标信息,计算预测位置与实际位置之间的距离差d,其
中,,、和分别
是x、y和z坐标维度上的权重因子,(,,)是预测位置坐标,(,,)是实际位置
坐标,是与时间差异相关的权重因子,是时间差异;
步骤154,根据预测位置坐标和实际位置坐标,计算两个向量之间夹角的余弦值,;
步骤155,根据两个向量之间夹角的余弦值,通过反余弦函数计算两个向量
之间的夹角。
在本发明实施例中,步骤151提供了进行后续计算所需的基础数据,坐标信息的准确性直接影响到后续距离和角度计算的准确性。步骤152允许根据应用场景和目标特性调整不同维度(如空间坐标和时间)在计算中的重要性,提高了模型的灵活性和适应性,使其能够更准确地反映实际场景中的复杂性和多样性。步骤153提供了预测位置准确性的一个量化指标,距离差越小,说明预测越准确,引入权重因子使得距离计算更加符合实际应用需求。步骤154余弦值提供了预测位置与实际位置之间方向相似性的度量,当余弦值接近1时,说明两个位置向量的方向非常接近;接近-1时则方向相反。步骤155夹角提供了预测位置与实际位置之间方向差异的具体角度值,对于需要精确方向信息的应用(如导航、方向控制等),通过反余弦函数计算夹角,确保了角度值在[0, π]范围内,便于后续处理和解析。
在本发明一优选的实施例中,上述步骤16,可以包括:
步骤161,创建二维矩阵,其中每个元素代表特定距离和角度组合下的代价值;
步骤162,确定预测位置与实际位置之间的距离和角度差异;
使用计算出的距离和角度在匹配代价矩阵中找到对应的代价值,从匹配代价矩阵中读取代价值,并进行相关的不确定性分析,以得到预测位置与实际位置之间的相似度。
在本发明实施例中,步骤161中创建的二维矩阵(即匹配代价矩阵)允许对预测位置与实际位置之间的距离和角度差异进行精细化的评估。每个元素代表特定距离和角度组合下的代价值。通过在匹配代价矩阵中查找与计算出的距离和角度对应的代价值,能够量化预测位置与实际位置之间的差异。这种量化的代价评估不仅提供了对位置匹配质量的客观度量,还有助于理解预测模型在不同情况下的性能表现。步骤162中提到的不确定性分析允许考虑预测位置与实际位置之间相似度的不确定性。这种分析可以帮助识别出预测模型中的潜在问题区域,并为改进模型提供有价值的见解。通过获取预测位置与实际位置之间的相似度,能够更好地评估预测结果的可靠性,并据此做出更明智的决策。
图2所示,本发明的实施例还提供一种智能AI摄像头识别对比系统20,包括:
获取模块21,用于提取原始图像中的目标特征;对所述目标特征中的目标区域进行角点检测,以提取光流特征;根据所述光流特征,获取目标的运动状态和运动轨迹;根据所述运动状态以及运动轨迹,获取预测位置;
处理模块22,用于计算预测位置与实际位置之间的距离和角度;根据预测位置与实际位置之间的距离和角度,以及预设的匹配代价矩阵,以计算用于衡量预测位置与实际位置之间相似度的匹配代价;根据所述匹配代价,利用匈牙利算法求解最终的匹配,以得到最终的目标位置;将最终的目标位置与预设的数据库中的位置进行对比,以得到对比结果。
可选的,提取原始图像中的目标特征,包括:
对原始图像通过进行初步处理,以得到初步
处理图像,其中,是原始图像数据,是白化矩阵,M和N分别代表图像的行数和列数,i
和j是索引变量,和l是索引变量,是原始图像数据中的一个元素,表示原始图像数
据中位于第i行和第j列的像素值,是原始图像数据中的一个元素,表示原始图像数
据中位于第行和第l列的像素值;对初步处理图像通过
进行滤波,以得到滤波数据,其中,和是空间坐标,表示图像中的像素位置,是
高斯滤波器的标准差,是高斯滤波器的权重系数,是拉普拉斯滤波器的权重系
数;
根据滤波数据,通过进
行目标提取,以得到目标特征,其中,表示输出特征图上位置(i,j)的值,K是卷积核,卷积
核K的尺寸是M×N,m和n是卷积核K的索引,和表示卷积操作中的空间位置,
是卷积核K中的一个元素,表示卷积核中位于第m行和第n列的权重值。
可选的,对所述目标特征中的目标区域进行角点检测,以提取光流特征,包括:
计算图像I在每个像素点(x,y)处的梯度;
根据每个像素点(x,y),通过对应的梯度构建二阶矩阵,其中,,
其中,是图像在x方向的梯度,Iy是图像在y方向的梯度;
对于每个像素点,通过计算角点响应函数,
其中,是矩阵的行列式,是矩阵的迹,是经验常数;
根据角点响应函数,确定检测角点,根据检测角点,确定目标区域;
根据连续的两帧图像I(x,y,t)) 和I(x+u,y+v,t+1),确定每个像素点在连续帧之间的运动向量(u,v),其中,I表示像素强度,t和t+1表示时间戳,u和v分别是光流向量的水平和垂直分量;
确定用于衡量两帧图像之间像素点匹配程度的误差函数f(u,v),其中,,其中,是窗口函数;
通过优化方法确定误差函数f(u,v)最终的光流向量(u,v);
根据最终的光流向量(u,v),提取光流特征。
可选的,根据所述光流特征,获取目标的运动状态和运动轨迹,包括:
根据光流特征,构建时间序列模型,其中,,是常数
项,是时间序列模型的阶数,是时间序列模型的第i个参数,表示时刻t-i对时刻t的影
响程度,是时间序列在时刻t-i的值,是随机误差项;
根据历史数据预测时间序列模型的参数;根据时间序列模型的参数预测目标在未来的运动状态;
确定状态空间模型,所述状态空间模型包括状态方程和观测方程,其中,状态方程
的计算公式为:;观测方程的计算公式为:;其中,是
在时刻t第个传感器的观测向量,是在时刻t第个观测噪声,是过程噪声;和分别是在时刻t和t-1的状态向量,是状态转移矩阵,是在时刻t第个观测矩阵;
根据确定状态空间模型,初始化滤波器的参数;根据初始化的滤波器参数,使用状态方程预测下一个时刻的状态;
根据下一个时刻的状态,使用卡尔曼滤波器预测目标的运动轨迹。
可选的,根据所述运动状态以及运动轨迹,获取预测位置,包括:
获取目标的历史运动数据;
分析目标的运动状态,以得到分析结果;
根据分析结果,建立运动模型;
使用运动模型预测目标在未来时刻的位置。
可选的,计算预测位置与实际位置之间的距离和角度,包括:
提取预测位置和实际位置的坐标信息;
根据应用场景和目标特性,确定每个预测位置和实际位置维度上的权重因子;
根据权重因子和坐标信息,计算预测位置与实际位置之间的距离差d,其中,,、和分别是x、
y和z坐标维度上的权重因子,(,,)是预测位置坐标,(,,)是实际位置坐标,是与时间差异相关的权重因子,是时间差异;
根据预测位置坐标和实际位置坐标,计算两个向量之间夹角的余弦值,;
根据两个向量之间夹角的余弦值,通过反余弦函数计算两个向量之间的夹
角。
可选的,根据预测位置与实际位置之间的距离和角度,以及预设的匹配代价矩阵,以计算用于衡量预测位置与实际位置之间相似度的匹配代价,包括:
创建二维矩阵,其中每个元素代表特定距离和角度组合下的代价值;
确定预测位置与实际位置之间的距离和角度差异;
使用计算出的距离和角度在匹配代价矩阵中找到对应的代价值,从匹配代价矩阵中读取代价值,并进行相关的不确定性分析,以得到预测位置与实际位置之间的相似度。
需要说明的是,该系统是与上述方法相对应的系统,上述方法实施例中的所有实现方式均适用于该实施例中,也能达到相同的技术效果。
本发明的实施例还提供一种计算设备,包括:处理器、存储有计算机程序的存储器,所述计算机程序被处理器运行时,执行如上所述的方法。上述方法实施例中的所有实现方式均适用于该实施例中,也能达到相同的技术效果。
本发明的实施例还提供一种计算机可读存储介质,存储指令,当所述指令在计算机上运行时,使得计算机执行如上所述的方法。上述方法实施例中的所有实现方式均适用于该实施例中,也能达到相同的技术效果。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
此外,需要指出的是,在本发明的装置和方法中,显然,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本发明的等效方案。并且,执行上述系列处理的步骤可以自然地按照说明的顺序按时间顺序执行,但是并不需要一定按照时间顺序执行,某些步骤可以并行或彼此独立地执行。对本领域的普通技术人员而言,能够理解本发明的方法和装置的全部或者任何步骤或者部件,可以在任何计算装置(包括处理器、存储介质等)或者计算装置的网络中,以硬件、固件、软件或者它们的组合加以实现,这是本领域普通技术人员在阅读了本发明的说明的情况下运用的基本编程技能就能实现的。
因此,本发明的目的还可以通过在任何计算装置上运行一个程序或者一组程序来实现。所述计算装置可以是公知的通用装置。因此,本发明的目的也可以仅仅通过提供包含实现所述方法或者装置的程序代码的程序产品来实现。也就是说,这样的程序产品也构成本发明,并且存储有这样的程序产品的存储介质也构成本发明。显然,所述存储介质可以是任何公知的存储介质或者将来所开发出来的任何存储介质。还需要指出的是,在本发明的装置和方法中,显然,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本发明的等效方案。并且,执行上述系列处理的步骤可以自然地按照说明的顺序按时间顺序执行,但是并不需要一定按照时间顺序执行。某些步骤可以并行或彼此独立地执行。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (9)
1.一种智能AI摄像头识别对比方法,其特征在于,所述方法包括:
提取原始图像中的目标特征,包括:对原始图像通过进行初步处理,以得到初步处理图像/>,其中,/>是原始图像数据,/>是白化矩阵,M和N分别代表图像的行数和列数,i和j是索引变量,/>和l是索引变量,/>是原始图像数据/>中的一个元素,表示原始图像数据中位于第i行和第j列的像素值,/>是原始图像数据/>中的一个元素,表示原始图像数据中位于第/>行和第l列的像素值;对初步处理图像通过进行滤波,以得到滤波数据/>,其中,/>和/>是空间坐标,表示图像中的像素位置,/>是高斯滤波器的标准差,/>是高斯滤波器的权重系数,/>是拉普拉斯滤波器/>的权重系数;根据滤波数据/>,通过进行目标提取,以得到目标特征,其中,表示输出特征图上位置(i,j)的值,K是卷积核,卷积核K的尺寸是M×N,m和n是卷积核K的索引,/>和/>表示卷积操作中的空间位置,/>是卷积核K中的一个元素,表示卷积核中位于第m行和第n列的权重值;
对所述目标特征中的目标区域进行角点检测,以提取光流特征;
根据所述光流特征,获取目标的运动状态和运动轨迹;
根据所述运动状态以及运动轨迹,获取预测位置;
计算预测位置与实际位置之间的距离和角度;
根据预测位置与实际位置之间的距离和角度,以及预设的匹配代价矩阵,以计算用于衡量预测位置与实际位置之间相似度的匹配代价;
根据所述匹配代价,利用匈牙利算法求解最终的匹配,以得到最终的目标位置;
将最终的目标位置与预设的数据库中的位置进行对比,以得到对比结果。
2.根据权利要求1所述的智能AI摄像头识别对比方法,其特征在于,对所述目标特征中的目标区域进行角点检测,以提取光流特征,包括:
计算图像I在每个像素点(x,y)处的梯度;
根据每个像素点(x,y),通过对应的梯度构建二阶矩阵,其中,/>,其中,/>是图像在x方向的梯度,Iy是图像在y方向的梯度;
对于每个像素点,通过计算角点响应函数/>,其中,是矩阵/>的行列式,/>是矩阵/>的迹,/>是经验常数;
根据角点响应函数,确定检测角点,根据检测角点,确定目标区域;
根据连续的两帧图像I(x,y,t)) 和I(x+u,y+v,t+1),确定每个像素点在连续帧之间的运动向量(u,v),其中,I表示像素强度,t和t+1表示时间戳,u和v分别是光流向量的水平和垂直分量;
确定用于衡量两帧图像之间像素点匹配程度的误差函数f(u,v),其中,,其中,/>是窗口函数;
通过优化方法确定误差函数f(u,v)最终的光流向量(u,v);
根据最终的光流向量(u,v),提取光流特征。
3.根据权利要求2所述的智能AI摄像头识别对比方法,其特征在于,根据所述光流特征,获取目标的运动状态和运动轨迹,包括:
根据光流特征,构建时间序列模型,其中,/>,/>是常数项,/>是时间序列模型的阶数,/>是时间序列模型的第i个参数,表示时刻t-i对时刻t的影响程度,/>是时间序列在时刻t-i的值,/>是随机误差项;
根据历史数据预测时间序列模型的参数;根据时间序列模型的参数预测目标在未来的运动状态;
确定状态空间模型,所述状态空间模型包括状态方程和观测方程,其中,状态方程的计算公式为:;观测方程的计算公式为:/>;其中,/>是在时刻t第/>个传感器的观测向量,/>是在时刻t第/>个观测噪声,/>是过程噪声;/>和/>分别是在时刻t和t-1的状态向量,/>是状态转移矩阵,/>是在时刻t第/>个观测矩阵;
根据确定状态空间模型,初始化滤波器的参数;根据初始化的滤波器参数,使用状态方程预测下一个时刻的状态;
根据下一个时刻的状态,使用卡尔曼滤波器预测目标的运动轨迹。
4.根据权利要求3所述的智能AI摄像头识别对比方法,其特征在于,根据所述运动状态以及运动轨迹,获取预测位置,包括:
获取目标的历史运动数据;
分析目标的运动状态,以得到分析结果;
根据分析结果,建立运动模型;
使用运动模型预测目标在未来时刻的位置。
5.根据权利要求4所述的智能AI摄像头识别对比方法,其特征在于,计算预测位置与实际位置之间的距离和角度,包括:
提取预测位置和实际位置的坐标信息;
根据应用场景和目标特性,确定每个预测位置和实际位置维度上的权重因子;
根据权重因子和坐标信息,计算预测位置与实际位置之间的距离差d,其中,,/>、/>和/>分别是x、y和z坐标维度上的权重因子,(/>,/>,/>)是预测位置坐标,(/>,/>,/>)是实际位置坐标,是与时间差异相关的权重因子,/>是时间差异;
根据预测位置坐标和实际位置坐标,计算两个向量之间夹角的余弦值,;
根据两个向量之间夹角的余弦值,通过反余弦函数计算两个向量之间的夹角。
6.根据权利要求5所述的智能AI摄像头识别对比方法,其特征在于,根据预测位置与实际位置之间的距离和角度,以及预设的匹配代价矩阵,以计算用于衡量预测位置与实际位置之间相似度的匹配代价,包括:
创建二维矩阵,其中每个元素代表特定距离和角度组合下的代价值;
确定预测位置与实际位置之间的距离和角度差异;
使用计算出的距离和角度在匹配代价矩阵中找到对应的代价值,从匹配代价矩阵中读取代价值,并进行相关的不确定性分析,以得到预测位置与实际位置之间的相似度。
7.一种智能AI摄像头识别对比系统,其特征在于,包括:
获取模块,用于提取原始图像中的目标特征,包括:对原始图像通过进行初步处理,以得到初步处理图像/>,其中,/>是原始图像数据,/>是白化矩阵,M和N分别代表图像的行数和列数,i和j是索引变量,和l是索引变量,/>是原始图像数据/>中的一个元素,表示原始图像数据中位于第i行和第j列的像素值,/>是原始图像数据/>中的一个元素,表示原始图像数据中位于第/>行和第l列的像素值;对初步处理图像通过/>进行滤波,以得到滤波数据/>,其中,/>和/>是空间坐标,表示图像中的像素位置,/>是高斯滤波器的标准差,/>是高斯滤波器的权重系数,/>是拉普拉斯滤波器/>的权重系数;根据滤波数据/>,通过/>进行目标提取,以得到目标特征,其中,/>表示输出特征图上位置(i,j)的值,K是卷积核,卷积核K的尺寸是M×N,m和n是卷积核K的索引,/>和/>表示卷积操作中的空间位置,/>是卷积核K中的一个元素,表示卷积核中位于第m行和第n列的权重值;对所述目标特征中的目标区域进行角点检测,以提取光流特征;根据所述光流特征,获取目标的运动状态和运动轨迹;根据所述运动状态以及运动轨迹,获取预测位置;
处理模块,用于计算预测位置与实际位置之间的距离和角度;根据预测位置与实际位置之间的距离和角度,以及预设的匹配代价矩阵,以计算用于衡量预测位置与实际位置之间相似度的匹配代价;根据所述匹配代价,利用匈牙利算法求解最终的匹配,以得到最终的目标位置;将最终的目标位置与预设的数据库中的位置进行对比,以得到对比结果。
8.一种计算设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1至6中任一项所述的方法。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有程序,该程序被处理器执行时实现如权利要求1至6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410258061.1A CN117854011B (zh) | 2024-03-07 | 2024-03-07 | 一种智能ai摄像头识别对比方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410258061.1A CN117854011B (zh) | 2024-03-07 | 2024-03-07 | 一种智能ai摄像头识别对比方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117854011A true CN117854011A (zh) | 2024-04-09 |
CN117854011B CN117854011B (zh) | 2024-05-03 |
Family
ID=90546867
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410258061.1A Active CN117854011B (zh) | 2024-03-07 | 2024-03-07 | 一种智能ai摄像头识别对比方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117854011B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109034024A (zh) * | 2018-07-16 | 2018-12-18 | 浙江工业大学 | 基于图像目标检测的物流车辆车型分类识别方法 |
US20180365843A1 (en) * | 2015-07-01 | 2018-12-20 | China University Of Mining And Technology | Method and system for tracking moving objects based on optical flow method |
CN110753181A (zh) * | 2019-09-29 | 2020-02-04 | 湖北工业大学 | 一种基于特征跟踪和网格路径运动的视频稳像方法 |
US20210295536A1 (en) * | 2018-11-12 | 2021-09-23 | Ping An Technology (Shenzhen) Co., Ltd. | Method, device, equipment and storage medium for locating tracked targets |
CN113887652A (zh) * | 2021-10-20 | 2022-01-04 | 西安电子科技大学 | 基于形态和多示例学习的遥感图像弱小目标检测方法 |
US11341745B1 (en) * | 2019-11-14 | 2022-05-24 | Lockheed Martin Corporation | Unresolved object target detection using a deep neural network |
CN115147385A (zh) * | 2022-07-13 | 2022-10-04 | 南京工业大学 | 一种航空孔探视频中重复损伤的智能检测和判定方法 |
CN117523461A (zh) * | 2024-01-08 | 2024-02-06 | 南京航空航天大学 | 一种基于机载单目相机的运动目标跟踪与定位方法 |
-
2024
- 2024-03-07 CN CN202410258061.1A patent/CN117854011B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180365843A1 (en) * | 2015-07-01 | 2018-12-20 | China University Of Mining And Technology | Method and system for tracking moving objects based on optical flow method |
CN109034024A (zh) * | 2018-07-16 | 2018-12-18 | 浙江工业大学 | 基于图像目标检测的物流车辆车型分类识别方法 |
US20210295536A1 (en) * | 2018-11-12 | 2021-09-23 | Ping An Technology (Shenzhen) Co., Ltd. | Method, device, equipment and storage medium for locating tracked targets |
CN110753181A (zh) * | 2019-09-29 | 2020-02-04 | 湖北工业大学 | 一种基于特征跟踪和网格路径运动的视频稳像方法 |
US11341745B1 (en) * | 2019-11-14 | 2022-05-24 | Lockheed Martin Corporation | Unresolved object target detection using a deep neural network |
CN113887652A (zh) * | 2021-10-20 | 2022-01-04 | 西安电子科技大学 | 基于形态和多示例学习的遥感图像弱小目标检测方法 |
CN115147385A (zh) * | 2022-07-13 | 2022-10-04 | 南京工业大学 | 一种航空孔探视频中重复损伤的智能检测和判定方法 |
CN117523461A (zh) * | 2024-01-08 | 2024-02-06 | 南京航空航天大学 | 一种基于机载单目相机的运动目标跟踪与定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117854011B (zh) | 2024-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Paulus et al. | Surface feature based classification of plant organs from 3D laserscanned point clouds for plant phenotyping | |
US20100278425A1 (en) | Image processing apparatus, image processing method, and computer program product | |
CN111932583A (zh) | 一种基于复杂背景下的时空信息一体化智能跟踪方法 | |
CN115995063A (zh) | 作业车辆检测与跟踪方法和系统 | |
CN109544603B (zh) | 基于深度迁移学习的目标跟踪方法 | |
CN106952293B (zh) | 一种基于非参数在线聚类的目标跟踪方法 | |
CN113111947B (zh) | 图像处理方法、装置和计算机可读存储介质 | |
CN110728694A (zh) | 一种基于持续学习的长时视觉目标跟踪方法 | |
CN115147363A (zh) | 一种基于深度学习算法的影像缺陷检测和分类方法及系统 | |
CN117115075A (zh) | 融合多方向多元宇宙局部分割的金属表面锈斑检测方法 | |
CN111462184A (zh) | 基于孪生神经网络线性表示模型的在线稀疏原型跟踪方法 | |
CN117237902B (zh) | 基于深度学习的机器人物体识别系统 | |
CN114283326A (zh) | 一种结合局部感知和高阶特征重构的水下目标重识别方法 | |
CN117854011B (zh) | 一种智能ai摄像头识别对比方法及系统 | |
Khamael et al. | Using adapted JSEG algorithm with fuzzy C mean for segmentation and counting of white blood cell and nucleus images | |
CN116719241A (zh) | 一种基于3d可视化技术的信息化智能闸门自动控制方法 | |
CN116612382A (zh) | 一种城市遥感图像目标检测方法和装置 | |
CN116071570A (zh) | 一种室内场景下的3d目标检测方法 | |
CN108664919A (zh) | 一种基于单样本的行为识别与检测方法 | |
CN115690514A (zh) | 图像识别方法及相关设备 | |
CN113850762A (zh) | 基于眼前节图像的眼病识别方法、装置、设备及存储介质 | |
Ullah et al. | Deep learning based wheat ears count in robot images for wheat phenotyping | |
CN117689880B (zh) | 基于机器学习用于生物医学图像中目标识别的方法及系统 | |
CN116861543B (zh) | 基于bim模型的脚手架力学分析方法及系统 | |
CN117671393B (zh) | 一种电气机械设备的故障监测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |