CN116883907A - 基于帧间相关性的人工智能检测方法和系统 - Google Patents
基于帧间相关性的人工智能检测方法和系统 Download PDFInfo
- Publication number
- CN116883907A CN116883907A CN202310922856.3A CN202310922856A CN116883907A CN 116883907 A CN116883907 A CN 116883907A CN 202310922856 A CN202310922856 A CN 202310922856A CN 116883907 A CN116883907 A CN 116883907A
- Authority
- CN
- China
- Prior art keywords
- inter
- target
- deep learning
- learning model
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 59
- 238000013473 artificial intelligence Methods 0.000 title claims description 14
- 238000010219 correlation analysis Methods 0.000 claims abstract description 16
- 238000007781 pre-processing Methods 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 238000013136 deep learning model Methods 0.000 claims description 37
- 238000000034 method Methods 0.000 claims description 18
- 239000013598 vector Substances 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 230000002159 abnormal effect Effects 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013524 data verification Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/247—Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于帧间相关性的人工智能检测方法和系统,通过引入帧间相关性分析,能够有效地利用视频序列中的时间信息,提高目标检测的准确性。此外,本发明通过预处理操作,可以消除视频序列中的噪声和畸变,提高系统的鲁棒性。通过将特征提取、帧间相关性分析和目标检测结合起来,本发明可以实现更准确、更高效的目标检测。
Description
技术领域
本申请涉及网络安全技术领域,尤其涉及一种基于帧间相关性的人工智能检测方法和系统。
背景技术
在当前人工智能领域中,目标检测是一个重要的研究课题。然而,现有的目标检测方法大多基于静态图像,对于视频中的目标检测尤其是动态图像中的目标检测效果不佳。因此,提出一种基于帧间相关性的人工智能检测方法与系统,以提高目标检测的准确性和鲁棒性。
发明内容
本发明的目的在于提供一种基于帧间相关性的人工智能检测方法和系统,该方法通过利用深度学习技术,对相邻帧之间的相关性进行分析,从而实现快速、准确的检测目标。
第一方面,本申请提供一种基于帧间相关性的人工智能检测方法,所述方法包括:
步骤一,对待检测的视频序列进行预处理操作,包括图像尺寸调整、帧率转换和去噪处理;
步骤二,对每一帧图像进行特征提取,提取出与目标相关的特征点阵图;
步骤三,利用深度学习模型,对相邻帧之间的相关性进行分析,以获得目标在时间上的运动信息;
所述步骤三中对相邻帧之间的相关性进行分析,包括:将所述提取出与目标相关的特征点阵图作为输入项,针对前后两个输入项分别搭建两个三层结构,每一层的大小是上一层大小的一半,每一层结构分别用于计算层大小范围内所有特征点的最小二乘法多项式展开,得到拟合结果,传递到下一层结构;重复上述操作,直至传递到最后一层结构,输出最后的拟合点阵图,计算前后两个输入项对应的两个拟合点阵图之间的偏移矢量,输出所述待检测的视频序列的帧间特征;计算多个帧间特征之间的欧氏距离,根据多个欧氏距离获得目标在时间上的运动信息;
步骤四,结合特征提取和帧间相关性分析结果,使用深度学习模型进行目标检测;
所述步骤四中使用深度学习模型进行目标检测,包括:所述深度学习模型根据多个欧氏距离计算彼此之间的对比损失函数,预测对比损失的值的变化趋势,并将该变化趋势与所述步骤三得到的目标在时间上的运动信息进行比较,如果两者匹配成功则认定为检测正常,确定分类结果,反之如果两者匹配失败则认定为检测异常,发出提示信息;
根据所述分类结果或提示信息进行管控。
第二方面,本申请提供一种基于帧间相关性的人工智能检测系统,所述系统包括:
预处理模块,用于对待检测的视频序列进行预处理操作,包括图像尺寸调整、帧率转换和去噪处理;
特征提取模块,用于对每一帧图像进行特征提取,提取出与目标相关的特征点阵图;
帧间相关性分析模块,用于利用深度学习模型,对相邻帧之间的相关性进行分析,以获得目标在时间上的运动信息;
所述帧间相关性分析模块中对相邻帧之间的相关性进行分析,包括:将所述提取出与目标相关的特征点阵图作为输入项,针对前后两个输入项分别搭建两个三层结构,每一层的大小是上一层大小的一半,每一层结构分别用于计算层大小范围内所有特征点的最小二乘法多项式展开,得到拟合结果,传递到下一层结构;重复上述操作,直至传递到最后一层结构,输出最后的拟合点阵图,计算前后两个输入项对应的两个拟合点阵图之间的偏移矢量,输出所述待检测的视频序列的帧间特征;计算多个帧间特征之间的欧氏距离,根据多个欧氏距离获得目标在时间上的运动信息;
目标检测模块,用于结合特征提取和帧间相关性分析结果,使用深度学习模型进行目标检测;
所述目标检测模块中使用深度学习模型进行目标检测,包括:所述深度学习模型根据多个欧氏距离计算彼此之间的对比损失函数,预测对比损失的值的变化趋势,并将该变化趋势与所述步骤三得到的目标在时间上的运动信息进行比较,如果两者匹配成功则认定为检测正常,确定分类结果,反之如果两者匹配失败则认定为检测异常,发出提示信息;
执行模块,用于根据所述分类结果或提示信息进行管控。
第三方面,本申请提供一种基于帧间相关性的人工智能检测系统,所述系统包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行第一方面四种可能中任一项所述的方法。
第四方面,本申请提供一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行第一方面四种可能中任一项所述的方法。
有益效果
本发明提供一种基于帧间相关性的人工智能检测方法和系统,通过引入帧间相关性分析,能够有效地利用视频序列中的时间信息,提高目标检测的准确性。此外,本发明通过预处理操作,可以消除视频序列中的噪声和畸变,提高系统的鲁棒性。通过将特征提取、帧间相关性分析和目标检测结合起来,本发明可以实现更准确、更高效的目标检测。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于帧间相关性的人工智能检测方法的大致流程图;
图2为本发明基于帧间相关性的人工智能检测系统的架构图。
具体实施方式
下面结合附图对本发明的优选实施例进行详细阐述,以使本发明的优点和特征能更易于被本领域技术人员理解,从而对本发明的保护范围做出更为清楚明确的界定。
图1为本申请提供的基于帧间相关性的人工智能检测方法的大致流程图,所述方法包括:
步骤一,对待检测的视频序列进行预处理操作,包括图像尺寸调整、帧率转换和去噪处理;
首先,对待检测的视频序列进行预处理操作。预处理操作包括将视频序列的图像尺寸调整为模型所需的大小,如常用的640x640像素;然后进行帧率转换,以确保每帧图像的间隔时间一致;最后进行去噪处理,以消除图像中的噪声和畸变。
步骤二,对每一帧图像进行特征提取,提取出与目标相关的特征点阵图;
所述特征提取包括对每一帧图像进行特征提取。特征提取通过深度学习模型如卷积神经网络(CNN)进行。对于每一帧图像,CNN模型将其转换为一组向量或特征表示,形成特征点阵图。这些特征应包含目标的形状、大小、纹理等关键信息。
步骤三,利用深度学习模型,对相邻帧之间的相关性进行分析,以获得目标在时间上的运动信息;
所述步骤三中对相邻帧之间的相关性进行分析,包括:将所述提取出与目标相关的特征点阵图作为输入项,针对前后两个输入项分别搭建两个三层结构,每一层的大小是上一层大小的一半,每一层结构分别用于计算层大小范围内所有特征点的最小二乘法多项式展开,得到拟合结果,传递到下一层结构;重复上述操作,直至传递到最后一层结构,输出最后的拟合点阵图,计算前后两个输入项对应的两个拟合点阵图之间的偏移矢量,输出所述待检测的视频序列的帧间特征;计算多个帧间特征之间的欧氏距离,根据多个欧氏距离获得目标在时间上的运动信息;
通过这种方式,可以获得目标在时间上的运动信息,如目标的运动速度、方向等。搭建这样的三层结构可以快速地捕获移动幅度较大的物体。
步骤四,结合特征提取和帧间相关性分析结果,使用深度学习模型进行目标检测;
所述步骤四中使用深度学习模型进行目标检测,包括:所述深度学习模型根据多个欧氏距离计算彼此之间的对比损失函数,预测对比损失的值的变化趋势,并将该变化趋势与所述步骤三得到的目标在时间上的运动信息进行比较,如果两者匹配成功则认定为检测正常,确定分类结果,反之如果两者匹配失败则认定为检测异常,发出提示信息;
根据所述分类结果或提示信息进行管控。
在一些优选实施例中,训练所述深度学习模型时,通过反向的传播方式来最小化熵损失函数,避免过饱和,当所述深度学习模型的精度满足阈值的要求,则表明该深度学习模型训练完成。然后可用于数据验证。
在一些优选实施例中,所述计算层大小范围内所有特征点的最小二乘法多项式展开,包括:根据每个特征点附近领域内的其他特征点的值和坐标,确定每个特征点的权重,再用多项式对该特征点的坐标进行展开。
在一些优选实施例中,所述附近领域是指在层大小范围内设定一个(2n+1)*(2n+1)的领域,用该领域中的(2n+1)平方个点作为最小二乘法的样本点进行拟合,所述n为整数。
拟合后,还可以通过参数向量计算和局部模糊化处理,进一步加强三层结构之间的流动捕获,使得捕获的帧间向量的数据结构与帧内向量的数据结构一一对应。
图2为本申请提供的基于帧间相关性的人工智能检测系统的架构图,所述系统包括:
预处理模块,用于对待检测的视频序列进行预处理操作,包括图像尺寸调整、帧率转换和去噪处理;
特征提取模块,用于对每一帧图像进行特征提取,提取出与目标相关的特征点阵图;
帧间相关性分析模块,用于利用深度学习模型,对相邻帧之间的相关性进行分析,以获得目标在时间上的运动信息;
所述帧间相关性分析模块中对相邻帧之间的相关性进行分析,包括:将所述提取出与目标相关的特征点阵图作为输入项,针对前后两个输入项分别搭建两个三层结构,每一层的大小是上一层大小的一半,每一层结构分别用于计算层大小范围内所有特征点的最小二乘法多项式展开,得到拟合结果,传递到下一层结构;重复上述操作,直至传递到最后一层结构,输出最后的拟合点阵图,计算前后两个输入项对应的两个拟合点阵图之间的偏移矢量,输出所述待检测的视频序列的帧间特征;计算多个帧间特征之间的欧氏距离,根据多个欧氏距离获得目标在时间上的运动信息;
目标检测模块,用于结合特征提取和帧间相关性分析结果,使用深度学习模型进行目标检测;
所述目标检测模块中使用深度学习模型进行目标检测,包括:所述深度学习模型根据多个欧氏距离计算彼此之间的对比损失函数,预测对比损失的值的变化趋势,并将该变化趋势与所述步骤三得到的目标在时间上的运动信息进行比较,如果两者匹配成功则认定为检测正常,确定分类结果,反之如果两者匹配失败则认定为检测异常,发出提示信息;
执行模块,用于根据所述分类结果或提示信息进行管控。
本申请提供一种基于帧间相关性的人工智能检测系统,所述系统包括:所述系统包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行第一方面所有实施例中任一项所述的方法。
本申请提供一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行第一方面所有实施例中任一项所述的方法。
具体实现中,本发明还提供一种计算机存储介质,其中,该计算机存储介质可以存储有程序,该程序执行时可包括本发明各个实施例中的部分或全部步骤。所述的存储介质可以为磁碟、光盘、只读存储记忆体(简称:ROM)或随机存储记忆体(简称:RAM)等。
本领域的技术人员可以清楚地了解到本发明实施例中的技术可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明实施例中的技术方案本质上或者对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
本说明书各个实施例之间相同相似的部分互相参见即可。尤其,对于实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例中的说明即可。
以上所述的本发明实施方式并不构成对本发明保护范围的限定。
Claims (7)
1.一种基于帧间相关性的人工智能检测方法,其特征在于,所述方法包括:
步骤一,对待检测的视频序列进行预处理操作,包括图像尺寸调整、帧率转换和去噪处理;
步骤二,对每一帧图像进行特征提取,提取出与目标相关的特征点阵图;
步骤三,利用深度学习模型,对相邻帧之间的相关性进行分析,以获得目标在时间上的运动信息;
所述步骤三中对相邻帧之间的相关性进行分析,包括:将所述提取出与目标相关的特征点阵图作为输入项,针对前后两个输入项分别搭建两个三层结构,每一层的大小是上一层大小的一半,每一层结构分别用于计算层大小范围内所有特征点的最小二乘法多项式展开,得到拟合结果,传递到下一层结构;重复上述操作,直至传递到最后一层结构,输出最后的拟合点阵图,计算前后两个输入项对应的两个拟合点阵图之间的偏移矢量,输出所述待检测的视频序列的帧间特征;计算多个帧间特征之间的欧氏距离,根据多个欧氏距离获得目标在时间上的运动信息;
步骤四,结合特征提取和帧间相关性分析结果,使用深度学习模型进行目标检测;
所述步骤四中使用深度学习模型进行目标检测,包括:所述深度学习模型根据多个欧氏距离计算彼此之间的对比损失函数,预测对比损失的值的变化趋势,并将该变化趋势与所述步骤三得到的目标在时间上的运动信息进行比较,如果两者匹配成功则认定为检测正常,确定分类结果,反之如果两者匹配失败则认定为检测异常,发出提示信息;
根据所述分类结果或提示信息进行管控。
2.根据权利要求1所述的方法,其特征在于:训练所述深度学习模型时,通过反向的传播方式来最小化熵损失函数,避免过饱和,当所述深度学习模型的精度满足阈值的要求,则表明该深度学习模型训练完成。
3.根据权利要求1所述的方法,其特征在于:所述计算层大小范围内所有特征点的最小二乘法多项式展开,包括:根据每个特征点附近领域内的其他特征点的值和坐标,确定每个特征点的权重,再用多项式对该特征点的坐标进行展开。
4.根据权利要求3所述的方法,其特征在于:所述附近领域是指在层大小范围内设定一个(2n+1)*(2n+1)的领域,用该领域中的(2n+1)平方个点作为最小二乘法的样本点进行拟合,所述n为整数。
5.一种基于帧间相关性的人工智能检测系统,其特征在于,所述系统包括:
预处理模块,用于对待检测的视频序列进行预处理操作,包括图像尺寸调整、帧率转换和去噪处理;
特征提取模块,用于对每一帧图像进行特征提取,提取出与目标相关的特征点阵图;
帧间相关性分析模块,用于利用深度学习模型,对相邻帧之间的相关性进行分析,以获得目标在时间上的运动信息;
所述帧间相关性分析模块中对相邻帧之间的相关性进行分析,包括:将所述提取出与目标相关的特征点阵图作为输入项,针对前后两个输入项分别搭建两个三层结构,每一层的大小是上一层大小的一半,每一层结构分别用于计算层大小范围内所有特征点的最小二乘法多项式展开,得到拟合结果,传递到下一层结构;重复上述操作,直至传递到最后一层结构,输出最后的拟合点阵图,计算前后两个输入项对应的两个拟合点阵图之间的偏移矢量,输出所述待检测的视频序列的帧间特征;计算多个帧间特征之间的欧氏距离,根据多个欧氏距离获得目标在时间上的运动信息;
目标检测模块,用于结合特征提取和帧间相关性分析结果,使用深度学习模型进行目标检测;
所述目标检测模块中使用深度学习模型进行目标检测,包括:所述深度学习模型根据多个欧氏距离计算彼此之间的对比损失函数,预测对比损失的值的变化趋势,并将该变化趋势与所述步骤三得到的目标在时间上的运动信息进行比较,如果两者匹配成功则认定为检测正常,确定分类结果,反之如果两者匹配失败则认定为检测异常,发出提示信息;
执行模块,用于根据所述分类结果或提示信息进行管控。
6.一种基于帧间相关性的人工智能检测系统,其特征在于,所述系统包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行实现权利要求1-4任一项所述的方法。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行实现权利要求1-4任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310922856.3A CN116883907A (zh) | 2023-07-26 | 2023-07-26 | 基于帧间相关性的人工智能检测方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310922856.3A CN116883907A (zh) | 2023-07-26 | 2023-07-26 | 基于帧间相关性的人工智能检测方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116883907A true CN116883907A (zh) | 2023-10-13 |
Family
ID=88264246
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310922856.3A Pending CN116883907A (zh) | 2023-07-26 | 2023-07-26 | 基于帧间相关性的人工智能检测方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116883907A (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180046902A1 (en) * | 2016-08-09 | 2018-02-15 | Palo Alto Research Center Incorporated | Enhanced restricted boltzmann machine with prognosibility regularization for prognostics and health assessment |
US20190333198A1 (en) * | 2018-04-25 | 2019-10-31 | Adobe Inc. | Training and utilizing an image exposure transformation neural network to generate a long-exposure image from a single short-exposure image |
CN110853074A (zh) * | 2019-10-09 | 2020-02-28 | 天津大学 | 一种利用光流增强目标的视频目标检测网络系统 |
US20210125583A1 (en) * | 2019-10-24 | 2021-04-29 | Facebook Technologies, Llc | Neural Reconstruction of Sequential Frames |
CN114612820A (zh) * | 2022-03-01 | 2022-06-10 | 中山大学 | 一种基于类别感知特征聚合的视频目标检测方法 |
CN114863249A (zh) * | 2022-04-01 | 2022-08-05 | 浙江大学 | 基于运动特征和外观特征的视频目标检测及域适应方法 |
CN115272407A (zh) * | 2022-06-24 | 2022-11-01 | 浙江华锐捷技术有限公司 | 一种目标对象的运动轨迹确定方法及装置 |
CN115273146A (zh) * | 2022-07-18 | 2022-11-01 | 闽江学院 | 一种基于改进ssd模型的自动扶梯乘客姿态异常检测方法 |
-
2023
- 2023-07-26 CN CN202310922856.3A patent/CN116883907A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180046902A1 (en) * | 2016-08-09 | 2018-02-15 | Palo Alto Research Center Incorporated | Enhanced restricted boltzmann machine with prognosibility regularization for prognostics and health assessment |
US20190333198A1 (en) * | 2018-04-25 | 2019-10-31 | Adobe Inc. | Training and utilizing an image exposure transformation neural network to generate a long-exposure image from a single short-exposure image |
CN110853074A (zh) * | 2019-10-09 | 2020-02-28 | 天津大学 | 一种利用光流增强目标的视频目标检测网络系统 |
US20210125583A1 (en) * | 2019-10-24 | 2021-04-29 | Facebook Technologies, Llc | Neural Reconstruction of Sequential Frames |
CN114612820A (zh) * | 2022-03-01 | 2022-06-10 | 中山大学 | 一种基于类别感知特征聚合的视频目标检测方法 |
CN114863249A (zh) * | 2022-04-01 | 2022-08-05 | 浙江大学 | 基于运动特征和外观特征的视频目标检测及域适应方法 |
CN115272407A (zh) * | 2022-06-24 | 2022-11-01 | 浙江华锐捷技术有限公司 | 一种目标对象的运动轨迹确定方法及装置 |
CN115273146A (zh) * | 2022-07-18 | 2022-11-01 | 闽江学院 | 一种基于改进ssd模型的自动扶梯乘客姿态异常检测方法 |
Non-Patent Citations (4)
Title |
---|
YANG XIAO ET AL.: "Dor: Detecting Deepfake videos Using the Dissonance between Intra- and Inter-Frame Maps", 《SOCIAL SCIENCE RESEARCH》, 29 June 2022 (2022-06-29), pages 1 - 10 * |
毋建军等: "《Python数据分析、挖掘与可视化》", 31 August 2021, 机械工业出版社, pages: 244 * |
王宇凡: "基于帧间相关性的视频中行人检测", 《中国优秀博硕士学位论文全文数据库(硕士)》, 15 January 2023 (2023-01-15), pages 1 - 78 * |
肖扬: "基于帧内帧间特征差异化的深度伪造视频检测技术", 《中国优秀博硕士学位论文全文数据库(硕士)》, no. 2, 15 February 2023 (2023-02-15), pages 1 - 48 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11450146B2 (en) | Gesture recognition method, apparatus, and device | |
CN110120064B (zh) | 一种基于互强化与多注意机制学习的深度相关目标跟踪算法 | |
CN112668483B (zh) | 一种融合行人重识别和人脸检测的单目标人物跟踪方法 | |
CN111639692A (zh) | 一种基于注意力机制的阴影检测方法 | |
CN109101897A (zh) | 水下机器人的目标检测方法、系统及相关设备 | |
CN112464807A (zh) | 视频动作识别方法、装置、电子设备和存储介质 | |
CN110084130B (zh) | 基于多目标跟踪的人脸筛选方法、装置、设备及存储介质 | |
CN111784624B (zh) | 目标检测方法、装置、设备及计算机可读存储介质 | |
CN111814744A (zh) | 一种人脸检测方法、装置、电子设备和计算机存储介质 | |
CN109325440A (zh) | 人体动作识别方法及系统 | |
CN110909591A (zh) | 用编码向量的行人图像检测自适应非极大值抑制处理方法 | |
CN110399826B (zh) | 一种端到端人脸检测和识别方法 | |
CN111191535B (zh) | 基于深度学习的行人检测模型构建方法及行人检测方法 | |
CN113920170A (zh) | 结合场景上下文和行人社会关系的行人轨迹预测方法、系统及存储介质 | |
CN115588030B (zh) | 基于孪生网络的视觉目标跟踪方法及设备 | |
CN112084952B (zh) | 一种基于自监督训练的视频点位跟踪方法 | |
CN114694261A (zh) | 一种基于多级监督图卷积的视频三维人体姿态估计方法及系统 | |
CN116168329A (zh) | 基于关键帧筛选像素块的视频动作检测方法、设备及介质 | |
Xu et al. | Feature extraction algorithm of basketball trajectory based on the background difference method | |
CN116934796B (zh) | 基于孪生残差注意力聚合网络的视觉目标跟踪方法 | |
CN116935189B (zh) | 一种基于神经网络的伪装目标检测方法、装置及存储介质 | |
CN111881775B (zh) | 一种人脸实时识别方法和装置 | |
CN116468980A (zh) | 深度融合边缘细节与深层特征的红外小目标检测方法及装置 | |
CN116883907A (zh) | 基于帧间相关性的人工智能检测方法和系统 | |
CN117011766B (zh) | 基于帧内差异化的人工智能检测方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |