CN113888591A - 一种分布式边缘计算和机器学习的目标追踪系统及其方法 - Google Patents
一种分布式边缘计算和机器学习的目标追踪系统及其方法 Download PDFInfo
- Publication number
- CN113888591A CN113888591A CN202111120527.4A CN202111120527A CN113888591A CN 113888591 A CN113888591 A CN 113888591A CN 202111120527 A CN202111120527 A CN 202111120527A CN 113888591 A CN113888591 A CN 113888591A
- Authority
- CN
- China
- Prior art keywords
- image
- value
- target tracking
- edge
- optimal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000004364 calculation method Methods 0.000 title claims abstract description 35
- 238000010801 machine learning Methods 0.000 title claims abstract description 13
- 238000009499 grossing Methods 0.000 claims abstract description 25
- 238000000605 extraction Methods 0.000 claims abstract description 22
- 230000006870 function Effects 0.000 claims abstract description 22
- 239000002245 particle Substances 0.000 claims abstract description 21
- 230000008447 perception Effects 0.000 claims abstract description 17
- 230000008859 change Effects 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 claims abstract description 13
- 238000005457 optimization Methods 0.000 claims abstract description 12
- 238000006073 displacement reaction Methods 0.000 claims abstract description 7
- 230000008569 process Effects 0.000 claims description 15
- 230000000694 effects Effects 0.000 claims description 10
- 238000012544 monitoring process Methods 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 4
- 230000001133 acceleration Effects 0.000 claims description 3
- 125000004122 cyclic group Chemical group 0.000 claims description 3
- 238000010586 diagram Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000012806 monitoring device Methods 0.000 claims description 2
- 230000005012 migration Effects 0.000 abstract description 4
- 238000013508 migration Methods 0.000 abstract description 4
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration using non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20064—Wavelet transform [DWT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于分布式边缘计算与机器学习相结合的目标追踪方法:步骤S1,采用分布式粒子滤波算法对目标追踪系统提供的初始化图像信息进行优化边缘计算,获得图像最优值;步骤S2,通过特征提取模型的相关滤波器对图像最优值进行融合获得图像特征值;步骤S3,通过小波平滑的背景感知相关滤波器对图像特征值融合生成目标追踪图像;加入小波函数实现位移与尺度变化平滑提高了图像处理的稳定性,解决目标尺度更改导致无法追踪的问题;同时,该方法基于分布式边缘计算,采用分布式粒子滤波算法优化边缘计算,输出最优分布和方差,将计算任务部分卸载或全部卸载至边缘云,通过提前迁移决策减少边缘计算和低端节点消耗。
Description
技术领域
本发明属于基于目标追踪的安防监控技术领域,尤其涉及一种分布式边缘计算和机器学习的目标追踪系统及其方法。
背景技术
针对于安防监控,无法应对光照变化、目标尺度更改与目标遮挡时的实时追踪,主要体现在目标特征提取的算法具有局限性,采用单一的对相关滤波器的改进与机器学习方法提取特征,存在静态识别无法动态跟随目标变化的弊端;针对单一的计算设备,计算能力较弱的缺点一直是目标追踪的发展瓶颈。因此针对上述问题提出一种基于分布式边缘计算与机器学习相结合的目标追踪方法。
发明内容
针对现有技术存在问题,本发明提供一种基于分布式边缘计算与机器学习相结合的目标追踪方法,该方法该基于背景感知相关滤波器,加入小波函数实现位移与尺度变化平滑提高了图像处理的稳定性,解决目标尺度更改导致无法追踪的问题;同时,该方法基于分布式边缘计算,采用分布式粒子滤波算法优化边缘计算,输出最优分布和方差,将计算任务部分卸载或全部卸载至边缘云,通过提前迁移决策减少边缘计算和低端节点消耗。
本发明采用如下技术方案实施:
一种基于分布式边缘计算与机器学习相结合的目标追踪方法,包括如下步骤:
步骤S1,采用分布式粒子滤波算法对网络协同系统提供的初始化图像信息进行优化边缘计算,获得图像最优值;
步骤S2,通过特征提取模型的相关滤波器对图像最优值进行融合获得图像特征值;
步骤S3,通过小波平滑的背景感知相关滤波器对图像特征值融合生成目标追踪图像;其中:所述小波平滑的背景感知相关滤波器通过目标追踪算法生成目标追踪图像包括如下步骤:
301、对输入的图像特征值,从整张图片中截取目标大小的样本用于训练,通过真实移位产生的样本代替通过循环矩阵所产生的样本进行模型训练获得第一图像样本集;
302、采用在线自适应策略滑动对第一样本集进行处理获得第二图像样本集;
303、采用背景感知相关滤波器的小波函数对第二图像样本集进行平滑处理生成小波核图像函数G;所述小波函数通过如下公式卷积获得:
将窗口设置为5*5,过程如下式所示:
k、m代表滑块的移动范围(-2,2),平滑效果由σc的大小决定,取一个σc值进行卷积,得到特征平滑效果,若处理结果未达到预期结果则另取σc值,直到取得处理结果达到预期值。
进一步,所述步骤S1中采用分布式粒子滤波算法对网络协同系统提供的初始化图像信息进行优化边缘计算过程:
101、所述边缘节点计算单元对监控设备提供初始化图像数据进行粒子滤波计算获得图像最优值;
102、所述最优值获得过程:
选择图像信息中第一帧图像像素作为初始点位置,记录该点的速度,记该点的当前位置xi和速度vi;
找到最优位置P′,全局最优位置是P′id,t,局部最优位置是P′gd,t,粒子迭代的位置和速度分别是xi,t+1和vi,t+1;计算过程如下式所示;
xi,t+1=xi,t+β·vi,t+1,1≤i≤n
103、判断输入图像数据是否小于图像最优值,满足条件;则另该图像数据为图像最优值输入图像云计算中心,否则返回步骤101。
进一步,所述步骤S2中特征提取模型建立过程;
201、搭建VGG-Net-19特征提取网络,所述特征提取网络包括一个3x3卷积核,一个全连接层连接这个3x3卷积输出;
202、通过如下随机梯度算法对所述特征提取网络进行优化获得特征提取模型;
有益效果
本发明分布式粒子滤波算法优化边缘计算,通过部分卸载和全部卸载边缘节云处理,提前迁移决策减少边缘计算和低端节点消耗。提出一种随机梯度优化VGG-Net-19网络进行特征滤波器提取的方法,能够充分考虑复杂情况(背景图像与前景目标混淆)对目标追踪带来的影响,基于小波平滑的背景感知相关滤波器的目标追踪算法,在满足追踪精度的前提下能够克服相邻图像间同一目标发生形变以及尺度变化的问题,最终实现安防监控精度和实时性。
附图说明
图1是分布式边缘计算图;
图2是基于分布式边缘计算的目标追踪整体流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图与实例对本发明做详细的论述,以下实施例只是描述性的,不是限定性的,不能以此限定本发明的保护范围。
如图1所示,为本发明的分布式边缘计算图,目标追踪的网络协同系统主要由监控设备、边缘节点计算单元、图像目标识别单元和云计算中心四部分组成。监控设备获取实时的目标移动视频流,以每帧图像形式输入边缘节点计算单元,结合图2,通过粒子群优化算法计算输入每帧图像的最优值(以图像像素信息复杂程度当作判断标准),将大于最优值的图像送入边缘计算,反之送入后台计算中心,边缘计算的结果可以直接与检测终端互动,也可以传入后台计算中心。边缘计算采取进行分布式运算,通过部分卸载和全部卸载的方式,减轻后台计算中心搬运与节点能耗,提高处理效率。其中图像目标追踪单元通过如下步骤可以对边缘节点计算单元、云计算中心回传图像数据进行快速追踪,所述图像目标追踪单元是基于分布式边缘计算与机器学习相结合实现目标追踪,包括如下步骤:
步骤S1,采用分布式粒子滤波算法对网络协同系统提供的初始化图像信息进行优化边缘计算,获得图像最优值;其中:所述分布式粒子滤波算法流程如下:
101、所述边缘节点计算单元对监控设备提供初始化图像数据进行粒子滤波计算获得图像最优值,所述边缘节点计算单元在边缘计算时将多余的计算任务部分卸载或全部卸载至边缘云,通过提前迁移决策减少边缘计算和低端节点消耗。
102、所述最优值获得过程:
进行选择第一帧图像像素作为初始点位置,记录该点的速度,记该点的当前位置xi和速度vi;
找到最优位置P′,全局最优位置是P′id,t,局部最优位置是P′gd,t,粒子迭代的位置和速度分别是xi,t+1和vi,t+1;计算过程如式(1)、(2)所示:
xi,t+1=xi,t+β·vi,t+1,1≤i≤n (1)
103、判断输入图像数据是否小于图像最优值,满足条件;则另该图像数据为图像最优值输入图像云计算中心,否则返回步骤101。
步骤S2,通过特征提取模型的相关滤波器对图像最优值进行融合获得图像特征值;搭建特征提取模型,采用VGG-Net-19网络,采用随机梯度优化,根据每个卷积层输出的特征图谱学习特征相关滤波器,将得到的相关滤波器进行特征融合。
特征提取模型的搭建流程如下:
201、搭建VGG-Net-19特征提取网络,所述特征提取网络包括一个3x3卷积核,一个全连接层连接这个3x3卷积输出;当做一个3x3卷积层,两个3x3卷积级联(叠加)起来代替一个5x5卷积,设置各卷积层参数;用小卷积代替大卷积减少少计算代价,多层非线性层可以增加网络深度。提取训练图像数据,利用随机梯度对搭建好的特征提取网络进行优化,将获取特征的16个卷积层保留作为特征提取初步结果,VGG-Net-19网络的三个全连接层去除。
202、通过如下随机梯度算法对所述特征提取网络进行优化获得特征提取模型;
步骤S3:基于小波平滑的背景感知相关滤波器的目标追踪算法,在背景感知相关滤波器基础上加入小波函数实现位移与尺度变化平滑,与VGG-Net-19网络得到的相关滤波器进行融合,对特征进行识别定位,进而实现目标追踪。基于小波平滑的背景感知相关滤波器的目标追踪算法步骤如下:
301、基于背景感知相关滤波器算法原理,对输入的图像特征,从整张图片中截取目标大小的样本用于训练,通过真实移位产生的样本代替通过循环矩阵所产生的样本进行模型训练获得第一图像样本集,从而可以利用全部背景信息,使得滤波器的判别能力更强。
302、基于背景感知相关滤波器算法原理,采用在线自适应策略滑动对第一样本集进行处理获得第二图像样本集;其中:采用在线自适应策略滑动更新输入的第一样本集;针对相邻图像间同一目标发生形变以及尺度变化的问题,利用小波函数对背景感知相关滤波器进行平滑处理,保证相关滤波器的动态变化在一定的可控范围内,减少由于目标受外界影响尺度变化大带来的追踪定位误差。
303、采用背景感知相关滤波器的小波函数对第二图像样本集进行平滑处理生成小波核图像函数G;G是小波核函数,基于背景感知相关滤波器的平滑通过小波滤波进行卷积得到。
小波平滑的过程如式(6)、(7)所示:
k、m代表滑块的移动范围(-2,2),平滑效果由σc的大小决定,取一个σc值进行卷积,得到特征平滑效果,若处理结果未达到预期结果则另取σc值,直到取得处理结果达到预期值。
304、通过基于小波平滑的背景感知相关滤波器的目标追踪算法,实现实时追踪目标,提高目标追踪的精确度。
本发明并不限于上文描述的实施方式。以上对具体实施方式的描述旨在描述和说明本发明的技术方案,上述的具体实施方式仅仅是示意性的,并不是限制性的。在不脱离本发明宗旨和权利要求所保护的范围情况下,本领域的普通技术人员在本发明的启示下还可做出很多形式的具体变换,这些均属于本发明的保护范围之内。
Claims (5)
1.一种基于分布式边缘计算与机器学习相结合的目标追踪方法:其特征在于:
步骤S1,采用分布式粒子滤波算法对目标追踪系统提供的初始化图像信息进行优化边缘计算,获得图像最优值;
步骤S2,通过特征提取模型的相关滤波器对图像最优值进行融合获得图像特征值;
步骤S3,通过小波平滑的背景感知相关滤波器对图像特征值融合生成目标追踪图像;其中:所述小波平滑的背景感知相关滤波器通过目标追踪算法生成目标追踪图像包括如下步骤:
301、对输入的图像特征值,从整张图片中截取目标大小的样本用于训练,通过真实移位产生的样本代替通过循环矩阵所产生的样本进行模型训练获得第一图像样本集;
302、采用在线自适应策略滑动对第一样本集进行处理获得第二图像样本集;
303、采用背景感知相关滤波器的小波函数对第二图像样本集进行平滑处理生成小波核图像函数G;所述小波函数通过如下公式卷积获得:
将窗口设置为5*5,过程如下式所示:
k、m代表滑块的移动范围(-2,2),平滑效果由σc的大小决定,取一个σc值进行卷积,得到特征平滑效果,若处理结果未达到预期结果则另取σc值,直到取得处理结果达到预期值。
2.根据权利要求1所述的一种基于分布是边缘计算与机器学习相结合的目标追踪方法,其特征在于:所述步骤S1中采用分布式粒子滤波算法对网络协同系统提供的初始化图像信息进行优化边缘计算过程:
101、所述边缘节点计算单元对监控设备提供初始化图像数据进行粒子滤波计算获得图像最优值;
102、所述最优值获得过程:
选择图像信息中第一帧图像像素作为初始点位置,记录该点的速度,记该点的当前位置xi和速度vi;
找到最优位置P′,全局最优位置是P′id,t,局部最优位置是P′gd,t,粒子迭代的位置和速度分别是xi,t+1和vi,t+1;计算过程如下式所示;
xi,t+1=xi,t+β·vi,t+1,1≤i≤n
103、判断输入图像数据是否小于图像最优值,满足条件;则另该图像数据为图像最优值输入图像云计算中心,否则返回步骤101。
4.一种基于分布式边缘计算与机器学习相结合的目标追踪系统:所述目标追踪系统由监控设备、边缘节点计算单元、图像目标识别单元和云计算中心构成,其特征在于:
所述监控设备获取实时的目标移动视频流,以每帧图像形式输入边缘节点计算单元;
所述边缘节点计算单元通过粒子群优化算法计算输出图像最优值;
图像目标识别单元判断每帧图像值;若每帧图像值小于图像最优值则送入云计算中心,否则边缘节点计算单元。
5.根据权利要求4所述的一种基于分布式边缘计算与机器学习相结合的目标追踪系统:其特征在于:所述目标追踪系统采用如权利要求1-3所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111120527.4A CN113888591B (zh) | 2021-09-24 | 2021-09-24 | 一种分布式边缘计算和机器学习的目标追踪系统及其方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111120527.4A CN113888591B (zh) | 2021-09-24 | 2021-09-24 | 一种分布式边缘计算和机器学习的目标追踪系统及其方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113888591A true CN113888591A (zh) | 2022-01-04 |
CN113888591B CN113888591B (zh) | 2024-07-12 |
Family
ID=79006353
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111120527.4A Active CN113888591B (zh) | 2021-09-24 | 2021-09-24 | 一种分布式边缘计算和机器学习的目标追踪系统及其方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113888591B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101414670B1 (ko) * | 2013-01-02 | 2014-07-04 | 계명대학교 산학협력단 | 온라인 랜덤 포레스트 및 파티클 필터를 이용한 열 영상에서의 객체 추적 방법 |
CN107909008A (zh) * | 2017-10-29 | 2018-04-13 | 北京工业大学 | 基于多通道卷积神经网络和粒子滤波的视频目标跟踪方法 |
CN110889864A (zh) * | 2019-09-03 | 2020-03-17 | 河南理工大学 | 一种基于双层深度特征感知的目标跟踪方法 |
KR102175491B1 (ko) * | 2019-05-08 | 2020-11-06 | 군산대학교산학협력단 | 상관 필터 기반 객체 추적 방법 |
CN112418420A (zh) * | 2019-08-20 | 2021-02-26 | 明日基金知识产权控股有限公司 | 通过多源实时以及背景感知的现实世界数据来实现虚拟智能化及优化 |
CN112762841A (zh) * | 2020-12-30 | 2021-05-07 | 天津大学 | 一种基于多分辨率深度特征的桥梁动位移监测系统及方法 |
-
2021
- 2021-09-24 CN CN202111120527.4A patent/CN113888591B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101414670B1 (ko) * | 2013-01-02 | 2014-07-04 | 계명대학교 산학협력단 | 온라인 랜덤 포레스트 및 파티클 필터를 이용한 열 영상에서의 객체 추적 방법 |
CN107909008A (zh) * | 2017-10-29 | 2018-04-13 | 北京工业大学 | 基于多通道卷积神经网络和粒子滤波的视频目标跟踪方法 |
KR102175491B1 (ko) * | 2019-05-08 | 2020-11-06 | 군산대학교산학협력단 | 상관 필터 기반 객체 추적 방법 |
CN112418420A (zh) * | 2019-08-20 | 2021-02-26 | 明日基金知识产权控股有限公司 | 通过多源实时以及背景感知的现实世界数据来实现虚拟智能化及优化 |
CN110889864A (zh) * | 2019-09-03 | 2020-03-17 | 河南理工大学 | 一种基于双层深度特征感知的目标跟踪方法 |
CN112762841A (zh) * | 2020-12-30 | 2021-05-07 | 天津大学 | 一种基于多分辨率深度特征的桥梁动位移监测系统及方法 |
Non-Patent Citations (2)
Title |
---|
吴熙;徐庆;卜红娟;王征;: "基于Metropolis光线跟踪的组合滤波器", 计算机应用, no. 09, 10 September 2016 (2016-09-10) * |
朱明强;侯建军;刘颖;李旭;田洪娟: "适于无线传感网络目标追踪的一种改进无迹粒子滤波时延差估计算法", 兵工学报, vol. 36, no. 7, 31 December 2015 (2015-12-31) * |
Also Published As
Publication number | Publication date |
---|---|
CN113888591B (zh) | 2024-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107133943B (zh) | 一种防震锤缺陷检测的视觉检测方法 | |
CN110210551B (zh) | 一种基于自适应主体敏感的视觉目标跟踪方法 | |
CN109741318B (zh) | 基于有效感受野的单阶段多尺度特定目标的实时检测方法 | |
CN108596053B (zh) | 一种基于ssd和车辆姿态分类的车辆检测方法和系统 | |
WO2021249255A1 (zh) | 一种基于RP-ResNet网络的抓取检测方法 | |
CN111583263A (zh) | 一种基于联合动态图卷积的点云分割方法 | |
CN107545263B (zh) | 一种物体检测方法及装置 | |
CN108647694A (zh) | 基于上下文感知和自适应响应的相关滤波目标跟踪方法 | |
CN112150493A (zh) | 一种基于语义指导的自然场景下屏幕区域检测方法 | |
Hu et al. | Aircraft detection in remote sensing images based on saliency and convolution neural network | |
CN111723693A (zh) | 一种基于小样本学习的人群计数方法 | |
CN111368634B (zh) | 基于神经网络的人头检测方法、系统及存储介质 | |
CN113888461A (zh) | 基于深度学习的小五金件缺陷检测方法、系统及设备 | |
CN114092793A (zh) | 适用于复杂水下环境的端到端生物目标检测方法 | |
CN114120045B (zh) | 一种基于多门控混合专家模型的目标检测方法和装置 | |
Guo | [Retracted] Moving Target Localization in Sports Image Sequence Based on Optimized Particle Filter Hybrid Tracking Algorithm | |
Song et al. | IR-VIO: Illumination-robust visual-inertial odometry based on adaptive weighting algorithm with two-layer confidence maximization | |
Yang et al. | An improved algorithm for the detection of fastening targets based on machine vision | |
CN116994068A (zh) | 一种基于知识蒸馏的目标检测方法及装置 | |
CN111241965A (zh) | 一种基于多示例学习进行遮挡检测的目标跟踪方法 | |
CN113888591A (zh) | 一种分布式边缘计算和机器学习的目标追踪系统及其方法 | |
Li et al. | Object detection method based on global feature augmentation and adaptive regression in IoT | |
Xiao et al. | Optimization methods of video images processing for mobile object recognition | |
CN114648560A (zh) | 分布式图像配准方法、系统、介质、计算机设备及终端 | |
Nasiri et al. | Masked face detection using artificial intelligent techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |