CN113536934B - 一种巡逻机器人执行追踪任务时的主动隐藏方法 - Google Patents
一种巡逻机器人执行追踪任务时的主动隐藏方法 Download PDFInfo
- Publication number
- CN113536934B CN113536934B CN202110671091.1A CN202110671091A CN113536934B CN 113536934 B CN113536934 B CN 113536934B CN 202110671091 A CN202110671091 A CN 202110671091A CN 113536934 B CN113536934 B CN 113536934B
- Authority
- CN
- China
- Prior art keywords
- patrol robot
- image
- target
- tracking
- hidden
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000001514 detection method Methods 0.000 claims abstract description 14
- 238000007499 fusion processing Methods 0.000 claims abstract 2
- 238000012706 support-vector machine Methods 0.000 claims abstract 2
- 238000012549 training Methods 0.000 claims description 17
- 239000013598 vector Substances 0.000 claims description 16
- 125000004122 cyclic group Chemical group 0.000 claims description 13
- 230000000875 corresponding effect Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 5
- 238000011217 control strategy Methods 0.000 claims description 3
- 230000001276 controlling effect Effects 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 2
- 230000001105 regulatory effect Effects 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims 2
- 238000000605 extraction Methods 0.000 claims 1
- 230000008447 perception Effects 0.000 abstract description 2
- 230000011218 segmentation Effects 0.000 abstract 1
- 238000012876 topography Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 10
- 230000006399 behavior Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 241000124008 Mammalia Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种巡逻机器人执行追踪任务时的主动隐藏方法。该方法包括:(1)可疑目标检测:利用HOG特征描述子和SVM支持向量机检测可疑目标并利用KCF跟踪检测到的可疑目标。(2)隐蔽地貌感知:利用Unet语义分割网络实时分割出所处复杂环境中的可隐藏地貌。(3)行为决策:对隐蔽地貌信息和可疑目标信息融合处理,根据结果决策机器人的追踪动作。通过本发明设计的主动隐藏方法,巡逻机器人可感知所处复杂环境中的隐蔽地貌以及跟踪过程中的安全状态,规划隐藏方法,降低巡逻机器人被发现被破坏的概率,加强机器人巡逻时的隐蔽性。解决现有技术中巡逻机器人由于缺乏主动自我保护措施,导致的任务失败与经济财产损失问题。
Description
技术领域
本发明属于机器人感知与规划技术领域。具体涉及一种巡逻机器人执行追踪任务时的主动隐藏方法。
背景技术
因安保人员数量有限,且监控系统存在盲区等问题,安保巡逻机器人被越来越多的应用到公共安全或厂区巡检等任务中。然而,目前使用的安保巡逻机器人普遍缺乏主动自我保护的意识,极易在任务执行的过程中被追踪目标发现,导致巡逻任务失败;甚至巡逻机器人在暴露后,遭到不法分子的破坏,导致高额的经济财产损失。
自然界中的许多高等哺乳动物均可以利用环境中的颜色、纹理、亮度、遮挡物等因素隐藏自己,降低被侦测对象发现或被捕食的几率。如果将动物的这种隐藏行为映射到巡逻安保机器人的行为逻辑中,安排巡逻安保机器人在目标追踪过程中根据所处环境执行主动隐藏行为,则可以降低巡逻安保机器人被发现的几率,提高追踪任务成功率。
发明内容
针对现有技术的不足,本发明提出了一种巡逻机器人执行追踪任务时的主动隐藏方法,通过监测所处复杂环境中的可隐蔽地貌,帮助安保巡逻机器人在执行追踪、巡逻的过程中,借助感知到的可隐蔽地貌规划躲藏动作,实现对可疑目标的隐蔽跟踪,降低巡逻机器人被发现、破坏的概率,解决安保巡逻机器人在任务执行过程中缺乏自我保护措施的问题。
一种巡逻机器人执行追踪任务时的主动隐藏方法,具体包括以下步骤:
步骤1、目标区域获取
利用巡逻机器人上的深度相机采集当前环境的RGB图像和深度图像,将得到的RGB图像转化为灰度图像,调整灰度图像的宽度和高度分别为w和h,计算其中每个像素点的水平梯度和垂直梯度,进一步计算梯度幅值和方向,然后将灰度图像分割为若干个大小为8*8的cell单元,计算每个cell单元的梯度直方图,按照梯度方向对每个cell单元中的梯度幅值进行分组后,然后以4个cell单元为一个块,对每个块内的梯度幅值进行归一化处理,然后使用滑动扫描窗,得到特征向量后输入到SVM分类器中,实现目标区域和背景区域的分类,然后将目标区域压缩成大小为k*l的ROI区域。
步骤2、隐藏地貌检测
使用可分离卷积替代Unet网络中的解码部分,建立隐藏地貌检测网络,输入步骤1拍摄的RGB图像,隐藏地貌检测网络输出尺寸与输入图像相同的预测图像,通过预测图像得到当前环境的隐藏地貌区域。
步骤3、目标检测器训练
将步骤1得到的ROI区域作为初始跟踪区域,获取初始帧Tt中的目标样本x=[x0,x1,x2,…,xn-1],通过循环矩阵对样本进行循环位移处理得到训练样本X:
对训练样本X中的每个元素xi赋予对应的标签yi,构造训练集(xi,yi),获取误差最小的回归函数f(x)=ωTx,其中ω为列向量表示权重系数,上标T标识转置。构造误差函数:
其中λ为正则化函数。引入映射函数将ω映射为:
其中αi为系数。
引入核函数可以得到/>进而得到系数αi形成的向量α,α=(K+λI)-1y,利用循环矩阵的性质和傅里叶变换,得到频域中的最小二乘解,完成目标监测器的训练:
其中,为α的傅里叶变换,y为训练样本yi组成的列向量,/>是y的傅里叶变换,为核函数K(xi,xj)中的第一行元素。
根据训练后的目标监测器,求取当前样本图像z的相关性最大结果,得到跟踪结果,实现对ROI区域的跟踪:
其中,为相关性结果,/>为循环矩阵,⊙表示频域像素点乘运算。
步骤4、隐藏动作执行
对步骤2得到的隐藏地貌区域结果进行灰度化处理,并获取巡逻机器人底盘可行驶地貌的像素值proad,设置巡逻机器人的前视距离为lv,并获取对应的图像坐标系中的纵坐标yt,遍历所有纵坐标为yt的像素点,记录像素值为proad的可行驶像素点,然后分别统计位于中垂线左侧和右侧的可隐藏像素点个数lcounts和rcounts,计算偏置误差errtarget:
errtarget=(lcounts+rcounts)*0.8 (6)
计算巡航像素误差err作为PID控制策略的输入量:
err=lcounts-rcounts-errtarget (7)
多次调整比例参数kp和微分参数kd,以调整输出量output:
output=kp*err+kd*(err-errlast) (8)
将输出量output作为巡逻机器人的角速度控制指令,并以稳定的线速度控制机器人沿着隐蔽地貌区域的边界行驶,执行隐藏动作。
步骤5、跟踪距离控制
选取ROI区域中的若干个像素点,根据深度图像对这些像素点的深度信息进行阈值均值滤波处理,获取可疑目标与巡逻机器人间的距离d,巡逻机器人根据与可疑目标间的距离d判断当前所处的状态,并执行对应的动作。具体为:当d∈(0,dlower)为危险状态,执行后退动作;d∈[dlower,dupper]为安全状态,执行隐藏动作;d∈(dlower,dupper)为追赶状态,执行追赶动作。
本发明具有以下有益效果:
1、对梯度值分组后再进行归一化处理,可以消除光照等外部因素的影响,提高目标区域与背景区域的分类准确性。
2、使用可分离卷积替代传统Unet网络的解码部分,可以减少网络的参数量,提高检测实时性。
3、基于视觉感知可疑目标和可隐蔽地貌,对感知的可隐蔽地貌和可疑目标信息进行融合后,规划巡逻跟踪动作,实现了主动隐藏,降低了机器人在巡检过程中被发现的概率。
附图说明
图1为巡逻机器人结构框图;
图2为实施例中巡逻跟踪动作决策图;
图3为隐蔽地貌检测示意图。
具体实施方式
以下结合附图对本发明作进一步的解释说明;
本实施例采用P3-DX先锋机器人和Realsense D435i深度相机搭建实验平台,机器人结构框图如图1所示,启动计算机系统,运行相关节点,巡逻机器人开始执行躲藏巡逻任务,具体巡逻策略如图2所示:
步骤1、目标区域获取
利用巡逻机器人上的深度相机采集当前环境图像的RGB图像和深度图像,将得到的RGB图像转化为灰度图像,调整灰度图像的大小为64*128,计算其中每个像素点(x,y)的水平梯度与垂直梯度Gx(x,y)、Gy(x,y):
其中,I(x,y)为像素点(x,y)的灰度值;然后计算每个像素点的梯度幅值G(x,y)和方向θ(x,y):
其中θ(x,y)∈[0,180]。
然后将灰度图像分割为若干个大小为8*8的cell单元,计算每个cell单元的梯度直方图,其中梯度直方图的y轴为梯度幅值,x轴为梯度方向,将x轴以20为间隔单位,分为9个bin,对应梯度方向范围为[0,20)、[20,40)、[40,60)...[160,180],将一个cell单元中每个像素点的梯度幅值分别归入对应的bin中,例如:点(x1,y1)的梯度方向为40,梯度幅值为2,则向第3个bin[40,60)中添加2;点(x2,y2)的梯度方向为50,梯度幅值为1,则分别向第3个bin[40,60)和第4个bin[60,80)中添加0.5;点(x3,y3)的梯度方向为170,梯度幅值为2,则分别向第1个bin[0,20)和第9个bin[160,180)中添加0.5。
将4个cell单元作为一个块,对每个块内的梯度幅值进行归一化处理,以消除光照等因素的影响。使用步长为8个像素的滑动扫描窗扫描归一化处理后图像,得到4*9*7*15=3780维的特征向量后,然后输入到SVM分类器中,实现目标区域和背景区域的分类,然后将目标区域压缩成大小为k*l的ROI区域。
步骤2、隐藏地貌检测
使用可分离卷积替代Unet网络中的解码部分,建立隐藏地貌检测网络,输入大小为240*320的RGB图像,隐藏地貌检测网络对其进行4次下采样操作,分别得到4个特征层f1、f2、f3、f4,然后再依次对4个特征层进行上采样与融合处理,将f3与上采样一次后的f4融合得到新特征图o1,对o1上采样后与f2融合得到o2,再将o2上采样后与f1融合,最终输出一张尺寸与输入图片相同的预测图,通过预测图像得到当前环境的隐藏地貌区域。
步骤3、目标检测器训练
将步骤1得到的ROI区域作为初始的跟踪区域,获取初始帧Tt中的目标样本x=[x0,x1,x2,…,xn-1],通过循环矩阵对样本进行循环位移处理得到训练样本X:
对训练样本X中的每个元素xi赋予对应的标签yi,构造训练集(xi,yi),获取误差最小的回归函数f(x)=ωTx,其中ω为列向量表示权重系数,上标T标识转置。构造误差函数:
其中λ为正则化函数,用于防止过拟合。对于误差函数这个非线性问题,需要引入映射函数将ω映射为:
其中αi为系数。
引入核函数可以得到/>将求解ω转化为求解α,可得α=(K+λI)-1y,可以利用循环矩阵的性质和傅里叶变换,得到频域中的最小二乘解,完成目标监测器的训练:
其中,为α的傅里叶变换,α为系数αi形成的向量,y是由训练样本yi组成的列向量,/>是y的傅里叶变换,/>为核函数K(xi,xj)中的第一行元素。
根据训练后的目标监测器,求取当前样本图像z的相关性最大结果,得到跟踪结果:
其中,为相关性结果,/>为循环矩阵,⊙表示频域像素点乘运算。
循环计算,即可实现对ROI区域的跟踪,可以提高检测的准确性和实时性。
步骤4、隐藏动作执行
对巡逻机器人进行迷彩装饰,并通过PID策略实现机器人运动控制。对步骤2得到的隐藏地貌区域结果进行灰度化处理,并获取巡逻机器人底盘可行驶地貌的像素值proad,如图3所示,设置巡逻机器人的前视距离为lv,并获取对应的图像坐标系中的纵坐标yt,遍历所有纵坐标为yt的像素点,记录像素值为proad的可行驶像素点,然后分别统计位于中垂线左侧和右侧的可隐藏像素点个数lcounts和rcounts,计算偏置误差errtarget:
errtarget=(lcounts+rcounts)*0.8 (6)
计算巡航像素误差err作为PID控制策略的输入量:
err=lcounts-rcounts-errtarget (7)
多次调整比例参数kp和微分参数kd,以调整输出量output:
output=kp*err+kd*(err-errlast) (8)
将输出量output作为巡逻机器人的角速度控制指令,并以稳定的线速度控制机器人沿着隐蔽地貌区域的边界行驶,执行隐藏动作。
步骤5、跟踪距离控制
选取ROI区域中的(k/2,l/2)、(k/3,l/3)、(2k/3,l/3)、(k/3,2l/3)、(2k/3,2l/3)这5个像素点,根据深度图像中的深度信息进行可疑目标与巡逻机器人间距离的计算:
其中,dm为第m个点的深度信息,m=1,2...5,0<dm<10。
d为可疑目标与巡逻机器人间的距离。巡逻机器人根据与可疑目标间的距离d判断当初所处的状态,并执行对应的动作。具体为:当d∈(0,dlower)为危险状态,执行后退动作;d∈[dlower,dupper]为安全状态,执行隐藏动作;d∈(dlower,dupper)为追赶状态,执行追赶动作。
Claims (7)
1.一种巡逻机器人执行追踪任务时的主动隐藏方法,其特征在于:该方法包括以下步骤:
步骤1、目标区域获取
利用巡逻机器人上的相机采集当前环境图像的RGB图像,将得到的RGB图像转化为灰度图像,计算灰度图像中每个像素点的梯度幅值和方向,然后将灰度图像分割为若干个大小为8*8的cell单元,计算每个cell单元的梯度直方图,按照梯度方向对每个cell单元中的梯度幅值进行分组后,然后以4个cell单元为一个块,对每个块内的梯度幅值进行归一化处理,然后使用滑动扫描窗得到特征向量,将特征向量输入分类器中,实现目标区域和背景区域的分类,然后将目标区域压缩成大小为k*l的ROI区域;
步骤2、隐藏地貌检测
使用可分离卷积替代Unet网络中的解码部分,建立隐藏地貌检测网络,输入步骤1拍摄的RGB图像,隐藏地貌检测网络输出尺寸与输入图像相同的预测图像,通过预测图像得到当前环境的隐藏地貌区域;
步骤3、目标检测器训练
将步骤1得到的ROI区域作为初始的跟踪区域,获取初始帧Tt中的目标样本x=[x0,x1,x2,…,xn-1],通过循环矩阵对目标样本进行循环位移处理得到训练样本X:
对训练样本X中的每个元素xi赋予对应的标签yi,构造训练集(xi,yi),获取误差最小的回归函数f(x)=ωTx,其中,ω为列向量,表示权重系数,上标T标识转置;构造误差函数:
其中λ为正则化函数;引入映射函数将ω映射为:
其中αi为系数;
引入核函数得到/>利用循环矩阵的性质和傅里叶变换,得到频域中的最小二乘解,完成目标监测器的训练:
其中,为α的傅里叶变换,α为系数αi形成的向量,α=(K+λI)-1y,/>为核函数K(xi,xj)中的第一行元素;
根据训练后的目标监测器,求取当前样本图像z的相关性最大结果,得到跟踪结果,实现对ROI区域的跟踪:
其中,为相关性结果,/>为循环矩阵,⊙表示频域像素点乘运算;
步骤4、隐藏动作执行
对步骤2得到的隐藏地貌区域结果进行灰度化处理,并获取巡逻机器人底盘可行驶地貌的像素值proad,设置巡逻机器人的前视距离为lv,并获取对应的图像坐标系中的纵坐标yt,遍历所有纵坐标为yt的像素点,记录像素值为proad的可行驶像素点,然后分别统计位于中垂线左侧和右侧的可隐藏像素点个数lcounts和rcounts,计算偏置误差errtarget:
errtarget=(lcounts+rcounts)*0.8 (6)
计算巡航像素误差err作为PID控制策略的输入量:
err=lcounts-rcounts-errtarget (7)
调整比例参数kp和微分参数kd得到输出量output:
output=kp*err+kd*(err-errlast) (8)
将输出量output作为巡逻机器人的角速度控制指令,控制机器人以稳定的线速度沿着隐蔽地貌区域的边界行驶,执行隐藏动作。
2.如权利要求1所述一种巡逻机器人执行追踪任务时的主动隐藏方法,其特征在于:步骤1中使用的分类器为支持向量机。
3.如权利要求1所述一种巡逻机器人执行追踪任务时的主动隐藏方法,其特征在于:步骤1中得到特征向量的具体方法为:
采集当前环境图像的RGB图像和深度图像,将得到的RGB图像转化为灰度图像,大小调整为w*h,计算灰度图像中像素点(x,y)的水平梯度与垂直梯度Gx(x,y)、Gy(x,y):
其中,I(x,y)为像素点(x,y)的灰度值;然后计算每个像素点的梯度幅值G(x,y)和方向θ(x,y):
其中θ(x,y)∈[0,180];
然后将灰度图像分割为若干个大小为8*8的cell单元,计算每个cell单元的梯度直方图,其中梯度直方图的y轴为梯度幅值,x轴为梯度方向,将x轴以20为间隔单位,分为9个bin,将一个cell单元中每个像素点的梯度幅值分别归入对应的bin中;将4个cell单元作为一个块,对每个块内的梯度幅值进行归一化处理,再使用滑动步长为8个像素点的滑动窗对归一化后的块进行滑动扫描,得到特征向量。
4.如权利要求1所述一种巡逻机器人执行追踪任务时的主动隐藏方法,其特征在于:步骤2建立的隐藏地貌检测网络对输入图像进行4次下采样操作,分别得到4个特征层f1、f2、f3、f4,然后再依次对4个特征层进行上采样与融合处理,最后输出一张尺寸与输入图像相同的预测图像。
5.如权利要求1或4所述一种巡逻机器人执行追踪任务时的主动隐藏方法,其特征在于:下采样操作首先使用3*3的卷积核进行特征提取,然后再使用1*1的卷积核进行通道调整。
6.如权利要求1所述一种巡逻机器人执行追踪任务时的主动隐藏方法,其特征在于:该方法还包括跟踪距离控制步骤,具体为:
利用巡逻机器人上的深度相机采集当前环境图像的深度图像,选取步骤1得到的ROI区域中的若干个像素点,根据深度图像对这些像素点的深度信息进行阈值均值滤波处理,获取可疑目标与巡逻机器人间的距离d;巡逻机器人根据与可疑目标间的距离d判断当初所处的状态,并执行对应的动作;具体为:当d∈(0,dlower)为危险状态,执行后退动作;d∈[dlower,dupper]为安全状态,执行隐藏动作;d∈(dlower,dupper)为追赶状态,执行追赶动作。
7.如权利要求1或6所述一种巡逻机器人执行追踪任务时的主动隐藏方法,其特征在于:选取ROI区域中(k/2,l/2)、(k/3,l/3)、(2k/3,l/3)、(k/3,2l/3)、(2k/3,2l/3)这5个像素点的深度信息进行可疑目标与巡逻机器人间距离的计算:
其中,dm为第m个点的深度信息,m=1,2...5,0<dm<10。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110671091.1A CN113536934B (zh) | 2021-06-17 | 2021-06-17 | 一种巡逻机器人执行追踪任务时的主动隐藏方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110671091.1A CN113536934B (zh) | 2021-06-17 | 2021-06-17 | 一种巡逻机器人执行追踪任务时的主动隐藏方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113536934A CN113536934A (zh) | 2021-10-22 |
CN113536934B true CN113536934B (zh) | 2024-02-02 |
Family
ID=78096162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110671091.1A Active CN113536934B (zh) | 2021-06-17 | 2021-06-17 | 一种巡逻机器人执行追踪任务时的主动隐藏方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113536934B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114923427A (zh) * | 2022-06-01 | 2022-08-19 | 南方电网科学研究院有限责任公司 | 一种架空导线外径测量方法、装置、设备及可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018076191A1 (zh) * | 2016-10-26 | 2018-05-03 | 深圳前海达闼云端智能科技有限公司 | 智能巡逻设备、云端控制装置、巡逻方法、控制方法、机器人、控制器及非暂态计算机可读存储介质 |
CN110116412A (zh) * | 2019-06-14 | 2019-08-13 | 深圳沸石科技股份有限公司 | 隐形侦查机器人及隐身方法 |
CN112528817A (zh) * | 2020-12-04 | 2021-03-19 | 重庆大学 | 一种基于神经网络的巡检机器人视觉检测及跟踪方法 |
-
2021
- 2021-06-17 CN CN202110671091.1A patent/CN113536934B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018076191A1 (zh) * | 2016-10-26 | 2018-05-03 | 深圳前海达闼云端智能科技有限公司 | 智能巡逻设备、云端控制装置、巡逻方法、控制方法、机器人、控制器及非暂态计算机可读存储介质 |
CN110116412A (zh) * | 2019-06-14 | 2019-08-13 | 深圳沸石科技股份有限公司 | 隐形侦查机器人及隐身方法 |
CN112528817A (zh) * | 2020-12-04 | 2021-03-19 | 重庆大学 | 一种基于神经网络的巡检机器人视觉检测及跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113536934A (zh) | 2021-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109800689B (zh) | 一种基于时空特征融合学习的目标跟踪方法 | |
CN111429514A (zh) | 一种融合多帧时序点云的激光雷达3d实时目标检测方法 | |
CN106023257B (zh) | 一种基于旋翼无人机平台的目标跟踪方法 | |
CN105894701B (zh) | 输电线路防外破大型施工车辆的识别报警方法 | |
CN108447078A (zh) | 基于视觉显著性的干扰感知跟踪算法 | |
CN111985403B (zh) | 一种基于人脸姿态估计和视线偏离的分心驾驶检测方法 | |
CN107844739B (zh) | 基于自适应同时稀疏表示的鲁棒性目标追踪方法 | |
CN116188999B (zh) | 一种基于可见光和红外图像数据融合的小目标检测方法 | |
CN106600613B (zh) | 基于嵌入式gpu的改进lbp红外目标检测方法 | |
CN113065431B (zh) | 一种基于隐马尔可夫模型和循环神经网络的人体违规行为预测方法 | |
Wu et al. | Typical target detection in satellite images based on convolutional neural networks | |
CN116704273A (zh) | 一种自适应红外可见光双模融合检测方法 | |
CN112613565B (zh) | 基于多特征融合与自适应学习率更新的抗遮挡跟踪方法 | |
CN108537825B (zh) | 一种基于迁移学习回归网络的目标跟踪方法 | |
CN115063730A (zh) | 基于视频轨迹分析的工人闯入临边区域预警方法及系统 | |
CN113536934B (zh) | 一种巡逻机器人执行追踪任务时的主动隐藏方法 | |
CN116429082A (zh) | 一种基于st-orb特征提取的视觉slam方法 | |
CN117011381A (zh) | 基于深度学习和立体视觉的实时手术器械位姿估计方法与系统 | |
CN109558877B (zh) | 基于kcf的海上目标跟踪算法 | |
CN117876664A (zh) | 一种光电经纬仪目标跟踪辅助方法 | |
CN113205494B (zh) | 基于自适应尺度图像块加权差测量的红外小目标检测方法和系统 | |
CN117671349A (zh) | 一种周界入侵目标的检测与跟踪方法 | |
CN117409347A (zh) | 一种基于esnn的早期火灾检测方法 | |
CN110111358B (zh) | 一种基于多层时序滤波的目标跟踪方法 | |
CN106909936B (zh) | 一种基于双车辆可变形部件模型的车辆检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |