CN114594770A - 一种巡检机器人不停车的巡检方法 - Google Patents

一种巡检机器人不停车的巡检方法 Download PDF

Info

Publication number
CN114594770A
CN114594770A CN202210213519.2A CN202210213519A CN114594770A CN 114594770 A CN114594770 A CN 114594770A CN 202210213519 A CN202210213519 A CN 202210213519A CN 114594770 A CN114594770 A CN 114594770A
Authority
CN
China
Prior art keywords
inspection
image
score
target
video stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210213519.2A
Other languages
English (en)
Other versions
CN114594770B (zh
Inventor
邹婉欣
粟玉雄
张义杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Qiancheng Robot Co ltd
Original Assignee
Shenzhen Qiancheng Robot Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Qiancheng Robot Co ltd filed Critical Shenzhen Qiancheng Robot Co ltd
Priority to CN202210213519.2A priority Critical patent/CN114594770B/zh
Publication of CN114594770A publication Critical patent/CN114594770A/zh
Application granted granted Critical
Publication of CN114594770B publication Critical patent/CN114594770B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种巡检机器人不停车的巡检方法,包括以下步骤:对拍摄存在目标物的视频流中每一帧都进行目标检测得到一系列“合格帧”;对拍摄的视频流实时画面,计算图像二阶导数的方差,得到画面模糊程度,调节云台对焦参数;Blur=E(ΔG‑E(ΔG))2

Description

一种巡检机器人不停车的巡检方法
技术领域
本发明涉及一种巡检机器人不停车的巡检方法。
背景技术
目前在移动机器人巡检巡逻的业务场景中,通过预先规划巡检路径,部署目标的相对位置,让机器人到达预设坐标,停下来,执行巡检任务,完成后再导航至下一任务点,这样存在以下问题:
(1)需要预先设定巡检路径和巡检点,在变电站和公安场景下,巡检点数量成千上万,部署巡检点是一项非常耗时耗人力的工作,增加了巡检运维的成本;
(2)对于每个巡检任务点,机器人都需要停下,定点拍摄目标,任务执行的效率及流畅度非常有限;
(3)部署阶段,预设的巡检点是相对于巡检机器人的坐标位置,由于机器人的定位误差以及云台调节位姿的运动误差,通过相对位置拍摄目标物的可靠性低,通常会出现拍不到或拍不全目标物的情况,影响最终的巡检质量;
(4)定点拍摄不可避免环境光线变化的影响,不具备调整角度拍摄的灵活性。
发明内容
为解决以上技术问题,本发明提供了一种巡检机器人采集及处理目标物图像的方法,是通过如下方案实现的。
一种巡检机器人不停车的巡检方法,包括以下步骤:
对拍摄存在目标物的视频流中每一帧都进行目标检测得到一系列“合格帧”;
对拍摄的视频流实时画面,计算图像二阶导数的方差,得到画面模糊程度,调节云台对焦参数;
Blur=E(ΔG-E(ΔG))2
Figure BDA0003532500890000021
其中,以拉普拉斯算子作为卷积核卷积图像得到二阶导数;设置Blur阈值,对焦参数从小到大调节,将对焦参数调节至Blur阈值后输出;
将一系列合格帧提取图像深度特征,与模板图进行特征匹配,并且对其计算模糊度Blur,其中,匹配特征点数大于15的画面帧,且Score满足大于4,Blur大于500,判定为最优采集图像。
进一步地,在目标检测时,进行以下步骤:
拍摄的视频流中每一帧都进行目标检测,若所拍摄的视频流中为存在确定目标物的视频流,则采用的检测模型为yolov5进行检测,若所拍摄的视频流中为存在新增类别的目标物的视频流,则采用的检测模型为主体检测模型结合特征匹配进行检测,在画面图像的坐标bbox:[x,y,w,h]和置信度conf;
基于目标物在画面图像的坐标和置信度conf,计算检测结果得分Score
Score=econf+eIOU
Figure BDA0003532500890000031
若Score大于3,判定当前帧为合格帧,保存到合格帧序列里;
若Score等于2,则降低云台焦距倍率,再次计算检测结果得分Score,若云台焦距倍率调节至最小,Score还是等于2,视为不及格帧;
若Score大于2小于3,计算检测框与画面中心的偏移量,依据偏移量微调云台位姿,计算检测框与画面占比IOU,依据IOU增大云台焦距倍率,后再次进行计算检测结果得分Score。
进一步地,采用D2-Net模型进行提取图像深度特征。
进一步地,在拍摄的视频流前,需要对巡检点进行部署得到目标物的坐标点;部署步骤如下:
人为操控机器人到巡检现场,在每个巡检点的最佳观测点,采集巡检目标的模板图,记录巡检点与机器人的距离Z,已知,目标物在模板图的像素坐标M:[u,v,1]、机器人当前坐标P:[α,β,γ],可计算得到巡检目标物在地图的实际坐标:T:[Xw,Yw,Zw,1]:
Figure BDA0003532500890000033
其中,Rt为云台相机外参,减去了机器人的偏转角,K为云台相机内参,可以根据云台倍率查询视场张角FOVh和FOVv,计算得到:
Figure BDA0003532500890000032
Figure BDA0003532500890000041
Figure BDA0003532500890000042
Figure BDA0003532500890000043
Figure BDA0003532500890000044
其中W和H为云台相机的横竖分辨率,因此可以得到目标物坐标T:[Xw,Yw,Zw,1]:
Figure BDA0003532500890000045
进一步地,在拍摄的视频流前,需要对巡检点进行部署得到目标物的坐标点;部署步骤如下:采用激光雷达和深度相机对巡检场景扫描,得到巡检场景的点云数据和深度图像数据;用三维地图重建软件,从点云数据和深度图像数据中构建得到巡检场景的三维地图模型;数字孪生技术根据三维地图模型构建得到巡检场景的数字模型,称为数字孪生体,内包含现场所有物体的数字模型和物理信息;在巡检场景的数字孪生体中,用鼠标点击目标的中心,完整框选目标物,即可得到目标在地图的坐标T:[Xw,Yw,Zw,1]。
本发明的有益效果在于:
本发明中,在对一个目标点采集相应视频后,巡检机器人直接前往下一个目标点,在前往过程中,采用环境感知和目标检索的视频流分析技术对上一个目标点获取的视频流进行处理以获取高质量巡检图像,这样的过程可以实现机器人不停车巡检,大幅提高巡检巡逻效率。
本发明采用灵活可靠的目标检测算法,对于事先明确的巡检目标,训练目标检测模型,计算目标物特征向量;对于不确定的巡检目标,在部署任务时框定目标物,算法通过计算新目标的特征,保存到特征库,执行期间,通过特征相似度计算,快速实现新目标的检测与识别。对于事先不能确定的目标物,检测算法具备快速的特征学习能力。
再者,基于视频分析技术,结合目标检测和环境感知,在视频流中采集高质量图像,既能有效避免环境光线变化的影响,又能实现动态地采集图像,提高效率。
具体实施方式
以下结合实施例对本发明作进一步的阐述,所述的实施例仅为本发明一部分的实施例,这些实施例仅用于解释本发明,对本发明的范围并不构成任何限制。
本发明提供一种巡检机器人不停车的巡检方法,包括以下步骤
拍摄的视频流中每一帧都进行目标检测,若所拍摄的视频流中为存在确定目标物的视频流,则采用的检测模型为yolov5进行检测,若所拍摄的视频流中为存在新增类别的目标物的视频流,则采用的检测模型为主体检测模型进行检测,在画面图像的坐标bbox:[x,y,w,h]和置信度conf;这里得到的bbox图像坐标,可以判断目标在云台画面的位置和在画面显示的大小,因此,可以根据bbox的中心位置,调节云台上下左右运动,目的是让目标物始终保持在云台画面的中心;根据bbox与画面的占比IOU(0≤IOU≤1)的大小调节云台变倍,放大或缩小画面,目的是让目标物能更清楚地呈现;conf(0≤conf≤1)可以判断目标检测的有效性,所以结合bbox和conf,可以判断采集画面的质量。
由于,在进行检测时候,检测的目标会存在两种情形,一种是确定目标物,这种目标物是指在巡检开始之前已经明显的物体了,在对这种目标物,会在提前准备大量的目标物数据和标注用于训练检测模型,以提高检测模型的检测能力。
而新增类别的目标物是指未能提前预知需要检测的目标物,对于该目标物无法提前准备大量数据的,需要结合特征提取和特征匹配,实现对其进行检测,此时就需要主体检测模型结合特征匹配进行检测,以得到准确的检测结果。
基于目标物在画面图像的坐标和置信度conf,计算检测结果得分Score;为了综合bbox和conf结果因素,基于Score来判断当前画面的质量,进一步地可调节云台的运动,使得云台更清楚拍摄到目标物:
Score=econf+eIOU
Figure BDA0003532500890000061
若Score大于3,判定当前帧为合格帧,保存到合格帧序列里;
若Score等于2,说明在当前画面没有检测到目标,需要在更大的画面范围搜索目标,那么需要放大云台的视场角,对应则降低云台焦距倍率,再次计算结果得分Score,若云台焦距倍率调节至最小,云台视场角最大,即拍摄画面最大,Score还是等于2,说明云台在当前位姿参数,这个拍摄角度的画面里已经检测不到目标了,所采集的画面帧视为不及格帧;
若Score大于2小于3,说明检测到目标物,但是目标物在画面呈现很小,需要放大云台的焦距倍率,使目标物在云台画面呈现尺寸更大,同时让目标物维持在云台画面中心,因此计算检测框与画面中心的偏移量,依据偏移量微调云台位姿,使云台上下左右运动调节,目的是让目标物维持在云台画面中心,计算检测框与画面占比IOU,依据IOU增大云台焦距倍率,目的是放大目标物在画面中呈现的尺寸,之后再次计算结果得分Score。
S23:对拍摄的视频流实时画面,计算图像二阶导数的方差,得到画面模糊程度,调节云台对焦参数;
Blur=E(ΔG-E(ΔG))2
Figure BDA0003532500890000071
其中,以拉普拉斯算子作为卷积核卷积图像得到二阶导数;设置Blur阈值,对焦参数从小到大调节,将对焦参数调节至Blur阈值后输出;
将一系列合格帧提取图像深度特征,与模板图进行特征匹配,并且对其计算模糊度Blur,其中,匹配特征点数大于15的画面帧,且Score满足大于4,Blur大于500,判定为最优采集图像。
本发明中,在对一个目标点采集相应视频后,巡检机器人直接前往下一个目标点,在前往过程中,采用环境感知和目标检索的视频流分析技术对上一个目标点获取的视频流进行处理以获取高质量巡检图像,这样的过程可以实现机器人不停车巡检,大幅提高巡检巡逻效率。
本发明采用灵活可靠的目标检测算法,对于事先明确的巡检目标,训练目标检测模型,计算目标物特征向量;对于不确定的巡检目标,在部署任务时框定目标物,算法通过计算新目标的特征,保存到特征库,执行期间,通过特征相似度计算,快速实现新目标的检测与识别。对于事先不能确定的目标物,检测算法具备快速的特征学习能力。
再者,基于视频分析技术,结合目标检测和环境感知,在视频流中采集高质量图像,既能有效避免环境光线变化的影响,又能实现动态地采集图像,提高效率。
进一步地,在拍摄的视频流前,需要对巡检点进行部署得到目标物的坐标点;部署有两种方式第一种步骤如下:
人为操控机器人到巡检现场,在每个巡检点的最佳观测点,采集巡检目标的模板图,记录巡检点与机器人的距离Z,已知,目标物在模板图的像素坐标M:[u,v,1]、机器人当前坐标P:[α,β,γ],可计算得到巡检目标物在地图的实际坐标:T:[Xw,Yw,Zw,1]:
T=Z·M·K-1·Rt -1
其中,Rt为云台相机外参,减去了机器人的偏转角,K为云台相机内参,可以根据云台倍率查询视场张角FOVh和FOVv,计算得到:
Figure BDA0003532500890000091
Figure BDA0003532500890000092
Figure BDA0003532500890000093
Figure BDA0003532500890000094
Figure BDA0003532500890000095
其中W和H为云台相机的横竖分辨率,因此可以得到目标物坐标T:[Xw,Yw,Zw,1]:
Figure BDA0003532500890000096
第二种部署方式为采用激光雷达和深度相机等设备,结合slam和三维地图重建技术,以及数字孪生技术,得到巡检场景的数字三维模型。在三维模型中,框选目标位置即可得到其坐标T:[Xw,Yw,Zw,1]。
具体地,采用激光雷达和深度相机对巡检场景扫描,得到巡检场景的点云数据和深度图像数据;用三维地图重建软件,从点云数据和深度图像数据中构建得到巡检场景的三维地图模型;数字孪生技术根据三维地图模型构建得到巡检场景的数字模型,称为数字孪生体,内包含现场所有物体的数字模型和物理信息;在巡检场景的数字孪生体中,用鼠标点击目标的中心,完整框选目标物,即可得到目标在地图的坐标T:[Xw,Yw,Zw,1]。
第二种部署方式,人员无需到场地部署,在电脑前即可操作完成,大大提高部署效率,比起业内现有的部署方式,大大减轻工作量。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。

Claims (5)

1.一种巡检机器人不停车的巡检方法,其特征在于,包括以下步骤:
对拍摄存在目标物的视频流中每一帧都进行目标检测得到一系列“合格帧”;
对拍摄的视频流实时画面,计算图像二阶导数的方差,得到画面模糊程度,调节云台对焦参数;
Blur=E(ΔG-E(ΔG))2
Figure FDA0003532500880000011
其中,以拉普拉斯算子作为卷积核卷积图像得到二阶导数;设置Blur阈值,对焦参数从小到大调节,将对焦参数调节至Blur阈值后输出;
将一系列合格帧提取图像深度特征,与模板图进行特征匹配,并且对其计算模糊度Blur,其中,匹配特征点数大于15的画面帧,且Score满足大于4,Blur大于500,判定为最优采集图像。
2.根据权利要求1所述的一种巡检机器人不停车的巡检方法,其特征在于,在目标检测时,进行以下步骤:
拍摄的视频流中每一帧都进行目标检测,若所拍摄的视频流中为存在确定目标物的视频流,则采用的检测模型为yolov5进行检测,若所拍摄的视频流中为存在新增类别的目标物的视频流,则采用的检测模型为主体检测模型结合特征匹配算法进行检测,在画面图像的坐标bbox:[x,y,w,h]和置信度conf;
基于目标物在画面图像的坐标和置信度conf,计算检测结果得分Score
Score=econf+eIOU
Figure FDA0003532500880000021
若Score大于3,判定当前帧为合格帧,保存到合格帧序列里;
若Score等于2,则降低云台焦距倍率,再次计算检测结果得分Score,若云台焦距倍率调节至最小,Score还是等于2,视为不及格帧;
若Score大于2小于3,计算检测框与画面中心的偏移量,依据偏移量微调云台位姿,计算检测框与画面占比IOU,依据IOU增大云台焦距倍率,后再次进行计算检测结果得分Score。
3.根据权利要求2所述的一种巡检机器人不停车的巡检方法,其特征在于,采用D2-Net模型进行提取图像深度特征。
4.根据权利要求1所述的一种巡检机器人不停车的巡检方法,其特征在于,在拍摄的视频流前,需要对巡检点进行部署得到目标物的坐标点;部署步骤如下:
人为操控机器人到巡检现场,在每个巡检点的最佳观测点,采集巡检目标的模板图,记录巡检点与机器人的距离Z,已知,目标物在模板图的像素坐标M:[u,v,1]、机器人当前坐标P:[α,β,γ],可计算得到巡检目标物在地图的实际坐标:T:[Xw,Yw,Zw,1]:
Figure FDA0003532500880000022
其中,Rt为云台相机外参,减去了机器人的偏转角,K为云台相机内参,可以根据云台倍率查询视场张角FOVh和FOVv,计算得到:
Figure FDA0003532500880000031
Figure FDA0003532500880000032
Figure FDA0003532500880000033
Figure FDA0003532500880000034
Figure FDA0003532500880000035
其中W和H为云台相机的横竖分辨率,因此可以得到目标物坐标T:[Xw,Yw,Zw,1]:
Figure FDA0003532500880000036
5.根据权利要求1所述的一种巡检机器人不停车的巡检方法,其特征在于,在拍摄的视频流前,需要对巡检点进行部署得到目标物的坐标点;部署步骤如下:采用激光雷达和深度相机对巡检场景扫描,得到巡检场景的点云数据和深度图像数据;用三维地图重建软件,从点云数据和深度图像数据中构建得到巡检场景的三维地图模型;数字孪生技术根据三维地图模型构建得到巡检场景的数字模型,称为数字孪生体,内包含现场所有物体的数字模型和物理信息;在巡检场景的数字孪生体中,用鼠标点击目标的中心,完整框选目标物,即可得到目标在地图的坐标T:[Xw,Yw,Zw,1]。
CN202210213519.2A 2022-03-04 2022-03-04 一种巡检机器人不停车的巡检方法 Active CN114594770B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210213519.2A CN114594770B (zh) 2022-03-04 2022-03-04 一种巡检机器人不停车的巡检方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210213519.2A CN114594770B (zh) 2022-03-04 2022-03-04 一种巡检机器人不停车的巡检方法

Publications (2)

Publication Number Publication Date
CN114594770A true CN114594770A (zh) 2022-06-07
CN114594770B CN114594770B (zh) 2024-04-26

Family

ID=81807836

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210213519.2A Active CN114594770B (zh) 2022-03-04 2022-03-04 一种巡检机器人不停车的巡检方法

Country Status (1)

Country Link
CN (1) CN114594770B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115442523A (zh) * 2022-08-17 2022-12-06 深圳昱拓智能有限公司 巡检机器人的高清全景深图像获取方法、系统、介质及设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109635875A (zh) * 2018-12-19 2019-04-16 浙江大学滨海产业技术研究院 一种基于深度学习的端到端网口检测方法
CN110287826A (zh) * 2019-06-11 2019-09-27 北京工业大学 一种基于注意力机制的视频目标检测方法
CN111679291A (zh) * 2020-06-17 2020-09-18 四川智动木牛智能科技有限公司 基于三维激光雷达的巡检机器人目标定位配置方法
US20210192194A1 (en) * 2020-01-10 2021-06-24 Beijing Baidu Netcom Science Technology Co., Ltd. Video-based human behavior recognition method, apparatus, device and storage medium
CN113379693A (zh) * 2021-06-01 2021-09-10 大连东软教育科技集团有限公司 基于视频摘要技术的胶囊内镜关键病灶图像检测方法
CN113902740A (zh) * 2021-12-06 2022-01-07 深圳佑驾创新科技有限公司 图像模糊程度评价模型的构建方法
WO2022021739A1 (zh) * 2020-07-30 2022-02-03 国网智能科技股份有限公司 一种语义智能变电站机器人仿人巡视作业方法及系统
CN114049382A (zh) * 2022-01-12 2022-02-15 华砺智行(武汉)科技有限公司 一种智能网联环境下目标融合跟踪方法、系统和介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109635875A (zh) * 2018-12-19 2019-04-16 浙江大学滨海产业技术研究院 一种基于深度学习的端到端网口检测方法
CN110287826A (zh) * 2019-06-11 2019-09-27 北京工业大学 一种基于注意力机制的视频目标检测方法
US20210192194A1 (en) * 2020-01-10 2021-06-24 Beijing Baidu Netcom Science Technology Co., Ltd. Video-based human behavior recognition method, apparatus, device and storage medium
CN111679291A (zh) * 2020-06-17 2020-09-18 四川智动木牛智能科技有限公司 基于三维激光雷达的巡检机器人目标定位配置方法
WO2022021739A1 (zh) * 2020-07-30 2022-02-03 国网智能科技股份有限公司 一种语义智能变电站机器人仿人巡视作业方法及系统
CN113379693A (zh) * 2021-06-01 2021-09-10 大连东软教育科技集团有限公司 基于视频摘要技术的胶囊内镜关键病灶图像检测方法
CN113902740A (zh) * 2021-12-06 2022-01-07 深圳佑驾创新科技有限公司 图像模糊程度评价模型的构建方法
CN114049382A (zh) * 2022-01-12 2022-02-15 华砺智行(武汉)科技有限公司 一种智能网联环境下目标融合跟踪方法、系统和介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
仇梓峰: "基于计算机视觉的风机叶片表面损伤检测研究", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》, 15 January 2020 (2020-01-15) *
周奇: "基于多特征的轮船运动目标跟踪及轨迹获取方法", 《中国优秀硕士学位论文全文数据库 信息科技辑》, 15 August 2018 (2018-08-15) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115442523A (zh) * 2022-08-17 2022-12-06 深圳昱拓智能有限公司 巡检机器人的高清全景深图像获取方法、系统、介质及设备
CN115442523B (zh) * 2022-08-17 2023-09-05 深圳昱拓智能有限公司 巡检机器人的高清全景深图像获取方法、系统、介质及设备

Also Published As

Publication number Publication date
CN114594770B (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
US20030012410A1 (en) Tracking and pose estimation for augmented reality using real features
KR20160115466A (ko) 파노라믹 비디오를 스티칭하는 장치 및 이를 위한 스티칭 방법
CN107471218B (zh) 一种基于多目视觉的双臂机器人手眼协调方法
KR100793838B1 (ko) 카메라 모션 추출장치, 이를 이용한 해상장면의 증강현실 제공 시스템 및 방법
US9767568B2 (en) Image processor, image processing method, and computer program
US9171379B2 (en) Hybrid precision tracking
CN109887040A (zh) 面向视频监控的运动目标主动感知方法及系统
CN111161446A (zh) 一种巡检机器人的图像采集方法
CN110827321B (zh) 一种基于三维信息的多相机协同的主动目标跟踪方法
JP2008298685A (ja) 計測装置及びプログラム
CN112949478A (zh) 基于云台相机的目标检测方法
CN109559355A (zh) 一种基于相机组的无公共视场的多相机全局标定装置及方法
CN110717445A (zh) 一种用于自动驾驶的前车距离跟踪系统与方法
CN113379801B (zh) 一种基于机器视觉的高空抛物监测定位方法
CN113223050B (zh) 一种基于ArUco码的机器人运动轨迹实时采集方法
JP2021060868A (ja) 情報処理装置、情報処理方法、およびプログラム
CN114594770A (zh) 一种巡检机器人不停车的巡检方法
KR100574227B1 (ko) 카메라 움직임을 보상한 객체 움직임 추출 장치 및 그 방법
JP2012086285A (ja) 追跡ロボット装置、追跡ロボット制御方法、追跡ロボット制御プログラム、ホモグラフィー行列取得装置、ホモグラフィー行列取得方法、およびホモグラフィー行列取得プログラム
CN112419364A (zh) 基于图像特征匹配的目标跟踪方法及系统
CN117014716A (zh) 一种目标追踪方法及电子设备
CN112001224A (zh) 基于卷积神经网络的视频采集方法和视频采集系统
CN112800828A (zh) 地面栅格占有概率目标轨迹方法
CN112585946A (zh) 图像拍摄方法、装置、可移动平台和存储介质
CN111291609A (zh) 一种机场围界巡检机器人动态背景目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant