CN114897929A - 基于视觉降噪的机器人运动方法 - Google Patents

基于视觉降噪的机器人运动方法 Download PDF

Info

Publication number
CN114897929A
CN114897929A CN202210613556.2A CN202210613556A CN114897929A CN 114897929 A CN114897929 A CN 114897929A CN 202210613556 A CN202210613556 A CN 202210613556A CN 114897929 A CN114897929 A CN 114897929A
Authority
CN
China
Prior art keywords
time
visual data
probability
classification
moment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210613556.2A
Other languages
English (en)
Other versions
CN114897929B (zh
Inventor
刘永亮
黄纪霖
钟庆萍
杨舒
陈琳
杨鹏飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Cloud Manufacturing Sichuan Innovation Center Co ltd
Original Assignee
Industrial Cloud Manufacturing Sichuan Innovation Center Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial Cloud Manufacturing Sichuan Innovation Center Co ltd filed Critical Industrial Cloud Manufacturing Sichuan Innovation Center Co ltd
Priority to CN202210613556.2A priority Critical patent/CN114897929B/zh
Publication of CN114897929A publication Critical patent/CN114897929A/zh
Application granted granted Critical
Publication of CN114897929B publication Critical patent/CN114897929B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

为了解决对于机器人在运动过程中的光线强弱、背景与目标物之间的彼此色彩和成像干扰,以及运动物体远近变化等因素叠加后的无规律性噪声,则尚无高效的噪声处理方式的问题,本发明提供了一种基于视觉降噪的机器人运动方法,包括:步骤110:获取n‑1时刻前目标区域的多个视觉数据,该视觉数据至少包括n‑2、n‑3、n‑4、n‑5和n‑6时刻的视觉数据;步骤120:基于导航数据库和模式识别数据库对视觉数据进行合并归类,所述模式识别数据库是针对目标识别物对应于n‑1时刻的第一形态特征,基于卷积神经网络形成的预训练模型库;步骤130:基于归类结果进行n‑1时刻的运动轨迹预测;步骤140:基于n‑1时刻和n时刻的实际视觉数据对预测结果进行降噪。

Description

基于视觉降噪的机器人运动方法
技术领域
本发明涉及运动目标的视觉检测技术领域,更具体地,涉及一种基于视觉降噪的机器人运动方法。
背景技术
机器人在野外自主运动过程中离不开视觉识别,例如用于导航和用于障碍物识别。无论哪种,都可以归为运动目标检测。运动目标检测是指当监控场景中有活动目标时,采用图像分割的方法从背景图像中提取出目标的运动区域。运动目标检测技术是智能视频分析的基础,因为目标跟踪、行为理解等视频分析算法都是针对目标区域的像素点进行的,目标检测的结果直接决定着智能视觉监控系统的整体性能。
现有技术中,运动目标检测的方法有很多种。根据背景是否复杂、摄像机是否运动等环境的不同,算法之间也有很大的差别。其中最常用的三类方法是:光流场法、帧间差分法、背景减法。下面对这三类方法进行介绍,通过实验结果,对它们各自的算法性能进行分析,为进一步的目标检测算法研究建立良好的基础。实践中,常采用卷积神经网络(Convolutional Neural Networks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一。近年来,人工智能技术与相关算法的融合越来越紧密,相关技术还包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等。
然而,现有技术对于机器人视觉噪声的处理,多停留在非实时阶段的处理技术,例如Topaz DeNoise AI是目前全球最好的AI智能图像降噪工具,其通过调整基础的参数就可以立即消除噪音,让图片细节得到优化,让您的图片看上去更加清晰,非常适合需要优化图片清晰度的情形。对于机器人在运动过程中的光线强弱、背景与目标物之间的彼此色彩和成像干扰,以及运动物体远近变化等因素叠加后的无规律性噪声,则尚无高效的噪声处理方式。
发明内容
为了解决现有技术中的上述问题,本发明提供了一种基于视觉降噪的机器人运动方法,包括:
步骤110:获取n-1时刻前目标区域的多个视觉数据,该视觉数据至少包括n-2、n-3、n-4、n-5和n-6时刻的视觉数据;
步骤120:基于导航数据库和模式识别数据库对视觉数据进行合并归类,所述模式识别数据库是针对目标识别物对应于n-1时刻的第一形态特征,基于卷积神经网络形成的预训练模型库;
步骤130:基于归类结果进行n-1时刻的运动轨迹预测;
步骤140:基于n-1时刻和n时刻的实际视觉数据对预测结果进行降噪。
进一步地,所述步骤120包括:
步骤1201:根据步骤110确定的多个视觉数据覆盖的区域,获取导航数据库中的该区域内的路径数据;
步骤1202:将步骤110确定的视觉数据转换成像素阵;
步骤1203:将像素阵通过softmax函数取得概率排在前五位的归类目标;
步骤1204:将步骤1203得到的前五位的概率进行下列转换:
g(Kn-2)=g(Kn-3)+g′(Kn-4),
其中Kn-3表示n-3时刻的视觉数据,其中Kn-2表示n-2时刻的视觉数据,其中Kn-4表示n-4时刻的视觉数据,g()运算表示经过步骤1203中的softmax函数后得到的前五位的概率的运算,g′(Kn-4)表示以下运算:
Figure BDA0003672818540000031
其中,M和N分别为n-4时刻的视觉数据在通过softmax时得到的概率个数,以及n-3时刻的视觉数据在通过softmax时得到的概率个数;j和k表示从1开始的自然数;
步骤1205:对经过步骤1204处理得到的g(Kn-2)数据,再次经过softmax函数,取得对应于n-2时刻的概率排在前两位的归类目标。
进一步地,步骤130包括:
步骤1301:根据下式,对n-2时刻的概率排在前两位的归类目标中概率较大的归类目标,进行n-1时刻的运动轨迹预测:
Figure BDA0003672818540000032
其中,Rrout表示n-1时刻的运动轨迹预测结果,ln为取对数函数,F(tj)表示tj时刻排在前两位的归类目标中概率较大的归类目标的概率,G(tk)表示tk时刻排在前两位的归类目标中概率较小的归类目标的概率,F(tj)在t1时表示n-3、n-4和n-5时刻对应的视觉数据经过步骤120后得到的对应于n-2时刻的、排在前两位的归类目标中概率较大的归类目标的概率,G(tk)在t1时表示n-3、n-4和n-5时刻对应的视觉数据经过步骤120后得到的对应于n-2时刻的、排在前两位的归类目标中概率较小的归类目标的概率,F(tj)在t2时表示n-4、n-5和n-6时刻对应的视觉数据经过步骤120后得到的对应于n-3时刻的、排在前两位的归类目标中概率较大的归类目标的概率,G(tk)在t2时表示n-4、n一5和n-6时刻对应的视觉数据经过步骤120后得到的对应于n-3时刻的、排在前两位的归类目标中概率较小的归类目标的概率;
步骤1302:当Rrout小于预定阈值时,对n-2时刻的概率排在前两位的归类目标中概率较大的归类目标,作为归类得到的最终目标;否则,对n-2时刻的概率排在前两位的归类目标中概率较小的归类目标,作为归类得到的最终目标;
步骤1303:将归类得到的最终目标,根据在n-1时刻和n-2时刻于步骤110得到的视觉数据得到的速度,应用于导航数据库进行位置对应。
进一步地,所述步骤140包括:
步骤1401:获得n时刻,最终目标在视觉数据上的第二形态特征;
步骤1402:将第一形态特征和第二形态特征分别进行像素矩阵模值的计算并得到两个模值的比值,作为第一比值;
步骤1403:根据步骤1303获得的最终目标在n-1及n-2时刻的速度进行比值,作为第二比值;
步骤1404:判断第一比值和第二比值的增大或减小趋势是否相同,如果相同,则设定修正因数为1;否则,将n时刻的视觉图像上的第二形态特征与n-1时刻的第一形态特征之间的比值作为修正因数;
步骤1405:在对n+1时刻获得的视觉数据进行像素阵转换时,将得到的矩阵乘以所述修正因数。
进一步地,步骤140还包括:
步骤1406:根据修正因数是否为1,对导航数据库中的道路信息,根据视觉数据对应的位置信息进行修正。
进一步地,所述像素阵在进行softmax函数处理前,还要经过卷积。
进一步地,所述卷积为基于双层卷积神经网络的卷积。
本发明的有益效果是:可以实现机器人在无人值守场景下的探路、无人区拍摄等过程中,获得图像效果的自适应调整能力,从而在保证图像清晰度的前提下大大降低了机器人对摄像设备的依赖。此外,本发明还能够在识别出危险目标物时自动从导航地图上进行规避,而无需人为参数调整或干涉。
附图说明
图1示出了本发明基于视觉降噪的机器人运动方法的流程图。
具体实施方式
如图1所示,本发明提供了一种基于视觉降噪的机器人运动方法,包括:
步骤110:获取n-1时刻前目标区域的多个视觉数据,该视觉数据至少包括n-2、n-3、n-4、n-5和n-6时刻的视觉数据;
步骤120:基于导航数据库和模式识别数据库对视觉数据进行合并归类,所述模式识别数据库是针对目标识别物对应于n-1时刻的第一形态特征,基于卷积神经网络形成的预训练模型库;
步骤130:基于归类结果进行n-1时刻的运动轨迹预测;
步骤140:基于n-1时刻和n时刻的实际视觉数据对预测结果进行降噪。
优选地,所述步骤120包括:
步骤1201:根据步骤110确定的多个视觉数据覆盖的区域,获取导航数据库中的该区域内的路径数据;
步骤1202:将步骤110确定的视觉数据转换成像素阵;
步骤1203:将像素阵通过softmax函数取得概率排在前五位的归类目标;
步骤1204:将步骤1203得到的前五位的概率进行下列转换:
g(Kn-2)=g(Kn-3)+g′(Kn-4),
其中Kn-3表示n-3时刻的视觉数据,其中Kn-2表示n-2时刻的视觉数据,其中Kn-4表示n-4时刻的视觉数据,g()运算表示经过步骤1203中的softmax函数后得到的前五位的概率的运算,g′(Kn-4)表示以下运算:
Figure BDA0003672818540000071
其中,M和N分别为n-4时刻的视觉数据在通过softmax时得到的概率个数,以及n-3时刻的视觉数据在通过softmax时得到的概率个数;j和k表示从1开始的自然数;
步骤1205:对经过步骤1204处理得到的g(Kn-2)数据,再次经过softmax函数,取得对应于n-2时刻的概率排在前两位的归类目标。
优选地,步骤130包括:
步骤1301:根据下式,对n-2时刻的概率排在前两位的归类目标中概率较大的归类目标,进行n-1时刻的运动轨迹预测:
Figure BDA0003672818540000072
其中,Rrout表示n-1时刻的运动轨迹预测结果,ln为取对数函数,F(tj)表示tj时刻排在前两位的归类目标中概率较大的归类目标的概率,G(tk)表示tk时刻排在前两位的归类目标中概率较小的归类目标的概率,F(tj)在t1时表示n-3、n-4和n-5时刻对应的视觉数据经过步骤120后得到的对应于n-2时刻的、排在前两位的归类目标中概率较大的归类目标的概率,G(tk)在t1时表示n-3、n-4和n-5时刻对应的视觉数据经过步骤120后得到的对应于n-2时刻的、排在前两位的归类目标中概率较小的归类目标的概率,F(tj)在t2时表示n-4、n-5和n-6时刻对应的视觉数据经过步骤120后得到的对应于n-3时刻的、排在前两位的归类目标中概率较大的归类目标的概率,G(tk)在t2时表示n-4、n-5和n-6时刻对应的视觉数据经过步骤120后得到的对应于n-3时刻的、排在前两位的归类目标中概率较小的归类目标的概率;
步骤1302:当Rrout小于预定阈值时,对n-2时刻的概率排在前两位的归类目标中概率较大的归类目标,作为归类得到的最终目标;否则,对n-2时刻的概率排在前两位的归类目标中概率较小的归类目标,作为归类得到的最终目标;
步骤1303:将归类得到的最终目标,根据在n-1时刻和n-2时刻于步骤110得到的视觉数据得到的速度,应用于导航数据库进行位置对应。
优选地,所述步骤140包括:
步骤1401:获得n时刻,最终目标在视觉数据上的第二形态特征;
步骤1402:将第一形态特征和第二形态特征分别进行像素矩阵模值的计算并得到两个模值的比值,作为第一比值;
步骤1403:根据步骤1303获得的最终目标在n-1及n-2时刻的速度进行比值,作为第二比值;
步骤1404:判断第一比值和第二比值的增大或减小趋势是否相同,如果相同,则设定修正因数为1;否则,将n时刻的视觉图像上的第二形态特征与n-1时刻的第一形态特征之间的比值作为修正因数;
步骤1405:在对n+1时刻获得的视觉数据进行像素阵转换时,将得到的矩阵乘以所述修正因数。
优选地,步骤140还包括:
步骤1406:根据修正因数是否为1,对导航数据库中的道路信息,根据视觉数据对应的位置信息进行修正。
优选地,所述像素阵在进行softmax函数处理前,还要经过卷积。
优选地,所述卷积为基于双层卷积神经网络的卷积。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (7)

1.一种基于视觉降噪的机器人运动方法,其特征在于,包括:
步骤110:获取n-1时刻前目标区域的多个视觉数据,该视觉数据至少包括n-2、n-3、n-4、n-5和n-6时刻的视觉数据;
步骤120:基于导航数据库和模式识别数据库对视觉数据进行合并归类,所述模式识别数据库是针对目标识别物对应于n-1时刻的第一形态特征,基于卷积神经网络形成的预训练模型库;
步骤130:基于归类结果进行n-1时刻的运动轨迹预测;
步骤140:基于n-1时刻和n时刻的实际视觉数据对预测结果进行降噪。
2.根据权利要求1所述的基于视觉降噪的机器人运动方法,其特征在于,所述步骤120包括:
步骤1201:根据步骤110确定的多个视觉数据覆盖的区域,获取导航数据库中的该区域内的路径数据;
步骤1202:将步骤110确定的视觉数据转换成像素阵;
步骤1203:将像素阵通过softmax函数取得概率排在前五位的归类目标;
步骤1204:将步骤1203得到的前五位的概率进行下列转换:
g(Kn-2)=g(Kn-3)+g′(Kn-4),
其中Kn-3表示n-3时刻的视觉数据,其中Kn-2表示n-2时刻的视觉数据,其中Kn-4表示n-4时刻的视觉数据,g()运算表示经过步骤1203中的softmax函数后得到的前五位的概率的运算,g′(Kn-4)表示以下运算:
Figure FDA0003672818530000021
其中,M和N分别为n-4时刻的视觉数据在通过softmax时得到的概率个数,以及n-3时刻的视觉数据在通过softmax时得到的概率个数;j和k表示从1开始的自然数;
步骤1205:对经过步骤1204处理得到的g(Kn-2)数据,再次经过softmax函数,取得对应于n-2时刻的概率排在前两位的归类目标。
3.根据权利要求2所述的基于视觉降噪的机器人运动方法,其特征在于,步骤130包括:
步骤1301:根据下式,对n-2时刻的概率排在前两位的归类目标中概率较大的归类目标,进行n-1时刻的运动轨迹预测:
Figure FDA0003672818530000022
其中,Rrout表示n-1时刻的运动轨迹预测结果,ln为取对数函数,F(tj)表示tj时刻排在前两位的归类目标中概率较大的归类目标的概率,G(tk)表示tk时刻排在前两位的归类目标中概率较小的归类目标的概率,F(tj)在t1时表示n-3、n-4和n-5时刻对应的视觉数据经过步骤120后得到的对应于n-2时刻的、排在前两位的归类目标中概率较大的归类目标的概率,G(tk)在t1时表示n-3、n-4和n-5时刻对应的视觉数据经过步骤120后得到的对应于n-2时刻的、排在前两位的归类目标中概率较小的归类目标的概率,F(tj)在t2时表示n-4、n-5和n-6时刻对应的视觉数据经过步骤120后得到的对应于n-3时刻的、排在前两位的归类目标中概率较大的归类目标的概率,G(tk)在t2时表示n-4、n-5和n-6时刻对应的视觉数据经过步骤120后得到的对应于n-3时刻的、排在前两位的归类目标中概率较小的归类目标的概率;
步骤1302:当Rrout小于预定阈值时,对n-2时刻的概率排在前两位的归类目标中概率较大的归类目标,作为归类得到的最终目标;否则,对n-2时刻的概率排在前两位的归类目标中概率较小的归类目标,作为归类得到的最终目标;
步骤1303:将归类得到的最终目标,根据在n-1时刻和n-2时刻于步骤110得到的视觉数据得到的速度,应用于导航数据库进行位置对应。
4.根据权利要求3所述的基于视觉降噪的机器人运动方法,其特征在于,所述步骤140包括:
步骤1401:获得n时刻,最终目标在视觉数据上的第二形态特征;
步骤1402:将第一形态特征和第二形态特征分别进行像素矩阵模值的计算并得到两个模值的比值,作为第一比值;
步骤1403:根据步骤1303获得的最终目标在n-1及n-2时刻的速度进行比值,作为第二比值;
步骤1404:判断第一比值和第二比值的增大或减小趋势是否相同,如果相同,则设定修正因数为1;否则,将n时刻的视觉图像上的第二形态特征与n-1时刻的第一形态特征之间的比值作为修正因数;
步骤1405:在对n+1时刻获得的视觉数据进行像素阵转换时,将得到的矩阵乘以所述修正因数。
5.根据权利要求4所述的基于视觉降噪的机器人运动方法,其特征在于,步骤140还包括:
步骤1406:根据修正因数是否为1,对导航数据库中的道路信息,根据视觉数据对应的位置信息进行修正。
6.根据权利要求5所述的基于视觉降噪的机器人运动方法,其特征在于,所述像素阵在进行softmax函数处理前,还要经过卷积。
7.根据权利要求6所述的基于视觉降噪的机器人运动方法,其特征在于,所述卷积为基于双层卷积神经网络的卷积。
CN202210613556.2A 2022-05-31 2022-05-31 基于视觉降噪的机器人运动方法 Active CN114897929B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210613556.2A CN114897929B (zh) 2022-05-31 2022-05-31 基于视觉降噪的机器人运动方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210613556.2A CN114897929B (zh) 2022-05-31 2022-05-31 基于视觉降噪的机器人运动方法

Publications (2)

Publication Number Publication Date
CN114897929A true CN114897929A (zh) 2022-08-12
CN114897929B CN114897929B (zh) 2024-06-04

Family

ID=82726870

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210613556.2A Active CN114897929B (zh) 2022-05-31 2022-05-31 基于视觉降噪的机器人运动方法

Country Status (1)

Country Link
CN (1) CN114897929B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110075041A1 (en) * 2009-09-30 2011-03-31 Qiang Zhu Method and System for a Generalized Multi-Dimensional Filter Device
CN106296736A (zh) * 2016-08-08 2017-01-04 河海大学 一种仿记忆引导的模式识别方法
CN108303094A (zh) * 2018-01-31 2018-07-20 深圳市拓灵者科技有限公司 基于多视觉传感器融合阵列的定位导航系统及其定位导航方法
CN110285813A (zh) * 2019-07-01 2019-09-27 东南大学 一种室内移动机器人人机共融导航装置及方法
CN110717927A (zh) * 2019-10-10 2020-01-21 桂林电子科技大学 基于深度学习和视惯融合的室内机器人运动估计方法
CN110992393A (zh) * 2019-11-24 2020-04-10 杭州鼎热科技有限公司 一种基于视觉的目标运动跟踪方法
CN111739066A (zh) * 2020-07-27 2020-10-02 深圳大学 一种基于高斯过程的视觉定位方法、系统及存储介质
CN112180943A (zh) * 2020-10-19 2021-01-05 山东交通学院 一种基于视觉图像和激光雷达的水下机器人导航避障方法
CN112991280A (zh) * 2021-03-03 2021-06-18 望知科技(深圳)有限公司 视觉检测方法、系统及电子设备
CN113963432A (zh) * 2021-09-09 2022-01-21 上海智逍遥机器人有限公司 一种基于双目立体视觉机器人跟随行人的方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110075041A1 (en) * 2009-09-30 2011-03-31 Qiang Zhu Method and System for a Generalized Multi-Dimensional Filter Device
CN106296736A (zh) * 2016-08-08 2017-01-04 河海大学 一种仿记忆引导的模式识别方法
CN108303094A (zh) * 2018-01-31 2018-07-20 深圳市拓灵者科技有限公司 基于多视觉传感器融合阵列的定位导航系统及其定位导航方法
CN110285813A (zh) * 2019-07-01 2019-09-27 东南大学 一种室内移动机器人人机共融导航装置及方法
CN110717927A (zh) * 2019-10-10 2020-01-21 桂林电子科技大学 基于深度学习和视惯融合的室内机器人运动估计方法
CN110992393A (zh) * 2019-11-24 2020-04-10 杭州鼎热科技有限公司 一种基于视觉的目标运动跟踪方法
CN111739066A (zh) * 2020-07-27 2020-10-02 深圳大学 一种基于高斯过程的视觉定位方法、系统及存储介质
CN112180943A (zh) * 2020-10-19 2021-01-05 山东交通学院 一种基于视觉图像和激光雷达的水下机器人导航避障方法
CN112991280A (zh) * 2021-03-03 2021-06-18 望知科技(深圳)有限公司 视觉检测方法、系统及电子设备
CN113963432A (zh) * 2021-09-09 2022-01-21 上海智逍遥机器人有限公司 一种基于双目立体视觉机器人跟随行人的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
周祥增: "基于深度学习的运动目标检 测与跟踪研究", 中国博士学位论文全文数据库 (信息科技辑), no. 6, 30 June 2018 (2018-06-30), pages 138 - 116 *

Also Published As

Publication number Publication date
CN114897929B (zh) 2024-06-04

Similar Documents

Publication Publication Date Title
CN110232350B (zh) 一种基于在线学习的实时水面多运动目标检测跟踪方法
CN113807187B (zh) 基于注意力特征融合的无人机视频多目标跟踪方法
CN107872644B (zh) 视频监控方法及装置
CN107145889B (zh) 基于具有RoI池化的双CNN网络的目标识别方法
CN111626128B (zh) 一种基于改进YOLOv3的果园环境下行人检测方法
Lu et al. Deep-sea organisms tracking using dehazing and deep learning
CN109977774B (zh) 一种基于自适应卷积的快速目标检测方法
CN109034184B (zh) 一种基于深度学习的均压环检测识别方法
CN113159466B (zh) 一种短时光伏发电功率预测系统及方法
CN111639571B (zh) 基于轮廓卷积神经网络的视频动作识别方法
CN114820702A (zh) 一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法
CN109801297B (zh) 一种基于卷积实现的图像全景分割预测优化方法
CN112562255B (zh) 微光环境下电缆沟道烟雾火情的智能图像检测方法
CN110022422B (zh) 一种基于密集连接网络的视频帧序列生成方法
CN110490155B (zh) 一种禁飞空域无人机检测方法
CN110992378B (zh) 基于旋翼飞行机器人的动态更新视觉跟踪航拍方法及系统
CN111723829A (zh) 一种基于注意力掩模融合的全卷积目标检测方法
CN113689464A (zh) 一种基于孪生网络的自适应多层响应融合的目标跟踪方法
CN112927264A (zh) 一种无人机跟踪拍摄系统及其rgbd跟踪方法
CN112560865A (zh) 一种室外大场景下点云的语义分割方法
CN115147745A (zh) 一种基于城市无人机图像的小目标检测方法
CN111354016A (zh) 基于深度学习和差异值哈希的无人机舰船跟踪方法及系统
CN114612508A (zh) 一种多特征在线学习的抗遮挡相关滤波目标跟踪方法
CN110111358B (zh) 一种基于多层时序滤波的目标跟踪方法
CN112819856A (zh) 一种应用于无人机的目标跟踪方法及自定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant