CN112949452B - 一种基于多任务共享网络的机器人弱光环境抓取检测方法 - Google Patents
一种基于多任务共享网络的机器人弱光环境抓取检测方法 Download PDFInfo
- Publication number
- CN112949452B CN112949452B CN202110215147.2A CN202110215147A CN112949452B CN 112949452 B CN112949452 B CN 112949452B CN 202110215147 A CN202110215147 A CN 202110215147A CN 112949452 B CN112949452 B CN 112949452B
- Authority
- CN
- China
- Prior art keywords
- image
- low
- loss
- grabbing
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多任务共享网络的机器人弱光环境抓取检测方法,属于计算机视觉与智能机器人技术领域。本发明通过图像采集保证弱光环境与正常光照环境下拍摄图像的严格匹配,构建相应的数据集d,再采用Darknet‑53作为骨干网络构建弱光环境抓取检测模型,提取具有强特征表达能力的多尺度特征,通过并行级联抓取检测模块和图像增强模块,分别实现抓取检测和弱光图像增强任务;从数据集d中随机选取训练样本,利用弱光环境抓取检测模型进行预测,当损失值在迭代次数iter内的变化小于阈值t时,抓取检测模型G已收敛,即模型G训练完成;对于在弱光环境下拍摄的图像Ilow,将其输入已训练的模型G,得到预测的抓取框参数及增强后图像,完成弱光环境抓取检测任务。
Description
技术领域
本发明属于计算机视觉与智能机器人技术领域,具体涉及一种基于多任务共享网络的机器人弱光环境抓取检测方法。
背景技术
随着人工智能、机器人控制和感知技术的不断发展,配备有多自由度机械臂的机器人能够自主实现对不同目标物体的抓取操作,并开展高级别人机交互,在家庭服务、自动化装配等诸多领域正扮演着越来越重要的角色。典型的机器人抓取流程一般包括四个步骤:目标定位、姿态估计、抓取检测和运动规划,其中抓取检测能够确定物体上的可抓取部位,直接决定了机器人抓取操作的稳定性和精度,具有重要作用。目前,机器人抓取检测算法通常利用深度学习模型以端到端的方式建立输入信息(包括:图像、深度信息、触觉信息等)与预测抓取框的映射关系,通过模型的反复训练迭代,不断提升抓取检测精度和鲁棒性。
然而,现有抓取检测方法的输入图像往往在光照充足条件下采集和获取,此时目标细节纹理清晰、与背景的特征差异明显。在低对比度的弱光环境下,现有方法的检测精度急剧降低,因此,通常采用外置光源补光和红外传感器融合等手段提高待抓取目标的可见性,但前者会带来严重的光污染和能量消耗,而后者无法提供色彩信息,且对物体细节的分辨率较低。因此,采用一种适用于低对比度弱光环境,且无需引入额外传感器的抓取检测算法,具有十分重要的意义。
发明内容
针对低对比度弱光环境下检测精度低的问题,本发明提供了一种基于多任务共享网络的机器人弱光环境抓取检测方法。
为了达到上述目的,本发明采用了下列技术方案:
一种基于多任务共享网络的机器人弱光环境抓取检测方法,包括以下步骤:
步骤1,采集并构建相应的数据集d, 数据集d由4n组“弱光图像-正常光照图像-抓取标注信息”对构成,其中表示场景i下的第j幅弱光环境图像,表示场景i下的正常光照图像,bi表示场景i下的抓取框标注参数,n表示数据集中的场景数目,j表示每一场景拍摄的弱光图像数目,为保证弱光环境与正常光照环境下拍摄图像的严格匹配,进行图像采集;直至得到完整数据集d;
步骤2,采用Darknet-53作为骨干网络构建弱光环境抓取检测模型,提取具有强特征表达能力的多尺度特征,通过并行级联抓取检测模块和图像增强模块,分别实现抓取检测和弱光图像增强任务;
步骤3,从数据集d中随机选取训练样本,利用弱光环境抓取检测模型进行预测,将预测的抓取框及增强图像与真实值进行比较,计算对应的损失值,并根据损失值对模型各参数进行调整,确保数据集中所有样本均完成训练;当损失值在迭代次数iter内的变化小于阈值t时,则认为抓取检测模型G已收敛,即模型G训练完成;
对于在弱光环境下拍摄的图像Ilow,将其输入已训练的模型G,得到预测的抓取框参数及增强后图像,完成弱光环境抓取检测任务,即:
G(Ilow)→{Inormal,xi,yi,θi,wi,hi},i=1,2,…,m
其中,Inormal表示模型增强后的图像,xi,yi表示预测的第i个抓取框中心像素点的横、纵坐标,θi为预测的第i个抓取框相对于水平方向的旋转角度,wi,hi表示预测的第i个抓取框的宽度和高度,m表示预测的抓取框总数。
进一步,所述步骤1中图像采集方法包括以下步骤:
步骤S1.1搭建内部无光环境的暗室,在暗室底部四个角落以及顶部安装可调光LED灯泡;
步骤S1.2在当前场景i下,将相机固定于三角架上,调节LED灯泡亮度分别至0.001lux,0.01lux,0.1lux,1lux和20lux,其中前四级亮度用于模拟不同等级的弱光环境,最后一级亮度用于模拟采光良好的室内环境,在不同亮度下分别对目标物体进行拍摄,得到对应的4张弱光环境图像和1张正常光照图像
步骤S1.3在正常光照图像基础上,进行抓取框标注,获取当前成像场景的标注参数bi,形成4组“弱光图像-正常光照图像-抓取标注信息”对;
步骤S1.4最后改变待拍摄的目标物体或拍摄场景,重复执行步骤S1.2和步骤S1.3,直至得到完整数据集d。
进一步,所述步骤2中抓取检测模块是采用Yolo v3目标检测框架的多尺度特征融合及参数预测机制,分别在小尺度、中尺度和大尺度下进行抓取框参数的预测。
进一步,所述步骤2中图像增强模块包括以下步骤:
步骤S2.2,对map104*104进行反卷积操作,并与Darknet-53网络第4层特征图fmap4沿通道维度进行拼接,经2个3×3卷积得到尺寸为64×208×208的特征图map208*208,即:
步骤S2.3,针对Darknet-53网络第1层特征图fmap1,重复步骤S2.1和步骤S2.2,得到尺寸为32×416×416的特征图map416*416,经2个3×3卷积和1个1×1卷积得到尺寸为3×416×416最终的增强图像mapoutput,即:
其中,κ1×1代表尺寸为1×1的卷积核。
进一步,所述步骤2中模型损失函数Loss定义为:
Loss=Lossreg+Losscls+γimg*Lossimg
其中Lossreg表示回归损失,主要评价模型预测的无方向抓取框与真实无方向抓取框的位置和尺寸差异;
Losscls表示分类损失,主要评价模型预测的抓取框类别与真实抓取框类别的差异;
Lossimg表示图像重构损失,主要评价增强图像与正常光照图像的视觉差异,具体形式如下:
针对输入的单幅图像,引入图像平衡因子γimg,用于调整Lossreg,Losscls和Lossimg对模型总损失的贡献度。
与现有技术相比本发明具有以下优点:
1.无需引入外置光源、红外等补光手段,仅利用光学图像即可实现弱光环境下的抓取检测,具有能耗低、成本可控等优势;
2.充分利用深度模型的强特征表达能力,利用单一模型同时实现图像增强和抓取检测两个任务,有助于加速模型收敛速度,并提高单任务算法精度。
本发明的方法易于实现,其应用价值主要体现在以下几个方面:
1.对于煤矿井下作业、工厂流水线自动装配等领域,可在低光照环境下保证正常作业和运转,大大节约电力等能源消耗,降低企业运行成本;
2.可有效提高抓取检测算法的环境适应性,从而扩展机器人抓取任务的工作时间范围,有助于实现全天候机器人操作。
附图说明
图1为本发明的流程图;
图2为拍摄数据集所搭建的暗室及光源位置分布示意图;
图3为本发明所提多任务共享网络基本结构图;
图4从左到右依次为拍摄的弱光图像,模型增强后图像,增强图像抓取检测结果。
具体实施方式
实施例1
图1为本发明的流程图,一种基于多任务共享网络的机器人弱光环境抓取检测方法,包括以下步骤:
步骤1,采集并构建相应的数据集d, 数据集d由4n组“弱光图像-正常光照图像-抓取标注信息”对构成,其中表示场景i下的第j幅弱光环境图像,表示场景i下的正常光照图像,bi表示场景i下的抓取框标注参数,n表示数据集中的场景数目,j表示每一场景拍摄的弱光图像数目,为保证弱光环境与正常光照环境下拍摄图像的严格匹配,进行图像采集;直至得到完整数据集d;
步骤S1.1搭建内部无光环境的暗室,在暗室底部四个角落以及顶部安装可调光LED灯泡;图2为拍摄数据集所搭建的暗室及光源位置分布示意图;
步骤S1.2在当前场景i下,将相机固定于三角架上,调节LED灯泡亮度分别至0.001lux,0.01lux,0.1lux,1lux和20lux,其中前四级亮度用于模拟不同等级的弱光环境,最后一级亮度用于模拟采光良好的室内环境,在不同亮度下分别对目标物体进行拍摄,得到对应的4张弱光环境图像和1张正常光照图像
步骤S1.3在正常光照图像基础上,进行抓取框标注,获取当前成像场景的标注参数bi,形成4组“弱光图像-正常光照图像-抓取标注信息”对;
步骤S1.4最后改变待拍摄的目标物体或拍摄场景,重复执行步骤S1.2和步骤S1.3,直至得到完整数据集d;
步骤2,采用Darknet-53作为骨干网络构建弱光环境抓取检测模型,提取具有强特征表达能力的多尺度特征,通过并行级联抓取检测模块和图像增强模块,分别实现抓取检测和弱光图像增强任务;
抓取检测模块是采用Yolo v3目标检测框架的多尺度特征融合及参数预测机制,分别在小尺度、中尺度和大尺度下进行抓取框参数的预测。
图像增强模块包括以下步骤:
步骤S2.2,对map104*104进行反卷积操作,并与Darknet-53网络第4层特征图fmap4沿通道维度进行拼接,经2个3×3卷积得到尺寸为64×208×208的特征图map208*208,即:
步骤S2.3,针对Darknet-53网络第1层特征图fmap1,重复步骤S2.1和步骤S2.2,得到尺寸为32×416×416的特征图map416*416,经2个3×3卷积和1个1×1卷积得到尺寸为3×416×416最终的增强图像mapoutput,即:
其中,κ1×1代表尺寸为1×1的卷积核。
进一步,所述步骤2中模型损失函数Loss定义为:
Loss=Lossreg+Losscls+γimg*Lossimg
其中Lossreg表示回归损失,主要评价模型预测的无方向抓取框与真实无方向抓取框的位置和尺寸差异;
Losscls表示分类损失,主要评价模型预测的抓取框类别与真实抓取框类别的差异;
Lossimg表示图像重构损失,主要评价增强图像与正常光照图像的视觉差异,具体形式如下:
针对输入的单幅图像,引入图像平衡因子γimg,用于调整Lossreg,Losscls和Lossimg对模型总损失的贡献度;图3为本发明所提多任务共享网络基本结构图;
步骤3,从数据集d中随机选取训练样本,利用弱光环境抓取检测模型进行预测,将预测的抓取框及增强图像与真实值进行比较,计算对应的损失值,并根据损失值对模型各参数进行调整,确保数据集中所有样本均完成训练;当损失值在迭代次数iter内的变化小于阈值t时,则认为抓取检测模型G已收敛,即模型G训练完成;
对于在弱光环境下拍摄的图像Ilow,将其输入已训练的模型G,得到预测的抓取框参数及增强后图像,完成弱光环境抓取检测任务,即:
G(Ilow)→{Inormal,xi,yi,θi,wi,hi},i=1,2,…,m
其中,Inormal表示模型增强后的图像,xi,yi表示预测的第i个抓取框中心像素点的横、纵坐标,θi为预测的第i个抓取框相对于水平方向的旋转角度,wi,hi表示预测的第i个抓取框的宽度和高度,m表示预测的抓取框总数。如图4从左到右依次为拍摄的弱光图像,模型增强后图像,增强图像抓取检测结果。
本发明说明书中未作详细描述的内容属于本领域专业技术人员公知的现有技术。尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
Claims (4)
1.一种基于多任务共享网络的机器人弱光环境抓取检测方法,其特征在于:包括以下步骤:
步骤1,采集并构建相应的数据集d,i=1,2,…,n,j=1,2,3,4,数据集d由4n组“弱光图像-正常光照图像-抓取标注信息”对构成,其中表示场景i下的第j幅弱光环境图像,表示场景i下的正常光照图像,bi表示场景i下的抓取框标注参数,n表示数据集中的场景数目,j表示每一场景拍摄的弱光图像数目,为保证弱光环境与正常光照环境下拍摄图像的严格匹配,进行图像采集;直至得到完整数据集d;
步骤2,采用Darknet-53作为骨干网络构建弱光环境抓取检测模型,提取具有强特征表达能力的多尺度特征,通过并行级联抓取检测模块和图像增强模块,分别实现抓取检测和弱光图像增强任务;
步骤3,从数据集d中随机选取训练样本,利用弱光环境抓取检测模型进行预测,将预测的抓取框及增强图像与真实值进行比较,计算对应的损失值,并根据损失值对模型各参数进行调整,确保数据集中所有样本均完成训练;当损失值在迭代次数iter内的变化小于阈值t时,则认为抓取检测模型G已收敛,即模型G训练完成;
对于在弱光环境下拍摄的图像Ilow,将其输入已训练的模型G,得到预测的抓取框参数及增强后图像,完成弱光环境抓取检测任务,即:
G(Ilow)→{Inormal,xi,yi,θi,wi,hi},i=1,2,…,m
其中,Inormal表示模型增强后的图像,xi,yi表示预测的第i个抓取框中心像素点的横、纵坐标,θi为预测的第i个抓取框相对于水平方向的旋转角度,wi,hi表示预测的第i个抓取框的宽度和高度,m表示预测的抓取框总数;
所述步骤2中图像增强模块包括以下步骤:
步骤S2.1,针对Yolo v3框架的大尺度预测层,提取由中尺度特征图与Darknet-53网络第36层特征图fmap36拼接、应用3×3卷积和1×1卷积得到特征图再对特征图进行反卷积操作,增大特征图尺寸,并与Darknet-53网络第11层特征图fmap11沿通道维度进行拼接,经2个3×3卷积得到尺寸为128×104×104的特征图map104*104,即:
步骤S2.2,对map104*104进行反卷积操作,并与Darknet-53网络第4层特征图fmap4沿通道维度进行拼接,经2个3×3卷积得到尺寸为64×208×208的特征图map208*208,即:
步骤S2.3,针对Darknet-53网络第1层特征图fmap1,重复步骤S2.1和步骤S2.2,得到尺寸为32×416×416的特征图map416*416,经2个3×3卷积和1个1×1卷积得到尺寸为3×416×416最终的增强图像mapoutput,即:
mapoutput=map416*416*κ3×3*κ3×3*κ1×1
其中,κ1×1代表尺寸为1×1的卷积核。
2.根据权利要求1所述的一种基于多任务共享网络的机器人弱光环境抓取检测方法,其特征在于:所述步骤1中图像采集方法包括以下步骤:
步骤S1.1搭建内部无光环境的暗室,在暗室底部四个角落以及顶部安装可调光LED灯泡;
步骤S1.2在当前场景i下,将相机固定于三角架上,调节LED灯泡亮度分别至0.001lux,0.01lux,0.1lux,1lux和20lux,其中前四级亮度用于模拟不同等级的弱光环境,最后一级亮度用于模拟采光良好的室内环境,在不同亮度下分别对目标物体进行拍摄,得到对应的4张弱光环境图像和1张正常光照图像
步骤S1.3在正常光照图像基础上,进行抓取框标注,获取当前成像场景的标注参数bi,形成4组“弱光图像-正常光照图像-抓取标注信息”对;
步骤S1.4最后改变待拍摄的目标物体或拍摄场景,重复执行步骤S1.2和步骤S1.3,直至得到完整数据集d。
3.根据权利要求2所述的一种基于多任务共享网络的机器人弱光环境抓取检测方法,其特征在于:所述步骤2中抓取检测模块是采用Yolo v3目标检测框架的多尺度特征融合及参数预测机制,分别在小尺度、中尺度和大尺度下进行抓取框参数的预测。
4.根据权利要求3所述的一种基于多任务共享网络的机器人弱光环境抓取检测方法,其特征在于:所述步骤2中模型损失函数Loss定义为:
Loss=Lossreg+Losscls+γimg*Lossimg
其中Lossreg表示回归损失,主要评价模型预测的无方向抓取框与真实无方向抓取框的位置和尺寸差异;
Losscls表示分类损失,主要评价模型预测的抓取框类别与真实抓取框类别的差异;
Lossimg表示图像重构损失,主要评价增强图像与正常光照图像的视觉差异,具体形式如下:
针对输入的单幅图像,引入图像平衡因子γimg,用于调整Lossreg,Losscls和Lossimg对模型总损失的贡献度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110215147.2A CN112949452B (zh) | 2021-02-25 | 2021-02-25 | 一种基于多任务共享网络的机器人弱光环境抓取检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110215147.2A CN112949452B (zh) | 2021-02-25 | 2021-02-25 | 一种基于多任务共享网络的机器人弱光环境抓取检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112949452A CN112949452A (zh) | 2021-06-11 |
CN112949452B true CN112949452B (zh) | 2022-05-31 |
Family
ID=76246335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110215147.2A Active CN112949452B (zh) | 2021-02-25 | 2021-02-25 | 一种基于多任务共享网络的机器人弱光环境抓取检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112949452B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113723217A (zh) * | 2021-08-09 | 2021-11-30 | 南京邮电大学 | 一种基于yolo改进的物体智能检测方法及系统 |
CN113771027B (zh) * | 2021-08-17 | 2023-03-31 | 浙江工业大学 | 一种基于深度学习的双臂协作抓取方法 |
CN113822933B (zh) * | 2021-09-09 | 2023-09-29 | 中北大学 | 一种基于ResNeXt的智能机器人抓取方法 |
CN114764831A (zh) * | 2022-05-09 | 2022-07-19 | 青岛理工大学 | 基于多任务卷积的物体抓取定位识别算法、系统和机器人 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105699385A (zh) * | 2016-02-01 | 2016-06-22 | 清华大学 | 空间光调制器的缺陷层别检测系统及检测方法 |
CN207593803U (zh) * | 2017-12-01 | 2018-07-10 | 昆明德益机械制造有限公司 | 基于弱光环境补光的多传感融合机器人系统 |
CN109636754A (zh) * | 2018-12-11 | 2019-04-16 | 山西大学 | 基于生成对抗网络的极低照度图像增强方法 |
CN111310862A (zh) * | 2020-03-27 | 2020-06-19 | 西安电子科技大学 | 复杂环境下基于图像增强的深度神经网络车牌定位方法 |
CN111695562A (zh) * | 2020-05-26 | 2020-09-22 | 浙江工业大学 | 一种基于卷积神经网络的机器人自主抓取方法 |
CN111950475A (zh) * | 2020-08-15 | 2020-11-17 | 哈尔滨理工大学 | 一种基于yoloV3的calhe直方图增强型目标识别算法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10300601B2 (en) * | 2014-11-14 | 2019-05-28 | Ge Global Sourcing Llc | Vehicle control system with task manager |
-
2021
- 2021-02-25 CN CN202110215147.2A patent/CN112949452B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105699385A (zh) * | 2016-02-01 | 2016-06-22 | 清华大学 | 空间光调制器的缺陷层别检测系统及检测方法 |
CN207593803U (zh) * | 2017-12-01 | 2018-07-10 | 昆明德益机械制造有限公司 | 基于弱光环境补光的多传感融合机器人系统 |
CN109636754A (zh) * | 2018-12-11 | 2019-04-16 | 山西大学 | 基于生成对抗网络的极低照度图像增强方法 |
CN111310862A (zh) * | 2020-03-27 | 2020-06-19 | 西安电子科技大学 | 复杂环境下基于图像增强的深度神经网络车牌定位方法 |
CN111695562A (zh) * | 2020-05-26 | 2020-09-22 | 浙江工业大学 | 一种基于卷积神经网络的机器人自主抓取方法 |
CN111950475A (zh) * | 2020-08-15 | 2020-11-17 | 哈尔滨理工大学 | 一种基于yoloV3的calhe直方图增强型目标识别算法 |
Non-Patent Citations (5)
Title |
---|
Depth Image–Based Deep Learning of Grasp Planning for Textureless Planar-Faced Objects in Vision-Guided Robotic Bin-Picking;Ping Jiang 等;《Sensors 2020》;20200128;第20卷(第3期);第1-23页 * |
ExtremeLow-LightImagingwithMulti-granulationCooperativeNetworks;KeqiWang 等;《Electrical Engineering and Systems Science》;20200516;第1-10页 * |
基于深度学习的低照度图像增强算法研究;王克琪;《中国优秀硕士学位论文全文数据库 信息科技辑》;20210115;第I138-1215页 * |
工业场景下基于深度学习的散乱堆叠工件识别;孙乔 等;《南京工程学院学报(自然科学版)》;20200915;第1-5页 * |
户外空中双机械手抓取规划和视觉伺服;Pablo Ramon-Soria等;《Engineering》;20200115;第6卷(第1期);第168-192页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112949452A (zh) | 2021-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112949452B (zh) | 一种基于多任务共享网络的机器人弱光环境抓取检测方法 | |
CN111583136B (zh) | 一种救援场景下自主移动平台同时定位与建图方法 | |
CN111968129B (zh) | 具有语义感知的即时定位与地图构建系统及方法 | |
CN110956651B (zh) | 一种基于视觉和振动触觉融合的地形语义感知方法 | |
CN109800864B (zh) | 一种基于图像输入的机器人主动学习方法 | |
Alismail et al. | Direct visual odometry in low light using binary descriptors | |
CN109102525B (zh) | 一种基于自适应位姿估计的移动机器人跟随控制方法 | |
CN112734765B (zh) | 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质 | |
Zuo et al. | Devo: Depth-event camera visual odometry in challenging conditions | |
CN113674416B (zh) | 三维地图的构建方法、装置、电子设备及存储介质 | |
CN103886107B (zh) | 基于天花板图像信息的机器人定位与地图构建系统 | |
CN113963044A (zh) | 一种基于rgbd相机的货物箱智能装载方法及系统 | |
CN110706252B (zh) | 运动模型引导下的机器人核相关滤波跟踪算法 | |
Yusefi et al. | LSTM and filter based comparison analysis for indoor global localization in UAVs | |
CN116385761A (zh) | 一种融合rgb与红外信息的3d目标检测方法 | |
CN114638794A (zh) | 基于深度学习和slam技术的裂缝检测与三维定位方法 | |
CN116704273A (zh) | 一种自适应红外可见光双模融合检测方法 | |
CN113405667A (zh) | 基于深度学习的红外热人体姿态识别方法 | |
Budvytis et al. | Large scale joint semantic re-localisation and scene understanding via globally unique instance coordinate regression | |
Lu et al. | A cross-scale and illumination invariance-based model for robust object detection in traffic surveillance scenarios | |
CN115007474A (zh) | 一种基于图像识别的选煤机器人及选煤方法 | |
Zhang et al. | Improved feature point extraction method of ORB-SLAM2 dense map | |
CN115018883A (zh) | 一种基于光流和卡尔曼滤波的输电线路无人机红外自主巡检方法 | |
CN116363085B (zh) | 基于小样本学习和虚拟合成数据的工业零件目标检测方法 | |
CN113963335B (zh) | 基于图像和点云数据的路面障碍物检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |