CN113568407A - 一种基于深度视觉的人机协作安全预警方法及系统 - Google Patents
一种基于深度视觉的人机协作安全预警方法及系统 Download PDFInfo
- Publication number
- CN113568407A CN113568407A CN202110849847.7A CN202110849847A CN113568407A CN 113568407 A CN113568407 A CN 113568407A CN 202110849847 A CN202110849847 A CN 202110849847A CN 113568407 A CN113568407 A CN 113568407A
- Authority
- CN
- China
- Prior art keywords
- image
- early warning
- robot
- pedestrians
- human
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 42
- 238000012545 processing Methods 0.000 claims abstract description 18
- 238000004519 manufacturing process Methods 0.000 claims abstract description 11
- 230000009471 action Effects 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 10
- 238000012549 training Methods 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 235000019587 texture Nutrition 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 235000019580 granularity Nutrition 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 108091008695 photoreceptors Proteins 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于深度视觉的人机协作安全预警及系统,属于人机协作及计算机视觉技术领域,首先,实时采集机器人生产环境区域的图像,得到图像序列;其次,利用训练好的YOLOV5网络模型实时处理所述图像序列,定位图像中所有行人并标记;然后,计算定位且标记后的所有行人与所述机器人的相对距离;最终,将所述相对距离与设定的安全防护等级距离进行比较,根据比较结果发出不同等级的预警信号。本发明可有效提高人机协作中的人员安全性。
Description
技术领域
本发明涉及人机协作及计算机视觉技术领域,特别是涉及一种基于深度视觉的人机协作安全预警方法及系统。
背景技术
随着制造业的自动化和智能化生产程度不断提高,大量的机器人被投放到自动化生产线上,并配备一定的专业人员共同协作完成装配、焊接、搬运等工序,整个过程中难免发生机械臂与人碰撞使人受伤的情况。传统的在机械臂周围加装栅栏、人工穿戴防护器具等方法不仅需要占据额外的空间,还很难根据任务需求快速的改变工作区域的边界。且上述方法均不能从根本上解决人机协作的安全问题。
发明内容
本发明的目的是提供一种基于深度视觉的人机协作安全预警方法及系统,用以解决现有人机协作安全预警方法效率低、实时性差的问题,从根本上提高人机协作中的人员安全性。
为实现上述目的,本发明提供了如下方案:
一种基于深度视觉的人机协作安全预警方法,包括:
实时采集机器人生产环境区域的图像,得到图像序列;
利用训练好的YOLOV5网络模型实时处理所述图像序列,定位图像中所有行人并标记;
计算定位且标记后的所有行人与所述机器人的相对距离;
将所述相对距离与设定的安全防护等级距离进行比较,根据比较结果发出不同等级的预警信号。
可选的,上述基于深度视觉的人机协作安全预警方法还包括根据所述比较结果确定是否驱动机器人控制系统控制机器人做出运动规避动作;
若否,则只根据所述比较结果发出不同等级的预警信号;若是,则根据比较结果发出不同等级预警信号的同时,驱动机器人做出运动规避动作,避免机器人与行人发生碰撞。
可选的,利用YOLOV5网络模型的输入端对所述图像序列进行预处理,所述预处理的过程具体包括:
利用Mosaic对所述图像序列的数据进行增强,得到增强后的图像;
利用自适应锚框算法处理增强后的图像,得到具有最佳锚框值的图像;
利用自适应图片缩放算法对具有最佳锚框值的图像进行缩放,得到预处理图像。
可选的,利用YOLOV5网络模型的Backbone部分处理所述图像序列,获取图像特征;
利用YOLOV5网络模型的Neck部分对所述图像特征进行混合和组合,得到混合和组合后的图像特征;
利用YOLOV5网络模型的Head部分对所述混合和组合后的图像特征进行预测,定位生成所有行人的边界框,并将所述边界框显示在原图片上。
YOLOV5网络模型定位生成所有行人的边界框时利用GIOU_Loss函数解决边界框不重合的问题,GIOU_Loss函数如下所示:
其中,IOU为交并比,表示预测框与真实框的交集与并集的比值,C表示预测框与真实框的最小外接矩形面积,Δ=B-C,B表示预测框与真实框的并集。
可选的,利用训练好的行人检测网络模型实时处理所述图像序列,定位图像中所有行人并标记包括:
对图像中所有行人进行定位,得到输出数据(x,y,w,h,c),其中x,y分别表示行人预测框在图像坐标系上x轴上的坐标值和y轴上的坐标值,w,h分别表示行人预测框的宽和高,c表示行人预测框的置信度;
对图像中所有行人进行标记,将所述行人预测框以及置信度显示在原图片上。
可选的,计算定位且标记后的所有行人与所述机器人的相对距离包括:
利用双目测距基本原理计算定位且标记后的所有行人与所述机器人的相对距离,双目测距基本原理的计算公式如下:
其中,f表示相机焦距,通过相机标定得到,B表示相机中心距离,通过相机标定得到,XL-XR表示目标点在相机左右两幅视图上的成像视差。
本发明该提供一种基于深度视觉的人机协作安全预警系统,包括:
图像采集模块,用于实时采集机器人生产环境区域的图像,得到图像序列;
行人检测模块,用于利用训练好的YOLOV5网络模型实时处理所述图像序列,定位图像中所有行人并标记;
深度测距模块,用于计算定位且标记后的所有行人与所述机器人的相对距离;
安全预警模块,用于将所述相对距离与设定的安全防护等级距离进行比较,根据比较结果发出不同等级的预警信号。
可选的,上述基于深度视觉的人机协作安全预警系统还包括:
运动规避模块,用于根据所述比较结果确定是否驱动机器人控制系统控制机器人做出运动规避动作;若否,则只根据所述比较结果发出不同等级的预警信号;若是,则根据比较结果发出不同等级预警信号的同时,驱动机器人做出运动规避动作,避免机器人与行人发生碰撞。
可选的,行人检测模块包括:
图像增强单元,用于利用Mosaic对所述图像序列的数据进行增强,得到增强后的图像;
图像锚框单元,用于利用自适应锚框算法处理所述增强后的图像,得到具有最佳锚框值的图像;
图像缩放单元,用于利用自适应图片缩放算法对所述具有最佳锚框值的图像进行缩放,得到预处理图像。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明公开的基于深度视觉的人机协作安全预警方法包括步骤:实时采集机器人生产环境区域的图像,得到图像序列;利用训练好的行人检测网络模型实时处理所述图像序列,定位图像中所有行人并标记;计算定位且标记后的所有行人与所述机器人的相对距离;将所述相对距离与设定的安全防护等级距离进行比较,根据比较结果发出不同等级的预警信号。通过对机器人整体工作区域的实时监控,可以有效地避免机器人对工作区域的行人的碰撞。且该方法适用性,可适用于不同形式的机器人工作环境。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于深度视觉的人机协作安全预警方法流程图;
图2为本发明基于深度视觉的人机协作安全预警方法中深度测距原理图;
图3为本发明基于深度视觉的人机协作安全预警方法原理示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种一种基于深度视觉的人机协作安全预警方法及系统,用以解决现有人机协作安全预警方法效率低、实时性差的问题,从根本上提高人机协作中的人员安全性。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例1
如图1所示,本实施例提供一种基于深度视觉的人机协作安全预警方法,该方法具体包括以下步骤:
S1:实时采集机器人生产环境区域的图像,得到图像序列。
具体的,利用双目相机实时采集机器人工作区域的图像,其中,双目相机基于旋转云台悬挂于机器人工作区域的正上方,双目相机共有两个,每个双目相机的视角范围为180°。双目相机通过视觉传感器可获得丰富的图像颜色、纹理特征,相较于其他相机能够更好的复现机器人工作区域的环境场景。
S2:利用训练好的YOLOV5网络模型实时处理所述图像序列,定位图像中所有行人并标记。
具体的,训练YOLOV5网络模型的方法包括自制行人数据集,利用YOLOV5网络模型对所述自制行人数据集进行训练,得到权重文件,将权重文件部署到Nvidia JetsonXavier NX开发板上,得到训练好的YOLOV5网络模型。Nvidia深度学习嵌入式AI平台性能卓越、体型小巧,满足YOLOV5网络模型的训练需求。Nvidia深度学习嵌入式AI平台可通过USB接口与双目相机相连。
YOLOV5网络模型的输入端使用了Mosaic数据增强方法,且增加了自适应锚框算法和自适应图片缩放算法。在对YOLOV5网络模型的训练过程中,可利用Mosaic的随机缩放、随机裁剪、随机排布的图像处理方式对自制的行人数据集进行拼接,对自制的行人数据集进行增强,提高YOLOV5网络模型的训练精度。且还可以利用自适应锚框算法处理所述增强后的图像,得到具有最佳锚框值的图像。YOLOV5网络模型将自适应锚框算法嵌入到了代码中,每次训练时,自适应计算不同训练集中的最佳锚框值。当然,如果觉得计算的锚框效果不是很好,也可以在代码中将自动计算锚框功能关闭。最后,利用自适应图片缩放算法对所述具有最佳锚框值的图像进行缩放,得到预处理图像。上述对自制行人数据集中图像进行预处理的过程可丰富数据集,提升YOLOV5网络模型的训练速度和精度。
具体的,YOLOV5网络模型实时处理所述图像序列的步骤包括:
S21:利用所述YOLOV5网络模型的Backbone部分处理所述图像序列,获取图像特征。
具体的,Backbone为卷积神经网络,由Focus结构和CSP结构组成,可在不同图像细粒度上聚合并形成图像特征,而CSPNet可将梯度的变化从头到尾地集成到图像特征上,在减少了计算量的同时保证了准确率。
S22:利用所述YOLOV5网络模型的Neck部分对所述图像特征进行混合和组合,得到混合和组合后的图像特征。
具体的,Neck部分由FPN结构和PAN结构组合而成,可用于混合和组合图像特征,并将图像特征传递到预测层。
S23:利用所述YOLOV5网络模型的Head部分对所述混合和组合后的图像特征进行预测,定位生成所有行人的边界框,并将所述边界框显示在原图片上。
具体的,Head网络部分采用非极大值抑制方法筛选掉了重复的边界框,且在定位生成所有行人的边界框时利用GIOU_Loss函数解决边界框不重合的问题,GIOU_Loss函数如下所示:
其中,IOU为交并比,表示预测框与真实框的交集与并集的比值,C表示预测框与真实框的最小外接矩形面积,Δ=B-C,B表示预测框与真实框的并集。由上述公式可以看出GIOU_Loss函数中增加了相交尺度的衡量方式来解决边界框不重合的问题,提升了YOLOV5网络模型的收敛速度以及模型表现。
YOLOV5网络模型实时处理所述图像序列的作用为标记出视频图像中的所有人员,并进行可视化输出。简单来说就是对图像中所有行人进行定位,得到输出数据(x,y,w,h,c),其中x,y分别表示行人预测框在图像坐标系上x轴上的坐标值和y轴上的坐标值,w,h分别表示行人预测框的宽和高,c表示行人预测框的置信度;对图像中所有行人进行标记,将所述行人预测框以及置信度显示在原图片上。
YOLOV5网络模型一共包括四种,分别是YOLOV5s网络模型、YOLOV5l网络模型、YOLOV5m网络模型以及YOLOV5x网络模型。由于YOLOV5s网络模型可在不同光照、视角条件下准确快速的检测出机器人工作区域内的所有行人,满足人机协作安全性的实时性要求。因此,在本实施例当中使用YOLOV5s网络模型实时处理所述图像序列。需要另说明的是,使用YOLOV5s网络模型实时处理所述图像序列只是本实施例提供的一种优选的实施方式,本领域技术人员也可以使用其他类型的网络模型实时处理所述图像序列,本发明对此不做具体限定。
S3:计算定位且标记后的所有行人与机器人的相对距离。
具体的,利用双目立体视觉的视差原理,计算从不同位置获取的目标行人两幅图像对应点之间的位置偏差,从而准确的计算出目标行人与机器人的相对距离。如图2所示,假设P为检测网络形成的行人矩形框中心点,XL-XR为目标点在左右两幅图上的成像视差,B为相机中心距离,f为相机焦距,Z为所求的目标行人与机器人的相对距离,OL与OR分别为左右相机的光心,PL与PR分别为左右相机感光器上的成像点。
那么依据相似三角形原理可得:
对其进行变形可得:
其中,f表示相机焦距,通过相机标定得到,B表示相机中心距离,通过相机标定得到,XL-XR表示目标点在相机左右两幅视图上的成像视差。
S4:将所述相对距离与设定的安全防护等级距离进行比较,根据比较结果发出不同等级的预警信号。
具体的,Nvidia深度学习嵌入式AI平台可通过电缆与红、黄色报警灯相连。安全防护等级距离分为黄色安全预警距离以及红色安全预警距离。
如图3所示,当相对距离大于黄色安全预警距离时,红、黄色报警灯均不闪烁;当相对距离小于黄色安全预警距离且大于红色安全预警距离时,黄色报警灯闪烁;当相对距离小于红色安全预警距离时,红色报警灯闪烁。
本发明提供的种基于深度视觉的人机协作安全预警方法还包括根据比较结果确定是否驱动机器人控制系统控制机器人做出运动规避动作;
若否,则只根据比较结果发出不同等级的预警信号;若是,则根据比较结果发出不同等级预警信号的同时,驱动机器人做出运动规避动作,避免机器人与行人发生碰撞。例如,黄色预警时,驱动机器人控制系统降低机器人的运行速度,红色预警时,驱动机器人控制系统体质机器人运动。
本实施例提供的基于深度视觉的人机协作安全预警方法通过对机器人整体工作区域的实时监控,可以有效地避免机器人对工作区域的行人的碰撞。且该方法适用性,可适用于不同形式的机器人工作环境。
实施例2
本实施例提供一种与实施例1相对应的基于深度视觉的人机协作安全预警系统,该系统包括:
图像采集模块,用于实时采集机器人生产环境区域的图像,得到图像序列;
行人检测模块,用于利用训练好的YOLOV5网络模型实时处理所述图像序列,定位图像中所有行人并标记;
深度测距模块,用于计算定位且标记后的所有行人与所述机器人的相对距离;
安全预警模块,用于将所述相对距离与设定的安全防护等级距离进行比较,根据比较结果发出不同等级的预警信号。
具体的,该系统还包括:
运动规避模块,用于根据所述比较结果确定是否驱动机器人控制系统控制机器人做出运动规避动作;若否,则只根据所述比较结果发出不同等级的预警信号;若是,则根据比较结果发出不同等级预警信号的同时,驱动机器人做出运动规避动作,避免机器人与行人发生碰撞。
可选的,行人检测模块包括:
图像增强单元,用于利用Mosaic对所述图像序列的数据进行增强,得到增强后的图像;
图像锚框单元,用于利用自适应锚框算法处理所述增强后的图像,得到具有最佳锚框值的图像;
图像缩放单元,用于利用自适应图片缩放算法对所述具有最佳锚框值的图像进行缩放,得到预处理图像。
视觉传感器可获得更加丰富的图像颜色、纹理等特征信息,能够很好的复现周围环境场景,而且它不需要主动发射信号,更加适用于一些对实时性要求高的环境。基于深度视觉的人机协作安全预警系统引入计算机视觉后,当有人员靠近机器人工作区域时,系统能够及时警示区域外的人员停止靠近,能在人员闯入时,实现区域分级报警,同时可控制机器人能够及时降低运行速度甚至停止运动,尽可能的减少安全事故的发生。利用机器视觉技术实现对机器人整体工作区域的监控,将人员与机器人隔离、为工作人员建立安全的工作区域,从而有效避免人机碰撞的发生。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于深度视觉的人机协作安全预警方法,其特征在于:
实时采集机器人生产环境区域的图像,得到图像序列;
利用训练好的YOLOV5网络模型实时处理所述图像序列,定位图像中所有行人并标记;
计算定位且标记后的所有行人与所述机器人的相对距离;
将所述相对距离与设定的安全防护等级距离进行比较,根据比较结果发出不同等级的预警信号。
2.根据权利要求1所述的一种基于深度视觉的人机协作安全预警方法,其特征在于:
还包括根据所述比较结果确定是否驱动机器人控制系统控制机器人做出运动规避动作;
若否,则只根据所述比较结果发出不同等级的预警信号;若是,则根据比较结果发出不同等级预警信号的同时,驱动机器人做出运动规避动作,避免机器人与行人发生碰撞。
3.根据权利要求1所述的一种基于深度视觉的人机协作安全预警方法,其特征在于,所述YOLOV5网络模型的训练包括对数据集的预处理,所述预处理包括:
所述YOLOV5网络模型的训练包括对数据集的预处理,所述预处理包括:
利用Mosaic对所述图像序列的数据进行增强,得到增强后的图像;
利用自适应锚框算法处理所述增强后的图像,得到具有最佳锚框值的图像;
利用自适应图片缩放算法对所述具有最佳锚框值的图像进行缩放,得到预处理图像。
4.根据权利要求1所述的一种基于深度视觉的人机协作安全预警方法,其特征在于:
利用所述YOLOV5网络模型的Backbone部分处理所述图像序列,获取图像特征;
利用所述YOLOV5网络模型的Neck部分对所述图像特征进行混合和组合,得到混合和组合后的图像特征;
利用所述YOLOV5网络模型的Head部分对所述混合和组合后的图像特征进行预测,定位生成所有行人的边界框,并将所述边界框显示在原图片上。
6.根据权利要求1所述的一种基于深度视觉的人机协作安全预警方法,其特征在于,所述利用训练好的行人检测网络模型实时处理所述图像序列,定位图像中所有行人并标记包括:
对图像中所有行人进行定位,得到输出数据(x,y,w,h,c),其中x,y分别表示行人预测框在图像坐标系上x轴上的坐标值和y轴上的坐标值,w,h分别表示行人预测框的宽和高,c表示行人预测框的置信度;
对图像中所有行人进行标记,将所述行人预测框以及置信度显示在原图片上。
8.一种基于深度视觉的人机协作安全预警系统,其特征在于,包括:
图像采集模块,用于实时采集机器人生产环境区域的图像,得到图像序列;
行人检测模块,用于利用训练好的YOLOV5网络模型实时处理所述图像序列,定位图像中所有行人并标记;
深度测距模块,用于计算定位且标记后的所有行人与所述机器人的相对距离;
安全预警模块,用于将所述相对距离与设定的安全防护等级距离进行比较,根据比较结果发出不同等级的预警信号。
9.根据权利要求8所述的一种基于深度视觉的人机协作安全预警系统,其特征在于,还包括:
运动规避模块,用于根据所述比较结果确定是否驱动机器人控制系统控制机器人做出运动规避动作;若否,则只根据所述比较结果发出不同等级的预警信号;若是,则根据比较结果发出不同等级预警信号的同时,驱动机器人做出运动规避动作,避免机器人与行人发生碰撞。
10.根据权利要求8所述的一种基于深度视觉的人机协作安全预警系统,其特征在于,所述行人检测模块包括:
图像增强单元,用于利用Mosaic对所述图像序列的数据进行增强,得到增强后的图像;
图像锚框单元,用于利用自适应锚框算法处理所述增强后的图像,得到具有最佳锚框值的图像;
图像缩放单元,用于利用自适应图片缩放算法对所述具有最佳锚框值的图像进行缩放,得到预处理图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110849847.7A CN113568407B (zh) | 2021-07-27 | 2021-07-27 | 一种基于深度视觉的人机协作安全预警方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110849847.7A CN113568407B (zh) | 2021-07-27 | 2021-07-27 | 一种基于深度视觉的人机协作安全预警方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113568407A true CN113568407A (zh) | 2021-10-29 |
CN113568407B CN113568407B (zh) | 2024-09-20 |
Family
ID=78167806
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110849847.7A Active CN113568407B (zh) | 2021-07-27 | 2021-07-27 | 一种基于深度视觉的人机协作安全预警方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113568407B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114674838A (zh) * | 2022-03-18 | 2022-06-28 | 哈尔滨市科佳通用机电股份有限公司 | 动车组车底自动检测系统及检测方法 |
CN115562298A (zh) * | 2022-10-27 | 2023-01-03 | 常州检验检测标准认证研究院 | 一种机器人检测用围栏防护系统和方法 |
CN115643480A (zh) * | 2022-10-17 | 2023-01-24 | 中国人民解放军海军工程大学 | 一种高危警戒区域安防智能值守防御系统及方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109084724A (zh) * | 2018-07-06 | 2018-12-25 | 西安理工大学 | 一种基于双目视觉的深度学习障碍物测距方法 |
CN110561432A (zh) * | 2019-08-30 | 2019-12-13 | 广东省智能制造研究所 | 一种基于人机共融的安全协作方法及装置 |
CN110781806A (zh) * | 2019-10-23 | 2020-02-11 | 浙江工业大学 | 一种基于yolo的行人检测追踪方法 |
WO2020114116A1 (zh) * | 2018-12-06 | 2020-06-11 | 深圳光启空间技术有限公司 | 一种基于密集人群的行人检测方法、存储介质及处理器 |
CN111563446A (zh) * | 2020-04-30 | 2020-08-21 | 郑州轻工业大学 | 一种基于数字孪生的人-机交互安全预警与控制方法 |
CN112001339A (zh) * | 2020-08-27 | 2020-11-27 | 杭州电子科技大学 | 一种基于YOLO v4的行人社交距离实时监测方法 |
CN112668432A (zh) * | 2020-12-22 | 2021-04-16 | 上海幻维数码创意科技股份有限公司 | 一种基于YoloV5和DeepSort的地面互动投影系统中人体检测跟踪方法 |
-
2021
- 2021-07-27 CN CN202110849847.7A patent/CN113568407B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109084724A (zh) * | 2018-07-06 | 2018-12-25 | 西安理工大学 | 一种基于双目视觉的深度学习障碍物测距方法 |
WO2020114116A1 (zh) * | 2018-12-06 | 2020-06-11 | 深圳光启空间技术有限公司 | 一种基于密集人群的行人检测方法、存储介质及处理器 |
CN110561432A (zh) * | 2019-08-30 | 2019-12-13 | 广东省智能制造研究所 | 一种基于人机共融的安全协作方法及装置 |
CN110781806A (zh) * | 2019-10-23 | 2020-02-11 | 浙江工业大学 | 一种基于yolo的行人检测追踪方法 |
CN111563446A (zh) * | 2020-04-30 | 2020-08-21 | 郑州轻工业大学 | 一种基于数字孪生的人-机交互安全预警与控制方法 |
CN112001339A (zh) * | 2020-08-27 | 2020-11-27 | 杭州电子科技大学 | 一种基于YOLO v4的行人社交距离实时监测方法 |
CN112668432A (zh) * | 2020-12-22 | 2021-04-16 | 上海幻维数码创意科技股份有限公司 | 一种基于YoloV5和DeepSort的地面互动投影系统中人体检测跟踪方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114674838A (zh) * | 2022-03-18 | 2022-06-28 | 哈尔滨市科佳通用机电股份有限公司 | 动车组车底自动检测系统及检测方法 |
CN115643480A (zh) * | 2022-10-17 | 2023-01-24 | 中国人民解放军海军工程大学 | 一种高危警戒区域安防智能值守防御系统及方法 |
CN115562298A (zh) * | 2022-10-27 | 2023-01-03 | 常州检验检测标准认证研究院 | 一种机器人检测用围栏防护系统和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113568407B (zh) | 2024-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113568407A (zh) | 一种基于深度视觉的人机协作安全预警方法及系统 | |
KR102688958B1 (ko) | 항만 모니터링 장치 및 항만 모니터링 방법 | |
CN109283538B (zh) | 一种基于视觉和激光传感器数据融合的海上目标大小检测方法 | |
KR100492148B1 (ko) | 이동물체의 거리와 이동방향을 제공하는 인공지능형영상경비 시스템 | |
CN110561432A (zh) | 一种基于人机共融的安全协作方法及装置 | |
CN114241298A (zh) | 一种激光雷达和图像融合的塔吊环境目标检测方法及系统 | |
CN1426527A (zh) | 组合立体视像、彩色3d数字化和运动捕捉的系统 | |
CN111027415B (zh) | 一种基于偏振图像的车辆检测方法 | |
KR20210043628A (ko) | 장애물 감지 방법, 지능형 주행 제어 방법, 장치, 매체, 및 기기 | |
TWI726278B (zh) | 行車偵測方法、車輛及行車處理裝置 | |
CN116255908B (zh) | 面向水下机器人的海生物定位测量装置及方法 | |
CA3194756A1 (en) | Generating three-dimensional skeleton representations of aquatic animals using machine learning | |
CN115187946A (zh) | 井下障碍物点云与图像数据融合的多尺度智能感知方法 | |
KR20240028081A (ko) | 증강현실 기반 건설 현장의 스마트 품질 관리 시스템 | |
CN117630951A (zh) | 基于深海采矿车的集成全景环视及声呐预警系统及预警方法 | |
CN214747806U (zh) | 一种应用于水下的三维扫描成像设备 | |
CN117351460A (zh) | 一种基于深度学习和双目视觉的池塘障碍物识别与定位方法 | |
CN116798117A (zh) | 一种基于视频理解的矿井下异常动作识别方法 | |
JP3456029B2 (ja) | 画像データに基づく三次元物体認識装置 | |
KR20230120600A (ko) | 오브젝트를 검출하는 전자 장치 및 이의 제어 방법 | |
CN115937842A (zh) | 用于机器人的着色LiDAR点云物体检测方法及系统 | |
JP2007281989A (ja) | ステレオ式監視装置 | |
CN112966594A (zh) | 一种环境感知方法 | |
Kelasidi et al. | Cagereporter-development of technology for autonomous, bio-interactive and high-quality data acquisition from aquaculture net cages | |
JP4694441B2 (ja) | 車両周辺監視システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Country or region after: China Address after: Room 306, building 4, future venture Plaza, hi tech Zone, Jinan City, Shandong Province Applicant after: Shandong Zhongke advanced technology Co.,Ltd. Address before: Room 306, building 4, future venture Plaza, hi tech Zone, Jinan City, Shandong Province Applicant before: Shandong Zhongke Advanced Technology Research Institute Co.,Ltd. Country or region before: China |
|
GR01 | Patent grant | ||
GR01 | Patent grant |