CN117707053B - 基于ai视觉分析的工控视觉运动控制系统及方法 - Google Patents

基于ai视觉分析的工控视觉运动控制系统及方法 Download PDF

Info

Publication number
CN117707053B
CN117707053B CN202410161880.4A CN202410161880A CN117707053B CN 117707053 B CN117707053 B CN 117707053B CN 202410161880 A CN202410161880 A CN 202410161880A CN 117707053 B CN117707053 B CN 117707053B
Authority
CN
China
Prior art keywords
distance
area
article
coordinate
employee
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410161880.4A
Other languages
English (en)
Other versions
CN117707053A (zh
Inventor
党鑫
冯钟灵
李旭
郭振廷
席梦男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Xunji Technology Co ltd
Original Assignee
Nanjing Xunji Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Xunji Technology Co ltd filed Critical Nanjing Xunji Technology Co ltd
Priority to CN202410161880.4A priority Critical patent/CN117707053B/zh
Publication of CN117707053A publication Critical patent/CN117707053A/zh
Application granted granted Critical
Publication of CN117707053B publication Critical patent/CN117707053B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Manipulator (AREA)

Abstract

本发明属于工业控制技术领域,本发明公开了基于AI视觉分析的工控视觉运动控制系统及方法;将工业机器人所在的自动化车间划分为n个区域;当有职工进入自动化车间时,实时采集自动化车间内的职工图像;对实时采集的职工图像进行分析,判断职工携带物品是否为大型物品;若职工携带物品为大型物品,则再对实时采集的职工图像进行分析,判断职工携带物品所在区域;根据职工携带物品所在区域,生成对应的风险指令;根据风险指令,对工业机器人进行减速或停机的操作;本发明能够最大程度地降低职工与机器人发生碰撞的风险,保障工作环境的安全和稳定以及职工的人身安全。

Description

基于AI视觉分析的工控视觉运动控制系统及方法
技术领域
本发明涉及工业控制技术领域,更具体地说,本发明涉及基于AI视觉分析的工控视觉运动控制系统及方法。
背景技术
在现代制造业中,工业机器人是生产过程中不可或缺的一部分;它们的自动化能力和高精确度让企业能够提高生产效率、保证产品质量,并且增强生产线的灵活性和适应性;然而,传统工业机器人的一个显著局限在于它们缺乏对周围环境的感知和理解能力,这意味着它们无法自主感知或判断工作区域内是否存在人员,从而存在潜在的安全风险,在工业场景中,如果机器人无法感知到人员的存在,可能会导致碰撞事故或对工作人员造成伤害,甚至危及职工的生命安全;
当然也存在智能感知方法,使得工业机器人能够感知职工的存在,以做出相应的位置调整或停机处理;例如授权公告号为CN102323822B的专利公开了一种避免工业机器人碰撞工人的方法,将采集到的工作区域图像进行场景建模、区域分析和工人运状态势预测,并且生成工人运动特性参数;根据工人运动特性参数检测工业机器人的当前运动特性,计算出工人的安全防护区域;根据安全防护区域计算出工业机器人的安全运动范围,判断工业机器人的每个关节的运动是否进入该安全防护区域,在线调整工业机器人的目标位置和速度,以避免工业机器人碰撞职工;
然而上述技术是针对职工在经过工业机器人的工作区域时,避免工业机器人与职工发生碰撞,但并未考虑到职工携带物品的情况,当职工携带较大型物品(例如大型纸箱、梯子等)经过工业机器人的工作区域时,工业机器人仍存在与职工携带物品发生碰撞的情况,导致物品受损、变形或破裂,进而危害职工的人身安全;
鉴于此,本发明提出基于AI视觉分析的工控视觉运动控制系统及方法以解决上述问题。
发明内容
为了克服现有技术的上述缺陷,为实现上述目的,本发明提供如下技术方案:基于AI视觉分析的工控视觉运动控制方法,包括:
将工业机器人所在的自动化车间划分为n个区域;
当有职工进入自动化车间时,实时采集自动化车间内的职工图像;
对实时采集的职工图像进行分析,判断职工携带物品是否为大型物品;
若职工携带物品为大型物品,则再对实时采集的职工图像进行分析,判断职工携带物品所在区域;
根据职工携带物品所在区域,生成对应的风险指令;
根据风险指令,对工业机器人进行减速或停机的操作。
进一步地,所述n个区域的划分方法包括:
以自动化车间四个顶点中任一顶点为原点建立第一坐标系,获取工业机器人第一中心坐标和自动化车间四个顶点中不为原点的三个顶点坐标,将工业机器人第一中心坐标标记为第一坐标;分别计算第一坐标和三个顶点坐标的距离,距离的计算方法为,其中/>为第一坐标与三个顶点坐标中任一个顶点坐标的距离,/>为第一坐标对应的横坐标,/>为第一坐标对应的纵坐标,/>为三个顶点坐标中任一个顶点坐标对应的横坐标,/>为三个顶点坐标中任一个顶点坐标对应的纵坐标,/>、/>对应的顶点为同一个顶点,下标k用于区分三个顶点坐标;将计算出的三个距离中最大的距离作为划分距离/>
以工业机器人为圆心,工业机器人的最大活动距离为半径画圆,圆内为工作区域,再依次以/>为半径画多个圆,/>,M的取值随着圆的增多而增大;当画出圆的半径大于划分距离后,划分区域停止,每两个圆之间的扇形空间作为一个区域;将划分距离/>除以最大活动距离/>得到一个商,将小于商的最大整数作为A。
进一步地,所述判断职工携带物品是否为大型物品的方法包括:
使用训练好的物品分析模型,对实时采集的职工图像进行识别,输出识别结果,识别结果包括大型物品和非大型物品;
物品分析模型具体训练过程包括:
预先收集多张职工图像,将每张职工图像标记为第一训练图像,对每张第一训练图像中职工携带物品进行标注,标注包括大型物品和非大型物品;将大型物品和非大型物品分别转换为数字标注,将标注后的第一训练图像分为训练集和测试集;使用训练集对物品分析模型进行训练,使用测试集对物品分析模型进行测试;预设误差阈值,当测试集中所有第一训练图像的预测误差的均值小于误差阈值时,输出物品分析模型;所述物品分析模型为卷积神经网络模型。
进一步地,所述判断职工携带物品所在区域的方法包括:
步骤a.使用训练好的物品检测模型,对实时职工图像中的大型物品进行矩形框标注;
步骤b.实时采集完整的自动化车间图像;
步骤c.以自动化车间图像中与第一坐标系原点对应顶点相同的顶点作为原点,建立第二坐标系,获取工业机器人第二中心坐标、矩形框的四个顶点坐标,将工业机器人第二中心坐标标记为第二坐标;分别计算第二坐标与矩形框四个顶点坐标的距离,计算方法与计算第一坐标和三个顶点坐标的距离所用的计算方法一致,将计算出的四个距离中最小的距离作为图像判断距离;
步骤d.根据第一坐标和第二坐标获取自动化车间图像面积与自动化车间占地面积间比例系数,根据比例系数获取图像判断距离在第一坐标系中对应的实际判断距离
步骤e.将每个区域对应的最大半径与实际判断距离从大到小进行排序,生成排序表,若每个区域对应的最大半径与实际判断距离均不相等,则将排序表中排在实际判断距离前一位的最大半径对应的区域标记为物品所在区域,物品所在区域即为职工携带物品所在区域;若每个区域对应的最大半径中存在最大半径与实际判断距离相等,则将与实际判断距离相等的最大半径对应的区域标记为物品所在区域。
进一步地,所述步骤a中物品检测模型的训练方法包括:
将被标注为大型物品的职工图像标记为第二训练图像;对第二训练图像中的大型物品进行矩形框标注;将标注后的第二训练图像分为训练集和测试集,使用训练集对物品检测模型进行训练,使用测试集对物品检测模型进行测试;预设坐标误差阈值,当测试集中所有第二训练图像的预测坐标误差的均值小于坐标误差阈值时,物品检测模型训练完成,输出物品检测模型;所述物品检测模型为卷积神经网络模型。
进一步地,所述步骤d中比例系数的计算方法包括:
式中,为比例系数,/>为第二坐标对应的横坐标,/>为第二坐标对应的纵坐标;
实际判断距离的计算方法包括:
式中为图像判断距离。
进一步地,所述步骤e中每个区域对应的最大半径为每个区域对应的扇形空间中较长圆弧对应圆的半径。
进一步地,生成所述对应的风险指令的方法包括:
风险指令包括初级风险指令和高级风险指令;
根据工作区域与物品所在区域,获取工作区域与物品所在区域之间存在的区域数量;
预设第一数量阈值和第二数量阈值/>,第一数量阈值/>大于第二数量阈值/>
若工作区域与物品所在区域之间存在的区域数量小于或等于第一数量阈值且大于第二数量阈值/>,则生成初级风险指令;
若工作区域与物品所在区域之间存在的区域数量小于或等于第二数量阈值且大于0,则生成高级风险指令。
进一步地,若生成初级风险指令,则对工业机器人进行减速操作;
对工业机器人进行减速操作的方法包括:
预设最低速度,将第一数量阈值减去第二数量阈值/>得到第一差值,将工作区域与物品所在区域之间存在的区域数量除以第一差值得到相对比值;采集工业机器人在工作过程中速度,标记为工作速度;将工作速度减去最低速度得到第二差值,将第二差值乘以相对比值得到乘积,将乘积作为减速后工作速度;对工业机器人进行减速操作,将工业机器人在工作过程中的速度降低为减速后工作速度;
若生成高级风险指令,则对工业机器人进行停机操作。
进一步地,根据职工移动速度,调整职工图像的采集间隔;
将与工作区域相邻区域对应的最大半径减去工业机器人的最大活动距离得到安全距离,将安全距离除以t秒得到安全速度;
获取职工进入自动化车间时对应的实际判断距离,标记为第一距离;获取职工进入自动化车间t秒后对应的实际判断距离,标记为第二距离;将第一距离减去第二距离得到第一距离差值,将第一距离差值除以t秒获得职工移动速度;
将职工移动速度与安全速度进行对比;
若职工移动速度小于或等于安全速度,则不对采集间隔进行调整;
若职工移动速度大于安全速度,则对采集间隔进行调整;将安全速度乘以t秒再除以职工移动速度获取调整后新的采集间隔;
获取新的采集间隔后,则将原先第二距离标记为第三距离,将职工进入自动化车间t秒加新的采集间隔后对应的实际判断距离标记为第四距离,将第三距离减去第四距离得到第二距离差值,将第二距离差值除以新的采集间隔获得新的职工移动速度;并将新的职工移动速度与安全速度进行对比,若新的职工移动速度大于或等于安全速度,则将安全速度乘以t秒再除以新的职工移动速度获取再次调整后新的采集间隔;
依此类推,根据每次获取的职工移动速度,对职工图像的采集间隔进行实时调整。
基于AI视觉分析的工控视觉运动控制系统,实施所述基于AI视觉分析的工控视觉运动控制方法,包括:
区域划分模块,将工业机器人所在的自动化车间划分为n个区域;
图像采集模块,当有职工进入自动化车间时,实时采集自动化车间内的职工图像;
第一图像分析模块,对实时采集的职工图像进行分析,判断职工携带物品是否为大型物品;
第二图像分析模块,若职工携带物品为大型物品,则再对实时采集的职工图像进行分析,判断职工携带物品所在区域;
风险判断模块,根据职工携带物品所在区域,生成对应的风险指令;
操作模块,根据风险指令,对工业机器人进行减速或停机的操作。
一种电子设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现所述基于AI视觉分析的工控视觉运动控制方法。
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被执行时实现所述基于AI视觉分析的工控视觉运动控制方法。
本发明基于AI视觉分析的工控视觉运动控制系统及方法的技术效果和优点:
1.对自动化车间进行区域划分,并且通过机器学习模型进行实时图像分析,对职工携带物品进行快速、准确地识别和定位;并且根据职工携带物品与工业机器人所在工作区域之间的距离生成相应的风险指令,进而对工业机器人进行减速或停机操作,从而最大程度地降低职工与机器人发生碰撞的风险,保障工作环境的安全和稳定以及职工的人身安全。
2.根据职工移动速度,对职工图像的采集间隔实时计算并进行调整,有效避免职工携带物品在工业机器人进行减速操作时与工业机器人发生碰撞,降低工伤事故发生的风险,使工业生产环境更加安全可靠,大大增强了对职工人身安全的保护。
附图说明
图1为本发明实施例1的基于AI视觉分析的工控视觉运动控制系统示意图;
图2为本发明实施例1的区域划分示意图;
图3为本发明实施例1的红外传感器安装位置示意图;
图4为本发明实施例1的物品所在区域示意图;
图5为本发明实施例2的基于AI视觉分析的工控视觉运动控制系统示意图;
图6为本发明实施例3的基于AI视觉分析的工控视觉运动控制方法示意图;
图7为本发明实施例4的电子设备示意图;
图8为本发明实施例5的存储介质示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1:
请参阅图1所示,本实施例所述基于AI视觉分析的工控视觉运动控制系统,包括区域划分模块、图像采集模块、第一图像分析模块、第二图像分析模块、风险判断模块以及操作模块;各个模块通过有线和/或无线的方式进行连接,实现模块间的数据传输;
区域划分模块,将工业机器人所在的自动化车间划分为n个区域;
n个区域的划分方法包括:
以自动化车间四个顶点中任一顶点为原点建立第一坐标系,获取工业机器人第一中心坐标和自动化车间四个顶点中不为原点的三个顶点坐标,将工业机器人第一中心坐标标记为第一坐标;分别计算第一坐标和三个顶点坐标的距离,距离的计算方法为,其中/>为第一坐标与三个顶点坐标中任一个顶点坐标的距离,/>为第一坐标对应的横坐标,/>为第一坐标对应的纵坐标,/>为三个顶点坐标中任一个顶点坐标对应的横坐标,/>为三个顶点坐标中任一个顶点坐标对应的纵坐标,/>、/>对应的顶点为同一个顶点,下标k用于区分三个顶点坐标;将计算出的三个距离中最大的距离作为划分距离/>;自动化车间通常为矩形,因此存在四个顶点;
请参阅图2所示,以工业机器人为圆心,工业机器人的最大活动距离为半径画圆,圆内为工作区域,再依次以/>为半径画多个圆,/>,其中每画一个圆,M的取值就要随之增大,即M的取值随着圆的增多而增大,M的具体数值根据实际情况而定;直到画出圆的半径大于划分距离后,划分区域停止,每两个圆之间的扇形空间即为一个区域,此时整个自动化车间均已进行区域划分;将划分距离/>除以最大活动距离/>得到一个商,将小于商的最大整数作为A;工业机器人的最大活动距离/>由工业机器人制造商提供的技术规格获取;
图像采集模块,当有职工进入自动化车间时,实时采集自动化车间内的职工图像;
判断职工进入自动化车间的方法包括:
请参阅图3所示,在自动化车间大门旁的内外两侧安装两个红外传感器,一个安装在自动化车间内部,标记为内部传感器,一个安装在自动化车间外部,标记为外部传感器;若外部传感器先检测到红外辐射,内部传感器后检测到红外辐射,则说明外部传感器先检测到有职工接近,内部传感器才检测到有职工接近,说明职工是从自动化车间外部进入到自动化车间内部,反之则说明职工是从自动化车间内部离开到自动化车间外部;
职工图像为存在职工的图像,职工图像由安装在自动化车间内的CCD摄像机获取,预设采集间隔为t秒,根据采集间隔对职工图像进行采集,采集间隔根据自动化车间的占地面积进行设置,自动化车间的占地面积越大,预设的采集间隔越大,自动车间的占地面积越小,预设的采集间隔越小,因为自动化车间占地面积越大,职工的活动范围越大,越不容易靠近工作区域,与工业机器人发生碰撞的概率越小;根据CCD摄像机的规格说明书或技术文档获取CCD摄像机的拍摄范围,根据CCD摄像机的拍摄范围在自动化车间中安装多个CCD摄像机,确保能通过CCD摄像机获取到整个自动化车间的图像;
第一图像分析模块,对实时采集的职工图像进行分析,判断职工携带物品是否为大型物品;
判断职工携带物品是否为大型物品的方法包括:
使用训练好的物品分析模型,对实时采集的职工图像进行识别,输出识别结果,识别结果包括大型物品和非大型物品;大型物品例如大型纸箱、梯子、长木板等,非大型物品例如扳手、螺丝刀、文件、小袋子等,非大型物品还包括职工未携带物品;
物品分析模型具体训练过程包括:
预先收集多张职工图像,将每张职工图像标记为第一训练图像,对每张第一训练图像中职工携带物品进行标注,标注包括大型物品和非大型物品;将大型物品和非大型物品分别转换为数字标注,示例性的,将大型物品转换为1,将非大型物品转换为2;将标注后的第一训练图像分为训练集和测试集,将70%的第一训练图像作为训练集,将30%的第一训练图像作为测试集;使用训练集对物品分析模型进行训练,使用测试集对物品分析模型进行测试;预设误差阈值,当测试集中所有第一训练图像的预测误差的均值小于误差阈值时,输出物品分析模型;其中,预测误差均值的计算公式为,其中/>为预测误差,/>为第一训练图像的编号,/>为第/>组第一训练图像对应的预测标注,/>为第/>组第一训练图像对应的实际标注,U为测试集中第一训练图像的数量;所述误差阈值根据物品分析模型所需要的精度进行预先设置;
上述物品分析模型具体为卷积神经网络模型;
需要说明的是,判断职工携带物品是否为大型物品的目的在于,除了判断职工是否会与工业机器人发生碰撞以外,若职工携带物品为大型物品,职工在靠近工业机器人时,虽然职工与工业机器人保持着安全距离,但由于职工携带物品尺寸过大,因此可能会导致物品与工业机器人发生碰撞,从而危害职工的人身安全;
第二图像分析模块,若职工携带物品为大型物品,则再对实时采集的职工图像进行分析,判断职工携带物品所在区域;
判断职工携带物品所在区域的方法包括:
步骤a.使用训练好的物品检测模型,对实时职工图像中的大型物品进行矩形框标注;
步骤b.自动化车间中所有CCD摄像机共同采集图像,将多张图像进行拼接,以获取完整的自动化车间图像;
步骤c.以自动化车间图像中与第一坐标系原点对应顶点相同的顶点作为原点,建立第二坐标系,获取工业机器人第二中心坐标、矩形框的四个顶点坐标,将工业机器人第二中心坐标标记为第二坐标;分别计算第二坐标与矩形框四个顶点坐标的距离,计算方法与上述计算第一坐标和三个顶点坐标的距离所用的计算方法一致,将计算出的四个距离中最小的距离作为图像判断距离;第二坐标和矩形框四个顶点坐标可以通过图像处理库(例如OpenCV、PIL、scikit-image等)进行获取;
步骤d.根据第一坐标和第二坐标获取自动化车间图像面积与自动化车间占地面积间比例系数,根据比例系数获取图像判断距离在第一坐标系中对应的实际判断距离
步骤e.将每个区域对应的最大半径与实际判断距离从大到小进行排序,生成排序表,若每个区域对应的最大半径与实际判断距离均不相等,则将排序表中排在实际判断距离前一位的最大半径对应的区域标记为物品所在区域,物品所在区域即为职工携带物品所在区域;若每个区域对应的最大半径中存在最大半径与实际判断距离相等,则将与实际判断距离相等的最大半径对应的区域标记为物品所在区域;
步骤a中物品检测模型的训练方法包括:
将被标注为大型物品的职工图像标记为第二训练图像;对第二训练图像中的大型物品进行矩形框标注;将标注后的第二训练图像分为训练集和测试集,将70%的第二训练图像作为训练集,将30%的第二训练图像作为测试集,使用训练集对物品检测模型进行训练,使用测试集对物品检测模型进行测试;预设坐标误差阈值,当测试集中所有第二训练图像的预测坐标误差的均值小于坐标误差阈值时,物品检测模型训练完成,输出物品检测模型;其中,预测坐标误差均值的计算公式包括:
其中为预测坐标误差,/>为第二训练图像的编号,T为测试集中第二训练图像的数量,/>为一个顶点的预测横坐标,/>为一个顶点的实际横坐标,/>为一个顶点的预测纵坐标,/>为一个顶点的实际纵坐标,/>为预测坐标误差,/>为矩形框顶点的编号,矩形框共有4个顶点;所述坐标误差阈值根据物品检测模型所需要的精度进行预先设置;
上述物品检测模型具体为卷积神经网络模型;
步骤d中比例系数的计算方法包括:
式中,为比例系数,/>为第二坐标对应的横坐标,/>为第二坐标对应的纵坐标;
实际判断距离的计算方法包括:
式中为图像判断距离;
步骤e中每个区域对应的最大半径为每个区域对应的扇形空间中较长圆弧对应圆的半径;若每个区域对应的最大半径与实际判断距离均不相等,在排序表中,实际判断距离前一位的最大半径与后一位的最大半径之间形成一个扇形空间,职工携带物品即在这一个扇形空间中,该扇形空间即为排在实际判断距离前一位的最大半径对应的区域,因此职工携带物品位于排在实际判断距离前一位的最大半径对应的区域内,具体请参阅图4所示;
风险判断模块,根据职工携带物品所在区域,生成对应的风险指令;
生成对应的风险指令的方法包括:
风险指令包括初级风险指令和高级风险指令;
根据工作区域与物品所在区域,获取工作区域与物品所在区域之间存在的区域数量;
预设第一数量阈值和第二数量阈值/>,第一数量阈值/>大于第二数量阈值/>
若工作区域与物品所在区域之间存在的区域数量大于第一数量阈值,则不生成初级风险指令和高级风险指令,说明此时职工携带物品与工业机器人距离较远,不会发生碰撞事故;
若工作区域与物品所在区域之间存在的区域数量小于或等于第一数量阈值且大于第二数量阈值/>,则生成初级风险指令;说明此时职工携带物品所在的区域与工业机器人所在的工作区域之间的距离较近,但还存在一定距离,职工携带物品与工业机器人发生碰撞的概率较小;
若工作区域与物品所在区域之间存在的区域数量小于或等于第二数量阈值且大于0,则生成高级风险指令;说明此时职工携带物品所在的区域与工业机器人所在的工作区域之间的距离很近,职工携带物品与工业机器人发生碰撞的概率较高;
需要说明的是,第一数量阈值和第二数量阈值/>由本领域技术人员根据职工安全程度和工业机器人运行效益所设置,第一数量阈值/>和第二数量阈值/>设置的越大,对于职工的人身安全危害越小,但工业机器人会经常进行减速或停机的操作,降低工业机器人运行效益,反之则相反;因此需要结合职工安全程度和工业机器人运行效益对第一数量阈值/>和第二数量阈值/>进行设置;
操作模块,根据风险指令,对工业机器人进行减速或停机的操作;
若生成初级风险指令,则对工业机器人进行减速操作;
对工业机器人进行减速操作的方法包括:
预设最低速度,将第一数量阈值减去第二数量阈值/>得到第一差值,将工作区域与物品所在区域之间存在的区域数量除以第一差值得到相对比值;采集工业机器人在工作过程中速度,标记为工作速度;将工作速度减去最低速度得到第二差值,将第二差值乘以相对比值得到乘积,将乘积作为减速后工作速度;对工业机器人进行减速操作,将工业机器人在工作过程中的速度降低为减速后工作速度;防止职工携带物品突然接近工业机器人,导致工业机器人无法在短时间内停止运行;
若生成高级风险指令,则对工业机器人进行停机操作,将工业机器人处于停止状态,避免工业机器人与职工携带物品发生碰撞,从而危害职工的人身安全;
需要说明的是,最低速度由本领域技术人员根据经验进行设置,对工业机器人进行减速操作的原因在于,提供更多的时间避免碰撞,从而减少意外伤害的发生,提高工作环境的安全性,确保工业机器人以最低速度运行过程中,当职工携带物品突然接近工业机器人时,工业机器人能够及时停止运行,避免工业机器人与职工携带物品相撞;并且工业机器人还处于工作状态,避免频繁启停带来的工业机器人使用寿命损耗;
本实施例对自动化车间进行区域划分,并且通过机器学习模型进行实时图像分析,对职工携带物品进行快速、准确地识别和定位;并且根据职工携带物品与工业机器人所在工作区域之间的距离生成相应的风险指令,进而对工业机器人进行减速或停机操作,从而最大程度地降低职工与机器人发生碰撞的风险,保障工作环境的安全和稳定以及职工的人身安全。
实施例2:
请参阅图5所示,本实施例在实施例1的基础上进一步改进设计,由于存在采集间隔,若职工的移动速度较快,可能导致上一次图像采集时,工作区域与物品所在区域之间存在的区域数量小于或等于第一数量阈值且大于第二数量阈值/>,然而还未进行下一次图像采集,职工携带物品已经与工业机器人发生碰撞,导致工业机器人无法及时进行停机操作;因此本实施例提供了基于AI视觉分析的工控视觉运动控制系统,还包括间隔改变模块;根据职工移动速度对采集间隔进行相应的变化;
间隔改变模块,根据职工移动速度,调整职工图像的采集间隔;
将与工作区域相邻区域对应的最大半径减去工业机器人的最大活动距离得到安全距离,将安全距离除以t秒得到安全速度;
获取职工进入自动化车间时对应的实际判断距离,标记为第一距离;获取职工进入自动化车间t秒后对应的实际判断距离,标记为第二距离;将第一距离减去第二距离得到第一距离差值,将第一距离差值除以t秒获得职工移动速度;
将职工移动速度与安全速度进行对比;
若职工移动速度小于或等于安全速度,则不对采集间隔进行调整;
若职工移动速度大于安全速度,则对采集间隔进行调整;将安全速度乘以t秒再除以职工移动速度获取调整后新的采集间隔;
获取新的采集间隔后,则将原先第二距离标记为第三距离,将职工进入自动化车间t秒加新的采集间隔后对应的实际判断距离标记为第四距离,将第三距离减去第四距离得到第二距离差值,将第二距离差值除以新的采集间隔获得新的职工移动速度;并将新的职工移动速度与安全速度进行对比,若新的职工移动速度大于或等于安全速度,则将安全速度乘以t秒再除以新的职工移动速度获取再次调整后新的采集间隔;
依此类推,根据每次获取的职工移动速度,对职工图像的采集间隔进行实时调整;
示例性的,若计算出的安全速度为1m/s,职工移动速度为1.1m/s,预设采集间隔为2s,则计算出调整后新的采集间隔为1.8s,此时第四距离即为职工进去自动化车间3.8s后对应的实际判断距离;
本实施例根据职工移动速度,对职工图像的采集间隔实时计算并进行调整,有效避免职工携带物品在工业机器人进行减速操作时与工业机器人发生碰撞,降低工伤事故发生的风险,使工业生产环境更加安全可靠,大大增强了对职工人身安全的保护。
实施例3:
请参阅图6所示,本实施例未详细叙述部分见实施例1和实施例2描述内容,提供基于AI视觉分析的工控视觉运动控制方法,包括:
将工业机器人所在的自动化车间划分为n个区域;
当有职工进入自动化车间时,实时采集自动化车间内的职工图像;
对实时采集的职工图像进行分析,判断职工携带物品是否为大型物品;
若职工携带物品为大型物品,则再对实时采集的职工图像进行分析,判断职工携带物品所在区域;
根据职工携带物品所在区域,生成对应的风险指令;
根据风险指令,对工业机器人进行减速或停机的操作。
进一步地,所述n个区域的划分方法包括:
以自动化车间四个顶点中任一顶点为原点建立第一坐标系,获取工业机器人第一中心坐标和自动化车间四个顶点中不为原点的三个顶点坐标,将工业机器人第一中心坐标标记为第一坐标;分别计算第一坐标和三个顶点坐标的距离,距离的计算方法为,其中/>为第一坐标与三个顶点坐标中任一个顶点坐标的距离,/>为第一坐标对应的横坐标,/>为第一坐标对应的纵坐标,/>为三个顶点坐标中任一个顶点坐标对应的横坐标,/>为三个顶点坐标中任一个顶点坐标对应的纵坐标,/>、/>对应的顶点为同一个顶点,下标k用于区分三个顶点坐标;将计算出的三个距离中最大的距离作为划分距离/>
以工业机器人为圆心,工业机器人的最大活动距离为半径画圆,圆内为工作区域,再依次以/>为半径画多个圆,/>,M的取值随着圆的增多而增大;当画出圆的半径大于划分距离后,划分区域停止,每两个圆之间的扇形空间作为一个区域;将划分距离/>除以最大活动距离/>得到一个商,将小于商的最大整数作为A。
进一步地,所述判断职工携带物品是否为大型物品的方法包括:
使用训练好的物品分析模型,对实时采集的职工图像进行识别,输出识别结果,识别结果包括大型物品和非大型物品;
物品分析模型具体训练过程包括:
预先收集多张职工图像,将每张职工图像标记为第一训练图像,对每张第一训练图像中职工携带物品进行标注,标注包括大型物品和非大型物品;将大型物品和非大型物品分别转换为数字标注,将标注后的第一训练图像分为训练集和测试集;使用训练集对物品分析模型进行训练,使用测试集对物品分析模型进行测试;预设误差阈值,当测试集中所有第一训练图像的预测误差的均值小于误差阈值时,输出物品分析模型;所述物品分析模型为卷积神经网络模型。
进一步地,所述判断职工携带物品所在区域的方法包括:
步骤a.使用训练好的物品检测模型,对实时职工图像中的大型物品进行矩形框标注;
步骤b.实时采集完整的自动化车间图像;
步骤c.以自动化车间图像中与第一坐标系原点对应顶点相同的顶点作为原点,建立第二坐标系,获取工业机器人第二中心坐标、矩形框的四个顶点坐标,将工业机器人第二中心坐标标记为第二坐标;分别计算第二坐标与矩形框四个顶点坐标的距离,计算方法与计算第一坐标和三个顶点坐标的距离所用的计算方法一致,将计算出的四个距离中最小的距离作为图像判断距离;
步骤d.根据第一坐标和第二坐标获取自动化车间图像面积与自动化车间占地面积间比例系数,根据比例系数获取图像判断距离在第一坐标系中对应的实际判断距离
步骤e.将每个区域对应的最大半径与实际判断距离从大到小进行排序,生成排序表,若每个区域对应的最大半径与实际判断距离均不相等,则将排序表中排在实际判断距离前一位的最大半径对应的区域标记为物品所在区域,物品所在区域即为职工携带物品所在区域;若每个区域对应的最大半径中存在最大半径与实际判断距离相等,则将与实际判断距离相等的最大半径对应的区域标记为物品所在区域。
进一步地,所述步骤a中物品检测模型的训练方法包括:
将被标注为大型物品的职工图像标记为第二训练图像;对第二训练图像中的大型物品进行矩形框标注;将标注后的第二训练图像分为训练集和测试集,使用训练集对物品检测模型进行训练,使用测试集对物品检测模型进行测试;预设坐标误差阈值,当测试集中所有第二训练图像的预测坐标误差的均值小于坐标误差阈值时,物品检测模型训练完成,输出物品检测模型;所述物品检测模型为卷积神经网络模型。
进一步地,所述步骤d中比例系数的计算方法包括:
式中,为比例系数,/>为第二坐标对应的横坐标,/>为第二坐标对应的纵坐标;
实际判断距离的计算方法包括:
式中为图像判断距离。
进一步地,所述步骤e中每个区域对应的最大半径为每个区域对应的扇形空间中较长圆弧对应圆的半径。
进一步地,生成所述对应的风险指令的方法包括:
风险指令包括初级风险指令和高级风险指令;
根据工作区域与物品所在区域,获取工作区域与物品所在区域之间存在的区域数量;
预设第一数量阈值和第二数量阈值/>,第一数量阈值/>大于第二数量阈值/>
若工作区域与物品所在区域之间存在的区域数量小于或等于第一数量阈值且大于第二数量阈值/>,则生成初级风险指令;
若工作区域与物品所在区域之间存在的区域数量小于或等于第二数量阈值且大于0,则生成高级风险指令。
进一步地,若生成初级风险指令,则对工业机器人进行减速操作;
对工业机器人进行减速操作的方法包括:
预设最低速度,将第一数量阈值减去第二数量阈值/>得到第一差值,将工作区域与物品所在区域之间存在的区域数量除以第一差值得到相对比值;采集工业机器人在工作过程中速度,标记为工作速度;将工作速度减去最低速度得到第二差值,将第二差值乘以相对比值得到乘积,将乘积作为减速后工作速度;对工业机器人进行减速操作,将工业机器人在工作过程中的速度降低为减速后工作速度;
若生成高级风险指令,则对工业机器人进行停机操作。
进一步地,根据职工移动速度,调整职工图像的采集间隔;
将与工作区域相邻区域对应的最大半径减去工业机器人的最大活动距离得到安全距离,将安全距离除以t秒得到安全速度;
获取职工进入自动化车间时对应的实际判断距离,标记为第一距离;获取职工进入自动化车间t秒后对应的实际判断距离,标记为第二距离;将第一距离减去第二距离得到第一距离差值,将第一距离差值除以t秒获得职工移动速度;
将职工移动速度与安全速度进行对比;
若职工移动速度小于或等于安全速度,则不对采集间隔进行调整;
若职工移动速度大于安全速度,则对采集间隔进行调整;将安全速度乘以t秒再除以职工移动速度获取调整后新的采集间隔;
获取新的采集间隔后,则将原先第二距离标记为第三距离,将职工进入自动化车间t秒加新的采集间隔后对应的实际判断距离标记为第四距离,将第三距离减去第四距离得到第二距离差值,将第二距离差值除以新的采集间隔获得新的职工移动速度;并将新的职工移动速度与安全速度进行对比,若新的职工移动速度大于或等于安全速度,则将安全速度乘以t秒再除以新的职工移动速度获取再次调整后新的采集间隔;
依此类推,根据每次获取的职工移动速度,对职工图像的采集间隔进行实时调整。
实施例4:
请参阅图7所示,根据本申请的又一方面还提供了电子设备500。该电子设备500可包括一个或多个处理器以及一个或多个存储器。其中,存储器中存储有计算机可读代码,计算机可读代码当由一个或多个处理器运行时,可以执行如上所述的基于AI视觉分析的工控视觉运动控制方法。
根据本申请实施方式的方法或系统也可以借助于图7所示的电子设备的架构来实现。如图7所示,电子设备500可包括总线501、一个或多个CPU502、只读存储器(ROM)503、随机存取存储器(RAM)504、连接到网络的通信端口505、输入/输出506、硬盘507等。电子设备500中的存储设备,例如ROM503或硬盘507可存储本申请提供的基于AI视觉分析的工控视觉运动控制方法。进一步地,电子设备500还可包括用户界面508。当然,图7所示的架构只是示例性的,在实现不同的设备时,根据实际需要,可以省略图7示出的电子设备中的一个或多个组件。
实施例5:
请参阅图8所示,是根据本申请一个实施方式的计算机可读存储介质600。计算机可读存储介质600上存储有计算机可读指令。当计算机可读指令由处理器运行时,可执行参照以上附图描述的根据本申请实施方式的基于AI视觉分析的工控视觉运动控制方法。存储介质600包括但不限于例如易失性存储器和/或非易失性存储器。易失性存储器例如可包括随机存取存储器(RAM)和高速缓冲存储器(cache)等。非易失性存储器例如可包括只读存储器(ROM)、硬盘、闪存等。
另外,根据本申请的实施方式,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请提供了非暂时性机器可读存储介质,所述非暂时性机器可读存储介质存储有机器可读指令,所述机器可读指令能够由处理器运行以执行与本申请提供的方法步骤对应的指令,例如:基于AI视觉分析的工控视觉运动控制方法。在该计算机程序被中央处理单元(CPU)执行时,执行本申请的方法中限定的上述功能。
上述实施例,可以全部或部分地通过软件、硬件、固件或其他任意组合来实现。当使用软件实现时,上述实施例可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令或计算机程序。在计算机上加载或执行所述计算机指令或计算机程序时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以为通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线网络或无线网络方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集合的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质。半导体介质可以是固态硬盘。
本领域普通技术人员可以意识到,结合本发明中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
最后:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (11)

1.基于AI视觉分析的工控视觉运动控制方法,其特征在于,包括:
将工业机器人所在的自动化车间划分为n个区域;所述n个区域的划分方法包括:
以自动化车间四个顶点中任一顶点为原点建立第一坐标系,获取工业机器人第一中心坐标和自动化车间四个顶点中不为原点的三个顶点坐标,将工业机器人第一中心坐标标记为第一坐标;分别计算第一坐标和三个顶点坐标的距离,距离的计算方法为,其中/>为第一坐标与三个顶点坐标中任一个顶点坐标的距离,/>为第一坐标对应的横坐标,/>为第一坐标对应的纵坐标,/>为三个顶点坐标中任一个顶点坐标对应的横坐标,/>为三个顶点坐标中任一个顶点坐标对应的纵坐标,/>、/>对应的顶点为同一个顶点,下标k用于区分三个顶点坐标;将计算出的三个距离中最大的距离作为划分距离/>
以工业机器人为圆心,工业机器人的最大活动距离为半径画圆,圆内为工作区域,再依次以/>为半径画多个圆,/>,M的取值随着圆的增多而增大;当画出圆的半径大于划分距离后,划分区域停止,每两个圆之间的扇形空间作为一个区域;将划分距离除以最大活动距离/>得到一个商,将小于商的最大整数作为A;
当有职工进入自动化车间时,实时采集自动化车间内的职工图像;
对实时采集的职工图像进行分析,判断职工携带物品是否为大型物品;
若职工携带物品为大型物品,则再对实时采集的职工图像进行分析,判断职工携带物品所在区域;所述判断职工携带物品所在区域的方法包括:
步骤a.使用训练好的物品检测模型,对实时职工图像中的大型物品进行矩形框标注;
步骤b.实时采集完整的自动化车间图像;
步骤c.以自动化车间图像中与第一坐标系原点对应顶点相同的顶点作为原点,建立第二坐标系,获取工业机器人第二中心坐标、矩形框的四个顶点坐标,将工业机器人第二中心坐标标记为第二坐标;分别计算第二坐标与矩形框四个顶点坐标的距离,计算方法与计算第一坐标和三个顶点坐标的距离所用的计算方法一致,将计算出的四个距离中最小的距离作为图像判断距离;
步骤d.根据第一坐标和第二坐标获取自动化车间图像面积与自动化车间占地面积间比例系数,根据比例系数获取图像判断距离在第一坐标系中对应的实际判断距离
步骤e.将每个区域对应的最大半径与实际判断距离从大到小进行排序,生成排序表,若每个区域对应的最大半径与实际判断距离均不相等,则将排序表中排在实际判断距离前一位的最大半径对应的区域标记为物品所在区域,物品所在区域即为职工携带物品所在区域;若每个区域对应的最大半径中存在最大半径与实际判断距离相等,则将与实际判断距离相等的最大半径对应的区域标记为物品所在区域;
根据职工携带物品所在区域,生成对应的风险指令;
根据风险指令,对工业机器人进行减速或停机的操作。
2.根据权利要求1所述的基于AI视觉分析的工控视觉运动控制方法,其特征在于,预设采集间隔为t秒,根据预设采集间隔对职工图像进行实时采集。
3.根据权利要求2所述的基于AI视觉分析的工控视觉运动控制方法,其特征在于,所述判断职工携带物品是否为大型物品的方法包括:
使用训练好的物品分析模型,对实时采集的职工图像进行识别,输出识别结果,识别结果包括大型物品和非大型物品;
物品分析模型具体训练过程包括:
预先收集多张职工图像,将每张职工图像标记为第一训练图像,对每张第一训练图像中职工携带物品进行标注,标注包括大型物品和非大型物品;将大型物品和非大型物品分别转换为数字标注,将标注后的第一训练图像分为训练集和测试集;使用训练集对物品分析模型进行训练,使用测试集对物品分析模型进行测试;预设误差阈值,当测试集中所有第一训练图像的预测误差的均值小于误差阈值时,输出物品分析模型;所述物品分析模型为卷积神经网络模型。
4.根据权利要求3所述的基于AI视觉分析的工控视觉运动控制方法,其特征在于,所述步骤a中物品检测模型的训练方法包括:
将被标注为大型物品的职工图像标记为第二训练图像;对第二训练图像中的大型物品进行矩形框标注;将标注后的第二训练图像分为训练集和测试集,使用训练集对物品检测模型进行训练,使用测试集对物品检测模型进行测试;预设坐标误差阈值,当测试集中所有第二训练图像的预测坐标误差的均值小于坐标误差阈值时,物品检测模型训练完成,输出物品检测模型;所述物品检测模型为卷积神经网络模型。
5.根据权利要求4所述的基于AI视觉分析的工控视觉运动控制方法,其特征在于,所述步骤d中比例系数的计算方法包括:
式中,为比例系数,/>为第二坐标对应的横坐标,/>为第二坐标对应的纵坐标;
实际判断距离的计算方法包括:
式中为图像判断距离;
所述步骤e中每个区域对应的最大半径为每个区域对应的扇形空间中较长圆弧对应圆的半径。
6.根据权利要求5所述的基于AI视觉分析的工控视觉运动控制方法,其特征在于,生成所述对应的风险指令的方法包括:
风险指令包括初级风险指令和高级风险指令;
根据工作区域与物品所在区域,获取工作区域与物品所在区域之间存在的区域数量;
预设第一数量阈值和第二数量阈值/>,第一数量阈值/>大于第二数量阈值
若工作区域与物品所在区域之间存在的区域数量小于或等于第一数量阈值且大于第二数量阈值/>,则生成初级风险指令;
若工作区域与物品所在区域之间存在的区域数量小于或等于第二数量阈值且大于0,则生成高级风险指令。
7.根据权利要求6所述的基于AI视觉分析的工控视觉运动控制方法,其特征在于,若生成所述初级风险指令,则对工业机器人进行减速操作;
对工业机器人进行减速操作的方法包括:
预设最低速度,将第一数量阈值减去第二数量阈值/>得到第一差值,将工作区域与物品所在区域之间存在的区域数量除以第一差值得到相对比值;采集工业机器人在工作过程中速度,标记为工作速度;将工作速度减去最低速度得到第二差值,将第二差值乘以相对比值得到乘积,将乘积作为减速后工作速度;对工业机器人进行减速操作,将工业机器人在工作过程中的速度降低为减速后工作速度;
若生成高级风险指令,则对工业机器人进行停机操作。
8.根据权利要求7所述的基于AI视觉分析的工控视觉运动控制方法,其特征在于,根据职工移动速度,调整职工图像的采集间隔;
将与工作区域相邻区域对应的最大半径减去工业机器人的最大活动距离得到安全距离,将安全距离除以t秒得到安全速度;
获取职工进入自动化车间时对应的实际判断距离,标记为第一距离;获取职工进入自动化车间t秒后对应的实际判断距离,标记为第二距离;将第一距离减去第二距离得到第一距离差值,将第一距离差值除以t秒获得职工移动速度;
将职工移动速度与安全速度进行对比;
若职工移动速度小于或等于安全速度,则不对采集间隔进行调整;
若职工移动速度大于安全速度,则对采集间隔进行调整;将安全速度乘以t秒再除以职工移动速度获取调整后新的采集间隔;
获取新的采集间隔后,则将原先第二距离标记为第三距离,将职工进入自动化车间t秒加新的采集间隔后对应的实际判断距离标记为第四距离,将第三距离减去第四距离得到第二距离差值,将第二距离差值除以新的采集间隔获得新的职工移动速度;并将新的职工移动速度与安全速度进行对比,若新的职工移动速度大于或等于安全速度,则将安全速度乘以t秒再除以新的职工移动速度获取再次调整后新的采集间隔;
依此类推,根据每次获取的职工移动速度,对职工图像的采集间隔进行实时调整。
9.基于AI视觉分析的工控视觉运动控制系统,实施权利要求1-8任一项所述的基于AI视觉分析的工控视觉运动控制方法,其特征在于,包括:
区域划分模块,将工业机器人所在的自动化车间划分为n个区域;
图像采集模块,当有职工进入自动化车间时,实时采集自动化车间内的职工图像;
第一图像分析模块,对实时采集的职工图像进行分析,判断职工携带物品是否为大型物品;
第二图像分析模块,若职工携带物品为大型物品,则再对实时采集的职工图像进行分析,判断职工携带物品所在区域;
风险判断模块,根据职工携带物品所在区域,生成对应的风险指令;
操作模块,根据风险指令,对工业机器人进行减速或停机的操作。
10.一种电子设备,包括存储器、处理器以及存储在存储器上并在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1-8任一项所述的基于AI视觉分析的工控视觉运动控制方法。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被执行时实现权利要求1-8任一项所述的基于AI视觉分析的工控视觉运动控制方法。
CN202410161880.4A 2024-02-05 2024-02-05 基于ai视觉分析的工控视觉运动控制系统及方法 Active CN117707053B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410161880.4A CN117707053B (zh) 2024-02-05 2024-02-05 基于ai视觉分析的工控视觉运动控制系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410161880.4A CN117707053B (zh) 2024-02-05 2024-02-05 基于ai视觉分析的工控视觉运动控制系统及方法

Publications (2)

Publication Number Publication Date
CN117707053A CN117707053A (zh) 2024-03-15
CN117707053B true CN117707053B (zh) 2024-04-26

Family

ID=90157378

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410161880.4A Active CN117707053B (zh) 2024-02-05 2024-02-05 基于ai视觉分析的工控视觉运动控制系统及方法

Country Status (1)

Country Link
CN (1) CN117707053B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106737685A (zh) * 2017-01-16 2017-05-31 上海大界机器人科技有限公司 基于计算机视觉与人机实时交互的机械臂运动系统
CN108724190A (zh) * 2018-06-27 2018-11-02 西安交通大学 一种工业机器人数字孪生系统仿真方法及装置
CN110045740A (zh) * 2019-05-15 2019-07-23 长春师范大学 一种基于人类行为模拟的移动机器人实时运动规划方法
CN110253570A (zh) * 2019-05-27 2019-09-20 浙江工业大学 基于视觉的工业机械臂人机安全系统
CN113566823A (zh) * 2021-06-30 2021-10-29 南京轩世琪源软件科技有限公司 运输机器人在未知环境中的路径规划方法及系统
CN117255978A (zh) * 2021-02-23 2023-12-19 横河电机株式会社 用于机器人机队的管理的系统和方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106737685A (zh) * 2017-01-16 2017-05-31 上海大界机器人科技有限公司 基于计算机视觉与人机实时交互的机械臂运动系统
CN108724190A (zh) * 2018-06-27 2018-11-02 西安交通大学 一种工业机器人数字孪生系统仿真方法及装置
CN110045740A (zh) * 2019-05-15 2019-07-23 长春师范大学 一种基于人类行为模拟的移动机器人实时运动规划方法
CN110253570A (zh) * 2019-05-27 2019-09-20 浙江工业大学 基于视觉的工业机械臂人机安全系统
CN117255978A (zh) * 2021-02-23 2023-12-19 横河电机株式会社 用于机器人机队的管理的系统和方法
CN113566823A (zh) * 2021-06-30 2021-10-29 南京轩世琪源软件科技有限公司 运输机器人在未知环境中的路径规划方法及系统

Also Published As

Publication number Publication date
CN117707053A (zh) 2024-03-15

Similar Documents

Publication Publication Date Title
CN107530881B (zh) 机器人系统和用于操作机器人的方法
US20210192225A1 (en) Apparatus for real-time monitoring for construction object and monitoring method and computer program for the same
CN113283344A (zh) 一种基于语义分割网络的矿用输送带跑偏检测方法
EP4159643A1 (en) Cargo box extraction and device, system, robot, and storage medium
CN114885133B (zh) 基于深度图像的设备安全实时监控方法、系统及相关设备
CN116206255B (zh) 基于机器视觉的危险区域人员监控方法与装置
Orlov et al. Methods and algorithms of automated two-stage visual recognition of metal-rolling billets
KR20170050448A (ko) 이미지 상의 객체 검출 방법 및 객체 검출 장치
CN117707053B (zh) 基于ai视觉分析的工控视觉运动控制系统及方法
CN112789570A (zh) 用于输入工作区域的方法和机器人系统
Chemweno et al. Innovative safety zoning for collaborative robots utilizing Kinect and LiDAR sensory approaches
Yang et al. Dynamic speed and separation monitoring based on scene semantic information
Astafiev et al. Development of the automatic marking identification system based on two-stage visual recognition of metal-rolling billets
Börold et al. Real-time environmental analysis for industrial vehicles based on synthetic sensor data and deep learning
CN112037197A (zh) 一种热轧棒材冷剪物料堆积检测方法、系统及介质
CN112037199A (zh) 热轧棒材收集完成辊道落料检测方法、系统、介质及终端
Kim et al. Semantic segmentation of 3D point cloud data acquired from robot dog for scaffold monitoring
Lim et al. Estimation of Human Position and Velocity in Collaborative Robot System Using Visual Object Detection Algorithm and Kalman Filter
CN111127442A (zh) 台车轮轴缺陷检测方法和装置
Mae et al. Person detection by mobile-manipulator for monitoring
KR102583669B1 (ko) 이동로봇의 표시물 인식 및 위치 추정방법 및 이를 이용한 장치
Kwok et al. Depth estimation using single fisheye camera
EP4309857A1 (en) Clustering and detection system and method for safety monitoring in a collaborative workspace
CN114359842B (zh) 协作机器人事故检测系统、方法、存储介质和电子设备
CN116311534B (zh) 基于ai的智慧工地的危险违规动作识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant