CN114800506B - 一种基于视觉的实训机器人操作逻辑评价系统 - Google Patents
一种基于视觉的实训机器人操作逻辑评价系统 Download PDFInfo
- Publication number
- CN114800506B CN114800506B CN202210448271.8A CN202210448271A CN114800506B CN 114800506 B CN114800506 B CN 114800506B CN 202210448271 A CN202210448271 A CN 202210448271A CN 114800506 B CN114800506 B CN 114800506B
- Authority
- CN
- China
- Prior art keywords
- state
- evaluation
- training robot
- sequence
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 66
- 238000012549 training Methods 0.000 title claims abstract description 43
- 230000000007 visual effect Effects 0.000 title claims description 4
- 238000012545 processing Methods 0.000 claims abstract description 32
- 238000000034 method Methods 0.000 claims abstract description 19
- 238000013135 deep learning Methods 0.000 claims abstract description 6
- 230000008859 change Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 9
- 238000012854 evaluation process Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 3
- 238000012163 sequencing technique Methods 0.000 claims description 3
- 230000002123 temporal effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 2
- 230000007717 exclusion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于视觉的实训机器人操作逻辑评价系统,包括实训机器人平台、采集单元和处理单元。所述实训机器人平台用于考核学员的操作环境与对象;采集单元包括头戴式摄像机在内的视频采集装置,部署在考核学员身上和周围操作环境中,处理单元包括计算机、服务器在内的可以实现深度学习图像处理的计算设备;采集单元实时将视频流发送到处理单元,处理单元对接收到的视频信息进行计算与识别,同时对考核学员相关操作的逻辑顺序进行评价打分。本发明适用性广,鲁棒性强,可以代替人工完成对实训机器人操作逻辑评价的考核,提高评价打分的效率与客观性,同时节省人力资源消耗。
Description
技术领域
本发明涉及机器人培训智能评价领域,具体涉及一种基于视觉的实训机器人操作逻辑评价系统。
背景技术
随着我国工业自动化与智能化水平的不断提高,对于行业从事人员的专业素养有越来越高的要求,其中包括对各种工业机器人的理论知识与实践操纵能力。然而国产工业机器人的培训过程要求复杂,考核内容繁多,难以对学员的实训效果与操作行为进行细致客观的评价反馈。同时由于教师资源的稀缺与考核学员人数骤增,一名教师往往要同时兼顾多位学员的实训操作考核,这不仅增加了教师打分过程的工作强度,也增加了学员在实训过程中的安全隐患。
视觉信息处理是机器实现智能感知的关键与基础,随着人工智能的飞速发展,计算机视觉技术在智能制造、智慧医疗、自动驾驶等行业已经有众多应用。计算机视觉是指用摄像机和计算机代替人眼对目标进行识别、跟踪、测量,并进一步做图像处理,成为更适合人眼观察或仪器检测的图像。计算机视觉技术在实训机器人领域还未有应用,然而,仅仅是简单地对目标进行识别与跟踪难以满足实训机器人的复杂考核要求,尤其是针对学员的操作行为逻辑评价,现有技术还难以代替教师实现考核。
发明内容
本发明的目的在于针对现有技术的不足,提出一种准确性高、适用范围广、鲁棒性强的实训机器人操作逻辑评价系统,并给出基于该系统的操作逻辑评价方法。
本发明的目的是通过以下技术方案来实现的:一种基于视觉的实训机器人操作逻辑评价系统,该系统包括一套实训机器人平台、采集单元和处理单元。
实训机器人平台是考核学员的操作环境与对象,包括各种型号功能在内的工业机器人培训系统。
采集单元用于采集考核学员的多视角操作视频,并实时发送视频流到处理单元。
处理单元用于整合采集单元传输的视频数据,对视频进行计算与识别,并对考核学员相关操作的逻辑顺序进行评价打分。
进一步地,所述采集单元包括头戴式摄像机在内的各种视频采集装置,部署在考核学员身上和周围操作环境中,可以从多视角拍摄考核学员的操作画面,确保可以清晰无遮挡获取视频数据。
进一步地,所述处理单元包括计算机、服务器在内的可以实现深度学习图像处理的计算设备,用于分析和处理从采集单元接收到的视频数据,在对视频中各种操作目标进行识别与跟踪的基础上,实现对考核学员操作逻辑的评价。
基于该系统的操作逻辑评价方法包括两部分:一个是对操作的空间顺序进行评价,一个是对操作的时间顺序进行评价。操作空间顺序是指在考核过程中,学员针对多个操作目标情况,是否按照要求的空间位置顺序进行操作;操作时间顺序是指在考核过程中,学员针对多项操作内容情况,是否按照要求的时间先后顺序进行操作。
一种基于该系统的操作空间顺序评价方法,该方法的步骤具体如下:
(1)存在多个操作目标,每个操作目标赋予唯一ID;根据操作考核要求,为操作目标定义所有可能状态集合,包括初始状态、操作状态、完成状态、失败状态;
(2)检查每个操作目标是否处于初始状态,若有操作目标初始状态错误,则反馈错误信息,结束评价,等待重新开始;
(3)获取视频图像,检查每个操作目标当前状态;若所有操作目标都处于完成状态,则进行步骤5;若存在操作目标未在完成状态,且有目标状态处于操作状态,则进行步骤4;否则继续步骤3;
(4)获取视频图像,跟踪处于操作状态的操作目标后续状态变化,若该目标最终为完成状态,则获取该目标的ID并记录,并返回步骤3;若该目标最终为失败状态,则反馈信息,结束评价;
(5)依次获取操作目标到达完成状态的ID,得到完成序列;判断该序列顺序是否符合操作逻辑的空间顺序要求,根据结果反馈信息,结束评价;
进一步地,所述的每个操作目标在评价过程中有且仅有一个唯一ID,与其所处的空间位置、状态无关;所述的状态集合包括但不限于初始状态、操作状态、完成状态、失败状态,其中操作状态是唯一且可识别的,初始状态、完成状态与失败状态为互斥关系。
一种基于该系统的操作时间顺序评价方法,该方法的步骤具体如下:
(1)存在多项操作内容,每项操作内容赋予唯一ID;根据操作考核要求,为每一项操作内容定义状态集合:初始状态、完成状态、失败状态;
(2)根据考核要求,将操作内容进行排序,获得操作逻辑的时间顺序ID序列A;
(3)获取视频图像,检查每项操作内容当前状态;若存在操作内容状态发生变化,则进行步骤4;若收到评价结束信号,则进行步骤5;否则继续步骤3;
(4)获取视频图像,跟踪状态变化的操作内容,若该操作内容为从初始状态变化为完成状态,则获取该操作内容的ID并记录,并返回步骤3;若该操作内容为从初始状态变化为失败状态,则反馈信息,结束评价;若该操作内容为其他状态变化情况,则直接返回步骤3;
(5)依次获取记录的操作内容ID,得到当前操作逻辑的时间顺序序列B;判断序列A与B是否相同,根据结果反馈信息,结束评价;
进一步地,所述的每项操作内容在评价过程中有且仅有一个唯一ID,操作内容可重复进行;所述的状态集合包括但不限于初始状态、完成状态、失败状态,其中每项操作内容的初始状态、完成状态与失败状态为互斥关系;评价结束信号可以是考核时间限制或学员选择结束考核的外部指令。
本发明的有益效果:
(1)本发明适用性广,鲁棒性强,可以解决目前实训机器人考核中操作逻辑评价的技术问题与人员短缺。
(2)本发明从教学评价角度,可以替代人工完成对学员的操作逻辑评价,节省人力资源,同时提高打分评价效率与客观性。
(3)本发明可以作为国产工业机器人技能认证考试的自动阅卷系统一部分,具有较大的潜在市场空间,能够创造良好的经济效益。
附图说明
图1为本发明的一种应用场景示意图;
图2为本发明实施例1的示意图;
图3为本发明实施例2的示意图;
图4为一种基于该系统的操作空间顺序评价方法流程图;
图5为一种基于该系统的操作时间顺序评价方法流程图;
图6为本发明的系统组成示意图;
具体实施方式
以下结合附图对本发明具体实施方式作进一步详细说明。
如图1和图6所示,一种基于视觉的实训机器人操作逻辑评价系统,该系统包括一套实训机器人平台、采集单元和处理单元。实训机器人平台是考核学员的操作环境与对象,包括各种型号功能在内的工业机器人培训系统。采集单元用于采集考核学员的多视角操作视频,并实时发送视频流到处理单元。处理单元用于整合采集单元传输的视频数据,对视频进行计算与识别,然后从空间顺序与时间顺序两部分来对操作逻辑进行评价,并最终给出评分与反馈。
进一步地,所述采集单元包括头戴式摄像机在内的各种视频采集装置,部署在考核学员身上和周围操作环境中,可以从多视角拍摄考核学员的操作画面,确保可以清晰无遮挡获取视频数据。
进一步地,所述处理单元包括计算机、服务器在内的可以实现深度学习图像处理的计算设备,用于分析和处理从采集单元接收到的视频数据,在对视频中各种操作目标进行识别与跟踪的基础上,实现对考核学员操作逻辑的评价。
基于该系统的操作逻辑评价方法包括两部分:一个是对操作的空间顺序进行评价,一个是对操作的时间顺序进行评价。操作空间顺序是指在考核过程中,学员针对多个操作目标情况,是否按照要求的空间位置顺序进行操作;操作时间顺序是指在考核过程中,学员针对多项操作内容情况,是否按照要求的时间先后顺序进行操作。
如图4所示,一种基于该系统的操作空间顺序评价方法,该方法的步骤具体如下:
(1)存在多个操作目标,每个操作目标赋予唯一ID;根据操作考核要求,为操作目标定义所有可能状态集合,包括初始状态、操作状态、完成状态、失败状态;
(2)检查每个操作目标是否处于初始状态,若有操作目标初始状态错误,则反馈错误信息,结束评价,等待重新开始;
(3)获取视频图像,检查每个操作目标当前状态;若所有操作目标都处于完成状态,则进行步骤(5);若存在操作目标未在完成状态,且有目标状态处于操作状态,则进行步骤(4);否则继续步骤(3);
(4)获取视频图像,跟踪处于操作状态的操作目标后续状态变化,若该目标最终为完成状态,则获取该目标的ID并记录,并返回步骤3;若该目标最终为失败状态,则反馈信息,结束评价;
(5)依次获取操作目标到达完成状态的ID,得到完成序列;判断该序列顺序是否符合操作逻辑的空间顺序要求,根据结果反馈信息,结束评价;
进一步地,所述的每个操作目标在评价过程中有且仅有一个唯一ID,与其所处的空间位置、状态无关;所述的状态集合包括但不限于初始状态、操作状态、完成状态、失败状态,其中操作状态是唯一且可识别的,初始状态、完成状态与失败状态为互斥关系。
如图5所示,一种基于该系统的操作时间顺序评价方法,该方法的步骤具体如下:
(1)存在多项操作内容,每项操作内容赋予唯一ID;根据操作考核要求,为每一项操作内容定义状态集合:初始状态、完成状态、失败状态;
(2)根据考核要求,将操作内容进行排序,获得操作逻辑的时间顺序ID序列A;
(3)获取视频图像,检查每项操作内容当前状态;若存在操作内容状态发生变化,则进行步骤(4);若收到评价结束信号,则进行步骤(5);否则继续步骤(3);
(4)获取视频图像,跟踪状态变化的操作内容,若该操作内容为从初始状态变化为完成状态,则获取该操作内容的ID并记录,并返回步骤3;若该操作内容为从初始状态变化为失败状态,则反馈信息,结束评价;若该操作内容为其他状态变化情况,则直接返回步骤3;
(5)依次获取记录的操作内容ID,得到当前操作逻辑的时间顺序序列B;判断序列A与B是否相同,根据结果反馈信息,结束评价;
进一步地,所述的每项操作内容在评价过程中有且仅有一个唯一ID,操作内容可重复进行;所述的状态集合包括但不限于初始状态、完成状态、失败状态,其中每项操作内容的初始状态、完成状态与失败状态为互斥关系;评价结束信号可以是考核时间限制或学员选择结束考核的外部指令。
实施例1:
如图2所示,下面以实训机器人操作中,拆卸电机时拧螺丝为例,具体说明基于视觉的实训机器人操作逻辑评价系统使用方法及其操作空间顺序评价方法。
(1)拆卸电机时,需要拧6颗固定螺丝,学员的头戴式摄像机可以拍摄到相应的操作画面,大致如图2所示;视频数据发送到处理单元(可以进行深度学习的计算机或服务器),对学员拆卸电机时的操作空间顺序进行评价。根据考核要求,拆卸时操作螺丝的先后顺序必须以处于对角线位置的两颗螺丝为一对,依次进行拆卸,不可以连续拆卸相邻或相隔一个位置的两颗螺丝。
(2)从左上角起,顺时针对六颗螺丝进行编号a,b,c,d,e,f,定义初始状态为螺丝在螺孔中,操作状态为扳手接触螺丝操作,完成状态为只有螺孔无螺丝,各状态示意图如图2所示。
(3)检查每颗螺丝是否处于初始状态,若有螺丝未处于初始状态,则反馈错误信息,结束评价;
(4)获取视频图像,判断每颗螺丝当前状态;当存在某颗螺丝变为操作状态,则进行步骤5;否则继续步骤4;
(5)获取视频图像,跟踪处于操作状态的螺丝后续状态变化,若螺丝最终为完成状态,则记录该螺丝编号,并返回步骤4;若该螺丝未完成状态,则反馈错误信息,结束评价;
(6)依次记录到达完成状态的螺丝编号,获得完成序列;将该序列2个字母一组,依顺序分为3段,判断3段序列是否在以下集合中{ad,da,be,eb,cf,fc};若在集合中,返回结果操作正确,否则返回操作错误;例如,若得到依次完成状态的螺丝编号为adebfc,则得到3段序列ad,eb,fc,均在{ad,da,be,eb,cf,fc}集合中,最后返回结果操作正确;若得到依次完成状态的螺丝编号为abedfc,则得到3段序列ab,ed,fc,其中ab,ed不在{ad,da,be,eb,cf,fc}集合中,最后返回结果操作错误。
上述实施例用来解释说明本发明,而不是对本发明进行限制,在本发明的精神和权利要求的保护范围内,对本发明作出的任何修改和改变,都落入本发明的保护范围。
实施例2:
如图3所示,下面以实训机器人操作中,码垛搬运任务为例,具体说明基于视觉的实训机器人操作逻辑评价系统使用方法及其操作时间顺序评价方法。
(1)学员操作机器人搬运码垛时,需要搬运三种不同类型的码垛,周围环境的视频采集装置可以拍摄到相应的操作画面,大致如图3所示;视频数据发送到处理单元(可以进行深度学习的计算机或服务器),对机器人搬运码垛时的操作时间顺序进行评价。根据考核要求,需将码垛从起始位置搬运至目标位置,摆放成相应的任务垛型,且必须先完成A类码垛,再完成B类码垛,最后完成C类码垛搬运,码垛任务垛型如图3中所示;搬运完成后,机器人须回到安全工作原点。
(2)将码垛搬运任务完成分为4步操作:完成A类码垛搬运且完成任务垛型;完成B类码垛搬运且完成任务垛型;完成C类码垛搬运且完成任务垛型;机器人回到安全工作原点。4个步骤依次编号a、b、c、d。定义初始状态为码垛在起始位置,完成状态为码垛在目标位置且垛型符合要求;机器人无初始状态,完成状态为回到工作原点后静止。
(3)检查码垛是否处于初始状态,若有码垛未处于初始状态,则反馈错误信息,结束评价;
(4)获取视频图像,判断每种码垛当前状态;当存在某种码垛离开初始状态,则进行步骤5;否则继续步骤4;若所有步骤都处于完成状态,结束评价。
(5)获取视频图像,跟踪码垛后续状态变化,若某种码垛最终为完成状态,则记录该码垛搬运步骤对应编号,并返回步骤4;若该码垛搬运最终未达到完成状态,则反馈错误信息,结束评价;
(6)依次记录到达完成状态的步骤编号,获得完成序列;判断序列是否为abcd;若是,返回结果操作正确,否则返回操作错误。例如,若得到依次完成状态的步骤编号为abcd,则最后返回结果操作正确;若得到依次完成状态的步骤编号为bcda,则最后返回结果操作错误
上述实施例用来解释说明本发明,而不是对本发明进行限制,在本发明的精神和权利要求的保护范围内,对本发明作出的任何修改和改变,都落入本发明的保护范围。
Claims (7)
1.一种基于视觉的实训机器人操作逻辑评价系统,其特征在于,该系统包括实训机器人平台、采集单元和处理单元、空间顺序评价模块和时间顺序评价模块;
所述实训机器人平台用于考核学员的操作环境与对象;
所述采集单元用于采集考核学员的多视角操作视频,并实时发送视频流到处理单元;
所述处理单元用于整合采集单元传输的视频数据,对视频进行跟踪与识别;
所述空间顺序评价模块用于基于处理单元跟踪与识别的视频数据,判断每个操作目标的操作状态,将最终的每个操作目标完成的操作状态序列与实训机器人平台操作逻辑的空间顺序要求对比,进行反馈评价;所述空间顺序评价模块进行反馈评价的具体过程如下:
(1)实训机器人平台存在多个操作目标,每个操作目标赋予唯一ID;根据操作考核要求,为操作目标定义所有可能状态集合,包括初始状态、操作状态、完成状态、失败状态;
(2)检查实训机器人平台的每个操作目标是否处于初始状态,若有操作目标初始状态错误,则反馈错误信息,结束评价,等待重新开始;
(3)获取处理单元处理的视频图像,检查每个操作目标当前状态;若所有操作目标都处于完成状态,则进行步骤(5);若存在操作目标未在完成状态,且有目标状态处于操作状态,则进行步骤(4);否则继续步骤(3);
(4)获取处理单元处理的视频图像,跟踪处于操作状态的操作目标后续状态变化,若该操作目标最终为完成状态,则获取该操作目标的ID并记录,并返回步骤(3);若该操作目标最终为失败状态,则反馈信息,结束评价;
(5)依次获取操作目标到达完成状态的ID,得到完成序列;判断该序列顺序是否符合操作逻辑的空间顺序要求,根据结果反馈信息,结束评价;
所述时间顺序评价模块用于基于处理单元跟踪与识别的视频数据,判断每项操作内容的状态变化,将最终每项操作内容完成的操作逻辑的时间顺序序列与实训机器人平台操作逻辑的时间顺序要求对比,进行反馈评价;所述时间顺序评价模块进行反馈评价的具体过程如下:
(1)实训机器人平台存在多项操作内容,每项操作内容赋予唯一ID;根据操作考核要求,为每一项操作内容定义状态集合:初始状态、完成状态、失败状态;
(2)根据考核要求,将操作内容进行排序,获得操作逻辑的时间顺序ID序列A;
(3)获取处理单元处理的视频图像,检查每项操作内容当前状态;若存在操作内容状态发生变化,则进行步骤(4);若收到评价结束信号,则进行步骤(5);否则继续步骤(3);
(4)获取处理单元处理的视频图像,跟踪状态变化的操作内容,若该操作内容为从初始状态变化为完成状态,则获取该操作内容的ID并记录,并返回步骤(3);若该操作内容为从初始状态变化为失败状态,则反馈信息,结束评价;
(5)依次获取记录的操作内容ID,得到当前操作逻辑的时间顺序序列B;判断序列A与B是否相同,根据结果反馈信息,结束评价。
2.根据权利要求1所述的一种基于视觉的实训机器人操作逻辑评价系统,其特征在于,所述实训机器人平台包括各种型号功能的工业机器人培训系统。
3.根据权利要求1所述的一种基于视觉的实训机器人操作逻辑评价系统,其特征在于,所述采集单元为视频采集装置,采用头戴式摄像机,部署在考核学员身上和周围操作环境中,从多视角拍摄考核学员的操作画面,确保清晰无遮挡获取视频数据。
4.根据权利要求1所述的一种基于视觉的实训机器人操作逻辑评价系统,其特征在于,所述处理单元为能够实现深度学习图像处理的计算设备,包括计算机、服务器,用于分析和处理从采集单元接收到的视频数据,对视频中各种操作目标进行识别与跟踪。
5.根据权利要求1所述的一种基于视觉的实训机器人操作逻辑评价系统,其特征在于,所述的每个操作目标在评价过程中有且仅有一个唯一ID,与其所处的空间位置、状态无关;所述操作状态是唯一且可识别的,初始状态、完成状态与失败状态为互斥关系。
6.根据权利要求1所述的一种基于视觉的实训机器人操作逻辑评价系统,其特征在于,所述的每项操作内容在评价过程中有且仅有一个唯一ID,操作内容可重复进行;所述每项操作内容的初始状态、完成状态与失败状态为互斥关系。
7.根据权利要求1所述的一种基于视觉的实训机器人操作逻辑评价系统,其特征在于,所述评价结束信号是考核时间限制或学员选择结束考核的外部指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210448271.8A CN114800506B (zh) | 2022-04-26 | 2022-04-26 | 一种基于视觉的实训机器人操作逻辑评价系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210448271.8A CN114800506B (zh) | 2022-04-26 | 2022-04-26 | 一种基于视觉的实训机器人操作逻辑评价系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114800506A CN114800506A (zh) | 2022-07-29 |
CN114800506B true CN114800506B (zh) | 2023-11-21 |
Family
ID=82508443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210448271.8A Active CN114800506B (zh) | 2022-04-26 | 2022-04-26 | 一种基于视觉的实训机器人操作逻辑评价系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114800506B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106914886A (zh) * | 2017-03-30 | 2017-07-04 | 无锡职业技术学院 | 一种具有可拆卸装置的工业机器人实训系统和实训方法 |
CN107241572A (zh) * | 2017-05-27 | 2017-10-10 | 国家电网公司 | 学员实训视频追踪评价系统 |
CN110211477A (zh) * | 2018-09-01 | 2019-09-06 | 天津博诺智创机器人技术有限公司 | 一种工业机器人装调维修实训系统 |
CN111242813A (zh) * | 2018-11-29 | 2020-06-05 | 杭州海康威视数字技术股份有限公司 | 一种基于视频分析的考评方法、装置及系统 |
CN111753633A (zh) * | 2020-03-30 | 2020-10-09 | 杭州海康威视数字技术股份有限公司 | 目标检测方法及装置 |
CN112036840A (zh) * | 2020-09-14 | 2020-12-04 | 杭州海康威视数字技术股份有限公司 | 一种实验评分方法、装置及电子设备 |
CN212411378U (zh) * | 2020-05-16 | 2021-01-26 | 惠州市通用精益科技有限公司 | Scara工业机器人综合技能实训考核设备 |
JP2021064101A (ja) * | 2019-10-11 | 2021-04-22 | 大日本印刷株式会社 | 情報処理装置、制御方法及びプログラム |
CN113030825A (zh) * | 2021-03-10 | 2021-06-25 | 桂林理工大学南宁分校 | 一种指针万用表在线考核系统 |
CN113642360A (zh) * | 2020-04-27 | 2021-11-12 | 杭州海康威视数字技术股份有限公司 | 一种行为计时方法、装置、电子设备及存储介质 |
CN114005061A (zh) * | 2021-10-29 | 2022-02-01 | 安徽文香科技有限公司 | 一种实验智能评分方法、装置和设备 |
-
2022
- 2022-04-26 CN CN202210448271.8A patent/CN114800506B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106914886A (zh) * | 2017-03-30 | 2017-07-04 | 无锡职业技术学院 | 一种具有可拆卸装置的工业机器人实训系统和实训方法 |
CN107241572A (zh) * | 2017-05-27 | 2017-10-10 | 国家电网公司 | 学员实训视频追踪评价系统 |
CN110211477A (zh) * | 2018-09-01 | 2019-09-06 | 天津博诺智创机器人技术有限公司 | 一种工业机器人装调维修实训系统 |
CN111242813A (zh) * | 2018-11-29 | 2020-06-05 | 杭州海康威视数字技术股份有限公司 | 一种基于视频分析的考评方法、装置及系统 |
JP2021064101A (ja) * | 2019-10-11 | 2021-04-22 | 大日本印刷株式会社 | 情報処理装置、制御方法及びプログラム |
CN111753633A (zh) * | 2020-03-30 | 2020-10-09 | 杭州海康威视数字技术股份有限公司 | 目标检测方法及装置 |
CN113642360A (zh) * | 2020-04-27 | 2021-11-12 | 杭州海康威视数字技术股份有限公司 | 一种行为计时方法、装置、电子设备及存储介质 |
CN212411378U (zh) * | 2020-05-16 | 2021-01-26 | 惠州市通用精益科技有限公司 | Scara工业机器人综合技能实训考核设备 |
CN112036840A (zh) * | 2020-09-14 | 2020-12-04 | 杭州海康威视数字技术股份有限公司 | 一种实验评分方法、装置及电子设备 |
CN113030825A (zh) * | 2021-03-10 | 2021-06-25 | 桂林理工大学南宁分校 | 一种指针万用表在线考核系统 |
CN114005061A (zh) * | 2021-10-29 | 2022-02-01 | 安徽文香科技有限公司 | 一种实验智能评分方法、装置和设备 |
Non-Patent Citations (1)
Title |
---|
多元智能理论在"钳工实训"中的应用性研究;林玲;《中国优秀硕士学位论文全文数据库工程科技Ⅰ辑》(第7期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114800506A (zh) | 2022-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Alves et al. | Comparing spatial and mobile augmented reality for guiding assembling procedures with task validation | |
US20130010068A1 (en) | Augmented reality system | |
CN113597614B (zh) | 图像处理方法和装置、电子设备及存储介质 | |
CN107241572B (zh) | 学员实训视频追踪评价系统 | |
CN110738164B (zh) | 零件异常检测方法、模型训练方法及装置 | |
CN110705017A (zh) | 一种基于ar的模型拆组模拟系统及模拟方法 | |
CN111368808A (zh) | 答题数据的采集方法、装置、系统和教学设备 | |
CN113269107A (zh) | 一种基于深度学习的交互式智能拆解装配系统 | |
CN107578015B (zh) | 一种基于深度学习的第一印象识别与回馈系统及方法 | |
CN114800506B (zh) | 一种基于视觉的实训机器人操作逻辑评价系统 | |
US10438066B2 (en) | Evaluation of models generated from objects in video | |
CN110738170A (zh) | 一种用于电表终端故障识别的图像识别方法 | |
Fathabadi et al. | Autonomous sequential surgical skills assessment for the peg transfer task in a laparoscopic box-trainer system with three cameras | |
von Drigalski et al. | Team O2AC at the world robot summit 2020: towards jigless, high-precision assembly | |
CN116487012A (zh) | 一种临床医护人员智能实践教学方法、系统、介质及设备 | |
Haramaki et al. | An engineering education support system using projection-based AR | |
CN113420839B (zh) | 用于堆叠平面目标物体的半自动标注方法及分割定位系统 | |
Alenyà Ribas et al. | Characterization of textile grasping experiments | |
Sedlar et al. | Imitrob: Imitation learning dataset for training and evaluating 6d object pose estimators | |
Felea et al. | Head pose estimation using deep architectures | |
Fang et al. | Co2iAR: Co-located audio-visual enabled mobile collaborative industrial AR wiring harness assembly | |
Kranz et al. | Towards Recycling E-Waste Using Vision and Robotic Manipulation | |
Marvel et al. | 2011 solutions in perception challenge performance metrics and results | |
Elhassan et al. | optimizing Furniture Assembly: A CNN-based Mobile Application for Guided Assembly and Verification | |
CN116757524B (zh) | 一种教师授课质量评价方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |