CN112686227B - 基于增强现实和人机综合检测的产品质量检查方法及其装置 - Google Patents
基于增强现实和人机综合检测的产品质量检查方法及其装置 Download PDFInfo
- Publication number
- CN112686227B CN112686227B CN202110271757.4A CN202110271757A CN112686227B CN 112686227 B CN112686227 B CN 112686227B CN 202110271757 A CN202110271757 A CN 202110271757A CN 112686227 B CN112686227 B CN 112686227B
- Authority
- CN
- China
- Prior art keywords
- detection
- result
- image
- behavior
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于增强现实和人机综合检测的智能训练模型的产品质量检查方法,包括S1.样品集收集;S2.人工检测行为记录与AR视觉的检测,S3.机器视觉采集图像:利用机器视觉装置得到第二结果;S4.智能训练模型的建立:利用AR视觉的检测的图像和机器视觉采集图像以及所述第一第二结果得到智能训练模型;S5.建立评价模型;S6.待测样品检测。将人的目测行为记录到佩戴AR眼镜的机器人的行为模块中,从而替代人的检测成本,同时并考虑机器视觉,机器人AR视觉以及人的检测结果进行训练,并结合机器视觉的检测结果得到综合体现人和机器的检测贡献的模型,使得机器检测产品由原先的机器化中掺入人的因素,但又优于人的检测双重特点,能够适用于各种场景检测。
Description
技术领域
本发明涉及一种基于增强现实和人工检测的智能的产品质量检查方法,尤其涉及一种基于增强现实和人工检测的智能训练模型的产品质量检查方法及其装置,属于工业智能质检领域。
背景技术
工业上对于产品质量检查一般分为人工检查以及机器视觉检测,前者一般被诟病为检查效率低不适应长时间、高质量、高分辨的检查需求,后者通过信息交互以及图像处理手段,将现场拍摄的被测物图像通过与事先保存于数据库的标准图像做对比,从而实现快速高效的检测。但是,标准图像往往和现实拍摄图像在产生质量问题的部位或参数有着区别,因而机器视觉技术中现有技术常见地需要人为设置阈值或容许范围,以将这些差别进行量化而输出满意的结果。
而基于机器训练的智能技术提供了很好的解决方法,利用大量的图像识别训练产生模型,其本质是赋予机器类似人的目测经验,从而能够智能地准确地识别出质量问题。
然而,随着客户对产品的质量要求的提升,不同的质量问题具有不同的阈值参数,因而在同一种产品上会产生图像处理的需要,以区域分割处理。但事实上仅仅从图像上给予标注各问题区域以及质量参数的报表或函数。难以将现实物理位置和报表或函数进行指示关联。从而不能更直观地、精准地指导质检人员对问题产品易发问题部位,不同种类问题在产品上的空间分布和批次分布、以及问题产生的根源进行溯源,改善生产质量。
现实增强技术(AR)似乎能够解决这一问题。现有AR技术主要具备三项功能。一是获取其他模块的信息,在现实世界中进行叠加显示,例如US20200342669A1通过目标物坐标与图像的分析从而及时物件经过移动,也能在AR装置上标注出物理位置上准确指示到相应物件的物件信息。CN112330753A则通过将需要叠加的虚拟物体通过目标网络检测将其投放到真实物理空间上。而过去一些年,哥伦比亚大学团队使用穿戴式AR装置制造了一套激光打印机维修系统,将操作流程和操作对象模拟目标融合,准确地指导维修人员在物理现场进行相应部位的维修操作。
二是根据AR装置,尤其穿戴式的AR眼镜上的传感器,主动监测用户的注视点或注视方向,传给用户意图理解模块,从而进一步在现实世界中找到所需要的的控制的目标。CN110442232A使用脑机接口模块采集获得穿戴了AR设备的人员脑电信息;将所述眼动图像信息和4脑电信号联合输入到深度神经网络模型中,预测人员控制意图,生成机器人控制指令,控制所述机器人。也就是说将人的意图转化为机器人的行为。
第三种是用于产品的质检,CN111102920A正是利用了上述第一项功能,将通过图像处理和算法分析以及网络训练模型的计算得到裂纹的几何参数投放到AR眼镜,标注对应裂纹位置和标记。CN207408313U利用AR上的视觉传感器形成信息通过与眼镜上配制的相机采集的图像以及标准库中图像比对得到检测结果。其核心本质是一种行走的机器视觉技术,通过人员的走动灵活观察。CN106530403A是将图形在虚拟环境下显示检测结果。
由于对人工检测历来的技术偏见,以及机器视觉的过分依赖,使得人们忽略了人的经验,纯粹依靠机器的模型作为人工的代替。AR技术虽然能够在空间灵活度上优于机器视觉,但检测结果也是局限于机器模型,最多利用AR叠加技术将检测结果投放到物理空间上对应的位置。并且现有技术AR眼镜都是让人来佩戴,而实际检测中人成为了检测装置的移动工具的角色,完全忽视了人的目测检测经验。因此,亟需一种能够结合人工目测、机器视觉、以及AR技术的优点,对产品实现更加完善的检测。
发明内容
为了克服现有技术对机器的过分依赖,本发明考虑了一种基于增强现实和人机综合检测的智能的产品质量检查方法,将人的目测行为记录到佩戴AR眼镜的机器人的行为模块中,并考虑机器视觉,机器人AR视觉以及人的检测结果进行训练,并结合机器视觉的检测结果得到综合体现人和机器的检测贡献的模型,使得机器检测产品由原先的机器化中掺入人的因素,但又优于人的检测双重特点。本发明的机器人包括任何具有受控制产生相应行为动作的机械结构或者智能运动装置,包括且不限于本领域定义的机器人。
为此,本发明提供了一种基于增强现实和人机综合检测的智能训练模型的产品质量检查方法,其特征在于,S1.样品集收集:收集机器视觉检测出的不合格产品以及人工目测不合格的产品,并将所有所述不合格的产品随机分为训练集以及验证集,将训练集随机抽取通过生产线传输;
S2.人工检测行为记录与AR视觉的检测:p个质检人员进入各自检测工位,其中至少一部分检测工位布置与机器视觉拍摄装置空间分布至少一部分一致,利用AR设备按照各自规定路线和路线上离散的m个点,在每一点进行眼球移动观察每一个传输过来的训练集产品,其中所述p个质检人员记录每一个训练样品检测的第一结果,
S3.机器视觉采集图像:利用机器视觉装置得到第二结果;
S4.智能训练模型的建立:利用AR视觉的检测的图像和机器视觉采集图像以及所述第一第二结果得到智能训练模型;
S5.建立评价模型:根据智能训练模型得到评价模型;
S6.待测样品检测:p个第一机器人利用AR设备按照步骤S1中的所述各自规定路线,所述在m个点中的每一个点根据机器人行为模块控制机器人扫描待测产品,得到第一结果,与机器视觉装置得到的第二结果代入步骤S5中的评价模型得到检测结果。
进一步地,步骤S1中所述的机器视觉检测出的不合格样品以及人工目测不合格的产品的两者数量具有预设的比例,所述比例为10:1-1:10,优选地为5:1-1:5,更优选地的3:1-1:3,最优选为2:1。用户可以根据产品的特点以及技术需求而调整比例,以期望获得人和机器的经验贡献比例。为满足质检人员观察需要时长,生产线要求在产品到达预定检测位置时停留,待记录完毕时继续传输,一般停留时间为10-30s。熟练的质检人员能够在停留时长范围内观察到每一方向上的产品问题并完成记录。而正式检测待测产品时停留时间可以为0-3s。
进一步地,所述步骤S2中所述的在每一点进行眼球移动观察每一个传输过来的训练集产品,其中所述p个质检人员记录每一个训练样品检测的第一结果,具体包括:
S2-1.其中一个质检人员通过AR设备形成意图控制命令,控制第一机器人做与眼球移动相应的扫描动作,将所述扫描动作记录在所述第一机器人的行为模块中;同时所述p个质检人员进行AR装置视觉信息采集,随眼动方向而改变面朝方位姿态,获得p组第二图像,且每组包括与所有方向上对应的一共n个第二图像;其中每个质检员在每个点上对应到相应组的n个图像按照眼动顺序排列成第二图像矩阵,并记录到一个相应的第一结果矩阵;
S2-2.将所述第一结果矩阵发送到AR装置中存储;
其中,所述眼球移动方式是可以任意定义,一个实施例是从正视方向开始往正上方移动,接着顺时针往正右、正下、正左方向移动,最后归位到正视方向,或者逆时针往正左、正下、正右方向移动,最后归位到正视方向其中,再或者从正视方向开始往正下或正左方或正右方中的一种方向移动,接着按照顺时或逆时针往相应的方向运动,最后归位到正视方向。其中每个质检人员在每个方向上看到的现场图像为第一图像。可以理解的是,当n=1时,眼动方式是停留在正视方向或其他方向不动;相应地,第一机器人检测待测产品时也不用进行运动扫描,此时生产线停留时间为0s。
对应于眼球移动,在记录之前,AR装置能够产生用户意图信息,并将该信息传送给p个第一机器人,在行为模块形成行为集,此时AR装置检测到眼球归位后,将关闭用户意图信息产生功能,完成行为录入。用户可以将所述行为集和所述的各自规定路线组成行为库存储在AR装置中。在录入前,质检人员根据AR装置虚拟界面提示眼移动到相应选项并眨眼进行选择,根据扫描需要而选择行为库中行为集中的一种行为程序文件夹,从而完成第一机器人在每一个点处的扫描运动方式录入存储。在训练集产品检测和待测产品检测时,在每个方向上都进行采集或拍摄一张图片。
其中,所述记录的方式是将记录内容在移动终端上完成。具体地,在行为录入完毕后,记录每个方向上的检测结果,在每一个点观察完毕时记录形成第一结果,并通过所述移动终端发送给AR装置。如果记不住可以回看观察。由于行为录入完毕,此时回看观察并不影响行为录入。所述移动终端包括智能手机、iPAD,笔记本电脑。
进一步地,所述步骤S3中利用机器视觉装置得到第二结果包括:形成q组每组n个第三图像,其中每组的n个图像,按照机器视觉拍摄时间顺序也排列成第三图像矩阵,同样得到一个相应的第二结果矩阵,并将所述q组每组n个第三图像矩阵和所述第二结果矩阵传输给AR设备。
具体每一个组的第二和第三图像矩阵排列规则一致,先行再列,而每一行可以从左往右或反之,p组或q组中不同组之间排列规则可以不一致。
优选地,前述的第一结果和第二结果包括问题类型d、问题的概率prop和得分s中任一项或其组合。
其中,当问题类型为缺陷类型,且当缺陷类型为高维维缺陷时,采用第一模型,为低维缺陷时,采用第二模型。优选地,所述第一模型包括卷积神经网络(CNN)、径向基神经网络(RBF);所述第二模型包括深度神经网络(DNN)、循环神经网络(RNN)。对于同一缺陷在不同扫描视角拍摄或视觉型号采集时很可能产生颜色、光亮等不同的图像,从而需要进行多角度扫描以避免误判。其中,所述高维维缺陷包括体缺陷、面缺陷,集中分布缺陷,所述低维缺陷包括线缺陷、点缺陷。其中集中分布缺陷是指在产品某一缺陷发生部位具有至少一种高维维缺陷和/或低维缺陷集中分布。所述得分s为1-10范围,[1,3]为严重,(3,6]为中度,(6,9]为轻微,10为无暇。对于机器视觉的得分标准以各类缺陷的几何特征设定的阈值来划分。
进一步地,步骤S4中所述的利用AR视觉的检测的图像和机器视觉采集图像以及所述第一第二结果得到智能训练模型具体包括:
S4-1.AR装置将p组中每一组第二图像矩阵按照所在点位置顺序进行融合,形成一张第一检测图像作为输入端,所述第一结果矩阵相应排列形成第一总结果矩阵作为输出端,通过AR装置建立p×n个第一智能训练模型f;
S4-2.将q组中每一组第三图像矩阵进行融合, 形成一张第二检测图像作为输入端,所述第二结果相应排列形成第二总结果矩阵作为输出端,通过AR装置建立q×n个第二智能训练模型g;
S4-3.利用验证集对所述第一和第二智能训练模型进行验证,以调整模型的参数;
步骤S4-1和S4-2中,设检测图像阵列I=,R为总结果矩阵,R=,通过训练(1)得到f和g,B,C,D,E,B',C',D',E'是矩阵块,代表一个点上的相应图像阵列以及结果矩阵。当n=4时, I=, R=,(2)得到f和g,其中F[]为模型,每一个4×4矩阵块代表一个点上的相应图像阵列以及结果矩阵。
其中,所述调整之后,重复步骤S4-1-S4-3的步骤,直至满足预设阈值范围内。所述预设阈值包括问题类型判断是否有误、得分匹配是否在预设值范围内。其中所述预设值为0.1-1%的误差。
进一步地,步骤S5中所述的根据智能训练模型得到评价模型具体包括:验证完毕的,,评价模型为公式(3),其中F,F',F'',F''',G,G',G'',G'''是矩阵块,代表一个点上的相应模型矩阵,a、b为实数,且a+b=1。当p<q或p>q时,空缺的点位上以零矩阵块填充。用户可以根据产品的特点以及技术需求而调整常数,其期望获得人和机器的经验贡献,得到符合要求的最优评价模型。a和b调整可以与训练集中两种不合格产品预设的比例相匹配或大致相匹配。特别地,当a=0时即为机器视觉检测,b=0时为人机结合AR检测。
进一步地,步骤S6中具体包括:
S6-1.p个第一机器人利用AR设备按照步骤S1中的所述各自规定路线,所述在m个点中的每一个点根据机器人行为模块控制机器人扫描待测产品获得p组第二图像,且每组包括n个第二图像;其中每个第一机器人在每个点上对应到相应组的n个图像,并得到一个相应的第一结果矩阵;
S6-2.AR装置将第一结果矩阵和机器视觉装置得到的第二结果矩阵代入步骤S5中的评价模型得到评价结果,存储数据并发送给第二机器人对不合格样品进行分拣或分流。
在一个实施例中,p和q为1-4,m为1-3,优选地,p=q=4,m=1或2。可以在生产线两侧质检人员和第一机器人都分为2个组成一组。
优选地的实施例中,n为偶数,且步骤S4-1和4-2中所述的融合方式是案采集图像的AR眼动顺序和机器视觉拍摄位置顺序排列图像,拼接成检测图像。
本发明的另一个目的提供了一种基于上述方法的基于增强现实和人机综合检测的智能训练模型的产品质量检查装置,其特征在于,包括p个AR装置,p个第一机器人,其中所述p个AR装置中有且只有一个第一AR装置具备眼球跟踪模块,用于跟踪眼球的移动和识别眨眼,产生相应的眼睛动作信号,以及用户意图判断模块,用于根据所述眼睛动作信号形成对p个第一机器人控制信号和AR装置显示的虚拟界面进行操作的命令信号;
所述p个AR装置中的每一个都包括视觉信息采集模块,用于采集每一个点的每一个扫描方向下物理现场的被测产品的第二图像,
无线模块,用于接收和发送第一第二结果数据以及图像数据;对于第一AR装置,所述无线模块还将用户意图判断模块产生的控制和操作命令信号发送给p个第一机器人;
处理器,用于建模、分析数据、控制其他模块工作或关闭,
透明窗,用于真实物理视场观察,以及
投影装置,将所述处理器处理的当前所处工作步骤、图像的信息以及第一第二结果给予显示,并显示对应问题类型以及问题发生的物理视场的部位的指示信息;
所述p个第一机器人包括AR装置安装架、用户界面、行为模块、以及与所述安装架连接实现安装架扫描动作的扫描装置,所述行为模块与所述扫描装置通信,所述行为模块中事先录入有行为库,通过用户的预先选择而获得相应的行为程序,从而控制扫描装置扫描运动。
优先地,所述AR装置为可穿戴式的AR装置,更优先地,所述可穿戴式的AR装置为AR眼镜。所述AR装置也可以人穿戴,进行AR视觉检测。
本发明还提供一种计算机可读非暂时性存储介质,其中存储有实现前述基于增强现实和人机综合检测的智能训练模型的产品质量检查方法的程序。
本发明的有益效果,在训练集选择中采用一定比例的人工检测和机器视觉检测的样品,在评价模型中采用了机器视觉和人工检测结果和AR视觉检测结果,综合人与机器的检测贡献,使得所建立的模型中都含有人和机器的影响因素,适用于不同产品检测的需求。同时本发明通过机器人穿戴AR装置实现了替代了人工AR检测,实现了由原先的机器化中掺入人的因素,但又优于人的检测双重特点。利用人的观察行为的录入形成的训练好的机器人能够适用于各种场景检测,从而替代人的检测成本。
附图说明
图1本发明一种基于增强现实和人工检测的智能训练模型的产品质量检查方法流程图;
图2 本发明检测现场的一个实施例示意图,其中p=q=4,m=1或2;
图3 本发明第一机器人构造示意图;
图4 步骤S2中第一AR眼镜的AR显示和行为录制提示显示示意图;
图5 第一机器人对待测产品的扫描时第一AR眼镜信息显示示意图;
图6如图2的一个实施例的2×2个第二图像矩阵(或第三图像)按照相对于产品传输方向s的空间位置和眼动采集顺序(或mv拍摄装置位置)而排序的规律和检测图像融合过程示意图,其中表示出了一个点上的图像排序规律,其他点位与其一致。
其中附图标记,1每一个点,2训练集产品或待测样品,3生产线,4第一机器人,5 AR装置安装架,6 AR眼镜,7视觉信息采集模块,8透明窗,9,用户意图判断模块,10处理器,11投影装置,12无线模块,mv机器视觉装置, c当m=2时的第二个点位置,s产品传输方向,sc,第一机器人用户界面,trac眼球跟踪模块。
具体实施方式
以下根据附图1-6对本发明的实施例进行说明。
实施例1
如图1一种基于增强现实和人工检测的智能训练模型的产品质量检查方法,方法步骤如下:
S1.样品集收集:收集机器视觉检测出的不合格样品以及人工目测不合格的产品,并将所有所述不合格的产品随机分为训练集以及校正集,将训练集随机抽取通过生产线传输;机器视觉检测出的不合格样品以及人工目测不合格的产品的两者数量具有预设的比例为2:1,生产线的停留时间为15s。
S2.人工检测行为记录与AR视觉的检测:如图2选择p=4个质检人员在生产线3两侧各分配2个质检人员,进入各自的检测工位,佩戴AR眼镜(如图4)按照各自规定路线和路线上离散的m=1个点,或者m=2时每一侧质检人员至少一名按照图2中双箭头方向移动,在每一点进行眼球移动观察每一个传输过来的训练集产品2,其中4个质检人员通过手机记录每一个训练样品2检测的第一结果,
S3.机器视觉采集图像:利用机器视觉装置mv得到第二结果;
S4.智能训练模型的建立:利用视觉信息采集模块7(图4)进行AR视觉的检测图像和机器视觉装置mv进行机器视觉采集图像,由第一第二结果得到智能训练模型;
S5.建立评价模型:根据智能训练模型得到评价模型;
S6.待测样品检测:使用4个第一机器人利用AR眼镜按照步骤S1中的4个质检人员各自规定路线,所述在1个点1中或2两个点1和c中的每一个点,根据机器人行为模块(图3未示出)控制第一机器人6扫描待测产品2,得到第一结果,与机器视觉装置mv得到的第二结果代入步骤S5中的评价模型得到检测结果。
实施例2
本实施例在实施例1的基础上进行如下扩展:
步骤S2中一个质检员在每一点进行眼球移动通过透明窗8观察每一个传输过来的训练集产品时,具体眼球移动是从正视方向开始往正上方移动,接着顺时针往正右、正下、正左方向移动,最后归位到正视方向,通过用户意图判断模块9(图4和5)形成控制第一机器人6的控制命令信号。归位后AR眼镜6中的处理器10控制眼球跟踪模块trac停止工作。于是图3中的第一机器人6的行为模块记录到控制命令信号形成行为程序,以供用户通过用户界面sc编辑成行为库。训练过程中,4个质检人员进行AR眼镜6进行视觉信息采集,按照眼动顺序获得相应的4组第二图像矩阵,且每组包括4个第二图像;即其中每个质检人员在每个点1(或点c)上对应到相应组的4个图像(如图6所示),并记录到一个相应的4×4第一结果矩阵(图6),将4组第二图像矩阵和第一结果矩阵无线发送给AR眼镜6的无线模块12 并交由AR眼镜6中的存储设备(图未示)储存。
接着S3中训练集产品2传送到利用机器视觉装置mv,通过图像拍摄,按照拍摄装置位置顺序获得相应的4组第三图像矩阵,同样形成4组每组4个第三图像,并得到一个相应的4×4第二结果矩阵,并同样将4组第三图像矩阵16个第三图像和所述第二结果矩阵无线传输给AR眼镜6中的存储设备存储。第一结果和第二结果包括缺陷类型面缺陷、线缺陷,无其他缺陷类型,以及得分分别为1分以及5分,而问题概率都为0.5,由AR眼镜中处理器利用预存的网络训练模型的计算得到得到。
S4中AR眼镜6将4组中每一组4个第二图像进行按照图6方式对从上、右、下、左四张采集到的第二图像矩阵进行融合,形成一张第一检测图像作为输入端,所述第一结果矩阵作为输出端,通过AR眼镜处理器10使用径向基神经网络(RBF)和循环神经网络(RNN)分别对面缺陷、线缺陷按照式(4)建立4×4第一智能训练模型。
而机器视觉装置mv将4组中每一组4个第三图像矩阵进行同样的融合,形成一张第二检测图像作为输入端,所述第二结果矩阵作为输出端,通过AR装置建立分别对面缺陷、线缺陷按照式(4)建立4×4个第二智能训练模型。(5),其中检测图像阵列I=,总结果矩阵R=利用验证集对两个模型模型矩阵进行验证,以调整模型的参数,满足预设值为0.5%的误差。
在正式检测时,如图3和1所示,4个第一机器人利用AR眼镜6按照步骤S1中的所述各自规定路线,所述在1个(或2个点)中的每一个点1(或点c)根据第一机器人4行为模块控制第一机器人4扫描待测产品2获得4组第二图像,且每组包括4个第二图像;其中每个第一机器人在每个点上对应到相应组的4个图像,并得到一个相应的第一结果;
AR眼镜6将第一结果和机器视觉装置mv得到的第二结果代入评价模型(6),对于每一种缺陷类型得到评价得分A,根据每种缺陷的平均概率作为加和平均因子得到总评价得分A结果如表1,最后存储数据并发送给第二机器人对不合格产品2进行分拣或分流。
表1根据评价模型(6)得到的产品的一个评价结果
缺陷类型d | 概率prop | 得分s | 评价得分A |
面缺陷 | 0.5(AR),0.49(mv) | 1.2(AR,mv) | 1.28 |
线缺陷 | 0.5(AR),0.6(mv) | 4.9(AR,mv) | 4.37 |
其他缺陷 | 0 | 10 | 10 |
总评价得分A:5.45 中度 |
实施例3
一种基于实施例2方法的基于增强现实和人工检测的智能训练模型的产品质量检查装置,包括4个AR眼镜,4个第一机器人4,其中所述4个AR眼镜中有且只有一个第一AR眼镜6(参见图4和5)具备眼球跟踪模块trac,用于跟踪眼球的移动和识别眨眼,产生相应的眼睛动作信号,以及用户意图判断模块9,用于根据用于根据所述眼睛动作信号形成对p个第一机器人控制信号和AR装置显示的虚拟界面进行操作的命令信号;
所述4个AR眼镜中的每一个都包括视觉信息采集模块,用于采集每一个点的每一个扫描方向下物理现场的被测产品的第二图像,
无线模块,用于接收和发送第一第二结果数据以及图像数据;对于第一AR眼镜6,所述无线模块还将用户意图判断模块产生的控制信号发送给4个第一机器人;
处理器,用于建模、分析数据、控制其他模块工作或关闭,
透明窗,用于质检人员的物理视场观察,以及
投影装置,将所述处理器处理的当前所处工作步骤、图像的信息以及第一第二结果给予显示,并显示对应问题类型以及问题发生的物理视场的部位的指示信息;
所述4个第一机器人包括AR装置安装架、用户界面、行为模块、以及与所述安装架连接实现安装架扫描动作的扫描装置,所述行为模块与所述扫描装置通信,所述行为模块中事先录入有行为库,通过用户的预先选择而获得相应的行为程序,从而控制扫描装置扫描运动。
通过本实施例的方法和装置,可以完成多种产品检测场合的人机综合评价系统。
Claims (9)
1.一种基于增强现实和人机综合检测的智能训练模型的产品质量检查方法,其特征在于如下步骤,
S1.样品集收集:收集机器视觉检测出的不合格样品以及人工目测不合格的产品,并将所有所述不合格的产品随机分为训练集以及验证集,将训练集随机抽取通过生产线传输;
S2.人工检测行为记录与AR视觉的检测:p个质检人员进入各自检测工位,其中至少一部分检测工位布置与机器视觉拍摄装置空间分布至少一部分一致,利用AR装置按照各自规定路线和路线上离散的m个点,在每一点进行眼球移动n个方向观察每一个传输过来的训练集产品,其中所述p个质检人员记录每一个训练样品检测的第一结果;
S3.机器视觉采集图像:利用机器视觉装置得到第二结果;
S4.智能训练模型的建立:利用AR视觉的检测的图像和机器视觉采集图像以及所述第一结果和第二结果得到智能训练模型;
S5.建立评价模型:根据智能训练模型得到评价模型;
S6.待测样品检测:p个第一机器人利用AR装置按照步骤S2中的所述各自规定路线,在m个点中的每一个点根据机器人行为模块控制机器人扫描待测产品,得到第一结果,与机器视觉装置得到的第二结果代入步骤S5中的评价模型得到检测结果;其中,所述步骤S2中,
所述的在每一点进行眼球移动观察每一个传输过来的训练集产品,其中所述p个质检人员记录每一个训练样品检测的第一结果,具体包括:
S2-1.其中一个质检人员通过AR装置形成意图控制命令,控制第一机器人做与眼球移动相应的扫描动作,将所述扫描动作记录在所述第一机器人的行为模块中;同时所述p个质检人员进行AR装置视觉信息采集,随眼动方向而改变面朝方位姿态,获得p组第二图像,且每组包括与所有方向上对应的一共n个第二图像;其中每个质检员在每个点上对应到相应组的n个图像按照眼动顺序排列成第二图像矩阵,并记录到一个相应的第一结果矩阵;
S2-2.将所述第一结果矩阵发送到AR装置中存储;
其中,对应于眼球移动,在所述记录之前,AR装置能够产生用户意图信息,并将该信息传送给p个第一机器人,在行为模块形成行为集,此时AR装置检测到眼球归位后,关闭用户意图信息产生功能,完成行为录入;用户能够将所述行为集和所述的各自规定路线组成行为库存储在AR装置中,在录入前,质检人员根据AR装置虚拟现实界面提示眼移动到相应选项并眨眼进行选择,根据扫描需要而选择行为库中行为集中的一种行为程序文件夹,从而完成第一机器人在每一个点处的扫描运动录入存储,在正式进行待测产品检测时,在每个方向上,第一机器人都进行拍摄一张图片;
其中,所述记录的方式是将记录内容在移动终端上完成,具体地,在行为录入完毕后,记录每个方向上发现的问题类型,并在每一个点观察完毕时记录第一结果,并通过所述移动终端发送给AR装置;
所述步骤S3中利用机器视觉装置得到第二结果包括:形成q组每组n个第三图像,其中每组的n个图像,按照机器视觉拍摄时间顺序也排列成第三图像矩阵,同样得到一个相应的第二结果矩阵,并将所述q组每组n个第三图像矩阵和所述第二结果矩阵传输给AR装置,其中,每一个组的第二和第三图像矩阵排列规则一致,先行再列,而每一行从左往右排或反之。
2.根据权利要求1的产品质量检查方法,其特征在于,所述步骤S1中所述的机器视觉检测出的不合格样品以及人工目测不合格的产品的两者数量具有预设的比例,所述比例为10:1-1:10,5:1-1:5, 3:1-1:3,或2:1中的任意一种范围,且生产线在产品到达预定检测位置时停留,所述停留时间为10-30s,过停留时间后继续传输。
3.根据权利要求1所述的产品质量检查方法,其特征在于, 所述眼球移动方式是从正视方向开始往正上方移动,接着顺时针往正右、正下、正左方向移动,最后归位到正视方向,或者逆时针往正左、正下、正右方向移动,最后归位到正视方向其中,再或者从正视方向开始往正下或正左方或正右方中的一种方向移动,接着按照顺时或逆时针往相应的方向运动,最后归位到正视方向,所述移动终端包括智能手机、iPAD,笔记本电脑,以及
所述的第一结果和第二结果包括问题类型d、问题的概率prop和得分s中任一项或其组合。
4.根据权利要求3所述的产品质量检查方法,其特征在于,问题类型为缺陷类型,且当缺陷类型为高维缺陷时,采用第一模型,为低维缺陷时,采用第二模型;
所述第一模型包括卷积神经网络(CNN)、径向基神经网络(RBF);所述第二模型包括深度神经网络(DNN)、循环神经网络(RNN),其中,所述高维缺陷包括体缺陷、面缺陷,集中分布缺陷,所述低维缺陷包括线缺陷、点缺陷;其中集中分布缺陷是指在产品某一缺陷发生部位具有至少一种高维缺陷和/或低维缺陷集中分布;所述得分s为1-10范围,[1,3]为严重,(3,6]为中度,(6,9]为轻微,10为无暇,对于机器视觉的得分标准以各类缺陷的几何特征设定的阈值来划分。
5.根据权利要求2-4中任一项所述的产品质量检查方法,其特征在于,步骤S4中所述的利用AR视觉的检测的图像和机器视觉采集图像以及所述第一结果和第二结果得到智能训练模型具体包括:
S4-1.AR装置将p组中每一组第二图像矩阵按照所在点位置顺序进行融合,形成一张第一检测图像作为输入端,所述第一结果矩阵相应排列形成第一总结果矩阵作为输出端,通过AR装置建立p×n个第一智能训练模型f;
S4-2.将q组中每一组第三图像矩阵进行融合,形成一张第二检测图像作为输入端,所述第二结果相应排列形成第二总结果矩阵作为输出端,通过AR装置建立q×n个第二智能训练模型g;
S4-3.利用验证集对所述第一和第二智能训练模型进行验证,以调整模型的参数;
其中,所述调整之后,重复步骤S4-1-S4-3的步骤,直至满足预设阈值范围内,所述预设阈值包括问题类型判断是否有误、得分匹配是否在预设值范围内,其中所述预设值范围为0.1-1%的误差;
所述步骤S5中所述的根据智能训练模型得到评价模型具体包括:
验证完毕的,,评价模型为公式(3),其中F,F',F'',F''',G,G',G'',G'''是矩阵块,代表一个点上的相应模型矩阵,a、b为实数,且a+b=1,当p<q或p>q时,空缺的点位上以零矩阵块填充,所述的矩阵块为方阵或非方阵;
且所述步骤S6中具体包括:
S6-1.p个第一机器人利用AR装置按照步骤S2中的所述各自规定路线,在m个点中的每一个点根据机器人行为模块控制机器人扫描待测产品获得p组第二图像,且每组包括n个第二图像;其中每个第一机器人在每个点上对应到相应组的n个图像,并得到一个相应的第一检测图像;
S6-2.AR装置将第一检测图像和机器视觉装置得到的第二检测图像代入步骤S5中的评价模型(3)得到评价结果,存储数据并发送给第二机器人对不合格样品进行分拣或分流。
6.根据权利要求5所述的产品质量检查方法,其特征在于,p和q为1-4,m为1-3,且步骤S4-1和S4-2中所述的融合方式是按采集图像的AR眼动顺序和机器视觉拍摄位置顺序排列图像,拼接成检测图像。
7.一种基于权利要求1-6中任一项产品质量检查方法的基于增强现实和人机综合检测的智能训练模型的产品质量检查装置,其特征在于,包括p个AR装置,p个第一机器人,其中所述p个AR装置中有且只有一个第一AR装置具备眼球跟踪模块,用于跟踪眼球的移动和识别眨眼,产生相应的眼睛动作信号,以及用户意图判断模块,用于根据所述眼睛动作信号形成对p个第一机器人控制信号和AR装置显示的虚拟界面进行操作的命令信号;
所述p个AR装置中的每一个都包括视觉信息采集模块,用于采集每一个点的每一个扫描方向下物理现场的被测产品的第二图像,
无线模块,用于接收和发送第一结果和第二结果数据以及图像数据;对于第一AR装置,所述无线模块还将用户意图判断模块产生的控制和操作命令信号发送给p个第一机器人;
处理器,用于建模、分析数据、控制其他模块工作或关闭,
透明窗,用于真实物理视场观察,以及
投影装置,将所述处理器处理的当前所处工作步骤、图像的信息以及第一结果和第二结果给予显示,并显示对应问题类型以及问题发生的物理视场的部位的指示信息;
所述p个第一机器人包括AR装置安装架、用户界面、行为模块、以及与所述安装架连接实现安装架扫描动作的扫描装置,所述行为模块与所述扫描装置通信,所述行为模块中事先录入有行为库,通过用户的预先选择而获得相应的行为程序,从而控制扫描装置扫描运动。
8.根据权利要求7的产品质量检查装置,其特征在于,所述AR装置为可穿戴式的AR装置。
9.一种计算机可读非暂时性存储介质,其中存储有实现权利要求1-6中任一项基于增强现实和人工检测的智能训练模型的产品质量检查方法的程序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110271757.4A CN112686227B (zh) | 2021-03-12 | 2021-03-12 | 基于增强现实和人机综合检测的产品质量检查方法及其装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110271757.4A CN112686227B (zh) | 2021-03-12 | 2021-03-12 | 基于增强现实和人机综合检测的产品质量检查方法及其装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112686227A CN112686227A (zh) | 2021-04-20 |
CN112686227B true CN112686227B (zh) | 2021-07-06 |
Family
ID=75455535
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110271757.4A Active CN112686227B (zh) | 2021-03-12 | 2021-03-12 | 基于增强现实和人机综合检测的产品质量检查方法及其装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112686227B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107656505A (zh) * | 2017-08-21 | 2018-02-02 | 杭州太若科技有限公司 | 使用增强现实设备控制人机协作的方法、装置和系统 |
CN109454006A (zh) * | 2018-10-08 | 2019-03-12 | 杭州慧知连科技有限公司 | 化纤丝锭绊丝缺陷在线检测和分级的装置及其检测分级方法 |
CN110363741A (zh) * | 2018-04-09 | 2019-10-22 | 波音公司 | 用于飞机的自动的涂漆质量检查 |
CN110543149A (zh) * | 2019-07-22 | 2019-12-06 | 国营芜湖机械厂 | 一种基于智能眼镜的航空座椅装退弹辅助系统及使用方法 |
CN111102920A (zh) * | 2019-12-18 | 2020-05-05 | 佛山科学技术学院 | 一种基于增强现实的机械组件质检方法及系统 |
CN111267073A (zh) * | 2020-03-24 | 2020-06-12 | 青岛理工大学 | 一种基于增强现实技术的工业机器人示教系统及方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190096135A1 (en) * | 2017-09-26 | 2019-03-28 | Aquifi, Inc. | Systems and methods for visual inspection based on augmented reality |
CN207408313U (zh) * | 2017-10-30 | 2018-05-25 | 成都极致空觉科技有限公司 | 基于增强现实技术的产品合格检测装置 |
CN112285114A (zh) * | 2020-09-29 | 2021-01-29 | 华南理工大学 | 一种基于机器视觉的漆包线点焊质量检测系统及检测方法 |
-
2021
- 2021-03-12 CN CN202110271757.4A patent/CN112686227B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107656505A (zh) * | 2017-08-21 | 2018-02-02 | 杭州太若科技有限公司 | 使用增强现实设备控制人机协作的方法、装置和系统 |
CN110363741A (zh) * | 2018-04-09 | 2019-10-22 | 波音公司 | 用于飞机的自动的涂漆质量检查 |
CN109454006A (zh) * | 2018-10-08 | 2019-03-12 | 杭州慧知连科技有限公司 | 化纤丝锭绊丝缺陷在线检测和分级的装置及其检测分级方法 |
CN110543149A (zh) * | 2019-07-22 | 2019-12-06 | 国营芜湖机械厂 | 一种基于智能眼镜的航空座椅装退弹辅助系统及使用方法 |
CN111102920A (zh) * | 2019-12-18 | 2020-05-05 | 佛山科学技术学院 | 一种基于增强现实的机械组件质检方法及系统 |
CN111267073A (zh) * | 2020-03-24 | 2020-06-12 | 青岛理工大学 | 一种基于增强现实技术的工业机器人示教系统及方法 |
Non-Patent Citations (2)
Title |
---|
基于增强现实的产品质量信息传递方法;程云 等;《计算机辅助设计与图形学学报》;20190531;第31卷(第5期);全文 * |
基于机器视觉的钢球表面缺陷检测技术研究;常晓刚;《中国优秀硕士学位论文全文数据库 信息科技辑》;20180315(第03期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112686227A (zh) | 2021-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11536669B2 (en) | Detecting machining errors of a laser machining system using deep convolutional neural networks | |
CN104441526B (zh) | 基于外形轮廓匹配的模具在线监视保护系统及方法 | |
CN110850723B (zh) | 一种基于变电站巡检机器人系统的故障诊断及定位方法 | |
CN109977813A (zh) | 一种基于深度学习框架的巡检机器人目标定位方法 | |
CN110524580A (zh) | 一种焊接机器人视觉组件及其测量方法 | |
CN107124607A (zh) | 一种结合视觉疲劳检测的裸眼立体显示装置和方法 | |
JP6231302B2 (ja) | 検査補助装置 | |
EP3883715A1 (de) | Überwachung eines laserarbeitungsprozesses mithilfe von tiefen faltenden neuronalen netzen | |
CN109375573A (zh) | 一种工业机器视觉系统图像处理方法 | |
DE102019122865B4 (de) | Erfassungssystem, Arbeitssystem, Anzeigeverfahren für ein Erweiterte-Realität-Bild und Programm | |
CN103324937A (zh) | 标注目标的方法和装置 | |
CN112285114A (zh) | 一种基于机器视觉的漆包线点焊质量检测系统及检测方法 | |
CN101923059A (zh) | 一种自动验布方法及系统 | |
CN110702035A (zh) | 一种基于面结构光的家电喷涂质量检测系统及方法 | |
CN111553229B (zh) | 基于三维骨骼与lstm的工人动作识别方法及装置 | |
CN114863489B (zh) | 基于虚拟现实的可移动式智慧工地辅助巡检方法和系统 | |
CN113240798B (zh) | 基于数字孪生和ar的物料完备性智能检测与配置方法 | |
CN114894337B (zh) | 一种用于室外人脸识别测温方法及装置 | |
CN116593479B (zh) | 电池盖板外观质量检测方法、装置、设备及存储介质 | |
CN115346413A (zh) | 一种基于虚实融合的装配指导方法及系统 | |
Pettersson et al. | Human movement direction classification using virtual reality and eye tracking | |
CN112686227B (zh) | 基于增强现实和人机综合检测的产品质量检查方法及其装置 | |
CN112461846B (zh) | 工件缺陷检测方法及装置 | |
Slavov et al. | 3D machine vision system for defect inspection and robot guidance | |
EP3959497B1 (de) | Verfahren und vorrichtung zum vermessen der lokalen brechkraft und/oder der brechkraftverteilung eines brillenglases |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address |
Address after: 22 / F, building 683, zone 2, No. 5, Zhongguancun South Street, Haidian District, Beijing 100086 Patentee after: Terry digital technology (Beijing) Co.,Ltd. Address before: 100089 22 / F, building 683, zone 2, 5 Zhongguancun South Street, Haidian District, Beijing Patentee before: Terra-IT Technology (Beijing) Co.,Ltd. |
|
CP03 | Change of name, title or address |