CN114898285B - 一种生产行为数字孪生模型的构建方法 - Google Patents
一种生产行为数字孪生模型的构建方法 Download PDFInfo
- Publication number
- CN114898285B CN114898285B CN202210370778.6A CN202210370778A CN114898285B CN 114898285 B CN114898285 B CN 114898285B CN 202210370778 A CN202210370778 A CN 202210370778A CN 114898285 B CN114898285 B CN 114898285B
- Authority
- CN
- China
- Prior art keywords
- production
- image
- camera
- coordinates
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 95
- 230000006399 behavior Effects 0.000 title claims abstract description 58
- 238000010276 construction Methods 0.000 title claims abstract description 12
- 238000000034 method Methods 0.000 claims abstract description 28
- 239000013598 vector Substances 0.000 claims description 22
- 238000013507 mapping Methods 0.000 claims description 16
- 238000001514 detection method Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 13
- 230000000007 visual effect Effects 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 claims description 2
- 238000010801 machine learning Methods 0.000 claims description 2
- 238000011176 pooling Methods 0.000 claims description 2
- 239000000463 material Substances 0.000 abstract description 6
- 230000005856 abnormality Effects 0.000 abstract description 3
- 238000012544 monitoring process Methods 0.000 abstract description 3
- 210000003127 knee Anatomy 0.000 description 8
- 210000003423 ankle Anatomy 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 210000000707 wrist Anatomy 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Abstract
本发明公开了一种生产行为数字孪生模型的构建方法,涉及安防管控技术领域,解决了生产行为中人体行为和关键资源的管控不够完整且效率不高的技术问题,其技术方案要点是通过构建视觉传感网络、训练人员行为识别模型和物料种类识别模型,从而构建人员、物料的数字孪生模型,为实现物理世界和信息世界智能互联与交互融合提供一种有效参考。能够实现无需人工参与,即可管控车间人员,实时获取员工动态位置、行为信息,并可实时获取目标区域内的物料种类以及摆放情况,如有异常立即采取相应管理措施,达到无人化监控。
Description
技术领域
本申请涉及安防管控技术领域,涉及生产管控技术,尤其涉及一种生产行为数字孪生模型的构建方法。
背景技术
随着时代的发展,以互联网信息技术和工业生产不断融合为代表的智能制造技术发展迅速。数字孪生作为将制造信息物理融合的关键“粘合剂”逐渐被人们重视,该技术使用数字化手段,将多维度、多尺度的虚拟化模型与现实物理世界深度融合,使二者相互映射、相互影响。目前,已有不少研究成果采用信息传感器网络,将产品设计、生产、制造等全生命周期中的多源数据融合,构建产品数字孪生模型。
目前,国内学者对生产环境内的设备、产品的数字孪生体已有不少研究,但对人的数字孪生体缺乏系统性。而人是生产环境中的重要组成部分,也是大部分生产行为的执行主体,因此如何实现人体行为数字孪生模型的快速构建对于生产现场的高效、准确管控有着重要的意义。
另一方面,生产现场中往往会堆放各式各样的制造资源,这些资源物料的随意堆放或是错误堆放容易导致生产效率的降低乃至危险事件的发生,如何通过数字孪生模型对一些关键作业区域内的物料进行查验,对于生产现场的安全管控极为重要。
发明内容
本申请提供了一种生产行为数字孪生模型的构建方法,其技术目的是将生产场景内人员的数字孪生体、关键制造资源的数字孪生体等有效结合形成完整的、全方位的数字孪生模型,进而为实现制造物理世界和信息世界的智能互联和交互融合提供有效参考,并能够对生产现场进行高效安全的管控。
本申请的上述技术目的是通过以下技术方案得以实现的:
一种生产行为数字孪生模型的构建方法,包括:
S1:在生产区域内构建视觉传感网络,所述视觉传感网络包括深度视觉传感器和摄像头;
S2:摄像头采集RGB图像,对摄像头所监管区域进行标定和目标区域划分,构建目标检测网络,然后通过所述目标检测网络对目标区域内的关键制造资源进行识别与分类,得到关键制造资源的识别分类结果和像素坐标,所述像素坐标根据宏观映射关系f1得到关键制造资源的物理世界坐标;
S3:通过深度视觉传感器获取生产场景内全部人员的骨架关节点坐标数据,对骨架关节点坐标数据进行二次处理,得到由骨架关节点间的夹角和距离值组成的特征向量Features;
S4:使用标准化重构方法对所述特征向量Features进行归一化处理,得到人体行为的时空特征灰度图像;构建行为识别模型,通过所述行为识别模型对所述时空特征灰度图像进行时空域的行为识别,得到行为识别结果;
S5:根据微观映射关系f2,对人体骨架关节点坐标数据进行处理,将每个骨架关节点的坐标从相机坐标系转换为世界坐标系,得到生产人员物理世界坐标,所述生产人员物理世界坐标结合所述行为识别结果即生产行为的微观表述;
S6:将所述关键制造资源的物理世界坐标和识别分类结果、所述生产人员物理世界坐标和所述行为识别结果作为生产行为孪生数据构建数字孪生模型。
本申请的有益效果在于:
(1)本申请提出了一种可应用于生产场景人员管控的方法,通过构建视觉传感网络、训练人员行为识别模型,能够实现无需人工参与,即可管控车间人员,实时获取员工动态位置、行为信息,如有异常立即采取相应管理措施,达到无人化监控。
(2)本申请提出了一种可应用于生产场景的关键制造资源管控方法,通过构建视觉传感网络、训练物料种类识别模型,能够实现无需人工参与,即可实时获取目标区域内的物料种类以及摆放情况,如有异常立即采取相应管理措施,达到无人化监控。
(3)通过本申请的方法可以实时获取生产场景内人员的位置、行为信息以及关键制造资源的放置情况,从而构建人员、物料的数字孪生体,为实现物理世界和信息世界智能互联与交互融合提供一种有效参考。
附图说明
图1为本申请所述方法的流程图;
图2为本申请所述行为识别模型的结构图。
图3为骨架关节点间的距离示意图。
具体实施方式
下面将结合附图对本申请技术方案进行详细说明。
图1为本申请所述方法的流程图,如图1所示,该方法包括:
S1:在生产区域内构建视觉传感网络,所述视觉传感网络包括深度视觉传感器和摄像头。
S2:摄像头采集RGB图像,对摄像头所监管区域进行标定和目标区域划分,构建目标检测网络,然后通过所述目标检测网络对目标区域内的关键制造资源进行识别与分类,得到关键制造资源的识别分类结果和像素坐标,所述像素坐标根据宏观映射关系f1得到关键制造资源的物理世界坐标。
具体地,对摄像头所监管的区域进行标定和目标区域划分包括:
S211:将黑白棋盘格标定板放到摄像头成像区域内,从摄像头中获取标定图片;
S212:通过张正友标定法进行摄像头标定,得到摄像头内外参数;
S213:根据摄像头内外参数对摄像头采集的生产场景内的RGB图像进行矫正;
S214:对矫正后的RGB图像进行目标区域划分。
通过目标检测网络对目标区域内的关键制造资源进行识别与分类,得到关键制造资源的识别分类结果和像素坐标,包括:
S221:对矫正后的RGB图像中目标区域内的物体进行人工标记,得到标记后图像,对标记后图像的RGB三通道像素值都进行归一化,得到归一化图像;
S222:将归一化图像投入到目标检测网络中训练直至模型收敛,得到收敛后的目标检测网络;
S223:通过收敛后的目标检测网络对来自多摄像头的视频帧图像进行关键制造资源的识别与分类,得到关键制造资源的识别分类结果和对应的像素坐标。
本申请中,目标检测网络的选择有多种,例如YOLO网络等。
宏观映射关系f1的计算步骤包括:
S231:在实际生产区域中采集二维物理坐标(x,y),并在对应的所述RGB图像中获取 (x,y)所对应的像素坐标(u,v);
S232:利用机器学习的多输出回归算法,拟合所述RGB图像中目标所在的像素坐标(u,v)与实际生产区域中关键制造资源所在的物理坐标(x,y)的宏观映射关系f1。
S3:通过深度视觉传感器获取生产场景内全部人员的骨架关节点坐标数据,对骨架关节点坐标数据进行二次处理,得到由骨架关节点间的夹角和距离值组成的特征向量Features。
具体地,通过深度视觉传感器获取生产场景内全部人员的骨架关节点坐标数据包括:通过深度视觉传感器Kinect的预设输出接口获得生产场景内全部人员的骨架关节点位置信息SkeletonData’={x″1,y″1,z″1,…,x″25,y″25,z″25}。
作为具体实施例地,对骨架关节点坐标数据进行二次处理,得到由骨架关节点间的夹角和距离值组成的特征向量Features,包括:
S311:根据表1所示的骨架关节点向量对照表,计算得到15组骨架关节点向量;
表1骨架关节点向量对照表
序号 | 端点A | 端点B | 序号 | 端点A | 端点B | 序号 | 端点A | 端点B |
1 | 左肩 | 左肘 | 6 | 右手 | 右手指 | 11 | 脊柱 | 臀中部 |
2 | 左肘 | 左手 | 7 | 肩膀部 | 脊柱 | 12 | 左臂 | 左膝 |
3 | 左手 | 左手指 | 8 | 肩膀部 | 左肩 | 13 | 右臂 | 右膝 |
4 | 右肩 | 右肘 | 9 | 肩膀部 | 右肩 | 14 | 左膝 | 左脚踝 |
5 | 右肘 | 右手 | 10 | 肩膀部 | 头部 | 15 | 右膝 | 右脚踝 |
S312:根据表2的对应关系,利用向量夹角公式和反余弦定理计算得到对应的向量夹角,汇总后得到一组由12个元素构成的的骨架关节点夹角特征向量SkeletonAngle’={α0,α1,…α10,α11};
表2骨架向量夹角对照表
符号表示 | 夹角关节类型 | 符号表示 | 夹角关节类型 |
α0 | <肩膀部-左肩,左肩-左肘> | α6 | <脊柱-臀中部,左臀-左膝> |
α1 | <左肩-左肘,左肘-左手腕> | α7 | <脊柱-臀中部,右臀-右膝> |
α2 | <左肘-左手腕,左手-左手指> | α8 | <肩膀部-头部,肩膀部-左肩> |
α3 | <肩膀部-右肩,右肩-右肘> | α9 | <肩膀部-头部,肩膀部-脊柱> |
α4 | <右肩-右肘,右肘-右手腕> | α10 | <左臀-左膝,左膝-左脚踝> |
α5 | <右肘-右手腕,右手-右手指> | α11 | <右臀-右膝,右膝-右脚踝> |
S313:根据图3所示的箭头关系计算对应骨架关节点的空间距离,汇总后得到一组由8个元素构成的的骨架关节点间的距离特征向量SkeletonDistance’={d0,d1,…d6,d7};
S313:将骨架关节点夹角特征向量SkeletonAngle’和骨架关节点间的距离特征向量SkeletonDistance’合并后最终得到由骨架关节点间的夹角和距离值组成的特征向量Features={α0,α1,…α13,α11,d0,d1,…d6,d7}。
S4:使用标准化重构方法对所述特征向量Features进行归一化处理,得到人体行为的时空特征灰度图像;构建行为识别模型,通过所述行为识别模型对所述时空特征灰度图像进行时空域的行为识别,得到行为识别结果。
具体地,使用标准化重构方法对所述特征向量Features进行归一化处理,得到人体行为的时空特征灰度图像包括:
S411:获取单帧图像中骨架关节点位置信息Features’,则Features’= {α0,α1,…α10,α11,d0,d1,…d6,d7};
S412:将连续多帧的骨架关节点特征向量进行拼接得到连续的骨架关节点序列行为数据SkeletonAction",则SkeletonAction"=[Features"1,Features"2…Features"m]T;m表示图像的总帧数;
S413:提取Features"i中的各元素值作为转换后图像中的像素灰度值,从而得到原始灰度图像;i∈[1,m];
S414:通过归一化处理将原始灰度图像对应的像素值变换到0~1之间,再将原始灰度图像的尺寸统一调整为60×60,得到人体行为的时空特征灰度图像。
行为识别模型的结构如图2所示,该行为识别模型包括4个级联卷积网络,每个卷积网络的卷积核均为3×3,卷积过程中的步长均为1;每个卷积网络通过滤波器组连接,每个滤波器组包括最大池化层,最后一级卷积网络连接有2个全连接层,且所述全连接层使用ReLU模型作为激活函数单元。
每一级卷积网络的输入为每个卷积核中像素值最大的矩形区域,最后一级卷积网络的输出通过Flatten函数转换为一维数据,然后再经过2个全连接层。
行为识别模型的损失函数为多类对数损失函数,且行为识别模型使用去均值方法提高模型收敛速度。
S5:根据微观映射关系f2,对人体骨架关节点坐标数据进行处理,将每个骨架关节点的坐标从相机坐标系转换为世界坐标系,得到生产人员物理世界坐标,所述生产人员物理世界坐标结合所述行为识别结果即生产行为的微观表述。
具体地,根据微观映射关系f2,对人体骨架关节点坐标数据进行处理,将每个骨架关节点的坐标从相机坐标系转换为世界坐标系,包括:
S511:在实际生产区域中规定世界坐标系原点,测量得到深度视觉传感器在世界坐标系中的坐标值(x,y,z);
S512:利用深度视觉传感器的API接口,输入坐标值(x,y,z),得到深度视觉传感器相机坐标系和世界坐标系的映射关系f2;
S513:通过微观映射关系f2将全部人员的骨架关节点的位置信息SkeletonData’映射到世界坐标系。
S6:将所述关键制造资源的物理世界坐标和识别分类结果、所述生产人员物理世界坐标和所述行为识别结果作为生产行为孪生数据构建数字孪生模型。
具体地,步骤S6包括:
S611:将所述关键制造资源的物理世界坐标和识别分类结果、所述生产人员物理世界坐标和所述行为识别结果作为孪生数据传输到车间孪生数据服务平台;
S612:在虚拟世界中建立生产区域的数字孪生模型;
S613:通过所述数字孪生模型实时获取人员孪生数据和关键制造资源孪生数据,并动态呈现人员的骨架模型,形成物理车间生产区域的映射。
以上为本申请示范性实施例,本申请的保护范围由权利要求书及其等效物限定。
Claims (9)
1.一种生产行为数字孪生模型的构建方法,其特征在于,包括:
S1:在生产区域内构建视觉传感网络,所述视觉传感网络包括深度视觉传感器和摄像头;
S2:摄像头采集RGB图像,对摄像头所监管区域进行标定和目标区域划分,构建目标检测网络,然后通过所述目标检测网络对目标区域内的关键制造资源进行识别与分类,得到关键制造资源的识别分类结果和像素坐标,所述像素坐标根据宏观映射关系f1得到关键制造资源的物理世界坐标;
S3:通过深度视觉传感器获取生产场景内全部人员的骨架关节点坐标数据,对骨架关节点坐标数据进行二次处理,得到由骨架关节点间的夹角和距离值组成的特征向量Features;
S4:使用标准化重构方法对所述特征向量Features进行归一化处理,得到人体行为的时空特征灰度图像;构建行为识别模型,通过所述行为识别模型对所述时空特征灰度图像进行时空域的行为识别,得到行为识别结果;
S5:根据微观映射关系f2,对人体骨架关节点坐标数据进行处理,将每个骨架关节点的坐标从相机坐标系转换为世界坐标系,得到生产人员物理世界坐标,所述生产人员物理世界坐标结合所述行为识别结果即生产行为的微观表述;
S6:将所述关键制造资源的物理世界坐标和识别分类结果、所述生产人员物理世界坐标和所述行为识别结果作为生产行为孪生数据构建数字孪生模型。
2.如权利要求1所述的构建方法,其特征在于,所述步骤S2中,所述对摄像头所监管的区域进行标定和目标区域划分包括:
S211:将黑白棋盘格标定板放到摄像头成像区域内,从摄像头中获取标定图片;
S212:通过张正友标定法进行摄像头标定,得到摄像头内外参数;
S213:根据摄像头内外参数对摄像头采集的生产场景内的RGB图像进行矫正;
S214:对矫正后的RGB图像进行目标区域划分。
3.如权利要求2所述的构建方法,其特征在于,所述步骤S2中,所述通过目标检测网络对目标区域内的关键制造资源进行识别与分类,得到关键制造资源的识别分类结果和像素坐标,包括:
S221:对矫正后的RGB图像中目标区域内的物体进行人工标记,得到标记后图像,对标记后图像的RGB三通道像素值都进行归一化,得到归一化图像;
S222:将归一化图像投入到目标检测网络中训练直至模型收敛,得到收敛后的目标检测网络;
S223:通过收敛后的目标检测网络对来自多摄像头的视频帧图像进行关键制造资源的识别与分类,得到关键制造资源的识别分类结果和对应的像素坐标。
4.如权利要求3所述的构建方法,其特征在于,所述步骤S2中,所述宏观映射关系f1的计算步骤包括:
S231:在实际生产区域中采集二维物理坐标(x,y),并在对应的所述RGB图像中获取(x,y)所对应的像素坐标(u,v);
S232:利用机器学习的多输出回归算法,拟合所述RGB图像中目标所在的像素坐标(u,v)与实际生产区域中关键制造资源所在的物理坐标(x,y)的宏观映射关系f1。
5.如权利要求4所述的构建方法,其特征在于,所述步骤S3中,所述通过深度视觉传感器获取生产场景内全部人员的骨架关节点坐标数据包括:通过深度视觉传感器的预设输出接口获得生产场景内全部人员的骨架关节点位置信息SkeletonData’={x″1,y″1,z″1,...,x″25,y″25,z″25}。
6.如权利要求5所述的构建方法,其特征在于,所述步骤S4中,所述使用标准化重构方法对所述特征向量Features进行归一化处理,得到人体行为的时空特征灰度图像包括:
S411:获取单帧图像中骨架关节点位置信息Features’,则Features’={α0,α1,...α10,α11,d0,d1,...d6,d7};
S412:将连续多帧的骨架关节点特征向量进行拼接得到连续的骨架关节点序列行为数据SkeletonAction″,则SkeletonAction″=[Features″1,Features″2...Features″m]T;m表示图像的总帧数;
S413:提取Features″i中的各元素值作为转换后图像中的像素灰度值,从而得到原始灰度图像;i∈[1,m];
S414:通过归一化处理将原始灰度图像对应的像素值变换到0~1之间,再将原始灰度图像的尺寸统一调整为60×60,得到人体行为的时空特征灰度图像。
7.如权利要求6所述的构建方法,其特征在于,所述步骤S4中,所述行为识别模型包括4个级联卷积网络,每个卷积网络的卷积核均为3×3,卷积过程中的步长均为1;每个卷积网络通过滤波器组连接,每个滤波器组包括最大池化层,最后一级卷积网络连接有2个全连接层,且所述全连接层使用ReLU模型作为激活函数单元;
每一级卷积网络的输入为每个卷积核中像素值最大的矩形区域;
所述行为识别模型的损失函数为多类对数损失函数,且所述行为识别模型使用去均值方法提高模型收敛速度。
8.如权利要求7所述的构建方法,其特征在于,所述步骤S5中,所述根据微观映射关系f2,对人体骨架关节点坐标数据进行处理,将每个骨架关节点的坐标从相机坐标系转换为世界坐标系,包括:
S511:在实际生产区域中规定世界坐标系原点,测量得到深度视觉传感器在世界坐标系中的坐标值(x,y,z);
S512:利用深度视觉传感器的API接口,输入坐标值(x,y,z),得到深度视觉传感器相机坐标系和世界坐标系的映射关系f2;
S513:通过微观映射关系f2将全部人员的骨架关节点的位置信息SkeletonData’映射到世界坐标系。
9.如权利要求8所述的构建方法,其特征在于,所述步骤S6包括:
S611:将所述关键制造资源的物理世界坐标和识别分类结果、所述生产人员物理世界坐标和所述行为识别结果作为孪生数据传输到车间孪生数据服务平台;
S612:在虚拟世界中建立生产区域的数字孪生模型;
S613:通过所述数字孪生模型实时获取人员孪生数据和关键制造资源孪生数据,并动态呈现人员的骨架模型,形成物理车间生产区域的映射。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210370778.6A CN114898285B (zh) | 2022-04-11 | 2022-04-11 | 一种生产行为数字孪生模型的构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210370778.6A CN114898285B (zh) | 2022-04-11 | 2022-04-11 | 一种生产行为数字孪生模型的构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114898285A CN114898285A (zh) | 2022-08-12 |
CN114898285B true CN114898285B (zh) | 2023-10-27 |
Family
ID=82715131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210370778.6A Active CN114898285B (zh) | 2022-04-11 | 2022-04-11 | 一种生产行为数字孪生模型的构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114898285B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115660429B (zh) * | 2022-12-29 | 2023-06-30 | 南京数信智能科技有限公司 | 适用于水泥智能制造的数据处理方法及装置 |
CN115849202B (zh) * | 2023-02-23 | 2023-05-16 | 河南核工旭东电气有限公司 | 基于数字孪生技术的智能起重机操作目标识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109343496A (zh) * | 2018-11-14 | 2019-02-15 | 中国电子工程设计院有限公司 | 应用于工业生产的数字孪生系统及其形成方法 |
CN109359507A (zh) * | 2018-08-24 | 2019-02-19 | 南京理工大学 | 一种车间人员数字孪生体模型快速构建方法 |
CN111061232A (zh) * | 2019-12-09 | 2020-04-24 | 中国科学院沈阳自动化研究所 | 基于数字孪生的生产线设计与优化方法 |
CN113742442A (zh) * | 2021-09-13 | 2021-12-03 | 北京道亨软件股份有限公司 | 一种混合孪生引擎实现方法及装置 |
CN114064090A (zh) * | 2021-12-15 | 2022-02-18 | 北京数码大方科技股份有限公司 | 车间数字孪生模型的更新方法及更新装置、电子设备 |
CN114118673A (zh) * | 2021-09-30 | 2022-03-01 | 苏州大学 | 一种基于数字孪生技术的车间智能化故障诊断预警方法 |
-
2022
- 2022-04-11 CN CN202210370778.6A patent/CN114898285B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109359507A (zh) * | 2018-08-24 | 2019-02-19 | 南京理工大学 | 一种车间人员数字孪生体模型快速构建方法 |
CN109343496A (zh) * | 2018-11-14 | 2019-02-15 | 中国电子工程设计院有限公司 | 应用于工业生产的数字孪生系统及其形成方法 |
CN111061232A (zh) * | 2019-12-09 | 2020-04-24 | 中国科学院沈阳自动化研究所 | 基于数字孪生的生产线设计与优化方法 |
CN113742442A (zh) * | 2021-09-13 | 2021-12-03 | 北京道亨软件股份有限公司 | 一种混合孪生引擎实现方法及装置 |
CN114118673A (zh) * | 2021-09-30 | 2022-03-01 | 苏州大学 | 一种基于数字孪生技术的车间智能化故障诊断预警方法 |
CN114064090A (zh) * | 2021-12-15 | 2022-02-18 | 北京数码大方科技股份有限公司 | 车间数字孪生模型的更新方法及更新装置、电子设备 |
Non-Patent Citations (1)
Title |
---|
"基于图卷积网络的数字孪生车间生产行为识别方法";刘庭煜 等;《计算机集成制造系统》;第27卷(第2期);第501-509页 * |
Also Published As
Publication number | Publication date |
---|---|
CN114898285A (zh) | 2022-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114898285B (zh) | 一种生产行为数字孪生模型的构建方法 | |
Sun et al. | Gesture recognition based on kinect and sEMG signal fusion | |
CN110728209B (zh) | 一种姿态识别方法、装置、电子设备及存储介质 | |
CN109934881B (zh) | 图像编码方法、动作识别的方法及计算机设备 | |
WO2020107847A1 (zh) | 基于骨骼点的跌倒检测方法及其跌倒检测装置 | |
CN111783748B (zh) | 人脸识别方法、装置、电子设备及存储介质 | |
CN111754396B (zh) | 脸部图像处理方法、装置、计算机设备和存储介质 | |
CN111476097A (zh) | 人体姿态评估方法、装置、计算机设备及存储介质 | |
CN112801015B (zh) | 一种基于注意力机制的多模态人脸识别方法 | |
GB2584400A (en) | Processing captured images | |
CN112733707B (zh) | 一种基于深度学习的行人重识别方法 | |
CN112084878B (zh) | 一种用于判别作业人员姿态规范程度的方法 | |
CN109598732A (zh) | 一种基于三维空间加权的医学图像分割方法 | |
Abobakr et al. | A kinect-based workplace postural analysis system using deep residual networks | |
CN107545242A (zh) | 一种通过2d图像推断人体动作姿态的方法及装置 | |
CN114170686A (zh) | 一种基于人体关键点的屈肘行为检测方法 | |
CN114119987A (zh) | 基于卷积神经网络的特征提取和描述子生成方法及系统 | |
CN104361573B (zh) | 融合颜色信息和全局信息的sift特征匹配算法 | |
CN114022645A (zh) | 虚拟教师系统的动作驱动方法、装置、设备及存储介质 | |
CN115205750B (zh) | 基于深度学习模型的运动实时计数方法和系统 | |
CN114373205A (zh) | 一种基于卷积宽度网络的人脸检测和识别方法 | |
CN114627123A (zh) | 综合双流加权网络和空间注意力机制的白带细胞检测方法 | |
CN116798087A (zh) | 员工在岗状态检测方法及系统 | |
Yu et al. | Gait-based emotion recognition using spatial temporal graph convolutional networks | |
Solgi et al. | WWN-8: incremental online stereo with shape-from-X using life-long big data from multiple modalities |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |