CN116822159B - 一种人机环境动静融合的数字孪生车间快速建模方法 - Google Patents
一种人机环境动静融合的数字孪生车间快速建模方法 Download PDFInfo
- Publication number
- CN116822159B CN116822159B CN202310659261.3A CN202310659261A CN116822159B CN 116822159 B CN116822159 B CN 116822159B CN 202310659261 A CN202310659261 A CN 202310659261A CN 116822159 B CN116822159 B CN 116822159B
- Authority
- CN
- China
- Prior art keywords
- dynamic
- workshop
- database
- model
- static
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003068 static effect Effects 0.000 title claims abstract description 125
- 230000004927 fusion Effects 0.000 title claims abstract description 74
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000005286 illumination Methods 0.000 claims abstract description 59
- 238000005516 engineering process Methods 0.000 claims abstract description 15
- 230000033001 locomotion Effects 0.000 claims abstract description 8
- 238000011156 evaluation Methods 0.000 claims description 62
- 230000008447 perception Effects 0.000 claims description 21
- 238000004891 communication Methods 0.000 claims description 19
- 230000007613 environmental effect Effects 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 11
- 238000009499 grossing Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000011158 quantitative evaluation Methods 0.000 claims description 9
- 238000005520 cutting process Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 7
- 238000005457 optimization Methods 0.000 claims description 7
- 238000009877 rendering Methods 0.000 claims description 7
- 238000003466 welding Methods 0.000 claims description 7
- 239000000463 material Substances 0.000 claims description 6
- 238000010276 construction Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000009435 building construction Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 4
- 238000012544 monitoring process Methods 0.000 claims description 4
- 238000005315 distribution function Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000004321 preservation Methods 0.000 claims description 3
- 238000013139 quantization Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 239000002131 composite material Substances 0.000 claims 2
- 238000009616 inductively coupled plasma Methods 0.000 claims 2
- 230000004807 localization Effects 0.000 claims 1
- 238000004519 manufacturing process Methods 0.000 description 25
- 150000001875 compounds Chemical class 0.000 description 4
- 238000011960 computer-aided design Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
- G06F16/285—Clustering or classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/04—Manufacturing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/18—Details relating to CAD techniques using virtual or augmented reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2113/00—Details relating to the application field
- G06F2113/14—Pipes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2119/00—Details relating to the type or aim of the analysis or the optimisation
- G06F2119/10—Noise analysis or noise optimisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2119/00—Details relating to the type or aim of the analysis or the optimisation
- G06F2119/14—Force analysis or force optimisation, e.g. static or dynamic forces
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- General Engineering & Computer Science (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Computer Hardware Design (AREA)
- Data Mining & Analysis (AREA)
- Computer Graphics (AREA)
- Primary Health Care (AREA)
- Human Resources & Organizations (AREA)
- Manufacturing & Machinery (AREA)
- Economics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种人机环境动静融合的数字孪生车间快速建模方法。首先,构建人机环境动静融合的数字孪生车间快速建模框架;在此基础上,通过三维扫描技术对车间内部静态物体进行快速三维重构,生成静态模型组成的虚拟空间;然后,对于人员、运输车辆等运动对象进行识别、匹配并导入静态虚拟空间中;同时,通过多种传感器对车间内的人员运动、运输车辆运动、光照和温湿度的变化等“人‑机‑环境”相关时变数据进行感知并实现动静融合;最后,对构建的数字孪生车间进行动静融合性评价。通过本方法可以快速地构建车间静态模型,可以感知并刻画运动对象的时变状态,实现“人‑机‑环境”共融的数字孪生车间动静融合。
Description
技术领域
本发明涉及制造车间的数字化,智能化技术领域,特别是指数字孪生环境下人机环境动静融合的数字孪生车间快速建模方法。
背景技术
制造车间作为制造业生产活动的主要载体,对于每个制造企业而言,制造车间是不可或缺的关键系统,其正常运行的稳定性直接关系到企业的利润与竞争力,任何导致生产线停工的原因都将给企业带来巨大的经济损失,因此,快速复现制造车间的运行状态成为制造企业不可或缺的任务。制造车间是“人-机-环境”共融的系统,由人员、加工装备、输送装备、工艺装备、辅助装备等组成,这些设备的运行状态和效率对于车间生产效率和产品质量有着直接的影响;此外,周围环境因素,如光照强度、温度、湿度等也会影响车间的运行状况。“人-机-环境”共融的制造车间实时状态的精准刻画是保证制造活动有序进行的基础,而“人-机-环境”共融的制造车间的静态和动态元素的快速重构又是车间实时状态的精准刻画的前提。
但是,在面对制造车间的“人-机-环境”共融的复杂场景进行动静重构的时候,传统的方式是通过计算机辅助设计(CAD,Computer Aided Design)软件进行手工建模,需要准确测量各个物体的尺寸等信息,耗时长而且人力成本大。其次,根据图纸建出的模型最后可能会出现误差,而且有一些车间年久失修,早已失去了原本的布局图。此外,车间设备造型复杂,大多曲面不能精确的进行测量,导致传统手工建模效率低。另一方面,“人-机-环境”要素在制造车间现场是动态变化的,传动的建模方式难以感知并实时呈现这种动态性,例如,光照变化、温度变化等,如何对这种动态因素进行快速重构并映射在静态场景中也是制造车间动静重构方法需要解决的难题。
数字孪生技术为制造车间的安全、有效管控提供了有效途径。数字孪生系统的共性特征是精准映射、虚实同步、智能反馈和优化迭代,强调保证虚拟空间与对应物理空间中的实体在几何、功能和性能上的一致,即虚拟空间是物理空间的数字“镜像”。可见,数字孪生技术是实现“人-机-环境”共融的制造车间动静快速重构的有效途径。随着数字孪生逐渐从理论研究迈向落地实践,对数字孪生模型有了更高的要求,也提出了相关的评价指标,但是对于整个数字孪生系统中的动静融合缺乏系统性评价。
根据以上分析,本发明针对传统的制造车间人工重构方式效率低、缺少动态因素的实时感知和快速建模、缺少动静融合定量评估等方面的不足,利用数字孪生技术,提出了一种人机环境动静融合的数字孪生车间快速建模方法,对“人-机-环境”共融的制造车间进行快速的静态和动态重构,并对动静融合性进行定量评估,为制造车间实时状态的精准刻画提供有效方法。
发明内容
本发明提出了一种人机环境动静融合的数字孪生车间快速建模方法,提高了制造车间的建模效率,并把人机环境进行融合;通过动态识别和感知模块实现对数据的实时传输,通过数据驱动数字孪生车间实时更新,实现对物理车间人员和输送设备的精准定位,保证了数字孪生车间的有效动静融合;最终,对数字孪生车间动静融合性进行定量评估,为数字孪生车间的实施效果提供评价依据。
本发明的技术方案如下:一种人机环境动静融合的数字孪生车间快速建模方法,包括如下步骤:
S1:构建人机环境动静融合的数字孪生车间快速建模框架,包括虚拟车间静态快速三维重构模块、虚拟车间动态识别与感知模块、实时数据驱动的动静融合模块和数字孪生车间动静融合性的定量评价模块。
S2:构建基于静态模型的虚拟环境,并给虚拟场景绘制UI界面。
S3:构建复合型数据库。复合型数据库包括静态因素数据库、动态因素数据库和动静融合数据库。
S4:在虚拟车间的动态识别和感知模块中,通过视觉的方式检测进入车间的动态物体的类别;通过UWB定位技术获取动态物体在车间内的速度、坐标等参数信息;通过多种传感器来采集物理场景的光照、温度、湿度、噪音、管道压力等自然环境因素。
S5:通过对S4中获取的进入车间动态物体的属性信息以及车间内的环境数据来控制虚拟环境的动态更新,实现“人-机-环境”的动静融合。
S6:采用模糊综合评价法对“人-机-环境”动静融合的数字孪生车间进行综合评估。
进一步地,步骤S2具体为:
S2.1:对虚拟场景中辅助装备、焊接装备、切割装备、房屋建筑、安全装备等静态模型快速重构。
S2.1.1:数据采集:在物理现场部署三维激光扫描仪,对车间进行全方位的扫描,以获取静态模型的点云数据;
S2.1.2:数据预处理:点云滤波:使用点云库(PCL,Point Cloud Library)中的高斯滤波器(Gaussian Filter)去除噪声和离群点;点云配准:采用PCL中的迭代最近点(ICP,Iterative Closest Point)算法,将多视角的点云数据进行配准,实现点云对齐。
S2.1.3:点云分割:使用PCL中的基于欧氏距离的聚类算法(Euclidean ClusterExtraction)将点云分割为不同的物体或部分;
S2.1.4:表面重建:使用PCL中的泊松(Poisson)重建算法,将分割后的点云数据转换为几何表面模型;
S2.1.5:网格优化:使用PCL中的拉普拉斯平滑(Laplacian Smoothing)算法平滑模型网格;
S2.1.6:模型渲染:将网格优化后的三维模型导入3ds MAX软件中进行纹理、材质的设置并进行渲染,保存为.FBX格式的模型;
S2.1.7:模型保存:将渲染后的模型附加名称、类别、尺寸、纹理属性信息后保存在本地文件系统;
S2.1.8:虚拟场景构建:采用Unity3D物理引擎作为构建虚拟引擎的平台,将静态模型库中的模型导入到Unity3D构建作为虚拟环境。
S2.2:在由静态环境构成的虚拟环境的基础上,通过Unity3D的UI组件,给虚拟场景绘制UI界面,UI界面包括虚拟场景中的环境因素的实时状态信息,包括车间内的光照强度、温度、湿度、管道压力、噪声。
进一步地,步骤S3具体为:
S3.1:构建静态因素数据库。首先在MySQL数据库中创建一个新的数据库,并命名为静态因素数据库,用于存储S2.1构建的辅助装备、焊接装备、切割装备、房屋建筑、安全装备等静态模型信息。在该数据库中创建一个模型表,表中有id、name、category、size、texture、path字段;使用INSERT INTO语句将模型的名称、类别、尺寸、纹理、路径属性信息插入数据库中。
S3.2:构建动态因素数据库。在MySQL数据库中创建一个新的数据库,并命名为动态因素数据库,用于存储人员、输送设备、移动式工作站、光照、温度、湿度、噪音、管道压力等动态因素信息。在该数据库中创建一个模型表,表中有id、name、category、size、texture、value、path等字段;使用INSERT INTO语句插入名称、类别、尺寸、纹理、路径等模型信息,环境数值通过后续传感器与数据库通信进行插入。
S3.3:构建动静融合数据库。在MySQL数据库中创建一个新的数据库,并命名为动静融合数据库,用于存储车间内人员、输送装备、移动式工作站等动态模型的实时坐标、速度等时变信息。在该数据库中创建一个动静融合表,表中有id、name、category、speed、coordinate等字段,速度和坐标通过后续室内定位技术获取并导入数据库中。
进一步地,步骤S4具体为:
S4.1:动态识别。首先物理车间内部署摄像头,保证能够将车间全覆盖,当有人员、输送装备、移动式工作台等动态物体进入车间时,摄像头进行数据采集,通过目标检测算法识别出进入车间的类型、名称等信息,遍历S3构建的动态因素数据库中的模型信息,获取到该类别模型的路径,通过计算该路径下的每一个模型与识别到的动态物体的相似度,找到相似度最高的模型,最后将该模型的类别导入到动静融合数据库中。其中计算模型相似度的具体步骤为:通过公式(1)
计算识别到的动态物体A的面αi和对应路径下本地文件系统中的模型B的面βj之间的相似度,然后通过S(αi,βj)构建模型之间的面相似度矩阵,相似的面数越多,模型相似度越高,找出相似度最大的模型。其中,num(f)为计数函数,计算识别的模型或匹配模型中平面f的边数,max(x,y)表示取x与y之间的最大值。
S4.2:人-机动态感知。对于车间内的动态感知,在室内固定安装若干UWB定位基站,人员、输送装备等动态物体上附有可被定位基站识别的标签,当动态物体进入车间之后,UWB定位基站基于到达时间差法进行空间定位,UWB基站和标签内部有用于发射和接受信号的天线模块,假设标签的坐标为(x,y,z),不同基站的坐标为(xi,yi,zi),其中i=1,2....,在三维空间定位中,i≥4,根据几何意义,得方程组
…
其中di1=c*(ti-t1),ti为标签发射信号到基站i的时间,c是信号在空气中的传播速度。解方程组得到标签的坐标x,y,z,得到进入车间内动态物体的实时坐标通过不同坐标之间的距离与时间的关系得到动态物体的实时速度,将获取的坐标和速度传输给动静融合数据库中对应的字段中。
S4.3:环境动态感知。对于物理场景中的光照、温度、湿度、噪音、管道压力等自然环境变化,通过传感器进行采集数据;通过在物理车间内部署感光传感器获取物理场景中的光照强度和光源类型;通过温湿度传感器获取物理车间中的温湿度值;通过压力传感器获取管道内的压力数值;通过分贝仪获取物理车间内的分贝;最后将获取到的环境属性导入到S3构建的动态因素数据库中对应的字段下。
进一步地,步骤S4.3具体为:
S4.3.1:光照的感知。首先在物理场景中安装感光传感器,获取车间内部的光照强度和光照类型,通过对感光传感器输出的信号进行处理,将光照强度进行数值量化;并将量化后的数值导入动态因素数据库中光照对应的字段下。
S4.3.2:温湿度的感知。首先在物理场景中安装温湿度表,获取物理场景中的温湿度值,将获取的温湿度值导入动态因素数据库中对应的字段下。
S4.3.3:管道压力的感知。首先在物理场景中的管道安装压力传感器,获取管道中的压力值,将获取的管道压力值导入动态因素数据库中对应的字段下。
S4.3.4:噪音的感知。首先在物理场景中安装分贝仪,获取物理场景中的噪音的分贝,将获取的数值导入动态因素数据库中对应的字段下。
进一步地,步骤S5具体为:
S5.1:动态物体的虚实结合。首先通过Unity3D的实例化命令(Instantiate)将S4.1中相似度最高的模型从本地文件系统中导入虚拟环境中;通过C#编写代码,构建数据库和Unity3D的通信,将动静融合数据库中动态物体的坐标信息实时传输给Unity3D中模型的位置(Position)属性,驱动车间的人员、运输装备、移动式工作站等动态模型在虚拟空间中运动,实现虚实运动同步。
S5.2:光照、温湿度、管道压力、噪音等环境因素的刻画。
进一步地,步骤S5.2具体为:
S5.2.1:对于虚拟环境中光照的映射。首先通过C#代码建立Unity3D和数据库的通信,将光照数值发送给Unity3D,调整Unity3D中Light属性中的灯光强度,并将光照强度信息发送给UI界面的光照强度面板中;最后使用Cook-Torrance光照模型对物体表面的光照进行计算,根据得到的入射光和出射光的比例,以及物体表面的材质属性,实时更新Unity3D虚拟场景中的灯光和物体的渲染,使环境更加逼真。其中Cook-Torrance光照模型由公式(2)表示:
其中D为法线分布函数,V表示几何遮蔽函数,F为菲涅尔方程,ω0为视线方向,ωi为入射光方向,n为表面法线向量。
S5.2.2:对于虚拟环境中温湿度的映射。具体步骤为:通过Unity3D和数据库的通信,获取车间内实时的温湿度,发送给虚拟场景中UI界面的温湿度面板中。
S5.2.3:对于虚拟环境中管道压力的映射。具体步骤为:通过Unity3D和数据库的通信,获取管道压力值,发送给虚拟场景中UI界面的压力面板中。
S5.2.4:对于虚拟环境中噪音的映射。具体步骤为:通过Unity3D和数据库的通信,将获取到的物理场景中的分贝数值发送给虚拟场景中UI界面的噪音面板中。
进一步地,步骤S6具体为:
S6.1:确定指标集,设动静融合性定量评估的指标集为U={u1,u2,u3,u4},u1表示建模效率,u2表示识别准确率、u3表示感知准确率、u4表示监测准确率。
S6.2:确定评价集,评价集是评价者对评价对象可能做出的各种结果所组成的集合,通常用V表示,V={v1,v2,…,vj,…vn},其中vj表示第j种评价结果。
S6.3:确定权重集,评价工作中,各因素的重要程度有所不同,为此,给各因素ui一个权重ai,各因素的权重集合用A表示:A={a1,a2,…,ai,…am}。针对不同指标的评价由于不同车间的工艺和产品不同,所以不同的指标所占的权重也不同,可以根据经验进行取值。
S6.4:收集数据并进行模糊化处理,针对评价对象,根据实际情况对收集的数据进行预处理,对于定量数据,需要进行模糊化处理,将其转换为模糊集合,以便能够与评价集中的评语进行匹配。
S6.5:建立模糊综合评价矩阵,若指标集U中第i个指标对评价集V中第一个元素的隶属度为ri1,则对第i个指标的评价结果用模糊集合表示为:Ri=(ri1,ri2,…,rin),则评价矩阵为:其中。
S6.6:通过E=A*R计算最终的评价结果,其中E为一个行向量,包含了每个评价结果vj的综合评价值。在这个过程中,选择E中的最大值作为模糊综合评价的最终结果,表示了数字孪生车间的动静融合性的综合评价。
相比于现有技术,本发明的优点在于:
1.本发明针对数字孪生车间快速建模方法提出一种框架,从“人-机-环境”的融合角度出发,将车间的动态和静态因素分别建模,并阐述了实时复现车间动静融合的方法。这一创新框架为实现数字孪生车间建模提供了新的思路和途径。
2.本发明采用三维重建技术对车间内部静态物体进行扫描建模,与现有车间通过计算机辅助设计建模的方法相比,无需对车间进行测量,缩短了建模时间、减少人为误差、降低建模成本、提高建模效率,便于模型的维护和更新。
3.本发明将车间要素分为静态因素、动态因素和动静融合因素,分别构建数据库,这种分类方式有助于全面概括数字孪生车间的各种要素;通过对车间要素的分类,能够更全面地描述静态属性、动态变化以及动静融合的特征。这一方法在数字孪生车间建模领域具有学术意义和实际应用价值。
4.本发明采用多传感器的方式对车间内部人员、动态设备、环境等动态因素进行识别和感知,更加全面的捕捉车间内的变化因素,为虚实结合提供全面的实时信息,有助于提高数字孪生车间的保真度。
5.本发明通过Unity3D平台和数据库的通信,实时获取人员、运输车辆等在虚拟环境中的时变数据附加给模型,驱动模型运动,并对物理场景的光照、温湿度等环境状态进行复现,实现“人-机-环境”动静融合,精准刻画制造车间实时状态,为优化生产过程和制定管理决策提供了重要的参考依据。
6.目前缺少对人机环境动静融合的数字孪生车间的动静融合性评价,本发明提出了对数字孪生动静融合性评估的思路,并给出了相对应的评价指标和评价方法,填补了数字孪生系统动静融合性评价的空白,为该领域的研究和应用提供了有力支持,推动数字孪生技术在工业领域的发展和应用。
附图说明
图1为人机环境动静融合的数字孪生车间快速建模方法框架图;
图2为静态模型构建流程图;
图3为模型匹配流程图;
图4为模糊综合评价流程图。
具体实施方式
下面将结合本发明实施例中的附图对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实例仅仅是本发明一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实例提供了一种人机环境动静融合的数字孪生车间快速建模方法,具体步骤如下:
S1构建人机环境动静融合的数字孪生车间快速建模框架,包括虚拟车间静态快速三维重构模块、虚拟车间动态识别与感知模块、实时数据驱动的动静融合模块和数字孪生车间动静融合性的定量评价模块,如图1所示:
虚拟车间静态快速三维重构模块是指针对物理场景中位置固定的设备或者建筑标识通过三维重建技术进行快速建模;虚拟车间动态识别与感知模块是指采用目标检测技术对虚拟车间中的工作人员、AGV小车、叉车、移动式工作站等动态物体进行识别;通过室内定位技术对动态物体的坐标、速度等运动状态信息进行感知;通过环境监测技术对车间内温度、湿度、光照、辐射、噪音等环境因素进行感知;实时数据驱动的动静融合模块是指将识别到的动态物体从本地文件系统中导入虚拟空间,并对其附加感知到的运动状态信息,驱动动态物体在虚拟空间中的运动更新,同时将感知到的环境因素在虚拟场景中复现,实现数字孪生车间“人-机-环境”动静融合;数字孪生车间动静融合性的定量评价模块是指对通过该方法构建的数字孪生系统的动静融合性通过模糊综合评价法进行综合评估。
S2构建基于静态模型的虚拟环境,并给虚拟场景绘制UI界面。
S2.1对于虚拟场景中的辅助装备、焊接装备、切割装备、房屋建筑、安全装备等静态模型快速重构。首先采用三维激光扫描仪对物理场景进行扫描得到对应的点云,对点云进行处理,生成对应的三维模型,经过三维软件渲染得到最终的静态三维模型;然后将得到的三维模型附加名称、类别、尺寸、纹理等属性信息,最后将渲染好的模型保存在本地文件系统中,并将模型导入物理引擎中作为虚拟环境,如图2所示;具体步骤如下:
S2.1.1.数据采集:在物理现场部署三维激光扫描仪,对车间进行全方位的扫描,以获取静态模型的点云数据;
S2.1.2.数据预处理:点云滤波:使用点云库(PCL,Point Cloud Library)中的高斯滤波器(Gaussian Filter)去除噪声和离群点;点云配准:采用PCL中的迭代最近点(ICP,Iterative Closest Point)算法,将多视角的点云数据进行配准,实现点云对齐。
S2.1.3.点云分割:使用PCL中的基于欧氏距离的聚类算法(Euclidean ClusterExtraction)将点云分割为不同的物体或部分;
S2.1.4.表面重建:使用PCL中的泊松(Poisson)重建算法,将分割后的点云数据转换为几何表面模型;
S2.1.5.网格优化:使用PCL中的拉普拉斯平滑(Laplacian Smoothing)算法平滑模型网格;
S2.1.6.模型渲染:将网格优化后的三维模型导入3ds MAX软件中进行纹理、材质的设置并进行渲染,保存为.FBX格式的模型;
S2.1.7.模型保存:将渲染后的模型附加名称、类别、尺寸、纹理等属性信息后保存在本地文件系统;
S2.1.8.虚拟场景构建:采用Unity3D物理引擎作为构建虚拟引擎的平台,将静态模型库中的模型导入到Unity3D构建作为虚拟环境。
S2.2在由静态环境构成的虚拟环境的基础上,通过Unity3D的UI组件,给虚拟场景绘制UI界面,UI界面包括虚拟场景中的环境因素的实时状态信息,包括车间内的光照强度、温度、湿度、管道压力、噪声等。
S3构建复合型数据库。复合型数据库包括静态因素数据库、动态因素数据库和动静融合数据库。将车间要素分为静态因素、动态因素和动静融合因素,分为构建静态因素数据库、动态因素数据库、动静融合数据库,用于保存“人-机-环境”融合的数字孪生车间的运行状态信息。其中静态因素包括车间内的辅助装备、焊接装备、切割装备、控制装备、房屋建筑、安全装备等位置不会发生变化的物体;动态因素不仅包括车间内部的人员、输送装备、移动式工作站等位置会发生变化的物体,还包括车间内的光照、温度、湿度、噪音、管道压力等环境因素。动静融合数据库包括人员、输送装备、移动式工作站的实时坐标和速度,体现出静态模型和动态模型的空间关系。其中静态因素模型和人员、输送装备、移动式工作站等动态模型保存在本地文件系统中,通过数据库中的路径与模型进行关联。
S3.1构建静态因素数据库。首先在MySQL数据库中创建一个新的数据库,并命名为静态因素数据库,用于存储S2.1构建的辅助装备、焊接装备、切割装备、房屋建筑、安全装备等静态模型信息。在该数据库中创建一个模型表,表中有id、name、category、size、texture、path等字段;使用INSERT INTO语句将模型的名称、类别、尺寸、纹理、路径等属性信息插入数据库中。
S3.2构建动态因素数据库。在MySQL数据库中创建一个新的数据库,并命名为动态因素数据库,用于存储人员、输送设备、移动式工作站、光照、温度、湿度、噪音、管道压力等动态因素信息。在该数据库中创建一个模型表,表中有id、name、category、size、texture、value、path等字段;使用INSERT INTO语句插入名称、类别、尺寸、纹理、路径等模型信息,环境数值通过后续传感器与数据库通信进行插入。
S3.3构建动静融合数据库。在MySQL数据库中创建一个新的数据库,并命名为动静融合数据库,用于存储车间内人员、输送装备、移动式工作站等动态模型的实时坐标、速度等时变信息。在该数据库中创建一个动静融合表,表中有id、name、category、speed、coordinate等字段,速度和坐标通过后续室内定位技术获取并导入数据库中。
S4在虚拟车间的动态识别和感知模块中,通过视觉的方式检测进入车间的动态物体的类别;通过超宽带(UWB,Ultra Wide Band)定位技术获取动态物体在车间内的速度、坐标等参数信息;通过多种传感器来采集物理场景的光照、温度、湿度、噪音、管道压力等自然环境因素。具体步骤如下:
S4.1动态识别。首先物理车间内部署摄像头,保证能够将车间全覆盖,当有人员、输送装备和移动式工作台等动态物体进入车间时,摄像头进行数据采集,通过目标检测算法识别出进入车间的类型、名称等信息,遍历S3构建的动态因素数据库中的模型信息,获取到该类别模型的路径,通过计算该路径下的每一个模型与识别到的动态物体的相似度,找到相似度最高的模型,如图3所示,最后将该模型的类别导入到动静融合数据库中。其中计算模型相似度的具体步骤为:通过公式(1)
计算识别到的动态物体A的面αi和对应路径下本地文件系统中的模型B的面βj之间的相似度,然后通过S(αi,βj)构建模型之间的面相似度矩阵,相似的面数越多,模型相似度越高,找出相似度最大的模型。其中,num(f)为计数函数,计算识别的模型或匹配模型中平面f的边数,max(x,y)表示取x与y之间的最大值。
S4.2人-机动态感知。对于车间内的动态感知,在室内固定安装若干UWB定位基站,人员、输送装备等动态物体上附有可被定位基站识别的标签,当动态物体进入车间之后,UWB定位基站基于到达时间差法进行空间定位,UWB基站和标签内部有用于发射和接受信号的天线模块,假设标签的坐标为(x,y,z),不同基站的坐标为(xi,yi,zi),其中i=1,2....,在三维空间定位中,i≥4,根据几何意义,得方程组
…
其中dtc=c*(ti-t1),ti为标签发射信号到基站i的时间,c是信号在空气中的传播速度。解方程组得到标签的坐标x,y,z,得到进入车间内动态物体的实时坐标;通过不同坐标之间的距离与时间的关系:得到动态物体的实时速度,将获取的坐标和速度传输给动静融合数据库中对应的字段中。
S4.3环境动态感知。对于物理场景中的光照、温度、湿度、噪音、管道压力等自然环境变化,通过传感器进行采集数据;通过在物理车间内部署感光传感器获取物理场景中的光照强度和光源类型;通过温湿度传感器获取物理车间中的温湿度值;通过压力传感器获取管道内的压力数值;通过分贝仪获取物理车间内的分贝。将获取到的环境属性导入到S3构建的动态因素数据库中对应的字段下。具体步骤为:
S4.3.1光照的感知。首先在物理场景中安装感光传感器,获取车间内部的光照强度和光照类型,通过对感光传感器输出的信号进行处理,将光照强度进行数值量化;并将量化后的数值导入动态因素数据库中光照对应的字段下。
S4.3.2温湿度的感知。首先在物理场景中安装温湿度表,获取物理场景中的温湿度值,将获取的温湿度值导入动态因素数据库中对应的字段下。
S4.3.3管道压力的感知。首先在物理场景中的管道安装压力传感器,获取管道中的压力值,将获取的管道压力值导入动态因素数据库中对应的字段下。
S4.3.4噪音的感知。首先在物理场景中安装分贝仪,获取物理场景中的噪音的分贝,将获取的数值导入动态因素数据库中对应的字段下。
S5通过S4中获取的进入车间动态物体的属性信息以及车间内的环境数据来控制虚拟环境的动态更新,实现“人-机-环境”的动静融合。具体步骤为:
S5.1动态物体的虚实结合。首先通过Unity3D的实例化命令(Instantiate)将S4.1中相似度最高的模型从本地文件系统中导入虚拟环境中;通过C#编写代码,构建数据库和Unity3D的通信,将动静融合数据库中动态物体的坐标信息实时传输给Unity3D中模型的位置(Position)属性,驱动车间的人员、运输装备、移动式工作站等动态模型在虚拟空间中运动,实现虚实运动同步。
S5.2光照、温湿度、管道压力、噪音等环境因素的刻画。
S5.2.1对于虚拟环境中光照的映射。具体步骤为:首先通过C#代码建立Unity3D和数据库的通信,将光照数值发送给Unity3D,调整Unity3D中Light属性中的灯光强度,并将光照强度信息发送给UI界面的光照强度面板中;最后使用Cook-Torrance光照模型对物体表面的光照进行计算,根据得到的入射光和出射光的比例,以及物体表面的材质属性,实时更新Unity3D虚拟场景中的灯光和物体的渲染,使环境更加逼真。其中Cook-Torrance光照模型由公式(2)表示:
其中D为法线分布函数,V表示几何遮蔽函数,F为菲涅尔方程,ω0为视线方向,ωi为入射光方向,n为表面法线向量。
S5.2.2对于虚拟环境中温湿度的映射。具体步骤为:通过Unity3D和数据库的通信,获取车间内实时的温湿度,发送给虚拟场景中UI界面的温湿度面板中。
S5.2.3对于虚拟环境中管道压力的映射。具体步骤为:通过Unity3D和数据库的通信,获取管道压力值,发送给虚拟场景中UI界面的压力面板中。
S5.2.4对于虚拟环境中噪音的映射。具体步骤为:通过Unity3D和数据库的通信,将获取到的物理场景中的分贝发送给虚拟场景中UI界面的噪音面板中。
S6采用模糊综合评估价对“人-机-环境”动静融合的数字孪生车间进行综合评估,如图3所示,具体步骤为:
S6.1确定指标集,设动静融合性定量评估的指标集为U={u1,u2,u3,u4},u1表示建模效率,u2表示识别准确率、u3表示感知准确率、u4表示监测准确率。
S6.2确定评价集,评价集是评价者对评价对象可能做出的各种结果所组成的集合,通常用V表示,V={v1,v2,…,vj,vn},其中vj表示第j种评价结果。
S6.3确定权重集,评价工作中,各因素的重要程度有所不同,为此,给各因素ui一个权重ai,各因素的权重集合用A表示:A={a1,a2,…,ai,…am}。针对不同指标的评价由于不同车间的工艺和产品不同,所以不同的指标所占的权重也不同,可以根据经验进行取值。
S6.4收集数据并进行模糊化处理,针对评价对象,根据实际情况对收集的数据进行预处理,对于定量数据,需要进行模糊化处理,将其转换为模糊集合,以便能够与评价集中的评语进行匹配。
S6.5建立模糊综合评价矩阵,若指标集U中第i个指标对评价集V中第一个元素的隶属度为ri1,则对第i个指标的评价结果用模糊集合表示为:Ri=(ri1,ri2,…,rin),则评价矩阵为:其中。
S6.6通过E=A*R计算最终的评价结果,其中E为一个行向量,包含了每个评价结果vj的综合评价值。在这个过程中,选择E中的最大值作为模糊综合评价的最终结果,表示了数字孪生车间的动静融合性的综合评价。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是在本发明的发明构思下,利用本发明说明书及附图内容所作的等效结构变换,或直接/间接运用在其他相关的技术领域均包括在本发明的专利保护范围内。
Claims (1)
1.一种人机环境动静融合的数字孪生车间快速建模方法,其特征在于,包括如下步骤:
S1:构建人机环境动静融合的数字孪生车间快速建模框架,包括虚拟车间静态快速三维重构模块、虚拟车间动态识别与感知模块、实时数据驱动的动静融合模块和数字孪生车间动静融合性的定量评价模块;
S2:构建基于静态模型的虚拟环境,并给虚拟场景绘制UI界面;
S3:构建复合型数据库;复合型数据库包括静态因素数据库、动态因素数据库和动静融合数据库;
S4:在虚拟车间的动态识别和感知模块中,通过视觉的方式检测进入车间的动态物体的类别;通过超宽带定位技术获取动态物体在车间内速度、坐标参数信息;通过多种传感器来采集自然环境因素,自然环境因素包括物理场景的光照、温度、湿度、噪音、管道压力;
S5:通过对S4中获取的进入车间动态物体的属性信息以及车间内的环境数据来控制虚拟环境的动态更新,实现“人-机-环境”的动静融合;
S6:采用模糊综合评价法对“人-机-环境”动静融合的数字孪生车间进行综合评估;
步骤S2具体为:
S2.1:对虚拟场景中静态模型快速重构,静态模型包括辅助装备、焊接装备、切割装备、房屋建筑、安全装备;
S2.1.1:数据采集:在物理现场部署三维激光扫描仪,对车间进行全方位的扫描,以获取静态模型的点云数据;
S2.1.2:数据预处理:点云滤波:使用点云库PCL,Point Cloud Library中的高斯滤波器Gaussian Filter去除噪声和离群点;点云配准:采用PCL中的迭代最近点ICP,Iterative Closest Point算法,将多视角的点云数据进行配准,实现点云对齐;
S2.1.3:点云分割:使用PCL中的基于欧氏距离的聚类算法Euclidean ClusterExtraction将点云分割为不同的物体或部分;
S2.1.4:表面重建:使用PCL中的泊松Poisson重建算法,将分割后的点云数据转换为几何表面模型;
S2.1.5:网格优化:使用PCL中的拉普拉斯平滑Laplacian Smoothing算法平滑模型网格;
S2.1.6:模型渲染:将网格优化后的三维模型导入3ds MAX软件中进行纹理、材质的设置并进行渲染,保存为.FBX格式的模型;
S2.1.7:模型保存:将渲染后的模型附加名称、类别、尺寸、纹理属性信息后保存在本地文件系统;
S2.1.8:虚拟场景构建:采用Unity3D物理引擎作为构建虚拟引擎的平台,将静态模型库中的模型导入到Unity3D构建作为虚拟环境;
S2.2:在由静态环境构成的虚拟环境的基础上,通过Unity3D的UI组件,给虚拟场景绘制UI界面,UI界面包括虚拟场景中的环境因素的实时状态信息,包括车间内的光照强度、温度、湿度、管道压力、噪声;
步骤S3具体为:
S3.1:构建静态因素数据库;首先在MySQL数据库中创建一个新的数据库,并命名为静态因素数据库,用于存储S2.1构建的静态模型信息,静态模型包括辅助装备、焊接装备、切割装备、房屋建筑、安全装备;在该数据库中创建一个模型表,表中有id、name、category、size、texture、path字段;使用INSERT INTO语句将模型的名称、类别、尺寸、纹理、路径属性信息插入数据库中;
S3.2:构建动态因素数据库;在MySQL数据库中创建一个新的数据库,并命名为动态因素数据库,用于存储动态因素信息,动态因素信息包括人员、输送设备、移动式工作站、光照、温度、湿度、噪音、管道压力;在该数据库中创建一个模型表,表中有字段,字段包括id、name、category、size、texture、value、path字段;使用INSERT INTO语句插入模型信息,模型信息包括名称、类别、尺寸、纹理、路径,环境数值通过后续传感器与数据库通信进行插入;
S3.3:构建动静融合数据库;在MySQL数据库中创建一个新的数据库,并命名为动静融合数据库,用于存储时变信息,时变信息包括车间内人员、输送装备、移动式工作站的实时坐标、速度;在该数据库中创建一个动静融合表,表中有字段,字段包括id、name、category、speed、coordinate,速度和坐标通过后续室内定位技术获取并导入数据库中;
步骤S4具体为:
S4.1:动态识别;首先物理车间内部署摄像头,保证能够将车间全覆盖,当有动态物体进入车间时,摄像头进行数据采集,动态物体包括人员、输送装备、移动式工作台,通过目标检测算法识别出进入车间的信息,信息包括类型、名称,遍历S3构建的动态因素数据库中的模型信息,获取到该模型信息中的类别和路径,通过计算该路径下的每一个模型与识别到的动态物体的相似度,找到相似度最高的模型,最后将该模型的类别导入到动静融合数据库中;其中计算模型相似度的具体步骤为:通过公式(1)
,
计算识别到的动态物体A的面和对应路径下本地文件系统中的模型B的面/>之间的相似度,然后通过/>构建模型之间的面相似度矩阵,相似的面数越多,模型相似度越高,找出相似度最大的模型;其中,/>为计数函数,计算识别的模型或匹配模型中平面/>的边数,/>表示取/>与/>之间的最大值;
S4.2:人-机动态感知;对于车间内的动态感知,在室内固定安装若干UWB定位基站,动态物体上附有可被定位基站识别的标签,动态物体包括人员、输送装备,当动态物体进入车间之后,UWB定位基站基于到达时间差法进行空间定位,UWB基站和标签内部有用于发射和接受信号的天线模块,假设标签的坐标为(),不同基站的坐标为(/>),其中,在三维空间定位中,/>,根据几何意义,得方程组
,
,
…
,
其中,/>为标签发射信号到基站/>的时间,/>是信号在空气中的传播速度;解方程组得到标签的坐标/>,得到进入车间内动态物体的实时坐标;通过不同坐标之间的距离与时间的关系:/>,得到动态物体的实时速度,将获取的坐标和速度传输给动静融合数据库中对应的字段中;
S4.3:环境动态感知;对于自然环境变化,通过传感器进行采集数据,自然环境包括物理场景中的光照、温度、湿度、噪音、管道压力;通过在物理车间内部署感光传感器获取物理场景中的光照强度和光源类型;通过温湿度传感器获取物理车间中的温湿度值;通过压力传感器获取管道内的压力数值;通过分贝仪获取物理车间内的分贝;最后将获取到的环境属性导入到S3构建的动态因素数据库中对应的字段下;
步骤S4.3具体为:
S4.3.1:光照的感知;首先在物理场景中安装感光传感器,获取车间内部的光照强度和光照类型,通过对感光传感器输出的信号进行处理,将光照强度进行数值量化;并将量化后的数值导入动态因素数据库中光照对应的字段下;
S4.3.2:温湿度的感知;首先在物理场景中安装温湿度表,获取物理场景中的温湿度值,将获取的温湿度值导入动态因素数据库中对应的字段下;
S4.3.3:管道压力的感知;首先在物理场景中的管道安装压力传感器,获取管道中的压力值,将获取的管道压力值导入动态因素数据库中对应的字段下;
S4.3.4:噪音的感知;首先在物理场景中安装分贝仪,获取物理场景中的噪音的分贝,将获取的数值导入动态因素数据库中对应的字段下;
步骤S5具体为:
S5.1:动态物体的虚实结合;首先通过Unity3D的实例化命令Instantiate将S4.1中相似度最高的模型从本地文件系统中导入虚拟环境中;通过C#编写代码,构建数据库和Unity3D的通信,将动静融合数据库中动态物体的坐标信息实时传输给Unity3D中模型的位置Position属性,驱动动态模型在虚拟空间中运动,动态模型包括车间的人员、运输装备、移动式工作站,实现虚实运动同步;
S5.2:环境因素的刻画,环境因素包括光照、温湿度、管道压力、噪音;
步骤S5.2具体为:
S5.2.1:对于虚拟环境中光照的映射;首先通过C#代码建立Unity3D和数据库的通信,将光照数值发送给Unity3D,调整Unity3D中Light属性中的灯光强度,并将光照强度信息发送给UI界面的光照强度面板中;最后使用Cook-Torrance光照模型对物体表面的光照进行计算,根据得到的入射光和出射光的比例,以及物体表面的材质属性,实时更新Unity3D虚拟场景中的灯光和物体的渲染,使环境更加逼真;其中Cook-Torrance光照模型由公式(2)表示:
,
其中D为法线分布函数,G表示几何遮蔽函数,F为菲涅尔方程,为视线方向,/>为入射光方向,/>为表面法线向量;
S5.2.2:对于虚拟环境中温湿度的映射;具体步骤为:通过Unity3D和数据库的通信,获取车间内实时的温湿度,发送给虚拟场景中UI界面的温湿度面板中;
S5.2.3:对于虚拟环境中管道压力的映射;具体步骤为:通过Unity3D和数据库的通信,获取管道压力值,发送给虚拟场景中UI界面的压力面板中;
S5.2.4:对于虚拟环境中噪音的映射;具体步骤为:通过Unity3D和数据库的通信,将获取到的物理场景中的分贝数值发送给虚拟场景中UI界面的噪音面板中;
步骤S6具体为:
S6.1:确定指标集,设动静融合性定量评估的指标集为,/>表示建模效率,/>表示识别准确率、/>表示感知准确率、/>表示监测准确率;
S6.2:确定评价集,评价集是评价者对评价对象做出的各种结果所组成的集合,通常用表示,/>,其中/>表示第/>种评价结果;
S6.3:确定权重集,评价工作中,各因素的重要程度有所不同,为此,给各因素一个权重/>,各因素的权重集合用/>表示:/>;针对不同指标的评价由于不同车间的工艺和产品不同,所以不同的指标所占的权重也不同,根据经验进行取值;
S6.4:收集数据并进行模糊化处理,针对评价对象,根据实际情况对收集的数据进行预处理,对于定量数据,需要进行模糊化处理,将其转换为模糊集合,以便能够与评价集中的评语进行匹配;
S6.5:建立模糊综合评价矩阵,若指标集中第/>个指标对评价集/>中第一个元素的隶属度为/>,则对第/>个指标的评价结果用模糊集合表示为:/>,则评价矩阵为:;
S6.6:通过计算最终的评价结果,其中/>为一个行向量,包含了每个评价结果的综合评价值;在这个过程中,选择/>中的最大值作为模糊综合评价的最终结果,表示了数字孪生车间的动静融合性的综合评价。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310659261.3A CN116822159B (zh) | 2023-06-06 | 2023-06-06 | 一种人机环境动静融合的数字孪生车间快速建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310659261.3A CN116822159B (zh) | 2023-06-06 | 2023-06-06 | 一种人机环境动静融合的数字孪生车间快速建模方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116822159A CN116822159A (zh) | 2023-09-29 |
CN116822159B true CN116822159B (zh) | 2024-05-03 |
Family
ID=88111955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310659261.3A Active CN116822159B (zh) | 2023-06-06 | 2023-06-06 | 一种人机环境动静融合的数字孪生车间快速建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116822159B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117931575A (zh) * | 2024-01-26 | 2024-04-26 | 广东云达智能物联科技有限公司 | 一种基于物联网的终端信息数字化管理系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020205484A1 (en) * | 2019-03-29 | 2020-10-08 | Smartrac Technology Fletcher, Inc. | Digital twin system with energy harvesting sensor devices |
CN113033001A (zh) * | 2021-03-26 | 2021-06-25 | 山东山大华天软件有限公司 | 一种面向数字孪生应用的三维数字工厂建模方法及系统 |
CN113658325A (zh) * | 2021-08-05 | 2021-11-16 | 郑州轻工业大学 | 数字孪生环境下的生产线不确定对象智能识别与预警方法 |
CN115495880A (zh) * | 2022-08-18 | 2022-12-20 | 昆明理工大学 | 一种流程制造车间数字孪生模型、数字孪生系统构建方法 |
CN115544775A (zh) * | 2022-10-14 | 2022-12-30 | 西南交通大学 | 一种数字孪生车间多维多层级模型构建与动态配置方法 |
CN115588161A (zh) * | 2022-10-12 | 2023-01-10 | 宁波紫荷科技有限公司 | 一种基于数字孪生技术的数字化系统及其构建方法 |
CN115907700A (zh) * | 2022-09-26 | 2023-04-04 | 北京卫星制造厂有限公司 | 一种车间数字孪生模型实时映射与可视化监控方法 |
CN115964933A (zh) * | 2022-11-21 | 2023-04-14 | 西北工业大学 | 基于数字孪生的虚实训练装置构建方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11776205B2 (en) * | 2020-06-09 | 2023-10-03 | Ptc Inc. | Determination of interactions with predefined volumes of space based on automated analysis of volumetric video |
-
2023
- 2023-06-06 CN CN202310659261.3A patent/CN116822159B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020205484A1 (en) * | 2019-03-29 | 2020-10-08 | Smartrac Technology Fletcher, Inc. | Digital twin system with energy harvesting sensor devices |
CN113033001A (zh) * | 2021-03-26 | 2021-06-25 | 山东山大华天软件有限公司 | 一种面向数字孪生应用的三维数字工厂建模方法及系统 |
CN113658325A (zh) * | 2021-08-05 | 2021-11-16 | 郑州轻工业大学 | 数字孪生环境下的生产线不确定对象智能识别与预警方法 |
CN115495880A (zh) * | 2022-08-18 | 2022-12-20 | 昆明理工大学 | 一种流程制造车间数字孪生模型、数字孪生系统构建方法 |
CN115907700A (zh) * | 2022-09-26 | 2023-04-04 | 北京卫星制造厂有限公司 | 一种车间数字孪生模型实时映射与可视化监控方法 |
CN115588161A (zh) * | 2022-10-12 | 2023-01-10 | 宁波紫荷科技有限公司 | 一种基于数字孪生技术的数字化系统及其构建方法 |
CN115544775A (zh) * | 2022-10-14 | 2022-12-30 | 西南交通大学 | 一种数字孪生车间多维多层级模型构建与动态配置方法 |
CN115964933A (zh) * | 2022-11-21 | 2023-04-14 | 西北工业大学 | 基于数字孪生的虚实训练装置构建方法 |
Non-Patent Citations (7)
Title |
---|
A safety management approach for Industry 5.0′s human-centered manufacturing based on digital twin;Haoqi Wang等;Journal of Manufacturing Systems;20221126;第1-12页 * |
Digital Twin Shop-Floor: A New Shop-Floor Paradigm Towards Smart Manufacturing;FEI TAO等;IEEE;20171025;第20418-20427页 * |
Unified modeling for digital twin of a knowledge-based system design;Haoqi Wang等;Robotics and Computer Integrated Manufacturing;20201004;第1-12页 * |
UWB技术在数字化工厂中的定位与物流配送应用;张敏;面向增材制造与新一代信息技术的高端装备工程管理国际论坛;20200923;第171-180页 * |
基于数字孪生的复杂产品设计制造一体化开发框架与关键技术;李浩等;计算机集成制造系统;20190630;第1320-1336页 * |
工业数字孪生系统的概念、系统结构与运行模式;李浩等;计算机集成制造系统;20211231;第3373-3390页 * |
面向人-机-环境共融的数字孪生协同技术;鲍劲松等;机械工程学报;20220930;第103-115页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116822159A (zh) | 2023-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110490415B (zh) | 一种多无人机视觉协同的建筑进度评估方法 | |
Kim et al. | Automated construction progress measurement using a 4D building information model and 3D data | |
Garagnani | Building Information Modeling and real world knowledge: A methodological approach to accurate semantic documentation for the built environment | |
CN110880200A (zh) | 基于三维重建技术的gim模型工程智能验收方法 | |
CN109949326A (zh) | 基于背包式三维激光点云数据的建筑物轮廓线提取方法 | |
CN115587399A (zh) | 基于bim的项目进度管理系统及应用 | |
CN116822159B (zh) | 一种人机环境动静融合的数字孪生车间快速建模方法 | |
Li et al. | A robot vision navigation method using deep learning in edge computing environment | |
Salem et al. | Assessment of methods for industrial indoor object recognition | |
CN112446844B (zh) | 一种基于点云特征提取与配准融合方法 | |
Taraben et al. | Methods for the automated assignment and comparison of building damage geometries | |
CN112580428A (zh) | 一种配电网设计方法及装置 | |
CN115761303A (zh) | 基于机载激光雷达点云和遥感影像数据的地物分类方法 | |
Chen et al. | An innovative detection method of high-speed railway track slab supporting block plane based on point cloud data from 3D scanning technology | |
Zeng et al. | Integrating as-built BIM model from point cloud data in construction projects | |
Zhang et al. | Voxel-based Urban Vegetation Volume Analysis with LiDAR Point Cloud | |
CN114170377A (zh) | 一种基于bim的历史建筑特色构件族库构建方法及系统 | |
CN113947631A (zh) | 一种废钢料场盘库方法及装置 | |
CN117237557B (zh) | 一种基于点云数据的城市测绘数据处理方法 | |
Ma et al. | Implementation of Object-oriented Design Technology and Deep Learning Algorithm in Interior Design CAD System | |
Svedberger et al. | Laser scanning in manufacturing industries | |
Roopa et al. | Review on 3D Point Cloud | |
YÖNDER et al. | CHAPTER TWO INTEGRATION OF INTELLIGENT DATA | |
Marzouk et al. | Integrated approach for facility management of existing buildings using point cloud segmentation | |
Wang et al. | StructuredMesh: 3D Structured Optimization of Façade Components on Photogrammetric Mesh Models using Binary Integer Programming |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |