CN117274122A - 基于深度图像融合的车辆模型搭建方法及系统 - Google Patents
基于深度图像融合的车辆模型搭建方法及系统 Download PDFInfo
- Publication number
- CN117274122A CN117274122A CN202311112883.0A CN202311112883A CN117274122A CN 117274122 A CN117274122 A CN 117274122A CN 202311112883 A CN202311112883 A CN 202311112883A CN 117274122 A CN117274122 A CN 117274122A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- sub
- data
- region
- modeling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 83
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000005192 partition Methods 0.000 claims abstract description 36
- 238000013135 deep learning Methods 0.000 claims abstract description 20
- 238000007781 pre-processing Methods 0.000 claims abstract description 20
- 238000011156 evaluation Methods 0.000 claims description 75
- 238000012937 correction Methods 0.000 claims description 24
- 230000005856 abnormality Effects 0.000 claims description 23
- 238000004458 analytical method Methods 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 20
- 230000002159 abnormal effect Effects 0.000 claims description 19
- 238000012360 testing method Methods 0.000 claims description 12
- 230000001502 supplementing effect Effects 0.000 claims description 10
- 238000012795 verification Methods 0.000 claims description 6
- 238000004140 cleaning Methods 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000012098 association analyses Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 9
- 238000012545 processing Methods 0.000 abstract description 6
- 239000000463 material Substances 0.000 description 13
- 238000000605 extraction Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000010276 construction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000009469 supplementation Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000007689 inspection Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012827 research and development Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004381 surface treatment Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000013316 zoning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/15—Vehicle, aircraft or watercraft design
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Geometry (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Computer Hardware Design (AREA)
- Aviation & Aerospace Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于深度图像融合的车辆模型搭建方法及系统,属于图像处理领域,其中方法包括:获得第一车辆;基于第一车辆进行区域划分,获得N个车辆子区域;分别采集N个车辆子区域的基础信息,获得N个车辆子区域数据集;遍历N个车辆子区域数据集进行预处理,得到N个车辆子数据分区;分别对N个车辆子数据分区进行建模,获得N个车辆子模型;采集第一车辆的多角度图像,获得车辆多角度图像,对车辆多角度图像进行深度学习,生成多维子区域融合特征;对N个车辆子模型进行融合,获得第一车辆孪生模型。本申请解决了现有技术中无法准确高效搭建车辆模型的技术问题,达到了提高车辆模型搭建精确性和效率的技术效果。
Description
技术领域
本发明涉及图像处理领域,具体涉及基于深度图像融合的车辆模型搭建方法及系统。
背景技术
随着计算机技术和自动化技术的发展,制造行业正在经历数字化转型。其中,数字孪生技术的应用使得虚拟世界和物理世界实现了深度融合,为产品研发、生产制造、运维管理等提供了全新的思路和手段。在汽车工业领域,构建准确的车辆数字孪生模型对车辆研发、生产、运维等至关重要。然而,现有的车辆数字孪生模型建模方法无法准确代表车辆的整体属性和行为,无法高效搭建出精确的车辆模型。
发明内容
本申请通过提供了基于深度图像融合的车辆模型搭建方法及系统,旨在解决现有技术中无法准确高效搭建车辆模型的技术问题。
鉴于上述问题,本申请提供了基于深度图像融合的车辆模型搭建方法及系统。
第一方面,本申请提供了基于深度图像融合的车辆模型搭建方法,该方法包括:获得第一车辆;基于第一车辆进行区域划分,获得N个车辆子区域,其中,N为大于1的正整数;分别采集N个车辆子区域的基础信息,获得N个车辆子区域数据集;遍历N个车辆子区域数据集进行预处理,得到N个车辆子数据分区;连接数字孪生模块,分别对N个车辆子数据分区进行建模,获得N个车辆子模型;采集第一车辆的多角度图像,获得车辆多角度图像,并基于N个车辆子区域对车辆多角度图像进行深度学习,生成多维子区域融合特征;基于多维子区域融合特征对N个车辆子模型进行融合,获得第一车辆孪生模型。
第二方面,本申请提供了基于深度图像融合的车辆模型搭建系统,该系统包括:第一车辆获取模块,用于获得第一车辆;车辆区域划分模块,用于基于第一车辆进行区域划分,获得N个车辆子区域,其中,N为大于1的正整数;区域信息采集模块,用于分别采集N个车辆子区域的基础信息,获得N个车辆子区域数据集;数据预处理模块,用于遍历N个车辆子区域数据集进行预处理,得到N个车辆子数据分区;数据分区建模模块,用于连接数字孪生模块,分别对N个车辆子数据分区进行建模,获得N个车辆子模型;图像深度学习模块,用于采集第一车辆的多角度图像,获得车辆多角度图像,并基于N个车辆子区域对车辆多角度图像进行深度学习,生成多维子区域融合特征;子模型融合模块,基于多维子区域融合特征对N个车辆子模型进行融合,获得第一车辆孪生模型。
第三方面,本申请还提供了一种电子设备,包括:存储器,用于存储可执行指令;处理器,用于执行所述存储器中存储的可执行指令时,实现本申请提供的基于深度图像融合的车辆模型搭建方法。
第四方面,本申请还提供了一种计算机可读存储介质,存储有计算机程序,该程序被处理器执行时,实现本申请提供的基于深度图像融合的车辆模型搭建方法。
本申请中提供的一个或多个技术方案,至少具有如下技术效果或优点:
由于采用了根据需要建模的车辆划分多个子区域,然后分别采集各子区域的信息和多角度图像,使用深度学习提取每个子区域的多维特征,之后融合各子区域的特征和模型,最终获得整车的数字孪生模型的技术方案,解决了现有技术中无法准确高效搭建车辆模型的技术问题,达到了提高车辆模型搭建精确性和效率的技术效果。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其它目的、特征和优点能够更明显易懂,以下特举本申请的具体实施方式。
附图说明
图1为本申请实施例提供了基于深度图像融合的车辆模型搭建方法可能的流程示意图;
图2为本申请实施例提供了基于深度图像融合的车辆模型搭建方法中得到N个车辆子数据分区可能的流程示意图;
图3为本申请实施例提供了基于深度图像融合的车辆模型搭建系统可能的结构示意图;
图4为本申请示例性电子设备的结构示意图。
附图标记说明:第一车辆获取模块11,车辆区域划分模块12,区域信息采集模块13,数据预处理模块14,数据分区建模模块15,图像深度学习模块16,子模型融合模块17,处理器31,存储器32,输入装置33,输出装置34。
具体实施方式
本申请提供的技术方案总体思路如下:
本申请实施例提供了基于深度图像融合的车辆模型搭建方法及系统。首先获得待建模车辆,然后根据车辆结构和运动学特点划分出多个子区域。然后分别采集各个子区域的数据和多角度图像,在采集的基础上对各子区域的数据和图像进行预处理。连接数字孪生模块,利用深度学习方法分别对各子区域的数据和图像进行建模,提取子区域的多维特征。最后,基于子区域的多维特征,通过特征融合的方法将各个子区域的模型进行融合,最终获得整车的数字孪生模型。
在介绍了本申请基本原理后,下面将结合说明书附图来具体介绍本申请的各种非限制性的实施方式。
实施例一
如图1所示,本申请实施例提供了基于深度图像融合的车辆模型搭建方法,该方法包括:
步骤S100:获得第一车辆;
具体而言,获得需要建模的目标车辆,即第一车辆。其中,第一车辆可以是任意车型车辆,例如汽车、卡车等。通过获得第一车辆,为对第一车辆进行区域划分提供信息基础。
步骤S200:基于所述第一车辆进行区域划分,获得N个车辆子区域,其中,N为大于1的正整数;
具体而言,在获得第一车辆后,为了准确建模和分析,对第一车辆进行细致的区域划分,获得N个子区域。其中,N个子区域根据第一车辆的关键结构和关键零件进行划分,例如可以划分为车身区域、发动机室区域、驾驶室区域等。每个子区域对应第一车辆的某一局部区域或关键结构。子区域的数量N是一个大于1的正整数。
通过对第一车辆进行区域划分,逐渐将整车系统分解为子系统和零部件级,有利于后续的建模和分析工作,将每一个子区域可以看作是一个局部区域,使建模难度降低,利于实现数字化孪生。
步骤S300:分别采集所述N个车辆子区域的基础信息,获得N个车辆子区域数据集;
具体而言,在对第一车辆进行区域划分获得N个子区域后,对每个子区域进行数据采集,获取子区域的基础信息,每个区域对应一个子区域数据集,总共获得N个车辆子区域数据集。
通过拍照、三维扫描、材料质检、装配关系获取等方式采集各车辆子区域的基础信息。其中,拍照是对每个子区域进行多角度拍照,获取子区域的二维图像;三维扫描是使用三维扫描设备对每个子区域进行扫描,获取子区域的三维点云数据,实现子区域的几何尺寸测量,用于模型建立;材料检测是使用材料检测设备对每个子区域进行检测,获取子区域表面材料的性质参数,如材料类型、厚度、表面处理方式等,用于子区域模型的逼真渲染;装配关系获取是通过获取每个子区域与相邻子区域或车身的装配方式、装配顺序和位置关系等信息,用于实现子区域模型的拼装。对所有N个子区域分别采用上述方法采集基础信息后,可以获得N个子区域数据集。每个子区域数据集包括对应子区域的基础信息,为后续的子区域建模和分析提供数据支持。
步骤S400:遍历所述N个车辆子区域数据集进行预处理,得到N个车辆子数据分区;
具体而言,在获得N个子区域数据集后,为了实现子区域的精确建模,对各个子区域数据集进行预处理,得到N个车辆子数据分区。
通过信息补充、数据清洗、格式规范化、数据融合、关联补全等方式实现对N个车辆子区域数据集的预处理。其中,信息补充是指检测子区域数据集中是否存在信息缺失,如没有采集某一视角的图像或欠少某一材料的参数等,并进行相应信息的补充采集;数据清洗是检测子区域数据集中是否存在异常数据、错误数据、冗余数据等,并进行删除、修正或匹配处理;格式规范化是将子区域数据集中的各类信息进行格式规范化处理,使其具有统一格式,方便后续建模计算机的读取和处理;数据融合是将子区域数据集中各种类型的信息,如图像、三维数据和材料数据等进行融合,生成融合后的子区域数据集;关联补全是指补全子区域数据集与其他子区域数据集之间的关联信息,如空间位置关系、运动关系、工作关系等,为子区域模型的组装提供数据支持。
通过对所有N个子区域数据集逐一进行预处理,得到N个子数据区,预处理后的子数据区信息更加完备、准确,为子区域建模的理想输入,有利于提高子区域模型的精度和准确性。
步骤S500:连接数字孪生模块,分别对所述N个车辆子数据分区进行建模,获得N个车辆子模型;
具体而言,在得到预处理后的N个子数据区后,利用数字孪生技术对每个子数据区进行建模,生成对应子区域的数字孪生模型,获得N个车辆子模型。
首先,选择仿真建模平台作为数字孪生模块,并搭建建模环境,用于实现子区域建模。然后,将每个子数据区中的信息导入到建模环境中,即将图像和三维数据导入仿真软件中。随后,在建模环境中,通过人机交互操作对每个子数据区中的信息进行建模,即在仿真软件中由建模人员直接进行三维曲面重建和组装。接着,为每个子区域的建模设置相应的配置参数,如仿真软件中的网格密度、迭代次数和拟合阈值等。之后,在建模环境中运行建模,实现自动或交互建模,最终得到能表达对应子区域特征的数字孪生模型。同时,检验每个生成的子模型,判断其是否满足精度要求和逼真度,如果不满足需要对建模配置或交互过程进行优化调整,直到得到满意的子模型。最后,将建模环境中生成的每个子模型导出,获得N个车辆子模型。
通过对所有N个子数据区重复进行建模,最终可以获得与之对应、表达子区域特征的N个车辆子模型,即N个子区域的数字孪生模型。这些子模型包含对应子区域的多项数值信息和特性,为后续子模型融合和整车建模提供支撑。
步骤S600:采集所述第一车辆的多角度图像,获得车辆多角度图像,并基于所述N个车辆子区域对所述车辆多角度图像进行深度学习,生成多维子区域融合特征;
具体而言,为了实现子模型的融合,采集第一车辆的多角度图像,并利用深度学习技术对图像进行分析,提取子区域融合特征。
首先,对第一车辆进行360°拍摄,获得第一车辆的左、右、前、后、俯视等多种角度的高清图像,获取车辆多角度图像。然后,选择深度卷积神经网络,如ResNet、DenseNet、U-Net等,用于图像中子区域的识别和特征提取。随后,在多角度图像中手动标注各个子区域,生成子区域数据集,作为深度学习网络的训练数据集。接着,使用子区域数据集对深度学习网络进行训练,使网络具备识别各子区域的能力。然后,使用训练后的深度学习网络对多角度图像进行分析,实现对各子区域的定位和识别,并提取每个子区域的特征,如颜色、纹理、边缘等,形成多维子区域融合特征。
通过从多角度图像中提取每个子区域的特征,形成多维子区域融合特征,这些特征表达了各子区域之间的关联,是实现子模型融合的关键信息,有利于提高最终车辆数字孪生模型的准确性。
步骤S700:基于所述多维子区域融合特征对所述N个车辆子模型进行融合,获得第一车辆孪生模型。
具体而言,在获得多维子区域融合特征和N个车辆子模型后,将二者进行融合,以将各个子区域的数字孪生模型组装成一个整体,从而生成准确表达第一车辆整体特征的数字孪生模型,得到第一车辆孪生模型。
首先,将N个子模型和多维子区域融合特征导入到数字孪生建模环境中,如三维设计软件等。其次,根据子区域在第一车辆中的实际位置,将各子模型进行初步定位和布局,建立子模型的初始空间关系。再次,根据多维子区域融合特征中表达的子区域内在关联,如颜色相似、纹理递进等,分析各子模型之间的关联度,并据此通过特征匹配的方式对子模型进行精确组装。接着,根据子区域之间的运动依存关系,如同步运动、连动运动等,为相关子模型设置运动关联,实现子模型运动关系的建立。随后,根据多维子区域融合特征中体现的子区域功能关系,如输入输出关系、传动关系、控制关系等,为相关子模型添加相应的功能依存关系。之后,在数字孪生建模环境中构建包括各子区域在内的关系网络,表达子区域之间的空间关系、运动关系和功能依存关系,各子模型通过网络关系实现精确关联。同时,基于子区域及其关系,建立知识图谱,表达子区域之间的内在逻辑联系,为子模型之间的准确聚合提供知识支撑。然后,检验融合后的第一车辆数字孪生模型,判断是否满足要求,如果不满足,对特征匹配、关系网络或知识图谱等进行优化调整,直至生成准确的模型。最后,从数字孪生建模环境中导出优化后的第一车辆数字孪生模型。
通过深度融合子模型和多维子区域融合特征,表达子区域之间的各类内在关系,最终生成准确的第一车辆数字孪生模型,该模型包含丰富的子区域关系,实现对整车的模型深度搭建,达到了提高车辆模型搭建精确性和效率的技术效果。
进一步的,如图2所示,本申请实施例还包括:
步骤S410:遍历所述N个车辆子区域数据集,获得第一车辆子区域数据集;
步骤S420:基于所述第一车辆子区域数据集进行建模关联分析,获得建模关联度;
步骤S430:获得预设建模关联度;
步骤S440:基于所述建模关联度,对所述第一车辆子区域数据集进行筛选,获得满足所述预设建模关联度的第一子区域建模关联数据集;
步骤S450:基于所述第一子区域建模关联数据集进行数据清洗,获得第一车辆子数据分区,并将所述第一车辆子数据分区添加至所述N个车辆子数据分区。
具体而言,在得到N个车辆子区域数据集后,为进一步提高子区域建模的效果,对数据集进行预处理。
首先,遍历N个车辆子区域数据集,获得第一子区域数据集;其中,第一车辆子区域数据集是从N个车辆子区域数据集中选择出的任一数据集。然后,从第一车辆子区域数据集中提取各类信息,如图像信息、三维几何信息、材料信息等;在提取的信息中,找到表达相同子区域特征的不同类型信息,如子区域的图像和三维模型,并对这些信息进行匹配,判断其在空间位置、几何尺寸和细节表达上是否一致,获得信息匹配度;分析各信息在表达空间上子区域的位置、方向、尺度等方面是否存在密切联系,获得空间联系度;检测各信息对子区域所使用材料的描述是否一致,获得材料属性关联度;将信息匹配度、空间联系度和材料属性关联度进行综合,生成建模关联度。建模关联度越高,说明第一车辆子区域数据集中各信息在表达子区域特征方面的关联程度越强。
预设建模关联度是根据子区域建模的要求预先设置的关联度阈值。基于预设建模关联度,对第一子区域数据集进行筛选,获得满足预设建模关联度的第一子区域建模关联数据集。将建模关联度小于预设建模关联度的无关联信息从第一车辆子区域数据集中剔除,获得关联信息更准确的第一子区域建模关联数据集。然后,对第一子区域建模关联数据集进行信息补充、错误修正和格式规范化等预处理,生成更为完备的数据集,作为第一车辆子数据分区,并添加到N个车辆子数据分区中。
通过从N个子区域数据集中筛选出满足建模关联要求并经过预处理的数据集,分别生成车辆子数据分区,最终获得N个车辆子数据分区,为后续的子区域建模实现提供数据支持。
进一步的,本申请实施例还包括:
步骤S451:遍历所述第一子区域建模关联数据集进行完整度评价,获得数据完整度评价结果;
步骤S452:获得预设完整度;
步骤S453:判断所述数据完整度评价结果是否满足所述预设完整度;
步骤S454:若所述数据完整度评价结果不满足所述预设完整度,获得第一数据补充指令,并基于所述第一数据补充指令对所述第一子区域建模关联数据集进行数据补偿。
具体而言,在获得满足建模关联度的第一子区域建模关联数据集后,对其进行完整性评价,并进行必要的数据补偿。
首先,遍历第一子区域建模关联数据集,从数据集的内容完整度、空间信息完整度、材料信息完整度、精度完整度和关联度完整度进行完整度评价,得到对第一子区域建模关联数据集的完整度评价结果。例如,评价数据集中描述子区域空间位置信息的图像或三维数据的视角和数量是否能够全面表达子区域的空间形态,如果不能,数据集在空间信息的完整度较低;评价数据集中各信息的精度是否满足子区域建模的要求,如果精度无法满足要求,即使信息内容较为丰富也难以实现高精度建模,此时数据集的完整度较低。然后,获得预设完整度,其中,预设完整度是根据子区域建模的要求确定的数据集信息应达到的完整程度阈值。
然后,判断数据完整度评价结果是否满足预设完整度,如果数据完整度评价结果达到或超过预设完整度,说明第一子区域建模关联数据集已比较完备;否则,说明数据集存在一定的不完备信息,需要进行补充。如果数据完整度评价结果不满足预设完整度,获得第一数据补充指令,并基于指令对第一子区域建模关联数据集进行数据补偿。其中,数据补充指令包括需要补充的信息种类和数量以实现数据集完整。基于指令,进行信息补充采集,如补充子区域图像的其他视角、补充材料参数的其他检测结果等,直至数据集达到预设完整度。
通过对第一子区域建模关联数据集进行完备度评价,并进行必要的信息补充,确保数据集的完整性,为子区域建模提供更加全面准确的信息支持,从而提高建模精度与效果。
进一步的,本申请实施例还包括:
步骤S461:遍历所述第一子区域建模关联数据集进行数据异常评价,获得数据异常评价结果;
步骤S462:获得数据异常评价约束;
步骤S463:判断所述数据异常评价结果是否满足所述数据异常评价约束;
步骤S464:若所述数据异常评价结果不满足所述数据异常评价约束,获得第一数据异常校正指令,并基于所述第一数据异常校正指令对所述第一子区域建模关联数据集进行数据校正。
具体而言,首先,遍历第一子区域建模关联数据集进行数据异常评价,检测数据集中是否存在错误数据、冗余数据、非法数据,获得数据异常评价结果,体现数据集中异常数据的种类和数量。然后,获得数据异常评价约束,其中,数据异常评价约束规定了数据集中允许存在的最大异常数据种类和数量,根据子区域建模的要求和数据集规模确定。之后,判断数据异常评价结果是否满足数据异常评价约束,如果数据异常评价结果低于约束,说明数据集的异常数据在可接受范围内;否则,数据集的异常数据超过限度,需要进行校正处理。如果数据异常评价结果不满足数据异常评价约束,获得第一数据异常校正指令,并基于指令对第一子区域建模关联数据集进行数据校正。其中,数据异常校正指令是规定需要删除或修正的数据内容和数量。基于指令,对数据集中指定的异常数据进行删除、替换或修正,实现第一子区域建模关联数据集的异常数据校正。
通过检测第一子区域建模关联数据集中的异常数据,并在超过约束时进行必要的数据校正,保证数据集的正确性与有效性,最大限度地提高子区域建模的精度与效果。
进一步的,本申请实施例还包括:
步骤S610:基于大数据,采集车辆融合特征分析记录集;
步骤S620:基于所述车辆融合特征分析记录集进行随机数据划分,获得第一训练集、第一测试集和第一验证集;
步骤S630:基于全连接神经网络,根据所述第一训练集、所述第一测试集和所述第一验证集进行训练、测试、验证,获得车辆融合特征分析模型;
步骤S640:基于所述N个车辆子区域,根据所述车辆融合特征分析模型对所述车辆多角度图像进行分析,生成所述多维子区域融合特征。
具体而言,首先,从公开数据集、企业内部数据集中,通过网络爬虫方式获取包含车辆多角度图像的数据集;对获得的图像集合进行预处理,包括格式转换、分辨率调整、图像裁剪等,使图像适用于视觉特征提取;在预处理后的图像上手动标注各个子区域,作为特征提取的参考信息;对图像进行分析,实现对子区域的定位和识别,并提取每个子区域的特征,如颜色、纹理、轮廓等,形成每个图像相应的特征序列;然后,对每个图像中提取的各子区域特征进行融合,得出用于表达子区域关联的多维特征,并将其与记录关联,作为图像的融合特征;将各图像的记录和融合特征整理为特征分析记录集,得到车辆融合特征分析记录集,用于后续的模型训练。
然后,将车辆融合特征分析记录集随机划分为训练集、测试集和验证集。其中,训练集用于模型训练,测试集用于训练结果检验,验证集用于参数调优。接着,选择全连接神经网络作为分析模型,使用训练集训练模型,使用测试集评价模型训练效果,使用验证集调优模型结构与参数,最终获得用于多角度图像分析的车辆融合特征分析模型。最后,将训练获得的分析模型应用于目标车辆的多角度图像,基于图像中每个子区域的信息,实现子区域的识别和特征提取,生成用于表达子区域关联的多维子区域融合特征。
通过构建和训练深度学习模型,实现对车辆多角度图像中每个子区域的自动识别和特征提取,最大限度地表达子区域之间的内在联系,是实现子模型精准融合的关键信息。
进一步的,本申请实施例还包括:
步骤S810:基于所述N个车辆子区域对所述车辆多角度图像进行识别,获得N个子区域图像;
步骤S820:分别对所述N个子区域图像和所述N个车辆子模型进行特征一致性评价,获得N个特征一致性评价结果;
步骤S830:判断所述N个特征一致性评价结果是否满足预设一致性评价结果;
步骤S840:当所述N个特征一致性评价结果中的任意一个特征一致性评价结果不满足所述预设一致性评价结果时,生成子模型校正指令。
具体而言,在获得N个子模型后,对子模型与子区域图像进行特征一致性评价,以判断子模型的准确度。
首先,根据多角度图像中各子区域的位置和轮廓,提取对应于每个子区域的图像块,获得N个子区域图像;然后,对每个子区域图像与对应的子模型进行特征比对,判断其在颜色、纹理、形状等方面是否具有较高的相似度,获得N个子区域的特征一致性评价结果,评价结果越高,表示子模型与子区域图像在特征方面越为一致。预设一致性评价结果是根据子区域建模精度要求设定的特征一致性阈值,如果所有N个评价结果均超过阈值,说明各子模型均与子区域图像高度一致,否则存在一定差异。如果N个特征一致性评价结果中的任一结果不满足预设一致性评价结果,生成子模型校正指令,包括需要修正的子模型种类和修正的具体内容,对特征一致性低的子模型进行修正以提高准确度。
通过对子模型与对应子区域图像进行特征一致性评价,检验子模型的准确度是否满足要求,如果不能满足,及时生成子模型校正指令,对子模型进行必要修正,保证其高精度表达子区域特征。
综上所述,本申请实施例所提供的基于深度图像融合的车辆模型搭建方法具有如下技术效果:
获得第一车辆,为后续步骤提供研究数据;基于第一车辆进行区域划分,获得N个车辆子区域,其中,N为大于1的正整数,为后续子区域建模和特征提取提供依据;分别采集N个车辆子区域的基础信息,获得N个车辆子区域数据集,为子区域模型的构建提供数据支撑;遍历N个车辆子区域数据集进行预处理,得到N个车辆子数据分区,提高数据质量,便于深度学习;连接数字孪生模块,分别对N个车辆子数据分区进行建模,获得N个车辆子模型,提取子区域的多维特征;采集第一车辆的多角度图像,获得车辆多角度图像,并基于N个车辆子区域对车辆多角度图像进行深度学习,生成多维子区域融合特征;基于多维子区域融合特征对N个车辆子模型进行融合,获得第一车辆孪生模型,实现车辆模型准确高效的搭建。
实施例二
基于与前述实施例中基于深度图像融合的车辆模型搭建方法相同的发明构思,如图3所示,本申请实施例提供了基于深度图像融合的车辆模型搭建系统,该系统包括:
第一车辆获取模块11,用于获得第一车辆;
车辆区域划分模块12,用于基于所述第一车辆进行区域划分,获得N个车辆子区域,其中,N为大于1的正整数;
区域信息采集模块13,用于分别采集所述N个车辆子区域的基础信息,获得N个车辆子区域数据集;
数据预处理模块14,用于遍历所述N个车辆子区域数据集进行预处理,得到N个车辆子数据分区;
数据分区建模模块15,用于连接数字孪生模块,分别对所述N个车辆子数据分区进行建模,获得N个车辆子模型;
图像深度学习模块16,用于采集所述第一车辆的多角度图像,获得车辆多角度图像,并基于所述N个车辆子区域对所述车辆多角度图像进行深度学习,生成多维子区域融合特征;
子模型融合模块17,基于所述多维子区域融合特征对所述N个车辆子模型进行融合,获得第一车辆孪生模型。
进一步的,数据预处理模块14包括以下步骤:
遍历所述N个车辆子区域数据集,获得第一车辆子区域数据集;
基于所述第一车辆子区域数据集进行建模关联分析,获得建模关联度;
获得预设建模关联度;
基于所述建模关联度,对所述第一车辆子区域数据集进行筛选,获得满足所述预设建模关联度的第一子区域建模关联数据集;
基于所述第一子区域建模关联数据集进行数据清洗,获得第一车辆子数据分区,并将所述第一车辆子数据分区添加至所述N个车辆子数据分区。
进一步的,数据预处理模块14还包括以下步骤:
遍历所述第一子区域建模关联数据集进行完整度评价,获得数据完整度评价结果;
获得预设完整度;
判断所述数据完整度评价结果是否满足所述预设完整度;
若所述数据完整度评价结果不满足所述预设完整度,获得第一数据补充指令,并基于所述第一数据补充指令对所述第一子区域建模关联数据集进行数据补偿。
进一步的,数据预处理模块14还包括以下步骤:
遍历所述第一子区域建模关联数据集进行数据异常评价,获得数据异常评价结果;
获得数据异常评价约束;
判断所述数据异常评价结果是否满足所述数据异常评价约束;
若所述数据异常评价结果不满足所述数据异常评价约束,获得第一数据异常校正指令,并基于所述第一数据异常校正指令对所述第一子区域建模关联数据集进行数据校正。
进一步的,图像深度学习模块16包括以下执行步骤:
基于大数据,采集车辆融合特征分析记录集;
基于所述车辆融合特征分析记录集进行随机数据划分,获得第一训练集、第一测试集和第一验证集;
基于全连接神经网络,根据所述第一训练集、所述第一测试集和所述第一验证集进行训练、测试、验证,获得车辆融合特征分析模型;
基于所述N个车辆子区域,根据所述车辆融合特征分析模型对所述车辆多角度图像进行分析,生成所述多维子区域融合特征。
进一步的,本申请实施例还包括校正指令生成模块,该模块包括以下执行步骤:
基于所述N个车辆子区域对所述车辆多角度图像进行识别,获得N个子区域图像;
分别对所述N个子区域图像和所述N个车辆子模型进行特征一致性评价,获得N个特征一致性评价结果;
判断所述N个特征一致性评价结果是否满足预设一致性评价结果;
当所述N个特征一致性评价结果中的任意一个特征一致性评价结果不满足所述预设一致性评价结果时,生成子模型校正指令。
实施例三
图4为本发明实施例三提供的电子设备的结构示意图,示出了适于用来实现本发明实施方式的示例性电子设备的框图。图4显示的电子设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。如图4所示,该电子设备包括处理器31、存储器32、输入装置33及输出装置34;电子设备中处理器31的数量可以是一个或多个,图4中以一个处理器31为例,电子设备中的处理器31、存储器32、输入装置33及输出装置34可以通过总线或其他方式连接,图4中以通过总线连接为例。
存储器32作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的基于深度图像融合的车辆模型搭建方法对应的程序指令/模块。处理器31通过运行存储在存储器32中的软件程序、指令以及模块,从而执行计算机设备的各种功能应用以及数据处理,即实现上述基于深度图像融合的车辆模型搭建方法。
综上所述的方法的任意步骤都可作为计算机指令或者程序存储在不设限制的计算机存储器中,并可以被不设限制的计算机处理器调用识别用以实现本申请实施例中的任一项方法,在此不做多余限制。
进一步的,综上所述的第一或第二可能不止代表次序关系,也可能代表某项特指概念,和/或指的是多个元素之间可单独或全部选择。显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的范围。这样,倘若本申请的这些修改和变型属于本申请及其等同技术的范围之内,则本申请意图包括这些改动和变型在内。
Claims (9)
1.基于深度图像融合的车辆模型搭建方法,其特征在于,所述方法包括:
获得第一车辆;
基于所述第一车辆进行区域划分,获得N个车辆子区域,其中,N为大于1的正整数;
分别采集所述N个车辆子区域的基础信息,获得N个车辆子区域数据集;
遍历所述N个车辆子区域数据集进行预处理,得到N个车辆子数据分区;
连接数字孪生模块,分别对所述N个车辆子数据分区进行建模,获得N个车辆子模型;
采集所述第一车辆的多角度图像,获得车辆多角度图像,并基于所述N个车辆子区域对所述车辆多角度图像进行深度学习,生成多维子区域融合特征;
基于所述多维子区域融合特征对所述N个车辆子模型进行融合,获得第一车辆孪生模型。
2.如权利要求1所述的方法,其特征在于,遍历所述N个车辆子区域数据集进行预处理,得到N个车辆子数据分区,包括:
遍历所述N个车辆子区域数据集,获得第一车辆子区域数据集;
基于所述第一车辆子区域数据集进行建模关联分析,获得建模关联度;
获得预设建模关联度;
基于所述建模关联度,对所述第一车辆子区域数据集进行筛选,获得满足所述预设建模关联度的第一子区域建模关联数据集;
基于所述第一子区域建模关联数据集进行数据清洗,获得第一车辆子数据分区,并将所述第一车辆子数据分区添加至所述N个车辆子数据分区。
3.如权利要求2所述的方法,其特征在于,基于所述第一子区域建模关联数据集进行数据清洗,包括:
遍历所述第一子区域建模关联数据集进行完整度评价,获得数据完整度评价结果;
获得预设完整度;
判断所述数据完整度评价结果是否满足所述预设完整度;
若所述数据完整度评价结果不满足所述预设完整度,获得第一数据补充指令,并基于所述第一数据补充指令对所述第一子区域建模关联数据集进行数据补偿。
4.如权利要求3所述的方法,其特征在于,所述方法包括:
遍历所述第一子区域建模关联数据集进行数据异常评价,获得数据异常评价结果;
获得数据异常评价约束;
判断所述数据异常评价结果是否满足所述数据异常评价约束;
若所述数据异常评价结果不满足所述数据异常评价约束,获得第一数据异常校正指令,并基于所述第一数据异常校正指令对所述第一子区域建模关联数据集进行数据校正。
5.如权利要求1所述的方法,其特征在于,基于所述N个车辆子区域对所述车辆多角度图像进行深度学习,生成多维子区域融合特征,包括:
基于大数据,采集车辆融合特征分析记录集;
基于所述车辆融合特征分析记录集进行随机数据划分,获得第一训练集、第一测试集和第一验证集;
基于全连接神经网络,根据所述第一训练集、所述第一测试集和所述第一验证集进行训练、测试、验证,获得车辆融合特征分析模型;
基于所述N个车辆子区域,根据所述车辆融合特征分析模型对所述车辆多角度图像进行分析,生成所述多维子区域融合特征。
6.如权利要求1所述的方法,其特征在于,获得N个车辆子模型之后,包括:
基于所述N个车辆子区域对所述车辆多角度图像进行识别,获得N个子区域图像;
分别对所述N个子区域图像和所述N个车辆子模型进行特征一致性评价,获得N个特征一致性评价结果;
判断所述N个特征一致性评价结果是否满足预设一致性评价结果;
当所述N个特征一致性评价结果中的任意一个特征一致性评价结果不满足所述预设一致性评价结果时,生成子模型校正指令。
7.基于深度图像融合的车辆模型搭建系统,其特征在于,用于实施权利要求1-6任意一项所述的基于深度图像融合的车辆模型搭建方法,所述系统包括:
第一车辆获取模块,所述第一车辆获取模块用于获得第一车辆;
车辆区域划分模块,所述车辆区域划分模块用于基于所述第一车辆进行区域划分,获得N个车辆子区域,其中,N为大于1的正整数;
区域信息采集模块,所述区域信息采集模块用于分别采集所述N个车辆子区域的基础信息,获得N个车辆子区域数据集;
数据预处理模块,所述数据预处理模块用于遍历所述N个车辆子区域数据集进行预处理,得到N个车辆子数据分区;
数据分区建模模块,所述数据分区建模模块用于连接数字孪生模块,分别对所述N个车辆子数据分区进行建模,获得N个车辆子模型;
图像深度学习模块,所述图像深度学习模块用于采集所述第一车辆的多角度图像,获得车辆多角度图像,并基于所述N个车辆子区域对所述车辆多角度图像进行深度学习,生成多维子区域融合特征;
子模型融合模块,所述子模型融合模块基于所述多维子区域融合特征对所述N个车辆子模型进行融合,获得第一车辆孪生模型。
8.一种电子设备,其特征在于,所述电子设备包括:
存储器,用于存储可执行指令;
处理器,用于执行所述存储器中存储的可执行指令时,实现权利要求1至6任一项所述的基于深度图像融合的车辆模型搭建方法。
9.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至7中任一所述的基于深度图像融合的车辆模型搭建方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311112883.0A CN117274122A (zh) | 2023-08-31 | 2023-08-31 | 基于深度图像融合的车辆模型搭建方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311112883.0A CN117274122A (zh) | 2023-08-31 | 2023-08-31 | 基于深度图像融合的车辆模型搭建方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117274122A true CN117274122A (zh) | 2023-12-22 |
Family
ID=89220567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311112883.0A Pending CN117274122A (zh) | 2023-08-31 | 2023-08-31 | 基于深度图像融合的车辆模型搭建方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117274122A (zh) |
-
2023
- 2023-08-31 CN CN202311112883.0A patent/CN117274122A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110992317B (zh) | 一种基于语义分割的pcb板缺陷检测方法 | |
Xu et al. | Reconstruction of scaffolds from a photogrammetric point cloud of construction sites using a novel 3D local feature descriptor | |
CN108959794B (zh) | 一种基于深度学习的结构频响动力学模型修正方法 | |
US7698016B2 (en) | Feature-based translation system and method | |
CN116229019A (zh) | 面向数字孪生的大场景融合三维重建方法及系统 | |
CN115439694A (zh) | 一种基于深度学习的高精度点云补全方法及装置 | |
Noichl et al. | " BIM-to-Scan" for Scan-to-BIM: Generating Realistic Synthetic Ground Truth Point Clouds based on Industrial 3D Models | |
Zhai et al. | BIM-driven data augmentation method for semantic segmentation in superpoint-based deep learning network | |
Salem et al. | Assessment of methods for industrial indoor object recognition | |
CN116308185A (zh) | 一种建筑工程可视化进度录入及预警方法 | |
CN114818361A (zh) | 一种基于应用场景的数字孪生模型构建方法 | |
CN117217020A (zh) | 一种基于数字孪生的工业模型构建方法及系统 | |
Li et al. | A remaining useful life prediction method considering the dimension optimization and the iterative speed | |
CN117274122A (zh) | 基于深度图像融合的车辆模型搭建方法及系统 | |
Qie et al. | Data-driven deviation generation for non-ideal surfaces of Skin Model Shapes | |
CN106652032B (zh) | 一种基于Linux集群平台的DEM并行等高线生成方法 | |
CN114881850A (zh) | 点云超分辨率方法、装置、电子设备及存储介质 | |
CN116933445B (zh) | 面向模锻设备的数字孪生模型构建方法及系统 | |
JP2004272820A (ja) | 部品をリバースエンジニアリング及びリエンジニアリングする方法及びシステム | |
Bahreini et al. | Dynamic graph CNN based semantic segmentation of concrete defects and as-inspected modeling | |
CN117953164B (zh) | 一种提高图纸测量质量的方法及系统 | |
Selman et al. | Scan2fem: from point clouds to structured 3d models suitable for simulation | |
CN112560152B (zh) | 一种基于gis的bim几何模型的智能检测方法 | |
Qin et al. | Rational Design of the Appearance of Complex Industrial Products Based on Visual Communication | |
Williatte et al. | Reverse Engineering for Aeronautics: Study on Parts Semantic Segmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |