CN114882272A - 一种航空制造件全角度投影图像面片属性融合分析方法 - Google Patents
一种航空制造件全角度投影图像面片属性融合分析方法 Download PDFInfo
- Publication number
- CN114882272A CN114882272A CN202210431339.1A CN202210431339A CN114882272A CN 114882272 A CN114882272 A CN 114882272A CN 202210431339 A CN202210431339 A CN 202210431339A CN 114882272 A CN114882272 A CN 114882272A
- Authority
- CN
- China
- Prior art keywords
- image
- patch
- attributes
- gray
- full
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/817—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level by voting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
Abstract
本发明属于在航空制造件领域,具体涉及一种航空制造件全角度投影图像面片属性融合分析方法,本方法包括:获取零件三维图像的组成面片,基于随机规则对面片进行编号,对索引表中的所有面片进行上色,设计零件截屏工具并获取全角度投影图像,制作深度学习训练样本;设计面片类别划分深度学习分类网络与超参数,迭代训练优选出对应的权重参数,对预测模型进行初始化;载入预测图片,输入网络进行类别的判断,得到结果1;对不同视角识别的结果进行融合,得到更准确的面片类别信息数据结果2,以结果2作为面片最后识别的结果。相比于单一视角下的判断结果可大幅提升面片识别的准确率,减少了在零件程编中人为介入耗时的问题。
Description
技术领域
本发明属于航空制造件数控加工程编特征识别领域,具体涉及一种航空制造件全角度投影图像面片属性融合分析方法。
背景技术
框梁结构的航空件整个制造过程,依赖于高精度的数控加工机床完成,机床要实现整个加工流程刀轨数据是实现准确加工的基础。在该大背景下,设计合理的手段获取航空制造件需要的刀轨数据则成为了零件加工工作的重点及核心。现今在行业内刀轨数据的生成方式,主要基于手工点选实现,行业类常见的软件包含SolidWorks、CATIA、UG。实现的方式为,在软件中手动选择一组由驱动面加引导面组成的特征,设定相应的加工刀轨信息,比如行程、转速、进给量等进一步处理即可得到刀轨数据。
对于航空领域常见的框、梁结构特征面或称为特征面片主要包含腹板、圆角、底角、筋顶、侧壁等,在航空制造领域腹板与筋顶通常被视为驱动面,底角是圆形刀具自动生成的面,而圆角与侧壁被视为引导面。数控加工主要采用减材的方式实现制造,当然也包含增材制造方式比如3D金属打印,3D打印通常不能满足航空件要性能要求,主要还是减材的制造方式。因此对于框、梁结构件要在毛坯上铣削出特定的构型,对于三维图像中的面片属性的判断显得尤为重要。
在行业内面片属性判断主要依靠熟练的工艺师手动选择加工特征,然而手动的选择加工面的缺点也较为明显,即对于具有较多面片的零件需要手动的点选所有特征面效率较低,不能满足自动化、高效率以及低成本的需要,提升特征面片的准确选择效率是工作的核心。
因此,为实现自动化程编高效的需要,同时减少在零件程编中人为的介入,如何准确的判断面片属性则尤为关键,也是行业亟待解决的问题。在该大背景下,设计了一种能实现航空件三维投影图像面片自动识别的方法,同时融合了多视角二维投影图像结果有利的保证了识别的完整性与准确性。
发明内容
为航空领域自动化程编亟待解决的面片特征识别问题提供有效参考方案,减少在零件程编中人为介入耗时的问题,本发明公开了一种航空制造件全角度投影图像面片属性融合分析方法。
本发明通过以下技术方案实现:
一种航空制造件全角度投影图像面片属性融合分析方法,包括如下步骤,
在三维建模软件CATIA中导入设计好的格式为.CATPart待加工零件三维模型图,基于CATIA三维模型获取零件所有的组成面片。
根据随机规则对所有的面片进行编号,面片编号从1开始递增。基于编号构建索引表,索引表的每一行由对应的面片编号及其属性组成。索引表中每一行的第一列为对应的面片编号,第二列为面片对应的红色灰度信息hR(x,y),第三列为面片对应的绿色灰度信息hG(x,y),第四列为面片对应的蓝色灰度信息hB(x,y),第五列为面片对应的尺寸大小Sizeslice。初始的所有面片的不同颜色空间的灰度信息对应值全为255。
基于编号对索引表中的所有面片进行上色,上色的方式为:索引表中第一行面片对应的初始红色、绿色、蓝色赋值方式分别为hR(x,y)=0、hG(x,y)=125、hB(x,y)=15。第二行对应面片的红色、绿色、蓝色赋值方式分别为hR(x,y)=0、hG(x,y)=125、hB(x,y)=35,第三行对应面片的红色、绿色、蓝色赋值方式分别为hR(x,y)=0、hG(x,y)=125、hB(x,y)=55,依次递增当hB(x,y)>255时hG(x,y)+25同时hB(x,y)=hB(x,y)%255,依次递增当hG(x,y)>255时hR(x,y)+30同时hG(x,y)=hG(x,y)%255。
在索引表中对应的第n行面片灰度值可用如下递推式子表示:
其中,timesR、timesG、timesB分别表示面片红色、绿色、蓝色通道对应倍增数,对应的初始值均为0。
由索引表中不同行面片对应的灰度值,完成三维图像中所有的面片上色步骤。
在CATIA软件中设置背景与零件三维图像轮廓线条的显示参数,在CATIA软件的左侧导航栏中选择“零件几何体”,然后选择“属性”与“图像”,“填充”栏中的颜色设置为0、0、0,“边线”栏中的颜色为黑色对应的“线型”为1、“线宽”为2:0.8mm,“直线和曲线”栏中设置“颜色”为黑色、对应“线型”为1、“线宽”为2:0.5mm,隐藏三维图像中的所有点。在“菜单栏”中选中“视图”、“照明”,在打开的“光源”窗口中选择“无光”,对应的“散射”、“反射”、“漫射”参数数值均为1.00。
基于CATIA二次开发功能,设计零件全角度投影图像截屏工具获取不同视角的图像,并对图形进行保存,对应的图片格式为无损压缩的.png格式。
设定零件包围球以经线与纬线对应交点坐标的截图视点。截屏工具中的参数设置为:截图放大倍率为2、初始任意经线位置为本初子午线、东经与西经范围0-180°、北纬与南纬范围0-180°以10°为间隔对应坐标点截取图像。
在“选择图片存储路径”选择“E:\11.所有项目数据集\5.快速程编\2021.12.30”,在“选择图片存储格式”中选择“.png”格式保存图像,“其他参数设置”中的“经度范围”、“纬度范围”、“缩放倍率”、“间隔分度”分别为360、360、2、10,点击“开始”获取图像。
定义像素信息保存字典dictionary,字典中的数据用容器进行保存,用于保存满足不同灰度差异的像素点灰度数值及其坐标值。容器vector对应的储存类型为结构体struct,结构体的变量包含整形数组用于评价对应像素点所属灰度类别,数组的大小设为207406,数组中所有元素数值初始化全为1。
数组下标与对应数值标识关系,可用如下式子进行表示:
arraylocation=[hR(x,y)+11]*256+[hG(x,y)+14]*257+[hB(x,y)+17]*258 (2)
array initializating→array[0-207406]={1} (3)
flag based→array[arraylocation]=2 (4)
其中,arraylocation表示基于灰度值生成的数组坐标位置;array[arraylocation]表示满足关系的数组对应位置。
在结构体中再定义一个容器vector用于储存满足相同灰度像素点的坐标Poi nt(i,j),即在结构体中包含了两个整形变量row与col分别储存满足关系像素点的行坐标值与列坐标值。
获取字典中以灰度为key保存的具有相同灰度像素点的坐标pixel(x,y),基于坐标信息在同原始图像等尺寸的新建图像中绘制出这些满足关系的区域。
由OpenCV新建图像new_image,图像的填充的R、G、B灰度值为124、251、164。new_image中满足key不为1数学关系的像素点对应区域的颜色全变换为200、121、196。即在new_image中对满足key的像素点所在的区域处理成相同的灰度值。
基于0阈值循环处理的方式new_image进行二值化,二值化式子为:
其中,new_cols和new_rows分别表示new_image的图像的行数与列数;hR-n(x,y)、hG-n(x,y)、hB-n(x,y)分别表示new_image中红色、绿色、蓝色通道的在(x,y)点处对应的灰度值;h0-1(x,y)表示二值图像中在(x,y)出对应的灰度值。
获取二值图像的高频轮廓线。对二值图像new_image0-1进行备份得到new_image10-1,对原二值图像的new_image0-1进行高灰度区域4邻域缩放操作得到ne w_image20-1,new_image10-1与new_image20-1进行作差得到高频轮廓线。
高灰度区域4邻域缩放操作式子为:
org(x,y)-kernelfour={min→result(x+x′,y+y′)(x′,y′):kernelfour(x′,y′)≠0} (6)
其中,org(x,y)表示待缩放图像new_image0-1;kernelfour表示4邻域缩放因子;result(x,y)表示图像中在(x,y)位置处理后的像素值。
对应像素位置点灰度值作差方式为:
其中,hn-1(x,y)与hn-2(x,y)分别表示单通道原始二值图像与缩放后的图像在(x,y)处的灰度值;result(x,y)表示计算后得到的含有高频轮廓线结果。
图像0倾角最小包围矩形区域的计算,采用循环遍历的方式获取高频轮廓线在X与Y轴上投影点的极值xmin、xmax、ymin、ymax,在图像中对应的极值点即为0倾角最小包围矩形区域顶点,在图像中对应高频轮廓线上的点灰度值应满足result(x,y)=255。
根据获取的0倾角最小包围矩形区域坐标截取new_image中图像,保证零件三维模型在二维图像中的面片构成独立的分析元素。
为截取的图像中重新给前景区域3通道赋值,对应的赋值方式为:R通道灰度值为221、G通道的灰度值为169、B通道的灰度值为15。
图像面片各个通道进行灰度变换后基于索引编号进行面片属性分类保存,以变换后的图像作为深度学习样本图像。
样本图像进行分类,包含了侧壁、腹板、圆角、筋顶、底角以及其他共6类,各类样本的数量趋近于1:1:1:1:1:1的数值关系。同时为了保证模型较好的泛化能力同一类别面片的数量要尽可能的多并具有不同的特征表现。
设计任意角度随机旋转(0°-360°范围,基于时间生成的随机数number%360得到具体的取值)、左右对称、上下对称、图像沿长cols与宽rows等比例缩放(0.7-1.2)的增强方式随机的从中选择1种或是多种进行增强,种数的选择方式为nums=random(time)%4得到。
6类特征面片的数量经增强后趋近于1:1的关系,侧壁、腹板、圆角、筋顶、底角以及其他数量分别为6412:5861:6384:6435:6024:6862。
设计面片类别划分的深度学习分类网络,并对训练数据与测试数据进行预处理变换。
构建以resnet50为特征提取的基础网络、训练时设计的batch_size=5、num_class=6、num_workers=0、train_dataset的shuffle=True、validate_dataset的shuffle=False、loss_function=nn.CrossEntropyLoss()、optimizer=optim.Adam(net.parameters(),lr=0.0001)、初始best_accuracy=0.0、训练的epoch=106、使用softmax为分类器、训练时网络使用net.train()模式修改网络的权重参数、测试时网络使用net.eval()模式使网络的模型参数保持不变。
训练过程对每一个epoch对应的准确率accuracy、损失loss、网络更新后的参数进行保存(权重为.pth格式)。准确率accuracy、损失loss保持在result.log文件中。
训练完成后获取result.log文件中训练损失最小同时测试样本损失最小对应epoch保存的网络模型参数,基于该epoch对应的参数对网络进行初始化。
待分析图像采用同训练样本相同的前处理方式得到,获取的面片填充灰度与训练样本对应的区域灰度保持一致。
对预测面片图像数据的初始化,网络设置为model.eval()模式,model.load_state_dict(torch.load("最优权重文件"))进行模型的加载,output=torch.squeeze(model(img))得到预测的结果,使用predict=torch.softmax(output,dim=0)得到概率最大的类别。
由PIL库中的Image函数批量读取待判断的图像img=Image.open(path_all),数据转化img=data_transform(img),img=torch.unsqueeze(img,dim=0),再输入模型根据softmax即可得到最后识别的类别数据,对应的数据为结果1。
批处理预测不同视角下的图像并得到结果数据,结果保持在字典中。最后将字典中相同面片在不同视角识别的结果进行融合,并基于投票法得到更准确的面片类别信息数据,对应的数据为结果2。
将投票后得到的类别结果即为对应面片最后的识别判断结果,以该数据为零件三维图像中面片属性的类别信息。
本申请的优点在于:
本发明实现了基于全角度投影图像对航空制造件面片属性的融合判断,相比于单一视角下的判断结果由于本方法融合了多视角二维投影图像结果可大幅提升面片识别的准确率,为航空领域内自动化程编亟待解决的面片特征识别问题提供了一种有效参考方案,减少了在零件程编中人为介入耗时的问题,对航空领域高效、智能化、产业制造升级具有重要意义。
附图说明
图1为一种航空制造件全角度投影图像面片属性融合分析方法核心步骤。
图2为基于CATIA零件面片索引表数据储存格式。
图3为零件三维图像面片灰度随机赋值效果。
图4为开发的零件全角度自动截屏工具界面。
图5为基于自动化截屏工具获取的零件全角度图像。
图6为new_image中满足key的像素点所在的区域处理成相同的灰度值效果。
图7、图8、图9为4邻域缩放因子图像。
图10为计算后得到的含有高频轮廓线的结果图像。
图11为采用循环遍历的方式获取高频轮廓线的极值点。
图12为在new_image中截取的0倾角最小包围矩形区域图像。
图13为设计的特征提取网络结构参数。
图14为在字典中不同面片数据融合结果表示。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是为了解释本发明而非对本发明的限定。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的软件系统基于Windows7系统64位实现,处理器为工作站级别的InterXeon W-2223 3.60Ghz,运行内存容量为32GB,内存频率为3200Mhz,设计的深度学习模型使用的显卡型号为P2200(品牌为Nvidia显存容量5GB),Nvidia显卡驱动版本号为441.66,深度学习计算CUDA核心对应的版本为10.2,硬盘容量为256GB(固态硬盘)。软件开发平台基于Visual Studio 2017Release X64,编程语言包含了C++与Python,对应的航空制造件三维建模与刀轨生成软件为CATIA对应版本号为V5.21,使用的图像处理库为OpenCV4.5.2,深度学习平台基于PyTorch框架,Python版本号为3.7.1,Pytorch版本为1.5.0,Torchvision版本为0.6.0,样本标注工具为labelimg,矩阵运算工具库Numpy版本为1.21.4,wheel版本为0.32.3,tqdm版本号为4.28.1,scipy版本号为1.1.0,SDK版本为10.0.22000.0。一种航空制造件全角度投影图像面片属性融合分析方法核心步骤,如图1所示。
1.向CATIA中导入设计好的格式为.CATPart待加工零件三维模型图,基于CATIA三维模型获取零件所有的组成面片slices。
2.基于随机的规则对所有的面片进行编号,编号的顺序从1开始。由编号构建索引表,索引表的每一行由对应的面片编号及其属性组成。索引表中每一行的第一列为对应的面片编号,第二列为面片对应的红色灰度信息hR(x,y),第三列为面片对应的绿色灰度信息hG(x,y),第四列为面片对应的蓝色灰度信息hB(x,y),第五列为面片对应的尺寸大小Sizeslice。初始的所有面片的不同颜色空间的灰度信息对应值全为255。基于CATIA零件面片索引表数据储存格式,如图2所示。
3.对索引表中的所有面片进行上色,索引表中第一行面片对应的初始红色、绿色、蓝色赋值方式分别为hR(x,y)=0、hG(x,y)=125、hB(x,y)=15。第二行对应面片的红色、绿色、蓝色赋值方式分别为hR(x,y)=0、hG(x,y)=125、hB(x,y)=35,第三行对应面片的红色、绿色、蓝色赋值方式分别为hR(x,y)=0、hG(x,y)=125、hB(x,y)=55,依次递增当hB(x,y)>255时hG(x,y)+25同时hB(x,y)=hB(x,y)%255,依次递增当hG(x,y)>255时hR(x,y)+30同时hG(x,y)=hG(x,y)%255,即在索引表中对应的第n行面片灰度值可用如下递推式子表示:
其中,timesR、timesG、timesB分别表示面片红色、绿色、蓝色通道对应倍增数,对应的初始值均为0。
4.基于索引表中不同行面片对应的灰度值,完成三维图像中所有的面片上色步骤。基于索引表中的灰度索引规则可以保证每一面的灰度值皆不相同。零件三维图像面片灰度随机赋值效果,如图3所示。
5.在CATIA软件中设置背景与零件三维图像轮廓线条的显示参数。显示参数的设置方式为在CATIA软件的左侧导航栏中选择“零件几何体”,然后选择“属性”与“图像”,“填充”栏中的颜色设置为0、0、0,“边线”栏中的颜色为黑色对应的“线型”为1、“线宽”为2:0.8mm,“直线和曲线”栏中设置“颜色”为黑色、对应“线型”为1、“线宽”为2:0.5mm,隐藏三维图像中的所有点。在“菜单栏”中选中“视图”、“照明”,在打开的“光源”窗口中选择“无光”,对应的“散射”、“反射”、“漫射”参数数值均为1.00。
6.基于CATIA二次开发功能,设计零件全角度投影图像截屏工具,使用CATIA.ActiveWindow.ActiveViewer.Viewpoint3D.PutOrigin Op,CATIA.ActiveWindow.ActiveViewer.Viewpoint3D.PutUpDirection XpCATIA.ActiveWindow.ActiveViewer.Viewpoint3D.PutSightDirection Zp代码获取不同视角的图像,'CATIA.ActiveWindow.ActiveViewer.CaptureToFile catCaptureFormatJPEG,"C:\\part\\"+Str(num)+".png"对图形进行保存,对应的图片格式为无损压缩的.png格式。开发的零件全角度自动截屏工具界面,如图4所示。
7.设定零件包围球以经线与纬线对应交点坐标的截图视点。截图放大倍率为2、初始任意经线位置为本初子午线、东经与西经范围0°-180°、北纬与南纬范围0°-180°以10°为间隔对应坐标点截取图像。
8.在“选择图片存储路径”选择“E:\11.所有项目数据集\5.快速程编\2021.12.30”,在“选择图片存储格式”中选择“.png”格式保存图像,“其他参数设置”中的“经度范围”、“纬度范围”、“缩放倍率”、“间隔分度”分别为360、360、2、10,点击“开始”即可得到不同视角下零件在屏幕方向的投影图像。基于自动化截屏工具获取的零件全角度图像,如图5所示。
9.定义由C++编程语言实现的像素信息字典dictionary,字典中的数据用容器进行保存用于保存满足不同灰度差异的像素点灰度数值及其坐标值。容器vector对应的储存类型为结构体struct,结构体的变量包含整形数组用于评价对应像素点所属灰度类别,数组的大小设为207406,数组中所有元素数值初始化全为1。整形数组的下标及其对应的元素构成key。数组下标与对应数值标识关系,可用如下式子进行表示:
arraylocation=[hR(x,y)+11]*256+[hG(x,y)+14]*257+[hB(x,y)+17]*258 (2)
array initializating→array[0-207406]={1} (3)
flag based→array[arraylocation]=2 (4)
其中,arraylocation表示基于灰度值生成的数组坐标位置;array[arraylocation]表示满足关系的数组对应位置。
10.在上述步骤中的结构体中再定义一个容器vector用于储存满足相同灰度像素点的坐标Point(i,j),即容器的储存类型也为结构体,在结构体中包含了两个整形变量row与col分别储存满足关系像素点的行坐标值与列坐标值。
11.具体实现代码为:储存像素点坐标的结构体为struct Location{int i;intj;},储存满足灰度关系的像素点结构体为struct VecHead{int vec_int;int length;Vec3b vec;int cha[207406]={1};vector<Location>locationArray;}。为了实现加速计算优化后的代码为:for(int i=0;i<img.size[0];i++){for(intj=0;j<img.size[1];j++){if(img.at<Vec3b>(i,j)[0]==255&&img.at<Vec3b>(i,j)[1]==255&&img.at<Vec3b>(i,j)[2]==255)continue;if(img.at<Vec3b>(i,j)[0]==0&&img.at<Vec3b>(i,j)[1]==0&&img.at<Vec3b>(i,j)[2]==0)continue;Vec3b vc3=img.at<Vec3b>(i,j);int vec_int=vc3[0]*256+vc3[1]*257+vc3[2]*258;//flag int length,first=0;for(int k=0;k<all_location_info.size();k++){//if(all_location_info[k].vec_int==vec_int)if(all_location_info[k].cha[vec_int]==2){all_location_info[k].length+=1;//2及后录入长度+1Location loc;loc.row=i;loc.col=j;all_location_info[k].locationArray.push_back(loc);first=1;break;}}if(first==0){VecHead head;head.length=1;//首个录入长度为1,head.vec=vc3;//图像位置信息head.cha[vec_int]=2;//int te=vc3[1];std::cout<<"输出第"<<num<<"个不同灰度"<<vc3<<endl;num++;head.vec_int=vec_int;Location loc;loc.row=i;loc.col=j;head.locationArray.push_back(loc);all_location_info.push_back(head);}cout<<"["<<img.at<Vec3b>(i,j)<<vc3[0]<<"]";}。
12.在提取不同像素点对应灰度值时,读取的图片格式为.png,图片对应的矩阵缩放会影响像素点个数统计数值numbergray、像素级灰度差异数值grayR、G、B、像素点坐标偏差Point(x,y),因此应严格统一图像矩阵的尺度。
13.获取字典中以灰度为key保存的具有相同灰度像素点的坐标pixel(x,y),基于坐标信息在同原始图像等尺寸的新建图像中绘制出这些满足关系的区域,由OpenCV新建图像的方式为Mat new_image(org.rows,org.cols,CV_8UC3,Scal ar(124,251,164)),其中Mat为图像数据的储存格式;org表示原始图像;CV_8UC3表示图像为8位3通道;Scalar表示填充的颜色信息,填充的R、G、B灰度值为124、251、164;new_image中满足key不为1数学关系的像素点对应区域的颜色全变换为200、121、196。即在new_image中对满足key的像素点所在的区域处理成相同的灰度值,效果如图6所示。
14.采用0阈值循环处理的方式对获得的所有独立的彩色三通道new_image进行二值化,二值化式子为:
其中,new_cols和new_rows分别表示new_image的图像的行数与列数;hR-n(x,y)、hG-n(x,y)、hB-n(x,y)分别表示new_image中红色、绿色、蓝色通道的在(x,y)点处对应的灰度值;h0-1(x,y)表示二值图像中在(x,y)出对应的灰度值。
15.基于二值图像4邻域缩放图像差异获取图像的高频轮廓线区域。对二值图像new_image0-1进行备份得到new_image10-1,对原二值图像的new_image0-1进行高灰度区域4邻域缩放操作得new_image20-1,new_image10-1与new_image20-1进行对应像素位置点灰度值作差得到高频轮廓线。
高灰度区域4邻域缩放操作式子为:
org(x,y)-kernelfour={min→result(x+x′,y+y′)(x′,y′):kernelfour(x′,y′)≠0} (6)
其中,org(x,y)表示待缩放图像new_image0-1;kernelfour表示4邻域缩放因子;result(x,y)表示图像中在(x,y)位置处理后的像素值。4邻域缩放因子,如图7-图9所示。
对应像素位置点灰度值作差方式为:
其中,hn-1(x,y)与hn-2(x,y)分别表示单通道原始二值图像与缩放后的图像在(x,y)处的灰度值;result(x,y)表示计算后得到的含有高频轮廓线的结果,如图10所示。
16.计算高频轮廓线图像0倾角最小包围矩形区域,结合图11进行说明,首先采用循环遍历的方式获取高频轮廓线在X与Y轴上投影点的极值xmin、xmax、ymin、ymax,在图像中对应的极值点即为0倾角最小包围矩形区域顶点。图12中对应的xmin与A′对应,xmax与A″″对应,ymin与B′对应,ymax与B″″″对应,在图像中对应高频轮廓线上的点灰度值应满足result(x,y)=255。
17.由获取的0倾角最小包围矩形区域坐标截取new_image中图像,保证零件三维模型在二维图像中的面片构成独立的分析元素,效果如图12所示。
18.在截取的图像中重新给前景区域3通道赋值,对应的赋值方式为:R通道灰度值为221、G通道的灰度值为169、B通道的灰度值为15。
19.对图像面片各个通道进行灰度变换后基于索引编号进行面片属性分类保存,以变换后的图像作为深度学习样本图像。
20.将样本图像进行分类,主要包含了侧壁、腹板、圆角、筋顶、底角以及其他共6类。为了保证模型对每一类型皆表现出较好的识别效果,需保证各类的样本的数量趋近于1:1:1:1:1:1的数值关系。同时为了保证模型较好的泛化能力同一类别面片的数量要尽可能的多并具有不同的特征表现。
21.采用任意角度随机旋转(0°-360°范围,基于时间生成的随机数number%360得到具体的取值)、左右对称、上下对称、图像沿长cols与宽rows等比例缩放(0.7-1.2)的增强方式随机的从中选择1种或是多种进行增强,种数的选择方式为nums=random(time)%4得到。
22.增强后6类特征面片的数量趋近于1:1的关系,侧壁、腹板、圆角、筋顶、底角以及其他数量分别为6412:5861:6384:6435:6024:6862。
23.设计面片类别划分的深度学习分类网络,训练数据的预处理方式为transforms.Compose([transforms.Resize((228,228)),transforms.RandomHorizontalFlip(),transforms.ToTensor(),transforms.Normalize([0.481,0.458,0.418],[0.211,0.238,0.227])])。
24.测试数据的预处理方式为transforms.Compose([transforms.Resize((228,228)),transforms.ToTensor(),transforms.Normalize([0.481,0.458,0.418],[0.211,0.238,0.227])])}。
25.以resnet50为特征提取的基础网络(对应的网络结果如图11所示)、训练时设计的batch_size=5、num_class=6、num_workers=0、train_dataset的shuffle=True、validate_dataset的shuffle=False、loss_function=nn.CrossEntropyLoss()、optimizer=optim.Adam(net.parameters(),lr=0.0001)、初始best_accuracy=0.0、训练的epoch=106、使用softmax为分类器、训练时网络使用net.train()模式修改网络的权重参数、测试时网络使用net.eval()模式使网络的模型参数保持不变。
26.迭代训练并对每一个epoch对应的准确率accuracy、损失loss、网络更新后的参数进行保存。准确率accuracy、损失loss保持在result.log文件中。
27.读取result.log文件中训练损失最小同时测试样本损失最小对应epoch保存的网络模型参数,基于该epoch对应的参数对网络进行初始化。
28.待分析图像采用同训练样本相同的前处理方式得到,获取的面片填充灰度与训练样本对应的区域灰度保持一致。
29.对未知属性的面片图像数据的初始化方式为transforms.Compose([transforms.Resize((228,228)),transforms.ToTensor(),transforms.Normalize([0.481,0.458,0.418],[0.211,0.238,0.227])])}。网络设置为model.eval()模式,model.load_state_dict(torch.load("最优权重文件"))进行模型的加载,output=torch.squeeze(model(img))得到预测的结果,使用predict=torch.softmax(output,dim=0)得到概率最大的类别。
30.使用PIL库中的Image函数批量读取待判断的图像img=Image.open(path_all),数据转化img=data_transform(img),img=torch.unsqueeze(img,dim=0),再输入模型根据softmax即可得到最后识别的类别数据,对应的数据为结果1。
31.批处理预测不同视角下的图像,并得到结果数据,结果保持在字典中。最后将字典中相同面片在不同视角识别的结果进行融合,并基于投票法得到更准确的面片类别信息数据,对应的数据为结果2。
32.将投票后得到的类别即结果2保存到字典中,以该数据为零件三维图像中面片属性的类别信息。在字典中不同面片数据融合结果表示,如图14所示。
Claims (23)
1.一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,包括如下步骤,向CATIA中导入设计好的格式为.CATPart零件三维模型图,并获取所有的组成面片slices;
基于随机规则对所有的面片进行编号,编号的顺序从1开始,由编号构建索引表,索引表的每一行由对应的面片编号及其属性组成;
对索引表中的所有面片进行上色,索引表中第一行面片对应的初始红色、绿色、蓝色赋值方式分别为hR(x,y)=0、hG(x,y)=125、hB(x,y)=15,第二行对应面片的红色、绿色、蓝色赋值方式分别为hR(x,y)=0、hG(x,y)=125、hB(x,y)=35,第三行对应面片的红色、绿色、蓝色赋值方式分别为hR(x,y)=0、hG(x,y)=125、hB(x,y)=55,依次递增当hB(x,y)>255时hG(x,y)+25同时hB(x,y)=hB(x,y)%255,依次递增当hG(x,y)>255时hR(x,y)+30同时hG(x,y)=hG(x,y)%255;
在CATIA软件中设置背景与零件三维图像轮廓线条的显示参数,“填充”栏中的颜色设置为0、0、0、“线型”为1、“线宽”为2:0.8mm、“散射”、“反射”、“漫射”参数数值均为1.00;
基于CATIA二次开发功能,设计零件全角度投影图像截屏工具,设定零件包围球以经线与纬线对应交点坐标的截图视点;截图放大倍率为2、初始任意经线位置为本初子午线、东经与西经范围0-180°、北纬与南纬范围0-180°以10°为间隔对应坐标点截取图像,并获取全角度投影图像;
定义由C++编程语言实现的像素信息字典dictionary,字典中的数据用容器进行保存,用于保存满足不同灰度差异的像素点灰度数值及其坐标值;
获取字典中以灰度为key保存的具有相同灰度像素点的坐标pixel(x,y),基于坐标信息在同原始图像等尺寸的新建Scalar(124,251,164))灰度图像中绘制出满足关系的像素点区域;
采用0阈值循环处理的方式对获得的所有独立的彩色三通道new_image进行二值化;
基于二值图像4邻域缩放图像差异获取图像的高频轮廓线区域。对二值图像new_image0-1进行备份得到new_image10-1,对原二值图像的new_image0-1进行高灰度区域4邻域缩放操作得new_image20-1,new_image10-1与new_image20-1进行对应像素位置点灰度值作差得到高频轮廓线;
计算高频轮廓线图像0倾角最小包围矩形区域,并截取矩形区域图像;
在截取的图像中重新给前景区域3通道赋值,对应的赋值方式为:R通道灰度值为221、G通道的灰度值为169、B通道的灰度值为15,基于处理后的图像作为深度学习样本;
设计面片类别划分的深度学习分类网络与超参数,resnet50为特征提取的基础网络、训练时设计的batch_size=5、num_class=6、num_workers=0、train_dataset的shuffle=True、validate_dataset的shuffle=False、loss_function=nn.CrossEntropyLoss()、optimizer=optim.Adam(net.parameters(),lr=0.0001)、初始best_accuracy=0.0、训练的epoch=106;
迭代训练并对每一个epoch对应的准确率accuracy、损失loss、网络更新后的参数进行保存,优选出epoch对应的权重参数,对预测模型进行初始化;
载入预测图片,并输入网络进行类别的判断,得到结果1;
批处理预测不同视角下的图像,并得到结果数据,结果保持在字典中。最后采用投票法将字典中相同面片在不同视角识别的结果进行融合,得到更准确的面片类别信息数据,作为结果2,以结果2作为面片最后识别的结果。
2.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,索引表中每一行的第一列为对应的面片编号,第二列为面片对应的红色灰度信息hR(x,y),第三列为面片对应的绿色灰度信息hG(x,y),第四列为面片对应的蓝色灰度信息hB(x,y),第五列为面片对应的尺寸大小Sizeslice。
4.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,显示参数的设置方式为在CATIA软件的左侧导航栏中选择“零件几何体”,然后选择“属性”与“图像”,“填充”栏中的颜色设置为0、0、0,“边线”栏中的颜色为黑色对应的“线型”为1、“线宽”为2:0.8mm,“直线和曲线”栏中设置“颜色”为黑色、对应“线型”为1、“线宽”为2:0.5mm,隐藏三维图像中的所有点。在“菜单栏”中选中“视图”、“照明”,在打开的“光源”窗口中选择“无光”,对应的“散射”、“反射”、“漫射”参数数值均为1.00。
5.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,在“选择图片存储路径”选择“E:\11.所有项目数据集\5.快速程编\2021.12.30”,在“选择图片存储格式”中选择“.png”格式保存图像,“其他参数设置”中的“经度范围”、“纬度范围”、“缩放倍率”、“间隔分度”分别为360、360、2、10,点击“开始”得到不同视角下零件的投影图像。
6.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,结构体的变量包含整形数组用于评价对应像素点所属灰度类别,数组的大小设为207406,数组中所有元素数值初始化全为1。
7.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,整形数组的下标及其对应的元素构成key,数组下标与对应数值标识关系,可用如下式子进行表示:
arraylocation=[hR(x,y)+11]*256+[hG(x,y)+14]*257+[hB(x,y)+17]*258 (2)
array initializating→array[0-207406]={1} (3)
flag based→array[arraylocation]=2 (4)
其中,arraylocation表示基于灰度值生成的数组坐标位置;array[arraylocation]表示满足关系的数组对应位置。
8.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,由OpenCV新建图像的方式为Mat new_image(org.rows,org.cols,CV_8UC3,Scalar(124,251,164)),其中Mat为图像数据的储存格式;org表示原始图像;CV_8UC3表示图像为8位3通道;Scalar表示填充的颜色信息,填充的R、G、B灰度值为124、251、164。
9.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,new_image中满足key不为1数学关系的像素点对应区域的颜色全变换为200、121、196,完成在new_image中对满足key的像素点所在的区域处理成相同的灰度值。
11.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,高灰度区域4邻域缩放操作式子为:
org(x,y)-kernelfour={min→result(x+x′,y+y′)(x′,y′):kernelfour(x′,y′)≠0} (6)
其中,org(x,y)表示待缩放图像new_image0-1;kernelfour表示4邻域缩放因子;result(x,y)表示图像中在(x,y)位置处理后的像素值。
13.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,采用循环遍历的方式获取高频轮廓线在X与Y轴上投影点的极值xmin、xmax、ymin、ymax,在图像中对应高频轮廓线上的点灰度值应满足result(x,y)=255。
14.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,将样本图像进行分类,主要包含了侧壁、腹板、圆角、筋顶、底角以及其他共6类;为了保证模型对每一类型皆表现出较好的识别效果,需保证各类的样本的数量趋近于1:1:1:1:1:1的数值关系。
15.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,采用任意角度随机旋转、左右对称、上下对称、图像沿长cols与宽rows等比例缩放的增强方式随机的从中选择1种或是多种进行增强,种数的选择方式为nums=random(time)%4得到。
16.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,增强后6类特征面片的数量趋近于1:1的关系,侧壁、腹板、圆角、筋顶、底角以及其他数量分别为6412:5861:6384:6435:6024:6862。
17.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,设计面片类别划分的深度学习分类网络,训练数据的预处理方式为transforms.Compose([transforms.Resize((228,228)),transforms.RandomHorizontalFlip(),transforms.ToTensor(),transforms.Normalize([0.481,0.458,0.418],[0.211,0.238,0.227])])。
18.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,测试数据的预处理方式为transforms.Compose([transforms.Resize((228,228)),transforms.ToTensor(),transforms.Normalize([0.481,0.458,0.418],[0.211,0.238,0.227])])}。
19.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,权重参数优选方式为:读取result.log文件中训练损失最小同时测试样本损失最小对应epoch保存的网络模型参数,基于该epoch对应的参数对网络进行初始化。
20.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,网络设置为model.eval()模式,model.load_state_dict(torch.load("最优权重文件"))进行模型的加载,output=torch.squeeze(model(img))得到预测的结果,使用predict=torch.softmax(output,dim=0)得到概率最大的类别。
21.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,使用PIL库中的Image函数批量读取待判断的图像img=Image.open(path_all),数据转化img=data_transform(img),img=torch.unsqueeze(img,dim=0),再输入模型根据softmax即可得到最后识别的类别数据,对应的数据为结果1。
22.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,批处理预测不同视角下的图像得到结果数据,结果保持在字典中。
23.如权利要求1所述的一种航空制造件全角度投影图像面片属性融合分析方法,其特征在于,将投票后得到的类别即结果2为零件三维图像中面片属性的类别信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210431339.1A CN114882272A (zh) | 2022-04-22 | 2022-04-22 | 一种航空制造件全角度投影图像面片属性融合分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210431339.1A CN114882272A (zh) | 2022-04-22 | 2022-04-22 | 一种航空制造件全角度投影图像面片属性融合分析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114882272A true CN114882272A (zh) | 2022-08-09 |
Family
ID=82671065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210431339.1A Pending CN114882272A (zh) | 2022-04-22 | 2022-04-22 | 一种航空制造件全角度投影图像面片属性融合分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114882272A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116804865A (zh) * | 2023-08-28 | 2023-09-26 | 成都飞机工业(集团)有限责任公司 | 一种三轴自动化程编特征识别与刀轨生成方法 |
CN116824273A (zh) * | 2023-08-28 | 2023-09-29 | 成都飞机工业(集团)有限责任公司 | 一种航空制造件任意视角二维投影图像面片属性判断方法 |
CN116994003A (zh) * | 2023-09-26 | 2023-11-03 | 成都飞机工业(集团)有限责任公司 | 一种航空结构件二维圆角加底角组合特征识别方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106886754A (zh) * | 2017-01-17 | 2017-06-23 | 华中科技大学 | 一种基于三角面片的三维场景下的物体识别方法及系统 |
CN107945282A (zh) * | 2017-12-05 | 2018-04-20 | 洛阳中科信息产业研究院(中科院计算技术研究所洛阳分所) | 基于对抗网络的快速多视角三维合成和展示方法及装置 |
CN108389251A (zh) * | 2018-03-21 | 2018-08-10 | 南京大学 | 基于融合多视角特征的投影全卷积网络三维模型分割方法 |
CN110084327A (zh) * | 2019-04-30 | 2019-08-02 | 福州大学 | 基于视角自适应深度网络的票据手写数字识别方法及系统 |
US20200026953A1 (en) * | 2018-07-23 | 2020-01-23 | Wuhan University | Method and system of extraction of impervious surface of remote sensing image |
CN111310558A (zh) * | 2019-12-28 | 2020-06-19 | 北京工业大学 | 一种基于深度学习和图像处理法的路面病害智能提取方法 |
CN111814715A (zh) * | 2020-07-16 | 2020-10-23 | 武汉大势智慧科技有限公司 | 一种地物分类方法及装置 |
AU2020102476A4 (en) * | 2020-09-29 | 2020-11-12 | Fan, Zhaohao Mr | A method of Clothing Attribute Prediction with Auto-Encoding Transformations |
CN111968240A (zh) * | 2020-09-04 | 2020-11-20 | 中国科学院自动化研究所 | 基于主动学习的摄影测量网格的三维语义标注方法 |
CN112419250A (zh) * | 2020-11-13 | 2021-02-26 | 湖北工业大学 | 路面裂缝数字图像提取、裂缝修补及裂缝参数计算方法 |
CN112967243A (zh) * | 2021-02-26 | 2021-06-15 | 清华大学深圳国际研究生院 | 一种基于yolo的深度学习芯片封装裂纹缺陷检测方法 |
CN113011496A (zh) * | 2021-03-19 | 2021-06-22 | 郑州轻工业大学 | 一种基于图模型的服装图像分类方法 |
-
2022
- 2022-04-22 CN CN202210431339.1A patent/CN114882272A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106886754A (zh) * | 2017-01-17 | 2017-06-23 | 华中科技大学 | 一种基于三角面片的三维场景下的物体识别方法及系统 |
CN107945282A (zh) * | 2017-12-05 | 2018-04-20 | 洛阳中科信息产业研究院(中科院计算技术研究所洛阳分所) | 基于对抗网络的快速多视角三维合成和展示方法及装置 |
CN108389251A (zh) * | 2018-03-21 | 2018-08-10 | 南京大学 | 基于融合多视角特征的投影全卷积网络三维模型分割方法 |
US20200026953A1 (en) * | 2018-07-23 | 2020-01-23 | Wuhan University | Method and system of extraction of impervious surface of remote sensing image |
CN110084327A (zh) * | 2019-04-30 | 2019-08-02 | 福州大学 | 基于视角自适应深度网络的票据手写数字识别方法及系统 |
CN111310558A (zh) * | 2019-12-28 | 2020-06-19 | 北京工业大学 | 一种基于深度学习和图像处理法的路面病害智能提取方法 |
CN111814715A (zh) * | 2020-07-16 | 2020-10-23 | 武汉大势智慧科技有限公司 | 一种地物分类方法及装置 |
CN111968240A (zh) * | 2020-09-04 | 2020-11-20 | 中国科学院自动化研究所 | 基于主动学习的摄影测量网格的三维语义标注方法 |
AU2020102476A4 (en) * | 2020-09-29 | 2020-11-12 | Fan, Zhaohao Mr | A method of Clothing Attribute Prediction with Auto-Encoding Transformations |
CN112419250A (zh) * | 2020-11-13 | 2021-02-26 | 湖北工业大学 | 路面裂缝数字图像提取、裂缝修补及裂缝参数计算方法 |
CN112967243A (zh) * | 2021-02-26 | 2021-06-15 | 清华大学深圳国际研究生院 | 一种基于yolo的深度学习芯片封装裂纹缺陷检测方法 |
CN113011496A (zh) * | 2021-03-19 | 2021-06-22 | 郑州轻工业大学 | 一种基于图模型的服装图像分类方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116804865A (zh) * | 2023-08-28 | 2023-09-26 | 成都飞机工业(集团)有限责任公司 | 一种三轴自动化程编特征识别与刀轨生成方法 |
CN116824273A (zh) * | 2023-08-28 | 2023-09-29 | 成都飞机工业(集团)有限责任公司 | 一种航空制造件任意视角二维投影图像面片属性判断方法 |
CN116804865B (zh) * | 2023-08-28 | 2023-12-08 | 成都飞机工业(集团)有限责任公司 | 一种三轴自动化程编特征识别与刀轨生成方法 |
CN116824273B (zh) * | 2023-08-28 | 2024-01-12 | 成都飞机工业(集团)有限责任公司 | 一种航空制造件任意视角二维投影图像面片属性判断方法 |
CN116994003A (zh) * | 2023-09-26 | 2023-11-03 | 成都飞机工业(集团)有限责任公司 | 一种航空结构件二维圆角加底角组合特征识别方法 |
CN116994003B (zh) * | 2023-09-26 | 2024-01-12 | 成都飞机工业(集团)有限责任公司 | 一种航空结构件二维圆角加底角组合特征识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114882272A (zh) | 一种航空制造件全角度投影图像面片属性融合分析方法 | |
CN113178014B (zh) | 场景模型渲染方法、装置、电子设备和存储介质 | |
EP1267309B1 (en) | 3D Computer Modelling Apparatus | |
CN111462120B (zh) | 一种基于语义分割模型缺陷检测方法、装置、介质及设备 | |
CN111028327B (zh) | 一种三维点云的处理方法、装置及设备 | |
CN114758337B (zh) | 一种语义实例重建方法、装置、设备及介质 | |
AU2009251018C1 (en) | Generating object representation from bitmap image | |
CN111753698A (zh) | 一种多模态三维点云分割系统和方法 | |
CN110176064B (zh) | 一种摄影测量生成三维模型的主体对象自动识别方法 | |
CN111507357B (zh) | 一种缺陷检测语义分割模型建模方法、装置、介质及设备 | |
CN115937461B (zh) | 多源融合模型构建及纹理生成方法、装置、介质及设备 | |
CN115861609A (zh) | 遥感图像的分割标注方法、电子设备及存储介质 | |
CN115424265A (zh) | 一种点云语义分割标注方法及系统 | |
CN114463737A (zh) | 一种基于3d建模中隐式表示的3d目标检测方法和系统 | |
CN116824273B (zh) | 一种航空制造件任意视角二维投影图像面片属性判断方法 | |
EP1507220A1 (en) | Boundary data inside/outside judgment method and program thereof | |
CN115272549B (zh) | 一种超大数字场景的存储和渲染调度方法及装置 | |
dos Passos et al. | Sample-based synthesis of illustrative patterns | |
CN116129093A (zh) | 一种针对倾斜摄影三维模型的颜色调整方法 | |
CN115861532A (zh) | 基于深度学习的植被地物模型重建方法与系统 | |
CN114494272A (zh) | 一种基于深度学习的金属零件快速分割方法 | |
CN116994003B (zh) | 一种航空结构件二维圆角加底角组合特征识别方法 | |
Perbet et al. | Homogeneous superpixels from Markov random walks | |
RU2730373C1 (ru) | Способ и система отображения текущих результатов в процессе обработки изображения | |
CN117197300B (zh) | 一种基于透明通道的三维线框透视动图的渲染合成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |