CN114169022B - 在胚料上雕刻出雕刻标的3d表面的方法及系统 - Google Patents
在胚料上雕刻出雕刻标的3d表面的方法及系统 Download PDFInfo
- Publication number
- CN114169022B CN114169022B CN202111274319.XA CN202111274319A CN114169022B CN 114169022 B CN114169022 B CN 114169022B CN 202111274319 A CN202111274319 A CN 202111274319A CN 114169022 B CN114169022 B CN 114169022B
- Authority
- CN
- China
- Prior art keywords
- cloud data
- point cloud
- point
- engraving
- cutter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000012545 processing Methods 0.000 claims abstract description 80
- 239000013598 vector Substances 0.000 claims description 43
- 238000004422 calculation algorithm Methods 0.000 claims description 41
- 239000011159 matrix material Substances 0.000 claims description 35
- 238000003754 machining Methods 0.000 claims description 27
- 238000013528 artificial neural network Methods 0.000 claims description 22
- 238000005299 abrasion Methods 0.000 claims description 16
- 238000005286 illumination Methods 0.000 claims description 15
- 230000001815 facial effect Effects 0.000 claims description 13
- 238000013519 translation Methods 0.000 claims description 11
- 238000012937 correction Methods 0.000 claims description 10
- 238000005520 cutting process Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 9
- 239000000463 material Substances 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000004088 simulation Methods 0.000 claims description 5
- 238000005259 measurement Methods 0.000 claims description 4
- 238000000691 measurement method Methods 0.000 claims description 4
- 210000000697 sensory organ Anatomy 0.000 claims description 4
- 238000012546 transfer Methods 0.000 claims description 4
- 230000037303 wrinkles Effects 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 abstract 1
- 238000003786 synthesis reaction Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 14
- 230000000694 effects Effects 0.000 description 7
- 238000002310 reflectometry Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 240000007817 Olea europaea Species 0.000 description 3
- 238000004220 aggregation Methods 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 3
- 239000011324 bead Substances 0.000 description 3
- 210000001508 eye Anatomy 0.000 description 3
- 210000004209 hair Anatomy 0.000 description 3
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000003801 milling Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 241000251468 Actinopterygii Species 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000919 ceramic Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 210000000088 lip Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 239000000741 silica gel Substances 0.000 description 1
- 229910002027 silica gel Inorganic materials 0.000 description 1
- 239000010802 sludge Substances 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B44—DECORATIVE ARTS
- B44C—PRODUCING DECORATIVE EFFECTS; MOSAICS; TARSIA WORK; PAPERHANGING
- B44C1/00—Processes, not specifically provided for elsewhere, for producing decorative surface effects
- B44C1/22—Removing surface-material, e.g. by engraving, by etching
- B44C1/225—Removing surface-material, e.g. by engraving, by etching by engraving
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Mechanical Engineering (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Image Processing (AREA)
Abstract
本申请提供一种在胚料上雕刻出雕刻标的3D表面的方法,包括:获取雕刻标的的轮廓深度图和纹理细节深度图;分别计算得到轮廓点云数据和纹理细节点云数据;匹配轮廓点云数据和纹理细节点云数据,并在匹配后进行拼接,合成得到拼接点云数据;计算潜在曲面;标定拼接点云数据;基于标定后的拼接点云数据,提取三维网格表面,形成网格状原始模型文件;将网格状原始模型文件转换得到3D格式文件,并选择匹配相应的刀具,生成NC加工指令,控制CNC加工装置使用刀具对胚料进行切削雕刻。本申请还提出了一种在胚料上雕刻出雕刻标的3D表面的系统。本申请在雕刻时可获取较为精准的网格状原始模型文件,且根据网格状原始模型文件自动匹配刀具。
Description
技术领域
本申请涉及雕刻技术领域,具体涉及一种在胚料上雕刻出雕刻标的3D表面的方法及系统。
背景技术
雕刻工艺从古至今在得以传承的同时也在与时俱进,从最早的石器雕刻到骨雕、陶塑等多种形式,内容也丰富多彩,历朝历代各具特色。雕刀在玉石、象牙、果核上能够雕刻出人物、山水、花鸟等图案,图案成形后其效果类似于美术中的素描或线条勾勒;又或者以浅浮雕或镂空的手法进行雕刻。近年来,以木质品雕刻工艺的手串、佛珠、吊坠等深受民众欢迎,此类佩戴工艺品渐渐流行,例如橄榄核,橄榄核串珠大小适中,硬度较优,可作为手串佩戴,可雕刻人像、神兽等图案,寓意吉祥美好。
然而,由于果核串珠尺寸较小,手工雕刻难度不小,制作过程需耗费较长时间,市面上渐渐出现机器雕刻工艺品,价格便宜,易于获得,但机器雕刻时获取的模板精准度较差,且不能根据模板的纹理特征自动匹配加工刀具,从而使得加工后获得的雕刻品的质量较差。
发明内容
鉴于以上问题,本申请提出一种在胚料上雕刻出雕刻标的3D表面的方法及系统,以解决模板精准度较差和不能自动匹配加工刀具的技术问题。
本申请实施例提供一种在胚料上雕刻出雕刻标的3D表面的方法,包括:
使用立体相机采集雕刻标的3D表面的双目图像,并计算出雕刻标的3D表面的轮廓深度图;
使用亮度立体视觉测量技术,计算获得雕刻标的3D表面的纹理细节深度图;
基于所述轮廓深度图和纹理细节深度图,分别计算得到轮廓点云数据和纹理细节点云数据;
匹配所述轮廓点云数据和所述纹理细节点云数据,并在匹配后进行拼接,合成得到具有八叉树结构的拼接点云数据;
计算所述拼接点云数据中每个点的曲面法线,得到潜在曲面;
标定所述拼接点云数据中的每个点,以确定所述每个点与所述潜在曲面的位置;
基于标定后的所述拼接点云数据,提取三维网格表面,形成雕刻标的的网格状原始模型文件;
将所述网格状原始模型文件转换得到3D格式文件;
将所述3D格式文件传送到CAD/CAM系统,并选择匹配对应的刀具,进而生成CNC加工装置的NC加工指令,基于所述NC加工指令,控制所述CNC加工装置使用所述刀具对胚料进行切削雕刻。
在一实施例中,所述方法进一步包括:
将所述网格状原始模型文件传递至数据处理中心,所述数据处理中心用于通过深度神经网络得出的AI算法将所述网格状原始模型文件转化为根据客户选择的订制风格的模型文件;
将所述订制风格的模型文件转换得到所述3D格式文件,并继续执行后续加工步骤。
在一实施例中,所述深度神经网络得出的AI算法的步骤包括:
采集各个不同风格雕刻工艺品的深度图像并计算出其相应的3D点云数据;
将采集到的3D点云数据分别使用CAD工程软件处理,生成对应的闭合完整的雕刻品3D曲面;
分别对所述雕刻品3D曲面进行轮廓特征处理,提取出细节雕刻特征,以形成各种不同雕刻风格特征数据库;和
使用VGG深度神经网络作为模型对所述各种不同雕刻风格特征数据库进行训练,藉由倒传递算法调整神经网络的参数,以得出所述AI算法。
在一实施例中,所述计算出雕刻标的3D表面的轮廓深度图的步骤,包括:
获取所述雕刻标的的双目图像;
基于所述双目图像,对所述立体相机进行标定,得到所述立体相机的内外参数;
根据所述内外参数对所述双目图像进行校正;
对校正后的所述双目图像进行立体匹配,获得视差图;
基于所述视差图,获得所述轮廓深度图。
在一实施例中,所述计算得到轮廓点云数据的步骤,包括:
根据所述轮廓深度图,获得每个第一点的第一深度值;
根据所述每个第一点的第一深度值,确定每个第一点的三维坐标;
根据确定的每个第一点的三维坐标,得到轮廓点云数据。
在一实施例中,所述获得雕刻标的3D表面的纹理细节深度图的步骤,包括:
建立一光照模型;
标定光源的方向向量,并获取所述光源光照下雕刻标的的图像;
基于所述光照模型、所述光源的方向向量及所述雕刻标的的图像,计算得到所述雕刻标的的表面法向量;
基于所述雕刻标的的表面法向量,计算得到所述纹理细节深度图。
在一实施例中,所述计算得到纹理细节点云数据的步骤,包括:
根据所述纹理细节深度图,获得每个第二点的第二深度值;
根据所述每个第二点的第二深度值,确定每个第二点的三维坐标;
根据确定的每个第二点的三维坐标,得到纹理细节点云数据。
在一实施例中,所述匹配所述轮廓点云数据和所述纹理细节点云数据,并在匹配后进行拼接,合成得到具有八叉树结构的拼接点云数据的步骤,包括:
通过运动恢复结构算法对所述轮廓点云数据和所述细节点云数据进行匹配;
通过迭代最近点算法对匹配后的所述轮廓点云数据和所述细节点云数据进行拼接,合成得到具有八叉树结构的拼接点云数据。
在一实施例中,所述通过迭代最近点算法对匹配后的所述轮廓点云数据和所述纹理细节点云数据进行拼接,合成得到拼接点云数据的步骤,包括:
在所述轮廓点云数据中选取第一点集;
找出所述纹理细节点云数据中的与所述第一点集中的第一点距离最小的第二点,并形成第二点集;
基于所述第一点集和所述第二点集,计算旋转矩阵和平移矩阵,使得误差函数最小;
基于所述旋转矩阵和所述平移矩阵,对所述第一点集中的第一点进行旋转和平移变换,得到第三点集;
计算所述第二点集和所述第三点集的平均距离;
判断平均距离是否小于预设距离阈值或大于预设的最大迭代次数;
若为是,则停止迭代,获得所述拼接点云数据;
若为否,则继续找出所述纹理细节点云数据中的与所述第一点集中的第一点距离最小的第二点,并形成第二点集,直到满足收敛条件为止。
在一实施例中,所述雕刻标的为人脸,所述轮廓深度图包含五官的轮廓特征,所述纹理细节深度图包含人脸面部上皱纹的纹理特征,所述数据处理中心包括一雕刻风格模式数据库,用于提供用户从中选取雕刻风格模式数据,所述风格模式数据包括面部三维数据、雕刻风格数据、面部特征数据。
在一实施例中,基于胚料材质和所述用户所选取的雕刻风格模式数据,匹配选择具有相应刃径的刀具。
在一实施例中,基于用户所选取的雕刻风格模式数据中的面部特征数据,匹配选取相应形状的胚料。
在一实施例中,所述生成NC加工指令的步骤,包括:
基于所述客户选择的订制风格的模型文件,对所述刀具的加工过程进行仿真处理,以确定所述刀具的加工路径;
基于确定后的所述刀具的加工路径,得到相应的NC加工指令。
在一实施例中,所述刀具加工路径为X-Y-Z轴均沿脸部五官仿形方式移动。
在一实施例中,基于所述纹理细节深度图的纹理细节的细腻程度确定纹理区域的纹理沟槽宽度,并根据所述纹理沟槽宽度选择具有相应刃径和R角的刀具。
在一实施例中,所选择的刀具的刃径至少两倍于所述纹理沟槽宽度。
本申请实施例还提供一种在胚料上雕刻出雕刻标的3D表面的系统,包括:
一立体相机,用于采集雕刻标的3D表面的双目图像,
一计算机,用于根据采集的双目图像计算出雕刻标的3D表面的轮廓深度图,和利用亮度立体视觉测量技术,计算出雕刻标的3D表面的纹理细节深度图,该计算机进一步用于:
基于所述轮廓深度图和纹理细节深度图,分别计算得到轮廓点云数据和纹理细节点云数据;
匹配所述轮廓点云数据和所述纹理细节点云数据,并在匹配后进行拼接,合成得到具有八叉树结构的拼接点云数据;
计算所述拼接点云数据中每个点的曲面法线,得到潜在曲面;
标定所述拼接点云数据中的每个点,以确定所述每个点与所述潜在曲面的位置;
基于标定后的所述拼接点云数据,提取三维网格表面,形成雕刻标的的网格状原始模型文件;
一数据处理中心,用于接收计算机传送来的雕刻标的的网格状原始模型文件,所述数据处理中心进一步用于通过深度神经网络得出的AI算法将雕刻标的的网格状原始模型文件转化为根据客户选择的订制风格模型文件,并将所述客户选择的订制风格模型文件传送回所述计算机;和
一CNC加工装置,与所述计算机相连,
其中,所述计算机进一步用于将所述订制风格模型文件转换得到3D格式文件,并将所述3D格式文件,结合所选择匹配的刀具,生成所述CNC加工装置的NC加工指令,所述CNC加工装置用于基于所述NC加工指令,使用所述选择刀具对胚料进行切削雕刻。
上述的方法及系统在雕刻时先获取雕刻标的的轮廓深度图和纹理细节深度图,然后在计算得到轮廓点云数据和纹理细节点云数据后进行匹配、拼接,合成得到拼接点云数据,接着获取潜在曲面,并标定拼接点云数据中的每个点,确定每个点与潜在曲面的位置,之后提取三维网格表面,形成网格状原始模型文件,对网格状原始模型文件进行数据处理后选择匹配对应的刀具,最后通过刀具对胚料进行切削雕刻。相对于现有技术,本申请在雕刻时可获取较为精准的网格状原始模型文件,且根据网格状原始模型文件自动匹配刀具,加工后获得的雕刻品的质量较高。
附图说明
图1是本申请一实施例所提供的在胚料上雕刻出雕刻标的3D表面的方法流程示意图。
图2是图1中的获得轮廓深度图的流程示意图。
图3是图1中的获得纹理细节深度图的流程示意图。
图4是图1中的得到轮廓点云数据的流程示意图。
图5是图1中的得到纹理细节点云数据的流程示意图。
图6是图1中的得到拼接点云数据的流程示意图。
图7是为相机一、相机二及点p的对应关系图。
图8是图6中的通过迭代最近点算法ICP对匹配后的轮廓点云数据和纹理细节点云数据进行拼接,合成得到拼接点云数据的流程示意图。
图9是八叉树数据结构图。
图10是等值面与六面体相交关系图。
图11是等值面与六面体的其中一个相交关系图。
图12是法矢量和平面方程式示意图。
图13是将网格状原始模型文件转换得到3D格式文件的流程示意图。
图14是形成大师雕刻风格特征数据库的流程示意图。
图15是网格状原始模型文件和转化后的模型文件的示意图。
图16是VGG深度神经网络结构图。
图17是格拉姆矩阵图。
图18是CAD/CAM系统的刀具参数与刀具信息表中的刀具参数的对应图。
图19是纹路的加工顺序图。
图20是外形到五观加工过程图。
图21是眼睛位置刀具的刀刃的选取图。
图22是不同刀刃的刀具的加工对比图。
图23是得到相应的加工指令的流程示意图。
图24是不同的加工方式图。
图25是对刀具进行检测的流程示意图。
图26是刀具检测的硬件图。
图27是刀具系统运行参数图。
图28是本申请的一实施例提出的在胚料上雕刻出雕刻标的3D表面的系统的硬件图。
主要元件说明
具体实施方式
为了能够更清楚地理解本申请的所述目的、数据和优点,下面结合附图和具体实施例对本申请进行详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的数据可以相互组合。在下面的描述中阐述了很多具体细节以便于充分理解本申请,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请。
本申请实施例提供一种在胚料上雕刻出雕刻标的3D表面的方法,包括:
使用立体相机采集雕刻标的3D表面的双目图像,并计算出雕刻标的3D表面的轮廓深度图;
使用亮度立体视觉测量技术,计算获得雕刻标的3D表面的纹理细节深度图;
基于所述轮廓深度图和纹理细节深度图,分别计算得到轮廓点云数据和纹理细节点云数据;
匹配所述轮廓点云数据和所述纹理细节点云数据,并在匹配后进行拼接,合成得到具有八叉树结构的拼接点云数据;
计算所述拼接点云数据中每个点的曲面法线,得到潜在曲面;
标定所述拼接点云数据中的每个点,以确定所述每个点与所述潜在曲面的位置;
基于标定后的所述拼接点云数据,提取三维网格表面,形成雕刻标的的网格状原始模型文件;
将所述网格状原始模型文件转换得到3D格式文件;
将所述3D格式文件传送到CAD/CAM系统,并选择匹配对应的刀具,进而生成CNC加工装置的NC加工指令,基于所述NC加工指令,控制所述CNC加工装置使用所述刀具对胚料进行切削雕刻。本申请实施例还提供一种在胚料上雕刻出雕刻标的3D表面的系统,包括:
一立体相机,用于采集雕刻标的3D表面的双目图像,
一计算机,用于根据采集的双目图像计算出雕刻标的3D表面的轮廓深度图,和利用亮度立体视觉测量技术,计算出雕刻标的3D表面的纹理细节深度图,该计算机进一步用于:
基于所述轮廓深度图和纹理细节深度图,分别计算得到轮廓点云数据和纹理细节点云数据;
匹配所述轮廓点云数据和所述纹理细节点云数据,并在匹配后进行拼接,合成得到具有八叉树结构的拼接点云数据;
计算所述拼接点云数据中每个点的曲面法线,得到潜在曲面;
标定所述拼接点云数据中的每个点,以确定所述每个点与所述潜在曲面的位置;
基于标定后的所述拼接点云数据,提取三维网格表面,形成雕刻标的的网格状原始模型文件;
一数据处理中心,用于接收计算机传送来的雕刻标的的网格状原始模型文件,所述数据处理中心进一步用于通过深度神经网络得出的AI算法将雕刻标的的网格状原始模型文件转化为根据客户选择的订制风格模型文件,并将所述客户选择的订制风格模型文件传送回所述计算机;和
一CNC加工装置,与所述计算机相连,
其中,所述计算机进一步用于将所述订制风格模型文件转换得到3D格式文件,并将所述3D格式文件,结合所选择匹配的刀具,生成所述CNC加工装置的NC加工指令,所述CNC加工装置用于基于所述NC加工指令,使用所述选择刀具对胚料进行切削雕刻。
上述的方法及系统在雕刻时先获取雕刻标的的轮廓深度图和纹理细节深度图,然后在计算得到轮廓点云数据和纹理细节点云数据后进行匹配、拼接,合成得到拼接点云数据,接着获取潜在曲面,并标定拼接点云数据中的每个点,确定每个点与潜在曲面的位置,之后提取三维网格表面,形成网格状原始模型文件,对网格状原始模型文件进行数据处理后选择匹配对应的刀具,最后通过刀具对胚料进行切削雕刻。相对于现有技术,本申请在雕刻时可获取较为精准的网格状原始模型文件,且根据网格状原始模型文件自动匹配刀具,加工后获得的雕刻品的质量较高。
下面结合说明书附图,对本请的实施例作进一步地说明。
请参见图1,本申请实施例提供一种在胚料上雕刻出雕刻标的3D表面的方法,包括以下步骤:
S1,使用立体相机采集雕刻标的3D表面的双目图像,并计算出雕刻标的3D表面的轮廓深度图。
S2,使用亮度立体视觉测量技术,计算获得雕刻标的3D表面的纹理细节深度图。
其中,雕刻标的包括但不限于是人脸、动物、植物、建筑物,在本实施例中,雕刻标的为人脸。
其中,轮廓深度图为人面部轮廓的深度信息,例如眼睛、鼻子、嘴唇、眉毛、耳朵等五官的深度信息。
其中,纹理细节深度图为人面部细节的深度信息,例如皱纹、鱼尾纹、额头纹等纹理的深度信息。
在一实施例中,请参见图2,计算出雕刻标的3D表面的轮廓深度图的步骤,包括:
S11,基于双目图像,对立体相机进行标定,得到立体相机的内外参数。
其中,双目图像为两张图像,可以理解的,在一些实施例中,也可通过立体相机获取多对双目图像。
S12,根据内外参数对双目图像进行校正。
其中,在校正后可使得双目图像在同一平面且互相平行。
S13,对校正后的双目图像进行立体匹配,获得视差图。
具体的,可先获取视差平面,然后根据视差平面提取视差值,再得到视差图,其中对校正后的双目图像进行立体匹配获得视差平面的方法为:对于很多场景、区域都可以近似的用同一个平面来建模,为了找到每个区域的平面参数,对每个像素赋予一个随机的平面参数,每个区域至少有一个像素的初始平面是接近真实平面,然后通过传播算法把正确的平面参数传递给这个区域的其他像素。
为了获得每一个像素所在的视差平面,在得到了视差平面之后,就可以计算出该像素的视差,假定像素p的视差为dp,则有:
待求解的视差平面fp是所有可能的平面中使得聚合代价m(p,f)最小的平面,聚合代价为:
具体的,为了解决边缘模糊的问题,通过对每一个邻域像素点分配一个不同的权值,使非中心点对中心像素点有不同的权值贡献,则有:
其中,||Ip-Iq||为窗口的中心像素p的像素值Ip和领域像素q的像素值Iq在RGB空间的L1距离;γ为人为指定的参数。
待匹配像素对之间的相似性函数ρ(q,q′)为:
其中,q′为通过像素q的视差计算得到的,α为权重参数,τcol为像素距离阈值,τgrad为像素梯度阈值,||Iq-Iq′||为像素q的像素值Iq和q′的像素值Iq′在RGB空间的L1距离,为像素q的像素梯度值和q′的像素梯度值在RGB空间的L1距离。
相似性函数ρ(q,q′)为两像素点的像素距离和梯度距离的线性组合,函数值反映两像素点的相似性,并通过相应的阈值截断能够获得更鲁棒的结果。
在聚合代价迭代的过程中,每一个像素都将经历以下阶段:空间传播、视图传播和平面细化,一般先处理双目图像中的左图,然后再处理双目图像中的右图,具体的:
(1)空间传播:由于在位置上相邻的像素一般具有相近的视差。设当前像素p的视差平面为fp,其领域像素q的视差平面为fq。奇数次迭代时,比较中心点(x,y)、中心点的左边像素点(x-1,y)及上面相邻的像素点(x,y-1)的平面参数聚合代价,将聚合代价最小的平面参数赋予中心点;偶数次迭代时,与中心点的右边像素点(x+1,y)和下面相邻的像素点(x,y+1)比较;奇数次迭代时,相邻为当前点的左边像素点(x-1,y)和上面的像素点(x,y-1),逐行遍历像素到达右下角像素点(x+1,y+1),偶数次迭代时则反过来,从右下角像素点(x+1,y+1)开始到左上角像素点(x-1,y-1)停止。迭代时,若当前帧的像素和对应平面为(p,fp)、相邻帧的像素和其对应平面为(q,fq),通过是否将当前帧的像素p分给相邻帧的对应平面fq可减少聚合代价评估视差平面,即比较m(p,fp)和m(q,fq),若m(q,fq)<m(p,fp),代表平面fq较平面fp适合作为视差平面,将平面fp更新为平面fq,反之则不用更新。
(2)视图传播:利用左视差图、右视差图之间的强一致性,即一个像素点和它在另一个视图中的对应点具有相似的平面。
(3)平面精细化
这一步目标是优化像素p处的视差平面fp,使得聚合代价进一步减小,视差平面fp可以由一个点(x0,y0,z0)和一个法向量表示,所以视差平面更新可以通过点坐标和法向量的更新得到。对像素(x0,y0)设定视差搜索范围[0,dmax],从中随机选择一个深度z0;然后,随机选择一个法向量通过初始点和法向量可得到初始平面参数
S14,基于视差图,获得轮廓深度图。
在一些实施例中,请参见图3,该获取雕刻标的的纹理细节深度图的步骤,包括:
S21,建立一光照模型。
S22,标定光源的方向向量,并获取光源光照下雕刻标的的图像。
S23,基于光照模型、光源的方向向量及雕刻标的的图像,计算得到雕刻标的的表面法向量。
S24,基于雕刻标的的表面法向量,计算得到纹理细节深度图。
在本实施例中,该方法是通过在不同光照条件下所拍摄的多幅图像的光强来计算物体表面的法向量,再由表面法相量恢复物体表面的三维技术。采用不同的角度对目标采集图像,此图像包含很多三维信息且是由很多的因素所决定,决定因素包含几何结构、光源分布、物体材料的表面、反射特性、表面的位置和取向、中间传播媒介的吸收、传感器的几何和光学特性等。利用反射出来的光强及颜色计算表面法向量,并计算物体表面深度图。
首先,给出图像上像素点(x,y)处的光照模型为:
其中,I表示像素点(x,y)的亮度值,ρi表示第i种材料对应的表面反射率,fi(N,L,V)为光照方程,k0为材料的种类。
该光照方程fi(N,L,V)是与物体的表面法向量N、光源方向L和相机的视角V有关。
在朗伯体反射模型中,物体表面一点的亮度值只与其表面的反射率和表面法向量有关,且这个关系是线性的,因此三帧不同的光源照射下的图像可以唯一确定物体表面法向量。因此,在光照模型中的光照方程fi(N,L,V)为朗伯体反射模型时,根据反射模型有I=ρN·L。
已知光源方向和每帧图像点(x,y)的像素值,能够求出反射率,得到反射率后可再求出曲面的法向量。
其中,反射率为:
其中,曲面法向量为:
其中,nr为法向量的R通道值、ng为法向量的G通道值、nb为法向量的G通道值。
S3,基于轮廓深度图和纹理细节深度图,分别计算得到轮廓点云数据和纹理细节点云数据。
在一实施例中,请参见图4,该计算得到轮廓点云数据的步骤,包括:
S31,根据轮廓深度图,获得每个第一点的第一深度值。
其中,第一深度值为Z坐标。
S32,根据每个第一点的第一深度值,确定每个第一点的三维坐标。
其中,根据每个第一点的第一深度值,获得该第一点的X和Y坐标,从而确定每个第一点的X,Y和Z坐标,即三维坐标。
S33,根据确定的每个第一点的三维坐标,得到轮廓点云数据。
在一实施例中,请参见图5,计算得到纹理细节点云数据的步骤,包括:
S34,根据纹理细节深度图,获得每个第二点的第二深度值。
其中,第二深度值为Z坐标。
S35,根据每个第二点的第二深度值,确定每个第二点的三维坐标。
其中,根据每个第二点的第二深度值,获得该第二点的X和Y坐标,从而确定每个第二点的X,Y和Z坐标,即三维坐标。
S36,根据确定的每个第二点的三维坐标,得到纹理细节点云数据。
S4,匹配轮廓点云数据和纹理细节点云数据,并在匹配后进行拼接,得到合成具有八叉树结构的拼接点云数据。
请参见图6,在一实施例中,该匹配轮廓点云数据和纹理细节点云数据,并在匹配后进行拼接,合成得到具有八叉树结构的拼接点云数据的步骤,包括:
S41,通过运动恢复结构算法对轮廓点云数据和纹理细节点云数据进行匹配。
其中,运动恢复结构算法(SFM)主要是通过相机移动来确定目标空间的空间关系和几何关系。利用Sift特征提取算法提取图像特征,再通过特征点间的距离进行匹配,最后通过SFM算法得到相机预估参数和场景几何信息。
请参见图7,假设在世界坐标系中,点p的坐标为X;在相机一的第一相机坐标系中的坐标为x1,相机二的第二相机坐标系中的坐标为x2,两相机具有相同内参矩阵K,与世界坐标的变换关系分别为[R1,T1]、[R2,T2],s1、s2为点p分别到两个相机像面的垂直距离,则分别有:
s1x1=K(R1X+T1);
s2x2=K(R2X+T2);
在两个公式的两边同乘K-1后,得到:
s1K-1x1=R1x+T1;
s2K-1x2=R2X+T2;
联合这两个公式得到:
由此可知,E为两相机的相对变换关系,称为本质矩阵。
得到相机间变换关系以及匹配点的坐标后,需还原这些匹配点在空间中的坐标,若空间点P在世界坐标下为X,在两相机坐标系下为x1,x2,对应相机投影矩阵P1,P2,则有:
x1=P1X,x2=P2X;
两边都对x1做外积可得:
x1×P1X=0;
将x1×P1看作矩阵A,也即A为x1,P1系数构成的矩阵,此时常用奇异值分解(SVD)求解,这种重建方式也被称作三角化。
S42,通过迭代最近点算法对匹配后的轮廓点云数据和纹理细节点云数据进行拼接,合成得到具有八叉树结构的拼接点云数据。
其中,迭代最近点算法(Iterative Closest Point,ICP)的原理为:分别在待匹配的目标点云P和源点云Q中,按照一定的约束条件,找到最邻近点(pi,qi),然后计算出最优匹配参数R和t,使得误差函数E(R,t)最小,该误差函数E(R,t)为:
其中,n为最邻近点对的数量,pi为目标点云P中的第i个点,qi为源点云Q中与pi对应的最近点,R为旋转矩阵,t为平移向量。
在一些实施例中,请参见图8,通过迭代最近点算法ICP对匹配后的轮廓点云数据和纹理细节点云数据进行拼接,合成得到拼接点云数据的步骤,包括:
S421,在轮廓点云数据中选取第一点集。
其中,以轮廓点云数据为目标点云P,第一点集pi∈P。
S422,找出纹理细节点云数据中的与第一点集中的第一点距离最小的第二点,并形成第二点集。
其中,以纹理细节点云数据为源点云Q,第二点集qi∈Q,第一点集和第二点集满足‖qi-pi‖=min。
S423,基于第一点集和第二点集,计算旋转矩阵和平移矩阵,使得误差函数最小。
S424,基于旋转矩阵和平移矩阵,对第一点集中的第一点进行旋转和平移变换,得到第三点集。
其中,旋转矩阵为R,平移矩阵为t,第三点集p′i={p′i=Rpi+t,pi∈P}。
S425,计算第二点集和第三点集的平均距离。
S426,判断平均距离是否小于预设距离阈值或大于预设的最大迭代次数;
S427,若为是,则停止迭代,获得拼接点云数据;
S428,若为否,则继续找出纹理细节点云数据中的与第一点集中的第一点距离最小的第二点,并形成第二点集,直到满足收敛条件为止。
S5,计算拼接点云数据中每个点的曲面法线,得到潜在曲面。
其中,请参见图9,采用八叉树(Octree)来表达拼接点云数据,八叉树的每个节点表示一个正方体的体积元素,每个节点有八个子节点,将拼接点云数据放入八叉树的数据结构中。
其中,利用主成分分析(PCA)估计点云中每个点的曲面法线,推算出潜在曲面,根据周围邻域点与某点之间的协方差矩阵C,计算C的特征值和特征向量,其中法向量所在的方向是邻近分布最分散的方向,故特征值最小的特征向量为法向量方向。检测点云中的任意一点p是否为特征点的方法为:以点p为中心的预设半径范围内的邻域点记为邻域集合P,则协方差矩阵C为:
在最大特征值大于阈值时,认为点p为特征点。
S6,标定拼接点云数据中的每个点,以确定每个点与潜在曲面的位置。
其中,确定每个点位于潜在曲面内或潜在曲面外。假设等值面为S,该潜在曲面上函数F(x,y,z)的值给予某一定值Ft,即等值面是由所有点S={(x,y,z):F(x,y,z)=Ft}组成的潜在曲面,比较点对应的函数值,若点(a,b,c),其函数值F(a,b,c)>Ft,则该点在潜在曲面外,反之,若F(a,b,c)≤Ft,则该点在潜在曲面内。
S7,基于标定后的拼接点云数据,提取三维网格表面,形成雕刻标的的网格状原始模型文件。
其中,通过移动立方体(Marching Cube)算法提取三角网格表面。具体为:
(1)将拼接点云数据经过预处理之后,读入八叉树结构中;
(2)通过Marching Cube算法将空间中划分成很多个小块,相当于将空间分成多个六面体网格;
(3)将当前六面体8个顶点的函数值与给定等值面值Ft进行比较,当六面体中的顶点有正有负,即F(xi,yi,zi)-Ft的值既有大于零的也有小于零的,其中(xi,yi,zi)为六面体的第i个顶点,i=1,2,…8,说明有等值面穿过六面体,等值面与六面体相交情况经过简化后总共分为15种,请参阅图10,图10示出了等值面与六面体相交的15种情况;
请参阅图11,以其中一个来举例,如果只有顶点3的值小于等值面,其他顶点都大于等值面,则可以生成与边2、3、11相交的三角面,而三角面的顶点位置需要根据等值面和边顶点的线性插值计算而来;
(4)根据当前六面体的状态表索引,找出与等值面相交的六面体棱边,并采用线性插值的方法,计算出各个交点的位置坐标,相交坐标点用P表示,p1、p2代表边上两个端点的坐标,v1、v2代表这两个端点上的值,v代表等值面,则交点坐标的计算公式为:
P=p1+(v-v1)·(p2-p1)/(v2-v1);
(6)请参阅图12,若平面E的法向量为经过点A(x0,y0,z0)的平面方程式为a(x-x0)+b(y-y0)+c(z-z0)=0,即满足此方程式上的点P(x,y,z)落在此平面上,并满足有了法向量与点坐标,则可以进行三角面的连接。
(7)拼接点云数据可以生成三角网格表面。
S8,将雕刻标的的网格状原始模型文件转换得到3D格式文件。
其中,将网格状原始模型文件传递至数据处理中心,数据处理中心用于通过深度神经网络得出的AI算法将网格状原始模型文件转化为根据客户选择的订制风格的模型文件;
请参见图13,在一实施例中,将雕刻标的的网格状原始模型文件转换得到3D格式文件的步骤,包括:
S81,将网格状原始模型文件传递至数据处理中心,数据处理中心用于通过深度神经网络得出的AI算法将网格状原始模型文件转化为根据客户选择的订制风格的模型文件。
S82,将订制风格的模型文件转换得到3D格式文件。
其中,可使用UG,PROE等CAD软件对订制风格的模型文件进行处理,转化成例如为.stp格式,.igs格式,._xt格式,.dwg格式的3D格式文件。
其中,请参见图14,该深度神经网络得出的AI算法的步骤,包括:
S83,采集各个不同风格雕刻工艺品的深度图像并计算出其相应的3D点云数据。
其中获得3D点云数据的步骤包括:
1.使用结构光相机直接扫描雕刻工艺品的表面,直接成像建模,精度不高但速度快;
2.使用表面覆模或者油泥,硅胶拓印技术,将作品原本凹面转化凸面,然后用线阵相机进行拍照,完整采集360度旋转的三维雕刻工艺品的表面深度信息,然后在计算机中合成3D模型;
3.使用接触式探针技术全面扫描工艺品的表面坐标,记录并合成3D数据模型,训练分析采集的3D数据中的拐点,曲线曲率等大师工艺品包含的数据特征。
S84,将采集到的3D点云数据分别使用CAD工程软件处理,生成对应的闭合完整的雕刻品3D曲面。
S85,分别对雕刻品3D曲面进行轮廓特征处理,提取出细节雕刻特征,以形成各种不同雕刻风格特征数据库;
S86,使用VGG深度神经网络作为模型对各种不同雕刻风格特征数据库进行训练,藉由倒传递算法调整神经网络的参数,以得出AI算法。
其中如图15所示,图15中的左侧为网格状原始模型文件,中间和右侧为转化后的模型文件。
其中,请参见图16,AI算法通过VGG深度神经网络进行风格特征提取,其结构简单,但包含权重的数目庞大,具有强大的拟合能力,也能够提取出关键特征。请参阅图17,为了找到风格,通过将特征图乘以其转置来捕获相关性,从而生成格拉姆矩阵(Gram Matrix),通过该格拉姆矩阵来标识图像的风格。AI算法的形成过程为:将原始图像输入AI算法中得到生成图像,假设在某一层中输出图像m、风格图像xs及内容图像mc各自对应的特征图分别为fs(m)、fs(xs)、fs(mc)。该AI算法在训练的过程中采用总损失函数,具体为总损失函数包括内容损失函数(content loss)、风格损失函数(style loss)和平滑损失函数。
具体的,内容损失函数LC主要目的为使产生出来的参考风格模型与原本的模型外观型态尽可能的接近,也即原始图像与生成图像尽可能的接近。内容损失函数LC为:
获取输出特征图的格拉姆矩阵和风格特征图的格拉姆矩阵,通过这两个格拉姆矩阵计算风格损失,风格损失函数为:
表示可见点为非空集合的三维网络m的输出图像,表示输出图像对应的特征图,fs(xs)表示风格图像xs对应的特征图,M(x)为格拉姆矩阵(GramMatrix),格拉姆矩阵将CNN中的每个特征映射拉成一维向量,让这层的特征映射(featuremaps)成为一个二维矩阵,并把这个矩阵乘上自己的转置,得到格拉姆矩阵,矩阵里面的每个元素都代表两个特征映射间的相关性,可进一步得知特征关系,表示整个图像的风格。
平滑损失函数Lt的目的为使得产生更平滑的风格图,方法为找邻近的点调整为相近的颜色。平滑损失函数Lt为:
其中,P为风格图像中的像素点集合,pa,pb为集合P中任意两个相邻的像素。
总损失函数为:
L=λcLc+λsLs+λtLt;
其中,λc、λs和λt为超参数,分别作为不同损失函数的权重。
使用VGG深度神经网络作为模型进行训练,通过倒传递算法调整神经网络的参数,使得总损失最小,即VGG深度神经网络生成的结果与实际的结果差值最小,网络则训练完成,得到AI算法。
S9,将所述3D格式文件传送到CAD/CAM系统,并选择匹配对应的刀具,进而生成CNC加工装置的NC加工指令,基于所述NC加工指令,控制所述CNC加工装置使用所述刀具对胚料进行切削雕刻。
在一实施例中,雕刻标的为人脸,轮廓深度图包含五官的轮廓特征,纹理细节深度图包含人脸面部上皱纹的纹理特征,数据处理中心包括一雕刻风格模式数据库,用于提供用户从中选取雕刻风格模式数据,雕刻风格模式数据包括面部三维数据、雕刻风格数据、面部特征数据。
在一实施例中,基于胚料材质和用户所选取的雕刻风格模式数据,匹配选择具有相应刃径的刀具。
其中,不同的笔划雕刻效果,需要用到不同大小、不同端面设计的特殊刀具,最终达成用户可以接受的细节特征效果。
其中,雕刻风格模式数据包括例如粗细,笔画效果及凹凸空间,将雕刻风格模式数据传输至CAD/CAM系统,CAD/CAM系统与刀具系统电连接,刀具系统包括刀具的材质信息和刀具信息表,请参见图18,CAD/CAM系统的刀具参数与刀具信息表中的刀具参数相对应,上面的图为刀具参数图,下面的图为刀具信息表,刀具信息表根据不同系列的雕刻产品而定,CAD/CAM系统根据雕刻风格模式数据,从刀具信息表逐级匹配不同刃径、刃长等参数刀具。
其中,可预先选取胚料的材质,然后再根据雕刻风格模式数据从刀具信息表中选取不同刃径的刀具。在本实施例中,胚料为橄榄核,可先选取能够对果核进行加工的刀具,然后再根据雕刻风格模式数据从能够对果核加工的刀具中匹配不同刃径的刀具。
在一实施例中,基于纹理细节深度图的纹理细节的细腻程度确定纹理区域的纹理沟槽宽度,并根据纹理沟槽宽度选择具有相应刃径和R角的刀具。
其中,3D模型,脸部、毛发等有凹凸、深浅、粗密等复杂特征,关键轮廓和脸部/毛发深度特征,构成了面部整体特征,线条曲率、深度对刀具刃径、刃口R角均有直接影响。
如图19所示,为纹路的加工顺序,从整体轮廓、形状识别特征至表情特征。如图20所示,以人面部雕刻为例,纹路的切削雕刻以外形到五观逐步生成:头部整体轮廓→发型等形状识别特征→五观等控制表情特征。
其中头发刻画上可较为粗糙(纹理间距大),眉毛部位则需要细腻(纹理间距密),因此可定义细腻界限,如相邻两道雕刻纹路之间距离小于0.02%整个脸部轮廓宽的长度,同时纹理沟槽宽度小于0.1mm时,定义为细腻,根据细腻程度可确定纹理区域的纹理沟槽宽度。
其中,CAD/CAM系统在刀具选择时,可对小口径刀具进行放大处理,即,所选择的刀具的刃径至少两倍于所述纹理沟槽宽度,以使得纹理沟槽更加平滑/圆润,例如图21和图22,对于眼睛位置的处理,选取的刀具刃径为纹理沟槽宽度的两倍,图22中的左图为刀具刃径为纹理沟槽宽度的两倍,图22中的右图为刀具刃径与纹理沟槽宽度相等,相对于右图中的刀具刃径,左图中的刀具可在平滑过渡的同时,还能大大提升加工效率,同时刃径较大的刀具,刚性更佳,寿命得到有效的保证。
在一实施例中,基于用户所选取的雕刻风格模式数据中的面部特征数据,匹配选取相应形状的胚料。
在一些实施例中,请参见图23,该生成NC加工指令的步骤,包括:
S91,基于客户选择的订制风格的模型文件,对刀具的加工过程进行仿真处理,以确定刀具的加工路径。
其中,在选取刀具后,CAD/CAM系统可根据客户选择的订制风格的模型文件进行仿真处理,也即模拟加工,并预览效果,能够防止工艺程序出错并提高加工精度,改善成品效果,以及优化加工路径,最终获得加工精度较高,成品效果较佳的刀具的加工路径。
S92,基于确定后的刀具的加工路径,得到相应的NC加工指令。
其中,CAD/CAM系统可根据确定后的刀具的加工路径,得到相应的NC加工指令。
在一实施例中,请参见图24,左一为客户选择的订制风格的模型文件,对于雕刻标的的面部加工,可采用沿五官特征进行三维仿形加工(左四),即X-Y-Z轴均沿五官仿形方式移动,而现有技术中常采用等距X-Y轴直线铣削(如左二,Z轴沿面起伏)或等距回形螺旋铣削(如左三,X-Y轴等距回旋,Z轴沿面起伏),相对于现有的加工方式,本案结合五官特征的雕刻轮廓,形成五官特征曲线等扩张,从而强化了脸部雕刻纹理。
其中,正常情况下,刀具放置在刀具库中,刀具的例如T1\T2\T3…Tn刀号,与刀具信息表中的刀号一一对应。刀具的加工装置的加工室内安装有激光非接触式对刀仪,激光非接触式对刀仪与刀具系统电连接,可在刀具高速旋转时在线监测刀具的边缘完整度,边缘完整度包括但不限于是刀具的做大外径、长度、动平衡。在每把刀具完成相应的加工指令,切换至下一款刀具之前,可对刀具进行检测,从而对刀具的磨损状况进行评估。
请参见图25,在一实施例中,该控制加工装置通过刀具对胚料进行雕刻的步骤,还包括:
S101,获取雕刻后的一刀具的磨损值。
其中,磨损值可为刀具的刃径。
其中,请参见图26,通过激光非接触式对刀仪20对刀具10进行探测,获取刀具10的磨损值。
可以理解的,不同刀具10的磨损值不同。
S102,判断刀具10的磨损值是符合预设标准。
其中,可通过终端计算机30判断刀具的磨损值是符合预设标准。预设标准从图27中的刀具系统运行参数表中获取,例如,D2端刀的新刀刃径为D1.98,刀具的最大磨损值为D1.95。
S103,若为是,则对刀具的加工参数进行相应补正。
其中,当符合标准时,终端计算机30将刀具10的磨损值和刀具10的标准值进行比对,核对偏差值,并将偏差值传输至补正系统40,补正系统40根据偏差值对刀具10的加工参数进行相应的补正。
其中,标准值是刀具10装夹后,新刀具10(未使用状态)的初始性能参数,该数值作为刀具10的磨损对照标准值;偏差值则是加工后(磨损后)刀具10所检测的数值与标准值之差。
例如,当刀具10的磨损值与预设标准之间的偏差值小于等于0.1mm时,根据偏差值对刀具10的加工参数进行相应的补正。
其中,磨损值也可为两个,例如,T2刀号的刀具10的磨损值与标准值的差距为刀径差距-0.008,刀长差距-0.01,其仍小于偏差值(刀径为0.05,刀长为0.1),此时,输出主轴X/Z向的补正数值,如T2刀号的刀补为X方向0.008,Z方向0.01,并传输至加工装置50完成补正。
S104,若为否,则发出报警信息。
其中,当不符合标准时,终端计算机30向加工装置50发出报警信息后可及时更换刀具10,使得刀具10的加工过程更为稳定,雕刻细腻,流线流畅。例如,当刀具的磨损值与预设标准之间的偏差值大于等于0.1mm时,机台报警,提醒下机更换刀具。
请参见图28,本申请的实施例还提出了一种在胚料上雕刻出雕刻标的3D表面的系统,包括立体相机60、计算机80、数据处理中心90及CNC加工装置50。
立体相机60用于采集雕刻标的70的3D表面的双目图像。
计算机80用于根据采集的双目图像计算出雕刻标的70的3D表面的轮廓深度图,和利用亮度立体视觉测量技术,计算出雕刻标的70的3D表面的纹理细节深度图,该计算机80进一步用于:基于所述轮廓深度图和纹理细节深度图,分别计算得到轮廓点云数据和纹理细节点云数据;匹配所述轮廓点云数据和所述纹理细节点云数据,并在匹配后进行拼接,合成得到具有八叉树结构的拼接点云数据;计算所述拼接点云数据中每个点的曲面法线,得到潜在曲面;标定所述拼接点云数据中的每个点,以确定所述每个点与所述潜在曲面的位置;基于标定后的所述拼接点云数据,提取三维网格表面,形成雕刻标的的网格状原始模型文件。
数据处理中心90用于接收计算机80传送来的雕刻标的70的网格状原始模型文件,数据处理中心90进一步用于通过深度神经网络得出的AI算法将雕刻标的的网格状原始模型文件转化为根据客户选择的订制风格模型文件,并将所述客户选择的订制风格模型文件传送回计算机80。
CNC加工装置50与计算机80相连。
其中,计算机80进一步用于将订制风格模型文件转换得到3D格式文件,并将所述3D格式文件,结合所选择匹配的刀具,生成CNC加工装置50的NC加工指令,CNC加工装置50用于基于NC加工指令,使用选择刀具对胚料进行切削雕刻。
在一些实施例中,该系统还包括一机械手110,在切削雕刻获得雕刻品100后,机械手110可移取雕刻品100并将其放置于预设位置。
在一些实施例中,数据处理中心90可分别为多个相连接的CNC加工装置50提供模型文件转换,即将多个网格状原始模型文件转化为相应的根据客户选择的订制风格模型文件。
本申请通过收集点云数据并进行拼接融合,生成闭合完整的人脸头像模型,通过匹配对应刀具,可模拟雕刻刀路,生成加工代码并输送至数控加工中心,同时可从手工雕刻品中学习大师手法,大大接近纯手工雕刻技法,再及时监控刀具状况,及时进行加工参数补正,使得雕刻过程更加稳定,雕刻纹理细腻、线条流畅,高度定制化的工艺品,造就了其唯一性,大大增加了雕刻品的趣味性及收藏价值。
最后应说明的是,以上实施例仅用以说明本申请的技术方案而非限制,尽管参照较佳实施例对本申请进行了详细说明,本领域的普通技术人员应当理解,可以对本申请的技术方案进行修改或等同替换,而不脱离本申请技术方案的精神和范围。
Claims (17)
1.一种在胚料上雕刻出雕刻标的3D表面的方法,其特征在于,包括:
使用立体相机采集雕刻标的3D表面的双目图像,并计算出雕刻标的3D表面的轮廓深度图,所述轮廓深度图为人面部轮廓的深度信息;
使用亮度立体视觉测量技术,计算获得雕刻标的3D表面的纹理细节深度图,所述纹理细节深度图为人面部细节的深度信息;
基于所述轮廓深度图和纹理细节深度图,分别计算得到轮廓点云数据和纹理细节点云数据;
匹配所述轮廓点云数据和所述纹理细节点云数据,并在匹配后进行拼接,合成得到具有八叉树结构的拼接点云数据;
计算所述拼接点云数据中每个点的曲面法线,得到潜在曲面;
标定所述拼接点云数据中的每个点,以确定所述每个点与所述潜在曲面的位置;
基于标定后的所述拼接点云数据,提取三维网格表面,形成雕刻标的的网格状原始模型文件;
将所述网格状原始模型文件转换得到3D格式文件;
将所述3D格式文件传送到CAD/CAM系统,并选择匹配对应的刀具,进而生成CNC加工装置的NC加工指令,基于所述NC加工指令,控制所述CNC加工装置使用所述刀具对胚料进行切削雕刻;
通过激光非接触式对刀仪对所述刀具进行探测,获取所述刀具的磨损值,其中不同所述刀具的磨损值不同;
通过终端计算机判断所述刀具的磨损值是符合预设标准;
当符合标准时,终端计算机将所述刀具的磨损值和标准值进行比对,其中所述标准值是所述刀具装夹后的初始性能参数,从而得到偏差值,其中所述偏差值是所述刀具的磨损值和所述标准值之差,并将所述偏差值传输至补正系统,所述补正系统根据所述偏差值对所述刀具的加工参数进行相应的补正;
当不符合标准时,所述终端计算机向所述CNC加工装置发出报警信息并及时更换所述刀具。
2.如权利要求1所述的方法,其特征在于,所述方法进一步包括:
将所述网格状原始模型文件传递至数据处理中心,所述数据处理中心用于通过深度神经网络得出的AI算法将所述网格状原始模型文件转化为根据客户选择的订制风格的模型文件;
将所述订制风格的模型文件转换得到所述3D格式文件,并继续执行后续加工步骤。
3.如权利要求2所述的方法,其特征在于,所述深度神经网络得出的AI算法的步骤包括:
采集各个不同风格雕刻工艺品的深度图像并计算出其相应的3D点云数据;
将采集到的3D点云数据分别使用CAD工程软件处理,生成对应的闭合完整的雕刻品3D曲面;
分别对所述雕刻品3D曲面进行轮廓特征处理,提取出细节雕刻特征,以形成各种不同雕刻风格特征数据库;和
使用VGG深度神经网络作为模型对所述各种不同雕刻风格特征数据库进行训练,藉由倒传递算法调整神经网络的参数,以得出所述AI算法。
4.如权利要求1所述的方法,其特征在于,所述计算出雕刻标的3D表面的轮廓深度图的步骤,包括:
基于所述双目图像,对所述立体相机进行标定,得到所述立体相机的内外参数;
根据所述内外参数对所述双目图像进行校正;
对校正后的所述双目图像进行立体匹配,获得视差图;
基于所述视差图,获得所述轮廓深度图。
5.如权利要求1或4所述的方法,其特征在于,所述计算得到轮廓点云数据的步骤,包括:
根据所述轮廓深度图,获得每个第一点的第一深度值;
根据所述每个第一点的第一深度值,确定每个第一点的三维坐标;
根据确定的每个第一点的三维坐标,得到轮廓点云数据。
6.如权利要求1所述的方法,其特征在于,所述获得雕刻标的3D表面的纹理细节深度图的步骤,包括:
建立一光照模型;
标定光源的方向向量,并获取所述光源光照下所述雕刻标的的图像;
基于所述光照模型、所述光源的方向向量及所述雕刻标的的图像,计算得到所述雕刻标的的表面法向量;
基于所述雕刻标的的表面法向量,计算得到所述纹理细节深度图。
7.如权利要求1或6所述的方法,其特征在于,所述计算得到纹理细节点云数据的步骤,包括:
根据所述纹理细节深度图,获得每个第二点的第二深度值;
根据所述每个第二点的第二深度值,确定每个第二点的三维坐标;
根据确定的每个第二点的三维坐标,得到纹理细节点云数据。
8.如权利要求1所述的方法,其特征在于,所述匹配所述轮廓点云数据和所述纹理细节点云数据,并在匹配后进行拼接,合成得到具有八叉树结构的拼接点云数据的步骤,包括:
通过运动恢复结构算法对所述轮廓点云数据和所述纹理细节点云数据进行匹配;
通过迭代最近点算法对匹配后的所述轮廓点云数据和所述纹理细节点云数据进行拼接,合成得到具有八叉树结构的拼接点云数据。
9.如权利要求8所述的方法,其特征在于,所述通过迭代最近点算法对匹配后的所述轮廓点云数据和所述纹理细节点云数据进行拼接,合成得到拼接点云数据的步骤,包括:
在所述轮廓点云数据中选取第一点集;
找出所述纹理细节点云数据中的与所述第一点集中的第一点距离最小的第二点,并形成第二点集;
基于所述第一点集和所述第二点集,计算旋转矩阵和平移矩阵,使得误差函数最小;
基于所述旋转矩阵和所述平移矩阵,对所述第一点集中的第一点进行旋转和平移变换,得到第三点集;
计算所述第二点集和所述第三点集的平均距离;
判断平均距离是否小于预设距离阈值或大于预设的最大迭代次数;
若为是,则停止迭代,获得所述拼接点云数据;
若为否,则继续找出所述纹理细节点云数据中的与所述第一点集中的第一点距离最小的第二点,并形成第二点集,直到满足收敛条件为止。
10.如权利要求2所述的方法,其特征在于,所述雕刻标的为人脸,所述轮廓深度图包含五官的轮廓特征,所述纹理细节深度图包含人脸面部上皱纹的纹理特征,所述数据处理中心包括一雕刻风格模式数据库,用于提供用户从中选取雕刻风格模式数据,所述风格模式数据包括面部三维数据、雕刻风格数据、面部特征数据。
11.如权利要求10所述的方法,其特征在于:
基于胚料材质和所述用户所选取的雕刻风格模式数据,匹配选择具有相应刃径的刀具。
12.如权利要求10所述的方法,其特征在于,
基于用户所选取的雕刻风格模式数据中的所述面部特征数据,匹配选取相应形状的胚料。
13.如权利要求10所述的方法,其特征在于,所述生成NC加工指令的步骤,包括:
基于所述客户选择的订制风格的模型文件,对所述刀具的加工过程进行仿真处理,以确定所述刀具的加工路径;
基于确定后的所述刀具的加工路径,得到相应的NC加工指令。
14.如权利要求13所述的方法,其特征在于,所述刀具加工路径为X-Y-Z轴均沿脸部五官仿形方式移动。
15.如权利要求14所述的方法,其特征在于,基于所述纹理细节深度图的纹理细节的细腻程度确定纹理区域的纹理沟槽宽度,并根据所述纹理沟槽宽度选择具有相应刃径和R角的刀具。
16.如权利要求15所述的方法,其特征在于,所选择的刀具的刃径至少两倍于所述纹理沟槽宽度。
17.一种在胚料上雕刻出雕刻标的3D表面的系统,包括:
一立体相机,用于采集雕刻标的3D表面的双目图像,
一计算机,用于根据采集的双目图像计算出雕刻标的3D表面的轮廓深度图,所述轮廓深度图为人面部轮廓的深度信息,和利用亮度立体视觉测量技术,计算出雕刻标的3D表面的纹理细节深度图,所述纹理细节深度图为人面部细节的深度信息,所述计算机进一步用于:
基于所述轮廓深度图和纹理细节深度图,分别计算得到轮廓点云数据和纹理细节点云数据;
匹配所述轮廓点云数据和所述纹理细节点云数据,并在匹配后进行拼接,
合成得到具有八叉树结构的拼接点云数据;
计算所述拼接点云数据中每个点的曲面法线,得到潜在曲面;
标定所述拼接点云数据中的每个点,以确定所述每个点与所述潜在曲面的位置;
基于标定后的所述拼接点云数据,提取三维网格表面,形成雕刻标的的网格状原始模型文件;
一数据处理中心,用于接收计算机传送来的雕刻标的的网格状原始模型文件,所述数据处理中心进一步用于通过深度神经网络得出的AI算法将雕刻标的的网格状原始模型文件转化为根据客户选择的订制风格模型文件,并将所述客户选择的订制风格模型文件传送回所述计算机;
一CNC加工装置,与所述计算机相连,
其中,所述计算机进一步用于将所述订制风格模型文件转换得到3D格式文件,并将所述3D格式文件,结合所选择匹配的刀具,生成所述CNC加工装置的NC加工指令,所述CNC加工装置用于基于所述NC加工指令,使用所述选择刀具对胚料进行切削雕刻;
一激光非接触式对刀仪,用于对所述刀具进行探测,获取所述刀具的磨损值,其中不同所述刀具的磨损值不同;
一终端计算机,与所述激光非接触式对刀仪相连,用于判断所述刀具的磨损值是符合预设标准,
在符合标准时,所述终端计算机将所述刀具的磨损值和标准值进行比对,其中所述标准值是所述刀具装夹后的初始性能参数,从而得到偏差值,其中所述偏差值是所述刀具的磨损值和所述标准值之差,并将所述偏差值传输至补正系统,所述补正系统根据所述偏差值对所述刀具的加工参数进行相应的补正,
在当不符合标准时,所述终端计算机向所述CNC加工装置发出报警信息并及时更换所述刀具。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111274319.XA CN114169022B (zh) | 2021-10-29 | 2021-10-29 | 在胚料上雕刻出雕刻标的3d表面的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111274319.XA CN114169022B (zh) | 2021-10-29 | 2021-10-29 | 在胚料上雕刻出雕刻标的3d表面的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114169022A CN114169022A (zh) | 2022-03-11 |
CN114169022B true CN114169022B (zh) | 2023-05-19 |
Family
ID=80477515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111274319.XA Active CN114169022B (zh) | 2021-10-29 | 2021-10-29 | 在胚料上雕刻出雕刻标的3d表面的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114169022B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116993923B (zh) * | 2023-09-22 | 2023-12-26 | 长沙能川信息科技有限公司 | 换流站三维模型制作方法、系统、计算机设备和存储介质 |
CN117047286B (zh) * | 2023-10-09 | 2024-01-16 | 东莞市富明钮扣有限公司 | 一种激光加工工件表面的方法、加工系统、处理器和存储介质 |
CN117476509B (zh) * | 2023-12-27 | 2024-03-19 | 联合富士半导体有限公司 | 一种用于半导体芯片产品的激光雕刻装置及控制方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108541322B (zh) * | 2016-08-29 | 2021-09-14 | 北京清影机器视觉技术有限公司 | 三维视觉测量数据的处理方法和装置 |
CN107767442B (zh) * | 2017-10-16 | 2020-12-25 | 浙江工业大学 | 一种基于Kinect和双目视觉的脚型三维重建与测量方法 |
CN110363858B (zh) * | 2019-06-18 | 2022-07-01 | 新拓三维技术(深圳)有限公司 | 一种三维人脸重建方法及系统 |
CN112242004B (zh) * | 2019-07-16 | 2023-09-01 | 华中科技大学 | 一种基于光照渲染的ar场景的虚拟雕刻方法及系统 |
CN111210520A (zh) * | 2019-12-30 | 2020-05-29 | 上海灿态智能科技有限公司 | 一种用于实物模型的逆向成形方法及系统 |
-
2021
- 2021-10-29 CN CN202111274319.XA patent/CN114169022B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN114169022A (zh) | 2022-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114169022B (zh) | 在胚料上雕刻出雕刻标的3d表面的方法及系统 | |
CN107408315B (zh) | 用于实时、物理准确且逼真的眼镜试戴的流程和方法 | |
CN108038905B (zh) | 一种基于超像素的目标重建方法 | |
CN109859305B (zh) | 基于多角度二维人脸的三维人脸建模、识别方法及装置 | |
US10762704B2 (en) | Method for establishing a deformable 3D model of an element, and associated system | |
CN103366400B (zh) | 一种三维头像自动生成方法 | |
CN109035388A (zh) | 三维人脸模型重建方法及装置 | |
US20080309662A1 (en) | Example Based 3D Reconstruction | |
CN107924579A (zh) | 生成个性化3d头部模型或3d身体模型的方法 | |
CN106652015B (zh) | 一种虚拟人物头像生成方法及装置 | |
Cross et al. | Surface reconstruction from multiple views using apparent contours and surface texture | |
WO2006049147A1 (ja) | 三次元形状推定システム及び画像生成システム | |
CN106652037B (zh) | 一种人脸贴图处理方法及装置 | |
CN106127818B (zh) | 一种基于单幅图像的材质外观获取系统及方法 | |
CN111127642A (zh) | 一种人脸三维重建方法 | |
Pound et al. | A patch-based approach to 3D plant shoot phenotyping | |
CN106447763A (zh) | 一种融合稀疏形变模型与主成分回归算法的颜面照片三维重建方法 | |
CN113628327A (zh) | 一种头部三维重建方法及设备 | |
CN112862736B (zh) | 一种基于点的实时三维重建与优化方法 | |
Fua et al. | Animated heads from ordinary images: A least-squares approach | |
Achenbach et al. | Accurate Face Reconstruction through Anisotropic Fitting and Eye Correction. | |
Ling et al. | Shadowneus: Neural sdf reconstruction by shadow ray supervision | |
CN114663574A (zh) | 基于单视角照片的三维人脸自动建模方法、系统及装置 | |
Gong | Application and Practice of Artificial Intelligence Technology in Interior Design | |
CN115471632A (zh) | 基于3d扫描的真实人体模型重建方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address | ||
CP03 | Change of name, title or address |
Address after: 518109, 1st Floor, Building B3, Foxconn Industrial Park, No. 2 East Ring 2nd Road, Fukang Community, Longhua Street, Longhua District, Shenzhen City, Guangdong Province Patentee after: Shenzhen Fulian Jingjiang Technology Co.,Ltd. Address before: 518109 Zone A and Zone 1 of Foxconn Science Park Zone D1 Plastic Mould Factory, No.2 East Ring Road, Longhua Street, Longhua District, Shenzhen City, Guangdong Province Patentee before: SHENZHEN JINGJIANG YUNCHUANG TECHNOLOGY Co.,Ltd. |