CN105513054A - 基于三维扫描的拓印方法 - Google Patents
基于三维扫描的拓印方法 Download PDFInfo
- Publication number
- CN105513054A CN105513054A CN201510845616.3A CN201510845616A CN105513054A CN 105513054 A CN105513054 A CN 105513054A CN 201510845616 A CN201510845616 A CN 201510845616A CN 105513054 A CN105513054 A CN 105513054A
- Authority
- CN
- China
- Prior art keywords
- data
- dimensional
- point
- dimensional matrix
- rubbing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 239000011159 matrix material Substances 0.000 claims abstract description 109
- 238000013507 mapping Methods 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 27
- 230000007547 defect Effects 0.000 claims description 13
- 238000007781 pre-processing Methods 0.000 claims description 3
- 239000013598 vector Substances 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 230000009466 transformation Effects 0.000 description 7
- 238000001914 filtration Methods 0.000 description 6
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000005192 partition Methods 0.000 description 3
- 239000004575 stone Substances 0.000 description 3
- 238000009827 uniform distribution Methods 0.000 description 3
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000005299 abrasion Methods 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005336 cracking Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000007598 dipping method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/768—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/28—Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet
- G06V30/287—Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet of Kanji, Hiragana or Katakana characters
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于三维扫描的拓印方法,所述方法包括以下步骤:S1、利用三维扫描仪采集的点云数据;S2、对所述步骤S1得到的数据进行处理,消除所述步骤S1采集得到的底面,得到三维的基准平面数据;S3、利用所述步骤S2得到的所述基准平面数据构造二维矩阵,所述二维矩阵用于存贮所述基准平面数据中的数据,其中所述二维矩阵中的每一个像素代表一个数据;S4、将所述步骤S2中得到的基准平面数据的空间深度信息映射到所述二维矩阵中。本发明利用扫描数据特点计算制成数字拓印图片,能够提取字模根部文字的轮廓信息,将三维数据还原为二维字帖。避免了因人工干预带来结果的误差;并且,在不降低精度的前提下,两分钟左右处理500万点数据。
Description
技术领域
本发明属于书法拓印领域,更具体涉及一种基于三维扫描的拓印方法。
背景技术
书法传承是中华文化的一个重要分支,也是大部分文物古迹包含的一项重要内容。书法的历史传承主要以帖学和碑学的方式体现,钟鼎文书法既是一个独立的分支,也可以归类为碑学的范畴。古代书法作品,保存完好的几乎都是存在于石碑上的佳作。碑学体现的书法传承,需要拓印之后才好供书法家和初学者临摹。传统拓印一般流程是把一张坚韧的薄纸事先浸湿,再敷在石碑上面,用刷子轻轻敲打,使纸入字口,待纸张干燥后用刷子蘸墨,轻轻地、均匀地拍刷,使墨均匀地涂布纸上,然后把纸揭下来,一张黑地白字的拓片就复制完成了,这种复制文字的方法,称之为"拓印"。它是将石刻或木刻文字,用纸、墨拍印出来,以便保存和传播的工艺方法。传统拓印从制作工艺上看,需要在钟碑刻上涂抹化学材料,并进行敲打等工序,对钟碑刻造成不同程度的磨损和破坏;从技术特点上看,阴文拓印可以直接拓印,而阳文拓印需要翻模后再拓印,制作复杂且效果比阴文拓印次很多。那些堪称国宝的法碑经岁月的侵蚀和累次的拓印,均遭到不同程度的损毁。因此在当代,优秀的碑帖几乎都是古人的拓本。利用数字技术保存和重构古代碑帖和钟鼎书法成为必然选择。
现有技术中,数字拓印是利用相机等采集设备进行图像采集,采集的原始数据通过一定经验的图像处理工程师利用专门的图像处理软件(例如Photoshop)将文字的部分提出并加工,进行分割文字,提取轮廓和填充等手工的操作进行加工生产。上述处理方法利用照片进行处理,需要克服光线、镜头畸变等客观因素带来的误差前提下,经过专业的美工人员进行扣字处理,不但效率低下,而且在处理过程中难免会带来人为误差从而偏离原始作品的外形。
另外,现有技术中存在利用三维扫描数据进行修理的方法,单数这种方法中由于专业的三维处理软件在处理钟碑刻点云这种数据量大、表面造型复杂的模型上能力大显不足,因此需要工程师具有足够的经验,并且会占用过大的计算资源;另外,工作制作结果上看,由于对人工依赖大,不同人不同时间对同一个字处理结果完全不一样;从处理效率上看,即使是熟练的技术人员一天也只能处理十几个字,效率低下。
发明内容
本发明要解决的技术问题是如何对三维扫描仪采集的图像数据进行自动、快速、精确处理,将文字映射到平面上,形成文字拓印的图片。
为了解决上述技术问题,本发明提供了一种基于三维扫描的拓印方法,其特征在于,所述方法包括以下步骤:
S1、利用三维扫描仪采集点云数据,之后进行预处理形成文字拓印图像;
S2、对所述步骤S1得到的图像进行处理,消除所述步骤S1采集得到的文字图像的底面,实现将步骤S1中的所述文字图像上的数据映射到拓印基准面上;S3、利用所述步骤S2得到的所述拓印基准面上的数据构造二维矩阵,所述二维矩阵用于存贮所述基准平面上的数据,其中所述二维矩阵中的每一个像素代表一个数据;
S4、将所述步骤S2中得到的拓印基准面上的数据的空间深度信息映射到所述二维矩阵中。
优选地,所述步骤S1中,所述三维扫描仪按照预定行数和预定列数进行扫描,每一次扫描得到的信息形成一个所述二维矩阵。
优选地,所述步骤S3具体包括以下几个步骤:
S31、在所述基准面的数据中找到最下面的扫描点、最上面的扫描点、最左面的扫描点以及最右面的扫描点,并以四个扫描点作为顶点形成四边形;
S32、以所述四边形的底边作为一条边,以最上面的扫描点和最右面的扫描点作为顶点形成一个矩形;
利用所述矩形对对应的所述基准平面上的数据进行剪裁,去掉所述矩形之外的数据点;
S33、计算所述二维矩阵的宽度和高度;其中所述宽度为所述矩形内基准平面上的数据的列数,所述高度为所述矩形内基准平面上的数据的行数;
S34、对于所述矩形内每一个像素,根据其三维坐标确定其在所述二维矩阵中的行和列,并建立其深度信息与其在所述二维矩阵中位置的映射关系。
优选地,所述步骤S34中对于所述二维矩形内每一个像素,其在所述二维矩阵中的行、列以及所述映射关系利用下面公式计算:
D(i,j)=z'm
m=1,...,numpoint
式中,i表示行,j表示列,D(i,j)=zm为所述映射关系,m为所述矩形内数据总个数,(xm,ym,zm)为点云数据的坐标,(i,j)为数据在所述拓印基准面上的位置坐标。
优选地,所述步骤S33还包括确定列数的子步骤,具体为:
对于所述矩形内两个相邻的数据点,计算其在X方向上的距离是否大于列距离阈值,若是则所述两个相邻的数据点为两列。
优选地,所述步骤S3之后还包括去除所述二维矩阵中空缺点步骤:
以所述空缺点为中心,计算其周边多个数据点的深度值,并以计算得到的多个深度值的平均值作为所述空缺点的深度值。
优选地,所述步骤S4具体包括以下步骤:
S41、利用所述三维扫描仪采集数据,之后形成文字图像,经过曲面拟合得到近似曲面,将所述近似曲面上浮预定距离形成所述拓印基准面;
S42、判断所述拓印基准面数据中的每个数据点位于所述拓印基准面的上侧或是下侧;
S43、计算所有位于所述拓印基准面上侧的数据点离所述拓印基准面的第一平均距离;
S43、计算所有位于所述拓印基准面下侧的数据点离所述拓印基准面的第二平均距离;
S44、计算所述第一平均距离和所述第二平均距离差值作为高度阈值;
S45、根据所述二维矩阵中每一个数据点的深度信息以及所述高度阈值确定所述二维矩阵中每一个数据点的相对高度;
S46,对于所述二维矩阵中每一个数据点,根据其相对高度确定其灰度值。
优选地,所述步骤S45中利用如下公式计算相对高度
式中,Zi表示对应数据点的深度信息,Hmin表示第二平均距离;ΔH表示所述高度阈值。
所述步骤S46中,利用如下公式计算数据点的灰度值:
RGBi=(1-hi)*Brgb+hi*Frgb
式中,hi表示对应数据点的高度,Brgb表示所述二维矩阵中最低数据点对应的数据点的灰度值,Frgb表示所述二维矩阵中最高数据点对应的数据点的灰度值。
优选地,所述方法还包括以下步骤:
将所述二维矩阵中最高数据点对应的数据点的灰度值作为前景色,将所述二维矩阵中最低数据点对应的数据点的灰度值作为背景色。
本发明提供了一种基于三维扫描的拓印方法,本发明利用扫描数据特点计算制成数字拓印图片,能够提取字模根部文字的轮廓信息,将三维数据还原为二维字帖。避免了因人工干预带来结果的误差;并且,在不降低精度的前提下,两分钟左右处理500万点数据。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的一个较佳实施例的基于三维扫描的钟碑文拓印方法流程图;
图2为本发明中步骤S3的流程图;
图3为本发明中步骤S4的流程图;
图4为本发明中步骤S2中差值分割示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步详细描述。以下实施例用于说明本发明,但不能用来限制本发明的范围。
一种基于三维扫描的拓印方法,如图1所示,所述方法包括以下步骤:
S1、利用三维扫描仪采集点云数据,之后进行预处理形成文字拓印图像;
S2、对所述步骤S1得到的图像进行处理,消除所述步骤S1采集得到的文字图像的底面,实现将步骤S1中的所述文字图像上的数据映射到三维的拓印基准面上;
S3、利用所述步骤S2得到的所述拓印基准面上的数据构造二维矩阵,所述二维矩阵用于存贮所述基准平面上的数据,其中所述二维矩阵中的每一个像素代表一个数据;
S4、将所述步骤S2中得到的拓印基准面上的数据的空间深度信息映射到所述二维矩阵中。
上述方法利用扫描数据特点计算制成数字拓印图片,能够提取字模根部文字的轮廓信息,将三维数据还原为二维字帖,避免了因人工干预带来结果的误差;并且在不降低精度的前提下,两分钟左右处理500万点数据,提高了处理效率。
进一步地,所述步骤S4之后还包括以下步骤:
对二维矩阵中的数据进行优化处理;
对优化处理后的数据进行显示设置,之后进行文字分割和文字编辑,最后进行显示。
进一步地,所述步骤S1中,所述三维扫描仪按照预定行数和预定列数进行扫描,每一次扫描得到的信息形成一个所述二维矩阵。
进一步地,所述步骤S3具体包括以下几个步骤:
S31、在所述基准面的数据中找到最下面的扫描点、最上面的扫描点、最左面的扫描点以及最右面的扫描点,并以四个扫描点作为顶点形成四边形;
S32、以所述四边形的底边作为一条边,以最上面的扫描点和最右面的扫描点作为顶点形成一个矩形;
利用所述矩形对对应的所述基准平面上的数据进行剪裁,去掉所述矩形之外的数据点;
S33、计算所述二维矩阵的宽度和高度;其中所述宽度为所述矩形内基准平面上的数据的列数,所述高度为所述矩形内基准平面上的数据的行数;
S34、对于所述矩形内每一个像素,根据其三维坐标确定其在所述二维矩阵中的行和列,并建立其深度信息与其在所述二维矩阵中位置的映射关系。
所述步骤S34中对于所述二维矩形内每一个像素,其在所述二维矩阵中的行、列以及所述映射关系利用下面公式计算:
D(i,j)=z'm
m=1,...,numpoint
式中,i表示行,j表示列,D(i,j)=zm为所述映射关系,m为所述矩形内数据总个数,(i,j)为数据在所述近似投影平面上的位置坐标。
所述步骤S33还包括确定列数的子步骤,具体为:
对于所述矩形内两个相邻的数据点,计算其在X方向上的距离是否大于列距离阈值,若是则所述两个相邻的数据点为两列。
所述步骤S3之后还包括去除所述二维矩阵中空缺点步骤:
以所述空缺点为中心,计算其周边多个数据点的深度值,并以计算得到的多个深度值的平均值作为所述空缺点的深度值。
进一步地,在所述步骤S1执行之后,还需要对所述三维扫描仪采集的数据进行均匀分布处理。
进一步地,所述步骤S4具体包括以下步骤:
S41、S41、利用所述三维扫描仪采集数据,之后形成文字图像,经过曲面拟合得到近似曲面,将所述近似曲面上浮预定距离形成所述拓印基准面;
S42、判断所述拓印基准面数据中的每个数据点位于所述拓印基准面的上侧侧或是下侧;
S43、计算所有位于所述拓印基准面上侧的数据点离所述拓印基准面的第一平均距离;
S43、计算所有位于所述拓印基准面下侧的数据点离所述拓印基准面的第二平均距离;
S44、计算所述第一平均距离和所述第二平均距离差值作为高度阈值;
S45、根据所述二维矩阵中每一个数据点的深度信息计算其距离所述拓印基准面的距离,并根据所述高度阈值确定所述二维矩阵中每一个数据点的高度;
S46,对于所述二维矩阵中每一个数据点,根据其高度确定其灰度值。
所述步骤S45中利用如下公式计算高度:
式中,Zi表示对应数据点的深度信息,Hmin表示第二平均距离;ΔH表示所述高度阈值。
所述步骤S46中,利用如下公式计算数据点的灰度值:
RGBi=(1-hi)*Brgb+hi*Frgb
式中,hi表示对应数据点的高度,Brgb表示所述二维矩阵中最低数据点对应的数据点的灰度值,Frgb表示所述二维矩阵中最高数据点对应的数据点的灰度值。
所述方法还包括以下步骤:
将所述二维矩阵中最高数据点对应的数据点的灰度值作为前景色,将所述二维矩阵中最低数据点对应的数据点的灰度值作为背景色。
以下结合具体实施例进行说明。
【步骤一】三维扫描仪每次采集是按固定的行、列数量采集的,比如按M×N个采集点。这种规则排列的数据,要划分为有限个像素组成的二维矩阵(K×L),只需均匀分割一帧数据,使得每个单元内的数据量为(m=M/K、n=N/L)个即可。因此可以将一帧数据分为几个单元,每个单元建立一个二维矩阵。当然也可以一帧数据建立一个二维矩阵。其中构建二维矩阵的步骤如下:
首先根据点云数据构建广义矩形。如果全部点云数据在空间某个角度观察时表现为一个平均意义上的近似矩形形状,就可以在这个平面上构造一个包含全部数据点的(面积)最小矩形,这个矩形可以作为平面坐标外框架。构建矩形的方法是:
1)在基准平面上的数据中,依次找到最下面的点A、最右面的点B、最上面的点C和最左面的点D,建立一个四边形ABCD。
2)以AB作为矩形的一条边,以C或D作为矩形的顶点,建立一个矩形。其顶点分别是(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)。
3)利用得到的矩形对基准平面数据矩形剪裁,丢弃矩形之外的数据。
之后确定数据帧的宽度和高度,可以由基准平面数据排列形成的行数和列数确定。由于三维扫描仪是按列扫描得到的数据,因此只需要判断前后两个数据点在y方向上的距离分量是否大于预定的列距离阈值。若超过该阈值,则增加统计的列数值,否则说明这两个数据点在同一列。当所有数据点扫描完毕,则列数就是该帧基准平面数据的宽度,同时统计过程中基准平面数据具有最多数据点数那一列的点数就是该帧基准平面数据的高度。利用与上面相同的方法可以确定二维矩阵的宽度和高度。
根据计算出宽度和高度,可以建基准平面数据的空间坐标到二维矩阵下标的映射,设基准平面数据的数据点坐标为(xm,ym,z'm),二维矩阵的每个像素表示为D(i,j),共有numpoint个数据点,则坐标映射公式为:
D(i,j)=z'm
m=1,...,numpoint(1)
经过上述处理,矩阵像素的下标编号与其空间坐标一一对应。
但基准平面数据内部或边界可能有空隙,即有些矩阵像素的值是没有意义的深度值。需要进行均匀分布处理,使二维矩阵形规则排列。使用均值滤波算法进行修正。做法是以空缺点为中心,计算周边八个数据点有意义的深度值的平均值作为该点的深度值,如果周围的数据点都是空缺点,则该点也是空缺点。经过处理,得到了每一帧基准平面数据对应的二维矩阵,并且每个矩阵像素的下标编号都与数据点的空间坐标具有对应关系。
步骤一的流程图如图2所示:
S100、通过对扫描仪采集的数据进行处理得到基准平面数据,即图2中曲面拟合后的数据点云;Pi(xi,yi,zi)即为一数据点i的坐标;
S101、从这些数据中找到三维坐标中每个方向的坐标最大值和最小值(即xmin、xmax、ymin、ymax、zmin、zmax);
S102、初始化行(numRow)、列(numCol)为零,初始化点数(tot)为一;
S103、初始化二维矩阵的高度值(height)和宽(width)为零;
S104、判断此时点数tot的值是否小于或等于基准平面数据的点数numpoint,若是执行步骤S105,否则执行步骤S111;
S105、利用公式判断当前数据点是否处于另外一列,若公式成立则说明当前数据点处于另外一列,执行步骤S106,否则执行步骤S109;
此步骤中公式为:
ytot-ytot-1>(ymax-ymin)/σ
S106、列值numCol加1;
S107、判断高度值height是否小于行值numRow,若是执行步骤S108,否则执行步骤S110;
S108、将行值numRow赋值给高度值height,之后执行步骤S110;
S109、行值numRow加1;
S110、点数tot加1,之后执行步骤S104;
S111、将列值numCol赋值为宽width;
S112、利用公式初始化midv;
此步骤中公式为:
midv=zmin+δ×(zmax-zmin)
S113、利用公式初始化图像像素矩阵(即二维矩阵);
此步骤中公式为:
D(i,j)=midv(0<=i<height,0<=j<width)
S114、根据基准平面数据的坐标映射到二维矩阵中;
S115、利用滤波算法处理图像像素矩阵中的空缺像素。
图2中,δ是拓印基准面高度阈值参数,midv是图像像素矩阵初始化深度值。
【步骤二】灰度图像映射。扫描仪采集的数据在经过曲面拟合,会得到一个拓印基准面。根据拓印基准面来辨别字模位于哪一侧。当数据点的空间高度(即深度信息)高于拓印基准面的高度时,该数据点位于字模一侧,当数据点的空间高度低于拓印基准面的高度时,该数据点位于底面一侧。计算出高于拓印基准面的所有数据点的平均相对高度Hmax(z方向相对于拓印基准面的距离),以及低于拓印基准面的所有数据点的平均相对高度Hmin,则可以得到映射至平面上的空间数据点的高度值范围(即高度阈值)为:
ΔH=Hmax-Hmin(2)
根据步骤一中得到的深度信息,计算步骤一中得到的像素矩阵的每一个像素所对应的数据点具有的相对高度的公式为(假设该数据点的空间深度信息):
进行灰度图像投影时,RGB值区间内根据该相对高度计算出每个数据点具有的灰度值,将最低点采用的RGB值Brgb设为背景色,将最高点采用的RGB值Frgb设为前景色,根据公式(4)计算出每一个数据点的RGB值:
RGBi=(1-hi)*Brgb+hi*Frgb(4)
这样,对二维矩阵中的每一个像素都进行上述映射变换,就将三维数据映射形成灰度图像。
上述步骤二的算法流程图如图3所示:
S200、通过对扫描仪采集的数据进行处理得到基准平面数据,即图3中曲面拟合后的数据点云;Pi(xi,yi,zi)即为一数据点i的坐标;
S201、对扫描仪采集的数据进行曲面拟合得到拓印基准平面,其高度为hbace;
S202、根据数据点坐标(深度信息)利用公式计算第一平均距离Hmax以及第二平均距离Hmin;
S203、利用公式计算高度阀值ΔH;
S204、判断当前数据点对应的在二维矩阵中的行值i是否小于高度值height,并且大于或等于零,若是执行步骤S205;
S205、判断当前数据点对应的在二维矩阵中的列值j是否小于高度值height,并且大于或等于零,若是执行步骤S206,否则执行步骤S213;
S206、利用公式计算Drag(i,j);其中Drag(i,j)为当前数据点的相对高度;
此步骤中利用的公式为:
Drag(i,j)=(D(i,j)-Hmin)/ΔH
S207、判断Drag(i,j)是否小于或等于零,若是,执行步骤S208,否则执行步骤S209;
S208、将Drag(i,j)赋值为零;
S209、判断Drag(i,j)是否大于或等于一,若是执行步骤S210,否则执行步骤S211;
S210、将Drag(i,j)赋值为一;
S211、利用公式为Drag(i,j)赋值;
S212、当前数据点对应的在二维矩阵中的列值j加一,并执行步骤S205;
S213、当前数据点对应的在二维矩阵中的行值i加一,并执行步骤S204。
本发明利用三维扫描仪采集得到并经过底面消除算法处理后得到了书法拓印的基准平面数据,在此基础上,为了形成拓印的平面图片,构造二维矩阵来存储像素,并将三维点云数据的空间深度信息合理地映射到二维矩阵中。同时,针对原始数据中存在的空缺点,在二维矩阵中进行过滤处理。
上述方法在步骤S1之后S2之前还包括以下步骤:
映射局部坐标:根据点云分布的特征,自动求解数据的投影平面,并根据数据的排列特征映射的投影平面形成坐标索引。
上述方法在步骤S2可以为:字模底面消除,根据点云数据与拟合底面的数据关系进行算法分类,将点云分为字模部分与底面部分。
上述方法在步骤S3、S4可以为:投影平面映射,根据字模数据与底面数据的相对关系,建立字模数据深度到底面映射像素的灰度传递函数,行成数字拓片并输出。
进一步地,步骤S2包括以下步骤:
S11、将三维扫描数据通过坐标转换投影到近似投影平面上;
S12、根据所述近似投影平面上的数据形成按矩阵形式排列的数据;
将所述数据进行区域划分,并为每一个分区数据建立局部坐标系,将每个分区的数据在对应的局部坐标系进行转换;
S13、针对每一个分区,利用差值参量,根据其局部坐标系中每个数据的坐标值计算在拓印基准面上对应的坐标值,实现将所述步骤S12处理得到的数据投影到拓印基准面,完成数据分割;
S14、对所述步骤S13处理得到的所述拓印基准面上的数据投影到平面上,之后进行去噪。
下面对S2进行详细介绍:
将三维扫描数据投影到近似投影平面上:三维扫描得到的原始数据(即三维扫描数据)是一组未被表达的3D点云。需要将三维数据通过相应的坐标转换投影到一个近似投影平面上。坐标转换包括以下步骤:
设原始数据具有m个数据点,其中心点为:
式中,(xi、yi、zi)为原始点云数据的坐标。
设原始坐标系中的坐标为(x,y,z)T,变换坐标系中的坐标为(x′,y′,z′)T,转换坐标系的单位坐标矢量和原点分别为:
u=(x0,y0,z0)T
则转换后的数据坐标与原始数据空间坐标的转换关系可以表示为:
做如下定义:
u=(x0,y0,z0)T
其中,ez为近似投影平面的法向量。
若设
则转换方程为:
设近似投影平面方程为:
c1x+c2y+c3z=0(11)
则原始数据中的点到近似投影平面的距离平方和为:
对该距离平方和进行最小二乘法拟合,公式为:
整理化简得到求解的目标方程为:
使用高斯消元法求解该方程,并做归一化处理得到:c=(c1,c2,c3)T。此即为近似投影平面的法向量,也是转换坐标系的z'轴方向矢量。
考虑三维扫描仪的特性是按列扫描的,y′轴方向矢量的求解只要简单地用前N个数据计算优势方向即为y′的方向。具体做法是:
DoitoN
EndDo(17)
temp=b·c
b=b-temp×c
xi+1、xi为第i+1、i个原始数据的横坐标,利用公式i取值从1到N依次循环累计算得到b,作为b的初始值,再利用公式temp=b·c、b=b-temp×c、计算得到作为坐标矢量的b。本实施例中将b进行了单一化处理。
x′轴方向矢量可以通过已经建立的两个坐标轴方向矢量叉乘获得:
进一步归一化:
本实施例中,对坐标矢量均进行了归一化处理。至此,转换后的坐标系的单位坐标矢量和原点(x0、y0、z0)都已确定,原始数据的近似投影平面也唯一确定。根据公式(10)的坐标转换关系,可以计算出转换后的数据空间坐标。
【步骤二】在近似投影平面上建立局部坐标系。扫描得到的三维扫描数据既可以拼装成一个完整的三维立体模型,也可以进行分区域处理,重构其局部信息。一般地说,任何钟鼎碑碣都会以不同的区域铭刻不同的文字,在每一个区域的数据,可以假设处在同一个曲面或平面上。这样的曲面或平面数据量很大,大部分情况要通过多次采集才能获得区域内的全部三维信息。每次采集的数据可以称为一帧数据。在一帧数据内,采集设备是按固定的行、列数量采集的,比如M×N个采集点。这种规则排列的数据,要划分为有限个单元(K×L),只需均匀分割一帧数据,使得每个单元内的数据量为(m=M/K、n=N/L)个即可。但由【步骤一】得到的近似投影平面其内部或边界可能有空隙,需要对点云数据进行均匀分布处理,使帧数据规则排列形成严格的二维矩阵形式,并且矩阵元素的下标编号与其空间坐标一一对应。下面对具体步骤进行说明:
首先需要根据原始数据构建广义矩形。如果全部数据在空间某个角度观察时表现为一个平均意义上的近似矩形形状,就可以在这个平面上构造一个包含全部数据点的(面积)最小矩形,这个矩形可以作为平面坐标外框架。构建矩形的方法是:
1、在近似投影平面上的数据中,依次找到最下面的点A、最右面的点B、最上面的点C和最左面的点D,以ABCD为顶点建立一个四边形。
2、以AB作为矩形的一条边,以C或D作为矩形的顶点,建立一个矩形。其顶点分别是(x1,y1)、(x2,y2)、(x3,y3)、(x4,y4)。
3、利用得到的矩形对数据进行剪裁,丢弃矩形之外的数据。
其次,确定数据帧的宽度和高度,这可以由数据点矩阵排列的行数和列数确定。由于三维扫描仪是按列扫描得到的数据,因此只需要判断前后两个数据点在y’方向上的距离是否大于某个阈值(即距离阈值)。若超过该阈值,则增加统计的列数值,否则说明这两个数据点在同一列。当所有矩形内的数据点扫描完毕,则列数就是该帧数据的宽度,同时统计过程中数据帧具有最多数据点数那一列的点数就是数据帧的高度。
根据计算出的数据帧的宽度和高度,建立近似投影平面上数据坐标到二维矩阵(图像矩阵)下标的映射,设近似投影平面上数据点坐标为(xm,ym,z'm),二维矩阵的每个元素表示为D(i,j),共有numpoint个数据点,则坐标映射公式为:
D(i,j)=z'm
m=1,...,numpoint
通过上面的额计算得到的图像矩阵中存在空隙,即有些矩阵元素的值是没有意义的深度值,本实施例使用均值滤波算法进行修正:以空缺点为中心,计算周边八个数据点有意义的深度值的平均值作为该点的深度值,如果周围的数据点都是空缺点,则该点也是空缺点。经过上述处理,得到了按严格矩阵排列的规则排列图像矩阵,并且图像矩阵的每个矩阵元素的下标编号都与数据点在近似投影平面上的坐标具有对应关系。
在此基础上,为减少运算量并提高局部精度,同一个区域还可以进一步划分为若干个(准矩形)单元。如果单元(即分区)的尺寸较小,在单元内部的底面可以近似的看作一个平面,则处在单元上的字模曲面可以用平面函数表达。将图像矩阵划分为若干个单元表达后,之后为每一个单元建立局部坐标:
单元内的3D数据可以按横纵两个方向进行局部编号。
{Dij(x,y,z):i=0:m-1;j=0:n-1}(20)
局部坐标影射为:
{D(ξi,ηj)(x,y,z)|-1≤ξ<1,-1≤η<1}
其中,
或:
考虑帧数据存储格式特点,比较普遍的存储方式是一位数组格式将图像矩阵中数据进行存储。
在M×N个数据组成的一维数组D’中,在第k×l(0<k<M;0<l<N)个点上,截取其中m×n(0<m<M-k;0<n<N-l)阵列数据D的方式是:
{D(xi,yi,zi)=D′(xj,yj,zj),j=((k+i/m)×M+l+mod(i/m))|i=0:m×n-1}
(23)
局部坐标下的可以表示为:
{D(ξi,ηi)(x,y,z)|-1≤ξ<1,-1≤η<1}
其中,
或:
针对图像矩阵的矩阵形式,以矩形(x1,y1)(x2,y2)(x3,y3)(x4,y4)为单元,构建局部坐标系。为计算方便,将四个节点按照左下角、右下角、右上角、左上角的顺序排列。
首先确定局部坐标系的原点:
矩形的宽和高为:
则局部坐标系坐标轴为:
局部变量定义为:
这样,原始的三维局部数据就变换成了在局部坐标表达下的二维数据。利用同样的方法可将近似投影平面上的数据投影到对应的局部坐标系中。
【步骤三】拓印基准面的构造与数据切割。从空间角度考虑,从底面到字模之间,往往存在一个过渡层。在提取字模信息时,应该把过渡层信息去除,所采取的办法是不以底面为切割曲面,而是采用曲面拟合的方式拟合出钟鼎碑刻表面的近似曲面,并将拟合曲面从底面高度处上浮一定距离(通过点到近似曲面的距离实现的)形成拓印基准面,在拓印基准面的高度上完成数据切割(切割其实就是以距离为分割项,只提取上浮平面的一侧),同时也完成了底面消除。
如果不考虑尺寸影响,钟鼎碑刻表面可以看作是比较平滑的曲面,可以用三维空间的二次函数表达。为了保证算法的普适性,也可以统一使用二次插值函数描述。
完成了数据局部化后(即步骤二),三维扫描数据在单元内部的插值可以使用9节点等参数单元插值(以下为曲面拟合的步骤)。9个插值节点的分布,单元节点编号及其局部坐标如4图所示。相应节点的形函数可以表示为:
设在单元节点上的三维数据为(Xk,Yk,Zk){k=0:8},则单元内任意一点的三维数据为:
其中(Xk,Yk,Zk){k=0:8}为插值参量,差值参量通过特定的算法求解。在几何意义上,为单元节点上的三维数据。
在选定的单元内部,三维数据集合可以表示为:
(xij,yij,zij){i=0:m;j=0:n}(32)
使用最小二乘法求解插值参量:
三维数据集合上的数据点到插值曲面的距离平方和为:
根据最小二乘法,最优的插值参量使上述平方和最小,即:
经过适当演算,建立关于插值参量的方程:
AX=B(35)
其中:
X=(Xk,Yk,Zk)T{k=0:8}
求解方程(35),可以得到参量X的数值。利用方程(31),就得到了字模曲面在本单元上的拓印基准面的方程表达式。
一个单元求解完成后,其相邻单元相邻节点上的数值可以采用已经求解的数值,也可以另外求解。如果是每个单元之间单独求解,则可能出现单元之间细微的差异,在用近似解拼接图形时,就可能出现一定的“裂缝”。因此,在求解相邻单元时,应该采用递次求解的办法,每一个新单元只求解未知的节点数据。就会避免裂缝现象的出现。
【步骤四】噪点滤除与字模投影。本步骤将经过步骤三处理后得到的拓印基准面投影为平面字帖。在本步骤中,通过反低通滤波来消除拓印基准面的曲率变化对投影的影响以及降噪处理。
本发明通过从三维数据还原为二维字帖,形成数字拓印图片。数字拓印图片利用扫描数据特点计算制成的,能够提取字模根部提取文字的轮廓信息,避免因人工干预带来结果的误差;并且,在不降低精度的前提下,两分钟左右处理500万点数据。
以上实施方式仅用于说明本发明,而非对本发明的限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行各种组合、修改或者等同替换,都不脱离本发明技术方案的精神和范围,均应涵盖在本发明的权利要求范围当中。
Claims (9)
1.一种基于三维扫描的拓印方法,其特征在于,所述方法包括以下步骤:
S1、利用三维扫描仪采集点云数据,之后进行预处理形成文字拓印图像;
S2、对所述步骤S1得到的图像进行处理,消除所述步骤S1采集得到的文字图像的底面,实现将步骤S1中的所述文字图像上的数据映射到拓印基准面上;
S3、利用所述步骤S2得到的所述拓印基准面上的数据构造二维矩阵,所述二维矩阵用于存贮所述基准平面上的数据,其中所述二维矩阵中的每一个像素代表一个数据;
S4、将所述步骤S2中得到的拓印基准面上的数据的空间深度信息映射到所述二维矩阵中。
2.根据权利要求1所述的方法,其特征在于,所述步骤S1中,所述三维扫描仪按照预定行数和预定列数进行扫描,每一次扫描得到的信息形成一个所述二维矩阵。
3.根据权利要求2所述的方法,其特征在于,所述步骤S3具体包括以下几个步骤:
S31、在所述基准面的数据中找到最下面的扫描点、最上面的扫描点、最左面的扫描点以及最右面的扫描点,并以四个扫描点作为顶点形成四边形;
S32、以所述四边形的底边作为一条边,以最上面的扫描点和最右面的扫描点作为顶点形成一个矩形;
利用所述矩形对对应的所述基准平面上的数据进行剪裁,去掉所述矩形之外的数据点;
S33、计算所述二维矩阵的宽度和高度;其中所述宽度为所述矩形内基准平面上的数据的列数,所述高度为所述矩形内基准平面上的数据的行数;
S34、对于所述矩形内每一个像素,根据其三维坐标确定其在所述二维矩阵中的行和列,并建立其深度信息与其在所述二维矩阵中位置的映射关系。
4.根据权利要求3所述的方法,其特征在于,所述步骤S34中对于所述二维矩形内每一个像素,其在所述二维矩阵中的行、列以及所述映射关系利用下面公式计算:
D(i,j)=z'm
m=1,...,numpoint
式中,i表示行,j表示列,D(i,j)=zm为所述映射关系,m为所述矩形内数据总个数,(xm,ym,zm)为所述点云数据的坐标,(i,j)为数据在所述拓印基准面上的位置坐标。
5.根据权利要求3所述的方法,其特征在于,所述步骤S33还包括确定列数的子步骤,具体为:
对于所述矩形内两个相邻的数据点,计算其在X方向上的距离是否大于列距离阈值,若是则所述两个相邻的数据点为两列。
6.根据权利要求1所述的方法,其特征在于,所述步骤S3之后还包括去除所述二维矩阵中空缺点步骤:
以所述空缺点为中心,计算其周边多个数据点的深度值,并以计算得到的多个深度值的平均值作为所述空缺点的深度值。
7.根据权利要求1所述的方法,其特征在于,所述步骤S4具体包括以下步骤:
S41、利用所述三维扫描仪采集数据,之后形成文字图像,经过曲面拟合得到近似曲面,将所述近似曲面上浮预定距离形成所述拓印基准面;
S42、判断所述拓印基准面数据中的每个数据点位于所述拓印基准面的上侧或是下侧;
S43、计算所有位于所述拓印基准面上侧的数据点离所述拓印基准面的第一平均距离;
S43、计算所有位于所述拓印基准面下侧的数据点离所述拓印基准面的第二平均距离;
S44、计算所述第一平均距离和所述第二平均距离差值作为高度阈值;
S45、根据所述二维矩阵中每一个数据点的深度信息以及所述高度阈值确定所述二维矩阵中每一个数据点的相对高度;
S46,对于所述二维矩阵中每一个数据点,根据其相对高度确定其灰度值。
8.根据权利要求7所述的方法,其特征在于,所述步骤S45中利用如下公式计算相对高度
式中,Zi表示对应数据点的深度信息,Hmin表示第二平均距离;ΔH表示所述高度阈值;
所述步骤S46中,利用如下公式计算数据点的灰度值:
RGBi=(1-hi)*Brgb+hi*Frgb
式中,hi表示对应数据点的高度,Brgb表示所述二维矩阵中最低数据点对应的数据点的灰度值,Frgb表示所述二维矩阵中最高数据点对应的数据点的灰度值。
9.根据权利要求7所述的方法,其特征在于,所述方法还包括以下步骤:
将所述二维矩阵中最高数据点对应的数据点的灰度值作为前景色,将所述二维矩阵中最低数据点对应的数据点的灰度值作为背景色。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510845616.3A CN105513054B (zh) | 2015-11-26 | 2015-11-26 | 基于三维扫描的拓印方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510845616.3A CN105513054B (zh) | 2015-11-26 | 2015-11-26 | 基于三维扫描的拓印方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105513054A true CN105513054A (zh) | 2016-04-20 |
CN105513054B CN105513054B (zh) | 2019-03-29 |
Family
ID=55721011
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510845616.3A Active CN105513054B (zh) | 2015-11-26 | 2015-11-26 | 基于三维扫描的拓印方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105513054B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106909720A (zh) * | 2017-03-20 | 2017-06-30 | 哈尔滨工大泰铭科技有限公司 | 一种有限元节点坐标快速提取方法 |
WO2017219643A1 (zh) * | 2016-06-23 | 2017-12-28 | 广州视睿电子科技有限公司 | 输入文字的3d效果生成、输入文字的3d显示方法和系统 |
CN108961408A (zh) * | 2018-06-12 | 2018-12-07 | 山东大学 | 基于三角网格模型的数字拓片制作方法、系统及存储介质 |
CN109872280A (zh) * | 2018-12-26 | 2019-06-11 | 江苏名通信息科技有限公司 | 一种三维植物叶片点云的去噪与简化方法、装置及系统 |
CN110363182A (zh) * | 2019-07-24 | 2019-10-22 | 北京信息科技大学 | 基于深度学习的车道线检测方法 |
CN111238370A (zh) * | 2020-02-20 | 2020-06-05 | 中国科学院声学研究所东海研究站 | 一种kit板的智能检测方法及装置 |
CN111260781A (zh) * | 2020-01-15 | 2020-06-09 | 北京云迹科技有限公司 | 一种生成图像信息的方法、装置和电子设备 |
CN113139216A (zh) * | 2021-05-18 | 2021-07-20 | 武汉数文科技有限公司 | 一种数字化拓印方法、装置及计算机设备 |
CN118313087A (zh) * | 2024-04-12 | 2024-07-09 | 大连理工大学 | 一种3d阵列式数字拓印设备及其拓印方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0961992A2 (en) * | 1997-02-21 | 1999-12-08 | Mental Images GmbH & Co. KG. | System and computer-implemented method for modeling the three-dimensional shape of an object by shading of a two-dimensional image of the object |
CN2359713Y (zh) * | 1998-06-08 | 2000-01-19 | 北京大学 | 浮雕、碑刻三维激光扫描仪 |
CN102663828A (zh) * | 2012-03-13 | 2012-09-12 | 浙江大学 | 一种三维书法碑刻或牌匾自动生成方法 |
CN103264605A (zh) * | 2012-12-27 | 2013-08-28 | 上海建为建筑修缮工程有限公司 | 基于3d技术的历史建筑雕饰修复方法 |
CN103473773A (zh) * | 2013-09-06 | 2013-12-25 | 武汉海德斯路科技有限公司 | 新型数字化拓片存档方法 |
CN103488798A (zh) * | 2013-10-14 | 2014-01-01 | 大连民族学院 | 一种甲骨文自动识别方法 |
CN104268924A (zh) * | 2014-09-19 | 2015-01-07 | 新维畅想数字科技(北京)有限公司 | 一种基于三维数据扫描提取石碑石刻数字拓片的方法 |
-
2015
- 2015-11-26 CN CN201510845616.3A patent/CN105513054B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0961992A2 (en) * | 1997-02-21 | 1999-12-08 | Mental Images GmbH & Co. KG. | System and computer-implemented method for modeling the three-dimensional shape of an object by shading of a two-dimensional image of the object |
CN2359713Y (zh) * | 1998-06-08 | 2000-01-19 | 北京大学 | 浮雕、碑刻三维激光扫描仪 |
CN102663828A (zh) * | 2012-03-13 | 2012-09-12 | 浙江大学 | 一种三维书法碑刻或牌匾自动生成方法 |
CN103264605A (zh) * | 2012-12-27 | 2013-08-28 | 上海建为建筑修缮工程有限公司 | 基于3d技术的历史建筑雕饰修复方法 |
CN103473773A (zh) * | 2013-09-06 | 2013-12-25 | 武汉海德斯路科技有限公司 | 新型数字化拓片存档方法 |
CN103488798A (zh) * | 2013-10-14 | 2014-01-01 | 大连民族学院 | 一种甲骨文自动识别方法 |
CN104268924A (zh) * | 2014-09-19 | 2015-01-07 | 新维畅想数字科技(北京)有限公司 | 一种基于三维数据扫描提取石碑石刻数字拓片的方法 |
Non-Patent Citations (3)
Title |
---|
刘江涛等: "三维数字化技术在三星堆遗址中的应用", 《首都师范大学学报( 自然科学版)》 * |
吕继增: "基于数字图像的碑文文字提取及三维展示", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
汤众等: "武夷山摩崖石刻现状实录技术研究", 《兰州理工大学学报》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017219643A1 (zh) * | 2016-06-23 | 2017-12-28 | 广州视睿电子科技有限公司 | 输入文字的3d效果生成、输入文字的3d显示方法和系统 |
CN106909720B (zh) * | 2017-03-20 | 2020-02-18 | 哈尔滨工大泰铭科技有限公司 | 一种有限元节点坐标快速提取方法 |
CN106909720A (zh) * | 2017-03-20 | 2017-06-30 | 哈尔滨工大泰铭科技有限公司 | 一种有限元节点坐标快速提取方法 |
CN108961408B (zh) * | 2018-06-12 | 2020-07-31 | 山东大学 | 基于三角网格模型的数字拓片制作方法、系统及存储介质 |
CN108961408A (zh) * | 2018-06-12 | 2018-12-07 | 山东大学 | 基于三角网格模型的数字拓片制作方法、系统及存储介质 |
CN109872280A (zh) * | 2018-12-26 | 2019-06-11 | 江苏名通信息科技有限公司 | 一种三维植物叶片点云的去噪与简化方法、装置及系统 |
CN109872280B (zh) * | 2018-12-26 | 2023-03-14 | 江苏名通信息科技有限公司 | 一种三维植物叶片点云的去噪与简化方法、装置及系统 |
CN110363182B (zh) * | 2019-07-24 | 2021-06-18 | 北京信息科技大学 | 基于深度学习的车道线检测方法 |
CN110363182A (zh) * | 2019-07-24 | 2019-10-22 | 北京信息科技大学 | 基于深度学习的车道线检测方法 |
CN111260781A (zh) * | 2020-01-15 | 2020-06-09 | 北京云迹科技有限公司 | 一种生成图像信息的方法、装置和电子设备 |
CN111260781B (zh) * | 2020-01-15 | 2024-04-19 | 北京云迹科技股份有限公司 | 一种生成图像信息的方法、装置和电子设备 |
CN111238370A (zh) * | 2020-02-20 | 2020-06-05 | 中国科学院声学研究所东海研究站 | 一种kit板的智能检测方法及装置 |
CN113139216A (zh) * | 2021-05-18 | 2021-07-20 | 武汉数文科技有限公司 | 一种数字化拓印方法、装置及计算机设备 |
CN118313087A (zh) * | 2024-04-12 | 2024-07-09 | 大连理工大学 | 一种3d阵列式数字拓印设备及其拓印方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105513054B (zh) | 2019-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105513054B (zh) | 基于三维扫描的拓印方法 | |
CN109872397B (zh) | 一种基于多目立体视觉的飞机零件的三维重建方法 | |
CN112489212B (zh) | 一种基于多源遥感数据的建筑物智能化三维测图方法 | |
CN105550682B (zh) | 钟鼎碑刻拓印方法 | |
CN112307553B (zh) | 一种对三维道路模型进行提取与简化的方法 | |
CN109615581B (zh) | 一种融合扩展高斯球和颜色几何特征的三维碎片的拼接复原方法 | |
CN106709883B (zh) | 基于联合双边滤波和尖锐特征骨架提取的点云去噪方法 | |
CN107369204B (zh) | 一种从单幅照片恢复出场景基本三维结构的方法 | |
CN110544300B (zh) | 一种基于二维手绘图像特征自动生成三维模型的方法 | |
CN112164145B (zh) | 基于点云数据快速提取室内三维线段结构的方法 | |
CN115564926A (zh) | 基于影像建筑物结构学习的三维面片模型构建方法 | |
CN113192179A (zh) | 一种基于双目立体视觉的三维重建方法 | |
CN111640116B (zh) | 基于深层卷积残差网络的航拍图建筑物分割方法及装置 | |
CN116805356A (zh) | 建筑模型的构建方法、设备及计算机可读存储介质 | |
CN115937461B (zh) | 多源融合模型构建及纹理生成方法、装置、介质及设备 | |
CN111127622B (zh) | 基于图像分割的三维点云离群点剔除方法 | |
CN114677388A (zh) | 基于单元分解与空间分割的房间布局划分方法 | |
CN114782645A (zh) | 虚拟数字人制作方法、相关设备及可读存储介质 | |
JP2014106713A (ja) | プログラム、方法、及び情報処理装置 | |
CN115861549B (zh) | 一种自动替换实景三维数据中树木模型的方法和装置 | |
CN110390339B (zh) | 一种图像校正方法、装置及存储介质 | |
CN105486249B (zh) | 三维扫描数据的自适应底面消除方法 | |
CN110163212A (zh) | 一种碑帖图像中的文字切割方法 | |
CN116051771A (zh) | 一种基于无人机倾斜摄影模型的光伏bim屋顶自动建模方法 | |
CN110070604B (zh) | 一种基于单幅回转体图像文化遗址的三维重建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |