CN112837334B - 一种汉简图像的自动缀合方法 - Google Patents
一种汉简图像的自动缀合方法 Download PDFInfo
- Publication number
- CN112837334B CN112837334B CN202110361268.8A CN202110361268A CN112837334B CN 112837334 B CN112837334 B CN 112837334B CN 202110361268 A CN202110361268 A CN 202110361268A CN 112837334 B CN112837334 B CN 112837334B
- Authority
- CN
- China
- Prior art keywords
- chinese character
- image
- character image
- edge
- edge line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000021615 conjugation Effects 0.000 title claims abstract description 28
- 238000002372 labelling Methods 0.000 claims abstract description 16
- 238000010606 normalization Methods 0.000 claims description 21
- 238000003708 edge detection Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 6
- 235000017166 Bambusa arundinacea Nutrition 0.000 description 2
- 235000017491 Bambusa tulda Nutrition 0.000 description 2
- 241001330002 Bambuseae Species 0.000 description 2
- 235000015334 Phyllostachys viridis Nutrition 0.000 description 2
- 239000011425 bamboo Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000001268 conjugating effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000002893 slag Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/181—Segmentation; Edge detection involving edge growing; involving edge linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Character Input (AREA)
Abstract
本发明公开了一种汉简图像的自动缀合方法,包括以下步骤:A:依据缺失部位信息对汉简图像进行分组;B:提取汉简图像的边缘线;C:获取边缘线骨架;D:测量边缘线骨架图像的宽度及高度;E:计算出每边缘线骨架图像的宽度值和高度值恢复到真实物理尺寸的缩放比例;F:得到每幅汉简图像对应的边缘线骨架标注图像;G:得到二维数值型的时间序列化数据;H:得到二维时间序列化数据;I:得到归一化后的时间序列化边缘曲线数据;J:利用归一化后的时间序列化边缘曲线数据计算两幅汉简图像的相似度;K:返回与汉简图像a相似度最高的前N幅图像。本发明能够极大地提高了汉简图像缀合的效率和准确性。
Description
技术领域
本发明涉及一种断裂物品的图像拼合方法,尤其涉及一种汉简图像的自动缀合方法。
背景技术
汉简是研究汉王朝与丝绸之路沿途各国在政治、经济、军事、文化等方面交流的重要材料,汉简图像则是进行汉简研究的主要材料。在汉简研究的专业领域中,原边是指竹简的天然侧边,一般比较平滑和规则,原边可以是直线或有微小的弧度,而断边则非天然存在,是竹简断裂后在断裂处形成的边。
现有的汉简研究过程中,研究专家通常利用领域专业知识手工缀合汉简,通过对两块汉简断边碴口密合度进行观察分析,以判别两块汉简是否由同一块汉简断裂而成。上述手工缀合方法的准确性和效率较低,且工作强度较大。
发明内容
本发明的目的是提供一种汉简图像的自动缀合方法,能够利用两块汉简的宽度、高度和厚度等物理尺寸信息,充分考虑两块汉简拼合后的上下表面的平滑性,极大地提高了汉简图像缀合的效率和准确性。
本发明采用下述技术方案:
一种汉简图像的自动缀合方法,包括以下步骤:
A:对汉简图像进行人工分类,依据汉简图像对应的汉简的缺失部位信息对汉简图像进行分组;汉简图像的缺失部位信息包括缺上、缺下、缺左和缺右四种情况;然后将缺下分组中的汉简图像与缺上分组中的汉简图像进行缀合,将缺左分组中的汉简图像与缺右分组中的汉简图像进行缀合;
B:对汉简图像进行边缘检测以提取汉简图像的边缘线,得到每幅汉简图像对应的边缘线图像;
C:获取每幅汉简图像所对应的边缘线图像中的边缘线骨架,得到每幅汉简图像所对应的边缘线骨架图像,边缘线骨架指边缘线中居中的像素点;
D:测量汉简图像所对应的边缘线骨架图像的宽度及高度;
E:根据每幅汉简的真实物理尺寸信息,结合步骤D中得到的每幅汉简图像所对应的边缘线骨架图像的宽度和高度,分别计算得出每幅汉简图像所对应的边缘线骨架图像的宽度值和高度值恢复到真实物理尺寸的缩放比例,分别记为γ1和γ2;其中,β1为边缘线骨架图像的宽度值与汉简的真实宽度值的倍数关系,β2为边缘线骨架图像的高度值与汉简的真实高度值的倍数关系;
F:人工确定每幅汉简图像的边缘线骨架图像中的断边部分,得到每幅汉简图像对应的边缘线骨架标注图像;
G:对步骤F中得到的边缘线骨架标注图像中边缘线骨架的断边部分进行时间序列化处理,得到对应的二维数值型的时间序列化数据T;
T={(V1,W1),(V2,W2),(V3,W3),…,(Vi,Wi)},i为正整数,(Vi,Wi)表示边缘线骨架的断边部分的第i个像素数据的像素位置;
H:利用步骤E中得到每幅汉简图像所对应的边缘线骨架图像的宽度值和高度值恢复到真实物理尺寸的缩放比例γ1和γ2,将步骤G中得到的每幅汉简图像的边缘线骨架的断边部分所对应的二维时间序列化数据T,转化为每幅汉简图像的边缘线骨架的断边部分恢复到真实物理尺寸后的二维时间序列化数据T′,T′={(V′1,W′1),(V′2,W′2),(V3′,W′3),…,(V′i,W′i)},i为正整数,(V′i,W′i)表示恢复到真实物理尺寸后的断边部分第i个像素数据的像素位置;
I:将步骤H中得到的二维时间序列化数据T′中的V′i和W′i分别进行归一化处理,得到归一化后的时间序列化边缘曲线数据T”v和T”w,T”v={V”1,V”2,V”3,…,V”i},T”w={W”1,W”2,W”3,…,W”i},i为正整数;
J:对两幅待缀合的汉简图像,根据步骤I中得到的边缘线骨架的断边部分经归一化处理后的时间序列化边缘曲线数据T″v和T″w,计算两幅汉简图像的相似度:
计算两幅汉简图像的相似度时,对于缺上和缺下的分组中拟判定是否能够缀合的两幅汉简图像a和b对应的经归一化处理后的时间序列化边缘曲线数据T″wa与T″wb,先将汉简图像a和b放置到一幅新的空白图像c中,先后对汉简图像a和b的断边部分进行左对齐和右对齐,且T″wa均在上方,T″wb均在下方;在左对齐和后对齐后,保持汉简图像a在图像c中固定不变,先将汉简图像b以M像素为步幅在图像c中沿水平方向在设定的滑动范围内向左滑动,然后回到初始位置,最后沿水平方向在设定的滑动范围内向右滑动;在汉简图像b每次滑动后,计算两幅汉简图像a和b对应的归一化处理后的时间序列化边缘曲线数据T″wa与T″wb在水平方向上重合部分的子曲线T″was与T″wbs之间的时间序列匹配度s,并将时间序列匹配度s放入集合S中;最后求集合S中的最大值,即为汉简图像a和b之间的最大缀合度;
对于缺左和缺右的分组中拟判定是否能够缀合的两幅汉简图像a和b对应的经归一化处理后的时间序列化边缘曲线数据T″va与T″vb,先将汉简图像a和b放置到一幅新的空白图像c中,先后对汉简图像a和b的断边部分进行上对齐和下对齐,且T″va均在左侧,T″vb均在右侧;在上对齐和下对齐后,保持汉简图像a在图像c中固定不变,先将汉简图像b以M像素为步幅在图像c中沿竖直方向在设定的滑动范围内向上滑动,然后回到初始位置,最后沿竖直方向在设定的滑动范围内向下滑动;在汉简图像b每次滑动后,计算两幅汉简图像a和b对应的归一化处理后的时间序列化边缘曲线数据T″va与T″vb在竖直方向上重合部分的子曲线T″vas与T″vbs之间的时间序列匹配度s,并将时间序列匹配度s放入集合S中;最后,求集合S中的最大值,即为汉简图像a和b之间的最大缀合度;
K:对每幅汉简图像a,将其与待比较的文件夹中的每幅图像按照步骤J中的方法依次计算相似度;最后按照相似度值从大到小排序,若相似度相同则滑动像素值较小的优先,最后返回与汉简图像a相似度最高的前N幅图像,作为与汉简图像a缀合度较高的备选图像。
所述的步骤A中,在对汉简图像进行人工分类时,首先依据汉简内容类型和汉简图像有无纹路对汉简图像进行分组,然后在每个分组中依据汉简图像对应的汉简的缺失部位信息对汉简图像进行再次分组;汉简图像采用汉简的彩色图像。
所述的步骤B中,利用Canny算子边缘检测算法自动提取每幅汉简图像的边缘线;当首轮边缘线提取完成后,人工检查所提取到的每幅汉简图像的边缘线是否与真实情况相符,将不相符的边缘线所对应的汉简图像挑选出来作为待复检的汉简图像,然后对Canny算子边缘检测算法的参数进行调整,再次对待复检的汉简图像进行边缘提取,并人工检查所提取到的边缘线是否与真实情况相符;对于无法通过Canny算子边缘检测算法准确提取边缘线的汉简图像,由人工手动描绘其边缘线并保存;最终得到与真实情况相符的汉简图像的边缘线;最后,将每幅汉简图像对应的边缘线单独保存为背景透明、边缘线宽度为3像素、颜色为红色且图像格式为RGBA四通道的边缘线图像。
所述的步骤C中,对得到的每幅汉简图像对应的边缘线图像,依据像素阈值P将边缘线图像中的边缘线骨架增强,并将非边缘线骨架置为背景,得到每幅汉简图像所对应的边缘线骨架图像;
像素阈值P=174,利用颜色特征将边缘线图像中像素值小于等于(174,0,0,255)的像素点置为(0,0,0,0),否则置为(255,0,0,255)。
所述的步骤D中:
计算宽度时,首先判断边缘线骨架的最宽处的宽度值与边缘线骨架中部的宽度值之比是否大于1.2且边缘线骨架中部没有凹陷;若是,则将经过边缘线骨架竖直方向上中点的水平直线两端的边缘线骨架像素点之间的距离,作为对应的汉简图像的边缘线骨架图像的宽度;若不是,则从上到下依次求取边缘线骨架图像上每一条水平直线两端的边缘线骨架像素点之间的距离,将求得的最大距离作为对应的汉简图像的边缘线骨架图像的宽度;
计算高度时,从左到右依次求取边缘线骨架图像上每一条竖直直线两端的边缘线骨架像素点之间的距离,将求得的最大距离作为对应的汉简图像的边缘线骨架图像的高度。
所述的步骤F中,对每幅汉简图像的边缘线骨架图像进行人工观察,并确定边缘线骨架图像中边缘线骨架的断边部分的起点与终点,分别使用像素笔描绘边长为1像素的蓝色色块并保存,得到每幅汉简图像对应的标注过断边部分起点与终点的边缘线骨架标注图像。
所述的步骤G中,对步骤F中得到的边缘线骨架标注图像中边缘线骨架的断边部分的每个像素数据的像素位置进行提取,然后将依次得到的像素数据的像素位置顺序组合在一起,构成边缘线骨架的断边部分所对应的二维时间序列化数据T,T={(V1,W1),(V2,W2),(23,W3),…,(Vi,Wi)},i为正整数,(Vi,Wi)表示边缘线骨架的断边部分的第i个像素数据的像素位置;
在对断边部分的每个像素数据的像素位置进行提取时:
对于缺上分组中的汉简图像,从左到右依次读取断边部分每列像素数据的最上端像素点的位置坐标作为边缘线骨架在该列像素数据的像素位置;
对于缺下分组中的汉简图像,从左到右依次读取断边部分每列像素数据的最下端像素点的位置坐标作为边缘线骨架在该列像素数据的像素位置;
对于缺左的分组中的汉简图像,从上到下依次读取断边部分每行像素数据的最左端像素点的位置坐标作为边缘线骨架在该行像素数据的像素位置;
对于缺右的分组中的汉简图像,从上到下依次读取断边部分每行像素数据的最右端像素点的位置坐标作为边缘线骨架在该行像素数据的像素位置。
所述的步骤H中,在将二维时间序列化数据T转化为二维时间序列化数据T′时,将二维时间序列化数据T中的Vi做运算Vi/γ1得到V′i,将二维时间序列化数据T中的Wi做运算Wi/γ2得到W′i。
所述的步骤I中,在进行归一化处理时,首先将二维时间序列化数据T′中的V′i和W′i分离得到一维时间序列化数据T′v和T′w,T′w={W′1,W′2,W′3,…,W′i},T′v={V′1,V′2,V′3,…,V′i},i为正整数;然后分别计算一维时间序列化数据T′v和T′w中的最小值min(T′v)和min(T′w),最后将对应的一维时间序列化数据T′v中的每个数据都分别减去min(T′v),将对应的一维时间序列化数据T′w中的每个数据都分别减去min(T′w),得到该边缘线骨架的断边部分归一化后的时间序列化边缘曲线数据T″v和T″w。
所述的步骤J包括以下具体步骤:
J0:首先,依据每个汉简对应的真实物理尺寸信息得到两幅待计算相似度的汉简图像a和b对应的厚度Tha和Thb,计算Tha和Thb之间的倍数关系α1、Thb和Tha之间的倍数关系α2以及Tha和Thb之间的差值D;若α1>1.5、α2>1.5或D>0.1,则判定两幅汉简图像不能缀合,重新开始步骤J0;否则,缺上和缺下的分组进入步骤J1,缺左和缺右的分组进入步骤J9;
J1:创建一幅新的空白图像c,首先将汉简图像a放入图像c的上部,然后再把汉简图像b放入图像c的下部,且使得汉简图像b的断边部分的左端点与汉简图像a的断边部分的左端点对齐;然后进入步骤J2;
J2:汉简图像b在图像c中的当前位置下,求汉简图像b归一化处理后的时间序列化边缘曲线数据T″wb与汉简图像a归一化处理后的时间序列化边缘曲线数据T″wa在水平方向上重合部分的子时间序列T″was与T″wbs,然后进入步骤J3;
J3:将归一化处理后的时间序列化边缘曲线数据T″wa和T″wb的各自的首尾端点直接连线,令所形成的线段长度分别为La和Lb;然后,将T″wbs的首尾端点直接连线,令所形成的线段长度为Lc;若Lc大于等于长度阈值,进入步骤J4;否则,进入步骤J5;
J4:计算子时间序列T″was与T″wbs之间的时间序列匹配度s,初始时时间序列匹配度s置为0;计算得到子时间序列T″was与T″wbs在每个对应位置的数据差值,所得到数据差值按顺序组成差值数组d,统计差值数组d中值小于等于差值阈值的元素个数,记为tc;时间序列匹配度s=tc/Lc,将时间序列匹配度s的值放入集合S中,然后进入步骤J6;
J5:将子时间序列T″was与T″wbs之间的时间序列匹配度s置为0,并将s的值放入集合S中;然后进入步骤J6;
J6:以1像素为步幅,将汉简图像b在汉简图像c中以汉简图像a断边部分的左端点为参照点分别向左及向右滑动,且滑动范围不超过汉简图像a断边部分的左端点左右各8像素,每次移动后均重复步骤J2至J5,直至汉简图像b在图像c中滑动至滑动范围的边界;然后进入步骤J7;
J7:创建一幅新的空白图像c,首先将汉简图像a放入图像c的上部,然后再把汉简图像b放入图像c的下部,且使得汉简图像b的断边部分的右端点与汉简图像a的断边部分的右端点对齐,依次执行步骤J2至J5;然后进入步骤J8;
J8:以1像素为步幅,将汉简图像b在汉简图像c中以汉简图像a断边部分的右端点为参照点分别向左及向右滑动,且滑动范围不超过汉简图像a断边部分的右端点左右各8像素,每次移动后均重复步骤J2至J5,直至汉简图像b在图像c中滑动至滑动范围的边界;最终得到集合S;然后进入步骤K;
J9:创建一幅新的空白图像c,首先将汉简图像a放入图像c的左部,然后再把汉简图像b放入图像c的右部,且使得汉简图像b的断边部分的上端点与汉简图像a的断边部分的上端点对齐;然后进入步骤J10;
J10:汉简图像b在图像c中的当前位置下,求汉简图像b归一化处理后的时间序列化边缘曲线数据T″vb与汉简图像a归一化处理后的时间序列化边缘曲线数据T″va在竖直方向上重合部分的子时间序列T″vas与T″vbs,然后进入步骤J11;
J11:将归一化处理后的时间序列化边缘曲线数据T″va和T″vb的各自的首尾端点直接连线,令所形成的线段长度分别为La和Lb;然后,将T″vbs的首尾端点直接连线,令所形成的线段长度为Lc;若Lc大于等于长度阈值,进入步骤J12;否则,进入步骤J13;
J12:计算子时间序列T″vas与T″vbs之间的时间序列匹配度s,初始时时间序列匹配度s置为0;计算得到子时间序列T″vas与T″vbs在每个对应位置的数据差值,所得到数据差值按顺序组成差值数组d,统计差值数组d中值小于等于差值阈值的元素个数,记为tc;时间序列匹配度s=tc/Lc,将时间序列匹配度s的值放入集合S中,然后进入步骤J14;
J13:将子时间序列T″vas与T″vbs之间的时间序列匹配度s置为0,并将s的值放入集合S中;然后进入步骤J14;
J14:以1像素为步幅,将汉简图像b在汉简图像c中以汉简图像a断边部分的上端点为参照点分别向上及向下滑动,且滑动范围不超过汉简图像a断边部分的上端点上下各8像素,每次移动后均重复步骤J10至J13,直至汉简图像b在图像c中滑动至滑动范围的边界;然后进入步骤J15;
J15:创建一幅新的空白图像c,首先将汉简图像a放入图像c的左部,然后再把汉简图像b放入图像c的右部,且使得汉简图像b的断边部分的下端点与汉简图像a的断边部分的下端点对齐,依次执行步骤J10至J13;然后进入步骤J16;
J16:以1像素为步幅,将汉简图像b在汉简图像c中以汉简图像a断边部分的下端点为参照点分别向上及向下滑动,且滑动范围不超过汉简图像a断边部分的下端点上下各8像素,每次移动后均重复步骤J10至J13,直至汉简图像b在图像c中滑动至滑动范围的边界;最终得到集合S;然后进入步骤K。
本发明利用两块汉简的宽度、高度和厚度等物理尺寸信息,充分考虑两块汉简拼合后的上下表面的平滑性,极大地提高了汉简图像缀合的效率和准确性。
附图说明
图1为本发明的流程示意图。
具体实施方式
以下结合附图和实施例对本发明作以详细的描述:
如图1所示,本发明所述的汉简图像的自动缀合方法,依次包括以下步骤:
A:对汉简图像进行人工分类,依据汉简图像对应的汉简的缺失部位信息对汉简图像进行分组;汉简图像的缺失部位信息包括缺上、缺下、缺左和缺右四种情况;然后将缺下分组中的汉简图像与缺上分组中的汉简图像进行缀合,将缺左分组中的汉简图像与缺右分组中的汉简图像进行缀合;
本发明中,汉简图像采用由汉简专业研究人员提供的汉简的彩色图像。为进一步保证缀合准确性,在对汉简图像进行人工分类时,可以首先依据汉简内容类型和汉简图像有无纹路对汉简图像进行分组,然后在每个分组中依据汉简图像对应的汉简的缺失部位信息对汉简图像进行再次分组。
B:对汉简图像进行边缘检测以提取汉简图像的边缘线,得到每幅汉简图像对应的边缘线图像。
本发明中,利用Canny算子边缘检测算法自动提取每幅汉简图像的边缘线。
当首轮边缘线提取完成后,人工检查所提取到的每幅汉简图像的边缘线是否与真实情况相符,将不相符的边缘线所对应的汉简图像挑选出来作为待复检的汉简图像,然后对Canny算子边缘检测算法的参数进行调整,对待复检的汉简图像再次进行边缘提取,并人工检查所提取到的边缘线是否与真实情况相符;对于无法通过Canny算子边缘检测算法准确提取边缘线的汉简图像,由人工手动描绘其边缘线并保存;最终得到与真实情况相符的汉简图像的边缘线;
最后,将每幅汉简图像对应的边缘线单独保存为背景透明、边缘线宽度为3像素、颜色为红色且图像格式为RGBA四通道的边缘线图像。
Canny算子边缘检测算法为本领域的常规技术,在此不再赘述。
C:利用计算机自动获取每幅汉简图像所对应的边缘线图像中的边缘线骨架,得到每幅汉简图像所对应的边缘线骨架图像,边缘线骨架指边缘线中居中的像素点。
本发明中,对得到的每幅汉简图像对应的边缘线图像,依据像素阈值P将边缘线图像中的边缘线骨架增强,并将非边缘线骨架置为背景,得到每幅汉简图像所对应的边缘线骨架图像。边缘线骨架是指步骤B中得到的宽度为3像素的边缘线中居中的像素点;
本实施例中,像素阈值P=174,利用颜色特征,自动将像素值小于等于(174,0,0,255)的像素点置为(0,0,0,0),否则置为(255,0,0,255),最终得到每幅汉简图像所对应的边缘线骨架图像;括号中的四个数值分别为R、G、B和A四个通道的数值;
D:利用计算机自动测量汉简图像所对应的边缘线骨架图像的宽度及高度;
计算宽度时,首先判断边缘线骨架的最宽处的宽度值与边缘线骨架中部的宽度值之比是否大于1.2且边缘线骨架中部没有凹陷;
若是,则将经过边缘线骨架竖直方向上中点的水平直线两端的边缘线骨架像素点之间的距离,作为对应的汉简图像的边缘线骨架图像的宽度;
若不是,则从上到下依次求取边缘线骨架图像上每一条水平直线两端的边缘线骨架像素点之间的距离,将求得的最大距离作为对应的汉简图像的边缘线骨架图像的宽度。
计算高度时,从左到右依次求取边缘线骨架图像上每一条竖直直线两端的边缘线骨架像素点之间的距离,将求得的最大距离作为对应的汉简图像的边缘线骨架图像的高度。
E:根据每幅汉简的真实物理尺寸信息,结合步骤D中得到的每幅汉简图像所对应的边缘线骨架图像的宽度和高度,分别计算得出每幅汉简图像所对应的边缘线骨架图像的宽度值和高度值恢复到真实物理尺寸的缩放比例,分别记为γ1和γ2;其中,β1为边缘线骨架图像的宽度值与汉简的真实宽度值的倍数关系,β2为边缘线骨架图像的高度值与汉简的真实高度值的倍数关系;
F:人工确定每幅汉简图像的边缘线骨架图像中的断边部分,得到每幅汉简图像对应的边缘线骨架标注图像。
对每幅汉简图像的边缘线骨架图像进行人工观察,并确定边缘线骨架图像中边缘线骨架的断边部分的起点与终点,分别使用像素笔描绘边长为1像素的蓝色色块并保存,得到每幅汉简图像对应的标注过断边部分起点与终点的边缘线骨架标注图像。
G:对步骤F中得到的边缘线骨架标注图像中边缘线骨架的断边部分进行时间序列化处理,得到对应的二维数值型的时间序列化数据T。
对步骤F中得到的边缘线骨架标注图像中边缘线骨架的断边部分的每个像素数据的像素位置进行提取,然后将依次得到的像素数据的像素位置顺序组合在一起,构成边缘线骨架的断边部分所对应的二维时间序列化数据T,T={(V1,W1),(V2,W2),(V3,W3),…,(Vi,Wi)},i为正整数,(Vi,Wi)表示边缘线骨架的断边部分的第i个像素数据的像素位置。
本发明中,在对断边部分的每个像素数据的像素位置进行提取时:
对于缺上分组中的汉简图像,从左到右依次读取断边部分每列像素数据的最上端像素点的位置坐标作为边缘线骨架在该列像素数据的像素位置;
对于缺下分组中的汉简图像,从左到右依次读取断边部分每列像素数据的最下端像素点的位置坐标作为边缘线骨架在该列像素数据的像素位置;
对于缺左的分组中的汉简图像,从上到下依次读取断边部分每行像素数据的最左端像素点的位置坐标作为边缘线骨架在该行像素数据的像素位置;
对于缺右的分组中的汉简图像,从上到下依次读取断边部分每行像素数据的最右端像素点的位置坐标作为边缘线骨架在该行像素数据的像素位置。
最后,将得到的断边部分的像素数据的像素位置与对应的汉简图像中的断边部分进行核对。
H:利用步骤E中得到的每幅汉简图像所对应的边缘线骨架图像的宽度值和高度值恢复到真实物理尺寸的缩放比例γ1和γ2,将步骤G中得到的每幅汉简图像的边缘线骨架的断边部分所对应的二维时间序列化数据T,转化为每幅汉简图像的边缘线骨架的断边部分恢复到真实物理尺寸后的二维时间序列化数据T′,T′={(V′1,W′1),(V′2,W′2),(V′3,W′3),…,(V′i,W′i)},i为正整数,(V′i,W′i)表示恢复到真实物理尺寸后的断边部分第i个像素数据的像素位置;然后将得到的恢复到真实物理尺寸后的断边部分像素数据的像素位置与对应的汉简图像中的断边部分进行核对。
在将二维时间序列化数据T转化为二维时间序列化数据T′时,将二维时间序列化数据T中的Vi做运算Vi/γ1得到Vi′,将二维时间序列化数据T中的Wi做运算Wi/γ2得到Wi′;
I:将步骤H中得到的二维时间序列化数据T′中的Vi′和Wi′分别进行归一化处理,得到归一化后的时间序列化边缘曲线数据T”v和T”w,T”v={V”1,V”2,V”3,…,V”i},T”w={W”1,W”2,W”3,…,W”i},i为正整数。
在进行归一化处理时,首先将二维时间序列化数据T′中的Vi′和Wi′分离得到一维时间序列化数据T′v和T′w,T′w={W′1,W′2,W′3,…,W′i},T′v={V′1,V′2,V′3,…,V′i},i为正整数;然后分别计算一维时间序列化数据T′v和T′w中的最小值min(T′v)和min(T′w),最后将对应的一维时间序列化数据T′v中的每个数据都分别减去min(T′v),将对应的一维时间序列化数据T′w中的每个数据都分别减去min(T′w),得到该边缘线骨架的断边部分归一化后的时间序列化边缘曲线数据T″v和T″w。
J:对两幅待缀合的汉简图像,根据步骤I中得到的边缘线骨架的断边部分经归一化处理后的时间序列化边缘曲线数据T″v和T″w,计算两幅汉简图像的相似度:
计算两幅汉简图像的相似度时,对于缺上和缺下的分组中拟判定是否能够缀合的两幅汉简图像a和b对应的经归一化处理后的时间序列化边缘曲线数据T″wa与T″wb,先将汉简图像a和b放置到一幅新的空白图像c中,先后对汉简图像a和b的断边部分进行左对齐和右对齐,且T″wa均在上方,T″wb均在下方;在左对齐和右对齐后,保持汉简图像a在图像c中固定不变,先将汉简图像b以M像素为步幅在图像c中沿水平方向在设定的滑动范围内向左滑动,然后回到初始位置,最后沿水平方向在设定的滑动范围内向右滑动;在汉简图像b每次滑动后,计算两幅汉简图像a和b对应的归一化处理后的时间序列化边缘曲线数据T″wa与T″wb在水平方向上重合部分的子曲线T″was与T″wbs之间的时间序列匹配度s,并将时间序列匹配度s放入集合S中;最后求集合S中的最大值,即为汉简图像a和b之间的最大缀合度。
对于缺左和缺右的分组中拟判定是否能够缀合的两幅汉简图像a和b对应的经归一化处理后的时间序列化边缘曲线数据T″va与T″vb,先将汉简图像a和b放置到一幅新的空白图像c中,先后对汉简图像a和b的断边部分进行上对齐和下对齐,且T″va均在左侧,T″vb均在右侧;在上对齐和下对齐后,保持汉简图像a在图像c中固定不变,先将汉简图像b以M像素为步幅在图像c中沿竖直方向在设定的滑动范围内向上滑动,然后回到初始位置,最后沿竖直方向在设定的滑动范围内向下滑动;在汉简图像b每次滑动后,计算两幅汉简图像a和b对应的归一化处理后的时间序列化边缘曲线数据T″va与T″vb在竖直方向上重合部分的子曲线T″vas与T″vbs之间的时间序列匹配度s,并将时间序列匹配度s放入集合S中;最后,求集合S中的最大值,即为汉简图像a和b之间的最大缀合度。
所述的步骤J中,M=1,对于缺上和缺下的分组中,滑动范围为汉简图像a和b的断边部分在左对齐和右对齐后,从对齐点的左侧8像素至右侧8像素,对于缺左和缺右的分组中,滑动范围为汉简图像a和b的断边部分在上对齐和下对齐后,从对齐点的上端8像素至下端8像素。
所述的步骤J包括以下具体步骤:
J0:首先,依据研究汉简的学者提供每个汉简对应的真实物理尺寸信息得到两幅待计算相似度的汉简图像a和b对应的厚度Tha和Thb,单位为厘米,计算Tha和Thb之间的倍数关系α1、Thb和Tha之间的倍数关系α2以及Tha和Thb之间的差值D。若α1>1.5、α2>1.5或D>0.1,则判定两幅汉简图像不能缀合,重新开始步骤J0;否则,缺上和缺下的分组进入步骤J1,缺左和缺右的分组进入步骤J9。
J1:创建一幅新的空白图像c,首先将汉简图像a放入图像c的上部,然后再把汉简图像b放入图像c的下部,且使得汉简图像b的断边部分的左端点与汉简图像a的断边部分的左端点对齐;然后进入步骤J2;
J2:汉简图像b在图像c中的当前位置下,求汉简图像b归一化处理后的时间序列化边缘曲线数据T″wb与汉简图像a归一化处理后的时间序列化边缘曲线数据T″wa在水平方向上重合部分的子时间序列T″was与T″wbs,然后进入步骤J3;
J3:将归一化处理后的时间序列化边缘曲线数据T″wa和T″wb的各自的首尾端点直接连线,令所形成的线段长度分别为La和Lb,max(La,Lb)为两者中的较大值;然后,将T″wbs的首尾端点直接连线,令所形成的线段长度为Lc;若Lc大于等于长度阈值,进入步骤J4;否则,进入步骤J5;长度阈值为max(La,Lb)值的77%;
J4:计算子时间序列T″was与T″wbs之间的时间序列匹配度s,初始时时间序列匹配度s置为0;计算得到子时间序列T″was与T″wbs在每个对应位置的数据差值,所得到数据差值按顺序组成差值数组d,统计差值数组d中值小于等于差值阈值的元素个数,记为tc;时间序列匹配度s=tc/Lc,将时间序列匹配度s的值放入集合S中,然后进入步骤J6;差值阈值为2.2;
J5:将子时间序列T″was与T″wbs之间的时间序列匹配度s置为0,并将s的值放入集合S中;然后进入步骤J6;
J6:以1像素为步幅,将汉简图像b在汉简图像c中以汉简图像a断边部分的左端点为参照点分别向左及向右滑动,且滑动范围不超过汉简图像a断边部分的左端点左右各8像素,每次移动后均重复步骤J2至J5,直至汉简图像b在图像c中滑动至滑动范围的边界,即图像b的断边部分的左端点分别与滑动范围左右两端的两个像素点重合;然后进入步骤J7。
J7:创建一幅新的空白图像c,首先将汉简图像a放入图像c的上部,然后再把汉简图像b放入图像c的下部,且使得汉简图像b的断边部分的右端点与汉简图像a的断边部分的右端点对齐,依次执行步骤J2至J5;然后进入步骤J8。
J8:以1像素为步幅,将汉简图像b在汉简图像c中以汉简图像a断边部分的右端点为参照点分别向左及向右滑动,且滑动范围不超过汉简图像a断边部分的右端点左右各8像素,每次移动后均重复步骤J2至J5,直至汉简图像b在图像c中滑动至滑动范围的边界,即图像b的断边部分的右端点分别与滑动范围左右两端的两个像素点重合;最终得到集合S;然后进入步骤K。
J9:创建一幅新的空白图像c,首先将汉简图像a放入图像c的左部,然后再把汉简图像b放入图像c的右部,且使得汉简图像b的断边部分的上端点与汉简图像a的断边部分的上端点对齐;然后进入步骤J10;
J10:汉简图像b在图像c中的当前位置下,求汉简图像b归一化处理后的时间序列化边缘曲线数据T″vb与汉简图像a归一化处理后的时间序列化边缘曲线数据T″va在竖直方向上重合部分的子时间序列T″vas与T″vbs,然后进入步骤J11;
J11:将归一化处理后的时间序列化边缘曲线数据T″va和T″vb的各自的首尾端点直接连线,令所形成的线段长度分别为La和Lb,max(La,Lb)为两者中的较大值;然后,将T″vbs的首尾端点直接连线,令所形成的线段长度为Lc;若Lc大于等于长度阈值,进入步骤J12;否则,进入步骤J13;长度阈值为max(La,Lb)值的77%;
J12:计算子时间序列T″vas与T″vbs之间的时间序列匹配度s,初始时时间序列匹配度s置为0;计算得到子时间序列T″vas与T″vbs在每个对应位置的数据差值,所得到数据差值按顺序组成差值数组d,统计差值数组d中值小于等于差值阈值的元素个数,记为tc;时间序列匹配度s=tc/Lc,将时间序列匹配度s的值放入集合S中,然后进入步骤J14;差值阈值为2.2;
J13:将子时间序列T″vas与T″vbs之间的时间序列匹配度s置为0,并将s的值放入集合S中;然后进入步骤J14;
J14:以1像素为步幅,将汉简图像b在汉简图像c中以汉简图像a断边部分的上端点为参照点分别向上及向下滑动,且滑动范围不超过汉简图像a断边部分的上端点上下各8像素,每次移动后均重复步骤J10至J13,直至汉简图像b在图像c中滑动至滑动范围的边界,即图像b的断边部分的上端点分别与滑动范围上下两端的两个像素点重合;然后进入步骤J15。
J15:创建一幅新的空白图像c,首先将汉简图像a放入图像c的左部,然后再把汉简图像b放入图像c的右部,且使得汉简图像b的断边部分的下端点与汉简图像a的断边部分的下端点对齐,依次执行步骤J10至J13;然后进入步骤J16。
J16:以1像素为步幅,将汉简图像b在汉简图像c中以汉简图像a断边部分的下端点为参照点分别向上及向下滑动,且滑动范围不超过汉简图像a断边部分的下端点上下各8像素,每次移动后均重复步骤J10至J13,直至汉简图像b在图像c中滑动至滑动范围的边界,即图像b的断边部分的下端点分别与滑动范围上下两端的两个像素点重合;最终得到集合S;然后进入步骤K。
K:对每幅汉简图像a,将其与待比较的文件夹中的每幅图像按照步骤J中的方法依次计算相似度。最后按照相似度值从大到小排序,若相似度相同则滑动像素值较小的优先,最后返回与汉简图像a相似度最高的前N幅图像,作为与汉简图像a缀合度较高的备选图像。
本实施例中,N=5。
Claims (10)
1.一种汉简图像的自动缀合方法,其特征在于,包括以下步骤:
A:对汉简图像进行人工分类,依据汉简图像对应的汉简的缺失部位信息对汉简图像进行分组;汉简图像的缺失部位信息包括缺上、缺下、缺左和缺右四种情况;然后将缺下分组中的汉简图像与缺上分组中的汉简图像进行缀合,将缺左分组中的汉简图像与缺右分组中的汉简图像进行缀合;
B:对汉简图像进行边缘检测以提取汉简图像的边缘线,得到每幅汉简图像对应的边缘线图像;
C:获取每幅汉简图像所对应的边缘线图像中的边缘线骨架,得到每幅汉简图像所对应的边缘线骨架图像,边缘线骨架指边缘线中居中的像素点;
D:测量汉简图像所对应的边缘线骨架图像的宽度及高度;
E:根据每幅汉简的真实物理尺寸信息,结合步骤D中得到的每幅汉简图像所对应的边缘线骨架图像的宽度和高度,分别计算得出每幅汉简图像所对应的边缘线骨架图像的宽度值和高度值恢复到真实物理尺寸的缩放比例,分别记为γ1和γ2;其中,β1为边缘线骨架图像的宽度值与汉简的真实宽度值的倍数关系,β2为边缘线骨架图像的高度值与汉简的真实高度值的倍数关系;
F:人工确定每幅汉简图像的边缘线骨架图像中的断边部分,得到每幅汉简图像对应的边缘线骨架标注图像;
G:对步骤F中得到的边缘线骨架标注图像中边缘线骨架的断边部分进行时间序列化处理,得到对应的二维数值型的时间序列化数据T;
T={(V1,W1),(V2,W2),(V3,W3),…,(Vi,Wi)},i为正整数,(Vi,Wi)表示边缘线骨架的断边部分的第i个像素数据的像素位置;
H:利用步骤E中得到的每幅汉简图像所对应的边缘线骨架图像的宽度值和高度值恢复到真实物理尺寸的缩放比例γ1和γ2,将步骤G中得到的每幅汉简图像的边缘线骨架的断边部分所对应的二维时间序列化数据T,转化为每幅汉简图像的边缘线骨架的断边部分恢复到真实物理尺寸后的二维时间序列化数据T′,T′={(V′1,W′1),(V′2,W′2),(V′3,W′3),…,(V′i,W′i)},i为正整数,(V′i,W′i)表示恢复到真实物理尺寸后的断边部分第i个像素数据的像素位置;
I:将步骤H中得到的二维时间序列化数据T′中的V′i和W′i分别进行归一化处理,得到归一化后的时间序列化边缘曲线数据T″v和T″w,T″v={V″1,V″2,V”3,…,V″i},T″w={W″1,W″2,W″3,…,W″i},i为正整数;
J:对两幅待缀合的汉简图像,根据步骤I中得到的边缘线骨架的断边部分经归一化处理后的时间序列化边缘曲线数据T″v和T″w,计算两幅汉简图像的相似度:
计算两幅汉简图像的相似度时,对于缺上和缺下的分组中拟判定是否能够缀合的两幅汉简图像a和b对应的经归一化处理后的时间序列化边缘曲线数据T″wa与T″wb,先将汉简图像a和b放置到一幅新的空白图像c中,先后对汉简图像a和b的断边部分进行左对齐和右对齐,且T″wa均在上方,T″wb均在下方;在左对齐和右对齐后,保持汉简图像a在图像c中固定不变,先将汉简图像b以M像素为步幅在图像c中沿水平方向在设定的滑动范围内向左滑动,然后回到初始位置,最后沿水平方向在设定的滑动范围内向右滑动;在汉简图像b每次滑动后,计算两幅汉简图像a和b对应的归一化处理后的时间序列化边缘曲线数据T″wa与T″wb在水平方向上重合部分的子曲线T″was与T″wbs之间的时间序列匹配度s,并将时间序列匹配度s放入集合S中;最后求集合S中的最大值,即为汉简图像a和b之间的最大缀合度;
对于缺左和缺右的分组中拟判定是否能够缀合的两幅汉简图像a和b对应的经归一化处理后的时间序列化边缘曲线数据T″va与T″vb,先将汉简图像a和b放置到一幅新的空白图像c中,先后对汉简图像a和b的断边部分进行上对齐和下对齐,且T″va均在左侧,T″vb均在右侧;在上对齐和下对齐后,保持汉简图像a在图像c中固定不变,先将汉简图像b以M像素为步幅在图像c中沿竖直方向在设定的滑动范围内向上滑动,然后回到初始位置,最后沿竖直方向在设定的滑动范围内向下滑动;在汉简图像b每次滑动后,计算两幅汉简图像a和b对应的归一化处理后的时间序列化边缘曲线数据T″va与T″vb在竖直方向上重合部分的子曲线T″vas与T″vbs之间的时间序列匹配度s,并将时间序列匹配度s放入集合S中;最后,求集合S中的最大值,即为汉简图像a和b之间的最大缀合度;
K:对每幅汉简图像a,将其与待比较的文件夹中的每幅图像按照步骤J中的方法依次计算相似度;最后按照相似度值从大到小排序,若相似度相同则滑动像素值较小的优先,最后返回与汉简图像a相似度最高的前N幅图像,作为与汉简图像a缀合度较高的备选图像。
2.根据权利要求1所述的汉简图像的自动缀合方法,其特征在于:所述的步骤A中,在对汉简图像进行人工分类时,首先依据汉简内容类型和汉简图像有无纹路对汉简图像进行分组,然后在每个分组中依据汉简图像对应的汉简的缺失部位信息对汉简图像进行再次分组;汉简图像采用汉简的彩色图像。
3.根据权利要求1所述的汉简图像的自动缀合方法,其特征在于:所述的步骤B中,利用Canny算子边缘检测算法自动提取每幅汉简图像的边缘线;当首轮边缘线提取完成后,人工检查所提取到的每幅汉简图像的边缘线是否与真实情况相符,将不相符的边缘线所对应的汉简图像挑选出来作为待复检的汉简图像,然后对Canny算子边缘检测算法的参数进行调整,对待复检的汉简图像再次进行边缘提取,并人工检查所提取到的边缘线是否与真实情况相符;对于无法通过Canny算子边缘检测算法准确提取边缘线的汉简图像,由人工手动描绘其边缘线并保存;最终得到与真实情况相符的汉简图像的边缘线;最后,将每幅汉简图像对应的边缘线单独保存为背景透明、边缘线宽度为3像素、颜色为红色且图像格式为RGBA四通道的边缘线图像。
4.根据权利要求1所述的汉简图像的自动缀合方法,其特征在于:所述的步骤C中,对得到的每幅汉简图像对应的边缘线图像,依据像素阈值P将边缘线图像中的边缘线骨架增强,并将非边缘线骨架置为背景,得到每幅汉简图像所对应的边缘线骨架图像;
像素阈值P=174,利用颜色特征将边缘线图像中像素值小于等于(174,0,0,255)的像素点置为(0,0,0,0),否则置为(255,0,0,255)。
5.根据权利要求1所述的汉简图像的自动缀合方法,其特征在于:所述的步骤D中:
计算宽度时,首先判断边缘线骨架的最宽处的宽度值与边缘线骨架中部的宽度值之比是否大于1.2且边缘线骨架中部没有凹陷;若是,则将经过边缘线骨架竖直方向上中点的水平直线两端的边缘线骨架像素点之间的距离,作为对应的汉简图像的边缘线骨架图像的宽度;若不是,则从上到下依次求取边缘线骨架图像上每一条水平直线两端的边缘线骨架像素点之间的距离,将求得的最大距离作为对应的汉简图像的边缘线骨架图像的宽度;
计算高度时,从左到右依次求取边缘线骨架图像上每一条竖直直线两端的边缘线骨架像素点之间的距离,将求得的最大距离作为对应的汉简图像的边缘线骨架图像的高度。
6.根据权利要求1所述的汉简图像的自动缀合方法,其特征在于:所述的步骤F中,对每幅汉简图像的边缘线骨架图像进行人工观察,并确定边缘线骨架图像中边缘线骨架的断边部分的起点与终点,分别使用像素笔描绘边长为1像素的蓝色色块并保存,得到每幅汉简图像对应的标注过断边部分起点与终点的边缘线骨架标注图像。
7.根据权利要求1所述的汉简图像的自动缀合方法,其特征在于:所述的步骤G中,对步骤F中得到的边缘线骨架标注图像中边缘线骨架的断边部分的每个像素数据的像素位置进行提取,然后将依次得到的像素数据的像素位置顺序组合在一起,构成边缘线骨架的断边部分所对应的二维时间序列化数据T,T={(V1,W1),(V2,W2),(V3,W3),…,(Vi,Wi)},i为正整数,(Vi,Wi)表示边缘线骨架的断边部分的第i个像素数据的像素位置;
在对断边部分的每个像素数据的像素位置进行提取时:
对于缺上分组中的汉简图像,从左到右依次读取断边部分每列像素数据的最上端像素点的位置坐标作为边缘线骨架在该列像素数据的像素位置;
对于缺下分组中的汉简图像,从左到右依次读取断边部分每列像素数据的最下端像素点的位置坐标作为边缘线骨架在该列像素数据的像素位置;
对于缺左的分组中的汉简图像,从上到下依次读取断边部分每行像素数据的最左端像素点的位置坐标作为边缘线骨架在该行像素数据的像素位置;
对于缺右的分组中的汉简图像,从上到下依次读取断边部分每行像素数据的最右端像素点的位置坐标作为边缘线骨架在该行像素数据的像素位置。
8.根据权利要求1所述的汉简图像的自动缀合方法,其特征在于:所述的步骤H中,在将二维时间序列化数据T转化为二维时间序列化数据T′时,将二维时间序列化数据T中的Vi做运算Vi/γ1得到V′i,将二维时间序列化数据T中的Wi做运算Wi/γ2得到W′i。
9.根据权利要求1所述的汉简图像的自动缀合方法,其特征在于:所述的步骤I中,在进行归一化处理时,首先将二维时间序列化数据T′中的V′i和W′i分离得到一维时间序列化数据T′v和T′w,T′w={W′1,W′2,W′3,…,W′i},T′v={V′1,V′2,V′3,…,V′i},i为正整数;然后分别计算一维时间序列化数据T′v和T′w中的最小值min(T′v)和min(T′w),最后将对应的一维时间序列化数据T′v中的每个数据都分别减去min(T′v),将对应的一维时间序列化数据T′w中的每个数据都分别减去min(T′w),得到该边缘线骨架的断边部分归一化后的时间序列化边缘曲线数据T″v和T″w。
10.根据权利要求1所述的汉简图像的自动缀合方法,其特征在于:所述的步骤J包括以下具体步骤:
J0:首先,依据每个汉简对应的真实物理尺寸信息得到两幅待计算相似度的汉简图像a和b对应的厚度Tha和Thb,计算Tha和Thb之间的倍数关系α1、Thb和Tha之间的倍数关系α2以及Tha和Thb之间的差值D;若α1>1.5或α2>1.5或D>0.1,则判定两幅汉简图像不能缀合,重新开始步骤J0;否则,缺上和缺下的分组进入步骤J1,缺左和缺右的分组进入步骤J9;
J1:创建一幅新的空白图像c,首先将汉简图像a放入图像c的上部,然后再把汉简图像b放入图像c的下部,且使得汉简图像b的断边部分的左端点与汉简图像a的断边部分的左端点对齐;然后进入步骤J2;
J2:汉简图像b在图像c中的当前位置下,求汉简图像b归一化处理后的时间序列化边缘曲线数据T″wb与汉简图像a归一化处理后的时间序列化边缘曲线数据T″wa在水平方向上重合部分的子时间序列T″was与T″wbs,然后进入步骤J3;
J3:将归一化处理后的时间序列化边缘曲线数据T″wa和T″wb的各自的首尾端点直接连线,令所形成的线段长度分别为La和Lb;然后,将T″wbs的首尾端点直接连线,令所形成的线段长度为Lc;若Lc大于等于长度阈值,进入步骤J4;否则,进入步骤J5;
J4:计算子时间序列T″was与T″wbs之间的时间序列匹配度s,初始时时间序列匹配度s置为0;计算得到子时间序列T″was与T″wbs在每个对应位置的数据差值,所得到数据差值按顺序组成差值数组d,统计差值数组d中值小于等于差值阈值的元素个数,记为tc;时间序列匹配度s=tc/Lc,将时间序列匹配度s的值放入集合S中,然后进入步骤J6;
J5:将子时间序列T″was与T″wbs之间的时间序列匹配度s置为0,并将s的值放入集合S中;然后进入步骤J6;
J6:以1像素为步幅,将汉简图像b在汉简图像c中以汉简图像a断边部分的左端点为参照点分别向左及向右滑动,且滑动范围不超过汉简图像a断边部分的左端点左右各8像素,每次移动后均重复步骤J2至J5,直至汉简图像b在图像c中滑动至滑动范围的边界;然后进入步骤J7;
J7:创建一幅新的空白图像c,首先将汉简图像a放入图像c的上部,然后再把汉简图像b放入图像c的下部,且使得汉简图像b的断边部分的右端点与汉简图像a的断边部分的右端点对齐,依次执行步骤J2至J5;然后进入步骤J8;
J8:以1像素为步幅,将汉简图像b在汉简图像c中以汉简图像a断边部分的右端点为参照点分别向左及向右滑动,且滑动范围不超过汉简图像a断边部分的右端点左右各8像素,每次移动后均重复步骤J2至J5,直至汉简图像b在图像c中滑动至滑动范围的边界;最终得到集合S;然后进入步骤K;
J9:创建一幅新的空白图像c,首先将汉简图像a放入图像c的左部,然后再把汉简图像b放入图像c的右部,且使得汉简图像b的断边部分的上端点与汉简图像a的断边部分的上端点对齐;然后进入步骤J10;
J10:汉简图像b在图像c中的当前位置下,求汉简图像b归一化处理后的时间序列化边缘曲线数据T″vb与汉简图像a归一化处理后的时间序列化边缘曲线数据T″va在竖直方向上重合部分的子时间序列T″vas与T″vbs,然后进入步骤J11;
J11:将归一化处理后的时间序列化边缘曲线数据T″va和T″vb的各自的首尾端点直接连线,令所形成的线段长度分别为La和Lb;然后,将T″vbs的首尾端点直接连线,令所形成的线段长度为Lc;若Lc大于等于长度阈值,进入步骤J12;否则,进入步骤J13;
J12:计算子时间序列T″vas与T″vbs之间的时间序列匹配度s,初始时时间序列匹配度s置为0;计算得到子时间序列T″vas与T″vbs在每个对应位置的数据差值,所得到数据差值按顺序组成差值数组d,统计差值数组d中值小于等于差值阈值的元素个数,记为tc;时间序列匹配度s=tc/Lc,将时间序列匹配度s的值放入集合S中,然后进入步骤J14;
J13:将子时间序列T″vas与T″vbs之间的时间序列匹配度s置为0,并将s的值放入集合S中;然后进入步骤J14;
J14:以1像素为步幅,将汉简图像b在汉简图像c中以汉简图像a断边部分的上端点为参照点分别向上及向下滑动,且滑动范围不超过汉简图像a断边部分的上端点上下各8像素,每次移动后均重复步骤J10至J13,直至汉简图像b在图像c中滑动至滑动范围的边界;然后进入步骤J15;
J15:创建一幅新的空白图像c,首先将汉简图像a放入图像c的左部,然后再把汉简图像b放入图像c的右部,且使得汉简图像b的断边部分的下端点与汉简图像a的断边部分的下端点对齐,依次执行步骤J10至J13;然后进入步骤J16;
J16:以1像素为步幅,将汉简图像b在汉简图像c中以汉简图像a断边部分的下端点为参照点分别向上及向下滑动,且滑动范围不超过汉简图像a断边部分的下端点上下各8像素,每次移动后均重复步骤J10至J13,直至汉简图像b在图像c中滑动至滑动范围的边界;最终得到集合S;然后进入步骤K。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110361268.8A CN112837334B (zh) | 2021-04-02 | 2021-04-02 | 一种汉简图像的自动缀合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110361268.8A CN112837334B (zh) | 2021-04-02 | 2021-04-02 | 一种汉简图像的自动缀合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112837334A CN112837334A (zh) | 2021-05-25 |
CN112837334B true CN112837334B (zh) | 2022-07-05 |
Family
ID=75930780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110361268.8A Active CN112837334B (zh) | 2021-04-02 | 2021-04-02 | 一种汉简图像的自动缀合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112837334B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115587215B (zh) * | 2022-10-18 | 2023-10-20 | 河南大学 | 一种基于语句通顺性的残断汉简图像缀合方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102087742A (zh) * | 2011-01-26 | 2011-06-08 | 王爱民 | 基于图像处理的甲骨碎片缀合方法 |
CN106778764A (zh) * | 2016-11-18 | 2017-05-31 | 安阳师范学院 | 一种基于图像颜色特征提取的辅助甲骨片缀合方法 |
CN107563393A (zh) * | 2017-09-14 | 2018-01-09 | 安阳师范学院 | 一种甲骨文图片局部纹理特征的提取及匹配方法及系统 |
CN111292283A (zh) * | 2020-01-21 | 2020-06-16 | 河南大学 | 一种基于时间序列相似性计算的甲骨残片缀合方法 |
CN111563506A (zh) * | 2020-03-18 | 2020-08-21 | 西南大学 | 基于曲线轮廓匹配的甲骨拓片缀合方法 |
CN111951152A (zh) * | 2020-08-10 | 2020-11-17 | 河南大学 | 一种兼顾原边连续性和断边碴口匹配度的甲骨缀合方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103489190B (zh) * | 2013-09-26 | 2016-05-11 | 中国科学院深圳先进技术研究院 | 图像特征曲线提取方法及系统 |
CN105069766B (zh) * | 2015-07-24 | 2017-12-08 | 北京航空航天大学 | 一种基于汉字图像轮廓特征描述的碑文修复方法 |
CN105095822B (zh) * | 2015-09-07 | 2018-07-06 | 福建联迪商用设备有限公司 | 一种汉信码特征图形检测方法及系统 |
CN108447071B (zh) * | 2018-03-16 | 2021-12-21 | 中国一拖集团有限公司 | 基于啮合-像素图像边缘跟踪法的齿轮齿廓边界提取方法 |
-
2021
- 2021-04-02 CN CN202110361268.8A patent/CN112837334B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102087742A (zh) * | 2011-01-26 | 2011-06-08 | 王爱民 | 基于图像处理的甲骨碎片缀合方法 |
CN106778764A (zh) * | 2016-11-18 | 2017-05-31 | 安阳师范学院 | 一种基于图像颜色特征提取的辅助甲骨片缀合方法 |
CN107563393A (zh) * | 2017-09-14 | 2018-01-09 | 安阳师范学院 | 一种甲骨文图片局部纹理特征的提取及匹配方法及系统 |
CN111292283A (zh) * | 2020-01-21 | 2020-06-16 | 河南大学 | 一种基于时间序列相似性计算的甲骨残片缀合方法 |
CN111563506A (zh) * | 2020-03-18 | 2020-08-21 | 西南大学 | 基于曲线轮廓匹配的甲骨拓片缀合方法 |
CN111951152A (zh) * | 2020-08-10 | 2020-11-17 | 河南大学 | 一种兼顾原边连续性和断边碴口匹配度的甲骨缀合方法 |
Non-Patent Citations (3)
Title |
---|
AI缀合中的人机耦合;莫伯峰 等;《出土文献》;20210315;第19-26+154页 * |
Developing a Reassembling Algorithm for Broken Objects;Caiqin Jia 等;《IEEE Access》;20201203;第220320-220334页 * |
基于边缘信息的碎片拼接研究;李晓蕊;《山东师范大学》;20190115;I138-3427 * |
Also Published As
Publication number | Publication date |
---|---|
CN112837334A (zh) | 2021-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106156761B (zh) | 面向移动终端拍摄的图像表格检测与识别方法 | |
CN104156721B (zh) | 一种基于模板匹配的脱机汉字笔画提取方法 | |
WO2017016240A1 (zh) | 一种钞票冠字号识别方法 | |
CN104408449B (zh) | 智能移动终端场景文字处理方法 | |
CN102663378B (zh) | 连笔手写字符的识别方法 | |
CN104809481A (zh) | 一种基于自适应色彩聚类的自然场景文本检测的方法 | |
CN105069466A (zh) | 基于数字图像处理的行人服饰颜色识别方法 | |
CN103093240A (zh) | 书法字识别方法 | |
CN103473785A (zh) | 一种基于三值化图像聚类的快速多目标分割方法 | |
CN107292936B (zh) | 一种汉字字体矢量化方法 | |
CN102147867B (zh) | 一种基于主体的国画图像和书法图像的识别方法 | |
CN111738367B (zh) | 一种基于图像识别的零件分类方法 | |
CN109086772A (zh) | 一种扭曲粘连字符图片验证码的识别方法及系统 | |
CN112837334B (zh) | 一种汉简图像的自动缀合方法 | |
CN105426890A (zh) | 一种字符扭曲粘连的图形验证码识别方法 | |
CN105117741A (zh) | 一种书法字风格的识别方法 | |
JP4553300B2 (ja) | コンテンツ識別装置 | |
CN108197624A (zh) | 证书图像校正识别方法及装置、计算机存储介质 | |
CN113192022A (zh) | 基于深度学习的病原孢子识别计数方法和装置 | |
CN107909073A (zh) | 多维局部二值模式和机器学习手写乐谱谱线删除方法 | |
CN107958261B (zh) | 一种盲文点检测方法及系统 | |
CN107730511A (zh) | 一种基于基线估计的藏文历史文献文本行切分方法 | |
CN111951152B (zh) | 一种兼顾原边连续性和断边碴口匹配度的甲骨缀合方法 | |
EP2223265A1 (en) | A method for resolving contradicting output data from an optical character recognition (ocr) system, wherein the output data comprises more than one recognition alternative for an image of a character | |
CN107292255B (zh) | 基于特征矩阵相似度分析的手写数字识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |