CN109598681A - 一种对称唐卡修复后图像的无参考质量评价方法 - Google Patents

一种对称唐卡修复后图像的无参考质量评价方法 Download PDF

Info

Publication number
CN109598681A
CN109598681A CN201811292053.XA CN201811292053A CN109598681A CN 109598681 A CN109598681 A CN 109598681A CN 201811292053 A CN201811292053 A CN 201811292053A CN 109598681 A CN109598681 A CN 109598681A
Authority
CN
China
Prior art keywords
image
pixel
value
sample
formula
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811292053.XA
Other languages
English (en)
Other versions
CN109598681B (zh
Inventor
刘仲民
叶雨琪
齐国愿
呼彦喆
李建海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lanzhou University of Technology
Original Assignee
Lanzhou University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lanzhou University of Technology filed Critical Lanzhou University of Technology
Priority to CN201811292053.XA priority Critical patent/CN109598681B/zh
Publication of CN109598681A publication Critical patent/CN109598681A/zh
Application granted granted Critical
Publication of CN109598681B publication Critical patent/CN109598681B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Investigating Strength Of Materials By Application Of Mechanical Stress (AREA)

Abstract

本发明提供了一种对称唐卡修复后图像的无参考质量评价方法,首先是对大量破损待修复图像进行边缘特征、亮度、颜色、纹理等底层特征的提取,同时利用提取出的特征值进行对称参数的多次调整,获取自动对称轴,然后由对称轴一边的未受损区域来预测出受损区域的初始图像,获得完整原始图像;采用harries角点特征分布来量化原始图像与修复图像之间的差异,从而获得评价指标;利用生成模型实现图片不同程度的变形,得到更多尺度与种类的实验图像,将得到的评价指标求取平均值,最终获得精细化的评价指标。实验表明,本发明方法与人视觉系统较为一致,与全参考质量评价方法相比效率有所提升,且克服了当前主流无参考评价方法速率慢、准确率低的缺点。

Description

一种对称唐卡修复后图像的无参考质量评价方法
技术领域
本发明属于图像处理技术领域,涉及一种对称唐卡修复后图像的 无参考质量评价方法。
背景技术
所谓对称唐卡修复后图像的无参考质量评价方法,就是利用计算 机的特征提取技术对图像实现自动对称特征和角点特征的提取,并利 用唐卡图像的构图对称特征将左右两半图像角点的距离方差进行对 比,差值的大小可以有效的显示图像质量的变化,通过分析提取出来 的差值评价修复图像的质量情况。在文物保护或修复过程中,修复后 的图像质量状况往往影响着后期的研究工作,虽然大量的数字修复算 法能够有效的完成图像修复工作,但对于修复后的图像质量能否达到 预定的期望,也就是对于修复效果的定性和定量描述则很少有报道, 因而采用数字化方式对受损唐卡图像进行修复后的质量评价,具有很 大的文化价值与社会意义。
唐卡图像的绘制与一般的自然图像不同,其遵循着一定的构图与 绘画技巧。主要使用中心构图且四周图案对称、中心构图且四周图案 不对称、叙事构图法、坛城图四种方法来进行唐卡图像的绘制。而这 四种构图手法又以中心构图为主,例如佛像图、宗教人物图、历史人 物图等,大约占据现存唐卡图像的80%以上。由于唐卡图像本身具有 鲜明的色彩与线条特点,因此它的特征分布具有一定规律。
本发明主要解决中心构图且四周图案对称的唐卡图像的修复质 量评价问题。虽然唐卡修复算法较多,但很少有算法涉及到对其修复 质量进行评价。此外,国内外仍然具有较多针对类似唐卡图像的无参 考修复质量评价方法,例如基于实例统计的方法、基于阈值分割以及 基于PDE的方法等,但这些方法都或多或少需要有原始图像或者存在 大部分原始图像的信息,很少有算法能够有效的实现无参考修复图像 的质量评价。在无参考图像质量评价算法中,大部分算法首先要通过 残破的图像构建尽可能完整的原始图像,比较原始图像与残破图像之 间的差距并数值化,但修复图像本与原始图像相差无几导致评价的过 程更加艰难,通过单一的特征很难实现这一目标。
发明内容
本发明的目的在于提供一种对称唐卡修复后图像的无参考质量 评价方法,该方法可以将破损修复后的唐卡图像在缺少原始图像的情 况下,实现原始图像重构并将原始图像与修复后图像进行差距量化, 实现图像修复质量评价,指标准确率高,速度快。
为此,本发明采用如下技术方案:
一种对称唐卡修复后图像的无参考质量评价方法,首先对大量破 损待修复图像进行边缘特征、亮度、颜色、纹理等底层特征的提取, 同时利用提取出的特征值进行对称参数的多次调整,找到最合适参数 以便获取自动对称轴;然后由对称轴一边的未受损区域来预测出受损 区域的初始图像,获得完整原始图像;再采用harris角点特征分布 来量化原始图像与修复图像之间的差异,从而获得评价指标。为了将 评价指标进一步精确化,利用生成模型实现图片不同程度的变形,得 到更多尺度与种类的实验图像,将得到的评价指标求取平均值,最终 获得精细化的评价指标。具体过程如下:
a样本分类
首先从唐卡图像数据库中人工筛选出中心构图且四周对称的图 像作为目标样本,并记为F(f1,f2…fm),然后将筛选出的目标样本 实现样本分类,分为训练样本和测试样本,具体地:
a.1训练样本
在目标样本F(f1,f2…fm)中随机地选取一半样本作为训练样 本,记为A(a1,a2…an),将另一半样本作为测试样本,记为B(b1,b2…bn); 将训练样本的图像分辨率统一归一化为U*V,再转化为JPEG、PNG、 JPEG2000三种图像格式;
a.2测试样本
将所有测试样本的图像分辨率统一归一化为U*V,再转化为JPEG、 PNG、JPEG2000三种图像格式;
b对称轴自动检测
将步骤a中得到的训练样本A(a1,a2…an)取出,并进行边缘特征 以及亮度、色彩、纹理特征的融合提取,在多实例学习框架下进行对 称轴检测,实现图像对称轴的自动检测,从而构建出破损前的原始图 像,具体地:
b.1边缘特征提取
第一步:在训练样本图像上随机选择一个像素点O(x,y),取过 O(x,y)点的一条线段NM,其中N、M点是与O点距离相等的两点, 线段NO的距离记为当前的尺度s,s可取值2、4、6、8,线段NM 的方向为当前NM连线与水平方向的夹角θ,θ可取值15°、30°、45°、 60°;
第二步:在线段NM所在的直线上取两个线段l1和l2,l1和l2分别 是以N和M为中心的两条线段,l1和l2的长度为当前尺度s长度的 0.2-0.3倍;
第三步:在线段l1上取边缘强度最大的点a,在线段l2上取边缘强 度最大的点b,将a、b点的边缘强度分别记为Pa和Pb.;
第四步:将前三步得到的参数利用下述公式计算出像素点O(x,y)的 边缘强度特征:
通过在规定参数内改变尺度s和角度θ,实现多尺度多角度的边缘 强度特征提取;
b.2亮度、颜色、纹理特征的提取
b.2.1亮度特征提取
像素点O(x,y)的亮度特征l(x,y)的计算公式如下:
式中,R表示像素点O(x,y)处的亮度与图像背景亮度的差值,μx、 μy分别为像素点O(x,y)水平和垂直方向的像素灰度值,C1为常数并根 据经验取1;
式中,N为图像中所有像素点个数,xi和yi分别为像素点O(x,y)的 水平和垂直方向上第i个像素点的灰度值;
b.2.2颜色特征提取
像素点O(x,y)的颜色特征c(x,y)的计算公式如下:
其中:
σx、σy作为像素点O(x,y)的颜色参数,C2为常数并根据经验取1;
b.2.3纹理特征提取
像素点O(x,y)的纹理特征t(x,y)的计算公式如下:
C3为常数并根据经验取1;
b.3对称特征值计算
b.3.1设置对称模板
针对高为U、宽为V的样本图像,在提取像素点O(x,y)的亮度、 颜色、纹理特征时,以这个像素点为中心点得到长为3h宽为w的矩 形并记为AFHC,作为对称模板,其中3h≤U且w≤V;
b.3.2改变模板尺度
将矩形AFHC分为长为h、宽为w的三个小的矩形,分别记为ABDC、 BEGD和EFHG,将矩形AFHC的两长边AF和CH的中点记为I1、I2,线 段I1I2与水平方向的夹角为θ′;
b.3.3标记对称像素
将矩形ABDC、BEGD和EFHG底层描述算子χ2(g,h)的直方图记为 R1、R2、R3,其中,直方图R1、R2、R3的横坐标均为矩形中像素点的 坐标值,纵坐标分别表示像素点的亮度、颜色和纹理特征值;
底层描述算子χ2(g,h)采用χ2-distance函数进行计算,且:
式中,k表示矩形中的像素点,g(k)和h(k)分别交替调用式(3)、 (6)、(9)中的亮度、颜色、纹理函数;
计算出矩形ABDC、BEGD和EFHG的底层描述算子的直方图之间的 距离,即像素点O(x,y)的差分特征值Hi,j(x,y,θ,s),具体计算如下:
其中:i,j分别表示直方图标号,θ为角度并取0°和45°,s 为尺度,Ri(k)表示直方图Ri中第k个像素点的纵坐标值;
当上述方法得到的像素点差分特征值超过阈值3时(3为经验值), 则这一点的差分特征值被视为具有对称特性的特征值,人工标记为正 标签,记为m=1,如此点的特征值为非对称性特征值,则人工标记为 负标签,记为m=0;
b.4多实例学习框架的建立
多实例学习可以被形容为将每一个样本图像的像素点看为一个 集合,每个集合有很多实例学习,将不同尺度和角度组合下计算得到 的该像素点的差分特征值作为集合中的实例,每个实例学习都有自己 的标签m,如m=1则为正,人工标记为对称轴标签;m=0则为负,则 人工标记为非对称轴标签,一个像素点的集合当中如果正标签较多则 集合为正,负标签较多则集合为负,正负标签一样多则随机选择为正 或负;
b.4.1人工标记实例图像
当一个像素点的集合为正,则将该像素点标记为对称轴像素,且 标签值为1,若集合为负则标记为非对称轴像素,且标签值为0;
b.4.2训练参数
将训练样本中的像素点与标签值输入到如下公式中,经过大量样 本带入计算可以训练出βd、βe两个参数,计算公式如下:
S(x,y,θ,s)=∑ijβdHij(x,y,θ,s)+βeE(x,y,θ,s) (12)
式中,Hij(x,y,θ,s)为像素点的差分特征值,E(x,y,θ,s)为像素 点的边缘强度特征,S(x,y,θ,s)为像素点的标签值;
b.4.3测试参数
随机选取13个角度以及八邻域方向,则每个像素点的集合有104 个实例进行学习,最后将测试样本图像输入到公式(12)中得出每个 像素点集合的标签,进而判断得出测试样本图像中的对称轴像素点;
b.5对称轴检测
b.5.1对称轴拟合
然而初步分割的点阵比较粗糙不符合对称轴直线的要求,为此, 进一步采用最小二乘函数即下式得到测试样本图像对称点的拟合直 线:
b=y-ax (14)
yj=axi+b (15)
式中:x、y代表待拟合像素点O(x,y)的坐标值,N代表测试图 像中像素点的个数,a为拟合直线的斜率,b为拟合直线的斜矩,xi是 拟合后像素点的横坐标,yj是拟合后像素点的纵坐标;
b.5.2坐标轴平移
将拟合直线转化为坐标轴的形式以便后面的计算,具体过程如下:
(1)设拟合后对称轴上像素点的坐标为M(xi,yi);
(2)将拟合后得到的对称轴设为坐标系中的y轴,x轴保持不 动,并将原有的所有图像像素点坐标O(x,y)更新为基于新坐标轴的坐 标点m(xu,yv),将每个像素点坐标左移xi个单位,y坐标不变,公 式定义为:
xu=xr-x1 (16)
yv=yj (17)
从而将所有像素点坐标更新为以图像对称轴为y轴的对称坐标系;
b.6原始图像构建
由于对称轴分割步骤的完成,可将唐卡图像分割为左右两幅无论 色彩、构图或纹理特征都相似的图片,所以可以将修复区域的对称图 像通过镜面翻转的方式来构建无损原始图像,由于经过唐卡破损修复 后很小概率出现图像左右对称区域损坏完全相同,可忽略不计对称区 域完全相同破损的情况;
c量化评价指标
c.1harries角点特征提取
c.1.1自动赋予权值
引入Harris算子,并使用高斯窗口w(x,y)代替二值窗口函数, 对离中心点越近的像素赋予越大的权重,以减少噪声影响,计算公式 为:
式中,σ为高斯窗口概率的期望,x、y为更新后像素点坐标值;
c.1.2特征向量计算
设Ix与Iy分别为图像窗口矩阵在x轴方向与y轴方向的特征向 量,其中,窗口矩阵为在检测harris算子时使用一个像素值为8*8 大小的矩形移动窗口,该窗口中包含的每个像素点的差分特征值组成 了一个8*8的窗口矩阵,即:
首先计算水平方向的特征矩阵A并给其赋予权值w,为矩阵叉 乘符号:
计算垂直方向的特征矩阵B并给其赋予权值w:
同时计算Ix向量和Iy向量相对于水平方向的夹角方向上的特征 矩阵C、D并赋予权值w:
综合得到特征矩阵M
c.1.3角点判断
计算每个像素的Harris角点响应值R:
R=(AB-CD)2p(A+B)2 (23)
式中,p为搜索权值,调节p值可调整角点的搜索精密度,p值 太大可能将不是角点的像素识别为角点,p值太小可能将是角点的像 素忽略,通过大量计算,p值一般取0.1,并在局部范围内寻找R的极 大值点Rmax,若Harris角点响应值R大于阈值3,3为经验值,则视为角点;
c.2初步量化评价指标
c.2.1构建参考图像
将通过不同算法修复得到的图像利用步骤b.3中底层描述算子 差分法进行图像对称分割,并将提取出的对称点转化为坐标轴形式;
c.2.2针对修复图像进行角点提取
使用8*8的高斯滑动窗口矩阵对图像进行角点识别,利用Ix向量 和Iy向量的特征向量来表征变化最快和最慢的两个方向,即若两个特 征向量值都大于阈值3则为角点区域,一大一小则为边缘区域,两个 都小于阈值3则目标点处于灰度值变化缓慢的图像区域,同时获取角 点坐标位置J(xJ,yH);将角点坐标同样放置于对称坐标系中,更新 后坐标为j(xj,yh),获取对称坐标轴原点c(xc,0);在实验中, 图像扫描时只针对每个像素的八邻域范围进行检测;
c.2.3计算预测图像与实际图像的差值
坐标转换后,计算更新后角点j(xj,yh)到原点c(xc,0)的 距离,w1为预测图像的角点距离值,w2为实际图像的角点距离值, 定义为:
式中,K值为角点像素j(xj,yh)中xj的最大值;利用预测图像 与实际图像距离的差值得到图像修复评价指标H,即:
H=|w1-w2| (26)
修复评价指标H的值越高,说明图像修复质量越高。
进一步地,对图像修复评价指标进行进一步精细化,具体是在步 骤c基础上通过下述步骤进行:
d精细化评价指标模型构建
d.1初始化模型
首先针对现存的唐卡图像数据库中的图片进行预处理,由于图像 库中图片较少,所以利用GAN对抗生成网络中的生成对抗网络技术, 针对现存唐卡数据库中的图像进行不同程度的扭曲、翻转等基本操作, 形成大量能够以假乱真的实验图像数据,具体过程如下:
d.2建立模型框架
初始设定生成模型G、判别模型D,生成模型用来对唐卡数据库 中的图像进行翻转、大下改变或变形操作生成大量不同但相似的图像; 判别模型用来对这些图片进行判断,是否为对实验数据有用的图片, 且利用下面的判别公式来计算生成出的图片与原始图像的差别程度, 损失大于0.5就丢弃,小于或等于0.5就留到数据库中使用:
(1)随机产生一组向量成为生成模型的输入向量,并记为D(x);
(2)选取样本
从现有唐卡数据库中选取图像作为输入X;
(3)判别网络的建立
将D(x)或者X作为判别模型的输入,经过判别模型后输出值 为一个0到1之间的数,判别模型具体采用损失函数Z(x),其公式 如下:
Z(x)=-((1-y)log(1-D(G(z)))+ylogD(x)) (27)
式中,G(z)代表通过翻转、大下改变或变形操作生成的图像, x代表原始唐卡数据库中的图像,y表示想要扩大的数据库比例即生 成的新图像与原始图像的数量比例;
d.6指标均衡化
设数据库中有U幅图像,每幅图像通过生成模型的变形生成了V 个损失值小于或等于0.5的有用样本,每个样本利用步骤c得到图像 修复评价指标HV,那么样本图像修复评价指标均值M为:
将该均值指标作为图像修复质量的最终评价指标,指标愈高,修 复质量愈高。
本发明提出的一种针对已修复图像的无参考图像质量评价方法, 通过唐卡独有的对称构图特性,将图像分割为对称的两部分进行参考 图像的构建,同时结合人眼识别系统(HVS)针对人眼的兴趣点也就 是角点进行提取,计算已分割出的对称图像角点与对称点的距离,其 相差越大则表明图像的质量越差,反之则越好。实验表明,该方法与 人类视觉系统较为一致,与全参考质量评价方法相比效率有所提升, 且克服了当前主流无参考评价方法速率慢、准确率低的缺点。
附图说明
图1为本发明对称模板的选取示意图。
具体实施方式
下面通过具体实施例对本发明方法进行进一步的说明。
一种对称唐卡修复后图像的无参考质量评价方法,包括如下步骤:
a样本分类
首先从唐卡图像数据库中人工筛选出中心构图且四周对称的图 像作为目标样本,并记为F(f1,f2…fm),然后将筛选出的目标样本 实现样本分类,分为训练样本和测试样本,具体地:
a.1训练样本
在目标样本F(f1,f2…fm)中随机地选取一半样本作为训练样 本,记为A(a1,a2…an),将另一半样本作为测试样本,记为B(b1,b2…bn); 将训练样本的图像分辨率统一归一化为U*V,再转化为JPEG、PNG、 JPEG2000三种图像格式;
a.2测试样本
将所有测试样本的图像分辨率统一归一化为U*V,再转化为JPEG、 PNG、JPEG2000三种图像格式;
b对称轴自动检测
将步骤a中得到的训练样本A(a1,a2…an)取出,并进行边缘特征 以及亮度、色彩、纹理特征的融合提取,在多实例学习框架下进行对 称轴检测,实现图像对称轴的自动检测,从而构建出破损前的原始图 像,具体地:
b.1边缘特征提取
第一步:在训练样本图像上随机选择一个像素点O(x,y),取过 O(x,y)点的一条线段NM,其中N、M点是与O点距离相等的两点, 线段NO的距离记为当前的尺度s,s可取值2、4、6、8,线段NM 的方向为当前NM连线与水平线的夹角θ,θ可取值15°、30°、45°、 60°;
第二步:在线段NM所在的直线上取两个线段l1和l2,l1和l2分别 是以N和M为中心的两条线段,l1和l2的长度为当前尺度s长度的 0.2-0.3倍;
第三步:在线段l1上取边缘强度最大的点a,在线段l2上取边缘强 度最大的点b,将a、b点的边缘强度分别记为Pa和Pb.;
第四步:将前三步得到的参数利用下述公式计算出像素点O(x,y)的 边缘强度特征:
通过在规定参数内改变尺度s和角度θ,实现多尺度多角度的边缘 强度特征提取;
b.2亮度、颜色、纹理特征的提取
b.2.1亮度特征提取
像素点O(x,y)的亮度特征l(x,y)的计算公式如下:
式中,R表示像素点O(x,y)处亮度与图像背景亮度的差值(图像 背景指唐卡图像中佛像或人像身后的背景图),μx、μy分别为像素点 O(x,y)水平和垂直方向的像素灰度值,C1为常数并根据经验取1;且
式中,N为图像中所有像素点个数,xi和yi分别为像素点O(x,y)的 水平和垂直方向上第i个像素点的灰度值;
b.2.2颜色特征提取
像素点O(x,y)的颜色特征c(x,y)的计算公式如下:
其中:
σx、σy作为像素点O(x,y)的颜色参数,C2为常数并根据经验取1;
b.2.3纹理特征提取
像素点O(x,y)的纹理特征t(x,y)的计算公式如下:
C3为常数并根据经验取1;
b.3对称特征值计算
b.3.1设置对称模板
针对高为U、宽为V的样本图像,在提取像素点O(x,y)的亮度、 颜色、纹理特征时,如图1所示,以这个像素点为中心点得到长为 3h、宽为w的矩形并记为AFHC,作为对称模板,其中3h≤U且w≤V;
b.3.2改变模板尺度
将矩形AFHC分为长为h、宽为w的三个小的矩形,分别记为ABDC、 BEGD和EFHG,将矩形AFHC的两长边AF和CH的中点记为I1、I2,线 段I1I2与水平方向的夹角为θ′;
b.3.3标记对称像素
将矩形ABDC、BEGD和EFHG底层描述算子χ2(g,h)的直方图记为 R1、R2、R3,其中,直方图R1、R2、R3的横坐标均为矩形中像素点的 坐标值,纵坐标分别表示像素点的亮度、颜色和纹理特征值;
底层描述算子χ2(g,h)采用χ2-distance函数进行计算,且:
式中,k表示矩形中的像素点,g(k)和h(k)可交替调用式(3)、 (6)、(9)中的亮度、颜色、纹理函数,即g(k)和h(k)分别依次取 式(3)、(6)、(9)中的亮度、颜色、纹理函数,共有3*3=9种取值 方式;
计算出矩形ABDC、BEGD和EFHG的底层描述算子的直方图之间的 距离,即像素点O(x,y)的差分特征值Hi,j(x,y,θ,s),具体计算如下:
其中:i,j分别表示直方图标号,θ为角度并取0°和45°,s 为尺度,Ri(k)表示直方图Ri中第k个像素点的纵坐标值;
当上述方法得到的像素点差分特征值超过阈值3时(3为经验值), 则这一点的差分特征值被视为具有对称特性的特征值,人工标记为正 标签,记为m=1,如此点的特征值为非对称性特征值,则人工标记为 负标签,记为m=0;
b.4多实例学习框架的建立
多实例学习可以被形容为将每一个样本图像的像素点看为一个 集合,每个集合有很多实例学习,将不同尺度和角度组合下计算得到 的该像素点的差分特征值作为集合中的实例,每个实例学习都有自己 的标签m,如m=1则为正,人工标记为对称轴标签;m=0则为负,则 人工标记为非对称轴标签,一个像素点的集合当中如果正标签较多则 集合为正,负标签较多则集合为负,正负标签一样多则随机选择为正 或负;
b.4.1人工标记实例图像
当一个像素点的集合为正,则将该像素点标记为对称轴像素,且 标签值为1,若集合为负则标记为非对称轴像素,且标签值为0;
b.4.2训练参数
将训练样本中的像素点与标签值输入到如下公式中,经过大量样 本带入计算可以训练出βd、βe两个参数,计算公式如下:
S(x,y,θ,s)=∑ijβdHij(x,y,θ,s)+βeE(x,y,θ,s) (12)
式中,Hij(x,y,θ,s)为像素点的差分特征值,E(x,y,θ,s)为像素 点的边缘强度特征,S(x,y,θ,s)为像素点的标签值;
b.4.3测试参数
随机选取13个角度以及八邻域方向,则每个像素点的集合有 13*8=104个实例进行学习,最后将测试样本图像输入到公式(12) 中得出每个像素点集合的标签,进而判断得出测试样本图像中的对称 轴像素点;
b.5对称轴检测
b.5.1对称轴拟合
然而初步分割的点阵比较粗糙不符合对称轴直线的要求,为此, 进一步采用最小二乘函数即下式得到测试样本图像对称点的拟合直 线:
b=y-ax (14)
yj=axi+b (15)
式中:x、y代表待拟合像素点O(x,y)的坐标值,N代表测试图 像中像素点的个数,a为拟合直线的斜率,b为拟合直线的斜矩,xi是 拟合后像素点的横坐标,yj是拟合后像素点的纵坐标;
b.5.2坐标轴平移
将拟合直线转化为坐标轴的形式以便后面的计算,具体过程如下:
(1)设拟合后对称轴上像素点的坐标为M(xi,yi);
(2)将拟合后得到的对称轴设为坐标系中的y轴,x轴保持不 动,并将原有的所有图像像素点坐标O(x,y)更新为基于新坐标轴的坐 标点m(xu,yv),将每个像素点坐标左移xi个单位,y坐标不变,公 式定义为:
xu=xr-x1 (16)
yv=yj (17)
从而将所有像素点坐标更新为以图像对称轴为y轴的对称坐标系;
b.6原始图像构建
由于对称轴分割步骤的完成,可将唐卡图像分割为左右两幅无论 色彩、构图或纹理特征都相似的图片,所以可以将修复区域的对称图 像通过镜面翻转的方式来构建无损原始图像,由于经过唐卡破损修复 后很小概率出现图像左右对称区域损坏完全相同,可忽略不计对称区 域完全相同破损的情况;
c量化评价指标
c.1Harris角点特征提取
c.1.1自动赋予权值
引入Harris算子,并使用高斯窗口w(x,y)代替二值窗口函数, 对离中心点越近的像素赋予越大的权重,以减少噪声影响,计算公式 为:
式中,σ为高斯窗口概率的期望,x、y为更新后像素点坐标值;
c.1.2特征向量计算
设Ix与Iy分别为图像窗口矩阵在x轴方向与y轴方向的特征向 量,其中,窗口矩阵为在检测harris算子时使用一个像素值为8*8 大小的矩形移动窗口,该窗口中包含的每个像素点的差分特征值组成 了一个8*8的窗口矩阵,即:
首先计算水平方向的特征矩阵A并给其赋予权值w,为矩阵叉 乘符号:
计算垂直方向的特征矩阵B并给其赋予权值w:
同时计算Ix向量和Iy向量相对于水平方向的夹角方向上的特征 矩阵C、D并赋予权值w:
综合得到特征矩阵M
c.1.3角点判断
计算每个像素的Harris角点响应值R:
R=(AB-CD)2p(A+B)2 (23)
式中,p为搜索权值,调节p值可调整角点的搜索精密度,p值 太大可能将不是角点的像素识别为角点,p值太小可能将是角点的像 素忽略,通过大量计算,p值一般取0.1,并在局部范围内寻找R的极 大值点Rmax,若Harris角点响应值R大于阈值3(3为经验值),则视为角点;
c.2初步量化评价指标
c.2.1构建参考图像
将通过不同算法修复得到的图像利用步骤b.3中底层描述算子 差分法进行图像对称分割,并将提取出的对称点转化为坐标轴形式;
c.2.2针对修复图像进行角点提取
使用8*8的高斯滑动窗口矩阵对图像进行角点识别,利用Ix向量 和Iy向量的特征向量来表征变化最快和最慢的两个方向,即若两个特 征向量值都大于阈值3则为角点区域,一大一小则为边缘区域,两个 都小于阈值3则目标点处于灰度值变化缓慢的图像区域,同时获取角 点坐标位置J(xJ,yH);将角点坐标同样放置于对称坐标系中,更新 后坐标为j(xj,yh),获取对称坐标轴原点c(xc,0);在实验中, 图像扫描时只针对每个像素的八邻域范围进行检测;
c.2.3计算预测图像与实际图像的差值
坐标转换后,计算更新后角点j(xj,yh)到原点c(xc,0)的 距离,w1为预测图像的角点距离值,w2为实际图像的角点距离值, 定义为:
式中,K值为角点像素j(xj,yh)中xj的最大值;利用预测图像 与实际图像距离的差值得到图像修复评价指标H,即:
H=|w1-w2| (26)
修复评价指标H的值越高,说明图像修复质量越高;
d精细化评价指标模型构建
d.1初始化模型
首先针对现存的唐卡图像数据库中的图片进行预处理,由于图像 库中图片较少,所以利用GAN对抗生成网络中的生成对抗网络技术 针对现存唐卡数据库中的图像进行不同程度的扭曲、翻转等基本操作, 形成大量能够以假乱真的实验图像数据,具体过程如下:
d.2建立模型框架
初始设定生成模型G、判别模型D,生成模型用来对唐卡数据库 中的图像进行翻转、大下改变或变形操作生成大量不同但相似的图像; 判别模型用来对这些图片进行判断,是否为对实验数据有用的图片, 且利用下面的判别公式来计算生成出的图片与原始图像的差别程度, 损失大于0.5就丢弃,小于或等于0.5就留到数据库中使用:
(1)随机产生一组向量成为生成模型的输入向量,并记为D(x);
(2)选取样本
从现有唐卡数据库中选取图像作为输入X;
(3)判别网络的建立
将D(x)或者X作为判别模型的输入,经过判别模型后输出值 为一个0到1之间的数,判别模型具体采用损失函数Z(x),其公式 如下:
Z(x)=-((1-y)log(1-D(G(z)))+ylogD(x)) (27)
式中,G(z)代表通过翻转、大下改变或变形操作生成的图像, x代表原始唐卡数据库中的图像,y表示想要扩大的数据库比例即生 成的新图像与原始图像的数量比例;
d.6指标均衡化
设数据库中有U幅图像,每幅图像通过生成模型的变形生成了V 个损失值小于或等于0.5的有用样本,每个样本利用步骤c得到图像 修复评价指标HV,那么样本图像修复评价指标均值M为:
将该均值指标作为图像修复质量的最终评价指标,指标愈高,修 复质量愈高。

Claims (3)

1.一种对称唐卡修复后图像的无参考质量评价方法,其特征在于,包括如下步骤:
a样本分类
首先从唐卡图像数据库中人工筛选出中心构图且四周对称的图像作为目标样本,并记为F(f1,f2…fm),然后将筛选出的目标样本实现样本分类,分为训练样本和测试样本,具体地:
a.1训练样本
在目标样本F(f1,f2…fm)中随机地选取一半样本作为训练样本,记为A(a1,a2…an),将另一半样本作为测试样本,记为B(b1,b2…bn);将训练样本的图像分辨率统一归一化为U*V,再转化为JPEG、PNG、JPEG2000三种图像格式;
a.2测试样本
将所有测试样本的图像分辨率统一归一化为U*V,再转化为JPEG、PNG、JPEG2000三种图像格式;
b对称轴自动检测
将步骤a中得到的训练样本A(a1,a2…an)取出,并进行边缘特征以及亮度、色彩、纹理特征的融合提取,在多实例学习框架下进行对称轴检测,实现图像对称轴的自动检测,从而构建出破损前的原始图像,具体地:
b.1边缘特征提取
第一步:在训练样本图像上随机选择一个像素点O(x,y),取过O(x,y)点的一条线段NM,其中N、M点是与O点距离相等的两点,线段NO的距离记为当前的尺度s,线段NM的方向为当前NM连线与水平方向的夹角θ;
第二步:在线段NM所在的直线上取两个线段l1和l2,l1和l2分别是以N和M为中心的两条线段,l1和l2的长度为当前尺度s长度的0.2-0.3倍;
第三步:在线段l1上取边缘强度最大的点a,在线段l2上取边缘强度最大的点b,将a、b点的边缘强度分别记为Pa和P
第四步:将前三步得到的参数利用下述公式计算出像素点O(x,y)的边缘强度特征:
通过在规定参数内改变尺度s和角度θ,实现多尺度多角度的边缘强度特征提取;
b.2亮度、颜色、纹理特征的提取
b.2.1亮度特征提取
像素点O(x,y)的亮度特征l(x,y)的计算公式如下:
式中,R表示像素点O(x,y)处的亮度与图像背景亮度的差值,μx、μy分别为像素点O(x,y)水平和垂直方向的像素灰度值,C1为常数并根据经验取1;且
式中,N为图像中所有像素点个数,xi和yi分别为像素点O(x,y)的水平和垂直方向上第i个像素点的灰度值;
b.2.2颜色特征提取
像素点O(x,y)的颜色特征c(x,y)的计算公式如下:
其中:
σx、σy作为像素点O(x,y)的颜色参数,C2为常数并根据经验取1;
b.2.3纹理特征提取
像素点O(x,y)的纹理特征t(x,y)的计算公式如下:
C3为常数并根据经验取1;
b.3对称特征值计算
b.3.1设置对称模板
针对高为U、宽为V的样本图像,在提取像素点O(x,y)的亮度、颜色、纹理特征时,以这个像素点为中心点得到长为3h、宽为w的矩形并记为AFHC,作为对称模板,其中3h≤U且w≤V;
b.3.2改变模板尺度
将矩形AFHC分为长为h、宽为w的三个小的矩形,分别记为ABDC、BEGD和EFHG,将矩形AFHC的两长边AF和CH的中点记为I1、I2,线段I1I2与水平方向的夹角为θ′;
b.3.3标记对称像素
将矩形ABDC、BEGD和EFHG底层描述算子χ2(g,h)的直方图记为R1、R2、R3,其中,直方图R1、R2、R3的横坐标均为矩形中像素点的坐标值,纵坐标分别表示像素点的亮度、颜色和纹理特征值;
底层描述算子χ2(g,h)采用χ2-distance函数进行计算,且:
式中,k表示矩形中的像素点,g(k)和h(k)分别交替调用式(3)、(6)、(9)中的亮度、颜色、纹理函数;
计算出矩形ABDC、BEGD和EFHG的底层描述算子的直方图之间的距离,即像素点O(x,y)的差分特征值Hi,j(x,y,θ,s),具体计算如下:
其中:i,j分别表示直方图标号,θ为角度并取0°和45°,s为尺度,Ri(k)表示直方图Ri中第k个像素点的纵坐标值;
当上述方法得到的像素点差分特征值超过阈值3时,则这一点的差分特征值被视为具有对称特性的特征值,人工标记为正标签,记为m=1,如此点的特征值为非对称性特征值,则人工标记为负标签,记为m=0;
b.4多实例学习框架的建立
多实例学习可以形容为将每一个样本图像的像素点看为一个集合,每个集合有很多实例学习,将不同尺度和角度组合下计算得到的该像素点的差分特征值作为集合中的实例,每个实例学习都有自己的标签m,如m=1则为正,人工标记为对称轴标签;m=0则为负,则人工标记为非对称轴标签,一个像素点的集合当中如果正标签较多则集合为正,负标签较多则集合为负,正负标签一样多则随机选择为正或负;
b.4.1人工标记实例图像
当一个像素点的集合为正,则将该像素点标记为对称轴像素,且标签值为1,若集合为负则标记为非对称轴像素,且标签值为0;
b.4.2训练参数
将训练样本中的像素点与标签输入到如下公式中,经过大量样本带入计算可以训练出βd、βe两个参数,计算公式如下:
S(x,y,θ,s)=∑ijβdHij(x,y,θ,s)+βeE(x,y,θ,s) (12)
式中,Hij(x,y,θ,s)为像素点的差分特征值,E(x,y,θ,s)为像素点的边缘强度特征,S(x,y,θ,s)为像素点的标签值;
b.4.3测试参数
随机选取13个角度以及八邻域方向,则每个像素点的集合有104个实例进行学习,最后将测试样本图像输入到公式(12)中得出每个像素点集合的标签,进而判断得出测试样本图像中的对称轴像素点;
b.5对称轴检测
b.5.1对称轴拟合
然而初步分割的点阵比较粗糙不符合对称轴直线的要求,为此,进一步采用最小二乘函数即下式得到测试样本图像对称点的拟合直线:
b=y-ax (14)
yj=axi+b (15)
式中:x、y代表待拟合像素点O(x,y)的坐标值,N代表测试图像中像素点的个数,a为拟合直线的斜率,b为拟合直线的斜矩,xi是拟合后像素点的横坐标,yj是拟合后像素点的纵坐标;
b.5.2坐标轴平移
将拟合直线转化为坐标轴的形式以便后面的计算,具体过程如下:
(1)设拟合后对称轴上像素点的坐标为M(xi,yi);
(2)将拟合后得到的对称轴设为坐标系中的y轴,x轴保持不动,并将原有的所有图像像素点坐标O(x,y)更新为基于新坐标轴的坐标点m(xu,yv),将每个像素点的坐标左移xi个单位,y坐标不变,公式定义为:
xu=x-xi (16)
yv=y (17)
从而将所有像素点坐标更新为以图像对称轴为y轴的对称坐标系;
b.6原始图像构建
由于对称轴分割步骤的完成,可将测试图像分割为左右两幅无论色彩、构图或纹理特征都相似的图片,所以可以将修复区域的对称图像通过镜面翻转的方式来构建无损原始图像,由于经过唐卡破损修复后很小概率出现图像左右对称区域损坏完全相同,因此可忽略不计对称区域完全相同破损的情况;
c量化评价指标
c.1Harris角点特征提取
c.1.1自动赋予权值
引入Harris算子,并使用高斯窗口w(x,y)代替二值窗口函数,对离中心点越近的像素赋予越大的权重,以减少噪声影响,计算公式为:
式中,σ为高斯窗口概率的期望,x、y为更新后像素点的坐标值;
c.1.2特征向量计算
设Ix与Iy分别为图像窗口矩阵在x轴方向与y轴方向的特征向量,其中,窗口矩阵为在检测Harris算子时使用一个像素值为8*8大小的矩形移动窗口,该窗口中包含的每个像素点的差分特征值组成了一个8*8的窗口矩阵,即:
首先计算水平方向的特征矩阵A并给其赋予权值w,为矩阵叉乘符号:
计算垂直方向的特征矩阵B并给其赋予权值w:
同时计算Ix向量和Iy向量相对于水平方向的夹角方向上的特征矩阵C、D并赋予权值w:
综合得到特征矩阵M
c.1.3角点判断
计算每个像素点的Harris角点响应值R:
R=(AB-CD)2p(A+B)2 (23)
式中,p为搜索权值,调节p值可调整角点的搜索精密度,p值取0.1,并在局部范围内寻找R的极大值点Rmax,若Harris角点响应值R大于阈值3,则将该点视为角点;
c.2初步量化评价指标
c.2.1构建参考图像
将通过不同算法修复得到的图像利用步骤b.3中底层描述算子差分法进行图像对称分割,并将提取出的对称点转化为坐标轴形式;
c.2.2针对修复图像进行角点提取
使用8*8的高斯滑动窗口矩阵对图像进行角点识别,利用Ix向量和Iy向量的特征向量来表征变化最快和最慢的两个方向,即若两个特征向量值都大于阈值3则为角点区域,一大一小则为边缘区域,两个都小于阈值3则目标点处于灰度值变化缓慢的图像区域,同时获取角点坐标位置J(xJ,yH);将角点坐标同样放置于对称坐标系中,更新后坐标为j(xj,yh),获取对称坐标轴原点c(xc,0);在实验中,图像扫描时只针对每个像素的八邻域范围进行检测;
c.2.3计算预测图像与实际图像的差值
坐标转换后,计算更新后角点j(xj,yh)到原点c(xc,0)的距离,w1为预测图像的角点距离值,w2为实际图像的角点距离值,定义为:
式中,K值为角点像素j(xj,yh)中xj的最大值;利用预测图像与实际图像距离的差值得到图像修复评价指标H,即:
H=|w1-w2| (26)
修复评价指标H的值越高,说明图像修复质量越高。
2.根据权利要求1所述的一种对称唐卡修复后图像的无参考质量评价方法,其特征在于,对图像修复评价指标进行进一步的精细化,具体是在步骤c基础上通过下述步骤进行:
d精细化评价指标模型构建
d.1初始化模型
首先针对现存的唐卡图像数据库中的图片进行预处理,利用GAN对抗生成网络中的生成对抗网络技术,针对现存唐卡数据库中的图像进行不同程度的扭曲、翻转等基本操作,形成大量能够以假乱真的实验图像数据,具体过程如下:
d.2建立模型框架
初始设定生成模型G、判别模型D,生成模型用来对唐卡数据库中的图像进行翻转、大下改变或变形操作生成大量不同但相似的图像;判别模型用来对这些图片进行判断,是否为对实验数据有用的图片,且利用下面的判别公式来计算生成出的图片与原始图像的差别程度,损失大于0.5则丢弃,小于或等于0.5就留到数据库中使用:
(1)随机产生一组向量成为生成模型的输入向量,并记为D(x);
(2)选取样本
从现有唐卡数据库中选取图像作为输入X;
(3)判别网络的建立
将D(x)或者X作为判别模型的输入,经过判别模型后输出值为一个0到1之间的数,判别模型具体采用损失函数Z(x),其公式如下:
Z(x)=-((1-y)log(1-D(G(z)))+ylogD(x)) (27)
式中,G(z)代表通过翻转、大下改变或变形操作生成的图像,x代表原始唐卡数据库中的图像,y表示想要扩大的数据库比例即生成的新图像与原始图像的数量比例;
d.6指标均衡化
设数据库中有U幅图像,每幅图像通过生成模型的变形生成了V个损失值小于或等于0.5的有用样本,每个样本利用步骤c得到图像修复评价指标HV,那么样本图像修复评价指标均值M为:
将该均值指标作为图像修复质量的最终评价指标,指标愈高,修复质量愈高。
3.根据权利要求1所述的一种对称唐卡修复后图像的无参考质量评价方法,其特征在于,步骤b.1中,s取值2、4、6或8,θ取值15°、30°、45°或60°。
CN201811292053.XA 2018-11-01 2018-11-01 一种对称唐卡修复后图像的无参考质量评价方法 Active CN109598681B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811292053.XA CN109598681B (zh) 2018-11-01 2018-11-01 一种对称唐卡修复后图像的无参考质量评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811292053.XA CN109598681B (zh) 2018-11-01 2018-11-01 一种对称唐卡修复后图像的无参考质量评价方法

Publications (2)

Publication Number Publication Date
CN109598681A true CN109598681A (zh) 2019-04-09
CN109598681B CN109598681B (zh) 2022-09-13

Family

ID=65958270

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811292053.XA Active CN109598681B (zh) 2018-11-01 2018-11-01 一种对称唐卡修复后图像的无参考质量评价方法

Country Status (1)

Country Link
CN (1) CN109598681B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110119691A (zh) * 2019-04-19 2019-08-13 华南理工大学 一种基于局部二维模式和不变矩查找的人像定位方法
CN110717550A (zh) * 2019-10-18 2020-01-21 山东大学 一种基于多模态图像缺失补全的分类方法
CN111929324A (zh) * 2020-07-22 2020-11-13 青海千寻信息科技有限公司 一种手绘唐卡质量检测方法
CN113838029A (zh) * 2021-09-24 2021-12-24 万章敏 医疗影像评价方法及系统
CN117444402A (zh) * 2023-12-26 2024-01-26 天津市三鑫阳光工贸有限公司 一种风力发电支架焊接装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130336583A1 (en) * 2011-02-25 2013-12-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Determining model parameters based on transforming a model of an object
CN106327501A (zh) * 2016-08-31 2017-01-11 西北民族大学 一种有参考型唐卡图像修复后质量评价方法
CN106778788A (zh) * 2017-01-13 2017-05-31 河北工业大学 对图像进行美学评价的多特征融合方法
CN107767363A (zh) * 2017-09-05 2018-03-06 天津大学 一种基于自然场景的无参考高动态图像质量评价算法
CN108510485A (zh) * 2018-03-27 2018-09-07 福州大学 一种基于卷积神经网络的无参照图像质量评估方法
CN108681997A (zh) * 2018-04-26 2018-10-19 天津大学 基于改进lbp特征的无参考多失真图像质量评价方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130336583A1 (en) * 2011-02-25 2013-12-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Determining model parameters based on transforming a model of an object
CN106327501A (zh) * 2016-08-31 2017-01-11 西北民族大学 一种有参考型唐卡图像修复后质量评价方法
CN106778788A (zh) * 2017-01-13 2017-05-31 河北工业大学 对图像进行美学评价的多特征融合方法
CN107767363A (zh) * 2017-09-05 2018-03-06 天津大学 一种基于自然场景的无参考高动态图像质量评价算法
CN108510485A (zh) * 2018-03-27 2018-09-07 福州大学 一种基于卷积神经网络的无参照图像质量评估方法
CN108681997A (zh) * 2018-04-26 2018-10-19 天津大学 基于改进lbp特征的无参考多失真图像质量评价方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
胡文瑾,王维兰,刘仲民: "结合领域知识和多特征表示的唐卡破损区域分割算法", 《中南大学学报(自然科学版)》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110119691A (zh) * 2019-04-19 2019-08-13 华南理工大学 一种基于局部二维模式和不变矩查找的人像定位方法
CN110717550A (zh) * 2019-10-18 2020-01-21 山东大学 一种基于多模态图像缺失补全的分类方法
CN111929324A (zh) * 2020-07-22 2020-11-13 青海千寻信息科技有限公司 一种手绘唐卡质量检测方法
CN113838029A (zh) * 2021-09-24 2021-12-24 万章敏 医疗影像评价方法及系统
CN113838029B (zh) * 2021-09-24 2024-04-30 南京中赢医疗科技有限公司 医疗影像评价方法及系统
CN117444402A (zh) * 2023-12-26 2024-01-26 天津市三鑫阳光工贸有限公司 一种风力发电支架焊接装置
CN117444402B (zh) * 2023-12-26 2024-02-23 天津市三鑫阳光工贸有限公司 一种风力发电支架焊接装置

Also Published As

Publication number Publication date
CN109598681B (zh) 2022-09-13

Similar Documents

Publication Publication Date Title
CN109598681A (zh) 一种对称唐卡修复后图像的无参考质量评价方法
CN115082467B (zh) 基于计算机视觉的建材焊接表面缺陷检测方法
CN104794491B (zh) 基于预分类的模糊聚类钢板表面缺陷检测方法
CN106169081B (zh) 一种基于不同照度的图像分类及处理方法
CN105825511B (zh) 一种基于深度学习的图片背景清晰度检测方法
CN106228137A (zh) 一种基于关键点定位的atm机异常人脸检测方法
CN106875373B (zh) 基于卷积神经网络剪枝算法的手机屏幕mura缺陷检测方法
CN107392232B (zh) 一种浮选工况分类方法和系统
CN111339882B (zh) 基于实例分割的输电线路隐患检测方法
CN107742099A (zh) 一种基于全卷积网络的人群密度估计、人数统计的方法
JP2021043203A (ja) コロニーコントラスト収集
CN104408449B (zh) 智能移动终端场景文字处理方法
CN111738064B (zh) 一种雾霾图像的雾浓度识别方法
CN107481188A (zh) 一种图像超分辨率重构方法
CN106096610A (zh) 一种基于支持向量机的文档图像二值化方法
CN107451999A (zh) 基于图像识别的异物检测方法和装置
CN114092389A (zh) 一种基于小样本学习的玻璃面板表面缺陷检测方法
CN105427275B (zh) 大田环境麦穗计数方法及装置
CN104077577A (zh) 一种基于卷积神经网络的商标检测方法
CN103034838A (zh) 一种基于图像特征的特种车辆仪表类型识别与标定方法
CN113869162A (zh) 一种基于人工智能的违章识别方法及系统
CN108765402A (zh) 无纺布缺陷检测与分类方法
CN109948566A (zh) 一种基于权重融合与特征选择的双流人脸反欺诈检测方法
CN109785301A (zh) 一种基于图像处理的钢轨波磨自动识别方法与评估方法
CN108846831A (zh) 基于统计特征和图像特征相结合的带钢表面缺陷分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant