CN113284152B - 一种光场特征油画鉴别方法 - Google Patents

一种光场特征油画鉴别方法 Download PDF

Info

Publication number
CN113284152B
CN113284152B CN202110357183.2A CN202110357183A CN113284152B CN 113284152 B CN113284152 B CN 113284152B CN 202110357183 A CN202110357183 A CN 202110357183A CN 113284152 B CN113284152 B CN 113284152B
Authority
CN
China
Prior art keywords
light field
image
images
gray
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110357183.2A
Other languages
English (en)
Other versions
CN113284152A (zh
Inventor
金海燕
孙彤鑫
肖照林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN202110357183.2A priority Critical patent/CN113284152B/zh
Publication of CN113284152A publication Critical patent/CN113284152A/zh
Application granted granted Critical
Publication of CN113284152B publication Critical patent/CN113284152B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种光场特征油画鉴别方法,过程如下:将微透镜阵列板贴合于油画表面并拍摄,得到光场原始图像;对光场原始图像进行解码得到四维参数化矩阵;提取多个子孔径图像;将中心行子孔径图像统一剪裁为分辨率相等的图像,将剪裁后的中心行子孔径图像转换为灰度图像,计算灰度图像的平均亮度值,将所有灰度图像中亮度值低于灰度图像平均亮度值的子孔径图像筛除出去,再选择出最左角度和最右角度的灰度图像;对两幅灰度图像逐像素的提取基于视角稳定变化的特征点作为数据集,并固定五个初始质心点对数据集进行K‑Means聚类分析,得到最终质心点;将最终质心点连接成多边形图像,计算相似性值,当相似性值低于阈值时为真,反之为假。

Description

一种光场特征油画鉴别方法
技术领域
本发明属于数字图像处理和光学技术领域,涉及一种光场特征油画鉴别方法。
背景技术
油画是使用快干性的颜料在画布上绘制的特殊画种,其特点在于表面留有颜料的凸凹纹理。因其具有很高的收藏价值,吸引国内外大量收藏家购买。而目前油画交易市场上仍存在大量难以辨认的赝品油画,因此油画鉴别技术的研究十分迫切。
随着油画产业的快速发展,油画鉴别方法的研究受到越来越多研究人员的关注。画家寒风提出鉴别油画要分析其绘画风格、技法特点和画家所处时代背景等信息,该方法靠人的主观经验来分析的,因此,不具有通用性和可靠性。Edwards和Benoy提出激光拉曼显微无创分析法,该方法用拉曼光谱仪对油画颜料进行分子特性分析,但激光拉曼显微无创分析法仅限于鉴别文艺复兴时期的油画作品。王红提出利用中子活化技术鉴别油画真伪的方法,首先利用中子活化法对真迹油画进行照射得到各元素成像分布图,进而将其进行处理得到由该真迹油画的若干特征单元组成的评价标准集,然后再用同样的方法得到表征待鉴别油画的待鉴别集合,最后利用计算机比较两个集合的相似度作油画真伪鉴别的依据,该方法使用中子活化技术来分析,灵敏度因元素而异,且变化很大。苏雪薇提出基于智能视觉的油画真伪鉴定技术,首先构建智能视觉检测模型捕获油画信息,获取油画图像特征,进而融合油画特征的颜色和形状特征,再计算油画特征差异系数与差异特征阈值,通过油画真伪鉴定规则实现油画真伪鉴定,该方法融合了五维特征信息,计算复杂度高。王倩提出基于图像识别的油画真伪鉴别方法,该方法围绕油画在数字化后所形成的数字图像做分析研究,首先分析油画的局部特征区域和笔触风格,再分析油画整体的风格提取全局颜色特征和纹理特征,再将上述得到的特征进行融合,最后通过三个神经网络训练以实现油画鉴别,该方法需要融合多种特征,还需进行三个神经网络训练,系统复杂性太高,鉴别速度慢。
发明内容
本发明的目的是提供一种光场特征油画鉴别方法,解决了现有真伪油画鉴别方法存在的人为主观因素影响而通用性低和复杂性高等问题。
本发明所采用的技术方案是,一种光场特征油画鉴别方法,具体按照以下步骤实施:
步骤1、将微透镜阵列板贴合于油画表面,并用聚焦式光场相机进行拍摄,得到光场原始图像;
步骤2、对步骤1中得到的光场原始图像进行解码得到四维参数化矩阵L[s,t,u,v];
步骤3、利用步骤2得到的四维参数化矩阵L[s,t,u,v]提取多个子孔径图像;
步骤4、将中心行子孔径图像统一剪裁为分辨率大小相等的图像,得到剪裁后的中心行子孔径图像,将剪裁后的中心行子孔径图像转换为灰度图像,计算灰度图像的平均亮度值,将所有灰度图像中亮度值低于灰度图像平均亮度值的子孔径图像筛除出去,再选择出最左角度和最右角度的灰度图像;
步骤5、对步骤4选出的两幅灰度图像逐像素的提取基于视角稳定变化的特征点;
步骤6、以步骤5中提取出的特征点作为数据集,并固定五个初始质心点对数据集进行K-Means聚类分析,进而得到最终质心点;
步骤7、将步骤6得到的最终质心点连接构成多边形图像,并计算多边形图像相似性值,当鉴别油画真伪时,重复步骤1至步骤7,当多边形图像相似性值低于设定的阈值时判定该油画为真,反之则为假。
本发明的特征还在于,
步骤1具体过程如下:将油画的表面垂直于桌面并固定在桌面上,将微透镜阵列板贴合于油画表面,使用聚焦式光场相机距离微透镜阵列板0.2米进行拍摄,得到光场原始图像。
步骤2具体按照以下步骤实施:
步骤2.1、将光场原始图像以及光场原始图像对应的txt文件、白图像分别输入至MATLAB软件中进行读取,并利用im2double函数将txt文件进行double操作转化为微透镜阵列的旋转角数据rot_angle、水平间隔和垂直间隔数据[lens.x,lens.y]以及每个微透镜的高度数据height、宽度数据width、中心点坐标数据[center.x,center.y];
步骤2.2、利用imrotate函数将光场原始图像、白图像分别以微透镜阵列的旋转角数据rot_angle进行旋转从而对光场原始图像、白图像中的每个微透镜中心进行定位;
步骤2.3、利用微透镜阵列的水平间隔和垂直间隔数据[lens.x,lens.y]计算得到光场原始图像的方向信息数据[u,v],表达式为:
u=ceil(lens.y/2)*2+1
v=ceil(lens.x/2)*2+1 (1)
式(1)中,ceil为取整函数;
步骤2.4、利用微透镜阵列中每个微透镜的高度数据height对光场原始图像中每个微透镜的垂直方向数据s进行赋值,利用微透镜阵列中每个微透镜的宽度数据width对光场原始图像中每个微透镜的水平方向数据t进行赋值,得到光场原始图像的位置信息数据[s,t];
步骤2.5、以光场原始图像的方向信息数据的u为高度,v为宽度建立光场原始图像的UV平面,以光场原始图像的位置信息数据的s为高度,t为宽度建立光场原始图像的ST平面,以光线与UV平面和ST平面的交点参数化表示光场,在光场中计算UV平面的中心点坐标、每个微透镜中心对应在光场原始图像上的宏像素坐标、在光场原始图像上每个宏像素在水平和垂直方向相对于UV平面中心点坐标的偏移量、光场原始图像上每个像素的坐标,并将每个像素的坐标通过r、g、b三个通道输出,得到四维参数化矩阵L[s,t,u,v];
其中,计算UV平面的中心点坐标的表达式为:
UV.center.width=floor(u/2)+1
UV.center.height=floor(v/2)+1 (2)
式(2)中,floor为取整函数;
计算每个微透镜中心对应在光场原始图像上的宏像素坐标的表达式为:
macrocenter.x=round(centers((s-1)*ST.width+t,1))+1
macrocenter.y=round(centers((t-1)*ST.height+t,2))+1 (3)
式(3)中,round为取整函数,centers为每个微透镜的中心点坐标数据,ST.width为ST平面宽度,ST.height为ST平面高度;
计算在光场原始图像上每个宏像素在水平和垂直方向相对于UV平面中心点坐标的偏移量的表达式为:
offset.y=UV.center.height-u
offset.x=UV.center.width-v (4)
计算光场原始图像上每个像素的坐标的表达式为:
piexl.x=macrocenter.x+offset.x
piexl.y=macrocenter.y+offset.y (5)。
步骤3具体过程如下:采用squeeze函数提取四维参数化矩阵L[s,t,u,v]中每一对(u,v)角度的子孔径图像,得到从左到右按视角有序排列的多个子孔径图像。
步骤4具体按照以下步骤实施:
步骤4.1、将中心行子孔径图像统一剪裁为分辨率大小相等的图像,得到剪裁后的中心行子孔径图像,表达式为:
imcrop(image,[10,10,399,399]) (6)
其中,imcrop为剪裁函数,image为每一幅中心行子孔径图像;
步骤4.2、将步骤4.1得到的剪裁后的中心行子孔径图像转换为灰度图像,表达式为:
rgb2gray(image1) (7)
其中,rgb2gray为转换为灰度函数,image1为每一幅剪裁后的中心行子孔径图像;
步骤4.3、计算步骤4.2转换的灰度图像的平均亮度值,将所有灰度图像中亮度值低于灰度图像平均亮度值的子孔径图像筛除出去,再选择出最左角度和最右角度的灰度图像,其中,灰度图像的平均亮度值的表达式为:
avg=mean(avg_gray(:)) (8)
式(8)中,mean为求平均函数,avg_gray为计算所有灰度图像平均灰度函数。
步骤5具体按照以下步骤实施:
步骤5.1、分别计算步骤4中选出的最左角度灰度图像的每个像素点和最右角度灰度图像的每个像素点的邻域像素均值,表达式为:
Figure BDA0003004232440000051
其中,M(i,j)为每个像素点I(i,j)的邻域像素均值,len为邻域范围半径;
步骤5.2、计算步骤4中选出的最左角度灰度图像的每个像素点相对于最右角度灰度图像的对应位置像素点的视差值,表达式为:
Figure BDA0003004232440000052
式(10)中,D(i,j)为最左角度灰度图像的每个像素点的视差值,abs为求绝对值函数,k为视差,l为最左角度灰度图像,r为最右角度灰度图像;
步骤5.3、将步骤5.2得到的视差值小于阈值A的像素点筛除;
步骤5.4、将步骤5.3筛除后保留的像素点中每个扎堆的像素点集合保留该集合内像素点视差值最大的像素点作为特征点;
步骤6具体按照以下步骤实施:
步骤6.1、将步骤5提取出的特征点根据坐标位置构成数据集;
步骤6.2、从步骤6.1构成的数据集中选择(50,50)、(50,350)、(350,350)、(350,50)、(200,200)五个点作为初始质心点;
步骤6.3、对步骤6.1构成的数据集进行K-Means聚类分析,得到最终的聚类质心点,表达式为:
Figure BDA0003004232440000061
其中ρ表示点(x1,x2)与点(y1,y2)之间的欧氏距离。
步骤7具体按照以下步骤实施:
步骤7.1、将步骤6得到的最终聚类质心根据坐标点使用plot函数连接构成多边形图像;
步骤7.2、计算步骤7.1构成的多边形图像各顶点与多边形图像左下角(0,0)坐标点的平均夹角与平均长度,并以此平均夹角与平均长度作为多边形图像相似性计算结果,当多边形图像相似性值低于设定的阈值B时判定该油画为真,反之则为假。
本发明的有益效果是,一种光场特征油画鉴别方法,通过在油画表面贴合一块微透镜阵列板并利用光场相机进行拍摄,并对采集的光场原始图像提取中心行子孔径图像,进而在两幅存在特定视差的子孔径图像上进行表面光场特征点提取,对于所有的特征点根据位置进行K-Means聚类,使用最终的聚类质心点构成多边形图像,最后通过多边形图像的相似性度量作为真伪油画鉴别标准,本发明利用微透镜阵列板与油画表面构成的非朗伯表面作为油画表面的唯一性识别依据,并结合光场的多视角特性进行识别,大大提高了真伪油画鉴别的精度。
附图说明
图1是本发明一种光场特征油画鉴别方法的流程图;
图2是本发明一种光场特征油画鉴别方法中光场特征点提取的步骤流程图;
图3是本发明一种光场特征油画鉴别方法中光场特征点分布结构唯一性识别的步骤流程图;
图4是本发明一种光场特征油画鉴别方法中实施例待检测的光场原始图像;
图5是图4光场原始图像的白图像。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明提供一种光场特征油画鉴别方法,如图1所示,具体按照以下步骤实施:
步骤1、将微透镜阵列板贴合于油画表面,并用聚焦式光场相机进行拍摄,得到光场原始图像;
具体过程如下:将油画的表面垂直于桌面并固定在桌面上,将微透镜阵列板贴合于油画表面,使用聚焦式光场相机距离微透镜阵列板0.2米进行拍摄,得到光场原始图像;
步骤2、对步骤1中得到的光场原始图像进行解码得到四维参数化矩阵L[s,t,u,v];
步骤2.1、将光场原始图像以及光场原始图像对应的txt文件、白图像分别输入至MATLAB软件中进行读取,并利用im2double函数将txt文件进行double操作转化为微透镜阵列的旋转角数据rot_angle、水平间隔和垂直间隔数据[lens.x,lens.y]以及每个微透镜的高度数据height、宽度数据width、中心点坐标数据[center.x,center.y];
步骤2.2、利用imrotate函数将光场原始图像、白图像分别以微透镜阵列的旋转角数据rot_angle进行旋转从而对光场原始图像、白图像中的每个微透镜中心进行定位;
步骤2.3、利用微透镜阵列的水平间隔和垂直间隔数据[lens.x,lens.y]计算得到光场原始图像的方向信息数据[u,v],表达式为:
Figure BDA0003004232440000071
式(1)中,ceil为取整函数;
步骤2.4、利用微透镜阵列中每个微透镜的高度数据height对光场原始图像中每个微透镜的垂直方向数据s进行赋值,利用微透镜阵列中每个微透镜的宽度数据width对光场原始图像中每个微透镜的水平方向数据t进行赋值,得到光场原始图像的位置信息数据[s,t];
步骤2.5、以光场原始图像的方向信息数据的u为高度,v为宽度建立光场原始图像的UV平面,以光场原始图像的位置信息数据的s为高度,t为宽度建立光场原始图像的ST平面,以光线与UV平面和ST平面的交点参数化表示光场,在光场中计算UV平面的中心点坐标,并利用for循环遍历微透镜阵列中的每个微透镜,计算每个微透镜中心对应在光场原始图像上的宏像素坐标,再嵌套for循环计算在光场原始图像上每个宏像素在水平和垂直方向相对于UV平面中心点坐标的偏移量,计算光场原始图像上每个像素的坐标,并将每个像素的坐标通过r、g、b三个通道输出,得到四维参数化矩阵L[s,t,u,v];
其中,计算UV平面的中心点坐标的表达式为:
Figure BDA0003004232440000081
式(2)中,floor为取整函数;
计算每个微透镜中心对应在光场原始图像上的宏像素坐标的表达式为:
Figure BDA0003004232440000082
式(3)中,round为取整函数,centers为每个微透镜的中心点坐标数据,ST.width为ST平面宽度,ST.height为ST平面高度;
计算在光场原始图像上每个宏像素在水平和垂直方向相对于UV平面中心点坐标的偏移量的表达式为:
Figure BDA0003004232440000083
计算光场原始图像上每个像素的坐标的表达式为:
Figure BDA0003004232440000084
步骤3、利用步骤2得到的四维参数化矩阵L[s,t,u,v]提取多个子孔径图像;
具体过程如下:利用for循环遍历四维参数化矩阵L[s,t,u,v]中的[u,v]数据,采用squeeze函数提取四维参数化矩阵L[s,t,u,v]中每一对(u,v)角度的子孔径图像,得到按从左到右视角有序排列的多个子孔径图像;
步骤4、将中心行子孔径图像统一剪裁为分辨率大小相等的图像,得到剪裁后的中心行子孔径图像,将剪裁后的中心行子孔径图像转换为灰度图像,计算灰度图像的平均亮度值,将所有灰度图像中亮度值低于灰度图像平均亮度值的子孔径图像筛除出去,再选择出最左角度和最右角度的灰度图像;
步骤4.1、将中心行子孔径图像统一剪裁为分辨率大小相等的图像,得到剪裁后的中心行子孔径图像,表达式为:
imcrop(image,[10,10,399,399]) (6)
其中,imcrop为剪裁函数,image为每一幅中心行子孔径图像;
步骤4.2、将步骤4.1得到的剪裁后的中心行子孔径图像转换为灰度图像,表达式为:
rgb2gray(image1) (7)
其中,rgb2gray为转换为灰度函数,image1为每一幅剪裁后的中心行子孔径图像;
步骤4.3、计算步骤4.2转换的灰度图像的平均亮度值,将所有灰度图像中亮度值低于灰度图像平均亮度值的子孔径图像筛除出去,再选择出最左角度和最右角度的灰度图像,其中,灰度图像的平均亮度值的表达式为:
avg=mean(avg_gray(:)) (8)
式(8)中,mean为求平均函数,avg_gray为计算所有灰度图像平均灰度函数;
步骤5、如图2所示,对步骤4选出的两幅灰度图像逐像素的提取基于视角稳定变化的特征点;
步骤5.1、分别计算步骤4中选出的最左角度灰度图像的每个像素点和最右角度灰度图像的每个像素点的邻域像素均值,表达式为:
Figure BDA0003004232440000101
其中,M(i,j)为每个像素点I(i,j)的邻域像素均值,len为邻域范围半径;
步骤5.2、计算步骤4中选出的最左角度灰度图像的每个像素点相对于最右角度灰度图像的对应位置像素点的视差值,表达式为:
Figure BDA0003004232440000102
式(10)中,D(i,j)为最左角度灰度图像的每个像素点的视差值,abs为求绝对值函数,k为视差,l为最左角度灰度图像,r为最右角度灰度图像;
步骤5.3、将步骤5.2得到的视差值小于阈值A的像素点筛除,阈值设置为9;
步骤5.4、将步骤5.3筛除后保留的像素点中每个扎堆的像素点集合保留该集合内像素点视差值最大的像素点作为特征点;
如图3所示,步骤6、以步骤5中提取出的特征点作为数据集,并固定五个初始质心点对数据集进行K-Means聚类分析,进而得到最终质心点;
步骤6.1、将步骤5提取出的特征点根据坐标位置构成数据集;
步骤6.2、从步骤6.1构成的数据集中选择(50,50)、(50,350)、(350,350)、(350,50)、(200,200)五个点作为初始质心点;
步骤6.3、对步骤6.1构成的数据集进行K-Means聚类分析,得到最终的聚类质心点,表达式为:
Figure BDA0003004232440000103
其中ρ表示点(x1,x2)与点(y1,y2)之间的欧氏距离;
步骤7、将步骤6得到的最终质心点连接构成多边形图像,并计算多边形图像相似性值,当鉴别油画真伪时,重复步骤1至步骤7,当多边形图像相似性值低于设定的阈值时判定该油画为真,反之则为假;
步骤7.1、将步骤6得到的最终聚类质心根据坐标点使用plot函数连接构成多边形图像;
步骤7.2、计算步骤7.1构成的多边形图像各顶点与多边形图像左下角(0,0)坐标点的平均夹角与平均长度,并以此平均夹角与平均长度作为多边形图像相似性计算结果,当多边形图像相似性值低于设定的阈值B时判定该油画为真,反之则为假,阈值B包括平均夹角的阈值和平均长度的阈值,平均夹角的阈值为4度,平均长度的阈值为11像素。
执行步骤1.1-7.2则完成对油画真伪的鉴别。
实施例
本发明将一块微透镜阵列板贴合于油画表面,通过聚焦式光场相机拍摄后,得到一张如图4所示的大小为8655*6074*3包含油画表面的光场原始图像,该光场原始图像对应的白图像如图5所示,油画真伪鉴别具体按照如下步骤:
执行步骤1、得到油画表面的光场原始图像raw_image;
执行步骤2.1、在MATLAB软件中读入光场原始图像raw_image和对应的包含有微透镜阵列数据的txt文件、光场白图像whiteimage,txt文件进行double操作,数据的第一行为微透镜阵列中单个微透镜的大小434*541,第二行为微透镜阵列的旋转角数据值-0.000008,第三行为微透镜阵列的水平间隔16和垂直间隔14,第四行之后为每个微透镜的中心坐标;
执行步骤2.2和2.3、得到光场原始图像的方向信息数据[15,17];
执行步骤2.4、得到光场原始图像的位置信息数据[541,434];
执行步骤2.5、得到光场原始图像的四维参数化矩阵L[541,434,15,17];
执行步骤3.1、得到15*17幅子孔径图像,每幅子孔径图像大小为541*434;
执行步骤4.1、得到17幅中心行子孔径图像,每幅子孔径图像大小为400*400;
执行步骤4.2、得到17幅中心行子孔径图像的灰度图像,每幅灰度图像大小为400*400;
执行步骤4.3、得到中心行最左角度灰度图像和最右角度灰度图像,大小为400*400;
执行步骤5.1、得到最左角度灰度图像和最右角度灰度图像的每个像素点的邻域像素均值;
执行步骤5.2、得到最左角度灰度图像每个像素点的视差值;
执行步骤5.3和5.4、得到最左角度灰度图像上检测出的随视角稳定变化的特征点;
执行步骤6.1至6.3、得到最终的聚类质心点;
执行步骤7.1、得到检测油画的多边形图像;
执行步骤7.2、得到多边形图像各顶点与多边形图像左下角(0,0)坐标点的平均夹角2.1度与平均长度5.2像素;
执行步骤7.3、鉴别油画真伪时,重复上述步骤1.1至步骤7.2,对多边形图像相似性进行计算,结果符合平均夹角小于4度且平均长度小于11像素条件,判定该油画为真。

Claims (6)

1.一种光场特征油画鉴别方法,其特征在于,具体按照以下步骤实施:
步骤1、将微透镜阵列板贴合于油画表面,并用聚焦式光场相机进行拍摄,得到光场原始图像;
步骤2、对步骤1中得到的光场原始图像进行解码得到四维参数化矩阵L[s,t,u,v];
步骤3、利用步骤2得到的四维参数化矩阵L[s,t,u,v]提取多个子孔径图像;
步骤4、将中心行子孔径图像统一剪裁为分辨率大小相等的图像,得到剪裁后的中心行子孔径图像,将剪裁后的中心行子孔径图像转换为灰度图像,计算灰度图像的平均亮度值,将所有灰度图像中亮度值低于灰度图像平均亮度值的子孔径图像筛除出去,再选择出最左角度和最右角度的灰度图像;
步骤5、对步骤4选出的两幅灰度图像逐像素的提取基于视角稳定变化的特征点;
步骤5具体按照以下步骤实施:
步骤5.1、分别计算步骤4中选出的最左角度灰度图像的每个像素点和最右角度灰度图像的每个像素点的邻域像素均值,表达式为:
Figure FDA0004114923090000011
其中,M(i,j)为每个像素点I(i,j)的邻域像素均值,len为邻域范围半径;
步骤5.2、计算步骤4中选出的最左角度灰度图像的每个像素点相对于最右角度灰度图像的对应位置像素点的视差值,表达式为:
Figure FDA0004114923090000012
式(10)中,D(i,j)为最左角度灰度图像的每个像素点的视差值,abs为求绝对值函数,k为视差,l为最左角度灰度图像,r为最右角度灰度图像;
步骤5.3、将步骤5.2得到的视差值小于阈值A的像素点筛除;
步骤5.4、将步骤5.3筛除后保留的像素点中每个扎堆的像素点集合保留该集合内像素点视差值最大的像素点作为特征点;
步骤6、以步骤5中提取出的特征点作为数据集,并固定五个初始质心点对数据集进行K-Means聚类分析,进而得到最终质心点;
步骤6具体按照以下步骤实施:
步骤6.1、将步骤5提取出的特征点根据坐标位置构成数据集;
步骤6.2、从步骤6.1构成的数据集中选择(50,50)、(50,350)、(350,350)、(350,50)、(200,200)五个点作为初始质心点;
步骤6.3、对步骤6.1构成的数据集进行K-Means聚类分析,得到最终的聚类质心点,表达式为:
Figure FDA0004114923090000021
其中ρ表示点(x1,x2)与点(y1,y2)之间的欧氏距离;
步骤7、将步骤6得到的最终质心点连接构成多边形图像,并计算多边形图像相似性值,当鉴别油画真伪时,重复步骤1至步骤7,当多边形图像相似性值低于设定的阈值时判定该油画为真,反之则为假。
2.根据权利要求1所述的一种光场特征油画鉴别方法,其特征在于,所述步骤1具体过程如下:将油画的表面垂直于桌面并固定在桌面上,将微透镜阵列板贴合于油画表面,使用聚焦式光场相机距离微透镜阵列板0.2米进行拍摄,得到光场原始图像。
3.根据权利要求1所述的一种光场特征油画鉴别方法,其特征在于,所述步骤2具体按照以下步骤实施:
步骤2.1、将光场原始图像以及光场原始图像对应的txt文件、白图像分别输入至MATLAB软件中进行读取,并利用im2double函数将txt文件进行double操作转化为微透镜阵列的旋转角数据rot_angle、水平间隔和垂直间隔数据[lens.x,lens.y]以及每个微透镜的高度数据height、宽度数据width、中心点坐标数据[center.x,center.y];
步骤2.2、利用imrotate函数将光场原始图像、白图像分别以微透镜阵列的旋转角数据rot_angle进行旋转从而对光场原始图像、白图像中的每个微透镜中心进行定位;
步骤2.3、利用微透镜阵列的水平间隔和垂直间隔数据[lens.x,lens.y]计算得到光场原始图像的方向信息数据[u,v],表达式为:
u=ceil(lens.y/2)*2+1
v=ceil(lens.x/2)*2+1 (1)
式(1)中,ceil为取整函数;
步骤2.4、利用微透镜阵列中每个微透镜的高度数据height对光场原始图像中每个微透镜的垂直方向数据s进行赋值,利用微透镜阵列中每个微透镜的宽度数据width对光场原始图像中每个微透镜的水平方向数据t进行赋值,得到光场原始图像的位置信息数据[s,t];
步骤2.5、以光场原始图像的方向信息数据的u为高度,v为宽度建立光场原始图像的UV平面,以光场原始图像的位置信息数据的s为高度,t为宽度建立光场原始图像的ST平面,以光线与UV平面和ST平面的交点参数化表示光场,在光场中计算UV平面的中心点坐标、每个微透镜中心对应在光场原始图像上的宏像素坐标、在光场原始图像上每个宏像素在水平和垂直方向相对于UV平面中心点坐标的偏移量、光场原始图像上每个像素的坐标,并将每个像素的坐标通过r、g、b三个通道输出,得到四维参数化矩阵L[s,t,u,v];
其中,计算UV平面的中心点坐标的表达式为:
UV.center.width=floor(u/2)+1
UV.center.height=floor(v/2)+1 (2)
式(2)中,floor为取整函数;
计算每个微透镜中心对应在光场原始图像上的宏像素坐标的表达式为:
macrocenter.x=round(centers((s-1)*ST.width+t,1))+1
macrocenter.y=round(centers((t-1)*ST.height+t,2))+1 (3)
式(3)中,round为取整函数,centers为每个微透镜的中心点坐标数据,ST.width为ST平面宽度,ST.height为ST平面高度;
计算在光场原始图像上每个宏像素在水平和垂直方向相对于UV平面中心点坐标的偏移量的表达式为:
offset.y=UV.center.height-u
offset.x=UV.center.width-v (4)
计算光场原始图像上每个像素的坐标的表达式为:
piexl.x=macrocenter.x+offset.x
piexl.y=macrocenter.y+offset.y (5)。
4.根据权利要求1所述的一种光场特征油画鉴别方法,其特征在于,所述步骤3具体过程如下:采用squeeze函数提取四维参数化矩阵L[s,t,u,v]中每一对(u,v)角度的子孔径图像,得到按从左到右视角有序排列的多个子孔径图像。
5.根据权利要求1所述的一种光场特征油画鉴别方法,其特征在于,所述步骤4具体按照以下步骤实施:
步骤4.1、将中心行子孔径图像统一剪裁为分辨率大小相等的图像,得到剪裁后的中心行子孔径图像,表达式为:
imcrop(image,[10,10,399,399]) (6)
其中,imcrop为剪裁函数,image为每一幅中心行子孔径图像;
步骤4.2、将步骤4.1得到的剪裁后的中心行子孔径图像转换为灰度图像,表达式为:
rgb2gray(image1) (7)
其中,rgb2gray为转换为灰度函数,image1为每一幅剪裁后的中心行子孔径图像;
步骤4.3、计算步骤4.2转换的灰度图像的平均亮度值,将所有灰度图像中亮度值低于灰度图像平均亮度值的子孔径图像筛除出去,再选择出最左角度和最右角度的灰度图像,其中,灰度图像的平均亮度值的表达式为:
avg=mean(avg_gray(:)) (8)
式(8)中,mean为求平均函数,avg_gray为计算所有灰度图像平均灰度函数。
6.根据权利要求1所述的一种光场特征油画鉴别方法,其特征在于,所述步骤7具体按照以下步骤实施:
步骤7.1、将步骤6得到的最终聚类质心根据坐标点使用plot函数连接构成多边形图像;
步骤7.2、计算步骤7.1构成的多边形图像各顶点与多边形图像左下角(0,0)坐标点的平均夹角与平均长度,并以此平均夹角与平均长度作为多边形图像相似性计算结果,当多边形图像相似性值低于设定的阈值B时判定该油画为真,反之则为假。
CN202110357183.2A 2021-04-01 2021-04-01 一种光场特征油画鉴别方法 Active CN113284152B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110357183.2A CN113284152B (zh) 2021-04-01 2021-04-01 一种光场特征油画鉴别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110357183.2A CN113284152B (zh) 2021-04-01 2021-04-01 一种光场特征油画鉴别方法

Publications (2)

Publication Number Publication Date
CN113284152A CN113284152A (zh) 2021-08-20
CN113284152B true CN113284152B (zh) 2023-06-27

Family

ID=77276278

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110357183.2A Active CN113284152B (zh) 2021-04-01 2021-04-01 一种光场特征油画鉴别方法

Country Status (1)

Country Link
CN (1) CN113284152B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103927511A (zh) * 2014-02-25 2014-07-16 华北电力大学(保定) 基于差异特征描述的图像识别方法
CN107452021A (zh) * 2016-04-19 2017-12-08 深圳正谱云教育技术有限公司 基于单镜头图像动态识别的摄像机自动跟踪系统及其方法
CN110580481A (zh) * 2019-08-09 2019-12-17 西安理工大学 一种基于epi的光场图像关键位置检测方法
CN111583191A (zh) * 2020-04-16 2020-08-25 西安理工大学 基于光场epi傅里叶变换的折射特征检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10136116B2 (en) * 2016-03-07 2018-11-20 Ricoh Company, Ltd. Object segmentation from light field data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103927511A (zh) * 2014-02-25 2014-07-16 华北电力大学(保定) 基于差异特征描述的图像识别方法
CN107452021A (zh) * 2016-04-19 2017-12-08 深圳正谱云教育技术有限公司 基于单镜头图像动态识别的摄像机自动跟踪系统及其方法
CN110580481A (zh) * 2019-08-09 2019-12-17 西安理工大学 一种基于epi的光场图像关键位置检测方法
CN111583191A (zh) * 2020-04-16 2020-08-25 西安理工大学 基于光场epi傅里叶变换的折射特征检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Distinguishing Refracted Features Using Light Field Cameras With Application to Structure From Motion";Dorian Tsai et al.;《IEEE ROBOTICS AND AUTOMATION LETTERS》;20190430;第177-184页 *
"一种基于ORB算法的在线三维测量方法";蔡后乐 等;《光学与光电技术》;20200630;第34-39页 *

Also Published As

Publication number Publication date
CN113284152A (zh) 2021-08-20

Similar Documents

Publication Publication Date Title
CN106778586B (zh) 离线手写签名鉴别方法及系统
CN104850850B (zh) 一种结合形状和颜色的双目立体视觉图像特征提取方法
Recky et al. Windows detection using k-means in cie-lab color space
CN104778701B (zh) 一种基于rgb-d传感器的局部图像描述方法
CN113139479B (zh) 一种基于光流和rgb模态对比学习的微表情识别方法及系统
CN105740779B (zh) 人脸活体检测的方法和装置
Nedović et al. Stages as models of scene geometry
CN104978567B (zh) 基于场景分类的车辆检测方法
CN102629322B (zh) 一种基于边界点笔画形状的字符特征提取方法及应用
CN111652292B (zh) 一种基于ncs、ms的相似物体实时检测方法及系统
CN102663411B (zh) 一种目标人体识别方法
CN109948566B (zh) 一种基于权重融合与特征选择的双流人脸反欺诈检测方法
CN108681737B (zh) 一种复杂光照下图像特征提取方法
CN106327534B (zh) 一种基于定位块的轮胎内壁纹理识别方法
CN105335725A (zh) 一种基于特征融合的步态识别身份认证方法
CN109034065B (zh) 一种基于点云的室内场景物体提取方法
CN104182973A (zh) 基于圆形描述算子csift的图像复制粘贴检测方法
CN112163511A (zh) 一种图像真伪鉴别方法
CN109635799B (zh) 一种燃气表字轮数字的识别方法
CN111009005A (zh) 几何信息与光度信息相结合的场景分类点云粗配准方法
CN108073940B (zh) 一种非结构化环境中的3d目标实例物体检测的方法
CN112634125A (zh) 一种基于离线人脸数据库的自动面部替换方法
CN109961425A (zh) 一种动态水的水质识别方法
Li et al. The research on traffic sign recognition based on deep learning
CN110188590B (zh) 一种基于三维人脸模型的脸型分辨方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant