CN111325730B - 一种基于随机连接网络的水下图像指标评价方法 - Google Patents

一种基于随机连接网络的水下图像指标评价方法 Download PDF

Info

Publication number
CN111325730B
CN111325730B CN202010104678.XA CN202010104678A CN111325730B CN 111325730 B CN111325730 B CN 111325730B CN 202010104678 A CN202010104678 A CN 202010104678A CN 111325730 B CN111325730 B CN 111325730B
Authority
CN
China
Prior art keywords
image
layer
input
connection network
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010104678.XA
Other languages
English (en)
Other versions
CN111325730A (zh
Inventor
陈荣
李阳
张程伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian Maritime University
Original Assignee
Dalian Maritime University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian Maritime University filed Critical Dalian Maritime University
Priority to CN202010104678.XA priority Critical patent/CN111325730B/zh
Publication of CN111325730A publication Critical patent/CN111325730A/zh
Application granted granted Critical
Publication of CN111325730B publication Critical patent/CN111325730B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于随机连接网络的水下图像指标评价方法,包括:收集不同质量的水下图像、并对其进行主观等级评估;提取原始图像的色彩、对比度、清晰度和最小可觉察误差这四种图像统计特征,将提取的图像统计特征输入至随机连接网络模型中,其中随机连接网络模型包括输入层、隐藏层和输出层,其中输入层的四个节点分别用于接收四种图像统计特征,所述输入节点与隐藏层中的隐藏节点随机建立连接关系,将采集到的新图像的图像统计特征输入至已经训练完成的随机连接网络模型中获得隐藏层的输出根据输出和权重矩阵β计算图像质量分数。

Description

一种基于随机连接网络的水下图像指标评价方法
技术领域
本发明涉及水下图像质量评价技术领域,尤其涉及一种基于随机连接网络的水下图像指标评价方法。
背景技术
图像质量通常会受到成像设备的光学性能、仪器噪声、成像条件、图像处理和其他因素的影响。图像质量评估(IQA)通常分为主观定性评估(SQA)和客观定量评估(OQA)。2015年,Yang等人发现图像的清晰度和色彩与主观图像质量感知之间的相关性,并提出了一种专门针对水下图像的图像质量评估方法,即水下彩色图像质量评估(UCIQE)。UCIQE是CIE-Lab色彩空间中对比度,色度和饱和度的线性模型,可以表示为:
UCIQE=c1×σc+c2×conl+c3×μs
其中,conl表示图像色度,图像亮度对比度和图像饱和度平均值c1,c2,c3代表这些参数的权重。与UCIQE类似,水下图像质量度量(UIQM)构建了水下图像色彩度量(UICM),水下图像清晰度度量(UISM)和水下图像对比度度量(UIConM)的线性组合,可以表示为:
UIQM=c1×UICM+c2×UISM+c3×UIConM
UIQM和UCIQE的值越大,表明水下彩色图像质量就越好。
最小可觉察误差(JND)表示人眼不能察觉的最大图像失真,体现了人眼对图像改变的容忍度。在图像处理领域,JND可以用来度量人眼对图像中不同区域失真的敏感性。
已有的主观定性评估方法均对图像的一些特征进行了统计,而忽略了人眼的主观因素。同时在计算系数权重的方法较为简单无法达到很好的预测效果。
发明内容
根据现有技术存在的问题,本发明公开了一种基于随机连接网络的水下图像指标评价方法,具体包括如下步骤:
收集不同质量的水下图像、并对其进行主观等级评估;
提取原始图像的色彩、对比度、清晰度和最小可觉察误差这四种图像统计特征,将提取的图像统计特征输入至随机连接网络模型中,其中随机连接网络模型包括输入层、隐藏层和输出层,其中输入层的四个节点分别用于接收四种图像统计特征,
所述输入节点与隐藏层中的隐藏节点随机建立连接关系,采用权重矩阵β表示隐藏层与输出层之间的权重,将收集的水下图像与主观等级评估作为模型的训练数据对,通过训练该模型获取权重矩阵β完成该模型的训练;
将采集到的新图像的图像统计特征输入至已经训练完成的随机连接网络模型中获得隐藏层的输出根据输出/>和权重矩阵β计算图像质量分数。
进一步的,在对随机连接网络模型进行训练时根据BA随机图规则,将没有任何连接的输入节点设置为初始状态,将初始状态的输入节点随机与隐藏层的隐藏节点相连接,将<j,i>表示从现有节点的第j个节点连接到隐藏层节点的第i个节点的有向连接,定义为:
hi=δ(wi[x,hj]T+bi)i=2,…L
其中δ是非线性激活函数,x是输入,L是隐藏节点的数量,wi是随机权重,bi为随机偏置且在初始化后被固定;
输出层T表示为Hβ=T,输出层与隐藏层的权重矩阵β表示为其中/>是H=[H1,…HN]T的广义逆矩阵,Hm=[(h1)m,…(hL)m]T,(hn)m表示Hm中的第n个隐藏节点,其中m∈[1,N],n∈[1,L],T=[o1,…oN]T是目标输出,N是训练数据的大小;
将采集到新图像的图像统计特征输入至已经训练完成的随机连接网络模型中获得隐藏层的输出新输入图像的质量分数表示为:/>当Y越高,表示图像质量越好。
由于采用了上述技术方案,本发明提供的一种基于随机连接网络的水下图像指标评价方法,该方法通过结合图像的客观特征以及人类主观特征,能够更加符合人眼观测的图像质量的评估条件,对图像进行更加全面的评估;同时通过随机连接网络模型,训练模型时具有更加随机的特性,加强模型的泛化能力;相比较于基于深度神经网络的图像评价方法,该模型训练时间短,并且编程易于实现,可应用性更高,值得推广应用。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明方法的流程图
具体实施方式
为使本发明的技术方案和优点更加清楚,下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚完整的描述:
如图1所示的一种基于随机连接网络的水下图像指标评价方法,具体包括如下步骤:
S1:从网络上随机收集不同图像质量的水下原始图像;根据人类主观评价对水下原始图像进行评分1-10共10个等级;
S2:对原始图像提取色彩、对比度、清晰度和最小可觉察误差这4个图像统计特征,将提取出来的4个图像统计特征作为随机连接网络模型的输入,每个图像对应的评分作为有监督训练的标签值,用来训练随机连接网络模型。
色彩可以通过以下方式提取:
其中RG和YB表示相对于(红色,绿色)和(黄色,蓝色)的相对色彩分量。μ和α.是alpha-trimmed的统计值。
对比度采用如下方式获取:
其中c∈R,G,B代表红色,绿色,蓝色三个图像通道,根据logAMEE评价方法可以计算对比度。
清晰度采用增强测度估计方式获取:
Jc是输入图像,c∈R,G,B,S(J c)表示每个色彩分量上的Sobel算子,λc代表不同色彩通道的权重值。
最小可觉察误差通过如下方式获取:
L是基于Retinex理论的照度图像。
为了减少人工干预,输入层和潜伏神经元之间的连接基于BA随机图模型。根据BA的规则,我们将没有任何连接的输入节点设置为初始状态,然后随机添加可以连接到现有节点的隐层节点,其概率与该节点的度成正比。
三种连接方式可以表示为:
其中<j,i>表示从现有神经元中的第j个节点连接到隐藏层节点的第i个节点的有向连接可以定义为:
hi=δ(wi[x,hj]T+bi)i=2,…L
其中δ是非线性激活函数,x是输入,L是隐藏节点的数量。wi是随机权重,bi是随机偏置,并且wi和bi在初始化后将被固定。然后可以通过以下公式计算输出权重矩阵β:
其中是H=[H1,…HN]T,Hi=[(h1)i,…(hL)i]T求得的广义逆矩阵,(hj)i表示Hi中的第j个隐藏节点,T=[o1,…oN]T是目标输出,其中i=1,…N,N是训练数据的大小。当输入新图像进行评估时,将图像的四个统计特性组成输入向量。通过随机连接模型得到隐藏层的输出/>因此新图像的质量分数表示为:/>当Y越高,表示图像质量越好。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (1)

1.一种基于随机连接网络的水下图像指标评价方法,其特征在于包括:
收集不同质量的水下图像,并对其进行主观质量评估;
提取原始图像的色彩、对比度、清晰度和最小可觉察误差这四种图像统计特征,将提取的图像统计特征输入至随机连接网络模型中,其中随机连接网络模型包括输入层、隐藏层和输出层,其中输入层的四个节点分别用于接收四种图像统计特征,
所述输入层中的输入节点与隐藏层中的隐藏节点随机建立连接关系,采用权重矩阵β表示隐藏层与输出层之间的权重,将收集的水下图像与主观等级评估作为模型的训练数据对,通过训练该模型获取权重矩阵β完成该模型的训练;
将采集到的新图像的图像统计特征输入至已经训练完成的随机连接网络模型中获得隐藏层的输出根据输出/>和权重矩阵β计算图像质量分数;
在对随机连接网络模型进行训练时根据BA随机图规则,将没有任何连接的输入节点设置为初始状态,将初始状态的输入节点随机与隐藏层的隐藏节点相连接,将<j,i>表示从现有节点的第j个节点连接到隐藏层节点的第i个节点的有向连接,定义为:
hi=δ(wi[x,hj]T+bi)i=2,…L
其中δ是非线性激活函数,x是输入,L是隐藏节点的数量,wi是随机权重,bi为随机偏置且在初始化后被固定;
输出层T表示为Hβ=T,输出层与隐藏层的权重矩阵β表示为其中/>是H=[H1,…HN]T的广义逆矩阵,Hm=[(h1)m,…(hL)m]T,(hn)m表示Hm中的第n个隐藏节点,其中m∈[1,N],n∈[1,L],T=[o1,…oN]T是目标输出,N是训练数据的大小;
将采集到新图像的图像统计特征输入至已经训练完成的随机连接网络模型中获得隐藏层的输出新输入图像的质量分数表示为:/>当Y越高,表示图像质量越好。
CN202010104678.XA 2020-02-20 2020-02-20 一种基于随机连接网络的水下图像指标评价方法 Active CN111325730B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010104678.XA CN111325730B (zh) 2020-02-20 2020-02-20 一种基于随机连接网络的水下图像指标评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010104678.XA CN111325730B (zh) 2020-02-20 2020-02-20 一种基于随机连接网络的水下图像指标评价方法

Publications (2)

Publication Number Publication Date
CN111325730A CN111325730A (zh) 2020-06-23
CN111325730B true CN111325730B (zh) 2023-07-25

Family

ID=71167292

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010104678.XA Active CN111325730B (zh) 2020-02-20 2020-02-20 一种基于随机连接网络的水下图像指标评价方法

Country Status (1)

Country Link
CN (1) CN111325730B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113642479B (zh) * 2021-08-17 2022-05-31 合肥的卢深视科技有限公司 人脸图像的评价方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103295191A (zh) * 2013-04-19 2013-09-11 北京航科威视光电信息技术有限公司 多尺度视觉自适应图像增强方法及评价方法
US20140198994A1 (en) * 2013-01-12 2014-07-17 Shenzhen China Star Optoelectronics Technology Co., Ltd. Method for Establishing Evaluation Standard Parameters and Method for Evaluating the Quality of a Display Image
CN107424146A (zh) * 2017-06-28 2017-12-01 北京理工大学 一种红外偏振图像质量客观评价方法和系统
CN110751108A (zh) * 2019-10-23 2020-02-04 武汉理工大学 一种地铁分布式振动信号相似度确定方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140198994A1 (en) * 2013-01-12 2014-07-17 Shenzhen China Star Optoelectronics Technology Co., Ltd. Method for Establishing Evaluation Standard Parameters and Method for Evaluating the Quality of a Display Image
CN103295191A (zh) * 2013-04-19 2013-09-11 北京航科威视光电信息技术有限公司 多尺度视觉自适应图像增强方法及评价方法
CN107424146A (zh) * 2017-06-28 2017-12-01 北京理工大学 一种红外偏振图像质量客观评价方法和系统
CN110751108A (zh) * 2019-10-23 2020-02-04 武汉理工大学 一种地铁分布式振动信号相似度确定方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
"A Novel Algorithm for Automatic Dendritic Spine Detection in Microscope Images";Qian WANG 等;《2014 International Conference on Electrical and Electronic Engineering(EEE 2014)》;全文 *
"水下目标探测中的侧扫声纳图像处理技术研究";李阳;《中国优秀硕士学位论文全文数据库 信息科技辑》;全文 *
"量子进化优化与深度复神经网络学习算法及其应用";李玲玲;《中国博士学位论文全文数据库 信息科技辑》;全文 *
"针对质量评价的环境星遥感真实图像库构建";徐琳 等;《中国图象图形学报》;第23卷(第10期);第1604-1614页 *
"面向水下图像的质量评价方法";郭继昌 等;《中国图象图形学报》;第22卷(第1期);全文 *

Also Published As

Publication number Publication date
CN111325730A (zh) 2020-06-23

Similar Documents

Publication Publication Date Title
Wang et al. An imaging-inspired no-reference underwater color image quality assessment metric
CN107636690B (zh) 基于卷积神经网络的全参考图像质量评估
CN109919920B (zh) 统一结构的全参考和无参考图像质量评价方法
Chang et al. Perceptual image quality assessment by independent feature detector
CN108596890B (zh) 一种基于视觉测量率自适应融合的全参考图像质量客观评价方法
Rehman et al. Reduced-reference SSIM estimation
Hu et al. Image quality assessment using a SVD-based structural projection
CN108389192A (zh) 基于卷积神经网络的立体图像舒适度评价方法
CN102740114B (zh) 一种视频主观质量的无参评估方法
CN109218716B (zh) 基于色彩统计和信息熵无参考色调映射图像质量评价方法
Gupta et al. A novel full reference image quality index for color images
CN106127234B (zh) 基于特征字典的无参考图像质量评价方法
Liu et al. No-reference image quality assessment method based on visual parameters
Geng et al. A stereoscopic image quality assessment model based on independent component analysis and binocular fusion property
CN109754390B (zh) 一种基于混合视觉特征的无参考图像质量评价方法
CN114066812B (zh) 基于空间注意力机制的无参考图像质量评价方法
CN112767385A (zh) 基于显著性策略与特征融合无参考图像质量评价方法
CN106780446A (zh) 一种无参考混合失真图像质量评价方法
CN111325730B (zh) 一种基于随机连接网络的水下图像指标评价方法
CN114612714A (zh) 基于课程学习的无参考图像质量评价方法
CN107590804A (zh) 基于通道特征和卷积神经网络的屏幕图像质量评价方法
CN108648180B (zh) 一种基于视觉多重特征深度融合处理的全参考图像质量客观评价方法
Yang et al. EHNQ: Subjective and objective quality evaluation of enhanced night-time images
Gaata et al. No-reference quality metric based on fuzzy neural network for subjective image watermarking evaluation
CN106558047A (zh) 基于互补色小波的彩色图像质量评价方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant