CN115601560A - 一种基于自适应网络的参数更新方法 - Google Patents

一种基于自适应网络的参数更新方法 Download PDF

Info

Publication number
CN115601560A
CN115601560A CN202211335403.2A CN202211335403A CN115601560A CN 115601560 A CN115601560 A CN 115601560A CN 202211335403 A CN202211335403 A CN 202211335403A CN 115601560 A CN115601560 A CN 115601560A
Authority
CN
China
Prior art keywords
network
parameters
adaptive
state
domain
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211335403.2A
Other languages
English (en)
Inventor
文成林
孙洁晓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong University of Petrochemical Technology
Original Assignee
Guangdong University of Petrochemical Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong University of Petrochemical Technology filed Critical Guangdong University of Petrochemical Technology
Priority to CN202211335403.2A priority Critical patent/CN115601560A/zh
Publication of CN115601560A publication Critical patent/CN115601560A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03HIMPEDANCE NETWORKS, e.g. RESONANT CIRCUITS; RESONATORS
    • H03H21/00Adaptive networks
    • H03H21/0012Digital adaptive filters
    • H03H21/0025Particular filtering methods
    • H03H21/0029Particular filtering methods based on statistics
    • H03H21/003KALMAN filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于自适应网络的参数更新方法,步骤如下:S1、根据提出的正则化模块构建域自适应检测网络,并使用训练集训练网络;S2、将构造出的检测网络中的参数视为状态变量,并对其进行动态建模;S3、基于Kalman滤波最优估计器建立网络参数随场景变化的更新方法;S4、在含噪声的数据集上进行小目标检测对比实验,通过仿真结果验证自适应网络的性能。本发明采用上述的一种基于自适应网络的参数更新方法,在复杂环境下的多个类别检测中能取得较好的效果,而且能够加强模型的抗干扰能力。

Description

一种基于自适应网络的参数更新方法
技术领域
本发明涉及智能图像增强技术领域,尤其是涉及一种基于自适应网络的参数更新方法。
背景技术
现有技术中,我们通常使用常规数据集训练模型,而在实际应用场景中,目标会受遮挡、光照变化、浓雾等环境的影响而产生较大的外观变化,可能会导致检测模型性能下降,若重新获取大量数据集进行训练是不切实际的。然而,随着交通监控、智能识别等应用需求的不断增长,人们对目标检测模型的性能要求也越来越高,现有的模型在自适应更新方面还需要进行改进。
在常见的复杂环境下,图像增强技术可以通过加强图像信息来提升视觉效果,并且可以得到旋转、缩放等变换后的图像用于扩充数据集。例如通过特定算法有选择性的突出感兴趣区域,同时过滤冗余信息从而提高图像质量。因此,在处理包含复杂环境的目标检测任务中,通常需要进行图像预处理操作。
由于图像的标注成本较高,从获取图片到标注信息每个阶段都很耗时耗力,因此很难针对每个任务都使用大量符合条件的训练集进行训练,常规方法是使用类似的公开数据集训练模型。但考虑到若将训练好的检测模型用于差异较大的场景时,会产生区域偏移的问题,以致于影响检测结果。
因此,针对因存在复杂环境噪声导致检测效果下降的问题,以及对于图像的标注成本较高的问题,提出一种基于自适应网络的参数更新方法极为重要。
发明内容
本发明的目的是提供一种基于自适应网络的参数更新方法,在复杂环境下的多个类别检测中能取得较好的效果,而且能够加强模型的抗干扰能力。
为实现上述目的,本发明提供了一种基于自适应网络的参数更新方法,步骤如下:
S1、根据提出的正则化模块构建域自适应检测网络,并使用训练集训练网络;
S2、将构造出的检测网络中的参数视为状态变量,并对其进行动态建模;
S3、基于Kalman滤波最优估计器建立网络参数随场景变化的更新方法;
S4、在含噪声的数据集上进行小目标检测对比实验,通过仿真结果验证自适应网络的性能。
优选的,所述S1中,进行域自适应检测网络,其步骤为:
1)HSV空间变换
模型中的H、S、V参数分别指色调、饱和度、亮度;假设一个颜色的三通道坐标为(r,g,b),max和min分别为r、g、b中的最大值和最小值,通过以下转换公式将其转到HSV空间:
Figure BDA0003914495280000021
Figure BDA0003914495280000022
v=max (3)
3)MSR增强算法
假设S(x,y)表示原始图像,Fk(x,y)表示环绕函数,则MSR计算公式如下:
Figure BDA0003914495280000031
式(4)中K为中心环绕函数的个数,通常设置为3,且
Figure BDA0003914495280000032
优选的,所述S1中域自适应网络是通过H散度算法实现的,H散度的定义是在一个假设空间
Figure BDA0003914495280000033
中,不同样本的特征分布S和T的距离,计算公式如下:
Figure BDA0003914495280000034
式(5)中,S表示源域,T表示目标域,x表示特征向量,h(x)表示域分类器,err(h(x))表示分类误差。
优选的,所述S1中正则化模块由图像级分类正则化模块和类别一致性正则化模块组成,分别用ICR和CCR表示;
所述ICR交叉熵损失函数计算公式如下:
Figure BDA0003914495280000035
其中C表示类别总数,yc表示真实标签,
Figure BDA0003914495280000036
表示预测标签;
所述CCR中类别一致性的计算公式如下:
Figure BDA0003914495280000037
进一步可得实例级对抗损失函数为:
Figure BDA0003914495280000038
其中,D表示给定的图像,若为源域样本则值为0,反之为1,
Figure BDA0003914495280000039
表示图像级域分类器的输出。
优选的,所述S2中参数更新利用的是Kalman滤波对系统进行最优估计,滤波系统模型的状态方程和观测方程分别为:
X(k)=φ(k-1)X(k-1)+V(k-1) (9)
Z(k)=H(k)X(k)+N(k) (10)
H(k)表示当前时刻的系统待估计状态,X(k-1)表示前一时刻系统的状态,φ(k)表示状态转移矩阵,H(k)表示k时刻的观测矩阵,V(k)、N(k)表示零均值高斯白噪声序列;
Kalman最优滤波方程如下:
1)状态预测方程为:
X(k|k-1)=φ(k-1)X(k-1) (11)
误差协方差预测方程为:
P(k|k-1)=φ(k-1)P(k-1)φT(k-1)+Q(k-1) (12)
增益方程为:
K(k)=P(k|k-1)HT(k)[H(k)P(k|k-1)HT(k)+R(k)]-1 (13)
最优状态估计值为:
X(k|k)=X(k|k-1)+K(k)[Z(k)-Z(k|k-1)] (14)
误差协方差更新方程为:
P(k|k)=[1-K(k)H(k)]P(k|k-1) (15)
其中,式(12)中Qk=E[V(k)VT(K)],式(13)中R(k)=E[N(k)NT(k)]。
优选的,在所述S3中,构建好Kalman滤波模型之后,用已经训练好的卷积神经网络模型中的参数来求解观测矩阵H,再通过滤波算法更新隐藏层输出的权重和偏置向量,将权重参数作为滤波器的状态,网络输出作为滤波器的观测值,权值ωij计算问题转化成状态参数的估计算法;
假设神经网络层数为N,每层的节点数为ni,i=1、2、…、N,则建立参数估计
Figure BDA0003914495280000041
的状态方程和观测方程分别为:
W(k+1)=W(k)+Δk (16)
Figure BDA0003914495280000042
其中,Δk为状态更新值,Ye(k)为期望输出,Yr(k)为实际输出,N(k)为高斯白噪声,X(k)为输入,h(A)为参数间的非线性映射关系;
假设对于三层单输出网络,采用Sigmoid作为激活函数,则其映射公式为:
Figure BDA0003914495280000051
式中,n表示神经元个数,ωij表示i、j层的连接参数,m表示网络输入个数,θ为阈值。
优选的,所述S4中小目标检测对比实验中采用PASCAL VOC数据集作为源域数据集,步骤为:
1)在Faster R-CNN基础上构建域自适应网络,并通过自建训练集对该网络网络进行训练;
2)提取出已完成训练的网络参数,将其视为状态变量并进行动态建模,再基于卡尔曼滤波最优估计器建立网络参数随场景变化的更新方法;
3)通过上述更新方法对网络参数进行更新;
4)使用包含源域样本和目标域样本的测试集进行测试并分析实验结果。
因此,本发明采用上述一种基于自适应网络的参数更新方法,在复杂环境下的多个类别检测中能取得较好的效果,而且能够加强模型的抗干扰能力。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1是本发明一种基于自适应网络的参数更新方法实施例的复杂环境图像;
图2是本发明一种基于自适应网络的参数更新方法实施例的MSR图像增强图;
图3是本发明一种基于自适应网络的参数更新方法实施例的结合Faster R-CNN的域自适应网络结构示意图;
图4是本发明一种基于自适应网络的参数更新方法实施例的类别正则化模块图。
具体实施方式
以下通过附图和实施例对本发明的技术方案作进一步说明。
如图所示,本发明提供了一种基于自适应网络的参数更新方法,步骤如下:
S1、根据提出的正则化模块构建域自适应检测网络,并使用训练集训练网络。
域自适应能够将不同分布的数据映射到同一特征空间中,并且通过搜索度量准则使多方的特征分布尽量接近,以此来缩短他们在特征空间中的距离,本发明中是将图像转化到HSV空间中进行域自适应,操作步骤如下:
1)HSV空间变换
由于彩色图像存在RGB三通道,若对任一分量使用灰度增强方法可能会导致图像颜色混乱,因此不能使用传统灰度图像算法对彩色图像进行处理。新方法为将彩色图像转化为其它空间的图像(例如HSV空间),HSV空间用于表示颜色的视觉特性,模型中的H、S、V参数分别指色调、饱和度、亮度;假设一个颜色的三通道坐标为(r,g,b),max和min分别为r、g、b中的最大值和最小值,通过以下转换公式将其转到HSV空间:
Figure BDA0003914495280000061
Figure BDA0003914495280000071
v=max (3)
4)MSR增强算法
在进行HSV空间转换后,通常使用MSR算法进行图像增强。主要是通过中心环绕的方式实现多尺度增强,能够较好的改善图像的质量。虽然使用高斯尺度算子对观测图像进行估计时速度较快,但是它的缺点也很明显。这是由于在过渡区对光照估计效果一般,容易在强光和阴影的过渡区出现光晕现象,会导致色彩保持能力较差,因此对于高亮度的图像处理效果不好。在实际应用中通常使用双边滤波,能够更好的维持图像的边缘信息从而避免出现光环效应。
假设S(x,y)表示原始图像,Fk(x,y)表示环绕函数,则MSR计算公式如下:
Figure BDA0003914495280000072
式(4)中K为中心环绕函数的个数,通常设置为3,且
Figure BDA0003914495280000073
在使用多尺度算子进行集成的时候,先进行重要程度分析,使得效果最好的尺度算子分配到最高权重,最后再进行Gamma校正。
域自适应网络是通过H散度算法实现的,H散度的定义是在一个假设空间
Figure BDA0003914495280000074
中,不同样本的特征分布S和T的距离,计算公式如下:
Figure BDA0003914495280000075
式(5)中,S表示源域,T表示目标域,x表示特征向量,h(x)表示域分类器,err(h(x))表示分类误差。
添加了域自适应模块的检测网络能够提升检测性能,主要是通过对抗训练统一了图片与实例的分布实现的,但是它并没有去除无效信息(比如背景区域)。通过正则化模块对特殊区域进行针对性对齐,从而在难对齐实例上也能取得更好效果。正则化模块由图像级分类正则化模块和类别一致性正则化模块组成,分别用ICR和CCR表示。
ICR是基于主干网络训练的图像级多标签分类器,不仅能够从图像整体层面发现目标,还能降低由于背景难以迁移产生的影响。ICR模块的目的是通过对源域样本进行监督训练,实现在图像级层面隐性对齐不同域间的关键区域,式(6)用于计算交叉熵损失函数:
Figure BDA0003914495280000081
其中C表示类别总数,yc表示真实标签,
Figure BDA0003914495280000082
表示预测标签。
CCR模块的作用是在目标域中自动检测难对齐的实例。检测结果主要从以下方面进行考虑:图像级分类器用于获取图像的上下文信息,分析整体语义信息,与之互补的实例级检测则使用了ROI获取特征,当两者结果不同时可将样本认定为难对齐实例。此外,由于很难分辨出前后景,实例对齐模块检测到的背景区域质量并不高,因此为了区分分类任务的难易程度,将两个模块的类别一致性作为评判标准。同时也可以在目标域中采取一致性准则达到调整样本权重的目的,类别一致性的计算公式如下:
Figure BDA0003914495280000083
进一步可得实例级对抗损失函数为:
Figure BDA0003914495280000084
其中,D表示给定的图像,若为源域样本则值为0,反之为1,
Figure BDA0003914495280000085
表示图像级域分类器的输出。
S2、将构造出的检测网络中的参数视为状态变量,并对其进行动态建模。
参数更新利用的是Kalman滤波对系统进行最优估计,它可以对任务下一步的走向做出有根据的预测,因此多被用于含有不确定信息的动态系统中。在连续变化的系统中,Kalman滤波可以发挥出很大的优势,不仅具有运行速度快的优点,还能对信号模型、噪声的统计特性等进行实时修正。在进行预测之前需要初始化下述变量:状态转移矩阵、测量矩阵、控制向量、误差协方差矩阵、当前状态值和观测值。
滤波系统模型的状态方程和观测方程分别为:
X(k)=φ(k-1)X(k-1)+V(k-1) (9)
Z(k)=H(k)X(k)+N(k) (10)
H(k)表示当前时刻的系统待估计状态,X(k-1)表示前一时刻系统的状态,φ(k)表示状态转移矩阵,H(k)表示k时刻的观测矩阵,V(k)、N(k)表示零均值高斯白噪声序列;
Kalman最优滤波方程如下:
1)状态预测方程为:
X(k|k-1)=φ(k-1)X(k-1) (11)
误差协方差预测方程为:
P(k|k-1)=φ(k-1)P(k-1)φT(k-1)+Q(k-1) (12)
增益方程为:
K(k)=P(k|k-1)HT(k)[H(k)P(k|k-1)HT(k)+R(k)]-1 (13)
最优状态估计值为:
X(k|k)=X(k|k-1)+K(k)[Z(k)-Z(k|k-1)] (14)
误差协方差更新方程为:
P(k|k)=[1-K(k)H(k)]P(k|k-1) (15)
其中,式(12)中Qk=E[V(k)VT(K)],式(13)中R(k)=E[N(k)NT(k)]。
S3、基于Kalman滤波最优估计器建立网络参数随场景变化的更新方法。
构建好Kalman滤波模型之后,用已经训练好的卷积神经网络模型中的参数来求解观测矩阵H,再通过滤波算法更新隐藏层输出的权重和偏置向量,将权重参数作为滤波器的状态,网络输出作为滤波器的观测值,将权值ωij计算问题转化成状态参数的估计算法。
假设神经网络层数为N,每层的节点数为ni,i=1、2、…、N,则建立参数估计
Figure BDA0003914495280000101
的状态方程和观测方程分别为:
W(k+1)=W(k)+Δk (16)
Figure BDA0003914495280000102
其中,Δk为状态更新值,Ye(k)为期望输出,Yr(k)为实际输出,N(k)为高斯白噪声,X(k)为输入,h(A)为参数间的非线性映射关系;
假设对于三层单输出网络,采用Sigmoid作为激活函数,则其映射公式为:
Figure BDA0003914495280000103
式中,n表示神经元个数,ωij表示i、j层的连接参数,m表示网络输入个数,θ为阈值。
S4、在含噪声的数据集上进行小目标检测对比实验,通过仿真结果验证自适应网络的性能。
小目标检测对比实验中采用PASCAL VOC数据集作为源域数据集,步骤为:
1)在Faster R-CNN基础上构建域自适应网络,并通过自建训练集对该网络网络进行训练。
2)提取出已完成训练的网络参数,将其视为状态变量并进行动态建模,再基于卡尔曼滤波最优估计器建立网络参数随场景变化的更新方法。
3)通过上述更新方法对网络参数进行更新。
4)使用包含源域样本和目标域样本的测试集进行测试并分析实验结果。
实施例一
实验中用于测试的目标域数据集是通过自建得到的,自建数据集共有4000张图片,分为3000张训练集和1000张测试集,其中包含了多种环境,如雾天、雨天、低光照、雪天等,所含类别与源域数据集相同,并且测试集中小目标图像占比为40%。
小目标检测对比实验中采用PASCAL VOC数据集作为源域数据集。实验步骤为:
1)在Faster R-CNN基础上构建域自适应网络,并通过自建训练集对该网络进行训练;
2)提取出已完成训练的网络参数,将其视为状态变量并进行动态建模,再基于卡尔曼滤波最优估计器建立网络参数随场景变化的更新方法;
3)通过上述更新方法对网络参数进行更新;
4)使用包含源域样本和目标域样本的测试集进行测试并分析实验结果。
一、基于自适应网络的小目标检测算法性能分析
表1中Model B代表本发明基于自适应网络的小目标检测模型。从本发明结果可以看出,在基础模型Faster R-CNN上添加自适应网络可以提高复杂环境下的mAP值,对于表中列出的五类目标都有较好的检测能力,与在复杂环境下检测效果较好的DA-Faster检测模型相比,mAP值也提升了0.9%。
表2中Model A代表本发明中采用多尺度特征融合的小目标检测模型。从结果可以看出,对于小目标检测任务,使用自适应网络和多尺度特征融合网络的效果都优于原有模型,其中mAP值分别提高了4.8%和6.2%。但由于Model B是针对复杂环境设计的,因此在本发明实验中效果由于Model A。
表1复杂图像测试集中多种目标检测算法mAP(%)值对比
模型 Person Car Bus Train Bird mAP/%
Faster R-CNN 55.8 59.6 52.8 44.4 46.8 52.1
DA-Faster 59.6 64.5 57.5 44.6 47.0 57.9
Model B 61.2 63.8 58.5 46.0 47.4 58.8
表2在复杂小目标图像的测试集中多种检测模型mAP(%)值对比
Figure BDA0003914495280000111
Figure BDA0003914495280000121
二、抗干扰能力分析
表3复杂环境下对Model B进行参数更新前后的mAP(%)值对比
Figure BDA0003914495280000122
为了验证模型的抗干扰能力,需要在复杂图像测试集中(例如雾天、阴天、雨天等环境下)验证本发明提出的自适应网络参数更新方法的有效性,模拟了不同雾浓度和光照亮度两种情况。
从表3可以看出,在使用Kalman滤波进行参数更新后,Model B的准确率普遍提升。当图像亮度过高或过低时,模型的检测能力都会降低。当亮度变化时(例如从1变为0.8倍),参数更新前模型的变化幅度为1.09%,而更新后的模型变化幅度为1.02%。通过结合其它倍数间的变化幅度可以看出,更新后的模型变化幅度较小并且mAP值也有提升。因此,使用Kalman滤波更新参数后的模型对于亮度变化的滤波性能更好。
因此,本发明采用上述一种基于自适应网络的参数更新方法,基于正则化模块构建的域自适应网络能够增加模型的场景适应能力,在复杂环境下的多个类别检测中都能取得较好的效果。这在一定程度上说明了正则化模块有助于对齐域间的关键区域,从而提升了检测的效果。通过基于Kalman滤波的最优估计器对域自适应网络进行更新,能够加强模型的抗干扰能力。
最后应说明的是:以上实施例仅用以说明本发明的技术方案而非对其进行限制,尽管参照较佳实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对本发明的技术方案进行修改或者等同替换,而这些修改或者等同替换亦不能使修改后的技术方案脱离本发明技术方案的精神和范围。

Claims (7)

1.一种基于自适应网络的参数更新方法,其特征在于:步骤如下:
S1、根据提出的正则化模块构建域自适应检测网络,并使用训练集训练网络;
S2、将构造出的检测网络中的参数视为状态变量,并对其进行动态建模;
S3、基于Kalman滤波最优估计器建立网络参数随场景变化的更新方法;
S4、在含噪声的数据集上进行小目标检测对比实验,通过仿真结果验证自适应网络的性能。
2.根据权利要求1所述的一种基于自适应网络的参数更新方法,其特征在于:所述S1中,进行域自适应检测网络,其步骤为:
1)HSV空间变换
模型中的H、S、V参数分别指色调、饱和度、亮度;假设一个颜色的三通道坐标为(r,g,b),max和min分别为r、g、b中的最大值和最小值,通过以下转换公式将其转到HSV空间:
Figure FDA0003914495270000011
Figure FDA0003914495270000012
v=max (3)
2)MSR增强算法
假设S(x,y)表示原始图像,Fk(x,y)表示环绕函数,则MSR计算公式如下:
Figure FDA0003914495270000021
式(4)中K为中心环绕函数的个数。
3.根据权利要求1所述的一种基于自适应网络的参数更新方法,其特征在于:所述S1中域自适应网络是通过H散度算法实现的,H散度的定义是在一个假设空间
Figure FDA0003914495270000022
中,不同样本的特征分布S和T的距离,计算公式如下:
Figure FDA0003914495270000023
式(5)中,S表示源域,T表示目标域,x表示特征向量,h(x)表示域分类器,err(h(x))表示分类误差。
4.根据权利要求1所述的一种基于自适应网络的参数更新方法,其特征在于:所述S1中正则化模块由图像级分类正则化模块和类别一致性正则化模块组成,分别用ICR和CCR表示;
所述ICR交叉熵损失函数计算公式如下:
Figure FDA0003914495270000024
其中C表示类别总数,yc表示真实标签,
Figure FDA0003914495270000025
表示预测标签;
所述CCR中类别一致性的计算公式如下:
Figure FDA0003914495270000026
进一步可得实例级对抗损失函数为:
Figure FDA0003914495270000027
其中,D表示给定的图像,若为源域样本则值为0,反之为1,
Figure FDA0003914495270000028
表示图像级域分类器的输出。
5.根据权利要求1所述的一种基于自适应网络的参数更新方法,其特征在于:所述S2中参数更新利用的是Kalman滤波对系统进行最优估计,滤波系统模型的状态方程和观测方程分别为:
X(k)=φ(k-1)X(k-1)+V(k-1) (9)
Z(k)=H(k)X(k)+N(k) (10)
H(k)表示当前时刻的系统待估计状态,X(k-1)表示前一时刻系统的状态,φ(k)表示状态转移矩阵,H(k)表示k时刻的观测矩阵,V(k)、N(k)表示零均值高斯白噪声序列;
Kalman最优滤波方程如下:
1)状态预测方程为:
X(k|k-1)=φ(k-1)X(k-1) (11)
误差协方差预测方程为:
P(k|k-1)=φ(k-1)P(k-1)φT(k-1)+Q(k-1) (12)
增益方程为:
K(k)=P(k|k-1)HT(k)[H(k)P(k|k-1)HT(k)+R(k)]-1 (13)
最优状态估计值为:
X(k|k)=X(k|k-1)+K(k)[Z(k)-Z(k|k-1)] (14)
误差协方差更新方程为:
P(k|k)=[1-K(k)H(k)]P(k|k-1) (15)
其中,式(12)中Qk=E[V(k)VT(K)],式(13)中R(k)=E[N(k)NT(k)]。
6.根据权利要求1所述的一种基于自适应网络的参数更新方法,其特征在于:在所述S3中,构建好Kalman滤波模型之后,用已经训练好的卷积神经网络模型中的参数来求解观测矩阵H,再通过滤波算法更新隐藏层输出的权重和偏置向量,将权重参数作为滤波器的状态,网络输出作为滤波器的观测值,权值ωij计算问题转化成状态参数的估计算法;
假设神经网络层数为N,每层的节点数为ni,i=1、2、…、N,则建立参数估计
Figure FDA0003914495270000031
的状态方程和观测方程分别为:
W(k+1)=W(k)+Δk (16)
Figure FDA0003914495270000032
其中,Δk为状态更新值,Ye(k)为期望输出,Yr(k)为实际输出,N(k)为高斯白噪声,X(k)为输入,h(A)为参数间的非线性映射关系;
假设对于三层单输出网络,采用Sigmoid作为激活函数,则其映射公式为:
Figure FDA0003914495270000041
式中,n表示神经元个数,ωij表示i、j层的连接参数,m表示网络输入个数,θ为阈值。
7.根据权利要求1所述的一种基于自适应网络的参数更新方法,其特征在于:所述S4中小目标检测对比实验中采用PASCAL VOC数据集作为源域数据集,步骤为:
1)在Faster R-CNN基础上构建域自适应网络,并通过自建训练集对该网络网络进行训练;
2)提取出已完成训练的网络参数,将其视为状态变量并进行动态建模,再基于卡尔曼滤波最优估计器建立网络参数随场景变化的更新方法;
3)通过上述更新方法对网络参数进行更新;
4)使用包含源域样本和目标域样本的测试集进行测试并分析实验结果。
CN202211335403.2A 2022-10-28 2022-10-28 一种基于自适应网络的参数更新方法 Pending CN115601560A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211335403.2A CN115601560A (zh) 2022-10-28 2022-10-28 一种基于自适应网络的参数更新方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211335403.2A CN115601560A (zh) 2022-10-28 2022-10-28 一种基于自适应网络的参数更新方法

Publications (1)

Publication Number Publication Date
CN115601560A true CN115601560A (zh) 2023-01-13

Family

ID=84850630

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211335403.2A Pending CN115601560A (zh) 2022-10-28 2022-10-28 一种基于自适应网络的参数更新方法

Country Status (1)

Country Link
CN (1) CN115601560A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106897981A (zh) * 2017-04-12 2017-06-27 湖南源信光电科技股份有限公司 一种基于引导滤波的低照度图像增强方法
CN110110794A (zh) * 2019-05-10 2019-08-09 杭州电子科技大学 基于特征函数滤波的神经网络参数更新的图像分类方法
CN111429370A (zh) * 2020-03-23 2020-07-17 煤炭科学技术研究院有限公司 一种煤矿井下的图像增强方法、系统及计算机存储介质
CN112541869A (zh) * 2020-12-07 2021-03-23 南京工程学院 一种基于matlab实现的Retinex图像去雾方法
US20220138495A1 (en) * 2020-11-05 2022-05-05 University Of Electronic Science And Technology Of China Model and method for multi-source domain adaptation by aligning partial features

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106897981A (zh) * 2017-04-12 2017-06-27 湖南源信光电科技股份有限公司 一种基于引导滤波的低照度图像增强方法
CN110110794A (zh) * 2019-05-10 2019-08-09 杭州电子科技大学 基于特征函数滤波的神经网络参数更新的图像分类方法
CN111429370A (zh) * 2020-03-23 2020-07-17 煤炭科学技术研究院有限公司 一种煤矿井下的图像增强方法、系统及计算机存储介质
US20220138495A1 (en) * 2020-11-05 2022-05-05 University Of Electronic Science And Technology Of China Model and method for multi-source domain adaptation by aligning partial features
CN112541869A (zh) * 2020-12-07 2021-03-23 南京工程学院 一种基于matlab实现的Retinex图像去雾方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHANG-DONG XU 等: "Exploring Categorical Regularization for Domain Adaptive Object Detection", 《2020 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *
YUHUA CHEN 等: "Domain Adaptive Faster R-CNN for Object Detection in the Wild", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
缑娜 等: "基于自适应卡尔曼滤波器的神经网络算法", 《弹箭与制导学报》 *

Similar Documents

Publication Publication Date Title
CN107016357B (zh) 一种基于时间域卷积神经网络的视频行人检测方法
CN106875395B (zh) 基于深度神经网络的超像素级sar图像变化检测方法
WO2021129569A1 (zh) 一种人体动作识别方法
Zhang et al. A new haze removal approach for sky/river alike scenes based on external and internal clues
CN111611874B (zh) 基于ResNet和Canny的人脸口罩佩戴检测方法
CN109753878B (zh) 一种恶劣天气下的成像识别方法及系统
CN111832443A (zh) 一种施工违规行为检测模型的构建方法及其应用
CN109426773A (zh) 一种道路识别方法和装置
CN113850783B (zh) 一种海面船舶检测方法及系统
Yu et al. Image and video dehazing using view-based cluster segmentation
CN111612130B (zh) 一种频移键控通信信号调制方式识别方法
CN115982613A (zh) 一种基于改进卷积神经网络的信号调制识别系统及方法
JPH1091782A (ja) 濃淡画像用特定部位抽出方法
CN113902095A (zh) 一种无线通信自动调制识别方法、装置与系统
Abbasi et al. Fuzzy histogram equalization of hazy images: a concept using a type-2-guided type-1 fuzzy membership function
CN107358635B (zh) 一种基于模糊相似性的彩色形态学图像处理方法
CN117853596A (zh) 无人机遥感测绘方法及系统
CN110349119B (zh) 基于边缘检测神经网络的路面病害检测方法和装置
CN115601560A (zh) 一种基于自适应网络的参数更新方法
CN116109656A (zh) 一种基于无监督学习的交互式图像分割方法
Pal Visibility enhancement of fog degraded image sequences on SAMEER TU dataset using dark channel strategy
Liu et al. Attention-guided lightweight generative adversarial network for low-light image enhancement in maritime video surveillance
Koley et al. Single image visibility restoration using dark channel prior and fuzzy logic
Luo et al. Object Detection in Harsh Underwater Environment Based on YOLOv5s-CCAA
Li et al. Image object detection algorithm based on improved Gaussian mixture model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20230113