CN112785629A - 一种基于无监督深度光流网络的极光运动表征方法 - Google Patents

一种基于无监督深度光流网络的极光运动表征方法 Download PDF

Info

Publication number
CN112785629A
CN112785629A CN202110084981.2A CN202110084981A CN112785629A CN 112785629 A CN112785629 A CN 112785629A CN 202110084981 A CN202110084981 A CN 202110084981A CN 112785629 A CN112785629 A CN 112785629A
Authority
CN
China
Prior art keywords
optical flow
aurora
image
network
sky
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110084981.2A
Other languages
English (en)
Inventor
杨秋菊
向晗
韩鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi Normal University
Original Assignee
Shaanxi Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaanxi Normal University filed Critical Shaanxi Normal University
Priority to CN202110084981.2A priority Critical patent/CN112785629A/zh
Publication of CN112785629A publication Critical patent/CN112785629A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Abstract

本发明公开了一种无监督深度光流网络的极光运动表征方法,其实现步骤为:1.以预处理后的相邻两幅全天空极光图像作为输入,利用光流网络计算双向光流;2.利用全天空极光图像和双向光流计算双向翘曲图像;3.利用双向光流推理出双向形变图;4.利用全天空极光图像、翘曲图像和双向形变图构造损失函数,以此来优化训练光流网络;5.训练完成后,利用该光流网络提取极光观测视频的像素级极光光流场作为极光运动表征。本发明解决了极光数据不满足光流的亮度一致性假设且缺乏训练数据的问题,具有精度高、鲁棒性强的优点,可用于从复杂的极光观测视频中进行极光事件识别与检测。

Description

一种基于无监督深度光流网络的极光运动表征方法
技术领域
本发明属于视频分析技术领域,更进一步涉及极光运动的表征方法,可用于从复杂的极光观测视频中进行极光事件识别与检测。
背景技术
极光是一种发生在地球南北极高空缤纷绚丽的地球物理现象,它是太阳风携带的高能带电粒子随着磁力线运动到地球南北极上空,与高层大气中的粒子相互碰撞而激发的发光现象,是研究太阳风暴的最佳窗口。目前,极光的观测手段有很多,如光学成像观测、雷达观测和磁力计观测等。其中以全天空成像仪为代表的光学观测时空分辨率高,其获取的极光观测视频记录着极光的二维形态结构随时间的演化规律。
早期关于极光运动的研究“J.Kimball,T.J.Hallinan.Observations of blackauroral patches and of their relationship to other types of aurora.Journal ofGeophysical Research,1998,pp.14671-14682.”通过视觉追踪极光某一特定结构或特征来估计极光的运动速度,这样的人工研究方式使得对极光运动的分析往往被局限于案例分析,只有少数的极光事件得到研究。后来,Blixt等人在文献“Blixt E M,Semeter J,Ivchenko N.Optical flow analysis of the aurora borealis.IEEE Geoscience&Remote Sensing Letters,2006,pp.159-163.”中将变分光流法用于估计极光的二维速度场并分析了光流法用于极光数据的可行性。但是,该方法存在以下问题:第一,他们的光流场计算基于经典的亮度不变假设,即观测对象在运动过程中亮度保持不变,且运动物体被假设为刚性的,存在稳定突出的轮廓特征,然而绝大多数极光图像中不存在这样稳定的观测对象,极光的形状、亮度、体积等在演变过程中都会发生改变,所以极光数据是不满足亮度不变假设的。第二,在该文献的光流求解过程中,目标方程的解是用微分形式表示的视标速度。由于微分的性质,基于速度方法的一个隐含假设是图像序列中的运动尺度较小,然而在极光的演变过程中,两帧间的运动可能包含不同大小的运动尺度。近年来,深度神经网络的成功推动了光流计算方法的发展。2015年文献“Fischer P,Dosovitskiy A,Ilg E,etal.FlowNet:Learning Optical Flow with Convolutional Networks.IEEEInternational Conference on Computer Vision,2015,pp.2758-2766.”首次提出了端到端有监督学习的Flownet光流卷积网络,该网络以两幅连续图像作为输入,采用先编码再解码的网络结构输出像素级光流场。随后的Flownet 2.0将几个基本Flownet模块进行堆叠,并一起进行迭代训练,显著提高了光流估计的准确性。但是,有监督深度光流模型训练需要大量的标记数据,实现成本非常高。
综上所述,现有方法用于极光运动估计会存在以下问题:
(1)全天空成像仪每年会获取数以百万计的极光图像,面对多年累积的极光观测数据,人工估计极光运动方法越来越力不从心;
(2)极光不具有刚体性质,在其演变过程中,形状、亮度和体积都会发生变化,因此极光数据不满足变分光流法的亮度不变假设;
(3)基于速度方法的变分光流法使用微分的形式求解目标方程,要求观测对象运动尺度较为固定。然而在极光的演变过程中,两帧间的运动可能包含不同的运动尺度,该种求解方式无法获得准确的极光光流场;
(4)人工标记像素级的极光光流场极为困难,难以提供有监督深度光流模型所需的大量训练数据。
发明内容
本发明的目的在于针对上述极光运动估计方法的不足,提出一种基于无监督深度光流网络的极光运动表征方法,以在无监督的方式下完成极光光流估计,提高极光运动表征正确性。
实现本发明上述目的的技术方案是:首先以预处理后的两幅连续全天空极光图像作为输入,利用光流网络输出双向光流;其次,利用全天空极光图像和双向光流计算出双向翘曲图像;然后结合形变检测和Census变换构造损失函数,计算全天空极光图像与翘曲图像的差异,以此来优化光流网络参数;最后使用优化后的光流网络提取像素级极光光流场。其具体步骤包括如下:
步骤1:提取极光观测视频中的每一帧原始极光图像,对每一帧原始极光图像进行预处理,将预处理后的极光图像按时间排序,得到连续的全天空极光图像序列;
步骤2:以相邻两幅连续的全天空极光图像I1和I2作为输入,通过光流网络输出得到前向光流wf和后向光流wb
步骤3:利用前向-后向一致性约束,通过前向光流wf和后向光流wb对极光形变结构进行推理,获取前向形变图Of和后向形变图Ob
步骤4:结合空间变换模块,利用全天空极光图像I2和前向光流wf计算出前向翘曲图像
Figure BDA0002910254920000031
利用全天空极光图像I1和后向光流wb计算出后向翘曲图像
Figure BDA0002910254920000032
步骤5:计算全天空极光图像和翘曲图像间的差异,并结合前向形变图Of和后向形变图Ob构造损失函数;
步骤6:根据反向传播训练法原理,通过最小化损失函数,得到优化后的光流网络参数,更新并保存网络参数;
步骤7:向优化后的光流网络中输入任意两幅连续的全天空极光图像,输出即为对应的像素级极光光流场。
进一步地,步骤1中的预处理包括:(1)减去暗电流;(2)去除边缘噪声;(3)灰度拉伸;(4)图像旋转;(5)图像裁剪,预处理后的图像大小为440×440,得到连续的全天空极光图像序列。
进一步地,步骤2的光流网络包含特征金字塔提取网络和光流估计网络,网络前馈过程步骤如下:
2.1)输入两帧连续的全天空极光图像I1和I2,利用相同的特征金字塔提取网络分别提取两幅图像的特征图。特征金字塔提取网络的第1级特征图为输入图像,通道数为3;后面各级的通道数依次为16、32、64、96、128、192,每级由一个2倍下采样层和一个卷积层组成,下采样层和卷积层均使用尺寸为3×3、步长为2的卷积核来实现,并在卷积层后通过leaky Relu函数输出各级特征图。利用所有级的特征图构成7级特征金字塔;
2.2)首先处理特征金字塔的第l=7级,将第l+1级的上采样光流设置为0,执行步骤2.3)-2.5);其次当l<7时,将第l+1级的光流通过双线性插值法进行上采样,得到第l+1级的上采样光流,并从l=6开始,逐级重复执行步骤2.3)-2.5),直至第l=1级;最后将特征金字塔第l=1级的光流图输出作为前向光流wf
2.3)利用第l+1级的上采样光流,使用双线性插值法将第二幅图像的特征图向第一幅图像的特征图进行翘曲,得到翘曲特征图
Figure BDA0002910254920000041
2.4)利用第一帧图像第l级的特征图F1 l和翘曲特征图
Figure BDA0002910254920000042
构建第l级特征图匹配代价cvl,公式如下:
Figure BDA0002910254920000043
其中,N表示F1 l的列向量长度,T是转置运算符;
2.5)将第l级匹配代价cvl、第一帧图像的第l级特征图F1 l和第l+1级的上采样光流在通道维度拼接,将得到的通道数为115的特征图输入到光流估计网络中。光流估计网络的每个卷积层使用尺寸为3×3、步长为1的卷积核,输出通道分别为128、128、96、64、32、2,除最后一个卷积层外,每个卷积层后添加leaky Relu函数。将最后一个卷积层的输出作为第l级光流图;
2.6)交换全天空极光图像输入顺序为I2和I1,重复执行2.1)-2.5),输出第1级光流图作为后向光流wb
进一步地,步骤3利用前向-后向一致性假设,若前后两帧全天空极光图像未发生形变,它们的前向光流和后向光流互为相反数。具体的,当全天空极光图像中某一像素的前向光流和后向光流不符合下述前向一致性约束时,则判断该像素发生前向形变,并将该像素处的形变像素值标记为1,反之则标记为0:
Figure BDA0002910254920000044
其中,α1=0.01,α2=0.5,
Figure BDA0002910254920000045
Ω是全天空极光图像像素的集合。遍历全天空极光图像中的所有像素点,得到的所有形变像素构成了前向形变图Of
后向形变图Ob的生成过程与前向形变图Of类似,只需将上述前向一致性约束中的wf替换为wb
Figure BDA0002910254920000046
替换为
Figure BDA0002910254920000047
wb替换为wf即可。
进一步地,空间变换模块包含两个部分:网格生成器和图像采样器;网格生成器由以下方式逐点转换生成采样网格:
Figure BDA0002910254920000051
其中,(x2,y2)是全天空极光图像中的采样像素坐标,(x1,y1)是翘曲图像中的像素坐标,(u,v)为预测的光流,W(u,v)表示二维仿射变换矩阵,W(u,v)和(u,v)由光流网络预测生成;图像采样器利用双线性插值法对翘曲图像进行像素填充,公式如下:
Figure BDA0002910254920000052
其中,
Figure BDA0002910254920000053
为翘曲图像,H和W分别为图像的高和宽,(i,j)表示(x2,y2)周围的坐标值,I2(i,j)表示全天空极光图像I2中(i,j)处的像素值。
进一步地,步骤5中构造损失函数的操作如下:首先利用Census变换对全天空极光图像I1和I2以及步骤4得到的翘曲图像
Figure BDA0002910254920000054
Figure BDA0002910254920000055
补偿亮度变化;然后计算Census变换后的I1
Figure BDA0002910254920000056
间的汉明距离以及变换后的I2
Figure BDA0002910254920000057
间的汉明距离,以此来表示翘曲图像与全天空极光图像的差异;最后,利用前向形变图Of屏蔽I1
Figure BDA0002910254920000058
中的形变像素,利用后向形变图Ob屏蔽I2
Figure BDA0002910254920000059
中的形变像素,并为前向形变图和后向形变图添加约束项λ(Of+Ob),最终构造的损失函数表示如下:
Figure BDA00029102549200000510
其中,ρ(x)=(x22)γ是具有鲁棒性的Charbonnier惩罚函数,ε=0.001,γ=0.45,λ=12.4,T(·)表示利用Census变换计算两幅图像间的差异。
与现有技术相比,本发明具有以下优点:
(1)本发明解决了极光数据不符合亮度不变假设的问题,利用Census变换补偿极光图像的加性和乘性亮度变化以及伽马变化,减少了亮度变化引起的错误匹配,避免了极光突变过程中的亮度变化问题,提升了光流估计的鲁棒性;
(2)本发明考虑了极光的非刚体性质,利用前向-后向一致性约束检测极光形变像素,以创建掩膜的方式屏蔽极光形变区域,避免了极光运动过程中形状和体积变化带来的问题,有效提升了光流估计的准确性;
(3)本发明设计了7层特征金字塔提取网络逐级提取特征,通过上采样的方式结合来自高层的语义特征,使得网络可以联合学习深层特征与浅层特征,从而使不同运动尺度的极光光流场都能得到准确的估计;
(4)本发明设计了一种无监督光流训练方法,仅使用全天空极光图像序列训练光流网络,避免了昂贵的真实光流数据的获取,有效提升了本发明的可实现性。
附图说明
图1是本发明公开的一种基于无监督深度光流网络的极光运动表征方法的整体结构图;
图2是本发明的光流可视化示例;
图3是本发明的损失函数消融实验视觉比较,其中列(a)是预处理后的全天空极光图像,列(b)为采用亮度不变假设且不考虑形变训练的光流图,列(c)为采用亮度不变假设且考虑形变训练的光流图,列(d)为使用Census变换且不考虑形变训练的光流图,列(e)为使用Census变换且考虑形变训练的光流图。
具体实施方式
下面结合附图对本发明的实现步骤和技术效果做进一步的详细描述:
一种基于无监督深度光流网络的极光运动表征方法,包括以下步骤:
步骤1:提取极光观测视频中的每一帧原始极光图像,对每一帧原始极光图像进行预处理,将预处理后的极光图像按时间排序,得到连续的全天空极光图像序列;
步骤2:使用连续的全天空极光图像序列对光流网络进行训练。
2.1)输入两帧连续的全天空极光图像I1和I2,利用相同的特征金字塔提取网络分别提取两幅图像的特征图。特征金字塔提取网络的第1级特征图为输入图像,通道数为3;后面各级的通道数依次为16、32、64、96、128、192,每级由一个2倍下采样层和一个卷积层组成,下采样层和卷积层均使用尺寸为3×3、步长为2的卷积核来实现,并在卷积层后通过leaky Relu函数输出各级特征图。利用所有级的特征图构成7级特征金字塔;
2.2)首先处理特征金字塔的第l=7级,将第l+1级的上采样光流设置为0,执行步骤2.3)-2.5);其次当l<7时,将第l+1级的光流通过双线性插值法进行上采样,得到第l+1级的上采样光流,并从l=6开始,逐级重复执行步骤2.3)-2.5),直至第l=1级;最后将特征金字塔第l=1级的光流图输出作为前向光流wf
2.3)利用第l+1级的上采样光流,使用双线性插值法将第二幅图像的特征图向第一幅图像的特征图进行翘曲,得到翘曲特征图
Figure BDA0002910254920000071
2.4)利用第一帧图像第l级的特征图F1 l和翘曲特征图
Figure BDA0002910254920000072
构建第l级特征图匹配代价cvl,公式如下:
Figure BDA0002910254920000073
其中,N表示F1 l的列向量长度,T是转置运算符;
2.5)将第l级匹配代价cvl、第一帧图像的第l级特征图F1 l和第l+1级的上采样光流在通道维度拼接,将得到的通道数为115的特征图输入到光流估计网络中。光流估计网络的每个卷积层使用尺寸为3×3、步长为1的卷积核,输出通道分别为128、128、96、64、32、2,除最后一个卷积层外,每个卷积层后添加leaky Relu函数。将最后一个卷积层的输出作为第l级光流图;
2.6)交换全天空极光图像输入顺序为I2和I1,重复执行2.1)-2.5),输出第1级光流图作为后向光流wb
步骤3:利用文献“Sundaram,N.;Brox,T.;and Keutzer,K.Dense pointtrajectories by GPU-accelerated large displacement optical flow.EuropeanConference on Computer Vision,2010,pp.438–451.”提出的前向-后向一致性假设,若前后两帧全天空极光图像未发生形变,它们的前向光流和后向光流互为相反数。前向形变图Of和后向形变图Ob的生成过程如下:
3.1)当全天空极光图像中某一像素的前向光流和后向光流不符合下述前向一致性约束时,则判断该像素发生前向形变,并将该像素处的形变像素值标记为1,反之则标记为0:
Figure BDA0002910254920000081
其中,α1=0.01,α2=0.5,
Figure BDA0002910254920000082
Ω是全天空极光图像像素的集合。遍历全天空极光图像中的所有像素点,得到的所有形变像素构成了前向形变图Of
3.2)当全天空极光图像中某一像素的后向光流和前向光流不符合下述后向一致性约束时,则判断该像素发生后向形变,并将该像素处的形变像素值标记为1,反之则标记为0:
Figure BDA0002910254920000083
其中,α1=0.01,α2=0.5,
Figure BDA0002910254920000084
遍历全天空极光图像中的所有像素点,得到的所有形变像素构成了后向形变图Ob
步骤4:结合“M.Jaderberg,K.Simonyan,A.Zisserman,andK.Kavukcuoglu.Spatial transformer networks.Proceedings of the 28thInternational Conference on Neural Information Processing Systems,2015,pp.2017–2025”提出的空间变换模块,利用全天空极光图像I2和前向光流wf计算出前向翘曲图像
Figure BDA0002910254920000085
利用全天空极光图像I1和后向光流wb计算出后向翘曲图像
Figure BDA0002910254920000086
空间变换模块包含网格生成器和图像采样器。经典的空间变换网络还包含定位网络,由于本发明提取的极光光流场已经为全天空极光图像和翘曲图像之间的映射提供了仿射变换参数,所以不需要定位网络,网格生成器由以下方式逐点转换生成采样网格,以前向翘曲为例:
Figure BDA0002910254920000087
其中,(x2,y2)是全天空极光图像中的采样像素坐标,(x1,y1)是翘曲图像中的像素坐标,(u,v)为预测的光流,W(u,v)表示二维仿射变换矩阵,W(u,v)和(u,v)由光流网络预测生成。图像采样器利用双线性插值法对翘曲图像进行像素填充,公式如下:
Figure BDA0002910254920000088
其中,
Figure BDA0002910254920000091
为翘曲图像,H和W分别为图像的高和宽,(i,j)表示(x2,y2)周围的坐标值,I2(i,j)表示全天空极光图像I2中(i,j)处的像素值。
步骤5:利用Census变换计算全天空图像和翘曲图像间的差异。Census变换可以补偿加性和乘性的亮度变化以及伽马变化,能够减少亮度差异引起的错误匹配,对光流估计具有鲁棒性。其实质是将图像像素的灰度值编码成二进制码流,以此来获取邻域像素灰度值相对于中心像素灰度值的大小关系。构建损失函数的具体步骤如下:
5.1)利用Census变换补偿全天空极光图像和步骤4中翘曲图像的极光亮度变化;
5.2)计算变换后的I1
Figure BDA0002910254920000092
间的汉明距离以及变换后的I2
Figure BDA0002910254920000093
间的汉明距离,以此来表示翘曲图像与全天空极光图像的差异;
5.3)利用前向形变图Of屏蔽I1
Figure BDA0002910254920000094
中的形变像素,利用后向形变图Ob屏蔽I2
Figure BDA0002910254920000095
中的形变像素,并为前向形变图和后向形变图添加约束项λ(Of+Ob),避免网络将过多的像素判定为形变,最终构造的损失函数表示如下:
Figure BDA0002910254920000096
其中,ρ(x)=(x22)γ是具有鲁棒性的Charbonnier惩罚函数,ε=0.001,γ=0.45,λ=12.4,T(·)表示利用Census变换计算两幅图像间的差异。
步骤6:根据反向传播训练法原理,通过最小化损失函数L,自动更新光流网络参数,更新完毕后保存网络参数;
步骤7:向训练好的光流网络中输入任意两帧连续的全天空极光图像,输出为对应的像素级极光光流场。图2是本发明提取极光光流场的一个示例,左列是两帧连续全天空极光图像的第一帧,中间列是本发明提取的极光光流场,右列是方框中光流场的稀疏采样。
图3是对损失函数的形变检测和Census变换模块进行了消融实验的视觉对比图,当不考虑形变时,将损失函数L中的Of和Ob设置为0,当不使用Census变换而采用原始亮度不变假设时,
Figure BDA0002910254920000097
其中列(a)是全天空极光图像,列(b)为采用亮度不变假设且不考虑形变训练的光流图,列(c)为采用亮度不变假设且考虑形变训练的光流图,列(d)为使用Census变换且不考虑形变训练的光流图,列(e)为使用Census变换且考虑形变训练的光流图。对比(b)和(d),可以看到Census变换明显地改善了光流估计效果,这是因为极光图像数据不符合亮度不变假设,而Census变换补偿了亮度变化,因而对极光光流估计具有鲁棒性。对比(d)和(e),可以看出形变处理可以提高模型的光流估计性能。而(b)和(c)几乎没有差别,是因为形变检测是基于双向光流的,当模型预测的光流不够准确时,形变检测无法推导出正确的形变区域,也就难以提升光流估计效果。
本发明的效果可以通过极向运动极光(Poleward Moving Auroras,PMAs)事件识别仿真实验进一步描述。
实验1:基于光流的PMAs事件识别。
实验条件:本发明利用北极黄河站2003年11月至2004年12月采集的极光观测视频构建数据集进行实验。其中,训练数据集来自2003年11月至2004年1月共20天的极光观测,我们从中挑选了349个PMAs事件,PMAs事件的持续时间由2min到18min不等;从剩余的极光观测中随机挑选了431个非PMAs事件,其亮度、形状和持续时间变化较大,最长持续时间可达24min.测试数据集来自2004年的11/23、11/24、11/30和12/26共四天的日侧(03:00-15:00UT/06:00-18:00MLT)连续观测,其中,11/23、11/24和12/26三天的数据中有云层和月光干扰,11/30天气较为晴朗。
实验内容:
首先,对上述训练和测试数据集中的全天空极光图像序列,分别使用最新的无监督深度光流方法BackToBasic、UnFlow、DDFlow、EpiFlow-sub和本发明方法提取极光光流场;
其次,利用训练数据集对应的极光光流场对PMAs识别模型ResNet-18进行训练;
最后,比较本发明和其他四种光流方法在测试数据集上的PMAs识别准确率,结果见表1。
表1PMAs事件识别准确率(%)比较
Figure BDA0002910254920000101
Figure BDA0002910254920000111
从表1可以看出,本发明方法能够适应不同天气条件下的PMAs识别任务,在五种方法中取得了最优的结果,证明了本发明极光运动表征方法的有效性。而UnFlow方法虽然在天气晴朗的11/30准确率较高,但它在其它较恶劣天气条件下的准确率急剧下降,鲁棒性较差;这是由于该方法添加了全局平滑约束用于约束各像素邻域内的局部运动,使得模型仅提取到极光大尺度的全局运动而忽略了小尺度的局部运动。

Claims (6)

1.一种基于无监督深度光流网络的极光运动表征方法,其特征在于,包括以下步骤:
步骤1:提取极光观测视频中的每一帧原始极光图像,对每一帧原始极光图像进行预处理,将预处理后的极光图像按时间排序,得到连续的全天空极光图像序列;
步骤2:以相邻两幅连续的全天空极光图像I1和I2作为输入,通过光流网络输出得到前向光流wf和后向光流wb
步骤3:利用前向-后向一致性约束,通过前向光流wf和后向光流wb对极光形变结构进行推理,获取前向形变图Of和后向形变图Ob
步骤4:结合空间变换模块,利用全天空极光图像I2和前向光流wf计算出前向翘曲图像
Figure FDA0002910254910000011
利用全天空极光图像I1和后向光流wb计算出后向翘曲图像I1 w
步骤5:计算全天空极光图像和翘曲图像间的差异,并结合前向形变图Of和后向形变图Ob构造损失函数;
步骤6:根据反向传播训练法原理,通过最小化损失函数,得到优化后的光流网络参数,更新并保存网络参数;
步骤7:向优化后的光流网络中输入任意两幅连续的全天空极光图像,输出即为对应的像素级极光光流场。
2.根据权利要求1所述的一种基于无监督深度光流网络的极光运动表征方法,其特征在于,步骤1中的预处理包括:(1)减去暗电流;(2)去除边缘噪声;(3)灰度拉伸;(4)图像旋转;(5)图像裁剪,预处理后的图像大小为440×440,得到连续的全天空极光图像序列。
3.根据权利要求1所述的一种基于无监督深度光流网络的极光运动表征方法,其特征在于,步骤2的光流网络包含特征金字塔提取网络和光流估计网络,网络前馈过程步骤如下:
2.1)输入两帧连续的全天空极光图像I1和I2,利用相同的特征金字塔提取网络分别提取两幅图像的特征图;特征金字塔提取网络的第1级特征图为输入图像,通道数为3;后面各级的通道数依次为16、32、64、96、128、192,每级由一个2倍下采样层和一个卷积层组成,下采样层和卷积层均使用尺寸为3×3、步长为2的卷积核来实现,并在卷积层后通过leakyRelu函数输出各级特征图;利用所有级的特征图构成7级特征金字塔;
2.2)首先处理特征金字塔的第l=7级,将第l+1级的上采样光流设置为0,执行步骤2.3)-2.5);其次当l<7时,将第l+1级的光流通过双线性插值法进行上采样,得到第l+1级的上采样光流,并从l=6开始,逐级重复执行步骤2.3)-2.5),直至第l=1级;最后将特征金字塔第l=1级的光流图输出作为前向光流wf
2.3)利用第l+1级的上采样光流,使用双线性插值法将第二幅图像的特征图向第一幅图像的特征图进行翘曲,得到翘曲特征图
Figure FDA0002910254910000021
2.4)利用第一帧图像第l级的特征图F1 l和翘曲特征图
Figure FDA0002910254910000022
构建第l级特征图匹配代价cvl,公式如下:
Figure FDA0002910254910000023
其中,N表示F1 l的列向量长度,T是转置运算符;
2.5)将第l级匹配代价cvl、第一帧图像的第l级特征图F1 l和第l+1级的上采样光流在通道维度拼接,将得到的通道数为115的特征图输入到光流估计网络中;光流估计网络的每个卷积层使用尺寸为3×3、步长为1的卷积核,输出通道分别为128、128、96、64、32、2,除最后一个卷积层外,每个卷积层后添加leaky Relu函数;将最后一个卷积层的输出作为第l级光流图;
2.6)交换全天空极光图像输入顺序为I2和I1,重复执行2.1)-2.5),输出第1级光流图作为后向光流wb
4.根据权利要求1所述的一种基于无监督深度光流网络的极光运动表征方法,其特征在于,步骤3利用前向-后向一致性假设,若前后两帧全天空极光图像未发生形变,它们的前向光流和后向光流互为相反数;具体的,当全天空极光图像中某一像素的前向光流和后向光流不符合下述前向一致性约束时,则判断该像素发生前向形变,并将该像素处的形变像素值标记为1,反之则标记为0:
Figure FDA0002910254910000031
其中,α1=0.01,α2=0.5,
Figure FDA0002910254910000032
p∈Ω,Ω是全天空极光图像像素的集合,遍历全天空极光图像中的所有像素点,得到的所有形变像素构成了前向形变图Of
后向形变图Ob的生成过程与前向形变图Of类似,只需将上述前向一致性约束中的wf替换为wb
Figure FDA0002910254910000033
替换为
Figure FDA0002910254910000034
wb替换为wf即可。
5.根据权利要求1所述的一种基于无监督深度光流网络的极光运动表征方法,其特征在于,空间变换模块包含两个部分:网格生成器和图像采样器;网格生成器由以下方式逐点转换生成采样网格:
Figure FDA0002910254910000035
其中,(x2,y2)是全天空极光图像中的采样像素坐标,(x1,y1)是翘曲图像中的像素坐标,(u,v)为预测的光流,W(u,v)表示二维仿射变换矩阵,W(u,v)和(u,v)由光流网络预测生成;
图像采样器利用双线性插值法对翘曲图像进行像素填充,公式如下:
Figure FDA0002910254910000036
其中,
Figure FDA0002910254910000037
为翘曲图像,H和W分别为图像的高和宽,(i,j)表示(x2,y2)周围的坐标值,I2(i,j)表示全天空极光图像I2中(i,j)处的像素值。
6.根据权利要求1所述的一种基于无监督深度光流网络的极光运动表征方法,其特征在于,步骤5中构造损失函数的操作如下:首先利用Census变换对全天空极光图像I1和I2以及步骤4得到的翘曲图像I1 w
Figure FDA0002910254910000038
补偿亮度变化;然后计算Census变换后的I1
Figure FDA0002910254910000039
间的汉明距离以及变换后的I2和I1 w间的汉明距离,以此来表示翘曲图像与全天空极光图像的差异;最后,利用前向形变图Of屏蔽I1
Figure FDA00029102549100000310
中的形变像素,利用后向形变图Ob屏蔽I2和I1 w中的形变像素,并为前向形变图和后向形变图添加约束项λ(Of+Ob),最终构造的损失函数表示如下:
Figure FDA00029102549100000311
其中,ρ(x)=(x22)γ是具有鲁棒性的Charbonnier惩罚函数,ε=0.001,γ=0.45,λ=12.4,T(·)表示利用Census变换计算两幅图像间的差异。
CN202110084981.2A 2021-01-21 2021-01-21 一种基于无监督深度光流网络的极光运动表征方法 Pending CN112785629A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110084981.2A CN112785629A (zh) 2021-01-21 2021-01-21 一种基于无监督深度光流网络的极光运动表征方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110084981.2A CN112785629A (zh) 2021-01-21 2021-01-21 一种基于无监督深度光流网络的极光运动表征方法

Publications (1)

Publication Number Publication Date
CN112785629A true CN112785629A (zh) 2021-05-11

Family

ID=75758429

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110084981.2A Pending CN112785629A (zh) 2021-01-21 2021-01-21 一种基于无监督深度光流网络的极光运动表征方法

Country Status (1)

Country Link
CN (1) CN112785629A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837968A (zh) * 2021-09-29 2021-12-24 北京地平线信息技术有限公司 人脸光流估计网络的训练以及人脸光流估计方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108320020A (zh) * 2018-02-07 2018-07-24 深圳市唯特视科技有限公司 一种基于双向光流的端到端无监督学习方法
US20180293737A1 (en) * 2017-04-07 2018-10-11 Nvidia Corporation System and method for optical flow estimation
WO2020088766A1 (en) * 2018-10-31 2020-05-07 Toyota Motor Europe Methods for optical flow estimation
CN111462191A (zh) * 2020-04-23 2020-07-28 武汉大学 一种基于深度学习的非局部滤波器无监督光流估计方法
CN111582483A (zh) * 2020-05-14 2020-08-25 哈尔滨工程大学 基于空间和通道联合注意力机制的无监督学习光流估计方法
CN112233179A (zh) * 2020-10-20 2021-01-15 湘潭大学 一种视觉里程计测量方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180293737A1 (en) * 2017-04-07 2018-10-11 Nvidia Corporation System and method for optical flow estimation
CN108320020A (zh) * 2018-02-07 2018-07-24 深圳市唯特视科技有限公司 一种基于双向光流的端到端无监督学习方法
WO2020088766A1 (en) * 2018-10-31 2020-05-07 Toyota Motor Europe Methods for optical flow estimation
CN111462191A (zh) * 2020-04-23 2020-07-28 武汉大学 一种基于深度学习的非局部滤波器无监督光流估计方法
CN111582483A (zh) * 2020-05-14 2020-08-25 哈尔滨工程大学 基于空间和通道联合注意力机制的无监督学习光流估计方法
CN112233179A (zh) * 2020-10-20 2021-01-15 湘潭大学 一种视觉里程计测量方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MAX JADERBERG: "Spatial transformer networks", PROCEEDINGS OF THE 28THINTERNATIONAL CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS, 31 December 2015 (2015-12-31), pages 2017 - 2025 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837968A (zh) * 2021-09-29 2021-12-24 北京地平线信息技术有限公司 人脸光流估计网络的训练以及人脸光流估计方法和装置
CN113837968B (zh) * 2021-09-29 2024-01-23 北京地平线信息技术有限公司 人脸光流估计网络的训练以及人脸光流估计方法和装置

Similar Documents

Publication Publication Date Title
CN111862126B (zh) 深度学习与几何算法结合的非合作目标相对位姿估计方法
CN110728658A (zh) 一种基于深度学习的高分辨率遥感影像弱目标检测方法
CN110119728A (zh) 基于多尺度融合语义分割网络的遥感图像云检测方法
CN110765912B (zh) 一种基于统计约束和Mask R-CNN的SAR图片船舶目标检测方法
CN113298815A (zh) 一种半监督遥感图像语义分割方法、装置和计算机设备
CN106338733A (zh) 基于蛙眼视觉特性的前视声呐目标跟踪方法
CN113554032B (zh) 基于高度感知的多路并行网络的遥感图像分割方法
CN113158943A (zh) 一种跨域红外目标检测方法
CN112419196B (zh) 一种基于深度学习的无人机遥感影像阴影去除方法
CN113033432A (zh) 一种基于渐进监督的遥感影像居民区提取方法
CN114820655A (zh) 可靠区域作为注意力机制监督的弱监督建筑物分割方法
Zuo et al. A remote sensing image semantic segmentation method by combining deformable convolution with conditional random fields
Li et al. An aerial image segmentation approach based on enhanced multi-scale convolutional neural network
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN114596477A (zh) 基于领域自适应和注意力机制的雾天火车故障检测方法
Babu et al. An efficient image dahazing using Googlenet based convolution neural networks
Tian et al. Semantic segmentation of remote sensing image based on GAN and FCN network model
Wang et al. Afdn: Attention-based feedback dehazing network for UAV remote sensing image haze removal
CN113989612A (zh) 基于注意力及生成对抗网络的遥感影像目标检测方法
CN112785629A (zh) 一种基于无监督深度光流网络的极光运动表征方法
WO2019136591A1 (zh) 基于弱监督时空级联神经网络的显著目标检测方法及系统
CN111814696A (zh) 一种基于改进YOLOv3的视频船舶目标检测方法
Zhang Image Enhancement Method Based on Deep Learning
Guo et al. Blind single-image-based thin cloud removal using a cloud perception integrated fast Fourier convolutional network
CN115223033A (zh) 一种合成孔径声呐图像目标分类方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination