CN107045722B - 融合静态信息与动态信息的视频序列分割方法 - Google Patents
融合静态信息与动态信息的视频序列分割方法 Download PDFInfo
- Publication number
- CN107045722B CN107045722B CN201710190220.9A CN201710190220A CN107045722B CN 107045722 B CN107045722 B CN 107045722B CN 201710190220 A CN201710190220 A CN 201710190220A CN 107045722 B CN107045722 B CN 107045722B
- Authority
- CN
- China
- Prior art keywords
- ultraviolet aurora
- ultraviolet
- image
- block
- aurora
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种融合静态信息与动态信息的视频序列分割方法,主要解决现有紫外极光图像分割方法由于不考虑动态特征,造成分割结果不准确的问题。其实现过程为:1).构建紫外极光序列数据库;2).利用紫外极光图像的静态特征在空域上对构建的紫外极光序列进行分割,得到紫外极光序列的空域分割结果;3).利用紫外极光图像的动态特征在时域上对构建的紫外极光序列进行分割,得到紫外极光序列的时域分割结果;4).融合步骤2)和3)的结果,得到最终的分割结果。本发明由于将静态特征与动态特征相结合,大大提升了紫外极光图像的分割精度,可用于目标识别。
Description
技术领域
本发明属于图像处理技术领域,涉及紫外极光图像分割方法,可用于目标识别与跟踪。
背景技术
极光是来自磁层的高能粒子沉降到高层大气并与中性成分碰撞激发的一种大气发光现象,它主要出现在以地磁极为中心的环带状区域内,该区域又叫极光卵。极光卵的赤道向边界和极向边界是重要的地球物理参数,其与太阳风、地磁活动有着密切的关系。而且极光卵的边界随着地磁活动而变化,对其研究有助于进一步了解日地耦合过程,认知空间气候变化规律。因此,有效确定极光卵边界是非常重要的。
多年来,研究者们也提出了很多紫外极光图像分割方法,如1998年Germany等人提出的脉冲耦合神经网络法PCNN;2003年Hung等人提出的基于直方图的K均值算法HKM;2004年Li等人提出的自适应最小误差阈值转换法AMET;这三种方法由于只用图像的亮度信息对紫外极光图像进行分割,因此,在紫外极光图像对比度较高的情况下可以得到较好的分割结果,但是众所周知,大部分紫外极光图像的对比度都较低,所以这两种方法在大多数情况下都不能获得完整的极光卵。为了克服上述方法的缺陷,2009年Cao等人提出的基于随机霍夫变换的线性最小二乘法LLSRHT,该方法在紫外极光图像对比度较低的情况下也可以获得完整的极光卵,但该方法获得的极光卵的边界过于平滑,与实际情况不符。于是,Yang等人于2015年提出了亮度自适应和形状初始化的极光卵分割方法,该方法在最优参数下可以获得相对准确的分割结果,但是寻找最优参数不仅耗时耗力,而且非常困难。此外上述方法均只考虑了紫外极光图像的静态特征,而紫外极光图像的极光卵是粒子运动形成的,因此只考虑静态特征得到的分割结果会丢失运动的部分,以此造成分割结果不准确。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种融合静态信息与动态信息的视频序列分割方法,以实现紫外极光序列的精确分割。
本发明的技术思路是:利用紫外极光图像的静态特征在空域上对紫外极光图像进行分割,得到紫外极光图像的空域分割结果;利用紫外极光图像的动态特征在时域上对紫外极光图像进行分割,得到紫外极光图像的时域分割结果;将紫外极光图像的空域分割结果和时域分割结果进行融合,得到最终的分割结果。其实现步骤包括如下:
(1)从Polar卫星携带的紫外成像仪所拍摄的紫外极光图像中,选取形态相似且时间上连续的紫外极光图像构成10个紫外极光序列,每个紫外极光序列包含20张紫外极光图像;
(2)在空域上对10个紫外极光序列进行分割:
(2a)从每一个紫外极光序列中都随机选出10张紫外极光图像,得到100张紫外极光图像,手动标注出这100张紫外极光图像的极光卵边界,作为标准结果,并用这100张紫外极光图像及其对应的标准结果共同构成训练样本集,用10个紫外极光序列中剩下的100张紫外极光图像构成测试样本集;
(2b)在训练样本集和测试样本集中的每一幅紫外极光图像上用眼动仪得到注视点,并将注视点连成闭合曲线;
(2c)沿着步骤(2b)中得到的曲线对训练样本集中的每一幅紫外极光图像滑动取块,得到训练块,记下每一个块的位置,并根据这些块的位置在每一幅紫外极光图像对应的标准结果上也取相同尺寸的块,作为标准块,将这些训练块和对应的标准块构成块字典;
(2d)沿着步骤(2b)中得到的曲线对测试样本集中的每一幅紫外极光图像滑动取块,得到测试块,记下每一个块的位置;
(2e)从步骤(2c)得到的块字典中找到与步骤(2d)中每一个测试块最相似的训练块,并将这个训练块对应的标准块放到该测试块所在紫外极光图像上的相应位置;
(2f)重复步骤(2e),直到步骤(2d)中所有测试块所在的紫外极光图像的相应位置都放上标准块,即得到紫外极光序列的空域分割结果;
(3)在时域上对10个紫外极光序列进行分割:
(3a)以紫外极光序列的每一帧紫外极光图像作为输入,用K-means算法按灰度值将输入图像聚成三类,并用不同颜色标注,得到输入图像的初始标记图像;
(3b)用格子玻尔兹曼模型LBM求得紫外极光序列相邻帧之间的粒子运动场,并将运动场用彩色图像显示出来;
(3c)以(3b)中得到的粒子运动场图像作为输入,用分水岭算法将输入图像分割成许多区域;
(3d)根据(3a)中得到的初始标记图像应用区域合并算法对(3c)中的区域进行合并,得到紫外极光序列的时域分割结果;
(4)将步骤(2)得到的空域分割结果和步骤(3)得到的时域分割结果融合,即求两种结果的并集,得到紫外极光序列的最终分割结果。
本发明具有如下优点:
1.本发明由于不使用紫外极光图像的亮度信息,从而对对比度较低的紫外极光图像也可以得到较好的分割结果;
2.本发明由于同时考虑了紫外极光图像的静态信息和动态信息,因此克服了以往紫外极光图像分割方法只利用紫外极光图像的静态信息而导致分割结果不准确的问题;
3.本发明由于不需要人工调节参数,因此,适合大数据的分割。
附图说明
图1是本发明的实现流程图;
图2是用本发明与现有方法对紫外极光图像进行分割的对比结果图。
具体实施方式
以下结合附图对本发明的内容和效果进行进一步描述。
参照图1,本发明的具体实现步骤如下:
步骤1:构建极光序列数据库。
Polar卫星在离地面约840公里的轨道运行,它的轨道通过地球的南北两极,通过Polar卫星上携带的紫外成像仪随着Polar卫星的运转拍摄出不同时刻的海量的紫外极光图像,本实例从紫外成像仪所拍摄的紫外极光图像中,选取形态相似且时间上连续的紫外极光图像构成10个极光序列,每个极光序列包含20张图像。
步骤2:在空域上对步骤(1)中的极光序列进行分割。
(2a)从10个极光序列的每一个极光序列中都随机选出10张图像,手动标注出这100张紫外极光图像的极光卵边界,作为标准结果,并用这100张紫外极光图像及其对应的标准结果共同构成训练样本集,用10个紫外极光序列中剩下的100张紫外极光图像构成测试样本集;
(2b)将紫外极光图像呈现在眼动仪显示屏的屏幕上,选择对紫外极光图像较为熟悉的人作为被试者,并让该被试者看屏幕上紫外极光图像的极光卵,眼动仪会捕捉到被试者在紫外极光图像上的注视点,将得到的注视点连成闭合曲线:
(2c)沿着步骤(2b)中得到的曲线按设定步长对训练样本集中的每一幅紫外极光图像滑动取块,得到训练块,记下每一个块的位置,并根据这些块的位置在每一幅紫外极光图像对应的标准结果上也取相同尺寸的块,作为标准块,将这些训练块和对应的标准块构成块字典,其中,本实例所用滑动步长为10个像素;
(2d)沿着步骤(2b)中得到的曲线对测试样本集中的每一幅紫外极光图像滑动取块,得到测试块,记下每一个块的位置;
(2e)从步骤(2c)得到的块字典中找到与步骤(2d)中每一个测试块最相似的训练块,并将这个训练块对应的标准块放到该测试块所在紫外极光图像上的相应位置:
(2e1)提取任意一个测试块的局部二值模式特征h1、局部定向模式特征h2、加速鲁棒特征h3及卷积神经网络特征h4,得到测试块的列向量:H={h1,h2,h3,h4}T,其中T表示转置,本实例采用LeNet-5网络的最后一层池化结果作为卷积神经网络特征h4;
(2e2)提取块字典中第j个训练块的局部二值模式特征wj1、局部定向模式特征wj2、加速鲁棒特征wj3及卷积神经网络特征wj4,得到块字典中第j个训练块的列向量:Wj={wj1,wj2,wj3,wj4}T,其中,j=1,2,...,q,q为块字典中训练块的总个数;
(2e3)求H到Wj的欧式距离:b=||(H-Wj)||2,当b最小时,记下此时的Wj,该Wj所对应的训练块就是与该测试块最相似的。
(2f)重复步骤(2e),直到步骤(2d)中所有测试块所在的紫外极光图像的相应位置都放上标准块,即得到紫外极光序列的空域分割结果。
步骤3:在时域上对步骤(1)中的极光序列进行分割。
(3a)以紫外极光序列的每一帧紫外极光图像作为输入,用K-means算法按灰度值将输入图像聚成三类,并用不同颜色标注,得到输入图像的初始标记图像;
(3b)用格子玻尔兹曼模型LBM求得紫外极光序列相邻帧之间的粒子运动场,并将运动场用彩色图像显示出来;
(3b1)将紫外极光序列相邻两帧图像的每个像素看作流体粒子,计算粒子沿着LBM模型中典型的二维九方向元胞结构的九个方向,即静止0、第一个方向1、第二个方向2、...、第八个方向8移动的移动速度ed:
其中,d=1,2,3,4时,d=5,6,7,8时,
(3b2)根据步骤(3b1)得到的粒子移动速度计算驱动前一帧图像的粒子向后一帧图像流动的外力G:
其中,F为极光序列相邻两帧图像的灰度差;
(3b3)构建在外力G驱动下前一帧紫外极光图像的粒子向后一帧紫外极光图像流动的动态过程的LBM演化方程:
其中,为前一帧紫外极光图像上粒子的位置,为t时刻前一帧紫外极光图像上处沿方向d移动的粒子密度分布函数,为t时刻前一帧紫外极光图像上处粒子平衡分布函数,Δt和Δs分别为时间步长和空间步长,ξ为松弛时间,即元胞内粒子密度趋于平衡态时所用的时间;
(3b4)设置和的初始值为:
其中,为初始状态时前一帧紫外极光图像上处的粒子密度,M为可调参数,M∈[0,1];
(3b5)通过迭代,求解(3b3)中的LBM演化方程,直至粒子平衡分布函数不在变化为止,得到前一帧紫外极光图像的粒子向后一帧紫外极光图像流动的粒子位移场
其中,表示的梯度,
(3c)以(3b)中得到的粒子运动场图像作为输入,用分水岭算法将输入图像分割成许多区域;
(3d)对于任意一对相邻的区域R和Q,将它们对应到初始标记图像上,判断两者的标记颜色是否相同:
若标记颜色不相同,则不进行区域合并,且寻找下一对相邻的区域;
若标记颜色相同,则按下列步骤合并R和Q:
(3d1)分别计算R的灰度直方图AR={AR 1,...AR k,...,AR 256}和Q的灰度直方图AQ={AQ 1,...AQ k,...,AQ 256},其中AR k表示区域R中灰度值为k的像素的个数,AQ k表示区域Q中灰度值为k的像素的个数,k=1,2,...,256;
(3d2)根据(3d1)的结果计算R和Q的相似度:;
(3d3)设置相似度阈值Y,将(3d2)的结果x(R,Q)与阈值Y进行比较,若x(R,Q)大于Y,则将R和Q合并成一个区域,若x(R,Q)小于等于Y,则不合并区域R和Q,且寻找下一对相邻的区域,本实例中,相似度阈值Y的值取100。
步骤4:将步骤(2)得到的空域分割结果和步骤(3)得到的时域分割结果融合,得到最终的分割结果。
由于空域分割结果和时域分割结果是与输入图像大小相同的两个二值图像,故可将这两个二值图像看作两个矩阵,矩阵中的元素只有0和1两个值;将两个矩阵对应元素相加,得到相加后的矩阵;将相加后的矩阵中大于0的元素换成255,得到一个新的矩阵,将这个新矩阵用Matlab显示出来,就得到空域分割结果和时域分割结果融合后的结果。
本发明的效果通过以下仿真实验进一步说明:
1、实验条件
硬件平台:Intel Core i3、2.93GHz、3.45GB RAM;
软件平台:Windows7操作系统下的MATLAB R2011b;
实验数据:本发明所使用的紫外极光序列来自Polar卫星携带的紫外极光成像仪所拍摄的1996年12月的数据,其中每帧图像大小均为228*200。
2、实验内容与结果
仿真1:用本发明和现有5种紫外极光图像分割方法对上述实验数据同时进行分割处理,结果如图2,其中:
图2(a)为紫外极光图像,
图2(b)为现有基于直方图的K均值算法HKM的分割结果,
图2(c)为现有自适应最小误差阈值转换法AMET的分割结果,
图2(d)为现有脉冲耦合神经网络法PCNN的分割结果,
图2(e)为现有基于随机霍夫变换的线性最小二乘法LLSRHT的分割结果,
图2(f)为亮度自适应和形状初始化的水平集极光卵分割方法SIIALS的分割结果,
图2(g)为本发明的分割结果,
图2(h)为手工标定的标准结果,
从图2可以看出,本发明得到的分割结果与标准结果最相似,说明本发明得到的分割结果最好。
为了更准确的评价本发明,用分割结果的IOU得分以及像素分类准确率PCA对本发明以及现有方法的结果做客观评价,如表1所示。
表1
表1中,IOU和PCA的值越高,说明分割效果越好。IOU和APP的公式如下:
其中,GT是指标准结果,D是分割结果,N1是GT与D的交集中值为255的像素个数,N2是GT与D的交集中值为0的像素个数,N是紫外极光图像中所有像素的个数。
从表1可见,本发明在紫外极光图像的分割上有最高的IOU和APP,说明本发明在紫外极光图像的分割上有最好的效果,分割准确率大大提高。
Claims (5)
1.融合静态信息与动态信息的视频序列分割方法,包括:
(1)从Polar卫星携带的紫外成像仪所拍摄的紫外极光图像中,选取形态相似且时间上连续的紫外极光图像构成10个紫外极光序列,每个紫外极光序列包含20张紫外极光图像;
(2)在空域上对10个紫外极光序列进行分割:
(2a)从每一个紫外极光序列中都随机选出10张紫外极光图像,得到100张紫外极光图像,手动标注出这100张紫外极光图像的极光卵边界,作为标准结果,并用这100张紫外极光图像及其对应的标准结果共同构成训练样本集,用10个紫外极光序列中剩下的100张紫外极光图像构成测试样本集;
(2b)在训练样本集和测试样本集中的每一幅紫外极光图像上用眼动仪得到注视点,并将注视点连成闭合曲线;
(2c)沿着步骤(2b)中得到的曲线对训练样本集中的每一幅紫外极光图像滑动取块,得到训练块,记下每一个块的位置,并根据这些块的位置在每一幅紫外极光图像对应的标准结果上也取相同尺寸的块,作为标准块,将这些训练块和对应的标准块构成块字典;
(2d)沿着步骤(2b)中得到的曲线对测试样本集中的每一幅紫外极光图像滑动取块,得到测试块,记下每一个块的位置;
(2e)从步骤(2c)得到的块字典中找到与步骤(2d)中每一个测试块最相似的训练块,并将这个训练块对应的标准块放到该测试块所在紫外极光图像上的相应位置;
(2f)重复步骤(2e),直到步骤(2d)中所有测试块所在的紫外极光图像的相应位置都放上标准块,即得到紫外极光序列的空域分割结果;
(3)在时域上对10个紫外极光序列进行分割:
(3a)以紫外极光序列的每一帧紫外极光图像作为输入,用K-means算法按灰度值将输入图像聚成三类,并用不同颜色标注,得到输入图像的初始标记图像;
(3b)用格子玻尔兹曼模型LBM求得紫外极光序列相邻帧之间的粒子运动场,并将运动场用彩色图像显示出来;
(3c)以(3b)中得到的粒子运动场图像作为输入,用分水岭算法将输入图像分割成许多区域;
(3d)根据(3a)中得到的初始标记图像应用区域合并算法对(3c)中的区域进行合并,得到紫外极光序列的时域分割结果;
(4)将步骤(2)得到的空域分割结果和步骤(3)得到的时域分割结果融合,即求两种结果的并集,得到紫外极光序列的最终分割结果。
2.根据权利要求1所述的方法,其中步骤(2b)中对训练样本集和测试样本集中的每一幅紫外极光图像用眼动仪得到注视点,是将紫外极光图像呈现在眼动仪显示屏的屏幕上;选择对紫外极光图像熟悉的人作为被试者,并让该被试者看屏幕上紫外极光图像的极光卵,眼动仪会捕捉到被试者在紫外极光图像上的注视点,并记录其位置。
3.根据权利要求1所述的方法,其中步骤(2e)中从步骤(2c)得到的块字典中找到与步骤(2d)中每一个测试块最相似的训练块,按如下步骤进行:
(2e1)提取任意一个测试块的局部二值模式特征h1、局部定向模式特征h2、加速鲁棒特征h3及卷积神经网络特征h4,得到测试块的列向量:H={h1,h2,h3,h4}T,其中T表示转置;
(2e2)提取块字典中第j个训练块的局部二值模式特征wj1、局部定向模式特征wj2、加速鲁棒特征wj3及卷积神经网络特征wj4,得到块字典中第j个训练块的列向量:Wj={wj1,wj2,wj3,wj4}T,其中,j=1,2,...,q,q为块字典中训练块的总个数;
(2e3)求H到Wj的欧式距离:b=||(H-Wj)||2,当b最小时,记下此时的Wj,该Wj所对应的训练块就是与该测试块最相似的。
4.根据权利要求1所述的方法,其中步骤(3b)中用格子玻尔兹曼模型LBM求得紫外极光序列相邻帧之间的粒子运动场,按如下步骤进行:
(3b1)将紫外极光序列相邻两帧紫外极光图像的每个像素看作流体粒子,计算粒子沿着LBM模型中典型的二维九方向元胞结构的九个方向,即静止0、第一个方向1、...、第八个方向8移动的移动速度ed:
其中,d=1,2,3,4时,时,
(3b2)根据步骤(3b1)得到的粒子移动速度计算驱动前一帧紫外极光图像的粒子向后一帧紫外极光图像流动的外力G:
其中,F为紫外极光序列相邻两帧紫外极光图像的灰度差;
(3b3)构建在外力G驱动下前一帧紫外极光图像的粒子向后一帧紫外极光图像流动的动态过程的LBM演化方程:
其中,为前一帧紫外极光图像上粒子的位置,为t时刻前一帧紫外极光图像上处沿方向d移动的粒子密度分布函数,为t时刻前一帧紫外极光图像上处粒子平衡分布函数,Δt和Δs分别为时间步长和空间步长,ξ为松弛时间,即元胞内粒子密度趋于平衡态时所用的时间;
(3b4)设置和的初始值为:
其中,为初始状态时前一帧紫外极光图像上处的粒子密度,M为可调参数,M∈[0,1];
(3b5)通过迭代,求解(3b3)中的LBM演化方程,直至粒子平衡分布函数不在变化为止,得到前一帧紫外极光图像的粒子向后一帧紫外极光图像流动的粒子位移场
其中,表示的梯度,
5.根据权利要求1所述的方法,其中步骤(3d)中根据(3a)中得到的初始标记图像应用区域合并算法对(3c)中的区域进行合并,按如下规则进行:
对于任意一对相邻的区域R和Q,将它们对应到初始标记图像上,判断两者的标记颜色是否相同:
若标记颜色不相同,则不进行区域合并,且寻找下一对相邻的区域;
若标记颜色相同,则按下列步骤判断是否合并R和Q:
(3d1)分别计算R的灰度直方图AR={AR 1,...AR k,...,AR 256}和Q的灰度直方图AQ={AQ 1,...AQ k,...,AQ 256},其中AR k表示区域R中灰度值为k的像素的个数,AQ k表示区域Q中灰度值为k的像素的个数,k=1,2,...,256;
(3d2)根据(3d1)的结果计算R和Q的相似度:
(3d3)设置相似度阈值Y,将(3d2)的结果x(R,Q)与阈值Y进行比较,若x(R,Q)大于Y,则将R和Q合并成一个区域,若x(R,Q)小于等于Y,则不合并R和Q,且寻找下一对相邻的区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710190220.9A CN107045722B (zh) | 2017-03-27 | 2017-03-27 | 融合静态信息与动态信息的视频序列分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710190220.9A CN107045722B (zh) | 2017-03-27 | 2017-03-27 | 融合静态信息与动态信息的视频序列分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107045722A CN107045722A (zh) | 2017-08-15 |
CN107045722B true CN107045722B (zh) | 2019-07-30 |
Family
ID=59544137
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710190220.9A Active CN107045722B (zh) | 2017-03-27 | 2017-03-27 | 融合静态信息与动态信息的视频序列分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107045722B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109003282B (zh) * | 2018-07-27 | 2022-04-29 | 京东方科技集团股份有限公司 | 一种图像处理的方法、装置及计算机存储介质 |
CN110287816B (zh) * | 2019-06-05 | 2021-12-28 | 北京字节跳动网络技术有限公司 | 车门动作检测方法、装置和计算机可读存储介质 |
CN110501667B (zh) * | 2019-08-02 | 2023-07-21 | 西安飞机工业(集团)有限责任公司 | 一种超短波定向仪的测试系统及地面试验方法 |
CN115456036B (zh) * | 2021-06-08 | 2023-06-23 | 河北雄安京德高速公路有限公司 | 基于北斗数据的营运车辆异常驾驶行为识别方法及系统 |
CN113658214B (zh) * | 2021-08-16 | 2022-08-09 | 北京百度网讯科技有限公司 | 轨迹预测方法、碰撞检测方法、装置、电子设备及介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102930273B (zh) * | 2012-10-15 | 2015-06-17 | 西安电子科技大学 | 基于亮度自适应水平集的极光卵分割方法 |
CN105264533B (zh) * | 2013-01-18 | 2019-09-24 | 西门子公司 | 用于心脏机电学的交互计算的方法和系统 |
US10192117B2 (en) * | 2015-06-25 | 2019-01-29 | Kodak Alaris Inc. | Graph-based framework for video object segmentation and extraction in feature space |
CN105631471A (zh) * | 2015-12-23 | 2016-06-01 | 西安电子科技大学 | 融合单帧特征和动态纹理模型的极光序列分类方法 |
CN105550712B (zh) * | 2015-12-23 | 2019-01-08 | 西安电子科技大学 | 基于优化卷积自动编码网络的极光图像分类方法 |
CN106131567B (zh) * | 2016-07-04 | 2019-01-08 | 西安电子科技大学 | 基于格子玻尔兹曼的紫外极光视频帧率上转换方法 |
-
2017
- 2017-03-27 CN CN201710190220.9A patent/CN107045722B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107045722A (zh) | 2017-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107045722B (zh) | 融合静态信息与动态信息的视频序列分割方法 | |
CN108596101B (zh) | 一种基于卷积神经网络的遥感图像多目标检测方法 | |
Changzhen et al. | A traffic sign detection algorithm based on deep convolutional neural network | |
CN105069746B (zh) | 基于局部仿射和颜色迁移技术的视频实时人脸替换方法及其系统 | |
CN104978580B (zh) | 一种用于无人机巡检输电线路的绝缘子识别方法 | |
CN108710863A (zh) | 基于深度学习的无人机航拍场景语义分割方法及系统 | |
CN103578119B (zh) | 基于超像素的Codebook动态场景中目标检测方法 | |
CN109919981A (zh) | 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法 | |
CN108830252A (zh) | 一种融合全局时空特征的卷积神经网络人体动作识别方法 | |
CN108647585A (zh) | 一种基于多尺度循环注意力网络的交通标识符检测方法 | |
CN107918776B (zh) | 一种基于机器视觉的用地规划方法、系统及电子设备 | |
CN108334847A (zh) | 一种真实场景下的基于深度学习的人脸识别方法 | |
CN105760831B (zh) | 一种基于低空航拍红外视频的行人跟踪方法 | |
CN107665492A (zh) | 基于深度网络的结直肠全景数字病理图像组织分割方法 | |
CN106991382A (zh) | 一种遥感场景分类方法 | |
CN107085696A (zh) | 一种基于卡口图像的车辆定位及型号识别方法 | |
CN104134068B (zh) | 基于稀疏编码的监控车辆特征表示及分类方法 | |
CN103761526B (zh) | 一种基于特征位置优选整合的城区检测方法 | |
CN111144418B (zh) | 一种铁路轨道区域分割提取的方法 | |
CN109241902A (zh) | 一种基于多尺度特征融合的山体滑坡检测方法 | |
CN113255589B (zh) | 一种基于多卷积融合网络的目标检测方法及系统 | |
CN106897681A (zh) | 一种遥感图像对比分析方法及系统 | |
CN110378232A (zh) | 改进的ssd双网络的考场考生位置快速检测方法 | |
CN108229589A (zh) | 一种基于迁移学习的地基云图分类方法 | |
CN109242928A (zh) | 一种轻量级具有融合层的近红外图像彩色化深度学习模型 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |