CN111931685B - 一种基于双向跟踪策略的视频卫星移动目标检测方法 - Google Patents

一种基于双向跟踪策略的视频卫星移动目标检测方法 Download PDF

Info

Publication number
CN111931685B
CN111931685B CN202010872534.9A CN202010872534A CN111931685B CN 111931685 B CN111931685 B CN 111931685B CN 202010872534 A CN202010872534 A CN 202010872534A CN 111931685 B CN111931685 B CN 111931685B
Authority
CN
China
Prior art keywords
target
moving target
detected
frame
search area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010872534.9A
Other languages
English (en)
Other versions
CN111931685A (zh
Inventor
吕京国
白颖奇
王雪蕊
王钟正
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Civil Engineering and Architecture
Original Assignee
Beijing University of Civil Engineering and Architecture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Civil Engineering and Architecture filed Critical Beijing University of Civil Engineering and Architecture
Priority to CN202010872534.9A priority Critical patent/CN111931685B/zh
Publication of CN111931685A publication Critical patent/CN111931685A/zh
Application granted granted Critical
Publication of CN111931685B publication Critical patent/CN111931685B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于双向跟踪策略的视频卫星移动目标检测方法,包括将*.avi格式的视频卫星影像加载入siamese孪生网络,并确定目标模板,所述目标模板需重塑为siamese孪生网络所需要的127*127*3大小;所述目标模板是以视频卫星影像的第一帧作为初始帧,在初始帧中手动框选出待检测移动目标;将上一帧中检测到的待检目标框扩增至229*229*3大小,作为当前帧待检测移动目标的搜索区域;将所述目标模板和所述搜索区域进行数据预处理;提取目标模板特征图和当前帧搜索区域特征图;等步骤。优点是:将孪生网络和双向跟踪预测结合,进一步保障遮挡情况下目标被成功检测;双向跟踪策略不仅可以优化正常检测时的精度,还能够保证目标在遮挡情况下检测的准确性。

Description

一种基于双向跟踪策略的视频卫星移动目标检测方法
技术领域
本发明涉及视频卫星目标检测领域,尤其涉及一种基于双向跟踪策略的视频卫星移动目标检测方法。
背景技术
在视频卫星动目标跟踪任务中,往往会受到相似背景干扰及遮挡等因素的影响而出现“跟踪丢失”的现象。现有的跟踪方法能够对针对视频卫星进行动目标跟踪,但是当目标遇到背景干扰和云层遮挡时,现有的跟踪方法则无法有效跟踪。
发明内容
本发明的目的在于提供一种基于双向跟踪策略的视频卫星移动目标检测方法,从而解决现有技术中存在的前述问题。
为了实现上述目的,本发明采用的技术方案如下:
一种基于双向跟踪策略的视频卫星移动目标检测方法,包括如下步骤,
S1、将*.avi格式的视频卫星影像加载入siamese孪生网络,并确定目标模板,所述目标模板需重塑为siamese孪生网络所需要的127*127*3大小;所述目标模板是以视频卫星影像的第一帧作为初始帧,在初始帧中手动框选出待检测移动目标;
S2、将上一帧中检测到的待检目标框扩增至229*229*3大小,作为当前帧待检测移动目标的搜索区域;
S3、将所述目标模板和所述搜索区域进行数据预处理;
S4、提取目标模板特征图和当前帧搜索区域特征图;
S5、计算目标模板特征图与搜索区域特征图的相似度,输出得分图;若得分图中每个点均低于预设阈值,则执行步骤S7,将步骤S7得到的前向预测结果作为待检测移动目标当前帧的最终检测结果;否则,先执行步骤S6,再依次执行步骤S7和步骤S8;
S6、对所述得分图进行双三次插值,以将得分图中响应值最大的点映射到大小为229*229*1的搜索区域中,其所在的位置即为待检测移动目标的中心位置,即可获取当前帧的移动目标的第一检测结果Y孪生
S7、利用上一帧检测结果,采用双向跟踪策略对待检测移动目标进行二次检测,前向预测得到当前帧的位置Yt',记为第二检测结果,反向计算上一帧的位置Yt-1';获取两者的位置误差ε;
S8、以双向跟踪策略中产生的位置误差作为权重,综合第一检测结果和第二检测结果,获取移动目标当前帧的最终检测结果。
优选的,步骤S2中,若上一帧为初始帧,则将目标模板扩增至229*229*3大小,作为当前帧待检测移动目标的搜索区域。
优选的,步骤S2中,所述搜索区域的各边扩增长度p的计算公式为,
p=(w+h)/5
其中,w和h分别表示目标模板的长和宽。
优选的,所述数据预处理包括平滑滤波和图像锐化;所述平滑滤波采用超限像素法,所述图像锐化采用梯度锐化法。
优选的,步骤S4具体为,将目标模板和当前帧的搜索区域分别输入到孪生网络预训练的、权重一致且只有五层的卷积网络进行特征提取,得到目标模板特征图和搜索区域特征图。
优选的,所述目标模板特征图和所述搜索区域特征图的大小分别为8*8*128和21*21*128;所述目标模板特征图仅计算一次;所述搜索区域特征图每一帧计算一次。
优选的,步骤S5中,采用皮尔森相关系数法计算目标模板特征图与搜索区域特征图的相似度;计算公式为,
Figure BDA0002651584690000021
其中,目标模板特征图中的特征向量记为X=(x1,x2,x3,…,xn),搜索区域特征图中的特征向量记为Y=(y1,y2,y3,…,yn);n为特征向量的个数,此处n=8。
优选的,所述步骤S7具体包括如下内容,
S71、进行前向预测获取待检测移动目标的当前帧位置;以上一帧待检测移动目标的最终检测结果Yt-1作为输入条件,通过meanshift算法计算得到待检测移动目标当前帧的位置Yt':
Yt'=Yt-1+G,
其中,G为前向均值偏移向量的函数;
S72、根据前向预测结果进行反向计算获取待检测移动目标的上一帧位置;利用待检测移动目标当前帧的位置Yt',通过meanshift算法反向计算得到待检测移动目标上一帧的位置Yt-1':
Yt-1'=Yt'+Q,
其中,Q为反向平均移动向量的函数,即前向均值偏移向量的函数G的反函数;
S73、获取两者之间的位置误差ε;ε=||G+Q||2
优选的,所述步骤S8具体为,
Yt最终=(1-ε)Yt'+ε*Y孪生
其中,Yt最终为待检测移动目标当前帧的最终检测结果。
本发明的有益效果是:1、孪生网络对于小范围晃动,无遮挡时的移动目标检测效果较好;同时结合双向跟踪预测进一步保障目标遮挡情况下被成功检测。若孪生网络得分图各点均低于预设阈值则直接将双向跟踪策略的检测结果作为最终结果。2、因视频卫星处在极高的位置进行拍摄,导致待检测移动目标容易遇到云层、建筑物及其他物体的遮挡。设计的双向跟踪策略不仅可以优化正常检测时的精度,还能够保证目标在遮挡情况下检测的准确性。双向跟踪策略包括对待检测移动目标的前向预测和反向计算。3、双向跟踪策略和经典的卡尔曼滤波相比,具有以下两点优势:其一,卡尔曼滤波实质上就是根据协方差确定测量值和预测值之间的权重,对真实值进行预测的过程。而双向跟踪策略采用的权重由跟踪一致性确定。在移动目标的检测过程中,跟踪一致性比协方差更为重要。其二,当目标被遮挡时,卡尔曼完全依赖先前的状态预测当前位置。而双向跟踪策略可以通过多帧和间隔帧的方法联系上下文进行预测,从而解决目标遮挡时检测精度低甚至检测丢失问题。
附图说明
图1是本发明实施例中检测方法的流程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不用于限定本发明。
如图1所示,本实施例中,提供了一种基于双向跟踪策略的视频卫星移动目标检测方法,包括如下步骤,
S1、将*.avi格式的视频卫星影像加载入siamese孪生网络,并确定目标模板,所述目标模板需重塑为siamese孪生网络所需要的127*127*3大小;所述目标模板是以视频卫星影像的第一帧作为初始帧,在初始帧中手动框选出待检测移动目标;
S2、将上一帧中检测到的待检目标框扩增至229*229*3大小,作为当前帧待检测移动目标的搜索区域;
S3、将所述目标模板和所述搜索区域进行数据预处理;
S4、提取目标模板特征图和当前帧搜索区域特征图;
S5、计算目标模板特征图与搜索区域特征图的相似度,输出得分图;若得分图中每个点均低于预设阈值,则执行步骤S7,将步骤S7得到的前向预测结果作为待检测移动目标当前帧的最终检测结果;否则,先执行步骤S6,再依次执行步骤S7和步骤S8;
S6、对所述得分图进行双三次插值,以将得分图中响应值最大的点映射到大小为229*229*1的搜索区域中,其所在的位置即为待检测移动目标的中心位置,即可获取当前帧的移动目标的第一检测结果Y孪生
S7、利用上一帧检测结果,采用双向跟踪策略对待检测移动目标进行二次检测,前向预测得到当前帧的位置Yt',记为第二检测结果,反向计算上一帧的位置Yt-1';获取两者的位置误差ε;
S8、以双向跟踪策略中产生的位置误差作为权重,综合第一检测结果和第二检测结果,获取移动目标当前帧的最终检测结果。
本实施例中,步骤S2中,若上一帧为初始帧,则将目标模板扩增至229*229*3大小,作为当前帧待检测移动目标的搜索区域。
本实施例中,步骤S2中,所述搜索区域的各边扩增长度p的计算公式为,
p=(w+h)/5
其中,w和h分别表示目标模板的长和宽。。
本实施例中,搜索区域的获取方式,既能够保证待检测移动目标始终处于搜索区域中,还能够保证跟踪检测速度。
本实施例中,所述数据预处理包括平滑滤波和图像锐化;所述平滑滤波采用超限像素法,所述图像锐化采用梯度锐化法。
数据预处理过程中,首先进行平滑滤波,去除椒盐噪声影响,然后进行图像锐化,进行对比度增强。
本实施例中,步骤S4具体为,将目标模板和当前帧的搜索区域分别输入到孪生网络预训练的、权重一致且只有五层的卷积网络进行特征提取,得到目标模板特征图和搜索区域特征图。
本实施例中,五层的卷积神经网络是采用s iamese孪生网络预训练的五层卷积神经网络。
本实施例中,由于和地面视频相比,视频卫星中的待检测移动目标相对较小,网络过深目标会造成空间信息被淡化。因而选用了五层卷积。各层输出的结果见下表:
Figure BDA0002651584690000051
Figure BDA0002651584690000061
本实施例中,所述目标模板特征图和所述搜索区域特征图的大小分别为8*8*128和21*21*128;所述目标模板特征图仅计算一次;所述搜索区域特征图每一帧计算一次。
本实施例中,步骤S5中,采用皮尔森相关系数法计算目标模板特征图与搜索区域特征图的相似度;计算公式为,
Figure BDA0002651584690000062
其中,目标模板特征图中的特征向量记为X=(x1,x2,x3,…,xn),搜索区域特征图中的特征向量记为Y=(y1,y2,y3,…,yn);n为特征向量的个数,此处n=8。
本实施例中,所述预设阈值一般取0.5。计算后的特征图相似度的大小为14*14*128,各通道的相似度进行相加求平均运算,输出得分图的大小为14*14*1。
本实施例中,步骤S6,为了保证视频卫星中目标定位的精确位置,对S5得到的特征相似度得分图进行双三次插值,将得分图中响应值最大的点映射到229*229*1搜索区域影像中,其所在的位置即为待检测移动目标的中心位置,即可获取当前帧的移动目标的第一检测结果Y孪生
本实施例中,步骤S7为:利用上一帧检测结果,采用双向跟踪策略对待检测移动目标进行二次检测,前向预测得到当前帧的位置Yt',记为第二检测结果,反向计算上一帧的位置Yt-1';获取两者的位置误差ε。具体包括如下内容,
S71、进行前向预测获取待检测移动目标的当前帧位置;以上一帧待检测目标的最终检测结果Yt-1作为输入条件,通过meanshift算法计算得到待检测目标当前帧的位置Yt':
Yt'=Yt-1+G,
其中,G为前向均值偏移向量的函数;
所述的meanshift前向预测,以上一帧检测的最终结果Yt-1为输入,利用正向平均移位向量,通过均值偏移,预测待检测移动目标的当前帧位置为Yt'。
S72、根据前向预测结果进行反向计算获取待检测移动目标的上一帧位置;利用待检测移动目标当前帧的位置Yt',通过meanshift算法反向计算得到待检测目标上一帧的位置Yt-1':
Yt-1'=Yt'+Q,
其中,Q为反向平均移动向量的函数,即前向均值偏移向量的函数G的反函数;
所述的meanshift后向计算,以前向预测得到的当前帧位置Yt'为输入,利用反向平均移位向量,通过均值偏移,计算得到待检测移动目标的上一帧位置为Yt-1'。
S73、获取上一帧位置和当前帧位置之间的位置误差ε;如果正确地跟踪了目标,则前向均值偏移向量应等于后向均值向量,即G+Q=0。因此,使用前向后向误差来评估目标的追踪情况,公式如下
ε=||G+Q||2
其中,ε为前向函数与后向函数误差之和。
本实施例中,所述步骤S8具体为,
Yt最终=(1-ε)Yt'+ε*Y孪生
其中,Yt最终为待检测移动目标当前帧的最终检测结果。
本实施例中,孪生网络对于小范围晃动,无遮挡时的移动目标检测效果较好;同时结合双向跟踪预测进一步保障目标遮挡情况下被成功检测。若孪生网络得分图各点均低于预设阈值则直接将双向跟踪策略的检测结果作为最终结果。
也就是说,本发明包括两种情况,当得分图中的个点均低于预设阈值,则可直接使用双向跟踪策略中获取的前向预测结果(第二检测结果)作为待检测移动目标当前帧的最终检测结果。否则,需要结合鉴别孪生网络(第一检测结果)和双向跟踪策略(当前帧位置与上一帧位置之间的位置差ε以及第二检测结果),综合预测待检测移动目标的最终结果。
本实施例中,由于视频卫星处在极高的位置进行拍摄,导致待检测移动目标容易遇到云层、建筑物及其他物体的遮挡。本发明中的双向跟踪策略不仅可以优化正常检测时的精度,还能够保证目标在遮挡情况下检测的准确性。双向跟踪策略和经典的卡尔曼滤波相比,具有以下两点优势:其一,卡尔曼滤波实质上就是根据协方差确定测量值和预测值之间的权重,对真实值进行预测的过程。而双向跟踪策略采用的权重由跟踪一致性确定。在移动目标的检测过程中,跟踪一致性比协方差更为重要。其二,当目标被遮挡时,卡尔曼完全依赖先前的状态预测当前位置。而双向跟踪策略可以通过多帧和间隔帧的方法联系上下帧进行预测,从而解决目标遮挡时检测精度低甚至检测丢失问题。
通过采用本发明公开的上述技术方案,得到了如下有益的效果:
本发明提供了一种基于双向跟踪策略的视频卫星移动目标检测方法,本方法中使用的孪生网络对于小范围晃动,无遮挡时的移动目标检测效果较好;同时结合双向跟踪预测进一步保障目标遮挡情况下被成功检测。若孪生网络得分图各点均低于预设阈值则直接将双向跟踪策略的检测结果作为最终结果。因视频卫星处在极高的位置进行拍摄,导致待检测移动目标容易遇到云层、建筑物及其他物体的遮挡。设计的双向跟踪策略不仅可以优化正常检测时的精度,还能够保证目标在遮挡情况下检测的准确性。双向跟踪策略包括对待检测移动目标的前向预测和反向计算。双向跟踪策略和经典的卡尔曼滤波相比,具有以下两点优势:其一,卡尔曼滤波实质上就是根据协方差确定测量值和预测值之间的权重,对真实值进行预测的过程。而双向跟踪策略采用的权重由跟踪一致性确定。在移动目标的检测过程中,跟踪一致性比协方差更为重要。其二,当目标被遮挡时,卡尔曼完全依赖先前的状态预测当前位置。而双向跟踪策略可以通过多帧和间隔帧的方法联系上下文进行预测,从而解决目标遮挡时检测精度低甚至检测丢失问题。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视本发明的保护范围。

Claims (9)

1.一种基于双向跟踪策略的视频卫星移动目标检测方法,其特征在于:包括如下步骤,
S1、将*.avi格式的视频卫星影像加载入siamese孪生网络,并确定目标模板,所述目标模板需重塑为siamese孪生网络所需要的127*127*3大小;所述目标模板是以视频卫星影像的第一帧作为初始帧,在初始帧中手动框选出待检测移动目标;
S2、将上一帧中检测到的待检目标框扩增至229*229*3大小,作为当前帧待检测移动目标的搜索区域;
S3、将所述目标模板和所述搜索区域进行数据预处理;
S4、提取目标模板特征图和当前帧搜索区域特征图;
S5、计算目标模板特征图与搜索区域特征图的相似度,输出得分图;若得分图中每个点的分数值均低于预设阈值,则执行步骤S7,将步骤S7得到的前向预测结果作为待检测移动目标当前帧的最终检测结果;否则,先执行步骤S6,再依次执行步骤S7和步骤S8;
S6、对所述得分图进行双三次插值,以将得分图中响应值最大的点映射到大小为229*229*1的搜索区域中,其所在的位置即为待检测移动目标的中心位置,即可获取当前帧的移动目标的第一检测结果Y孪生
S7、利用上一帧检测结果,采用双向跟踪策略对待检测移动目标进行二次检测,前向预测得到当前帧的位置Yt',记为第二检测结果,反向计算上一帧的位置Yt-1';获取前向预测和反向计算两者之间的位置误差ε,ε为前向预测中前向均值偏移向量的函数和反向计算中反向平均移动向量的函数的二范数;
S8、以双向跟踪策略中产生的位置误差作为权重,综合第一检测结果和第二检测结果,获取移动目标当前帧的最终检测结果。
2.根据权利要求1所述的基于双向跟踪策略的视频卫星移动目标检测方法,其特征在于:步骤S2中,若上一帧为初始帧,则将目标模板扩增至229*229*3大小,作为当前帧待检测移动目标的搜索区域。
3.根据权利要求2所述的基于双向跟踪策略的视频卫星移动目标检测方法,其特征在于:步骤S2中,所述搜索区域的各边扩增长度p的计算公式为,
p=(w+h)/5
其中,w和h分别表示目标模板的长和宽。
4.根据权利要求1所述的基于双向跟踪策略的视频卫星移动目标检测方法,其特征在于:所述数据预处理包括平滑滤波和图像锐化;所述平滑滤波采用超限像素法,所述图像锐化采用梯度锐化法。
5.根据权利要求1所述的基于双向跟踪策略的视频卫星移动目标检测方法,其特征在于:步骤S4具体为,将目标模板和当前帧的搜索区域分别输入到孪生网络预训练的、权重一致且只有五层的卷积网络进行特征提取,得到目标模板特征图和搜索区域特征图。
6.根据权利要求5所述的基于双向跟踪策略的视频卫星移动目标检测方法,其特征在于:所述目标模板特征图和所述搜索区域特征图的大小分别为8*8*128和21*21*128;所述目标模板特征图仅计算一次;所述搜索区域特征图每一帧计算一次。
7.根据权利要求1所述的基于双向跟踪策略的视频卫星移动目标检测方法,其特征在于:步骤S5中,采用皮尔森相关系数法计算目标模板特征图与搜索区域特征图的相似度;计算公式为,
Figure FDA0003130822760000021
其中,目标模板特征图中的特征向量记为X=(x1,x2,x3,…,xn),搜索区域特征图中的特征向量记为Y=(y1,y2,y3,…,yn);n为特征向量的个数,此处n=8。
8.根据权利要求1所述的基于双向跟踪策略的视频卫星移动目标检测方法,其特征在于:所述步骤S7具体包括如下内容,
S71、进行前向预测获取待检测移动目标的当前帧位置;以上一帧待检测移动目标的最终检测结果Yt-1作为输入条件,通过meanshift算法计算得到待检测移动目标当前帧的位置Yt':
Yt'=Yt-1+G,
其中,G为前向均值偏移向量的函数;
S72、根据前向预测结果进行反向计算获取待检测移动目标的上一帧位置;利用待检测移动目标当前帧的位置Yt',通过meanshift算法反向计算得到待检测移动目标上一帧的位置Yt-1':
Yt-1'=Yt'+Q,
其中,Q为反向平均移动向量的函数,即前向均值偏移向量的函数G的反函数;
S73、获取两者之间的位置误差ε;ε=||G+Q||2
9.根据权利要求8所述的基于双向跟踪策略的视频卫星移动目标检测方法,其特征在于:所述步骤S8具体为,
Yt最终=(1-ε)Yt′+ε*Y孪生
其中,Yt最终为待检测移动目标当前帧的最终检测结果。
CN202010872534.9A 2020-08-26 2020-08-26 一种基于双向跟踪策略的视频卫星移动目标检测方法 Active CN111931685B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010872534.9A CN111931685B (zh) 2020-08-26 2020-08-26 一种基于双向跟踪策略的视频卫星移动目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010872534.9A CN111931685B (zh) 2020-08-26 2020-08-26 一种基于双向跟踪策略的视频卫星移动目标检测方法

Publications (2)

Publication Number Publication Date
CN111931685A CN111931685A (zh) 2020-11-13
CN111931685B true CN111931685B (zh) 2021-08-24

Family

ID=73305790

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010872534.9A Active CN111931685B (zh) 2020-08-26 2020-08-26 一种基于双向跟踪策略的视频卫星移动目标检测方法

Country Status (1)

Country Link
CN (1) CN111931685B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112560651B (zh) * 2020-12-09 2023-02-03 燕山大学 基于深度网络和目标分割结合的目标跟踪方法及装置
CN113392721B (zh) * 2021-05-24 2023-02-10 中国科学院西安光学精密机械研究所 一种遥感卫星视频目标跟踪方法
CN113486820B (zh) * 2021-07-09 2023-06-06 厦门理工学院 基于高效模板更新与选择机制的双向目标跟踪方法及系统
CN114299111B (zh) * 2021-12-21 2022-11-04 中国矿业大学 一种基于半监督孪生网络的红外弱小目标跟踪方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110580713A (zh) * 2019-08-30 2019-12-17 武汉大学 基于全卷积孪生网络和轨迹预测的卫星视频目标跟踪方法
WO2020077352A1 (en) * 2018-10-12 2020-04-16 Human Longevity, Inc. Multi-omic search engine for integrative analysis of cancer genomic and clinical data
CN111192291A (zh) * 2019-12-06 2020-05-22 东南大学 一种基于级联回归与孪生网络的目标跟踪方法
CN111242974A (zh) * 2020-01-07 2020-06-05 重庆邮电大学 一种基于孪生网络和反向传播的车辆实时跟踪方法
CN111460999A (zh) * 2020-03-31 2020-07-28 北京工业大学 一种基于fpga的低空航拍影像目标跟踪的方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109272530B (zh) * 2018-08-08 2020-07-21 北京航空航天大学 面向空基监视场景的目标跟踪方法与装置
CN110796679B (zh) * 2019-10-30 2023-04-07 电子科技大学 一种面向航拍影像的目标跟踪方法
CN111260688A (zh) * 2020-01-13 2020-06-09 深圳大学 一种孪生双路目标跟踪方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020077352A1 (en) * 2018-10-12 2020-04-16 Human Longevity, Inc. Multi-omic search engine for integrative analysis of cancer genomic and clinical data
CN110580713A (zh) * 2019-08-30 2019-12-17 武汉大学 基于全卷积孪生网络和轨迹预测的卫星视频目标跟踪方法
CN111192291A (zh) * 2019-12-06 2020-05-22 东南大学 一种基于级联回归与孪生网络的目标跟踪方法
CN111242974A (zh) * 2020-01-07 2020-06-05 重庆邮电大学 一种基于孪生网络和反向传播的车辆实时跟踪方法
CN111460999A (zh) * 2020-03-31 2020-07-28 北京工业大学 一种基于fpga的低空航拍影像目标跟踪的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
星间光通信双向跟踪稳定特性研究;石涛;《中国优秀硕士学位论文全文数据库信息科技辑》;20090215;全文 *

Also Published As

Publication number Publication date
CN111931685A (zh) 2020-11-13

Similar Documents

Publication Publication Date Title
CN111931685B (zh) 一种基于双向跟踪策略的视频卫星移动目标检测方法
CN108986037B (zh) 基于半直接法的单目视觉里程计定位方法及定位系统
CN112270249B (zh) 一种融合rgb-d视觉特征的目标位姿估计方法
CN107481270B (zh) 乒乓球目标跟踪和轨迹预测方法、装置、存储介质和计算机设备
CN110796010B (zh) 一种结合光流法和卡尔曼滤波的视频稳像方法
CN111354017A (zh) 一种基于孪生神经网络及平行注意力模块的目标跟踪方法
CN106960449B (zh) 基于多特征约束的异源配准方法
EP2360642A2 (en) Video object tracking
CN111322993B (zh) 一种视觉定位方法和装置
CN110006444B (zh) 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法
CN112967388B (zh) 三维时序图像神经网络模型的训练方法和装置
CN110827321B (zh) 一种基于三维信息的多相机协同的主动目标跟踪方法
CN110097498B (zh) 基于无人机航迹约束的多航带图像拼接与定位方法
Shen et al. A hierarchical horizon detection algorithm
CN104182945A (zh) 基于非局部双边滤波的极化sar相干斑噪声抑制方法
CN110262487B (zh) 一种障碍物检测方法、终端及计算机可读存储介质
CN113516713B (zh) 一种基于伪孪生网络的无人机自适应目标跟踪方法
CN103942786B (zh) 无人机可见光和红外图像的自适应团块目标检测方法
CN107895145A (zh) 基于卷积神经网络结合超高斯去噪估测手指受力的方法
JP2022027464A (ja) 映像の深度推定に関する方法及び装置
CN116381672A (zh) 基于孪生网络雷达x波段多扩展目标自适应跟踪方法
CN114241008B (zh) 一种适应场景和目标变化的长时区域跟踪方法
CN113642397B (zh) 一种基于手机视频的物体长度测量方法
CN108592916B (zh) 悬浮式水下自主航行器的多航次地图定位和导航方法
CN116777956A (zh) 基于多尺度航迹管理的运动目标筛选方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant