CN114066936B - 一种小目标捕获过程中目标可靠性跟踪方法 - Google Patents

一种小目标捕获过程中目标可靠性跟踪方法 Download PDF

Info

Publication number
CN114066936B
CN114066936B CN202111309153.0A CN202111309153A CN114066936B CN 114066936 B CN114066936 B CN 114066936B CN 202111309153 A CN202111309153 A CN 202111309153A CN 114066936 B CN114066936 B CN 114066936B
Authority
CN
China
Prior art keywords
target
tracking
load
surf
lambda
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111309153.0A
Other languages
English (en)
Other versions
CN114066936A (zh
Inventor
杨福琛
耿虎军
钟麟
闫玉巧
高峰
胡炎
仇梓峰
熊恒斌
张泽勇
李方用
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 54 Research Institute
Original Assignee
CETC 54 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 54 Research Institute filed Critical CETC 54 Research Institute
Priority to CN202111309153.0A priority Critical patent/CN114066936B/zh
Publication of CN114066936A publication Critical patent/CN114066936A/zh
Application granted granted Critical
Publication of CN114066936B publication Critical patent/CN114066936B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明公开了一种小目标捕获过程中目标可靠性跟踪方法,涉及无人机小目标检测领域。该方法采用深度学习模型对图像进行检测,根据检测结果筛选出待跟踪的小目标,并提取目标的SURF特征点;采用SURF目标跟踪算法对目标进行跟踪,并使用深度学习目标识别结果对SURF跟踪效果进行校验;采用实时性高的光流法对目标进行跟踪,并使用目标SURF特征点校验光流跟踪结果,实现对小目标的高可靠跟踪。本发明通过逐级转化方式,解决深度学习目标检测时延导致目标跟踪不稳定问题,提高了小目标跟踪的实时性和可靠性。

Description

一种小目标捕获过程中目标可靠性跟踪方法
技术领域
本发明涉及无人机小目标检测领域,特别是指一种小目标捕获过程中目标可靠性跟踪方法。
背景方法
随着无人机和人工智能技术的发展,基无人机实时视频图像的目标识别技术的应用越来越广泛。综合考虑图像清晰度和无线通信带宽限制,无人机往往选择搭载1080P(1920×1080)的可见光摄像头,目标的成像尺度和影像幅宽成反比。通常200米幅宽的可见光图像,人物尺度一般为5×16个像素,小汽车一般14×35个像素,目标尺度较小,有效特征少且易受复杂环境背景的影响。
随着深度学习技术的进步,网络模型对小目标的检测能力逐渐提高,但是由于小目标检测结果的置信度较低,仍然不足以支持自主决策。在工程应用中,可通过无人机载荷的伺服控制和焦距调节使小目标在图像中变为大目标,从而提高目标检测结果的置信度,以满足决策要求。
为此,首先通过深度学习模型检测到小目标位置框,然后利用目标跟踪算法对检测结果进行实时跟踪,在跟踪的同时通过控制策略对载荷的伺服电机和焦距进行自适应控制,通过“凝视-放大”的策略来不断提高对目标检测结果的置信度。在这个过程,通常把深度学习目标检测及目标跟踪阶段定义为目标捕获阶段。但是,在这个阶段中,存在以下问题:
为了更好的检测到小目标,深度学习模型数据输入设置为1024×1024,深度学习目标检测算法往往存在70ms~100ms左右的延时,此外伺服电机动作也需要一定时间。当目标移动稍快时,短暂的延时会使得目标已经偏离检测框,较大的延时往往使得传统KCF、LK等跟踪算法失效。
发明内容
本发明的目的在于避免上述背景方法中的不足之处而提供一种小目标捕获过程中目标可靠性跟踪方法。本发明具有分段逐级克服时延的特点,可用于无人机在复杂环境下目标捕获过程中,实现对小目标的高可靠跟踪。
本发明解决其技术问题所采用的技术方案是:
一种小目标捕获过程中目标可靠性跟踪方法,包括以下步骤:
(1)输入1帧实时图像I,宽高尺寸为W×H,采用深度学习模型对I进行检测,结果记为Γ{Ai|i=1,…,N},Ai表示I中检测到的目标,N为目标个数;在Ai中选取像素个数小于150,置信度小于0.9且距离图像中心最近的目标进一步识别,该目标记为Ad
(2)记Ad所在区域的中心点为od(xd,yd),置信度为cd,Ad在图像I占比为λd;记图像中心区域为Ω={(x,y)|3W/4>x>W/4且3H/4>y>H/4};若且λd<1%,则控制载荷对目标进行跟踪放大;采用SURF特征提取算法提取Ad的SURF特征,结果记为K{mi};
(3)输入1帧实时图像I1,基于K对图像I1进行SURF目标检测跟踪;同时,每隔3帧实时图像抽取1帧图像进行深度学习目标重识别,将识别结果与SURF跟踪结果进行比对,判断SURF跟踪是否正确;若目标跟踪正确,则更新K;
(4)输入1帧实时图像I2,对图像I2采用光流法进行目标检测跟踪,并提取目标的SURF特征,结果记为KL{ni};采用最大近邻向量匹配算法对K{mi}和KL{ni}进行特征点匹配,然后采用RANSANC算法去除误匹配,依据匹配结果校验光流跟踪效果;若跟踪成功,则根据光流跟踪结果控制载荷移动和调节载荷焦距,实现对目标的快速可靠跟踪。
进一步的,步骤(3)的具体方式为:
记SURF目标检测跟踪结果为As,中心点为os(xs,ys);深度学习目标识别结果为Ad,中心点为od(xd,yd);定义os和od之间的距离为d:
若d<10,则SURF目标跟踪成功。
进一步的,步骤(4)具体包括以下步骤:
(401)记K{mi}和KL{ni}匹配成功的特征点对数量为Q,若Q>30,则光流法跟踪成功;
(402)记光流法目标检测跟踪结果为Al,中心点为ol(xl,yl),置信度为cl,Al在图像中占比为λl;将目标中心点坐标ol和λl发送到载荷控制及目标跟踪系统,载荷控制及目标跟踪系统根据ol和λl发送相应的载荷控制指令;
(403)载荷根据指令执行相应动作,调整载荷的旋转角、俯仰角和焦距,具体控制策略如下:
若ol位于Ω左侧,载荷向左转动,即载荷方位角-2°;
若ol位于Ω右侧,载荷向右转动,即载荷方位角+2°;
若ol位于Ω上方,载荷向上转动,即载荷俯仰角+2°;
若ol位于Ω下方,载荷向下转动,即载荷俯仰角-2°;
若λl<10%,载荷焦距增加0.2;
(404)重复步骤(402)和(403),直到ol∈Ω且λl≥10%。
本发明具有如下优点:
1、本发明将载荷控制与目标识别相结合,根据目标识别结果,自动筛选出小目标,并基于小目标识别结果自适应调整载荷姿态和焦距,完成小目标初步捕获。
2、本发明采用逐级转化方式,将实时性低的深度学习目标跟踪转化为实时性高的光流目标跟踪,并且中间利用SURF目标跟踪进行过度,进一步提高转化稳定性。通过该方式解决深度学习目标检测的高延时导致的目标跟踪失效问题,实现在小目标捕获过程中的高可靠跟踪。
附图说明
图1是基于深度学习目标识别的目标跟踪示意图。其中,Tn表示实时图像从载荷传出的时间,T表示深度学习目标识别需要的时间,图像中目标数量对T的大小有一定影响。因此载荷控制及目标跟踪系统的输入为Tn-T时刻图像的检测结果,从而导致目标跟踪存在延时。
图2是目标区域与图像中心区域相对位置示意图。
图3是基于深度学习目标识别的小目标筛选及SURF特征提取流程示意图。
图4是SURF目标跟踪过程示意图。
图5是光流法(LK)目标跟踪过程示意图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图5,一种小目标捕获过程中目标可靠性跟踪方法,包括以下步骤:
(1)输入1帧实时图像I(W×H),采用深度学习模型对I进行检测,结果记为Γ{Ai|i=1,…,N},Ai表示I中检测到的目标。在Ai中选取像素个数小于150,置信度小于0.9且距离图像中心最近的目标进一步识别,该目标记为Ad
(2)参照图2,记Ad所在区域的宽度为Wd,高度为Hd,中心点为od(xd,yd),置信度为cd,Ad在图像I占比为λd,其中λd=(Wd×Hd)/(W×H);
记图像中心区域为Ω={(x,y)|3W/4>x>W/4且3H/4>y>H/4}。若且λd<1%,控制载荷对目标进行跟踪放大。参照图3,对载荷控制进一步描述如下:
2.1)将目标中心点坐标od(xd,yd)和λd发送到载荷控制及目标跟踪系统,系统根据od(xd,yd)和λd发送相应的载荷控制指令;
2.2)载荷根据指令执行相应动作,调整载荷的旋转角和俯仰角和焦距,具体控制策略如下:
若od位于Ω左侧,载荷向左转动,即载荷方位角-1°;
若od位于Ω右侧,载荷向右转动,即载荷方位角+1°;
若od位于Ω上方,载荷向上转动,即载荷俯仰角+1°;
若od位于Ω下方,载荷向下转动,即载荷俯仰角-1°;
若λd<1%,载荷焦距增加0.1倍;
2.3)重复2.1)和2.2),直到od∈Ω且λd≥1%;
2.4)采用SURF特征提取算法提取Ad的SURF特征,结果记为K{mi}。
(3)参照图4,输入1帧实时图像I1,基于K对图像I1进行SURF目标检测跟踪,结果为As,中心点为os(xs,ys)。同时每隔3帧实时图像抽取1帧图像进行深度学习目标重识别,果为Ad,中心点为od(xd,yd)。定义os和od之间的距离为d,计算方法如下:
若d<10,SURF目标跟踪成功,然后更新K。
(4)参照图5,输入1帧实时图像I2,对图像I2采用光流法(LK)进行目标检测跟踪,并提取目标的SURF特征,结果记为KL{ni}。采用最大近邻向量匹配算法对K{mi}和KL{ni}进行特征点匹配,然后采用RANSANC算法去除误匹配,匹配成功的特征点对数量记为Q,若Q>30,则LK跟踪成功;
记LK目标检测跟踪结果为Al,中心点为ol(xl,yl),置信度为cl,Al在图像中占比为λl,计算方法同步骤(2)中λd
4.1)将目标中心点坐标ol和λl发送到载荷控制及目标跟踪系统,系统根据ol和λl发送相应的载荷控制指令;
4.2)载荷根据指令执行相应动作,调整载荷的旋转角和俯仰角和焦距,具体控制策略如下:
若ol位于Ω左侧,载荷向左转动,即载荷方位角-2°;
若ol位于Ω右侧,载荷向右转动,即载荷方位角+2°;
若ol位于Ω上方,载荷向上转动,即载荷俯仰角+2°;
若ol位于Ω下方,载荷向下转动,即载荷俯仰角-2°;
若λl<10%,载荷焦距增加0.2倍;
4.3)重复4.1)和4.2),保持ol∈Ω且λl≥10%,实现在小目标捕获过程中的快速可靠跟踪。
总之,本发明通过逐级转化方式,解决深度学习目标检测时延导致目标跟踪不稳定问题,提高了小目标跟踪的实时性和可靠性。
最后需要说明的是,以上实施例仅仅是对于本发明专利精神作举例说明。本发明专利所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方法替代,但并不会偏离本发明专利的精神或者超越所附权利要求书所定义的范围。

Claims (2)

1.一种小目标捕获过程中目标可靠性跟踪方法,其特征在于,包括以下步骤:
(1)输入1帧实时图像I,宽高尺寸为W×H,采用深度学习模型对I进行检测,结果记为Γ{Ai|i=1,…,N},Ai表示I中检测到的目标,N为目标个数;在Ai中选取像素个数小于150,置信度小于0.9且距离图像中心最近的目标进一步识别,该目标记为Ad
(2)记Ad所在区域的中心点为od(xd,yd),置信度为cd,Ad在图像I占比为λd;记图像中心区域为Ω={(x,y)|3W/4>x>W/4且3H/4>y>H/4};若且λd<1%,则控制载荷对目标进行跟踪放大;采用SURF特征提取算法提取Ad的SURF特征,结果记为K{mi};
(3)输入1帧实时图像I1,基于K对图像I1进行SURF目标检测跟踪;同时,每隔3帧实时图像抽取1帧图像进行深度学习目标重识别,将识别结果与SURF跟踪结果进行比对,判断SURF跟踪是否正确;若目标跟踪正确,则更新K;
(4)输入1帧实时图像I2,对图像I2采用光流法进行目标检测跟踪,并提取目标的SURF特征,结果记为KL{ni};采用最大近邻向量匹配算法对K{mi}和KL{ni}进行特征点匹配,然后采用RANSANC算法去除误匹配,依据匹配结果校验光流跟踪效果;若跟踪成功,则根据光流跟踪结果控制载荷移动和调节载荷焦距,实现对目标的快速可靠跟踪;具体包括以下步骤:
(401)记K{mi}和KL{ni}匹配成功的特征点对数量为Q,若Q>30,则光流法跟踪成功;
(402)记光流法目标检测跟踪结果为Al,中心点为ol(xl,yl),置信度为cl,Al在图像中占比为λl;将目标中心点坐标ol和λl发送到载荷控制及目标跟踪系统,载荷控制及目标跟踪系统根据ol和λl发送相应的载荷控制指令;
(403)载荷根据指令执行相应动作,调整载荷的旋转角、俯仰角和焦距,具体控制策略如下:
若ol位于Ω左侧,载荷向左转动,即载荷方位角-2°;
若ol位于Ω右侧,载荷向右转动,即载荷方位角+2°;
若ol位于Ω上方,载荷向上转动,即载荷俯仰角+2°;
若ol位于Ω下方,载荷向下转动,即载荷俯仰角-2°;
若λl<10%,载荷焦距增加0.2;
(404)重复步骤(402)和(403),直到ol∈Ω且λl≥10%。
2.根据权利要求1所述的一种小目标捕获过程中目标可靠性跟踪方法,其特征在于,步骤(3)的具体方式为:
记SURF目标检测跟踪结果为As,中心点为os(xs,ys);深度学习目标识别结果为Ad,中心点为od(xd,yd);定义os和od之间的距离为d:
若d<10,则SURF目标跟踪成功。
CN202111309153.0A 2021-11-06 2021-11-06 一种小目标捕获过程中目标可靠性跟踪方法 Active CN114066936B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111309153.0A CN114066936B (zh) 2021-11-06 2021-11-06 一种小目标捕获过程中目标可靠性跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111309153.0A CN114066936B (zh) 2021-11-06 2021-11-06 一种小目标捕获过程中目标可靠性跟踪方法

Publications (2)

Publication Number Publication Date
CN114066936A CN114066936A (zh) 2022-02-18
CN114066936B true CN114066936B (zh) 2023-09-12

Family

ID=80274267

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111309153.0A Active CN114066936B (zh) 2021-11-06 2021-11-06 一种小目标捕获过程中目标可靠性跟踪方法

Country Status (1)

Country Link
CN (1) CN114066936B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115451962B (zh) * 2022-08-09 2024-04-30 中国人民解放军63629部队 一种基于五变量卡诺图的目标跟踪策略规划方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107248174A (zh) * 2017-05-15 2017-10-13 西安电子科技大学 一种基于tld算法的目标跟踪方法
CN108830286A (zh) * 2018-03-30 2018-11-16 西安爱生技术集团公司 一种侦察无人机动目标自动检测与跟踪方法
CN109389086A (zh) * 2018-10-09 2019-02-26 北京科技大学 检测无人机影像目标的方法和系统
CN109785363A (zh) * 2018-12-29 2019-05-21 中国电子科技集团公司第五十二研究所 一种无人机航拍视频运动小目标实时检测与跟踪方法
CN110084837A (zh) * 2019-05-15 2019-08-02 四川图珈无人机科技有限公司 基于无人机视频的目标检测与跟踪方法
CN111508006A (zh) * 2020-04-23 2020-08-07 南开大学 一种基于深度学习的运动目标同步检测、识别与跟踪方法
CN111508002A (zh) * 2020-04-20 2020-08-07 北京理工大学 一种小型低飞目标视觉检测跟踪系统及其方法
CN112184770A (zh) * 2020-09-28 2021-01-05 中国电子科技集团公司第五十四研究所 一种基于YOLOv3和改进KCF的目标跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101645722B1 (ko) * 2015-08-19 2016-08-05 아이디어주식회사 자동추적 기능을 갖는 무인항공기 및 그 제어방법

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107248174A (zh) * 2017-05-15 2017-10-13 西安电子科技大学 一种基于tld算法的目标跟踪方法
CN108830286A (zh) * 2018-03-30 2018-11-16 西安爱生技术集团公司 一种侦察无人机动目标自动检测与跟踪方法
CN109389086A (zh) * 2018-10-09 2019-02-26 北京科技大学 检测无人机影像目标的方法和系统
CN109785363A (zh) * 2018-12-29 2019-05-21 中国电子科技集团公司第五十二研究所 一种无人机航拍视频运动小目标实时检测与跟踪方法
CN110084837A (zh) * 2019-05-15 2019-08-02 四川图珈无人机科技有限公司 基于无人机视频的目标检测与跟踪方法
CN111508002A (zh) * 2020-04-20 2020-08-07 北京理工大学 一种小型低飞目标视觉检测跟踪系统及其方法
CN111508006A (zh) * 2020-04-23 2020-08-07 南开大学 一种基于深度学习的运动目标同步检测、识别与跟踪方法
CN112184770A (zh) * 2020-09-28 2021-01-05 中国电子科技集团公司第五十四研究所 一种基于YOLOv3和改进KCF的目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
视觉辅助无人机自主着陆目标跟踪算法设计;王毅;;科技创新导报(22);第15-18页 *

Also Published As

Publication number Publication date
CN114066936A (zh) 2022-02-18

Similar Documents

Publication Publication Date Title
US20200272835A1 (en) Intelligent driving control method, electronic device, and medium
US10325351B2 (en) Systems and methods for normalizing an image
US11205274B2 (en) High-performance visual object tracking for embedded vision systems
US8446468B1 (en) Moving object detection using a mobile infrared camera
Zhou et al. Efficient road detection and tracking for unmanned aerial vehicle
CN109102525B (zh) 一种基于自适应位姿估计的移动机器人跟随控制方法
US8345984B2 (en) 3D convolutional neural networks for automatic human action recognition
US11010622B2 (en) Infrastructure-free NLoS obstacle detection for autonomous cars
CN111784747B (zh) 一种基于关键点检测和校正的车辆多目标跟踪系统及方法
CN111784746A (zh) 一种鱼眼镜头下行人多目标跟踪方法、装置及计算机系统
CN111507159B (zh) 提供自动驾驶安全性的方法和装置
CN111160212B (zh) 一种基于YOLOv3-Tiny改进的跟踪学习检测系统及方法
CN113359843B (zh) 一种无人机自主降落方法、装置、电子设备及存储介质
CN114066936B (zh) 一种小目标捕获过程中目标可靠性跟踪方法
CN111738033B (zh) 基于平面分割的车辆行驶信息确定方法及装置、车载终端
Patil et al. Speed bump segmentation an application of conditional generative adversarial network for self-driving vehicles
JP6795224B2 (ja) 移動体検知装置、移動体検知方法、及びプログラム
WO2020010620A1 (zh) 波浪识别方法、装置、计算机可读存储介质和无人飞行器
CN107437071B (zh) 一种基于双黄线检测的机器人自主巡检方法
CN116977902B (zh) 一种边海防车载光电稳定平台目标跟踪方法及系统
Wang et al. Motion prediction in visual object tracking
KR101982942B1 (ko) 객체 추적 방법 및 이를 수행하는 장치들
CN115100565A (zh) 一种基于空间相关性与光流配准的多目标跟踪方法
CN113920168A (zh) 一种音视频控制设备中图像跟踪方法
CN110244746B (zh) 一种基于视觉注意的机器人动态障碍物避开方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant