CN117036415A - 基于在线学习的无人机跟踪方法、装置、系统和存储介质 - Google Patents
基于在线学习的无人机跟踪方法、装置、系统和存储介质 Download PDFInfo
- Publication number
- CN117036415A CN117036415A CN202311066975.XA CN202311066975A CN117036415A CN 117036415 A CN117036415 A CN 117036415A CN 202311066975 A CN202311066975 A CN 202311066975A CN 117036415 A CN117036415 A CN 117036415A
- Authority
- CN
- China
- Prior art keywords
- model
- frame
- unmanned aerial
- classification model
- aerial vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000013145 classification model Methods 0.000 claims abstract description 106
- 238000012549 training Methods 0.000 claims abstract description 37
- 238000001514 detection method Methods 0.000 claims abstract description 35
- 238000012545 processing Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical group OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于在线学习的无人机跟踪方法、装置、系统和存储介质,所述方法包括:将获取到的待检测图像分别输入到探测模型和跟踪模型中,根据探测模型得到第一边框,根据跟踪模型得到第二边框;将第一边框和第二边框分别输入到第一分类模型中,利用第一分类模型判断并输出可能存在无人机的边框;将可能存在无人机的边框作为训练样本输入到第二分类模型中,对第二分类模型进行在线训练以确定第二分类模型的权重参数;利用权重参数更新第一分类模型对应的权重参数,并根据最新输入的第一边框和第二边框输出最终的目标无人机图像边框。上述方案能够避免对无人机的误检和跑偏,提高了对无人机的识别与跟踪的效率和准确率。
Description
技术领域
本发明涉及无人机技术领域,具体涉及一种基于在线学习的无人机跟踪方法、装置、系统和存储介质。
背景技术
图像中的视觉对象跟踪是一项基本的计算机视觉任务,例如自动驾驶、增强现实和视觉监控。尽管近年来基于深度学习的目标跟踪取得了重大进展,但仍有一些挑战需要解决,例如处理由相似的目标引起的干扰,被跟踪对象的外观可能随着移动状态发生改变等。在室外环境中跟踪无人机尤其具有挑战性,具体包括:由于无人机的活动范围广泛;无人机尺寸和外观多样;图像分辨率低,移动中的无人机可能仅占据很小的区域;相机与无人机的距离较远;无人机和相机的相对运动造成的帧间视差大;无法控制的环境条件,例如照明变化和天气条件。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的基于在线学习的无人机跟踪方法、装置、系统和存储介质。
依据本发明的一个方面,提供了一种基于在线学习的无人机跟踪方法,所述方法包括:
将获取到的待检测图像分别输入到探测模型和跟踪模型中,根据所述探测模型得到第一边框,根据所述跟踪模型得到第二边框;
将所述第一边框和所述第二边框分别输入到第一分类模型中,利用所述第一分类模型判断并输出可能存在无人机的边框;
将可能存在无人机的边框作为训练样本输入到第二分类模型中,对所述第二分类模型进行在线训练以确定所述第二分类模型的权重参数;
利用所述权重参数更新所述第一分类模型对应的权重参数,并根据最新输入的第一边框和第二边框输出最终的目标无人机图像边框。
在一些实施方式中,利用所述第一分类模型判断并输出可能存在无人机的边框包括:
所述第一分类模型根据所述第一边框得到第一置信度值,根据第二边框得到第二置信度值;
判断第一置信度值和第二置信度值是否大于置信度阈值;
若大于置信度阈值,则将相应的第一边框或者第二边框作为输出的可能存在无人机的边框。
在一些实施方式中,所述方法还包括:
将置信度阈值的判断结果返回给所述检测模型和跟踪模型;和/或,
将所述目标无人机图像边框返回给所述跟踪模型,作为所述跟踪模型的无人机模板。
在一些实施方式中,所述检测模型包括SSD模型或Yolo系列模型,所述跟踪模型包括MedianFlow模型、KCF模型、Siamese系列模型或Deepsort系列模型,所述第一分类模型和第二分类模型包括基于Adaboost的强分类模型或弱分类模型。
在一些实施方式中,对所述第二分类模型进行训练确定所述第二分类模型的权重参数包括:
将可能存在无人机的边框作为正样本,将可能存在无人机的边框前后的多个边框作为负样本,形成样本集;
利用所述第二分类模型对所述正样本和负样本进行估计,根据估计的准确率调整所述第二分类模型的权重参数。
在一些实施方式中,所述第一分类模型包括多个第一选择器以及与各第一选择器对应的第一选择权重,所述第二分类模型包括多个第二选择器,所述第二选择器的数量大于所述第一选择器的数量,且与所述第一选择器对应的第二选择器设置有第二选择权重,并在训练过程中通过第二选择权重更新所述第一选择权重。
在一些实施方式中,所述第一分类模型的置信度值根据各所述第一选择器和相应第一选择权重乘积的线性组合确定。
依据本发明的另一个方面,提供了一种基于在线学习的无人机跟踪装置,所述装置包括:
初步检测模块;适于将获取到的待检测图像分别输入到探测模型和跟踪模型中,根据所述探测模型得到第一边框,根据所述跟踪模型得到第二边框;
初步分类模块,适于将所述第一边框和所述第二边框分别输入到第一分类模型中,利用所述第一分类模型判断并输出可能存在无人机的边框;
在线训练模块,适于将可能存在无人机的边框作为训练样本输入到第二分类模型中,对所述第二分类模型进行在线训练以确定所述第二分类模型的权重参数;
结果输出模块,适于利用所述权重参数更新所述第一分类模型对应的权重参数,并根据最新输入的第一边框和第二边框输出最终的目标无人机图像边框。
依据本发明的又一方面,提供了一种基于在线学习的无人机跟踪系统,包括:无人机平台、图像传感器和图像处理设备;
所述图像处理设备包括处理器以及被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行根据上述实施方式中任一项所述的基于在线学习的无人机跟踪方法。
依据本发明的再一方面,提供了一种计算机可读存储介质,其中,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被处理器执行时,实现根据上述中任一项基于在线学习的无人机跟踪方法。
由上述可知,根据本发明公开的上述技术方案,结合了检测和跟踪技术来处理常见的干扰因素,其中分类模型以在线方式更新参数,因此,对无人机的变形具有更好的鲁棒性,对无人机的跟踪更为高效、准确。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了根据本发明一个实施例的基于在线学习的无人机跟踪方法的流程示意图;
图2示出了根据本发明一个实施例的基于在线学习的无人机跟踪模型的结构示意图;
图3示出了根据本发明一个实施例的第二分类模型在线训练的流程示意图;
图4示出了根据本发明一个实施例的基于在线学习的无人机跟踪装置的结构示意图;
图5示出了根据本发明一个实施例的无人机平台的结构示意图;
图6示出了根据本发明一个实施例的图像处理设备的结构示意图。
实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
图1示出了根据本发明一个实施例的基于在线学习的无人机跟踪方法的流程示意图,包括如下的步骤:
步骤S110,将获取到的待检测图像分别输入到探测模型和跟踪模型中,根据所述探测模型得到第一边框,根据所述跟踪模型得到第二边框;
步骤S120,将所述第一边框和所述第二边框分别输入到第一分类模型中,利用所述第一分类模型判断并输出可能存在无人机的边框;
步骤S130,将可能存在无人机的边框作为训练样本输入到第二分类模型中,对所述第二分类模型进行在线训练以确定所述第二分类模型的权重参数;
步骤S140,利用所述权重参数更新所述第一分类模型对应的权重参数,更新的方式包括替换或加权等,并根据最新输入的第一边框和第二边框输出最终的目标无人机图像边框。
结合图2所示,本实施例提出的方法通过使用在线学习分类模型预测无人机存在的概率来集成检测模型和跟踪模型。利用不断更新的分类模型能够减轻跟踪模型和检测模型的局限性;由于分类模型以在线方式更新参数,从而提高了对无人机外观变化的鲁棒性。
具体的,探测模型、跟踪模型和分类模型的输出边界框表示如下:
其中和/>分别指示边界框的左上和右下坐标。利用检测模型和跟踪模型分别给出的BD和BT,第一分类模型导出结果BO。这里,如果检测模型和跟踪模型没有预测目标可以通过来自控制器的通/断信号获得结果,分类模型的输入包括BD或BT。
因此,在一些实施例中,利用所述第一分类模型判断并输出可能存在无人机的边框包括:
所述第一分类模型根据所述第一边框得到第一置信度值,根据第二边框得到第二置信度值;
判断第一置信度值和第二置信度值是否大于置信度阈值;
若大于置信度阈值,则将相应的第一边框或者第二边框作为输出的可能存在无人机的边框。
通过分类模型输出置信度的概率值决定了边框存在无人机的可能性,提高了处理跑偏和误检方面的定位能力。
在一些实施例中,所述方法还包括:
将置信度阈值的判断结果返回给所述检测模型和跟踪模型;和/或,
将所述目标无人机图像边框返回给所述跟踪模型,作为所述跟踪模型的无人机模板。
在一些实施例中,所述检测模型包括SSD模型或Yolo系列模型,所述跟踪模型包括MedianFlow模型、KCF模型、Siamese系列模型或Deepsort系列模型,所述第一分类模型和第二分类模型包括基于Adaboost的强分类模型或弱分类模型。
在一些实施例中,结合图2所示,对所述第二分类模型进行训练确定所述第二分类模型的权重参数包括:
将可能存在无人机的边框作为正样本,将可能存在无人机的边框前后的多个边框作为负样本,形成样本集;
利用所述第二分类模型对所述正样本和负样本进行估计,根据估计的准确率调整所述第二分类模型的权重参数。
在一些实施例中,所述第一分类模型包括多个第一选择器以及与各第一选择器对应的第一选择权重,所述第二分类模型包括多个第二选择器,所述第二选择器的数量大于所述第一选择器的数量,且与所述第一选择器对应的第二选择器设置有第二选择权重,并在训练过程中通过第二选择权重更新所述第一选择权重。
在一些实施例中,所述第一分类模型的置信度值根据各所述第一选择器和相应第一选择权重乘积的线性组合确定。
具体的结合图3所示,上述实施例提出了一种基于在线AdaBoost分类模型的混合跟踪方法,通过利用第二分类模型作为弱分类器为第一分类模型的强分类器更新参数,对检测模型和跟踪模型的边界框进行分类。
为了在分类模型中提取BD和BT的输出,第一分类模型预测分别为BD和BT置信度的confD和confT。置信度分数反映了确定无人机的可能性分数。基于上述分数,第一分类模型基于给定置信度阈值输出BO。
具体的,如果BD和BT中的置信度得分较大的高于阈值,则与该置信度相关联的边界框成为输出BO。然后,该输出被传递给第二分类模型,用于在线训练第一分类模型的参数,并被传递给跟踪模型,用于后续的跟踪过程。在训练时,基于输出BO收集训练样本作为正样本,根据其周围区域形成负样本。如果BD和BT的置信度分数较大,则阈值条件不满足,将所有边界框视为无人机的不存在,然后丢弃所有边界框。
其中,第一分类模型的置信度由多个选择器的线性组合衡量,如下所示:
另外,对于给定的一组N个选择器,和/>分别是第n个选择器及其投票权重,x是BD和BT的输入。选择器选择具有最低估计误差的最佳分类器。
可选的,通过将BO作为正样本B1,并提取BO周围的一组L-1个负样本,构建训练样本,用于跟踪过程中分类模型的在线自适应训练。这里,第l个负样本Bl(l=2,3,…,L)定义如下:
其中表示BO的边界框的坐标,/>表示Bl的偏移。
参见图3所示,给出了训练选择器过程的算法,该算法构成了强分类器,上述强分类器建立在基于在线学习的Adaboost基础上。训练选择器的过程会更新弱分类器、选择器和分类器的投票权重参数。
首先,初始化训练样本的重要性权重λ。给定训练样本Bl及其对应的标签yl∈{−1,1}(分别为负样本和正样本),更新全局特征池的M个弱分类器的集合;弱分类器对样本进行分类,然后根据估计的标签更新其正样本和负样本的概率。
弱分类器的响应中,第n个选择器/>选择具有最低误差/>。/>和/>分别表示样本被正确和不正确分类的次数,然后根据/>和/>估计误差。可规定误差率小于50%,误差率超过50%的选择器被排除,从而根据误差,更新与训练样本相对应的选择器投票权重/>和重要性权重λ。
为了适应物体外观的变化,提高分类精度,误差最高的弱分类器初始化并替换为新的随机选择的弱分类器。所有选择器和相应的权重都使用训练样本的重要性权重按顺序更新。因此,学习的更新程序使分类器能够抵御帧之间的对象变形。此外,还可以通过滤除误检和跑偏,可以避免漂移问题。
依据本发明的另一个方面,参见图4所示,提供了一种基于在线学习的无人机跟踪装置,所述装置400包括:
初步检测模块410;适于将获取到的待检测图像分别输入到探测模型和跟踪模型中,根据所述探测模型得到第一边框,根据所述跟踪模型得到第二边框;
初步分类模块420,适于将所述第一边框和所述第二边框分别输入到第一分类模型中,利用所述第一分类模型判断并输出可能存在无人机的边框;
在线训练模块430,适于将可能存在无人机的边框作为训练样本输入到第二分类模型中,对所述第二分类模型进行在线训练以确定所述第二分类模型的权重参数;
结果输出模块440,适于利用所述权重参数更新所述第一分类模型对应的权重参数,并根据最新输入的第一边框和第二边框输出最终的目标无人机图像边框。
在一些实施例中,初步分类模块420还适于:
所述第一分类模型根据所述第一边框得到第一置信度值,根据第二边框得到第二置信度值;
判断第一置信度值和第二置信度值是否大于置信度阈值;
若大于置信度阈值,则将相应的第一边框或者第二边框作为输出的可能存在无人机的边框。
在一些实施例中,所述装置还适于:
将置信度阈值的判断结果返回给所述检测模型和跟踪模型;和/或,
将所述目标无人机图像边框返回给所述跟踪模型,作为所述跟踪模型的无人机模板。
在一些实施例中,所述检测模型包括SSD模型或Yolo系列模型,所述跟踪模型包括MedianFlow模型、KCF模型、Siamese系列模型或Deepsort系列模型,所述第一分类模型和第二分类模型包括基于Adaboost的强分类模型或弱分类模型。
在一些实施例中,在线训练模块430还适于:
将可能存在无人机的边框作为正样本,将可能存在无人机的边框前后的多个边框作为负样本,形成样本集;
利用所述第二分类模型对所述正样本和负样本进行估计,根据估计的准确率调整所述第二分类模型的权重参数。
在一些实施例中,所述第一分类模型包括多个第一选择器以及与各第一选择器对应的第一选择权重,所述第二分类模型包括多个第二选择器,所述第二选择器的数量大于所述第一选择器的数量,且与所述第一选择器对应的第二选择器设置有第二选择权重,并在训练过程中通过第二选择权重更新所述第一选择权重。
在一些实施例中,所述第一分类模型的置信度值根据各所述第一选择器和相应第一选择权重乘积的线性组合确定。
需要说明的是,上述各装置实施例的具体实施方式可以参照前述对应方法实施例的具体实施方式进行,在此不再赘述。
依据本发明的又一方面,提供了一种基于在线学习的无人机跟踪系统,包括:无人机平台、图像传感器和图像处理设备。
可选的,在一个具体实施方式中,参见图5所示,所述无人机平台可选择飞思X450无人机,拍摄无人机的相机可选择Intel D435i双目深度摄像头作为图像传感器。D435i相机正面有四个圆孔,从左向右,第一和第三个是红外传感器(IR Stereo Cameral);第二个是红外激光发射器(IR Projector),第四个是彩色相机(色彩传感器)。相机捕捉最远距离可以达到10米,视频传输速率可以达到90fps。
可选的,在一个具体实施方式中,对图像进行分析的图像处理设备包括Nvidia公司推出的面向无人智能化领域的TX2嵌入式平台,其中GPU采用 NVIDIA Pascal™ 架构,具有256颗CUDA核心。CPU拥有6个核心, 分别由双核Denver2处理器和四核ARM Cortex-A57组成,性能强大、外形小巧。
需要说明的是:
在此提供的算法和显示不与任何特定计算机、虚拟装置或者其它设备固有相关。各种通用装置也可以与基于在此的示教一起使用。根据上面的描述,构造这类装置所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的基于在线学习的无人机跟踪装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
本发明实施例提供了一种非易失性计算机存储介质,所述计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的上述基于在线学习的无人机跟踪方法。
图6示出了本发明图像处理设备实施例的结构示意图,本发明具体实施例并不对图像处理设备的具体实现做限定。
如图6所示,该图像处理设备可以包括:处理器(processor)602、通信接口(Communications Interface)604、存储器(memory)606、以及通信总线608。
其中:处理器602、通信接口604、以及存储器606通过通信总线608完成相互间的通信。通信接口604,用于与其它设备比如客户端或其它服务器等的网元通信。处理器602,用于执行程序610,具体可以执行上述用于图像处理设备的上述基于在线学习的无人机跟踪方法实施例中的相关步骤。
具体地,程序610可以包括程序代码,该程序代码包括计算机操作指令。
处理器602可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。图像处理设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器606,用于存放程序610。存储器606可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序610具体可以用于使得处理器602执行上述基于在线学习的无人机跟踪方法实施例对应的操作。
应该注意的是上述实施例对本申请进行说明而不是对本申请进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本申请可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
Claims (10)
1.一种基于在线学习的无人机跟踪方法,所述方法包括:
将获取到的待检测图像分别输入到探测模型和跟踪模型中,根据所述探测模型得到第一边框,根据所述跟踪模型得到第二边框;
将所述第一边框和所述第二边框分别输入到第一分类模型中,利用所述第一分类模型判断并输出可能存在无人机的边框;
将可能存在无人机的边框作为训练样本输入到第二分类模型中,对所述第二分类模型进行在线训练以确定所述第二分类模型的权重参数;
利用所述权重参数更新所述第一分类模型对应的权重参数,并根据最新输入的第一边框和第二边框输出最终的目标无人机图像边框。
2.根据权利要求1所述的方法,其特征在于,利用所述第一分类模型判断并输出可能存在无人机的边框包括:
所述第一分类模型根据所述第一边框得到第一置信度值,根据第二边框得到第二置信度值;
判断第一置信度值和第二置信度值是否大于置信度阈值;
若大于置信度阈值,则将相应的第一边框或者第二边框作为输出的可能存在无人机的边框。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
将置信度阈值的判断结果返回给所述检测模型和跟踪模型;和/或,
将所述目标无人机图像边框返回给所述跟踪模型,作为所述跟踪模型的无人机模板。
4.根据权利要求1所述的方法,其特征在于,所述检测模型包括SSD模型或Yolo系列模型,所述跟踪模型包括MedianFlow模型、KCF模型、Siamese系列模型或Deepsort系列模型,所述第一分类模型和第二分类模型包括基于Adaboost的强分类模型或弱分类模型。
5.根据权利要求1所述的方法,其特征在于,对所述第二分类模型进行训练确定所述第二分类模型的权重参数包括:
将可能存在无人机的边框作为正样本,将可能存在无人机的边框前后的多个边框作为负样本,形成样本集;
利用所述第二分类模型对所述正样本和负样本进行估计,根据估计的准确率调整所述第二分类模型的权重参数。
6.根据权利要求1-5中任一项所述的方法,其特征在于,所述第一分类模型包括多个第一选择器以及与各第一选择器对应的第一选择权重,所述第二分类模型包括多个第二选择器,所述第二选择器的数量大于所述第一选择器的数量,且与所述第一选择器对应的第二选择器设置有第二选择权重,并在训练过程中通过第二选择权重更新所述第一选择权重。
7.根据权利要求6所述的方法,其特征在于,所述第一分类模型的置信度值根据各所述第一选择器和相应第一选择权重乘积的线性组合确定。
8.一种基于在线学习的无人机跟踪装置,所述装置包括:
初步检测模块;适于将获取到的待检测图像分别输入到探测模型和跟踪模型中,根据所述探测模型得到第一边框,根据所述跟踪模型得到第二边框;
初步分类模块,适于将所述第一边框和所述第二边框分别输入到第一分类模型中,利用所述第一分类模型判断并输出可能存在无人机的边框;
在线训练模块,适于将可能存在无人机的边框作为训练样本输入到第二分类模型中,对所述第二分类模型进行在线训练以确定所述第二分类模型的权重参数;
结果输出模块,适于利用所述权重参数更新所述第一分类模型对应的权重参数,并根据最新输入的第一边框和第二边框输出最终的目标无人机图像边框。
9.一种基于在线学习的无人机跟踪系统,其特征在于,包括:无人机平台、图像传感器和图像处理设备;
所述图像处理设备包括处理器以及被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器执行根据权利要求1-7中任一项所述的基于在线学习的无人机跟踪方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被处理器执行时,实现根据权利要求1-7中任一项所述的基于在线学习的无人机跟踪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311066975.XA CN117036415A (zh) | 2023-08-23 | 2023-08-23 | 基于在线学习的无人机跟踪方法、装置、系统和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311066975.XA CN117036415A (zh) | 2023-08-23 | 2023-08-23 | 基于在线学习的无人机跟踪方法、装置、系统和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117036415A true CN117036415A (zh) | 2023-11-10 |
Family
ID=88624370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311066975.XA Pending CN117036415A (zh) | 2023-08-23 | 2023-08-23 | 基于在线学习的无人机跟踪方法、装置、系统和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117036415A (zh) |
-
2023
- 2023-08-23 CN CN202311066975.XA patent/CN117036415A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11823429B2 (en) | Method, system and device for difference automatic calibration in cross modal target detection | |
CN109478239B (zh) | 检测图像中的对象的方法和对象检测系统 | |
CN106960195B (zh) | 一种基于深度学习的人群计数方法及装置 | |
CN110837856B (zh) | 神经网络训练及目标检测方法、装置、设备和存储介质 | |
JP6482195B2 (ja) | 画像認識装置、画像認識方法及びプログラム | |
CN113033523B (zh) | 跌倒判断模型的构建方法及系统、跌倒判断方法及系统 | |
CN114693661A (zh) | 一种基于深度学习的快速分拣方法 | |
CN111368634B (zh) | 基于神经网络的人头检测方法、系统及存储介质 | |
CN109871792B (zh) | 行人检测方法和装置 | |
CN113516146A (zh) | 一种数据分类方法、计算机及可读存储介质 | |
CN113065379B (zh) | 融合图像质量的图像检测方法、装置、电子设备 | |
CN116503760A (zh) | 基于自适应边缘特征语义分割的无人机巡航检测方法 | |
CN112487861A (zh) | 车道线识别方法、装置、计算设备及计算机存储介质 | |
CN115797736A (zh) | 目标检测模型的训练和目标检测方法、装置、设备和介质 | |
CN117557784B (zh) | 目标检测方法、装置、电子设备及存储介质 | |
CN110334703B (zh) | 一种昼夜图像中的船舶检测和识别方法 | |
CN116994049A (zh) | 全自动针织横机及其方法 | |
CN112037255A (zh) | 目标跟踪方法和装置 | |
CN116612382A (zh) | 一种城市遥感图像目标检测方法和装置 | |
CN115995075A (zh) | 一种车辆自适应导航方法、装置、电子设备及存储介质 | |
CN117036415A (zh) | 基于在线学习的无人机跟踪方法、装置、系统和存储介质 | |
CN114898306A (zh) | 一种检测目标朝向的方法、装置及电子设备 | |
Kaimkhani et al. | UAV with Vision to Recognise Vehicle Number Plates | |
CN113658274A (zh) | 用于灵长类动物种群行为分析的个体间距自动计算方法 | |
CN113837001A (zh) | 监控场景下的异常闯入物实时检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |