CN117409040B - 一种基于目标类别改进的多目标跟踪方法 - Google Patents
一种基于目标类别改进的多目标跟踪方法 Download PDFInfo
- Publication number
- CN117409040B CN117409040B CN202311458814.5A CN202311458814A CN117409040B CN 117409040 B CN117409040 B CN 117409040B CN 202311458814 A CN202311458814 A CN 202311458814A CN 117409040 B CN117409040 B CN 117409040B
- Authority
- CN
- China
- Prior art keywords
- target
- category
- matrix
- acquiring
- categories
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 239000011159 matrix material Substances 0.000 claims abstract description 53
- 238000001514 detection method Methods 0.000 claims abstract description 20
- 238000012360 testing method Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 2
- 241000282326 Felis catus Species 0.000 description 3
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本申请涉及图像数据处理技术领域,特别是涉及一种基于目标类别改进的多目标跟踪方法。该方法包括:获取视频vid中第i帧图像Pi对应的预测目标框集合A;获取vid中第i+1帧图像Pi+1对应的检测目标框集合B;获取IOU矩阵T;获取目标类别矩阵V,V为M×N的矩阵,V的第m行第n列的元素vm,n为bm与an的类别权值;利用V对T进行更新,得到更新后的目标IOU矩阵T’;根据T’获取损失矩阵L;根据L获取A和B中目标框的匹配结果。本发明在现有的SORT算法的基础上,通过对IOU矩阵进行更新的方式避免出现将两个不同类别的目标判定为同一目标的情况,无需额外增加跟踪器的数量,提高了对多类别目标的跟踪效率。
Description
技术领域
本发明涉及图像数据处理技术领域,特别是涉及一种基于目标类别改进的多目标跟踪方法。
背景技术
多目标跟踪指在同一段影像序列中同时跟踪多个目标,现有技术中公开了多种多目标跟踪算法,例如SORT算法。当多目标跟踪的对象属于不同的类别时,为了避免将不同类别的目标判定为同一目标的情况,现有技术中的做法是使用多个跟踪器,每个跟踪器用于对同一类别的目标进行跟踪。现有技术中的该做法使用了多个跟踪器,存在跟踪效率比较低的问题。
发明内容
本发明目的在于,提供一种基于目标类别改进的多目标跟踪方法,以提高对多类别目标的跟踪效率。
根据本发明,提供了一种基于目标类别改进的多目标跟踪方法,包括以下步骤:
S100,获取视频vid中第i帧图像Pi对应的预测目标框集合A,A={a1,a2,…,an,…,aN},an为Pi对应的第n个预测目标框,n的取值范围为1到N,N为Pi对应的预测目标框的数量。
S200,获取vid中第i+1帧图像Pi+1对应的检测目标框集合B,B={b1,b2,…,bm,…,bM},bm为Pi+1对应的第m个检测目标框,m的取值范围为1到M,M为Pi+1对应的检测目标框的数量。
S300,获取IOU矩阵T,T为M×N的矩阵,T的第m行第n列的元素tm,n为bm与an的交并比。
S400,获取目标类别矩阵V,V为M×N的矩阵,V的第m行第n列的元素vm,n为bm与an的类别权值;当bm对应的目标类别与an对应的目标类别为相同类别或易混淆的类别时,vm,n=1;当bm对应的目标类别与an对应的目标类别为不同且不易混淆的类别时,vm,n=0。
S500,利用V对T进行更新,得到更新后的目标IOU矩阵T’,T’为M×N的矩阵,T’的第m行第n列的元素为t’m,n,t’m,n=tm,n×vm,n。
S600,根据T’获取损失矩阵L,L为M×N的矩阵,L的第m行第n列的元素为lm,n,lm,n=1-t’m,n。
S700,根据L获取A和B中目标框的匹配结果。
本发明与现有技术相比至少具有以下有益效果:
本发明在得到了IOU矩阵的基础上,还根据任意两目标框对应的目标类别是否相同和容易混淆构建了目标类别矩阵,其中,当某两目标框对应的目标类别相同或容易混淆时,目标类别矩阵中这两个目标框对应的类别权值为1;否则,目标类别矩阵中这两个目标框对应的类别权值为0;由此,本发明中基于目标类别矩阵对IOU矩阵更新后得到的IOU矩阵中属于相同目标类别或易混淆的目标类别的两目标框对应的IOU保持不变,而属于不同且不是易混淆的目标类别的两目标框对应的IOU变为0,由此,损失矩阵中属于相同目标类别或易混淆的目标类别的两目标框对应的损失相对较小(具体为0到1之间的值),而属于不同且不是易混淆的目标类别的两目标框对应的损失较大(具体为1),由此,本发明根据损失矩阵获取A和B中目标框的匹配结果时,属于不同且不是易混淆的目标类别的两目标框被判定为同一目标的概率有所减小,能够避免出现将两个不同类别的目标判定为同一目标的情况。本发明在现有的SORT算法的基础上,通过对IOU矩阵进行更新的方式避免出现将两个不同类别的目标判定为同一目标的情况,无需额外增加跟踪器的数量,提高了对多类别目标的跟踪效率。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于目标类别改进的多目标跟踪方法的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
根据本实施例,如图1所示,提供了一种基于目标类别改进的多目标跟踪方法,包括以下步骤:
S100,获取视频vid中第i帧图像Pi对应的预测目标框集合A,A={a1,a2,…,an,…,aN},an为Pi对应的第n个预测目标框,n的取值范围为1到N,N为Pi对应的预测目标框的数量。
本实施例中的视频vid包括多帧图像,vid中第i帧图像指的是vid中除最后一帧以外的任一帧图像。
本领域技术人员知悉,现有技术中任何的获取预测目标框的方法均落入本发明的保护范围,可选的,利用卡尔曼滤波方法获取预测目标框。
S200,获取vid中第i+1帧图像Pi+1对应的检测目标框集合B,B={b1,b2,…,bm,…,bM},bm为Pi+1对应的第m个检测目标框,m的取值范围为1到M,M为Pi+1对应的检测目标框的数量。
本领域技术人员知悉,现有技术中利用任何的目标检测方法获取检测目标框的方法均落入本发明的保护范围,可选的,使用Faster RCNN或YOLO来得到检测目标框。
S300,获取IOU矩阵T,T为M×N的矩阵,T的第m行第n列的元素tm,n为bm与an的交并比。
本实施例中Pi+1对应的检测目标框的数量为M,Pi对应的预测目标框的数量为N,T包括Pi+1对应的任一检测目标框和Pi对应的任一预测目标框对应的交并比。
本领域技术人员知悉,现有技术中获取两目标框的交并比的方法落入本发明的保护范围。
S400,获取目标类别矩阵V,V为M×N的矩阵,V的第m行第n列的元素vm,n为bm与an的类别权值;当bm对应的目标类别与an对应的目标类别为相同类别或易混淆的类别时,vm,n=1;当bm对应的目标类别与an对应的目标类别为不同且不易混淆的类别时,vm,n=0。
本实施例中Pi+1对应的检测目标框的数量为M,Pi对应的预测目标框的数量为N,V包括Pi+1对应的任一检测目标框和Pi对应的任一预测目标框对应的类别权值。
本实施例的目标类别矩阵V不仅考虑了bm对应的目标类别与an对应的目标类别为相同类别的情况,还考虑了bm对应的目标类别与an对应的目标类别为易混淆的类别的情况,以避免出现由于检测器将bm对应的目标类别或an对应的目标类别检测为对应的易混淆类别导致的相同类别的两目标框对应的损失极大的情况,以提高对多目标跟踪的准确性。
具体的,S400包括:
S410,获取bm对应的目标类别s1,m和an对应的目标类别s2,n。
S420,如果s1,m=s2,n,则将vm,n确定为1;否则,进入S430。
S430,获取预设的易混淆类别列表C,C=(c1,c2,…,cr,…,cR),cr为第r个类别的信息,cr=(ncr,xcr),ncr为第r个类别的名称,xcr为第r个类别对应的易混淆类别的集合,xcr={xcr,1,xcr,2,…,xcr,j,…,xcr,u},xcr,j为与第r个类别易混淆的第j个类别,j的取值范围为1到u,u为与第r个类别易混淆的类别数量,r的取值范围为1到R,R为检测的类别数量。
可选的,xcr根据经验提前设置。需要说明的是,xcr可能为空集,当xcr为空集时,说明不存在与第r个类别易混淆的类别。例如,进行多目标跟踪时,共跟踪4个类型的目标,即跟踪的类别数量为4,分别为人、车、猫和狗,将人对应的类别对应的易混淆类别的集合设置为空集,将车对应的类别对应的易混淆类别的集合设置为空集,将猫对应的类别对应的易混淆类别的集合设置为{狗},将狗对应的类别对应的易混淆类别的集合设置为{猫}。
优选的,xcr的获取方法包括:
S431,获取测试图像集H,H中包括R个类别的目标。
本实施例S431中的R个类别与进行多目标跟踪时跟踪的R个类别是相同的类别。
作为一个具体实施方式,H中包括每个类别的目标数量均为较大值,不同类别的目标数量相等或不相等,上述较大值指大于等于1000。
S432,使用目标检测器对H进行检测,得到检测结果G,G=(g1,g2,…,gr,…,gR),gr为H中被判定为属于第r个类别的目标数量序列,gr=(gr,1,gr,2,…,gr,k,…,gr,R),gr,k为H中第k个类别的目标被判定为属于第r个类别的数量,k的取值范围为1到R;所述目标检测器为用于获取bm对应的目标类别与an对应的目标类别的检测器。
S433,遍历gr,如果k≠r,则进入S434。
S434,获取第k个类别与第r个类别的混淆率dr,k,如果dr,k>d0,则将第k个类别追加至预设的第r集合Wr,Wr的初始化为空集,d0为预设的混淆率阈值,dr,k与gr,k正相关。
本实施例中d0为经验值,可选的,0≤d0≤10%。
作为第一具体实施方式,dr,k=(gr,k/qk+gk,r/qr)/2,qk为H中包括的第k个类别的目标的数量,qr为H中包括的第r个类别的目标的数量,gk,r为H中第r个类别的目标被判定为属于第k个类别的数量。
作为第二具体实施方式,dr,k=max(gr,k/qk,gk,r/qr),qk为H中包括的第k个类别的目标的数量,qr为H中包括的第r个类别的目标的数量,gk,r为H中第r个类别的目标被判定为属于第k个类别的数量,max()为取最大值。
S435,将Wr确定为xcr。
本实施例中,遍历gr之后,Wr包括R个类别中所有不是第r个类别且与第r个类别的混淆率大于d0的类别。
通过S431-S435,本实施例使用目标检测器(即获取bm对应的目标类别与an对应的目标类别的检测器)对测试图像集中的目标进行检测,根据检测结果中出现的类别被判定错误的目标的数量,本实施例可以获知目标检测器容易将哪两种类别的目标判定混淆,由此可以得到准确的第r个类别对应的易混淆类别的集合,进而提高了本实施例对多目标跟踪的准确性。
S440,遍历C,如果s1,m与ncr匹配,且s2,n∈xcr,则将vm,n确定为1;如果s1,m与ncr匹配,且则将vm,n确定为0。
S500,利用V对T进行更新,得到更新后的目标IOU矩阵T’,T’为M×N的矩阵,T’的第m行第n列的元素为t’m,n,t’m,n=tm,n×vm,n。
本实施例中,当bm对应的目标类别与an对应的目标类别为不同且不易混淆的类别时,vm,n=0,t’m,n=0;当bm对应的目标类别与an对应的目标类别为相同类别或易混淆的类别时,vm,n=1,t’m,n=tm,n。
S600,根据T’获取损失矩阵L,L为M×N的矩阵,L的第m行第n列的元素为lm,n,lm,n=1-t’m,n。
本实施例中lm,n为将bm和an判定为同一目标的损失,lm,n与t’m,n成反比,t’m,n越小,lm,n越大;t’m,n越大,lm,n越小;当bm对应的目标类别与an对应的目标类别为不同且不易混淆的类别时,lm,n=1;当bm对应的目标类别与an对应的目标类别为相同类别或易混淆的类别时,lm,n=1-tm,n,即当bm对应的目标类别与an对应的目标类别为相同类别或易混淆的类别时,bm和an的交并比越大,将bm和an判定为同一目标的损失越小。
S700,根据L获取A和B中目标框的匹配结果。
具体的,S700包括:将L作为匈牙利算法中的损失矩阵,利用匈牙利算法获取A和B中目标框的匹配结果。
本领域技术人员知悉,利用匈牙利算法获取匹配结果的过程为现有技术,此处不再赘述。
本实施例在得到了IOU矩阵的基础上,还根据任意两目标框对应的目标类别是否相同和容易混淆构建了目标类别矩阵,其中,当某两目标框对应的目标类别相同或容易混淆时,目标类别矩阵中这两个目标框对应的类别权值为1;否则,目标类别矩阵中这两个目标框对应的类别权值为0;由此,本实施例中基于目标类别矩阵对IOU矩阵更新后得到的IOU矩阵中属于相同目标类别或易混淆的目标类别的两目标框对应的IOU保持不变,而属于不同且不是易混淆的目标类别的两目标框对应的IOU变为0,由此,损失矩阵中属于相同目标类别或易混淆的目标类别的两目标框对应的损失相对较小(具体为0到1之间的值),而属于不同且不是易混淆的目标类别的两目标框对应的损失较大(具体为1),由此,本实施例根据损失矩阵获取A和B中目标框的匹配结果时,属于不同且不是易混淆的目标类别的两目标框被判定为同一目标的概率有所减小,能够避免出现将两个不同类别的目标判定为同一目标的情况。本实施例在现有的SORT算法的基础上,通过对IOU矩阵进行更新的方式避免出现将两个不同类别的目标判定为同一目标的情况,无需额外增加跟踪器的数量,提高了对多类别目标的跟踪效率。
虽然已经通过示例对本发明的一些特定实施例进行了详细说明,但是本领域的技术人员应该理解,以上示例仅是为了进行说明,而不是为了限制本发明的范围。本领域的技术人员还应理解,可以对实施例进行多种修改而不脱离本发明的范围和精神。本发明的范围由所附权利要求来限定。
Claims (6)
1.一种基于目标类别改进的多目标跟踪方法,其特征在于,包括以下步骤:
S100,获取视频vid中第i帧图像Pi对应的预测目标框集合A,A={a1,a2,…,an,…,aN},an为Pi对应的第n个预测目标框,n的取值范围为1到N,N为Pi对应的预测目标框的数量;
S200,获取vid中第i+1帧图像Pi+1对应的检测目标框集合B,B={b1,b2,…,bm,…,bM},bm为Pi+1对应的第m个检测目标框,m的取值范围为1到M,M为Pi+1对应的检测目标框的数量;
S300,获取IOU矩阵T,T为M×N的矩阵,T的第m行第n列的元素tm,n为bm与an的交并比;
S400,获取目标类别矩阵V,V为M×N的矩阵,V的第m行第n列的元素vm,n为bm与an的类别权值;当bm对应的目标类别与an对应的目标类别为相同类别或易混淆的类别时,vm,n=1;当bm对应的目标类别与an对应的目标类别为不同且不易混淆的类别时,vm,n=0;
S500,利用V对T进行更新,得到更新后的目标IOU矩阵T’,T’为M×N的矩阵,T’的第m行第n列的元素为t’m,n,t’m,n=tm,n×vm,n;
S600,根据T’获取损失矩阵L,L为M×N的矩阵,L的第m行第n列的元素为lm,n,lm,n=1-t’m,n;
S700,根据L获取A和B中目标框的匹配结果;
S400包括:
S410,获取bm对应的目标类别s1,m和an对应的目标类别s2,n;
S420,如果s1,m=s2,n,则将vm,n确定为1;否则,进入S430;
S430,获取预设的易混淆类别列表C,C=(c1,c2,…,cr,…,cR),cr为第r个类别的信息,cr=(ncr,xcr),ncr为第r个类别的名称,xcr为第r个类别对应的易混淆类别的集合,xcr={xcr,1,xcr,2,…,xcr,j,…,xcr,u},xcr,j为与第r个类别易混淆的第j个类别,j的取值范围为1到u,u为与第r个类别易混淆的类别数量,r的取值范围为1到R,R为跟踪的目标的类别数量;
S440,遍历C,如果s1,m与ncr匹配,且s2,n∈xcr,则将vm,n确定为1;如果s1,m与ncr匹配,且则将vm,n确定为0。
2.根据权利要求1所述的基于目标类别改进的多目标跟踪方法,其特征在于,xcr的获取方法包括:
S431,获取测试图像集H,H中包括R个类别的目标;
S432,使用目标检测器对H进行检测,得到检测结果G,G=(g1,g2,…,gr,…,gR),gr为H中被判定为属于第r个类别的目标数量序列,gr=(gr,1,gr,2,…,gr,k,…,gr,R),gr,k为H中第k个类别的目标被判定为属于第r个类别的数量,k的取值范围为1到R;所述目标检测器为用于获取bm对应的目标类别与an对应的目标类别的检测器;
S433,遍历gr,如果k≠r,则进入S434;
S434,获取第k个类别与第r个类别的混淆率dr,k,如果dr,k>d0,则将第k个类别追加至预设的第r集合Wr,Wr的初始化为空集,d0为预设的混淆率阈值,dr,k与gr,k正相关;
S435,将Wr确定为xcr。
3.根据权利要求2所述的基于目标类别改进的多目标跟踪方法,其特征在于,dr,k=(gr,k/qk+gk,r/qr)/2,qk为H中包括的第k个类别的目标的数量,qr为H中包括的第r个类别的目标的数量,gk,r为H中第r个类别的目标被判定为属于第k个类别的数量。
4.根据权利要求2所述的基于目标类别改进的多目标跟踪方法,其特征在于,dr,k=max(gr,k/qk,gk,r/qr),qk为H中包括的第k个类别的目标的数量,qr为H中包括的第r个类别的目标的数量,gk,r为H中第r个类别的目标被判定为属于第k个类别的数量,max()为取最大值。
5.根据权利要求1所述的基于目标类别改进的多目标跟踪方法,其特征在于,S700包括:将L作为匈牙利算法中的损失矩阵,利用匈牙利算法获取A和B中目标框的匹配结果。
6.根据权利要求2所述的基于目标类别改进的多目标跟踪方法,其特征在于,0≤d0≤10%。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311458814.5A CN117409040B (zh) | 2023-11-02 | 2023-11-02 | 一种基于目标类别改进的多目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311458814.5A CN117409040B (zh) | 2023-11-02 | 2023-11-02 | 一种基于目标类别改进的多目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117409040A CN117409040A (zh) | 2024-01-16 |
CN117409040B true CN117409040B (zh) | 2024-05-10 |
Family
ID=89488815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311458814.5A Active CN117409040B (zh) | 2023-11-02 | 2023-11-02 | 一种基于目标类别改进的多目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117409040B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021189825A1 (zh) * | 2020-03-25 | 2021-09-30 | 苏州科达科技股份有限公司 | 多目标跟踪方法、装置和存储介质 |
CN113723190A (zh) * | 2021-07-29 | 2021-11-30 | 北京工业大学 | 一种面向同步移动目标的多目标跟踪方法 |
CN114155282A (zh) * | 2021-12-07 | 2022-03-08 | 沈阳帝信人工智能产业研究院有限公司 | 车辆追踪阈值更新方法、装置、电子设备及存储介质 |
CN116330658A (zh) * | 2023-01-12 | 2023-06-27 | 珠海视熙科技有限公司 | 基于深度图像的目标跟踪方法、装置、系统及摄像设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023161956A (ja) * | 2022-04-26 | 2023-11-08 | 日本電気株式会社 | 物体追跡装置、物体追跡方法、及びプログラム |
-
2023
- 2023-11-02 CN CN202311458814.5A patent/CN117409040B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021189825A1 (zh) * | 2020-03-25 | 2021-09-30 | 苏州科达科技股份有限公司 | 多目标跟踪方法、装置和存储介质 |
CN113723190A (zh) * | 2021-07-29 | 2021-11-30 | 北京工业大学 | 一种面向同步移动目标的多目标跟踪方法 |
CN114155282A (zh) * | 2021-12-07 | 2022-03-08 | 沈阳帝信人工智能产业研究院有限公司 | 车辆追踪阈值更新方法、装置、电子设备及存储介质 |
CN116330658A (zh) * | 2023-01-12 | 2023-06-27 | 珠海视熙科技有限公司 | 基于深度图像的目标跟踪方法、装置、系统及摄像设备 |
Also Published As
Publication number | Publication date |
---|---|
CN117409040A (zh) | 2024-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111127513B (zh) | 一种多目标跟踪方法 | |
KR102661954B1 (ko) | 이미지 처리 방법 및 이를 수행하는 장치들 | |
CN112132042A (zh) | 基于对抗域适应的sar图像目标检测方法 | |
CN111488879B (zh) | 利用双嵌入构成的用于提高分割性能的方法及装置 | |
CN110363165B (zh) | 基于tsk模糊系统的多目标跟踪方法、装置及存储介质 | |
WO2020086176A1 (en) | Artificial neural network and method of training an artificial neural network with epigenetic neurogenesis | |
CN113076969B (zh) | 基于混合高斯损失函数的图像目标检测方法 | |
CN114022508A (zh) | 一种目标跟踪方法、终端及计算机可读存储介质 | |
CN115082781A (zh) | 一种舰船图像检测方法、装置以及存储介质 | |
CN111444816A (zh) | 一种基于Faster RCNN的多尺度密集行人检测方法 | |
CN117409040B (zh) | 一种基于目标类别改进的多目标跟踪方法 | |
CN103324953A (zh) | 视频监控多目标检测与跟踪方法 | |
CN113378905B (zh) | 一种基于分布距离的小目标检测方法 | |
US6754390B2 (en) | Fusing outputs from multiple detection/classification schemes | |
CN112556682B (zh) | 一种水下复合传感器目标自动检测算法 | |
CN112362042A (zh) | 一种基于智能船舶多传感设备的航迹关联判断方法 | |
CN116385866B (zh) | 基于sar图像的铁路沿线彩钢房变化检测方法和装置 | |
CN116977859A (zh) | 基于多尺度图像切割和实例困难度的弱监督目标检测方法 | |
CN116977834A (zh) | 一种开放条件下分布内外图像识别方法 | |
US20240127585A1 (en) | Method for determining the encoder architecture of a neural network | |
CN110428017B (zh) | 一种相似度阈值动态设定的物体识别方法 | |
CN111413681B (zh) | 基于熵权法的飞行目标威胁度识别方法、系统和存储介质 | |
CN114494359A (zh) | 一种基于异常光流的小样本运动目标检测方法 | |
Suresh et al. | Machine learning approaches for multi-sensor data pattern recognition: K-means, deep neural networks, and multi-layer K-means | |
CN111524161B (zh) | 提取轨迹的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |