CN109977895B - 一种基于多特征图融合的野生动物视频目标检测方法 - Google Patents
一种基于多特征图融合的野生动物视频目标检测方法 Download PDFInfo
- Publication number
- CN109977895B CN109977895B CN201910261788.4A CN201910261788A CN109977895B CN 109977895 B CN109977895 B CN 109977895B CN 201910261788 A CN201910261788 A CN 201910261788A CN 109977895 B CN109977895 B CN 109977895B
- Authority
- CN
- China
- Prior art keywords
- image
- feature map
- video sequence
- fusion
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多特征图融合的野生动物视频目标检测方法,包括如下步骤:获取视频序列图像,提取视频序列图像中每一帧图像的特征图;判断视频序列图像中的相邻帧图像是否满足融合条件;若相帧图像满足融合条件,则对相邻帧图像进行特征图融合;对融合后的特征图进行类别与目标框的预测,获得具有目标语义关联信息的最终检测结果。与现有技术相比,本发明的方法更适合对遮挡、形变目标进行准确检测,检测成功的目标数量与检测置信度得到了提升。
Description
技术领域
本发明涉及图像识别领域,尤其涉及一种基于多特征图融合的野生动物视频目标检测方法。
背景技术
生物资源是人类赖以生存和发展的自然基础,是生态系统平衡与稳定的有力保障。野生动物资源是生物资源的重要组成部分,具有珍稀性和生命脆弱性,保护和合理利用野生动物资源对可持续发展有着重要意义。然而,当下对于野生动物的监测保护是通过实地探查,或者使用昂贵的实时录像机进行不间断的定点录像,需要投入大量的人力物力。因此,将目标检测的研究成果运用于野生动物视频检测领域,对辅助科学研究有重要意义。
近年来,国内外研究学者在野生动物领域做了一系列的分类与检测识别研究工作。随着深度卷积网络的不断发展,基于深度学习的目标检测方法凭借其强大的特征学习能力,表现出了巨大优势。在基于深度学习的目标检测领域,有人结合selective search算法与SVM分类器,提出了基于区域的卷积神经网络R-CNN,其提取出的特征鲁棒性高、通用性好,但存在时间开销大的缺点;有人使用卷积神经网络直接产生候选框区域对R-CNN进行改进,提出的Faster R-CNN模型解决了R-CNN模型的时空开销大的问题;基于回归的YOLO模型,使用端到端的训练方法,提升了目标检测的速度,但其检测精度低;SSD模型对全图各个位置的多尺度区域进行回归,目标检测精度高,但检测速度不及YOLO模型;有人通过Darknet-53卷积神经网络与金字塔网络,对全图进行三个不同尺度的特征图检测,得到检测速度与检测精度的平衡。在上述模型中,YOLOv3模型的综合性能最优,在保持YOLO模型检测速度的同时,达到了SSD模型的检测精度。
然而,针对YOLOv3在野生动物视频目标检测领域中,存在的前后视频帧同区域关系难以描述的缺点,这会导致平均准确率的下降。
因此,如何提高野生动物视频目标检测的平均准确率,成为了本领域技术人员急需解决的问题。
发明内容
针对现有技术中存在的上述不足,本发明需要解决的问题是:如何提高野生动物视频目标检测的平均准确率。
为解决上述技术问题,本发明采用了如下的技术方案:
一种基于多特征图融合的野生动物视频目标检测方法,包括如下步骤:
S1、获取视频序列图像,提取视频序列图像中每一帧图像的特征图;
S2、判断视频序列图像中的相邻帧图像是否满足融合条件;
S3、若相帧图像满足融合条件,则对相邻帧图像进行特征图融合;
S4、对融合后的特征图进行类别与目标框的预测,获得具有目标语义关联信息的最终检测结果。
优选地,判断视频序列图像中的相邻帧图像是否满足融合条件的方法包括:
若两相邻帧图像的相似度P大于或等于融合阈值σ,两相邻帧图像是否满足融合条件。
优选地,基于公式Fn'=ω*Fn+1+Fn+ω*Fn-1'采用线性迭代的方式进行相邻帧图像的特征图融合,式中,Fn-1'=ω*Fn+Fn-1+ω*Fn-2',Fn为第n帧图像的特征图,Fn'为第n帧图像的融合后的特征图,Fn+1为第n+1帧图像的特征图,Fn-1为第n-1帧图像的特征图,Fn-1'为第n-1帧图像的融合后的特征图,Fn-2为第n-2帧图像的融合后的特征图,ω为相邻视频帧的相关因子,ω∈[0,1]。
优选地,采用下述方法计算两相邻帧图像的相似度均值:
设任意两个视频序列图像A和B的互信息熵为H(A)和H(B);
式中,PA(i)为H(A)发生的概率,PB(j)为H(B)发生的概率;
I(A,B)=H(A)+H(B)-H(A,B)
I(A,A)=H(A)+H(A)-H(A,A)
x=I(A,B)/I(A,A),x∈(0,1]
式中,H(A,B)表示视频序列图像A和视频序列图像B的联合熵,H(A,A)表示视频序列图像A与视频序列图像A的联合熵,I(A,B)表示视频序列图像A与视频序列图像B的互信息熵,I(A,A)表示视频序列图像A与视频序列图像A的互信息熵,a、b分别为A、B的特定值,PAB(a,b)为a、b一起出现的联合概率,PAA(a,a)为a、a一起出现的联合概率。
综上所述,本发明公开了一种基于多特征图融合的野生动物视频目标检测方法,包括如下步骤:获取视频序列图像,提取视频序列图像中每一帧图像的特征图;判断视频序列图像中的相邻帧图像是否满足融合条件;若相帧图像满足融合条件,则对相邻帧图像进行特征图融合;对融合后的特征图进行类别与目标框的预测,获得具有目标语义关联信息的最终检测结果。与现有技术相比,本发明的方法更适合对遮挡、形变目标进行准确检测,检测成功的目标数量与检测置信度得到了提升。
附图说明
图1为本发明公开的一种基于多特征图融合的野生动物视频目标检测方法的流程图;
图2为当前帧与视频序列帧的相关因子变化曲线的示意图;
图3为相邻视频帧相似度的示意图;
图4为YOLOv3模型与本发明的方法的实验结果对比示意图;
图5为YOLOv3模型与本发明的方法在WVDDS数据集上的P-R变化曲线。
具体实施方式
下面结合附图对本发明作进一步的详细说明。
如图1所示,本发明公开了一种基于多特征图融合的野生动物视频目标检测方法,包括如下步骤:
S1、获取视频序列图像,提取视频序列图像中每一帧图像的特征图;
将Darknet-53残差神经网络作为特征提取网络,对输入图像进行特征提取,能够得到三个不同尺度的特征图。本发明中,可以使用Darknet-53网络对视频帧进行特征提取,从而提取到三个不同尺度特征图。提取特征图为现有技术,在此不再赘述。
S2、判断视频序列图像中的相邻帧图像是否满足融合条件;
S3、若相帧图像满足融合条件,则对相邻帧图像进行特征图融合;
考虑到将视频拆分为连续的图像帧进行处理时,会丢失帧间相关性,本发明中将YOLOv3模型、图像相似度与时间序列关系相结合,对Darknet-53网络提取到的连续前后视频帧的特征图进行线性迭代融合,以提升野生动物视频目标检测的准确率。
S4、对融合后的特征图进行类别与目标框的预测,获得具有目标语义关联信息的最终检测结果。
与现有技术相比,本发明的方法更适合对遮挡、形变目标进行准确检测,检测成功的目标数量与检测置信度得到了提升。
具体实施时,判断视频序列图像中的相邻帧图像是否满足融合条件的方法包括:
若两相邻帧图像的相似度P大于或等于融合阈值σ,两相邻帧图像是否满足融合条件。
在相邻帧融合之前,引入直方图均衡计算图像相似度的方法,对相邻视频图像进行相似度度量。若为视频“镜头切换”,相邻视频帧则不存在时间序列关系,若仍对其进行特征图融合,会导致识别率降低。
对图像进行直方图计算时,是将像素点拆分成R、G、B三通道的值进行分别计算;按照上述公式计算,所得的结果便为直方图数据。
具体实施时,基于公式Fn'=ω*Fn+1+Fn+ω*Fn-1'采用线性迭代的方式进行相邻帧图像的特征图融合,式中,Fn-1'=ω*Fn+Fn-1+ω*Fn-2',Fn为第n帧图像的特征图,Fn'为第n帧图像的融合后的特征图,Fn+1为第n+1帧图像的特征图,Fn-1为第n-1帧图像的特征图,Fn-1'为第n-1帧图像的融合后的特征图,Fn-2为第n-2帧图像的融合后的特征图,ω为相邻视频帧的相关因子,ω∈[0,1]。
为充分利用视频序列所包含的目标信息,本发明对经过Darknet-53提取到的视频图像特征图进行有效融合,以提升目标检测准确率。
本发明中,当前帧在与其前后帧图像进行特征图融合时,采用线性迭代的方式,并将原特征图更新为融合后的特征图。
在特征融合中,如何有效选取相关因子ω的值是一个重点。ω决定了在特征融合时,前后各帧的重要性,选择合适的ω将决定融合最终的效果。本发明中,采用互信息熵对估计ω值,能够自适应的融合不同重要性的特征。针对相关因子的选取,我们使用互信息熵计算图像相似度,对得到的相似度进行高斯变化,并与距离权重相乘。具体实施时,σ可取0.6,μ可取0.6,x可取0.69,distance_weight可取1。
采用下述方法计算两相邻帧图像的相似度均值:
具体实施时,设任意两个视频序列图像A和B的互信息熵为H(A)和H(B);
式中,PA(i)为H(A)发生的概率,PB(j)为H(B)发生的概率;
I(A,B)=H(A)+H(B)-H(A,B)
I(A,A)=H(A)+H(A)-H(A,A)
x=I(A,B)/I(A,A),x∈(0,1]
式中,H(A,B)表示视频序列图像A和视频序列图像B的联合熵,H(A,A)表示视频序列图像A与视频序列图像A的联合熵,I(A,B)表示视频序列图像A与视频序列图像B的互信息熵,I(A,A)表示视频序列图像A与视频序列图像A的互信息熵,a、b分别为A、B的特定值,PAB(a,b)为a、b一起出现的联合概率,PAA(a,a)为a、a一起出现的联合概率。
综上所述,本发明公开的方法具有以下技术效果:
(1)使用线性迭代的方式对视频前后帧三个不同尺度的特征图分别进行融合;
线性迭代的方式在融合当前帧的时候,采用的是前面各帧融合后的新特征表示,因此有效融合更准确的前面各帧的信息。
(2)通过图像互信息熵拟合出视频相邻帧融合的相关因子;
在视频相邻帧融合时,最大的挑战在于如何融合周边各帧的信息,如果只是简单的对前后各帧进行融合(例如求和),无法达到满意的效果。因此,本发明提出了一种新的特征融合方法,即根据其他各帧与当前帧的互信息熵作为融合的依据。
(3)引入直方图均衡计算图像相似度的方法,确定相邻帧的融合条件。
在视频帧融合时,遇到的另一个挑战是视频存在镜头切换问题,因此本发明引入直方图均衡计算图像相似度来判断是否存在镜头切换问题,从而保证信息融合的可靠性。
下面为采用本发明公开的基于多特征图融合的野生动物视频目标检测方法的具体实例:
实验环境
本实例的实验环境与配置为:Ubuntu 14.04操作系统,Inter Xeon E5-2623v3处理器,64GB内存,NVIDIA Tesla K80显卡,以及Keras深度学习框架。
数据集
实验数据集采用基于视频的野生动物检测数据集WVDDS。WVDDS数据集包含了12个类别,253段视频片段,视频按照每5帧标注一次的频率进行标注,标注采用PASCAL VOC格式,共6601视频图像。
参数设置
模型再训练参数
为了与YOLOv3在同等条件下进行检测性能的比较,我们在原作者提供的权重文件基础上,使用WVDDS数据集进行再训练。其再训练模型的参数如表1所示:
表1模型再训练的参数表
相关因子
为了验证视频序列图像相似度的变化关系,选取视频中的第一帧作为当前帧,对视频所有序列图像与当前帧使用互信息熵进行相似度计算,并进行归一化。视频序列中,当前帧与视频序列帧的相关因子变化曲线如图2所示。距当前帧越近,其相似度越大;据当前帧越远,其相似度越小。相似度呈下降趋势,且保持在0.1上下。
表2使用互信息熵对视频的相邻两帧分别进行相似度计算,相似度均值作为x的取值。如表2所示,x的取值为0.69。
表2视频相邻帧的互信息熵相似度
本发明使用直方图均衡对视频相邻帧的相似度进行判断。图3展示了相邻视频帧相似度。若相邻帧的相似度S大于一个阈值,则进行相邻特征图融合;反之,则判断为视频“镜头切换”,不进行融合。
为了与YOLOv3算法进行对比,本发明的方法将初始训练参数设定为与YOLOv3原模型一致。在进行检测任务时,阈值scores=0.5,IOU=0.5。图4为YOLOv3模型与本发明的方法的实验结果对比。其中,(1)(3)(5)(7)为YOLOv3模型的检测结果,(2)(4)(6)(8)为本发明的方法的检测结果。如图4所示:(2)(4)(6)(8)相对于(1)(3)(5)(7)的目标检测率得到了提升。其中,(1)(2)为背景遮挡,(3)(4)为自遮挡,(5)(6)与(7)(8)为形变的检测结果对比。
平均准确率
检测性能使用平均准确率AP进行评估,其通过数值积分对P-R曲线进行计算,P代表precision准确率,R代表Recall召回率。其中:
式中,tp表示True positives;tn表示True negatives;fp表示False positives;fn表示False negatives。
F1值为模型准确率与召回率的加权平均,其反映了模型准确率与召回率的综合性能。它的取值在0-1之间。F1的计算公式如下,
表3为YOLOv3模型与本发明的方法(即Context-aware YOLO模型)在IOU为0.5时的P-R变化结果,表3说明本发明的方法相对于YOLOv3模型的F1值提升了2.4%,mAP提升了4.71%;
表3 YOLOv3模型与本发明的方法的对比
表4为YOLOv3模型与本发明的方法在WVDDS数据集上的类别平均准确率对比实验结果;图5中(1)和(3)为YOLOv3模型(1)(3)在WVDDS数据集上的P-R变化曲线,(2)和(4)为采用本发明的方法在WVDDS数据集上P-R变化曲线。
表4 YOLOv3模型与本发明的方法在WVDDS数据集上的类别平均准确率
如表4,采用本发明的方法准确率均高于YOLOv3模型;参照图5,由于本发明融合前后帧特征图信息,更能对遮挡、形变目标进行准确检测,检测成功的目标数量与检测置信度得到了提升。因此,模型的整体检测性能也得到了提升。
上述仅是本发明优选的实施方式,需指出是,对于本领域技术人员在不脱离本技术方案的前提下,还可以作出若干变形和改进,上述变形和改进的技术方案应同样视为落入本发明要求保护的范围。
Claims (4)
1.一种基于多特征图融合的野生动物视频目标检测方法,其特征在于,包括如下步骤:
S1、获取视频序列图像,提取视频序列图像中每一帧图像的特征图;
S2、判断视频序列图像中的相邻帧图像是否满足融合条件;
S3、若相帧图像满足融合条件,则对相邻帧图像进行特征图融合;
基于公式Fn'=ω*Fn+1+Fn+ω*Fn-1'采用线性迭代的方式进行相邻帧图像的特征图融合,式中,Fn-1'=ω*Fn+Fn-1+ω*Fn-2',Fn为第n帧图像的特征图,Fn'为第n帧图像的融合后的特征图,Fn+1为第n+1帧图像的特征图,Fn-1为第n-1帧图像的特征图,Fn-1'为第n-1帧图像的融合后的特征图,Fn-2为第n-2帧图像的融合后的特征图,ω为相邻视频帧的相关因子,ω∈[0,1];
S4、对融合后的特征图进行类别与目标框的预测,获得具有目标语义关联信息的最终检测结果。
4.如权利要求1所述的基于多特征图融合的野生动物视频目标检测方法,其特征在于,采用下述方法计算两相邻帧图像的相似度均值:
设任意两个视频序列图像A和B的互信息熵为H(A)和H(B);
式中,PA(i)为H(A)发生的概率,PB(j)为H(B)发生的概率;
I(A,B)=H(A)+H(B)-H(A,B)
I(A,A)=H(A)+H(A)-H(A,A)
x=I(A,B)/I(A,A),x∈(0,1]
式中,H(A,B)表示视频序列图像A和视频序列图像B的联合熵,H(A,A)表示视频序列图像A与视频序列图像A的联合熵,I(A,B)表示视频序列图像A与视频序列图像B的互信息熵,I(A,A)表示视频序列图像A与视频序列图像A的互信息熵,a、b分别为A、B的特定值,PAB(a,b)为a、b一起出现的联合概率,PAA(a,a)为a、a一起出现的联合概率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910261788.4A CN109977895B (zh) | 2019-04-02 | 2019-04-02 | 一种基于多特征图融合的野生动物视频目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910261788.4A CN109977895B (zh) | 2019-04-02 | 2019-04-02 | 一种基于多特征图融合的野生动物视频目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109977895A CN109977895A (zh) | 2019-07-05 |
CN109977895B true CN109977895B (zh) | 2020-10-16 |
Family
ID=67082422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910261788.4A Expired - Fee Related CN109977895B (zh) | 2019-04-02 | 2019-04-02 | 一种基于多特征图融合的野生动物视频目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109977895B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797664B (zh) * | 2019-08-19 | 2024-04-19 | 北京沃东天骏信息技术有限公司 | 视频中的目标检测方法、装置和计算机可读存储介质 |
CN110532989B (zh) * | 2019-09-04 | 2022-10-14 | 哈尔滨工业大学 | 一种海上目标自动探测方法 |
CN111025969B (zh) * | 2019-12-05 | 2021-04-27 | 浙江大学 | 一种基于信息融合的野生动物监测系统及方法 |
CN112069972A (zh) * | 2020-09-01 | 2020-12-11 | 安徽天立泰科技股份有限公司 | 一种基于人工智能的雪豹识别算法及识别监测平台 |
CN112101682B (zh) * | 2020-09-25 | 2024-04-09 | 北京百度网讯科技有限公司 | 流量模式预测方法、装置、服务器以及可读介质 |
CN112766151B (zh) * | 2021-01-19 | 2022-07-12 | 北京深睿博联科技有限责任公司 | 一种用于导盲眼镜的双目目标检测方法和系统 |
CN114972935A (zh) * | 2021-02-27 | 2022-08-30 | 上海华为技术有限公司 | 一种信息处理方法及相关设备 |
CN114666656A (zh) * | 2022-03-15 | 2022-06-24 | 北京沃东天骏信息技术有限公司 | 视频剪辑方法、装置、电子设备及计算机可读介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107507221A (zh) * | 2017-07-28 | 2017-12-22 | 天津大学 | 结合帧差法和混合高斯模型的运动目标检测与跟踪方法 |
CN109410247A (zh) * | 2018-10-16 | 2019-03-01 | 中国石油大学(华东) | 一种多模板和自适应特征选择的视频跟踪算法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101873440B (zh) * | 2010-05-14 | 2011-10-19 | 西安电子科技大学 | 基于Surfacelet变换的红外与可见光视频图像融合方法 |
CN109145713B (zh) * | 2018-07-02 | 2021-09-28 | 南京师范大学 | 一种结合目标检测的小目标语义分割方法 |
-
2019
- 2019-04-02 CN CN201910261788.4A patent/CN109977895B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107507221A (zh) * | 2017-07-28 | 2017-12-22 | 天津大学 | 结合帧差法和混合高斯模型的运动目标检测与跟踪方法 |
CN109410247A (zh) * | 2018-10-16 | 2019-03-01 | 中国石油大学(华东) | 一种多模板和自适应特征选择的视频跟踪算法 |
Also Published As
Publication number | Publication date |
---|---|
CN109977895A (zh) | 2019-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109977895B (zh) | 一种基于多特征图融合的野生动物视频目标检测方法 | |
CN108470332B (zh) | 一种多目标跟踪方法及装置 | |
US20210248378A1 (en) | Spatiotemporal action detection method | |
CN110633745B (zh) | 一种基于人工智能的图像分类训练方法、装置及存储介质 | |
JP2019521443A (ja) | 適応型追加学習を用いた細胞のアノテーション法及びアノテーションシステム | |
Li et al. | Adaptive deep convolutional neural networks for scene-specific object detection | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
CN110120064B (zh) | 一种基于互强化与多注意机制学习的深度相关目标跟踪算法 | |
Lestari et al. | Fire hotspots detection system on CCTV videos using you only look once (YOLO) method and tiny YOLO model for high buildings evacuation | |
CN110188654B (zh) | 一种基于移动未裁剪网络的视频行为识别方法 | |
CN110751027B (zh) | 一种基于深度多示例学习的行人重识别方法 | |
CN110263731B (zh) | 一种单步人脸检测系统 | |
CN113129335B (zh) | 一种基于孪生网络的视觉跟踪算法及多模板更新策略 | |
JP6892606B2 (ja) | 位置特定装置、位置特定方法及びコンピュータプログラム | |
CN111738319B (zh) | 一种基于大规模样本的聚类结果评价方法及装置 | |
CN115690545B (zh) | 训练目标跟踪模型和目标跟踪的方法和装置 | |
CN111723852A (zh) | 针对目标检测网络的鲁棒训练方法 | |
CN115063664A (zh) | 用于工业视觉检测的模型学习方法、训练方法及系统 | |
CN117495891B (zh) | 点云边缘检测方法、装置和电子设备 | |
CN110969645A (zh) | 面向拥挤场景的无监督异常轨迹检测方法和装置 | |
CN113343123A (zh) | 一种生成对抗多关系图网络的训练方法和检测方法 | |
CN111488400B (zh) | 数据分类方法、装置和计算机可读存储介质 | |
CN109600627B (zh) | 一种视频识别方法和装置 | |
CN109657577B (zh) | 一种基于熵和运动偏移量的动物检测方法 | |
CN109615007B (zh) | 基于粒子滤波的深度学习网络目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20201016 Termination date: 20210402 |