CN112016440A - 一种基于多目标跟踪的目标推送方法 - Google Patents
一种基于多目标跟踪的目标推送方法 Download PDFInfo
- Publication number
- CN112016440A CN112016440A CN202010871795.9A CN202010871795A CN112016440A CN 112016440 A CN112016440 A CN 112016440A CN 202010871795 A CN202010871795 A CN 202010871795A CN 112016440 A CN112016440 A CN 112016440A
- Authority
- CN
- China
- Prior art keywords
- frame
- target
- detection
- cache
- optimal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000001514 detection method Methods 0.000 claims abstract description 78
- 239000000872 buffer Substances 0.000 claims abstract description 66
- 238000012545 processing Methods 0.000 abstract description 3
- 238000010191 image analysis Methods 0.000 abstract 1
- 238000010276 construction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多目标跟踪的目标推送方法,涉及视频、图像分析处理邻域,包括包括以下步骤:S1,确定检测帧,使用目标检测算法模型对检测帧进行目标检测,识别目标信息;S2,采用多目标跟踪算法,对于每个目标分配一个轨迹Path(i);S3,针对每个Path确定N帧缓冲区,对缓冲区中的每个缓存检测帧对象进行识别、定义,识别出最优帧,N帧缓冲区顺次更新,新的检测帧进栈,旧的N帧缓冲区的第一个缓存检测帧出栈,并决定出栈的缓存检测帧是否推送。本发明基于多目标跟踪算法,对多目标跟踪算法分析出的轨迹目标,优选地对轨迹目标进行推送,从而达到简化、优化推送结果的目的,同时,也可以提高目标图像检索精度与速度。
Description
技术领域
本发明涉及视频、图像分析处理邻域,尤其涉及一种基于多目标跟踪的目标推送方法。
背景技术
随着近几年深度学习算法的普及和发展,数字化城市和智慧城市正在加快建设中,城市道路与公共监控部署更加普遍,一切不法行为都变得有迹可寻的同时,我们的城市变得更加安全。然而,城市建设数字化过程中,海量大数据暴涨成为困扰智慧城市建设的棘手的问题,海量图像、视频难以存储,部分厂商为了方便快捷、减少工作量,往往采用直接保存视频方式对监控图像与视频进行存储,然而,这种方式既浪费存储空间,又缩减了可保存数据的时长,不利于长周期回朔检索。因此,需要一种方法解决数据储存问题。
发明内容
本发明的目的在于提供一种基于多目标跟踪的目标推送方法。
为实现上述目的,本发明提供如下技术方案:
一种基于多目标跟踪的目标推送方法,包括以下步骤:
S1,确定检测帧,使用目标检测算法模型对检测帧进行目标检测,识别目标信息;
S2,采用多目标跟踪算法,对于每个目标分配一个轨迹Path(i);
S3,针对每个Path确定N帧缓冲区,对缓冲区中的每个缓存检测帧对象进行识别、定义,识别出最优帧,N帧缓冲区顺次更新,新的检测帧进栈,旧的N帧缓冲区的第一个缓存检测帧出栈,并决定出栈的缓存检测帧是否推送。
进一步的,所述步骤S1中检测帧的确定方法:采用跳3~5帧的跳帧方式对实时视频流或视频文件提取出检测帧,检测帧定义为…FT-1,FT,T为当前时刻。
进一步的,所述步骤S1中的目标信息包括:通过目标检测算法模型输出所述目标属于检测类别的置信度得分C(0-1)、所述目标在图像中位置信息(x,y,w,h),其中x为所述目标左上角相距图像左上角水平线的距离,y为所述目标左上角相距图像左上角垂直线的距离,其中w,h分别是目标的宽与高的长度,单位为pixel。
进一步的,所述步骤S2包括对步骤S1的目标进行分析与相似度对比。
进一步的,所述轨迹Path(i)为目标在某段时间区间内,从在视频里出现到消失的轨迹,每个轨迹包括多个检测帧,当某个Path(i)的目标在视频中消失后,多目标跟踪算法不再维护该轨迹信息。
进一步的,所述步骤S3中对于每个缓存检测帧对象定义包括:目标标志位Valid_Flag和最优标志位Best_Flag;Valid_Flag用以标识对于某一轨迹Path(i),当前缓存检测帧是否检测到目标,如果检测到目标,则该标志位置为true,同时目标图像缓存进目标图像字段,否则为false;Best_Flag用于标识当前帧是否为缓冲区内最优帧,如果为最优帧,则该标志位置为true。
进一步的,所述步骤S3识别出最优帧的步骤为:
P1,通过数据库统计得到超参数RT,Rmax和Scoremin,RT为目标最优高宽比率,Rmax为高宽比最大的一个可接受阀值,Scoremin为高宽比大于可接受阀值后恒定最低分数;
P2,每个缓存帧使用以下公式计算出高宽比得分,高宽比得分加上步骤S1中的置信度得分,数值最大的确定为所述轨迹Path的N帧缓冲区内最优缓存帧:
其中,a1,a2,b2分别为比率系数和偏置项系数,S为高宽比方面得分,r为输入项,r=h/w;
P3,进栈的新的检测帧首先确定Valid_Flag为false或ture,为false时不作为;为ture时,需要与步骤P2中的最优缓存帧进行比较,比较方法为:当最优缓存帧不存大时,则对当前缓冲区内,包括新进栈的检测帧,所有Valid_Flag为true的缓存帧进行得分比较,确定新的最优缓存帧,并设置该缓存帧Best_Flag为true。
进一步的,所述步骤S3中决定出栈的缓存检测帧是否推送的方法为包括:W1,定义超参数最短推送周期Tmin,即距离上次推送至少又经过了多少个更新周期方可推送,最大迭代次数Imax,即当旧的N帧缓冲区的第一个缓存检测帧不是最优缓存帧时,最多可进行多少次更新周期迭代则要强制推送,初始化迭代次数I=0;
W2,当新的检测帧还未入栈时,N帧缓冲区的第一个缓存检测帧为最优缓存帧时,距离上次推送更新次数大于最短推送周期Tmin时,则该帧进行推送,设置迭代次数I=0;
W3,当仅有N帧缓冲区的第一个缓存检测帧为有效帧时,距离上次推送更新次数大于最短推送周期Tmin时,则该帧进行推送,设置迭代次数I=0;
W4,当W2、W3条件均不满足,迭代次数I大于等于Imax时,如果存在最优缓存帧,且距离上次推送更新次数大于最短推送周期Tmin时,则对N帧缓冲区的第一个缓存检测帧进行推送,设置迭代次数I=0,如果不存在最优缓存帧,则以有效帧作为推送目标;
W5,当W2、W3、W4条件均不满足,则N帧缓冲区的第一个缓存检测帧出栈,继续更新迭代寻找最优推送帧,迭代次数I加1。
与现有技术相比,本发明可根据关注目标数据需求,对目标数据有效性进行优选,仅保存优选后的有效数据,基于多目标跟踪算法,对多目标跟踪算法分析出的轨迹目标,优选地对轨迹目标进行推送,从而达到简化、优化推送结果的目的,同时,也可以提高目标图像检索精度与速度。
附图说明
图1为本发明的方法步骤图。
图2为本发明实施例1的4帧缓冲区示意图。
图3为本发明实施例1的高宽比函数趋势曲线图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1,本发明提供一种基于多目标跟踪的目标推送方法,请参阅图1,包括以下步骤:
S1,确定检测帧,使用目标检测算法模型对检测帧进行目标检测,识别目标信息;对实时视频流或视频文件提取出视频帧图像,通常采用跳帧方式对视频帧时行处理,因为连续相邻两帧视频内容往往变化不大,一般可采用跳3~5帧图像进行图像处理,跳帧后待处理的视频图像帧定义为检测帧。假设当前时刻为T,当时帧可定义为第T帧FT,则当前检测帧之前一个检测帧可定义为第T-1帧FT-1,以此类推。识别的目标信息包括:通过目标检测算法模型输出目标属于检测类别的置信度得分C(0-1)、目标在图像中位置信息(x,y,w,h),其中x为目标左上角相距图像左上角水平线的距离,y为目标左上角相距图像左上角垂直线的距离,其中w,h分别是目标的宽与高的长度,单位为pixel。本实施例将目标定义为人(不限于人),以下步骤均以行人为例。
S2,采用多目标跟踪算法,对于每个目标分配一个轨迹Path(i);对检测目标进行分析与相似度对比,对于每个目标分配一个轨迹,即每个人在某段时间区间内,从在视频里出现到消失会分配为一个轨迹Path,也就是说,每个轨迹会在时间维度上出现在多个检测帧,这里第i个轨迹可以用Path(i)来表示。当某个Path的目标在视频中消失后,多目标跟踪算法不再维护该轨迹信息,即多目标跟踪算法只维护保留当前活跃轨迹信息。
S3,针对每个Path确定N帧缓冲区,这里以N等于4为例,对于某一Path(i)来讲,分别在Path(i)的T-3,T-2,T-1和T检测帧上定义缓冲区,即FT-3,FT-2,FT-1,FT帧上定义一个缓冲存储空间,对缓冲区中的每个缓存检测帧对象进行识别、定义,识别出最优帧,N帧缓冲区顺次更新,新的检测帧进栈,旧的N帧缓冲区的第一个缓存检测帧出栈,通过处理新的检测帧,更新目标标志位Valid_Flag,最优标志位Best_Flag及多帧缓冲区状态,更新各标志位状态,并决定第一个缓存帧目标图像(即缓存帧FT-3)是否推送,并决定出栈的缓存检测帧是否推送。
如图2所示,对于每个缓存检测帧对象定义包括:目标标志位Valid_Flag和最优标志位Best_Flag;Valid_Flag用以标识对于某一轨迹Path(i),当前缓存检测帧是否检测到目标,如果检测到目标,则该标志位置为true,同时目标图像缓存进目标图像字段,否则为false;Best_Flag用于标识当前帧是否为缓冲区内最优帧,如果为最优帧,则该标志位置为true,同时定义图像字段IMG用以保存该帧检测到的目标图片。
识别出最优帧的步骤为:
P1,通过数据库统计得到超参数RT,Rmax和Scoremin,RT为目标最优高宽比率,Rmax为高宽比最大的一个可接受阀值,Scoremin为高宽比大于可接受阀值后恒定最低分数;以行人为例,上述超参数可选如下区间:RT∈[1.6,2.2],Rmax∈[7.0,12.0],Scoremin∈[0.05,0.2],以超参数RT=2,Rmax=9和Scoremin=0.1为例;
P2,每个缓存帧使用以下公式计算出高宽比得分,高宽比得分加上步骤S1中的置信度得分,数值最大的确定为轨迹Path的N帧缓冲区内最优缓存帧:
其中,a1,a2,b2分别为比率系数和偏置项系数,S为高宽比方面得分,r为输入项,r=h/w;
如图3所示,得到曲线图,当r接近高宽比最优比率时得分最高等于1,当高宽比率大于Rmax时,高宽比得分恒等于Scoremin。
P3,进栈的新的检测帧首先确定Valid_Flag为false或ture,为false时不作为;为ture时,需要与步骤P2中的最优缓存帧进行比较,比较方法为:当最优缓存帧不存大时,则对当前缓冲区内,包括新进栈的检测帧,所有Valid_Flag为true的缓存帧进行得分比较,确定新的最优缓存帧,并设置该缓存帧Best_Flag为true。
决定出栈的缓存检测帧是否推送的方法为包括:
W1,定义超参数最短推送周期Tmin,即距离上次推送至少又经过了多少个更新周期方可推送,最大迭代次数Imax,即当旧的N帧缓冲区的第一个缓存检测帧不是最优缓存帧时,最多可进行多少次更新周期迭代则要强制推送,初始化迭代次数I=0;
W2,当新的检测帧还未入栈时,N帧缓冲区的第一个缓存检测帧为最优缓存帧时,距离上次推送更新次数大于最短推送周期Tmin时,则该帧进行推送,设置迭代次数I=0;
W3,当仅有N帧缓冲区的第一个缓存检测帧为有效帧时,距离上次推送更新次数大于最短推送周期Tmin时,则该帧进行推送,设置迭代次数I=0;
W4,当W2、W3条件均不满足,迭代次数I大于等于Imax时,如果存在最优缓存帧,且距离上次推送更新次数大于最短推送周期Tmin时,则对N帧缓冲区的第一个缓存检测帧进行推送,设置迭代次数I=0,如果不存在最优缓存帧,则以有效帧作为推送目标;
W5,当W2、W3、W4条件均不满足,则N帧缓冲区的第一个缓存检测帧出栈,继续更新迭代寻找最优推送帧,迭代次数I加1。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (8)
1.一种基于多目标跟踪的目标推送方法,其特征在于,包括以下步骤:
S1,确定检测帧,使用目标检测算法模型对检测帧进行目标检测,识别目标信息;
S2,采用多目标跟踪算法,对于每个目标分配一个轨迹Path(i);
S3,针对每个Path确定N帧缓冲区,对缓冲区中的每个缓存检测帧对象进行识别、定义,识别出最优帧,N帧缓冲区顺次更新,新的检测帧进栈,旧的N帧缓冲区的第一个缓存检测帧出栈,并决定出栈的缓存检测帧是否推送。
2.根据权利要求1所述的一种基于多目标跟踪的目标推送方法,其特征在于,所述步骤S1中检测帧的确定方法:采用跳3~5帧的跳帧方式对实时视频流或视频文件提取出检测帧,检测帧定义为…FT-1,FT,T为当前时刻。
3.根据权利要求1所述的一种基于多目标跟踪的目标推送方法,其特征在于,所述步骤S1中的目标信息包括:通过目标检测算法模型输出所述目标属于检测类别的置信度得分C(0-1)、所述目标在图像中位置信息(x,y,w,h),其中x为所述目标左上角相距图像左上角水平线的距离,y为所述目标左上角相距图像左上角垂直线的距离,其中w,h分别是目标的宽与高的长度,单位为pixel。
4.根据权利要求1所述的一种基于多目标跟踪的目标推送方法,其特征在于,所述步骤S2包括对步骤S1的目标进行分析与相似度对比。
5.根据权利要求1所述的一种基于多目标跟踪的目标推送方法,其特征在于,所述轨迹Path(i)为目标在某段时间区间内,从在视频里出现到消失的轨迹,每个轨迹包括多个检测帧,当某个Path(i)的目标在视频中消失后,多目标跟踪算法不再维护该轨迹信息。
6.根据权利要求1所述的一种基于多目标跟踪的目标推送方法,其特征在于,所述步骤S3中对于每个缓存检测帧对象定义包括:目标标志位Valid_Flag和最优标志位Best_Flag;Valid_Flag用以标识对于某一轨迹Path(i),当前缓存检测帧是否检测到目标,如果检测到目标,则该标志位置为true,同时目标图像缓存进目标图像字段,否则为false;Best_Flag用于标识当前帧是否为缓冲区内最优帧,如果为最优帧,则该标志位置为true。
7.根据权利要求6所述的一种基于多目标跟踪的目标推送方法,其特征在于,所述步骤S3识别出最优帧的步骤为:
P1,通过数据库统计得到超参数RT,Rmax和Scoremin,RT为目标最优高宽比率,Rmax为高宽比最大的一个可接受阀值,Scoremin为高宽比大于可接受阀值后恒定最低分数;
P2,每个缓存帧使用以下公式计算出高宽比得分,高宽比得分加上步骤S1中的置信度得分,数值最大的确定为所述轨迹Path的N帧缓冲区内最优缓存帧:
其中,a1,a2,b2分别为比率系数和偏置项系数,S为高宽比方面得分,r为输入项,r=h/w;
P3,进栈的新的检测帧首先确定Valid_Flag为false或ture,为false时不作为;为ture时,需要与步骤P2中的最优缓存帧进行比较,比较方法为:当最优缓存帧不存大时,则对当前缓冲区内,包括新进栈的检测帧,所有Valid_Flag为true的缓存帧进行得分比较,确定新的最优缓存帧,并设置该缓存帧Best_Flag为true。
8.根据权利要求1所述的一种基于多目标跟踪的目标推送方法,其特征在于,所述步骤S3中决定出栈的缓存检测帧是否推送的方法为包括:
W1,定义超参数最短推送周期Tmin,即距离上次推送至少又经过了多少个更新周期方可推送,最大迭代次数Imax,即当旧的N帧缓冲区的第一个缓存检测帧不是最优缓存帧时,最多可进行多少次更新周期迭代则要强制推送,初始化迭代次数I=0;
W2,当新的检测帧还未入栈时,N帧缓冲区的第一个缓存检测帧为最优缓存帧时,距离上次推送更新次数大于最短推送周期Tmin时,则该帧进行推送,设置迭代次数I=0;
W3,当仅有N帧缓冲区的第一个缓存检测帧为有效帧时,距离上次推送更新次数大于最短推送周期Tmin时,则该帧进行推送,设置迭代次数I=0;
W4,当W2、W3条件均不满足,迭代次数I大于等于Imax时,如果存在最优缓存帧,且距离上次推送更新次数大于最短推送周期Tmin时,则对N帧缓冲区的第一个缓存检测帧进行推送,设置迭代次数I=0,如果不存在最优缓存帧,则以有效帧作为推送目标;
W5,当W2、W3、W4条件均不满足,则N帧缓冲区的第一个缓存检测帧出栈,继续更新迭代寻找最优推送帧,迭代次数I加1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010871795.9A CN112016440B (zh) | 2020-08-26 | 2020-08-26 | 一种基于多目标跟踪的目标推送方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010871795.9A CN112016440B (zh) | 2020-08-26 | 2020-08-26 | 一种基于多目标跟踪的目标推送方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112016440A true CN112016440A (zh) | 2020-12-01 |
CN112016440B CN112016440B (zh) | 2024-02-20 |
Family
ID=73503217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010871795.9A Active CN112016440B (zh) | 2020-08-26 | 2020-08-26 | 一种基于多目标跟踪的目标推送方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112016440B (zh) |
Citations (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002041559A2 (en) * | 2000-11-13 | 2002-05-23 | Visual Key, Inc. | Digital media recognition apparatus and methods |
WO2003009579A2 (en) * | 2001-07-17 | 2003-01-30 | Amnis Corporation | Computational methods for the segmentation of images of objects from background in a flow imaging instrument |
CN1795468A (zh) * | 2003-06-26 | 2006-06-28 | 佳能株式会社 | 在基于扫描线的光栅图像处理器中跟踪深度的方法 |
KR100818289B1 (ko) * | 2007-02-02 | 2008-03-31 | 삼성전자주식회사 | 비디오 영상 트레킹 방법 및 장치 |
CN102081918A (zh) * | 2010-09-28 | 2011-06-01 | 北京大学深圳研究生院 | 一种视频图像显示控制方法及视频图像显示器 |
WO2011090541A2 (en) * | 2009-12-29 | 2011-07-28 | Tv Interactive Systems, Inc. | Methods for displaying contextually targeted content on a connected television |
JP2012093286A (ja) * | 2010-10-28 | 2012-05-17 | Mitsubishi Electric Corp | 目標検出装置および目標検出方法 |
US20120169842A1 (en) * | 2010-12-16 | 2012-07-05 | Chuang Daniel B | Imaging systems and methods for immersive surveillance |
CN102741858A (zh) * | 2009-10-28 | 2012-10-17 | 数字标记公司 | 基于传感器的移动搜索、相关方法和系统 |
CN104463250A (zh) * | 2014-12-12 | 2015-03-25 | 广东工业大学 | 一种基于达芬奇技术的手语识别翻译方法 |
WO2016044778A1 (en) * | 2014-09-19 | 2016-03-24 | Hamish Forsythe | Method and system for an automatic sensing, analysis, composition and direction of a 3d space, scene, object, and equipment |
WO2017016516A1 (zh) * | 2015-07-24 | 2017-02-02 | 上海依图网络科技有限公司 | 一种复杂场景下基于人脸识别的视频人像跟踪方法 |
CN107408293A (zh) * | 2015-04-14 | 2017-11-28 | 英特尔公司 | 支持计算装置处的图形命令流中对命令缓冲器的多级嵌套 |
CN107430679A (zh) * | 2015-01-29 | 2017-12-01 | 尤尼伐控股有限公司 | 计算机视觉系统 |
WO2018095082A1 (zh) * | 2016-11-28 | 2018-05-31 | 江苏东大金智信息系统有限公司 | 一种视频监测中运动目标的快速检测方法 |
CN109636829A (zh) * | 2018-11-24 | 2019-04-16 | 华中科技大学 | 一种基于语义信息和场景信息的多目标跟踪方法 |
WO2019117970A1 (en) * | 2017-12-15 | 2019-06-20 | Google Llc | Adaptive object tracking policy |
CN110087099A (zh) * | 2019-03-11 | 2019-08-02 | 北京大学 | 一种保护隐私的监控方法和系统 |
CN110349184A (zh) * | 2019-06-06 | 2019-10-18 | 南京工程学院 | 基于迭代滤波和观测判别的多行人跟踪方法 |
CN110506276A (zh) * | 2017-05-19 | 2019-11-26 | 谷歌有限责任公司 | 使用环境传感器数据的高效的图像分析 |
WO2019237516A1 (zh) * | 2018-06-11 | 2019-12-19 | 平安科技(深圳)有限公司 | 目标跟踪方法、装置、计算机设备及存储介质 |
US20200082549A1 (en) * | 2018-09-07 | 2020-03-12 | Apple Inc. | Efficient object detection and tracking |
US20200082156A1 (en) * | 2018-09-07 | 2020-03-12 | Apple Inc. | Efficient face detection and tracking |
WO2020050886A1 (en) * | 2018-09-05 | 2020-03-12 | Futurewei Technologies, Inc. | Compiler-level general matrix multiplication configuration optimization |
EP3654285A1 (en) * | 2018-11-19 | 2020-05-20 | Accenture Global Solutions Limited | Object tracking using object attributes |
CN111310744A (zh) * | 2020-05-11 | 2020-06-19 | 腾讯科技(深圳)有限公司 | 图像识别方法、视频播放方法、相关设备及介质 |
WO2020155873A1 (zh) * | 2019-02-02 | 2020-08-06 | 福州大学 | 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法 |
-
2020
- 2020-08-26 CN CN202010871795.9A patent/CN112016440B/zh active Active
Patent Citations (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002041559A2 (en) * | 2000-11-13 | 2002-05-23 | Visual Key, Inc. | Digital media recognition apparatus and methods |
WO2003009579A2 (en) * | 2001-07-17 | 2003-01-30 | Amnis Corporation | Computational methods for the segmentation of images of objects from background in a flow imaging instrument |
CN1795468A (zh) * | 2003-06-26 | 2006-06-28 | 佳能株式会社 | 在基于扫描线的光栅图像处理器中跟踪深度的方法 |
KR100818289B1 (ko) * | 2007-02-02 | 2008-03-31 | 삼성전자주식회사 | 비디오 영상 트레킹 방법 및 장치 |
CN102741858A (zh) * | 2009-10-28 | 2012-10-17 | 数字标记公司 | 基于传感器的移动搜索、相关方法和系统 |
WO2011090541A2 (en) * | 2009-12-29 | 2011-07-28 | Tv Interactive Systems, Inc. | Methods for displaying contextually targeted content on a connected television |
CN102081918A (zh) * | 2010-09-28 | 2011-06-01 | 北京大学深圳研究生院 | 一种视频图像显示控制方法及视频图像显示器 |
JP2012093286A (ja) * | 2010-10-28 | 2012-05-17 | Mitsubishi Electric Corp | 目標検出装置および目標検出方法 |
US20120169842A1 (en) * | 2010-12-16 | 2012-07-05 | Chuang Daniel B | Imaging systems and methods for immersive surveillance |
WO2016044778A1 (en) * | 2014-09-19 | 2016-03-24 | Hamish Forsythe | Method and system for an automatic sensing, analysis, composition and direction of a 3d space, scene, object, and equipment |
CN104463250A (zh) * | 2014-12-12 | 2015-03-25 | 广东工业大学 | 一种基于达芬奇技术的手语识别翻译方法 |
CN107430679A (zh) * | 2015-01-29 | 2017-12-01 | 尤尼伐控股有限公司 | 计算机视觉系统 |
CN107408293A (zh) * | 2015-04-14 | 2017-11-28 | 英特尔公司 | 支持计算装置处的图形命令流中对命令缓冲器的多级嵌套 |
WO2017016516A1 (zh) * | 2015-07-24 | 2017-02-02 | 上海依图网络科技有限公司 | 一种复杂场景下基于人脸识别的视频人像跟踪方法 |
WO2018095082A1 (zh) * | 2016-11-28 | 2018-05-31 | 江苏东大金智信息系统有限公司 | 一种视频监测中运动目标的快速检测方法 |
CN110506276A (zh) * | 2017-05-19 | 2019-11-26 | 谷歌有限责任公司 | 使用环境传感器数据的高效的图像分析 |
WO2019117970A1 (en) * | 2017-12-15 | 2019-06-20 | Google Llc | Adaptive object tracking policy |
WO2019237516A1 (zh) * | 2018-06-11 | 2019-12-19 | 平安科技(深圳)有限公司 | 目标跟踪方法、装置、计算机设备及存储介质 |
WO2020050886A1 (en) * | 2018-09-05 | 2020-03-12 | Futurewei Technologies, Inc. | Compiler-level general matrix multiplication configuration optimization |
US20200082549A1 (en) * | 2018-09-07 | 2020-03-12 | Apple Inc. | Efficient object detection and tracking |
US20200082156A1 (en) * | 2018-09-07 | 2020-03-12 | Apple Inc. | Efficient face detection and tracking |
EP3654285A1 (en) * | 2018-11-19 | 2020-05-20 | Accenture Global Solutions Limited | Object tracking using object attributes |
CN109636829A (zh) * | 2018-11-24 | 2019-04-16 | 华中科技大学 | 一种基于语义信息和场景信息的多目标跟踪方法 |
WO2020155873A1 (zh) * | 2019-02-02 | 2020-08-06 | 福州大学 | 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法 |
CN110087099A (zh) * | 2019-03-11 | 2019-08-02 | 北京大学 | 一种保护隐私的监控方法和系统 |
CN110349184A (zh) * | 2019-06-06 | 2019-10-18 | 南京工程学院 | 基于迭代滤波和观测判别的多行人跟踪方法 |
CN111310744A (zh) * | 2020-05-11 | 2020-06-19 | 腾讯科技(深圳)有限公司 | 图像识别方法、视频播放方法、相关设备及介质 |
Non-Patent Citations (2)
Title |
---|
FEI, ZESONG等: "A survey of multi-objective optimization in wireless sensor networks: Metrics, algorithms, and open problems", 《IEEE COMMUNICATIONS SURVEYS & TUTORIALS》, vol. 19, no. 1, pages 550 - 586, XP011641665, DOI: 10.1109/COMST.2016.2610578 * |
刘云霄: "基于图像信息的道路车流量检测算法研究与实现", 《中国优秀硕士学位论文全文数据库 工程科技II即》, no. 2, pages 034 - 636 * |
Also Published As
Publication number | Publication date |
---|---|
CN112016440B (zh) | 2024-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9349066B2 (en) | Object tracking and processing | |
CN110443833B (zh) | 对象跟踪方法和设备 | |
US8548198B2 (en) | Identifying anomalous object types during classification | |
JP5501777B2 (ja) | 画像のシーケンスを処理する方法および装置、記憶媒体ならびに信号 | |
Haines et al. | Background subtraction with dirichlet processes | |
US20080303942A1 (en) | System and method for extracting text captions from video and generating video summaries | |
US8873801B2 (en) | Identification of objects in a video | |
Yu et al. | An efficient method for scene cut detection | |
US20050216274A1 (en) | Object tracking method and apparatus using stereo images | |
CN109784290B (zh) | 一种目标检测方法、装置、设备及可读存储介质 | |
US20090083790A1 (en) | Video scene segmentation and categorization | |
US20190362183A1 (en) | Method for processing a stream of video images | |
WO2013185518A1 (zh) | 一种电视直播流中的广告段检测方法 | |
CN113792606B (zh) | 基于多目标追踪的低成本自监督行人重识别模型构建方法 | |
US20120131010A1 (en) | Techniques to detect video copies | |
Panchal et al. | Scene detection and retrieval of video using motion vector and occurrence rate of shot boundaries | |
Alipour et al. | An adaptive background subtraction approach based on frame differences in video surveillance | |
CN114676756A (zh) | 图像识别方法、装置及计算机存储介质 | |
CN110728700A (zh) | 一种运动目标追踪方法、装置、计算机设备及存储介质 | |
CN111833377B (zh) | 一种基于tbd复杂环境下运动小目标检测方法 | |
CN112016440A (zh) | 一种基于多目标跟踪的目标推送方法 | |
Boufares et al. | Moving object detection system based on the modified temporal difference and otsu algorithm | |
US20110222789A1 (en) | Character string sensing device, character evaluating device, image processing device, character string sensing method, character evaluation method, control program, and recording medium | |
CN111709762A (zh) | 信息匹配度的评估方法、装置、设备及存储介质 | |
CN114897944B (zh) | 一种基于DeepSORT的多目标连续跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |