CN104751485A - 一种基于gpu自适应的前景提取方法 - Google Patents
一种基于gpu自适应的前景提取方法 Download PDFInfo
- Publication number
- CN104751485A CN104751485A CN201510128601.5A CN201510128601A CN104751485A CN 104751485 A CN104751485 A CN 104751485A CN 201510128601 A CN201510128601 A CN 201510128601A CN 104751485 A CN104751485 A CN 104751485A
- Authority
- CN
- China
- Prior art keywords
- pixel
- field picture
- row
- gaussian function
- thread
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于GPU自适应的前景提取方法,是应用于含有GPU图像处理器的计算机中,其特征包括:将图像数据从内存传递到GPU显存中,对每个像素点对应GPU中一个线程分别进行混合高斯背景建模,其中每个像素点的高斯数目可以动态调整,最后将每个像素点中每个高斯权重最大的进行二值化处理,处理结果作为最终结果通过全局内存传递到内存中。本发明能大大提高前景提取效率,并能够实时、精确的提取运动目标,从而能够更好的适应实际环境。
Description
技术领域
本发明涉及属于视频监控领域,具体地说是一种基于GPU自适应的前景提取方法。
背景技术
视频监控系统广泛用于人们的日常生活当中,比如对医院、银行、车站等大型公共场所的监控,以及社区、超市商场等等的安全保卫。随着人们生活水平日益提高,人们对城市的安防工作要求越来越高,这就对监控系统的智能化程度提出要求。
视频流中前景的提取是运动目标精确提取的前提和保证。而快速、准确、完整地分割出背景成为运动目标精确提取研究中的难点。当前,帧间差分法、光流法和背景提取法是主要的运动目标检测方法。其中帧间差分法适应性差,光流法计算量大,无法达到实时处理。在背景建模各方法中,混合高斯建模方法是公认的检测效果和适应性都较好的方法,但有一定的局限性:每个像素点的高斯数目是固定的,固定的高斯数目无法更好的适应实际环境。此外需要对每个像素点建立3到5个高斯模型,每次背景模型更新都需要遍历到每个像素的所有高斯模型并进行相应的计算,因此计算量巨大,仅靠串行处理难以实时实现,无法在实际中使用。随着技术的发展,在实际使用环境中,高清监控设备以及多路监控设备的应用越来越多,这些设备会在短时间内产生海量的视频图像数据,面对海量数据仅仅使用以前的CPU进行串行处理,已经完全达不到实时要求。此外很多算法已经无法再继续进行优化而对硬件速度的提高也很难完成。
发明内容
本发明是为了克服现有技术存在的不足之处,提供一种基于GPU自适应的前景提取方法,以期能大大提高背景建模效率,并能够实时、精确的提取运动目标,从而能够更好的适应实际环境。
本发明为解决技术问题采用如下技术方案:
本发明一种基于GPU自适应的前景提取方法,是应用于含有GPU图像处理器的计算机中,其特点是按如下步骤进行:
步骤1、将分辨率为W×H的待处理视频的第t帧图像读取到所述计算机的内存中;1≤t≤T;T表示所述待处理视频的总帧数;
步骤2、所述GPU图像处理器从所述计算机的内存中复制所述第t帧图像的像素值并保存到所述GPU图像处理器的显存中;
步骤3、在所述GPU图像处理器中创建W×H个线程,使得所述W×H个线程依次对应于所述待处理视频的W×H个像素点;
步骤4、令所述第t帧图像的第i行第j列的像素点对应于所述W×H个线程中的第i×W+j个线程;在所述第i×W+j个线程中建立N个高斯函数,从而构成所述第i行第j列的像素点的高斯模型;1≤i≤H;1≤j≤W;
步骤5、将所述第i行第j列的像素点的高斯模型的参数保存在所述GPU图像处理器的全局存储器中;所述第i行第j列的像素点的高斯模型的参数包括N个高斯函数的参数;第k个高斯函数的参数为:标准差均值和权重1≤k≤N;
步骤6、重复执行步骤4-步骤5,使得所述第t帧图像中的每个像素点都在所对应的线程中建立相应的高斯模型,从而获得W×H个不同的高斯模型的参数保存在所述GPU图像处理器的全局存储器中;
步骤7、判断t=T是否成立,若成立,则表示所述待处理视频已完成前景提取;否则,将t+1的值赋值给t;并执行步骤8;
步骤8、所述GPU图像处理器从所述计算机的内存中复制所述第t帧图像的像素值并保存到所述GPU图像处理器的显存中;
步骤9、根据所述第t帧图像的第i行第j列的像素值利用式(1)、式(2)和式(3)更新所述W×H个线程中的第i×W+j个线程中的高斯模型的参数:
式(4)中,α表示权重的更新速度,为常数;表示所述第t帧图像的第i行第j列像素点与第k个高斯函数的匹配结果,并有
式(7)中,表示匹配成功,表示匹配失败,ε表示概率阈值;表示所述第t帧图像的第i行第j列的像素点的第k个高斯函数的函数值;并有:
式(2)中,表示参数,并有:
式(9)中,η表示高斯函数,并有:
式(10)中,I表示单位矩阵;
步骤10、动态调整所述第t帧图像的第i行第j列的像素点的高斯函数的个数N;从而更新所述第i×W+j个线程所对应的第i行第j列的像素点的高斯模型;
步骤11、遍历所述第t帧图像的每个像素值并按照步骤9和步骤10分别进行更新和动态调整;从而获得更新后的第t帧图像的W×H个线程所分别对应的W×H个像素点的高斯模型;
步骤12、对所述更新后的第t帧图像的W×H个像素点中第i行第j列像素点所对应的高斯模型中,选出一个权重最大的高斯函数,并将所述权重最大的高斯函数所对应的均值与所设定的阈值进行比较;若均值大于所设定的阈值,则设置所述第i行第j列像素点为1;否则,设置所述第i行第j列像素点为0;从而获得第t帧图像中第i行第j列像素点的取值;
步骤13、重复步骤12直到获取所述第t帧图像中所有像素点的取值,从而获得所述第t帧图像的二值图像并存入所述GPU图像处理器的全局存储器中;
步骤14、将所述第t帧图像的二值图像从所述GPU图像处理器的全局存储器中复制到所述计算机的内存中,以所述第t帧图像的二值图像中取值为1的像素点构成所述前景,从而完成第t帧图像的前景提取;
步骤15、返回步骤7执行。
本发明所述的方法的特点也在于:
所述待处理视频的第t帧图像为RGB格式图像。
所述步骤10中第t帧图像的第i行第j列像素点的高斯函数个数N是按如下步骤进行动态调整:
步骤1、比较所述第t帧图像的第i行第j列像素点的N个高斯函数中任意两个高斯函数的权重,若任意两个高斯函数的权重差值小于所设定的差值阈值,则将所述任意两个高斯函数的参数分别求出均值,将所述均值赋值给所述任意两个高斯函数中任一高斯函数;并删除另一高斯函数,将N-1赋值给N;从而合并所述任意两个高斯函数;
步骤2、建立长度为N的一维数组并初始化每个元素值为0;表示T帧待处理视频中第i行第j列像素点Xi,j的第k个高斯函数连续匹配失败的次数;
步骤3、若所述第t帧图像的第i行第j列的像素点与第k个高斯函数匹配失败,即则将赋值给若所述第t帧图像的第i行第j列的像素点与第k个高斯函数匹配成功,即则将次数设置为0;
步骤4、判断所述次数大于等于所设定的累加阈值是否成立;在成立时将N+1赋值给N;
步骤5、判断t=T是否成立,若成立,则表示完成动态调整;否则将t+1的值赋值给t;并执行步骤2。
与已有技术相比,本发明有益效果体现在:
1、本发明在原有高斯混合背景建模的算法上进行改进使之能够有更强的适应性,无论场景复杂还是简单,光线变化情况如何,均能更精确的完成前景提取任务;本发明同时将所使用的改进的高斯混合背景建模串行算法进行并行化改进,提高智能视频监控中改进的混合高斯背景建模以及更新处理效率,同时降低处理时间,使得面对大量数据时依旧能够保证实时处理。
2、本发明通过在GPU中开辟与每帧图像中像素点个数相同的线程,使得每一个线程与每一个像素点一一对应;在每一个线程中对相对应像素点进行建立多个高斯模型以及模型参数更新等操作;实现并行操作,从而提高了处理每一帧图像的速率,降低了处理每一帧图像所需要的时间,克服了现有技术中利用CPU进行串行处理的速率慢无法达到实时的问题。
3、本发明中通过记录每一个像素点所有高斯函数连续匹配失败次数,并将记录累计的连续失败次数与累计阈值相比较,若大于累计阈值则表明当前视频中有较多运动前景,通过增加对应像素点的高斯函数数目;使之能够减少替换高斯函数频率,克服了现有技术中每个像素点的高斯函数数目固定的问题,降低复杂度且更好适应场景的变化。
4、本发明中通过对每一个像素点的所有高斯函数权重进行两两比较,若权重差小于差值阈值表明该局部区域趋于平静;此时大量像素点的值在连续多帧内保持恒定,这些点只需要维持权重最高的高斯函数即可,其余高斯函数对背景模型贡献不大且会占用一定计算资源,浪费大量模型处理时间;因此,可以将权重差小于差值阈值所对应的像素点的高斯函数数目减少,使得每个像素点所需要处理的高斯函数数目减少,克服了现有技术中每个像素点的高斯函数数目固定的问题,降低了处理模型所需要时间并更好的适应场景的变化。
附图说明
图1为现有技术GPU存储模型;
图2为本发明自适应混合高斯背景建模并行化示意图;
图3为本发明GPU中每个线程执行函数流程图;
图4(a)为本发明实施例中分辨率是720*480的一帧的视频图像;
图4(b)为本发明中图4(a)经过GPU处理后实验结果图;
图4(c)为本发明中图4(a)经过CPU处理后的实验结果图;
图4(d)为本发明中图4(b)和图4(c)的异或实验结果图;
图5(a)为本发明实施例中分辨率是1280*720的一帧的视频图像;
图5(b)为本发明中图5(a)经过GPU处理后实验结果图;
图5(c)为本发明中图5(a)经过CPU处理后实验结果图;
图5(d)为本发明中图5(b)和图5(c)的异或实验结果图;
图6为现有技术的CPU与本发明GPU建模耗时对比图;
具体实施方式
本实施例中,一种基于GPU自适应的前景提取方法,是应用于含有GPU图像处理器的计算机中,先将图像数据从内存传递到GPU显存中,对每个像素点对应GPU中一个线程分别进行混合高斯背景建模,其中每个像素点的高斯数目可以动态调整,最后将每个像素点中每个高斯权重最大的进行二值化处理,处理结果作为最终结果通过全局内存传递到内存中。具体地说,是按如下步骤进行:
步骤1、将分辨率为W×H的待处理视频的第t帧RGB格式图像读取到计算机的内存中;1≤t≤T;T表示待处理视频的总帧数;在本实施例中,待处理视频分辨率主要为1280*720;并利用opencv中CvCapture函数进行读取一帧RGB图像。
步骤2、GPU图像处理器从计算机的内存中复制第t帧图像的像素值并保存到GPU图像处理器的显存中;在本实施例中,使用CUDA运算平台,使用cudaMalloc()函数在在显存中开辟全局存储如图1所示的全局存储器中开辟存储;并使用cudaMemcpy()函数将内存中步骤1中获取的数据复制到显存中并存储与全局存储器中;
步骤3、在GPU图像处理器中创建W×H个线程,使得W×H个线程依次对应于待处理视频的W×H个像素点;具体实施中,在主函数中定义dim3block(32,20,1),dim3grid(40,36,1);并在主函数中利用kernel<<<grid,threads>>>()函数开辟1280*720个线程,线程同时执行kernel函数,使得整个计算过程在GPU中并行运算处理。
步骤4、令第t帧图像的第i行第j列的像素点对应于W×H个线程中的第i×W+j个线程;在第i×W+j个线程中建立N个高斯函数,从而构成第i行第j列的像素点的高斯模型;1≤i≤H;1≤j≤W;N取值在3~5之间;本实施例中,N初始值为5;
在GPU中计算col=threadIdx.x+blockIdx.x*blockDim.x,
row=threadIdx.y+blockIdx.y*blockDim.y;
则每个线程的线程号为col+row*width对应于图像中第i*W+j个像素点;使得线程与像素点一一对应起来。线程间实施过程如图2所示,每个线程对应处理相对应的像素点。线程间互不干扰。
步骤5、将第i行第j列的像素点的高斯模型的参数保存在GPU图像处理器的全局存储器中;第i行第j列的像素点的高斯模型的参数包括N个高斯函数的参数;第k个高斯函数的参数为:标准差均值和权重1≤k≤N;
步骤6、重复执行步骤4-步骤5,使得第t帧图像中的每个像素点都在所对应的线程中建立相应的高斯模型,从而获得W×H个不同的高斯模型的参数保存在GPU图像处理器的全局存储器中;
步骤7、判断t=T是否成立,若成立,则表示待处理视频已完成前景提取;否则,将t+1的值赋值给t;并执行步骤8;
步骤8、GPU图像处理器从计算机的内存中复制第t帧图像的像素值并保存到GPU图像处理器的显存中;具体实施中,在主函数中调用cudaMemcpy()函数将内存中步骤8中获取的数据复制到显存中并存储与全局存储器中;
步骤9、根据第t帧图像的第i行第j列的像素值利用式(1)、式(2)和式(3)更新W×H个线程中的第i×W+j个线程中的高斯模型的参数:
式(4)中,α表示权重的更新速度,为常数;表示第t帧图像的第i行第j列像素点与第k个高斯函数的匹配结果,并有
式(7)中,表示匹配成功,表示匹配失败,ε表示概率阈值;表示第t帧图像的第i行第j列的像素点的第k个高斯函数的函数值;并有:
式(2)中,表示参数,并有:
式(9)中,η表示高斯函数,并有:
式(10)中,I表示单位矩阵;
步骤10、动态调整第t帧图像的第i行第j列的像素点的高斯函数的个数N;从而更新第i×W+j个线程所对应的第i行第j列的像素点的高斯模型;
步骤10.1、比较第t帧图像的第i行第j列像素点的N个高斯函数中任意两个高斯函数的权重,若任意两个高斯函数的权重差值小于所设定的差值阈值,则将任意两个高斯函数的参数分别求出均值,将均值赋值给任意两个高斯函数中任一高斯函数;并删除另一高斯函数,将N-1赋值给N;从而合并任意两个高斯函数;
步骤10.2、建立长度为N的一维数组并初始化每个元素值为0;表示T帧待处理视频中第i行第j列像素点Xi,j的第k个高斯函数连续匹配失败的次数;
步骤10.3、若第t帧图像的第i行第j列的像素点与第k个高斯函数匹配失败,即
则将赋值给若第t帧图像的第i行第j列的像素点与第k个高斯函数匹配成功,即则将次数设置为0;
步骤10.4、判断次数大于等于所设定的累加阈值是否成立;在成立时将N+1赋值给N;
步骤10.5、判断t=T是否成立,若成立,则表示完成动态调整;否则将t+1的值赋值给t;并执行步骤10.2;
步骤11、遍历第t帧图像的每个像素值并按照步骤9和步骤10分别进行更新和动态调整;从而获得更新后的第t帧图像的W×H个线程所分别对应的W×H个像素点的高斯模型;
步骤12、对更新后的第t帧图像的W×H个像素点中第i行第j列像素点所对应的高斯模型中,选出一个权重最大的高斯函数,并将权重最大的高斯函数所对应的均值与所设定的阈值进行比较;若均值大于所设定的阈值,则设置第i行第j列像素点为1;否则,设置第i行第j列像素点为0;从而获得第t帧图像中第i行第j列像素点的取值;即将每个高斯权重从大到小重新排列,获得权重最大的高斯函数序号;然后将最大权重号对应的均值与均值阈值进行比较,如果大于均值,则该像素点值设置为1,否则该像素点值设置为0;
步骤13、重复步骤12直到获取第t帧图像中所有像素点的取值,从而获得第t帧图像的二值图像并存入GPU图像处理器的全局存储器中;
步骤14、将第t帧图像的二值图像从GPU图像处理器的全局存储器中复制到计算机的内存中,第t帧图像的二值图像中取值为1的像素点构成前景,从而完成第t帧图像的前景提取;具体实施中,在主函数中调用cudaMemcpy()函数把显存中数据复制到内存中。
步骤15、返回步骤7执行。
在具体实施过程中,线程中所进行的处理算法如图3所示;在具体实施过程中,分别使用了分辨率为720*480以及1280*720的视频作为示例进行处理,截取其中一帧如图4(a)和图5(a)所示;采用本发明提出的方法进行处理得到实验结果图为图4(b)和图5(b);使用opencv中混合高斯背景建模函数处理得到实验结果为图4(c)和图5(c);为了方便且更直观的看出两种方法的效果,分别对图4(b)和图4(c)、图5(b)和图5(c)进行异或处理得到图4(d)和图5(d),图4(d)和图5(d)中出现的白色点为对应的该点的像素值在分别进行GPU和CPU处理后得到的结果有差异。为对应的该点的像素值在分别进行GPU和CPU处理后得到的结果无差异,即表明两者效果几乎相同。从图4(d)和图5(d)效果图中可以看出本发明的实验效果与现有技术提出的实验效果基本无差别。但是,从图6可以看出在分别对分辨率为720*480以及1280*720的视频进行处理所需用的时间上,有着明显的差异。为了直观的看出差异,利用每一秒处理的帧数来进行对比,从图6总可以看出使用本发明的方法处理分辨率为720*480的视频平均每秒可处理212.5帧,而现有技术平均每秒只能处理3.21帧,使用本发明的方法处理分辨率为1280*720的视频平均每秒可以处理55.6帧,而现有技术平均每秒只能处理1.42帧。为了达到实时要求,每秒至少处理25帧。因此本发明的方法完全可以处理高清视频并且达到实时要求。
Claims (3)
1.一种基于GPU自适应的前景提取方法,是应用于含有GPU图像处理器的计算机中,其特征是按如下步骤进行:
步骤1、将分辨率为W×H的待处理视频的第t帧图像读取到所述计算机的内存中;1≤t≤T;T表示所述待处理视频的总帧数;
步骤2、所述GPU图像处理器从所述计算机的内存中复制所述第t帧图像的像素值并保存到所述GPU图像处理器的显存中;
步骤3、在所述GPU图像处理器中创建W×H个线程,使得所述W×H个线程依次对应于所述待处理视频的W×H个像素点;
步骤4、令所述第t帧图像的第i行第j列的像素点对应于所述W×H个线程中的第i×W+j个线程;在所述第i×W+j个线程中建立N个高斯函数,从而构成所述第i行第j列的像素点的高斯模型;1≤i≤H;1≤j≤W;
步骤5、将所述第i行第j列的像素点的高斯模型的参数保存在所述GPU图像处理器的全局存储器中;所述第i行第j列的像素点的高斯模型的参数包括N个高斯函数的参数;第k个高斯函数的参数为:标准差均值和权重1≤k≤N;
步骤6、重复执行步骤4-步骤5,使得所述第t帧图像中的每个像素点都在所对应的线程中建立相应的高斯模型,从而获得W×H个不同的高斯模型的参数保存在所述GPU图像处理器的全局存储器中;
步骤7、判断t=T是否成立,若成立,则表示所述待处理视频已完成前景提取;否则,将t+1的值赋值给t;并执行步骤8;
步骤8、所述GPU图像处理器从所述计算机的内存中复制所述第t帧图像的像素值并保存到所述GPU图像处理器的显存中;
步骤9、根据所述第t帧图像的第i行第j列的像素值利用式(1)、式(2)和式(3)更新所述W×H个线程中的第i×W+j个线程中的高斯模型的参数:
式(4)中,α表示权重的更新速度,为常数;表示所述第t帧图像的第i行第j列像素点与第k个高斯函数的匹配结果,并有
式(7)中,表示匹配成功,表示匹配失败,ε表示概率阈值;表示所述第t帧图像的第i行第j列的像素点的第k个高斯函数的函数值;并有:
式(2)中,表示参数,并有:
式(9)中,η表示高斯函数,并有:
式(10)中,I表示单位矩阵;
步骤10、动态调整所述第t帧图像的第i行第j列的像素点的高斯函数的个数N;从而更新所述第i×W+j个线程所对应的第i行第j列的像素点的高斯模型;
步骤11、遍历所述第t帧图像的每个像素值并按照步骤9和步骤10分别进行更新和动态调整;从而获得更新后的第t帧图像的W×H个线程所分别对应的W×H个像素点的高斯模型;
步骤12、对所述更新后的第t帧图像的W×H个像素点中第i行第j列像素点所对应的高斯模型中,选出一个权重最大的高斯函数,并将所述权重最大的高斯函数所对应的均值与所设定的阈值进行比较;若均值大于所设定的阈值,则设置所述第i行第j列像素点为1;否则,设置所述第i行第j列像素点为0;从而获得第t帧图像中第i行第j列像素点的取值;
步骤13、重复步骤12直到获取所述第t帧图像中所有像素点的取值,从而获得所述第t帧图像的二值图像并存入所述GPU图像处理器的全局存储器中;
步骤14、将所述第t帧图像的二值图像从所述GPU图像处理器的全局存储器中复制到所述计算机的内存中,以所述第t帧图像的二值图像中取值为1的像素点构成所述前景,从而完成第t帧图像的前景提取;
步骤15、返回步骤7执行。
2.根据权利要求1所述的方法,其特征是:所述待处理视频的第t帧图像为RGB格式图像。
3.根据权利要求1所述的方法,其特征是:所述步骤10中第t帧图像的第i行第j列像素点的高斯函数个数N是按如下步骤进行动态调整:
步骤1、比较所述第t帧图像的第i行第j列像素点的N个高斯函数中任意两个高斯函数的权重,若任意两个高斯函数的权重差值小于所设定的差值阈值,则将所述任意两个高斯函数的参数分别求出均值,将所述均值赋值给所述任意两个高斯函数中任一高斯函数;并删除另一高斯函数,将N-1赋值给N;从而合并所述任意两个高斯函数;
步骤2、建立长度为N的一维数组并初始化每个元素值为0;表示T帧待处理视频中第i行第j列像素点Xi,j的第k个高斯函数连续匹配失败的次数;
步骤3、若所述第t帧图像的第i行第j列的像素点与第k个高斯函数匹配失败,即则将赋值给若所述第t帧图像的第i行第j列的像素点与第k个高斯函数匹配成功,即则将次数设置为0;
步骤4、判断所述次数大于等于所设定的累加阈值是否成立;在成立时将N+1赋值给N;
步骤5、判断t=T是否成立,若成立,则表示完成动态调整;否则将t+1的值赋值给t;并执行步骤2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510128601.5A CN104751485B (zh) | 2015-03-20 | 2015-03-20 | 一种基于gpu自适应的前景提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510128601.5A CN104751485B (zh) | 2015-03-20 | 2015-03-20 | 一种基于gpu自适应的前景提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104751485A true CN104751485A (zh) | 2015-07-01 |
CN104751485B CN104751485B (zh) | 2017-05-24 |
Family
ID=53591104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510128601.5A Active CN104751485B (zh) | 2015-03-20 | 2015-03-20 | 一种基于gpu自适应的前景提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104751485B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105205831A (zh) * | 2015-08-03 | 2015-12-30 | 深圳市哈工大交通电子技术有限公司 | 基于OmapL138芯片的混合高斯快速实现方法 |
CN105608435A (zh) * | 2015-12-23 | 2016-05-25 | 上海华力创通半导体有限公司 | 基于并行处理的图像数据背景快速识别方法及系统 |
CN106303162A (zh) * | 2016-08-16 | 2017-01-04 | 江苏火米互动科技有限公司 | 一种gpu抠像方法 |
CN106934757A (zh) * | 2017-01-26 | 2017-07-07 | 北京中科神探科技有限公司 | 基于cuda的监控视频前景提取加速方法 |
CN110298847A (zh) * | 2019-06-27 | 2019-10-01 | 浙江工业大学 | 一种长时间背景收集的背景建模方法 |
CN110796701A (zh) * | 2019-10-21 | 2020-02-14 | 深圳市瑞立视多媒体科技有限公司 | 标记点的识别方法、装置、设备及存储介质 |
CN112184759A (zh) * | 2020-09-18 | 2021-01-05 | 深圳市国鑫恒运信息安全有限公司 | 一种基于视频的运动目标检测与跟踪方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070206865A1 (en) * | 2006-03-02 | 2007-09-06 | Honeywell International Inc. | Block-based Gaussian Mixture Model video motion detection |
CN101882311A (zh) * | 2010-06-08 | 2010-11-10 | 中国科学院自动化研究所 | 基于cuda技术的背景建模加速方法 |
TW201327417A (zh) * | 2011-12-27 | 2013-07-01 | Univ Nat Taiwan Science Tech | 一種前景分離方法 |
US20130243322A1 (en) * | 2012-03-13 | 2013-09-19 | Korea University Research And Business Foundation | Image processing method |
CN103324955A (zh) * | 2013-06-14 | 2013-09-25 | 浙江智尔信息技术有限公司 | 一种基于视频处理的行人检测方法 |
-
2015
- 2015-03-20 CN CN201510128601.5A patent/CN104751485B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070206865A1 (en) * | 2006-03-02 | 2007-09-06 | Honeywell International Inc. | Block-based Gaussian Mixture Model video motion detection |
CN101882311A (zh) * | 2010-06-08 | 2010-11-10 | 中国科学院自动化研究所 | 基于cuda技术的背景建模加速方法 |
TW201327417A (zh) * | 2011-12-27 | 2013-07-01 | Univ Nat Taiwan Science Tech | 一種前景分離方法 |
US20130243322A1 (en) * | 2012-03-13 | 2013-09-19 | Korea University Research And Business Foundation | Image processing method |
CN103324955A (zh) * | 2013-06-14 | 2013-09-25 | 浙江智尔信息技术有限公司 | 一种基于视频处理的行人检测方法 |
Non-Patent Citations (4)
Title |
---|
PENG SUO 等: "An Improved Adaptive Background Modeling Algorithm Based on Gaussian Mixture Model", 《INTERNATIONAL CONFERENCE ON SIGNAL PROCESSING》 * |
ZORAN ZIVKOVIC 等: "Improved Adaptive Gaussian Mixture Model for Background Subtraction", 《INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION》 * |
郭伟 等: "基于边缘前景的混合高斯模型目标检测", 《计算机工程与应用》 * |
钟俊杰: "自适应混合高斯背景建模算法的GPU并行优化研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105205831A (zh) * | 2015-08-03 | 2015-12-30 | 深圳市哈工大交通电子技术有限公司 | 基于OmapL138芯片的混合高斯快速实现方法 |
CN105608435A (zh) * | 2015-12-23 | 2016-05-25 | 上海华力创通半导体有限公司 | 基于并行处理的图像数据背景快速识别方法及系统 |
CN106303162A (zh) * | 2016-08-16 | 2017-01-04 | 江苏火米互动科技有限公司 | 一种gpu抠像方法 |
CN106934757A (zh) * | 2017-01-26 | 2017-07-07 | 北京中科神探科技有限公司 | 基于cuda的监控视频前景提取加速方法 |
CN106934757B (zh) * | 2017-01-26 | 2020-05-19 | 北京中科神探科技有限公司 | 基于cuda的监控视频前景提取加速方法 |
CN110298847A (zh) * | 2019-06-27 | 2019-10-01 | 浙江工业大学 | 一种长时间背景收集的背景建模方法 |
CN110298847B (zh) * | 2019-06-27 | 2021-06-04 | 浙江工业大学 | 一种长时间背景收集的背景建模方法 |
CN110796701A (zh) * | 2019-10-21 | 2020-02-14 | 深圳市瑞立视多媒体科技有限公司 | 标记点的识别方法、装置、设备及存储介质 |
CN110796701B (zh) * | 2019-10-21 | 2022-06-07 | 深圳市瑞立视多媒体科技有限公司 | 标记点的识别方法、装置、设备及存储介质 |
CN112184759A (zh) * | 2020-09-18 | 2021-01-05 | 深圳市国鑫恒运信息安全有限公司 | 一种基于视频的运动目标检测与跟踪方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN104751485B (zh) | 2017-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wu et al. | Helmet detection based on improved YOLO V3 deep model | |
CN104751485A (zh) | 一种基于gpu自适应的前景提取方法 | |
Andrearczyk et al. | Convolutional neural network on three orthogonal planes for dynamic texture classification | |
Mou et al. | RiFCN: Recurrent network in fully convolutional network for semantic segmentation of high resolution remote sensing images | |
US10198657B2 (en) | All-weather thermal-image pedestrian detection method | |
Li et al. | A deep learning approach for real-time rebar counting on the construction site based on YOLOv3 detector | |
CN108960141A (zh) | 基于增强型深度卷积神经网络的行人再识别方法 | |
CN109886159B (zh) | 一种非限定条件下的人脸检测方法 | |
CN108241854A (zh) | 一种基于运动和记忆信息的深度视频显著性检测方法 | |
CN110991444A (zh) | 面向复杂场景的车牌识别方法及装置 | |
CN107704797B (zh) | 基于安防视频中行人和车辆的实时检测方法和系统及设备 | |
Xiang et al. | Lightweight fully convolutional network for license plate detection | |
CN113628297A (zh) | 一种基于注意力机制和迁移学习的covid-19深度学习诊断系统 | |
CN116721414A (zh) | 一种医学图像细胞分割与跟踪方法 | |
Yang et al. | CEMA-LSTM: Enhancing contextual feature correlation for radar extrapolation using fine-grained echo datasets | |
CN115082966A (zh) | 行人重识别模型训练方法、行人重识别方法、装置和设备 | |
Du et al. | Srh-net: Stacked recurrent hourglass network for stereo matching | |
Salem et al. | Semantic image inpainting using self-learning encoder-decoder and adversarial loss | |
CN115937022A (zh) | 一种基于迭代残差学习的少样本图像修复方法 | |
CN117746079B (zh) | 一种高光谱图像的聚类预测方法、系统、存储介质及设备 | |
Gao et al. | MLTDNet: an efficient multi-level transformer network for single image deraining | |
Imran et al. | Image-based automatic energy meter reading using deep learning | |
Ying et al. | License plate detection and localization in complex scenes based on deep learning | |
CN110570450B (zh) | 一种基于级联的上下文感知框架的目标跟踪方法 | |
Zhao et al. | Rethinking superpixel segmentation from biologically inspired mechanisms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |