CN104717574A - 一种视频摘要中事件与背景的融合方法 - Google Patents
一种视频摘要中事件与背景的融合方法 Download PDFInfo
- Publication number
- CN104717574A CN104717574A CN201510117779.XA CN201510117779A CN104717574A CN 104717574 A CN104717574 A CN 104717574A CN 201510117779 A CN201510117779 A CN 201510117779A CN 104717574 A CN104717574 A CN 104717574A
- Authority
- CN
- China
- Prior art keywords
- image block
- event
- background
- frame
- background frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Studio Circuits (AREA)
Abstract
本发明公开了一种视频摘要中事件与背景的融合方法。该方法在前景检测与目标跟踪的基础上,将事件与背景的融合问题分成事件预处理、背景帧选择、事件与背景融合三个步骤。首先对事件进行预处理,包括对事件按面积大小排序并调整局部亮度;然后,用事件投票的方式选择最优背景帧,使尽可能多的事件落在该帧背景上;最后融合事件与背景,根据当前位置的像素点在背景帧上的状态标志值和在图像块上的二值前景值选择使用泊松图像编辑方法融合或加权融合的方法,从而形成完整而清晰的新的视频摘要帧。该方法能够无缝、自然的将事件融合到对应的背景中,有效的避免事件与事件之间的遮挡,形成高质量的新视频图像场景。
Description
技术领域
本发明属于计算机智能监控视频处理技术领域,更具体地,涉及一种视频摘要中事件与背景的融合方法。
背景技术
视频监控系统已经广泛应用于加强公共安全建设、防范违法犯罪活动以及安全事故预警等方面。虽然视频监控领域的技术在不断发展,但是回查视频监控录像仍是一项非常耗费人力、物力资源的工作,而且非常不被重视,往往是在事发之后,需要临时组织一个庞大的团队来对视频监控录像进行查看和分析。
因此,迫切需要一种方法能够方便对视频监控录像进行查询。建立一个视频摘要系统是一个很好的方法。通俗的讲,视频摘要是原始视频的浓缩视频。它旨在有效地使用视频监控录像,对海量视频监控录像进行处理和分析,提高监控录像的倒查效率,实现对视频数据进行结构化的存储和查询,可以将较长的视频浓缩成短短几分钟的视频。点击任何事件即可查看该事件在原始视频中从出现到结束期间的情况。
目前生成视频摘要系统的方法主要有基于关键帧和基于对象的方法,其中基于关键帧的方法是指通过提取一系列的关键帧组成相应的语义单元,概括整个视频的内容,以供快速检索,该方法重点考虑视频的关键帧;基于对象的方法是由能够表达原始视频内容的事件加以编辑而成,在保持了视频内容能够随时间动态变化的基础上很大程度减少了时间—空间冗余,因此其表现的内容要比基于关键帧的视频摘要丰富的多,也是实际应用中较流行的方法。
但是,该方法的一个难点问题是事件与背景怎样能更好的融合,生成高质量的新视频。具体问题是:(1)如何将提取出的目标“无缝”、“自然”的融合到相应的背景中;(2)如何尽可能的减少目标间的遮挡。目前融合事件与背景的方法有基于alpha matte的方法和泊松图像编辑的方法,alpha matte的方法功能强大,但实现复杂;泊松图像编辑的方法在融合对象和场景的颜色没有突变时能消除拼缝,取得较好的结果,但因使用的是L2范数,不能很好的估计图像颜色的连续性,对于存在较大颜色突变的场景无法取得较好的结果,因而如何降低目标与背景的颜色差异保证泊松图像编辑的方法取得较好的效果是一个问题。同时,在减少目标间的遮挡方面,除了在事件重组过程中通过事件的疏密程度来控制当前摘要帧上的事件数目外,并没有很好的通过融合来减少目标间遮挡的方法。
发明内容
本发明的目的在于提出一种视频摘要中事件与背景的融合方法。该方法能够无缝、自然的将事件融合到对应的背景中,有效的避免事件与事件之间的遮挡,形成高质量的新视频图像场景。
为了实现上述目的,本发明提供了一种视频摘要中事件与背景的融合方法,包括:
(1)通过运动目标的检测和跟踪,得到原始视频序列中所有的事件和最后形成摘要视频所需的背景帧序列;记录每一个事件的所有发生时刻所对应的图像块的宽高及图像块内所有像素位置的二值前景值、每一个事件发生的起始帧号和结束帧号、以及每一个事件摘要视频中出现时的起始帧号;
(2)根据每一个事件发生的起始帧号和结束帧号,以及每一个事件在摘要视频中发生时的起始帧号,从原始视频序列的所有事件中,找出当前摘要帧上需要出现的所有事件及其对应时刻的图像块;
(3)对步骤(2)所述摘要帧上所有事件的相应时刻的图像块进行预处理,包括对各事件所对应图像块按照面积从大到小排序,所述各图像块的面积根据步骤(1)中得到的各图像块的宽高得到,然后根据步骤(1)中得到的各图像块内所有像素位置的二值前景值调整对应图像块的局部亮度;
(4)利用步骤(2)所述摘要帧上的所有事件对步骤(1)中得到的背景帧进行投票,得票最高的背景帧即为当前摘要帧所需的背景帧,所述利用事件对背景帧进行投票是根据相应时刻的图像块在原始视频中所在的帧号与步骤(1)中获取背景帧时的周期相比,根据比值判断对步骤(1)中得到的背景帧中的哪一帧进行投票;
(5)对步骤(3)所述预处理后的图像块和步骤(4)所述背景帧进行融合得到摘要帧,所述融合是根据步骤(1)中得到的各图像块内所有像素位置的二值前景值与背景帧上当前像素位置的融合状态选择加权融合与泊松图像编辑中的某一种方法进行融合。
在本发明的一个实施例中,所述步骤(1)中生成摘要视频所需背景帧序列的具体方法为:从原始视频的第一帧开始,以T为周期对T帧图像相应位置的每一个像素值进行累加平均,得到一张均值图像,以此均值图像作为一张背景图,如此循环,直到视频帧结束,可以得到形成摘要视频所需的背景帧序列BackGround={b0,b1,......bt},其中t为大于0的整数;其中第q帧均值图像上某一个像素点(x,y)处的像素值按照下面公式计算:
其中,F{f0,f1,......fm}为原始视频帧序列,m为总帧数,均值图像为AvgF{avgf0,avgf1,......avgft}分别对应背景帧序列BackGround={b0,b1,......bt},t<m。
在本发明的一个实施例中,所述步骤(2)中从原始视频的所有事件中找出当前摘要帧上需要出现的所有事件及其对应的图像块,具体为:
当事件ei在摘要视频中发生的起始时刻newStarti在此摘要帧之前且事件ei在摘要视频中的结束时刻(newStarti+(endTimei-startTimei))在此摘要帧之后,也即事件ei的运动轨迹在当前时刻经过此摘要帧,则认为事件ei适合贴在该摘要帧上,假定当前摘要帧号为index,则当前摘要帧上要贴的图像块对应为该事件的第index-newStarti个图像块,从而可得到当前摘要帧上要贴的所有图像块;
其中原始视频的所有事件的集合表示为E={e0,e1,...,en},其中n表示视频中出现的事件的数目,ei包括此事件在原始视频中发生的起始帧号startTimei、结束帧号endTimei、在摘要视频中的起始帧号newStarti、所有发生时刻上的图像块TargetRectik={xik,yik,wik,hik,forerectik},其中xik、yik、wik、hik、forerectik分别为第i个事件的第k个图像块的中心点行坐标、列坐标、图像块宽、图像块高、图像块前景图。
在本发明的一个实施例中,所述步骤(3)中根据各图像块内所有像素位置的二值前景值调整对应图像块的局部亮度,具体为:
根据各图像块内所有像素位置的二值前景值选取当前图像块的背景部分,计算该背景部分与摘要帧中对应位置的亮度对比度,以此对比度作为权重对该图像块进行加权,从而调整该图像块的局部亮度。
在本发明的一个实施例中,所述步骤(4)中利用步骤(2)所述摘要帧上可出现的所有事件进行背景投票,选择当前摘要帧需要的背景帧,具体为:
记某一事件的当前图像块所认同的背景帧号为id,当前摘要帧帧号为index,则其中id>t时,id=t,当有事件计算投中第id号背景帧则该背景帧计数加1,最后选取计数最大的背景帧作为当前摘要帧的背景图。
在本发明的一个实施例中,所述步骤(5)中对步骤(3)所述预处理后的图像块和步骤(4)所述背景帧进行融合得到摘要帧,具体为:
(5.1)初始化背景帧上所有像素点的状态标志值为0;
(5.2)利用泊松图像编辑的方法将最大图像块融合到背景帧中去,根据该图像块上的某一像素点是否为目标点修改背景帧上对应像素点状态标志值,其中,若该像素点是背景点则将状态标志值改为1,否则改为2;
(5.3)融合次大图像块到背景帧中去,结合次大图像块上像素点的二值前景值和背景帧上对应像素点的状态标志值判断使用何种方法融合该点像素到背景帧上:
当次大图像块上像素点的二值前景值为1时,若背景帧上对应像素点的状态标志值为0,则利用泊松图像编辑的方法融合该像素点;若背景帧上对应像素点的状态标志值为1,则利用加权融合的方法融合该像素点,且给予次大图像块上的像素点较大权重,背景帧上对应像素点较小权重;若背景帧上对应像素点的状态标志值为2,则利用加权融合的方法融合该像素点且为等权重融合;
当次大图像块上像素点的二值前景值为0时,若背景帧上对应像素点的状态标志值为0,则利用泊松图像编辑的方法融合该像素点;若背景帧上对应像素点的状态标志值为1,则利用加权融合的方法融合该像素点且等权重融合;若背景帧张对应像素点的状态标志值为2,则利用加权融合的方法融合该像素点,且次给予大图像块上的像素点较小权重,背景帧上对应像素点较大权重;
(5.4)如步骤(5.3),按照面积由大到小依次处理各图像块。
本发明方法在前景检测和目标跟踪的基础上将事件与背景的融合问题分成事件预处理、背景帧选择、事件与背景融合三个步骤。事件预处理一定程度上减少了目标间的遮挡,同时降低了事件与背景的对比度,一定程度上保证了泊松图像编辑方法的有效行。通过选择最优背景帧,使尽可能多的事件落在该帧背景上,最后通过像素状态的判断,用泊松图像编辑与加权融合的方法相结合,消除了拼缝,进一步减少了目标间的遮挡,从而形成完整而清晰的新的视频摘要帧。该方法能够无缝、自然的将事件融合到对应的背景中,有效的避免事件与事件之间的遮挡,形成高质量的新视频图像场景。
附图说明
图1为本发明中视频摘要的生成过程示意图;
图2为本发明中摘要帧合成的总流程示意图;
图3为本发明中事件与背景融合的过程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本发明的目的在于提出一种视频摘要中事件与背景的融合方法,在前景检测与目标跟踪的基础上,将事件与背景的融合问题分成事件预处理、背景帧选择、事件与背景融合三个步骤。首先对事件进行预处理,包括对事件按其对应图像块的面积大小排序并调整局部亮度;然后,用事件投票的方式选择最优背景帧,使尽可能多的事件落在该帧背景上;最后通过像素状态的判断,用泊松图像编辑与加权融合的方法相结合,消除了拼缝,进一步减少了目标间的遮挡,从而形成完整而清晰的摘要帧,最终形成高质量的新视频。
下面结合附图对本发明具体实施方法进一步详细描述。
如图1所示,本发明中所述的摘要视频生成的主要流程如下所述:
首先对原始视频进行分析处理,通过背景建模的方法得到前景分割的结果,实现事件的检测,然后通过视频跟踪方法对事件进行跟踪,得到事件从发生到结束的完整轨迹。在对原始视频分析完毕以后,为摘要视频中的每一帧图像选择合适的背景图像和可出现在该帧图像上的事件的相应图像块,最后使用本发明中所述的摘要视频合成方法将背景图像与事件的图像块进行融合得到每一帧的摘要视频帧数据,最终得到完整的摘要视频。
如图2所示,所述视频摘要中事件与背景的融合方法包括以下步骤:
步骤1:通过运动目标的检测和跟踪,得到原始视频序列中所有的事件和最后形成摘要视频所需的背景帧,并记录每一个事件的所有发生时刻所对应的图像块的宽高及图像块内所有像素位置的二值前景值、每一个事件发生的起始帧号和结束帧号、以及每一个事件在摘要视频中出现时的起始帧号。
具体地,生成摘要视频所需背景帧序列的具体方法为:从原始视频的第一帧开始,以T为周期对T帧图像相应位置的每一个像素值进行累加平均,得到一张均值图像,以此均值图像作为一张背景图,如此循环,直到视频帧结束,可以得到形成摘要视频所需的背景帧序列BackGround={b0,b1,......bt},其中t为大于0的整数。具体计算方式为:
记原始视频帧序列为F{f0,f1,......fm},其中m为总帧数,令均值图像为AvgF{avgf0,avgf1,......avgft},如下为第q帧均值图像上某一个像素点处的像素值计算公式:
最终所得的AvgF{avgf0,avgf1,......avgft}则分别对应背景帧序列BackGround={b0,b1,......bt},其中,t<m。
步骤2:根据每一个事件发生的起始帧号和结束帧号,以及每一个事件在摘要视频中发生时的起始帧号,从原始视频序列的所有事件中,找出当前摘要帧上需要出现的所有事件及其对应的图像块。
把视频序列中的每一个目标在视频中开始到结束的运动当作是一个事件ei。视频序列中所有事件的集合为E={e0,e1,...,en},其中n表示视频中出现的事件的数目,ei包括此事件在原始视频中发生的起始帧号startTimei、结束帧号endTimei、在摘要视频中的起始帧号newStarti、所有发生时刻上的图像块TargetRectik={xik,yik,wik,hik,forerectik},其中xik、yik、wik、hik、forerectik分别为第i个事件的第k个图像块的中心点行坐标、列坐标、图像块宽、图像块高、图像块前景图。具体地,令当前摘要帧号为index,遍历事件集合E={e0,e1,...,en},如果事件ei满足如下两个条件:
(1)newStarti<=index;
(2)newStarti+(endTimei-startTimei)>index;
则认为此事件ei在当前摘要帧中会发生,且是ei的第index-newStarti个时刻的图像块出现在当前摘要帧。最后得到帧号为index的摘要帧上的所有事件为CurrentE={ce0,ce1,......ces},其中s为当前摘要帧上的事件总数。
步骤3:对事件进行预处理。
对步骤(2)所述摘要帧上所有事件的相应时刻的图像块进行预处理,包括对各事件所对应图像块按照面积从大到小排序,所述各图像块的面积根据步骤(1)中得到的各图像块的宽高得到,然后根据步骤(1)中得到的各图像块内所有像素位置的二值前景值调整对应图像块的局部亮度;
具体地,为了防止较大图像块覆盖较小图像块,需要对各事件的图像块按照面积大小排序,然后调整图像块的局部亮度,降低与背景的对比度。具体包括:
(3.1)对当前摘要帧上的所有事件CurrentE={ce0,ce1,......ces}按其对应图像块的面积由大到小排序,图像块的面积用其矩形框的面积表示;
(3.2)调整图像块局部亮度。根据事件相应图像块上的背景部分与对应位置的背景部分的亮度对比度,调整图像块的局部亮度。具体地,对于当前图像块TargetRectik={xik,yik,wik,hik,forerectik},对应位置的背景块图为bkgroundPatch,选择的背景帧为bid(bid∈{b0,b1,......bt}),具体为扫描对于二值前景块的每一个像素点forerectik(x,y),如果某一像素处为背景,则分别统计TargetRectik和bkgroundPatch对应位置的像素值,最后分别计算满足条件的像素值的和,计算两者之间的亮度比值scaleB。亮度比值scaleB公式如下:
其中sum_t=ΣTarg etRectik(x,y),为满足条件(forerectik(x,y)=0)的图像块的像素亮度值总和,sum_b=ΣbkgroundPatch(x,y),为满足条件(forerectik(x,y)=0)的背景图的像素亮度值总和。因此,对当前图像块上的每一个像素值TargetRectik(x,y)分别加权,权重即为scaleB,从而调整图像块的局部亮度。
步骤4:选择当前摘要帧所需要的背景帧
利用步骤(2)所述摘要帧上的所有事件对步骤(1)中得到的背景帧进行投票,得票最高的背景帧即为当前摘要帧所需的背景帧,所述利用事件对背景帧进行投票是根据相应时刻的图像块在原始视频中所在的帧号与步骤(1)中获取背景帧时的周期相比,根据比值判断对步骤(1)中得到的背景帧中的哪一帧进行投票;
具体地,利用当前摘要帧中所有要出现的事件CurrentE={ce0,ce1,......ces}对背景帧序列BackGround={b0,b1,......bt}进行投票,投票最高的一帧则为当前摘要帧的背景帧,即认为有最多的事件落在此背景帧。具体投票方式为,事件的相应图像块在原始视频中出现的时刻按照背景的周期选择方式会落在哪一帧,则认为该图像块对该背景帧投一票。具体计算方式如下:
记某一事件的当前图像块所认同的背景帧号为id,当前摘要帧帧号为index,则:
其中id>t时,id=t,当有事件计算投中第id号背景帧,则该背景帧计数加1。最后选取计数最大的背景帧作为当前摘要帧的背景图。
步骤5:如图(3)所示,对步骤(3)所述预处理后的图像块和步骤(4)所述背景帧进行融合得到摘要帧。
具体地,首先将当前未融合任何图像块的背景帧上的所有像素点的状态标志值初始化为0;然后处理最大图像块,将之利用泊松图像编辑的方法融合到背景帧上,根据最大图像块上的某一像素点是否为目标点修改背景帧上对应像素点状态标志值;第三,处理次大图像块,结合次大图像块上像素点的二值前景值和背景帧上对应像素点的状态标志值判断使用何种方法融合该点像素到背景帧上,如此按照面积由大到小依次处理各图像块,从而形成完整而清晰的摘要帧。具体步骤如下:
(5.1)初始化背景帧上所有像素点的状态标志值为0;
(5.2)利用泊松图像编辑的方法将最大图像块融合到背景帧中去,根据该图像块上的某一像素点是否为目标点修改背景帧上对应像素点状态标志值,其中,若该像素点是背景点则将状态标志值改为1,否则改为2;
(5.3)融合次大图像块到背景帧中去。结合次大图像块上像素点的二值前景值和背景帧上对应像素点的状态标志值判断使用何种方法融合该点像素到背景帧上。
当次大图像块上像素点的二值前景值为1时,若背景帧上对应像素点的状态标志值为0,则利用泊松图像编辑的方法融合该像素点;若背景帧上对应像素点的状态标志值为1,则利用加权融合的方法融合该像素点,且给予次大图像块上的像素点较大权重,背景帧上对应像素点较小权重;若背景帧上对应像素点的状态标志值为2,则利用加权融合的方法融合该像素点且为等权重融合。
当次大图像块上像素点的二值前景值为0时,若背景帧上对应像素点的状态标志值为0,则利用泊松图像编辑的方法融合该像素点;若背景帧上对应像素点的状态标志值为1,则利用加权融合的方法融合该像素点且等权重融合;若背景帧张对应像素点的状态标志值为2,则利用加权融合的方法融合该像素点,且次给予大图像块上的像素点较小权重,背景帧上对应像素点较大权重。
(5.4)如步骤(5.3),按照面积由大到小依次处理各图像块。
综上,事件预处理一定程度上减少了事件间的遮挡,同时降低了事件与背景的对比度,一定程度上保证了泊松图像编辑方法的有效行;通过选择最优背景帧,使尽可能多的事件落在该帧背景上,最后通过像素状态的判断,用泊松图像编辑与加权融合的方法相结合,消除了拼缝,进一步减少了事件间的遮挡,从而形成完整而清晰的摘要帧。
因此,本方法能够无缝、自然的将事件融合到对应的背景中,有效的避免事件与事件之间的遮挡,形成高质量的新视频图像场景。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种视频摘要中事件与背景的融合方法,其特征在于,所述方法包括以下步骤:
(1)通过运动目标的检测和跟踪,得到原始视频序列中所有的事件和最后形成摘要视频所需的背景帧序列;记录每一个事件的所有发生时刻所对应的图像块的宽高及图像块内所有像素位置的二值前景值、每一个事件发生的起始帧号和结束帧号、以及每一个事件摘要视频中出现时的起始帧号;
(2)根据每一个事件发生的起始帧号和结束帧号,以及每一个事件在摘要视频中发生时的起始帧号,从原始视频序列的所有事件中,找出当前摘要帧上需要出现的所有事件及其对应时刻的图像块;
(3)对步骤(2)所述摘要帧上所有事件的相应时刻的图像块进行预处理,包括对各事件所对应图像块按照面积从大到小排序,所述各图像块的面积根据步骤(1)中得到的各图像块的宽高得到,然后根据步骤(1)中得到的各图像块内所有像素位置的二值前景值调整对应图像块的局部亮度;
(4)利用步骤(2)所述摘要帧上的所有事件对步骤(1)中得到的背景帧进行投票,得票最高的背景帧即为当前摘要帧所需的背景帧,所述利用事件对背景帧进行投票是根据相应时刻的图像块在原始视频中所在的帧号与步骤(1)中获取背景帧时的周期相比,根据比值判断对步骤(1)中得到的背景帧中的哪一帧进行投票;
(5)对步骤(3)所述预处理后的图像块和步骤(4)所述背景帧进行融合得到摘要帧,所述融合是根据步骤(1)中得到的各图像块内所有像素位置的二值前景值与背景帧上当前像素位置的融合状态选择加权融合与泊松图像编辑中的某一种方法进行融合。
2.如权利要求1所述的方法,其特征在于,所述步骤(1)中生成摘要视频所需背景帧序列的具体方法为:从原始视频的第一帧开始,以T为周期对T帧图像相应位置的每一个像素值进行累加平均,得到一张均值图像,以此均值图像作为一张背景图,如此循环,直到视频帧结束,可以得到形成摘要视频所需的背景帧序列BackGround={b0,b1,......bt},其中t为大于0的整数;其中第q帧均值图像上某一个像素点(x,y)处的像素值按照下面公式计算:
其中,F{f0,f1,......fm}为原始视频帧序列,m为总帧数,均值图像为AvgF{avgf0,avgf1,......avgft}分别对应背景帧序列BackGround={b0,b1,......bt},t<m。
3.如权利要求1或2所述的方法,其特征在于,所述步骤(2)中从原始视频的所有事件中找出当前摘要帧上需要出现的所有事件及其对应的图像块,具体为:
当事件ei在摘要视频中发生的起始时刻newStarti在此摘要帧之前且事件ei在摘要视频中的的结束时刻(newStarti+(endTimei-startTimei))在此摘要帧之后,也即事件ei的运动轨迹在当前时刻经过此摘要帧,则认为事件ei适合贴在该摘要帧上,假定当前摘要帧号为index,则当前摘要帧上要贴的图像块对应为该事件的第index-newStarti个图像块,从而可得到当前摘要帧上要贴的所有图像块;
其中原始视频的所有事件的集合表示为E={e0,e1,...,en},其中n表示视频中出现的事件的数目,ei包括此事件在原始视频中发生的起始帧号startTimei、结束帧号endTimei、在摘要视频中的起始帧号newStarti、所有发生时刻上的图像块TargetRectik={xik,yik,wik,hik,forerectik},其中xik、yik、wik、hik、forerectik分别为第i个事件的第k个图像块的中心点行坐标、列坐标、图像块宽、图像块高、图像块前景图。
4.如权利要求1或2所述的方法,其特征在于,所述步骤(3)中根据各图像块内所有像素位置的二值前景值调整对应图像块的局部亮度,具体为:
根据各图像块内所有像素位置的二值前景值选取当前图像块的背景部分,计算该背景部分与摘要帧中对应位置的亮度对比度,以此对比度作为权重对该图像块进行加权,从而调整该图像块的局部亮度。
5.如权利要求1或2所述的方法,其特征在于,所述步骤(4)中利用步骤(2)所述摘要帧上可出现的所有事件进行背景投票,选择当前摘要帧需要的背景帧,具体为:
记某一事件的当前图像块所认同的背景帧号为id,当前摘要帧帧号为index,则其中id>t时,id=t,当有事件计算投中第id号背景帧则该背景帧计数加1,最后选取计数最大的背景帧作为当前摘要帧的背景图。
6.如权利要求1或2所述的方法,其特征在于,所述步骤(5)中对步骤(3)所述预处理后的图像块和步骤(4)所述背景帧进行融合得到摘要帧,具体为:
(5.1)初始化背景帧上所有像素点的状态标志值为0;
(5.2)利用泊松图像编辑的方法将最大图像块融合到背景帧中去,根据该图像块上的某一像素点是否为目标点修改背景帧上对应像素点状态标志值,其中,若该像素点是背景点则将状态标志值改为1,否则改为2;
(5.3)融合次大图像块到背景帧中去,结合次大图像块上像素点的二值前景值和背景帧上对应像素点的状态标志值判断使用何种方法融合该点像素到背景帧上:
当次大图像块上像素点的二值前景值为1时,若背景帧上对应像素点的状态标志值为0,则利用泊松图像编辑的方法融合该像素点;若背景帧上对应像素点的状态标志值为1,则利用加权融合的方法融合该像素点,且给予次大图像块上的像素点较大权重,背景帧上对应像素点较小权重;若背景帧上对应像素点的状态标志值为2,则利用加权融合的方法融合该像素点且为等权重融合;
当次大图像块上像素点的二值前景值为0时,若背景帧上对应像素点的状态标志值为0,则利用泊松图像编辑的方法融合该像素点;若背景帧上对应像素点的状态标志值为1,则利用加权融合的方法融合该像素点且等权重融合;若背景帧张对应像素点的状态标志值为2,则利用加权融合的方法融合该像素点,且次给予大图像块上的像素点较小权重,背景帧上对应像素点较大权重;
(5.4)如步骤(5.3),按照面积由大到小依次处理各图像块。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510117779.XA CN104717574B (zh) | 2015-03-17 | 2015-03-17 | 一种视频摘要中事件与背景的融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510117779.XA CN104717574B (zh) | 2015-03-17 | 2015-03-17 | 一种视频摘要中事件与背景的融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104717574A true CN104717574A (zh) | 2015-06-17 |
CN104717574B CN104717574B (zh) | 2017-11-24 |
Family
ID=53416451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510117779.XA Expired - Fee Related CN104717574B (zh) | 2015-03-17 | 2015-03-17 | 一种视频摘要中事件与背景的融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104717574B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108460032A (zh) * | 2017-02-17 | 2018-08-28 | 杭州海康威视数字技术股份有限公司 | 一种视频摘要的生成方法及装置 |
CN110390657A (zh) * | 2018-04-20 | 2019-10-29 | 北京中科晶上超媒体信息技术有限公司 | 一种图像融合方法 |
CN110708511A (zh) * | 2019-10-17 | 2020-01-17 | 山东浪潮人工智能研究院有限公司 | 一种基于图像目标检测的监控视频压缩方法 |
CN111753642A (zh) * | 2020-05-09 | 2020-10-09 | 三生万物(北京)人工智能技术有限公司 | 一种确定关键帧的方法及装置 |
CN118485952A (zh) * | 2024-07-16 | 2024-08-13 | 江西华广电影视科技有限公司 | 多场景适应的视频图像智能识别方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007016301A3 (en) * | 2005-07-28 | 2007-11-29 | Microsoft Corp | Image blending |
CN101945223A (zh) * | 2010-09-06 | 2011-01-12 | 浙江大学 | 视频一致性融合处理方法 |
CN103778237A (zh) * | 2014-01-27 | 2014-05-07 | 北京邮电大学 | 一种基于活动事件时空重组的视频摘要生成方法 |
-
2015
- 2015-03-17 CN CN201510117779.XA patent/CN104717574B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007016301A3 (en) * | 2005-07-28 | 2007-11-29 | Microsoft Corp | Image blending |
CN101228535A (zh) * | 2005-07-28 | 2008-07-23 | 微软公司 | 图像混合 |
CN101945223A (zh) * | 2010-09-06 | 2011-01-12 | 浙江大学 | 视频一致性融合处理方法 |
CN103778237A (zh) * | 2014-01-27 | 2014-05-07 | 北京邮电大学 | 一种基于活动事件时空重组的视频摘要生成方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108460032A (zh) * | 2017-02-17 | 2018-08-28 | 杭州海康威视数字技术股份有限公司 | 一种视频摘要的生成方法及装置 |
CN110390657A (zh) * | 2018-04-20 | 2019-10-29 | 北京中科晶上超媒体信息技术有限公司 | 一种图像融合方法 |
CN110390657B (zh) * | 2018-04-20 | 2021-10-15 | 北京中科晶上超媒体信息技术有限公司 | 一种图像融合方法 |
CN110708511A (zh) * | 2019-10-17 | 2020-01-17 | 山东浪潮人工智能研究院有限公司 | 一种基于图像目标检测的监控视频压缩方法 |
CN111753642A (zh) * | 2020-05-09 | 2020-10-09 | 三生万物(北京)人工智能技术有限公司 | 一种确定关键帧的方法及装置 |
CN111753642B (zh) * | 2020-05-09 | 2024-02-20 | 三生万物(北京)人工智能技术有限公司 | 一种确定关键帧的方法及装置 |
CN118485952A (zh) * | 2024-07-16 | 2024-08-13 | 江西华广电影视科技有限公司 | 多场景适应的视频图像智能识别方法及系统 |
CN118485952B (zh) * | 2024-07-16 | 2024-10-01 | 江西华广电影视科技有限公司 | 多场景适应的视频图像智能识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN104717574B (zh) | 2017-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100386771C (zh) | 使用变化检测和分类的视频场景背景保持 | |
Yan et al. | Skeleton-aided articulated motion generation | |
CN104717574A (zh) | 一种视频摘要中事件与背景的融合方法 | |
CN103778237B (zh) | 一种基于活动事件时空重组的视频摘要生成方法 | |
CN103929685B (zh) | 一种视频摘要生成及索引方法 | |
CN106709436A (zh) | 面向轨道交通全景监控的跨摄像头可疑行人目标跟踪系统 | |
Ren et al. | A novel squeeze YOLO-based real-time people counting approach | |
CN104063883A (zh) | 一种基于对象和关键帧相结合的监控视频摘要生成方法 | |
CN102256065A (zh) | 基于视频监控网络的视频自动浓缩方法 | |
CN110443763A (zh) | 一种基于卷积神经网络的图像阴影去除方法 | |
CN110378916A (zh) | 一种基于多任务深度学习的tbm图像出渣分割方法 | |
Qiu et al. | A fully convolutional encoder–decoder spatial–temporal network for real-time background subtraction | |
Delussu et al. | Scene-specific crowd counting using synthetic training images | |
CN107103299A (zh) | 一种监控视频中的人数统计方法 | |
CN116863408A (zh) | 基于监控摄像头ai算法的并行加速和动态调度实现方法 | |
CN103957472B (zh) | 一种基于事件最优重组的保时序摘要视频生成方法与系统 | |
Premaratne et al. | Structural approach for event resolution in cricket videos | |
Shetty et al. | Design and implementation of video synopsis using online video inpainting | |
Liang et al. | Using particle swarm large-scale optimization to improve sampling-based image matting | |
CN114092998A (zh) | 一种基于卷积神经网络的佩戴口罩人脸识别检测方法 | |
Zitouni et al. | CNN-based analysis of crowd structure using automatically annotated training data | |
Ren et al. | A novel squeeze YOLO-based real-time people counting approach | |
Liu et al. | Semi-supervised anomaly detection in video surveillance by inpainting | |
Luo et al. | Improving action recognition with valued patches exploiting | |
Guo et al. | A study on the optimization simulation of big data video image keyframes in motion models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20171124 Termination date: 20200317 |