CN103119609B - 一种确定视频前景主体图像区域的方法和装置 - Google Patents

一种确定视频前景主体图像区域的方法和装置 Download PDF

Info

Publication number
CN103119609B
CN103119609B CN201280001946.9A CN201280001946A CN103119609B CN 103119609 B CN103119609 B CN 103119609B CN 201280001946 A CN201280001946 A CN 201280001946A CN 103119609 B CN103119609 B CN 103119609B
Authority
CN
China
Prior art keywords
frame image
image
next frame
point
prospect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201280001946.9A
Other languages
English (en)
Other versions
CN103119609A (zh
Inventor
杨晓峰
张园园
石腾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Cloud Computing Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of CN103119609A publication Critical patent/CN103119609A/zh
Application granted granted Critical
Publication of CN103119609B publication Critical patent/CN103119609B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例公开了一种确定视频前景主体图像区域的方法和装置,涉及图像处理领域,提高视频前景主体图像区域分割准确率。具体方案包括:在视频的前一帧图像中,确定前景范围及背景范围;获取下一帧图像的背景范围相对于前一帧图像的背景范围的运动矢量和放大倍率;根据所述下一帧图像的相对于前一帧图像的背景范围的运动矢量和放大倍率,得到下一帧图像中的所述前景范围;计算下一帧图像的所述前景范围和前一帧图像的所述前景范围的灰度值之差,得到前景运动边缘灰度图;根据所述前景运动边缘灰度图,得到前景主体图像区域。本发明用于视频图像中前景主体图像区域的分割。

Description

一种确定视频前景主体图像区域的方法和装置
技术领域
本发明涉及图像处理领域,尤其涉及一种确定视频前景主体图像区域的方法和装置。
背景技术
在一帧图像中,包括前景范围和背景范围,所述背景范围是整个图像或整个图像除去所述前景范围后的图像。所述前景范围可划分为前景主体图像和前景背景图像。前景范围是指在一幅图像当中使用矩形、圆形、椭圆形等几何形状将前景主体图像框起来的图像区域。例如在一幅包含人脸的图像中,前景范围指的是人脸所覆盖的区域,背景是除去人脸以外的图像区域。在一幅图像中将前景提取出来,称为前景分割。
随着视频应用的广泛传播,前景分割技术也被应用到视频中。目前视频图像分割大都集中在视频监控和新闻节目中的前景分割,由于在这类场景中,拍摄机的位置不会发生变动,只是前景在运动,因此这类场景中视频的背景是静止不动的,而在电影等视频中的背景和前景同时运动的情况中,视频分割技术的应用很少。
在目前的视频前景分割技术中,采用的是基于单点的光流计算方法。这种光流算法首先对视频中的前一帧图像进行特征点选取,使用LK光流算法对每个特征点(x,y)计算相对于下一帧图像的运动矢量(δx,δy)。然后使用聚类算法,将特征点分为两类。
聚类算法对特征点分类的具体步骤为以下1-4:
1、将特征点随机分为两类;
2、将每个特征点的x,y,δx,δy带入以下公式,
ax+by+c=δx
dx+ey+f=δy
可以得到多个(a,b,c,d,e,f)的等式,从中确定出(a,b,c,d,e,f)的最小二乘解(a1,b1,c1,d1,e1,f1)。
3、将每个特征点的x,y值代入
a1x+b1y+c1
d1x+e1y+f1
得到(δx1,δy1)
4、根据得到的(δx1,δy1)与(δx,δy)的差值情况,重新将特征点分为两类,然后回到上述步骤2继续进行,直至特征点的分类不再变化。
将其中一类的特征点作为前景的特征点,最后将前景的特征点合成前景区域,从而达到视频中前景分割效果。
在实现上述视频分割的过程中,
背景和前景同时运动的场景是一种更为复杂的场景,在采用基于单点的光流计算方法进行前景和背景分割时,由于特征点的选取和计算会有一定的误差,使大量前景的点被归类为背景,背景的点被归类为前景,使得分割结果中的前景带有大量的背景纹理及其部分前景缺失,导致分割错误率很高,目前现有技术还不能达到理想的分割效果。
发明内容
本发明的实施例提供一种确定视频前景主体图像区域的方法和装置,提高视频前景主体图像区域分割准确率。
为达到上述目的,本发明的实施例采用如下技术方案:
本发明的实施例第一方面提供了一种确定视频前景主体图像区域的方法,包括:
在视频的前一帧图像中,确定前景范围以及背景范围,所述背景范围是整个图像或整个图像除去所述前景范围后的图像区域;
获取下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和放大倍率;
根据所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和放大倍率,得到所述下一帧图像中的前景范围;
计算所述下一帧图像的前景范围和所述前一帧图像的前景范围的之间的灰度值之差,由所述灰度值之差得到前景运动边缘灰度图;
根据所述前景运动边缘灰度图,得到前景主体图像区域。
作为本发明实施例的第一方面的第一实现方式,所述获取下一帧图像的相对于前一帧图像的背景范围的运动矢量和放大倍率,具体包括:
在所述前一帧图像的背景范围中取一组点集;
计算所述点集中的每个点相对于下一帧图像的运动矢量;
根据模板匹配算法,计算所述点集中的每个点相对于下一帧图像的匹配度;
从所述点集中筛选出匹配度高于匹配阈值的点;所述匹配阈值为所述点集中的每个点的匹配度组成的集合的中值;
根据所述匹配度高于匹配阈值的点的运动矢量,得到所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量;
根据所述匹配度高于匹配阈值的点在前一帧中的两两之间距离和在下一帧中的两两之间距离,得到所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的放大倍率。
作为本发明实施例的第一实现方式的第一可能,,所述计算所述点集中的每个点相对于下一帧图像的运动矢量,具体包括:
根据光流算法,计算所述点集中的每个点相对于下一帧图像的运动矢量;或
对所述点集中的每个点,在距离d的范围内获取下一帧图像中的对应点;所述距离d根据视频宽度与视频中物体运动速度获得;
根据所述点集中的每个点和在距离d的范围内下一帧图像中的对应点的距离,得到所述点集中的每个点相对于下一帧图像的运动矢量。
作为本发明实施例的第一实现方式的第二可能,所述根据所述匹配度高于匹配阈值的点的运动矢量,得到所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量,具体包括:
根据公式v0=[median(X),median(Y)],得到所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量v0;其中,X是所有所述匹配度高于匹配阈值的点的运动矢量的x方向分量的集合,Y是所有所述匹配度高于匹配阈值的点的运动矢量的y方向分量的集合。
作为本发明实施例的第一实现方式的第三可能,所述根据所述匹配度高于匹配阈值的点在前一帧中的两两之间距离和在下一帧中的两两之间距离,得到所述下一帧图像的背景范围相对于所述前一帧图像的所述背景范围的放大倍率,具体包括:
根据公式s=median(D1)/median(D0),得到下一帧图像的所述背景范围相对于前一帧图像的所述背景范围的放大倍率s;其中,D0是所有所述匹配度高于匹配阈值的点在前一帧中的两两之间距离的集合,D1是所有所述匹配度高于匹配阈值的点在下一帧中的两两之间距离的集合。
结合第一方面,第一实现方式或第一至第三可能的第四可能,所述根据所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和放大倍率,得到所述下一帧图像中的前景范围,具体包括:
根据所述下一帧图像背景范围的相对于所述前一帧图像的背景范围的运动矢量和前一帧图像中的所述背景范围的中心点C0,得到下一帧图像中的所述背景范围的中心点C0’;
对于前一帧图像中的所述前景范围中的任意点p,根据公式
p’=s*(p-C0)+C0
得到下一帧图像中与所述任意点p对应的点p’,根据p’确定下一帧图像中的所述前景范围;其中s为所述背景范围的放大倍率。
结合第四可能的第五可能,所述前景范围包括前景主体图像和前景背景图像,所述前景背景图像为所述前景范围除去所述前景主体图像的图像部分,
在根据所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和放大倍率,得到下一帧图像中的所述前景范围后,所述确定前景主体图像区域的方法还包括:
对前一帧图像中的所述前景范围进行调整,以使得所述前一帧图像中的所述前景范围与所述下一帧图像中的所述前景范围的大小一致;
对下一帧图像中的所述前景范围进行调整,以使得下一帧图像中的所述前景范围与前一帧图像中的所述前景范围大小一致。
结合本发明实现第一方面的第二实现方式,所述根据所述前景运动边缘灰度图,得到前景主体图像区域,所述方法还包括:
对所述前景运动边缘灰度图进行二值化处理,得到二值化图像,所述二值化图像由值为0的像素点和值为1的像素点组成;
对所述二值化图像进行腐蚀运算,得到腐蚀后的二值化图像;
根据所述腐蚀后的二值化图像,得到所述前景主体图像区域。
结合本发明实现第一方面的第二实现方式的第六可能,所述根据所述腐蚀后的二值化图像,得到所述前景主体图像区域,具体包括:
获取在x轴方向每行最左端和最右端的灰度值为1的像素点,组成第一像素点集,并获取在y轴方向每列最上端和最下端的灰度值为1的像素点,组成第二像素点集;
得到所述第一像素点集和所述第二像素点集的并集;
依次连接所述并集中的像素点,得到所述前景主体图像区域。
本发明实施例提供了一种确定视频前景主体图像区域的方法,根据视频图像中的前景范围得到背景范围,对背景范围进行均匀取点,通过光流算法计算所述点集中每一点相对于下一帧图像的运动矢量和放大倍率,根据所述计算所述点集中每一点相对于下一帧图像的运动矢量和放大倍率,获取下一帧图像的前景范围,计算下一帧图像的所述前景范围和前一帧图像的所述前景范围的灰度值之差,得到前景运动边缘灰度图,对所述前景运动边缘灰度图进行二值化处理和腐蚀运算,得到前景主体图像区域,从而避免了通过光流算法对选取的特征点进行计算并分类而导致的将大量前景的点归类为背景,背景点被归类为前景,实现了分割准确率的提高。
本发明实施例的第二方面,提供了一种确定视频前景主体图像区域的装置,包括:
确定单元,用于在视频的前一帧图像中,确定所述前一帧图像的前景范围以及背景范围,所述背景范围是整个图像或整个图像除去所述前景范围后的图像区域;
第一获取单元,用于获取下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和放大倍率;所述背景范围是整个图像范围或整个图像除去所述前景范围后的图像范围;
第二获取单元,用于根据所述第一获取单元获取的所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和放大倍率,得到下一帧图像中的所述前景范围;
计算单元,计算所述第二获取单元得到的下一帧图像的前景范围和所述确定单元确定的前一帧图像的前景范围的之间的灰度值之差,由所述灰度值之差得到前景运动边缘灰度图;
第三获取单元,用于根据所述计算单元获得的所述前景运动边缘灰度图,得到前景主体图像区域。
作为本发明实施例的第二方面的第一实现方式,所述第一获取单元具体包括:点集获取子单元,用于在所述确定单元确定的前一帧图像的背景范围中取一组点集;运动矢量计算子单元,用于计算所述点集获取子单元获取的所述点集中的每个点相对于下一帧图像的运动矢量;匹配度计算子单元,用于根据模板匹配算法,计算所述点集获取子单元获取的所述点集中的每个点相对于下一帧图像的匹配度;筛选子单元,用于从所述点集获取子单元获取的所述点集中筛选出匹配度高于匹配阈值的点;所述匹配阈值为所述点集中的每个点的匹配度组成的集合的中值;运动矢量获取子单元,用于根据所述筛选子单元筛选的所述匹配度高于匹配阈值的点的运动矢量,得到所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量;放大倍率获取子单元,用于根据所述筛选子单元筛选的所述匹配度高于匹配阈值的点在前一帧中的两点之间距离和在下一帧中的两点之间距离,得到所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的放大倍率。
结合第一实现方式的第一可能,所述运动矢量计算子单元具体包括:第一运动矢量计算模块,用于根据光流算法,计算所述点集获取子单元获取的所述点集中的每个点相对于下一帧图像的运动矢量;对应点获取模块,用于对所述点集获取子单元获取的所述点集中的每个点,在距离d的范围内获取下一帧图像中的对应点,所述距离d根据视频宽度与视频中物体运动速度获得;第二运动矢量计算模块,用于根据所述点集中的每个点和所述对应点获取模块获取的在距离d的范围内下一帧图像中的对应点的距离,得到所述点集中的每个点相对于下一帧图像的运动矢量。
结合第一实现方式的第二可能,所述运动矢量获取子单元,具体包括:运动矢量获取模块,用于根据公式v0=[median(X),median(Y)],得到所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量v0;其中,X是所有所述匹配度高于匹配阈值的点的运动矢量的x方向分量的集合,Y是所有所述匹配度高于匹配阈值的点的运动矢量的y方向分量的集合。
结合第一实现方式的第三可能,所述放大倍率获取子单元,具体包括:放大倍率获取模块,用于根据公式s=median(D1)/median(D0),得到下一帧图像的所述背景范围相对于前一帧图像的所述背景范围的放大倍率s;其中,D0是所有所述匹配度高于匹配阈值的点在前一帧中的两两之间距离的集合,D1是所有所述匹配度高于匹配阈值的点在下一帧中的两两之间距离的集合。
结合上述任一实现方式或任一可能的第四可能,所述第二获取单元具体包括:中心点获取子单元,用于根据所述第一获取单元获取的下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和前一帧图像中的所述背景范围的中心点C0,得到下一帧图像中的所述背景范围的中心点C0’;前景范围获取子单元,用于对于所述第一获取单元获取的前一帧图像中的所述前景范围中的任意点p,根据公式:p’=s*(p-C0)+C0’,得到下一帧图像中与所述任意点p对应的点p’,根据p’确定下一帧图像中的所述前景范围;其中s为所述背景范围的放大倍率,C0’为所述中心点获取子单元得到的下一帧图像中的所述背景范围的中心点。
结合第四可能的第五可能,所述前景范围包括前景主体图像和前景背景图像,所述前景背景图像为所述前景范围除去所述前景主体图像的图像部分,所述装置还包括:第一前景范围调整单元,用于所述第二获取单元在根据所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和放大倍率,得到下一帧图像中的所述前景范围后,对前一帧图像中的所述前景范围进行调整,以使得所述前一帧图像中的所述前景范围与所述下一帧图像中的所述前景范围的大小一致;第二前景范围调整单元,用于所述第二获取单元在根据所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和放大倍率,得到下一帧图像中的所述前景范围后,对下一帧图像中的所述前景范围进行调整,以使得下一帧图像中的所述前景范围与前一帧图像中的所述前景范围大小一致。
结合第二方面的第二实现方式,所述第三获取单元,具体包括:处理子单元,用于对所述计算单元得到的前景运动边缘灰度图进行二值化处理,得到二值化图像,所述二值化图像由值为0的像素点和值为1的像素点组成;腐蚀子单元,用于对所述处理子单元得到的所述二值化图像进行腐蚀运算,得到腐蚀后的二值化图像;前景主体图像区域获取子单元,用于根据所述腐蚀子单元生成的所述腐蚀后的二值化图像,得到所述前景主体图像区域。
结合第二实现方式的第六可能,所述前景主体图像区域获取子单元具体包括:像素点集获取模块,用于获取所述处理子单元得到的在x轴方向每行最左端和最右端的灰度值为1的像素点,组成第一像素点集,并获取在y轴方向每列最上端和最下端的灰度值为1的像素点,组成第二像素点集;并集获取模块,用于得到所述像素点集获取模块获取的所述第一像素点集和所述第二像素点集的并集;连接模块,用于依次连接所述并集获取模块得到的所述并集中的像素点,得到所述前景主体图像区域。
本发明实施例提供的一种确定视频前景主体图像区域的方法和装置,根据视频图像中的前景范围得到背景范围,对背景范围进行均匀取点,通过光流算法计算所述点集中每一点相对于下一帧图像的运动矢量和放大倍率,根据所述计算所述点集中每一点相对于下一帧图像的运动矢量和放大倍率,获取下一帧图像的前景范围,计算下一帧图像的所述前景范围和前一帧图像的所述前景范围的灰度值之差,得到前景运动边缘灰度图,对所述前景运动边缘灰度图进行二值化处理和腐蚀运算,得到前景主体图像区域,从而避免了通过光流算法现有技术中对选取的特征点进行计算并分类而导致的将大量前景的点归类为背景,背景点被归类为前景的问题,实现了分割准确率的提高。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种确定视频前景主体图像区域的方法的流程图;
图2为前景范围,背景范围,前景主体图像和前景背景图像的示意图;
图3为本发明实施例提供的一种确定视频前景主体图像区域的方法的流程图;
图4为本发明实施例提供的另一种确定视频前景主体图像区域的方法的流程图;
图5为本发明实施例提供的一种确定视频前景主体图像区域的装置的框图;
图6为本发明实施例提供的第一获取单元的框图;
图7为本发明实施例提供的运动矢量获取子单元的框图;
图8为本发明实施例提供的放大倍率获取子单元的框图;
图9为本发明实施例提供的运动矢量计算子单元的框图;
图10为本发明实施例提供的第二获取单元的框图;
图11为本发明实施例提供的另一种确定视频前景主体图像的装置的框图;
图12为本发明实施例提供的第三获取单元的框图;
图13为本发明实施例提供的前景主体图像区域获取子单元的框图;
图14为本发明实施例提供的单向腐蚀模板的示意图。
图15为本发明实施例中前一帧图像的前景范围和下一帧图像的前景范围的示意图;
图16为本发明实施例中根据表3的差值结果得到的前景运动边缘灰度图;
图17为在图16基础上得到的二值化图像;
图18为在图17基础上进行腐蚀去噪后的图像;
图19为图18基础上得到的前景主体图像区域;
图20为本发明实施例提供的一种终端的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供了一种确定视频前景主体图像区域的方法,如图1所示,该方法包括:
101、在视频的前一帧图像中,确定所述前一帧图像的前景范围以及背景范围。
在一帧图像中,包括前景范围和背景范围,所述背景范围是整个图像或整个图像除去所述前景范围后的图像区域。所述前景范围可划分为前景主体图像和前景背景图像。前景范围是指在一幅图像当中使用矩形、圆形、椭圆形等几何形状将前景主体图像框起来的图像区域。举例来说,如图2所示,其中201为前景范围,202为背景范围,在201中,203是前景主体图像;在前景范围201内,前景主体图像203周边,存在有前景背景图像204。在视频的前一帧图像中,通过两种方式来确定前景范围。方式一为人工输入,通过人为随机画一个包含主体图像区域的图像的几何形状作为输入,方式二为自动检测,采用与模板匹配的方式来自动检测输入图像的前景范围,所述模板预先保存在计算机中,并用预定义的几何形状将所述主体图像区域框出来。比如,如果前景主体图像为汽车,则可以使用汽车检测模板来确定前景范围。
进一步地,根据所述确定的前景范围得到背景范围,首先将一幅图像设为b0,前景范围设为b1,背景范围用bbg表示,通过两种方式获取所述背景范围:
方式一:bbg=b0-b1。通过在一幅图像中减去前景范围得到背景范围。
方式二:bbg=b0。这种方式将整幅图像作为背景范围。
102、获取下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和放大倍率。
103、根据所述下一帧图像的背景范围相对于前一帧图像的背景范围的运动矢量和放大倍率,得到下一帧图像的前景范围。
下一帧图像相对于前一帧图像会产生相对运动,具体的,下一帧图像的背景范围相对于前一帧图像的背景范围,会出现相对位移,以及放大或缩小的情况。这样,通过下一帧图像的相对于前一帧图像的背景范围的运动矢量和放大倍率,可以获取到下一帧图像中的前景范围。举例来说,根据所述下一帧图像的相对于前一帧图像的背景范围的运动矢量和视频中前一帧图像中心点位置坐标,得到下一帧图像中心点的位置坐标;然后根据所述下一帧图像的相对于前一帧图像的背景范围的放大倍率、下一帧图像中心点位置坐标和前一帧图像中任意点的位置坐标,得到与前一帧图像中任意点对应的下一帧中任意点的位置坐标,从而得到下一帧图像的前景范围。
104、计算所述下一帧图像的前景范围和所述前一帧图像的前景范围之间的灰度值之差,由灰度值之差得到前景运动边缘灰度图。
一幅灰度图像,采用灰度值为0至255之间的像素点来表示,通过计算下一帧图像的所述前景范围和前一帧图像的所述前景范围的灰度值之差,得到前景运动边缘灰度图。
下面举例来对步骤104进行说明。为了便于说明,首先假设前一帧图像的背景图像和下一帧图像的背景图像是相同的,即前后背景图像没有变化。然后再假设前一帧图像的前景范围是16*16个像素点(共256个像素点)的一副图像,并且下一帧图像的前景范围也是16*16个像素点的一副图像,如图15所示。其中1501为前一帧图像的前景范围,1502为下一帧图像的前景范围。可以看出,15021与15011的轮廓形状相同,但15021在1502的位置与15011在1501的位置相比,出现了变化。需要指出的是,实景应用中,前景范围通常并不只是16*16个像素点的情况,而有可能远远超过16*16个像素点。在本发明实施例中,以16*16个像素点来举例进行说明,但并不作为对本发明实施例的限定。
其中,前一帧图像的前景范围中256个像素点的灰度取值如表1所示。
灰度由0至255,表示灰阶由黑至白的变化。
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0
0 1 10 10 10 10 10 10 10 10 10 10 10 10 1 0
0 1 10 90 90 90 90 90 90 90 90 90 90 10 1 0
0 1 10 90 90 150 255 255 150 150 150 90 90 10 1 0
0 1 10 90 90 150 255 255 200 200 150 90 90 10 1 0
0 1 10 90 90 150 255 255 255 255 150 90 90 10 1 0
0 1 10 90 90 150 255 255 200 200 150 90 90 10 1 0
0 1 10 90 90 150 255 255 200 200 150 90 90 10 1 0
0 1 10 90 90 150 255 255 200 200 150 90 90 10 1 0
0 1 10 90 90 255 255 255 255 255 255 90 90 10 1 0
0 1 10 90 90 90 90 90 90 90 90 90 90 10 1 0
0 1 10 10 10 10 10 10 10 10 10 10 10 10 1 0
0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
表1
下一帧图像的前景范围中256个像素点的灰度取值如表2所示。
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0
0 1 10 10 10 10 10 10 10 10 10 10 10 10 1 0
0 1 10 90 90 90 90 90 90 90 90 90 90 10 1 0
0 1 10 90 90 255 255 150 150 150 150 90 90 10 1 0
0 1 10 90 90 255 255 200 200 200 150 90 90 10 1 0
0 1 10 90 90 255 255 255 255 200 150 90 90 10 1 0
0 1 10 90 90 255 255 220 200 200 150 90 90 10 1 0
0 1 10 90 90 255 255 220 200 200 150 90 90 10 1 0
0 1 10 90 90 255 255 220 200 200 150 90 90 10 1 0
0 1 10 90 255 255 255 255 255 255 150 90 90 10 1 0
0 1 10 90 90 90 90 90 90 90 90 90 90 10 1 0
0 1 10 10 10 10 10 10 10 10 10 10 10 10 1 0
0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
表2
计算下一帧图像的前景范围和前一帧图像的前景范围的之间的灰度值之差,为计算简便,这里取差值的绝对值,得到的计算结果如表3所示。可以看到,下一帧图像的前景范围相对于前一帧图像的前景范围出现了移动,没有相对移动的图像对应的像素点,在表3中的数值为0;而出现相对移动的图像,其边界像素点不为0。
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 105 0 105 0 0 0 0 0 0 0 0
0 0 0 0 0 105 0 55 0 0 0 0 0 0 0 0
0 0 0 0 0 105 0 0 0 55 0 0 0 0 0 0
0 0 0 0 0 105 0 35 0 0 0 0 0 0 0 0
0 0 0 0 0 105 0 35 0 0 0 0 0 0 0 0
0 0 0 0 0 105 0 35 0 0 0 0 0 0 0 0
0 0 0 0 165 0 0 0 0 0 105 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
表3
根据如表3所示的灰度值之差,构建前景运动边缘灰度图,如图16所示。图16是根据表3中的结果,得到了前景运动边缘的各个像素点,并由这些像素点构建前景运动边缘灰度图。图16中的14个黑色范围,对应表3中14个不为0的像素点。
105、根据所述前景运动边缘灰度图,得到前景主体图像区域。
对所述前景运动边缘灰度图进行二值化处理,得到二值化图像,再对所述二值化图像进行腐蚀运算,实现去噪功能,使前景运动边缘清晰,得到所述前景主体图像区域。
比如说,在图16的基础上,进行二值化处理,将不为0的像素点都取值为1。假设0表示黑色,1表示白色,那么二值化图像如图17所示。经过腐蚀、去噪等处理后,得到的图像如18所示,在图18的基础上,连接各个边缘部分,得到图19,可见,图19中的1901即为前景主体图像区域。
本发明实施例提供了一种确定视频前景主体图像区域的方法,根据视频图像中的前景范围得到背景范围,获取下一帧图像的相对于前一帧图像的背景范围的运动矢量和放大倍率,根据获取的运动矢量和放大倍率,得到下一帧图像的前景范围,并计算下一帧图像的所述前景范围和前一帧图像的所述前景范围的灰度值之差,得到前景运动边缘灰度图,对所述前景运动边缘灰度图进行二值化处理和腐蚀运算,得到前景主体图像区域,从而避免了对特征点进行计算并分类而导致的将大量前景的点归类为背景,背景点被归类为前景的问题,实现了分割准确率的提高。
本发明实施例提供了一种确定视频前景主体图像区域的方法,能根据视频图像中的前景范围得到背景范围,对背景范围进行均匀取点,依据模版匹配算法,计算点集中每一点相对于下一帧图像的运动矢量和放大倍率,进而获取下一帧图像的前景范围;然后通过计算下一帧图像的所述前景范围和前一帧图像的所述前景范围的灰度值之差,得到前景运动边缘灰度图,再通过对所述前景运动边缘灰度图进行二值化处理和腐蚀运算,得到前景主体图像区域。具体的,如图3所示,该方法包括:
301、在视频的前一帧图像中,确定前景范围以及背景范围。
在一帧图像中,包括前景范围和背景范围,所述背景范围是整个图像或整个图像除去所述前景范围后的图像。所述前景范围可划分为前景主体图像和前景背景图像。前景范围是指在一幅图像当中使用矩形、圆形、椭圆形等几何形状将前景主体图像框起来的图像区域。举例来说,如图2所示,其中201为前景范围,202为背景范围,在201中,203是前景主体图像;在前景范围201内,前景主体图像203周边,存在有前景背景图像204。在视频的前一帧图像中,通过两种方式来确定前景范围。方式一为人工输入,通过人为随机画一个包含主体图像区域的图像的几何形状作为输入,方式二为自动检测,采用与模板匹配的方式来自动检测输入图像的前景范围,所述模板预先保存在计算机中,并用预定义的几何形状将所述主体图像区域框出来。比如,如果前景主体图像为汽车,则可以使用汽车检测模板来确定前景范围。
302、在前一帧图像的所述背景范围中取一组点集;
根据确定的前景范围得到所述背景范围,对所述背景范围通过均匀取点或稀疏取点得到所述点集,所述稀疏取点包括:角点和边缘点。所述角点是在一幅图像中在X方向和Y方向都大于梯度阈值的点,角点可以是两条线的交叉处。比如在一张白纸上放有一个长方体的物体,那么角点则为所述长方体的物体在白纸上垂直投影得到的长方形的四个角,边缘点为长方形的边上所取的点。
上述梯度阈值在不同的算法中用户可以设置不同的值,在一个算法当中,用户还可以根据实际情况进行设置不同的值。
303、计算所述点集中的每个点相对于下一帧图像的运动矢量。
这里可以根据光流算法,计算所述点集中的每个点相对于下一帧图像的运动矢量。
除了光流算法之外,还可以使用以下S1,S2步骤计算运动矢量:
S1、对所述点集中的每个点,在距离d的范围内获取下一帧图像中的对应点。
所述距离d根据视频宽度与视频中物体运动速度获得。举例来说,假如视频宽度为1024个像素点,帧率为25帧/秒,人从视频左边界运动到右边界的时间为10秒,则相邻两帧间人的运动距离为1024/(10*25)=4个像素,所述距离d应设置为大于4个像素的值。
上述举例中对于距离d的取值为4,在实际应用中,根据不同的视频宽度、不同的帧率以及前景主体图像在视频图像中的运动时间,距离d的取值可以有不同的值,本发明对此不作限定。
S2、根据所述点集中的每个点和在距离d的范围内下一帧图像中的对应点的距离,得到所述点集中的每个点相对于下一帧图像的运动矢量。
304、根据模板匹配算法,计算所述点集中的每个点相对于下一帧图像的匹配度;
在大小一致的两幅连续的视频图像中,选择其中任意一幅为模板图像其中一幅为模板图像,则另外一幅为原始图像。比如,如果下一帧图像选为模板图像,则前一帧图像相应的作为原始图像。在所述原始图像中选择任一点,在所述任一点周围延伸一个点区域,根据模板匹配算法对所述原始图像和所述模板的点区域计算匹配度,得到一个匹配度集合,所述匹配度集合为所述点集中的每个点的匹配度的集合。
305、筛选出匹配度高于匹配阈值的点。
所述匹配阈值为所述点集中的每个点的匹配度组成的集合中的中值。当然,除了将中值作为匹配阈值,还可以通过计算所有匹配度数值的算术平均值等方式来确定匹配阈值,本发明实施例对此不做限定。
根据所述匹配度集合,选取所述匹配度集合中的中值作为匹配阈值,所述中值为匹配度集合中位于中间位置的点的匹配度,对所述匹配度集合中的每个点做筛选,筛选出匹配度高于匹配阈值的点。
下面举例对上述步骤302至305进行说明。假设在前一帧图像的所述背景范围中取一组点集P={p1,p2,……pn},分别计算了点集P中的每点的相对于下一帧图像的运动矢量{v1,v2,……vn}。然后根据模板匹配算法,计算所述点集P中的每个点相对于下一帧图像的匹配度,具体的,模板匹配算法的计算公式为
R = Σ x , y ( T ′ ( x , y ) × I ′ ( x , y ) ) Σ x , y T ′ ( x , y ) 2 × Σ x , y I ′ ( x , y ) 2 - - - ( 1 - 1 )
其中,
T′(x,y)=T(x,y)-1/(w×h)×∑x′,y′T(x′,y′) (1-2)
I′(x,y)=I(x,y)-1/(w×h)×∑x′,y′I(x′,y′) (1-3)
在上述公式中,T为模板图像,I为与模板对应的原始图像。X和X’都表示像素的横坐标,Y和Y’都表示像素的纵坐标。
对于点集P中的每个点,都得到了一个匹配度,匹配度数值组成的集合R={R1,R2,……Rn}。如果匹配阈值为集合R的中值Rx,1≤x≤n,则将筛选出大于Rx的匹配度。
306、根据所述匹配度高于匹配阈值的点的运动矢量,得到下一帧图像的所述背景范围相对于前一帧图像的所述背景范围的运动矢量。
所述背景范围是整个图像或整个图像范围除去所述前景范围后的图像范围。
根据所述确定前景范围得到背景范围,首先给定一幅图像设为b0,前景范围设为b1,背景范围用bbg表示,通过两种方式获取所述背景范围:
方式一:bbg=b0-b1。通过在一幅图像中减去前景范围得到背景范围。
方式二:bbg=b0。这种方式将整幅图像作为背景范围。
对所述背景范围的运动做估计得到所述背景范围的运动矢量。
根据公式v0=[median(X),median(Y)],对所述筛选出匹配度高于匹配阈值的每个点计算运动矢量,得到下一帧图像的所述背景范围相对于前一帧图像的所述背景范围的运动矢量v0;其中,X是所述匹配度高于匹配阈值的点的运动矢量的x方向分量的集合,Y是所述匹配度高于匹配阈值的点的运动矢量的y方向分量的集合。
v0在x方向和y方向的分量,分别为匹配度高于匹配阈值的每个点的运动矢量在x方向分量的集合的中值,以及在y方向分量的集合的中值。当然,除了通过中值来确定v0,还可以通过计算所有运动矢量的算术平均值等方式来确定v0,本发明实施例对此不做限定。
307、根据所述匹配度高于匹配阈值的点在前一帧中的两两之间距离和在下一帧中的两两之间距离,得到下一帧图像的所述背景范围相对于前一帧图像的所述背景范围的放大倍率。
根据公式s=median(D1)/median(D0),得到下一帧图像的所述背景范围相对于前一帧图像的所述背景范围的放大倍率s;其中,D0是所述匹配度高于匹配阈值的点在前一帧中的两两之间距离的集合,D1是所述匹配度高于匹配阈值的点在下一帧中的两两之间距离的集合。
s为对D0和D1取中值后所得到的比值。当然,除了通过中值来确定s,还可以分别计算D0和D1中所有两两之间距离的算术平均值,并将两个算术平均值的比值作为s,本发明实施例对此不做限定。
其中,需要说明的是,上述步骤306和307可以变换执行顺序。
308、根据所述背景范围的运动矢量和前一帧图像中的所述背景范围的中心点C0,得到下一帧图像中的所述背景范围的中心点C0’;
309、对于前一帧图像中的所述前景范围中的任意点p,根据公式
p’=s*(p-C0)+C0
得到下一帧图像中与所述任意点p对应的点p’,根据p’确定下一帧图像中的所述前景范围;其中s为所述背景范围的放大倍率。
以下有两种方式可以确定下一帧图像中的所述前景范围:
方式一:
假设前一帧图像的前景范围为b1,下一帧图像的前景范围为b1’,分别取所述前一帧图像的前景范围b1的左上角和右下角的点pb1和pb2,假设下一帧图像的前景范围为b1’的左上角和右下角的点pb1’和pb2’,则分别通过公式pb1’=s*(pb1-C0)+C0’和pb2’=s*(pb2-C0)+C0’计算出pb1’和pb2’,分别以pb1’和pb2’作为下一帧图像前景范围的左上角和右下角,得到下一帧图像的前景范围。
方式二:
假设前一帧图像的前景范围为b2,下一帧图像的前景范围为b2’,C1’为下一帧图像的中心点位置,首先根据公式C1’=s*(C1-C0)+C0’计算b2’的中心点位置C1’。C1’的坐标值为(C1’x,C1’y)。如果前景范围是由矩形构成的,则(C1’x-s*width(b2)/2,C1’y-s*height(b2)/2)和(C1’x+s*width(b2)/2,C1’y+s*height(b2)/2)分别为下一帧图像的前景范围的左下角和右上角对角点,根据这两个点可以得到矩形的前景范围。其中width(b2)为构成b2的矩形沿x轴方向的长度,height(b2)为构成b2的矩形沿y轴方向的长度。
在执行步骤309后,可选的,还可以将前一帧图像中的所述前景范围调整到下一帧图像中的所述前景范围的大小,或对下一帧图像中的所述前景范围进行调整,以使得下一帧图像中的所述前景范围与前一帧图像中的所述前景范围大小一致。
310、计算下一帧图像的所述前景范围和前一帧图像的所述前景范围的灰度值之差,由灰度值之差得到前景运动边缘灰度图。
具体的,由灰度值之差得到前景运动边缘灰度图的详细说明,可参考本发明实施例表1至表3,以及图15和图16。
311、根据所述前景运动边缘灰度图,得到前景主体图像区域。
所述根据所述前景运动边缘灰度图,得到前景主体图像区域,如图4所示,具体包括:
41、对所述前景运动边缘灰度图进行二值化处理,得到二值化图像。
所述二值化图像由值为0的像素点和值为1的像素点组成。
所述二值化处理中用到的灰度阈值有三种取值方式:
方式一:根据经验预先设置固定阈值;
方式二:根据实际的前景运动边缘灰度图,人工实时设定阈值;
方式三:根据预定义的灰度阈值设定规则,对不同的前景运动边缘灰度图设定对应的灰度阈值;比如,灰度阈值设定规则可以是,取灰度值最高的10%的点都被处理为值为1的像素点,其他90%的点被处理为值为0的像素点。
42、对所述二值化图像进行腐蚀运算,得到腐蚀后的二值化图像。
采用单一方向的腐蚀模板对所述二值化图像进行腐蚀运算,根据V=v2-v1=(X,Y)对二值化图像分别作x,y方向的宽度为x/3,y/3的单向腐蚀。v2为下一帧图像的前景范围相对于前一帧图像的运动矢量,v1为下一帧图像的背景范围相对于前一帧图像的运动矢量,X,Y分别为V在x方向和y方向的运动分量。如图14所示,所述单一方向的腐蚀模板为长度为2N+1,左边界为N个1,右边界为N个0,中间为1的正向模板。当X大于0时,使用正向模板,当X小于0时,使用负向模板,所述负向模板为将正向模板翻转得到。同理得Y方向的腐蚀模板,在此不再赘述。
43、根据所述腐蚀后的二值化图像,得到所述前景主体图像区域。
具体的,得到所述前景主体图像区域的方式为:
对所述二值化图像分别进行X方向和Y方向的扫描,获取在x轴方向每行最左端和最右端的灰度值为1的像素点,组成第一像素点集,并获取在y轴方向每列最上端和最下端的灰度值为1的像素点,组成第二像素点集,对所述第一像素点集和所述第二像素点集取并集,依次连接所述并集中的像素点,得到所述前景主体图像区域。
对于上述步骤41、42和43,可参考本发明实施例中的针对图17至图19的说明描述。通过步骤41的二值化处理,可以得到如图17所示的效果;步骤42的腐蚀操作后,得到图18的效果;步骤43通过腐蚀后的二值化图像得到前景主体图像区域,如图19所示。
这里提供的得到所述前景主体图像区域的方式仅为实际应用中可选的实现方式的一种,在得到腐蚀后的二值化图像后,本领域技术人员可以根据本发明实施例提供的得到所述前景主体图像区域的方式进行相应变换,能够达到同样的效果,这些相应的变换都在本发明实施例的限定范围内。
本发明实施例提供了一种确定视频前景主体图像区域的方法,根据视频图像中的前景范围得到背景范围,对背景范围进行均匀取点,计算所述点集中每一点相对于下一帧图像的运动矢量和放大倍率,根据所述计算所述点集中每一点相对于下一帧图像的运动矢量和放大倍率,获取下一帧图像的前景范围,计算下一帧图像的所述前景范围和前一帧图像的所述前景范围的灰度值之差,得到前景运动边缘灰度图,进而对所述前景运动边缘灰度图进行二值化处理和腐蚀运算,得到前景主体图像区域,从而避免了对选取的特征点进行计算并分类而导致的将大量前景的点归类为背景,背景点被归类为前景的问题,实现了分割准确率的提高。
本发明实施例提供了一种确定视频前景主体图像区域的装置,如图5所示,该装置包括:前景范围确定单元51,第一获取单元52,第二获取单元53,计算单元54,第三获取单元55。
确定单元51,用于在视频的前一帧图像中,确定所述前一帧图像前景范围以及背景范围。所述背景范围是整个图像或整个图像除去前景范围后的图像区域。
在一帧图像中,包括前景范围和背景范围,所述背景范围是整个图像或整个图像范围除去所述前景范围后的图像范围。所述前景范围可划分为前景主体图像和前景背景图像。前景范围是指在一幅图像当中使用矩形、圆形、椭圆形等几何形状将前景主体图像框起来的图像区域。举例来说,如图2所示,其中201为前景范围,202为背景范围,在201中,203是前景主体图像;在前景范围201内,前景主体图像203周边,存在有前景背景图像204。在视频的前一帧图像中,所述前景范围确定单元51通过两种方式来确定前景范围。方式一为人工输入,通过人为随机画一个包含主体图像区域的图像的几何形状作为输入,方式二为自动检测,采用与模板匹配的方式来自动检测输入图像的前景范围,所述模板预先保存在计算机中,并用预定义的几何形状将所述主体图像区域框出来。比如,如果前景主体图像为汽车,则可以使用汽车检测模板来确定前景范围。
第一获取单元52,用于获取下一帧图像的背景范围相对于前一帧图像的背景范围的运动矢量和放大倍率;所述背景范围是整个图像或整个图像除去所述前景范围后的图像。
第二获取单元53,用于根据第一获取单元52获取的所述下一帧图像的背景范围相对于前一帧图像的背景范围的运动矢量和放大倍率,得到下一帧图像中的所述前景范围。
下一帧图像相对于前一帧图像会产生相对运动,具体的,下一帧图像的背景范围相对于前一帧图像的背景范围,会出现相对位移,以及放大或缩小的情况。这样,所述第二获取单元53根据所述第一获取单元所获取的下一帧图像的相对于前一帧图像的背景范围的运动矢量和放大倍率,可以获取到下一帧图像中的前景范围。举例来说,所述第二获取单元53根据视频中前一帧图像中心点位置坐标,通过所述第一获取单元所获取的下一帧图像的相对于前一帧图像的背景范围的运动矢量,得到下一帧图像中心点的位置坐标,然后根据所述下一帧图像的相对于前一帧图像的背景范围的放大倍率、下一帧图像中心点位置坐标和前一帧图像中任意点的位置坐标,得到与前一帧图像中任意点对应的下一帧中任意点的位置坐标,从而得到下一帧图像的前景范围。
计算单元54,用于计算第二获取单元得到的下一帧图像的所述前景范围和确定单元确定的前一帧图像的所述前景范围的灰度值之差,并由该灰度值之差得到前景运动边缘灰度图。
一幅灰度图像,采用灰度值为0至255之间的像素点来表示,所述计算单元54通过计算下一帧图像的所述前景范围和前一帧图像的所述前景范围的灰度值之差,得到前景运动边缘灰度图。
第三获取单元55,用于根据计算单元54获得的所述前景运动边缘灰度图,得到前景主体图像区域。
所述第三获取单元55对所述前景运动边缘灰度图进行二值化处理,得到二值化图像,再对所述二值化图像进行腐蚀运算,实现去噪功能,使前景运动边缘清晰,得到所述前景主体图像区域。
进一步的,如图6所示,所述第一获取单元52具体包括:
点集获取子单元521,用于在确定单元确定的前一帧图像的所述背景范围中取一组点集。
所述点集获取子单元根据前景范围确定单元51所确定的前景范围得到所述背景范围,再对所述背景范围通过均匀取点或稀疏取点得到所述点集,所述稀疏取点包括:角点和边缘点。所述角点是在一幅图像中在X方向和Y方向都有大于梯度阈值的点,角点可以是两条线的交叉处。比如在一张白纸上放有一个长方体的物体,那么角点则为所述长方体的物体在白纸上垂直投影得到的长方形的四个角,边缘点为长方形的边上所取的点。
上述梯度阈值在不同的算法中用户可以设置不同的值,在一个算法当中,用户还可以根据实际情况进行设置不同的值。
运动矢量计算子单元522,用于计算点集获取子单元521获取的所述点集中的每个点相对于下一帧图像的运动矢量。
匹配度计算子单元523,用于根据所述模板匹配算法,计算点集获取子单元521获取的所述点集中的每个点相对于下一帧图像的匹配度。
在大小一致的两幅连续的视频图像中,选择其中一幅为模板图像,则另外一幅为原始图像,比如,如果下一帧图像选为模板图像,则前一帧图像相应的作为原始图像。在所述原始图像中选择任一点,在所述任一点周围延伸一个点区域,所述匹配度计算子单元63根据模板匹配算法对所述原始图像和所述模板的点区域计算匹配度,得到一个匹配度集合,所述匹配度集合为所述点集中的每个点的匹配度的集合。
筛选子单元524,用于从点集获取子单元521获取的所述点集中筛选出匹配度高于匹配阈值的点;所述匹配阈值为所述点集中的每个点的匹配度组成的集合中的中值。
所述匹配阈值为所述点集中的每个点的匹配度组成的集合中的中值。当然,除了将中值作为匹配阈值,还可以通过计算所有匹配度数值的算术平均值等方式来确定匹配阈值,本发明实施例对此不做限定。
筛选子单元524根据所述匹配度集合,选取所述匹配度集合中的中值作为匹配阈值,所述中值为匹配度集合中位于中间位置的点的匹配度,对所述匹配度集合中的每个点做筛选,筛选出匹配度高于匹配阈值的点。
下面举例对上述第一获取单元52中点集获取子单元521,运动矢量计算子单元522,匹配度计算子单元523,筛选子单元524所做的动作进行说明。
假设点集获取子单元521在前一帧图像的所述背景范围中取一组点集P={p1,p2,……pn},运动矢量计算子单元522分别计算了点集P中的每点的相对于下一帧图像的运动矢量{v1,v2,……vn}。匹配度计算子单元523根据模板匹配算法,计算所述点集P中的每个点相对于下一帧图像的匹配度。
对于点集P中的每个点,都得到了一个匹配度,匹配度数值组成的集合R={R1,R2,……Rn}。如果匹配阈值为集合R的中值Rx,1≤x≤n,筛选子单元524则将筛选出大于Rx的匹配度。
运动矢量获取子单元525,用于根据筛选子单元524筛选的所述匹配度高于匹配阈值的点的运动矢量,得到下一帧图像的所述背景范围相对于前一帧图像的所述背景范围的运动矢量。
放大倍率获取子单元526,用于根据筛选子单元524筛选的所述匹配度高于匹配阈值的点在前一帧中的两点之间距离和在下一帧中的两点之间距离,得到下一帧图像的所述背景范围相对于前一帧图像的所述背景范围的放大倍率。
进一步的,运动矢量获取子单元525,如图7所示,具体包括:
运动矢量获取模块5251,用于根据公式v0=[median(X),median(Y)],得到下一帧图像的所述背景范围相对于前一帧图像的所述背景范围的运动矢量v0;其中,X是所有匹配度高于匹配阈值的点的运动矢量的x方向分量的集合,Y是所有匹配度高于匹配阈值的点的运动矢量的y方向分量的集合。
进一步的,放大倍率获取子单元526,如图8所示,具体包括:
放大倍率获取模块5261,用于根据公式s=median(D1)/median(D0),得到下一帧图像的所述背景范围相对于前一帧图像的所述背景范围的放大倍率s;其中,D0是所有匹配度高于匹配阈值的点在前一帧中的两两之间距离的集合,D1是所有匹配度高于匹配阈值的点在下一帧中的两两之间距离的集合。
进一步的,所述运动矢量计算子单元522,如图9所示,具体包括:
第一运动矢量计算模块5221,用于根据光流算法,计算点集获取子单元521获取的所述点集中的每个点相对于下一帧图像的运动矢量。
对应点获取模块5222,用于对点集获取子单元521获取的所述点集中的每个点,在距离d的范围内获取下一帧图像中的对应点,所述距离d根据视频宽度与视频中物体运动速度获得。
第二运动矢量计算模块5223,用于根据所述点集中的每个点和对应点获取模块5222获取的在距离d的范围内下一帧图像中的对应点的距离,得到所述点集中的每个点相对于下一帧图像的运动矢量。
进一步的,所述第二获取单元53,如图10所示,具体包括:
中心点获取子单元531,用于根据第一获取单元获取的下一帧图像的背景范围相对于前一帧图像的背景范围的运动矢量和前一帧图像中的所述背景范围的中心点C0,得到下一帧图像中的所述背景范围的中心点C0’。
前景范围获取子单元532,用于对于确定单元所确定的前一帧图像中的所述前景范围中的任意点p,根据公式
p’=s*(p-C0)+C0
得到下一帧图像中与所述任意点p对应的点p’,根据p’确定下一帧图像中的所述前景范围;其中s为所述背景范围的放大倍率。
进一步地,如图11所示,所述装置还包括:
第一前景范围调整单元56,用于所述第二获取单元在根据所述下一帧图像的背景范围相对于前一帧图像的背景范围的运动矢量和放大倍率,得到下一帧图像中的所述前景范围后,对前一帧图像中的所述前景范围进行调整,以使得所述前一帧图像中的所述前景范围与所述下一帧图像中的所述前景范围的大小一致。
第二前景范围调整单元57,用于所述第二获取单元在根据所述下一帧图像的背景范围相对于前一帧图像的背景范围的运动矢量和放大倍率,得到下一帧图像中的所述前景范围后,对下一帧图像中的所述前景范围进行调整,以使得下一帧图像中的所述前景范围与前一帧图像中的所述前景范围大小一致。
进一步的,所述第三获取单元55,如图12所示,具体包括:
处理子单元551,用于对所述计算单元得到的前景运动边缘灰度图进行二值化处理,得到二值化图像,所述二值化图像由值为0的像素点和值为1的像素点组成。
腐蚀子单元552,用于对处理子单元551得到的所述二值化图像进行腐蚀运算,得到腐蚀后的二值化图像。
所述腐蚀子单元552采用单一方向的腐蚀模板对所述二值化图像进行腐蚀运算,根据V=v2-v1=(X,Y)对二值化图像分别作x,y方向的宽度为x/3,y/3的单向腐蚀。v2为前一帧图像的前景范围的运动矢量,v1为下一帧图像的背景范围的运动矢量,x,y分别为V在x方向和y方向的运动分量。如图14所示,所述单一方向的腐蚀模板为长度为2N+1,左边界为N个1,右边界为N个0,中间为1的正向模板。当X大于0时,使用正向模板,当X小于0时,使用负向模板,所述负向模板为将正向模板翻转得到。同理得Y方向的腐蚀模板,在此不再赘述。
前景主体图像区域获取子单元553,用于根据腐蚀子单元552生成的所述腐蚀后的二值化图像,得到所述前景主体图像区域。
进一步的,所述前景主体图像区域获取子单元553,如图13所示,具体包括:
像素点集获取模块5531,用于获取处理子单元得到的在x轴方向每行最左端和最右端的灰度值为1的像素点,组成第一像素点集,并获取在y轴方向每列最上端和最下端的灰度值为1的像素点,组成第二像素点集。
并集获取模块5532,用于得到像素点集获取模块5531获取的所述第一像素点集和所述第二像素点集的并集。
连接模块5533,用于依次连接由并集获取模块5532得到的所述并集中的像素点,得到所述前景主体图像区域。
图20为本发明实施例提供的终端的结构示意图,该终端包括收发器2001,存储器2002和处理器2003。
具体的,收发器2001用于与其他设备进行通信,或执行人机间的通信。比如,收发器2001可用来接收其他设备发送的或人工输入的视频图像,还可以将终端自身的视频图像发送到其他设备。存储器2002用于存储各种程序、应用以及视频文件,存储器2002存储的内容可以是由收发器2001从外界接收的,也可以是由处理器2003处理后发送给存储器2002的。存储器2002能够在处理器2003的调用下将各程序、应用以及视频文件存入或读出。此外,处理器2003用于从存储器中读取出视频文件,并执行本发明实施例中所述的确定视频前景主体图像区域的功能。本发明实施例中的处理器2003可以执行上述实施例中结合图5至图13描述的任一动作或功能。需要指出的是,终端的处理器2003包括的各个装置只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各装置的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。此外,本发明实施例中的终端可以是个人电脑、服务器和各种移动终端,如智能手机,平板电脑,移动阅读设备等。
本发明实施例提供了一种确定视频前景主体图像区域的装置,根据视频图像中的前景范围得到背景范围,对背景范围进行均匀取点,计算所述点集中每一点相对于下一帧图像的运动矢量和放大倍率,根据所述计算所述点集中每一点相对于下一帧图像的运动矢量和放大倍率,获取下一帧图像的前景范围,计算下一帧图像的所述前景范围和前一帧图像的所述前景范围的灰度值之差,得到前景运动边缘灰度图,进而对所述前景运动边缘灰度图进行二值化处理和腐蚀运算,得到前景主体图像区域,从而避免了对选取的特征点进行计算并分类而导致的将大量前景的点归类为背景,背景点被归类为前景的问题,实现了分割准确率的提高。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在可读取的存储介质中,如计算机的软盘,硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (18)

1.一种确定视频前景主体图像区域的方法,其特征在于,包括:
在视频的前一帧图像中,确定所述前一帧图像的前景范围以及背景范围,所述背景范围是整个图像或整个图像除去所述前景范围后的图像区域,所述前景范围包括前景主体图像和前景背景图像,所述前景背景图像为所述前景范围除去所述前景主体图像的图像部分;
获取下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和放大倍率;
根据所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和放大倍率,得到下一帧图像中的前景范围;
计算所述下一帧图像的前景范围和所述前一帧图像的前景范围的之间的灰度值之差,由所述灰度值之差得到前景运动边缘灰度图;
根据所述前景运动边缘灰度图,得到前景主体图像区域。
2.根据权利要求1所述的方法,其特征在于,所述获取下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和放大倍率,包括:
在所述前一帧图像的背景范围中取一组点集;
计算所述点集中的每个点相对于下一帧图像的运动矢量;
根据模板匹配算法,计算所述点集中的每个点相对于下一帧图像的匹配度;
从所述点集中筛选出匹配度高于匹配阈值的点;所述匹配阈值为所述点集中的每个点的匹配度组成的集合的中值;
根据所述匹配度高于匹配阈值的点的运动矢量,得到所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量;
根据所述匹配度高于匹配阈值的点在前一帧中的两点之间距离和在下一帧中的两点之间距离,得到所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的放大倍率。
3.根据权利要求2所述的方法,其特征在于,所述计算所述点集中的每个点相对于下一帧图像的运动矢量,包括:
根据光流算法,计算所述点集中的每个点相对于下一帧图像的运动矢量;或
对所述点集中的每个点,在距离d的范围内获取下一帧图像中的对应点;所述距离d根据视频宽度与视频中物体运动速度获得;根据所述点集中的每个点和在距离d的范围内下一帧图像中的对应点的距离,得到所述点集中的每个点相对于下一帧图像的运动矢量。
4.根据权利要求2所述的方法,其特征在于,所述根据所述匹配度高于匹配阈值的点的运动矢量,得到所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量,包括:
根据公式v0=[median(X),median(Y)],得到所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量v0;其中,X是所有所述匹配度高于匹配阈值的点的运动矢量的x方向分量的集合,Y是所有所述匹配度高于匹配阈值的点的运动矢量的y方向分量的集合。
5.根据权利要求2所述的方法,其特征在于,所述根据所述匹配度高于匹配阈值的点在前一帧中的两点之间距离和在下一帧中的两点之间距离,得到所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的放大倍率,包括:
根据公式s=median(D1)/median(D0),得到下一帧图像的所述背景范围相对于前一帧图像的所述背景范围的放大倍率s;其中,D0是所有所述匹配度高于匹配阈值的点在前一帧中的两两之间距离的集合,D1是所有所述匹配度高于匹配阈值的点在下一帧中的两两之间距离的集合。
6.根据权利要求1至5中任意一项所述的方法,其特征在于,所述根据所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和放大倍率,得到所述下一帧图像中的前景范围,包括:
根据所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和前一帧图像中的所述背景范围的中心点C0,得到下一帧图像中的所述背景范围的中心点C0’;
对于前一帧图像中的所述前景范围中的任意点p,根据公式
p’=s*(p-C0)+C0
得到下一帧图像中与所述任意点p对应的点p’,根据p’确定下一帧图像中的所述前景范围;其中s为所述背景范围的放大倍率。
7.根据权利要求6所述的方法,其特征在于,在根据所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和放大倍率,得到下一帧图像中的所述前景范围后,所述方法还包括:
对前一帧图像中的所述前景范围进行调整,以使得所述前一帧图像中的所述前景范围与所述下一帧图像中的所述前景范围的大小一致;
对下一帧图像中的所述前景范围进行调整,以使得下一帧图像中的所述前景范围与前一帧图像中的所述前景范围大小一致。
8.根据权利要求1所述的方法,其特征在于,所述根据所述前景运动边缘灰度图,得到前景主体图像区域,包括:
对所述前景运动边缘灰度图进行二值化处理,得到二值化图像,所述二值化图像由值为1的像素点和值为0的像素点组成;
对所述二值化图像进行腐蚀运算,得到腐蚀后的二值化图像;
根据所述腐蚀后的二值化图像,得到所述前景主体图像区域。
9.根据权利要求8所述的方法,其特征在于,所述根据所述腐蚀后的二值化图像,得到所述前景主体图像区域,包括:
获取在x轴方向每行最左端和最右端的灰度值为1的像素点,组成第一像素点集,并获取在y轴方向每列最上端和最下端的灰度值为1的像素点,组成第二像素点集;
得到所述第一像素点集和所述第二像素点集的并集;
依次连接所述并集中的像素点,得到所述前景主体图像区域。
10.一种确定视频前景主体图像区域的装置,其特征在于,包括:
确定单元,用于在视频的前一帧图像中,确定所述前一帧图像的前景范围以及背景范围,所述背景范围是整个图像或整个图像除去所述前景范围后的图像区域,所述前景范围包括前景主体图像和前景背景图像,所述前景背景图像为所述前景范围除去所述前景主体图像的图像部分;
第一获取单元,用于获取下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和放大倍率;
第二获取单元,用于根据所述第一获取单元获取的所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和放大倍率,得到下一帧图像中的所述前景范围;
计算单元,用于计算所述第二获取单元得到的下一帧图像的前景范围和所述确定单元确定的前一帧图像的前景范围的之间的灰度值之差,由所述灰度值之差得到前景运动边缘灰度图;
第三获取单元,用于根据所述计算单元获得的所述前景运动边缘灰度图,得到前景主体图像区域。
11.根据权利要求10所述的装置,其特征在于,所述第一获取单元具体包括:
点集获取子单元,用于在所述确定单元确定的前一帧图像的背景范围中取一组点集;
运动矢量计算子单元,用于计算所述点集获取子单元获取的所述点集中的每个点相对于下一帧图像的运动矢量;
匹配度计算子单元,用于根据模板匹配算法,计算所述点集获取子单元获取的所述点集中的每个点相对于下一帧图像的匹配度;
筛选子单元,用于从所述点集获取子单元获取的所述点集中筛选出匹配度高于匹配阈值的点;所述匹配阈值为所述点集中的每个点的匹配度组成的集合的中值;
运动矢量获取子单元,用于根据所述筛选子单元筛选的所述匹配度高于匹配阈值的点的运动矢量,得到所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量;
放大倍率获取子单元,用于根据所述筛选子单元筛选的所述匹配度高于匹配阈值的点在前一帧中的两点之间距离和在下一帧中的两点之间距离,得到所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的放大倍率。
12.根据权利要求11所述的装置,其特征在于,所述运动矢量计算子单元具体包括:
第一运动矢量计算模块,用于根据光流算法,计算所述点集获取子单元获取的所述点集中的每个点相对于下一帧图像的运动矢量;
对应点获取模块,用于对所述点集获取子单元获取的所述点集中的每个点,在距离d的范围内获取下一帧图像中的对应点,所述距离d根据视频宽度与视频中物体运动速度获得;
第二运动矢量计算模块,用于根据所述点集中的每个点和所述对应点获取模块获取的在距离d的范围内下一帧图像中的对应点的距离,得到所述点集中的每个点相对于下一帧图像的运动矢量。
13.根据权利要求11所述的装置,其特征在于,所述运动矢量获取子单元,具体包括:
运动矢量获取模块,用于根据公式v0=[median(X),median(Y)],得到所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量v0;其中,X是所有所述匹配度高于匹配阈值的点的运动矢量的x方向分量的集合,Y是所有所述匹配度高于匹配阈值的点的运动矢量的y方向分量的集合。
14.根据权利要求11所述的装置,其特征在于,所述放大倍率获取子单元,具体包括:
放大倍率获取模块,用于根据公式s=median(D1)/median(D0),得到下一帧图像的所述背景范围相对于前一帧图像的所述背景范围的放大倍率s;其中,D0是所有所述匹配度高于匹配阈值的点在前一帧中的两两之间距离的集合,D1是所有所述匹配度高于匹配阈值的点在下一帧中的两两之间距离的集合。
15.根据权利要求10至14中任意一项所述的装置,其特征在于,所述第二获取单元具体包括:
中心点获取子单元,用于根据所述第一获取单元获取的下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和前一帧图像中的所述背景范围的中心点C0,得到下一帧图像中的所述背景范围的中心点C0’;
前景范围获取子单元,用于对于所述确定单元所确定的前一帧图像中的所述前景范围中的任意点p,根据公式
p’=s*(p-C0)+C0
得到下一帧图像中与所述任意点p对应的点p’,根据p’确定下一帧图像中的所述前景范围;其中s为所述背景范围的放大倍率,C0’为所述中心点获取子单元得到的下一帧图像中的所述背景范围的中心点。
16.根据权利要求15所述的装置,其特征在于,所述装置还包括:
第一前景范围调整单元,用于所述第二获取单元在根据所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和放大倍率,得到下一帧图像中的所述前景范围后,对前一帧图像中的所述前景范围进行调整,以使得所述前一帧图像中的所述前景范围与所述下一帧图像中的所述前景范围的大小一致;
第二前景范围调整单元,用于所述第二获取单元在根据所述下一帧图像的背景范围相对于所述前一帧图像的背景范围的运动矢量和放大倍率,得到下一帧图像中的所述前景范围后,对下一帧图像中的所述前景范围进行调整,以使得下一帧图像中的所述前景范围与前一帧图像中的所述前景范围大小一致。
17.根据权利要求10所述的装置,其特征在于,所述第三获取单元,具体包括:
处理子单元,用于对所述计算单元得到的前景运动边缘灰度图进行二值化处理,得到二值化图像,所述二值化图像由值为0的像素点和值为1的像素点组成;
腐蚀子单元,用于对所述处理子单元得到的所述二值化图像进行腐蚀运算,得到腐蚀后的二值化图像;
前景主体图像区域获取子单元,用于根据所述腐蚀子单元生成的所述腐蚀后的二值化图像,得到所述前景主体图像区域。
18.根据权利要求17所述的装置,其特征在于,所述前景主体图像区域获取子单元具体包括:
像素点集获取模块,用于获取所述处理子单元得到的在x轴方向每行最左端和最右端的灰度值为1的像素点,组成第一像素点集,并获取在y轴方向每列最上端和最下端的灰度值为1的像素点,组成第二像素点集;
并集获取模块,用于得到所述像素点集获取模块获取的所述第一像素点集和所述第二像素点集的并集;
连接模块,用于依次连接所述并集获取模块得到的所述并集中的像素点,得到所述前景主体图像区域。
CN201280001946.9A 2012-09-27 2012-09-27 一种确定视频前景主体图像区域的方法和装置 Active CN103119609B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2012/082227 WO2014047856A1 (zh) 2012-09-27 2012-09-27 一种确定视频前景主体图像区域的方法和装置

Publications (2)

Publication Number Publication Date
CN103119609A CN103119609A (zh) 2013-05-22
CN103119609B true CN103119609B (zh) 2016-11-23

Family

ID=48416767

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280001946.9A Active CN103119609B (zh) 2012-09-27 2012-09-27 一种确定视频前景主体图像区域的方法和装置

Country Status (2)

Country Link
CN (1) CN103119609B (zh)
WO (1) WO2014047856A1 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9489750B2 (en) * 2014-06-26 2016-11-08 Qualcomm Incorporated Exposure metering based on background pixels
CN104135612B (zh) * 2014-07-11 2018-05-01 努比亚技术有限公司 一种可调节拍摄主体位置的拍摄方法和拍摄装置
CN104966305B (zh) * 2015-06-12 2017-12-15 上海交通大学 基于运动矢量划分的前景检测方法
CN105139399A (zh) * 2015-08-25 2015-12-09 广州视源电子科技股份有限公司 一种二极管极性检测方法及装置
CN107871115B (zh) * 2016-11-01 2021-05-04 中国科学院沈阳自动化研究所 一种基于图像的海底热液喷口的识别方法
CN106920244B (zh) * 2017-01-13 2019-08-02 广州中医药大学 一种检测图像区域边缘附近背景点的方法
CN108540715B (zh) * 2018-03-27 2020-07-24 联想(北京)有限公司 一种图片处理方法、电子设备和计算机可读存储介质
CN111058183B (zh) * 2019-12-19 2021-08-10 佛山市君丽织造有限公司 基于图像形态识别的纱线检测方法
CN112037135B (zh) * 2020-09-11 2023-06-09 上海瞳观智能科技有限公司 选择图像关键主体放大并显示的方法
CN113362387B (zh) * 2021-04-12 2023-06-09 深圳大学 一种动态环境移动机器人的环境地图构建方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101098465A (zh) * 2007-07-20 2008-01-02 哈尔滨工程大学 一种视频监控中运动目标检测与跟踪方法
CN101477690A (zh) * 2008-12-30 2009-07-08 清华大学 一种视频帧序列中物体轮廓跟踪的方法和装置
CN102169632A (zh) * 2011-05-13 2011-08-31 北方工业大学 一种平面交叉路口的车流量检测方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100846498B1 (ko) * 2006-10-18 2008-07-17 삼성전자주식회사 영상 해석 방법 및 장치, 및 동영상 영역 분할 시스템
CN100495438C (zh) * 2007-02-09 2009-06-03 南京大学 一种基于视频监控的运动目标检测与识别方法
CN102054277B (zh) * 2009-11-09 2013-08-21 深圳市朗驰欣创科技有限公司 一种运动目标的检测方法、系统及视频分析系统
US8873801B2 (en) * 2010-08-03 2014-10-28 Empire Technology Development Llc Identification of objects in a video
CN102236902B (zh) * 2011-06-21 2013-01-09 杭州海康威视数字技术股份有限公司 一种目标检测方法和装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101098465A (zh) * 2007-07-20 2008-01-02 哈尔滨工程大学 一种视频监控中运动目标检测与跟踪方法
CN101477690A (zh) * 2008-12-30 2009-07-08 清华大学 一种视频帧序列中物体轮廓跟踪的方法和装置
CN102169632A (zh) * 2011-05-13 2011-08-31 北方工业大学 一种平面交叉路口的车流量检测方法

Also Published As

Publication number Publication date
WO2014047856A1 (zh) 2014-04-03
CN103119609A (zh) 2013-05-22

Similar Documents

Publication Publication Date Title
CN103119609B (zh) 一种确定视频前景主体图像区域的方法和装置
US9886759B2 (en) Method and system for three-dimensional data acquisition
CN105957058B (zh) 一种星图的预处理方法
CN101996406A (zh) 无参考结构清晰度图像质量评价方法
CN110598610A (zh) 一种基于神经选择注意的目标显著性检测方法
CN107589850A (zh) 一种手势移动方向的识别方法及系统
CN106934806B (zh) 一种基于结构清晰度的无参考图失焦模糊区域分割方法
CN105894521A (zh) 基于高斯拟合的亚像素边缘检测方法
CN107369131A (zh) 图像的显著性检测方法、装置、存储介质和处理器
CN104751458B (zh) 一种基于180°旋转算子的标定角点检测方法
CN103198455B (zh) 一种利用全变差最小化和灰度共生矩阵的图像去噪方法
US20080084413A1 (en) Method for generating multi-resolution three-dimensional model
CN106023271B (zh) 一种靶标中心坐标提取方法及装置
CN104200426A (zh) 图像插值方法和装置
CN102682424B (zh) 基于边缘方向差值的图像放大处理方法
CN106228568A (zh) 模糊图片检测方法和装置
CN102842120A (zh) 基于超复数小波相位测量的图像模糊程度检测方法
CN109871829A (zh) 一种基于深度学习的检测模型训练方法和装置
CN105890768A (zh) 一种红外图像非均匀性校正的方法及装置
CN108416734A (zh) 基于边缘驱动的文本图像超分辨率重建方法和装置
CN105913488A (zh) 一种基于三维映射表的三维点云快速重建方法
CN110335280A (zh) 一种基于移动端的金融单据图像分割与矫正方法
CN106327558A (zh) 点云立面提取方法和装置
CN106204565A (zh) 一种通过斑块特征配准的图像清晰度检测装置
CN112991374A (zh) 基于Canny算法的边缘增强方法、装置、设备及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20220214

Address after: 550025 Huawei cloud data center, jiaoxinggong Road, Qianzhong Avenue, Gui'an New District, Guiyang City, Guizhou Province

Patentee after: Huawei Cloud Computing Technology Co.,Ltd.

Address before: 518129 Bantian HUAWEI headquarters office building, Longgang District, Guangdong, Shenzhen

Patentee before: HUAWEI TECHNOLOGIES Co.,Ltd.

TR01 Transfer of patent right