CN108961158B - 一种图像合成方法及装置 - Google Patents
一种图像合成方法及装置 Download PDFInfo
- Publication number
- CN108961158B CN108961158B CN201710347773.0A CN201710347773A CN108961158B CN 108961158 B CN108961158 B CN 108961158B CN 201710347773 A CN201710347773 A CN 201710347773A CN 108961158 B CN108961158 B CN 108961158B
- Authority
- CN
- China
- Prior art keywords
- image
- synthesized
- pixel
- target object
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001308 synthesis method Methods 0.000 title claims abstract description 20
- 238000000034 method Methods 0.000 claims abstract description 23
- 238000007499 fusion processing Methods 0.000 claims description 29
- 230000003068 static effect Effects 0.000 claims description 24
- 230000015572 biosynthetic process Effects 0.000 claims description 12
- 238000003786 synthesis reaction Methods 0.000 claims description 12
- 238000007781 pre-processing Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 claims description 2
- 238000000638 solvent extraction Methods 0.000 claims 1
- 230000036544 posture Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 4
- 210000003746 feather Anatomy 0.000 description 4
- 238000005034 decoration Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种图像合成方法及装置,其中,所述图像合成方法包括:对多个目标对象进行多次拍摄,得到多张图像,将所述多张图像中的每张图像划分为多个图像区域,每个图像区域对应一个目标对象,从每个目标对象对应的多个图像区域中,选取一个符合预定姿势条件的待合成图像区域,对选取的每个目标对象对应的待合成图像区域进行融合处理,得到包含所述多个目标对象的合成图像。本发明的图像合成方法,能够得到每个目标对象的姿势都满足要求的合成图像。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种图像合成方法及装置。
背景技术
当前,在拍摄多个人的合影时,拍摄者通常是先拍摄一张图像,如果发现该图像中有至少一个合影人员拍得不理想,例如出现闭眼睛或者姿势没有摆好等情况,则重新拍摄,这不仅需要拍摄者重新执行拍摄操作,还需要所有合影人员重新摆好姿势,实现起来很不方便,且仍难以保证所有合影人员都达到令人满意的拍摄效果。为了在拍摄多人合影时,保证最终合影的拍摄效果,目前也采用图像合成方法来得到最终合影。
其中,现有图像合成方法一般基于人脸检测。例如基于人脸检测,对多个人脸区域进行图像缝合,保证合影中所有人脸区域满足拍摄效果。但实际拍摄多个人的合影时,有时不要求多个人的脸部特征都满足要求,而是要求多个人的姿势都满足要求,这时,基于人脸检测的图像合成方法将不能得到满足要求的合成图像。
发明内容
本发明的目的在于提供一种图像合成方法及装置,以解决现有的图像合成方法常不能得到满足姿势要求的合成图像的问题。
一方面,本发明提供一种图像合成方法,其特征在于,包括:
对多个目标对象进行多次拍摄,得到多张图像;
将所述多张图像中的每张图像划分为多个图像区域,每个图像区域对应一个目标对象;
从每个目标对象对应的多个图像区域中,选取一个符合预定姿势条件的待合成图像区域;
对选取的每个目标对象对应的待合成图像区域进行融合处理,得到包含所述多个目标对象的合成图像。
优选的,所述对多个目标对象进行多次拍摄,得到多张图像的步骤之后,所述将所述多张图像中的每张图像划分为多个图像区域的步骤之前,所述方法还包括:
对所述多张图像进行处理,提取基于所述多张图像的背景图像;
所述对选取的每个目标对象对应的待合成图像区域进行融合处理,得到包含所述多个目标对象的合成图像的步骤,包括:
对所述背景图像和选取的每个目标对象对应的待合成图像区域进行叠加融合处理,得到包含所述多个目标对象的合成图像。
优选的,所述对多个目标对象进行多次拍摄,得到多张图像的步骤之前,所述方法还包括:
拍摄所述多张图像对应的静态背景图像;
所述对所述多张图像进行处理,提取基于所述多张图像的背景图像的步骤,包括:
分别获取所述静态背景图像和所述多张图像中的每一个像素的颜色值;
利用单高斯背景模型,对所述静态背景图像和所述多张图像中的位置对应的每一个像素的颜色值进行分析,得到所述每一个像素的颜色值对应的期望值和偏差;
对于所述多张图像中的每张图像,根据所述每一个像素的颜色值对应的期望值和偏差,确定所述每一个像素是背景像素还是前景像素,得到确定结果;
根据所述确定结果,提取基于所述多张图像的背景图像。
优选的,所述将所述多张图像中的每张图像划分为多个图像区域的步骤,包括:
根据所述确定结果,对所述每张图像进行预处理;
反转预处理后的每张图像,获得所述每张图像对应的灰度图;
利用分水岭算法,对所述每张图像对应的灰度图进行分割,得到多个区域;
基于对所述每张图像对应的灰度图进行分割得到的多个区域,将所述每张图像划分为多个图像区域。
优选的,所述从每个目标对象对应的多个图像区域中,选取一个符合预定姿势条件的待合成图像区域的步骤,包括:
对于每个目标对象对应的多个图像区域,分别计算每个图像区域中所有前景像素距离相应图像底边的平均距离;
从每个目标对象对应的多个图像区域中,选取计算得到的平均距离最大的图像区域作为所述每个目标对象对应的待合成图像区域。
优选的,所述对所述背景图像和选取的每个目标对象对应的待合成图像区域进行叠加融合处理,得到包含所述多个目标对象的合成图像的步骤,包括:
利用如下公式一对所述背景图像和选取的每个目标对象对应的待合成图像区域进行叠加融合处理,得到包含所述多个目标对象的合成图像;
IB(x,y)*(1-maski(x,y))+Si(x,y)*maski(x,y) 公式一
其中,(x,y)表示像素坐标,IB(x,y)表示背景图像中像素(x,y)的颜色值,i∈{Num=(n1,n2...np)}表示待合成图像区域,共有P个待合成图像区域,Si(x,y)表示待合成图像区域i中像素(x,y)的颜色值,maski(x,y)表示合成比例,当待合成图像区域i中像素(x,y)为前景像素时,maski(x,y)=1,而当像素(x,y)为背景像素时,(xedge,yedge)为距离像素(x,y)最近的待合成图像区域i中前景像素的坐标,λ、δ为预设值。
另一方面,本发明还提供一种图像合成装置,包括:
第一拍摄模块,用于对多个目标对象进行多次拍摄,得到多张图像;
划分模块,用于将所述多张图像中的每张图像划分为多个图像区域,每个图像区域对应一个目标对象;
选取模块,用于从每个目标对象对应的多个图像区域中,选取一个符合预定姿势条件的待合成图像区域;
融合处理模块,用于对选取的每个目标对象对应的待合成图像区域进行融合处理,得到包含所述多个目标对象的合成图像。
优选的,所述装置还包括:
提取模块,用于对所述多张图像进行处理,提取基于所述多张图像的背景图像;
所述融合处理模块具体用于:
对所述背景图像和选取的每个目标对象对应的待合成图像区域进行叠加融合处理,得到包含所述多个目标对象的合成图像。
优选的,所述装置还包括:
第二拍摄模块,用于拍摄所述多张图像对应的静态背景图像;
所述提取模块包括:
获取单元,用于分别获取所述静态背景图像和所述多张图像中的每一个像素的颜色值;
分析单元,用于利用单高斯背景模型,对所述静态背景图像和所述多张图像中的位置对应的每一个像素的颜色值进行分析,得到所述每一个像素的颜色值对应的期望值和偏差;
确定单元,用于对于所述多张图像中的每张图像,根据所述每一个像素的颜色值对应的期望值和偏差,确定所述每一个像素是背景像素还是前景像素,得到确定结果;
提取单元,用于根据所述确定结果,提取基于所述多张图像的背景图像。
优选的,所述划分模块包括:
预处理单元,用于根据所述确定结果,对所述每张图像进行预处理;
处理单元,用于反转预处理后的每张图像,获得所述每张图像对应的灰度图;
分割单元,用于利用分水岭算法,对所述每张图像对应的灰度图进行分割,得到多个区域;
划分单元,用于基于对所述每张图像对应的灰度图进行分割得到的多个区域,将所述每张图像划分为多个图像区域。
优选的,所述选取模块包括:
计算单元,用于对于每个目标对象对应的多个图像区域,分别计算每个图像区域中所有前景像素距离相应图像底边的平均距离;
选取单元,用于从每个目标对象对应的多个图像区域中,选取计算得到的平均距离最大的图像区域作为所述每个目标对象对应的待合成图像区域。
优选的,所述融合处理模块具体用于:
利用如下公式一对所述背景图像和选取的每个目标对象对应的待合成图像区域进行叠加融合处理,得到包含所述多个目标对象的合成图像;
IB(x,y)*(1-maski(x,y))+Si(x,y)*maski(x,y) 公式一
其中,(x,y)表示像素坐标,IB(x,y)表示背景图像中像素(x,y)的颜色值,i∈{Num=(n1,n2...np)}表示待合成图像区域,共有P个待合成图像区域,Si(x,y)表示待合成图像区域i中像素(x,y)的颜色值,maski(x,y)表示合成比例,当待合成图像区域i中像素(x,y)为前景像素时,maski(x,y)=1,而当像素(x,y)为背景像素时,(xedge,yedge)为距离像素(x,y)最近的待合成图像区域i中前景像素的坐标,λ、δ为预设值。
本发明的图像合成方法,通过拍摄针对多个目标对象的多张图像,将每张图像划分为多个图像区域,每个图像区域对应一个目标对象,从每个目标对象对应的多个图像区域中,选取一个符合预定姿势条件的待合成图像区域,并对选取的待合成图像区域进行融合处理,能够得到每个目标对象的姿势都满足要求的合成图像。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1表示本发明实施例的图像合成方法的流程图;
图2表示本发明具体实施的提取基于多张图像的背景图像的流程图;
图3表示本发明具体实例的将图像A的灰度图分割后的示意图;
图4表示本发明具体实例的选取每个目标对象对应的待合成图像区域的示意图;
图5表示对图4中选取的待合成图像区域进行叠加融合处理后得到合成图像的示意图;
图6表示本发明实施例的图像合成装置的结构示意图之一;
图7表示本发明实施例的图像合成装置的结构示意图之二;
图8表示本发明实施例的图像合成装置的结构示意图之三。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1所示,本发明实施例提供一种图像合成方法,包括如下步骤:
步骤101:对多个目标对象进行多次拍摄,得到多张图像;
步骤102:将所述多张图像中的每张图像划分为多个图像区域,每个图像区域对应一个目标对象;
步骤103:从每个目标对象对应的多个图像区域中,选取一个符合预定姿势条件的待合成图像区域;
步骤104:对选取的每个目标对象对应的待合成图像区域进行融合处理,得到包含所述多个目标对象的合成图像。
本发明实施例的图像合成方法,通过拍摄针对多个目标对象的多张图像,将每张图像划分为多个图像区域,每个图像区域对应一个目标对象,从每个目标对象对应的多个图像区域中,选取一个符合预定姿势条件的待合成图像区域,并对选取的待合成图像区域进行融合处理,能够得到每个目标对象的姿势都满足要求的合成图像。
其中,目标对象具体为人。对多个目标对象进行的多次拍摄是连续的,相应得到的多张图像是满足时间序列的图像,而拍摄终端例如相机可固定不动。
本发明实施例中,在对每个目标对象对应的待合成图像区域进行融合处理,得到包含多个目标对象的合成图像时,若相邻目标对象对应的待合成图像区域的边界没有完美匹配,则融合处理得到的合成图像会出现融合缝隙,影响合成图像的合成效果。为了避免合成图像出现缝隙,在得到合成图像时,可利用合适的背景图像和每个目标对象对应的待合成图像区域进行叠加融合处理,以保证合成图像的合成效果。
所以,本发明实施例中,在拍摄多张图像之后,该图像合成方法还可包括:
对多张图像进行处理,提取基于多张图像的背景图像。
而上述步骤104具体为:
对背景图像和选取的每个目标对象对应的待合成图像区域进行叠加融合处理,得到包含多个目标对象的合成图像。
在提取背景图像时,可利用颜色背景模,主要是对图像中每一个像素的颜色值(或灰度值)进行建模,若当前图像坐标(x,y)上像素的颜色值与背景模型中坐标(x,y)上像素的颜色值有较大差异,则该像素被认为是前景像素,否则被认为是背景像素。因拍摄多张图像时,场景背景变化幅度较小,所以颜色背景模可选用单高斯背景模型(Single GaussianBackground Model)。该单高斯背景模型的基本思想为:将N张图像中每一个像素的颜色值看成是一个随机过程X,并假设该像素的某一颜色值出现的概率服从高斯分布。令I(x,y,t)表示像素(x,y)在t时刻的颜色值,则有:
其中,ut和σt分别为N个图像的该像素高斯分布的期望值和标准差。简单来说,每一个像素的单高斯背景模型包含一个期望值和一个偏差。
而为了提高提取背景图像的准确性,可在拍摄多张图像之前,拍摄多张图像对应的静态背景图像,并结合静态背景图像和多张图像提取基于该多张图像的背景图像。
即本发明实施例中,在拍摄多张图像之前,该图像合成方法还可包括:
拍摄多张图像对应的静态背景图像。
进一步地,参见图2所示,对多张图像进行处理,提取基于多张图像的背景图像的过程可具体为:
步骤201:分别获取所述静态背景图像和所述多张图像中的每一个像素的颜色值;
步骤202:利用单高斯背景模型,对所述静态背景图像和所述多张图像中的位置对应的每一个像素的颜色值进行分析,得到所述每一个像素的颜色值对应的期望值和偏差;
步骤203:对于所述多张图像中的每张图像,根据所述每一个像素的颜色值对应的期望值和偏差,确定所述每一个像素是背景像素还是前景像素,得到确定结果;
步骤204:根据所述确定结果,提取基于所述多张图像的背景图像。
这样,结合静态背景图像和多张图像提取基于多张图像的背景图像,可提高提取准确性。
本发明实施例中,每一个像素的颜色值对应的期望值和偏差是利用静态背景图像和多张图像共同计算出的,具体计算过程可为:假设计算像素(x,y)的颜色值对应的期望值和偏差,静态背景图像中对应像素(x,y)的颜色值为B(x,y),N张图像中位置对应(即位置坐标一致)像素(x,y)的颜色值为I(x,y,n)(n=1、2…N),则像素(x,y)的颜色值对应的期望值u(x,y)和偏差σ(x,y)分别为:
对于每张图像n,根据每一个像素的颜色值对应的期望值和偏差,确定每一个像素是背景像素还是前景像素的方式为:令O(x,y,n)为输出,则:
其中,β表示预设值,根据实际需求设定。当O(x,y,n)=0时,表示对应像素为背景像素,当O(x,y,n)=0时,表示对应像素为前景像素。而依据上述公式的输出结果,即可获得确定结果,该确定结果表示每一个像素是背景像素还是前景像素。进一步地,借助该确定结果,可获知每张图像中哪些像素是背景像素,哪些像素是前景像素,从而根据该确定结果,可将每张图像划分为多个图像区域,每个图像区域对应一个目标对象。
本发明实施例中,将多张图像中的每张图像划分为多个图像区域主要是分割目标对象,保证每个图像区域对应一个目标对象,每个目标对象对应的多个图像区域。在将每张图像划分为多个图像区域时,可选择现有的根据空间连续性来分割目标的连通区域检测算法-分水岭算法。
具体的,将多张图像中的每张图像划分为多个图像区域的过程可为:
首先:根据确定结果,对每张图像进行预处理;其中,预处理过程例如为通过形态学开运算来去除噪声;
其次,反转预处理后的每张图像,获得每张图像对应的灰度图;其中,在获得灰度图时可基于已确定的背景像素到前景像素的距离;
然后,利用分水岭算法,对每张图像对应的灰度图进行分割,得到多个区域;
最后,基于对每张图像对应的灰度图进行分割得到的多个区域,将每张图像划分为多个图像区域。
例如,参见图3所示,为本发明具体实例的将图像A的灰度图分割后的示意图。图像A中包含4个目标对象,对图像A的灰度图进行分割后,得到4个区域,分别区域1、区域2、区域3和区域4。
需要指出的是,本发明适用的场景可为拍摄多人跳跃合影的场景,此种场景下,预定姿势条件可为目标对象即人的跳跃高度是自身跳跃高度中的最高值。基于此,本发明实施例中,从每个目标对象对应的多个图像区域中,选取一个符合预定姿势条件的待合成图像区域的过程可为:
首先,对于每个目标对象对应的多个图像区域,分别计算每个图像区域中所有前景像素距离相应图像底边的平均距离;
然后,从每个目标对象对应的多个图像区域中,选取计算得到的平均距离最大的图像区域作为所述每个目标对象对应的待合成图像区域。
例如,参见图4所示,为本发明具体实例的选取每个目标对象对应的待合成图像区域的示意图。图4中,具有6张图像(I(1)~I(6)),每张图像通过划分得到4个图像区域,每个图像区域对应一个人,每个人对应6个图像区域;对于每个人对应的6个图像区域,分别计算每个图像区域中所有前景像素(即非零像素)距离相应图像底边的平均距离,从每个人对应的6个图像区域中,选取计算得到的平均距离最大的图像区域作为对应人的待合成图像区域;最后,选取了4个待合成图像区域,分别为S1、S2、S3和S4,第一人对应的S1从第4张图像中选取,第二人对应的S2从第3张图像中选取,第三人对应的S3从第5张图像中选取,第四人对应的S4从第2张图像中选取,并可记待合成图像区域S1、S2、S3和S4的图像编号为n1、n2、n3和n4。
本发明实施例中,在选取每个目标对象对应的待合成图像区域后,可通过高斯羽化融合的方法对背景图像和每个目标对象对应的待合成图像区域进行叠加融合处理,以使图像融合自然,图像合成效果佳。其中,高斯羽化融合的方法主要是利用高斯羽化模板进行目标对象边缘的羽化。高斯羽化模板可表示为maski(x,y),即合成比例,i∈{Num=(n1,n2...np)},即高斯羽化模板与每个目标对象的待合成图像区域是对应的,当待合成图像区域i中像素(x,y)为前景像素时,maski(x,y)=1,而当像素(x,y)为背景像素时,(xedge,yedge)为距离像素(x,y)最近的待合成图像区域i中前景像素的坐标,λ、δ为预设值,可根据实际情况设定,例如可设定为也就是说,当利用高斯羽化模板进行目标对象边缘的羽化时,若是与目标对象对应的前景像素,则直接利用该前景像素的颜色值,而若是背景像素,则利用高斯公式计算mask(x,y)并求取该背景像素的颜色值,一般离目标对象所在区域越远,mask(x,y)值越小。
具体的,对背景图像和选取的每个目标对象对应的待合成图像区域进行叠加融合处理,得到包含多个目标对象的合成图像的过程可为:
利用如下公式一对背景图像和选取的每个目标对象对应的待合成图像区域进行叠加融合处理,得到包含多个目标对象的合成图像;
IB(x,y)*(1-maski(x,y))+Si(x,y)*maski(x,y)公式一
其中,(x,y)表示像素坐标,IB(x,y)表示背景图像中像素(x,y)的颜色值,i∈{Num=(n1,n2...np)}表示待合成图像区域,共有P个待合成图像区域,Si(x,y)表示待合成图像区域i中像素(x,y)的颜色值,maski(x,y)表示合成比例。
例如,参见图5所示,通过对背景图像和图4中选取的4个待合成图像区域的叠加融合处理,可得到包含全部人的合成图像,且所有人的跳跃高度是各自跳跃高度中的最高值。
上述实施例对本发明的图像合成方法进行了详细的说明,下面将结合实施例和附图对本发明的图像合成装置进行说明。
参见图6所示,本发明实施例还提供一种图像合成装置,包括:
第一拍摄模块61,用于对多个目标对象进行多次拍摄,得到多张图像;
划分模块62,用于将所述多张图像中的每张图像划分为多个图像区域,每个图像区域对应一个目标对象;
选取模块63,用于从每个目标对象对应的多个图像区域中,选取一个符合预定姿势条件的待合成图像区域;
融合处理模块64,用于对选取的每个目标对象对应的待合成图像区域进行融合处理,得到包含所述多个目标对象的合成图像。
本发明实施例的图像合成装置,通过拍摄针对多个目标对象的多张图像,将每张图像划分为多个图像区域,每个图像区域对应一个目标对象,从每个目标对象对应的多个图像区域中,选取一个符合预定姿势条件的待合成图像区域,并对选取的待合成图像区域进行融合处理,能够得到每个目标对象的姿势都满足要求的合成图像。
本发明实施例中,参见图7所示,所述装置还包括:
提取模块65,用于对所述多张图像进行处理,提取基于所述多张图像的背景图像。
而所述融合处理模块64具体用于:
对所述背景图像和选取的每个目标对象对应的待合成图像区域进行叠加融合处理,得到包含所述多个目标对象的合成图像。
本发明实施例中,参见图8所示,所述装置还包括:
第二拍摄模块66,用于拍摄所述多张图像对应的静态背景图像。
而所述提取模块65包括:
获取单元651,用于分别获取所述静态背景图像和所述多张图像中的每一个像素的颜色值;
分析单元652,用于利用单高斯背景模型,对所述静态背景图像和所述多张图像中的位置对应的每一个像素的颜色值进行分析,得到所述每一个像素的颜色值对应的期望值和偏差;
确定单元653,用于对于所述多张图像中的每张图像,根据所述每一个像素的颜色值对应的期望值和偏差,确定所述每一个像素是背景像素还是前景像素,得到确定结果;
提取单元654,用于根据所述确定结果,提取基于所述多张图像的背景图像。
具体的,参见图8所示,所述划分模块62包括:
预处理单元621,用于根据所述确定结果,对所述每张图像进行预处理;
处理单元622,用于反转预处理后的每张图像,获得所述每张图像对应的灰度图;
分割单元623,用于利用分水岭算法,对所述每张图像对应的灰度图进行分割,得到多个区域;
划分单元624,用于基于对所述每张图像对应的灰度图进行分割得到的多个区域,将所述每张图像划分为多个图像区域。
具体的,参见图8所示,所述选取模块63包括:
计算单元631,用于对于每个目标对象对应的多个图像区域,分别计算每个图像区域中所有前景像素距离相应图像底边的平均距离;
选取单元632,用于从每个目标对象对应的多个图像区域中,选取计算得到的平均距离最大的图像区域作为所述每个目标对象对应的待合成图像区域。
其中,所述融合处理模块64具体用于:
利用如下公式一对所述背景图像和选取的每个目标对象对应的待合成图像区域进行叠加融合处理,得到包含所述多个目标对象的合成图像;
IB(x,y)*(1-maski(x,y))+Si(x,y)*maski(x,y) 公式一
其中,(x,y)表示像素坐标,IB(x,y)表示背景图像中像素(x,y)的颜色值,i∈{Num=(n1,n2...np)}表示待合成图像区域,共有P个待合成图像区域,Si(x,y)表示待合成图像区域i中像素(x,y)的颜色值,maski(x,y)表示合成比例,当待合成图像区域i中像素(x,y)为前景像素时,maski(x,y)=1,而当像素(x,y)为背景像素时,(xedge,yedge)为距离像素(x,y)最近的待合成图像区域i中前景像素的坐标,λ、δ为预设值。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (8)
1.一种图像合成方法,其特征在于,包括:
对多个目标对象进行多次拍摄,得到多张图像;
将所述多张图像中的每张图像划分为多个图像区域,每个图像区域对应一个目标对象;
从每个目标对象对应的多个图像区域中,选取一个符合预定姿势条件的待合成图像区域;
对选取的每个目标对象对应的待合成图像区域进行融合处理,得到包含所述多个目标对象的合成图像;
其中,所述将所述多张图像中的每张图像划分为多个图像区域的步骤之前,所述方法还包括:
拍摄所述多张图像对应的静态背景图像;
分别获取所述静态背景图像和所述多张图像中的每一个像素的颜色值;
利用单高斯背景模型,对所述静态背景图像和所述多张图像中的位置对应的每一个像素的颜色值进行分析,得到所述每一个像素的颜色值对应的期望值和偏差;
对于所述多张图像中的每张图像,根据所述每一个像素的颜色值对应的期望值和偏差,确定所述每一个像素是背景像素还是前景像素,得到确定结果;
根据所述确定结果,提取基于所述多张图像的背景图像;
其中,所述对选取的每个目标对象对应的待合成图像区域进行融合处理,得到包含所述多个目标对象的合成图像的步骤,包括:
对所述背景图像和选取的每个目标对象对应的待合成图像区域进行叠加融合处理,得到包含所述多个目标对象的合成图像。
2.根据权利要求1所述的方法,其特征在于,所述将所述多张图像中的每张图像划分为多个图像区域的步骤,包括:
根据所述确定结果,对所述每张图像进行预处理;
反转预处理后的每张图像,获得所述每张图像对应的灰度图;
利用分水岭算法,对所述每张图像对应的灰度图进行分割,得到多个区域;
基于对所述每张图像对应的灰度图进行分割得到的多个区域,将所述每张图像划分为多个图像区域。
3.根据权利要求2所述的方法,其特征在于,所述从每个目标对象对应的多个图像区域中,选取一个符合预定姿势条件的待合成图像区域的步骤,包括:
对于每个目标对象对应的多个图像区域,分别计算每个图像区域中所有前景像素距离相应图像底边的平均距离;
从每个目标对象对应的多个图像区域中,选取计算得到的平均距离最大的图像区域作为所述每个目标对象对应的待合成图像区域。
4.根据权利要求1所述的方法,其特征在于,所述对所述背景图像和选取的每个目标对象对应的待合成图像区域进行叠加融合处理,得到包含所述多个目标对象的合成图像的步骤,包括:
利用如下公式一对所述背景图像和选取的每个目标对象对应的待合成图像区域进行叠加融合处理,得到包含所述多个目标对象的合成图像;
IB(x,y)*(1-maski(x,y))+Si(x,y)*maski(x,y) 公式一
5.一种图像合成装置,其特征在于,包括:
第一拍摄模块,用于对多个目标对象进行多次拍摄,得到多张图像;
划分模块,用于将所述多张图像中的每张图像划分为多个图像区域,每个图像区域对应一个目标对象;
选取模块,用于从每个目标对象对应的多个图像区域中,选取一个符合预定姿势条件的待合成图像区域;
融合处理模块,用于对选取的每个目标对象对应的待合成图像区域进行融合处理,得到包含所述多个目标对象的合成图像;
其中,所述装置还包括:
第二拍摄模块,用于拍摄所述多张图像对应的静态背景图像;
提取模块,用于对所述多张图像进行处理,提取基于所述多张图像的背景图像;
其中,所述提取模块包括:
获取单元,用于分别获取所述静态背景图像和所述多张图像中的每一个像素的颜色值;
分析单元,用于利用单高斯背景模型,对所述静态背景图像和所述多张图像中的位置对应的每一个像素的颜色值进行分析,得到所述每一个像素的颜色值对应的期望值和偏差;
确定单元,用于对于所述多张图像中的每张图像,根据所述每一个像素的颜色值对应的期望值和偏差,确定所述每一个像素是背景像素还是前景像素,得到确定结果;
提取单元,用于根据所述确定结果,提取基于所述多张图像的背景图像;
所述融合处理模块具体用于:
其中,对所述背景图像和选取的每个目标对象对应的待合成图像区域进行叠加融合处理,得到包含所述多个目标对象的合成图像。
6.根据权利要求5所述的装置,其特征在于,所述划分模块包括:
预处理单元,用于根据所述确定结果,对所述每张图像进行预处理;
处理单元,用于反转预处理后的每张图像,获得所述每张图像对应的灰度图;
分割单元,用于利用分水岭算法,对所述每张图像对应的灰度图进行分割,得到多个区域;
划分单元,用于基于对所述每张图像对应的灰度图进行分割得到的多个区域,将所述每张图像划分为多个图像区域。
7.根据权利要求6所述的装置,其特征在于,所述选取模块包括:
计算单元,用于对于每个目标对象对应的多个图像区域,分别计算每个图像区域中所有前景像素距离相应图像底边的平均距离;
选取单元,用于从每个目标对象对应的多个图像区域中,选取计算得到的平均距离最大的图像区域作为所述每个目标对象对应的待合成图像区域。
8.根据权利要求5所述的装置,其特征在于,所述融合处理模块具体用于:
利用如下公式一对所述背景图像和选取的每个目标对象对应的待合成图像区域进行叠加融合处理,得到包含所述多个目标对象的合成图像;
IB(x,y)*(1-maski(x,y))+Si(x,y)*maski(x,y) 公式一
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710347773.0A CN108961158B (zh) | 2017-05-17 | 2017-05-17 | 一种图像合成方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710347773.0A CN108961158B (zh) | 2017-05-17 | 2017-05-17 | 一种图像合成方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108961158A CN108961158A (zh) | 2018-12-07 |
CN108961158B true CN108961158B (zh) | 2022-01-25 |
Family
ID=64461399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710347773.0A Active CN108961158B (zh) | 2017-05-17 | 2017-05-17 | 一种图像合成方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108961158B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109640005A (zh) * | 2018-12-19 | 2019-04-16 | 努比亚技术有限公司 | 一种视频处理方法、移动终端及计算机可读存储介质 |
CN109474787B (zh) * | 2018-12-28 | 2021-05-14 | 维沃移动通信有限公司 | 一种拍照方法、终端设备及存储介质 |
CN110059643B (zh) * | 2019-04-23 | 2021-06-15 | 王雪燕 | 一种多图像特征比对及择优融合的方法、移动终端与可读存储介质 |
CN112150398B (zh) * | 2019-06-27 | 2024-03-22 | 杭州海康威视数字技术股份有限公司 | 图像合成方法、装置及设备 |
CN110290329A (zh) * | 2019-08-06 | 2019-09-27 | 珠海格力电器股份有限公司 | 一种图像合成方法 |
CN111263073B (zh) * | 2020-02-27 | 2021-11-09 | 维沃移动通信有限公司 | 图像处理方法及电子设备 |
CN114693506A (zh) * | 2020-12-15 | 2022-07-01 | 华为技术有限公司 | 图像处理方法及电子设备 |
CN116830594A (zh) * | 2021-02-20 | 2023-09-29 | Oppo广东移动通信有限公司 | 图像处理方法、图像处理装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105872381A (zh) * | 2016-04-29 | 2016-08-17 | 潘成军 | 趣味图像拍摄方法 |
CN106204435A (zh) * | 2016-06-27 | 2016-12-07 | 北京小米移动软件有限公司 | 图像处理方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9659350B2 (en) * | 2014-01-31 | 2017-05-23 | Morpho, Inc. | Image processing device and image processing method for image correction, and non-transitory computer readable recording medium thereof |
-
2017
- 2017-05-17 CN CN201710347773.0A patent/CN108961158B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105872381A (zh) * | 2016-04-29 | 2016-08-17 | 潘成军 | 趣味图像拍摄方法 |
CN106204435A (zh) * | 2016-06-27 | 2016-12-07 | 北京小米移动软件有限公司 | 图像处理方法及装置 |
Non-Patent Citations (1)
Title |
---|
高效图像合成技术研究;吴昊;《中国博士学位论文全文数据库 信息科技辑》;20140515;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN108961158A (zh) | 2018-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108961158B (zh) | 一种图像合成方法及装置 | |
US11222399B2 (en) | Image cropping suggestion using multiple saliency maps | |
CN110163198B (zh) | 一种表格识别重建方法、装置和存储介质 | |
US10599228B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
CN107993216B (zh) | 一种图像融合方法及其设备、存储介质、终端 | |
US11361459B2 (en) | Method, device and non-transitory computer storage medium for processing image | |
US8086027B2 (en) | Image processing apparatus and method | |
CN106778928B (zh) | 图像处理方法及装置 | |
US9547908B1 (en) | Feature mask determination for images | |
EP2915333B1 (en) | Depth map generation from a monoscopic image based on combined depth cues | |
US8494256B2 (en) | Image processing apparatus and method, learning apparatus and method, and program | |
US8331619B2 (en) | Image processing apparatus and image processing method | |
CN104573614B (zh) | 用于跟踪人脸的设备和方法 | |
KR101670282B1 (ko) | 전경-배경 제약 조건 전파를 기초로 하는 비디오 매팅 | |
US9454712B2 (en) | Saliency map computation | |
US12002259B2 (en) | Image processing apparatus, training apparatus, image processing method, training method, and storage medium | |
EP2993893A1 (en) | Method for image segmentation | |
US9367920B2 (en) | Method and apparatus for processing images | |
US8094971B2 (en) | Method and system for automatically determining the orientation of a digital image | |
JP2017033372A (ja) | 人物認識装置及びそのプログラム | |
JP6272071B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US8218823B2 (en) | Determining main objects using range information | |
CN111881846B (zh) | 图像处理方法和相关装置、设备、存储介质 | |
JP6754717B2 (ja) | 物体候補領域推定装置、物体候補領域推定方法、及び物体候補領域推定プログラム | |
CN111179287A (zh) | 人像实例分割方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |