CN114746898A - 用于生成图像抠图的三分图的方法和系统 - Google Patents

用于生成图像抠图的三分图的方法和系统 Download PDF

Info

Publication number
CN114746898A
CN114746898A CN202080082818.6A CN202080082818A CN114746898A CN 114746898 A CN114746898 A CN 114746898A CN 202080082818 A CN202080082818 A CN 202080082818A CN 114746898 A CN114746898 A CN 114746898A
Authority
CN
China
Prior art keywords
image
objects
pixel
processing system
trimap
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080082818.6A
Other languages
English (en)
Inventor
A.戈埃尔
J.库玛马拉
M.普塔内贾加迪什劳
M.库玛
P.苏丹德拉
T.古普塔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN114746898A publication Critical patent/CN114746898A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

提供了一种对图像执行图像抠图的系统和方法。该方法包括:由图像处理系统检测图像中的一个或多个对象;由图像处理系统使用一个或多个图像分割技术来确定用于一个或多个对象中的每一个的与图像关联的置信图;以及,由图像处理系统基于图像中的一个或多个对象中的每一个的大小和图像中的第一像素与图像中的一个或多个对象中的至少一个中的第二像素之间的距离中的至少一个,从置信图生成用于图像中的一个或多个对象中的每一个的三分图,其中,三分图被用来执行图像抠图。

Description

用于生成图像抠图的三分图的方法和系统
技术领域
本公开涉及一种图像处理系统及其方法,更具体地,涉及一种用于生成图像抠图(image matting)的三分图(tri-map)的方法和系统。
背景技术
一般来说,在图像处理领域,一种称为图像抠图的技术被用来准确估计图像和视频中的前景对象。所估计的前景对象从图像和视频中被提取出来。图像抠图是图像和视频编辑应用中的重要技术,诸如用于创造视觉效果的电影制作,对背景施加色彩(colorpop),对背景进行遮蔽或施加模糊效果,透视缩放,结合两个或更多个图像和视频等。图像抠图技术通常会生成用于将图像或视频中的前景与背景分开的“前景蒙版(alpha matte)”或“蒙版(matte)”。此外,图像抠图与图像分割问题不同,其中,图像分割生成二值图像,其中,图像中的像素属于前景或属于背景。然而,图像抠图不同于图像分割,其中,一些像素可能既属于前景,也属于背景,这种像素称为未知像素或混合像素。估计图像中的未知像素是使用三分图执行的。使用图像或视频的三分图,在图像抠图中产生“前景蒙版”。
发明内容
技术问题
现有的图像抠图方法或目前最先进的分割算法在包括诸如头发丝、毛皮衣服等的对象的图像中引入更精细的边界细节的方面存在限制。此外,现有的图像抠图方法通常使用单独的三分图输入或用户干预来标识包括未知像素的区域。
现有的人脸抠图(matting)技术之一是利用脸部点和抓取切割来自动生成三分图。另一种现有的交互式图像抠图技术需要人的互动,用笔画(bush stroke)来标记未知区域。然而,这些技术需要太多输入,或者需要人为干预,从而使蒙版生成过程变得复杂,并且容易出现人为错误。因此,有必要从图像或视频自动生成精细的前景蒙版,而无需任何用户干预。
上面提供的信息仅用于加强对本公开的一般背景的理解,而不应被视为承认或以任何形式表明该信息构成本领域技术人员已经知道的现有技术。
问题的解决方案
在接下来的描述中,将对额外方面进行部分阐述,并且额外方面将部分地从描述中变得明显,或者可以通过所呈现的实施例的实践来了解。
根据实施例,提供了一种对图像执行图像抠图的方法,该方法包括:由图像处理系统检测图像中的一个或多个对象;由图像处理系统使用一个或多个图像分割技术来确定用于一个或多个对象中的每一个的与图像关联的置信图;以及,由图像处理系统基于图像中的一个或多个对象中的每一个的大小和图像中的第一像素与图像中的一个或多个对象中的至少一个中的第二像素之间的距离中的至少一个,从置信图生成用于图像中的一个或多个对象中的每一个的三分图,其中,三分图被用来执行图像抠图。
检测图像中的一个或多个对象包括:使用一个或多个对象检测技术来标识图像中的一个或多个对象。
确定置信图包括:基于预训练深度学习模型、深度传感器或飞行时间(TOF)传感器中的至少一个,计算用于图像中的一个或多个对象的置信图;以及,使用基于颜色相似性的边界校正技术修改置信图。
该方法还包括:使用图像的大小与图像中的一个或多个对象中的每一个的大小的比例和预定值作为变换函数的输入来确定用于一个或多个对象中的每一个的变换值。
生成用于图像中的一个或多个对象中的每一个的三分图还包括:计算从图像中的位于一个或多个对象的外部的第一像素到图像中的一个或多个对象中的至少一个中的第二像素的距离;将该距离和与一个或多个对象中的每一个对应的变换值进行比较;以及,基于距离小于变换值,将第一像素标记为未知像素;或者,基于距离大于或等于变换值,使用置信图将第一像素标记为前景像素或背景像素中的至少一个。
执行图像抠图包括:将图像和图像的三分图提供给第一预训练深度学习模型;以及,生成图像的前景蒙版,其中,图像中的前景和背景是使用前景蒙版分离的。
根据实施例,提供了一种用于对图像执行图像抠图的图像处理系统,图像处理系统包括:存储器;和处理器,其被配置为:检测图像中的一个或多个对象;使用一个或多个图像分割技术来确定用于一个或多个对象中的每一个的与图像关联的置信图;以及,基于图像中的一个或多个对象中的每一个的大小和图像中的第一像素与图像中的一个或多个对象中的至少一个中的第二像素之间的距离中的至少一个,从置信图生成用于图像中的一个或多个对象中的每一个的三分图,其中,三分图被用来执行图像抠图。
处理器还被配置为:使用一个或多个对象检测技术来标识图像中的一个或多个对象。
处理器还被配置为:基于预训练深度学习模型、深度传感器或飞行时间(TOF)传感器中的至少一个,计算用于图像中的一个或多个对象的置信图;以及,使用基于颜色相似性的边界校正技术修改置信图。
处理器还被配置为:使用图像的大小与图像中的一个或多个对象中的每一个的大小的比例和预定值作为变换函数的输入来确定用于一个或多个对象中的每一个的变换值。
处理器还被配置为:计算从图像中的位于一个或多个对象的外部的第一像素到图像中的一个或多个对象中的至少一个中的第二像素的距离;将距离和与一个或多个对象中的每一个对应的变换值进行比较;以及,基于距离小于变换值,将第一像素标记为未知像素;或者,基于距离大于或等于变换值,使用置信图将第一像素标记为前景像素或背景像素中的至少一个。
处理器还被配置为:将图像和图像的三分图提供给第一预训练深度学习模型;以及,生成图像的前景蒙版,其中,图像中的前景和背景是使用前景蒙版分离的。
根据实施例,提供了一种对图像执行图像抠图的方法,该方法包括:由图像处理系统检测图像中的一个或多个对象;由图像处理系统将图像和图像中的一个或多个对象提供给第二预训练深度学习模型,以生成用于图像中一个或多个对象中的每一个的三分图,第二预训练深度学习模型基于图像的大小和图像中的一个或多个对象中的每一个的大小中的至少一个来生成三分图;以及,由图像处理系统使用图像的三分图来对图像执行图像抠图。
该方法还包括:训练第二预训练深度学习模型,其中,训练第二预训练深度学习模型包括:提供一个或多个样本图像作为初始深度学习模型的输入,其中,初始深度学习模型基于具有跳跃连接(skip connection)的编码器解码器模型;基于初始深度学习模型的输出,使用损失函数计算用于一个或多个样本图像中的每个像素的损失值,其中,输出表示用于样本图像中的每个像素的标签;基于与一个或多个样本图像中的每个像素关联的标签来聚合损失值,其中,标签包括前景像素、背景像素或未知像素之一;以及,基于聚合的损失值,使用监督学习技术修改初始深度学习模型的一个或多个权重。
图像中的一个或多个对象中的至少一个中的第二像素是基于应用于图像中的一个或多个对象中的每一个的边界框来确定的,其中,第二像素位于边界框的中心。
生成用于图像中的一个或多个对象中的每一个的三分图包括:使用形态学运算生成三分图,其中,基于图像的大小与图像中的一个或多个对象中的每一个的大小的比例来确定形态学运算的核(kernel)大小。
一个或多个对象检测技术包括使用利用haar(哈尔)特征的基于机器学习的viola-jones(维奥-拉琼斯)对象检测框架的边界框技术、标度不变特征变换(SIFT)、定向梯度直方图(HOG)特征、基于深度学习的区域建议、用于对象检测的单次细化神经网络或单次多框检测器中的至少一个。
附图说明
本公开的特定实施例的上述和其他方面、特征和优点将从结合附图的以下描述中变得更加明显,其中:
图1示出根据实施例的用于生成图像抠图的三分图的示例性环境;
图2显示根据实施例的图像处理系统的详细框图;
图3显示示出根据实施例的用于基于变换值和置信图生成图像抠图的三分图的方法步骤的流程图;
图4A显示根据实施例的对图像中的一个或多个对象的示例性检测;
图4B显示根据实施例的使用深度传感器对置信图的示例性确定;
图4C显示根据实施例的使用飞行时间传感器对置信图的示例性确定;
图4D显示根据实施例的使用预训练深度学习模型的置信图的示例性确定和使用基于颜色相似性的边界校正技术的置信图的修改;
图4E显示根据实施例的为图像生成的示例性三分图;
图4F显示根据实施例的从图像的三分图生成的示例性前景蒙版;
图5显示示出根据实施例的用于使用第二深度学习模型生成图像抠图的三分图的方法步骤的流程图;
图6显示根据实施例的使用第二深度学习模型和第一深度学习模型对图像的三分图和前景蒙版的示例性生成;以及
图7显示根据实施例的用于生成图像抠图的三分图的计算机系统。
具体实施方式
在本公开中,术语“示例性”在本文被用来指“作为示例、实例或说明”。本公开的描述为“示例性”的任何实施例或实施方式不应被理解为比其他实施例更优选或更有利。
尽管本公开的实施例可以有各种修改和替代形式,不过在附图中,以示例的方式显示本公开的具体实施例,其在下面将进行详细描述。然而,应当理解,本文公开的实施例不是为了限制本公开的范围,相反,本公开应被理解为涵盖在本公开的精神和范围内的所有修改、等同物和替代物。
术语“包括”、“包含”或其任何其他变体是指涵盖非排他性的包括,使得包括组件或步骤的列表的设置、设备或方法不仅仅包括这些组件或步骤,而是可能包括未明确列出的、或者设置或设备或方法所固有的其他组件或步骤。换句话说,在没有更多约束的情况下,在设备或系统或装置中的由“包括......”开展的一个或多个元素不排除设备或系统或装置中存在其他元素或额外元素。
在以下对实施例的描述中,参考了构成本文一部分的附图,在附图中,以本公开可实践的具体实施例的方式进行显示。这些实施例的描述足够详细,以使本领域技术人员能够实践本公开,而且应当理解,可以利用其他实施例,并且可以在不脱离本公开的范围的情况下进行改变。
图1显示根据实施例的用于生成图像抠图的三分图的示例性环境。
本公开涉及一种生成三分图(107)以执行图像抠图的方法。图像抠图技术生成“前景蒙版”(109)。前景蒙版(109)用于将图像(103)或视频中的前景与背景分开。图像(103)或视频可以是RGB图像或RGB视频、CMYK图像或CMYK视频等。在图像(103)中,前景表示图像(103)中的距离用于捕获图像(103)的相机(110)较近的部分,背景表示图像(103)中的距离用于捕获图像(103)的相机(110)较远的部分。例如,图像(103)中的三个人可以被包括在前景中,并且图像(103)中的树木可以被包括在背景中。此外,图像处理系统(102)被用来执行图像抠图。图像处理系统(102)可以在用户设备(诸如图1所示的智能手机(101)、智能手表、笔记本计算机、台式计算机、服务器、平板计算机等)中的至少一个中实现。图像处理系统(102)可以对图像(103)或视频实时执行图像抠图。图像处理系统(102)从图像捕获设备(诸如相机(110))或从存储介质接收图像(103)。图像处理系统(102)检测图像(103)中的一个或多个对象(104A、104B、104C,统称为“104”)。一个或多个对象(104)表示图像(103)中的将标识为图像(103)中的前景的部分。例如,一个或多个对象(104)可以包括一个或多个人、一个或多个动物、一个或多个物品、一个或多个动画人物、一个或多个车辆等中的至少一个。图像处理系统(102)使用一个或多个对象检测技术来检测图像(103)中的一个或多个对象(104)。例如,一个或多个对象检测技术可以包括利用haar特征的基于机器学习的viola-jones对象检测框架、标度不变特征变换(SIFT)、定向梯度直方图(HOG)特征、以及基于深度学习的区域建议、用于对象检测的单次细化神经网络、单次多框检测器等。例如,如图1所示,图像处理系统(102)检测三个人的脸作为图像(103)中的一个或多个对象(104)。在一个实施例中,图像处理系统(102)可以接收指示图像(103)中的一个或多个对象(104)的用户输入。
此外,图像处理系统(102)使用一个或多个图像分割技术确定用于图像(103)中的一个或多个对象(104)中的每一个的与图像(103)关联的置信图(105)。一个或多个图像分割技术可以包括预训练深度学习模型、深度传感器和飞行时间(TOF)传感器中的至少一个。置信图(105)表示像素属于图像(103)中的前景或背景的概率。
在实施例中,图像处理系统(102)使用变换函数计算用于一个或多个对象(104)中的每一个的变换值(106)。在此,图像(103)的大小和/或图像(103)中的一个或多个对象(104)中的每一个的大小中的至少一个可以作为输入被提供给变换函数。变换函数可以包括线性变换函数或非线性变换函数中的至少一个。例如,变换函数可以是双曲正切函数(tanh)、sigmoid、指数、高斯等。变换值(106)被计算为与图像(103)中的一个或多个对象(104)中的每一个的大小成正比。例如,对于图像(103)中的三个人,变换值(106)对于第一对象(104A)可以是14,对于第二对象(104B)可以是5,对于第三对象(104C)可以是8。
在实施例中,在计算变换值(106)之后,图像处理系统(102)生成用于图1所示的图像(103)中的一个或多个对象(104)中的每一个的三分图(107)。基于图像(103)中的每个像素与图像(103)中的一个或多个对象(104)中的每一个之间的距离和与一个或多个对象(104)中的每一个对应的变换值(106),从置信图(105)生成三分图(107)。图像(103)的三分图(107)表示明确的背景(即,黑色)、明确的前景(即,白色)和未知区域(即,灰色)。在实施例中,图像处理系统(102)可以基于图像(103)和图像(103)中的一个或多个对象(104),使用预训练第二深度学习模型生成三分图(107)。第二深度学习模型可以被预训练以学习:确定置信图(105)、计算变值(106)和生成图像(103)的三分图(107)。在实施例中,图像处理系统(102)使用形态学运算生成三分图(107),并且基于图像(103)的大小与图像(103)中的一个或多个对象(104)中的每一个的大小的比例(例如,脸部比例)来确定形态学运算的核大小。
此外,三分图(107)和图像(103)作为输入被提供给第一深度学习模型,用于对图像(103)执行图像抠图。例如,第一深度学习模型可以是基于编码器解码器的神经网络。第一深度学习模型生成包括图1所示的图像(103)的前景蒙版(109)的输出。通过使用前景蒙版(109),前景和背景可以从图像(103)中彼此分离。
图2显示根据实施例的图像处理系统(102)的详细框图。
图像处理系统(102)可以包括中央处理单元(“CPU”或“处理器”)(203)和存储可由处理器(203)执行的指令的存储器(202)。处理器(203)可以包括用于执行完成用户或系统生成的请求的程序组件的至少一个数据处理器。存储器(202)可以通信耦接到处理器(203)。图像处理系统(102)还包括输入/输出(I/O)接口(201)。I/O接口(201)可以耦接到处理器(203),通过I/O接口(201),可以传送输入信号或/和输出信号。在一个实施例中,图像处理系统(102)可以通过I/O接口(201)接收图像(103)和用户输入。
在一些实施方式中,图像处理系统(102)可以包括图2所示的数据(204)和模块(209)。作为示例,数据(204)和模块(209)可以被存储在图像处理系统(102)的存储器(202)中。来自多个模块(209)的至少一个模块可以通过人工智能(AI)模型实现。存储器(202)可以是非易失性存储器、易失性存储器,并且与AI关联的功能可以通过非易失性存储器、易失性存储器和处理器(203)执行。
此外,处理器(203)可以包括一个或多个处理器。此时,一个或多个处理器可以是通用处理器(诸如中央处理单元(CPU)、应用处理器(AP)等)、图形专用的处理单元(诸如图形处理单元(GPU)、视觉处理单元(VPU))和/或AI专用的处理器(诸如神经处理单元(NPU))。一个或多个处理器根据存储在非易失性存储器和易失性存储器中的预定义运算规则或人工智能(AI)模型来控制输入数据的处理。预定义运算规则或人工智能模型是通过训练或学习提供的。在此,学习是指:通过将学习算法应用于多个学习数据,生成具有期望特性的预定义运算规则或人工智能模型。学习可以在执行根据实施例的人工智能的设备中执行,和/或可以通过单独的服务器/系统实施。
AI模型可以包括多个神经网络层。每个层具有多个权重值,并且通过先前层的计算和多个权重的运算执行层操作。神经网络的示例包括但不限于卷积神经网络(CNN)、深度神经网络(DNN)、递归神经网络(RNN)、受限玻尔兹曼机(RBM)、深度信念网络(DBN)、双向递归深度神经网络(BRDNN)、生成对抗网络(GAN)和深度Q网络。学习算法是一种用于使用多个学习数据训练预定目标设备(例如,机器人),以引起、允许或控制目标设备做出确定或预测的方法。学习算法的示例包括但不限于有监督学习、无监督学习、半监督学习或强化学习。
在一个实施例中,数据(204)可以包括,例如,对象数据(205)、置信图数据(206)、三分图数据(207)和其他数据(208)。本文对数据(204)进行详细描述。
在实施例中,对象数据(205)包括在图像(103)中检测到的一个或多个对象(104)。在实施例中,与一个或多个对象(104)中的每一个关联的一个或多个像素值和一个或多个像素的坐标可被存储在对象数据(205)中。在另一实施例中,对象数据(205)可以包括与图像(103)中的一个或多个对象(104)中的每一个关联的边界框的坐标。例如,边界框的形状可以是包含一个或多个对象(104)中的每一个的正方形、矩形、圆形。
在实施例中,置信图数据(206)包括对于图像(103)中的一个或多个对象(104)中的每一个确定的置信图(105)。置信图(105)表示像素属于图像(103)中的前景或背景的概率。
在实施例中,三分图数据(207)包括对于图像(103)生成的三分图(107)。三分图(107)将图像(103)分成3类,即,明确的前景、明确的背景和未知区域。明确的前景由白色的像素表示,明确的背景由黑色的像素表示,并且未知区域由灰色的像素表示。
在实施例中,其他数据(208)可以包括与图像(103)中的一个或多个对象(104)中的每一个关联的变换值(106)、图像(103)的前景蒙版(109)、第一深度学习模型、第二深度学习模型等。
在一些实施例中,数据(204)可以以各种数据结构的形式被存储在存储器(202)中。此外,数据(204)可以使用数据模型来组织,诸如关系型或层次型数据模型。其他数据(208)可以存储数据,包括由模块(209)生成以执行图像处理系统(102)的各种功能的临时数据和临时文件。此外,在实施例中,存储器(202)可以包括静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、全局缓冲器等中的至少一个。
在一些实施例中,存储在存储器(202)中的数据(204)可以由图像处理系统(102)的模块(209)处理。模块(209)可以被存储在通信耦接到处理器(203)的存储器(202)内,或可以被存储在图2所示的存储器(202)的外部。如本文所用,术语模块(209)可以指专用集成电路(ASIC)、现场可编程门阵列(FPGA)、电子电路、执行一个或多个软件或固件程序的处理器(203)(共享、专用或分组)和存储器(202)、组合逻辑电路和/或提供所描述的功能的其他合适组件。在一些其他实施例中,模块(209)可以使用ASIC或FPGA中的至少一个实现。
在一个实施方式中,模块(209)可以包括,例如,对象检测模块(210)、置信图确定模块(211)、计算模块(212)、三分图生成模块(213)、图像抠图模块(214)和其它模块(215)。可以理解,这些前述模块(209)可以代表为单个模块或不同模块的组合。
在实施例中,对象检测模块(210)被用来检测图像(103)中的一个或多个对象(104)。图像(103)中的一个或多个对象(104)是通过使用一个或多个对象检测技术标识图像(103)中的一个或多个对象(104)来检测的。例如,一个或多个对象检测技术可以包括利用haar特征的基于机器学习的viola-jones对象检测框架、标度不变特征变换(SIFT)、定向梯度直方图(HOG)特征、以及基于深度学习的区域建议、用于对象检测的单次细化神经网络、单次多框检测器等。
在实施例中,置信图确定模块(211)被用来使用一个或多个图像分割技术确定用于一个或多个对象(104)中的每一个的与图像(103)关联的置信图(105)。置信图确定模块(211)基于预训练深度学习模型、深度传感器或飞行时间(TOF)传感器中的至少一个,计算用于图像(103)中的一个或多个对象(104)的置信图(105)。此外,置信图确定模块(211)使用基于颜色相似性的边界校正技术修改置信图(105)。
在实施例中,计算模块(212)使用变换函数计算用于一个或多个对象(104)中的每一个的变换值(106)。计算模块(212)使用图像(103)的大小与图像(103)中的一个或多个对象(104)中的每一个的大小的比例和预定值作为变换函数的输入,确定用于一个或多个对象(104)中的每一个的变换值(106)。变换函数可以包括线性变换函数或非线性变换函数中的至少一个。
在实施例中,三分图生成模块(213)被用来生成用于图像(103)中的一个或多个对象(104)中的每一个的三分图(107)。三分图生成模块(213)计算从图像(103)中的像素到图像(103)中的一个或多个对象(104)中的每一个的距离。此外,将该距离和与一个或多个对象(104)中的每一个对应的变换值(106)进行比较。此外,当距离小于变换值(106)时,三分图生成模块(213)将像素标记为未知像素。可替换地,当距离大于或等于变换值(106)时,三分图生成模块(213)使用置信图(105)将像素标记为前景像素或背景像素中的至少一个。
在实施例中,图像抠图模块(214)被用来执行图像(103)的图像抠图。图像抠图模块(214)将图像(103)和图像(103)的三分图(107)提供给预训练的第一深度学习模型。此外,图像抠图模块(214)基于预训练的第一深度学习模型的输出,生成图像(103)的前景蒙版(109)。图像(103)中的前景和背景是使用前景蒙版(109)分离的。
在实施例中,其他模块(215)被用来使用预训练的第二深度学习模型生成三分图(107)。
图3显示示出根据实施例的执行图像(103)的图像抠图的方法的流程图。
图3所示的方法300的顺序或次序不应被理解为限制,而且方法300可以以任何顺序排列,并且任何数量的所描述的方法块可以进行组合。此外,在不脱离本公开的范围的情况下,可以从方法中删除个别的块。此外,该方法可以在任何合适的硬件、软件、固件或其任何组合中实现。
在操作301中,图像处理系统(102)检测图像(103)中的一个或多个对象(104)。
在实施例中,检测图像(103)中的一个或多个对象(104)包括使用一个或多个对象检测技术标识图像(103)中的一个或多个对象(104)。一个或多个对象检测技术可以包括利用haar特征的基于机器学习的viola-jones对象检测框架、标度不变特征变换(SIFT)、定向梯度直方图(HOG)特征、以及基于深度学习的区域建议、用于对象检测的单次细化神经网络、单次多框检测器等。一个或多个对象(104)可以包括一个或多个人、一个或多个脸部、一个或多个动物、一个或多个物品、一个或多个动画人物、一个或多个车辆、一个或多个建筑物等的至少一个。例如,在图4A中,显示了检测作为图像(103)中的一个或多个对象(104)的一个或多个人的脸部。
在操作302中,图像处理系统(102)使用一个或多个图像分割技术确定用于一个或多个对象(104)中的每一个的与图像(103)关联的置信图(105)。
在实施例中,图像处理系统(102)基于使用深度传感器的预训练深度学习模型或飞行时间(TOF)传感器中的至少一个,通过计算图像(103)中的一个或多个对象(104)来确定置信图(105)。置信图(105)表示像素属于图像(103)中的前景或背景的概率。在实施例中,用户可以从一个或多个对象(104)中选择至少一个对象来生成置信图(105)。具体地,如图4B所示,深度传感器(401)被用来生成用于由相机(110)捕获的图像(103)的深度图(402)。如图4B所示,使用深度图(402),图像处理系统(102)使用所检测的一个或多个对象(104)来基于图像(103)中的一个或多个对象(104)的深度生成置信图(105)。在另一实施例中,如图4C所示,TOF传感器(403)可以被用来生成用于由相机(110)捕获的图像(103)的深度图(402)。如图4C所示,使用深度图(402),图像处理系统(102)使用所检测的一个或多个对象(104)来基于图像(103)中的一个或多个对象(104)的深度生成置信图(105)。在又一实施例中,如图4D所示,图像处理系统(102)使用预训练深度学习模型来确定用于图像(103)的置信图(105)。此外,如图4E所示,图像处理系统(102)使用基于颜色相似性的边界校正技术修改置信图(105)。此外,一个或多个图像增强技术可以基于直方图、小波变换、梯度信息、基于分水岭的深度图、基于区域的颜色平均化,以在图像(103)中执行基于颜色相似性的边界校正。
在实施例中,在生成置信图(105)之后,图像处理系统(102)使用变换函数计算用于一个或多个对象(104)中的每一个的变换值(106),其中,图像(103)的大小和图像(103)中的一个或多个对象(104)中的每一个的大小中的至少一个被作为输入提供给变换函数。
在实施例中,图像处理系统(102)通过以下方式计算变换值(106):使用图像(103)的大小与图像(103)中的一个或多个对象(104)中的每一个的大小的比例和预定值作为变换函数的输入来确定用于一个或多个对象(104)中的每一个的变换值(106)。在实施例中,预定值可以是31、51等。然而,预定值不限于此。图像处理系统(102)可以接收预定值作为用户输入。变换值(106)与图像(103)中的一个或多个对象(104)的大小和图像(103)的大小的比例成正比。例如,变换值(106)可以用下面的等式计算:
Figure BDA0003666623460000121
例如,变换值(106)可以是诸如5、12、17、35等的值。为来自图像(103)中的一个或多个对象(104)的每个对象计算变换值(106)。
在操作303中,图像处理系统(102)基于图像(103)中的一个或多个对象(104)中的每一个的大小和图像(103)中的每个像素与图像(103)中的一个或多个对象(104)中的每一个的距离中的至少一个,从置信图(105)生成用于图像(103)中的一个或多个对象(104)中的每一个的三分图(107)。在此,三分图(107)被用来执行图像抠图。
在实施例中,图像处理系统(102)通过计算从图像(103)中的像素到图像(103)中的一个或多个对象(104)中的每一个的距离,生成用于图像(103)中的一个或多个对象(104)中的每一个的三分图(107)。为图像(103)中的每个像素计算距离。距离可以用欧氏距离技术来计算。例如,位于应用于图像(103)中的一个或多个对象(104)中的每一个的边界框的中心的像素被用来计算与边界框的外部的每个像素的距离。此外,图像处理系统(102)可以将每个像素的距离和与一个或多个对象(104)中的每一个对应的变换值(106)进行比较,并且当位于边界框的中心的像素和边界框的外部的像素之间的距离小于变值(106)时,将每个像素标记为未知像素。例如,如果位于边界框的中心的像素与边界框的外部的像素之间的距离为7,并且变换值(106)为12,则该像素被标记为未知像素。三分图(107)中的未知像素构成未知区域。可替换地,当位于边界框的中心的像素与边界框的外部的像素之间的距离大于或等于变换值(106),图像处理系统(102)使用置信图(105)将每个像素标记为前景像素或背景像素中的至少一个。例如,如果位于边界框的中心的像素与边界框的外部的像素之间的距离为22,并且变换值(106)为9,则该像素被使用置信图(105)标记为前景像素或背景像素之一。三分图(107)中的前景像素构成前景区域,并且三分图(107)中的背景像素构成背景区域。图4F所示的三分图(107)是由图像处理单元生成的,与图4E所示的置信图(105)对应。
在实施例中,如图4F所示,图像处理系统(102)通过将图像(103)和图像(103)的三分图(107)提供给预训练的第一深度学习模型来执行图像抠图。进一步地,如图4F所示,使用预训练的第一深度学习模型的输出生成图像(103)的前景蒙版(109),其中,图像(103)中的前景区域和背景区域是使用前景蒙版(109)分开的。预训练的第一深度学习模型可以基于编码器解码器模型、卷积神经网络、递归神经网络等。
图5显示示出根据实施例的使用预训练的第二深度学习模型执行图像(103)的图像抠图的方法的流程图。图6显示根据实施例的使用第二深度学习模型和第一深度学习模型对图像的三分图和前景蒙版的示例性生成。
在操作501中,图像处理系统(102)检测图像(103)中的一个或多个对象(104)。在上面的图3的步骤301中,详细描述了使用一个或多个对象检测技术检测图像(103)中的一个或多个对象(104)。
在操作502中,图像处理系统(102)将图像(103)和图像(103)中的一个或多个对象(104)提供给预训练的第二深度学习模型,以生成用于图像(103)中的一个或多个对象(104)中的每一个的三分图(107)。预训练的第二深度学习模型基于图像(103)的大小和图像(103)中的一个或多个对象(104)中的每一个的大小中的至少一个,生成三分图(107)。
在实施例中,第二深度学习模型基于具有跳跃连接的编码器解码器模型。图像处理系统(102)通过提供一个或多个样本图像作为初始深度学习模型的输入来训练第二深度学习模型。此外,图像处理系统(102)基于初始深度学习模型的输出,使用损失函数计算用于一个或多个样本图像中的每个像素的损失值。该输出表示用于图像(103)中的每个像素的标签。标签指示未知像素、前景像素或背景像素中的至少一个。损失函数可以包括交叉熵函数、均方误差函数等中的至少一个。损失值表示初始深度学习模型的输出和预期输出之间的误差。预期输出可以是与由用户确定的一个或多个图像关联的前景蒙版(109)。此外,图像处理系统(102)基于与一个或多个样本图像中的每个像素关联的标签来聚合损失值。此后,图像处理系统(102)基于所聚合的损失值,使用有监督学习技术修改与初始深度学习模型关联的一个或多个权重中的至少一个。基于修改后的一个或多个权重,第二深度学习模型学习,以基于图像(103)的大小和图像(103)中的一个或多个对象(104)中的每一个的大小中的至少一个来生成用于图像(103)的三分图(107)。
在操作503中,图像处理系统(102)使用图像(103)的三分图(107)执行用于图像(103)的图像抠图。在上面,参考图3的步骤304详细描述了使用预训练的第一深度学习模型生成三分图(107)。图像抠图生成图像(103)的前景蒙版(109),其中,图像(103)中的前景区域和背景区域是使用前景蒙版(109)分开的。
根据用于执行图像(103)的图像抠图的方法,图像处理单元(102)可以通过使用图像数据(即,像素值)作为用于人工智能模型的输入数据来获得输出数据,即,图像(103)的前景蒙版(109)、三分图(107)、置信图(105)。人工智能模型可以通过训练来获得。也就是说,配置为执行期望特征(或目的)的预定义运算规则或人工智能模型是通过由训练算法用多条训练数据训练基础人工智能模型来获得的。人工智能模型可以包括多个神经网络层。多个神经网络层中的每一个包括多个权重值,并且通过在先前层的计算结果和多个权重值之间进行计算来执行神经网络计算。神经网络的示例包括但不限于卷积神经网络(CNN)、深度神经网络(DNN)、递归神经网络(RNN)、受限玻尔兹曼机(RBM)、深度信念网络(DBN)、双向递归深度神经网络(BRDNN)、生成对抗网络(GAN)和深度Q网络。
生成三分图(107)以执行图像(103)的图像抠图的方法包括:基于图像(103)中的一个或多个对象(104)的大小和深度,生成用于图像(103)中的一个或多个对象(104)中的每一个的自适应三分图(107)。从一个或多个对象(104)中为每个对象(104)计算的变换值(106)减少图像(103)的三分图(107)中的未知区域。第一深度学习模型产生高质量的前景蒙版(109),其可以用于人像模式,以为聚焦对象(104)引入更精细的细节(头发丝、毛皮等),并产生类似DSLR(数码单反相机)的虚化效果。此外,更精细的前景蒙版(109)可以被用来提取图像(103)中的一个或多个对象(104),并且将一个或多个对象(104)与不同的背景自然融合。前景蒙版(109)的生成不需要人与图像(103)进行互动来标记三分图(107)中的用于图像抠图的未知区域。前景蒙版(109)是为由移动电话或智能电话捕获的低质量或低分辨率的图像生成的。前景蒙版(109)可以用于图像(103)中的一个或多个对象(104)的3D(三维)建模。
图7示出根据实施例的示例性计算机系统(700)的框图。计算机系统(700)可以被用来实现生成三分图(107)以执行图像抠图的方法。计算机系统(700)可以包括中央处理单元(“CPU”或“处理器”)(702)。处理器(702)可以包括用于执行监测用户的身体素质的程序组件的至少一个数据处理器。处理器(702)可以包括专用处理单元,诸如集成系统(总线)控制器、内存管理控制单元、浮点单元、图形处理单元、数字信号处理单元等。
处理器(702)可以经由输入/输出(I/O)接口(701)通信耦接到一个或多个I/O设备。I/O接口(701)可以采用通信协议/方法,诸如但不限于音频、模拟、数字、单声道、RCA连接器、立体声、IEEE-1394、串行总线、通用串行总线(USB)、红外线、PS/2、BNC(同轴电缆连接器)、同轴、分量(component)、复合、数字视觉接口(DVI)、高清多媒体接口(HDMI)、射频(RF)天线、S-Video(S端子输出)、视频图形阵列(VGA)、IEEE 802.n/b/g/n/x、蓝牙、蜂窝(例如,码分多址(CDMA)、高速分组接入(HSPA+)、全球移动通信系统(GSM)、长期演进(LTE)、WiMAX等)等。
通过使用I/O接口(701),计算机系统(700)可以与一个或多个I/O设备通信。例如,输入设备(710)可以是天线、键盘、鼠标、操纵杆、(红外)遥控器、相机、读卡器、传真机、适配器、生物识别器、麦克风、触摸屏、触摸板、轨迹球、手写笔、扫描仪、存储设备、收发器、视频设备/源等。输出设备(711)可以是打印机、传真机、视频显示器(例如,阴极射线管(CRT)、液晶显示器(LCD)、发光二极管(LED)、等离子体、等离子显示板(PDP)、有机发光二极管显示器(OLED)等)、音频扬声器等。
在一些实施例中,计算机系统(700)通过通信网络(709)连接到服务运营商。处理器(702)可以经由网络接口(703)连接到通信网络(709)。网络接口(703)可以与通信网络(709)通信。网络接口(703)可以采用连接协议,包括但不限于直接连接、以太网(例如,双绞线10/100/1000Base T)、传输控制协议/互联网协议(TCP/IP)、令牌环、IEEE 802.11a/b/g/n/x等。通信网络(709)可以包括但不限于直接互连、电子商务网络、对等(P2P)网络、局域网(LAN)、广域网(WAN)、无线网络(例如,使用无线应用协议)、互联网、Wi-Fi等。通过使用网络接口(703)和通信网络(709),计算机系统(700)可以与一个或多个服务运营商通信。
在一些实施例中,处理器(702)可以经由存储接口(704)通信耦接到存储器(705)(例如,随机存取存储器(RAM)、只读存储器(ROM)等)。采用连接协议,诸如串行高级技术附件(SATA)、集成驱动电子(IDE)、IEEE-1394、通用串行总线(USB)、光纤通道、小型计算机系统接口(SCSI)等,存储接口(704)可以连接到存储器(705)(包括但不限于存储驱动器、可移动盘驱动器等)。存储器驱动器还可以包括磁鼓、磁盘驱动器、磁光驱动器、光驱动器、独立磁盘冗余阵列(RAID)、固态存储器设备、固态驱动器等。
存储器(705)可以存储程序或数据库组件的集合,包括但不限于用户界面(706)、操作系统(707)、网络服务器(708)等。在一些实施例中,计算机系统(700)可以存储用户/应用数据(706),诸如数据、变量、记录等。这种数据库可以被实现为容错的、关系型的、可扩展的、安全的数据库,诸如Oracle(甲骨文)或Sybase(赛贝斯)。
操作系统(707)可以促进计算机系统(700)的资源管理和操作。操作系统的示例包括但不限于
Figure BDA0003666623460000161
类UNIX系统的发行版(例如,BERKELEY SOFTWARE
Figure BDA0003666623460000162
(BSD)、
Figure BDA0003666623460000163
OPENBSD等)、
Figure BDA0003666623460000164
发行版(例如,
Figure BDA0003666623460000165
Figure BDA0003666623460000166
等)、
Figure BDA00036666234600001617
(
Figure BDA0003666623460000167
Figure BDA0003666623460000168
10等)、
Figure BDA0003666623460000169
GOOGLETM ANDROIDTM
Figure BDA00036666234600001610
OS等。
在一些实施例中,计算机系统(700)可以实现存储网络浏览器的程序组件。网络浏览器可以是超文本浏览应用,诸如
Figure BDA00036666234600001611
INTERNET
Figure BDA00036666234600001612
GOOGLETMCHROMETM
Figure BDA00036666234600001613
Figure BDA00036666234600001614
等。可以使用安全超文本传输协议(HTTPS)、安全套接层(SSL)、传输层安全(TLS)等提供安全网络浏览。网络浏览器可以利用诸如AJAX(异步JavaScript和XML)、HTML(超文本标记语言)、
Figure BDA00036666234600001615
Figure BDA00036666234600001616
应用编程接口(API)等工具。在一些实施例中,计算机系统(700)可以实现存储邮件服务器的程序组件。邮件服务器可以是互联网邮件服务器,诸如Microsoft Exchange等。邮件服务器可以利用诸如Active Server Pages(ASP,动态服务器网页)、
Figure BDA0003666623460000171
C++/C#、
Figure BDA0003666623460000172
.NET、CGI SCRIPTS(CGI脚本)、
Figure BDA0003666623460000173
Figure BDA0003666623460000174
PHP、
Figure BDA0003666623460000175
等的设施。邮件服务器可以利用通信协议,诸如互联网消息访问协议(IMAP)、消息应用编程接口(MAPI)、
Figure BDA0003666623460000176
Exchange、邮局协议(POP)、简单邮件传输协议(SMTP)等。在一些实施例中,计算机系统(700)可以实现存储邮件客户端的程序组件。邮件客户端可以是邮件浏览应用,诸如
Figure BDA0003666623460000177
MAIL、
Figure BDA0003666623460000178
Figure BDA0003666623460000179
等。
此外,一个或多个计算机可读存储介质可以用于实现与本公开一致的实施例。计算机可读存储介质是指可以在其上存储可由处理器读取的信息或数据的任何类型的物理存储器。因此,计算机可读存储介质可以存储用于由一个或多个处理器执行的指令,包括用于使处理器执行与本文描述的实施例一致的步骤或阶段的指令。术语“计算机可读介质”应被理解为包括有形物品,并且不包括载波和瞬时信号(即,非暂时性的)。示例包括随机存取存储器(RAM)、只读存储器(ROM)、易失性存储器、非易失性存储器、硬盘、光盘(CD)ROM、数字视频光盘(DVD)、闪存驱动器、磁盘和任何其他已知的物理存储介质。
图像(103)可以从连接到通信网络(709)的远程设备(712)接收。
术语“一实施例”、“实施例”、“多个实施例”、“该实施例”、“一个或多个实施例”、“一些实施例”和“一个实施例”是指“本公开的一个或多个(但不是所有)实施例”,除非另有明确表示。
术语“包括”、“包含”、“具有”及其变体是指“包括但不限于”,除非另有明确表示。
所列举的项目不暗示任何或所有的项目是相互排斥的,除非另有明确表示。术语“一”、“一个”和“该”是指“一个或多个”,除非另有明确表示。
单数表达可以包括复数表达,除非上下文另有明确表示。
当本文描述单个设备或物品时,显然,可以用一个以上的设备/物品(无论它们是否协作)来代替单个设备/物品。类似地,在本文描述一个以上的设备或物品的情况下,显然,可以用单个设备/物品来代替一个以上的设备或物品,或者可以用不同数量的设备/物品来代替所示数量的设备或程序。设备的功能和/或特征可以由一个或多个其他设备以不同方式包括在内。
图3和图5的操作显示特定事件以特定顺序出现。在一些实施例中,特定操作可以被以不同的顺序执行、修改或删除。此外,各种操作可以被添加到参考图3和图5描述的实施例。此外,本文描述的操作可以依次处理,或可以并行处理。此外,操作可以由单个处理单元或分布式处理单元执行。
本公开的实施例已在上面进行显示和描述,然而,本公开的实施例不限于前述的具体实施例,显然,本公开所属技术领域中的本领域普通技术人员可以在不脱离本公开的范围的情况下,做出各种修改、替换和改进。此外,应当理解,这种修改、替换和改进应当落入本公开的保护范围内,并且不应脱离本公开的技术构思或预期进行独立解释。

Claims (15)

1.一种对图像执行图像抠图的方法,所述方法包括:
由图像处理系统检测图像中的一个或多个对象;
由图像处理系统使用一个或多个图像分割技术来确定用于一个或多个对象中的每一个的与图像关联的置信图;以及
由图像处理系统基于图像中的一个或多个对象中的每一个的大小和图像中的第一像素与图像中的一个或多个对象中的至少一个中的第二像素之间的距离中的至少一个,从置信图生成用于图像中的一个或多个对象中的每一个的三分图,
其中,三分图被用来执行图像抠图。
2.根据权利要求1所述的方法,其中,检测图像中的一个或多个对象包括:使用一个或多个对象检测技术来标识图像中的一个或多个对象。
3.根据权利要求1所述的方法,其中,确定置信图包括:
基于预训练深度学习模型、深度传感器或飞行时间(TOF)传感器中的至少一个,计算用于图像中的一个或多个对象的置信图;以及
使用基于颜色相似性的边界校正技术修改置信图。
4.根据权利要求1所述的方法,其中,所述方法还包括:
使用图像的大小与图像中的一个或多个对象中的每一个的大小的比例和预定值作为变换函数的输入来确定用于一个或多个对象中的每一个的变换值。
5.根据权利要求1所述的方法,其中,生成用于图像中的一个或多个对象中的每一个的三分图还包括:
计算从图像中的位于一个或多个对象的外部的第一像素到图像中的一个或多个对象中的至少一个中的第二像素的距离;
将距离和与一个或多个对象中的每一个对应的变换值进行比较;以及,
基于距离小于变换值,将第一像素标记为未知像素;或者
基于距离大于或等于变换值,使用置信图将第一像素标记为前景像素或背景像素中的至少一个。
6.根据权利要求1所述的方法,其中,执行图像抠图包括:
将图像和图像的三分图提供给第一预训练深度学习模型;以及
生成图像的前景蒙版,
其中,图像中的前景和背景是使用前景蒙版分开的。
7.一种用于对图像执行图像抠图的图像处理系统,图像处理系统包括:
存储器;和
处理器,其被配置为:
检测图像中的一个或多个对象;
使用一个或多个图像分割技术来确定用于一个或多个对象中的每一个的与图像关联的置信图;以及
基于图像中的一个或多个对象中的每一个的大小和图像中的第一像素与图像中的一个或多个对象中的至少一个中的第二像素之间的距离中的至少一个,从置信图生成用于图像中的一个或多个对象中的每一个的三分图,
其中,三分图被用来执行图像抠图。
8.根据权利要求7所述的图像处理系统,其中,处理器还被配置为:使用一个或多个对象检测技术来标识图像中的一个或多个对象。
9.根据权利要求7所述的图像处理系统,其中,处理器还被配置为:
基于预训练深度学习模型、深度传感器或飞行时间(TOF)传感器中的至少一个,计算用于图像中的一个或多个对象的置信图;以及
使用基于颜色相似性的边界校正技术修改置信图。
10.根据权利要求7所述的图像处理系统,其中,处理器还被配置为:
使用图像的大小与图像中的一个或多个对象中的每一个的大小的比例和预定值作为变换函数的输入来确定用于一个或多个对象中的每一个的变换值。
11.根据权利要求7所述的图像处理系统,其中,处理器还被配置为:
计算从图像中的位于一个或多个对象的外部的第一像素到图像中的一个或多个对象中的至少一个中的第二像素的距离;
将距离和与一个或多个对象中的每一个对应的变换值进行比较;以及
基于距离小于变换值,将第一像素标记为未知像素;或者
基于距离大于或等于变换值,使用置信图将第一像素标记为前景像素或背景像素中的至少一个。
12.根据权利要求7所述的图像处理系统,其中,处理器还被配置为:
将图像和图像的三分图提供给第一预训练深度学习模型;以及
生成图像的前景蒙版,
其中,图像中的前景和背景是使用前景蒙版分离的。
13.根据权利要求1所述的方法,其中,图像中的一个或多个对象中的至少一个中的第二像素是基于应用于图像中的一个或多个对象中的每一个的边界框来确定的,并且
其中,第二像素位于边界框的中心。
14.根据权利要求2所述的方法,其中,一个或多个对象检测技术包括使用利用haar特征的基于机器学习的viola-jones对象检测框架的边界框技术、标度不变特征变换(SIFT)、定向梯度直方图(HOG)特征、基于深度学习的区域建议、用于对象检测的单次细化神经网络或单次多框检测器中的至少一个。
15.根据权利要求1所述的方法,其中,生成用于图像中的一个或多个对象中的每一个的三分图包括:使用形态学运算生成三分图,并且
其中,基于图像的大小与图像中的一个或多个对象中的每一个的大小的比例来确定形态学运算的核大小。
CN202080082818.6A 2019-11-29 2020-11-25 用于生成图像抠图的三分图的方法和系统 Pending CN114746898A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
IN201941049053 2019-11-29
IN201941049053 2019-11-29
PCT/KR2020/016860 WO2021107610A1 (en) 2019-11-29 2020-11-25 Method and system for generating a tri-map for image matting

Publications (1)

Publication Number Publication Date
CN114746898A true CN114746898A (zh) 2022-07-12

Family

ID=76091786

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080082818.6A Pending CN114746898A (zh) 2019-11-29 2020-11-25 用于生成图像抠图的三分图的方法和系统

Country Status (4)

Country Link
US (1) US11657513B2 (zh)
EP (1) EP4004868A4 (zh)
CN (1) CN114746898A (zh)
WO (1) WO2021107610A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115375535A (zh) * 2022-10-21 2022-11-22 珠海金山办公软件有限公司 交互抠图方法、装置、电子设备及存储介质
CN116167922A (zh) * 2023-04-24 2023-05-26 广州趣丸网络科技有限公司 一种抠图方法、装置、存储介质及计算机设备

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2020389110A1 (en) * 2019-11-20 2022-06-09 Xailient Systems and methods for object detection and recognition
CN111640123B (zh) * 2020-05-22 2023-08-11 北京百度网讯科技有限公司 无背景图像的生成方法、装置、设备及介质
US11651477B2 (en) 2020-08-07 2023-05-16 Adobe Inc. Generating an image mask for a digital image by utilizing a multi-branch masking pipeline with neural networks
US11393100B2 (en) * 2020-08-07 2022-07-19 Adobe Inc. Automatically generating a trimap segmentation for a digital image by utilizing a trimap generation neural network
JP7076521B1 (ja) * 2020-11-27 2022-05-27 楽天グループ株式会社 情報処理システム、情報処理方法およびプログラム
US20230342991A1 (en) * 2022-04-21 2023-10-26 Adobe Inc. Machine learning-based chroma keying process

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8625888B2 (en) * 2010-07-21 2014-01-07 Microsoft Corporation Variable kernel size image matting
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US9675247B2 (en) 2014-12-05 2017-06-13 Ricoh Co., Ltd. Alpha-matting based retinal vessel extraction
MA41117A (fr) 2014-12-05 2017-10-10 Myfiziq Ltd Imagerie d'un corps
US9430715B1 (en) * 2015-05-01 2016-08-30 Adobe Systems Incorporated Identifying and modifying cast shadows in an image
KR102115328B1 (ko) 2015-06-15 2020-05-26 한국전자통신연구원 전역 대조도 기반 영상 매팅을 통한 영상 내부의 관심 객체 추출 장치 및 방법
US10255681B2 (en) 2017-03-02 2019-04-09 Adobe Inc. Image matting using deep learning

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115375535A (zh) * 2022-10-21 2022-11-22 珠海金山办公软件有限公司 交互抠图方法、装置、电子设备及存储介质
CN116167922A (zh) * 2023-04-24 2023-05-26 广州趣丸网络科技有限公司 一种抠图方法、装置、存储介质及计算机设备

Also Published As

Publication number Publication date
EP4004868A1 (en) 2022-06-01
US11657513B2 (en) 2023-05-23
EP4004868A4 (en) 2022-10-12
WO2021107610A1 (en) 2021-06-03
US20210166400A1 (en) 2021-06-03

Similar Documents

Publication Publication Date Title
CN114746898A (zh) 用于生成图像抠图的三分图的方法和系统
US11657602B2 (en) Font identification from imagery
US9697416B2 (en) Object detection using cascaded convolutional neural networks
WO2019218824A1 (zh) 一种移动轨迹获取方法及其设备、存储介质、终端
WO2018108129A1 (zh) 用于识别物体类别的方法及装置、电子设备
WO2021036059A1 (zh) 图像转换模型训练方法、异质人脸识别方法、装置及设备
CN109145759B (zh) 车辆属性识别方法、装置、服务器及存储介质
TWI721510B (zh) 雙目圖像的深度估計方法、設備及儲存介質
JP6330385B2 (ja) 画像処理装置、画像処理方法およびプログラム
US10410354B1 (en) Method and apparatus for multi-model primitive fitting based on deep geometric boundary and instance aware segmentation
WO2022022154A1 (zh) 脸部图像处理方法、装置、设备及存储介质
CN111241989A (zh) 图像识别方法及装置、电子设备
US10740901B2 (en) Encoder regularization of a segmentation model
CN111860414A (zh) 一种基于多特征融合检测Deepfake视频方法
WO2022218396A1 (zh) 图像处理方法、装置和计算机可读存储介质
CN110222572A (zh) 跟踪方法、装置、电子设备及存储介质
CN114511041B (zh) 模型训练方法、图像处理方法、装置、设备和存储介质
CN114998595B (zh) 弱监督语义分割方法、语义分割方法及可读存储介质
CN110942456B (zh) 篡改图像检测方法、装置、设备及存储介质
JP2023507248A (ja) 物体検出および認識のためのシステムおよび方法
CN113095333A (zh) 无监督特征点检测方法及装置
Lecca et al. Comprehensive evaluation of image enhancement for unsupervised image description and matching
CN116957051A (zh) 一种优化特征提取的遥感图像弱监督目标检测方法
US20230005162A1 (en) Image processing system, image processing method, and storage medium
CN115115552A (zh) 图像矫正模型训练及图像矫正方法、装置和计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination