CN101558404A - 图像分割 - Google Patents
图像分割 Download PDFInfo
- Publication number
- CN101558404A CN101558404A CNA2006800212742A CN200680021274A CN101558404A CN 101558404 A CN101558404 A CN 101558404A CN A2006800212742 A CNA2006800212742 A CN A2006800212742A CN 200680021274 A CN200680021274 A CN 200680021274A CN 101558404 A CN101558404 A CN 101558404A
- Authority
- CN
- China
- Prior art keywords
- likelihood
- pixel
- designator
- motion
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
- H04N5/45—Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/162—Detection; Localisation; Normalisation using pixel segmentation or colour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/162—Segmentation; Edge detection involving graph-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20121—Active appearance model [AAM]
Abstract
一种基于包括运动、色彩、对比度在内的一个或多个因素的分割过程可提供图像中前景层与背景层的分割。色彩、运动、以及可任选地还有对比度信息可被概率性地融合以准确而高效率地推断出前景和/或背景层。可从训练数据自动学习运动相对于非运动的似然性,再使之与对比度敏感的色彩模型融合。然后可通过诸如图割等优化算法来高效率地解决分割问题。
Description
背景
在电信会议、实况会晤或其它视频显示应用中,在诸如实况背景代换、摇摄全景/俯仰拍摄/变焦、目标插入等诸多应用中,从视频实时分离出前景层是有用的。实时分离前景层要求层分离接近计算机图形质量,包括如在视频抠图中的透明度确定,但又要有足以达到实况流动速度计算效率。
概述
下面提供本公开内容的简要概述,让读者有个基本理解。此概述不全面评述公开内容,也不标识本发明的关键性/决定性要素或者界定发明范围。其唯一目的是以简化形式提供本文揭示的一些概念,作为后面更详细描述的开场白。
一种可基于包括运动、色彩、对比度等在内的一个或多个因素的分割过程可提供对常规单目视频率列中前景层与背景层的实时分割。单从色彩/对比度或单从运动自动分离诸层可能会包含差错。为减少分割差错,色彩、运动、以及可任选地还有对比度信息可被概率性地融合以准确而高效率地推断前景层和/或背景层。以此方式,不需要像素速度。因而,消除了与光流估计有关的若干问题。取而代之的是,可从训练数据自动学习运动相对于非运动的似然性,再将其与对比度敏感的色彩模型融合。然后,可通过诸如图割(Graph Cut)等优化算法来高效率地解决分割问题。如本文所使用的,优化可包括对一个或多个可任选的结果记分,并选择得分超过某一阈值或者是多个得分中最佳得分的可任选结果。例如,优化可包括选择具有最高得分的那个可任选结果。在有些场合,对可任选结果的记分可以包括考虑具有最小能量的那个可任选结果。
如以下在实况背景代换应用中描述地演示了前景/背景分离的准确度,并示出其给出了质量令人信服的合成视频输出。但是应当认识到,图像中前景与背景的分割可具有各种应用和用途。
通过结合附图参考下面的具体说明能更好地理解诸多附带的特征,因而将更易于常识其优越性。
附图说明
在附图的启发下阅读以下具体说明将可更好地理解本说明,其中:
图1示出用于实现基于单目的图像处理系统的示例系统;
图2示出图像处理系统的示例性简图;
图3示出用于训练运动似然性的训练数据序列中的两个例帧以及相应地人工获取的分割蒙片;
图4示出训练前景二维微分点和训练背景微分点的示例曲线图;
图5示出训练前景与背景微分点的示例曲线图;
图6示出一示例测试序列和各像素相应的运动似然性;
图7示出一示例输入图像序列;
图8示出图7的图像序列的前景分割;
图9示出使用图8的图像序列的前景分割的背景代换;
图10示出在联机聊天应用中背景代换的一示例帧显示;以及
图11示出一示例图像处理方法。
具体说明
以下结合附图给出的具体说明旨在描述本发明的示例,而并不表示可构建或利用本发明的示例的唯一形式。本说明阐述了示例的功能以及构建和操作该示例的一系列步骤。但是,可用不同的示例来实现同样或同等的功能和序列。
虽然这里把本发明的示例描述和图示为在分割系统中实现,但是所描述的系统只作为示例而非限定。如本领域的技术人员将可认识到的,本发明诸示例适用于在各种不同类型的图像处理系统中应用。
图1和以下讨论旨在提供对适宜实现将图像的前景区从背景区分割出来的一种图像处理系统的计算环境的简要的、一般化的描述。图1的操作环境仅是适宜的操作环境的一个例子,而并非试图对操作环境的使用范围或功能集提出任何限定。适合随这里所描述的基于单目的图像处理系统一起使用的其它公知的计算系统、环境和/或配置包括但不限于:个人计算机、服务器计算机、手持式或膝上型设备、多处理器系统、基于微处理器的系统、可编程消费者电子设备、网络个人计算机、小型计算机、大型计算机、包括以上各种系统或设备中的任何系统或设备的分布式计算环境等。
虽非必要,但将在由一台或多台计算机或其它设备执行的诸如程序模块等的计算机可执行指令的一般化背景中描述该图像处理系统。通常,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元件、数据结构等。一般可以按照各种环境中的需要来组合或分布这些程序模块的功能集。
参照图1,用于实现该图像处理系统的示例性系统包括诸如计算设备100的计算设备。在其最基本的配置中,计算设备100一般包括至少一个处理单元102和存储器104。根据计算设备的确切与类型,存储器104可以是易失性(如RAM)、非易失性(如RDM、闪存等)、或这二者的某种组合。图1中以虚线106示出了这种最基本的配置。另外,设备100还可具有其它特征和/或功能集,比如设备100还可包括附加的存储(例如,可移动和/或不可移动的),包括但不限于磁盘或磁带或是光盘或光带。这种附加存储在图1中由可移动存储108和不可移动存储110示出。计算机存储介质包括以任何方法或技术实现的用于存储诸如计算机可读指令、数据结构、程序模块或其它数据等的信息的易失性与非易失性、可移动与不可移动介质。存储器104、可移动存储108和不可移动存储110全是计算机存储介质的示例。计算机存储介质包括但不限于:RAM、ROM、EEPROM、闪存或其它存储器技术,CD-ROM、数字多用途盘(DVD)或其它光学存储设备,磁带盒、磁带、磁盘存储或其它磁存储设备,或者能用于存储所需信息并可被设备100访问的任何其它介质。任何这样的计算机存储介质都可以是设备100的一部分。
设备100还可包含让设备100能与其它设备,诸如通过网络120与另一计算设备通信的通信连接112。通信连接112是通信介质的示例。通过介质通常具体表现计算机可读指令、数据结构、程序模块或诸如载波等已调制数据信号或其它传输机制中的其它数据,且包括任何信息投放介质。术语“已调制数据信号”表示其特征中的一个或多个被以在该信号中编码信息的方式设置或改变的信号。举例来说但不作限定,通信介质包括:诸如有线网或直接布线连接等的有线介质,诸如声波、射频、红外等的无线介质及其它无线介质。这里使用的术语“计算机可读介质”包括存储介质与通信介质二者。
本领域的技术人员将会认识到,用于存储程序指令的存储设备跨网络分布。比如远程计算机可以存储被描述为软件的过程的一个示例,本地或终端计算机可访问该远程计算机并下载软件的部分或全部以运行该程序。替换地,本地计算机可视需要下载软件的片段,或通过在本地终端处执行一些软件指令并在远程计算机(或计算机网)上执行一些软件指令来进行分布式处理。本领域的技术人员还将意识到,通过运用他们已知的常规技术,可用诸如DSP、可编程逻辑阵列等专用电路来执行软件指令的全部或部分。
设备100还具有输入设备114,诸如键盘、鼠标、笔、语音输入设备、触模输入设备、激光测距仪、红外相机、视频输入设备、和/或任何其它输入设备。还可包括输入设备116,诸如一个或多个显示器、扬声器、打印机、和/或任何其它输出设备。
数码摄像机在消费者与专业环境内都有用。通常,数码摄像机捕获一系列数字图像,然后把它们传给计算设备作显示或处理,或者传到存储设备供存储。一示例在视频会议应用中采用数码摄像机。在典型的视频会议中,描绘与会者的图像序列被传送给一个或多个其它与会者。同时,描绘其它与会者的图像序列被传送给第一与会者的显示设备。这样,每位与会者在会议期间都能观看到其它与会者的视频。
图2示出一典型的视频电信会议环境200,其中单台摄像机202聚焦于与会者204,他在自己的显示设备206中的视频显示帧里观看到其它与会者。摄像机202通常搭载在计算设备的显示器206上或其附近,其具有宽视野以试图将与会者保持在摄像机的视野内成帧。然而宽视野还捕捉到该场景的背景208。应当认识到,可根据情况使用替换摄像机与显示设置,诸如替换的位置、取向、摄像机数目、与会人数等。
业已证明交互式的基于色彩/对比度的分割技术在分割单帧静态图像中的前景与背景上是有效的。由于只基于色彩/对比度的分割法在定义前景与背景区域时需要人工操纵,因而色彩/对比度分割法超出了全自动方法的能力。
为了准确和/或高效率地(例如自动地)分割前景层以使其能被实时应用于视频图像,利用各种线索的融合的稳健方法可被采用。例如,可实现运动与色彩和对比度以及层内空间相干先验的融合来分割图像视频流中的前景信息。通过融合立体、色彩与对比度,用立体成像技术可实现在约10fps(帧每秒)下的前景/背景分离。用常规单目摄像机可达到类似的分割准确度,甚至速度更高。
在一替换示例中,无论是否与色彩和/或对比度融合,立体似然性都可用运动似然性来增补。立体似然性在2005年6月加利福尼亚州圣地亚哥的Computer VisionPattern Recognition(计算机视觉模式识别)会议学报中V.Kolmogorov等的“Bi-layersegmentation of binocular stereo video(双目立体时频的双层分割)”中以及在2005年8月2日提交的题为STEREO-BASED SEGMENTATION(基于立体的分割)的美国专利申请No.11/195027中描述,这些文献通过援引纳入于此。尤其是,在立体图像处理系统中,可类似地将运动与立体似然性以及可任选地与色彩和/或对比度似然性融合。
在以前的技术中,像素速度例如运动一般通过应用光流算法来估计。为作分割,可根据预定义的运动模型把光流分成若干区域。然而,光流的求解通常是欠约束问题,因而可添加数个“平滑度”约束来规整该解。不巧的是,规整技术会沿对象边界产生不准确性。在分割情形中,不希望有诸如边界不准确性等的残余效应,因为它们会产生不正确的前景/背景过渡。为减少规整技术的残余效应,不是计算全速度,而是可通过似然比测试将运动与非运动事件区分开来。然后可将从训练例学习到的运动似然性函数与色彩/对比度似然性以及空间先验概率地融合以实现更准确的分割。另外,减轻全速度计算要求在算法效率意义上是便利的。
图2示出一自动分离图像序列中的前景与背景的示例图像处理系统。该示例图像处理系统使用概率模型以及可被用作图像分割的基础的能量最小化技术。准确提取的前景可与不同的静态或运动的背景基本无混叠地合成,这在视频会议应用中将是有用的。
在图2的示例中,输入图像210为单目的,即接受来自单个单目视频输入设备202的图像。然而,应认识到,输入图像也可以是立体的,而且可与下面式(1)的能量函数中的立体似然性融合。
可将来自视频输入设备202的输入图像输入到强度索引器212,后者可根据像素各自的强度来索引多个来自该图像的像素。来自输入图像的适当数量的像素可被索引。例如可以索引整幅图像,可索引输入图像的一部分,诸如一条或多条扫描线、立体系统里的对极线等。如图2所示,强度索引器212可输出输入图像像素的强度值214。强度值可以任何合适的方式并以任何合适的格式存储,以数据阵列形式存储在数据存储中。
数据存储可包括关系型数据库、面向对象数据库、非结构化数据库、内存中数据库、顺序存储器、或其它数据存储中的一个或多个。存储阵列是数据存储的一种形式,并可使用诸如ASCII文本的平面文件系统、二进制文件、跨通信网络传送的数据、或任何其它文件系统来构建。虽然前述或任何其它数据存储设备有这些可能的实现,但是这里使用的术语“数据存储设备与存储阵列”是指以任何可为计算设备访问的方式收集和存储的任何数据。
参见图2,给定一图像输入序列,时刻t的输入图像帧210可在RGB色彩空间内被表示为N个像素的阵列z。该阵列或被索引的N个像素可被指示为由单个索引n来索引的z=(z1,z2,…zn,…,zN)。经索引的像素z可被输入到分割模块216,以将前景从背景中分割出来。为分割输入图像的像素,可基于来自运动模型230、色彩模型232和可任选的对比度模型234的输入将各像素定义为前景或背景。例如,可由分割模块216用一个或多个分割指示符218将输入图像里的多个像素标记为前景或背景,每个分割指示符与输入图像的一个或多个像素相关联。
图像帧210的分割可被表达为相应的阵列或多个不透明度或分割状态值α=(α1,α2,…,αn,…,αN)(图2中示为分割指示符218),其中αn的值可指示与分割指示符关联的像素的分割层。分割指示符可以用任何合适的格式与方式存储,诸如存储在数据存储中。
分割可以是硬分割(即,像素可或被分类成前景或被分类成背景)。前景与背景分割指示符或标记可具有任何合适的值,诸如二进制值、文本标记、整数值、实数值等。在一个示例中,像素n的分割指示符αn可为或0或1的集合。在一个示例中,0值可指示背景,1值可以是前景。在一些情形中,可使用空和/或负值来指示层的特定分割状态。在另一示例中,前景分割指示符可以是“F”串,而背景分割指示符可以是“B”串。应认识到,可使用其它标记、值、标记编号等。分数的不透明度或分割指示符值是可能的,并且可以指示相关像素的未知或可能状态。分数不透明度(即α)可使用任何合适的技术来计算,诸如应用以下进一步讨论的SPS的α抠图技术、如在Rother等的“GrabCut:Interactive foreground extraction using iteratedgraph cuts(GrabCut:使用迭代图割的交互式前景提取)”,ACMGraph.(图形)会刊第23卷,2004年第3期,第309-314页中进一步描述的边界抠图等,这些文献被援引纳入于此。
图2的分割模块216能以任何合适的方式将输入图像中的像素标识为前景或背景。例如,可将基于运动的分割与色彩分割以及可任选地与对比度分割相融合。不是纯粹将单由运动分割得出的图像与由色彩和/或对比度分割得出的图像融合,确切而言,该分割模块利用运动模型230、色彩模型232以及可任选地利用对比度模型234来虑及运动及色彩以及可任选地还有对比度。
为确定输入图像210的分割指示符218,分割模块216可接收至少一个要分成前景和背景部分的输入图像210。图像210可以被表示为像素值阵列214,它可以是在RGB色彩空间中,如由图像索引器212确定的那样。分割模块216可为输入图像210中的多个像素里使能量函数最小化的每一个像素确定一分割指示符。该能量函数可包括运动模型230、色彩模型232以及可任选地还包括对比度模型234。能量函数的最小化可以用任何合适的方式实现,诸如像以上引述的由Boykov等描述的那样通过二进制标记上的图割来实现。能量函数包括一个或多个元素,其中包括运动似然性、色彩似然性以及可任选地还包括对比度似然性。运动似然性可使用从运动初始化模块生成的运动参数、输入图像的像素值、输入图像中的多个像素中的每一像素的时间微分,以及输入图像的多个像素中的每一像素的空间梯度。对比度似然性可使用输入图像的像素值。色彩似然性项可使用从色彩初始化模块生成的色彩参数、在前图像的像素值,以及由运动似然性以及可任选地由对比度似然性初始确定与在前图像的像素关联的的估算的分割指示符。
为确定运动模型230的运动参数,可将一组一个或多个训练图像250输入到人工图像处理模块252,在此用户可人工或交互地定义训练图像的前景与背景部分。人工图像处理模块可使用任何合适技术来定义训练图像中诸像素的前景与背景标记,诸如Boykov等的“Interactive graph cuts for optimal boundary and regionsegmentation of objects in N-D images(用于在N-D图像中实现对象的最优边界和区域分割的交互式图割)”Computer Vision(计算机视觉)国际会议学报,2001、以及Rother等的“Interactive foreground extraction Using iterated graph cuts(使用迭代图割的交互式前景提取)”ACM Graph.(图形)会刊,第23卷,2004年第3期,第309-314页的技术,两文献被援引纳入于此。人工图像处理模块可输出多个训练分割指示符254,每个分割指示符与训练图像中的一个像素关联。分割指示符指示训练图像中关联的像素是前景还是背景。训练图像的诸像素的分割指示符可按任何合适的方式并以任何合适的格式存储,诸如采取可存储在数据存储中的数据阵列形式。
运动初始化模块256可接收训练图像像素的分割指示符254,并确定运动相对于非运动事件似然比的运动参数值。下面进一步讨论的这些运动参数值可使训练数据的标记的分类差错最小化。例如,可使用期望最大化来使高斯混合模型与被标记的训练图像中像素的时间和空间梯度的前景分布相拟合。另一个高斯混合物模型可与被标记的训练图像中像素的时间和空间梯度的背景分布相拟合。更具体地说,可对训练图像中的多个像素确定时间和空间梯度并使之与这些像素相关联,并且高斯函数拟合训练图像中这多个像素的每个时间和空间梯度对,这多个像素可从人工分割的训练图像汇集。这样,运动初始化模块256可输出运动参数258,这些参数可以用任何合适的方式和格式存储,诸如存储在数据存储中。分割模块216可在运动模型230中使用运动参数258以确定运动似然性。
色彩似然性初始化模块260可以用任何合适的方式在色彩色模型232中确定色彩似然性算法的参数,例如,色彩似然性初始化模块可应用以上引述并将在下文细述的Rother等所描述的技术。更具体地说,在输入图像210要被分割之前,可将高斯混合模型拟合到一个或多个先前已分割的图像帧。可利用期望最大化来将高斯混合模型拟合到前一幅或几幅先前图像的前景像素和相关联的分割指示符,并且可利用期望最大化来将高斯混合模型拟合到这一幅或几幅先前图像的背景像素和相关联的分割指示符。这样,色彩初始化模块260可输出色彩参数262,这些参数可以用任何合适的方式以及用任何合适的格式存储,诸如存储在数据存储中,并由分割模块216在色彩模型232中使用以确定色彩似然性。
可任选的对比度模型234会影响空间先验,这会迫使得到的分割值跟随或考虑由色彩对比度值定义的自然对象轮廓。空间平滑度项可以用任何合适的方式来确定。具体而言,对比度模型可如在以下进一步讨论地接收输入图像的像素值并提供对比度项。
图像处理器220可使用来自分割模块216的分割指示符218(例如,前景、背景的标记)及其在输入图像210中相关联的像素,基于分割指示符218修改和/或处理输入图像210以产生输出图像222。例如,图像处理器可提取前景像素中的至少一部分,并把它们与替换背景图像合成起来,该背景图像可以是替换景像、单色、来自诸如电子表格或演示应用等应用的被显示对象。在另一例中,背景像素的至少一部分可被替换背景图像置换。背景图像可以是任何适宜的图像,诸如替换场所的场景(例如海滩)、来自诸如幻灯片演示等应用的输入等。在另一例中,能以与前景像素不同的保真度压缩与指示背景分割的分割状态值关联的像素的至少一部分。这样,图像压缩对前景像素保持高保真度,而对背景像素部分保持较低保真度。在再一例中,可将背景像素与前景像素分离并将其单独地传给接收者,诸如在电信会议应用中就是如此。电信会议视频流的后续各帧可只将前景像素发送给接收者,这些前景像素可与替换背景图像或存储的来自上次传输的背景像素相组合。在另一例中,动态表情图标(emoticon)可与图像的前景对象交互。如在被援引包含于此的2005年2月25日提交的美国专利申请S/N.11/066946中详述的那样,动态表情图标可绕前景对象环行。在另一例中,可用图像中被标识的前景像素来定制围绕处理图像的前景像素的框的大小和/或放置(例如,智能加框(smart-framing)),还可限制背景像素的显示。在另一例中,可用输入图像中被标识的前景像素来定制围绕输入图像的前景像素的框的大小和/或位置(例如,智能加框),还可限制背景像素的显示。应当认识到,图像处理器可以用任何合适的方式利用经分割的像素来处理或修改显示或存储的图像,而以上的图像处理描述仅作为示例,并非是限制。
通过能量最小化实现的分割
类似于Boykov等的“Interactive graph cuts for optimal boundary and regionsegmentation of objects in N-D images(用于在N-D图像中实现对象的最优边界和区域分割的交互式图割)”Computer Vision(计算机视觉)国际会议学报,2001和Rother等的“Interactive foreground extraction Using iterated graph cuts(使用迭代图割的交互式前景提取)”ACM Graph(图形)会刊,第23卷第3期,2004年第309-314页,一幅或多幅输入图像的分割问题可被投射成能量最小化任务。要由图2的分割模块216最小化的能量函数E可由数据项与平滑度项之和给出。例如,能量函数E可由运动似然性与色彩似然性之和给出,有时还加上空间相干性(或对比度平滑度)似然性,并可被表示为
其中V()是基于对比度的空间平滑度项,UC是色彩似然性,UM为运动似然性,所有这些将在下面进一步描述。
用式(1)定义了能量,就可诸如通过运用:
来估计该能量函数的全局最小值,从而可确定诸输入图像像素的最优化或充分优化的分割指示符α。
能量的最小化可通过诸如在以引述的Boykov等的文献中进一步描述的二进制标记上的图割等的任何合适的优化法高效率地完成。如下进一步描述的,色彩参数和θ的最优值可通过诸如期望最大化来从视频系列中在该输入图像前面的已分割图像学习;运动参数kM和θM可通过诸如期望最大化来从任何合适的已分割训练图像学习。
Gibbs能量可被定义为图2的分割模块216中所使用的诸因素的概率模型。例如,分割模块可以考虑运动似然性模型230和色彩似然性模型232。运动似然性模型230可基于运动参数提供运动似然性函数的模型,色彩似然性模型232可基于色彩参数提供色彩似然函数的模型。如上所述,分割模块还可包括对比度似然性模型234。下面几节定义可由模型230、232、234向图2中的分割模块216提供的式(1)中的各项。
色彩似然性(U
C
)
图2的色彩似然性模型232可以基于任何合适的色彩似然性模型。例如双层分割可用高斯混合模型来建模前景与背景里的色彩似然性。为简明起见,这里对针对色彩的示例性合适的高斯混合模型进行概述,详情可见被援引纳入于此的2004年6月3日提交的题为Foreground Extraction Using Iterated Graph Cuts(使用迭代图割的前景提取)的美国专利申请S/N.10/861,771和2005年8月2日提交的题为Stereo-Based Image Segmentation(基于立体的图像分割)的美国专利No.11/195027。为清楚起见,以上引述的Rother等的文献中详述的另一个合适的色彩模型在这里概述。
前景与背景色彩可用两个高斯混合模型(GMM)来建模,一个用于背景,另一个用于前景。每个GMM有K个具有全协方差的分量(一般K=20)。诸像素对相应GMM分量的赋值可以用任何合适的方式存储,诸如作为矢量k=(k1,k2,…,kn,…,kN)存储在数据存储中,kn为整数1到K范围的集合的元素。每一GMM分量或属于前景或属于背景GMM。
色彩似然性可以写为:
UC(α,k,θ,z)=∑D(αn,kn,θ,zn) (3)
其中θ包括下面定义的GMM模型的参数,并且其中D(αn,kn,θ,zn)=-log p(zn|αn,kn;θ)-logTT(TTn;kn),p()为高斯随机分布,π()包括混合加权系数。因此,函数D可重写为:
其中μ和∑分别是前景和背景分布的2K个高斯分量的平均值与协方差,因而色彩模型的参数是θ={TT(α,k),μ(α,k),∑(α,k),α={0,1},k=(1,...,K}}。
上述对应于色彩似然性的式(3)只包括全局色彩模型,而不包含逐像素模型。然而,应当认识到,作为全局色彩模型的补充或替代,可实现逐像素模型。在2005年8月2日提交的题为Stereo-Based Segmentation(基于立体的分割)的美国专利申请No.11/195027中详述的色彩似然性将是合适的,这里为清楚起见作一简述。例如,利用高斯混合模型,前景色彩模型p(z|x+F)是由前景像素初始化或从其学习到的空间全局高斯混合。在背景中,存在类似初始化或学习到的高斯混合p(z|x+B)。背景模型还可包括凡在稳定性标志指示已在足够数目的先前帧上存在静态平衡的地方总是可用的每像素单一高斯密度pk(zk)。稳定性标志可以用任何特定方式,诸如用二进制值、文本值、多个指示符等来指示稳定性或不稳定性。这样,组合的色彩模型可用色彩能量UC k给出,UC k可以表示为:
式中sk是值为0或1的稳定性标志指示符。背景色彩模型示出了全局背景模型与逐像素背景模型之间的混合,但应认识到,可使用任何合适的背景和/或前景模型。在有些场合,在背景模型中应用逐像素方法可以允许提取有信息性的信息。然而,逐像素方法对背景运动敏感,通过增添全局背景分布p(zk|xk+B)作为混合中的污染分量,可以减小该效应。由于前景主题最可能运动而摄像机不动,所以背景的大部分不随时间推移而变化。然而,应当认识到,为了简洁或出于其它/任何合适理由,式(5)中背景部分的逐像素和/或全局部分可被移除。
高斯混合模型可以在色彩空间即红绿蓝(RGB)色彩空间内建模,并可以用任何合适的方式初始化。色彩空间可以是任何合适的色彩空间,包括红绿蓝(RGB)、YUV、HSB、CIE Lab、CIE Luv等。高斯混合模型可从视频序列中在要被分割的输入图像之前的一幅或多幅已分割图像帧学习。注意,与单帧图像的分割不同,在单目前景背景分割中,可通过期望最大化从在帧t-1的分割估算出对应于帧t的色彩参数θ与k。再者,可对每个帧t应用单次迭代,尽管应当认识到也可用多次迭代。
在另一例中,高斯的参数可被初始化到一缺省值,诸如所有像素都可被初始化成背景。不管哪种情况,随着参数估计的改善,色彩似然性在图像分割中的作用或影响可被提升。例如,在参数值被初始化时,色彩似然性可能被基本上突然地接通。替换地,诸如使用加权项等可拨入色彩项,以逐步提升其影响。拨入周期可以是任何合适的周期,可约为几秒钟,或在另一例中可约为100帧。
通过为每个像素混入由逐像素背景维护学习到的概率密度,就可增强背景模型。在被援引纳入于此Rowe等的“Statistical mosaics for tracking(用于跟踪的统计镶嵌)”,Image and Vision Computing(图像与视觉计算)第14卷1996年第549-564页,和Stauffer等的“Adaptive background mixture models for real-timetracking(用于实时跟踪的自适应背景混合模型)”,CVPR学报1999年第246-252页中进一步讨论了逐像素背景维护。如同高斯参数一样,概率密度可以用任何合适的方法初始化,诸如通过学习先前已被标记的图像,通过将像素标记设为缺省值来引导初始化等。
运用高斯混合模型,前景色彩模型p(z|α=1)是初始化或从前景像素学习到的空间全局高斯混合。在背景中,有类似的初始化或学习到的高斯混合p(z|α=0)。背景模型还可包括凡在稳定性标志指示已在足够数目的先前帧上存在静态平衡的地方都可用的每像素单一高斯密度pK(zK)。稳定性标志可以用任何特定方式,诸如用二进制值、文本值、多个指示符等来指示稳定性或不稳定性。
对比度模型
对比度似然模型诸如图2的对比度似然模型234可以改善分割边界以对准高图像对比度的轮廓。可使用任何合适的色彩对比度模型,诸如在被援引纳入于此并为清楚起见在此概述的Boykov等的“Interactive graph cuts for optimal boundary andregion segmentation of objects in N-D images(用于在N-D图像中实现对象的最优边界和区域分割的交互式图割)”Computer Vision(计算机视觉)国际会议学报,2001中进一步讨论的对比度似然性模型。
如在使用图割的交互前景提取中,对比度模型影响成对能量V,并且基于色彩对比度的对比度能量V可表示为:
其中索引m与n是输入图像中水平、对角与垂直系的成对像素索引。参数β是对比度调制常数,可计算为:
β=(2<(zm-zn)2>)-1 (7)
其中<>指图像采样上的期望。函数I[αn≠αm]是起二进制开关作用的恒等函数,其在过渡进入或离开前景状态时起作用。
可任选的强度参数γ可与对比度模型中各项相乘。该强度参数可指示相干先验与对比度似然性,且可通过实验调整。在有些情形中,可将强度参数γ设为接近等于10。
可为对比度包括一可任选的稀释常量参数ε。在有些情形中,可为纯色和对比度分割将稀释常量ε设为零。但在分割不仅基于色彩对比度的许多情形中,可将稀释常量设为任何合适的值,诸如1。这样,在从例如运动和/或色彩识别增多的各种各样的分割线索时,对比度的影响可被稀释。
运动的似然性
诸如图2的运动模型230等的运动模型可在图像中运动对象更可能是前景而不动的对象更可能是背景的假设下改善分割边界。可以任何合适的方式确定可靠运动似然性的自动评估。例如,可从训练序列中经人工分割的帧自动学习运动相对于非运动事件的似然比UM(),再将其应用到先前未看见的测试帧来辅助前景/背景分离。图3示出用于训练运动似然性的训练数据序列的两个示例帧302、304以及相应的分别交互获得的分割蒙片320、340。在图3的分割蒙片中,白色部分322、342表示前景,黑色部分324、344表示背景。在有些情形中,灰色区域(指示分数或其它合适的分割指示符)可表示不确定赋值或分割(可能出现在混合像素的复杂区内)。
可通过将高斯混合模型拟合到已标记的训练图像中像素的时间和空间梯度的前景与背景分布来估计运动函数似然性UM。具体而言,每个图像帧It中的像素具有如下表示的关联的时间微分:
空间梯度幅值g可表示为:
g=(g1,g2,...,gn,...,gN) (9)
其中G()是按σt像素规模的高斯内核。另外,可将空间梯度幅值gn定为:
图4示出在基于图3的训练图像302、304和序列中其它类似训练图像的坐标图中,示例性的训练前景二维微分点与训练背景微分点。图4的坐标图400具有指示空间梯度的x轴402和指示时间微分的y轴404。最优化分离曲线(UM=0)被标绘成黑线406。坐标图400中诸如区域410等的区域指示背景微分点,而诸如区域412等的区域指示前景微分点。
KM F与KM B分别指前景和背景GMM中高斯分量的数目,因而运动似然性可以写为:
其中
其中vn是由 定义的2元矢量,并且其中kM指示对运动GMM各高斯分量的像素赋值,μ和∑是GMM运动模型的KF M+KB M个分量的均值与协方差。最后,运动参数θM汇集了这些运动GMM的混合权重、均值与协方差参数,并可被确定为:
θM={π(α,kM),μ(α,kM),∑(α,kM),α={0,1},
在训练标记的一个示例中,训练图像可包括一连串图像序列。例如像图3所示,该示例性序列图像302、304示出在最静态(虽然有噪)的背景前面走动谈话的前景人物。图5示出自动学习到的图3的训练图像302、304的对数似然比表面的三维标绘图500。图5的标绘图500中的轴502指示时间微分,轴504指示空间梯度,轴506指示学习到的基于运动的对数似然比。在标绘图500中,负值对应于背景,正值对应于前景,UM=0的轨迹被示为曲线508。如图5所示,大的时间微分与属于前景的像素的大似然性关联,反之亦然。但图5示例还示明,学习到的分离曲线与常用的固定时间微分阀值极其不同。通过使训练数据上的分类错误最小化,就可自动找到优化参数。对于图3的示例训练图像而言,这一过程得出以下值:
KM F=1 (15)
KM B=3 (16)
σs=1.2pix (17)
σt=1.2pix. (18)
可以测试学习到的运动似然性。图6分别示出对示例试验序列的三个帧602、604、606应用似然比测试的示例结果以及运动帧620、640、660中所示的每个像素相应的运动似然性。输入图像中经历运动的区域被经训练的运动模型检测到,并被显示为淡灰色区域,诸如区域622、623、642、644、662、664。运动的区域不同于被经训练的运动模型检测到并被显示在诸如区域626、646、666等的灰色区域中的不动区域。另鉴于学习到的似然性的本质,诸如区域628、648、668等的无纹理区域(如本质上模糊的区域)正确地倾向于被赋予中度灰色(对应于UM≈0)。应当认识到,在图6的示例性基于运动的分割中,运动模型用图3的训练图像302、304等训练,它们与图6的输入图像602、604、606不同。
图6还示明,单靠运动可能不足以实现准确分割。运动和色彩似然性与Markov随机场空间先验的融合可以填充剩余的“空洞”,例如无纹理区,并可产生准确的分割蒙片。例如,可使用图割算法来求解Markov随机场以产生准确的分割蒙片。
在确定了运动似然性、色彩似然性以及可任选地确定了对比度似然性之后,可用任意合适的方式优化能量(式1中给出)。总能量可用图2的分割模块216优化。该分割模块可适当地应用任何合适的优化方案。例如,在上例的总能量函数(1)中,优化总能量函数可使用分层图割,分层图割确定分割状态变量值α为能量函数E的最小值。
若状态限于前景与背景(即,硬分割),则可使用任何合适的图割算法来求解分割状态变量α。例如,在硬分割中,可使用图割算法经能量最小化来确定分割。但若允许分割状态有多个值(如0,1,2,3,…),则可使用α扩展图割来计算最优化的分割标记。在被援引纳入于此的丹麦哥本哈根2002年的Eccv学报中Kolmogorov等的“Muti-camera scene reconstraction via graph cuts(经由图割进行的多摄像机场景重构)”一文中详细讨论了图割的α扩展形式。上述两例涉及分割变量的离散标记,但若允许分割值反映真实的透明度值(例如,分数值),则可使用α抠图技术,诸如边界抠图或SPS算法。如上所述,边界抠图在Rother等的“GrabCut:Interactiveforeground extracti on Using iterated graph cuts(GrabCut:使用迭代图割的交互式前景提取)”ACM Graph.(图形)会刊第23卷第3期2004年第309-314页中有详述。
因人眼对闪烁伪影敏感,故在有些情形中,诸如在分割模块216中,在前景/背景分割优化之后可对经优化的分割状态变量值可作平滑。例如,可用任何合适的方式来平滑分割状态变量值,诸如把SPS用作后处理的α抠图法、如在Rother等的“GrabCut:Interactive foreground extraction Using iterated graph cuts(GrabCut:使用迭代图割的交互式前景提取)”,ACM Graph(图形)会刊第23卷第3期2004年第309-314页中进一步描述的边界抠图法等等。减轻混淆可提供较高程度的视觉真实感,诸如在背景代换的应用中。可使用任何合适的抗混叠技术,诸如被援引纳入于此的Rother等的“GrabCut:Interactive foreground extraction Using iterated graphcuts(GrabCut:使用迭代图割的交互式前景提取)”,ACM Graph.(图形)会刊第23卷第3期2004年第309-314页中进一步描述的边界抠图技术等。
在优化和可任选的平滑后,可用任何合适的方式将每个确定的分割状态变量值与其输入图像中相关联的像素关联起来。例如,可将分割状态变量值218存储成阵列,其中该值在阵列中的位置指示相关联的输入图像中关联联的像素。在另一例中,图像中的多个像素位置可与一分割状态变量值相关联,诸如具有单一标记的成群毗邻像素。
在由诸如图2的图像处理器220进行的图像处理期间,图像中已被标记的像素可允许图像前景与图像背景分开。例如,图7-9示出来自视频流表示背景置换的一系列图像。图7示出一系列示例性输入图像702、704、706、708、710,这些图像显示一女士在办公室环境里。图8在前景帧802、804、806、808、810中示出图7输入图像经前景分割的像素。图9示出图7输入图像中被标识为背景像素的像素的示例性背景置换,或图8图像中提取的前景像素在另一背景图像上的置换。更具体地说,在图9中,图8的图像被提取的前景已分别与图像帧902、904、906、908、910中的不同背景合成,新背景是户外场景。因提取的前景基本上无混叠,故与代换的背景合成的结果具有高度视觉真实感。
图10示出背景代换的另一个示例。在该例中,上述分割处理已被集成在具有图10显示框架1000的基于台式的视频聊天应用中。原始的办公室背景被户外背景代换(即图像1002中的海滩与图像1004中的海港),这两个人仿似在其它地方。同样,前景/背景分割中无残余效应,使得用背景代换可得到基本可信的图像。
通过运用上述的能量最小化处理,可获得前景/背景分离与背景代换。图11示出分割图像的示例方法1100。在1102可接收一组一幅或多幅训练图像。训练图像可以是任何合适的训练图像,诸如类似于在分割应用中预测的图像类似的图像(例如电信会议应用中人的头和肩)、分割应用中前几秒钟的视频等。在1104,可通过诸如把训练图像的一个或多个像素标记为前景或背景来人工分割来自一幅或多幅训练图像的多个像素。与训练图像的诸像素关联的分割指示符可用任何合适的方式确定,诸如通过人工标记像素,或用半人工处理,诸如以上引述的Boykov等和Rother等讨论的方法。在1106,可以用任何合适的方法和任何合适的格式存储训练图像像素的分割指示符,诸如以可存储在数据存储中的数据阵列的形式存储。
在1108,可基于训练图像与后续训练图像的比较来确定像素运动,并基于像素确定的分割指示符来确定运动参数值。运动参数可以用任何合适的方法确定,诸如通过使高斯混合模型拟合到已被标记的训练图像中的像素的时间和空间梯度的前景分布,以及通过使另一高斯混合模型集合到已被标记的训练图像中的像素的时间和空间梯度的背景分布。在1110,可以用任何合适的方式存储运动模型参数,诸如存储在数据存储中。
在1112,可接收一系列输入图像中的第一图像。该图像序列可以用任何方式接收,诸如从视频摄像机输入设备接收。不过应当认识到,可使用任意数目的摄像机。可通过从数据存储检索存储的图像来接收图像、可从通信连接接收图像、可从输入设备接收图像,等等。应当认识到,可以按不同的格式、在不同时间和/或通过不同的通信模式来接收图像。在1114,诸如可用诸如图2的强度索引器212来索引第一输入图像中的多个像素。在1116,可接受输入图像序列的第二图像。在1118,可用诸如图2中的强度索引器212等来索引第二输入图像中的多个像素。
在1120,可由诸如分割模块216基于图2的对比度模型234确定对比度似然性。在1122,可确定第二图像中的运动区域。例如,可将第二图像的经索引像素与第一图像的经索引像素作比较。在1124,可由诸如分割模块216基于图2的运动模型230基于时间历史确定运动似然性。在1126可运用该运动似然性以及可任选地运用对比度似然性来大致地确定与第二输入图像中一个或多个像素关联的分割指示符。更具体地说,分割模块可使用运动似然性以及可任选地使用对比度似然性来形成合适的能量函数,该函数可被优化以对第二输入图像的一个或多个像素确定合适的一组分割指示符。在1128,合适的分割指示符可被存储,并与第二图像的恰当像素相关联。
可使用第二输入图像的经索引像素及其相关联的分割指示符来训练色彩模型以确定色彩参数。例如,色彩初始化模块可以使用第二图像的分割指示符与像素值,以运用期望最大化来使高斯混合模型拟合到大致被标识的前景像素,和/或可运用期望最大化使另一高斯混合模型拟合到大致被标识的背景像素。在1130,根据初始化的色彩参数来确定色彩似然性。
下一(当前)输入图像可在1132以任何合适的方式被接收,并可在1134被索引。在1136,可确定下一(当前)输入图像的对比度似然性。在1138,可确定下一(当前)图像中的运动区域。例如,可将下一(当前)图像的经索引的像素与前一图像的经索引的像素作比较。在1140,根据前一帧的分割,可确定基于时间历史的下一(当前)图像的运动似然性。在图像序列里例如5秒钟没有或很少有运动的一些情形中,运动似然性值会丧失可靠性。因而在一些情形中,若有预定时间检测不出运动,就要调整运动似然性的权重。为使用下一(当前)图像的运动似然性、前一图像的色彩似然性以及可任选地使用下一(当前)图像的对比度似然性,可在1142确定与下一(当前)输入图像中的一个或多个像素相关联的分割指示符。更具体地说,分割模块可使用运动似然性、色彩似然性以及可任选地使用对比度似然性来形成一能量函数,该函数可被优化以对下一(当前)输入图像的一个或多个像素确定一组分割指示符。在1144这些分割指示符可被存储,并可与下一(当前)图像的适当像素相关联。
在1146,可使用下一(当前)输入图像的经索引的像素及其关联的分割指示符来训练色彩模型,以确定下一(当前)图像的色彩似然性。过程可返回以在1132对各后续的要被分割的输入图像接收下一输入图像。各后续输入图像可使用当前输入图像的运动似然性、前一输入图像的色彩似然性、以及可任选地使用当前输入图像的对比度似然性来分割。如上所述,诸如可通过应用其值随时间或响应于初始化的色彩似然性的置信度的变化而改变的加权项来拨入色彩似然性。
在1148,可由诸如图2的图像处理器220处理输入图像及其相关联的分割指示符以用某种方式来修改输入图像。例如,指示前景像素的分割指示符可用来从输入图像中提取前景对象、以比其它像素更高的保真度存储或压缩相关联的前景像素、使动态表情图标移到被标识的前景对象的前面与后面同时保持在背景对象的前面、围绕被标识的前景对象放置或定位智能框架等。
虽已示例描述了本发明的优选实施例,但显然可在其中作出各种变化而不会脱离本发明的精神与范围。例如,虽然以上诸示例描述了分割单目图像数据,但应认识到,可用类似方式分割立体图像数据。另外,在有立体信息的一些情形中,可将运动、色彩以及可任选地将对比度似然性与从该立体信息确定的不一致似然性和匹配似然性融合。上述运动和色彩似然性以及可任选的对比度似然性的融合足以允许在实时应用和视频流中基本无混叠地进行分割。为在图像数据中分割前景与背景区域,可融合Markov随机场能量最小化构架内用于视频流双层分割的运动与色彩/对比度线索。此外,可不作显式的速度运算就检测图像序列里的运动事件。运动与色彩以及可任选地与对比度的结合得到具有实时性能的准确前景/背景分离。
Claims (20)
1.一种方法,包括:
a)接收成一序列的至少三幅输入图像,每幅输入图像包含多个输入像素;
b)基于第三幅输入图像与第二幅输入图像的比较,确定第三幅图像的所述多个像素的运动似然性,所述运动似然性指示运动值给出分割指示符的值的似然性;
c)确定第二幅图像的所述多个像素的色彩似然性,所述色彩似然性指示色彩值给出所述分割指示符的值的似然性;
d)基于所述运动似然性和所述色彩似然性,对第三幅图像的所述多个输入像素的每一个自动生成一个分割指示符,这些分割指示符中的至少一个指示包含前景和背景的集合中的至少一个;以及
e)存储与第三幅图像的所述多个输入像素中的至少一个相关联的至少一个分割指示符。
2.如权利要求1所述的方法,其特征在于,还包括基于第三幅图像的所述多个像素确定对比度似然性,所述对比度似然性指示对比度值给出分割指示符的值的似然性,并且其中生成分割指示符是基于所述对比度似然性的。
3.如权利要求1所述的方法,其特征在于,还包括接收一组训练图像,交互地将训练分割标识符与所述一组训练图像中的每一幅图像中的多个像素中的每一个相关联,每个训练分割标识符指示包含前景与背景的集合中的至少一个,并且基于所述多个训练分割标识符确定至少一个运动似然性参数,其中确定所述多个像素的运动似然性是基于所述至少一个运动似然性参数的。
4.如权利要求3所述的方法,其特征在于,确定至少一个运动似然性参数包括:使一高斯混合模型与所述一组训练图像中的每一幅图像中的所述多个像素的前景时间微分和前景空间梯度的前景分布相拟合,并使一高斯混合模型与所述一组训练图像中的每一幅图像中的所述多个像素的背景时间微分和背景空间梯度的背景分布相拟合。
5.如权利要求1所述的方法,其特征在于,生成分割指示符包括:基于能量函数的最小化来针对所述多个输入像素中的每一个优化所述分割指示符,所述能量函数是基于所述运动似然性和所述色彩似然性的。
6.如权利要求5所述的方法,其特征在于,优化所述分割指示符包括使用图割。
7.如权利要求6所述的方法,其特征在于,所述能量函数是所述运动似然性、所述色彩似然性、以及空间平滑度似然性之和。
8.如权利要求1所述的方法,其特征在于,还包括基于对所述第三幅输入图像的至少一个像素确定的分割指示符来修改所述第三幅输入图像的至少一部分的显示。
9.如权利要求1所述的方法,其特征在于,修改包括:置换所述第三幅输入图像的至少一个像素,该至少一个像素具有指示背景的分割指示符。
10.包括至少一个计算机存储介质的一个或多个计算机可读介质,所述一个或多个计算机可读介质包含计算机可读指令,所述指令在被实现时执行包括以下步骤的方法:
a)接收包含第一组多个像素的第一输入图像;
b)对所述第一组多个像素中的每一个确定运动较之非运动的第一似然比;
c)为所述第一组多个像素中的每一个确定一个第一分割指示符,每个第一分割指示符指示前景像素或背景像素;
d)基于所述第一分割指示符,确定所述第一组多个像素中的每一个的第一色彩似然比;
e)接收所述第一输入图像之后的第二输入图像,所述第二输入图像包含第二组多个像素;
f)对所述第二组多个像素中的每一个确定运动较之非运动的第二似然比;
g)基于所述第二运动似然比和所述第一色彩似然比,为所述第二组多个像素中的每一个确定一个第二分割指示符,每个第二分割指示符指示前景像素或背景像素;以及
h)把所述第二分割指示符存储在数据存储中。
11.如权利要求10所述的计算机可读介质,其特征在于,还包括基于对比度模型确定所述第二组多个像素中的每一个的空间平滑度,并且其中确定第二分割指示符是基于所述空间平滑度的。
12.如权利要求10所述的计算机可读介质,其特征在于,确定第二分割指示符包括:使基于所述第二运动似然比和所述第一色彩似然比的能量函数最小化。
13.如权利要求12所述的计算机可读介质,其特征在于,最小化包括使用图割。
14.如权利要求13所述的计算机可读介质,其特征在于,还包括基于所述第二分割指示符来修改所述第二输入图像的至少一部分的显示。
15.如权利要求13所述的计算机可读介质,其特征在于,还包括基于与所述第一和第二输入图像不同的一组经分割的训练图像来确定所述第一和第二运动似然比的一个或多个运动参数。
16.一种系统,包括:
a)用于确定输入图像的空间平滑度的装置;
b)用于确定所述输入图像的运动似然性的装置;
c)用于确定所述输入图像的色彩似然性的装置;
d)用于对所述输入图像中的至少一个像素生成标记的装置,每个标记指示前景像素或背景像素。
17.如权利要求16所述的系统,其特征在于,还包括用于基于与所述输入图像不同的第一训练图像来训练至少一个运动似然性参数的装置。
18.如权利要求16所述的系统,其特征在于,还包括用于基于在所述输入图像前面的先验输入图像来训练至少一个色彩似然性参数的装置。
19.如权利要求16所述的系统,其特征在于,还包括用于基于所生成的标记来修改所述输入图像的装置。
20.如权利要求16所述的系统,其特征在于,所述用于生成的装置包括用于将所述用于确定空间平滑度的装置、所述用于确定运动似然性的装置、以及所述用于确定色彩似然性的装置概率性地融合的装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US69186505P | 2005-06-17 | 2005-06-17 | |
US60/691,865 | 2005-06-17 | ||
US11/252,017 | 2005-10-17 | ||
US11/252,017 US7676081B2 (en) | 2005-06-17 | 2005-10-17 | Image segmentation of foreground from background layers |
PCT/US2006/023858 WO2006138730A2 (en) | 2005-06-17 | 2006-06-19 | Image segmentation |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101558404A true CN101558404A (zh) | 2009-10-14 |
CN101558404B CN101558404B (zh) | 2013-01-23 |
Family
ID=37571298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2006800212742A Active CN101558404B (zh) | 2005-06-17 | 2006-06-19 | 图像分割 |
Country Status (6)
Country | Link |
---|---|
US (2) | US7676081B2 (zh) |
EP (1) | EP1891579B1 (zh) |
JP (1) | JP4898800B2 (zh) |
KR (1) | KR101242259B1 (zh) |
CN (1) | CN101558404B (zh) |
WO (1) | WO2006138730A2 (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102572205A (zh) * | 2011-12-27 | 2012-07-11 | 方正国际软件有限公司 | 一种图像处理方法、装置及系统 |
CN103116754A (zh) * | 2013-01-24 | 2013-05-22 | 浙江大学 | 基于识别模型的批量图像分割方法及系统 |
CN103530882A (zh) * | 2013-10-17 | 2014-01-22 | 南京大学 | 一种改进的基于图和色彩纹理特征的图像分割方法 |
CN104091344A (zh) * | 2014-07-22 | 2014-10-08 | 中国科学院自动化研究所 | 一种道路分割方法 |
CN109479127A (zh) * | 2016-07-27 | 2019-03-15 | 高通股份有限公司 | 使用视频译码压缩图片分段数据 |
CN113822879A (zh) * | 2021-11-18 | 2021-12-21 | 南京智谱科技有限公司 | 一种图像分割的方法及装置 |
CN114037633A (zh) * | 2021-11-18 | 2022-02-11 | 南京智谱科技有限公司 | 一种红外图像处理的方法及装置 |
Families Citing this family (129)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7657060B2 (en) * | 2004-03-31 | 2010-02-02 | Microsoft Corporation | Stylization of video |
US7676081B2 (en) * | 2005-06-17 | 2010-03-09 | Microsoft Corporation | Image segmentation of foreground from background layers |
US7697752B2 (en) * | 2005-12-20 | 2010-04-13 | General Instrument Corporation | Method and apparatus for performing object detection |
US7885463B2 (en) * | 2006-03-30 | 2011-02-08 | Microsoft Corp. | Image segmentation using spatial-color Gaussian mixture models |
US7940971B2 (en) * | 2006-07-24 | 2011-05-10 | Siemens Medical Solutions Usa, Inc. | System and method for coronary digital subtraction angiography |
US8103068B2 (en) * | 2006-09-29 | 2012-01-24 | Cornell Research Foundation, Inc. | Methods and systems for reconstruction of objects |
US7751626B2 (en) * | 2006-12-05 | 2010-07-06 | Fujifilm Corporation | Method and apparatus for detection using gradient-weighted and/or distance-weighted graph cuts |
US8300890B1 (en) * | 2007-01-29 | 2012-10-30 | Intellivision Technologies Corporation | Person/object image and screening |
US8363267B2 (en) * | 2007-06-01 | 2013-01-29 | Samsung Electronics Co., Ltd. | Image forming apparatus and color converting method thereof |
US8041114B2 (en) * | 2007-06-15 | 2011-10-18 | Microsoft Corporation | Optimizing pixel labels for computer vision applications |
US8200015B2 (en) * | 2007-06-22 | 2012-06-12 | Siemens Aktiengesellschaft | Method for interactively segmenting structures in image data records and image processing unit for carrying out the method |
DE102007028895B4 (de) * | 2007-06-22 | 2010-07-15 | Siemens Ag | Verfahren zur Segmentierung von Strukturen in 3D-Bilddatensätzen |
US8094903B2 (en) * | 2007-06-28 | 2012-01-10 | Siemens Aktiengesellschaft | System and method for coronary digital subtraction angiography |
WO2009032922A1 (en) | 2007-09-04 | 2009-03-12 | Objectvideo, Inc. | Stationary target detection by exploiting changes in background model |
KR101023207B1 (ko) * | 2007-09-05 | 2011-03-18 | 한국전자통신연구원 | 영상 객체 추출 장치 및 그 방법 |
US7925089B2 (en) * | 2007-09-18 | 2011-04-12 | Microsoft Corporation | Optimization of multi-label problems in computer vision |
US8086006B2 (en) * | 2007-09-21 | 2011-12-27 | Siemens Aktiengesellschaft | Method and system for evaluating image segmentation based on visibility |
US8121367B2 (en) * | 2007-09-21 | 2012-02-21 | Siemens Aktiengesellschaft | Method and system for vessel segmentation in fluoroscopic images |
US8682029B2 (en) * | 2007-12-14 | 2014-03-25 | Flashfoto, Inc. | Rule-based segmentation for objects with frontal view in color images |
KR101401184B1 (ko) * | 2008-02-01 | 2014-05-30 | 고려대학교 산학협력단 | 동영상의 객체 경계 추정 방법 |
US20090252429A1 (en) * | 2008-04-03 | 2009-10-08 | Dan Prochazka | System and method for displaying results of an image processing system that has multiple results to allow selection for subsequent image processing |
US8073243B2 (en) * | 2008-05-30 | 2011-12-06 | General Instrument Corporation | Replacing image information in a captured image |
JP5157721B2 (ja) * | 2008-07-29 | 2013-03-06 | ソニー株式会社 | 画像データの分布モデル更新装置、画像処理装置、画像データの分布モデル更新方法およびプログラム |
US8345944B2 (en) * | 2008-08-06 | 2013-01-01 | Siemens Aktiengesellschaft | System and method for coronary digital subtraction angiography |
US8254678B2 (en) | 2008-08-27 | 2012-08-28 | Hankuk University Of Foreign Studies Research And Industry-University Cooperation Foundation | Image segmentation |
JP5157768B2 (ja) * | 2008-09-08 | 2013-03-06 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
JP5045619B2 (ja) * | 2008-09-08 | 2012-10-10 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
US8249349B2 (en) * | 2008-11-25 | 2012-08-21 | Microsoft Corporation | Labeling image elements |
TWI391876B (zh) * | 2009-02-16 | 2013-04-01 | Inst Information Industry | 利用多重模組混合圖形切割之前景偵測方法、系統以及電腦程式產品 |
JP2010205067A (ja) * | 2009-03-04 | 2010-09-16 | Fujifilm Corp | 領域抽出装置、領域抽出方法及び領域抽出プログラム |
US8280164B2 (en) * | 2009-03-04 | 2012-10-02 | Eastman Kodak Company | Producing object cutouts in topically related images |
JP2010212947A (ja) * | 2009-03-10 | 2010-09-24 | Sony Corp | 情報処理装置および方法、情報処理システム、並びにプログラム |
US8164617B2 (en) * | 2009-03-25 | 2012-04-24 | Cisco Technology, Inc. | Combining views of a plurality of cameras for a video conferencing endpoint with a display wall |
US8885926B2 (en) * | 2009-04-15 | 2014-11-11 | Massachusetts Institute Of Technology | Image and data segmentation |
US9524550B2 (en) | 2009-05-05 | 2016-12-20 | Siemens Healthcare Gmbh | System and method for coronary digital subtraction angiography |
JP5299173B2 (ja) * | 2009-08-26 | 2013-09-25 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
US8452087B2 (en) | 2009-09-30 | 2013-05-28 | Microsoft Corporation | Image selection techniques |
US8670615B2 (en) * | 2009-09-30 | 2014-03-11 | Flashfoto, Inc. | Refinement of segmentation markup |
US8537200B2 (en) * | 2009-10-23 | 2013-09-17 | Qualcomm Incorporated | Depth map generation techniques for conversion of 2D video data to 3D video data |
US8520975B2 (en) * | 2009-10-30 | 2013-08-27 | Adobe Systems Incorporated | Methods and apparatus for chatter reduction in video object segmentation using optical flow assisted gaussholding |
TW201121335A (en) * | 2009-12-02 | 2011-06-16 | Sunplus Core Technology Co Ltd | Method and apparatus for adaptively determining compression modes to compress frames |
US8306333B2 (en) * | 2009-12-17 | 2012-11-06 | National Tsing Hua University | Method and system for automatic figure segmentation |
AU2009251086B2 (en) * | 2009-12-22 | 2013-12-05 | Canon Kabushiki Kaisha | Method of foreground/background separation |
JP5445127B2 (ja) * | 2009-12-28 | 2014-03-19 | カシオ計算機株式会社 | 画像処理装置及び方法、並びにプログラム |
JP5278307B2 (ja) * | 2009-12-28 | 2013-09-04 | カシオ計算機株式会社 | 画像処理装置及び方法、並びにプログラム |
US8655069B2 (en) * | 2010-03-05 | 2014-02-18 | Microsoft Corporation | Updating image segmentation following user input |
US9628722B2 (en) | 2010-03-30 | 2017-04-18 | Personify, Inc. | Systems and methods for embedding a foreground video into a background feed based on a control input |
US9311567B2 (en) | 2010-05-10 | 2016-04-12 | Kuang-chih Lee | Manifold learning and matting |
US8625897B2 (en) | 2010-05-28 | 2014-01-07 | Microsoft Corporation | Foreground and background image segmentation |
KR101324792B1 (ko) * | 2010-05-31 | 2013-10-31 | 태성전장주식회사 | 지능형 운송 시스템을 위한 칼라 영역의 분할 시스템 |
WO2012012555A1 (en) * | 2010-07-20 | 2012-01-26 | SET Corporation | Methods and systems for audience digital monitoring |
JP5716170B2 (ja) * | 2010-07-26 | 2015-05-13 | 石川 博 | 情報処理方法および情報処理装置 |
US8649592B2 (en) | 2010-08-30 | 2014-02-11 | University Of Illinois At Urbana-Champaign | System for background subtraction with 3D camera |
US9294717B2 (en) * | 2010-10-13 | 2016-03-22 | At&T Intellectual Property I, L.P. | System and method to enable layered video messaging |
US8666191B2 (en) * | 2011-03-02 | 2014-03-04 | Canon Kabushiki Kaisha | Systems and methods for image capturing |
KR101886469B1 (ko) | 2011-03-04 | 2018-08-07 | 엘비티 이노베이션스 리미티드 | 분류기의 분류결과의 개선방법 |
US8705860B2 (en) | 2011-03-14 | 2014-04-22 | Microsoft Corporation | Grouping variables for fast image labeling |
US9501837B2 (en) * | 2014-10-01 | 2016-11-22 | Lyrical Labs Video Compression Technology, LLC | Method and system for unsupervised image segmentation using a trained quality metric |
US9087395B1 (en) * | 2011-04-28 | 2015-07-21 | A9.Com, Inc. | Techniques for providing content animation |
GB2490872B (en) * | 2011-05-09 | 2015-07-29 | Toshiba Res Europ Ltd | Methods and systems for capturing 3d surface geometry |
US8977629B2 (en) | 2011-05-24 | 2015-03-10 | Ebay Inc. | Image-based popularity prediction |
US8811726B2 (en) * | 2011-06-02 | 2014-08-19 | Kriegman-Belhumeur Vision Technologies, Llc | Method and system for localizing parts of an object in an image for computer vision applications |
US8565520B2 (en) | 2011-06-10 | 2013-10-22 | Microsoft Corporation | Determining foreground regions and background regions in an image |
US9153031B2 (en) * | 2011-06-22 | 2015-10-06 | Microsoft Technology Licensing, Llc | Modifying video regions using mobile device input |
SG11201400429RA (en) | 2011-09-08 | 2014-04-28 | Paofit Holdings Pte Ltd | System and method for visualizing synthetic objects withinreal-world video clip |
US8731315B2 (en) | 2011-09-12 | 2014-05-20 | Canon Kabushiki Kaisha | Image compression and decompression for image matting |
US8706473B2 (en) * | 2011-09-13 | 2014-04-22 | Cisco Technology, Inc. | System and method for insertion and removal of video objects |
US8995755B2 (en) | 2011-09-30 | 2015-03-31 | Cyberlink Corp. | Two-dimensional to stereoscopic conversion systems and methods |
JP5865078B2 (ja) | 2011-12-28 | 2016-02-17 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
US20130308856A1 (en) * | 2012-01-12 | 2013-11-21 | Google Inc. | Background Detection As An Optimization For Gesture Recognition |
US9042648B2 (en) | 2012-02-23 | 2015-05-26 | Microsoft Technology Licensing, Llc | Salient object segmentation |
US8705870B2 (en) | 2012-03-02 | 2014-04-22 | Microsoft Corporation | Image searching by approximate κ-NN graph |
US9025876B2 (en) | 2012-03-05 | 2015-05-05 | Thomson Licensing | Method and apparatus for multi-label segmentation |
US20130301918A1 (en) * | 2012-05-08 | 2013-11-14 | Videostir Ltd. | System, platform, application and method for automated video foreground and/or background replacement |
EP2669865A1 (en) * | 2012-05-31 | 2013-12-04 | Thomson Licensing | Segmentation of a foreground object in a 3D scene |
TWI478078B (zh) * | 2012-05-31 | 2015-03-21 | Senao Networks Inc | A motion detection device and a motion detection method |
KR101978176B1 (ko) * | 2012-07-12 | 2019-08-29 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
CN102982544B (zh) * | 2012-11-21 | 2015-09-30 | 清华大学 | 多前景目标图像交互式分割方法 |
CN103092616A (zh) * | 2013-01-14 | 2013-05-08 | 深圳市金立通信设备有限公司 | 一种应用程序背景的显示方法及移动终端 |
US9710493B2 (en) | 2013-03-08 | 2017-07-18 | Microsoft Technology Licensing, Llc | Approximate K-means via cluster closures |
WO2014159726A1 (en) * | 2013-03-13 | 2014-10-02 | Mecommerce, Inc. | Determining dimension of target object in an image using reference object |
US9191643B2 (en) * | 2013-04-15 | 2015-11-17 | Microsoft Technology Licensing, Llc | Mixing infrared and color component data point clouds |
US9336460B2 (en) * | 2013-05-31 | 2016-05-10 | Intel Corporation | Adaptive motion instability detection in video |
US9247129B1 (en) * | 2013-08-30 | 2016-01-26 | A9.Com, Inc. | Self-portrait enhancement techniques |
US20150089446A1 (en) * | 2013-09-24 | 2015-03-26 | Google Inc. | Providing control points in images |
US9245205B1 (en) * | 2013-10-16 | 2016-01-26 | Xerox Corporation | Supervised mid-level features for word image representation |
US9485433B2 (en) | 2013-12-31 | 2016-11-01 | Personify, Inc. | Systems and methods for iterative adjustment of video-capture settings based on identified persona |
US9414016B2 (en) | 2013-12-31 | 2016-08-09 | Personify, Inc. | System and methods for persona identification using combined probability maps |
US9158985B2 (en) * | 2014-03-03 | 2015-10-13 | Xerox Corporation | Method and apparatus for processing image of scene of interest |
JP5946153B2 (ja) * | 2014-03-12 | 2016-07-05 | 富士フイルム株式会社 | 画像処理装置、その作動方法およびプログラム |
US9311716B2 (en) | 2014-05-14 | 2016-04-12 | International Business Machines Corporation | Static image segmentation |
JP6482934B2 (ja) * | 2014-06-03 | 2019-03-13 | キヤノンメディカルシステムズ株式会社 | 画像処理装置、放射線検出装置および画像処理方法 |
CN105608459B (zh) | 2014-10-29 | 2018-09-14 | 阿里巴巴集团控股有限公司 | 商品图片的分割方法及其装置 |
CN104616011B (zh) * | 2015-02-13 | 2017-02-22 | 中国人民解放军国防科学技术大学 | 基于梯度信息和块状区域组合先验的mrf车牌去噪算法 |
US9916668B2 (en) | 2015-05-19 | 2018-03-13 | Personify, Inc. | Methods and systems for identifying background in video data using geometric primitives |
US9563962B2 (en) * | 2015-05-19 | 2017-02-07 | Personify, Inc. | Methods and systems for assigning pixels distance-cost values using a flood fill technique |
US9704298B2 (en) * | 2015-06-23 | 2017-07-11 | Paofit Holdings Pte Ltd. | Systems and methods for generating 360 degree mixed reality environments |
EP3341919A4 (en) * | 2015-09-07 | 2019-04-03 | Sony Interactive Entertainment America LLC | PICTURE REGULATORY AND RETARGETING SYSTEM |
CN105184820B (zh) * | 2015-09-15 | 2018-03-13 | 杭州中威电子股份有限公司 | 一种融合图形梯度和灰度的背景建模和运动目标检测方法及装置 |
US10175867B2 (en) * | 2016-02-03 | 2019-01-08 | Adobe Inc. | User input-based object selection using multiple visual cues |
CN109154976B (zh) * | 2016-03-17 | 2023-07-07 | 摩托罗拉解决方案公司 | 通过机器学习训练对象分类器的系统和方法 |
US9760978B1 (en) * | 2016-05-09 | 2017-09-12 | Adobe Systems Incorporated | Missing region prediction |
JP6632474B2 (ja) * | 2016-06-06 | 2020-01-22 | 三菱電機株式会社 | 監視装置、監視方法及び空港監視システム |
US9883155B2 (en) | 2016-06-14 | 2018-01-30 | Personify, Inc. | Methods and systems for combining foreground video and background video using chromatic matching |
US10475186B2 (en) * | 2016-06-23 | 2019-11-12 | Intel Corportation | Segmentation of objects in videos using color and depth information |
US9911201B2 (en) | 2016-06-23 | 2018-03-06 | Adobe Systems Incorporated | Imaging process initialization techniques |
CN106094761A (zh) * | 2016-07-21 | 2016-11-09 | 广西柏豪家具有限公司 | 家居智能控制系统 |
CN106125683A (zh) * | 2016-07-21 | 2016-11-16 | 广西柏豪家具有限公司 | 具有远程控制的家居智能控制系统 |
DE102016119639A1 (de) * | 2016-10-14 | 2018-04-19 | Uniqfeed Ag | System zur dynamischen Kontrastmaximierung zwischen Vordergrund und Hintergrund in Bildern oder/und Bildsequenzen |
KR102579994B1 (ko) * | 2016-10-24 | 2023-09-18 | 삼성에스디에스 주식회사 | 다중 배경 모델을 이용한 전경 생성 방법 및 그 장치 |
US9881207B1 (en) | 2016-10-25 | 2018-01-30 | Personify, Inc. | Methods and systems for real-time user extraction using deep learning networks |
US10395138B2 (en) | 2016-11-11 | 2019-08-27 | Microsoft Technology Licensing, Llc | Image segmentation using user input speed |
CN115409940A (zh) | 2016-11-30 | 2022-11-29 | 松下电器(美国)知识产权公司 | 终端、接收方法、分发装置及分发方法 |
US10325372B2 (en) * | 2016-12-20 | 2019-06-18 | Amazon Technologies, Inc. | Intelligent auto-cropping of images |
US10755419B2 (en) * | 2017-01-30 | 2020-08-25 | Nec Corporation | Moving object detection apparatus, moving object detection method and program |
WO2018169571A1 (en) * | 2017-03-15 | 2018-09-20 | Google Llc | Segmentation-based parameterized motion models |
CN107240073B (zh) * | 2017-05-12 | 2020-04-24 | 杭州电子科技大学 | 一种基于梯度融合与聚类的三维视频图像修复方法 |
CN108846875A (zh) * | 2018-04-26 | 2018-11-20 | 广州视源电子科技股份有限公司 | 形状数据处理方法和装置 |
US11467646B2 (en) * | 2019-03-28 | 2022-10-11 | Lenovo (Singapore) Pte. Ltd. | Context data sharing |
CN110675420B (zh) * | 2019-08-22 | 2023-03-24 | 华为技术有限公司 | 一种图像处理方法和电子设备 |
CN111260679B (zh) * | 2020-01-07 | 2022-02-01 | 广州虎牙科技有限公司 | 图像处理方法、图像分割模型训练方法及相关装置 |
US11593947B2 (en) * | 2020-03-10 | 2023-02-28 | Cisco Technology, Inc. | Automatic adjusting background |
US11218669B1 (en) * | 2020-06-12 | 2022-01-04 | William J. Benman | System and method for extracting and transplanting live video avatar images |
US11394549B1 (en) | 2021-01-25 | 2022-07-19 | 8 Bit Development Inc. | System and method for generating a pepper's ghost artifice in a virtual three-dimensional environment |
US11800056B2 (en) | 2021-02-11 | 2023-10-24 | Logitech Europe S.A. | Smart webcam system |
US11800048B2 (en) | 2021-02-24 | 2023-10-24 | Logitech Europe S.A. | Image generating system with background replacement or modification capabilities |
US20230126024A1 (en) * | 2021-10-26 | 2023-04-27 | Dell Products L.P. | Information handling system camera with direct access settings and automated presentation positioning |
CN114241047B (zh) * | 2021-12-02 | 2023-04-07 | 广西大学 | 一种用于园林绿篱修剪的双目视觉识别和定位方法 |
US20220109838A1 (en) * | 2021-12-17 | 2022-04-07 | Intel Corporation | Methods and apparatus to process video frame pixel data using artificial intelligence video frame segmentation |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0342610A (ja) * | 1989-07-10 | 1991-02-22 | Olympus Optical Co Ltd | カメラのパターン認識装置 |
US5436672A (en) * | 1994-05-27 | 1995-07-25 | Symah Vision | Video processing system for modifying a zone in successive images |
US5790692A (en) * | 1994-09-07 | 1998-08-04 | Jeffrey H. Price | Method and means of least squares designed filters for image segmentation in scanning cytometry |
WO1996008919A1 (en) * | 1994-09-12 | 1996-03-21 | Philips Electronics N.V. | System and method for enhancing the sharpness of a colour image |
US6078688A (en) * | 1996-08-23 | 2000-06-20 | Nec Research Institute, Inc. | Method for image segmentation by minimizing the ratio between the exterior boundary cost and the cost of the enclosed region |
JP3552456B2 (ja) * | 1997-05-01 | 2004-08-11 | セイコーエプソン株式会社 | 動物体追跡方法 |
US6011595A (en) * | 1997-09-19 | 2000-01-04 | Eastman Kodak Company | Method for segmenting a digital image into a foreground region and a key color region |
WO2000007091A1 (en) * | 1998-07-27 | 2000-02-10 | Webtv Networks, Inc. | Remote computer access |
JP2001036801A (ja) * | 1999-07-23 | 2001-02-09 | Sharp Corp | 撮像装置 |
US6670963B2 (en) * | 2001-01-17 | 2003-12-30 | Tektronix, Inc. | Visual attention model |
US20030058237A1 (en) * | 2001-09-27 | 2003-03-27 | Koninklijke Philips Electronics N.V. | Multi-layered background models for improved background-foreground segmentation |
US7085401B2 (en) * | 2001-10-31 | 2006-08-01 | Infowrap Systems Ltd. | Automatic object extraction |
TW577227B (en) * | 2002-04-23 | 2004-02-21 | Ind Tech Res Inst | Method and apparatus for removing background of visual content |
CN1201223C (zh) * | 2002-05-13 | 2005-05-11 | 义隆电子股份有限公司 | 一种用于光学指向装置决定移动距离及移动方向的方法 |
US7190809B2 (en) * | 2002-06-28 | 2007-03-13 | Koninklijke Philips Electronics N.V. | Enhanced background model employing object classification for improved background-foreground segmentation |
WO2004004320A1 (en) * | 2002-07-01 | 2004-01-08 | The Regents Of The University Of California | Digital processing of video images |
US7224735B2 (en) * | 2003-05-21 | 2007-05-29 | Mitsubishi Electronic Research Laboratories, Inc. | Adaptive background image updating |
US7408986B2 (en) * | 2003-06-13 | 2008-08-05 | Microsoft Corporation | Increasing motion smoothness using frame interpolation with motion analysis |
US7660463B2 (en) | 2004-06-03 | 2010-02-09 | Microsoft Corporation | Foreground extraction using iterated graph cuts |
US7512262B2 (en) | 2005-02-25 | 2009-03-31 | Microsoft Corporation | Stereo-based image processing |
US7676081B2 (en) | 2005-06-17 | 2010-03-09 | Microsoft Corporation | Image segmentation of foreground from background layers |
US7720282B2 (en) | 2005-08-02 | 2010-05-18 | Microsoft Corporation | Stereo image segmentation |
-
2005
- 2005-10-17 US US11/252,017 patent/US7676081B2/en active Active
-
2006
- 2006-06-19 JP JP2008517220A patent/JP4898800B2/ja not_active Expired - Fee Related
- 2006-06-19 WO PCT/US2006/023858 patent/WO2006138730A2/en active Application Filing
- 2006-06-19 KR KR1020077025761A patent/KR101242259B1/ko active IP Right Grant
- 2006-06-19 EP EP06785128.7A patent/EP1891579B1/en active Active
- 2006-06-19 CN CN2006800212742A patent/CN101558404B/zh active Active
-
2010
- 2010-01-19 US US12/689,246 patent/US8103093B2/en not_active Expired - Fee Related
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102572205A (zh) * | 2011-12-27 | 2012-07-11 | 方正国际软件有限公司 | 一种图像处理方法、装置及系统 |
CN102572205B (zh) * | 2011-12-27 | 2014-04-30 | 方正国际软件有限公司 | 一种图像处理方法、装置及系统 |
CN103116754A (zh) * | 2013-01-24 | 2013-05-22 | 浙江大学 | 基于识别模型的批量图像分割方法及系统 |
CN103116754B (zh) * | 2013-01-24 | 2016-05-18 | 浙江大学 | 基于识别模型的批量图像分割方法及系统 |
CN103530882A (zh) * | 2013-10-17 | 2014-01-22 | 南京大学 | 一种改进的基于图和色彩纹理特征的图像分割方法 |
CN104091344A (zh) * | 2014-07-22 | 2014-10-08 | 中国科学院自动化研究所 | 一种道路分割方法 |
CN104091344B (zh) * | 2014-07-22 | 2017-04-19 | 中国科学院自动化研究所 | 一种道路分割方法 |
CN109479127A (zh) * | 2016-07-27 | 2019-03-15 | 高通股份有限公司 | 使用视频译码压缩图片分段数据 |
CN113822879A (zh) * | 2021-11-18 | 2021-12-21 | 南京智谱科技有限公司 | 一种图像分割的方法及装置 |
CN114037633A (zh) * | 2021-11-18 | 2022-02-11 | 南京智谱科技有限公司 | 一种红外图像处理的方法及装置 |
CN113822879B (zh) * | 2021-11-18 | 2022-06-21 | 南京智谱科技有限公司 | 一种图像分割的方法及装置 |
CN114037633B (zh) * | 2021-11-18 | 2022-07-15 | 南京智谱科技有限公司 | 一种红外图像处理的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
US7676081B2 (en) | 2010-03-09 |
KR101242259B1 (ko) | 2013-03-12 |
JP4898800B2 (ja) | 2012-03-21 |
EP1891579B1 (en) | 2013-05-08 |
US20060285747A1 (en) | 2006-12-21 |
EP1891579A4 (en) | 2011-01-05 |
WO2006138730A2 (en) | 2006-12-28 |
US20100119147A1 (en) | 2010-05-13 |
EP1891579A2 (en) | 2008-02-27 |
KR20080015078A (ko) | 2008-02-18 |
CN101558404B (zh) | 2013-01-23 |
JP2008547097A (ja) | 2008-12-25 |
WO2006138730A3 (en) | 2009-05-07 |
US8103093B2 (en) | 2012-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101558404B (zh) | 图像分割 | |
US7991228B2 (en) | Stereo image segmentation | |
Jain et al. | Predicting sufficient annotation strength for interactive foreground segmentation | |
CN106537390B (zh) | 标识教育视频的呈现样式 | |
Nedović et al. | Stages as models of scene geometry | |
CN110544268B (zh) | 一种基于结构光及SiamMask网络的多目标跟踪方法 | |
Zhang et al. | Detecting and removing visual distractors for video aesthetic enhancement | |
CN109063549A (zh) | 基于深度神经网络的高分辨率航拍视频运动目标检测方法 | |
CN110766645B (zh) | 基于人物识别与分割的目标人物复现图生成方法 | |
Fearghail et al. | Director’s cut-analysis of VR film cuts for interactive storytelling | |
CN102724530B (zh) | 基于反馈控制的平面视频立体化方法 | |
CN113628349B (zh) | 基于场景内容自适应的ar导航方法、设备及可读存储介质 | |
Ahn et al. | Long term real trajectory reuse through region goal satisfaction | |
Tan et al. | RGBD-FG: A large-scale RGB-D dataset for fine-grained categorization | |
Babahajiani | Geometric computer vision: Omnidirectional visual and remotely sensed data analysis | |
Liu | Amodal Instance Segmentation and Multi-Object Tracking with Deep Pixel Embedding | |
US20230222841A1 (en) | Ensemble Deep Learning Method for Identifying Unsafe Behaviors of Operators in Maritime Working Environment | |
Yang et al. | Cover Design of Public Service Advertisement Based on Deep Image Rendering Technology | |
Zeng | Deep Building Recognition: Interior Layouts and Exterior Planes | |
Gunnarsson | Panoptic segmentation in video | |
Wang et al. | Egocentric Scene-aware Human Trajectory Prediction | |
AYENEW | Towards Large Scale Façade Parsing: A Deep Learning Pipeline Using Mask R-CNN | |
Kwan et al. | Automatic Image Checkpoint Selection for Guider‐Follower Pedestrian Navigation | |
Lu | From coarse to fine: Quickly and accurately obtaining indoor image-based localization under various illuminations | |
Wang et al. | Selective Video Cutout using Global Pyramid Models and Local Uncertainty Propagation. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
ASS | Succession or assignment of patent right |
Owner name: MICROSOFT TECHNOLOGY LICENSING LLC Free format text: FORMER OWNER: MICROSOFT CORP. Effective date: 20150428 |
|
C41 | Transfer of patent application or patent right or utility model | ||
TR01 | Transfer of patent right |
Effective date of registration: 20150428 Address after: Washington State Patentee after: Micro soft technique license Co., Ltd Address before: Washington State Patentee before: Microsoft Corp. |