CN101610420B - 自动白平衡的方法 - Google Patents
自动白平衡的方法 Download PDFInfo
- Publication number
- CN101610420B CN101610420B CN2008101267692A CN200810126769A CN101610420B CN 101610420 B CN101610420 B CN 101610420B CN 2008101267692 A CN2008101267692 A CN 2008101267692A CN 200810126769 A CN200810126769 A CN 200810126769A CN 101610420 B CN101610420 B CN 101610420B
- Authority
- CN
- China
- Prior art keywords
- awb
- image data
- pixel
- data
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种自动白平衡的方法,涉及影像调整的方法,适用于影像处理。其中,至少第二影像数据产生的时间在第一影像数据之前,所述方法包括下列步骤:输入第一影像数据;根据颜色增益表,调整第一影像数据的颜色;执行对象侦测程序,以移除至少一个前景物体,并取得目标背景;对该目标背景进行色差分析,以决定至少一个影像增益参数。本发明通过对背景进行色差分析,能够自动调整白平衡。
Description
技术领域
本发明是有关于一种影像调整的方法,且特别是有关于一种通过背景的色差分析,以自动调整白平衡的方法。
背景技术
在不同的环境光源之下,影像会呈现不同程度的色泽偏移。白平衡(Auto-White-Balance)控制是用调整色泽偏移的现象,以回复影像中的白色(参考白)至真实场景中的白色为目标。现有白平衡控制的一般作法是,由使用者输入光照条件,例如:夕照、白炽灯泡等等,或由使用者直接提供画面中的参考白区域。自动白平衡为系统自行侦测出外在环境光源,以矫正色泽偏移。然而,现有自动白平衡的技术存在许多缺点,例如:频繁进出画面的物体将使相机的参考白混乱,造成画面质量低落。请参照图1,其绘示的是现有自动白平衡的功能方块图。
由上述可知,现有自动白平衡技术过于简略,而且精确度不足,不能正确地进行自动白平衡。再者,现有自动白平衡技术没有运用画面中的对象特征来提高自动白平衡技术的正确率,十分可惜。因此,若我们能利用准确度高的对象侦测算法,根据对象侦测的结果来调整自动白平衡,必能大幅提高影像的质量。
然而,不幸的是,现有对象侦测算法仍存在许多无法克服的缺点。请参照图2,其绘示的是现有对象侦测算法的功能方块图。其中,对象切割方块将输入影像中的前景物体切割出来。对象撷取方块将切割出来的物体依其特征建立对象信息。通过追踪每张画面物体的动向,对象追踪方块可得知物体速度等等数据。请参照图3,其绘示的是现有对象切割的功能方块图。现有的对象切割方式主要有以下几种:
1、画面差异算法(Frame Difference):此方法利用本画面的每一像素与前一张画面的每一像素相减,找出移动的物体。此方法的优点在于运算简单,缺点在于若想侦测的前景物体没有运动,则无法切割出来。
2、区域结合算法(Region Merge):此方法利用相邻像素的相似性作结合,经由一定次数的重复运算,找出具有一致性特征的物体。此方法的缺点为只能找出具有均匀特征的物体,且需要一定次数的重复运算。优点在于由于采取相邻像素作结合,因此不需维持背景模型。
3、背景相减算法(Background Subtraction):此方法利用历史画面建立背景模型,经由每一像素与背景模型相比对,找出与背景不相同的物体。此方法的优点为可靠度较高,对于动态背景等情况有较佳的抵抗力。缺点为需要维持背景模型。
然而,不幸的是,现有的对象切割算法皆单纯地以像素为出发点作侦测,并未从「对象」的角度来作处理。因此,现有的对象切割算法,极容易产生错误警报(False alarm),如将光影变化,画面噪声误认为前景物体,而使得判断失误的情形增加。
当现有对象切割算法执行对象切割时,通常会设定一个临界值(threshold)来作为前景与背景的分别。但是,现有对象切割算法设定临界值时,将会遇到两难的问题。最常见的缺点是,若临界值设定太宽,则许多物体产生的噪声、反光、微弱的光影变化将被视为前景。若临界值设定太窄,则某些与背景相似的前景物体,将不会被切割出来。相关专利案请参考US6999620、US6141433以及US6075875。
如此一来,现有对象切割算法在准确率尚未能达到令人满意的程度,因而在应用上,更产生许多的限制,例如:
1、当物体与背景颜色特征相当接近时,现有对象切割算法不易准确地切割。
2、现有对象切割算法容易发生物体因切割不慎而断开(如:身体某部分与背景颜色相似),进而使单一物体被判断成两个物体的现象。
3、当画面有光线反射与影子变化时,现有对象切割算法不易准确地切割,而容易将光影变化当成新的前景物件而切割出来,使得错误警报次数增加。
4、以物体学习速率的变化而言,当物体学习速率快时,若物体不移动很快就被学进背景。当物体学习速率慢时,若背景产生变化,则背景模型无法实时的更新。这些效果都会造成对象切割算法的失败。
综合上述,现有对象切割算法不仅存在许多限制,而且现有对象切割算法具有许多严重的缺点,使得影像处理过程产生许多瑕疵。这些缺点大部分是因为现有对象切割算法均以像素为出发点而造成的,举例而言,若由对象为出发点,则物体不慎切割成两个物体可通过对象信息救回,光影变化也可由对象突然出现等对象信息以解决。因此,现有对象切割算法亟待改善。
发明内容
有鉴于此,本发明的目的在于提供一种自动白平衡的方法。本发明分离前景与背景,针对背景作色差分析,以改变影像增益参数。
为达成上述及其它目的,本发明提出一种自动白平衡的方法,适用于影像处理。其中,在t时间(即第t张画面)时,第二影像数据(第t-1,t-2,...,t-n张画面)产生的时间在第一影像数据(第t张画面)之前,本方法包括下列步骤:本方法输入前述第一影像数据。之后,根据颜色增益表,本方法调整前述第一影像数据的颜色。其后,本方法执行一个对象侦测程序,以移除至少一个前景物体,并取得目标背景。接下来,对前述目标背景进行色差分析,以决定影像增益参数。
依照本发明的较佳实施例所述,上述的色差分析包括下列步骤:通过颜色分布模型,本方法判断前述目标背景的颜色分布是否符合预期结果。
依照本发明的较佳实施例所述,通过前述色差分析,本方法得到色差参数。之后,根据前述色差参数,本方法以调整前述影像增益参数。
依照本发明的较佳实施例所述,上述的对象侦测程序包括下列步骤:本方法执行对象切割程序,输入前述第一影像数据,根据前述第一影像数据与对象投影程序所算出的目标位置,以切割出前景物体,并且输出切割数据(二元式影像光罩)。之后,本方法执行对象撷取程序,输入前述切割数据,根据前述前景物体与前述切割资料,萃取出每一个前景物体所对应的第一特征数据。接下来,本方法执行对象追踪程序,输入前述第一特征数据,分析前述第一影像数据中的第一特征数据与前述第二影像数据中对应的第一特征数据,以得到第一影像数据中每个物体的第二特征数据。其后,本方法执行对象投影程序,输入前述第二特征数据,分析前述第二特征数据与前述第二影像数据中的第二特征数据,以预测前述前景物体在第三影像数据中(第t+1张画面)对应的目标位置,之后,将前述目标位置输出至前述对象切割程序,以切割出第三影像数据中(第t+1张画面)的前景物体。
在本发明中,第一影像数据是指本张画面,即第t张画面。第二影像数据是指历史画面,即第t-1,t-2,...,t-n张画面。第三影像数据是指下一张画面,即第t+1张画面。第一特征数据是指对象撷取程序后所获得的物体信息。第二特征数据是指对象追踪程序后的特征信息。第一位置是指对象在第一影像数据中的位置,第二位置是指对象在第二影像中的位置,第三位置是指对象在第三影像中的位置。第一机率是指对象切割中通过对象投影程序产生的目标位置所得知的每个位置为前景的机率。第二机率是指经由与多重高斯混合背景模型相比,所得到的机率。第三机率是指目标像素与邻近像素相比较所得的机率。综合第一、第二及第三机率可得到该位置出现前景的前景机率。
依照本发明的较佳实施例所述,上述的对象切割程序包括下列步骤:本方法读取第一影像数据的其中一个像素成为目标像素。之后,根据前述目标像素与对应的前述对象投影程序产生的目标位置,以决定前述目标像素为前景像素的机率,成为第一机率。其后,本方法比较前述目标像素与多重高斯混合背景模型的相似度,以决定前述目标像素为前景像素的机率,成为第二机率。接下来,本方法比较前述目标像素与目标像素的对应邻近像素的相似度,以决定前述目标像素为前景像素的机率,成为第三机率。最后,根据前述第一机率、前述第二机率与前述第三机率,决定前述目标像素是否为前景像素。
依照本发明的较佳实施例所述,上述的前述对象切割程序更包括下列步骤:通过前述多重高斯混合背景模型,本方法得到时域差异参数。之后,通过前述目标像素邻近的像素,本方法以得到空间差异参数。接着,若前述时域差异参数与前述空间差异参数之和大于一个临界值,则本方法判断前述目标像素为前景像素。若前述时域差异参数与前述空间差异参数之和小于一个临界值,则本方法判断前述目标像素不为前景像素。
依照本发明的较佳实施例所述,若前述目标位置投影至对应的位置,则提高对应的位置出现前述前景像素的机率或降低该位置判别是否为前景的临界值。
依照本发明的较佳实施例所述,上述的对象投影程序包括下列步骤:根据第二特征数据与第二影像数据,本对象投影程序可得知第一影像数据(第t张画面,即本张画面)中所有目标对象的目标位置(第一位置)。之后,根据前述第一影像数据的第一位置及第二影像数据的第二位置,对象投影程序决定第t+1张画面时的第三影像数据中,前述目标对象的第三位置(即t+1张画面时该目标对象的位置)。对象投影程序计算目标位置的方式如下:根据前述第二影像数据,本方法得知前述目标对象的第二位置(即t-1,t-2,...,t-n张画面的该目标对象的位置)。其后,根据前述第一位置与前述第二位置,本方法估计该目标对象对应的运动方向与运动速度。接下来,本方法记录历史运动方向与历史运动速度。之后,本方法预测第t+1张画面对应的运动方向与对应的运动速度。最后,本方法预测前述目标对象在下一张影像(第三影像数据)中的目标位置(即第三位置)。
综合上述,本发明提出一种自动白平衡的方法。本发明忽略前景物体,仅针对背景物体来调整影像增益参数。本发明不仅能正确地切割前景与背景,更能精确地调整白平衡。在对象侦测程序中,由于对象追踪功能可以求得物体的速度,所以本发明利用对象追踪功能的结果,以预测下一张画面的前景物体所在的位置,即可大幅提升对象切割的准确度。本发明至少具有下列优点:
1、本发明结合自动白平衡与对象侦测的技术,不仅具有新颖性,而且更具有进步性。通过正确地切割前景与背景,本发明仅对背景部份进行色差分析,相较于现有技术对整张影像进行色偏分析,本发明能更稳定、更准确地得到画面颜色受光源影响而偏移的程度。因此,本发明能大幅提高影像的质量。
2、由前述第1点可知,本发明已克服现有技术的缺点,前景物体将不会影响影像的稳定性。亦即,若物体频繁进出画面,则相机的参考白将不会混乱,画面的质量也不会受影响。
3、为了提高自动白平衡的性能,准确地分离出背景非常重要。本发明采用整个对象侦测系统的数据来调整临界值,使得对象侦测的正确率大幅提升。
4、本发明以投影的原理来预测对象的位置,这种方法在对象切割的技术中,不仅具备新颖性,更具有进步性。对象投影的目的在于,本发明利用第二影像数据(第t-1,t-2,...,t-n张画面),以预测第三影像数据(第t+1张画面)的物体所可能出现的位置。之后,本方法将这个可能出现的位置回授至对象切割方块,以当作对象切割的辅助,例如:本发明提高对象投影区域出现物体的机率,并且降低没有投影到的区域出现前景物体的机率。如此一来,本发明提高对象切割的正确率,并且达到降低错误警报的效果。
5、对象投影对对象切割的帮助在于,对象投影可补回物体不慎切割断开的部分,本发明克服现有技术的缺点,避免一个物体因断开而被误认为两个物体。
6、对象投影对对象切割的帮助在于,对象投影增加侦测物体轮廓的准确性。本发明可增加物体在相似背景中,成功割出的机率。
7、对象投影对对象切割的帮助在于,对象投影可依投影结果调整临界值,有效地降低使用单一固定临界值造成的不良影响。例如:降低投影区域的临界值,提高非投影区域的临界值。
8、对象投影对对象切割的帮助在于,对象投影增加前景物体可在画面中停留静止的时间,而使物体不会被快速学入背景而不被侦测出来。
9、对象投影对对象切割的帮助在于,对象投影克服现有对象侦测算法以像素为单位来作切割的缺点,对象投影利用整个物体的特征数据,来增加对象切割的正确度。
由上述可知,对象投影计算出的每个位置可能出现前景物体的机率,调整对象切割算法的切割能力(例如:临界值),以提升整体对象侦测系统的准确度。
附图说明
图1是现有自动白平衡的功能方块图;
图2是现有对象侦测算法的功能方块种图;
图3是现有对象切割的功能方块图;
图4是本发明较佳实施例的自动白平衡的方法流程图;
图5是本发明较佳实施例的对象侦测程序的功能方块图;
图6是本发明较佳实施例的对象切割程序的流程图;
图7是本发明较佳实施例的决定目标像素为前景像素的机率的流程图;
图8是本发明较佳实施例的对象投影程序的流程图;以及,
图9是本发明较佳实施例的对象切割的示意图。
具体实施方式
请参照图4,其绘示的是本发明较佳实施例自动白平衡的方法流程图。本方法适用于影像处理,其中,在t时间(即第t张画面)时,第二影像数据(第t-1,t-2,...,t-n张画面)产生的时间在第一影像数据(第t张画面)之前,本方法包括下列步骤:本方法输入第一影像数据(S402)。之后,根据预设的颜色增益表,本方法调整第一影像数据的颜色(S404)。接着,本方法执行一个对象侦测程序,以移除至少一个前景物体,并取得目标背景(S406)。接下来,本方法忽略前景物体,仅对目标背景进行色差分析(S408)。其后,根据前述色差分析的结果,本方法决定影像增益参数(R,G,B)(S410)。
其中,色差分析包括下列步骤:通过一个颜色分布模型,例如:灰体模型(Gray World Model),本方法判断目标背景的颜色分布是否符合预期结果。之后,通过色差分析,以得到至少一个色差参数。根据色差参数,本方法调整影像增益参数。对象侦测程序可利用背景相减算法来取得二元式影像光罩,或者对象侦测程序也可利用本发明提供的方法,以更正确地切割前景与背景。
请参照图5,其绘示的是本发明较佳实施例的对象侦测程序的功能方块图。本方法适用于影像处理,其中,至少一笔第二影像数据(第t-1,t-2,...,t-n张画面)产生的时间在一笔第一影像数据(第t张画面)之前。本方块图包括对象切割方块502、对象撷取方块504、对象追踪方块506与对象投影方块508。本方法将第一影像数据(第t张画面)与第二影像数据(第t-1,t-2,...,t-n张画面)产生的对应目标位置输入对象切割方块502。接下来,本方法执行对象切割程序,使对象切割方块502输出对应的二元式影像光罩至对象撷取方块504。之后,本方法执行对象撷取程序,使对象撷取方块504输出对应的第一特征数据至对象追踪方块506。其后,本方法执行对象追踪程序,使对象追踪方块506输出对应的第二特征数据至对象投影方块508。接着,本方法执行对象投影程序,使对象投影方块508输出第一影像数据的对应目标位置至对象切割方块502,以协助第三影像数据(第t+1张画面)的影像数据切割对象。
本方法包括下列步骤:本方法执行对象切割程序,输入前述第一影像数据与目标位置。根据前述第一影像数据与前述目标位置,以切割出画面中所有的前景物体与形成其对应的切割资料。之后,本方法执行对象撷取程序,输入前述切割数据,此切割数据即二元式影像光罩。根据前述前景物体与前述切割资料,使每一个前景物体具有对应的第一特征数据。其后,本方法执行对象追踪程序,输入前述第一特征数据,并分析前述第一影像数据中的第一特征数据与前述第二影像数据中对应的前述第一特征数据,通过比对得知对应关系,以得到第一影像数据中每个对象的第二特征数据。接着,本方法执行对象投影程序,输入前述第二特征数据,分析前述第二特征数据与前述第二影像数据对应的第二特征数据,以预测前述前景物体对应的前述目标位置(第三位置)。之后,本方法将前述目标位置输出至前述对象切割程序,以进行前述的第三影像数据的对象切割。
请参照图6,其绘示的是本发明较佳实施例的对象切割程序的流程图。前述对象切割程序包括下列步骤:本方法读取第一影像数据(第t张画面)的其中一个像素成为目标像素(S604)。接下来,本方法输入第二影像数据(第t-1,t-2,...,t-n张画面),以及在第t-1张画面时决定对应的目标位置(S606)。之后,本方法读取此目标位置(S608)。接着,根据前述目标像素与对应的前述目标位置,以决定前述目标位置出现前景像素的机率,成为第一机率(S610)。此外,根据高斯混合背景模型,取得对应的时域切割资料(S612)。接下来,本方法读取前述时域切割数据(S614)。接着,本方法比较前述目标像素与高斯混合背景模型的相似度,以决定前述目标像素为前景像素的机率,成为第二机率(S616)。另外,本方法读取第一影像数据(S618)。之后,根据前述目标像素与目标像素的对应邻近像素,取得空间数据(S620)。其后,本方法比较前述目标像素与目标像素的对应邻近像素的相似度,以决定前述目标像素为前景像素的机率,成为第三机率(S622)。接着,根据第一机率、第二机率与第三机率,决定前述目标像素是否为前景像素(S624)。接下来,本方法输出前述目标像素至二元式影像光罩(S626)。之后,本方法判断整张画面的像素是否皆切割完成(S628)。若整张画面的像素未切割完成,则本方法再次执行步骤604。若整张画面的像素切割完成,则本方法结束对象切割程序(S630)。
请参照图7,其绘示的是本发明较佳实施例的决定目标像素为前景像素的机率流程图。本方法形成前景像素机率包括下列步骤:通过读取该物体的第一影像数据及对象投影信息目标位置,可得知前述的第一机率。通过多重高斯混合背景模型,本方法得到时域差异参数。通过此时域差异参数,可得知前述的第二机率。之后,通过目标像素邻近的像素,本方法得到空间差异参数。通过此空间差异参数,可得知前述的第三机率。通过前述第一机率,调整第二机率及第三机率判断的临界值,并由与临界值比较的结果,可求得前景像素机率。由此前景像素机率可判定该像素是否为前景像素,完成该像素的对象切割。
请再次参照图5,对象撷取程序可使用现有的连结组件卷标算法(Connected Component Labeling),以分析连结组件的连接情况、位置与物体分布,以取得第一特征数据。对象追踪程序可使用对象配对算法,通过一对一的比对每张画面,寻找相似对象以进行追踪,以取得第二特征数据。
请参照图8,其绘示的是本发明较佳实施例对象投影程序的流程图。对象投影程序包括下列步骤:本方法读取要进行对象投影的目标对象(S804)。此外,本方法取得第二影像数据的目标对象的数据(S806)。之后,本方法读取第二影像数据(第t-1,t-2,...,t-n张画面)的目标对象的位置(S808)。此外,本方法取得第一影像数据(本张画面t)的目标对象的数据(S810)。之后,根据第一影像数据,决定第t张画面时,目标对象的第一位置,亦即,本方法读取本张画面(第t张画面)的目标对象的位置(S812)。之后,根据前述第一位置与前述第二位置,估计运动方向与运动速度(S814)。之后,本方法记录历史运动方向与历史运动速度(S816)。并且,本方法预测第三影像数据(第t+1张画面)的对应的运动方向与对应的运动速度(S818)。根据步骤812与步骤818,本方法预测目标对象在第三影像数据(第t+1张画面)中的目标位置(S820)。其后,本方法输出目标对象在第t+1张画面的影像中的目标位置(S822)。接着,本方法判断第一影像数据中的所有目标对象是否全部投影完成(S824)。若第一影像数据中的所有目标对象尚未投影完成,则本方法再次执行步骤804。若第一影像数据中的所有目标对象已投影完成,则本方法结束对象投影程序(S826)。
值得说明的是,第一特征数据为颜色分布、物体质心或对象大小等对象信息。第二特征数据为移动数据,通过分析对象移动状况所取得的数据,例如:对象速度、对象位置或运动方向等信息。此外,第二特征数据也可为分类数据,前述分类数据指示对象的种类,例如:人或车。再者,第二特征数据也可为场景位置数据,前述场景位置数据指示对象所在场景,例如:门口、上坡或下坡。另外,第二特征数据也可为互动数据,通过分析各个连结组件间的互动行为,可得到前述互动数据,例如:谈话行为或身体接触行为。再者,第二特征数据也可为场景深度数据,前述场景深度数据指示对象所在的场景深度。通过第二特征数据,本方法可利用第二特征数据来预测目标对象在下一张画面的目标位置,之后,本方法回授下一张画面的目标位置至原有的对象切割程序,即可得到第一机率。本方法配合其它第二机率与第三机率作更精确的预测,即可更精确的完成对象切割的工作。
请参照图9,其绘示的是本发明较佳实施例对象切割的示意图。请配合参照图7与图8,第一影像数据900内含目标像素902,通过目标像素902邻近像素,可以得到第三机率。再者,通过多重高斯混合背景模型904、多重高斯混合背景模型906、多重高斯混合背景模型908等等N个模型,可得到第二机率。另外,通过对象移动数据,本方法可取得第一机率,其数学形式如下:Pos(Obj(k),t):物体k在t时间的位置
MV(Obj(k),t):物体k在t与t-1时间的移动向量(motion vector)
MV(Obj(k),t)=Pos(Obj(k),t)-Pos(Obj(k),t-1)
MP(Obj(k),t):移动预测函数(motion prediction)
Low_pass_filter(X):低通滤波函数
MP(Obj(k),t)=Low_pass_filter(MV(Obj(k),t),MV(Obj(k),t-1),MV(Obj(k),t-2),...)
Proj_pos(Obj(k),t+1):根据前述资料,本方法预测(投影)物体t+1时间出现的位置
Proj_pos(Obj(k),t+1)=Pos(Obj(k),t)+MP(Obj(k),t)
本方法在进行t+1张画面的物体分割时,若该位置为对象投影的目标位置,则提高该位置物体出现的机率,亦即,本方法降低判断该位置为前景的临界值。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求所界定的保护范围为准。
Claims (22)
1. 一种自动白平衡的方法,适用于影像处理,其中,至少第二影像数据产生的时间在第一影像数据之前,本方法包括下列步骤:
输入该第一影像数据;
根据颜色增益表,调整该第一影像数据的颜色;
执行对象侦测程序,以移除至少一个前景物体,并取得目标背景;以及,
对该目标背景进行色差分析,以决定至少一个影像增益参数。
2. 如权利要求1所述的自动白平衡的方法,其中,该色差分析包括下列步骤:通过颜色分布模型,判断该目标背景的颜色分布是否符合预期结果。
3. 如权利要求2所述的自动白平衡的方法,其中,该颜色分布模型为灰体模型。
4. 如权利要求1所述的自动白平衡的方法,其中,通过该色差分析,以得到至少一个色差参数,根据该色差参数,以调整该影像增益参数。
5. 如权利要求1所述的自动白平衡的方法,其中,该对象侦测程序更包括下列步骤:
执行对象切割程序,输入该第一影像数据与对象投影的目标位置,根据该第一影像数据与该目标位置,以切割出画面中所有该前景物体与形成对应的切割资料;
执行对象撷取程序,输入该切割数据,根据该前景物体与该切割资料,使每个前景物体具有对应的第一特征数据;
执行对象追踪程序,输入该第一特征数据,分析该第一影像数据中的该第一特征数据与该第二影像数据中对应的该第一特征数据,以得到至少一个第二特征数据;以及,
执行对象投影程序,输入该第二特征数据,分析该第二特征数据与该第二影像数据,以预测该前景物体对应的该目标位置,之后,将该目标位置输出至该对象切割程序,以辅助进行第三影像数据的切割。
6. 如权利要求5所述的自动白平衡的方法,其中,该对象切割程序包括下列步骤:
读取该第一影像数据的其中一个像素成为目标像素;
根据该目标像素与对应的该目标位置,以决定该目标位置出现前景像素的机率,成为第一机率;
比较该目标像素与背景模型的相似度,以决定该目标像素为该前景像素的机率,成为第二机率;
比较该目标像素与该目标像素的对应邻近像素的相似度,以决定该目标像素为该前景像素的机率,成为第三机率;以及,
根据该第一机率、该第二机率与该第三机率,决定该目标像素是否为该前景像素。
7. 如权利要求6所述的自动白平衡的方法,其中,该背景模型为多重高斯混合背景模型。
8. 如权利要求7所述的自动白平衡的方法,其中,该对象切割程序更包括下列步骤:
通过该多重高斯混合背景模型,以得到时域差异参数;
通过该目标像素邻近的像素,以得到空间差异参数;
若该时域差异参数与该空间差异参数之和大于临界值,则判断该目标像素为该前景像素;以及,
若该时域差异参数与该空间差异参数之和小于该临界值,则判断该目标像素不为该前景像素。
9. 如权利要求6所述的自动白平衡的方法,其中,若该目标位置投影至对应的位置,则提高对应的位置出现该前景像素的机率。
10. 如权利要求5所述的自动白平衡的方法,其中,该切割数据为二元式影像光罩。
11. 如权利要求5所述的自动白平衡的方法,其中,该第一特征数据为颜色分布、物体质心与对象大小中的一个。
12. 如权利要求5所述的自动白平衡的方法,其中,该第二特征数据为移动数据,通过分析对象移动状况所取得的数据。
13. 如权利要求12所述的自动白平衡的方法,其中,该移动数据为对象速度、对象位置与运动方向中的一个。
14. 如权利要求5所述的自动白平衡的方法,其中,该第二特征数据为分类数据,该分类数据指示对象的种类。
15. 如权利要求14所述的自动白平衡的方法,其中该分类数据为人与车中的一个。
16. 如权利要求5所述的自动白平衡的方法,其中,该第二特征数据为场景位置数据,该场景位置数据指示对象所在场景。
17. 如权利要求16所述的自动白平衡的方法,其中,该场景位置数据为门口、上坡与下坡中的一种。
18. 如权利要求5所述的自动白平衡的方法,其中,该第二特征数据为互动数据,通过分析至少一个连结组件间的互动行为,以得到该互动数据。
19. 如权利要求18所述的自动白平衡的方法,其中,该互动数据为谈话行为与身体接触行为。
20. 如权利要求5所述的自动白平衡的方法,其中,该第二特征数据为场景深度数据,该场景深度数据指示对象的场景深度。
21. 如权利要求5所述的自动白平衡的方法,其中,该对象投影程序包括下列步骤:
根据该第二特征数据与该第二影像数据,决定至少一个目标对象;
根据该第一影像数据,决定第t张画面时,该目标对象的第一位置;
根据该第二影像数据,决定第t-1,t-2,...,t-n张画面时,该目标对象的第二位置;
根据该第一位置与该第二位置,估计运动方向与运动速度;
记录历史运动方向与历史运动速度;
预测该第三影像数据,该第三影像数据为第t+1张画面时对应的该运动方向与对应的该运动速度;以及,
预测该目标对象在该第三影像数据中的该目标位置。
22. 如权利要求1所述的自动白平衡的方法,其中,该对象侦测程序为背景相减算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008101267692A CN101610420B (zh) | 2008-06-20 | 2008-06-20 | 自动白平衡的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008101267692A CN101610420B (zh) | 2008-06-20 | 2008-06-20 | 自动白平衡的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101610420A CN101610420A (zh) | 2009-12-23 |
CN101610420B true CN101610420B (zh) | 2012-03-21 |
Family
ID=41483959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008101267692A Active CN101610420B (zh) | 2008-06-20 | 2008-06-20 | 自动白平衡的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101610420B (zh) |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2447672B (en) | 2007-03-21 | 2011-12-14 | Ford Global Tech Llc | Vehicle manoeuvring aids |
TWI538473B (zh) | 2011-03-15 | 2016-06-11 | 杜比實驗室特許公司 | 影像資料轉換的方法與設備 |
US9283892B2 (en) | 2011-04-19 | 2016-03-15 | Ford Global Technologies, Llc | Method and system for monitoring placement of a target on a trailer |
US9854209B2 (en) | 2011-04-19 | 2017-12-26 | Ford Global Technologies, Llc | Display system utilizing vehicle and trailer dynamics |
US9500497B2 (en) | 2011-04-19 | 2016-11-22 | Ford Global Technologies, Llc | System and method of inputting an intended backing path |
US9723274B2 (en) | 2011-04-19 | 2017-08-01 | Ford Global Technologies, Llc | System and method for adjusting an image capture setting |
US9102271B2 (en) | 2011-04-19 | 2015-08-11 | Ford Global Technologies, Llc | Trailer monitoring system and method |
US9506774B2 (en) | 2011-04-19 | 2016-11-29 | Ford Global Technologies, Llc | Method of inputting a path for a vehicle and trailer |
US9374562B2 (en) | 2011-04-19 | 2016-06-21 | Ford Global Technologies, Llc | System and method for calculating a horizontal camera to target distance |
US9296422B2 (en) | 2011-04-19 | 2016-03-29 | Ford Global Technologies, Llc | Trailer angle detection target plausibility |
US8930140B2 (en) | 2011-04-19 | 2015-01-06 | Ford Global Technologies, Llc | Trailer target placement assist system and method |
US9102272B2 (en) | 2011-04-19 | 2015-08-11 | Ford Global Technologies, Llc | Trailer target monitoring system and method |
US9290204B2 (en) | 2011-04-19 | 2016-03-22 | Ford Global Technologies, Llc | Hitch angle monitoring system and method |
US9555832B2 (en) | 2011-04-19 | 2017-01-31 | Ford Global Technologies, Llc | Display system utilizing vehicle and trailer dynamics |
US9926008B2 (en) | 2011-04-19 | 2018-03-27 | Ford Global Technologies, Llc | Trailer backup assist system with waypoint selection |
US9969428B2 (en) | 2011-04-19 | 2018-05-15 | Ford Global Technologies, Llc | Trailer backup assist system with waypoint selection |
US10196088B2 (en) | 2011-04-19 | 2019-02-05 | Ford Global Technologies, Llc | Target monitoring system and method |
JP5743696B2 (ja) * | 2011-05-06 | 2015-07-01 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
US9024961B2 (en) | 2011-12-19 | 2015-05-05 | Dolby Laboratories Licensing Corporation | Color grading apparatus and methods |
US9113119B2 (en) * | 2011-12-20 | 2015-08-18 | Pelco, Inc. | Method and system for color adjustment |
CN102646334B (zh) * | 2012-04-25 | 2014-04-02 | 杭州海康威视数字技术股份有限公司 | 高速公路交通事件自动取证方法及其系统 |
CN103929631B (zh) * | 2013-01-15 | 2016-12-28 | 瑞昱半导体股份有限公司 | 使用场景检测的白平衡调整方法及其装置 |
US9592851B2 (en) | 2013-02-04 | 2017-03-14 | Ford Global Technologies, Llc | Control modes for a trailer backup assist system |
US9511799B2 (en) | 2013-02-04 | 2016-12-06 | Ford Global Technologies, Llc | Object avoidance for a trailer backup assist system |
US9352777B2 (en) | 2013-10-31 | 2016-05-31 | Ford Global Technologies, Llc | Methods and systems for configuring of a trailer maneuvering system |
US9464886B2 (en) | 2013-11-21 | 2016-10-11 | Ford Global Technologies, Llc | Luminescent hitch angle detection component |
US9464887B2 (en) | 2013-11-21 | 2016-10-11 | Ford Global Technologies, Llc | Illuminated hitch angle detection component |
US9233710B2 (en) | 2014-03-06 | 2016-01-12 | Ford Global Technologies, Llc | Trailer backup assist system using gesture commands and method |
US9296421B2 (en) | 2014-03-06 | 2016-03-29 | Ford Global Technologies, Llc | Vehicle target identification using human gesture recognition |
US10112537B2 (en) | 2014-09-03 | 2018-10-30 | Ford Global Technologies, Llc | Trailer angle detection target fade warning |
US9522677B2 (en) | 2014-12-05 | 2016-12-20 | Ford Global Technologies, Llc | Mitigation of input device failure and mode management |
US9533683B2 (en) | 2014-12-05 | 2017-01-03 | Ford Global Technologies, Llc | Sensor failure mitigation system and mode management |
US9607242B2 (en) | 2015-01-16 | 2017-03-28 | Ford Global Technologies, Llc | Target monitoring system with lens cleaning device |
US9896130B2 (en) | 2015-09-11 | 2018-02-20 | Ford Global Technologies, Llc | Guidance system for a vehicle reversing a trailer along an intended backing path |
US9836060B2 (en) | 2015-10-28 | 2017-12-05 | Ford Global Technologies, Llc | Trailer backup assist system with target management |
US10112646B2 (en) | 2016-05-05 | 2018-10-30 | Ford Global Technologies, Llc | Turn recovery human machine interface for trailer backup assist |
CN105933687A (zh) * | 2016-07-04 | 2016-09-07 | 凌云光技术集团有限责任公司 | 一种对图像进行自动白平衡处理的方法及装置 |
US10710585B2 (en) | 2017-09-01 | 2020-07-14 | Ford Global Technologies, Llc | Trailer backup assist system with predictive hitch angle functionality |
CN107613284B (zh) * | 2017-10-31 | 2019-10-08 | 努比亚技术有限公司 | 一种图像处理方法、终端和计算机可读存储介质 |
CN111405260B (zh) * | 2020-03-25 | 2022-01-18 | 福州英迪格成像技术有限公司 | 一种自适应白平衡控制方法及其系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101022564A (zh) * | 2007-03-26 | 2007-08-22 | 北京中星微电子有限公司 | 一种调整图像色彩的方法、装置及计算机 |
-
2008
- 2008-06-20 CN CN2008101267692A patent/CN101610420B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101022564A (zh) * | 2007-03-26 | 2007-08-22 | 北京中星微电子有限公司 | 一种调整图像色彩的方法、装置及计算机 |
Non-Patent Citations (2)
Title |
---|
JP特开2003-324755A 2003.11.14 |
JP特开2004-348362A 2004.12.09 |
Also Published As
Publication number | Publication date |
---|---|
CN101610420A (zh) | 2009-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101610420B (zh) | 自动白平衡的方法 | |
TWI420401B (zh) | 一種回授式物件偵測演算法 | |
JP2020107349A (ja) | 物体追跡システム、物体追跡方法、プログラム | |
CN115082683A (zh) | 一种基于图像处理的注塑缺陷检测方法 | |
KR100954835B1 (ko) | 얼굴변화 검출 시스템 및 얼굴변화 감지에 따른 지능형 시스템 | |
CN110127479A (zh) | 一种基于视频分析的电梯门开关异常检测方法 | |
CN101621629B (zh) | 自动曝光的方法 | |
CN102222214A (zh) | 快速物体识别算法 | |
CN101996307A (zh) | 智能视频人体识别方法 | |
CN104992453A (zh) | 基于极限学习机的复杂背景下目标跟踪方法 | |
Ling et al. | A background modeling and foreground segmentation approach based on the feedback of moving objects in traffic surveillance systems | |
CN101715070B (zh) | 特定监控视频中的背景自动更新方法 | |
CN109712171B (zh) | 一种基于相关滤波器的目标跟踪系统及目标跟踪方法 | |
CN104537688A (zh) | 一种基于背景差分和hog特征的运动目标检测方法 | |
CN106504273B (zh) | 一种基于gmm运动目标检测的改进方法 | |
CN103473792A (zh) | 一种运动目标检测方法 | |
CN104090658A (zh) | 基于hog特征的人体图像检测方法 | |
CN101344920B (zh) | 对视频数据帧中特定区域进行检测的方法和设备 | |
TW200952501A (en) | Method for auto-white-balance control | |
CN110688969A (zh) | 视频帧人体行为识别方法 | |
CN107729811B (zh) | 一种基于场景建模的夜间火焰检测方法 | |
CN101615291B (zh) | 一种反馈式对象侦测方法 | |
CN103456012A (zh) | 基于最大稳定曲率区域的视觉人手检测跟踪方法及系统 | |
CN111369578B (zh) | 云台异动智能跟踪方法及其系统 | |
CN104751144A (zh) | 一种面向视频监控的正面人脸快速评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |