CN101282461B - 图像处理方法 - Google Patents

图像处理方法 Download PDF

Info

Publication number
CN101282461B
CN101282461B CN2007101297782A CN200710129778A CN101282461B CN 101282461 B CN101282461 B CN 101282461B CN 2007101297782 A CN2007101297782 A CN 2007101297782A CN 200710129778 A CN200710129778 A CN 200710129778A CN 101282461 B CN101282461 B CN 101282461B
Authority
CN
China
Prior art keywords
mentioned
critical value
pixel
background
zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2007101297782A
Other languages
English (en)
Other versions
CN101282461A (zh
Inventor
黄雅轩
郑皓盈
郑博峰
王世君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Publication of CN101282461A publication Critical patent/CN101282461A/zh
Application granted granted Critical
Publication of CN101282461B publication Critical patent/CN101282461B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种图像处理方法,该方法包括接收包括多个像素的图像图框,该多个像素的每一个皆包括一图像信息,根据该图像信息执行一第一提取,以识别与该图像图框的前景物件相关的前景像素以及与该图像图框的背景相关的背景像素,分区域扫描该图像图框,识别每一个该区域的是否包括足够数量的前景像素,识别包括足够数量的前景像素的每一区域是否包括前景物件,将包括前景物件的区域群集成至少一个群组,该至少一个群组的每一个皆对应于该图像图框中的不同前景物件,以及针对该至少一个群组的每一个执行第二提取,以识别该至少一个群组的该每一个中的前景像素是否要转换成背景像素。

Description

图像处理方法
技术领域
本发明一般涉及图像处理,更明确地说,涉及视频监控应用及从背景图像提取前景物件的方法。
背景技术
图像处理方法具有各种应用,其中许多可应用于诸如视频监控之类的应用及其它与安全有关的用途。以该视频监控为例,过去数十年,已将闭路视频监视系统用于与安全有关的用途。然而,此等系统可能限于在重要的地方记录图像,而不支持对象或事件的分析。随着数字元视频及人工智能技术的发展与进步,基于计算机图像(Computer Vision)的智能监视系统已在安全领域越来越流行。例如,可在机场、地铁站、银行或酒店部署该智能监控系统,以识别恐怖分子或犯罪嫌疑人。该智能监视系统可指能够自动分析相机所拍摄的图像而无需手动操作的监视系统,用于识别与追踪行动对象,例如人、车辆、动物或物品。在分析上述这些图像时,区分前景物件与背景图像可能是有帮助的或必要的,以完成或简化该前景物件的后续分析。
用于提取该前景物件的公知技术可包括背景减法、时间差异法与光学流动。该背景减法可包括学习阶段与测试阶段。在该学习阶段期间,可收集不含该前景物件的多张相片,并将其用作建立背景模型的基础。该背景模型的像素一般可在简单的高斯模型或高斯混合模型中进行说明。一般而言,可将较小高斯模型值指派给相对于该背景图像具有较大色彩或灰阶度差异的像素,而可将较大高斯模型值指派给相对于该背景图像具有较小色彩或灰阶度差异的像素。该背景减法的实施例可参见Collins等人的“ASystem for Video Surveillance and Monitoring”,卡内基美隆大学机器人学院技术报告,2000年。在某些应用中,该背景减法可能不利于提取色彩接近背景的该前景物件。而且,在某些应用中可能会将阴影图像错误地识别为该前景物件,并且色调变化有时可能会不利地影响提取。因此,所得到的相片提取可能相对破碎,甚至无法识别。
就该时间差异法而言,其可直接减去于不同时间拍摄的相片。如果某一像素点于上述这些相片之间的绝对差值超过一临界值,则可将该像素识别为该前景物件的前景像素。否则,可将该像素识别为背景像素。该时间差异法的实施例可参见Anderson等人的“Change Detection and TrackingUsing Pyramid Transformation Techniques”,SPIE Intelligent Robics andComputer Vision会议记录第579期第72-78页,1985年。根据其应用,该时间差异法可能不利于提取固定不动或横跨背景相对缓慢移动的该前景物件。一般而言,该前景物件的具有边界或线的局部区域可能容易提取。然而,在某些应用中,可能会将无显著色彩变化的该前景物件的区块图像(例如,衣服、裤子或脸部近照)错误地识别为该背景图像。
该光学流动法基于以下理论:光学流动在该前景物件移进背景中时会发生变化,该方法可计算一移动对象的图像的每一像素的图框间的位移量,且决定该移动对象的位置。该光学流动法的实施例可参见Brodsky等人的第20040156530号美国公开专利申请,其标题为“Linking trackedObjects that Undergo Temporary Occlusion”。在某些实施例中,该光学流动法可能涉及相对较大的计算量,且可能不支持实时图像处理。
因此,最好具有可减轻公知方法的部份或全部缺点的图像处理方法。在某些应用中,最好具有可分多个阶段提取该前景物件并更新该背景模型以增强提取能力的方法。
发明内容
本发明的实施例可提供一种图像处理方法,该方法包括接收一包括多个像素的图像图框,每一个上述这些多个像素皆包括一图像信息,根据该图像信息执行一第一提取,以识别与该图像图框的前景物件相关的前景像素以及与该图像图框的背景相关的背景像素,分区域扫描该图像图框,识别上述这些区域的每一者是否包括一足够数量的前景像素,识别包括足够数量的前景像素的每一区域是否包括前景物件,将包括一前景物件的区域群集成至少一个群组,该至少一个群组的每一个皆对应于该图像图框中的不同前景物件,以及针对至少一个群组的每一者执行第二提取,以识别该至少一个群组的该每一个中的前景像素是否要转换成一背景像素。
本发明的某些实施例亦可提供一种图像处理方法,该方法包括接收包括多个像素的图像图框,执行第一提取,以识别与该图像图框中的前景物件相关的前景像素以及与该图像图框的背景相关的背景像素,分区域扫描该图像图框,识别上述这些区域的每一个是否包括足够数量的前景像素,识别包括足够数量的前景像素的区域至少一个是否包括前景物件,将包括前景物件的该至少一个区域中的一个识别为种子区域,如果该种子区域与该至少一个区域中的一个之间的重叠大于临界值,则将该种子区域与该至少一个区域的该一者群集成一群组,以及针对该群组执行第二提取,以识别该群组中的前景像素是否要转换成一背景像素。
本发明的实施例可进一步提供一种图像处理方法,该方法包括接收包括多个像素的图像图框,执行第一背景减法,以识别与该图像图框中的前景物件相关的前景像素以及与该图像图框的背景相关的背景像素,识别该图像图框的区域是否包括足够数量的前景像素,识别包括一足够数量的前景像素的区域是否包括前景物件,识别在包括一前景物件的至少一个区域中,第一区域与第二区域是否包括相同的前景物件,将包括相同前景物件的该第一区域与该第二区域群集成一群组,以及针对该群组执行第二背景减法,以识别该群组中的前景像素是否要转换成一背景像素。
于下文的说明中将部份提出本发明的其它特点与优点,而且从该说明中将了解本发明其中一部份,或者通过实施本发明亦可习得。通过随附的权利要求书中特别列出的组件与组合将可了解且达成本发明的特点与优点。
应该了解的是,上文的概要说明以及下文的详细说明皆仅供作例示与解释,其并未限制本文所主张的发明。
附图说明
当并同各附图阅览时,即可更佳了解本发明前述摘要以及上文详细说明。为达本发明的说明目的,各附图里图示有现属较佳的各具体实施实施例。当然应了解本发明并不限于所示的精确排置方式及设备装置。
在各附图中:
图1A为说明根据本发明的实施例的前景物件提取方法的流程图;
图1B为说明区域扫描的方法的示意图;
图1C为说明一图像图框的已扫描区域的示意图;
图1D为说明根据本发明的实施例的对象群集方法的流程图;
图1E为图1D所示的方法所群集的群组的示意图;
图1F为一图像图框的群组的示例相片;
图2A为说明根据本发明的另一实施例的前景物件提取方法的流程图;
图2B为说明根据本发明的又一实施例的前景物件提取方法的流程图;以及
图3A与3B为说明公知方法与根据本发明方法的实验结果比较的示意图。
主要元件标记说明
25            图像图框
30            群组
31            中心部份
32            边界部份
33            下部
R1            区域
R2            区域
A、B、C与D    区域
C1至C13       候选区域
G1至G4        群组
具体实施方式
现将详细参照于本发明具体实施实施例,其实施实施例图解在附图中。尽其可能,所有附图中将依相同元件标记以代表相同或类似的部件。
图1A为说明根据本发明之一实施例的前景物件提取方法的流程图。参照图1A,在步骤11中,接收对应于图像图框的图像信息。举例而言,该图像可包括静态图像或移动图像,其可进一步包括多个像素。该图像信息可包括像素的特征值,例如色彩值或灰阶值。在步骤12中,可横跨该图像图框而执行第一提取,以探测背景图像的像素(下称“背景像素”)以及一个或多个前景物件的像素(下称“前景像素”)。为实施该第一提取,可使用公知的技术,例如背景减法、时间差异法或其它适当的方法。作为该背景减法的实施例,用于识别该背景像素与该前景像素的模型可定义如下。
Figure G2007101297782D00051
(等式1)
其中,I(P)指该图像图框中的第P个像素的特征值,例如色彩值或灰阶值,B(P)指背景模型中的第P个像素的特征值,而T1可表示第一临界值。在步骤21中,可通过在该背景减法的学习阶段期间收集不含该前景物件的多个图像或相片而建立背景模型。可预先决定第一临界值T1。根据以上等式1,如果I(P)与B(P)之间的绝对差等于或大于T1,则将像素P识别为该前景像素。否则,将像素P识别为该背景像素。在实施例中,如果D(P)=1,则可通过(例如)公知阴影探测技术或者其它适当的技术来进一步决定识别为该前景像素的像素是否属于对象的阴影。如果探测显示该像素属于阴影,则可使该像素的状态从该前景像素变为该背景像素。
接着,在步骤13中,可分区域扫描该图像图框,以在每个区域中识别其中所含该前景像素(其于步骤12中识别)的数量。可从左到右水平或从上到下垂直地逐个区域扫描该图像图框。图1B为说明区域扫描的方法的示意图。参照图1B,可从左到右水平地分区域扫描图像图框25。在一实施例中,图像图框25可具有320像素×240像素的尺寸,而一区域可具有16像素×32像素的尺寸。而且,正在扫描的区域,例如区域R2,可沿扫描方向与先前扫描的区域R1重叠预定数量的像素,例如两个像素。
图1C为说明图像图框的该已扫描区域的示意图。参照图1C,该图像图框可包括已扫描的区域A、B、C与D。为了计算每一区域A、B、C与D中的前景像素数量,在一实施例中可采用“积分图像”方法。积分图像方法可包括下面提供的迭代运算。
II ( x , y ) = Σ 1 ≤ a ≤ x Σ 1 ≤ b ≤ y f ( a , b )
s(x,y)=s(x,y-1)+f(x,y)
II(x,y)=II(x-1,y)+s(x,y)
{0>s(x,0)=0;and<}0{>s(x,0)=0;以及<0}
II(0,y)=0
其中,f(x,y)可表示包括M×N个像素的图像平面中的点(x,y)处的像素的像素值D(P),其可通过以上等式1决定,其中1≤x≤M且1≤y≤N,M、N为整数,而II(x,y)可表示图像平面的左上角的点(1,1)与右下角的点(x,y)所界定的区域的像素值的总和。在图1B所示的实施例中,区域A可由点(1,1)与点(x1,y1)界定。区域(A+B)可由点(1,1)与点(x2,y1)界定。区域(A+C)可由点(1,1)与点(x1,y2)界定。而且,区域(A+B+C+D)可由点(1,1)与点(x2,y2)界定。因此,区域B可由(A+B)-A表示。区域C可由(A+C)-C表示。而且,区域D可由(A+B+C+D)-(A+B)-(A+C)+A表示。
区域A中的前景像素的数量可由II(x1,y1)的值决定。同样,区域B中的前景像素的数量可由(II(x2,y1)-II(x1,y1))的值决定。区域C中的前景像素的数量可由(II(x1,y2)-II(x1,y1))的值决定。而且,区域D中的前景像素的数量可由(II(x2,y2)-II(x2,y1)-II(x1,y2)+II(x1,y1))的值决定。
再次参照图1A,一旦扫描该图像图框的区域,即可在步骤14中识别已扫描的该区域中是否有足够的该前景像素。在根据本发明的实施例中,可将一已扫描的区域中的该前景像素数量与区域大小(以像素计)之比与第二临界值比较。如果该比率大于或等于第二临界值,则可决定该已扫描的区域中有足够的该前景像素。如果没有足够的该前景像素,则在步骤15中,可决定在该图像图框中是否有另一区域需要扫描。步骤13、14与15可重复,直至已扫描该图像图框的所有区域。
如果在步骤14中识别一已扫描的区域中有足够的该前景像素,则在步骤16中,可识别该前景像素是否包括重要的对象。在一实施例中,可将提升算法(例如Adaboost算法)用于对象探测。Adaboost算法可参见Y.Freund等人之“Experiments with a new boosting algorithm”,InternationalConference on Machine Learning,第148至156页,1996年。Adaboost可指使用贪婪挑选策略的顺序正向搜寻程序,且可包括分多个阶段以迭代方式精细化结果的程序。Adaboost已用于脸部探测与车辆识别等方面。以人脸探测为例,Adaboost可为学习与探测脸部提供级联架构,并允许拒绝临界(Rejection Thresholds)。
在另一实施例中,可使用支持向量机(Support Vector Machine;SVM)算法来识别该前景像素是否包括重要的对象。SVM可包括一类用于分类/回归的学习算法,其对于具有大或小训练集的高维输入数据特别有用。SVM可参见J.Huang、X.Shao与H.Wechsler之“Face posediscrimination using support vector machines(SVM)”,InternationalConference Pattern Recognition会议记录,澳大利亚昆士兰布里斯班,1998年。
在另一实施例中,可在步骤15中使用类神经网络来识别该前景像素是否包括重要的对象。该类神经网络可包括径向基函数(RBF)、广义径向基函数(GRBF)或者其它类神经网络格式。该类神经网络已经由Haykin,S.的“Neural Networks:A Comprehensive Foundation”第二版说明,PrenticeHall,1999年。
如果在步骤16中识别已扫描的区域可能包括重要的对象,则该已扫描的区域可称为“候选区域”。在一实施例中,可为该候选区域指派一分数。分数越大,则该候选区域包括该前景物件的可能性越大。可在步骤17中记录该候选区域的位置。例如,参见图1C,如果将区域A与D识别为该候选区域,则记录点(1,1)与(x2,y2),其可分别用作候选区域A与D的位置。如果步骤16的探测未显示重要的对象,则重复步骤13、14与15。
接着,在记录所有探测到的该候选区域的位置后,在步骤18中,可执行对象群集,以将该候选区域群集成一或多个群组。图1D为说明根据本发明的实施例的对象群集方法的流程图。参照图1D,在步骤181,接收步骤16中所识别的该候选区域。接着,可在步骤182中识别该候选区域中的种子区域。在一实施例中,可将具有最大分数的该候选区域选作该种子区域。如果多个该候选区域具有最大分数,则可将该多个该候选区域的任一候选区域用作该种子区域。
接着,在步骤183中,可识别是否存在其中剩余候选区域,其与该种子区域之间的重叠大于或等于临界值。如果答案是肯定的,则在步骤185中将该种子区域与该候选区域群集成一第一群组。在步骤186中,可识别是否存在另一候选区域,其与该种子区域之间的重叠大于或等于该临界值。如果答案是肯定的,则在步骤187中可将该另一候选区域群集到该第一群组中。步骤186与187可重复,直至将具有与该种子区域的充分重叠的所有该候选区域皆群集到该第一群组中。
如果在步骤183中识别无任何该候选区域与该种子区域具有充分的重叠,则在步骤184中可将该种子区域单独群集到该第一群组中。接着,可在步骤188中识别该剩余候选区域中是否有另一种子区域。而且,将与步骤182中所识别的该种子区域具有充分重叠的所有该候选区域皆群集到该第一群组中时,步骤188之后可执行步骤186。如果有另一种子区域,则可执行类似于步骤183至187的步骤,以将与该另一种子区域具有充分重叠的所有该候选区域皆群集到一第二群组中。步骤183至188可重复,直至将所有该候选区域皆群集到群组中。
图1E为图1D所示的方法所群集的群组的示意图。以图1E为例,在步骤13至17中总共识别十三(13)个候选区域C1至C13。可能已记录每个候选区域C1至C13的位置与分数。在对象群集期间,另请参见图1D,可在步骤182中识别第一种子区域,例如C1。通过执行步骤183、185、186与187而将候选区域C2与C3及C1群集到第一群组G1中。将候选区域C1至C3群集在一起,因为其相互之间具有充分的重叠,因此可能包括实质上相同的对象。在根据本发明的实施例中,该种子区域与该候选区域之间的距离“D”可通过所记录的位置来识别,且可以用于识别该种子区域与该候选区域之间是否有充分的重叠。
可在剩余的候选区域C4至C13中识别第二种子区域,例如C4。可将候选区域C5至C7及C4群集到第二群组G2中,因为其相互之间具有充分的重叠。接着,可在剩余候选区域C8至C13中选择第三种子区域,例如C8。然而,由于所有候选区域C9至C13皆未与第三种子区域C8具有充分的重叠,因此第三群组G3只包括第三种子区域C8。接着,可在剩余的候选区域C9至C13中识别第四种子区域,例如C9。将候选区域C10至C13及C9群集到第四群组G4中。每一群组G1至G4均可能包括前景物件。
再次参照图1A,在步骤18中群集对象之后,可在步骤19中执行第二提取。图1F是步骤18的对象群集之后的该图像图框的群组30的示范性相片。参照图1F,已识别为包括一对象的群组30可包括一中心部份31与一边界部份32。中心部份31(其可以方框包围)比方框外的边界部份32更有可能包括对象。换言之,边界部份32比中心部份31更有可能包括该背景图像。而且,区域30的下部33比上部(未编号)更可能包括阴影。在一实施例中,可使用公知的技术,例如该背景减法、该时间差异法或其它适当的方法,来执行第二提取。以该背景减法为例,假定图像尺寸为320×240个像素,则群组30的尺寸可为16×32至80×160个像素,中心部份31的尺寸可为12×24个像素,而下部33的尺寸可为16×8个像素。而且,在使用该背景减法来执行该第二提取时,对于边界部份32中的像素,可通过使用第三临界值来代替第一临界值T1而修改与等式1相关的模型。而且,对于下部33,可使用第四临界值来代替该第一临界值。由于边界部份32更有可能包括图像的背景部份,并且下部更有可能包括对象的阴影,因此在一实施例中,该第四临界值大于该第三临界值,其进而大于该第一临界值。在另一实施例中,如果在步骤12的该第一提取中识别一像素,则可省去该像素的该第二提取,以节省计算时间。
接着,再次参照图1A,可将该第二提取的输出与该第一提取的输出积分,从而得到该前景物件,以在步骤23中输出。在一实施例中,可通过逻辑“或”运算来实现积分。明确地说,通过该第一提取与该第二提取所获得像素的特征值可相互进行逻辑“或(OR)”运算,以得到前景物件。
在步骤22中,可使用该第二提取的结果来更新步骤21中所建立的该背景模型。在一实施例中,该背景模型的更新的特征值B’(P)可定义如下。
如果像素P被识别为一背景像素且不位于可能包括一对象的至少一部份的区域中,则B’(P)=(1-α)B(P)+αI(P);或
如果像素P被识别为一背景像素且位于可能包括一对象的至少一部份的区域中,则B’(P)=(1-β)B(P)+βI(P);或
如果像素P被识别为一前景像素,则B’(P)=(1-γ)B(P)+γI(P)。
其中,I(P)可指图像中的第P个像素的特征值,例如色彩值或灰阶值,而B(P)可指该背景模型中的第P个像素的特征值。在一实施例中,第一参数α的值大于第二参数β的值,后者进而大于第三参数γ的值。举例而言,α、β与γ的值可分别为约0.012、0.004与0.001。可分别在步骤12与19的该第一与该第二提取阶段期间将已更新的该背景模型B’(P)应用于后续图像。
图2A为说明根据本发明的另一实施例的该前景物件提取方法的流程图。参照图2A,除用于该第二提取的步骤29外,该方法可类似于图1A所示者。步骤12中识别为该前景像素的像素一方面可进入步骤29作第二次提取,另一方面可在该第二提取之前执行步骤13至18。在一实施例中,步骤12与29的该第一提取与该第二提取之结果可分别于步骤27中积分,例如,通过逻辑“或”运算。
图2B为说明根据本发明的另一实施例的该前景物件提取方法的流程图。参照图2B,除用于积分的步骤37外,该方法可类似于图2A所示者。步骤12中识别为该前景像素的像素一方面可进入步骤29作第二次提取,另一方面可在该第二提取的前执行步骤13至18。接着,可于步骤37中将该第一提取与该第二提取的结果相互积分。
图3A与3B为说明公知方法与根据本发明的方法的实验结果比较的示意图。为了执行上述这些实验,可拍摄一系列相片,例如约150张相片,其中约30张不含前景物件的相片可用于建立背景模型,且可将剩余120张相片用于前景物件提取。可借助计算机来执行上述这些实验,该计算机具有系统平台,例如Windows 2000 XP,以及开发者工具,例如Visual C++ 6.0,其可运行于中央处理单元(CPU)上,例如与512MB随机存取内存(RAM)相关联的2-GHz Pentium M处理器。
参照图3A,对于(a)行所示的一组相片,(b)与(c)行分别显示了通过公知该背景减法与根据本发明的方法来执行该前景物件提取的结果。与(c)行中所示者相比,(b)行中所示的该组相片可能系散乱或破碎的。
参照图3B,对于(a)行所示的一组相片,(b)与(c)行分别显示了通过公知该背景减法与根据本发明的方法来执行该前景物件提取的结果。与(c)行中所示者相比,(b)行中所示的该组相片可能系散乱或破碎的。换言之,与公知该背景减法相比,根据本发明的方法可提供改善的提取质量。
所属技术领域的技术人员应即了解可对上述各项具体实施实施例进行变化,而不致悖离其广义的发明性概念。因此,应了解本发明并不限于本披露的特定具体实施例,而为涵盖归属如后载各权利要求所定义的本发明精神及范围内的修饰。
另外,在说明本发明的某些解说性实施例时,本说明书可将本发明的方法及/或制程表示为一特定的步骤次序,不过,由于该方法或制程的范围并不为本文所提出的特定的步骤次序,故该方法或制程不应受限于所述的特定步骤次序。身为所属技术领域的技术人员当会了解其它步骤次序也是可行的。所以,不应将本说明书所提出的特定步骤次序视为对权利要求的限制。此外,亦不应将有关本发明的方法及/或制程的权利要求仅限制在以书面所载的步骤次序的实施,所属技术领域的技术人员易于了解,上述这些次序亦可加以改变,并且仍涵盖于本发明的精神与范畴之内。

Claims (30)

1.一种图像处理的方法,该方法包含:
接收包含多个像素的图像图框,上述多个像素的每一个皆包括一图像信息;
根据上述图像信息执行第一提取,以识别与上述图像图框中的前景物件相关的前景像素及与上述图像图框的背景相关的背景像素;
分区域扫描上述图像图框;
识别上述区域的每一个是否包含足够数量的前景像素;
识别包括足够数量的前景像素的每一区域是否包括前景物件;
将包括前景物件的区域群集成至少一个群组,上述至少一个群组的每一群组均对应于上述图像图框中的不同前景物件;以及
针对上述至少一个群组的每一群组执行第二提取,以识别上述至少一个群组的每一群组中的前景像素是否要转换成背景像素。
2.根据权利要求1所述的方法,其特征在于执行上述第一提取包含应用背景减法技术与时间差异技术中的一个。
3.根据权利要求2所述的方法,其特征在于执行上述第一提取包含使用背景减法技术来识别与上述图像图框中的前景物件相关的前景像素以及与上述图像图框的背景相关的背景像素。
4.根据权利要求1所述的方法,其特征在于识别每一个上述区域是否包含足够数量的前景像素包含使用迭代运算。
5.根据权利要求1所述的方法,其特征在于识别包含足够数量的前景像素的每一区域是否包含前景物件包含使用Adaboost算法、支持向量机算法与类神经网络中的一种。
6.根据权利要求1所述的方法,其特征在于执行上述第二提取包含使用背景减法技术与时间差异技术中的一种。
7.根据权利要求1所述的方法,其特征在于执行上述第一提取包含应用第一背景减法技术,而执行上述第二提取包含应用第二背景减法技术。
8.根据权利要求7所述的方法,其特征在于上述第一背景减法技术使用第一临界值,而上述第二背景减法技术则使用第二临界值。
9.根据权利要求8所述的方法,其特征在于上述第一临界值大于上述第二临界值。
10.根据权利要求7所述的方法,其特征在于上述至少一个群组的每一个均包含中心部份与边界部份,上述方法还包含:
在执行上述第二提取时将第三临界值用于上述中心部份;以及
在执行上述第二提取时将第四临界值用于上述边界部份,上述第四临界值大于上述第三临界值。
11.根据权利要求7所述的方法,其特征在于上述至少一个群组的每一个均包含中心部份与下部,上述方法还包含:
在执行上述第二提取时将第三临界值用于上述中心部份;以及
在执行上述第二提取时将第四临界值用于上述下部,上述第四临界值大于上述第三临界值。
12.根据权利要求7所述的方法,其特征在于上述至少一个群组的每一个均包含中心部份、边界部份与下部,上述方法还包含:
在执行上述第二提取时将第三临界值用于上述中心部份;
在执行上述第二提取时将第四临界值用于上述边界部份;以及
在执行上述第二提取时将第五临界值用于上述下部,上述第五临界值大于上述第四临界值,而上述第四临界值大于上述第三临界值。
13.根据权利要求1所述的方法,其特征在于还包含为包含一前景物件的每一个上述区域指派一分数。
14.根据权利要求1所述的方法,其特征在于还包含记录包括一前景物件的每一个上述区域的位置。
15.根据权利要求1所述的方法,其特征在于将包含前景物件的区域群集成至少一个群组包括:
将包括前景物件的上述区域中的一个识别为种子区域;
识别上述种子区域与其以外的剩余区域中的一个之间的重叠是否大于预定值;以及
如果上述重叠大于上述预定值,则将上述种子区域与上述剩余区域中的上述一个群集成一群组。
16.一种图像处理的方法,其特征在于上述方法包含:
接收包含多个像素的图像图框;
执行第一提取,以识别与上述图像图框中的前景物件相关的前景像素及与上述图像图框的背景相关的背景像素;
分区域扫描上述图像图框;
识别每一个上述区域是否包含足够数量的前景像素;
识别包含足够数量的前景像素的每一区域是否包含前景物件;
将包含前景物件的至少一个区域中的一个识别为种子区域;
如果上述种子区域与包含前景物件的至少一个区域中的一个之间的重叠大于临界值,则将上述种子区域与上述至少一个区域中的上述一个群集成一群组;以及
针对上述群组执行第二提取,以识别上述群组中的前景像素是否要转换成一背景像素。
17.根据权利要求16所述的方法,其特征在于还包含针对通过上述第一提取与上述第二提取所获得的前景像素执行逻辑或运算。
18.根据权利要求16所述的方法,其特征在于执行上述第一提取包含使用第一背景减法技术,而执行上述第二提取则使用第二背景减法技术。
19.根据权利要求18所述的方法,其特征在于上述第一背景减法技术使用第一临界值,而上述第二背景减法技术则使用第二临界值。
20.根据权利要求19所述的方法,其特征在于上述第一临界值大于上述第二临界值。
21.根据权利要求18所述的方法,其特征在于上述群组包含中心部份与边界部份,上述方法还包含:
在执行上述第二提取时将第三临界值用于上述中心部份;以及
在执行上述第二提取时将第四临界值用于上述边界部份,上述第四临界值大于上述第三临界值。
22.根据权利要求18所述的方法,其特征在于上述群组包括中心部份与下部,上述方法还包含:
在执行上述第二提取时将第三临界值用于上述中心部份;以及
在执行上述第二提取时将第四临界值用于上述下部,上述第四临界值大于上述第三临界值。
23.根据权利要求18所述的方法,其特征在于上述群组包括中心部份、边界部份与下部,上述方法还包含:
在执行上述第二提取时将第三临界值用于上述中心部份;
在执行上述第二提取时将第四临界值用于上述边界部份;以及
在执行上述第二提取时将第五临界值用于上述下部,上述第五临界值大于上述第四临界值,而上述第四临界值大于上述第三临界值。
24.一种图像处理的方法,其特征在于上述方法包含:
接收包含多个像素的图像图框;
执行第一背景减法,以识别与上述图像图框中的前景物件相关的前景像素及与上述图像图框的背景相关的背景像素;
分区域扫描上述图像图框,识别每一个上述区域是否包含足够数量的前景像素;
识别包括足够数量的前景像素的区域是否包括前景物件;
识别在包括前景物件的至少一个区域中,第一区域与第二区域是否包括相同的前景物件;
将包括相同前景物件的上述第一区域与上述第二区域群集成一群组;以及
针对上述群组执行第二背景减法,以识别上述群组中的前景像素是否要转换成一背景像素。
25.根据权利要求24所述的方法,其特征在于还包含建立用于上述第一背景减法的第一背景模型与用于上述第二背景减法的第二背景模型。
26.根据权利要求25所述的方法,其特征在于上述第一背景模型包含第一临界值,而上述第二背景模型则包含第二临界值,上述第一临界值大于上述第二临界值。
27.根据权利要求24所述的方法,其特征在于还包含:
将一分数指派给包含前景物件的区域;以及
记录包含上述前景物件的上述区域的位置。
28.根据权利要求25所述的方法,其特征在于还包含以一第一参数更新上述第一背景模型与上述第二背景模型中的一个,上述第一参数满足:
如果像素P被识别为背景像素且不位于包含对象的至少一部份的区域中,则B’(P)=(1-α)B(P)+αI(P),
其中B’(P)为上述第一背景模型与上述第二背景模型之一中的第P个像素的已更新值,I(P)为上述图像图框中的第P个像素的值,而B(P)为上述第一背景模型与上述第二背景模型之一中的上述第P个像素的值。
29.根据权利要求25所述的方法,其特征在于还包含以第二参数更新上述第一背景模型与上述第二背景模型之一,上述第二参数满足:
如果像素P被识别为一背景像素且位于包含对象的至少一部份的区域中,则B’(P)=(1-β)B(P)+βI(P),
其中B’(P)为上述第一背景模型与上述第二背景模型之一中的第P个像素的已更新值,I(P)为上述图像图框中的第P个像素的值,而B(P)为上述第一背景模型与上述第二背景模型之一中的上述第P个像素的值。
30.根据权利要求25所述的方法,其特征在于还包含以一第三参数更新上述第一背景模型与上述第二背景模型中的一个,上述第三参数满足:
如果像素P被识别为前景像素,则B’(P)=(1-γ)B(P)+γI(P),
其中B’(P)为上述第一背景模型与上述第二背景模型之一中的第P个像素的已更新值,I(P)为上述图像图框中的第P个像素的值,而B(P)为上述第一背景模型与上述第二背景模型之一中的上述第P个像素的值。
CN2007101297782A 2007-04-02 2007-07-25 图像处理方法 Active CN101282461B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/695,573 US7929729B2 (en) 2007-04-02 2007-04-02 Image processing methods
US11/695,573 2007-04-02

Publications (2)

Publication Number Publication Date
CN101282461A CN101282461A (zh) 2008-10-08
CN101282461B true CN101282461B (zh) 2010-06-02

Family

ID=39794433

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2007101297782A Active CN101282461B (zh) 2007-04-02 2007-07-25 图像处理方法

Country Status (3)

Country Link
US (1) US7929729B2 (zh)
CN (1) CN101282461B (zh)
TW (1) TWI340930B (zh)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7733369B2 (en) * 2004-09-28 2010-06-08 Objectvideo, Inc. View handling in video surveillance systems
CN101622652B (zh) 2007-02-08 2012-03-21 行为识别系统公司 行为识别系统
US8041116B2 (en) * 2007-09-27 2011-10-18 Behavioral Recognition Systems, Inc. Identifying stale background pixels in a video analysis system
US8300924B2 (en) * 2007-09-27 2012-10-30 Behavioral Recognition Systems, Inc. Tracker component for behavioral recognition system
US8200011B2 (en) 2007-09-27 2012-06-12 Behavioral Recognition Systems, Inc. Context processor for video analysis system
TWI382360B (zh) * 2008-08-01 2013-01-11 Univ Nat Taiwan Science Tech 物件偵測方法及其裝置
US9202137B2 (en) * 2008-11-13 2015-12-01 Google Inc. Foreground object detection from multiple images
CN102103751B (zh) * 2009-12-18 2012-12-19 华为技术有限公司 前景图像提取方法及装置
JP5704863B2 (ja) * 2010-08-26 2015-04-22 キヤノン株式会社 画像処理装置、画像処理方法及び記憶媒体
US8760517B2 (en) 2010-09-27 2014-06-24 Apple Inc. Polarized images for security
JP2012133759A (ja) * 2010-11-29 2012-07-12 Canon Inc 侵入物体の検知を行うことができる物体追尾装置、物体追尾方法及び記憶媒体
US8773535B2 (en) * 2010-12-08 2014-07-08 GM Global Technology Operations LLC Adaptation for clear path detection using reliable local model updating
US8681222B2 (en) * 2010-12-08 2014-03-25 GM Global Technology Operations LLC Adaptation for clear path detection with additional classifiers
JP5756322B2 (ja) * 2011-04-08 2015-07-29 任天堂株式会社 情報処理プログラム、情報処理方法、情報処理装置および情報処理システム
KR101660215B1 (ko) * 2011-05-12 2016-09-26 애플 인크. 존재 감지
US20120287031A1 (en) 2011-05-12 2012-11-15 Apple Inc. Presence sensing
KR101870902B1 (ko) * 2011-12-12 2018-06-26 삼성전자주식회사 영상 처리 장치 및 영상 처리 방법
EP2798832A4 (en) * 2011-12-30 2016-02-24 Intel Corp OBJECT DETECTION BY MEANS OF MOTION ESTIMATION
US9466121B2 (en) * 2012-09-11 2016-10-11 Qualcomm Incorporated Devices and methods for augmented reality applications
JP6490441B2 (ja) * 2015-02-12 2019-03-27 株式会社東芝 画像評価装置、画像評価方法およびプログラム
CN104680542B (zh) * 2015-03-15 2017-10-24 西安电子科技大学 基于在线学习的遥感影像变化检测方法
TWI759286B (zh) * 2016-03-17 2022-04-01 加拿大商艾維吉隆股份有限公司 用於藉由機器學習訓練物件分類器之系統及方法
CN107481270B (zh) * 2017-08-10 2020-05-19 上海体育学院 乒乓球目标跟踪和轨迹预测方法、装置、存储介质和计算机设备
US10817594B2 (en) 2017-09-28 2020-10-27 Apple Inc. Wearable electronic device having a light field camera usable to perform bioauthentication from a dorsal side of a forearm near a wrist
US10776628B2 (en) * 2017-10-06 2020-09-15 Qualcomm Incorporated Video action localization from proposal-attention
CN108022250B (zh) * 2017-12-19 2021-04-06 北京奇虎科技有限公司 基于自适应阈值分割的自动驾驶处理方法及装置
CN108109161B (zh) * 2017-12-19 2021-05-11 北京奇虎科技有限公司 基于自适应阈值分割的视频数据实时处理方法及装置
CN108109158B (zh) * 2017-12-19 2021-06-15 北京奇虎科技有限公司 基于自适应阈值分割的视频穿越处理方法及装置
CN107945201B (zh) * 2017-12-19 2021-07-23 北京奇虎科技有限公司 基于自适应阈值分割的视频风景处理方法及装置
CN107945202B (zh) * 2017-12-19 2021-07-23 北京奇虎科技有限公司 基于自适应阈值的图像分割方法、装置及计算设备
CN108010039B (zh) * 2017-12-19 2021-04-06 北京奇虎科技有限公司 基于自适应阈值分割的视频人物装扮方法及装置
CN108010038B (zh) * 2017-12-19 2021-07-23 北京奇虎科技有限公司 基于自适应阈值分割的直播服饰装扮方法及装置
CN108171716B (zh) * 2017-12-25 2021-11-26 北京奇虎科技有限公司 基于自适应跟踪框分割的视频人物装扮方法及装置
CN109684980B (zh) * 2018-09-19 2022-12-13 腾讯科技(深圳)有限公司 自动阅卷方法及装置
EP3800615A1 (en) * 2019-10-01 2021-04-07 Axis AB Method and device for image analysis
JP7446756B2 (ja) * 2019-10-02 2024-03-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN111444359B (zh) * 2020-04-15 2023-09-15 西安超嗨网络科技有限公司 一种关于图像差分识别放入行为的方法
US11734837B2 (en) * 2020-09-30 2023-08-22 Shanghai United Imaging Intelligence Co., Ltd. Systems and methods for motion estimation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1458628A (zh) * 2002-04-25 2003-11-26 微软公司 采用掩码便于文档图像压缩的系统和方法
CN1799066A (zh) * 2001-11-19 2006-07-05 皇家飞利浦电子股份有限公司 使用概率框架的基于块的分析的计算机视觉方法及系统
CN1875378A (zh) * 2003-11-12 2006-12-06 英国电讯有限公司 图像中的对象检测
CN1984236A (zh) * 2005-12-14 2007-06-20 浙江工业大学 一种交通流信息视频检测中的特征采集方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6985172B1 (en) * 1995-12-01 2006-01-10 Southwest Research Institute Model-based incident detection system with motion classification
US6232641B1 (en) * 1998-05-29 2001-05-15 Kabushiki Kaisha Toshiba Semiconductor apparatus having elevated source and drain structure and manufacturing method therefor
US6235568B1 (en) * 1999-01-22 2001-05-22 Intel Corporation Semiconductor device having deposited silicon regions and a method of fabrication
US6432318B1 (en) * 2000-02-17 2002-08-13 Applied Materials, Inc. Dielectric etch process reducing striations and maintaining critical dimensions
US7035430B2 (en) 2000-10-31 2006-04-25 Hitachi Kokusai Electric Inc. Intruding object detection method and intruding object monitor apparatus which automatically set a threshold for object detection
US7110569B2 (en) * 2001-09-27 2006-09-19 Koninklijke Philips Electronics N.V. Video based detection of fall-down and other events
US6950123B2 (en) 2002-03-22 2005-09-27 Intel Corporation Method for simultaneous visual tracking of multiple bodies in a closed structured environment
US6713350B2 (en) * 2002-08-07 2004-03-30 Micron Technology, Inc. Method to remove an oxide seam along gate stack edge, when nitride space formation begins with an oxide liner surrounding gate stack
US7227893B1 (en) * 2002-08-22 2007-06-05 Xlabs Holdings, Llc Application-specific object-based segmentation and recognition system
US7394916B2 (en) 2003-02-10 2008-07-01 Activeye, Inc. Linking tracked objects that undergo temporary occlusion
US7280673B2 (en) * 2003-10-10 2007-10-09 Intellivid Corporation System and method for searching for changes in surveillance video
US7176522B2 (en) * 2003-11-25 2007-02-13 Taiwan Semiconductor Manufacturing Company, Ltd. Semiconductor device having high drive current and method of manufacturing thereof
US7018891B2 (en) * 2003-12-16 2006-03-28 International Business Machines Corporation Ultra-thin Si channel CMOS with improved series resistance
KR100568237B1 (ko) * 2004-06-10 2006-04-07 삼성전자주식회사 비디오 영상으로부터 이동 물체를 추출하는 장치 및 방법
WO2006097681A1 (en) * 2005-03-17 2006-09-21 British Telecommunications Public Limited Company Method of tracking objects in a video sequence
US7787011B2 (en) * 2005-09-07 2010-08-31 Fuji Xerox Co., Ltd. System and method for analyzing and monitoring 3-D video streams from multiple cameras

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1799066A (zh) * 2001-11-19 2006-07-05 皇家飞利浦电子股份有限公司 使用概率框架的基于块的分析的计算机视觉方法及系统
CN1458628A (zh) * 2002-04-25 2003-11-26 微软公司 采用掩码便于文档图像压缩的系统和方法
CN1875378A (zh) * 2003-11-12 2006-12-06 英国电讯有限公司 图像中的对象检测
CN1984236A (zh) * 2005-12-14 2007-06-20 浙江工业大学 一种交通流信息视频检测中的特征采集方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JP特开2002-190012A 2002.07.05

Also Published As

Publication number Publication date
TW200841276A (en) 2008-10-16
US20080240500A1 (en) 2008-10-02
US7929729B2 (en) 2011-04-19
CN101282461A (zh) 2008-10-08
TWI340930B (en) 2011-04-21

Similar Documents

Publication Publication Date Title
CN101282461B (zh) 图像处理方法
CN104166841B (zh) 一种视频监控网络中指定行人或车辆的快速检测识别方法
Kang et al. Extended random walker for shadow detection in very high resolution remote sensing images
CN106529499A (zh) 基于傅里叶描述子和步态能量图融合特征的步态识别方法
CN110188635A (zh) 一种基于注意力机制和多层次卷积特征的植物病虫害识别方法
CN102799854B (zh) 图像识别装置以及图像识别方法
JP6351240B2 (ja) 画像処理装置、画像処理方法及びプログラム
Zhang et al. Curriculum-style local-to-global adaptation for cross-domain remote sensing image segmentation
CN104978567B (zh) 基于场景分类的车辆检测方法
AU2014277853A1 (en) Object re-identification using self-dissimilarity
Björklund et al. Automatic license plate recognition with convolutional neural networks trained on synthetic data
CN101551852B (zh) 训练系统、训练方法和检测方法
CN106548169A (zh) 基于深度神经网络的模糊文字增强方法及装置
CN114783003A (zh) 一种基于局部特征注意力的行人重识别方法和装置
CN113052170A (zh) 一种无约束场景下的小目标车牌识别方法
CN114548208A (zh) 一种基于YOLOv5改进的植物种子实时分类检测方法
CN112580480A (zh) 一种高光谱遥感影像分类方法及装置
CN111274964B (zh) 一种基于无人机视觉显著性分析水面污染物的检测方法
CN110348366B (zh) 一种自动化最优人脸搜索方法及装置
CN111507416A (zh) 一种基于深度学习的吸烟行为实时检测方法
Saha et al. Unsupervised deep learning based change detection in Sentinel-2 images
CN104008374B (zh) 一种矿井图像中基于条件随机场的矿工检测方法
CN106228553A (zh) 高分辨率遥感图像阴影检测装置与方法
CN102129569A (zh) 基于多尺度对比特征的对象检测设备和方法
CN111402185B (zh) 一种图像检测方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant