CN109767453A - 信息处理装置、背景图像更新方法和非暂态计算机可读存储介质 - Google Patents
信息处理装置、背景图像更新方法和非暂态计算机可读存储介质 Download PDFInfo
- Publication number
- CN109767453A CN109767453A CN201811313126.9A CN201811313126A CN109767453A CN 109767453 A CN109767453 A CN 109767453A CN 201811313126 A CN201811313126 A CN 201811313126A CN 109767453 A CN109767453 A CN 109767453A
- Authority
- CN
- China
- Prior art keywords
- mobile object
- unit
- background
- image
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003860 storage Methods 0.000 title claims abstract description 49
- 230000010365 information processing Effects 0.000 title claims abstract description 25
- 238000000034 method Methods 0.000 title claims abstract description 11
- 230000001052 transient effect Effects 0.000 title claims abstract description 5
- 238000012545 processing Methods 0.000 claims abstract description 39
- 230000000670 limiting effect Effects 0.000 claims abstract description 5
- 238000001514 detection method Methods 0.000 claims description 82
- 238000000605 extraction Methods 0.000 claims description 21
- 239000000284 extract Substances 0.000 claims description 12
- 238000012937 correction Methods 0.000 claims description 4
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 238000007689 inspection Methods 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 22
- 230000003321 amplification Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000003199 nucleic acid amplification method Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000003702 image correction Methods 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- 230000007717 exclusion Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000002045 lasting effect Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20012—Locally adaptive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
公开了一种信息处理装置、背景图像更新方法以及非暂态计算机可读存储介质。信息处理装置包括存储器以及耦接至存储器的处理器,并且该处理器被配置成执行处理,该处理包括:基于运动图像中的多个帧彼此之间的比较的结果提取与所述多个帧中包括的移动对象对应的移动对象区域;在多个帧之中追踪移动对象区域的位置;针对多个帧中的每一个将除了其位置移动超过限定时间段的移动对象区域之外的图像区域确定为背景区域;以及基于确定的结果更新运动图像的背景图像。
Description
技术领域
本文讨论的实施方式涉及信息处理装置、背景图像更新方法和非暂态计算机可读存储介质。
背景技术
迄今为止,背景差分法被认为是从由摄像机捕获的运动图像检测作为前景出现的移动对象的方法。在背景差分法中,从由摄像机捕获的运动图像检测不包括要检测的对象的背景图像(也被称为背景模型)并且存储该背景图像。从由摄像机捕获的运动图像获得背景图像的差异,从而检测移动对象出现的图像区域。
作为用于检测要被用于背景差分法的背景图像的技术,已知使用预定透过率来控制监测图像中的每个区域的像素值并且依次更新与背景图像对应的区域的像素值的技术。已知增加除了被确定为处于移动对象区域中的像素之外的像素的计数值并且更新具有已经达到预定值的计数值的像素的背景图像数据的技术。已知以下技术:通过对作为前景连续出现的次数进行计数将具有变得等于或高于用于确定静止的预定阈值的静止时间的部分确定为静止区域,并且创建被确定为静止区域的区域的新背景模型。
[相关领域技术文献]
[专利文献]
[专利文献1]日本公开特许公报第2013-152669号。
[专利文献2]日本公开特许公报第2003-123074号。
[专利文献3]日本公开特许公报第2010-15469号。
发明内容
鉴于前述内容,本公开内容的目的是抑制对包括在背景图像中的移动对象的检测。
根据实施方式的一个方面,一种信息处理装置包括存储器以及耦接至存储器的处理器,并且该处理器被配置成执行处理,该处理包括:基于运动图像中的多个帧彼此之间的比较的结果提取与运动图像中的多个帧中包括的移动对象对应的移动对象区域;在多个帧之中追踪移动对象区域的位置;针对多个帧中的每一个将除了其位置移动超过限定时间段的移动对象区域之外的图像区域确定为背景区域;以及基于确定的结果更新运动图像的背景图像。
附图说明
图1是示出根据第一实施方式的检测设备的功能配置的示例的框图。
图2是说明背景区域的确定的说明图。
图3是说明已经更新的背景图像的说明图。
图4是说明根据第一实施方式的系统配置的示例的说明图。
图5是示出根据第一实施方式的系统的功能配置的示例的框图。
图6是示出根据第一实施方式的系统的操作的示例的流程图。
图7是说明根据第二实施方式的系统配置的示例的说明图。
图8是示出根据第二实施方式的系统的功能配置的示例的框图。
图9A和图9B是示出根据第二实施方式的系统的操作的示例的流程图。
图10是说明振动指令的确定的说明图。
图11是说明根据第三实施方式的系统配置的示例的说明图。
图12是示出根据第三实施方式的系统的功能配置的示例的框图。
图13A和图13B是示出根据第三实施方式的系统的操作的示例的流程图。
图14是示出根据实施方式的检测设备的硬件配置的示例的框图。
具体实施方式
然而,在上述相关技术中,例如,存在以下问题:如果出现在由摄像机捕获的运动图像中的移动对象在一定时间段内停止移动,则检测到其中移动对象就像阴影一样出现的背景图像。
根据一个方面,目的是抑制对包括在背景图像中的移动对象的检测。
在下面,将参照附图给出对根据实施方式的信息处理装置、背景更新方法以及背景更新程序的描述。在实施方式中,对具有相同功能的部件给出相同附图标记,并且将省略冗余的描述。在以下实施方式中描述的信息处理装置、背景更新方法和背景更新程序仅是示例,并且不限制实施方式。下面描述的每个实施方式可以在不会引起不一致的范围内适当地组合。
(第一实施方式)
图1是示出根据第一实施方式的检测设备的功能配置的示例的框图。如图1中所示,将由摄像机2捕获的运动图像输入到检测设备1。检测设备1包括背景检测单元10,背景检测单元10从输入的运动图像检测与除了作为前景出现的移动对象之外的背景对应的背景图像3。检测设备1是对运动图像执行图像处理的信息处理装置,并且例如可以采用PC(个人计算机)、智能电话、平板终端等。
背景图像3是与用于通过背景差分法检测其中移动对象出现的图像区域的背景对应的也被称为背景模型的图像数据,并且例如是指示与背景对应的图像区域的每个像素的包括亮度值等的像素值的图像数据。在背景差分法中,通过从由摄像机2捕获的运动图像获得背景图像3的差异,可以检测其中移动对象出现的图像区域。
背景检测单元10包括移动对象区域提取单元11、移动对象区域保存单元12、移动对象区域追踪单元13、背景区域确定单元14、背景更新单元15和背景保存单元16。
移动对象区域提取单元11基于由摄像机2输入的运动图像的前一帧与后一帧的比较的结果提取移动对象区域,该移动对象区域是与每一帧中出现的移动对象对应的图像区域。也就是说,移动对象区域提取单元11是提取单元的示例。
移动对象区域保存单元12保存由移动对象区域提取单元11提取的移动对象区域。具体地,移动对象区域保存单元12提取并保存由移动对象区域提取单元11从帧提取的移动对象区域中的像素。
移动对象区域追踪单元13参考保存在移动对象区域保存单元12中的移动对象区域,以基于由移动对象区域提取单元11提取的移动对象区域与运动图像的每一帧之间的相关性来在帧之间追踪移动对象区域的位置。也就是说,移动对象区域追踪单元13是追踪单元的示例。
背景区域确定单元14将每一帧的除了由移动对象区域提取单元11提取的移动对象区域之外的背景区域确定为由摄像机2捕获的运动图像的每一帧中的图像区域。如果帧中包括具有由移动对象区域追踪单元13追踪的位置的移动对象区域,则背景区域确定单元14将除了该移动对象区域之外的图像区域确定为每一帧的背景区域。也就是说,背景区域确定单元14是确定单元的示例。
图2是说明背景区域的确定的说明图。在图2中,运动图像G1是由摄像机2捕获并输入到背景检测单元10中的运动图像。相关性信息G2是通过计算运动图像G1的前一帧与后一帧的亮度值的相关性而获得的信息。
如图2中所示,如果包括在运动图像G1的前一帧和后一帧中移动的移动对象,则在相关性信息G2中与移动对象对应的区域R1的相关性变低。
因此,移动对象区域提取单元11根据要处理的帧与前一帧的相关性信息G2获得具有低相关性的区域R1作为包括移动对象的候选区域。移动对象区域提取单元11在所获得的区域R1中提取在亮度值上与要处理的帧具有高相关性的区域R2作为与移动对象对应的移动对象区域。由此,背景区域确定单元14将除了与具有运动的移动对象对应地提取的区域R2之外的图像区域确定为背景区域。
在移动对象如在“帧t-1”和之后中那样停止移动的情况下,根据相关性信息G2未获得具有低相关性的区域R1,移动对象区域提取单元11不提取移动对象区域。
为了应对移动对象的这样的静止,移动对象区域追踪单元13基于移动对象区域保存单元12中保存的移动对象区域即区域R2与运动图像G1的每一帧之间的相关性在帧之中追踪移动对象区域的位置。具体地,移动对象区域追踪单元13在运动图像G1的每一帧中追踪与区域R2具有高相关性的位置。
例如,在图2的示例中,尽管移动对象在“帧t-1”和之后的帧中处于静止,但是移动对象区域追踪单元13基于与直到前一帧获得的区域R2的相关性追踪与已经停止的移动对象对应的区域R3的位置。由此,在已经由移动对象区域追踪单元13追踪其位置的区域R3保留在帧中的情况下,背景区域确定单元14将除了区域R3之外的图像区域确定为背景区域。
背景更新单元15基于由背景区域确定单元14确定的每一帧中的背景区域来检测由摄像机2捕获的运动图像的每一帧中的背景图像3。也就是说,例如,背景更新单元15是背景检测单元的示例。
具体地,例如,背景更新单元15基于由背景区域确定单元14确定的背景区域将要处理的帧的背景区域中的像素值(例如,亮度值)乘以预定值。由此,背景更新单元15从要处理的帧检测与背景区域对应的背景图像。
接下来,背景更新单元15从保存直到要处理的帧的前一帧检测到的背景图像的背景保存单元16读取背景图像,并且与从要处理的帧检测到的背景图像进行相加。由此,背景更新单元15将由背景保存单元16保存的背景图像更新为直到要处理的帧的背景图像。接下来,背景更新单元15输出更新后的背景图像作为背景图像3。
图3是说明已经更新的背景图像的说明图。在图3中,运动图像G1是从帧外移入的商店员工H在收银机处工作的场景。如果将除了由移动对象区域提取单元11提取的移动对象区域之外的图像区域确定为背景区域,则未从处于静止状态和之后的帧中提取到移动对象区域,并且因此与在收银机处的停止移动的商店员工H对应的阴影H'有时被包括在背景图像3'中。以这种方式,如果使用其中移动对象(商店员工H)作为阴影出现的背景图像3'执行背景差分法,则引起移动对象的检测准确度的降低。
相反,在已经由移动对象区域追踪单元13追踪其位置的移动对象区域保留在帧中的情况下,如果将除了该移动对象区域之外的图像区域确定为背景区域,则除了已经停止在收银机前方的商店员工H之外的图像区域被确定为背景区域。因此,可以获得不包括商店员工H的背景图像3。
例示了上述设备1被应用于监视在商店员工照顾顾客时的顾客接待的系统的情况,并且将给出对由检测设备1执行的处理的详细信息的描述。
图4是说明根据第一实施方式的系统配置的示例的说明图。如图4中所示,摄像机2捕获在顾客H1和商店员工H2的顾客接待场景下的商店员工H2的运动图像,并且将捕获的运动图像输出至上司H3的终端设备1a。
终端设备1a是信息处理装置例如应用上述检测设备1的PC等,并且从由摄像机2捕获的运动图像检测背景图像。终端设备1a基于检测到的背景图像通过背景差分法检测商店员工H2在顾客接待时的运动,评估商店员工H2对顾客H1的顾客接待,并且向显示器等显示评估结果。由此,上司H3可以检查商店员工H2的顾客接待。
图5是示出根据第一实施方式的系统的功能配置的示例的框图。如图5中所示,终端设备1a包括背景检测单元10a、背景差分处理单元20、面部检测单元21、运动计算单元22、点头检测单元23、接待质量评估单元24、数据处理单元25和输出单元26。
背景检测单元10a包括移动对象区域提取单元11、移动对象区域保存单元12、移动对象区域追踪单元13、背景区域确定单元14、背景更新单元15、背景保存单元16和运动保存单元17。
移动对象区域提取单元11包括移动对象区域候选提取单元11a、特征点提取单元11b、内区域特征点提取单元11c、移动对象区域候选运动计算单元11d和移动对象区域确定单元11e。
移动对象区域候选提取单元11a基于前一帧与后一帧的相关性来提取移动对象区域的候选。具体地,例如,如由下面的表达式(1)所示的,移动对象区域候选提取单元11a获得具有比要处理的帧与前一帧之间的相关性信息G2的相关性低的相关性的区域R1作为在要处理的帧中的移动对象区域候选。
[表达式1]
∑m=-M,…,M,n=-N,…,N|G(t,x+m,y+n)-G(t+1,x+m,y+n)|>T1…(1)
在表达式(1)中,t是与帧有关的时间,并且G(t,x,y)是在时间(t)处的帧中的像素(x,y)。阈值T1是预先设置的用于确定相关值的阈值。移动对象区域候选提取单元11a获得满足表达式(1)的像素点(x,y)的集合C即移动对象区域候选。
特征点提取单元11b从由移动对象区域候选提取单元11a提取的当前时间(t)处的移动对象区域候选提取图像中的特征点。例如,特征点提取单元11b提取满足以下表达式(2)中的四个表达式中的两个或更多个表达式的点(x,y)∈C作为特征点。阈值T2是预先设置的用于确定特征点的阈值。
由此,特征点提取单元11b提取在附近存在具有不同方向的两个或更多个突出边缘的点作为特征点。作为满足表达式(2)中的四个表达式中的两个或更多个表达式的点被提取的点(x,y)∈C的集合被假设为P。
[表达式2]
内区域特征点提取单元11c基于由特征点提取单元11b提取的特征点提取在下一时间(t+1)处的移动对象区域候选中的特征点作为内区域特征点。具体地,内区域特征点提取单元11c针对在下一时间(t+1)处的帧中的移动对象区域候选中的点中的每个特征点在附近搜索在亮度上具有特定值或更高值的相关性的点,并且将搜索到的点确定为内区域特征点。
例如,假设点(k,l)∈C,内区域特征点提取单元11c获得满足以下表达式(3)的点(x,y)∈P作为内区域特征点。假设阈值T3是预先设置的用于确定相关性的高度的阈值。所获得的点的集合被假设为P'。在下一时间(t+1)处的内区域特征点的集合被假设为C'。
[表达式3]
∑m=-M,…,M,n=-N,…,N|G(t,x+m,y+n)-G(t+1,k+m,I+n)|<T3…(3)
移动对象区域候选运动计算单元11d针对每个内区域特征点通过从目的地位置减去移动之前的位置来获得运动,计算所获得的运动的平均值作为移动对象区域候选的运动。具体地,移动对象区域候选运动计算单元11d通过以下表达式(4)计算移动对象区域候选的运动(u(t),v(t))。
[表达式4]
移动对象区域确定单元11e从移动对象区域候选确定移动对象区域。具体地,在当前时间处的移动对象区域候选的每个点移动了由移动对象区域候选运动计算单元11d计算的移动对象区域候选的运动的情况下,如果移动之后的位置在移动对象区域候选内,则移动对象区域确定单元11e确定该点包括在移动对象区域中。
例如,如果在每个点(x,y)∈C处(x+u,y+v)∈C',则确定该点包括在移动对象区域中。接下来,移动对象区域确定单元11e将移动对象区域候选的被确定为包括在移动对象区域中的每个点(集合R)确定为移动对象区域。由此,移动对象区域提取单元11提取移动对象区域,该移动对象区域是与在每一帧中出现的移动对象对应的图像区域。
移动对象区域保存单元12基于由移动对象区域确定单元11e确定的移动对象区域提取并保存移动对象区域中的像素(集合R)。也就是说,移动对象区域保存单元12提取并保存从每一帧提取的移动对象区域。
移动对象区域追踪单元13参考保存在移动对象区域保存单元12中的移动对象区域,并且基于运动图像与每一帧的相关性在帧之中追踪移动对象区域的位置。具体地,移动对象区域追踪单元13使用保存在移动对象区域保存单元12中的移动对象区域MR获得使以下表达式(5)的值最小化的平移量(p,q)。移动对象区域追踪单元13追踪通过平移移动对象区域MR中的每个点而产生的点的集合作为下一时间处的移动对象区域MR'。
[表达式5]
∑(x,y)∈MR|G(t,x,y)-G(t+1,x+p,y+q)|…(5)
移动对象区域追踪单元13将当前时间处的移动对象区域的位置与下一时间处的移动对象区域的位置之间的差值即平移量(p,q)作为运动保存在运动保存单元17中。
背景区域确定单元14将除了由移动对象区域提取单元11提取的移动对象区域之外的图像区域确定为每一帧的背景区域。如果帧包括已经由移动对象区域追踪单元13追踪其位置的移动对象区域,则背景区域确定单元14还基于移动对象区域追踪单元13的追踪结果将除了该移动对象区域之外的图像区域确定为每一帧的背景区域。
更具体地,背景区域确定单元14确定由移动对象区域追踪单元13追踪其位置的移动对象区域的运动(u(k),v(k))在k=1,...,t中的每个时间处满足以下表达式(6)的次数。阈值T4是预先设置的用于确定位置的移动的阈值。
[表达式6]
|u(k)|+|v(k)|>T4…(6)
接下来,如果表达式(6)被满足的次数等于或高于阈值T5,则背景区域确定单元14将除了已经由移动对象区域追踪单元13追踪其位置的移动对象区域之外的图像区域确定为背景区域。阈值T5是预先设置的用于确定位置已经移动的帧数的阈值。
也就是说,背景区域确定单元14将除了其位置已经移动了超过等于或大于阈值T5的帧数的移动对象区域之外的图像区域确定为背景区域。以这种方式,在其位置已经被追踪的移动对象区域中,除了其位置已经移动达等于或大于阈值T5的帧数的移动对象区域之外的图像区域被确定为背景区域。因此,例如,可以抑制随风摇摆达数帧的树枝被视为移动对象区域并被从背景中排除的情况。
背景更新单元15基于由背景区域确定单元14确定的背景区域将当前时间处的帧中的背景区域中的每个点的亮度值乘以预定值(固定值α)。由此,背景更新单元15获得当前时间处的帧中的背景区域中的亮度值(用于与直到当前时间处的帧的背景图像(背景模型)相加的当前时间处的帧中的背景图像)。
接下来,背景更新单元15从背景保存单元16读取当前时间之前的背景图像,并且与在当前时间处的帧中的背景区域的亮度值进行相加。背景更新单元15将通过将相加的背景图像除以1和固定值α的总和值而产生的值确定为直到当前时间的背景图像,并且更新背景保存单元16中的背景图像。具体地,背景更新单元15通过以下表达式(7)更新已经被确定为背景图像(H)中的背景的每个点(x,y)的背景。
[表达式7]
H(t+1,x,y)=(G(t+1,x,y)×α+H(t,x,y)/(α+1)…(7)
背景差分处理单元20执行与背景差分法有关的背景差分处理。具体地,背景差分处理单元20参考背景保存单元16中的背景图像,并且基于摄像机2的运动图像G1的每一帧与背景图像之间的差异来检测与运动图像G1的每一帧中包括的移动对象对应的移动对象图像。也就是说,背景差分处理单元20是差分处理单元的示例。
更具体地,背景差分处理单元20基于运动图像G1的每一帧的点G(t,x,y)与背景保存单元16中的背景图像H(t,x,y)的差异来获得满足以下表达式(8)的点的集合作为移动对象区域HMR。阈值T6是预先设置的用于通过背景差分法确定移动对象区域HMR的阈值。
[表达式8]
∑m=-M,…,M,n=-N,…,N|G(t,x+m,y+n)-H(t,x+m,y+n)|>T6…(8)
面部检测单元21从由背景差分处理单元20检测到的移动对象区域HMR检测人的面部图像。具体地,假设预先捕获的商店员工H2的面部图像是F(x,y)(x=0,...,2X,y=0,...,2Y),面部检测单元21检测满足以下表达式(9)并且被包括在移动对象区域HMR中的区域作为面部图像。
[表达式9]
∑m=-X,…,X,n=-Y,…,Y|F(X+m,Y+n)-G(t,k+m,1+n)|<T7…(9)
在表达式(9)中,阈值T7是预先设置的用于确定面部的阈值。在表达式(9)中,要作为面部图像的区域(FR)变成以像素(k,l)作为面部的中心的(2X+1)×(2Y+1)的矩形。
运动计算单元22计算由面部检测单元21检测到的面部图像在前一帧和后一帧中的运动。具体地,运动计算单元22计算使下面的表达式(10)最小化的(k,l)作为面部的运动。
[表达式10]
∑(x,y)EFR|G(t,x,y)-G(t+1,x+k,y+1)|...(10)
点头检测单元23基于由运动计算单元22计算的面部的运动来检测面部的点头即商店员工H2的点头。具体地,在面部运动(u,v)中的v值(点头时面部在竖直方向上的运动)在负方向上变化等于或大于预定阈值T8的量并且然后在正方向上变化等于或大于预定阈值T8的量的情况下,点头检测单元23将其确定为点头。
例如,假设在v变成最低值vmin之前的并且在其处发生小于阈值T5的变化的时间是开始时间,并且此时的v值是vleft。假设在v变成最低值vmin之后的并且在其处发生小于阈值T5的变化的时间是结束时间,并且此时的v值是vright。点头检测单元23通过以下表达式(11)获得点头的时间长度(i)和点头的深度(j),点头的深度(j)是v的变化量。
[表达式11]
i=(结束时间)-(开始时间),j=((vleft-vmin)+(vright-vmin))/2…(11)
接待质量评估单元24基于由点头检测单元23检测到的商店员工H2的点头来评估商店员工H2对顾客H1的接待质量。也就是说,接待质量评估单元24是基于移动对象图像评估移动对象的运动的评估单元的示例。
具体地,接待质量评估单元24基于记载“当相同的点头持续时,交谈的人感觉他或她真的是听到”的相关技术知识根据由点头检测单元23检测到的商店员工H2的点头的时间长度(i)和点头的深度(j)来获得商店员工H2的接待质量。
例如,假设第s次的点头的时间长度是is,并且点头的深度是js,接待质量评估单元24从r为s-1时起减去1直到r满足以下两个表达式(12)。接待质量评估单元24计算表达式(12)变得不被满足时的次数R=s-r。接下来,接待质量评估单元24使用计算的次数R通过评估值=1/R来计算接待质量的评估值。
[表达式12]
数据处理单元25基于接待质量评估单元24的评估结果生成要在显示器上显示的评估结果的显示数据。例如,数据处理单元25生成以时间作为水平轴并且以评估值作为竖直轴的图表显示数据。输出单元26在显示器的屏幕上显示由数据处理单元25生成的显示数据,并且将评估结果输出至上司H3。由此,上司H3可以检查商店员工H2的接待质量例如在以时间作为水平轴并且以评估值作为竖直轴的图表的情况下接待质量随时间的变化。
图6是示出根据第一实施方式的系统的操作的示例的流程图。如图6中所示,在处理开始时,移动对象区域候选提取单元11a根据基于来自摄像机2的运动图像G1并且基于当前时间(t)处的帧与前一帧或后一帧之间的相关性来获得移动对象区域候选(S1)。接下来,特征点提取单元11b从当前时间(t)处的移动对象区域候选提取图像中的特征点(S2)。
接下来,内区域特征点提取单元11c针对在下一时间(t+1)处的帧中的移动对象区域候选中的点中的每个特征点在附近搜索具有特定值或更高值的亮度相关性的点,并且将搜索到的点确定为内区域特征点(S3)。
接下来,移动对象区域候选运动计算单元11d针对每个内区域特征点获得通过从目的地位置减去移动之前的位置而产生的运动,并且计算移动对象区域候选的运动(S4)。
接下来,移动对象区域确定单元11e从移动对象区域候选确定移动对象区域(S5),并且移动对象区域保存单元12保存由移动对象区域确定单元11e确定的移动对象区域(S6)。
接下来,移动对象区域追踪单元13获得下一时间处的移动对象区域候选,并且参考保存在移动对象区域保存单元12中的移动对象区域并获得相关性以在帧之中追踪移动对象区域的位置(S7)。
接下来,移动对象区域追踪单元13基于当前时间处的移动对象区域的位置与下一时间处的移动对象区域的位置之间的差异将移动对象的运动(平移量(p,q))保存在运动保存单元17中(S8)。
接下来,背景区域确定单元14基于由移动对象区域提取单元11提取的移动对象区域和移动对象区域追踪单元13的追踪结果来确定背景保存单元16中的背景图像中的要更新的区域(背景区域)(S9)。
接下来,背景更新单元15基于由背景区域确定单元14确定的背景区域将当前时间处的帧中的背景区域中的每个点的亮度值乘以固定值α,将其乘积与从背景保存单元16读取的背景图像相加,并且更新背景图像的亮度(S10)。接下来,背景更新单元15将更新后的背景图像的亮度保存在背景保存单元16中作为直到当前时间的帧中的背景图像(S11)。
接下来,背景差分处理单元20使用保存在背景保存单元16中的背景(背景图像)通过背景差分法从摄像机2的运动图像G1估计移动对象区域(S12)。接下来,面部检测单元21从在S12中估计的移动对象区域检测面部(S13)。接下来,运动计算单元22检测由面部检测单元21检测到的面部的前一帧与后一帧中的运动(S14)。
接下来,点头检测单元23基于由运动计算单元22检测到的面部的运动来检测面部的点头即商店员工H2的点头(S15)。接下来,接待质量评估单元24基于由点头检测单元23检测到的商店员工H2的点头来评估商店员工H2对顾客H1的接待质量(S16)。接下来,数据处理单元25生成接待质量评估单元24的评估结果的显示数据以在显示器上显示。输出单元26在屏幕上显示由数据处理单元25生成的显示数据,并且向上司H3输出商店员工H2的接待质量的评估结果(S17)。
接下来,背景检测单元10a基于来自摄像机2的运动图像(运动图像G1)的存在来确定运动图像是否已经结束(S18)。如果运动图像已经结束(S18:是),则终止背景检测单元10a的处理。如果运动图像尚未结束(S18:否),则背景检测单元10a的处理返回至S1。
(第二实施方式)
图7是说明根据第二实施方式的系统配置的示例的说明图。如图7中所示,摄像机2在顾客H1和商店员工H2的接待场所处捕获商店员工H2的图像,并且将捕获的运动图像输出至商店员工H2的终端设备1b。
终端设备1b是信息处理装置例如应用上述检测设备1的智能电话等,并且从由摄像机2捕获的运动图像检测背景图像。终端设备1b基于背景图像通过背景差分法检测商店员工H2在顾客接待时的运动,评估商店员工H2对顾客H1的顾客接待,并且通过振动等向商店员工H2通知评估结果。由此,商店员工H2可以检查他自己或她自己的顾客接待。
图8是示出根据第二实施方式的系统的功能配置的示例的框图。如图8中所示,终端设备1b与根据第一实施方式的终端设备1a的不同点在于:终端设备1b包括背景检测单元10b、振动指令单元27和振动单元28。
背景检测单元10b中的背景区域确定单元14包括背景度计算单元14a和背景度调整单元14b。背景度计算单元14a基于根据移动对象区域追踪单元13的追踪结果得到的其中被追踪的移动对象区域的位置已经移动的帧的数量来计算移动对象区域的背景度。也就是说,背景度计算单元14是计算单元的示例。
具体地,背景度计算单元14a基于根据移动对象追踪单元13的追踪结果获得的直到当前时间具有移动的位置的帧的数量来计算背景度,该背景度随着具有运动的帧的数量增加而具有较低值。
更具体地,假设从过去至当前时间的帧中具有运动的帧的数量(次数)是A,背景度计算单元14a基于以下表达式(13)计算背景度(HD),该背景度(HD)限定例如最大值1。
[表达式13]
HD=1/(A+1)...(13)
背景度调整单元14b基于预定阈值调整由背景度计算单元14a计算的背景度(HD)的大小。例如,背景度调整单元14b将背景度(HD)中的小于预定下限阈值的权重值视为0,并且将小于下限阈值的背景度(HD)的大小视为0。背景度调整单元14b将背景度(HD)中的等于或高于预定上限阈值T10的值视为与阈值T10相同的值。由此,对于等于或高于上限阈值T10的值,背景度(HD)的大小被固定在阈值T10处。
背景更新单元15将更新背景时的固定值α改变成根据由背景度调整单元14b调整的背景度(HD)的值。具体地,基于由背景区域确定单元14确定的背景区域,背景更新单元15将当前时间处的帧中的背景区域中的每个点的亮度值乘以背景度(HD)的值。接下来,背景更新单元15从背景保存单元16读取当前时间之前的背景图像,并且与在当前时间处的帧中的背景区域的亮度值相加。对于背景图像的总和,背景更新单元15将通过该总和除以通过将1与背景度(HD)相加产生的值而获得的值确定为直到当前时间的背景图像,并且更新背景保存单元16中的背景图像。
具体地,背景更新单元15通过以下表达式(14)更新被确定为背景图像(H)中的背景的每个点(x,y)的背景。
[表达式14]
H(t+1,x,y)=(G(t+1,x,y)×HD+H(t,x,y))/(HD+1)...(14)
以这种方式,背景更新单元15应用基于由移动对象区域追踪单元13追踪的移动对象区域的位置已经移动的帧的数量的背景度代替固定值α来更新背景。因此,例如,背景更新单元15可以适当地从背景排除已经移动了长时间的移动对象。背景更新单元15可以进行更新以将过去在短时段内具有运动并且被估计成背景的移动对象包括背景中。
背景检测单元10b包括结束确定单元18。结束确定单元18参考保存在背景保存单元16中的背景图像,并且基于当前时间处与下一时间处的背景的亮度的相关性确定是否终止对背景的检测。例如,如果根据当前时间处和下一时间处的背景的亮度的相关性,同一背景图像在运动图像G1中持续预定时间段,则结束确定单元18确定该背景不必被检测并且终止对背景的检测。
更具体地,如果当前时间处的背景图像H(t,x,y)与下一时间处的背景图像H(t+1,x,y)之间的亮度的相关性满足以下表达式(15)的情况持续预定阈值T12或更长时间,则结束确定单元18确定终止对背景的检测。阈值T11是预先设置的用于评估同一背景图像是否持续的阈值。
[表达式15]
∑(x,y)∈H|H(t,x,y)-H(t+1,x,y)|<T11…(15)
背景检测单元10b基于结束确定单元18的确定结果终止对背景的检测。由此,例如,在运动图像G1中背景不发生变化的时段持续的情况下,背景检测单元10b可以终止对背景的检测。
振动指令单元27基于接待质量评估单元24的评估结果确定是否将给予商店员工H2的振动指令发送至振动单元28。例如,如果接待质量评估单元24的评估值小于预定值的状态持续预定时间段,则振动指令单元27将给予商店员工H2的振动指令发送至振动单元28。振动单元28基于振动指令单元27的指令振动并且通过振动通知商店员工H2。由此,商店员工H2可以识别到作为接待质量评估单元24的评估结果的例如接待质量的评估值低于预定值的状态持续。
图9A和图9B是示出根据第二实施方式的系统的操作的示例的流程图。如图9A和图9B中所示,该流程图与根据第一实施方式的流程图的不同点在于包括S20至S25的处理。
具体地,在S9之后,背景度计算单元14a基于移动对象区域追踪单元13的追踪结果来计算移动对象区域的背景度(HD)(S20)。接下来,背景度调整单元14b使用预定阈值调整由背景度计算单元14a计算的背景度(HD)的大小(S21)。
接下来,背景更新单元15将通过将背景区域中的每个点的亮度乘以背景度(HD)的值而产生的值确定为背景的亮度,并且更新背景保存单元16中的背景图像(S22)。
在S11之后,结束确定单元18参考保存在背景保存单元16中的背景图像,并且确定当前时间处与下一时间处的背景图像的亮度的相关性等于或高于阈值的情况是否持续一定次数(S23)。
在S16之后,振动指令单元27基于接待质量评估单元24的评估结果(接待质量)确定是否向振动单元28发送振动指令(S24)。
图10是说明振动指令的确定的说明图。在图10中,水平轴表示时间轴,并且竖直轴表示曲线图的评估值。如图10中所示,关于接待质量评估单元24的评估结果中的评估值的曲线图,在评估值低于阈值T9的时段S持续预定时段的情况下,振动指令单元27向振动单元28发送振动指令。通过由振动指令引起的振动单元28的振动,商店员工H2可以识别到例如接待质量的评估值低于阈值T9的状态持续一定时间段。
返回至图9B,如果S18是否定确定(S18:否),则背景检测单元10b基于结束确定单元18的确定结果确定是否结束背景检测(背景估计)(S25)。如果要结束背景检测(S25:是),则背景检测单元10b的处理返回至S12。如果不结束背景检测(S25:否),则背景检测单元10b的处理返回至S1。
(第三实施方式)
图11是说明根据第三实施方式的系统配置的示例的说明图。如图11中所示,摄像机2a是能够由上司H3经由终端设备1d操作拍摄方向、放大/缩小等的摄像机。摄像机2a基于上司H3的操作捕获顾客H1和商店员工H2的接待场所的图像,并且将捕获的运动图像输出至服务器设备1c。
服务器设备1c是应用检测设备1并且从摄像机2a的运动图像检测背景图像的信息处理装置。服务器设备1c基于检测到的背景图像通过背景差分法检测商店员工H2在顾客接待时的运动,评估商店员工H2对顾客H1的顾客接待,并且通知终端设备1d。终端设备1d向显示器等显示所通知的顾客接待的评估。终端设备1d接收由上司H3针对客户接待的评估向商店员工H2给出的指令(反馈)的输入,并且将输入指令反馈回商店员工H2的终端设备4。
图12是示出根据第三实施方式的系统的功能配置的示例的框图。如图12中所示,服务器设备1c与根据第一实施方式的终端设备1a的不同点在于包括背景检测单元10c和图像校正单元29。
背景检测单元10c包括陀螺仪传感器30和用户输入保存单元31。陀螺仪传感器30是检测摄像机2a在x轴、y轴和z轴方向上的运动的传感器,并且是运动检测单元的示例。用户输入保存单元31保存由用户(上司H3)在终端设备1d处给出的输入指令例如摄像机2a的操作指令等。
背景区域确定单元14基于由陀螺仪传感器30检测到的摄像机2a的运动来校正每一帧中的背景区域中的与摄像机2a的运动有关的位移。具体地,背景区域确定单元14基于由下一表达式(16)表示的旋转矩阵Rot来校正与摄像机的运动(以x轴(水平)、y轴(竖直)和z轴(光学轴)为中心的旋转)有关的旋转位移。在表达式(16)中,假设由陀螺仪传感器30检测到的摄像机2a的运动中的旋转角度是θx、θy和θz。由此,背景区域确定单元14可以获得与摄像机2a的运动有关的位移已经被校正的背景图像。
[表达式16]
图像校正单元29基于保存在用户输入保存单元31中的摄像机2a的操作指令来校正摄像机2a的图像(运动图像G1)。具体地,图像校正单元29校正运动图像G1以取消由用户执行的放大/缩小。
更具体地,图像校正单元29通过下一表达式(17)计算校正后的运动图像(G′),其中由用户执行的放大/缩小的缩放因子是Z。在表达式(17)中,假设U(x)是抑制x的小数位数的函数。
[表达式17]
G′(t+1,x,y)=(x/Z-U(x/Z))×(y/Z-U(y/Z))×G(t,U(x/Z),U(y/Z))
+(1-x/Z+U(x/Z))×(y/Z-U(y/Z))×G(t,U(x/Z)+1,U(y/Z))
+(x/Z-U(x/Z))×(1-y/Z+U(y/Z))×G(t,U(x/Z),U(y/Z)+1)
+(1-x/Z+U(x/Z))×(1-y/Z+U(y/Z))×G(t,U(x/Z)+1,U(y/Z)+1)…(17)
终端设备1d包括数据处理单元25、输出单元26、用户输入单元32、摄像机操作输入单元33和反馈单元34。用户输入单元32基于来自输入设备(图中未示出)例如键盘、鼠标等的输入来接收各种用户输入例如处理结束、对商店员工H2的反馈的内容等。用户输入单元32向用户输入保存单元31通知所接收的操作内容。
摄像机操作输入单元33基于来自输入设备(图中未示出)例如键盘、鼠标等的输入接收关于摄像机2a的操作输入(拍摄方向和放大/缩小)等。摄像机操作输入单元33向用户输入保存单元31通知所接收的操作内容。反馈单元34向终端设备4通知已经由用户输入单元32接收到的对商店员工H2的反馈的内容。
图13A和图13B是示出根据第三实施方式的系统的操作的示例的流程图。如图13A和图13B中所示,根据第三实施方式的操作与根据第一实施方式的操作的不同点在于包括S30至S35的处理。
具体地,摄像机操作输入单元33从用户(上司H3)接收放大/缩小的输入(S30)。由摄像机操作输入单元33接收的放大/缩小的输入内容被保存在用户输入保存单元31中。
接下来,图像校正单元29基于保存在用户输入保存单元31中的放大/缩小的输入内容来修改图像(运动图像G1)以取消缩放(S31)。
在S8之后,背景区域确定单元14从陀螺仪传感器30获得摄像机2a的运动(S32)。接下来,背景区域确定单元14基于由陀螺仪传感器30检测到的摄像机2a的运动来校正与每一帧中的背景区域的运动有关的摄像机2a的位移。由此,背景区域确定单元14通过减去摄像机2a的运动来确定背景要更新的区域(背景区域)(S33)。
在S11之后,用户输入单元32在来自输出单元26的显示器上显示正在估计的背景即由背景检测单元10c检测到的背景。接下来,用户输入单元32从用户(上司H3)接收关于背景估计是否已经完成的输入(S34)。如果存在背景估计完成的输入,则用户输入单元32将背景估计完成保存在用户输入保存单元31中。如果背景估计完成被保存在用户输入保存单元31中,则背景检测单元10c终止通过背景检测单元10c进行的对背景的检测。
在S17之后,反馈单元34向终端设备4通知由用户输入单元32从用户(上司H3)接收到的对商店员工H2的反馈的内容(S35)。由此,经由终端设备4向商店员工H2通知从上司H3向商店员工H2给出的指令(反馈)。
如上所述,检测设备1和终端设备1a、1b和1c包括移动对象区域提取单元11、移动对象区域追踪单元13、背景区域确定单元14和背景更新单元15。移动对象区域提取单元11基于输入运动图像的前一帧与后一帧的比较的结果提取帧中包括的移动对象的移动对象区域。移动对象区域追踪单元13基于由移动对象区域提取单元11提取的移动对象区域与运动图像的每一帧之间的相关性来在帧之中追踪移动对象区域的位置。背景区域确定单元14将运动图像的每一帧中的除了所提取的移动对象区域之外的图像区域确定为每一帧的背景区域。如果帧中包括已经由移动对象区域追踪单元13追踪其位置的移动对象区域,则背景区域确定单元14将除了该移动对象区域之外的图像区域确定为每一帧中的背景区域。背景更新单元15基于由背景区域确定单元14确定的每一帧中的背景区域来检测运动图像的每一帧中的背景图像。
因此,例如,如果出现在运动图像中的移动对象处于静止达固定时间段,则检测设备1和终端设备1a、1b和1c可以抑制对背景图像中的运动图像的检测。
背景区域确定单元14将除了位置已经移动超过等于或大于阈值T5的帧数的移动对象区域之外的图像区域确定为背景区域。以这种方式,在其位置已经被跟追踪的移动对象区域中,除了其位置已经移动达等于或大于阈值T5的帧数的移动对象区域之外的图像区域被确定为背景区域。因此,例如,可以抑制随风摇摆达数帧的树枝被视为移动对象区域并被从背景中排除的情况。
检测设备1和终端设备1a、1b和1c包括保存直到运动图像的预定帧的前一帧检测到的背景图像的背景保存单元16。背景更新单元15将在预定帧中确定的背景区域中的像素值乘以预定值(固定值α),并且将其乘积与保存在背景保存单元16中的背景图像相加以检测与预定帧对应的背景图像。由此,在预定帧中确定的用于背景模型的背景区域中,检测设备1和终端设备1a、1b和1c可以通过与通过将直到预定帧的前一帧的背景图像乘以即预定值而产生的背景图像(预定帧的背景图像)相加来更新背景图像。
代替预定值(固定值α),检测设备1和终端设备1a、1b和1c可以应用基于其中由移动对象区域追踪单元13追踪的移动对象区域的位置已经移动的帧的数量的背景度(HD)来更新背景。在这种情况下,可以适当地从背景排除例如具有长时间段的运动的移动对象。替选地,可以更新背景以将在过去的短时间段内具有运动并且能够被估计为背景的移动对象包括在背景中。
附图中示出的每个设备的每个部件不必如附图中所示地进行物理配置。也就是说,每个设备的分布和集成的具体形式不限于所示的配置,并且可以根据各种负载、使用状态等将全部或部分配置在功能上或物理上分布或集成在任何单元中。
可以在CPU(或微型计算机例如MPU、MCU(微控制器单元)等)上执行由检测设备1、终端设备1a、1b和1d、服务器设备1c等(在下文中被称为检测设备1作为代表)执行的各种处理功能的全部或任何部分。不言而喻,可以通过在CPU(或者微型计算机例如MPU、MCU等)上分析并执行的程序或者通过基于布线逻辑的硬件来执行各种处理功能的全部或任何部分。可以使用云计算结合多个计算机执行由检测设备1执行的各种处理功能。
顺便提及,可以通过执行预先设置在计算机上的程序来实现上述实施方式中描述的各种处理。因此,在下文中,将给出对具有与上述实施方式的功能相同的功能的计算机(硬件)的示例的描述。图14是示出根据实施方式的检测设备1的硬件配置的示例的框图。将给出对图14中所示的硬件配置的示例的描述作为使用作为代表的检测设备1的计算机的示例。然而,不言而喻,对于终端设备1a、1b和1d以及服务器设备1c等硬件配置是相同的。
如图14中所示,检测设备1包括执行各种操作处理的CPU 101、接收数据输入的输入设备102、监视器103和扬声器104。检测设备1包括从存储介质读取程序等的读取设备105、用于连接各种设备的接口设备106以及与外部设备具有有线或无线通信连接的通信设备107。检测设备1包括硬盘设备109以及临时存储各种信息的RAM 108。检测设备1中的每个单元(101至109)连接至总线110。
硬盘设备109存储用于执行上述实施方式中描述的各种处理的程序111。硬盘设备109存储由程序111引用的各种数据112。输入设备102例如从操作者接收操作信息的输入。监视器103显示例如由操作员操作的各种画面。接口设备106连接至例如打印机等。通信设备107连接至通信网络例如LAN(局域网)等,并且经由通信网络与外部设备交换各种信息。
CPU 101读取存储在硬盘设备109中的程序111,将程序加载到RAM 108中,并且执行程序以执行各种处理。通过执行程序111,CPU 101用作例如背景检测单元10、10a、10b和10c、背景差分处理单元20、面部检测单元21、运动计算单元22、点头检测单元23、接待质量评估单元24、数据处理单元25、输出单元26、振动指令单元27、图像校正单元29、用户输入单元32、摄像机操作输入单元33、反馈单元34等。程序111可以不存储在硬盘设备109中。例如,检测设备1可以读取存储在可读存储介质中的程序111并且执行程序111。能够由检测设备1读取的存储介质由例如便携式记录介质例如CD-ROM、DVD盘、USB(通用串行总线)存储器等、半导体存储器例如闪存等、硬盘驱动器等支持。程序111可以存储在连接至公共线路、因特网、LAN等的设备中,并且检测设备1可以从这些设备读取程序111并执行程序111。
Claims (10)
1.一种信息处理装置,包括:
提取单元,其被配置成基于动态图像中的多个帧彼此之间的比较的结果提取与所述多个帧中包括的移动对象对应的移动对象区域;
追踪单元,其被配置成在所述多个帧之中追踪所述移动对象区域的位置;
确定单元,其被配置成针对所述多个帧中的每一个将除了其位置移动超过限定时间段的所述移动对象区域之外的图像区域确定为背景区域;以及
更新单元,其被配置成基于所述确定的结果更新所述动态图像的背景图像。
2.根据权利要求1所述的信息处理装置,其中,
所述确定单元将除了所述移动对象区域中的位置移动超过预定帧数的特定移动对象区域之外的图像区域确定为所述背景区域。
3.根据权利要求1所述的信息处理装置,其中,所述信息处理装置还包括:
存储单元,其被配置成存储直到所述动态图像的预定帧的前一帧检测到的背景图像;并且其中,
所述更新单元包括:
乘法单元,其被配置成将针对所述预定帧确定的所述背景区域中的像素值乘以预定值;以及
加法单元,其被配置成将该乘积与所存储的背景图像相加以更新与所述预定帧对应的背景图像。
4.根据权利要求3所述的信息处理装置,其中,所述信息处理装置还包括:
计算单元,其被配置成基于所述移动对象的位置发生变化的帧的数量计算所述移动对象区域的背景度;并且其中,
所述乘法单元将针对所述预定帧确定的所述背景区域中的像素值乘以所计算的背景度;并且
所述加法单元将该乘积与所存储的背景图像相加以更新与所述预定帧对应的背景图像。
5.根据权利要求1所述的信息处理装置,其中,所述信息处理装置还包括:
第一检测单元,其被配置成基于所述背景图像与所述多个帧中的每一个之间的差异检测与所述多个帧中的每一个中包括的移动对象对应的移动对象图像。
6.根据权利要求5所述的信息处理装置,其中,所述信息处理装置还包括:
评估单元,其被配置成基于从所述多个帧中的每一个检测到的所述移动对象图像评估所述移动对象的移动。
7.根据权利要求6所述的信息处理装置,其中,所述信息处理装置还包括:
接收单元,其被配置成接收与捕获所述动态图像的摄像机有关的操作输入;以及
校正单元,其被配置成校正所述动态图像以取消所述操作输入;并且其中,
所述评估单元基于从校正后的动态图像中的多个帧中的每一个检测到的所述移动对象图像评估所述移动对象的运动。
8.根据权利要求6所述的信息处理装置,其中,所述信息处理装置还包括:
第二检测单元,其被配置成对捕获所述动态图像的摄像机的移动进行检测;以及
校正单元,其被配置成基于检测到的所述摄像机的运动来校正所述多个帧中的每一个中的所述背景区域的随着所述摄像机的运动的位移。
9.一种通过计算机执行的背景图像更新方法,所述背景图像更新方法包括:
基于动态图像中的多个帧彼此之间的比较的结果提取与所述多个帧中包括的移动对象对应的移动对象区域;
在所述多个帧之中追踪所述移动对象区域的位置;
针对所述多个帧中的每一个将除了其位置移动超过限定时间段的所述移动对象区域之外的图像区域确定为背景区域;以及
基于所述确定的结果更新所述动态图像的背景图像。
10.一种存储使计算机执行处理的程序的非暂态计算机可读存储介质,所述处理包括:
基于动态图像中的多个帧彼此之间的比较的结果提取与所述多个帧中包括的移动对象对应的移动对象区域;
在所述多个帧之中追踪所述移动对象区域的位置;
针对所述多个帧中的每一个将除了其位置移动超过限定时间段的所述移动对象区域之外的图像区域确定为背景区域;以及
基于所述确定的结果更新所述动态图像的背景图像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017-217768 | 2017-11-10 | ||
JP2017217768A JP7067023B2 (ja) | 2017-11-10 | 2017-11-10 | 情報処理装置、背景更新方法および背景更新プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
CN109767453A true CN109767453A (zh) | 2019-05-17 |
CN109767453B CN109767453B (zh) | 2023-04-07 |
CN109767453B9 CN109767453B9 (zh) | 2023-06-30 |
Family
ID=64267584
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811313126.9A Active CN109767453B9 (zh) | 2017-11-10 | 2018-11-06 | 信息处理装置、背景图像更新方法和非暂态计算机可读存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10713799B2 (zh) |
EP (1) | EP3483835B1 (zh) |
JP (1) | JP7067023B2 (zh) |
CN (1) | CN109767453B9 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7106282B2 (ja) * | 2018-01-30 | 2022-07-26 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP7079126B2 (ja) * | 2018-03-22 | 2022-06-01 | キヤノン株式会社 | 監視装置、監視システム、制御方法、及びプログラム |
JP7169752B2 (ja) * | 2018-03-22 | 2022-11-11 | キヤノン株式会社 | 監視装置、監視システム、制御方法、及びプログラム |
JP6525181B1 (ja) * | 2018-05-27 | 2019-06-05 | 株式会社アジラ | 行動推定装置 |
JP7183085B2 (ja) * | 2019-03-14 | 2022-12-05 | 株式会社東芝 | 移動体行動登録装置、移動体行動登録システム、移動体行動登録方法、移動体行動登録プログラム、及び移動体行動決定装置 |
US10885606B2 (en) * | 2019-04-08 | 2021-01-05 | Honeywell International Inc. | System and method for anonymizing content to protect privacy |
JP7542978B2 (ja) * | 2020-04-01 | 2024-09-02 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07284086A (ja) * | 1994-04-05 | 1995-10-27 | Nec Corp | 背景画像生成方法および装置 |
JPH08191411A (ja) * | 1994-11-08 | 1996-07-23 | Matsushita Electric Ind Co Ltd | シーン判別方法および代表画像記録・表示装置 |
JPH08241414A (ja) * | 1995-03-07 | 1996-09-17 | Matsushita Electric Ind Co Ltd | 動物体検出・追跡装置と閾値決定装置 |
JP2004046647A (ja) * | 2002-07-12 | 2004-02-12 | Univ Waseda | 動画像データに基づく移動物体追跡方法及び装置 |
JP2005165791A (ja) * | 2003-12-03 | 2005-06-23 | Fuji Xerox Co Ltd | 対象物の追跡方法及び追跡システム |
US20080095436A1 (en) * | 2006-10-18 | 2008-04-24 | Samsung Electronics Co., Ltd. | Image analysis method, medium and apparatus and moving image segmentation system |
JP2008219489A (ja) * | 2007-03-05 | 2008-09-18 | Nippon Hoso Kyokai <Nhk> | 映像オブジェクトの軌跡画像合成装置およびそのプログラム |
CN101739689A (zh) * | 2009-12-15 | 2010-06-16 | 中国科学院长春光学精密机械与物理研究所 | 动态视频中背景图像的实时提取与更新方法 |
JP2011009893A (ja) * | 2009-06-24 | 2011-01-13 | Nec Corp | フォロー対象検出装置、フォロー対象検出方法およびフォロー対象検出プログラム |
CN102214303A (zh) * | 2010-04-05 | 2011-10-12 | 索尼公司 | 信息处理设备、信息处理方法及程序 |
JP2014026372A (ja) * | 2012-07-25 | 2014-02-06 | Dainippon Printing Co Ltd | カメラの撮影視野変動検知装置 |
US20150125032A1 (en) * | 2012-06-13 | 2015-05-07 | Panasonic Intellectual Property Management Co., Ltd. | Object detection device |
JP2015210823A (ja) * | 2014-04-25 | 2015-11-24 | ゼロックス コーポレイションXerox Corporation | 変形可能部分モデルを使用した車両追跡における部分的隠蔽処理方法及びシステム |
JP2016177388A (ja) * | 2015-03-18 | 2016-10-06 | 株式会社リコー | 移動体位置姿勢計測装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1994006247A1 (en) * | 1992-09-08 | 1994-03-17 | Paul Howard Mayeaux | Machine vision camera and video preprocessing system |
JP2003123074A (ja) | 2001-10-11 | 2003-04-25 | Sanyo Electric Co Ltd | 動物体検出装置、動物体検出方法及び動物体検出プログラム |
GB2395781A (en) * | 2002-11-29 | 2004-06-02 | Sony Uk Ltd | Face detection |
US7706603B2 (en) * | 2005-04-19 | 2010-04-27 | Siemens Corporation | Fast object detection for augmented reality systems |
US7720283B2 (en) * | 2005-12-09 | 2010-05-18 | Microsoft Corporation | Background removal in a live video |
US8244469B2 (en) * | 2008-03-16 | 2012-08-14 | Irobot Corporation | Collaborative engagement for target identification and tracking |
US8311281B2 (en) * | 2008-04-09 | 2012-11-13 | Nec Corporation | Object detection apparatus |
JP4999794B2 (ja) | 2008-07-04 | 2012-08-15 | 日本電信電話株式会社 | 静止領域検出方法とその装置、プログラム及び記録媒体 |
US9025830B2 (en) * | 2012-01-20 | 2015-05-05 | Cyberlink Corp. | Liveness detection system based on face behavior |
JP5832910B2 (ja) | 2012-01-26 | 2015-12-16 | セコム株式会社 | 画像監視装置 |
US9412025B2 (en) * | 2012-11-28 | 2016-08-09 | Siemens Schweiz Ag | Systems and methods to classify moving airplanes in airports |
JP6156163B2 (ja) * | 2013-06-28 | 2017-07-05 | 株式会社Jvcケンウッド | 画像処理装置及び画像処理方法 |
KR102366521B1 (ko) * | 2015-01-19 | 2022-02-23 | 한화테크윈 주식회사 | 이동 물체 탐지 시스템 및 방법 |
-
2017
- 2017-11-10 JP JP2017217768A patent/JP7067023B2/ja active Active
-
2018
- 2018-11-06 CN CN201811313126.9A patent/CN109767453B9/zh active Active
- 2018-11-07 EP EP18204867.8A patent/EP3483835B1/en active Active
- 2018-11-09 US US16/185,497 patent/US10713799B2/en not_active Expired - Fee Related
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07284086A (ja) * | 1994-04-05 | 1995-10-27 | Nec Corp | 背景画像生成方法および装置 |
JPH08191411A (ja) * | 1994-11-08 | 1996-07-23 | Matsushita Electric Ind Co Ltd | シーン判別方法および代表画像記録・表示装置 |
JPH08241414A (ja) * | 1995-03-07 | 1996-09-17 | Matsushita Electric Ind Co Ltd | 動物体検出・追跡装置と閾値決定装置 |
JP2004046647A (ja) * | 2002-07-12 | 2004-02-12 | Univ Waseda | 動画像データに基づく移動物体追跡方法及び装置 |
JP2005165791A (ja) * | 2003-12-03 | 2005-06-23 | Fuji Xerox Co Ltd | 対象物の追跡方法及び追跡システム |
US20080095436A1 (en) * | 2006-10-18 | 2008-04-24 | Samsung Electronics Co., Ltd. | Image analysis method, medium and apparatus and moving image segmentation system |
JP2008219489A (ja) * | 2007-03-05 | 2008-09-18 | Nippon Hoso Kyokai <Nhk> | 映像オブジェクトの軌跡画像合成装置およびそのプログラム |
JP2011009893A (ja) * | 2009-06-24 | 2011-01-13 | Nec Corp | フォロー対象検出装置、フォロー対象検出方法およびフォロー対象検出プログラム |
CN101739689A (zh) * | 2009-12-15 | 2010-06-16 | 中国科学院长春光学精密机械与物理研究所 | 动态视频中背景图像的实时提取与更新方法 |
CN102214303A (zh) * | 2010-04-05 | 2011-10-12 | 索尼公司 | 信息处理设备、信息处理方法及程序 |
US20150125032A1 (en) * | 2012-06-13 | 2015-05-07 | Panasonic Intellectual Property Management Co., Ltd. | Object detection device |
JP2014026372A (ja) * | 2012-07-25 | 2014-02-06 | Dainippon Printing Co Ltd | カメラの撮影視野変動検知装置 |
JP2015210823A (ja) * | 2014-04-25 | 2015-11-24 | ゼロックス コーポレイションXerox Corporation | 変形可能部分モデルを使用した車両追跡における部分的隠蔽処理方法及びシステム |
JP2016177388A (ja) * | 2015-03-18 | 2016-10-06 | 株式会社リコー | 移動体位置姿勢計測装置 |
Non-Patent Citations (1)
Title |
---|
CHRIS STAUFFER,W.E.L GRIMSON: "Adaptive background mixture models for real-time tracking", 《IEEE》 * |
Also Published As
Publication number | Publication date |
---|---|
CN109767453B9 (zh) | 2023-06-30 |
US10713799B2 (en) | 2020-07-14 |
JP7067023B2 (ja) | 2022-05-16 |
EP3483835A1 (en) | 2019-05-15 |
CN109767453B (zh) | 2023-04-07 |
US20190147601A1 (en) | 2019-05-16 |
EP3483835B1 (en) | 2021-06-16 |
JP2019091121A (ja) | 2019-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109767453A (zh) | 信息处理装置、背景图像更新方法和非暂态计算机可读存储介质 | |
CN105654512B (zh) | 一种目标跟踪方法和装置 | |
CN109308469B (zh) | 用于生成信息的方法和装置 | |
JP2007042072A (ja) | 追跡装置 | |
CN104811660A (zh) | 控制装置及控制方法 | |
CN105095853B (zh) | 图像处理装置及图像处理方法 | |
CN109961472B (zh) | 3d热力图生成的方法、系统、存储介质及电子设备 | |
CN106471440A (zh) | 基于高效森林感测的眼睛跟踪 | |
JPWO2014192441A1 (ja) | 画像処理システム、画像処理方法及びプログラム | |
CN106920252A (zh) | 一种图像数据处理方法、装置及电子设备 | |
JP2019040306A (ja) | 情報処理装置、情報処理プログラム、及び、情報処理方法 | |
JP6331270B2 (ja) | 情報処理システム、情報処理方法及びプログラム | |
JP2019121904A (ja) | 不審者検出装置、不審者検出方法及び不審者検出用コンピュータプログラム | |
CN111986229A (zh) | 视频目标检测方法、装置及计算机系统 | |
JP6862596B1 (ja) | 映像解析装置、広域監視システム及びカメラの選定方法 | |
CN109523573A (zh) | 目标对象的跟踪方法和装置 | |
JP6305856B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN107665495B (zh) | 对象跟踪方法及对象跟踪装置 | |
JPWO2018179119A1 (ja) | 映像解析装置、映像解析方法およびプログラム | |
JP2018033103A (ja) | フレームレート判定装置、フレームレート判定方法及びフレームレート判定用コンピュータプログラム | |
JP2017005582A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
CN111860070A (zh) | 识别发生改变的对象的方法和装置 | |
CN110210306B (zh) | 一种人脸跟踪方法和相机 | |
CN113052035B (zh) | 活体检测方法、装置、电子设备及存储介质 | |
CN106462960B (zh) | 图像的协同对准 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CI03 | Correction of invention patent |
Correction item: Description Correct: correct False: error Number: 14-02 Page: ?? Volume: 39 |
|
CI03 | Correction of invention patent |