CN105938622A - 检测运动图像中的物体的方法和装置 - Google Patents
检测运动图像中的物体的方法和装置 Download PDFInfo
- Publication number
- CN105938622A CN105938622A CN201610118359.8A CN201610118359A CN105938622A CN 105938622 A CN105938622 A CN 105938622A CN 201610118359 A CN201610118359 A CN 201610118359A CN 105938622 A CN105938622 A CN 105938622A
- Authority
- CN
- China
- Prior art keywords
- unit
- image processing
- detection
- processing apparatus
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明提供检测运动图像中的物体的方法和装置。所述图像处理设备包括:获得单元,其被构造为获得运动图像;检测单元,其被构造为从所述运动图像中的关注图像帧,对检测对象物体进行检测;追踪单元,其被构造为在所述运动图像中的关注图像帧先前的图像帧中,在所述检测对象物体的检测位置的邻近区域中,对物体进行追踪;以及输出单元,其被构造为通过将由所述检测单元检测到所述物体的位置与由所述追踪单元获得所述物体的位置进行整合,来输出所述关注图像帧中的所述物体的检测位置。
Description
技术领域
本发明涉及用于检测运动图像中的预定物体的图像处理方法和装置。
背景技术
近年来,提出了分析由监测摄像机拍摄的视频以检测是否有人侵入监测区域,并且报告检测结果的系统。除了对侵入的检测,还提出了如下的系统,在该系统中,通过追踪在画面上显示的人,来对在预定时段期间经过了监测区域的人计数,或者从计数的人的数量,来检测拥堵的程度。
为了实现上述应用,需要从要追踪的监测摄像机视频,自动检测出人。从图像检测人的方法包括,例如由Dalal and Triggs.提出的方法“Histograms of Oriented Gradients for Human Detection”(IEEE ComputerSociety Conference on Computer Vision and Pattern Recognition,2005)。根据该提出的方法,从图像提取像素值的梯度方向的直方图,并且通过使用直方图作为特征量(HOG特征量)来确定图像中的局部区域是否为人。即,由与像素值的梯度方向相对应的、用于识别的特征量,来表示人物轮廓。
然而,为了将上述人物检测技术应用到实际的监测摄像机视频,需要提高检测率。一般而言,根据由人物检测技术为代表的物体检测技术,如果意图增大检测率,则会发生更多的误检测(检测到不是检测对象的物体,作为错误报告),这对于实际使用并不理想。因此,需要提高检测率同时抑制误检测的方法。
作为上述问题的解决方案,能构想出如下方法:在后续的时间序列图像中追踪曾检测到的人,并且并行地持续对人物进行检测,以提高表观检测率(apparent detection rate)。将参照图2描述该方法。在图2中,在图像上由实线指示的矩形表示人物检测结果,而由虚线指示的矩形表示追踪结果。如图2中例示,在时刻t检测到的结果在时刻t+1和时刻t+2的图像中被追踪。类似地,在时刻t+1检测到的结果在随后的在时刻t+2的图像中被追踪,此外,在时刻t+2检测到人。在该示例中,检测器从各个图像仅检测5个人中的2个人,但是将检测结果与追踪结果进行整合,最终检测到并追踪到所有人。
根据日本特开2014-48702号公报,在上述的检测和追踪处理的并行使用中,在先前帧中检测到物体的窗口被设置为追踪对象,还在通过对当前帧进行划分而获得的区域的部分中搜索物体,使得将通过搜索而新检测到物体的窗口,添加到追踪对象。
通过使用物体辨识器来处理追踪对象。当将辨识器用于追踪处理时,能够可靠地追踪曾检测到的对象,而不会追丢了对象。
然而,即使在通过使用日本特开2014-48702号公报中公开的方法来进行人物追踪的情况下,也需要进一步提高检测率。例如,还可以想到改变人物检测器中的辨识器的阈值,来提高检测率。在这种情况下,发生如下的问题:误检测的数量增大,并且保持追踪错误地检测到的对象。
发明内容
本发明提供了从视频检测物体并且追踪物体的高精度的图像处理装置。
根据本发明的方面,提供一种图像处理装置,所述图像处理装置包括:获得单元,其被构造为获得运动图像;检测单元,其被构造为从所述运动图像中的关注图像帧,对检测对象物体进行检测;追踪单元,其被构造为在所述运动图像中的关注图像帧先前的图像帧中,在所述检测对象物体的检测位置的邻近区域中,获得追踪物体;以及确定单元,其被构造为通过将由所述检测单元检测到所述检测对象物体的位置与由所述追踪单元获得所述追踪物体的位置进行整合,来确定所述追踪物体是否对应于所述检测对象物体。
通过以下参照附图对示例性实施例的描述,本发明的其他特征将变得清楚。
附图说明
图1例示了根据第一示例性实施例的图像识别装置的构造。
图2是用于描述检测和追踪的协作处理的说明图。
图3是根据第一示例性实施例的处理流程图。
图4A、图4B和图4C例示了示例检测结果。
图5例示了在检测结果存储单元中的示例存储格式。
图6例示了在物体信息存储单元中的示例存储格式。
图7例示了在初始状态下的追踪结果存储单元中的示例存储格式。
图8例示了在物体追踪期间,追踪结果存储单元中的示例存储格式。
图9例示了追踪结果的示例图像输出。
图10例示了根据第二示例性实施例的图像识别装置的构造。
具体实施方式
在下文中,将参照附图描述本发明的示例性实施例。
第一示例性实施例
图1例示了根据第一示例性实施例的图像识别装置的构造。如图1中例示,根据本示例性实施例的图像识别装置包括:图像获得单元100、物体辨识单元200、物体检测单元300、第一物体追踪单元400、第二物体追踪单元500、检测结果整合单元600、追踪物体确定单元700、追踪结果输出单元800、检测结果存储单元910、物体信息存储单元920以及追踪结果存储单元930。
图像获得单元100从由诸如视频摄像机等的摄像单元摄取的运动图像,获得图像帧数据。在此获得的图像帧数据是RGB图像。物体辨识单元200计算并输出由图像获得单元100获得的图像帧数据(在下文中,也将被简称为图像)的局部区域包括被设置为检测对象的物体的似然度。根据本示例性实施例,人被设置为检测对象。即,由物体辨识单元200输出的似然度是表示局部区域图像有多大可能为人的值。
物体检测单元300从由图像获得单元100获得的图像,扫描局部区域,并且针对依次设置的局部区域的图像数据,即局部区域图像,在由物体辨识单元200输出的似然度的基础上,检测图像中的物体位置。物体检测单元300输出检测到物体的检测位置以及对应的局部区域图像。根据本示例性实施例,物体检测单元300检测人在图像中的位置。
第一物体追踪单元400从由图像获得单元100获得的图像中的区域的部分,扫描局部区域,并且针对依次设置的局部区域图像,在由物体辨识单元200输出的似然度的基础上,追踪由物体检测单元300检测到的物体。在此,由第一物体追踪单元400扫描的区域的部分是在由物体获得单元100在先前时刻获得的图像中,物体检测单元300检测到物体的位置的邻近区域。根据本示例性实施例,第一物体追踪单元400追踪人在图像中的位置。
第二物体追踪单元500从由图像获得单元100获得的图像中的区域的部分,扫描局部区域,并且针对依次设置的局部区域图像,通过使用由物体检测单元300检测到的局部区域图像,来追踪物体。在此,由第二物体追踪单元500扫描的区域的部分是由物体检测单元300检测到的物体位置的邻近区域。由第二物体追踪单元500追踪的要输出的物体位置,相当于对由物体检测单元300检测到的物体的检测结束时的位置。一般而言,由于物体检测需要时间,因此不是针对各个帧的所有区域进行物体检测,而是通过花费几个帧的时间,对几个帧中的一个帧进行物体检测。由于这个原因,在检测结束时的帧与在检测开始时的帧不同,并且由第二物体追踪单元500进行追踪。
检测结果整合单元600在位置信息的基础上,将由物体检测单元300检测到的物体与由第一物体追踪单元400追踪到的物体相关联。追踪物体确定单元700在由物体辨识单元200输出的、由第一物体追踪单元400追踪到的物体的似然度的基础上,确定当前追踪的物体是否是被设置为检测和追踪对象的物体。根据本示例性实施例,追踪物体确定单元700确定当前追踪的物体是否为人。
追踪结果输出单元800输出追踪结果。例如,表示被确定为人的局部区域图像的矩形,叠加在由图像获得单元100获得的、要显示在显示器上的图像数据上。检测结果存储单元910存储与由物体检测单元300检测到的物体位置相对应的局部区域图像,作为检测结果。
物体信息存储单元920将由第一物体追踪单元400和第二物体追踪单元500追踪到的物体位置在与图像数据的摄像时间相关联的同时,作为物体信息进行存储。
追踪结果存储单元930存储由第一物体追踪单元400和第二物体追踪单元500进行的追踪的结果。针对各个追踪物体,将追踪结果与在不同时刻的物体信息相关联,并且根据该结果,能够再现物体的移动轨迹。
在下文中,将按照图3中例示的处理流程图,描述根据本示例性实施例的操作。图像获得单元100获得摄取的图像数据。所获得的图像数据中的各个被存储在图像获得单元100的存储器中(步骤S100)。物体检测单元300从在步骤S100中获得的图像扫描局部区域,并且检测图像中的物体位置(步骤S200)。针对从图像切出的局部区域图像,物体检测单元300获得局部区域图像包括通过使用物体辨识单元200而设置为检测对象的物体的似然度。然后,物体检测单元300确定具有比预定阈值高的似然度的局部区域为检测对象物体,并输出其位置。作为由物体检测单元300进行的检测方法,例如,能够采用上述的由达拉尔(Dalal)及其他人的论文中描述的方法。根据该方法,当位置在图像中逐步移位的同时,从图像扫描具有预定大小和形状的局部区域,并且针对切出的局部区域图像获得HOG特征量,以通过支持向量机(SVM)来检测人。
在此,SVM的输出相当于似然度。为了从图像检测具有不同大小的人,对图像预先进行缩小处理以具有预定倍率(例如,0.8的倍率或与其平方根相对应的0.82的倍率),并且还对缩小后的图像中的各个进行检测处理。在下文中,为了简单起见,将描述仅对一个大小进行检测的情况作为示例。因此,在此输出的检测结果是在图像中的在水平方向和垂直方向上的位置,并且对应于例如在图像上的局部区域的左上边缘处的坐标。
在步骤S210中,确定从图像是否检测到对象物体(根据本示例性实施例为人)。在未检测到对象物体的情况下,处理转移到步骤S900。在步骤S900中,为了处理在下一时刻(例如0.03秒后等的预定时间)的图像,处理转移到步骤S100。应当注意,在步骤S210中“未检测到对象物体的情况”包括在步骤S200中的检测处理在预定时间中未结束的情况,以及进行了物体检测处理但最终未检测到物体的情况二者。另一方面,在步骤S210中,在检测到对象物体的情况下,处理转移到步骤S220。
检测结果存储单元910存储由物体检测单元300检测到的物体位置,以及与其物体位置相对应的局部区域图像,作为检测结果(步骤S220)。例如,如图4A中例示,从图像检测到2个人。在这种情况下,存储图4A中的、点P1和点P2在水平方向和垂直方向上的位置坐标。同时,存储如图4B和4C中例示的局部区域图像的多条图像数据。将这些结果分别与识别号相关联。图5例示了在检测结果存储单元910中的示例存储格式。(x1,y1)和(x2,y2)分别表示点P1和点P2的在水平和垂直方向上的位置坐标,并且{p11,p12,...,p1N}和{p21,p22,...,p2N}分别表示局部区域图像的像素值。然而,应当注意,N为局部区域图像的像素的数量。类似地,在从1个图像检测到L个人的情况下,针对识别号1至L存储这些结果。
检测结果整合单元600在其位置信息的基础上,将由物体检测单元300检测到的检测结果与由第一物体追踪单元400追踪到的追踪结果相关联(步骤S230)。将针对在步骤S220中存储的检测结果中的各个的位置坐标,与针对由第一物体追踪单元400进行的追踪的结果的位置坐标进行比较,以确定位置坐标是否彼此匹配。然而,应当注意,在坐标值之间的差在预定范围内的情况下,位置坐标也可以被视为彼此匹配。由第一物体追踪单元400进行的追踪的结果被存储在物体信息存储单元920中。下面将描述第一物体追踪单元400中的追踪处理以及追踪结果的详情。
在步骤S240中,在与由物体检测单元300检测到的所有检测结果相对应的物体,已经存在于物体信息存储单元920中的情况下,处理转移到步骤S900。在步骤S900中,为了处理在下一时刻的图像,处理转移到步骤S100。另一方面,在步骤S240中,在与由物体检测单元300检测到的检测结果相对应的物体,未存在于物体信息存储单元920中的情况下,即检测结果包括新的物体的情况,处理转移到步骤S250。
第二物体追踪单元500从在步骤S100中获得的图像中的区域的部分,扫描局部区域,并且针对依次设置的局部区域图像,通过使用由物体检测单元300在步骤S200中检测到的局部区域图像来追踪物体(步骤S250)。在此,由第二物体追踪单元500追踪到的对象是在步骤S240中被确定为新的物体的物体,并且扫描在检测结果存储单元910中存储的物体位置的邻近区域。要扫描的邻近区域的范围,根据如下要被拍摄场景而被预先设置,该要被拍摄的场景以覆盖从获得图像直到物体检测处理结束为止的物体移动的范围。由于物体检测单元300的处理时间依赖于要处理的图像,因此也可以根据处理时间适当地设置要扫描的邻近区域的范围。
第二物体追踪单元500将在步骤S100中获得的图像的局部区域图像与在检测结果存储单元910中存储的局部区域图像彼此关联,并且输出图像之间具有最高的相似程度的物体位置,作为追踪结果。可以从图像数据的相关性或差的绝对值之和,来获得图像之间的相似程度,或者可以通过从各个图像提取图像特征量并获得图像特征量的相似程度,来获得图像之间的相似程度。例如,HOG特征量或颜色直方图能够被用作图像特征量。在此输出的物体位置相当于由物体检测单元300检测到的物体检测结束时的位置,并且第二物体追踪单元500从图像之间的相似程度来估计位置。
由第二物体追踪单元500追踪到的结果被添加到物体信息存储单元920和追踪结果存储单元930中(步骤S260)。由第二物体追踪单元500追踪到的物体位置在与图像数据的摄像时间相关联的同时,作为物体信息被存储在物体信息存储单元920中。存储的摄像时间可以是实际的摄像时间,或者是与摄像时间相对应的帧编号。将这些结果分别与识别号相关联。图6例示了在物体信息存储单元920中的例示存储格式。(x1,y1)和(x2,y2)分别表示追踪到的物体的位置坐标,并且f1和f2分别表示追踪到的图像的帧编号。在从1个图像追踪到2个物体的情况下,f1和f2就变为相同的编号。
在物体信息存储单元920中存储的、由第二物体追踪单元500追踪到的物体的物体信息的识别号,被存储在追踪结果存储单元930中,以便针对各个追踪对象,在不同的时刻被关联。将这些结果分别与追踪结果的识别号相关联。在步骤S260中,由于第一次存储新检测到的物体的追踪结果,因此存在物体信息的一个识别号。此外,表示状态的标识符被分配给各个追踪结果。图7例示了在追踪结果存储单元930中的示例存储格式。
图7的示例涉及通过由物体检测单元300检测2个物体并且由第二物体追踪单元500追踪各个物体而获得的结果,作为新检测到的物体。ID1和ID2分别表示在物体信息存储单元920中存储的、与追踪结果的识别号相对应的物体信息的识别号。“检测”表示“新检测到物体”的状态。根据本示例性实施例,包括“检测”、“追踪”及“识别”的三种状态被用作表示追踪结果的状态的标识符。“追踪”和“识别”分别表示“追踪进行中”和“识别为对象物体”。下面将描述状态更新的详情。
在步骤S900中,为了获得在下一时刻的图像,处理转移到步骤S100。根据本示例性实施例,从在步骤S100中获得的图像追踪检测到的物体的处理,与在步骤S200至S260中的处理并行地进行。在步骤S300中,参照在物体信息存储单元920中存储的物体信息,以搜索被设置为追踪对象的物体是否存在于在先前时刻的图像中。例如,在获得在时刻t的图像的情况下,检查是否存在具有相当于时刻t-1的帧编号的物体信息。在不存在被设置为追踪对象的物体的情况下,处理转移到步骤S900。在步骤S900中,为了获得在下一时刻的图像,处理转移到步骤S100。另一方面,在存在被设置为追踪对象的物体的情况下,获得物体信息的相关的识别号,并且处理转移到步骤S400。
第一物体追踪单元400从在步骤S100中获得的图像中的区域的部分,扫描局部区域,并且针对依次设置的局部区域图像,在由物体辨识单元200输出的似然度的基础上,追踪物体(步骤S400)。在此,由第一物体追踪单元400追踪到的物体,是在物体信息存储单元920中存储的物体,并且扫描在物体信息存储单元920中存储的物体位置的邻近区域。按照要拍摄的场景,预先设置要扫描的邻近区域的范围,以便覆盖物体在先前帧和下一帧的图像获得时段期间移动的范围。因此,第一物体追踪单元400扫描比由第二物体追踪单元500扫描的范围更窄的范围。第一物体追踪单元400针对通过使用物体辨识单元200在步骤S100中获得的图像的局部区域图像,获得局部区域图像包括被设置为检测对象的物体的似然度。然后,在扫描的邻近区域中具有最高似然度的物体位置被输出为追踪结果。重复进行在步骤S400中的处理,次数为在步骤S300中获得的物体信息的数量。
由第一物体追踪单元400进行的追踪的结果,被添加到物体信息存储单元920和追踪结果存储单元930中(步骤S410)。由第一物体追踪单元400追踪到的物体位置在与图像数据的摄像时间相关联的同时,作为物体信息被存储在物体信息存储单元920中。以如图6例示的格式存储物体信息。在物体信息存储单元920中存储的、由第一物体追踪单元400追踪到的物体的物体信息的识别号,在针对各个追踪物体被在不同的时刻之间相关联的同时,被存储在追踪结果存储单元930中。将这些结果分别与追踪结果的识别号相关联。
从追踪结果存储单元930,搜索在步骤S300中获得的物体信息的识别号,并且将由第一物体追踪单元400追踪到的物体识别号,添加到保持有匹配的识别号的检测结果。此外,追踪结果的状态更新为“追踪”。图8例示了此时在追踪结果存储单元930中存储的示例追踪结果。{ID11,ID12}和{ID21,ID22}分别表示在物体信息存储单元920中存储的、与追踪结果的识别号相对应的物体信息的识别号。“追踪”表示“追踪进行中”的状态。在该示例中,由第二物体追踪单元500在先前时刻开始追踪的、具有识别号ID11和ID21的物体,与由第一物体追踪单元400追踪的、具有识别号ID12和ID22的物体相关联。例如,在N帧期间追踪物体的情况下,物体信息的N识别号被一起存储在检测结果中。重复进行步骤S410中的处理,次数为在步骤S300中获得的物体信息的数量。
追踪物体确定单元700在由物体辨识单元200输出的、由第一物体追踪单元400追踪到的物体的似然度的基础上,确定当前追踪的物体是否是被设置为检测和追踪对象的物体(步骤S420)。确定由物体辨识单元200输出的、在步骤S400中获得的追踪结果中的各个的似然度是否高于预定阈值,在似然度高于预定值的情况下,当前追踪的物体被确认为对象物体。此时,追踪结果的状态更新为“识别”。根据本示例性实施例,将相对低的值设置为物体检测单元300在步骤S200中使用的阈值,以提高检测率。即,由物体检测单元300检测到的物体,处于未被确认为被设置为追踪物体的物体的状态,并且是要被追踪物体确定单元700确认为追踪物体的候选。另一方面,将比步骤S200中的值高的值,设置为追踪物体确定单元700在步骤S420中使用的阈值,以抑制误检测。
应当注意,根据本示例性实施例,在当前追踪的物体的似然度高于预定值的情况下,物体被确认为对象物体,但是可以通过从当前追踪的物体在不同时刻的多个似然度获得统计量,来确认物体为对象物体。例如,似然度取大于预定值的值的频数或相对频数(似然度取大于预定值的值的频数与作为统计对象的总频数的比)被设置为统计量。当通过如上述从多个似然度获得统计量来进行确定时,确定结果的精度提高,并且能够获得更加可靠的结果。为了通过获得统计量来进行确定处理,在步骤S200中的物体检测处理中获得的似然度和在步骤S400中的物体追踪处理中获得的似然度,与物体位置一起被分别存储在检测结果存储单元910和物体信息存储单元920中。重复进行在步骤S420中的处理,次数为在步骤S300中获得的物体信息的数量。
追踪结果输出单元800输出在步骤S420中被确认为对象物体的追踪结果(步骤S430)。图9例示了示例图像输出。在图9中,由矩形表示被确认为对象物体的局部区域(根据本示例性实施例为人),并且由虚线表示物体被追踪的轨迹。从在追踪结果存储单元930中存储的追踪结果之中提取“识别”状态下的结果,从物体信息识别号获得在物体信息存储单元920中存储的物体信息的位置坐标,以绘制矩形和轨迹。通过将在过去的时间的局部区域的中心位置彼此连接,来获得轨迹。在步骤S900中,为了获得在下一时刻的图像,处理转移到步骤S100。
如上所述,根据第一示例性实施例,当在随后的时间序列图像中追踪曾检测到的人时,并行地持续进行人物检测。然后,第一物体追踪单元400通过使用物体辨识单元200来追踪人,并且针对各个获得的图像,在追踪物体确定单元700中基于由物体辨识单元200输出的似然度,确定追踪对象是否为人。其结果是,由于能够以比检测处理的频数更高的频数并且还基于严格的阈值,来确定追踪对象是否为人,因此能够在抑制误检测的同时提高检测率。
此外,虽然在追踪物体确定单元700中使用的低于阈值的值被设置为在物体检测单元300中使用的阈值,但是准备了更多的追踪对象候选,并且能够提高检测率。此外,根据上述示例性实施例,第二物体追踪单元500追踪由物体检测单元300新检测到的物体,并且估计在检测处理结束时的位置。其结果是,即使在检测处理需要时间并且物体大幅移动的情况下,也能够精确地追踪物体。
第二示例性实施例
在能够以高速执行检测处理,或者被设置为检测对象的物体的移动速度相对缓慢的情况下,由于不需要估计检测物体在检测期间的移动之后的位置,因此能够通过省略第二物体追踪单元500来采用更为简单的构造。图10例示了该构造。在图10中,具有与图1的附图标记相同的附图标记的组件具有同等功能。操作与图3中例示的处理流程一致,但不包括在步骤S250中由第二物体追踪单元500进行的物体追踪处理。
根据上述示例性实施例,已经给出了在假设从整个图像扫描局部区域以进行检测处理的情况下的描述,但是扫描区域可以是图像中的区域的部分。能够将区域限制为人可以从图像出现的区域,诸如,例如相当于图像的端部的区域或者在拍摄场景中人的出入口的区域等。
此外,根据上述示例性实施例,已经给出了在假设检测到出现在图像中的、具有预定大小的人的情况下的描述,但是可以检测具有不同大小的人。在这种情况下,不仅位置坐标,还有大小也可以被存储在检测结果或物体信息中。
此外,为了提高人的检测精度,能够采用物体辨识单元200配设有多个人物模型的构造。例如,分别地配设有包括正面模型、背面模型、左侧模型及右侧模型的4个人物模型,并且获得各自的似然度。然后,物体检测单元300从具有最高似然度的结果,进行检测处理。通过根据与由物体检测单元300检测到的物体相对应的模型,选择物体辨识单元200的模型,能够有效地追踪第一物体追踪单元400中的物体。例如,在物体检测单元300以正面模型检测人的情况下,通过将人物模型限制为包括正面模型、左侧模型及右侧模型的3个人物模型,来进行物体追踪处理。
上面已描述了将本发明的示例性实施例应用到从图像检测人的情况的示例,但是本发明的实施例可以被广泛应用到除人之外的物体被设置为检测对象的情况。
根据上述示例性实施例,在从物体辨识单元输出的似然度的基础上,确定当前追踪的物体是否是被设置为检测对象的物体。因此,即使检测器进行误检测,由于当正在追踪对象的同时,确定物体是否为人,所以能够精确地检测并追踪人。
其他实施例
还可以通过读出并执行记录在存储介质(例如“非暂时性计算机可读存储介质”)上的计算机可执行指令(例如,一个或更多个程序)以执行上述实施例中的一个或更多个的功能,并且,可以利用通过由系统或装置的计算机例如读出并执行来自存储介质的计算机可执行指令以执行上述实施例中的一个或更多个的功能的方法,来实现本发明的实施例。计算机可以包括中央处理单元(CPU)、微处理单元(MPU)或其他电路中的一个或更多个,并且可以包括分开的计算机或分开的计算机处理器的网络。计算机可执行指令可以例如从网络或存储介质被提供给计算机。存储介质可以包括例如硬盘、随机存取存储器(RAM)、只读存储器(ROM)、分布式计算系统的存储器、光盘(诸如压缩光盘(CD)、数字通用光盘(DVD)或蓝光光盘(BD)TM)、闪存装置以及存储卡等中的一个或更多个。
本发明的实施例还可以通过如下的方法来实现,即,通过网络或者各种存储介质将执行上述实施例的功能的软件(程序)提供给系统或装置,该系统或装置的计算机或是中央处理单元(CPU)、微处理单元(MPU)读出并执行程序的方法。
虽然参照示例性实施例对本发明进行了描述,但是应当理解,本发明不限于所公开的示例性实施例。应当对所附权利要求的范围给予最宽的解释,以使其涵盖所有这些变型例以及等同的结构和功能。
Claims (16)
1.一种图像处理装置,所述图像处理装置包括:
获得单元,其被构造为获得运动图像;
检测单元,其被构造为从所述运动图像中的关注图像帧,对检测对象物体进行检测;
追踪单元,其被构造为在所述运动图像中的所述关注图像帧先前的图像帧中,在所述检测对象物体的检测位置的邻近区域中,获得追踪物体;以及
确定单元,其被构造为通过将由所述检测单元检测到所述检测对象物体的位置与由所述追踪单元获得所述追踪物体的位置进行整合,来确定所述追踪物体是否对应于所述检测对象物体。
2.根据权利要求1所述的图像处理装置,所述图像处理装置还包括:
输出单元,其被构造为输出基于所述确定单元确定所述追踪物体是否对应于所述检测对象物体的结果。
3.根据权利要求1所述的图像处理装置,其中,所述检测单元计算所述关注图像帧包括所述检测对象物体的似然度,并且基于该似然度来检测所述检测对象物体。
4.根据权利要求1所述的图像处理装置,其中,所述追踪单元计算所述检测位置的所述邻近区域包括所述检测对象物体的似然度,并且基于该似然度来获得所述追踪物体。
5.根据权利要求4所述的图像处理装置,其中,在所述似然度高于第一阈值的情况下,所述追踪单元确认所述追踪物体为所述检测对象物体。
6.根据权利要求5所述的图像处理装置,其中,所述追踪单元针对所述追踪物体,从在不同时刻的多个似然度获得统计量,并且基于该统计量,确认所述追踪物体为所述检测对象物体。
7.根据权利要求6所述的图像处理装置,其中,所述统计量为所述多个似然度取高于所述第一阈值的值的频数或相对频数。
8.根据权利要求6所述的图像处理装置,其中,在所述似然度高于第二阈值的情况下,所述检测单元检测所述物体。
9.根据权利要求8所述的图像处理装置,其中,所述第二阈值低于所述第一阈值。
10.根据权利要求1所述的图像处理装置,其中,所述检测单元在所述关注图像帧中设置多个局部区域,并且针对各个局部区域检测所述检测对象物体。
11.根据权利要求1所述的图像处理装置,所述图像处理装置还包括:
又一追踪单元,其被构造为估计所述检测单元检测到的所述检测对象物体的位置。
12.根据权利要求11所述的图像处理装置,其中,所述又一追踪单元被构造为通过扫描所述运动图像中的图像帧中的区域的部分,来获得所述检测对象物体,并且该扫描的范围比所述追踪单元的扫描范围更广。
13.根据权利要求1所述的图像处理装置,其中,所述检测单元针对所述运动图像中的图像帧的部分,进行检测。
14.根据权利要求13所述的图像处理装置,其中,所述检测单元针对所述运动图像中的每预定数量的图像帧,进行所述检测。
15.一种图像处理方法,所述图像处理方法包括如下的步骤:
获得步骤,获得运动图像;
检测步骤,从所述运动图像中的关注图像帧,对检测对象物体进行检测;
获得步骤,在所述运动图像中的所述关注图像帧先前的图像帧中,在所述检测对象物体的检测位置的邻近区域中,获得追踪物体;以及
确定步骤,通过将检测到所述检测对象物体的位置与获得的所述追踪物体的位置进行整合,来确定所述追踪物体是否对应于所述检测对象物体。
16.根据权利要求15所述的图像处理方法,所述图像处理方法还包括如下的步骤:
输出步骤,输出基于所述确定步骤确定所述追踪物体是否对应于所述检测对象物体的结果。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015040748A JP6655878B2 (ja) | 2015-03-02 | 2015-03-02 | 画像認識方法及び装置、プログラム |
JP2015-040748 | 2015-03-02 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105938622A true CN105938622A (zh) | 2016-09-14 |
CN105938622B CN105938622B (zh) | 2020-06-30 |
Family
ID=55588047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610118359.8A Active CN105938622B (zh) | 2015-03-02 | 2016-03-02 | 检测运动图像中的物体的方法和装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10417773B2 (zh) |
EP (1) | EP3065082A1 (zh) |
JP (1) | JP6655878B2 (zh) |
KR (1) | KR101971866B1 (zh) |
CN (1) | CN105938622B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019061713A1 (zh) * | 2017-09-29 | 2019-04-04 | 南京阿凡达机器人科技有限公司 | 一种基于机器人的目标图像显示处理方法及系统 |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5999394B2 (ja) * | 2015-02-20 | 2016-09-28 | パナソニックIpマネジメント株式会社 | 追跡支援装置、追跡支援システムおよび追跡支援方法 |
US20170054982A1 (en) * | 2015-08-19 | 2017-02-23 | Hitachi, Ltd. | Real time video stream processing systems and methods thereof |
CN105957110B (zh) * | 2016-06-29 | 2018-04-13 | 上海小蚁科技有限公司 | 用于检测对象的设备和方法 |
CN106504270B (zh) * | 2016-11-08 | 2019-12-20 | 浙江大华技术股份有限公司 | 一种视频中目标物体的展示方法及装置 |
JP6914699B2 (ja) * | 2017-04-04 | 2021-08-04 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10839552B2 (en) * | 2017-06-01 | 2020-11-17 | Nec Corporation | Image processing apparatus, tracking method, and program |
US10395385B2 (en) | 2017-06-27 | 2019-08-27 | Qualcomm Incorporated | Using object re-identification in video surveillance |
JP2019020360A (ja) * | 2017-07-21 | 2019-02-07 | 日本電信電話株式会社 | 物体認識装置、物体認識方法、及びプログラム |
CN107820010B (zh) * | 2017-11-17 | 2020-11-06 | 英业达科技有限公司 | 摄影计数装置 |
JP7208713B2 (ja) * | 2018-02-13 | 2023-01-19 | キヤノン株式会社 | 画像解析装置および画像解析方法 |
JP6977624B2 (ja) * | 2018-03-07 | 2021-12-08 | オムロン株式会社 | 物体検出装置、物体検出方法、およびプログラム |
WO2019180917A1 (ja) | 2018-03-23 | 2019-09-26 | 日本電気株式会社 | オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム |
US10593049B2 (en) * | 2018-05-30 | 2020-03-17 | Chiral Software, Inc. | System and method for real-time detection of objects in motion |
CN108898086B (zh) * | 2018-06-20 | 2023-05-26 | 腾讯科技(深圳)有限公司 | 视频图像处理方法及装置、计算机可读介质和电子设备 |
TWI692731B (zh) * | 2019-01-02 | 2020-05-01 | 瑞昱半導體股份有限公司 | 物件位置判斷電路 |
CN111416916B (zh) * | 2019-01-04 | 2022-07-26 | 瑞昱半导体股份有限公司 | 物件位置判断电路 |
JP6579727B1 (ja) * | 2019-02-04 | 2019-09-25 | 株式会社Qoncept | 動体検出装置、動体検出方法、動体検出プログラム |
JP7196999B2 (ja) | 2019-04-17 | 2022-12-27 | 日本電気株式会社 | オブジェクト検出・追跡装置、方法、およびプログラム |
JP6785437B2 (ja) * | 2019-09-19 | 2020-11-18 | パナソニックIpマネジメント株式会社 | 人物行動監視装置および人物行動監視システム |
JP7360303B2 (ja) * | 2019-11-08 | 2023-10-12 | 株式会社デンソーテン | 画像処理装置および画像処理方法 |
CN112614156A (zh) * | 2020-12-16 | 2021-04-06 | 深圳市安软科技股份有限公司 | 一种多目标跟踪网络模型的训练方法、装置及相关设备 |
JP7494130B2 (ja) * | 2021-01-19 | 2024-06-03 | 株式会社東芝 | 情報処理システム、情報処理方法およびプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7110569B2 (en) * | 2001-09-27 | 2006-09-19 | Koninklijke Philips Electronics N.V. | Video based detection of fall-down and other events |
CN101540863A (zh) * | 2008-03-19 | 2009-09-23 | 卡西欧计算机株式会社 | 图像记录方法以及图像记录装置 |
CN102422325A (zh) * | 2009-05-11 | 2012-04-18 | 佳能株式会社 | 用于识别对象及另一低级别对象的模式识别装置及其方法 |
CN102457680A (zh) * | 2010-11-05 | 2012-05-16 | 佳能株式会社 | 图像处理装置及图像处理方法 |
CN103106667A (zh) * | 2013-02-01 | 2013-05-15 | 山东科技大学 | 一种面向遮挡和场景变换的运动对象追踪方法 |
US20130136303A1 (en) * | 2011-11-30 | 2013-05-30 | Canon Kabushiki Kaisha | Object detection apparatus, method for controlling the object detection apparatus, and storage medium |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080073933A (ko) * | 2007-02-07 | 2008-08-12 | 삼성전자주식회사 | 객체 트래킹 방법 및 장치, 그리고 객체 포즈 정보 산출방법 및 장치 |
JP5498454B2 (ja) * | 2011-09-15 | 2014-05-21 | 株式会社東芝 | 追跡装置、追跡方法およびプログラム |
WO2013128839A1 (ja) * | 2012-03-02 | 2013-09-06 | 日本電気株式会社 | 画像認識システム、画像認識方法およびコンピュータ・プログラム |
JP2014048702A (ja) | 2012-08-29 | 2014-03-17 | Honda Elesys Co Ltd | 画像認識装置、画像認識方法、及び画像認識プログラム |
US9852511B2 (en) * | 2013-01-22 | 2017-12-26 | Qualcomm Incoporated | Systems and methods for tracking and detecting a target object |
US9589595B2 (en) * | 2013-12-20 | 2017-03-07 | Qualcomm Incorporated | Selection and tracking of objects for display partitioning and clustering of video frames |
US9489598B2 (en) * | 2014-08-26 | 2016-11-08 | Qualcomm Incorporated | Systems and methods for object classification, object detection and memory management |
US9811732B2 (en) * | 2015-03-12 | 2017-11-07 | Qualcomm Incorporated | Systems and methods for object tracking |
-
2015
- 2015-03-02 JP JP2015040748A patent/JP6655878B2/ja active Active
-
2016
- 2016-02-26 EP EP16157703.6A patent/EP3065082A1/en active Pending
- 2016-03-01 US US15/058,067 patent/US10417773B2/en active Active
- 2016-03-02 KR KR1020160024845A patent/KR101971866B1/ko active IP Right Grant
- 2016-03-02 CN CN201610118359.8A patent/CN105938622B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7110569B2 (en) * | 2001-09-27 | 2006-09-19 | Koninklijke Philips Electronics N.V. | Video based detection of fall-down and other events |
CN101540863A (zh) * | 2008-03-19 | 2009-09-23 | 卡西欧计算机株式会社 | 图像记录方法以及图像记录装置 |
CN102422325A (zh) * | 2009-05-11 | 2012-04-18 | 佳能株式会社 | 用于识别对象及另一低级别对象的模式识别装置及其方法 |
CN102457680A (zh) * | 2010-11-05 | 2012-05-16 | 佳能株式会社 | 图像处理装置及图像处理方法 |
US20130136303A1 (en) * | 2011-11-30 | 2013-05-30 | Canon Kabushiki Kaisha | Object detection apparatus, method for controlling the object detection apparatus, and storage medium |
CN103106667A (zh) * | 2013-02-01 | 2013-05-15 | 山东科技大学 | 一种面向遮挡和场景变换的运动对象追踪方法 |
Non-Patent Citations (1)
Title |
---|
CREUSEN IVO M,ET AL.: "ViCoMo: visual context modeling for scene understanding in video surveillance", 《JOURNAL OF ELECTRONIC IMAGING》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019061713A1 (zh) * | 2017-09-29 | 2019-04-04 | 南京阿凡达机器人科技有限公司 | 一种基于机器人的目标图像显示处理方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
US20160260226A1 (en) | 2016-09-08 |
KR20160106514A (ko) | 2016-09-12 |
CN105938622B (zh) | 2020-06-30 |
JP2016162232A (ja) | 2016-09-05 |
US10417773B2 (en) | 2019-09-17 |
EP3065082A1 (en) | 2016-09-07 |
KR101971866B1 (ko) | 2019-04-24 |
JP6655878B2 (ja) | 2020-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105938622A (zh) | 检测运动图像中的物体的方法和装置 | |
JP6986576B2 (ja) | 物品識別方法及びシステム、電子機器 | |
US10769480B2 (en) | Object detection method and system | |
JP6972757B2 (ja) | 制御プログラム、制御方法、及び情報処理装置 | |
JP6972756B2 (ja) | 制御プログラム、制御方法、及び情報処理装置 | |
CN109190508B (zh) | 一种基于空间坐标系的多摄像头数据融合方法 | |
Weinzaepfel et al. | Learning to detect motion boundaries | |
CN101834986B (zh) | 成像装置、运动体检测方法、运动体检测电路和程序 | |
CN105940430A (zh) | 人员计数方法及其装置 | |
CN104615986B (zh) | 利用多检测器对场景变化的视频图像进行行人检测的方法 | |
CN110781733B (zh) | 图像去重方法、存储介质、网络设备和智能监控系统 | |
CN108198172B (zh) | 图像显著性检测方法和装置 | |
CN106603968A (zh) | 信息处理装置及信息处理方法 | |
CN110533654A (zh) | 零部件的异常检测方法及装置 | |
US20180053314A1 (en) | Moving object group detection device and moving object group detection method | |
CN110544268B (zh) | 一种基于结构光及SiamMask网络的多目标跟踪方法 | |
CN105095853A (zh) | 图像处理装置及图像处理方法 | |
CN108932509A (zh) | 一种基于视频跟踪的跨场景目标检索方法及装置 | |
CN111091025A (zh) | 图像处理方法、装置和设备 | |
Bartl et al. | PersonGONE: Image inpainting for automated checkout solution | |
CN104504162B (zh) | 一种基于机器人视觉平台的视频检索方法 | |
Yan et al. | Automatic extraction of moving objects from image and LIDAR sequences | |
JP2018120402A (ja) | イベント検出装置、イベント検出方法、プログラム | |
Tagore et al. | SMSNet: A Novel Multi-scale Siamese Model for Person Re-Identification. | |
CN111967403A (zh) | 视频移动区域确定方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |