CN105051754A - 用于通过监控系统检测人的方法和装置 - Google Patents

用于通过监控系统检测人的方法和装置 Download PDF

Info

Publication number
CN105051754A
CN105051754A CN201380069827.1A CN201380069827A CN105051754A CN 105051754 A CN105051754 A CN 105051754A CN 201380069827 A CN201380069827 A CN 201380069827A CN 105051754 A CN105051754 A CN 105051754A
Authority
CN
China
Prior art keywords
profile shape
prospect profile
scene
prospect
people
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201380069827.1A
Other languages
English (en)
Other versions
CN105051754B (zh
Inventor
H.朱
L.王
F.阿格达西
G.米勒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pelco Inc
Original Assignee
Pelco Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pelco Inc filed Critical Pelco Inc
Publication of CN105051754A publication Critical patent/CN105051754A/zh
Application granted granted Critical
Publication of CN105051754B publication Critical patent/CN105051754B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Abstract

监控系统可以在私人和公共空间两者中找到。在私人空间中,它们可以被设计为帮助监视安全房屋。类似地,公共空间也可以使用监控系统来确定公共资源的分配。根据本发明的实施例的照相机监控系统使用高级图像处理技术,来确定在场景上移动的对象是否是人。照相机监控系统通过对诸如定义OMEGA形状的特征的与对象相关联的特征的集合进行选择性的处理,来实现准确并且有效的识别。通过对与对象相关联的特征的集合进行选择性的处理,这里描述的方法和系统降低了标准图像处理/对象检测技术的计算复杂度。

Description

用于通过监控系统检测人的方法和装置
相关申请
本申请是2012年11月21日提交的美国申请第13/683,977号的继续申请。
上述申请的全部教导通过引用包含于此。
背景技术
用于在视频监控系统中检测人的方法可以由人通过视觉进行或者由计算机自动进行。自动化技术的示例包括面部识别,其可以用于区分人和无生命的对象或动物,或者可以用于确定个人的身份。
发明内容
根据本发明的示例实施例的通过监控系统检测人的方法包括:在视频文件中从至少两帧中识别场景内的前景轮廓形状和前景轮廓形状的轨迹。所述方法还可以包括:确定场景内的前景轮廓形状的特征和前景轮廓形状的轨迹。监控系统还可以使用前景轮廓形状的形状特征和轨迹,对前景轮廓形状的至少一部分进行分类,以确定前景轮廓形状是否与人参考模型匹配。
为了确定轮廓形状是否与人参考模型匹配,系统可以检测头和肩的形状。系统还可以对头和肩的形状应用OMEGA(即OMEGA形状(Ω))分类器,以确定是否存在可以用来对与例如诸如狗之类的动物的形状相对的人的形状进行分类的适合(fit)。
检测人的处理还可以包括:对前景轮廓形状应用帧内局部检测器,以确定前景轮廓形状是否与人参考模型匹配。依据这种实施方式,监控系统可以在视频文件中识别场景内的多个前景轮廓形状和与多个前景轮廓形状中的每一个相关联的多个轨迹。所述方法还可以对访问的场景位置分配多个帧内局部检测器。还可以对访问的场景位置中的每一个应用所分配的多个帧内检测器,以确定前景轮廓形状中的每一个是否与人参考模型匹配。
为了进行检测,所述方法可以进行特征提取。例如,可以从场景内的一个或多个前景对象或者场景内的多个前景对象中提取特征。从前景对象中提取的对象可以包括、但不限于:对象形状、对象尺寸、对象高度、对象宽度、长宽比、明显移动方向的定向长宽比、头-肩特征、对象形状的长宽比和对象形状的链代码的直方图。还可以从视频文件中的前景轮廓形状的轨迹中提取诸如明显移动方向和定向长宽比的其它特征。根据这些示例特征,所述方法可以根据前景形状的轨迹确定预期的移动,并且传播前景轮廓形状的轨迹的特征,用于在确定对象是否以与人预计或可能的移动一致的方式移动时使用。
所述方法还可以识别定义前景轮廓形状的周长的链代码。根据这些链代码,可以进行根据链代码对对象形状和对象尺寸的确定。可以进一步对对象形状和对象尺寸的确定进行分类,以确定前景轮廓形状是否与人参考模型匹配。
监控系统可以包括照相机,其被配置为从场景中捕获图像数据。监控系统还可以包括与照相机进行通信的场景分析器/场景分析器服务器,其被配置为接收场景的图像数据。场景分析器可以在视频文件中从至少两帧中识别场景内的前景轮廓形状和前景轮廓形状的轨迹。在一个实施例中,场景分析器确定场景内的前景轮廓形状的特征和前景轮廓形状的轨迹。场景分析器可以使用前景轮廓形状的形状特征和轨迹,对前景轮廓形状的至少一部分进行分类,以确定前景轮廓形状是否与人参考模型匹配。监控系统还可以包括报告设备和/或显示设备,其被配置为通过用户接口呈现来自场景分析器的分析结果。
在一个实施例中,照相机是固定监控照相机。照相机可以被配置为支持至少两个可定制的同时视频流。场景分析器可以被配置为根据帧内局部检测器指令,定制高比特率流,并且对前景轮廓形状应用帧内局部检测器,以确定前景轮廓形状是否与人参考模型匹配。
附图说明
从下面对如在附图中示出的示例实施例的更具体的描述,上述内容将变得清楚,在附图中,其全部不同的视图中,相似的附图标记指示相同的部分。附图不一定是按比例的,而将重点放在示出实施例上。
图1是示出根据一个实施例的用于检测人的监控设备的示意图;
图2是示出根据一个实施例的用于检测人的软件架构的示意图;
图3A是示出样本图像中的被摄体的照片;
图3B是示出作为前景区块表示的图3A的被摄体的图形图像;
图3C是示出由轮廓形状表示的图3A的被摄体的图形图像;
图4A是根据一个实施例的针对多个移动方向编码的方向模式的集合;
图4B是根据一个实施例的作为链代码的像素的表示;
图5A是根据一个实施例的与被摄体相关联的特征的集合;
图5B是根据一个实施例的针对被摄体的链代码的直方图的图形表示;
图5C是根据一个实施例的与被摄体相关联的定向长宽比的表示;
图6是示出根据一个实施例的用于检测人的处理流程的流程图;
图7是示出根据一个实施例的用于检测人的另一个处理流程的流程图;
图8是根据一个实施例的OMEGA形状的识别的示意图;
图9是示出根据一个实施例的用于检测OMEGA形状的另一个处理流程的流程图;以及
图10是用于检测人的系统。
具体实施方式
下面描述实施例。
图1是示出根据一个实施例的用于检测人的监控设备的示意图100。如图1所示,监控设备101与数据存储110、数字信号处理器(DSP)/场可编程门阵列(FPGA)115、网络120、一个或更多个服务器125和场景分析器服务器105通信。监控设备还被描绘为捕获场景130。监控设备可以包括一个或更多个照相机,并且每个照相机可以具有一百二十万的像素或者更好的分辨率,以便能够每秒捕获近似30个图像或更多图像。
数据存储可以包括存储在单个数据中心中或者在多个地区分布服务器上的一个或更多个数据库。DSP/FPGA可以包括任意标准处理器,和/或可以包括图形处理专用的一个或更多个图形处理单元。如图1所示,照相机可以与场景分析器服务器105进行有线或无线通信,从而发送和接收图像数据和分析结果。一个或更多个其它服务器(未示出)可以对图像数据和分析结果进行进一步存储和附加处理。
场景分析器服务器可以从照相机接收图像数据,并且确定是否已经检测到了对象,如果检测到了对象,则确定该对象是否与人参考模型匹配。如果对象与人参考模型充分匹配,则场景分析器可以开始跟踪该对象。由场景分析器选出的特征的有利选择提高了效率,并且改善了对象检测的精度。
照相机101可以配备有自动后聚焦(ABF)、H.264和运动联合图像专家组(MJPEG,MotionJointPhotographicExpertsGroup)压缩能力。运动JPEG是将每个视频字段(帧)单独压缩为JPEG图像的视频编解码器。所获得视频压缩的质量独立于图像中的运动。H.264是面向块的基于运动补偿的编解码标准,其可以用于高清晰度(HD)视频分发。H.264压缩视频文件显著小于其它形式的视频文件,从而使高清晰度视频更加可负担。照相机还可以支持两个同步视频流。这两个流可以在几个分配率配置上以MJPEG和H.264格式压缩。为了最优的带宽和存储效率照相机可以使用H.264压缩提供具有HD分辨率的实时视频(30fps)。流可以针对附加带宽管理被配置为根据多种帧速率、比特率和图片组(GOP,groupofpictures)结构进行传输。
在一个实施例中,照相机是IXE10LWSeriesIP照相机,其可以提供高级低光性能、宽动态范围(WDR,widedynamicrange)和防光晕技术。防光晕技术对图像进行调整,以在暗场景中引入亮光源(例如闪光灯、夜间交通的眩光头灯等)时创建最好的图片。为了低光设施中的更高灵敏度、自动后聚焦和内置分析,一百二十万像素网络照相机还可以包括机械红外线截止滤波器。
图2是示出根据一个实施例的用于检测人的软件架构200的示意图。如图2所示,软件架构200包括场景分析器引擎205、数据存储210、检测器部件215、局部检测器部件220、照相机部件230、编码器部件240、跟踪部件250、分类器部件260和评分部件270。
检测器部件215可以包括对象运动检测器和/或一个或更多个局部检测器。局部检测器部件220可以包括局部人检测器部件。局部人检测器包括针对人型对象的每个特征的参考值的集合。在检测处理开始时,对于网格(指示场景中的位置)不存在局部检测器。人型的对象第一次访问网格时,使用对象特征的值将例如7个特征(除了头-肩特征之外)的参考值初始化,其中,每个参考特征由其平均值和相对于平均值的变化的平均值表示。应当理解,诸如平均值之类的度量可以基于预期要在监控照相机的实际操作期间拍摄的人的测量值或模型。
照相机部件230可以初步从照相机101接收图像数据,并且将图像过滤到场景分析器引擎205中的其它部件。编码器部件240可以将图像数据编码为一种或更多种格式。例如,场景分析器引擎205可以请求编码器以原始格式对图像数据进行编码,以向检测器部件215发送,用于确定是否在场景内检测到了运动。当检测到运动时,场景分析器引擎205可以请求编码器部件240将图像数据编码为不同的格式,用于局部检测器部件220的分析。
跟踪部件250可以初始化、生成和/或保持对象的轨迹。轨迹表示在照相机的视野中从对象第一次出现的时间到其消失时的对象的序列,具有包括其在场景中的位置和对象特征的集合的用于每一帧的不同的基元。跟踪的对象用其随着时间的特征表示,并且在用于人检测的本发明的实施例中采用以下可以从对象的轮廓得出的特征。所采用的特征可以包括、但不限于对象形状、对象尺寸、对象高度、对象宽度、长宽比、明显移动方向的定向长宽比、头-肩特征、对象形状的长宽比、对象形状的链代码的直方图、明显移动方向和定向长宽比,也可以从视频文件中的前景轮廓形状的轨迹中提取。在一个实施例中,跟踪部件250可以根据前景形状的轨迹确定预期的运动,并且传播前景轮廓形状的轨迹的特征,用于在确定对象是否以与人预期或可能的运动一致的方式移动时使用。
分类器部件260可以包括用于对检测到的对象进行分类的一个或更多个支持矢量机(SVM,supportvectormachine)(未示出)。SVM分类器通常将数据映射到高维度空间中,并且找到具有最大余量的分离的超平面。在一个实施例中,分类器部件260接收图像数据中的检测到的对象的表示,并且将表示作为人或非人映射到超平面上。
评分部件270可以计算与场景中的一个或更多个对象相关联的评分。为了进行初始化,平均特征可以直接取第一次命中网格的人型的对象的相应特征值的值,并且可以将标准偏差设置为平均值的百分比、例如30%。当然,可以基于考虑和应用情况根据特征对这些值进行调整。然后,在其它人型的对象访问该网格时,通过下面的公式自动更新其参考特征中的每个:
f i ‾ = ( 1 - α ) × f i ‾ + α × f i , σ i ‾ = ( 1 - β ) × σ i ‾ + β × | f i - f i ‾ |
其中,fi代表链代码的直方图的特征中的任意区间的第i个特征或计数值,并且表示特征fi的平均值和fi之间的平均变差(在标准变差的意义上);α和β是从0到1的范围内的两个比率,其分别控制参考(平均)特征值和其相对于平均值的变差中的每一个的更新速度。将α和β的典型值设置为0.01。为了使用局部人检测器确定对象是否是人型的,通过对由7个特征中的每一个贡献的子评分求和来计算总评分:
s c o r e = Σ i w i × score i
其中,wi是用于第i个特征的权重,其控制该特征对总评分的影响的程度。依据随着时间获得的平均值和平均变差(variation),通过高斯函数建模第i个特征的子评分scorei
图3A是示出样本图像中的被摄体的照片。如图3A所示,被摄体是沿着铺就的街道行走的人。在一个实施例中,在人所占据的位置的图像中在成像像素值方面,行走跨越场景的人可能改变。这在该人占据该位置之前在像素值之间产生差。根据该差,可以看出前景区块。
图3B是示出作为前景区块表示的图3A的被摄体的图形图像。可以在应用背景减除处理之后,相对于普通背景设置前景区块。例如,场景可以具有与每个像素相关联的值。在接收到给定数量的帧之后,可以理解为像素具有背景像素值。当接收到的帧包括与背景像素值不同的像素值时,可以对与背景像素值不同的像素值的位置进行分组,以形成轮廓形状。
图3C是示出由轮廓形状表示的图3A的被摄体的图形图像。轮廓形状表示与背景像素值不同的像素值的集合的概要。在一个实施例中,可以计算与轮廓形状相关联的特征。可以向场景分析器软件的部件发送这些特征的计算值,以进一步进行分析。例如,与轮廓形状相关联的一个特征可以是方向模式的集合。
图4A是根据一个实施例的针对多个移动方向编码的方向模式的集合的图。在图4A中,针对8个移动方向中的每一个对方向模式进行编码,其中,0表示“向右移动”,1表示“向右上移动”,2表示“向上移动”,3表示“向左上移动”,4表示“向左移动”,5表示“向左下移动”,6表示“向下移动”,并且7表示“向右下移动”。
图4B是根据一个实施例的作为链代码的像素的表示。使用图4A中的方向代码,当从对象的最左上的像素开始按照顺时针方向顺序跟随边界时,可以用链代码0070076654444432221表示图4B中的对象,该对象具有表示其构成前景像素的正方形。对象的链代码是对象的形状的周期性符号表示。链代码是对象轮廓的表示,并且通过在以闭合的方式遍历对象的边界时,连续给出通过预设的方向模式编码的相对移动来获得。
图5A是根据一个实施例的与被摄体相关联的特征的集合。如图5A所示,被摄体可以具有对象尺寸特征。可以将对象尺寸特征理解为对象的闭合轮廓内的面积。被摄体还可以包括对象高度特征。可以将对象高度特征理解为垂直方向上的被摄体的长度。可以与被摄体相关联的另一个特征是对象宽度。可以将对象宽度理解为水平方向上的被摄体的长度。
图5B是根据一个实施例的针对被摄体的链代码的直方图的图形表示。链代码特征的直方图可以表示在对象的轮廓的链代码内,图4A中的8个方向模式中的每一个出现了多少次。可以与被摄体相关联的另一个特征是表示对象的长度对宽度的长宽比。
图5C是根据一个实施例的与被摄体相关联的定向长宽比的表示。定向长宽比可以表示对象在给定方向的垂直方向上的宽度和对象在给定方向的平行方向上的宽度之间的比。也可以将其它特征(未示出)与被摄体相关联。在一个实施例中,可以将对象形状的长宽比与被摄体相关联。可以将对象形状的长宽比理解为对象形状的累积高度与对象形状的累积宽度的比。累积高度是投影到对象的闭合轮廓的增加的垂直方向上的链代码的长度的总和。累积宽度是投影到对象的轮廓的增加的水平方向上的链代码的长度的总和。累积高度和累积宽度可以根据对象形状的链代码的直方图得出。例如,每个链代码1、2、3在累积高度的计算中贡献一个单位的长度,同时链代码0、1、7中的每个在累积宽度的计算中贡献一个单位的长度。与长宽比相比,对象形状的长宽比考虑对象的形状的细节,而不是仅仅考虑根据极值点测量的高度和宽度。
还可以将被摄体与在图5A中由轮廓的虚线指示的单个人的上半身的头-肩特征、OMEGA形状模式相关联。
图6是示出根据一个实施例的用于检测人的处理流程600的流程图。该处理流程可以包括接收输入图像601。该流程可以使用该图像进行对象检测和跟踪605。如图6所示,处理流程600还可以包括特征计算610。特征计算可以基于给定被摄体的轮廓的链代码,并且人检测615或者分类可以考虑多个特征。在一个实施例中,检测人615可以包括一个或更多个初始和/或二次检查。初始检查可以首先确定是否在场景中满足阈值运动值。如果满足阈值运动值,则二次检测可以确定产生阈值运动值的对象是否有资格成为人型。
在一个实施例中,可以通过考虑前面定义的特征的组合视图,将每个跟踪的被摄体分类为人型或非人型620。该分类还可以考虑被摄体随着时间的特征。时间间隔可以在被摄体出现在场景中时开始,并且在被摄体不再出现在该场景中时结束。在其它实施例中,时间间隔可以由帧的数量和/或离散的时间量度(例如秒、分钟、小时等)定义。
在一个实施例中,可以定义这里称为“人评分”的置信度量度,以使用范围从0到1的值来指示关于对象是否是人型的置信度水平。每个跟踪的对象都与基于其特征和其跟踪历史获得的人评分相关联。跟踪的对象具有的人评分越大,该对象越可能是人型的对象。在对象在场景中移动时,其人评分可能随着时间而改变。使用预设的阈值来进行关于跟踪的对象是否是人型的决定。另外,局部人检测器针对场景中的空间位置自动进行学习,每个人检测器的特征在于特定位置的人型对象的参考特征值的集合,并且每当单个人对象访问其相应的位置时,随着时间更新这些特征值。
场景中的位置可以对应于图像中的像素或网格(即一组相邻的像素,例如将相邻的4x4个像素视为网格)。在没有限制的情况下,可以参考笛卡尔(cartesian)坐标系定义场景内的位置。场景可以包括底部最左边界和顶部最右边界两个边界。可以将底部最左边界定义为(0,0),也称为原点,并且可以将顶部最右边界定义为(max-x,max-y),其中,max-x是最左边界,并且max-y是最顶部边界。
在一个实施例中,场景可以包括一个或更多个位置。位置也可以包括与场景相关联的边界类似的两个边界,例如底部最左位置边界和顶部最右位置边界。场景和位置还可以包括针对一个或更多个多边形形状、例如三角形和/或圆形的指标。例如,如果位置的形状为圆形的,则与该圆形位置相关联的边界可以沿圆周,使用转换为与笛卡尔坐标平面一致的单位的圆的中心(x-center,y-center)和半径来定义。在一个实施例中,场景和位置可以通过用户输入设备、例如使用笔和/或鼠标绘制来定义
图7是示出根据一个实施例的用于检测人的另一个处理流程700的流程图。检测人的处理可以包括捕获图像的帧701。背景减除702方法可以应用于捕获的帧,以检测在照相机的视野中出现的对象的前景/运动像素,并且使用连接分量分析对相邻的前景像素进行分组,以形成对象区块。任意合适的背景减除方法都可以应用于帧,例如高斯混合模型、运行平均、非参数模型。图3B提供了通过背景减除获得的示例图像,其中,亮像素指示前景(运动)像素,并且暗像素指示背景像素。在当前帧处找到的一个或多个对象可能与已有轨迹(即迄今尚未从照相机的场景中消失的先前跟踪的一个或多个对象)匹配703,这意味着对于找到的每个对象,在可能的情况下,处理流程700匹配其轨迹,并且对于找到的每个已有轨迹,在可能的情况下,处理流程700在当前帧处找到其匹配对象。这里所称的该处理是“跨连续图像帧的对象跟踪”。例如,可以基于卡尔曼滤波器或粒子滤波器,通过考虑空间关系和特征相似性来使用变差跟踪方法。对于获得的对象,通过操作706至720对其应用人检测处理,并且返回以对下一个图像帧进行处理,这在操作704和705中实现。
对于每个对象区块,提取其轮廓并且计算对象特征706,这产生获得的链代码的列表,其中,每个项对应于在照相机的场景中出现的对象的轮廓(例如图3C)。为了获得链代码,在一个示例实施例中,从顶部到底部逐行对前景像素的图像(例如图3B)进行扫描。当满足前景像素时,启动轮廓跟随的处理,以提取在图4A中针对闭合行进定义的方向模式代码的形式的连续移动,直到遍历返回到起始像素为止。对于对象的链代码,由于下面描述的原因,除了两个特征:定向长宽比和头-肩特征之外,使用先前提到的它们的定义计算对象的特征。
当找到具有大尺寸707的对象时,使用下面参考图8和9描述的细节,对对象轮廓启动头-肩(HS)特征检测处理708。如果识别出HS特征709,则处理流程700将对象的匹配轨迹的人评分设置为预设的最大值710;否则,该处理流程基于对象出现的位置中的获得的局部参考特征值,检查是否存在局部人检测器712;如果可获得,则处理流程700应用其确定对象是否是单个人713和714。通过将总的人评分与预设的阈值进行比较,如果对象的特征落在与该位置的参考原型表示的特定距离内,则将对象视为单个人。
当检测到作为单个人的对象714(基于HS检测或局部检测器712和713,或者根据从先前的人轨迹传播的对象类型持续性715)时,更新受影响的局部检测器的特征,或者在先前不存在的情况下进行初始化711。
如果基于局部人检测器未识别出作为单个人的对象(在714中检查),则针对每个轨迹提取明显移动方向716。明显移动方向是跟踪的对象移动了相当大的距离的方向。处理流程700将方向的360度划分为特定数量的方向区间。区间可以相对于落到该区间中的方向保持定向长宽比的平均值和标准偏差718。随着轨迹前进,使用平均值和标准偏差来更新轨迹的人评分719。进一步应用在当前帧中针对跟踪的对象更新的人评分,以引导在针对该轨迹的图像帧中到来的人检测。
图8是根据一个实施例的OMEGA形状的识别的示意图800。如在图8中指示的,可以通过人的头肩部分的OMEGA形状来识别头-肩特征。
图9是示出根据一个实施例的用于检测OMEGA形状的另一个处理流程的流程图。图9示出了OMEGA形状识别的过程。给定对象,定位其最左侧顶部点(图8中的头顶点A)(901)。通过参考头顶点的垂直位置(垂直图像坐标),估计矩形区域,在该矩形区域内经由对象轮廓的凸包的表示搜索候选头-肩特征。从头顶点开始,使用格拉汉姆扫描方法,以提取凸包点(903)(以获得图9中的左侧的点A、F、H)和(907)(以获得图8中的右侧的点B、C、E)。对于左侧凸包的表示,可以通过考虑左侧部分上的凸包点之间的距离和几何关系识别左头侧点(图8中的点F)和左肩点(图8中的点H)。然后,通过找到左侧点和左肩点之间的对象轮廓上的最远点,定位左颈点(图8中的点G)。通过考虑头顶点A和左头侧点F、左颈点G与左肩点H之间的相对位置和距离,对这些点进一步进行验证906。类似地,通过(907)至(910)可以定位并验证右头侧点、右肩点和右颈点。如果左头-肩和右头-肩两者都得到了验证,则通过相对于连接两个头侧点的直线和收集两个肩点的直线,检查连接两个颈点(左颈点和右颈点)的直线距离和方向,对它们进行交叉验证。当这些点都符合时,可以确认有效OMEGA形状(911)。
图10是示出人检测(PD)平台1000的实施例的框图。在该实施例中,PD平台可以用于聚集、处理、存储、搜索、服务、识别、指示、生成、匹配和/或方便与计算机的交互。通常,可以是人和/或其它系统的用户可以使用信息技术系统(例如计算机)以促进进行信息处理。继而,计算机使用处理器来处理信息;可以将这些处理器称为中央处理单元(CPU,centralprocessingunit)。一种形式的处理器称为微处理器。CPU使用通信电路,以传送用作指令的二进制编码信号,以使得能够进行各种操作。这些指令可以是存储器(例如寄存器、高速缓冲存储器、随机存取存储器等)的各个处理器可访问和可操作区域中的包含和/或引用其它指令和数据的操作和/或数据指令。可以使用信息系统来收集数据,以便稍后通过数据库程序1037便于进行取回、分析和操控。
在一个实施例中,PD平台可以连接到如下实体和/或与如下实体进行通信,这些实体例如是、但不限于:来自用户输入设备的一个或更多个用户(例如闪存/SD/SSD);外围设备,例如监控设备或照相机1001;任选的加密处理器设备;和/或通信网络1020。
一般认为网络包括按照图拓扑的客户、服务器和中间节点的互连和互操作。注意,在本申请中使用的术语“服务器”通常是指对跨通信网络的远程用户的请求进行处理和响应的计算机、其它设备、程序或其组合。服务器1039向进行请求的“一个或多个客户”提供其信息。这里使用的术语“客户”通常是指能够进行处理并发出请求,并且跨通信网络从服务器获得任何响应并进行处理的计算机、程序、其它设备、用户和/或其组合。
PD平台可以基于一个或更多个计算机系统,该计算机系统可以包括中央处理单元(“CPU”和/或“处理器”,(除非另外指出,否则在本公开中这些术语可互换地使用))、存储器(例如只读存储器(ROM,readonlymemory)、随机存取存储器(RAM,randomaccessmemory)、高速缓存等)和/或输入/输出端口,并且可以通过一个或更多个(母)板上的系统总线互连和/或进行通信,该(母)板具有导电和/或以其他方式可进行传输的电路路径,指令(例如二进制编码信号)可以通过该电路路径行进,以实现通信、操作、存储等。
可以作为内部和/或外部外围设备(例如传感器)经由I/O端口连接处理器和/或收发器。继而,收发器可以连接到天线,由此实现各种通信和/或传感器协议的无线发送和接收。例如,GPS接收器可以从轨道中的一个或更多个卫星接收数据。卫星发送包括位置信息和发送时间(卫星向GPS接收器发送信号时的时钟信息)的卫星信息。然后,接收器可以将卫星信息的接收时间与发送时间进行比较,以确定从GPS接收器到卫星的距离,并且通过使用其它卫星距离确定,可以建立GPS接收器的位置。可以使用具有其它接收器/收发器芯片协议的GPS接收器,以提高针对照相机的位置的精度。
CPU包括至少一个足以执行用于执行用户和/或系统产生的请求的程序部件的高速数据处理器。处理器自己经常包含各种专用处理单元,例如、但不限于:集成系统(总线)控制器、存储器管理控制单元、浮点单元、甚至像图形处理单元、数字信号处理单元的专用处理子单元等。另外,处理器可以包括内部快速访问可寻址存储器,并且能够对超出处理器自身的存储器进行映射和寻址;内部存储器可以包括、但不限于:快速寄存器、各种等级的高速缓冲存储器(例如等级1、2、3等)、RAM等。
依据特定实施方式,可以通过实现微控制器来实现PD平台的特征。此外,为了实现PD平台的某些特征,一些特征实施方式可以依赖于嵌入式部件,例如:专用集成电路(“ASIC”,Application-SpecificIntegratedCircuit)、数字信号处理器(“DSP”,DigitalSignalProcessing)、场可编程门阵列(“FPGA”,FieldProgrammableGateArray)和/或其它嵌入式技术。例如,PD平台引擎集合1005(分布式和/或其它)和/或特征中的任意一个可以经由微处理器和/或经由嵌入式部件来实现;例如经由ASIC、协处理器、DSP、FPGA等来实现。可选地,PD平台的一些实施方式可以使用被配置为用于实现多种特征或信号处理的嵌入式部件来实现。
嵌入式部件可以包括软件解决方案、硬件解决方案和/或硬件/软件解决方案两者的一些组合。存储接口、例如数据存储1031可以接受、连通和/或连接到多个存储设备,例如、但不限于:存储设备、可移动盘设备、固态驱动(SSD)等。存储接口可以使用诸如、但不限于:(超级)(串行)高级技术附接(包接口)((Ultra)(Serial)ATA(PI))、(高级)集成驱动电子设备((E)IDE)、电气与电子工程师协会(IEEE)1394、光纤通道、小型计算机系统接口(SCSI)、通用串行总线(USB)等的连接协议。
网卡可以接受、连通和/或连接到通信网络1020。通过通信网络1020,用户可通过远程客户(例如具有web浏览器的计算机)访问PD平台。网络接口可以使用诸如、但不限于:直接连接、以太网(粗缆、细缆、双绞线10/100/1000BaseT等)、令牌环、诸如IEEE802.11a-x的无线连接的连接协议等。云服务1025可以与PD平台进行通信。云服务可以包括平台即服务(PaaS,Platform-as-a-Service)模型层、基础架构即服务(IaaS,Infrastructure-as-a-Service)模型层和软件即服务(SaaS,Software-as-a-Service)模型层。SaaS模型层通常包括由中央位置管理并更新、部署在因特网上并且通过访问门户提供的软件。PaaS模型层通常提供在集成开发环境中开发、测试、部署、驻留和维护应用的服务。IaaS层模型通常包括虚拟化、虚拟机、例如虚拟服务器、虚拟桌面等。
输入输出接口(I/O)可以接受、连通和/或连接到用户输入设备、外围设备、加密处理器设备等。视频接口合成计算机系统产生的信息,并且基于合成的信息以视频存储器帧产生视频信号。另一个输出设备是电视机,其接受来自视频接口的信号。视频接口一般通过接受视频显示接口(例如接受RCA合成视频线缆的RCA合成视频连接器;接受DVI显示线缆的DVI连接器等)的视频连接接口提供合成视频信息。
用户输入设备经常是外围设备的类型的,并且可以包括:卡读取器、软件狗、指形打印读取器、手套、图形平板、游戏杆、键盘、麦克风、鼠标、遥控器、视网膜读取器、触摸屏(例如电容性、电阻性的等)、跟踪球、跟踪垫、传感器(例如加速度计、环境光、GPS、陀螺仪、接近等)、笔等。
外围设备可以连接和/或连通到I/O和/或诸如网络接口、存储接口的其它设施等,直接连接到接口总线、系统总线、CPU等。外围设备可以是外部、内部PD平台和/或PD平台的一部分。外围设备可以包括:天线、音频设备(例如线路输入、线路输出、麦克风输入、扬声器等)、照相机(例如静止、视频、网络摄影等)、软件狗(例如用于复制保护、使用数字签名保证安全业务等)、外部处理器(用于添加的能力;例如加密设备)、力反馈设备(例如振动电机)、网络接口、打印机、扫描器、存储设备、收发器(例如蜂窝、GPS等)、视频设备(例如谷歌监视器等)、视频源、面窗等。外围设备经常包括输入设备的类型(例如照相机)。注意,虽然可以使用用户输入设备和外围设备,但是PD平台可以作为嵌入式、专用和/或无监视器(即无头)设备来实施,其中,访问将通过网络接口连接来提供。
通常,将使得处理器能够影响信息的存储和/或取回的任意机制和/或实施方式都视为存储器。应当理解,PD平台和/或计算机系统可以使用各种形式的存储器。在一般的配置中,存储器包括ROM、RAM和存储设备。存储设备可以是任意传统的计算机系统存储。存储设备可以包括(固定和/或可移动)磁盘驱动;磁光驱动;光驱动(即蓝光、CDROM/RAM/Recordable(R)/ReWritable(RW)、DVDR/RW、HDDVDR/RW等);设备的阵列(例如独立盘冗余阵列(RAID,RedundantArrayofIndependentDisk));固态存储器设备(USB存储器、固态驱动(SSD)等);其它处理器可读的存储介质;和/或类似的其它设备。因此,计算机系统1003通常需要并且利用非暂时性和/或暂时性存储器。
用户接口部件1041是由CPU执行的存储程序部件。用户接口可以是由、利用操作系统1033和/或操作环境和/或在操作系统1033和/或操作环境上提供的图形用户接口。用户接口使得能够通过文字和/或图形设施进行程序部件和/或系统设施的显示、执行、交互、操控和/或操作。用户接口提供用户可以用来影响、交互和/或操作计算机系统的设施。用户接口可以连通到包括其本身和/或类似设施的部件集中的其它部件和/或与部件集中的其它部件进行通信。
Web浏览器部件(未示出)是由CPU执行的存储程序部件。Web浏览器可以是传统的超文本查看应用。可以通过HTTPS、SSL等对安全Web浏览提供128bit(或更大)的加密。Web浏览器使得能够通过诸如ActiveX、AJAX、(D)HTML、FLASH、Java、JavaScript、web浏览器插件API(例如FireFox、Safari插件和/或类似的API)等的设施进行程序部件的执行。可以将Web浏览器和类似的信息访问工具集成到移动设备中。Web浏览器可以连通到包括其本身和/或类似设施的部件集中的其它部件和/或与部件集中的其它部件进行通信。浏览器可以与信息服务器、操作系统、集成程序部件(例如插件)等进行通信;例如,其可以包含、连通、生成、获得和/或提供程序部件、系统、用户和/或数据通信、请求和/或响应。此外,代替Web浏览器和信息服务器,可以开发组合应用来进行两者的类似操作。
可以将PD平台中的任意一个的结构和/或操作以任意数量的方式组合、加强和/或分布,以方便进行开发和/或部署。类似地,可以将部件集以任意数量的方式组合,以方便进行开发和/或部署。为了实现这,可以将部件集成到公用代码库或者可以以集成的方式按需要动态地加载部件的设施中。可以通过标准数据处理和/或开发技术以无数的变化对引擎集合1005部件进行加强和/或分布。可以在单个节点上和/或在大量节点上将程序部件集1035中的程序部件中的任意一个的多个实例范例化,以通过负载平衡和/或数据处理技术改善性能。此外,也可以将单个的实例分布在多个控制器和/或存储设备;例如数据库上。一齐工作的所有程序部件实例和控制器可以通过标准数据处理通信技术这样做。
PD平台的配置取决于系统部署的情境。诸如、但不限于基础硬件资源的预算、容量、位置和/或使用的因素可能影响部署要求和配置。与配置是否产生更为加强和/或集成的程序部件、是否产生更为分布的一系列程序部件、和/或是否产生加强并分布的配置之间的一些组合无关地,可以传送、获得和/或提供数据。从程序部件集加强到公用代码库中的部件的实例可以传送、获得和/或提供数据。这可以通过诸如、但不限于:数据引用(例如指针)、内部消息传送、对象实例变量通信、共享存储器空间、变量递送等的应用间数据处理通信技术来实现。
在某些实施例中,这里描述的过程、设备和处理构成包括例如诸如一个或更多个DVD-ROM、CD-ROM、磁盘、磁带等的可移动存储介质的计算机可读介质的计算机程序产品,计算机可读介质为系统提供软件指令的至少一部分。这种计算机程序产品可以通过本领域公知的任意合适的软件安装过程进行安装。在另一个实施例中,也可以通过线缆、通信和/或无线连接下载软件指令的至少一部分。
实施例还可以作为存储在可以由一个或更多个处理器读取并执行的非暂时性机器可读介质上的指令来实现。非暂时性机器可读介质可以包括用于以机器、例如计算设备1003可读的形式存储或发送信息的任意机制。例如,非暂时性机器可读介质可以包括只读存储器(ROM);随机存取存储器(RAM);磁盘存储媒质;光存储媒质;闪存设备;以及其它设备。
虽然参考本发明的示例实施例具体示出并描述了本发明,但是本领域技术人员应当理解,可以在其中对形式和细节进行各种改变,而不脱离由所附权利要求涵盖的本发明的范围。

Claims (20)

1.一种用于通过监控系统检测人的方法,所述方法包括:
在视频文件中从至少两帧中识别场景内的前景轮廓形状和前景轮廓形状的轨迹;
确定场景内的前景轮廓形状的特征和前景轮廓形状的轨迹;以及
使用前景轮廓形状的形状特征和轨迹,对前景轮廓形状的至少一部分进行分类,以确定前景轮廓形状是否与人参考模型匹配。
2.根据权利要求1所述的方法,还包括:
对前景轮廓形状应用帧内局部检测器,以确定前景轮廓形状是否与人参考模型匹配。
3.根据权利要求1所述的方法,还包括:
在视频文件中识别场景内的多个前景轮廓形状和与多个前景轮廓形状中的每一个相关联的多个轨迹;
对访问的场景位置分配多个帧内局部检测器;以及
对访问的场景位置中的每一个应用所分配的多个帧内检测器中的每一个,以确定前景轮廓形状中的每一个是否与人参考模型匹配。
4.根据权利要求1所述的方法,还包括:
从场景内的前景对象中提取特征,所述特征包括以下特征中的至少一个:对象形状、对象尺寸、对象高度、对象宽度、长宽比、明显移动方向的定向长宽比、头-肩特征、对象形状的长宽比和对象形状的链代码的直方图。
5.根据权利要求1所述的方法,还包括:
识别定义前景轮廓形状的周长的链代码;
根据链代码至少确定对象形状和对象尺寸;以及
根据链代码对对象形状和对象尺寸进行分类,以确定前景轮廓形状是否与人参考模型匹配。
6.根据权利要求1所述的方法,还包括:
确定计算的对象尺寸是否大,其中,大对象包括视频文件的至少30%的帧大小。
7.根据权利要求1所述的方法,还包括:
从视频文件中的前景轮廓形状的轨迹中提取明显移动方向;
从视频文件中的前景轮廓形状的轨迹中提取定向长宽比;以及
基于明显移动方向和定向长宽比,确定前景轮廓形状是否与人参考模型匹配。
8.根据权利要求7所述的方法,还包括:
根据前景轮廓形状的轨迹、提取的明显移动方向和定向长宽比,确定预计的移动;以及
传播前景轮廓形状的轨迹的特征。
9.根据权利要求1所述的方法,其中,确定前景轮廓形状是否与人参考模型匹配包括:检测头和肩的形状。
10.根据权利要求9所述的方法,其中,检测头和肩的形状包括:应用OMEGA分类器。
11.一种计算机可读介质,所述计算机可读介质具有存储在其上的程序指令,所述程序指令能够由处理器执行,并且当由处理器执行时,所述程序指令使所述处理器:
在视频文件中从至少两帧中识别场景内的前景轮廓形状和前景轮廓形状的轨迹;
确定场景内的前景轮廓形状的特征和前景轮廓形状的轨迹;以及
使用前景轮廓形状的形状特征和轨迹,对前景轮廓形状的至少一部分进行分类,以确定前景轮廓形状是否与人参考模型匹配。
12.根据权利要求11所述的计算机可读介质,还包括如下程序指令,当由处理器执行时,所述程序指令使所述处理器:
对前景轮廓形状应用帧内局部检测器,以确定前景轮廓形状是否与人参考模型匹配。
13.根据权利要求11所述的计算机可读介质,还包括如下程序指令,当由处理器执行时,所述程序指令使所述处理器:
在视频文件中识别场景内的多个前景轮廓形状和与多个前景轮廓形状中的每一个相关联的多个轨迹;
对访问的场景位置分配多个帧内局部检测器;以及
对访问的场景位置中的每一个应用所分配的多个帧内检测器中的每一个,以确定前景轮廓形状中的每一个是否与人参考模型匹配。
14.根据权利要求11所述的计算机可读介质,还包括如下程序指令,当由处理器执行时,所述程序指令使所述处理器:
从场景内的前景对象中提取特征,所述特征包括以下特征中的至少一个:对象形状、对象尺寸、对象高度、对象宽度、长宽比、明显移动方向的定向长宽比、头-肩特征、对象形状的长宽比和对象形状的链代码的直方图。
15.根据权利要求11所述的计算机可读介质,还包括如下程序指令,当由处理器执行时,所述程序指令使所述处理器:
识别定义前景轮廓形状的周长的链代码;
根据链代码至少确定对象形状和对象尺寸;以及
根据链代码对对象形状和对象尺寸进行分类,以确定前景轮廓形状是否与人参考模型匹配。
16.一种监控系统,包括:
照相机,被配置为从场景中捕获图像数据;
场景分析器,与照相机进行通信,并且被配置为接收场景的图像数据,场景分析器还被配置为:
在视频文件中从至少两帧中识别场景内的前景轮廓形状和前景轮廓形状的轨迹;
确定场景内的前景轮廓形状的特征和前景轮廓形状的轨迹;以及
使用前景轮廓形状的形状特征和轨迹,对前景轮廓形状的至少一部分进行分类,以确定前景轮廓形状是否与人参考模型匹配;以及
显示设备,被配置为通过用户接口呈现来自场景分析器的分析结果。
17.根据权利要求16所述的监控系统,其中,照相机是固定监控照相机。
18.根据权利要求16所述的监控系统,其中,照相机被配置为支持至少两个同时视频流。
19.根据权利要求18所述的监控系统,其中,至少两个同时比特流是可定制的。
20.根据权利要求18所述的监控系统,其中,场景分析器被配置为:
根据帧内局部检测器指令,定制高比特率流;以及
对前景轮廓形状应用帧内局部检测器,以确定前景轮廓形状是否与人参考模型匹配。
CN201380069827.1A 2012-11-21 2013-11-19 用于通过监控系统检测人的方法和装置 Active CN105051754B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/683,977 2012-11-21
US13/683,977 US9367733B2 (en) 2012-11-21 2012-11-21 Method and apparatus for detecting people by a surveillance system
PCT/US2013/070691 WO2014081688A1 (en) 2012-11-21 2013-11-19 Method and apparatus for detecting people by a surveillance system

Publications (2)

Publication Number Publication Date
CN105051754A true CN105051754A (zh) 2015-11-11
CN105051754B CN105051754B (zh) 2018-10-19

Family

ID=49726873

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380069827.1A Active CN105051754B (zh) 2012-11-21 2013-11-19 用于通过监控系统检测人的方法和装置

Country Status (4)

Country Link
US (1) US9367733B2 (zh)
EP (1) EP2923303A1 (zh)
CN (1) CN105051754B (zh)
WO (1) WO2014081688A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107010085A (zh) * 2017-03-29 2017-08-04 常洋 一种铁路行车安全环境监测及控制系统
CN107734799A (zh) * 2017-10-19 2018-02-23 南京工程学院 一种可接入视频监控的智能照明控制系统及其控制方法
CN108198203A (zh) * 2018-01-30 2018-06-22 广东美的制冷设备有限公司 运动报警方法、装置以及计算机可读存储介质
CN112041848A (zh) * 2018-03-27 2020-12-04 菲力尔系统公司 人数统计和跟踪系统及方法

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9367733B2 (en) 2012-11-21 2016-06-14 Pelco, Inc. Method and apparatus for detecting people by a surveillance system
US10009579B2 (en) * 2012-11-21 2018-06-26 Pelco, Inc. Method and system for counting people using depth sensor
US9639747B2 (en) * 2013-03-15 2017-05-02 Pelco, Inc. Online learning method for people detection and counting for retail stores
KR101480348B1 (ko) * 2013-05-31 2015-01-09 삼성에스디에스 주식회사 사람 검출 장치 및 방법과 사람 계수 장치 및 방법
JP6320112B2 (ja) * 2014-03-27 2018-05-09 キヤノン株式会社 情報処理装置、情報処理方法
US10592727B2 (en) * 2014-07-28 2020-03-17 Centre For Development Of Advanced Computing Apparatus for automated monitoring of facial images and a process therefor
AU2015224526B2 (en) * 2014-09-11 2020-04-30 Iomniscient Pty Ltd An image management system
US9699401B1 (en) 2015-03-20 2017-07-04 Jolanda Jones Public encounter monitoring system
US9697437B2 (en) * 2015-05-18 2017-07-04 Facebook, Inc. Logo detection
US10373244B2 (en) * 2015-07-15 2019-08-06 Futurewei Technologies, Inc. System and method for virtual clothes fitting based on video augmented reality in mobile phone
US9959468B2 (en) 2015-11-06 2018-05-01 The Boeing Company Systems and methods for object tracking and classification
JP6596309B2 (ja) * 2015-11-11 2019-10-23 株式会社東芝 分析装置および分析方法
EP3405927A1 (en) 2016-01-20 2018-11-28 Carrier Corporation A building management system using object detection and tracking in a large space with a low resolution sensor
US10402643B2 (en) * 2016-06-15 2019-09-03 Google Llc Object rejection system and method
US10255490B2 (en) * 2016-12-01 2019-04-09 Sasken Communication Technologies Ltd Method and apparatus for human detection in images
CN109697499B (zh) * 2017-10-24 2021-09-07 北京京东尚科信息技术有限公司 行人流量漏斗生成方法及装置、存储介质、电子设备
US10599947B2 (en) 2018-03-09 2020-03-24 Ricoh Co., Ltd. On-demand visual analysis focalized on salient events
CN109165600B (zh) * 2018-08-27 2021-11-26 浙江大丰实业股份有限公司 舞台演出人员智能搜索平台
CN110688884B (zh) * 2019-02-28 2023-04-18 成都通甲优博科技有限责任公司 客流统计方法及装置
CN112084813A (zh) * 2019-06-12 2020-12-15 杭州萤石软件有限公司 异常目标的检测方法、装置及存储介质
ES2821017A1 (es) * 2019-10-23 2021-04-23 Future Connections Holding B V Sistema de conteo y control de capacidad en instalaciones
EP3776430B1 (en) 2019-11-08 2022-04-27 Alipay (Hangzhou) Information Technology Co., Ltd. System and method for blockchain-based decentralized application development
WO2020035090A2 (en) 2019-11-08 2020-02-20 Alipay (Hangzhou) Information Technology Co., Ltd. Lightweight decentralized application platform

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101493979A (zh) * 2008-12-03 2009-07-29 郑长春 智能网络视觉目标检测分析方法及仪器
CN101882217A (zh) * 2010-02-26 2010-11-10 杭州海康威视软件有限公司 视频图像的目标分类方法及装置
US20110058708A1 (en) * 2008-03-14 2011-03-10 Sony Computer Entertainment Inc. Object tracking apparatus and object tracking method

Family Cites Families (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2805629B1 (fr) 2000-02-24 2002-08-30 Holding Bev Sa Procede et dispositif de perception automatique
US7006950B1 (en) 2000-06-12 2006-02-28 Siemens Corporate Research, Inc. Statistical modeling and performance characterization of a real-time dual camera surveillance system
US7688349B2 (en) 2001-12-07 2010-03-30 International Business Machines Corporation Method of detecting and tracking groups of people
US20030169906A1 (en) 2002-02-26 2003-09-11 Gokturk Salih Burak Method and apparatus for recognizing objects
CA2481250C (en) 2002-04-08 2011-09-27 Newton Security, Inc. Tailgating and reverse entry detection, alarm, recording and prevention using machine vision
US7203356B2 (en) 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
US7003136B1 (en) 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
US7362919B2 (en) 2002-12-12 2008-04-22 Eastman Kodak Company Method for generating customized photo album pages and prints based on people and gender profiles
WO2005020152A1 (ja) * 2003-08-21 2005-03-03 Matsushita Electric Industrial Co., Ltd. 人物検出装置および人物検出方法
US7391907B1 (en) * 2004-10-01 2008-06-24 Objectvideo, Inc. Spurious object detection in a video surveillance system
US7359555B2 (en) 2004-10-08 2008-04-15 Mitsubishi Electric Research Laboratories, Inc. Detecting roads in aerial images using feature-based classifiers
DE602006017812D1 (de) 2005-03-17 2010-12-09 British Telecomm Verfahren zur verfolgung von objekten in einer videosequenz
US7602944B2 (en) 2005-04-06 2009-10-13 March Networks Corporation Method and system for counting moving objects in a digital video stream
US7747075B2 (en) * 2005-06-20 2010-06-29 International Business Machines Corporation Salient motion detection system, method and program product therefor
US20070047837A1 (en) 2005-08-29 2007-03-01 John Schwab Method and apparatus for detecting non-people objects in revolving doors
GB2431717A (en) 2005-10-31 2007-05-02 Sony Uk Ltd Scene analysis
FR2909205B1 (fr) 2006-11-28 2009-01-23 Commissariat Energie Atomique Procede de designation d'un objet dans une image.
US7787656B2 (en) 2007-03-01 2010-08-31 Huper Laboratories Co., Ltd. Method for counting people passing through a gate
US8103109B2 (en) 2007-06-19 2012-01-24 Microsoft Corporation Recognizing hand poses and/or object classes
DE102007028861A1 (de) 2007-06-22 2009-01-02 Albert-Ludwigs-Universität Freiburg Verfahren zur rechnergestützten Vorhersage von intendierten Bewegungen
US7965866B2 (en) 2007-07-03 2011-06-21 Shoppertrak Rct Corporation System and process for detecting, tracking and counting human objects of interest
US7991193B2 (en) 2007-07-30 2011-08-02 International Business Machines Corporation Automated learning for people counting systems
US8107676B2 (en) 2007-07-30 2012-01-31 International Business Machines Corporation Line length estimation
GB2471036B (en) 2008-03-03 2012-08-22 Videoiq Inc Object matching for tracking, indexing, and search
GB0818561D0 (en) 2008-10-09 2008-11-19 Isis Innovation Visual tracking of objects in images, and segmentation of images
US8295545B2 (en) 2008-11-17 2012-10-23 International Business Machines Corporation System and method for model based people counting
EP2381415A4 (en) 2008-12-22 2018-01-24 NEC Corporation Person-judging device, method, and program
US8306265B2 (en) 2009-01-12 2012-11-06 Eastman Kodak Company Detection of animate or inanimate objects
US8885926B2 (en) 2009-04-15 2014-11-11 Massachusetts Institute Of Technology Image and data segmentation
JP2010266983A (ja) 2009-05-13 2010-11-25 Sony Corp 情報処理装置及び方法、学習装置および方法、プログラム、並びに情報処理システム
JP2011013732A (ja) 2009-06-30 2011-01-20 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US20110026770A1 (en) 2009-07-31 2011-02-03 Jonathan David Brookshire Person Following Using Histograms of Oriented Gradients
US8380643B2 (en) 2009-09-30 2013-02-19 International Business Machines Corporation Searching multi-dimensional data using a parallelization framework comprising data partitioning and short-cutting via early out
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8301578B2 (en) 2009-10-20 2012-10-30 At&T Intellectual Property I, L.P. System and method for tagging signals of interest in time variant data
US9749823B2 (en) 2009-12-11 2017-08-29 Mentis Services France Providing city services using mobile devices and a sensor network
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
JP2011172205A (ja) 2010-01-20 2011-09-01 Canon Inc 映像情報処理装置および方法
US20110176000A1 (en) 2010-01-21 2011-07-21 Utah State University System and Method for Counting People
US8600108B2 (en) 2010-01-25 2013-12-03 Hewlett-Packard Development Compant, L.P. Data processing system and method
KR101711061B1 (ko) 2010-02-12 2017-02-28 삼성전자주식회사 깊이 추정 장치를 이용한 깊이 정보 추정 방법
US8625897B2 (en) 2010-05-28 2014-01-07 Microsoft Corporation Foreground and background image segmentation
US8385632B2 (en) 2010-06-01 2013-02-26 Mitsubishi Electric Research Laboratories, Inc. System and method for adapting generic classifiers for object detection in particular scenes using incremental training
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
US8750573B2 (en) 2010-08-02 2014-06-10 Sony Corporation Hand gesture detection
US8792722B2 (en) 2010-08-02 2014-07-29 Sony Corporation Hand gesture detection
US8903119B2 (en) 2010-10-11 2014-12-02 Texas Instruments Incorporated Use of three-dimensional top-down views for business analytics
US8890936B2 (en) 2010-10-12 2014-11-18 Texas Instruments Incorporated Utilizing depth information to create 3D tripwires in video
TW201220253A (en) 2010-11-15 2012-05-16 Inst Information Industry Image calculation method and apparatus
US8498444B2 (en) 2010-12-13 2013-07-30 Texas Instruments Incorporated Blob representation in video processing
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US8406470B2 (en) 2011-04-19 2013-03-26 Mitsubishi Electric Research Laboratories, Inc. Object detection in depth images
US9001199B2 (en) 2011-04-29 2015-04-07 Tata Consultancy Services Limited System and method for human detection and counting using background modeling, HOG and Haar features
US9275472B2 (en) 2011-11-18 2016-03-01 Disney Enterprises, Inc. Real-time player detection from a single calibrated camera
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US8923556B2 (en) 2011-12-17 2014-12-30 Symbol Technologies, Inc. Method and apparatus for detecting people within video frames based upon multiple colors within their clothing
US8744125B2 (en) * 2011-12-28 2014-06-03 Pelco, Inc. Clustering-based object classification
US9286678B2 (en) * 2011-12-28 2016-03-15 Pelco, Inc. Camera calibration using feature identification
US9530060B2 (en) 2012-01-17 2016-12-27 Avigilon Fortress Corporation System and method for building automation using video content analysis with depth sensing
US9076065B1 (en) 2012-01-26 2015-07-07 Google Inc. Detecting objects in images
US20130205314A1 (en) 2012-02-07 2013-08-08 Arun Ramaswamy Methods and apparatus to select media based on engagement levels
US8542879B1 (en) 2012-06-26 2013-09-24 Google Inc. Facial recognition
KR101932535B1 (ko) * 2012-08-27 2018-12-27 한화테크윈 주식회사 실내 감시 시스템 및 실내 감시 방법
CN104813340B (zh) 2012-09-05 2018-02-23 体通有限公司 从2d图像序列导出准确身体尺寸测量的系统和方法
TWI448990B (zh) 2012-09-07 2014-08-11 Univ Nat Chiao Tung 以分層掃描法實現即時人數計數
US10009579B2 (en) 2012-11-21 2018-06-26 Pelco, Inc. Method and system for counting people using depth sensor
US9367733B2 (en) 2012-11-21 2016-06-14 Pelco, Inc. Method and apparatus for detecting people by a surveillance system
US20140169663A1 (en) 2012-12-19 2014-06-19 Futurewei Technologies, Inc. System and Method for Video Detection and Tracking
US8769557B1 (en) 2012-12-27 2014-07-01 The Nielsen Company (Us), Llc Methods and apparatus to determine engagement levels of audience members
US9330297B2 (en) 2013-01-16 2016-05-03 Xerox Corporation Methods and systems for video-based chew counting via feature tracking
US9639747B2 (en) 2013-03-15 2017-05-02 Pelco, Inc. Online learning method for people detection and counting for retail stores
US9443144B2 (en) 2013-03-15 2016-09-13 Disney Enterprises, Inc. Methods and systems for measuring group behavior
US9294712B2 (en) * 2013-03-20 2016-03-22 Google Inc. Interpolated video tagging
EP2995079A4 (en) 2013-05-10 2017-08-23 Robert Bosch GmbH System and method for object and event identification using multiple cameras
TWI503756B (zh) 2013-08-15 2015-10-11 Univ Nat Taiwan 人型影像追蹤系統及其人型影像偵測方法與追蹤方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110058708A1 (en) * 2008-03-14 2011-03-10 Sony Computer Entertainment Inc. Object tracking apparatus and object tracking method
CN101493979A (zh) * 2008-12-03 2009-07-29 郑长春 智能网络视觉目标检测分析方法及仪器
CN101882217A (zh) * 2010-02-26 2010-11-10 杭州海康威视软件有限公司 视频图像的目标分类方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ALVARO GARCIA 等: "Event detection for the TRECVID 2009 video surveillance dataset: the VPULab-UAM contribution", 《HTTPS://WWW.RESEARCHGATE.NET/PUBLICATION/265538615》 *
宋凯 等: "链码表和线段表在计算机图像处理中的应用", 《辽宁工程技术大学学报》 *
施耐德电气: "IXE10系列Sarix扩展平台(EP)网络摄像机", 《HTTPS://WWW.PELCO.COM/SEARCH#CAMERAS!SARIX%20IXE!3016155/TAB/DOCUMENTS》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107010085A (zh) * 2017-03-29 2017-08-04 常洋 一种铁路行车安全环境监测及控制系统
CN107734799A (zh) * 2017-10-19 2018-02-23 南京工程学院 一种可接入视频监控的智能照明控制系统及其控制方法
CN108198203A (zh) * 2018-01-30 2018-06-22 广东美的制冷设备有限公司 运动报警方法、装置以及计算机可读存储介质
CN108198203B (zh) * 2018-01-30 2022-02-08 广东美的制冷设备有限公司 运动报警方法、装置以及计算机可读存储介质
CN112041848A (zh) * 2018-03-27 2020-12-04 菲力尔系统公司 人数统计和跟踪系统及方法

Also Published As

Publication number Publication date
WO2014081688A1 (en) 2014-05-30
US9367733B2 (en) 2016-06-14
CN105051754B (zh) 2018-10-19
EP2923303A1 (en) 2015-09-30
US20140139660A1 (en) 2014-05-22

Similar Documents

Publication Publication Date Title
CN105051754A (zh) 用于通过监控系统检测人的方法和装置
US10880524B2 (en) System and method for activity monitoring using video data
CN108921159B (zh) 用于检测安全帽的佩戴情况的方法和装置
US11138442B2 (en) Robust, adaptive and efficient object detection, classification and tracking
US9129524B2 (en) Method of determining parking lot occupancy from digital camera images
CN105745687B (zh) 情景感知移动目标检测
US10009579B2 (en) Method and system for counting people using depth sensor
US9224046B2 (en) Multi-view object detection using appearance model transfer from similar scenes
US20230144209A1 (en) Lane line detection method and related device
US8243987B2 (en) Object tracking using color histogram and object size
JP6488083B2 (ja) 駐車区画占有率判定のための映像および視覚ベースのアクセス制御のハイブリッド方法およびシステム
CN110175528B (zh) 人体跟踪方法及装置、计算机设备及可读介质
US11893727B2 (en) Rail feature identification system
CN110264495A (zh) 一种目标跟踪方法及装置
CN105608417A (zh) 交通信号灯检测方法及装置
CN110795975B (zh) 人脸误检优化方法及装置
Himeur et al. Deep visual social distancing monitoring to combat COVID-19: A comprehensive survey
CN102867214B (zh) 区域范围内人数统计管理方法
Elassal et al. Unsupervised crowd counting
Tao Statistical calculation of dense crowd flow antiobscuring method considering video continuity
Tsai et al. Design on Wireless Intelligent Sensor Network on Cloud Computing System for Smart Home
TW202329035A (zh) 用於再訓練預訓練物件分類器之系統、方法及電腦程式
Cai Applications of deep learning and computer vision in large scale quantification of tree canopy cover and real-time estimation of street parking
CN114882525A (zh) 基于模态特定记忆网络的跨模态行人重识别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant