CN103729620B - 一种基于多视角贝叶斯网络的多视角行人检测方法 - Google Patents
一种基于多视角贝叶斯网络的多视角行人检测方法 Download PDFInfo
- Publication number
- CN103729620B CN103729620B CN201310680608.9A CN201310680608A CN103729620B CN 103729620 B CN103729620 B CN 103729620B CN 201310680608 A CN201310680608 A CN 201310680608A CN 103729620 B CN103729620 B CN 103729620B
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- msubsup
- haplopia
- delta
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Cosmetics (AREA)
Abstract
本发明提出了一种基于视角贝叶斯网络模型的行人检测方法及装置,可以对多个摄像头监控的人群比较密集的场景进行行人检测和定位。不仅适用于前景提取效果较好的场景,也适用于前景提取效果不佳但可以通过行人检测器进行检测的场景。本发明的方法包括单视处理步骤、基平面映射步骤、多视角融合步骤和逆映射以及最终检测结果输出步骤。
Description
技术领域
本发明属于计算机视觉技术领域,涉及监控视频行人检测分析方法,具体涉及一种基于多视角贝叶斯网络模型(Multi-view Bayesian Network,MvBN)的行人检测方法,以及实现该方法的装置。
背景技术
随着监控摄像头广泛的应用于人们生活的方方面面,监控视频数据呈现爆炸式的增长。行人检测是其他监控视频分析最重要的步骤之一,该步骤为其他监控视频分析应用,如目标跟踪,、事件监测等提供基础。检测的准确度直接影响到其他监控视频分析应用。多视角行人检测相对于普通的单视角行人检测来说,能够更有效的处理因为遮挡而造成的误检漏检等现象。并且多视角行人检测不仅能够检测出行人在图像中的位置,而且可以定位出行人在监控场景里的真实位置。
基于多视角的行人检测方法核心在于如何有效的融合多个视角的单视检测信息。现有的多视角行人检测方法,多是针对将单视检测信息投影到地面上,然后直接进行简单的融合。这种简单的融合策略在行人比较稀疏和摄像头摆放位置较高时有比较好的效果,但在行人比较密集的时候,由于缺少进一步细致的分析,检测结果较差。
CN101144716A号中国发明专利申请“一种多视角运动目标检测,定位与对应方法”提出了一种利用多视角信息的运动目标检测和定位的方法。该方法首先提取各个视角的前景检测信息,在空间中快速的进行目标的三维重建,然后在垂直方向地面投影,通过检测峰的位置得到目标。该方法仅是将多个视角的前景信息通过投影在地面上进行简单的融合,并没有考虑这种融合方法在行人比较密集时所产生的错误结果。并且,该方法只利用了前景信息,而没有利用单视角的纹理特征。
CN1941850A号中国发明专利申请“多摄像机下基于主轴匹配的行人跟踪方法”提出了一种基于主轴匹配的行人跟踪方法。包括步骤:对序列图像进行运动检测;提取人的主轴特征;进行单摄像机下的跟踪;依据主轴匹配函数建立主轴匹配对;融合多视角信息对跟踪结果进行优化更新。该方法需要在单视前景的联通区域求取主轴,对前景要求比较高,鲁棒性不足。并且,该方法也只是利用前景信息,而没有利用纹理特征。因此在前景特征提取不准确的场景里(比如光照变化强烈等),该方法的处理效果会大打折扣。
外文文献“Multi-camera Pedestrian Detection with a Multi-view BayesianNetwork Model”(发表于BMVC 2012,Proceedings of the British Machine VisionConference,Peixi Peng,Yonghong Tian,YaoweiWang,Tiejun Huang,2012)提出了一种基于MvBN的多视行人检测方法,该文献中只能利用单视前景检测,不能在单视检测中既可采用单视前景检测的检测结果,也可采用行人检测器的检测结果。
发明内容
针对现有技术的局限性,本发明提出了一种基于视角贝叶斯网络模型(MvBN)的行人检测方法及装置,可以对多个摄像头监控的人群比较密集的场景进行检测和定位行人。不仅适用于前景提取效果较好的场景,也适用于前景提取效果不佳但可以通过行人检测器进行检测的场景。
为实现上述目的,本发明采用如下技术方案:
一种基于多视角贝叶斯网络模型(MvBN)的多视角行人检测方法,其步骤如下:
单视处理步骤:对输入的多摄像机监控视频,分别利用前景分析或行人检测得到单个摄像头中的检测结果。
基平面映射步骤:利用摄像机参数,建立基平面与各摄像机图像平面间的映射关系,将单个摄像头的检测结果映射到基平面。
多视角融合步骤:利用多视贝叶斯网络,在基平面上融合多个视角的检测信息;
逆映射以及最终检测结果输出步骤:将基平面上的检测结果映射到各个图像空间中去,并且输出最终结果。
根据本发明进一步的发明目的,单视处理步骤中,分别对每个视角单独的进行检测。本方法中,单视检测输出既可以是前景图的检测结果,也可以是由行人检测器得到的检测结果。
根据本发明进一步的发明目的,基平面映射步骤中,包括如下子步骤:
a)根据摄像机参数建立基平面世界坐标系和各个视角图像坐标系的映射关系。
b)将基平面离散成一系列位置点。
c)计算每个位置点对应图像的矩形框。
根据本发明进一步的发明目的,多视角融合步骤包括如下子步骤
a)将各个视角的单视检测信息融合在基平面上,筛选出可能存在行人的位置。
b)建立多视角贝叶斯网络(MvBN)对筛选出来的位置进行分析,计算每个位置存在行人的概率。
根据本发明进一步的发明目的,逆映射步骤中,根据MvBN的计算结果,将概率大于阈值的位置点作为最终输出点,输出这些位置的世界坐标。同时,将这些位置点映射到各个视角图像坐标上,输出在图像里的位置。
根据本发明的另一个发明目的,本发明提出一种基于上述方法的MvBN多视行人检测装置,有如下模块:
单视处理模块,用于产生所有单个视角里的检测信息。
基平面映射模块,用于建立基平面和图像平面的映射关系,并且离散化基平面
多视角融合模块,用于融合多个视角的单视检测信息,计算每个位置上行人存在的概率。
逆映射模块,用于将基平面的检测结果投影到各个视角中,然后输出结果。
附图说明
图1是基于MvBN的多视行人检测装置的组成结构图;
图2是单视检测模块框架图;
图3是基平面映射模块示意图;
图4是多视角融合模块示意图;
图5是逆映射模块框架图;
图6是基于实施例1的实验结果示意图;
图7是基于实施例2的实验结果示意图。
具体实施方式
根据应用场景的不同,本说明书中提出了两种具体实施例,并配合附图,对本发明做详细的说明。但是本领域的技术人员根据本说明书中所记载的内容,完全能够在不付出创造性的劳动的情况下,进行变换、更改、替换、改进,因此本发明的内容不受实施例的限制,任何相应的变换、更改、替换、改进均在本发明的保护范围之内。
实施例1:
本实施例基于室外监控场景。在室外环境中,光照变化,行人阴影以及被风吹动的树等都会给单视前景检测带来很多误差。因此,在本实施例中,利用单视行人检测器的检测结果作为单视输出。
图1是本实施例的基于MvBN的多视行人检测装置的组成结构图。基于MvBN的多视行人检测装置包括:
单视检测模块,用于产生所有单个视角里的检测信息;
基平面映射模块,用于建立基平面和图像平面的映射关系,并且离散化基平面;
多视角融合模块,用于融合多个视角的单视检测信息,计算每个位置上行人存在的概率;
另外,在本说明书中,多视角、多视、多摄像头所指代的含义相同,下文中不再区分。其中,如图1所示,从单视检测模块输入的是单视的检测结果,从基平面映射模块输入的是各个视角和基平面之间的映射关系,用来建立各个单视角检测结果的关系。
逆映射模块,用于将基平面的检测结果投影到各个视角中,然后输出结果。所述结果是指基平面上的检测结果在各个视角平面上的映射结果。
参照图2,图2a为本实施例的单视检测模块。首先独立的输入各个视角获得的监控图像,分别对各个视角利用行人检测器(此处检测器为现有技术,根据本发明的实施方式,采用了两种检测器,一种是前景检测,一种是利用图像特征检测)进行单视检测,输出每个视角的检测结果。根据本发明的一个实施例,检测结果在监控图像中以一系列矩形框的形式呈现,这些矩形框中所包围的则为检测到的对象。
参照图3,图3为本实施例的基平面映射模块。首先将地面离散成若干个位置点。利用基平面和图像平面的映射关系,将每个位置点映射到各个视角中去,每个地面上的位置点在各个视角里有对应的矩形框。
参照图4,图4为本实施例的多视角融合模块。本模块有如下两个子模块:a)参照图4(a),为本模块的位置筛选子模块。所述位置筛选子模块相当于一个预处理模块,去除掉不可能存在行人的地方。位置筛选子模块通过一些规则去除一些不可能存在行人的位置点。所述规则的判断方法为:对每一个地面位置,如果这个位置点在每个视角里对应的矩形框与单视检测输出的检测结果重叠度都太低(重叠度就是指矩形框的重叠度,检测结果就是一个矩形框),则删除这个位置点。
b)参照图4(b,c),为本模块的多视角贝叶斯网络推理和学习子模块,该模块能够实现如下功能:
多视角贝叶斯网络推理和学习子模块的工作流程对应于图4b和图4c,其中图4b对应下列步骤1-3,图4c对应下列步骤4-5:
1.为每个视角建立单视贝叶斯网络(SBN)。在单视贝叶斯网络中,每一个位置点在这个视角中对应的矩形框作为节点。如果位置A在这个视角里遮挡了位置B,在该单视贝叶斯网络中,则位置A是位置B的父节点。
2.将多个单视贝叶斯网络融合为多视角贝叶斯网络,地面上位置点对应一个节点,与每个单视贝叶斯网络中对应的矩形框联系在一起。
3.引入“主观节点猜想状态”(SSNS)参数,计算出地面上每个位置点基于SSNS的检测概率值。计算方法如下:
其中Xi代表地面上第i个位置,δ代表SSNS参数,特别的,δi对应第i个位置的SSNS参数。P(Ck)是摄像机k的权重。代表第i个位置点在摄像头k上对应的矩形框。代表在第k个单视贝叶斯网络上节点的祖先节点集合。其中
其中是纹理检测置信度。u是一个常数。
4、根据单视检测结果和带有SSNS参数的多视角贝叶斯网络推理模块获得的概率值计算似然函数:
其中
其中num是检测结果个数。=s表示在k视角里对应的检测结果与k视角里第s个检测结果匹配在一起。然后利用优化算法(如贪心法)迭代求解似然函数,解出SSNS参数。
5.把第4步的求解得到的SSNS参数带入到多视角贝叶斯网络推理中,求解出每个位置点可能存在行人的概率。
参照图5,图5为本装置的逆映射模块。根据多视角贝叶斯网络的计算结果,将概率大于阈值的位置点作为最终输出点,输出这些位置的世界坐标。同时,将这些位置点映射到各个视角图像坐标上,输出在图像里的位置。
根据本发明的实施例1,利用PETS2009S2L1数据集.该数据集发布在pets2012.net上。是多视检测领域很流行的一个数据集。该数据集由七个摄像头获取,每个摄像头上有795帧图像。本实例中我们选取了一个广域摄像头1号和三个近视角摄像头5号,6号和8号。得出如图6的检测结果。
如图6所示,共有4幅图像,各图像的采集视角均不同。同一个行人在不同视角中用同一颜色的矩形框标记。根据图6,可以看出,根据本发明的该实施例的方法和装置,能够在多视角监控图像中精确检测到检测对象。
实施例2
本实施例基于室内体育运动场景,这种情况下,由于运动员身体变形,动作剧烈,因此利用行人检测器产生的单视检测结果很差,因此本实施例利用各个视角的前景信息来进行多视行人检测。
类似于实施例1,实施例2中同样具有基于MvBN的多视行人检测装置,其包括:
单视检测模块,用于产生所有单个视角里的检测信息;
基平面映射模块,用于建立基平面和图像平面的映射关系,并且离散化基平面;
多视角融合模块,用于融合多个视角的单视检测信息,计算每个位置上行人存在的概率;
逆映射模块,用于将基平面的检测结果投影到各个视角中,然后输出结果。
参照图2b,图2b为本实施例的单视检测模块,首先独立的输入各个视角获得的监控图像,分别对各个视角利用行人检测器进行背景消除,获得前景检测结果(如GMM算法,利用高斯混合模型来进行前景检测),输出每个视角的前景图。
类似于实施例1,实施例2中同样具有基平面映射模块。基平面映射模块首先将地面离散成若干个位置点。利用基平面和图像平面的映射关系,将每个位置点映射到各个视角中去,每个地面上的位置点(例如,地面上的点)在各个视角里有对应的矩形框。
类似于实施例1,实施例2中同样具有多视角融合模块。多视角融合模块有如下两个子模块:
位置筛选子模块。位置筛选子模块通过一些规则去除一些不可能存在行人的位置点。判断方法为:对每一个地面位置,如果这个位置点在每个视角里对应的矩形框中含有前景信息太少,则删除这个位置点。
多视角贝叶斯网络推理和学习子模块。本实施例中的多视角融合模块与实施例1中的多视角融合模块类似,但是其中在多视角贝叶斯网络推理和学习子模块中所进行处理的步骤与实施例1中的处理步骤不同:
1.为每个视角建立单视贝叶斯网络(SBN)。在单视贝叶斯网络中,每一个位置点在这个视角中对应的矩形框作为节点。如果位置A在这个视角里遮挡了位置B,在该单视贝叶斯网络中,则位置A是位置B的父节点。
2.将多个单视贝叶斯网络融合为多视角贝叶斯网络,地面上位置点对应一个节点,与每个单视贝叶斯网络中对应的矩形框联系在一起。
3.引入“主观节点猜想状态”(SSNS)参数,计算出地面上每个位置点基于SSNS的检测概率值。计算方法如下:
其中Xi代表地面上第i个位置,δ代表SSNS参数,特别的,δi对应第i个位置的SSNS参数。P(Ck)是摄像机k的权重。代表第i个位置点在摄像头k上对应的矩形框。代表在第k个单视贝叶斯网络上节点的祖先节点集合。其中
其中是(w,h)k指视角k里坐标为的前景像素点。
4、根据带有SSNS参数的单视检测结果和多视角贝叶斯网络推理模块获得的概率值计算似然函数:
其中:
其中:
(w,h)k是第k个摄像头获得的前景图像上当前像素点的坐标。P(Xj=1|δ)为第三步中所提。|Dk|为第k个摄像头获得的前景图像上像素点的个数。然后利用优化算法(如梯度下降法)迭代求解似然函数,解出SSNS参数。
5.把步骤4求解得到的SSNS参数带入到多视角贝叶斯网络推理中,求解出每个位置点可能存在行人的概率。
本实施例中的逆映射模块类似于实施例1中的逆映射模块,根据多视角贝叶斯网络的计算结果,将概率大于阈值的位置点作为最终输出点,输出这些位置的世界坐标。同时,将这些位置点映射到各个视角图像坐标上,输出在图像里的位置。
在本实施例中,其它的模块、处理步骤和内容类似于实施例1中的对应内容,在说明书中不再赘述。在APIDIS数据集上进行了基于实施例2的实验,其中结果示意图如7所示。
如图7所示,共有4幅图像,各图像的采集视角均不同。同一个行人在不同视角中用同一颜色的矩形框标记。根据图7,可以看出,根据本发明的该实施例的方法和装置,能够在多视角监控图像中精确检测到检测对象。
Claims (3)
1.一种基于多视角贝叶斯网络的多视角行人检测方法,其特征在于,所述方法包括如下步骤:
单视处理步骤,所述单视处理步骤包括针对输入的通过多个摄像头获得的监控视频,利用前景分析和/或行人检测得到所述多个摄像头中的单个摄像头中的检测结果;
基平面映射步骤,所述基平面映射步骤包括利用摄像头参数,建立基平面与各个摄像头的图像平面间的映射关系,将所述单个摄像头的检测结果映射到所述基平面;
多视角融合步骤,所述多视角融合步骤包括利用多视贝叶斯网络,在所述基平面上融合多个视角的检测信息;
逆映射以及最终检测结果输出步骤,所述逆映射以及最终检测结果输出步骤包括将所述基平面上的检测结果映射到各个图像平面空间中去,并且输出最终结果;在所述逆映射步骤中,根据多视角贝叶斯网络的计算结果,将概率大于阈值的位置点作为最终输出点,输出这些位置的世界坐标,并且将这些位置映射到所述多个视角中的各个视角图像坐标上,输出其在所述各个视角图像中的对应位置;
在所述基平面映射步骤中,还包括如下步骤:
根据所述摄像头参数建立基平面世界坐标系和各个视角图像坐标系的映射关系;
将所述基平面离散成一系列位置点;
利用所述基平面世界坐标系和各个视角图像坐标系的映射关系,将每个位置点映射到各个视角中去,计算每个所述位置点在各个视角里对应的矩形框;
所述多视角融合步骤,还包括如下步骤:
a)将所述多视角中的各个视角的单视检测信息融合在基平面上,筛选出可能存在行人的位置;
b)建立多视角贝叶斯网络,分析所述已筛选出来的位置,计算每个位置存在行人的概率;
所述a)包括:通过规则去除不可能存在行人的位置点,所述规则的判断方法为:对每一个地面位置,如果这个位置点在每个视角里对应的矩形框与单视检测输出的检测结果重叠度低,则删除这个位置点;
所述b)包括:
(1).为每个视角建立单视贝叶斯网络,在单视贝叶斯网络中,每一个位置点在这个视角中对应的矩形框作为节点;
(2).将多个单视贝叶斯网络融合为多视角贝叶斯网络,地面上位置点对应一个节点,与每个单视贝叶斯网络中对应的矩形框联系在一起;
(3).引入主观节点猜想状态SSNS参数,计算出地面上每个位置点基于SSNS的检测概率值,计算方法如下:
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<mn>1</mn>
<mo>|</mo>
<mi>&delta;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>&delta;</mi>
<mi>i</mi>
</msub>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>K</mi>
</munderover>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>C</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>|</mo>
<msub>
<mrow>
<mo>{</mo>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>=</mo>
<msub>
<mi>&delta;</mi>
<mi>j</mi>
</msub>
<mo>}</mo>
</mrow>
<mrow>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>&Element;</mo>
<msub>
<mi>an</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
其中Xi代表地面上第i个位置,δ代表SSNS参数,δi对应第i个位置的SSNS参数,P(Ck)是摄像机k的权重,代表第i个位置点在摄像头k上对应的矩形框,代表在第k个单视贝叶斯网络上节点的祖先节点集合,其中:
当针对行人检测场景时:
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>|</mo>
<msub>
<mrow>
<mo>{</mo>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>=</mo>
<msub>
<mi>&delta;</mi>
<mi>j</mi>
</msub>
<mo>}</mo>
</mrow>
<mrow>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>&Element;</mo>
<msub>
<mi>an</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mrow>
<mo>(</mo>
<munder>
<mo>&Pi;</mo>
<mrow>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>&Element;</mo>
<msub>
<mi>an</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</munder>
<mo>(</mo>
<mrow>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>&delta;</mi>
<mi>j</mi>
</msub>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>*</mo>
<mi>D</mi>
<mi>e</mi>
<mi>t</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<munder>
<mo>&Pi;</mo>
<mrow>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>&Element;</mo>
<msub>
<mi>an</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</munder>
<mo>(</mo>
<mrow>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>&delta;</mi>
<mi>j</mi>
</msub>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>*</mo>
<mi>u</mi>
</mrow>
其中是纹理检测置信度,u是一个常数;
当针对前景分析场景时:
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>|</mo>
<msub>
<mrow>
<mo>{</mo>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>=</mo>
<msub>
<mi>&delta;</mi>
<mi>j</mi>
</msub>
<mo>}</mo>
</mrow>
<mrow>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>&Element;</mo>
<msub>
<mi>an</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mo>&Sigma;</mo>
<mrow>
<msub>
<mrow>
<mo>(</mo>
<mi>w</mi>
<mo>,</mo>
<mi>h</mi>
<mo>)</mo>
</mrow>
<mi>k</mi>
</msub>
<mo>&Element;</mo>
<msubsup>
<mi>r</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mo>&Pi;</mo>
<mrow>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>&Element;</mo>
<msub>
<mi>an</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>&cap;</mo>
<msub>
<mrow>
<mo>(</mo>
<mi>w</mi>
<mo>,</mo>
<mi>h</mi>
<mo>)</mo>
</mrow>
<mi>k</mi>
</msub>
<mo>&Element;</mo>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
</mrow>
</msub>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>&delta;</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>)</mo>
</mrow>
<mrow>
<msub>
<mo>&Sigma;</mo>
<mrow>
<msub>
<mrow>
<mo>(</mo>
<mi>w</mi>
<mo>,</mo>
<mi>h</mi>
<mo>)</mo>
</mrow>
<mi>k</mi>
</msub>
<mo>&Element;</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
</mrow>
</msub>
<mn>1</mn>
</mrow>
</mfrac>
<mo>;</mo>
</mrow>
其中是(w,h)k指视角k里坐标为(w,h)的前景像素点;
(4)、根据单视检测结果和带有SSNS参数的多视角贝叶斯网络推理模块获得的概率值计算似然函数:
当基于室外监控场景时:
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>D</mi>
<mi>k</mi>
</msub>
<mo>|</mo>
<mi>X</mi>
<mo>,</mo>
<mi>&delta;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>s</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>n</mi>
<mi>u</mi>
<mi>m</mi>
</mrow>
</munderover>
<munder>
<mi>max</mi>
<mi>i</mi>
</munder>
<mo>(</mo>
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mi>&delta;</mi>
</mrow>
<mo>)</mo>
</mrow>
<mo>|</mo>
<msub>
<mi>i</mi>
<mi>k</mi>
</msub>
<mo>=</mo>
<mi>s</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
其中num是检测结果个数,iK=s表示在k视角里对应的检测结果与k视角里第s个检测结果匹配在一起,利用优化算法迭代求解似然函数,解出SSNS参数;
当基于室内监控场景时:
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>D</mi>
<mi>k</mi>
</msub>
<mo>|</mo>
<mi>X</mi>
<mo>,</mo>
<mi>&delta;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<mo>-</mo>
<msub>
<mi>&Sigma;</mi>
<msub>
<mrow>
<mo>(</mo>
<mi>w</mi>
<mo>,</mo>
<mi>h</mi>
<mo>)</mo>
</mrow>
<mi>k</mi>
</msub>
</msub>
<mi>&Psi;</mi>
<mrow>
<mo>(</mo>
<msub>
<mrow>
<mo>(</mo>
<mi>w</mi>
<mo>,</mo>
<mi>h</mi>
<mo>)</mo>
</mrow>
<mi>k</mi>
</msub>
<mo>|</mo>
<mi>&delta;</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mo>|</mo>
<msub>
<mi>D</mi>
<mi>k</mi>
</msub>
<mo>|</mo>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
其中:
(w,h)k是视角k里坐标为(w,h)的前景像素点,|Dk|为第k个摄像头获得的前景图像上像素点的个数,利用优化算法迭代求解似然函数,解出SSNS参数;
(5).把第(4)步的求解得到的SSNS参数带入到多视角贝叶斯网络推理中,求解出每个位置点存在行人的概率。
2.根据权利要求1所述的基于多视角贝叶斯网络的多视角行人检测方法,其特征在于,在所述单视处理步骤中,分别对每个视角单独进行检测。
3.一种基于多视角贝叶斯网络的多视角行人检测装置,所述装置包括:
单视处理单元,所述单视处理单元用于针对输入的通过多个摄像头获得的监控视频,利用前景分析和/或行人检测得到所述多个摄像头中的单个摄像头中的检测结果;
基平面映射单元,所述基平面映射单元用于利用摄像头参数,建立基平面与各个摄像头的图像平面间的映射关系,将所述单个摄像头的检测结果映射到所述基平面;根据所述摄像头参数建立基平面世界坐标系和各个视角图像坐标系的映射关系,将所述基平面离散成一系列位置点,利用所述基平面世界坐标系和各个视角图像坐标系的映射关系,将每个位置点映射到各个视角中去,计算每个所述位置点在各个视角里对应的矩形框;
多视角融合单元,所述多视角融合单元用于利用多视贝叶斯网络,在所述基平面上融合多个视角的检测信息;
逆映射以及最终检测结果输出单元,所述逆映射以及最终检测结果输出单元用于将所述基平面上的检测结果映射到各个图像平面空间中去,并且输出最终结果;在所述逆映射步骤中,根据多视角贝叶斯网络的计算结果,将概率大于阈值的位置点作为最终输出点,输出这些位置的世界坐标,并且将这些位置映射到所述多个视角中的各个视角图像坐标上,输出其在所述各个视角图像中的对应位置;
所述多视角融合步骤包括位置筛选子模块和多视角贝叶斯网络推理和学习子模块;
所述位置筛选子模块,通过一些规则去除不存在行人的位置点,判断方法为:对每一个地面位置,如果这个位置点在每个视角里对应的矩形框中含有前景信息太少,则删除这个位置点;
所述多视角贝叶斯网络推理和学习子模块的处理步骤包括:
(1).为每个视角建立单视贝叶斯网络,在单视贝叶斯网络中,每一个位置点在这个视角中对应的矩形框作为节点;
(2).将多个单视贝叶斯网络融合为多视角贝叶斯网络,地面上位置点对应一个节点,与每个单视贝叶斯网络中对应的矩形框联系在一起;
(3).引入主观节点猜想状态SSNS参数,计算出地面上每个位置点基于SSNS的检测概率值,计算方法如下:
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>=</mo>
<mn>1</mn>
<mo>|</mo>
<mi>&delta;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>&delta;</mi>
<mi>i</mi>
</msub>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>K</mi>
</munderover>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>C</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>|</mo>
<msub>
<mrow>
<mo>{</mo>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>=</mo>
<msub>
<mi>&delta;</mi>
<mi>j</mi>
</msub>
<mo>}</mo>
</mrow>
<mrow>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>&Element;</mo>
<msub>
<mi>an</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>;</mo>
</mrow>
其中Xi代表地面上第i个位置,δ代表SSNS参数,δi对应第i个位置的SSNS参数,P(Ck)是摄像机k的权重,代表第i个位置点在摄像头k上对应的矩形框,代表在第k个单视贝叶斯网络上节点的祖先节点集合,其中
当针对行人检测场景时:
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>|</mo>
<msub>
<mrow>
<mo>{</mo>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>=</mo>
<msub>
<mi>&delta;</mi>
<mi>j</mi>
</msub>
<mo>}</mo>
</mrow>
<mrow>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>&Element;</mo>
<msub>
<mi>an</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mrow>
<mo>(</mo>
<munder>
<mo>&Pi;</mo>
<mrow>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>&Element;</mo>
<msub>
<mi>an</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</munder>
<mo>(</mo>
<mrow>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>&delta;</mi>
<mi>j</mi>
</msub>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>*</mo>
<mi>D</mi>
<mi>e</mi>
<mi>t</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<munder>
<mo>&Pi;</mo>
<mrow>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>&Element;</mo>
<msub>
<mi>an</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</munder>
<mo>(</mo>
<mrow>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>&delta;</mi>
<mi>j</mi>
</msub>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>*</mo>
<mi>u</mi>
</mrow>
其中是纹理检测置信度,u是一个常数;
当针对前景分析场景时:
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>|</mo>
<msub>
<mrow>
<mo>{</mo>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>=</mo>
<msub>
<mi>&delta;</mi>
<mi>j</mi>
</msub>
<mo>}</mo>
</mrow>
<mrow>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>&Element;</mo>
<msub>
<mi>an</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mo>&Sigma;</mo>
<mrow>
<msub>
<mrow>
<mo>(</mo>
<mi>w</mi>
<mo>,</mo>
<mi>h</mi>
<mo>)</mo>
</mrow>
<mi>k</mi>
</msub>
<mo>&Element;</mo>
<msubsup>
<mi>r</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mo>&Pi;</mo>
<mrow>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
<mo>&Element;</mo>
<msub>
<mi>an</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
<mo>)</mo>
</mrow>
<mo>&cap;</mo>
<msub>
<mrow>
<mo>(</mo>
<mi>w</mi>
<mo>,</mo>
<mi>h</mi>
<mo>)</mo>
</mrow>
<mi>k</mi>
</msub>
<mo>&Element;</mo>
<msubsup>
<mi>R</mi>
<mi>j</mi>
<mi>k</mi>
</msubsup>
</mrow>
</msub>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>&delta;</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>)</mo>
</mrow>
<mrow>
<msub>
<mo>&Sigma;</mo>
<mrow>
<msub>
<mrow>
<mo>(</mo>
<mi>w</mi>
<mo>,</mo>
<mi>h</mi>
<mo>)</mo>
</mrow>
<mi>k</mi>
</msub>
<mo>&Element;</mo>
<msubsup>
<mi>R</mi>
<mi>i</mi>
<mi>k</mi>
</msubsup>
</mrow>
</msub>
<mn>1</mn>
</mrow>
</mfrac>
<mo>;</mo>
</mrow>
其中是(w,h)k指视角k里坐标为(w,h)的前景像素点;
(4)、根据单视检测结果和带有SSNS参数的多视角贝叶斯网络推理模块获得的概率值计算似然函数:
当基于室外监控场景时:
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>D</mi>
<mi>k</mi>
</msub>
<mo>|</mo>
<mi>X</mi>
<mo>,</mo>
<mi>&delta;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>s</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>n</mi>
<mi>u</mi>
<mi>m</mi>
</mrow>
</munderover>
<munder>
<mi>max</mi>
<mi>i</mi>
</munder>
<mo>(</mo>
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mrow>
<msub>
<mi>X</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mi>&delta;</mi>
</mrow>
<mo>)</mo>
</mrow>
<mo>|</mo>
<msub>
<mi>i</mi>
<mi>k</mi>
</msub>
<mo>=</mo>
<mi>s</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
其中num是检测结果个数,ik=s表示在k视角里对应的检测结果与k视角里第s个检测结果匹配在一起,利用优化算法迭代求解似然函数,解出SSNS参数;
当基于室内监控场景时:
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>D</mi>
<mi>k</mi>
</msub>
<mo>|</mo>
<mi>X</mi>
<mo>,</mo>
<mi>&delta;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<mo>-</mo>
<msub>
<mi>&Sigma;</mi>
<msub>
<mrow>
<mo>(</mo>
<mi>w</mi>
<mo>,</mo>
<mi>h</mi>
<mo>)</mo>
</mrow>
<mi>k</mi>
</msub>
</msub>
<mi>&Psi;</mi>
<mrow>
<mo>(</mo>
<msub>
<mrow>
<mo>(</mo>
<mi>w</mi>
<mo>,</mo>
<mi>h</mi>
<mo>)</mo>
</mrow>
<mi>k</mi>
</msub>
<mo>|</mo>
<mi>&delta;</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mo>|</mo>
<msub>
<mi>D</mi>
<mi>k</mi>
</msub>
<mo>|</mo>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
其中:
(w,h)k是指视角k里坐标为(w,h)的前景像素点,|Dk|为第k个摄像头获得的前景图像上像素点的个数,利用优化算法迭代求解似然函数,解出SSNS参数;
(5).把第(4)步的求解得到的SSNS参数带入到多视角贝叶斯网络推理中,求解出每个位置点存在行人的概率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310680608.9A CN103729620B (zh) | 2013-12-12 | 2013-12-12 | 一种基于多视角贝叶斯网络的多视角行人检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310680608.9A CN103729620B (zh) | 2013-12-12 | 2013-12-12 | 一种基于多视角贝叶斯网络的多视角行人检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103729620A CN103729620A (zh) | 2014-04-16 |
CN103729620B true CN103729620B (zh) | 2017-11-03 |
Family
ID=50453686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310680608.9A Expired - Fee Related CN103729620B (zh) | 2013-12-12 | 2013-12-12 | 一种基于多视角贝叶斯网络的多视角行人检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103729620B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104766065B (zh) * | 2015-04-14 | 2018-04-27 | 中国科学院自动化研究所 | 基于多视角学习的鲁棒性前景检测方法 |
CN105760846B (zh) * | 2016-03-01 | 2019-02-15 | 北京正安维视科技股份有限公司 | 基于深度数据的目标检测与定位方法及系统 |
CN109271903A (zh) * | 2018-09-02 | 2019-01-25 | 杭州晶智能科技有限公司 | 基于概率估计的红外图像人体识别方法 |
CN111860074B (zh) * | 2019-04-30 | 2024-04-12 | 北京市商汤科技开发有限公司 | 目标对象检测方法及装置、驾驶控制方法及装置 |
CN110443228B (zh) * | 2019-08-20 | 2022-03-04 | 图谱未来(南京)人工智能研究院有限公司 | 一种行人匹配方法、装置、电子设备及存储介质 |
CN110728702B (zh) * | 2019-08-30 | 2022-05-20 | 深圳大学 | 一种基于深度学习的高速跨摄像头单目标跟踪方法及系统 |
CN113673444B (zh) * | 2021-08-19 | 2022-03-11 | 清华大学 | 一种基于角点池化的路口多视角目标检测方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1941850A (zh) * | 2005-09-29 | 2007-04-04 | 中国科学院自动化研究所 | 多摄像机下基于主轴匹配的行人跟踪方法 |
CN101141633A (zh) * | 2007-08-28 | 2008-03-12 | 湖南大学 | 一种复杂场景中的运动目标检测与跟踪方法 |
CN102243765A (zh) * | 2011-05-06 | 2011-11-16 | 大连民族学院 | 基于多相机的多目标定位跟踪方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7480079B2 (en) * | 2003-09-09 | 2009-01-20 | Siemens Corporate Research, Inc. | System and method for sequential kernel density approximation through mode propagation |
-
2013
- 2013-12-12 CN CN201310680608.9A patent/CN103729620B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1941850A (zh) * | 2005-09-29 | 2007-04-04 | 中国科学院自动化研究所 | 多摄像机下基于主轴匹配的行人跟踪方法 |
CN101141633A (zh) * | 2007-08-28 | 2008-03-12 | 湖南大学 | 一种复杂场景中的运动目标检测与跟踪方法 |
CN102243765A (zh) * | 2011-05-06 | 2011-11-16 | 大连民族学院 | 基于多相机的多目标定位跟踪方法及系统 |
Non-Patent Citations (1)
Title |
---|
Single and Multiple View Detection, Tracking and Video Analysis in Crowded Environments;Teng Xun et al;《2012 IEEE Ninth International Conference on Advanced Video and Signal-Based Surveillance》;20120921;第494-499页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103729620A (zh) | 2014-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103729620B (zh) | 一种基于多视角贝叶斯网络的多视角行人检测方法 | |
Yang et al. | Visual perception enabled industry intelligence: state of the art, challenges and prospects | |
CN106845357B (zh) | 一种基于多通道网络的视频人脸检测和识别方法 | |
CN105354548B (zh) | 一种基于ImageNet检索的监控视频行人重识别方法 | |
CN110532970B (zh) | 人脸2d图像的年龄性别属性分析方法、系统、设备和介质 | |
WO2018028103A1 (zh) | 一种基于人眼视觉特性的电力线路无人机巡检方法 | |
CN104463117B (zh) | 一种基于视频方式的人脸识别样本采集方法及系统 | |
CN103824070B (zh) | 一种基于计算机视觉的快速行人检测方法 | |
CN111814661A (zh) | 基于残差-循环神经网络的人体行为识别方法 | |
CN109118479A (zh) | 基于胶囊网络的绝缘子缺陷识别定位装置及方法 | |
CN110084165A (zh) | 基于边缘计算的电力领域开放场景下异常事件的智能识别与预警方法 | |
CN105740758A (zh) | 基于深度学习的互联网视频人脸识别方法 | |
CN104517095B (zh) | 一种基于深度图像的人头分割方法 | |
CN105404857A (zh) | 一种基于红外的夜间智能车前方行人检测方法 | |
CN103425967A (zh) | 一种基于行人检测和跟踪的人流监控方法 | |
CN113553979B (zh) | 一种基于改进yolo v5的安全服检测方法和系统 | |
CN102043953A (zh) | 一种实时鲁棒的针对特定场景的行人检测方法 | |
CN108197604A (zh) | 基于嵌入式设备的快速人脸定位跟踪方法 | |
CN107301376B (zh) | 一种基于深度学习多层刺激的行人检测方法 | |
CN106056624A (zh) | 无人机高清图像小目标检测与跟踪系统及其检测跟踪方法 | |
CN113762009B (zh) | 一种基于多尺度特征融合及双注意力机制的人群计数方法 | |
CN103853794B (zh) | 一种基于部件关联的行人检索方法 | |
CN102034267A (zh) | 基于关注度的目标物三维重建方法 | |
CN109359549A (zh) | 一种基于混合高斯和hog_lbp的行人检测方法 | |
WO2023087420A1 (zh) | 一种基于热红外视觉的停机坪人体动作识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20171103 Termination date: 20201212 |
|
CF01 | Termination of patent right due to non-payment of annual fee |