具体实施方式
以下适当参照附图对用于实施本发明的方式(以下称为“实施方式”)进行详细的说明。
以下参照图1对本实施方式的映像监视系统的结构例和映像监视装置的功能例进行说明。
映像监视系统1由摄像机110、输入装置120、显示装置130以及映像监视装置10构成。在本实施方式中,映像监视装置10具有使用图像识别处理对人和车辆等的移动体进行监视的功能。
摄像机110是包括具有变焦功能的摄像镜头单元、CMOS(Complementary Metal Oxide Semiconductor)或CCD(ChargeCoupled Device,电荷耦合器件)等摄像元件的摄像装置。摄像机110设置在未图示的云台上,能够进行上下左右旋转。此外,摄像机110具有将拍摄到的图像信息发送到映像监视装置10的功能。在图1中只示出了一台摄像机110,但也可以设置多台摄像机110。
输入装置120是鼠标等点击设备和键盘等,具有可以通过用户的操作向映像监视装置10输入指示信息的功能。
显示装置130为液晶显示装置、CRT(Cathode Ray Tube,阴极射线管)显示装置和RGB(Red-Green-Blue,红绿蓝)彩色监视器等,具有对映像监视装置10的输出信息进行显示的功能。此外,在图1中只示出了一台显示装置130,但也可以设置多台显示装置130。
映像监视装置10具有处理部分20、存储部分30和输入输出IF(接口)40。处理部分20具有作为控制部分21、布置信息生成部分22、前处理信息生成部分23、识别参数运算部分24以及图像识别处理部分25的功能。处理部分20由未图示的CPU(Central Processing Unit,中央处理器)和主存储器构成,处理部分20中的各个部分通过在主存储器中执行存储在存储部分30中的应用程序而实现。
存储部分30中存储有监视区域信息31、布置信息32、摄像机信息33、前处理信息34和识别参数35。存储在存储部分30中的各种信息的详细情况在后述的处理部分20中的各部分的说明中加以说明。
输出输入IF40是用于进行摄像机110、输入装置120以及显示装置130与映像监视装置10的处理部分20之间的信息交换的接口。
控制部分21具有对布置信息生成部分22、前处理信息生成部分23、识别参数运算部分24以及图像识别处理部分25之间的动作进行统一控制的功能和经由输入输出IF40在摄像机110、输入装置120和显示装置130之间进行信息交换的功能以及在处理部分20中的各部分之间、处理部分20中的各部分与存储部分30之间交换信息的功能。
布置信息生成部分22获取包括摄像机110的设置场所的平面图和布置图等数据的监视区域信息31,并生成设定与监视对象相适应的识别处理区域时所需的布置信息32。在此,监视对象是指作为图像识别处理对象的移动体的全部或者一部分。具体来说是,如果移动体是人,则移动体的全部是指人的全身,移动体的一部分是指人身体的一部分(例如脸部和头部等)。识别处理区域是指在对监视对象进行图像识别处理时由摄像机110拍摄到的图像信息(以下称为“摄像机图像”)中的用于图像识别处理的图像区域。此外,监视区域信息31和布置信息32均存储在存储部分30中。
以下参照图2和图3对监视区域信息31和布置信息32的具体示例进行说明。
如图2所示,监视区域信息31为平面图(布置图),记载有主要部分的尺寸信息。例如记载有出入口的高度方向的实测值(单位为mm)。此外,监视区域信息31也可以是三维CAD(Computer Aided Design,计算机辅助设计)数据和CG(Computer Graphics,计算机图形)数据等。
如图3所示,布置信息32通过从监视区域信息31提取设置识别处理区域所需的信息而生成。在本实施方式中,出入口301作为识别处理区域用阴影方式显示(以通过出入口301的移动体为监视对象的情况在后述部分说明)。生成布置信息32的目的是为了求出识别处理区域的位置与摄像机110设置位置之间的位置关系,所以也可以只显示识别处理区域(出入口301)。此外,在进行人员出入管理时,相对于识别处理区域(出入口301),哪一侧是室外,哪一侧是室内(移动体的移动方向)是重要的信息,所以优选将其包含在布置信息32中。
以下返回图1进行说明。前处理信息生成部分23使用布置信息32和摄像机信息33生成前处理信息34。
如图4所示,摄像机信息33表示摄像机设置位置的高度、俯角、分辨率、帧速率以及视场角。前处理信息34是摄像机110的设置位置与识别处理区域(出入口301)之间的角度、水平距离、高度以及识别处理区域的实测值。由于识别处理区域的实测值能够从布置信息32获取,高度可以从摄像机信息33获取,所以以下对前处理信息生成部分23的处理中的计算前处理信息34中的角度和水平距离的方法进行说明。
首先,如图5所示,前处理信息生成部分23将在布置信息生成部分22中生成的布置信息32(参照图3)作为布置信息32a显示在显示装置130中。在布置信息32a上显示有识别处理区域(出入口301)。此外,前处理信息生成部分23受理从由用户操作的输入装置120输入的摄像机110的设置位置。具体来说是,如图5所示,由光标501指定的位置就是表示摄像机110的设定位置的摄像机设置位置502。
接着,前处理信息生成部分23根据图5所示的布置信息32a上的位置关系算出识别处理区域(出入口301)与摄像机设置位置502之间的距离r和角度θ。具体来说是,由于识别处理区域(出入口301)的宽度的实测值是已知值,所以,通过使用该实测值与布置信息32a上的识别处理区域(出入口301)的显示尺寸之间的比率,能够方便地推算出布置信息32a上的各种长度的实测值。这一方法构成本实施方式的基本部分,根据这一方法,能够在不进行实测的情况下根据布置信息32a上的位置关系方便地获得识别处理区域(出入口301)与摄像机设置位置502之间的位置关系。此外,在本实施方式中,实测值以大写字母(例如距离R、高度H和Ho等)表示,布置信息32上或者摄像机图像中的长度以小写字母(例如距离r、高度h和ho等)表示,以此来加以区别。
以下对摄像机设置位置502与识别处理区域(出入口301)的中心G之间的距离r的获取方法进行说明。并且,假设摄像机110的方向(镜头的光轴方向)朝向中心G。
为了在图5的布置信息32a上定义距离,例如将布置信息32a的左上方作为原点,在水平方向设定X轴,并且在垂直方向设定Y轴。前处理信息生成部分23从布置信息32a获取识别处理区域(出入口301)的x轴方向的实测值(W=3000mm)以及在布置信息32a上的大小w(例如300个像素)。接着,由前处理信息生成部分23从布置信息32a获取Δx(例如150个像素)和Δy(例如200个像素)。然后,根据下式求出实测值ΔX以及ΔY(单位为mm)。
w∶Δy=300∶200=W∶ΔY=3000∶ΔY
Δy∶Δx=200∶150=ΔY∶ΔX
ΔY=2000(mm),ΔX=1500(mm)
使用在上述计算中获取的ΔX和ΔY,并且根据下式(1)算出摄像机设置位置502与识别处理区域(出入口301)的中心G之间的距离r以及角度θ。
R=(ΔX2+ΔY2)1/2
θ=arccos(ΔX/R) 式(1)
通过上述处理,前处理信息生成部分23将根据式(1)算出的水平距离R以及角度θ、出入口301的高度H以及识别处理区域的实测值作为前处理信息34存储在存储部分30中。
以下返回到图1进行说明。识别参数运算部分24参照前处理信息34生成识别参数35,并将其存储在存储部分30中。所谓的识别参数35,具体来说是在进行图像识别处理时使用的摄像机图像中的识别处理区域的坐标和摄像机图像中的监视对象的移动方向以及模板(包括通过学习算法获得的模型信息)的变换信息(变换公式或者变换表)。以下分别对摄像机图像中的识别处理区域的坐标和摄像机图像中的监视对象的移动方向以及模板的变换信息的计算方法进行说明。
首先,参照图6对摄像机图像中的距离和实测值之间的关系进行说明。然后,在图7中对根据实测值与摄像机图像中的距离之间的关系在摄像机图像中设定识别处理区域的方法进行说明。需要了解实测值与摄像机图像中的距离之间的关系的理由是因为摄像机图像中的识别处理区域的尺寸通常根据真实空间的实测值来决定的缘故。例如,在将人的脸部作为监视对象时,根据人的身高的实测值的分布来决定人的脸部所在的区域,之后将摄像机图像中的与该区域对应的区域决定为识别处理区域。此外,通过以上述方法来缩小识别处理区域的范围,与对整个摄像机图像进行图像识别处理的场合相比,能够降低运算处理量,具有能够提高映像监视装置10的功能的效果。
图6中示出了由摄像机110拍摄并显示在显示装置130上的摄像机图像(拍摄图像)。图5所示的出入口301在该摄像机图像中被表示为出入口601。
识别参数运算部分24受理使用由输入装置120操作的光标501指定(例如在输入装置为鼠标时该操作为点击操作)的表示出入口601的区域中的表示区域602的顶点的4个点(p1~p4)的位置,并获取该指定位置(点p1~点p4)的坐标。其中,点p1和点p2是指定出入口601上端的点,点p3和点p4是指定出入口601下端的点。在此得到的点p1~点p4的坐标值也可以是以摄像机图像的左上方为原点,并且水平方向被定义为X轴,垂直方向被定义为Y轴的图像坐标系的坐标值。此外,在图6中,为了明确地示出区域602,以阴影方式表示区域602,但在实际的显示装置130的画面上也可以不用阴影方式进行显示。
区域602的尺寸利用图5所示的布置信息32a的识别处理区域(出入口301)的宽度w在摄像机图像中以出入口601的宽度表示这一点来求出。也就是说,能够通过将摄像机图像中的宽度u的长度与出入口601的宽度的长度的比率乘于图5所示的布置信息32a的识别处理区域(出入口301)的宽度w的实测值来算出摄像机图像中的宽度u的实测值。此外,摄像机图像中的高度h的实测值等于图5所示的出入口301的高度H的实测值。
以下参照图7对将人的头部作为监视对象的场合下的识别处理区域的设定例进行说明。
在图7中,由4个点p1~点p4围成的区域602与图6所示的区域602相同。也就是说,区域602的高度h和宽度u的实测值是已知数。因此,根据实际的人的身高求出头部的高度,以此来决定高度Ho。此外,在图7所示的摄像机图像中,可以根据人的头部的高度Ho和出入口301的高度H的比率在摄像机图像中设定高度ho的位置。此外,通过如点q1~点q4所示那样设定高度的富裕量Hm(在摄像机图像中为hm),能够设定假定人的头部将通过的高度方向的区域。
并且,在宽度方向上,能够根据摄像机图像中的宽度u与其实测值之间的比率从实际的宽度的富裕量Um求出摄像机图像中的宽度的富裕量um。此外,识别参数运算部分24能够设定将人的头部作为监视对象时的识别处理区域701(以阴影方式显示)。通过上述处理,识别参数运算部分24能够算出摄像机图像中的识别处理区域701的坐标(也可以是顶点的坐标)。
以下参照图5和图7对摄像机图像中的监视对象的移动方向进行说明。例如在对移动体的数量进行计数时,为了判定移动体是通过出入口进入还是通过出入口外出,需要掌握摄像机图像中的监视对象的移动方向。另外,在进行人员出入管理时,为了判定通过出入口的人员是出去的人员还是进来的人员,需要掌握摄像机图像中的监视对象的移动方向。
在图5所示的布置信息32a中,以箭头503表示监视对象从出入口301进入室内的方向。在此,该箭头503朝向与出入口301垂直的方向。在将该箭头503作为箭头702显示在图7所示的摄像机图像上时,箭头702朝向与识别处理区域701垂直的方向。图7的该箭头702具有随着图5所示的角度θ接近0度,图7的箭头702在摄像机图像中变为水平方向,并且随着图5所示的角度θ接近90度,图7的箭头702在摄像机图像中变为垂直方向的特性。此外,识别参数运算部分24能够算出摄像机图像中的监视对象的移动方向。在进行人员出入管理时,在通过图像识别处理部分25检测到多个移动(移动方向)的情况下,可以将所算出的移动方向(箭头702)作为指标来判别各个移动是人员从出入口出入时的移动还是应作为杂波处理(不进行出入判定)的移动。
以下对摄像机图像中的监视对象的移动方向(箭头702)的利用方法进行说明。在图5所示的布置信息32a的场合,当在图像识别处理中检测到监视对象的移动时,如果该移动相对于箭头702在小于直角方向的范围内时,能够将该移动判定为是进入室内的移动,如果该移动相对于箭头702在大于直角方向的范围内时,能够将该移动判定为是走出室内的移动。
以下参照图8对模板的变换信息的计算方法进行说明。图8(a)表示将模板变换为适合摄像机位置的场合,图8(b)表示对摄像机图像进行变换而使其与模板的拍摄方向相匹配的场合。
例如,如图8(a)所示,在所准备的模板是从正面拍摄的模板801时,在图5所示的布置信息32a的情况下,由于摄像机图像的监视对象是从摄像机设置位置502的高度以及角度θ的位置拍摄的,所以其模式与模板的模式不同。因此,通过识别参数运算部分24对模板进行变换处理,将该模板变换成从摄像机设置位置502的高度以及角度θ的位置拍摄的那样的模板,并生成经过变换的模板802。此外,变换信息根据摄像机设置位置502的高度以及角度θ来决定。此后,由图像识别处理部分25使用变换后的模板802进行图像识别处理,由此能够防止识别性能下降。
另外,如图8(b)所示,摄像机图像中拍摄到的监视对象,如图像信息811所示,是从摄像机设置位置502的高度以及角度θ的位置被拍摄到的。在这种情况下,如果所准备的模板是从正面拍摄的模板801,则由识别参数运算部分24对图像信息811进行处理,将其变换成从正面拍摄的状态,并生成经过变换的图像信息812。此外,变换信息根据摄像机设置位置502的高度以及角度为θ来决定。此后,通过由图像识别处理部分25使用变换后的模板812来进行图像识别处理,能够防止识别性能下降。
以下参照图9和图10对在摄像机图像中设定三维的识别处理区域的场合进行说明。
图9是在出入口301周围指定了识别处理区域901(以阴影方式显示)时的布置信息32b的示例图。该布置信息32b由布置信息生成部分22生成。此外,在设定识别处理区域901(以阴影方式显示)时,通过布置信息生成部分22受理由光标501指定的识别处理区域901的顶点的输入,由此来设定识别处理区域901(以阴影方式显示)。布置信息32b的识别处理区域901(以阴影方式显示)的坐标通过前处理信息生成部分23存储在前处理信息34中。
接着,识别参数运算部分24首先将识别处理区域901作为识别处理区域901a(以点划线表示)设定在图10所示的摄像机图像中。识别处理区域901a的尺寸根据显示在图9所示的布置信息32b上的识别处理区域901的纵横比设定。识别处理区域901a的宽度上的进深方向被设定为与由点p1~点p4形成的平面的垂直方向相平行。
此后,识别参数运算部分24,与在图7中设定二维的识别处理区域701的场合一样,相对于识别处理区域901a的顶点,设定从该顶点起的高度方向,由此能够设定三维的识别处理区域1001(以阴影方式显示)。
以下返回图1进行说明。图像识别处理部分25参照存储在存储部分30中的识别参数35,对通过图7的识别处理区域701(以阴影方式显示)或者图10的识别处理区域1001(以阴影方式显示)的监视对象进行图像识别处理,并将处理结果输出到显示装置130中。图像识别处理可以使用在先技术(江岛著“使用头部检测系统Head Finder进行的人物追踪”,电子信息通信学会技术研究报告,PRMU,图案识别和介质理解100(442),15-22,2000-11-09)。
(变形例)
在本实施方式中,对将摄像机设置位置502设定在任意场所时的情况进行了说明,而在以下说明的变形例中,预先准备多个可供选择的摄像机设置位置502,并针对每个摄像机设置位置502,事先算出识别参数,将摄像机设置位置502与识别参数相关联地存储在存储部分30中。
图11是示出了预先决定的摄像机设置位置502(A~I)与识别处理区域(出入口301)的布置信息32c的示例图。在图11中,控制部分21受理从输入装置120使用光标501对摄像机设置位置502(A~I)中的任一个设置位置进行了选择的输入。接着,图像识别处理部分25从存储部分30获取与输入到控制部分21中的摄像机设置位置502(A~I)相对应的识别参数35,并进行图像识别处理。通过采用上述结构,能够省略用于生成识别参数35的内部运算,从而能够缩短在图像识别处理开始前用于生成识别参数35所需的时间。
上述本实施方式的映像监视装置10具有:前处理信息生成部分23,其获取作为图像识别处理对象的识别处理区域301的位置和摄像机设置位置502,计算所述识别处理区域301的位置和所述摄像机设置位置502之间的位置关系,并算出表示该位置关系的前处理信息34;识别参数运算部分24,其参照所述前处理信息34,并根据实测值与由所述摄像机110拍摄到的摄像机图像中的距离之间的比率算出在图像识别处理中使用的识别参数35(摄像机图像中的识别处理区域701的坐标);以及图像识别处理部分25,其使用所述识别参数35对通过识别处理区域701的监视对象进行图像识别处理。
此外,在本实施方式中,通过布置信息生成部分22从监视区域信息31生成布置信息32,但也可以设置成为了实现所述目标,由用户手动直接生成布置信息32。
此外,在图6中使用4个点指定了区域602的顶点,但用于指定位置的点并不仅限于4个点,也可以由3个以上的点来表示区域。
-符号说明-
1 映像监视系统
10 映像监视装置
20 处理部分
21 控制部分(第四单元)
22 布置信息生成部分
23 前处理信息生成部分(第一单元)
24 识别参数运算部分(第二单元)
25 图像识别处理部分(第三单元)
30 存储部分
31 监视区域信息
32、32a、32b、32c 布置信息
33 摄像机信息
34 前处理信息
35 识别参数
40 输入输出IF
110 摄像机
120 输入装置
130 显示装置
301 出入口(布置信息中的出入口)
501 光标
502 摄像机设置位置
601 出入口(摄像机图像中的出入口)
701、901、1001 识别处理信息
702 箭头(摄像机图像中的监视对象的移动方向)
801 模板
802 变换后的模板
811 图像信息
812 变换后的图像信息