CN105340258A - 位置检测装置 - Google Patents

位置检测装置 Download PDF

Info

Publication number
CN105340258A
CN105340258A CN201480036128.1A CN201480036128A CN105340258A CN 105340258 A CN105340258 A CN 105340258A CN 201480036128 A CN201480036128 A CN 201480036128A CN 105340258 A CN105340258 A CN 105340258A
Authority
CN
China
Prior art keywords
image
video camera
coordinate
personage
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201480036128.1A
Other languages
English (en)
Inventor
紫村智哉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of CN105340258A publication Critical patent/CN105340258A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/043Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

本发明提供一种位置检测装置,其包括:对应建立部,该对应建立部根据第一图像和第二图像,将上述第一图像中包含的被拍摄体和上述第二图像中包含的被拍摄体作为同一被拍摄体建立对应,其中,上述第一图像是由第一摄像机拍摄到的图像,且第二摄像机被拍摄在该第一图像的纵向或横向的大致中央轴上,上述第二图像是由上述第二摄像机拍摄到的图像,且上述第一摄像机被拍摄在该第二图像的纵向或横向的大致中央轴上;和检测部,该检测部检测上述建立了对应的被拍摄体的三维坐标。

Description

位置检测装置
技术领域
本发明涉及位置检测装置。
本申请基于2013年06月28日在日本申请的特愿2013-137514号主张优先权,在此援引其内容。
背景技术
近年来,提出了对室内的人的在室状况或进出室内进行管理、检测可疑者和侵入者、远程监护特定人物等使用各种传感器识别人的行为的系统和方法。
作为检测可疑者和侵入者等的方法,有通过对于一个摄像机影像的二维处理来进行人或物体的追踪的方法。此外,也有通过根据立体摄像机影像对人或物体的追踪进行三维处理,来提高检测对象的位置信息和移动轨迹的检测精度的方法。例如,在专利文献1中提出了一种可疑者检测系统,其通过将二维处理和三维处理组合,以更高的精度更好地检测可疑者等的位置信息和移动轨迹等(参照专利文献1)。现有技术文献
专利文献
专利文献1:日本特开2012-79340号公报
发明内容
发明要解决的技术问题
可是,专利文献1中记载的可疑者检测系统,由多台摄像机进行拍摄,必须精密地调整摄像机彼此的设置位置,存在对于具有进行调整所需要的特殊技能的人以外的人而言,难以进行设置的问题。
因此,本发明是鉴于上述现有技术的问题而做出的,其目的是提供取得用于检测被拍摄体位置的影像的摄像机的设置对于利用者而言容易的位置检测装置。
用于解决技术问题的手段
本发明是为了解决上述问题而做出的,本发明的一个方式为一种位置检测装置,其特征在于,包括:对应建立部,该对应建立部根据第一图像和第二图像,将上述第一图像中包含的被拍摄体和上述第二图像中包含的被拍摄体作为同一被拍摄体建立对应,其中,上述第一图像是由第一摄像机拍摄到的图像,且第二摄像机被拍摄在该第一图像的纵向或横向的大致中央轴上,上述第二图像是由上述第二摄像机拍摄到的图像,且上述第一摄像机被拍摄在该第二图像的纵向或横向的大致中央轴上;和检测部,该检测部检测上述建立了对应的被拍摄体的三维坐标。
发明效果
根据本发明,能够提供取得用于检测被拍摄体位置的影像的摄像机的设置对于利用者而言容易的位置检测装置。
附图说明
图1是表示第一实施方式中的位置检测装置的利用状况的外观图例。
图2是第一实施方式中的第一图像和第二图像的例子。
图3是表示第一实施方式中的位置检测装置的结构的框图例。
图4是第一实施方式中的位置检测装置的动作的流程图例。
图5是从天花板看第一实施方式中的室内rm时的平行投影图例。
图6是第一实施方式的变形例中的第一图像的一个例子。
图7是第一实施方式的变形例中的第二图像的一个例子。
图8是表示第二实施方式中的位置检测装置的利用状况的外观图。
图9是表示第二实施方式中的位置检测装置的结构的框图。
图10是表示第三实施方式中的位置检测装置的利用状况的外观图例。
图11是用于对第三实施方式中的不可拍摄区域进行说明的图的一个例子。
图12是用于对用于使第三实施方式中的不可拍摄区域uns不产生的条件进行说明的图的一个例子。
具体实施方式
[第一实施方式]
以下,参照附图对第一实施方式进行说明。
图1是表示第一实施方式的位置检测装置2的利用状况的一个例子的外观图。位置检测装置2连接有第一摄像机101和第二摄像机102。本实施方式的位置检测装置2将由这2个摄像机拍摄到的平面图像中拍摄到的被拍摄体的位置建立对应,由此,检测被拍摄体的三维位置。
室内rm有从门dr进入房间的人物inv。在室内rm,在天花板上设置有第一摄像机101。第一摄像机101从天花板铅垂向下地对室内rm进行拍摄。因此,第一摄像机101从人物inv的头上拍摄。在室内rm,在门的对面侧的墙壁上设置有第二摄像机102。第二摄像机102从壁面沿着水平方向对室内rm进行拍摄。因此,第二摄像机102从横向拍摄人物inv的全身。
另外,第二摄像机102设置在室内rm的门dr的对面壁上,但是并不限于此,也可以设置在从门dr看位于左右的壁面上,也可以设置在带门dr的壁上。不过,设置在门dr的对面的情况,与设置在其它壁面的情况相比,容易拍摄作为入室者的人物inv的脸,因此,优选第二摄像机102设置在门dr的对面壁上。
第一摄像机101和第二摄像机102例如是具备作为将会聚的光转换为电信号的摄像元件的CCD(ChargeCoupledDevice:电荷耦合器件)元件或CMOS(ComplementaryMetalOxideSemiconductor:互补金属氧化物半导体)摄像元件等的摄像机。第一摄像机101和第二摄像机102例如通过HDMI(High-DefinitionMultimediaInterface:高清晰度多媒体接口)(注册商标)缆线等与位置检测装置2连接,该位置检测装置2加入图1中会使图变复杂,因而在图1中省略。位置检测装置2例如可以设置在室内,也可以设置在另一个房间。在本实施方式中,位置检测装置2设置在另一个房间。在以下的说明中,将第一摄像机101拍摄到的图像称为第一图像,将第二摄像机102拍摄到的图像称为第二图像。第一图像和第二图像是二维图像。
位置检测装置2从第一摄像机101取得第一图像,从第二摄像机102取得第二图像。位置检测装置2从取得的第一图像检测人物inv的脸。此外,位置检测装置2从取得的第二图像检测人物inv的脸。位置检测装置2将从第一图像检测出的脸与从第二图像检测出的脸建立对应(以下称为脸对应建立处理),检测人物inv的脸的三维位置坐标。
在此,参照图2说明脸对应建立处理的详细内容。图2是表示第一图像p1和第二图像p2的一个例子的图。图2的上段图为第一图像p1,下段图为第二图像p2。第一摄像机101,作为第一图像p1,从头上拍摄了人物inv的脸,而且,在第一图像p1的下部中央拍摄有第二摄像机102。第二摄像机102,作为第二图像p2,从横向拍摄了人物inv的全身,而且,在第二图像p2的上部中央拍摄有第一摄像机101。如图2所示,通过以彼此的摄像机被拍摄在彼此的图像的中央的方式设置,彼此的摄像机的光轴必然交叉。关于光轴的交叉的说明将在后面进行。
第一摄像机101设置成将被拍摄体拍摄成将该被拍摄体近似地平行投影而得到的图像。此外,第二摄像机102设置成将被拍摄体拍摄成将该被拍摄体近似地平行投影而得到的图像。当被拍摄体被近似地平行投影时,在对使摄像机与被拍摄体之间的距离变化而得到的图像进行比较的情况下,被拍摄体在图像上的位置坐标几乎不变化。利用该性质,本实施方式的位置检测装置2检测人物inv的三维位置。因此,在以下的说明中,前提是由第一摄像机101和第二摄像机102拍摄到的图像为近似地平行投影而得到的图像。
在第一图像p1中,设从第一摄像机101的光轴至人物inv的脸的距离为距离x1。此外,在第二图像p2中,设从第二摄像机102的光轴至人物inv的脸的距离为距离x2。当如图2所示在各图像设定原点o1、o2时,第一图像中的人物inv的脸的坐标为(x1,y1),第二图像中的人物inv的脸的坐标为(x2,y2)。在此,如果在第一图像p1中拍摄到的人物inv与在第二图像p2中拍摄到的人物inv为同一人物,则如图2所示,坐标x1与坐标x2一致。该一致是因为第一图像p1和第二图像p2是将被拍摄体近似地平行投影而得到的图像。
不过,坐标x1和坐标x2仅在各摄像机拍摄同一对象物时,2个图像内该对象物由相同的像素数表示的情况下一致。如果是拍摄同一对象物时,2个图像内该对象物由不同的像素数表示的情况,则需要进行与该像素数的不同相应的校正。在以下的说明中,为了简化说明,设不存在这样的像素数的不同(例如,2个摄像机为相同的摄像机的情况)来进行说明。当设一致的坐标x1和坐标x2为人物inv的三维x坐标(x1=x2≡x)时,坐标y1为三维y坐标,坐标y2为三维z坐标。在这样将被拍摄体近似地平行投影而得到的图像的情况下,通过将第一图像p1和第二图像p2中拍摄到的人物inv的x坐标建立对应,能够取得人物inv的三维位置坐标。
回到图1,为了进行脸对应建立处理,第一摄像机101和第二摄像机102必须设置成满足规定的条件。本实施方式中的规定的条件为下面的设置条件(1a)、(1b)。设置条件(1a)例如为如图1所示,彼此的摄像机的光轴交叉。设置条件(1b)为一个摄像机的投影面与另一个摄像机的投影面的、相互最接近的边彼此大致平行。另外,设置条件(1b)也可以换种说法,为一个摄像机的摄像元件与另一个摄像机的摄像元件的相互最接近的边彼此大致平行。在图1中,表示出了第一摄像机101的投影面m1和第二摄像机102的投影面m2。为了以满足设置条件(1b)的方式设置2个摄像机,只要使投影面m1的边中最接近投影面m2的边e1与投影面m2的边中最接近投影面m1的边e2大致平行即可。通过以满足设置条件(1a)、(1b)的方式设置,当在第一图像和第二图像中拍摄到的人物inv为同一人物的情况下,如图2所示,距离x1与距离x2一致。
当以满足设置条件(1a)和(1b)的方式设置摄像机时,在第一图像和第二图像中,例如如在图2中所示,彼此的摄像机的投影面的上部、下部、左部、右部中的任一个的中央区域拍摄有彼此的摄像机的壳体。实现该状况的简略方法,例如是从一个摄像机照射特定的几何图案等图案,用另一个摄像机拍摄该图案,在观看由另一个摄像机拍摄到的图像的同时调节摄像机的朝向的方法。具体而言,该图案为由白色和黑色的正方形的重复图案形成的矩形的格子状图案等。首先,第一摄像机101从天花板拍摄以从天花板向地面保持矩形(不成为梯形)、且设置有第二摄像机102的壁面与格子状图案的一边平行的方式照射的格子状图案。用户(例如设置摄像机的人)在确认拍摄到的格子状图案是否没有拍摄成梯形的同时,调节第一摄像机101的朝向。用户例如当设第一摄像机101的长边方向为x轴、短边方向为y轴时,首先通过进行围绕x轴、围绕y轴的旋转来进行调节,使得格子状图案被拍摄成矩形,然后,通过进行围绕光轴a1(z轴)的旋转来进行调节,使得第二摄像机102被拍摄在投影面的下部中央。通过这样设置,第一摄像机101的光轴a1铅垂向下。此外,第一摄像机101的投影面的一边与设置有第二摄像机102的壁面平行。
接着,用户利用第二摄像机102从壁面拍摄由第一摄像机101进行了拍摄的格子状图案。由第二摄像机102拍摄到的格子状图案被拍摄成梯形。用户调整第二摄像机102的朝向,使得被拍摄成梯形的格子状图案的左右的歪斜大致相同(左右的高度大致相同)。用户利用第二摄像机102拍摄向与设置有第二摄像机102的壁面相反的一侧的壁面保持矩形地照射的格子状图案。此时,用户例如当设第二摄像机102的长边方向为x轴、短边方向为y轴时,通过进行围绕x轴、围绕y轴的旋转,使左右的歪斜大致相同。然后,用户通过进行围绕第二摄像机102的光轴a2的旋转来进行调节,使得第一摄像机101被拍摄在投影面的上部中央。通过这样设置来实现在彼此的摄像机的投影面的上部、下部、左部、右部中的任一个的中央区域拍摄有彼此的摄像机的壳体的状况。其结果,第二摄像机102的投影面的一边与地面平行。此外,第一摄像机101的投影面与第二摄像机102的投影面的相互最接近的边彼此平行。另外,第一摄像机101的光轴a1与第二摄像机102的光轴a2交叉。因此,第一摄像机101和第二摄像机102以满足设置条件(1a)和(1b)的方式设置。另外,在本实施方式中,为了使说明简化,光轴a1与光轴a2正交,但是并不限于此。
另外,在本实施方式中,照射的格子状图案为矩形,但是并不限于此。照射的格子状图案可以例如为梯形,以从摄像机的光轴倾斜角度θ的角度照射到地面或壁面,使得照射的格子状图案被拍摄成矩形。此外,格子状图案的形状受到被照射的壁面或地面的凹凸的影响,但是,只要格子状图案的形状为大致矩形就没有问题。
以下,以第一摄像机101和第二摄像机102设置成满足设置条件(1a)和(1b)为前提,对位置检测装置2的结构和动作进行说明。
图3是表示第一实施方式中的位置检测装置2的结构的概略框图。位置检测装置2例如包括图像取得部21、摄像机位置信息接受部22、摄像机位置信息存储部23、人物信息检测部24、动作检测部25、行为判定部26、控制部27和信息存储部28。此外,位置检测装置2通过LAN(LocalAreaNetwork:局域网)等与第一设备31~第n设备3n以可通信的方式连接。以下,将第一设备31~第n设备3n总称记为设备1。
图像取得部21例如从与图像取得部21连接的第一摄像机101、第二摄像机102取得图像。图像取得部21从第一摄像机101取得第一图像,从第二摄像机102取得第二图像,但是并不限于此,也可以与第三摄像机、第四摄像机等连接,也从它们取得图像。图像取得部21将与进行了拍摄的摄像机的摄像机ID和拍摄时刻建立了对应的第一图像、第二图像,按拍摄时刻的顺序输出至人物信息检测部24。此外,图像取得部21使图像存储部29按拍摄时刻的顺序存储与进行了拍摄的摄像机的摄像机ID和拍摄时刻建立了对应的第一图像、第二图像。图像存储部29例如为HDD(HardDiskDrive:硬盘驱动器)或SSD(SolidStateDrive:固态驱动器)等存储介质。
摄像机位置信息接受部22根据来自用户的输入操作,接受摄像机位置信息,将接受到的摄像机位置信息存储在摄像机位置信息存储部23。摄像机位置信息是将识别与位置检测装置2连接的摄像机的摄像机ID、和表示从摄像机ID所表示的摄像机至想要拍摄的点的距离(以下称为拍摄距离)的信息建立对应而得到的信息等。摄像机位置信息,在存在上述的像素数不同的情况下,是用于对该不同进行校正的信息。摄像机位置信息存储部23是RAM(RandomAccessMemory:随机存取存储器)或寄存器等暂时性存储介质。
人物信息检测部24从图像取得部21取得第一图像、第二图像。然后,人物信息检测部24从摄像机位置信息存储部23取得摄像机位置信息。人物信息检测部24例如从按拍摄时刻的顺序取得的第一图像、第二图像分别检测表示人脸的区域(以下称为脸区域)。在本实施方式中,就脸区域而言,分别从第一图像、第二图像检测具有预先设定的表示人脸的色彩的色信号值的范围中包含的色信号值的像素。脸区域例如可以通过分别从第一图像、第二图像算出Haar-Like特征量,根据算出的Haar-Like特征量进行Adaboost算法等预先决定的处理来检测。
在此,在从第一图像和第二图像两者检测出了脸区域的情况下,人物信息检测部24分别从第一图像和第二图像抽出检测出的脸区域的代表点,检测抽出的代表点的二维坐标。代表点例如是重心。以下,将从第一图像得到的脸区域的代表点的二维坐标称为第1二维坐标。此外,将从第二图像得到的脸区域的代表点的二维坐标称为第2二维坐标。
人物信息检测部24根据检测出的第1二维坐标、第2二维坐标,进行脸对应建立处理,进行第一图像和第二图像中拍摄的人物的对应建立,算出该人物的三维位置坐标。此时,人物信息检测部24根据需要利用摄像机位置信息算出三维位置坐标。此外,在仅从第一图像和第二图像中的任一个检测出了脸区域的情况下,或者在从第一图像和第二图像两者均没有检测出脸区域的情况下,将表示未检测出人物的信息作为人物信息输出至动作检测部25。另外,人物信息检测部24也可以检测表示脸区域的上端、下端、左端、右端的二维坐标的二维脸区域信息等,代替检测代表点的二维坐标。
人物信息检测部24,当算出三维位置坐标时,将与算出的三维位置坐标建立了对应的识别人物的人物ID、和表示与人物ID对应的人物的脸的信息作为人物信息输出至动作检测部25。此外,人物信息检测部24将与人物信息对应的第一图像与人物信息一起输出至动作检测部25。
动作检测部25取得人物信息以及与人物信息对应的第一图像。动作检测部25例如通过保持拍摄时刻不同的多个帧图像,检测当前的第一图像与紧接着该当前的第一图像之前的第一图像之间的亮度变化,将亮度变化超过规定的阈值(a)的区域检测为移动了的区域(以下称为动区域)。另外,在本实施方式中,利用亮度变化检测动区域,但是并不限于此,也可以像人物信息检测部24那样从第一图像检测人物的脸,根据检测出的脸和拍摄时刻不同的多个帧图像来检测动区域。不过,第一图像为从天花板向地面拍摄的图像,因此,不一定总是能够检测出脸,因此优选利用亮度变化检测动区域。
动作检测部25检测动区域坐标,该动区域坐标为表示检测出的动区域的重心的位置的坐标。动作检测部25根据检测出的每个拍摄时刻的动区域坐标,算出动区域的重心的移动量。移动量例如是移动的距离等。动作检测部25当算出移动量时,生成表示算出的移动量、每个拍摄时刻的坐标、每个拍摄时刻的移动的朝向等的移动矢量作为追踪信息。动作检测部25将每个追踪信息的拍摄时刻的坐标与人物信息的三维位置坐标的x坐标和y坐标进行对照,将追踪信息与人物ID建立对应。然后,动作检测部25将人物信息和追踪信息输出至行为判定部26、控制部27。另外,动作检测部25,在没有检测出动区域的情况下,将表示不能追踪的信息作为追踪信息输出至控制部27。
行为判定部26根据取得的人物信息,判定入室者的行为(以下称为行为判定)。具体而言,行为判定部26根据人物信息中包含的三维位置坐标的z坐标是否超过规定的阈值(b),来判定与三维位置坐标建立了对应的人物ID表示的人物是站立的状态还是躺下的状态。另外,行为判定部26也可以设定2个规定的阈值(b),当超过第一规定的阈值(b)时判定为弯腰的状态,当超过第二规定的阈值(c)时判定为躺下的状态,也可以在变得小于第三规定的阈值(d)时判定为进行了跳跃。
行为判定部26根据基于人物信息的行为判定的结果和取得的追踪信息,检测两者共同的人物的行为。行为判定部26例如在站着移动的人物突然躺下,许久不动的情况下,检测“倒下”的行为。行为判定部26将检测出的行为作为与人物ID建立了对应的行为信息输出至控制部27。另外,行为信息并不限于人物的“倒下”这样的行为,也可以是“躺着的人物起身”、“保持弯腰的状态移动(可疑的行为)”、“进行了跳跃”等。
信息存储部28是HDD、SSD等存储介质。信息存储部28存储由用户预先注册的注册人物信息、注册行为信息。注册人物信息例如是用于对被允许入室的人物的脸进行认证的信息。注册行为信息例如是将表示规定的行为的信息、与位置检测装置2连接的设备、和表示设备应该进行的动作的信息建立对应而得到的信息。
控制部27当从动作检测部25取得人物信息、追踪信息,从行为判定部26取得行为信息时,从信息存储部28取得注册人物信息、注册行为信息。控制部27例如通过将行为信息与取得的注册行为信息进行比较,判定在室内检测出的人物是否进行了规定的行为。控制部27当在室内检测出的人物进行了规定的行为的情况下,使与注册行为信息的规定的行为建立了对应的设备1,基于表示设备应该进行的动作的信息执行规定的动作。控制部27例如在规定的行为为“跳跃”,规定的设备为“电视接收机”,规定的动作为“使电源断开(OFF)”的情况下,当在室内检测出的人物进行了跳跃时,使与位置检测装置2连接的电视接收机的电源断开(OFF)。此外,控制部27根据需要从图像存储部29取得拍摄到的图像。控制部27将拍摄到的图像输出到例如电视接收机、笔记本型PC(PersonalComputer:个人计算机)、平板型PC、带网络功能的电子书阅读器等并使其显示该图像。
另外,控制部27例如可以通过对人物信息的表示与人物ID对应的人物的脸的信息与取得的注册人物信息进行比较,判定被第一摄像机101、第二摄像机102拍摄到的人物是否被允许进入进行拍摄的室内。在该情况下,控制部27在判定被检测出的人物是不被允许进入室内的人物的情况下,使第一设备31~第n设备33的设备中的向安保公司或警察进行通报的设备进行通报。此外,控制部27在追踪信息为表示不能追踪的信息的情况下,使动作检测部25待机,使人物信息检测部24继续生成人物信息。
图4是对位置检测装置2的动作进行说明的流程图的一个例子。首先,图像取得部21取得第一图像和第二图像(ST100)。接着,图像取得部21将第一图像和第二图像输出至人物信息检测部24(ST101)。接着,人物信息检测部24根据第一图像和第二图像,生成人物信息(ST102)。接着,人物信息检测部24将人物信息输出至动作检测部25(ST103)。接着,动作检测部25根据人物信息和第一图像,生成追踪信息(ST104)。接着,动作检测部25将人物信息和追踪信息输出至行为判定部26和控制部27(ST105)。接着,行为判定部26根据人物信息和追踪信息,生成行为信息(ST106)。接着,行为判定部26将行为信息输出至控制部27(ST107)。
接着,控制部27取得注册人物信息和注册行为信息(ST108)。接着,控制部27根据注册人物信息和人物信息,判定检测出的人物是否是被允许进入室内的人物(ST109)。控制部27在不是被允许进入室内的人物时(ST109-否(No)),转移至ST110。控制部27在是被允许进入室内的人物时(ST109-是(Yes)),转移至ST111。
当在ST109中不是被允许进入室内的人物时,控制部27操作向安保公司或警察进行通报的设备进行通报(ST110)。当在ST109中是被允许入室的人物时,控制部27判定行为信息是否表示规定的行为(ST111)。控制部27在行为信息表示规定的行为时(ST111-是(Yes)),转移至ST112。控制部27在行为信息不表示规定的行为时(ST111-否(No)),结束处理。当在ST111中行为信息表示规定的行为时,控制部27使对应的设备执行规定的操作(ST112)。
这样,第一实施方式中的位置检测装置2以满足设置条件(1a)、(1b)的方式设置第一摄像机101、第二摄像机102,由此,能够从作为二维图像的第一图像和第二图像检测出被近似地平行投影而得到的人物的三维位置坐标。此外,位置检测装置2生成表示人物怎样移动的追踪信息,根据人物信息和追踪信息,生成表示人物进行了怎样的行为的行为信息。
位置检测装置2根据行为信息,能够把握在室内的人物的行为,另外,能够使规定的设备执行与行为信息对应的动作。此外,通过以满足设置条件(1a)、(1b)的方式设置,能够得到这些效果,因此,第一摄像机101、第二摄像机102的设置,即使不是具有特殊技能的人物也能够简单地进行。另外,也可以为:人物信息检测部24检测人物的脸的朝向和表情,行为判定部26根据这些,更细致地判定人物的行为。
[第一实施方式的变形例]
以下,对第一实施方式的变形例进行说明。关于结构,援用图1、图3,对于同一功能部标注同一符号进行说明。在第一实施方式的变形例中,第一摄像机101和第二摄像机102不需要设置成将被拍摄体近似地平行投影。
第一实施方式的变形例的人物信息检测部24,从第一图像和第二图像,代替检测表示人物inv的脸的重心的坐标,而检测脚尖的坐标,根据检测出的脚尖的坐标,进行第一图像中拍摄到的人物inv与第二图像中拍摄到的人物inv的对应建立。以下,参照图5、图6、图7,说明人物信息检测部24进行人物inv的对应建立的方法。
图5是从天花板看室内rm时的平行投影图。该图彻底表示现实的三维空间的室内,因此,不是第一摄像机101或第二摄像机102拍摄到的图像。设点fp为代表人物inv的脚尖的点。设第二摄像机102的中心为原点o,从原点o分别向交点v1、交点v2延伸的实线表示第二摄像机102的视野角的范围,设视野角为θ。考虑通过交点v1和交点v2的虚线,定义图中的长度A、长度B、长度C、长度L。在此,长度的单位例如是米。连接交点v1与交点v2的线段表示由第二摄像机102拍摄为第二图像的投影面。设线段o-v1和线段o-v2的长度为r,设点fp的坐标为(L,H)。此外,设室内rm的地面的宽度为ω。
在此,人物信息检测部24利用第一摄像机101和第二摄像机102拍摄图5所示的状况,将第一图像和第二图像中拍摄的点fp的x坐标建立对应,由此,能够将第一图像中拍摄的点fp与第二图像中拍摄的点fp建立对应,为同一人物的点fp。为了进行该对应建立,人物信息检测部24根据从第一图像和第二图像取得的各坐标算出长度A与长度B之比。长度A与长度B之比,表示点fp被拍摄在表示第二图像的投影面中的x轴方向的何处。因为,投影面上的点fp必须被拍摄在保持该比的部位。因此,如果能够算出长度A与长度B之比,而且能够检测出第一图像中的点fp的坐标,则能够根据算出的长度之比和检测出的坐标,将第一图像的点fp与第二图像的点fp建立对应。
图6是由第一实施方式的变形例中的第一摄像机101拍摄图5的室内rm而得到的第一图像的一个例子。与第一实施方式的第一图像不同,在第一实施方式的变形例中的第一图像中,被拍摄体被透视投影。当被拍摄体被透视投影时,在被平行投影时不变的图像中的坐标(以下称为图像内坐标)在摄像机与被拍摄体的距离变化的情况下(例如在人物时而站着时而坐着的情况下)根据摄像机的视野角而变化。但是,在检测表示人物inv的脚尖的点fp的图像内坐标的情况下,点fp不会大幅度地离开地面,因此,摄像机与被拍摄体的距离的变化,在某误差的范围内能够忽略。某误差的范围例如是图像内坐标值±10%。
在此,在第一实施方式的变形例中,例如在第二摄像机102的中心的正下方设置标记s,该标记s为第一图像的图像内坐标轴的原点。以标记s为原点,将点fp的图像内坐标表示为(L’,H’)。设第一图像中拍摄的地面的宽度为ω’。另外,可以仅在最初的一次使位置检测装置2识别标记s,也可以在拍摄期间一直设置该标记s。人物信息检测部24检测图像内坐标(L’,H’)和宽度ω’。人物信息检测部24根据检测出的图像内坐标(L’,H’)和宽度ω’、按每个摄像机决定的视野角θ、与宽度ω’对应的实际的室内rm的地面的宽度ω,如以下那样算出长度A与长度B之比。另外,视野角θ和宽度ω’可以由用户预先注册,也可以读入用户注册在存储部中的信息。此外,宽度ω’和图像内坐标(L’,H’)的单位例如为像素。
首先,人物信息检测部24根据宽度ω与宽度ω’之比算出现实世界与图像内的比例尺。人物信息检测部24将算出的比例尺分别与图6的图像内坐标(L’,H’)的坐标值相乘,由以下式子算出图5的长度L和长度H。
L=ω/ω’×L’……(1)
H=ω/ω’×H’……(2)
接着,人物信息检测部24基于视野角θ和三角函数、长度H,由以下式子算出图5所示的长度C。
C=Htan(θ/2)……(3)
接着,人物信息检测部24基于长度C和长度L,由以下式子算出长度A和长度B。
A=C-L……(4)
B=C+L……(5)
人物信息检测部24算出由式(4)和式(5)算出的长度A与长度B之比。人物信息检测部24根据算出的长度A与长度B之比,判定从第一图像检测出的点fp与从第二图像检测出的点fp是否对应。关于该判定,参照图7进行说明。图7是由第一实施方式的变形例中的第二摄像机102拍摄图5的室内rm而得到的第二图像的一个例子。与第一实施方式的第二图像不同,在第一实施方式的变形例中的第二图像中,被拍摄体被透视投影。
如图7所示,第二图像中,第一摄像机101被拍摄在图像中央上部。设从第二图像的两端、即由第二摄像机102拍摄到的投影面的两端至点fp的距离分别为长度A’、长度B’。如果第一图像中拍摄到的点fp与第二图像中拍摄到的点fp为同一人物的脚尖,则长度A’与长度B’之比和长度A与长度B之比一致(即A’:B’=A:B)。人物信息检测部24根据这些比,判定第一图像和第二图像中拍摄到的点fp是否为同一人物的脚尖,根据判定结果将点fp建立对应。
这样,第一实施方式的变形例中的人物信息检测部24能够检测表示人物inv的脚尖的点fp,根据检测出的fp的位置,判定第一图像中拍摄到的人物inv和第二图像中拍摄到的人物inv是否为同一人物,根据判定结果生成人物信息。因此,第一实施方式的变形例能够得到与第一实施方式同样的效果。
[第一实施方式的变形例2]
以下,对第一实施方式的变形例2进行说明。关于结构,援用图1、图3,对于同一功能部标注同一符号进行说明。第一实施方式的变形例中的摄像机的设置条件,从第一实施方式的设置条件中省略了设置条件(1a),为以下说明的设置条件(1b)和(1c)。设置条件(1b)为与第一实施方式相同的内容,因此省略详细的说明。设置条件(1c)是在彼此的摄像机的投影面的上部、下部、左部、右部中的任一个的中央区域拍摄有彼此的摄像机的壳体。满足设置条件(1b)和(1c)的摄像机的设置方法例如与第一实施方式中的使用格子状图案的方法相同,因此省略详细的说明。另外,满足设置条件(1b)和(1c)的摄像机的设置方法并不限于使用格子状图案的方法。例如,用户可以如以下那样进行设置。
用户从第一摄像机悬挂细绳,进行调整使得第二摄像机102被拍摄在第一摄像机101的投影面的一边的大致中央区域。然后,用户从第二摄像机102拍摄第一摄像机101,进行调整使得第二摄像机102的投影面的一边与投影面上的细线平行地被拍摄,并且第一摄像机101被拍摄在第二摄像机102的投影面的一边的大致中央区域。通过这些调整,第一摄像机101和第二摄像机102被设置成满足设置条件(1b)和(1c)。
由此,第一实施方式的变形例2中的位置检测装置2能够从作为二维图像的第一图像和第二图像检测出被近似地平行投影的人物的三维位置坐标。此外,位置检测装置2生成表示人物如何移动的追踪信息,根据人物信息和追踪信息,生成表示人物进行了何种行为的行为信息。
位置检测装置2根据行为信息,能够把握在室内的人物的行为,而且,能够使规定的设备执行与行为信息对应的动作。此外,通过以满足设置条件(1b)、(1c)的方式设置,能够得到这些效果,因此,第一摄像机101、第二摄像机102的设置,即使不是具有特殊技能的人物也能够简单地进行。
[第二实施方式]
以下,对第二实施方式进行说明。图8是表示第二实施方式中的位置检测装置2的利用状况的外观图。关于结构,援用图1、图3,对于同一功能部标注同一符号进行说明。第二实施方式中的位置检测装置2与第一摄像机101、第二摄像机102、第三摄像机103连接,根据由第一摄像机101、第二摄像机102、第三摄像机103拍摄到的图像,检测进入室内rm的人物inv,检测人物inv的三维位置坐标。
第三摄像机103例如是具备CCD元件或CMOS元件等将会聚的光转换为电信号的摄像元件的摄像机。第一摄像机101例如设置在室内rm的天花板上,第二摄像机102设置在室内rm的壁面上。第三摄像机103设置在位于设置有第二摄像机102的壁面的对面的壁面的上部。如图8所示,光轴a1与光轴a2相交,光轴a1与光轴a3相交。因此,第三摄像机103以从设置有第三摄像机103的壁面的上部俯视设置有第二摄像机102的壁面的下部的方式进行拍摄。
另外,在本实施方式中,为了使说明简化,光轴a1与光轴a2正交,但是并不限于此。此外,第二摄像机102与第三摄像机103彼此相对,因此,能够将各自难以拍摄的区域(例如遮挡(occlusion)区域)互相补充完整。此外,第一摄像机101、第二摄像机102和第三摄像机103通过HDMI(注册商标)缆线等与位置检测装置2连接,但是因为图会变得繁杂,所以从图8中省略。位置检测装置2例如可以设置在室内,也可以设置在另一个房间。在本实施方式中,假设位置检测装置2设置在另一个房间。投影面m3为第三摄像机103的投影面。e13是投影面m1的最接近投影面m3的边。e12是投影面m1的最接近投影面m2的边。因此,第一摄像机101和第二摄像机102满足设置条件(1a)、(1b),而且第一摄像机101和第三摄像机103也满足设置条件(1a)、(1b)。
图9是表示第二实施方式中的位置检测装置2的结构的概略框图的一个例子。位置检测装置2例如包括图像取得部21、摄像机位置信息接受部22a、摄像机位置信息存储部23、人物信息检测部24a、动作检测部25a、行为判定部26、控制部27和信息存储部28。此外,位置检测装置2通过LAN(LocalAreaNetwork:局域网)等与设备1~设备n以可通信的方式连接。在图9中,对于与图3和图8的各部对应的部分标注同一符号(101~103、21、23、25~29、31~33),省略其说明。
摄像机位置信息接受部22a根据来自用户的输入操作,接受摄像机位置信息,将接受到的摄像机位置信息存储在摄像机位置信息存储部23。第二实施方式的摄像机位置信息是将识别与位置检测装置2连接的摄像机的摄像机ID、和表示从摄像机ID所表示的摄像机至想要拍摄的点之间的距离的信息建立对应而得到的信息、和表示摄像机的光轴与地面所成的角度的信息建立对应而得到的信息。
人物信息检测部24a从图像取得部21取得与摄像机ID和拍摄时刻建立了对应的第一图像、第二图像、第三图像。然后,人物信息检测部24a从摄像机位置信息存储部23a取得摄像机位置信息。人物信息检测部24a例如从取得的每个拍摄时刻的第一图像、第二图像、第三图像中的各个图像检测表示人脸的区域。在此,人物信息检测部24a判定从第一图像是否检测出了脸区域。在从第一图像没有检测出脸区域的情况下,生成表示未检测出人物的信息作为人物信息。人物信息检测部24a,在从第一图像检测出了脸区域的情况下,如果从第二图像和第三图像中的任一个能够检测出脸区域,则检测出三维位置坐标,生成人物信息。人物信息检测部24a,即使在从第一图像检测出了脸区域的情况下,如果从第二图像和第三图像中的任一个都不能检测出脸区域,则生成表示未检测出人物的信息作为人物信息。
另外,在根据第一图像和第三图像进行脸对应建立处理的情况下,基于摄像机位置信息中包含的第三摄像机103的光轴a3与地面所成的角度以及三角函数等,算出三维位置坐标的z坐标。人物信息检测部24a当检测出三维位置坐标时,将三维位置坐标、识别三维位置坐标的人物ID、和表示与人物ID对应的人物的脸的信息,作为人物信息输出至动作检测部25。此外,人物信息检测部24a将与人物信息对应的第一图像输出至动作检测部25。
这样,第二实施方式中的位置检测装置2以满足设置条件(1a)、(1b)的方式设置第一摄像机101、第二摄像机102、第三摄像机103,由此,能够从作为二维图像的第一图像、第二图像、第三图像检测出三维位置坐标,能够得到与第一实施方式相同的效果。此外,第二实施方式中的位置检测装置2,只要在检测三维位置坐标的z坐标时,能够从第二摄像机102和第三摄像机103中的任一个检测出人物的脸区域即可,因此,与第一实施方式的位置检测装置2相比,因遮蔽区域而导致无法检测出人物的可能性低。
另外,第二实施方式中的人物信息检测部24a,在从第一图像没有检测出脸区域的情况下,判定为未检测出人物,但是并不限于此。人物信息检测部24a例如可以在从第一图像没有检测出脸区域的情况下,根据第三图像、摄像机位置信息和三角函数,算出从第一图像检测出的三维位置坐标的x坐标和y坐标。
[第三实施方式]
以下,对第三实施方式进行说明。图10是表示与第三实施方式中的位置检测装置2连接的第一摄像机101、第二摄像机102的利用状况的外观图。关于结构,援用图1,对于同一功能部标注同一符号进行说明。第三实施方式中的位置检测装置2与第一摄像机101、第二摄像机102连接,根据由第一摄像机101、第二摄像机102拍摄到的图像,检测进入室内rm的人物inv,检测人物inv的三维位置坐标。此外,第三实施方式中的第一摄像机101的光轴a102与地面所成的角度以及第二摄像机102的光轴a2与地面所成的角度为0~90度之间的角度。
具体而言,第一摄像机101设置成与第二摄像机102相对,并且设置成从设置有第一摄像机101的壁面侧上部俯视设置有第二摄像机102的壁面侧下部。第二摄像机102设置成从设置有第二摄像机102的壁面侧上部俯视设置有第一摄像机101的壁面侧下部。通过这样设置,无论进入到室内的人物在室内的何处,都能够拍摄人物的全身,因此,能够防止如上述第一实施方式、第二实施方式那样,由于第一摄像机101没有检测出脸区域,而判定为没有人物。但是,在这样的状况下,根据第一摄像机101、第二摄像机102之间的距离以及各摄像机的视野角的宽度,有产生不能拍摄到的区域(以下称为不可拍摄区域)的情况。
图11是用于对不可拍摄区域进行说明的、设置有第一摄像机101和第二摄像机102的室内的图的一个例子。粗线fa1是表示第一摄像机101的视野角的范围的线。粗线fa2是表示第二摄像机102的视野角的范围的线。在图11(a)的情况下,由于表示第一摄像机101的视野角的线fa1与表示第二摄像机102的视野角的线fa2在室内交叉,产生了不可拍摄区域uns。
图12是用于对用于使不可拍摄区域uns不产生的条件进行说明的图的一个例子。RA是第一摄像机101的视野角,RB是第二摄像机102的视野角。此外,第一摄像机101的光轴a101与天花板(或者,与地面平行地通过第一摄像机101的中心的平面)所成的角度用θA表示,第二摄像机102的光轴a2与天花板(或者,与地面平行地通过第二摄像机102的中心的平面)所成的角度用表示θB。设从地面到设置有第一摄像机101和第二摄像机102的部位的高度为H。设从表示视野角的线fa1与表示视野角的线fa2交叉的点至第一摄像机101的与地面平行的方向上的距离为α,设从上述线fa1与上述线fa2交叉的点至第二摄像机102的与地面平行的方向上的距离为β。第一摄像机101与第二摄像机102之间的水平方向的距离用γ表示。
在产生了不可拍摄区域uns的情况下,进入不可拍摄区域uns的人物不会被拍摄到,因此,位置检测装置2判定为室内rm没有入室者。在图12中,表示第一摄像机101的视野角的线fa1与表示第二摄像机102的视野角的线fa2在室外交叉,因此,没有产生不可拍摄区域uns。即,用于不产生不可拍摄区域uns的条件是fa1与fa2在室外交叉。为了实现该条件,在第三实施方式中,第一摄像机101与第二摄像机102的设置需要满足附加的设置条件(c)。设置条件(c)是满足以下的式子(6)。
α+β≥γ……(6)
在此,通过使用三角函数和视野角RA、RB、角度θA、θB、高度H,能够用以下的式子(7)、(8)表示α和β。
α = H tan - 1 [ π 2 - θ A - R A 2 ] ... ( 7 )
β = H tan - 1 [ π 2 - θ B - R B 2 ] ... ( 8 )
当这样以满足设置条件(a)、(b)、(c)的方式设置摄像机时,不论人物面向的方向等如何,都能够取得与上述第一实施方式、第二实施方式同样的效果。此外,也可以将用于实现图3、图9中的构成位置检测装置2的各部的功能的程序记录在计算机可读取的记录介质中,使计算机系统读入记录在该记录介质中的程序并执行,由此进行位置检测装置2的实施。另外,在此所说的“计算机系统”包含OS(OperationSystem:操作系统)和外围设备等硬件。
此外,“计算机系统”如果在利用WWW系统的情况下,也包含主页提供环境(或显示环境)。
此外,“计算机可读取的记录介质”是指软盘、磁光盘、ROM、CD-ROM等可移动介质、内置在计算机系统中的硬盘等存储装置。另外,“计算机可读取的记录介质”也包括,如通过互联网等网络或电话线路等通信线路发送程序的情况下的通信线那样,在短时间内动态地保持程序的介质,以及如该情况下的服务器或作为客户端的计算机系统内部的易失性存储器那样,将程序保持一定时间的介质。此外,上述程序可以是用于实现上述功能的一部分的程序,另外也可以是能够通过与已经记录在计算机系统中的程序组合来实现上述功能的程序。
以上,参照附图对本发明的实施方式进行了详细说明,但是具体的结构并不限于这些实施方式,也包含不脱离本发明的主旨的范围内的设计变更等。
(1)本发明的一个方式为一种位置检测装置,其特征在于,包括:对应建立部,该对应建立部根据第一图像和第二图像,将上述第一图像中包含的被拍摄体和上述第二图像中包含的被拍摄体作为同一被拍摄体建立对应,其中,上述第一图像是由第一摄像机拍摄到的图像,且第二摄像机被拍摄在该第一图像的纵向或横向的大致中央轴上,上述第二图像是由上述第二摄像机拍摄到的图像,且上述第一摄像机被拍摄在该第二图像的纵向或横向的大致中央轴上;和检测部,该检测部检测上述建立了对应的被拍摄体的三维坐标。
(2)此外,本发明的另一个方式是如(1)所述的位置检测装置,其特征在于,上述第一摄像机设置成:上述第一摄像机的投影面的边中与上述第二摄像机的投影面最接近的边,和上述第二摄像机的投影面的边中与上述第一摄像机的投影面最接近的边大致平行,上述第二摄像机设置成:上述第二摄像机的投影面的边中与上述第一摄像机的投影面最接近的边,和上述第一摄像机的投影面的边中与上述第二摄像机的投影面最接近的边大致平行。
(3)此外,本发明的另一个方式是如(1)或(2)所述的位置检测装置,其特征在于:上述对应建立部将具有规定的特征形状的被拍摄体彼此建立对应。
(4)此外,本发明的另一个方式是如(1)至(3)中任一项所述的位置检测装置,其特征在于:上述对应建立部根据上述第一图像中包含的被拍摄体在上述第一图像中的位置检测第一坐标,根据上述第二图像中包含的被拍摄体在上述第二图像中的位置检测第二坐标,根据上述第一坐标和上述第二坐标,将从上述第一图像检测出的被拍摄体与从上述第二图像检测出的被拍摄体作为上述同一被拍摄体建立对应,上述检测部根据上述第一坐标和上述第二坐标检测上述同一被拍摄体的三维坐标。
(5)此外,本发明的另一个方式是如(4)所述的位置检测装置,其特征在于:上述第一坐标为上述第一摄像机被上述第二摄像机拍摄到的图像的与上述大致中央轴正交的方向的坐标,上述第二坐标为上述第二摄像机被上述第一摄像机拍摄到的图像的与上述大致中央轴正交的方向的坐标,上述对应建立部在上述第一坐标与上述第二坐标一致的情况下,将上述第一图像中包含的被拍摄体与上述第二图像中包含的被拍摄体作为上述同一被拍摄体建立对应。
(6)此外,本发明的另一个方式是如(3)或引用(3)的(4)或(5)所述的位置检测装置,其特征在于:上述规定的特征形状为人物的脸或人物的脚尖。
(7)此外,本发明的另一个方式是一种摄像机设置方法,其特征在于:以在由第一摄像机拍摄到的第一图像中,第二摄像机被拍摄在纵向或横向的大致中央轴上的方式设置上述第一摄像机,以在由上述第二摄像机拍摄到的第一图像中,上述第一摄像机被拍摄在纵向或横向的大致中央轴上的方式设置上述第二摄像机。
(8)此外,本发明的另一个方式是一种位置检测方法,其特征在于:根据第一图像和第二图像,将上述第一图像中包含的被拍摄体和上述第二图像中包含的被拍摄体作为同一被拍摄体建立对应,检测上述建立了对应的被拍摄体的三维坐标,其中,上述第一图像是由第一摄像机拍摄到的图像,且第二摄像机被拍摄在该第一图像的纵向或横向的大致中央轴上,上述第二图像是由上述第二摄像机拍摄到的图像,且上述第一摄像机被拍摄在该第二图像的纵向或横向的大致中央轴上。
(9)此外,本发明的另一个方式是一种位置检测程序,其特征在于:使计算机根据第一图像和第二图像,将上述第一图像中包含的被拍摄体和上述第二图像中包含的被拍摄体作为同一被拍摄体建立对应,并检测上述建立了对应的被拍摄体的三维坐标,其中,上述第一图像是由第一摄像机拍摄到的图像,且第二摄像机被拍摄在该第一图像的纵向或横向的大致中央轴上,上述第二图像是由上述第二摄像机拍摄到的图像,且上述第一摄像机被拍摄在该第二图像的纵向或横向的大致中央轴上。
产业上的可利用性
本发明适合在检测拍摄区域内的被拍摄体的位置时使用,但是并不限于此。
符号说明
1……设备、2……位置检测装置、21……图像取得部、22、22a……摄像机位置信息接受部、23……摄像机位置信息存储部、24、24a……人物信息检测部、25……动作检测部、26……行为判定部、27……控制部、28……信息存储部、29……图像存储部、31……第一设备、3n……第n设备、101……第一摄像机、102……第二摄像机、103……第三摄像机。

Claims (5)

1.一种位置检测装置,其特征在于,包括:
对应建立部,该对应建立部根据第一图像和第二图像,将所述第一图像中包含的被拍摄体和所述第二图像中包含的被拍摄体作为同一被拍摄体建立对应,其中,所述第一图像是由第一摄像机拍摄到的图像,且第二摄像机被拍摄在该第一图像的纵向或横向的大致中央轴上,所述第二图像是由所述第二摄像机拍摄到的图像,且所述第一摄像机被拍摄在该第二图像的纵向或横向的大致中央轴上;和
检测部,该检测部检测所述建立了对应的被拍摄体的三维坐标。
2.如权利要求1所述的位置检测装置,其特征在于:
所述第一摄像机设置成:所述第一摄像机的投影面的边中与所述第二摄像机的投影面最接近的边,和所述第二摄像机的投影面的边中与所述第一摄像机的投影面最接近的边大致平行,
所述第二摄像机设置成:所述第二摄像机的投影面的边中与所述第一摄像机的投影面最接近的边,和所述第一摄像机的投影面的边中与所述第二摄像机的投影面最接近的边大致平行。
3.如权利要求1或2所述的位置检测装置,其特征在于:
所述对应建立部将具有规定的特征形状的被拍摄体彼此建立对应。
4.如权利要求1至3中任一项所述的位置检测装置,其特征在于:
所述对应建立部根据所述第一图像中包含的被拍摄体在所述第一图像中的位置检测第一坐标,根据所述第二图像中包含的被拍摄体在所述第二图像中的位置检测第二坐标,根据所述第一坐标和所述第二坐标,将从所述第一图像检测出的被拍摄体与从所述第二图像检测出的被拍摄体作为所述同一被拍摄体建立对应,
所述检测部根据所述第一坐标和所述第二坐标检测所述同一被拍摄体的三维坐标。
5.如权利要求4所述的位置检测装置,其特征在于:
所述第一坐标为所述第一摄像机被所述第二摄像机拍摄到的图像的与所述大致中央轴正交的方向的坐标,
所述第二坐标为所述第二摄像机被所述第一摄像机拍摄到的图像的与所述大致中央轴正交的方向的坐标,
所述对应建立部在所述第一坐标与所述第二坐标一致的情况下,将所述第一图像中包含的被拍摄体与所述第二图像中包含的被拍摄体作为所述同一被拍摄体建立对应。
CN201480036128.1A 2013-06-28 2014-06-11 位置检测装置 Pending CN105340258A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013137514 2013-06-28
JP2013-137514 2013-06-28
PCT/JP2014/065442 WO2014208337A1 (ja) 2013-06-28 2014-06-11 位置検出装置

Publications (1)

Publication Number Publication Date
CN105340258A true CN105340258A (zh) 2016-02-17

Family

ID=52141681

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480036128.1A Pending CN105340258A (zh) 2013-06-28 2014-06-11 位置检测装置

Country Status (4)

Country Link
US (1) US20160156839A1 (zh)
JP (1) JP6073474B2 (zh)
CN (1) CN105340258A (zh)
WO (1) WO2014208337A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110332930A (zh) * 2019-07-31 2019-10-15 小狗电器互联网科技(北京)股份有限公司 一种位置确定方法、装置及设备
CN111331578A (zh) * 2018-12-18 2020-06-26 发那科株式会社 机器人系统及其调整方法
WO2021223124A1 (zh) * 2020-05-06 2021-11-11 深圳市大疆创新科技有限公司 位置信息获取方法、设备及存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6749498B2 (ja) * 2017-08-30 2020-09-02 三菱電機株式会社 撮影対象追跡装置及び撮影対象追跡方法
CN115244360A (zh) * 2020-03-25 2022-10-25 日本电气方案创新株式会社 计算方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167380A (ja) * 1999-12-07 2001-06-22 Toshiba Corp 道路監視装置
CN1543200A (zh) * 2003-04-22 2004-11-03 ���µ�����ҵ��ʽ���� 联合摄像机构成的监视装置
CN1554193A (zh) * 2001-07-25 2004-12-08 �����J��ʷ����ɭ 摄像机控制装置及方法
JP2005140754A (ja) * 2003-11-10 2005-06-02 Konica Minolta Holdings Inc 人物検知方法、監視システム、およびコンピュータプログラム
CN101794444A (zh) * 2010-01-28 2010-08-04 南京航空航天大学 坐标循环逼进式对偶型正交摄像机系统视频定位方法及系统
US20120249802A1 (en) * 2010-12-01 2012-10-04 The Trustees Of The University Of Pennsylvania Distributed target tracking using self localizing smart camera networks

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4836633B2 (ja) * 2006-03-31 2011-12-14 株式会社東芝 顔認証装置、顔認証方法および入退場管理装置
WO2008108458A1 (ja) * 2007-03-07 2008-09-12 Omron Corporation 顔画像取得システム、顔照合システム、顔画像取得方法、顔照合方法、顔画像取得プログラムおよび顔照合プログラム
US8989775B2 (en) * 2012-02-29 2015-03-24 RetailNext, Inc. Method and system for WiFi-based identification of person tracks

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001167380A (ja) * 1999-12-07 2001-06-22 Toshiba Corp 道路監視装置
CN1554193A (zh) * 2001-07-25 2004-12-08 �����J��ʷ����ɭ 摄像机控制装置及方法
CN1543200A (zh) * 2003-04-22 2004-11-03 ���µ�����ҵ��ʽ���� 联合摄像机构成的监视装置
JP2005140754A (ja) * 2003-11-10 2005-06-02 Konica Minolta Holdings Inc 人物検知方法、監視システム、およびコンピュータプログラム
CN101794444A (zh) * 2010-01-28 2010-08-04 南京航空航天大学 坐标循环逼进式对偶型正交摄像机系统视频定位方法及系统
US20120249802A1 (en) * 2010-12-01 2012-10-04 The Trustees Of The University Of Pennsylvania Distributed target tracking using self localizing smart camera networks

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111331578A (zh) * 2018-12-18 2020-06-26 发那科株式会社 机器人系统及其调整方法
CN110332930A (zh) * 2019-07-31 2019-10-15 小狗电器互联网科技(北京)股份有限公司 一种位置确定方法、装置及设备
CN110332930B (zh) * 2019-07-31 2021-09-17 小狗电器互联网科技(北京)股份有限公司 一种位置确定方法、装置及设备
WO2021223124A1 (zh) * 2020-05-06 2021-11-11 深圳市大疆创新科技有限公司 位置信息获取方法、设备及存储介质

Also Published As

Publication number Publication date
US20160156839A1 (en) 2016-06-02
JP6073474B2 (ja) 2017-02-01
WO2014208337A1 (ja) 2014-12-31
JPWO2014208337A1 (ja) 2017-02-23

Similar Documents

Publication Publication Date Title
Matsuyama et al. 3D video and its applications
JP6077655B2 (ja) 撮影システム
CN105340258A (zh) 位置检测装置
CN104349155B (zh) 模拟立体图像显示方法及显示设备
CN108307183A (zh) 虚拟场景可视化方法及系统
JP7073481B2 (ja) 画像表示システム
CN102004623B (zh) 一种三维图像显示装置及方法
CN107396069A (zh) 监控展示方法、装置及系统
CN108668108A (zh) 一种视频监控的方法、装置及电子设备
CN104866261A (zh) 一种信息处理方法和装置
KR101916093B1 (ko) 객체 추적 방법
Pece et al. Panoinserts: mobile spatial teleconferencing
Lee et al. Anamorphosis projection by ubiquitous display in intelligent space
Ogi et al. Usage of video avatar technology for immersive communication
JP2004054890A (ja) 画像表示装置および方法、送信装置および方法、画像表示システム、記録媒体、並びにプログラム
KR101996907B1 (ko) 객체 추적 장치
TWI508526B (zh) 產生視角平移影像之方法及其可攜式電子設備
JP2011205585A (ja) 画像処理装置、画像処理システム、及び画像処理プログラム
JP2005260753A (ja) カメラ選択装置、及びカメラ選択方法
JP2010278566A (ja) 遠隔会議システム、情報処理装置、及びプログラム
CN111597916A (zh) 一种专注度检测方法、终端设备及系统
WO2017098999A1 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム
WO2022185719A1 (ja) 情報処理装置、情報処理方法、及び、表示装置
CN113507599B (zh) 基于大数据分析的教育云服务平台
JP7030355B1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20160217