CN104704817B - 视场显示系统、视场显示方法及视场显示程序 - Google Patents

视场显示系统、视场显示方法及视场显示程序 Download PDF

Info

Publication number
CN104704817B
CN104704817B CN201380052604.4A CN201380052604A CN104704817B CN 104704817 B CN104704817 B CN 104704817B CN 201380052604 A CN201380052604 A CN 201380052604A CN 104704817 B CN104704817 B CN 104704817B
Authority
CN
China
Prior art keywords
visual field
camera
region
rate
monitored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201380052604.4A
Other languages
English (en)
Other versions
CN104704817A (zh
Inventor
池田浩雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of CN104704817A publication Critical patent/CN104704817A/zh
Application granted granted Critical
Publication of CN104704817B publication Critical patent/CN104704817B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

提供了一种视场显示系统,其能够智能地向用户呈现其中相机能够捕获整个要被监视的目标或要被监视的目标的特定部分或更多部分的范围。投影单元5将由相机捕获的图像中的位置在通过平行移动要被监视的区域而获得的多个监视域上以及将该多个监视域的视场指定为相机能够捕获其图像而不被障碍物遮蔽的范围,该要被监视的区域限定针对相机的图像捕获状况要被检查的范围,该监视域基于其图像由相机捕获的要被监视的目标的高度而被确定。整合单元6整合每个监视域中的视场。显示控制单元7使得显示装置显示视场的整合结果。

Description

视场显示系统、视场显示方法及视场显示程序
技术领域
本发明系涉及视场显示系统、视场显示方法及视场显示程序,其指定能够良好地捕获要监视的目标的图像的相机的视场并显示该视场。
背景技术
专利文献1公开了显示相机的图像捕获范围的技术。根据专利文献1中公开的技术,当例如在显示于显示装置的预定区域的顶视图上指定相机位置时,在该顶视图上显示-为相机的投影的图像捕获范围的-示图的水平视场,并且在立面图中显示——包括相机的光轴并且为垂直于水平面的平面中的相机的视图的视场的——视图的垂直视场。图34为图示通过专利文献1中公开的技术来显示的视图的水平视场和视图的垂直视场的示意图。
根据专利文献1中公开的技术,当例如在顶视图100上指定相机位置时,在顶视图100上显示表示相机的相机指示符101。进一步,用户通过拖动显示在立面图107中的相机指示符111来调整相机的高度。当指定相机位置时,在顶视图100上显示计算出的视图的水平视场105,并且在立面图107上显示视图的垂直视场115。视图的垂直视场115包括相机的光轴110。进一步,当将人物的图标拖放至顶视图100上时,在该位置显示人物指示符102,并且,也在立面图107中显示人物指示符112。相似地,通过指定作为相机的障碍物的墙壁存在的位置,在顶视图中显示墙壁指示符103。附加地,在图34中,给顶视图100中的人物指示符分配附图标记“102”,并且给立面图107中的人物指示符分配附图标记“112”。
根据专利文献1中公开的技术,提供以上显示,以呈现相机的视图的视场、以及预定区域中的墙壁和人物之间的关系,以调整相机的布置位置。
引用列表
专利文献
专利文献1:日本专利申请公开号:2009-239821
发明内容
然而,根据专利文献1中公开的技术,不可能明确地显示相机能够捕获要监视的整个目标(在该示例中,人物)的图像的范围。例如,在图34中图示的顶视图100中,人物指示符102在视图105的水平视场内。然而,这不一定意味着相机能够捕获人物的整体的图像。在图34中图示的示例中,立面图107中仅仅对应人物指示符112的脚的部分在视图的垂直视场115内。由此,仅仅捕获到人物的脚的图像。为了找到相机能够捕获人物的整体的图像的范围,需要手动拖拽人物指示符102、检查顶视图100和立面图107两者并且指定人物指示符被包括在视图的水平视场105和视图的垂直视场107两者中的范围。进一步,优选确定相机的优化布置状态,使得最大化相机捕获人物的整体的图像的范围。然而,根据专利文献1中公开的技术,为了指定这样的范围,当改变相机的布置状态的同时,手动指定相机能够捕获人物的整体的图像的范围。由此,操作负担重,并且难于确定相机的优化布置状态。尤其当存在多个相机时,更难于将每个相机调整在好的布置状态中。
进一步,根据专利文献1中公开的技术,仅仅包括光轴110的平面中的视图的垂直视场115被显示为视图的垂直视场115。由此,即使当在顶视图100中诸如为墙壁指示符103的障碍物被布置在不同于光轴的方向中时,不可能明确地显示人物是否藏在该障碍物的后面。
因此,本发明的目的在于提供视场显示系统、视场显示方法以及视场显示程序,其能够智能地向用户呈现其中相机能够捕获监视的整个目标或者监视的目标的特定部分或更多部分的图像的范围。
问题的解决方案
根据本发明的一种视场显示系统,包括:投影装置,该投影装置被配置为将由相机捕获的图像中的位置投影在通过平行移动要被监视的区域而获得的多个监视域上以及将多个监视域的视场指定为相机捕获其图像而不被障碍物遮蔽的范围,该要被监视的区域限定针对相机的图像捕获状况要被检查的范围,该监视域基于其图像由相机捕获的要被监视的目标的高度而被确定;整合装置,该整合装置被配置为整合监视域中的视场;以及显示控制装置,该显示控制装置被配置为使得显示装置显示视场的整合结果。
进一步,根据本发明的一种视场显示系统,包括:投影装置,该投影装置被配置为将由相机捕获的图像中的位置投影在通过平行移动要被监视的区域而获得的多个监视域上以及将多个监视域的视场指定为相机捕获其图像而不被障碍物遮蔽的范围,该要被监视的区域限定针对相机的图像捕获状况要被检查的范围,该监视域基于其图像由相机捕获的要被监视的目标的高度而被确定;分割装置,该分割装置被配置为基于每个监视域对应于多少相机的视场来分割每个监视域;以及显示控制装置,该显示控制装置被配置为使得显示装置显示每个监视域以根据支持在视场中包括在单独的监视域中被分割的区域的相机的数目的模式来显示区域。
进一步,根据本发明的一种视场显示方法,包括:将由相机捕获的图像中的位置投影在通过平行移动要被监视的区域而获得的多个监视域上并且将多个监视域的视场指定为相机捕获其图像而不被障碍物遮蔽的范围,该要被监视的区域限定针对相机的图像捕获状况要被检查的范围,该监视域基于其图像由相机捕获的要被监视的目标的高度而被确定;整合监视域中的视场;以及使得显示装置显示视场的整合结果。
进一步,根据本发明的一种视场显示方法,包括:将由相机捕获的图像中的位置投影在通过平行移动要被监视的区域而获得的多个监视域上并且将多个监视域的视场指定为相机捕获其图像而不被障碍物遮蔽的范围,该要被监视的区域限定针对相机的图像捕获状况要被检查的范围,该监视域基于其图像由相机捕获的要被监视的目标的高度而被确定;基于每个监视域对应于多少相机的视场来分割每个监视域;以及使得显示装置显示每个监视域以根据支持在视场中包括在单独的监视域中被分割的区域的相机的数目的模式来显示区域。
进一步,根据本发明的一种视场显示程序,该视场显示程序使得计算机执行:将由相机捕获的图像中的位置投影在通过平行移动要被监视的区域而获得的多个监视域上并且将多个监视域的视场指定为相机捕获其图像而不被障碍物遮蔽的范围的投影处理,该要被监视的区域限定针对相机的图像捕获状况要被检查的范围,该监视域基于其图像由相机捕获的要被监视的目标的高度而被确定;整合监视域中的视场的整合处理;以及使得显示装置显示视场的整合结果的显示控制处理。
再进一步,根据本发明的一种视场显示程序,该视场显示程序使得计算机执行:将由相机捕获的图像中的位置投影在通过平行移动要被监视的区域而获得的多个监视域上并且将多个监视域的视场指定为相机捕获其图像而不被障碍物遮蔽的范围的投影处理,该要被监视的区域限定针对相机的图像捕获状况要被检查的范围,该监视域基于其图像由相机捕获的要被监视的目标的高度而被确定;基于每个监视域对应于多少相机的视场来分割每个监视域的分割处理;以及使得显示装置显示每个监视域以根据支持在视场中包括在单独的监视域中被分割的区域的相机的数目的模式来显示区域的显示控制处理。
发明的有益效果
根据本发明,有可能智能地向用户呈现其中相机能够捕获要被监视的整个目标或者要被监视的目标的特定部分或更多部分的图像的范围。
附图说明
【图1】其描绘了图示根据本发明的第一示例性实施例的视场显示系统的示例性配置的框图。
【图2】其描绘了图示监视域的示例的示意图。
【图3】其描绘了图示图像的坐标系的解释性视图。
【图4】其描绘了图示基于相机参数确定的每个相机的位置与监视域之间的位置关系的示例的示意图。
【图5】其描绘了图示通过将图4中图示的每个相机的图像区域投影在每个监视域上来获得的结果的解释性视图。
【图6】其描绘了示意性地图示根据第一示例性实施例的视场的整合的解释性视图。
【图7】其描绘了图示根据本发明的第一示例性实施例的处理的步骤的示例的流程图。
【图8】其描绘了图示根据第一示例性实施例的视场的整合结果的显示示例的解释性视图。
【图9】其描绘了图示根据本发明的第二示例性实施例的视场显示系统的示例性配置的框图。
【图10】其描绘了示意性地图示根据第二示例性实施例的视场的整合的解释性视图。
【图11】其描绘了图示根据第二示例性实施例的处理的步骤的示例的流程图。
【图12】其描绘了图示根据第二示例性实施例的视场的整合结果的显示示例的解释性视图。
【图13】其描绘了图示突出对应于落入具体数值范围内的视场率的区域的示例的解释性视图。
【图14】其描绘了图示突出的另一示例的解释性视图。
【图15】其描绘了图示根据本发明的第三示例性实施例的视场显示系统的示例性配置的框图。
【图16】其描绘了图示平均视场率的计算示例的解释性视图。
【图17】其描绘了图示根据第三示例性实施例的处理的步骤的示例的流程图。
【图18】其描绘了图示根据本发明的第四示例性实施例的视场显示系统的示例性配置的框图。
【图19】其描绘了图示根据本发明的第四示例性实施例的处理的步骤的示例的流程图。
【图20】其描绘了图示监视域的分割结果的示例的解释性视图。
【图21】其描绘了图示监视域的分割结果的示例的解释性视图。
【图22】其描绘了图示监视域的分割结果的示例的解释性视图。
【图23】其描绘了图示步骤S22中的显示格式的示例的解释性视图。
【图24】其描绘了图示根据第四示例性实施例的突出的示例的解释性视图。
【图25】其描绘了图示根据第四示例性实施例的突出的示例的解释性视图。
【图26】其描绘了图示根据本发明的第四示例性实施例的视场显示系统的另一示例性配置的框图。
【图27】其描绘了图示其中相机被指定的情况中的突出的示例的解释性视图。
【图28】其描绘了图示根据本发明的主要部件的示例的框图。
【图29】其描绘了图示根据本发明的主要部件的另一示例的框图。
【图30】其描绘了图示根据第五示例性实施例的视场显示系统的配置的框图。
【图31】其描绘了图示根据本发明的视场显示系统的另一示例性配置的框图。
【图32】其描绘了图示根据本发明的视场显示系统的另一示例性配置的框图。
【图33】其描绘了图示其中虚拟平面不平行于要被监视的区域的示例的解释性视图。
【图34】其描绘了图示通过专利文献1中公开的技术来显示的视图的水平视场和视图的垂直视场的示意图。
具体实施方式
此后,将参照附图来描述本发明的示例性实施例。
第一示例性实施例
图1描绘了图示根据本发明的第一示例性实施例的视场显示系统的示例性配置的框图。根据本发明的视场显示系统1包括:信息登录单元2、信息存储器单元3、监视域确定单元4、投影单元5、整合单元6、以及显示控制单元7。
信息存储器单元3为存储器设备,该存储器设备存储与相机相关的信息(相机参数),诸如相机的布置位置、姿势、视角以及镜头畸变、相机的屏幕大小;指示要被监视的区域的信息;与要被监视的目标相关的信息,诸如其图像由相机捕获的要被监视的目标的位置和高度;以及与障碍物相关的信息,诸如布置在要被监视的区域中的障碍物的位置和高度。信息登录单元2接收例如通过用户操作的这些信息片段的输入,并且信息登录单元2将输入的信息存储在信息存储器单元3中。下面将作为示例而描述其中要被监视的目标为人物的情况。进一步,当假定多个相机时,用户按每个相机输入相机参数,并且信息登录单元2将每个相机的相机参数存储在信息存储器单元3中。
要被监视的区域为限定针对相机的图像捕获状况要被检查的范围的域,并且被确定为水平面中的域。通过在垂直方向上平行移动要被监视的区域来确定的三维空间被限定为针对相机的图像捕获状况的要被检查的范围。例如,可以将安装相机的房间的地板的范围限定为要被监视的区域。在该示例中,通过在垂直方向上向上平行移动该区域来确定的三维空间为针对图像捕获状况的要被检查的范围。
监视域确定单元4引用指示存储在信息存储器单元3中的要被监视的区域的信息、以及与要被监视的目标相关的信息,并且基于要被监视的目标的高度来确定多个监视域。监视域为通过将要被监视的区域平行移动来确定的域。因而,监视域的大小与要被监视的区域的大小相同。监视域确定单元4在从要被监视的目标的下端(例如,人物的脚尖)附近到要被监视的目标的上端(例如,人物的头)附近的范围内确定多个监视域。多个监视域包括要被监视的目标的下端附近的监视域、及其上端附近的监视域。图2为描绘了图示监视域的示例的示意图。在图2中图示的示例中,指示要被监视的区域11的信息、指示人物13的信息、以及指示障碍物12的信息存储在信息存储器单元3中。进一步,图2图示了其中监视域确定单元4在从人物13的下端附近到其上端附近的范围中确定三个监视域h0至h2的情况。在该示例中,人物13的下端处的监视域h0为与要被监视的区域11相同的区域。
接下来,将描述投影单元5。首先,将描述由相机捕获的图像的坐标系及图像区域。当确定相机的相机参数和屏幕大小时,就确定了由该相机获得的图像(由相机捕获的图像)的二维坐标系、以及对应于该坐标系中的该图像的区域。将该区域称作图像区域。图像区域为指示由相机捕获的图像的整个屏幕的区域。图像区域按每相机来确定。
图3描绘了图示由相机捕获的图像的坐标系的解释性视图。如图3中图示的,由相机捕获的图像中的随机位置32表示为相机前面的xy坐标系(即。二维坐标系)的坐标。进一步,图像区域31为指示该图像的整个屏幕的区域,并且为该xy坐标系中的区域。根据相机参数和屏幕大小确定图像区域31。
进一步,将从通过相机位置与图像区域31中的位置的线中计算对应于图像区域31中的该位置的三维空间中的坐标称作“投影”。例如,计算对应于由两维坐标表示的图像区域31中的位置32的三维空间中的位置33对应于投影。投影能够使用诸如为相机的布置位置、姿势、视角、以及镜头畸变的相机参数来将表示图像区域31中的位置的两维坐标变换为实空间中的三维坐标来实现。
投影单元5按每个相机将图像区域31投影至每个监视域。图4描绘了图示基于相机参数确定的每个相机的位置与监视域之间的位置关系的示例的示意图。例如,投影单元5将相机21的图像区域31(参见图3)投影在监视域h0、h1、以及h2上。类似地,投影单元5将其它相机22以及23的图像区域投影在监视域h0、h1、以及h2上。
进一步,投影单元5引用投影时障碍物的位置和大小的信息,并且确定在连接相机位置与监视域上的投影点的线上是否存在障碍物。此外,投影单元5在确定在连接相机位置与监视域上的投影点的线上存在障碍物时,确定该监视域上的投影点为相机被障碍物遮蔽并且不能捕获图像的点。同时,投影单元5在确定在连接相机位置与监视域上的投影点的线上不存在障碍物时,确定该监视域上的投影点为相机能够捕获图像而未被障碍物遮蔽的点。
投影单元5通过做出关于监视域上的投影点的确定,在监视域中将视场指定为相机能够捕获其图像而未被障碍物遮蔽的范围。
进一步,投影单元5优选地在投影了图像区域的监视域上叠加并显示存在障碍物的范围。存在障碍物的范围可以由特定颜色(半透明色)来表示。进一步,其中存在障碍物的范围的外围可以由特定线型来表示。
图5描绘了图示通过将图4中图示的每个相机的图像区域投影在每个监视域上来获得的结果的解释性视图。图5从左侧的列起图示了与相机21相关的投影结果、与相机22相关的投影结果、以及与相机23相关的投影结果。进一步,图5从最上行起图示了与监视域h2相关的投影结果、与监视域h1相关的投影结果、以及与监视域h0相关的投影结果。
投影相机的图像区域至水平面的结果为梯形。例如,将相机21的图像区域投影在监视域h2上的结果为梯形ABCD(参见图5)。该梯形的大小取决于监视域的高度而有所不同。相机与监视域之间的高度差越广,指示投影结果的梯形越大。同时,投影单元5在投影结果中不包括该梯形超出监视域的部分。
如上所述,投影单元5优选地在监视域上叠加并显示障碍物。在图5中图示的示例中,在每个监视域中,以白色填充存在障碍物12的范围,并且以实线指示该范围的外围。
根据图5中图示的每个投影结果,以斜线指示的范围表示相机能够捕获其图像而不被障碍物12遮蔽的视场。该视场在相机当中不同。进一步,当关注于一个相机时,视场取决于监视域的高度而不同。
此外,在图5中图示的监视域h0至h1中的每个中,视场和障碍物以外的区域为相机被障碍物遮蔽并且不能捕获图像的范围、以及不对应于图像区域的投影目标的范围。即,在监视域中视场以外的范围为相机不能捕获要被监视的目标的图像的范围。
整合单元6整合在相应的监视域中指定的相机的视场。
根据第一示例性实施例,整合单元6针对每个相机提取对应于所有监视域h0至h2中的视场的区域并获得提取结果作为视场的整合结果。
图6描绘了示意地图示与根据第一示例性实施例的视场的整合的解释性视图。图6图示了相机22的视场的整合。图6中图示的视场27为监视域h2中的视场。类似地,视场26为监视域h1中的视场,并且视场25为监视域h0中的视场。整合单元6在监视域h0至h2中的视场25、26、27中提取共同区域28,并且将该区域28确定为监视域中的视场的整合结果。
视场25、26、以及27表示在对应于这些视场的监视域的高度处、相机22能够捕获要被监视的目标的图像而不被障碍物遮蔽的范围。由此,当要被监视的目标存在于不同高度的监视域h0至h2中的视场25、26、以及27的共同区域28(参见图6)中时,相机22能够捕获要被监视的目标的下端附近到上端附近的图像。即,为视场25、26、以及27的整合结果的区域28能够称作其中相机2能够捕获整个要被监视的目标的图像的区域。
整合单元6按按每个相机如上所述地整合视场。因而,根据第一示例性实施例,能够按按每个相机获得视场的整合结果。
显示控制单元7使得显示装置(未图示)显示按每个相机获得的视场的整合结果。附加地,视场显示系统1可以具有显示装置。
信息登录单元2、监视域确定单元4、投影单元5、整合单元6、以及显示控制单元7例如通过根据视场显示程序而操作的计算机的CPU来实现。在该情况中,CPU仅仅需要读取视场显示程序,并且根据该程序而操作为信息登录单元2、监视域确定单元4、投影单元5、整合单元6、以及显示控制单元7。进一步,视场显示程序可以被记录于计算机可读记录介质中。此外,信息登录单元2、监视域确定单元4、投影单元5、整合单元6、以及显示控制单元7可以相应地由不同的硬件来实现。
接下来,将描述根据本示例性实施例的处理的步骤。图7描绘了图示根据本发明的第一示例性实施例的处理的示例的流程图。附加地,假定在信息存储器单元3中已经存储诸如为相机参数的各种信息。首先,监视域确定单元4引用指示要被监视的区域的信息、以及与要被监视的目标相关的信息,并且在从要被监视的目标的下端附近到上端附近的范围中确定多个监视域(步骤S1)。附加地,可以提前确定多个监视域,并且在信息存储器单元3中存储关于这些监视域的信息。在该情况中,可以省略步骤S1。进一步,在该情况中,视场显示系统1不包括监视域确定单元4。
在步骤S1之后,投影单元5按每个相机将由相机捕获的图像的图像区域投影在每个监视域上(步骤S2)。进一步,步骤S2中,投影单元5在每个监视域中指定对应于视场的区域。此外,优选地,投影单元5还将其中存在障碍物的范围叠加在每个监视域上。
接下来,整合单元6整合监视域中的视场(步骤S3)。根据本示例性实施例,整合单元6按每个相机提取在相应的监视域中表示的视场的共同区域作为整合结果。
显示控制单元7使得显示装置(未图示)按每个相机显示获得的视场的整合结果(步骤S4)。图8描绘了图示根据第一示例性实施例的视场的整合结果的显示示例的解释性视图。例如,显示控制单元7使得显示装置如图8中图示地显示通过整合相机22的视场而获得的区域28、以及要被监视的区域11。进一步,显示控制单元7使得显示装置还显示其中由投影单元5叠加的障碍物12存在的范围。类似地,显示控制单元7使得显示装置显示其它相机的视场的整合结果。
根据第一示例性实施例,按按每个相机提取不同高度的监视域中的视场的共同区域、并且使得显示装置显示共同区域。因而,向用户呈现其中有可能捕获要被监视的目标(例如,人物)的下端附近到上端附近的图像的要被监视的区域中的范围成为可能。因此,用户能够容易地知晓其中相机能够捕获整个要被监视的目标的要被监视的区域中的范围。进一步,通过改变相机参数并且检查该范围的变化,更易于调整例如相机的位置、姿势、以及视角,以最大化该范围。
附加地,根据第一示例性实施例,相机的数目可以为1。
第二示例性实施例
根据第二示例性实施例的视场显示系统使得不仅能够看见整个要被监视的目标的范围、而且整个要被监视的目标(例如,人物的全部)的部分能够由相机在要被监视的区域中捕获到的程度可视化以向用户呈现。
图9描绘了图示根据本发明的第二示例性实施例的视场显示系统的示例性配置的框图。与第一示例性实施例中的组件相同的组件将被分配与图1中的附图标记相同的附图标记,并且将不描述。根据第二示例性实施例的视场显示系统包含整合单元6a(参见图9)以替代根据第一示例性实施例的整合单元6(参见图1)。整合单元6a包括视场率计算单元61和覆盖率计算单元63a。
视场率计算单元61按在要被监视的区域11(参见图2)中的障碍物存在的范围之外的每个位置来计算视场率。进一步,视场率计算单元61按按每个相机计算视场率。
视场率为其关注位置属于视场的监视域的数目与监视域的总数的比。在图2中图示的示例中,监视域的总数为“3”。进一步,例如,关注要被监视的区域11中的给定位置,尽管该位置属于两个监视域h2和h1中的视场,但是位置不属于余下的监视域h0中的视场。在该情况中,视场率计算单元61将关注位置的视场率计算为“2/3”。视场率计算单元61按障碍物的存在范围之外的每个位置地如上所述地计算视场率。同时,视场率计算单元61不需要按紧密地连续的每个位置地计算视场率。例如,视场率计算单元61可以按每个固定的范围地划分要被监视的区域11(除了障碍物存在的范围),从每个划分的区域中确定代表位置,并且计算该代表位置处的视场率。进一步,视场率计算单元61可以将该视场率确定为代表位置所属的划分区域的视场率。
视场率计算单元61计算要被监视的区域11(除了障碍物存在的范围)中的每个位置的视场率,然后在要被监视的区域11中指定对应于每个视场率的区域。以该方式指定的每个视场率的区域为根据第二示例性实施例的视场的整合结果。
图10描绘了示意性地图示根据第二示例性实施例的视场的整合的解释性视图。图10图示了相机22的视场的整合。图10中图示的视场25至27与图6中图示的视场25至27相同,并且将不描述。视场率计算单元61计算要被监视的区域11(除了障碍物存在的范围)中的每个位置的视场率。在该示例中,有三个监视域,并且视场率计算为“0”、“1/3”、“2/3”、以及“3/3=1”。视场率计算单元61在要被监视的区域11中指定对应于这些视场率中的每个视场率的区域。在图10中图示的示例中,区域73为视场率“3/3=1”之区域。此外,区域72和74为视场率“2/3”的区域。此外,区域71和75为视场率“1/3”的区域。其它区域为视场率“0”的区域。
注意:对于其中障碍物12存在的范围,不计算视场率。视场率计算单元61优选地将障碍物12存在的范围叠加于要被监视的区域11。障碍物存在的范围可以由特定颜色(半透明色)来表示。进一步,其中障碍物存在的范围的外围可以由特定线型来表示。这与第一示例性实施例相同。进一步,相同内容适用于以下示例性实施例。
覆盖率计算单元63a按每个相机计算覆盖率。覆盖率为计算出的视场率的总和与要被监视的区域11中其视场率已经被计算出的位置的数目之比。即,覆盖率计算单元63a通过计算以下等式(1)来计算覆盖率。
【数学式1】
覆盖率能够为其中要被监视的目标能够被监视到的区域与要被监视的区域11之比。
虽然在第二示例性实施例中根据等式(1)计算的覆盖率能够称作“基于视场率的覆盖率”,但为了简单地描述,将该覆盖率简单地称作“覆盖率”。
进一步,覆盖率计算单元63a在通过等式(1)来计算覆盖率时可以将指定的数值范围中的视场率添加为等式(1)的右边的分子。即,覆盖率计算单元63a在计算等式(1)的右边的分子时可以仅仅添加指定的数值范围中的视场率、忽略该数值范围之外的视场率(例如,将视场率视为0),并且根据等式(1)来计算覆盖率。指定该数值范围的方法不特别受限。例如,数值范围可以通过用户输入视场率的数值范围到视场显示系统1来指定。
进一步,显示控制单元7使得显示装置还与视场的整合结果一起显示覆盖率。
整合单元6a(更具体而言,视场率计算单元61和覆盖率计算单元63a)例如通过根据视场显示程序来操作的CPU来实现。
图11描绘了图示根据第二示例性实施例的处理的步骤的示例的流程图。步骤S1和S2中的处理与根据第一示例性实施例的步骤S1和S2中的处理相同。根据第二示例性实施例,在步骤S2之后,视场率计算单元61按在要被监视的区域11中障碍物存在的范围之外的每个位置来计算视场率。进一步,视场率计算单元61在要被监视的区域11中指定对应于这些计算出的视场率中的每个视场率的区域(步骤S5)。视场率计算单元61按每个相机来执行该处理。步骤S5中的结果为根据第二示例性实施例的视场的整合结果。
接下来,覆盖率计算单元63a通过计算等式(1)来计算覆盖率(步骤S6)。覆盖率计算单元63a按每个相机来计算覆盖率。
接下来,显示控制单元7使得显示装置(未图示)显示按每个相机获得的视场的整合结果(步骤S4)。图12描绘了图示根据第二示例性实施例的视场的整合结果的显示示例的解释性视图。例如,如图12中图示的,显示控制单元7使得显示装置根据支持每个视场率的模式来显示指定为对应于相机22的该视场率的区域的每个区域。根据支持视场率的模式来显示每个区域的示例包括以与视场率相关联的颜色、图案、以及亮度来区分和显示每个区域。附加地,当区分和显示区域时,区域可以基于颜色、图案、以及亮度以外的事物来区分。相同的内容适用于其他示例性实施例。在图12中图示的示例中,在视场率“3/3=1”的区域73、视场率“2/3”的区域72和74、视场率“1/3”的区域71和75、以及其它的区域(视场率“0”的区域)中区分图案。进一步,显示控制单元7使得显示装置还显示叠加的障碍物12存在的范围。
此外,如图12中图示的,显示控制单元7使得显示装置还显示覆盖率。注意,尽管图12图示了直接显示覆盖率的示例,但显示覆盖率的方法不特别受限。例如,覆盖率可以通过示出相应的相机的覆盖率之间的差异的曲线图来显示,其中,横轴可以指示每个相机的识别码并且纵轴可以指示覆盖率。
根据第二示例性实施例,显示装置以与视场率相关联的颜色、图案、以及亮度来显示对应于每个视场率的区域。进一步,这意味着视场率越高,能捕获到的要被监视的目标(例如,人物)的越大部分的图像。因而,向用户智能地呈现其中相机能够捕获整个要被监视的目标或要被监视的目标的特定部分或更多部分的图像的范围成为可能。因而,用户能够容易地知晓其中要被监视的区域中的相机能够捕获整个要被监视的目标或是要被监视的目标的大部分的范围。进一步,通过改变与相机相关的信息并且检查该范围的变化,更易于调整例如相机的位置、姿势、以及视角,以最大化该范围。
此外,通过还显示覆盖率,有可能向用户呈现其中相机能够监视要被监视的目标的区域与要被监视的区域11之比。
接着,将描述第二示例性实施例的修改示例。在第二示例性实施例中,可以跳过覆盖率的显示。在该情况中,根据第二示例性实施例的视场显示系统1可以不包括覆盖率计算单元63a,并且可以不执行步骤S6(参见图11)。
进一步,在第二示例性实施例中,在步骤S4中,显示控制单元7可以使得显示装置突出对应于落入指定的数值范围内的视场率的区域。指定该数值范围的方法不特别受限,用户可以向视场显示系统1输入对应于要被突出的区域的视场率的数值范围,并且显示控制单元7可以使得显示装置突出对应于落入由用户指定的数值范围内的视场率的区域。
图13描绘了图示突出对应于落入指定的数值范围内的视场率的区域的解释性视图。例如,如图12中图示的,显示控制单元7使得显示装置显示对应于每个视场率的每个区域。进一步,假定作为对应于要被突出的区域的视场率的数值范围,指定“2/3或更大并且1或更小”的范围。在该情况中,对应于“2/3或更大并且1或更小”的范围中的视场率的区域包括视场率“2/3”的区域72和74、以及视场率“1”的区域73。由此,如图13中图示的,显示控制单元7突出通过组合图12中图示的区域72至74而获得的区域。在图13中的示例中突出的区域77为通过组合区域72至74来获得的区域。因而,在该修改示例中,显示控制单元7使得显示装置突出指定的区域,使得有可能明确地可视化其中能够可靠地捕获要被监视的目标的大部分的图像的有效的视场。进一步,当将仅仅“1”指定为视场率的数值范围时,突出的区域与在第一示例性实施例中显示的视场的整合结果相同。
此外,可以将仅仅“0”指定为对应于突出的区域的视场率的数值范围。图14描绘了图示在该情况中要被突出的区域的示例的解释性视图。即,在图14中图示的示例中突出的区域78为对应于视场率“0”的范围,换而言之,对应于相机的死角的范围。因而,用户通过指定“0”作为数值范围,可以在视觉上并且清楚地检查对应于相机的死角的范围。
注意:图13和图14图示了统一以单色方式显示对应于指定的数值范围之外的视场率的区域(即,没有被突出的区域)的情况。进一步,如图13和图14中图示的,显示控制单元7当执行突出时优选地使得显示装置还显示其中障碍物12存在的范围。
第三示例性实施例
图15描绘了图示根据本发明的第三示例性实施例的视场显示系统的示例性配置的框图。与第一和第二示例性实施例中的组件相同的组件将被分配与图1和图9中的附图标记相同的附图标记,并且将不描述。根据第三示例性实施例的视场显示系统包括整合单元6b(参见图15)以替代根据第一示例性实施例的整合单元6(参见图1)。整合单元6b包括视场率计算单元61、平均视场率计算单元62、以及覆盖率计算单元63b。
视场率计算单元61与根据第二示例性实施例的视场率计算单元61相同。
平均视场率计算单元62按在要被监视的区域11(参照图2)中障碍物存在的范围之外的每个位置来计算平均视场率。
如上所述,视场率计算单元61不需要按每个紧密地连续的位置来计算视场率。平均视场率计算单元62也不需要按每个紧密地连续的位置来计算平均视场率。例如,平均视场率计算单元62可以按每个固定范围地划分要被监视的区域11(除了其中障碍物存在的范围),并且计算该代表位置处的平均视场率。进一步,平均视场率计算单元62可以将该平均视场率确定为代表位置所属的划分的区域的平均视场率。此外,平均视场率计算单元62只需要计算已经由视场率计算单元61计算出其视场率的位置的平均视场率。即,平均视场率的计算位置与由视场率计算单元61计算出其视场率的位置相同。
同时,平均视场率为针对要被监视的区域11(除了障碍物存在的范围)中的关注位置、由视场率计算单元61按每个相机计算的视场率之中的预定最高排位顺序的视场率的平均值。例如,针对在要被监视的区域11(除了障碍物存在的范围)中的位置P,按每个单独的相机计算视场率。进一步,将从第一位置至第n个位置的最高n个排位顺序确定为平均视场率的计算目标的排位顺序。在该情况中,该位置P处的视场率当中从最高视场率至第n个最高视场率的n个视场率的平均值为平均视场率。因此,平均视场率计算单元62仅仅需要计算位置P处的视场率当中的从最高视场率至第n个最高视场率的n个视场率的平均值作为位置P处的平均视场率。注意:以上“n”的值被提前确定。
图16图示了图示平均视场率的计算示例的解释性视图。在以下描述中,类似于图2中图示的情况,确定三个监视域h0至h2。进一步,以上n为“2”。即,将其中平均视场率计算单元62针对一个位置在每个相机处计算出的视场率当中最高两个视场率的平均值作为平均视场率的情况描述为示例。图16从左侧起图示了:对于相机21,由视场率计算单元61确定的每个视场率的区域;对于相机22,由视场率计算单元61确定的每个视场率的区域;以及对于相机23,由视场率计算单元61确定的每个视场率的区域。进一步,在图16中,视场率“1/3”的区域被分配附图标记“81”。此外,视场率“2/3”的区域被分配附图标记“82”。再进一步,视场率为“3/3=1”的区域被分配附图标记“83”。
关注图16中图示的位置P,对于相机21,由视场率计算单元61计算出的视场率为“1”。进一步,对于相机22,由视场率计算单元61计算出的视场率为“2/3”。此外,对于相机23,由视场率计算单元61计算出的视场率为“0”。由此,平均视场率计算单元62,仅仅需要计算对于位置P按每个相机计算的三个视场率“1”、“2/3”以及“0”中最高两个视场率“1”、“2/3”的平均值,作为位置P处的平均视场率。在该示例中,位置P的平均视场率为“5/6”。
平均视场率计算单元62同样地针对要被监视的区域11(除了障碍物存在的范围)中的其它位置中的每个位置计算平均视场率。
进一步,平均视场率计算单元62在要被监视的区域11中指定对应于每个平均视场率的区域。以此方式指定的每个平均视场率的区域为根据第三示例性实施例的视场的整合结果。
覆盖率计算单元63b计算覆盖率。同时,根据第三示例性实施例的覆盖率为计算出的平均视场率的总和与在要被监视的区域11中其视场率已经被计算出的位置的数目之比。即,覆盖率计算单元63b通过计算以下等式(2)来计算覆盖率。
【数学式2】
附加地,平均视场率计算位置与由视场率计算单元61计算出其视场率的位置相同,并且等式(2)右边的分母可以为“要被监视的区域中平均视场率已经被计算出的位置的数目”。即使在该情况中,覆盖率的计算结果也相同。
尽管在第三示例性实施例中根据等式(2)计算的覆盖率能够称作“基于平均视场率的覆盖率”,但为了易于描述,将该覆盖率简单地称作“覆盖率”。
在第二示例性实施例中,覆盖率(基于视场率的覆盖率)按每个相机来计算。同时,根据第三示例性实施例的计算的覆盖率(基于平均视场率的覆盖率)的值的数目为1,与相机的数目无关。根据第三示例性实施例的覆盖率能够为在考虑多个相机的情况中、其中要被监视的目标能够被监视到的区域与要被监视的区域11之比。
进一步,覆盖率计算单元63b当通过计算等式(2)来计算覆盖率时,可以将指定的数值范围的平均视场率添加到为等式(2)的右边的分子中。即,覆盖率计算单元63b当计算等式(2)的右边的分子时,可以添加仅仅指定的数值范围中的平均视场率,忽略该数值范围外的平均视场率(例如,将平均视场率视为0),并且根据等式(2)来计算覆盖率。类似于第二示例性实施例,不特别限制指定该数值范围的方法。
显示控制单元7使得显示装置显示视场和覆盖率的整合结果。
整合单元6b(更具体而言,视场率计算单元61、平均视场率计算单元62、以及覆盖率计算单元63b)例如通过根据视场显示程序来操作的CPU来实现。
图17描绘了图示根据第三示例性实施例的处理的步骤的示例的流程图。步骤S1、S2、以及S5与第二示例性实施例中的步骤S1、S2、以及S5(参见图11)相同,并且将不描述。
在S5之后,平均视场率计算单元62按在要被监视的区域11中障碍物存在的范围之外的每位置来计算平均视场率。进一步,平均视场率计算单元62在要被监视的区域11中指定对应于每个计算的平均视场率的区域(步骤S11)。步骤S11中的结果为根据第三示例性实施例的视场的整合结果。
接着,覆盖率计算单元63b通过计算等式(2)来计算覆盖率(步骤S12)。
接着,显示控制单元7使得显示装置(未图示)显示视场的整合结果(步骤S4)。在第三示例性实施例中,显示控制单元7使得显示装置根据支持每个平均视场率的模式来显示在步骤S11中指定为对应于该平均视场率的区域的每个区域。根据支持平均视场率的模式来显示每个区域包括例如以与平均视场率相关联的颜色、图案、以及亮度来区分和显示每个区域。显示控制单元7使得显示装置根据支持每个平均视场率的模式来显示对应于要被监视的区域中的该平均视场率的每个区域。因而,根据第三示例性实施例的整合结果的显示格式与根据第二示例性实施例的整合结果的显示格式(图12)相同。同时,在第三示例性实施例中,每个区域基于平均视场率来确定,并且因此单独的区域比在第二示例性实施例中显示的单独的区域更窄。进一步,尽管在第二示例性实施例中按每个相机显示整合结果,但在第三示例性实施例中,显示一个整合结果,与相机的数目无关。附加地,显示控制单元7使得显示装置还显示其中叠加的障碍物存在范围。
进一步,显示控制单元7使得显示装置还显示在步骤S12中计算的覆盖率。在第三示例性实施例中,计算覆盖率的一个值,与相机的数目无关。显示控制单元7仅仅需要使得显示装置显示该覆盖率和视场的整合结果。
在第三示例性实施例中,显示装置以与平均视场率相关联的颜色、图案以及亮度来显示对应于每个平均视场率的区域。进一步,这意味着平均视场率越高,则能够捕获要被监视的目标(例如,人物)的越大部分的图像。因而,向用户智能地呈现其中相机能够捕获整个要被监视的目标或要被监视的目标的特定部分或更多部分的图像的范围成为可能。特别地,在第三示例性实施例中,计算针对每相机计算的视场率当中预定数目的最高的视场率的平均值(平均视场率),并且基于该平均视场率来显示每个区域。因而,有可能通过考虑多个相机来智能地向用户呈现相机能够捕获监视的整个目标或者监视的目标的特定部分或更多部分的图像的范围。如在第二示例性实施例中的,用户能够容易地知晓要被监视的区域中的相机能够捕获整个要被监视的目标或者其大部分的图像的范围。进一步,通过改变与相机相关的信息并且检查该范围的变化,更易于调整例如相机的位置、姿势以及视角,以最大化该范围。
此外,根据第三示例性实施例中,通过还显示根据等式(2)计算的覆盖率,有可能向用户呈现在考虑多个相机的情况中、相机能够监视要被监视的目标的区域与要被监视的区域11之比。
接着,将描述第三示例性实施例的修改示例。在第三示例性实施例中,可以跳过覆盖率的显示。在该情况中,根据第三示例性实施例的视场显示系统1可以不包括覆盖率计算单元63b,并且可以不执行步骤S12(参将图17)。
进一步,在第三示例性实施例中,在步骤S4中,显示控制单元7可以使得显示装置突出对应于落入指定的数值范围内的平均视场率的区域。指定该数值范围的方法不特别受限。例如,用户可以向视场显示系统1输入对应于将突出的区域的平均视场率的数值范围,并且显示控制单元7可以使得显示装置突出对应于落入由用户指定的数值范围的平均视场率的区域。该显示控制单元7的操作与作为根据第二示例性实施例的一个修改示例来描述的操作(使得显示装置突出对应于落入指定的数值范围内的视场率的区域的操作)相同。根据本修改示例,有可能智能地向用户呈现对应于落入指定的数值范围内的平均视场率的区域。
进一步,在第三示例性实施例中,在步骤S4中,显示控制单元7可以接收用户的对相机的指定,并且使得显示装置突出在视场的整合结果中纳入于该相机的图像中的范围。根据本修改示例,有可能智能地向用户呈现其中纳入于指定的相机的图像中的范围。
第四示例性实施例
图18描绘了图示根据本发明的第四示例性实施例的视场显示系统的示例性配置的框图。根据第四示例性实施例的视场显示系统40包括:信息登录单元2、信息存储器单元3、监视域确定单元4、投影单元5、分割单元41、以及显示控制单元42。信息登录单元2、信息存储器单元3、监视域确定单元4、以及投影单元5与第一至第三示例性实施例中的那些相同,并且将不描述。
分割单元41基于每个监视域对应于多少相机的视场来分割每个监视域。假定图2中图示的三个监视域h0至h2被确定,并且三个相机21至23(参见图4)的相机参数存储于信息存储器单元3。在该情况中,分割单元41将监视域h0分割为:对应于三个相机的视场的区域、对应于两个相机的视场的区域、对应于一个相机的视场的区域、以及不对应于任何相机的视场的区域。分割单元41以相同的方式来分割监视域h1和h2
显示控制单元42使得显示装置(未图示)显示每个监视域,以根据支持包括视场中的区域的相机的数目的模式来显示在单独的监视域中被分割的区域。例如,显示控制单元42基于颜色、图案以及亮度来在对应于三个相机的视场的区域、对应于两个相机的视场的区域、对应于一个相机的视场的区域、以及不对应于任何相机的视场的区域之间进行区分,并且使得显示装置显示每个监视域。
注意:视场显示系统40可以包括显示装置。
信息登录单元2、监视域确定单元4、投影单元5、分割单元41以及显示控制单元42通过例如根据视场显示程序来操作的计算机的CPU来实现。在该情况中,CPU仅仅需要读取视场显示程序,并且操作为信息登录单元2、监视域确定单元4、投影单元5、分割单元41以及显示控制单元42。进一步,视场显示程序可以被记录于计算机可读记录介质中。此外,信息登录单元2、监视域确定单元4、投影单元5、分割单元41以及显示控制单元42可以相应地由不同的硬件来实现。
接着,将描述操作。
图19描绘了图示根据本发明的第四示例性实施例的处理的步骤的示例的流程图。步骤S1和S2与从第一至第三示例性实施例中的步骤S1和S2(参见图7、图11以及图17)相同,并且因此将不描述。进一步,将作为示例来描述其中图2中图示的确定三个监视域h0至h2、并且将三个相机21至23(参见图4)的相机参数存储于信息存储器单元3中的情况。
根据到步骤S2为止的处理,如图5中图示的,获得通过将相机21至23中的每个相机的图像区域投影在每个监视域上而被获得的结果。即,获得与监视域h2相关的相机21的图像区域的投影结果、相机22的图像区域的投影结果以及相机23的图像区域的投影结果。类似地,获得与监视域h1相关的每个相机的图像区域的投影结果、以及与监视域h0相关的每个相机的图像区域的投影结果。
在步骤S2之后,分割单元41基于每个监视域对应于多少相机的视场来分割每个监视域(步骤S21)。
例如,基于与监视域h2相关的相机21的图像区域的投影结果、相机22的图像区域的投影结果、以及相机23的图像区域的投影结果(参见图5中上部分),监视单元41将监视域h2分割为:对应于三个相机的视场的区域、对应于两个相机的视场的区域、对应于一个相机的视场的区域、以及不对应于任何相机的区域。图20图示了通过基于图5中上部分中图示的与监视域h2相关的投影结果来分割监视域h2而获得的结果。
类似地,基于与监视域h1相关的相机21的图像区域的投影结果、相机22的图像区域的投影结果、以及相机23的图像区域的投影结果(参见图5的中间部分),分割单元41将监视域h1分割为:对应于三个相机的视场的区域、对应于两个相机的视场的区域、对应于一个相机的视场的区域、以及不对应任何相机的区域。图21图示了通过基于图5中中间部分中图示的与监视域h1相关的投影结果来分割监视域h1而获得的结果。
类似地,基于与监视域h0相关的相机21的图像区域的投影结果、相机22的图像区域的投影结果、以及相机23的图像区域的投影结果(参见图5中的下部分),分割单元41将监视域h0分割为:对应于三个相机的视场的区域、对应于两个相机的视场的区域、对应于一个相机的视场的区域、以及不对应任何相机的区域。图22图示了通过基于图5中下部分中图示的与监视域h0相关的投影结果来分割监视域h0而获得的结果。
如图20至22中图示的,作为步骤S21的结果,按每监视域获得通过分割监视域而获得的结果。在图20至图22中,对应于一个相机的视场的区域由附图标记“91”来指示。进一步,对应于两个相机的视场的区域由附图标记“92”来指示。此外,对应于三个相机的视场的区域由附图标记“93”来指示。不对应于任何相机的区域由白色来指示。进一步,分割单元41可以在监视域h0至h2中的每个监视域中从分割目标中排除其中障碍物12存在的范围。
在步骤S21之后,显示控制单元42使得显示装置(未图示)显示分割的监视域h0至h2中的每个分割的监视域(步骤S22)。在步骤S22中,显示控制单元42根据支持在视场中包括单独的监视域中分割的区域的相机的数目的模式来显示该区域。
图23描绘了图示步骤S22中的显示格式的示例的解释性视图。显示控制单元42可以使得显示装置布置并且显示分割的监视域h0至h2中的每个,作为如图23中图示的顶视图。图23中图示的显示示例中,将不同的图案用于对应于一个相机的视场的区域91、对应于两个相机的视场的区域92、对应于三个相机的视场的区域93、以及其它区域。显示控制单元7使得显示装置还显示其中障碍物12存在的范围。
进一步,作为步骤S22中的每个监视域的显示格式,可以采用以下显示格式。即,显示控制单元42可以使得显示装置显示透视图,其中,如图20、图21以及图23中图示地分割的监视域h0至h2布置在对应于三维空间中的监视域h0至h2的位置处。在该示例中,显示控制单元42使得显示装置显示透视图,其中存在作为监视域h0的上层的监视域h1,并且监视域h2在该上层上。即使在该显示格式中,监视域h0至h1中的每个中的区域取决于区域对应于多少相机的视场而以不同的图案来显示。
进一步,显示控制单元42可以使得显示装置显示透视图,其中每个监视域如上所述地布置在三维空间中,并且在视场中包括在监视域的被分割的区域的相机的数目越高,布置在该区域中的三维物体越大。尽管该三维物体的形状不特别受限,但作为示例,将描述其中三维物体为球体的情况。进一步,球体的大小包括大、中等以及小三个大小。
在该示例中,显示控制单元42确定其中存在作为监视域h0的上层的监视域h1并且监视域h2在该上层上的状态。进一步,显示控制单元42确定其中穿过区域93的大球布置在监视域h0至h2中每个中的对应于三个相机的视场的区域93(参见图21和22)中的状态。类似地,显示控制单元42确定其中穿过区域92的中等大小的球布置在对应于监视域h0至h2中的每个中的两个相机的视场的区域92(参见图21和22)中的状态,并且确定其中穿过区域91的小球布置在对应于一个相机的视场的区域91(参见图21和22)中的状态。显示控制单元42可以使得显示装置显示该状态的透视图。
进一步,当使得显示装置显示其中监视域h0至h2中的每个监视域布置在三维空间中的透视图时,显示控制单元42可以通过根据用户操作来改变视点而更新透视图。
用户能够根据每个显示的监视域来检查哪个区域在对应于三维空间中的三个类型的高度的三个监视域h0至h2中的相机21至23的视场中。因而,即使在第四示例性实施例中,也有可能获得与以上示例性实施例中的每个中的效果相同的效果。
特别地,根据第四示例性实施例,根据区域对应于并且显示多少相机的视场来分割监视域中的区域,使得有可能智能地向用户呈现要被监视的目标(例如,人物)的图像由更多的相机捕获。因而,用户能够容易地知晓更多的相机的视场重叠的范围。
进一步,如上所述,当向用户呈现其中包括视场中的该区域的相机的数目越高、布置在监视域中分割的区域中的三维物体(例如,球体)越大的透视图时,用户能够基于该三维物体的大小来容易地知晓有多少个相机捕获要被监视的目标的图像。
接着,将描述第四示例性实施例的修改示例。在第四示例性实施例中,在步骤S22中,显示控制单元42可以使得显示装置突出包括在指定数目的相机的视场中的区域。指定相机数目的方法不特别受限。例如,用户可以在视场显示系统40中输入相机的数目,并且显示控制单元42可以使得显示装置突出在用户指定数目的相机的视场中包括的区域。指定的相机的数目不限定于诸如为“1”的一个值,并且可以指定为“1或更多到总数(在该示例中,3)或更少”的范围。此后,如图23中图示的,作为示例,将描述其中呈现监视域的顶视图的情况。注意:作为示例,将描述在图23中的下面部分中图示的监视域h0
图24描绘了图示突出在指定数目的相机的视场中包括的区域的示例的解释性视图。图24图示了在监视域h0中突出的示例。
显示控制单元42使得显示装置显示如图23中图示的监视域h0至h2。进一步,用户指定“1或者更多到3或者更少”的范围作为相机的数目。这意味着从外部接收突出在一个、两个或者三个相机的视场中包括的区域的命令。响应于用户的对相机数目的指定,显示控制单元42突出通过组合如图24中图示的监视域h0中的对应于一个相机的视场的区域91、对应于两个相机的视场的区域92以及对应于三个相机的视场的区域93来获得的区域。在图24的示例中突出的区域95为通过组合监视域h0中的区域91至93来获得的区域。尽管已经将监视域h0描述为示例,但显示控制单元42在图23中图示的监视域h1和h2中同样地执行突出。在本修改示例中,有可能智能地向用户呈现在指定数目的相机的视场中包括的范围。
进一步,可以将仅仅“0”指定为相机的数目。图25描绘了图示将在该情况中突出的区域的示例的解释性视图。图25与图24类似地图示了在监视域h0中突出的示例。图25中图示的示例中突出的区域96为不包括在任何相机的视场中的范围。换而言之,区域96是为所有相机的死角的范围。显示控制单元42在图23中图示的监视域h1和h2中同样地执行突出。如图25中图示的,通过指定“0”作为相机的数目,用户能够容易地检查为所有相机的死角的范围。
进一步,当执行突出时,显示控制单元42优选地使得显示装置还显示其中障碍物12存在的范围。
此外,当使得显示装置显示其中每个监视域布置在三维空间中的透视图时,显示控制单元42可以在每个监视域中突出在指定数目的相机的视场中包括的区域。
再进一步,当突出在指定数目的相机的视场中包括的区域时,视场显示系统40可以计算覆盖率,该覆盖率为要被突出的区域(下面,称作“突出区域”)的面积与监视域的面积之比。该覆盖率的定语与第二示例性实施例中的覆盖率的定义、以及第三示例性实施例中的覆盖率的定义不同。尽管第四示例性实施例的修改示例中使用的覆盖率能够称作“突出的显示区域覆盖率”,但是为了易于描述,将该覆盖率简单地称作“覆盖率”。
图26描绘了图示第四示例性实施例中的其中计算覆盖率的情况中示例性配置的框图。与图18中图示的组件相同的组件将被分配与图18中的那些相同的附图标记,并且将不描述。
当显示控制单元42突出在指定数目的相机的视场中包括的区域时,覆盖率计算单元43计算覆盖率。进一步,显示控制单元42使得显示装置显示计算的覆盖率和要被突出的监视域。
覆盖率计算单元43可以按每个监视域来计算覆盖率,或者,可以计算多个监视域中的所有监视域的覆盖率。
将描述其中覆盖率计算单元43按每个监视域计算覆盖率的情况中的计算。当按每个监视域计算覆盖率时,覆盖率计算单元43按每个监视域通过计算以下等式(3)来计算覆盖率。
【数学式3】
例如,当计算图24中图示的监视域h0中的覆盖率时,覆盖率计算单元43计算突出的区域95(参见图24)的面积与监视域h0的面积之比作为覆盖率。覆盖率计算单元43同样地计算监视域h1的覆盖率和监视域h2的覆盖率。
在该情况中,显示控制单元42使得显示装置显示按每个监视域计算的覆盖率。例如,当使得显示装置突出监视域h0至h2中的每个中的区域时,显示控制单元42仅仅需要使得显示装置显示对应于监视域h0至h2中的每个的附近的覆盖率。
接着,将描述其中覆盖率计算单元43计算多个监视域中的所有监视域的覆盖率的情况中的计算。同时,确定n+1个监视域h0至hn。覆盖率计算单元43通过计算以下等式(4)来计算覆盖率。
【数学式4】
即,覆盖率计算单元43计算监视域h0至hn中的每个中的突出的区域的面积的总和与监视域h0至hn的面积的总和之比作为覆盖率。当例如确定三个监视域h0至h2时,覆盖率计算单元43计算:监视域h0中突出的区域的面积、监视域h1中突出的区域的面积、以及监视域h2中突出的区域的面积的总和。然后,覆盖率计算单元43计算这些突出的区域的面积的总和与监视域h0至h2的面积的总和之比作为覆盖率。
当覆盖率计算单元43根据等式(4)来计算覆盖率时,将计算的覆盖率的数目为1,与监视域的数目无关。显示控制单元42使得显示装置显示覆盖率。
进一步,在第四示例性实施例中,在步骤S22中,显示控制单元42可以接收用户的对相机的指定,并且使得显示装置突出纳入该相机的图像中的范围。例如,显示控制单元42使得显示装置显示如图23中图示的监视域h0至h2。进一步,当例如指定相机21时,显示控制单元42使得显示装置如图27中图示地突出纳入相机21的图像中的范围。在该情况中,有可能智能地向用户呈现纳入指定的相机的图像中的范围。注意:尽管图27突出了纳入相机21的图像中的范围,但突出可以由其它方法来执行。同时,尽管突出纳入指定的相机的图像中的范围已经描述为第四示例性实施例的修改示例,但是纳入指定的相机的图像中的范围还可以在以上示例性实施例中的每个中突出。
注意:尽管已经在以上示例性实施例的每个中作为示例描述了其中监视域的数目为三并且相机的数目为三的情况,但是监视域的数目和相机的数目不限于以上示例性实施例中描述的数目。
接着,将描述本发明的主要组件。图28描绘了根据本发明的主要组件的示例的框图。
投影单元5将由相机捕获的图像中的位置投影在通过平行移动要被监视的区域而获得的多个监视域上,该要被监视的区域限定针对相机的图像捕获状况要被检查的范围。监视域基于其图像由相机捕获的要被监视的目标的高度来确定。投影单元5将该多个监视域的视场指定为相机捕获其图像而不被障碍物遮蔽的范围。
整合单元6整合监视域中的视场。
显示控制单元7使得显示装置显示视场的整合结果。
根据这一配置,有可能智能地向用户呈现其中相机能够捕获监视的整个目标或者监视的目标的特定部分或更多部分的图像的范围。
图29描绘了图示根据本发明的主要组件的另一示例的框图。投影单元5与图28中图示的投影单元5相同,并且将不描述。
分割单元41基于每个监视域对应于多少相机的视场来分割每个监视域。
显示控制单元42使得显示装置显示每个监视域,使得根据支持在视场中包括在单独的监视域中被分割的区域的相机的数目的模式来显示该区域。
根据图29中图示的配置,有可能智能地向用户呈现其中相机能够捕获监视的整个目标或者监视的目标的特定部分或更多部分的图像的范围。
第五示例性实施例
图30图示了根据本发明的第五示例性实施例的视场显示系统的配置。根据第五示例性实施例的视场显示系统包括投影单元51和输出控制单元53。
投影单元51将由相机捕获的图像中的位置投影在基于其图像由相机捕获的要被监视的目标的高度而被确定的多个平面上,并且将该多个平面的视场指定为由相机捕获其图像的范围。
输出控制单元53立体地输出其视场已经被指定的平面。输出控制单元53能够称作“立体转换单元”。输出控制单元53例如通过全息图像的手段来在空间上立体地输出到其视场已经被指定的叠加平面。进一步,输出控制单元53可以使得3D打印机将其视场已经被指定的叠加平面输出为物体。
当输出控制单元53输出其视场已经被指定的平面时,投影单元51可以将由相机捕获的图像中的位置投影在精细地设置为监视空间的多个平面上,并且将该多个平面的视场指定为其图像能够由相机捕获的范围。
根据第五示例性实施例,输出控制单元53使得例如3D打印机打印每个精细地设置的平面,并且如同砖块一样叠加平面以用于输出,使得用户能够立体地检查内部。通过该方式,例如,众多人能够高效地研究相机布置。
进一步,根据本发明的视场显示系统可以如图31中图示地配置。图31中图示的视场显示系统包括投影单元55、分割单元56、以及输出控制单元57。
投影单元55与图30中图示的投影单元51相同。更具体而言,投影单元55将由相机捕获的图像中的位置投影在基于其图像由相机捕获的要被监视的目标的高度而被确定的多个平面上,并且将该多个平面的视场指定为其图像能够由相机捕获的范围。例如,投影单元55将视场指定为相机能够捕获其图像而不被障碍物遮蔽的范围。进一步,该平面通过平行移动要被监视的区域而被获得,该要被监视的区域限定针对相机的图像捕获状况的检查目标范围。
分割单元56基于每个平面对应于多少相机的视场来分割每个平面。
输出控制单元57输出每个平面,以根据支持在视场中包括单独的平面中被分割的区域的相机的数目的模式来显示该区域。
例如,输出控制单元57可以平面地叠加与在视场中包括分割的区域的相机的数目相匹配的透视图像,以通过全息图像来在空间上立体地显示。进一步,例如,输出控制单元57可以使得3D打印机输出通过平面地叠加与在视场中包括分割的区域的相机的数目相匹配的透视图像来获得的形状作为物体。
此外,根据本发明的视场显示系统可以如图32中图示地配置。图32中图示的视场显示系统包括投影单元65、整合单元66、以及显示控制单元67。投影单元65与图30中图示的投影单元51以及图31中图示的投影单元55相同。
整合单元66整合平面中的视场。该整合处理可以与以上描述的整合处理相同。
显示控制单元67使得显示装置显示视场的整合结果。
注意:尽管投影处理等在通过平行移动要被监视的区域而获得的监视域上执行,经历本发明的处理的目标不限于监视域。更具体而言,投影单元51可以将由相机捕获的图像中的位置投影在其图像能够由相机捕获的空间上的多个虚拟平面上。在该情况中,该多个虚拟平面不一定要平行于要被监视的区域。图33图示了其中三个虚拟平面的中央的虚拟平面不平行于要被监视的区域的示例。如图33中图示的虚拟平面上的投影同样包括在本发明中。
尽管以上示例性实施例的一部分或全部能够描述为如在以下附记中的,但示例性实施例绝不限于下面的附记。
(附记1)一种视场显示系统,包括:投影装置,该投影装置被配置为将由相机捕获的图像中的位置投影在通过平行移动要被监视的区域而获得的多个监视域上以及将多个监视域的视场指定为相机捕获其图像而不被障碍物遮蔽的范围,该要被监视的区域限定针对相机的图像捕获状况要被检查的范围,该监视域基于其图像由相机捕获的要被监视的目标的高度而被确定;整合装置,该整合装置被配置为整合监视域中的视场;以及显示控制装置,该显示控制装置被配置为使得显示装置显示视场的整合结果。
(附记2)根据附记1的视场显示系统,其中整合装置按每个相机提取对应于每个监视域的视场的区域作为视场的整合结果,并且显示控制装置使得显示装置按每个相机显示提取的区域。
(附记3)根据附记1的视场显示系统,其中整合装置包括视场率计算装置,视场率计算装置被配置为按每个相机执行按在要被监视的区域中的障碍物存在的范围之外的每个位置来计算视场率的处理,视场率为其位置属于视场的监视域的数目与监视域的总数之比,并且显示控制装置使得显示装置按每个相机根据支持视场率的模式来显示对应于要被监视的区域中的每个视场率的区域。
(附记4)根据附记3的视场显示系统,其中整合装置包括覆盖率计算装置,覆盖率计算装置被配置为按每个相机计算覆盖率,覆盖率为计算的视场率的总和与在要被监视的区域中其视场率已经被计算的位置的数目之比,并且显示控制装置使得显示装置显示每个相机的覆盖率。
(附记5)根据附记3或4的视场显示系统,其中显示控制装置使得显示装置突出对应于落入指定的数值范围内的视场率的区域。
(附记6)根据附记1的视场显示系统,其中整合装置包括:视场率计算装置,视场率计算装置被配置为按每个相机执行按在要被监视的区域中的障碍物存在的范围之外的每个位置来计算视场率的处理,视场率为其位置属于视场的监视域的数目与监视域的总数之比;以及平均视场率计算装置,平均视场率计算装置被配置为按在要被监视的区域中的障碍物存在的范围之外的每个位置计算平均视场率,平均视场率为针对位置按每个相机计算的视场率之中的预定最高排位顺序的视场率的平均值,并且显示控制装置使得显示装置根据支持平均视场率的模式来显示对应于要被监视的区域中的每个平均视场率的区域。
(附记7)根据附记6的视场显示系统,其中整合装置包括覆盖率计算装置,覆盖率计算装置被配置为计算覆盖率,覆盖率为计算的平均视场率的总和与在要被监视的区域中其视场率已经被计算的位置的数目之比,并且显示控制装置使得显示装置显示覆盖率。
(附记8)根据附记6或7的视场显示系统,其中显示控制装置使得显示装置突出对应于落入指定数值范围内的平均视场率的区域。
(附记9)一种视场显示系统,包括:投影装置,该投影装置被配置为将由相机捕获的图像中的位置投影在通过平行移动要被监视的区域而获得的多个监视域上以及将多个监视域的视场指定为相机捕获其图像而不被障碍物遮蔽的范围,该要被监视的区域限定针对相机的图像捕获状况要被检查的范围,该监视域基于其图像由相机捕获的要被监视的目标的高度而被确定;分割装置,该分割装置被配置为基于每个监视域对应于多少相机的视场来分割每个监视域;以及显示控制装置,该显示控制装置被配置为使得显示装置显示每个监视域以根据支持在视场中包括在单独的监视域中被分割的区域的相机的数目的模式来显示区域。
(附记10)根据附记9的视场显示系统,其中显示控制装置使得显示装置将每个监视域布置并显示为顶视图。
(附记11)根据附记9的视场显示系统,其中显示控制装置使得显示装置显示其中每个监视域被布置在三维空间中的透视图。
(附记12)根据附记9或11的视场显示系统,其中显示控制装置使得显示装置显示透视图,在透视图中每个监视域被布置在三维空间中,并且在视场中包括在监视域中被分割的区域的相机的数目越高,则被布置在区域中的三维物体越大。
(附记13)根据附记9至12中任一项的视场显示系统,其中显示控制装置使得显示装置突出被包括在指定数目的相机的视场中的区域。
(附记14)根据附记13的视场显示系统,进一步包括:覆盖率计算装置,覆盖率计算装置被配置为计算覆盖率,覆盖率为突出的区域的面积与监视域的面积之比,其中显示控制装置使得显示装置显示覆盖率。
(附记15)根据附记14的视场显示系统,其中覆盖率计算装置按每个监视域计算覆盖率,并且显示控制装置使得显示装置显示每个监视域的覆盖率。
(附记16)根据附记14的视场显示系统,其中覆盖率计算装置计算在监视域中突出的区域的面积的总和与监视域的面积的总和之比作为覆盖率,并且显示控制装置使得显示装置显示覆盖率。
(附记17)一种视场显示系统,包括:投影装置,该投影装置被配置为将由相机捕获的图像中的位置投影在基于其图像由相机捕获的要被监视的目标的高度而被确定的多个平面上,并且将该多个平面的视场指定为由相机捕获其图像的范围;整合装置,该整合装置被配置为整合平面中的视场;以及显示控制装置,该显示控制装置被配置为使得显示装置显示视场的整合结果。
(附记18)根据附记17的视场显示系统,其中平面通过平行移动要被监视的区域而被获得,该要被监视的区域限定针对相机的图像捕获状况要被检查的范围。
(附记19)根据附记17或18的视场显示系统,其中投影装置将视场指定为相机捕获其图像而不被障碍物遮蔽的范围。
(附记20)一种视场显示系统,包括:投影装置,该投影装置被配置为将由相机捕获的图像中的位置投影在基于其图像由相机捕获的要被监视的目标的高度而被确定的多个平面上,并且将该多个平面的视场指定为由相机捕获其图像的范围;以及输出控制装置,该输出控制装置被配置为立体地输出其视场已经被指定的平面。
(附记21)根据附记20的视场显示系统,其中输出控制装置在空间上立体地显示其视场被指定的叠加平面。
(附记22)根据附记20的视场显示系统,其中输出控制装置使得3D打印机将其视场被指定的叠加平面输出为物体。
(附记23)一种视场显示系统,包括:投影装置,该投影装置被配置为将由相机捕获的图像中的位置投影在基于其图像由相机捕获的要被监视的目标的高度而被确定的多个平面上,并且将该多个平面的视场指定为由相机捕获其图像的范围;分割装置,该分割装置被配置为基于每个平面对应于多少相机的视场来分割每个平面;以及输出控制装置,该输出控制装置被配置为输出每个平面,以根据支持在视场中包括在单独的平面中被分割的区域的相机的数目的模式来显示该区域。
(附记24)根据附记23的视场显示系统,其中平面通过平行移动要被监视的区域而被获得,该要被监视的区域限定针对相机的图像捕获状况要被检查的范围。
(附记25)根据附记23或24的视场显示系统,其中投影装置将视场指定为相机捕获其图像而不被障碍物遮蔽的范围。
(附记26)根据附记23至25中任一项的视场显示系统,其中输出控制装置在空间上平面地叠加并且立体地显示其数目对应于在视场中包括被分割的区域的相机的数目的透视图像。
(附记27)根据附记23至25中任一项的视场显示系统,其中输出控制装置使得3D打印机输出通过平面地叠加其数目对应于在视场中包括的被分割的区域的相机的数目的透视图像而被获得的形状作为物体。
本申请案基于并且要求来自2012年12月6日提交的日本专利申请号2012-267552的优先权,通过引用将其整体内容并入于此。
尽管以上已经参照示例性实施例描述了本发明,但本发明绝不限于以上示例性实施例。本发明的配置以及细节在那些本领域技术人员能够理解的本发明的范围内能够是各种各样地改变的。
工业实用性
本发明适于应用于指定能够良好地捕获要被监视的目标的图像的相机的视场并且显示该视场的视场显示系统。
附图标记列表
5 投影单元
6、6a、6b 整合单元
7、42 显示控制单元
41 分割单元
61 视场率计算单元
62 平均视场率计算单元
43、63a、63b 覆盖率计算单元

Claims (18)

1.一种视场显示系统,包括:
投影单元,所述投影单元被配置为将由相机捕获的图像中的位置投影在通过平行移动要被监视的区域而获得的多个监视域上,以及将所述多个监视域的视场指定为所述相机捕获其图像而不被障碍物遮蔽的范围,所述要被监视的区域限定针对所述相机的图像捕获状况要被检查的范围,所述监视域基于要被监视的目标的高度而确定,所述目标的图像由所述相机捕获;
整合单元,所述整合单元被配置为整合所述监视域中的所述视场;以及
显示控制单元,所述显示控制单元被配置为使得显示装置显示所述视场的整合结果。
2.根据权利要求1所述的视场显示系统,其中
所述整合单元按每个相机提取对应于每个监视域的视场的区域作为所述视场的所述整合结果,并且
所述显示控制单元使得所述显示装置按每个相机显示提取的所述区域。
3.根据权利要求1所述的视场显示系统,其中
所述整合单元包括视场率计算单元,所述视场率计算单元被配置为按每个相机执行按在所述要被监视的区域中的所述障碍物存在的范围之外的每个位置来计算视场率的处理,所述视场率为其位置属于所述视场的监视域的数目与监视域的总数之比,并且
所述显示控制单元使得所述显示装置按每个相机根据支持所述视场率的模式来显示对应于所述要被监视的区域中的每个视场率的区域。
4.根据权利要求3所述的视场显示系统,其中
所述整合单元包括覆盖率计算单元,所述覆盖率计算单元被配置为按每个相机计算覆盖率,所述覆盖率为计算的视场率的总和与在所述要被监视的区域中其视场率已经被计算的位置的数目之比,并且
所述显示控制单元使得所述显示装置显示每个相机的所述覆盖率。
5.根据权利要求3所述的视场显示系统,其中所述显示控制单元使得所述显示装置突出对应于落入指定的数值范围内的视场率的区域。
6.根据权利要求1所述的视场显示系统,其中
所述整合单元包括:
视场率计算单元,所述视场率计算单元被配置为按每个相机执行按在所述要被监视的区域中的所述障碍物存在的范围之外的每个位置来计算视场率的处理,所述视场率为其位置属于所述视场的监视域的数目与监视域的总数之比;以及
平均视场率计算单元,所述平均视场率计算单元被配置为按在所述要被监视的区域中的所述障碍物存在的范围之外的每个位置计算平均视场率,所述平均视场率为针对所述位置按每个相机计算的视场率之中的预定最高排位顺序的视场率的平均值,并且
所述显示控制单元使得所述显示装置根据支持所述平均视场率的模式来显示对应于所述要被监视的区域中的每个平均视场率的区域。
7.根据权利要求6所述的视场显示系统,其中
所述整合单元包括覆盖率计算单元,所述覆盖率计算单元被配置为计算覆盖率,所述覆盖率为计算的平均视场率的总和与在所述要被监视的区域中其视场率已经被计算的位置的数目之比,并且
所述显示控制单元使得所述显示装置显示所述覆盖率。
8.根据权利要求6所述的视场显示系统,其中所述显示控制单元使得所述显示装置突出对应于落入指定数值范围内的平均视场率的区域。
9.一种视场显示系统,包括:
投影单元,所述投影单元被配置为将由相机捕获的图像中的位置投影在通过平行移动要被监视的区域而获得的多个监视域上,以及将所述多个监视域的视场指定为所述相机捕获其图像而不被障碍物遮蔽的范围,所述要被监视的区域限定针对所述相机的图像捕获状况要被检查的范围,所述监视域基于要被监视的目标的高度而确定,所述目标的图像由所述相机捕获;
分割单元,所述分割单元被配置为基于每个监视域对应于多少相机的视场来分割每个监视域;以及
显示控制单元,所述显示控制单元被配置为使得所述显示装置显示每个监视域,以根据支持在所述视场中包括在单独的监视域中被分割的区域的相机的数目的模式来显示所述区域。
10.根据权利要求9所述的视场显示系统,其中所述显示控制单元使得所述显示装置将每个监视域布置并显示为顶视图。
11.根据权利要求9所述的视场显示系统,其中所述显示控制单元使得所述显示装置显示其中每个监视域被布置在三维空间中的透视图。
12.根据权利要求9所述的视场显示系统,其中所述显示控制单元使得所述显示装置显示透视图,在所述透视图中每个监视域被布置在三维空间中,并且在所述视场中包括在所述监视域中被分割的所述区域的相机的数目越高,则被布置在所述区域中的三维物体越大。
13.根据权利要求9所述的视场显示系统,其中所述显示控制单元使得所述显示装置突出被包括在指定数目的相机的视场中的区域。
14.根据权利要求13所述的视场显示系统,进一步包括:
覆盖率计算单元,所述覆盖率计算单元被配置为计算覆盖率,所述覆盖率为突出的所述区域的面积与监视域的面积之比,
其中所述显示控制单元使得所述显示装置显示所述覆盖率。
15.根据权利要求14所述的视场显示系统,其中
所述覆盖率计算单元按每个监视域计算所述覆盖率,并且
所述显示控制单元使得所述显示装置显示每个监视域的所述覆盖率。
16.根据权利要求14所述的视场显示系统,其中
所述覆盖率计算单元计算在所述监视域中突出的区域的面积的总和与所述监视域的面积的总和之比作为所述覆盖率,并且
所述显示控制单元使得所述显示装置显示所述覆盖率。
17.一种视场显示方法,包括:
将由相机捕获的图像中的位置投影在通过平行移动要被监视的区域而获得的多个监视域上,并且将所述多个监视域的视场指定为所述相机捕获其图像而不被障碍物遮蔽的范围,所述要被监视的区域限定针对所述相机的图像捕获状况要被检查的范围,所述监视域基于要被监视的目标的高度而确定,所述目标的图像由所述相机捕获;
整合所述监视域中的所述视场;以及
使得显示装置显示所述视场的整合结果。
18.一种视场显示方法,包括:
将由相机捕获的图像中的位置投影在通过平行移动要被监视的区域而获得的多个监视域上,并且将所述多个监视域的视场指定为所述相机捕获其图像而不被障碍物遮蔽的范围,所述要被监视的区域限定针对所述相机的图像捕获状况要被检查的范围,所述监视域基于要被监视的目标的高度而确定,所述目标的图像由所述相机捕获;
基于每个监视域对应于多少相机的视场来分割每个监视域;以及
使得所述显示装置显示每个监视域,以根据支持在所述视场中包括在单独的监视域中被分割的区域的相机的数目的模式来显示所述区域。
CN201380052604.4A 2012-12-06 2013-11-29 视场显示系统、视场显示方法及视场显示程序 Active CN104704817B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012-267552 2012-12-06
JP2012267552 2012-12-06
PCT/JP2013/007024 WO2014087620A1 (ja) 2012-12-06 2013-11-29 視界表示システム、視界表示方法および視界表示プログラム

Publications (2)

Publication Number Publication Date
CN104704817A CN104704817A (zh) 2015-06-10
CN104704817B true CN104704817B (zh) 2017-12-26

Family

ID=50883062

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380052604.4A Active CN104704817B (zh) 2012-12-06 2013-11-29 视场显示系统、视场显示方法及视场显示程序

Country Status (8)

Country Link
US (1) US9807310B2 (zh)
JP (1) JP6265131B2 (zh)
CN (1) CN104704817B (zh)
AR (1) AR093654A1 (zh)
HK (1) HK1208980A1 (zh)
IN (1) IN2015DN01648A (zh)
TW (1) TWI551137B (zh)
WO (1) WO2014087620A1 (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102282456B1 (ko) * 2014-12-05 2021-07-28 한화테크윈 주식회사 평면도에 히트맵을 표시하는 장치 및 방법
JP6705102B2 (ja) * 2014-12-25 2020-06-03 三菱電機株式会社 撮像装置の設置支援装置、撮像装置の設置支援方法および映像記録再生装置
CN105806320B (zh) * 2014-12-29 2020-04-21 同方威视技术股份有限公司 拍摄测量系统以及拍摄测量方法
JP6812203B2 (ja) * 2016-11-02 2021-01-13 キヤノン株式会社 情報処理システム、情報処理方法、携帯投影端末
US11288733B2 (en) * 2018-11-14 2022-03-29 Mastercard International Incorporated Interactive 3D image projection systems and methods
JP7285101B2 (ja) * 2019-03-26 2023-06-01 セコム株式会社 設置支援装置及び設置支援プログラム
JP7332363B2 (ja) * 2019-07-08 2023-08-23 セコム株式会社 カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム
CN110536126A (zh) * 2019-08-22 2019-12-03 上海晋泷科技有限公司 摄像头可视域的判断方法、装置、电子设备与存储介质
JP2021002889A (ja) * 2020-10-09 2021-01-07 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101321271A (zh) * 2007-06-08 2008-12-10 佳能株式会社 信息处理设备和信息处理方法
CN101635838A (zh) * 2008-07-24 2010-01-27 索尼株式会社 图像处理系统、成像装置、图像处理方法和计算机程序

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997017797A2 (en) 1995-10-25 1997-05-15 Sarnoff Corporation Apparatus and method for quadtree based variable block size motion estimation
TWI346831B (en) * 2006-05-12 2011-08-11 Seereal Technologies Gmbh Projection device and method for holographic reconstructions of scenes
JP2008146113A (ja) * 2006-12-06 2008-06-26 Oki Electric Ind Co Ltd 建物用cadシステム
AU2007354731A1 (en) * 2007-06-08 2008-12-11 Tele Atlas B.V. Method of and apparatus for producing a multi-viewpoint panorama
TWI352253B (en) * 2007-07-24 2011-11-11 Delta Electronics Inc Projection apparatus
TWI353179B (en) * 2007-09-21 2011-11-21 Hon Hai Prec Ind Co Ltd Wireless projector and projecting method of the sa
JP4989417B2 (ja) 2007-10-26 2012-08-01 キヤノン株式会社 画像表示システム、画像表示装置及びその制御方法、コンピュータプログラム
JP4975673B2 (ja) 2008-03-28 2012-07-11 ティーオーエー株式会社 カメラ設置シミュレータプログラム
TW201001125A (en) * 2008-06-18 2010-01-01 Micro Star Int Co Ltd Computer with projection device
JP5099451B2 (ja) * 2008-12-01 2012-12-19 アイシン精機株式会社 車両周辺確認装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101321271A (zh) * 2007-06-08 2008-12-10 佳能株式会社 信息处理设备和信息处理方法
CN101635838A (zh) * 2008-07-24 2010-01-27 索尼株式会社 图像处理系统、成像装置、图像处理方法和计算机程序

Also Published As

Publication number Publication date
US9807310B2 (en) 2017-10-31
CN104704817A (zh) 2015-06-10
HK1208980A1 (zh) 2016-03-18
IN2015DN01648A (zh) 2015-07-03
WO2014087620A1 (ja) 2014-06-12
AR093654A1 (es) 2015-06-17
TW201429239A (zh) 2014-07-16
TWI551137B (zh) 2016-09-21
JP6265131B2 (ja) 2018-01-24
US20150304568A1 (en) 2015-10-22
JPWO2014087620A1 (ja) 2017-01-05

Similar Documents

Publication Publication Date Title
CN104704817B (zh) 视场显示系统、视场显示方法及视场显示程序
US7522186B2 (en) Method and apparatus for providing immersive surveillance
KR101467663B1 (ko) 영상 모니터링 시스템에서 영상 제공 방법 및 시스템
US9196091B2 (en) Image processing method and system
JP6310149B2 (ja) 画像生成装置、画像生成システム及び画像生成方法
KR101871764B1 (ko) 가상현실 기반의 시설관리 플랫폼 구축 시스템
CN110400352A (zh) 利用特征识别的摄像机校准
CN101604458A (zh) 用于显示预先绘制的计算机辅助诊断结果的方法
JP2007080262A (ja) 3次元マルチカメラビデオナビゲーション支援システム、3次元マルチカメラビデオナビゲーション支援方法、3次元マルチカメラビデオナビゲーション支援プログラム
JP6812128B2 (ja) 情報処理装置および情報処理方法
CN102915557B (zh) 图像处理系统、终端装置以及方法
WO2014182898A1 (en) User interface for effective video surveillance
JP5854951B2 (ja) パノラマ画像生成装置
CN107742318A (zh) 商品实时三维成像方法及基于实时三维展示的交易系统
CN110324572A (zh) 监视系统、监视方法和非暂时性计算机可读存储介质
CN111464795B (zh) 监控设备配置的实现方法、装置及电子设备
CN115170742A (zh) 人员分布展示方法、系统及显示终端
JP6817736B2 (ja) 情報共有支援システム、情報共有支援方法、及びプログラム
JP6826829B2 (ja) 情報共有支援システム、情報共有支援方法、及びプログラム
DE102018118422A1 (de) Verfahren und system zur darstellung von daten von einer videokamera
GB2601612A (en) Display device for a video surveillance system, video surveillance system and method
Chen et al. A 3-D surveillance system using multiple integrated cameras
Chen et al. Integration of multiple views for a 3-d indoor surveillance system
Golparvar-Fard et al. Remote assessment of pre-and post-disaster critical physical infrastructures using mobile workstation chariot and D4AR models
JP2024154608A (ja) 現場画像表示装置および現場画像表示方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1208980

Country of ref document: HK

GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: GR

Ref document number: 1208980

Country of ref document: HK