CN102685394A - 利用虚拟环境的传感器布置和分析 - Google Patents

利用虚拟环境的传感器布置和分析 Download PDF

Info

Publication number
CN102685394A
CN102685394A CN2012100765517A CN201210076551A CN102685394A CN 102685394 A CN102685394 A CN 102685394A CN 2012100765517 A CN2012100765517 A CN 2012100765517A CN 201210076551 A CN201210076551 A CN 201210076551A CN 102685394 A CN102685394 A CN 102685394A
Authority
CN
China
Prior art keywords
virtual
sensor
orientation
zone
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012100765517A
Other languages
English (en)
Other versions
CN102685394B (zh
Inventor
H·白
陈恩义
J·G·杜
T·普罗彻尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell International Inc
Original Assignee
Honeywell International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell International Inc filed Critical Honeywell International Inc
Publication of CN102685394A publication Critical patent/CN102685394A/zh
Application granted granted Critical
Publication of CN102685394B publication Critical patent/CN102685394B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/1968Interfaces for setting up or customising the system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/18Prevention or correction of operating errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

一种采用虚拟环境进行传感器布置和分析的方法,包括将区域模型、表示虚拟传感器布置的模型中的位置、虚拟传感器的方位接收到计算机处理器中。根据虚拟传感器的位置和方位生成区域的阴影图。使用阴影图确定虚拟传感器能够检测的区域的一个或多个部分。确定根据虚拟传感器的位置和方位覆盖的模型的区域。将与根据虚拟传感器的位置和方位覆盖的模型的区域有关的信息发送到输出设备。

Description

利用虚拟环境的传感器布置和分析
技术领域
本发明涉及利用虚拟环境的传感器布置和分析。
背景技术
视频监视已作为大量应用的安全工具多年,并由于技术的新突破,安全相机比之前更有效。重要基础设施,银行,零售商店和无数其他终端用户依赖于视频监视提供的保护。在视频监视领域,相机布置变得越来越复杂和昂贵。传统上,二维楼层平面图或基于地位级图的自动相机布置方法已在某种程度上解决了该问题。通过评估二维平面图上的相机覆盖区域可简化该问题。然而,这仅提供了一种大略方案,因为这些方法忽略了要监控的区域中设施的海拔或高度。例如,这种方法很难区别半墙(例如小卧室或书桌)或整墙的遮挡,因此,在监视系统安装前,使该大略方案可视化并对其进行评估从而给出精确方案以满足视频监视的要求是很有帮助的,特别是对重要基础设施。
在二维楼层平面图被广泛使用的同时,建筑的三维几何模型目前也可利用(例如,BIM模型)。采用三维模型,就可能采用几何技术根据相机的平截头体(frustum)计算表面目标(例如地板,墙,或圆柱)上的覆盖区域。通常地,三维方法将三维多边形作为覆盖区域输出并随后高亮这些多边形以可视化覆盖区域。该方法可考虑3D环境中的遮挡效应和相机的海拔高度。然而遮挡区的计算是非常精深的。此外,为相机布置提供交互操作是很困难的,例如相机的外在参数(位置,方位)和内在参数(视场,聚焦长度)的实时调整。
附图说明
图1A和1B示出了阴影映射技术。
图2A和2B是示出了确定虚拟相机覆盖面积的处理的流程图。
图3示出了虚拟相机的遮挡效应显示。
图4示出了虚拟相机所有可能的覆盖区域。
图5示出了虚拟相机的覆盖区和分辨率约束。
图6示出了虚拟相机的覆盖区和分辨率。
图7A和7B示出了采用构件实现虚拟相机的摇摄和倾斜操作。
图8A和8B示出了虚拟相机的变焦。
图9示出了虚拟相机的监视区。
图10示出了虚拟相机的监视区和覆盖区。
图11A和11B是利用虚拟环境确定传感器布置的示例处理的流程图。
图12示出了本申请的一个或多个实施例执行所依据的计算机处理器系统。
具体实施方式
在一个实施例中,一种对相机布置方案精确可视化并评估的方法,不仅避免由二维化方法引起的不准确,又避免了三维几何计算引起的响应慢的问题。该方法不仅提供用于调整相机参数的相机覆盖的实时交互可视化,还提供相机布置方案性能的精确评估。另外,该方法不仅提供相机布置的直观显示,还提供相机布置性能的定量分析。
在一个实施例中,建筑、设施或其他区域的三维模型,以及传感器参数,连同阴影映射技术一起使用,以将传感器可检测的区域部分可视化。本申请关注于视频传感设备的使用,但是也可使用其他传感器例如雷达或毫米波(MMW)传感器。此处公开的实施例有多个方面。第一,采用阴影映射技术(或相关技术),可将三维环境中的区域覆盖实时可视化。用户可定制覆盖区域或交叠区域的纹理(texture)。用户还可以直接操控覆盖区域的三维显示中的虚拟相机。第二,可为可摇摄,倾斜和变焦的视频传感设备计算并显示所有可能的三维覆盖区域。同样,可计算并显示所选的保真度约束(例如,对一平方英尺区域要求至少50×50像素)。第三,可计算并显示覆盖区域不同位置的分辨率,并且分辨率可显示为密度图,彩色图,或等高线图。第四,用户可在三维图中定义监视区域,以及对视频传感设备的性能定量分析,例如覆盖百分比,交叠区域,和视频传感设备不能覆盖的区域。该信息可高亮以提醒用户改进视频传感设备的布置。第五,二维或三维图像被输出到输出设备,这样用户可察看并研究该输出,并随后确定建筑或设施中放置视频传感设备的位置从而以最小成本得到最大覆盖。
阴影映射技术广泛应用于实时渲染以提供高保真度阴影效果。在一个实施例中,阴影映射技术用于数据可视化中以实时显示相机覆盖区域。阴影映射被称为二传技术。在第一传,从第一位置渲染场景,该第一位置通常称为光源位置(没有光和颜色),并将每个像素的深度存入阴影图。在第二传,从第二位置渲染场景,该第二位置通常称为目视位置,采用投影纹理技术从光源位置将该阴影图投影到场景上。场景中的每个像素接收相对光源位置的深度值。在每个像素,所接收的深度值与片段相对光源的距离相比较。如果后者大,则该像素不是最接近光源的像素,它不能被光源照到。
图1A和1B示出了阴影映射和相关的深度比较的二传技术。在图1A中,点P在阴影中因为P的深度(ZB)大于阴影图中记录的深度(ZA)。作为对比,在图1B中,点P可被照到因为P的深度(ZB)等于阴影图中的深度(ZA)
图2A和2B示出了实施例的二传阴影映射技术的应用。为了将预定纹理投影到场景以示出视频传感设备的覆盖效果,投影覆盖纹理到场景的处理添加到阴影映射中,阴影映射的光源定义为相机。参见图2A,在210,场景由从相机视点渲染,在220,将深度值存入阴影图中。在图2B的第二阶段,在230,场景从眼的视点渲染,在240阴影图和覆盖纹理从相机点投影。随后,在250,对第二阶段中渲染的每个像素,如果像素能够从光源位置被照到(在该应用中它意味着该像素可从相机看到),该像素将混合覆盖纹理的颜色,该覆盖纹理是基于相机的投影变换从相机位置投影的(260)。否则,该像素将留下初始颜色。
图3示出了由一个实施例确定的遮挡效应的示例。遮挡效应的显示提供反馈给用户从而用户可评估视频传感设备的位置或方位是否合适。阴影映射技术可处理遮挡效应的问题。特别地,传统的阴影映射效果渲染不能从给定光源点接收光的具有较深颜色的区域。然而,在一个实施例中,使用预定纹理给从相机可见的区域(310)渲染纹理,替代的,遮挡的区域(320)保持初始颜色。这为用户提供了遮挡效应的清楚显示。
一实施例为所有覆盖可能提供可摇摄,倾斜和变焦(PTZ)的视频传感设备。再一次地,采用PTZ视频传感设备,特定位置的视频传感设备的可能覆盖区与光源在该位置可照到的区域相同。一实施例可计算和显示场景中视频传感设备的覆盖区。这在图4中示出。区域410指示覆盖区域,区域420指示不能由这个位置和方位的视频传感设备覆盖的区域。视频传感设备的可能覆盖对用户是重要的反馈,它可示出特定定位和方位的视频传感设备是否可覆盖预期的区域。如果不能,用户可虚拟重新定位视频传感设备以确定不同的定位和方位是否将覆盖预期的或要求的区域。
还可考虑并显示覆盖区域中的保真度约束。通常地,监视系统中视频传感设备获取的数据具有保真度约束。如果图像太模糊不能识别则视频数据是没用的。识别视频质量的一个关键参数是数据的分辨率。分辨率可由下式计算:
Figure BSA00000688815700041
通常,像素数和图像宽度是固定的,因此,分辨率主要是视频传感设备焦距和视频传感设备与观察点之间的距离的函数。一般地,定义最小分辨率以保证视频数据的特定质量。为了示出满足分辨率要求的覆盖区,将覆盖区分为两个不同部分。如图5所示,区域510指可从视频传感设备的透视图看到但不能满足分辨率要求的区域。区域520指可由视频传感设备以适合的分辨率获取数据的区域。
在一些情况下,仅采用具有分辨率约束的区域的显示来优化相机布置方案对用户来说是不够的,因为他们想要得到更多信息来评估相机布置。为此,可采用彩色图来得到分辨率分布的更直观的可视化效果。如图6所示,投影到覆盖区域的梯度色彩效果表示在所观察区域和相机之间的距离的分辨率梯度变化。例如,区域620将用暖色(例如红色)来显示,这意味着显示的区域620具有高分辨率并能满足分辨率约束。另外,区域610采用冷色(例如蓝色)显示,这意味着显示的区域610可能具有低分辨率,并且它不能满足保真度要求。区域630示出了中间分辨率的区域。因此,用户应布置相机使得覆盖区域用暖色渲染,从而指示可接受的保真度。
在一个实施例中,可采用构件(widget),连同修改虚拟视频传感设备的参数。构件可提高修改相机布置配置的用户的效率。这在三维环境中为用户提供直观感觉。
摇摄和倾斜操作基于旋转操作。因此,可采用双环构件为用户提供便利的操作方法。用户可点击环并拖拽环如同用户在现实中旋转环一样。虚拟相机将通过根据环的姿态(attitude)旋转进行响应。该特征在图7A和7B中示出为环构件710和720。变焦操作改变相机深度域(field)的值。为了实现变焦特征,如图8A和8B所示出的,采用可沿虚拟视频传感设备的方向拖拽的平面810,并且该平面与相机之间的距离表示深度域。如图8A和8B所示。
可为保真度约束考虑多个参数。在相机布置配置后,系统可输出配置文件,配置文件包括相机的位置、摇摄、倾斜、变焦和所选的类型。这些参数可用于安装相机和配置监视系统。实施例还可输出具有虚拟相机的位置和方向的二维楼层平面图。这为相机的安装提供向导。
一个或多个实施例评估一个或多个虚拟视频传感设备的覆盖百分比。在之前的方法中,监视区域可通过在二维楼层平面图上绘制多边形或刷特殊颜色来设置。这是很方便的,但这种方法需要二维楼层平面图的详细信息,这些信息通常对于三维建筑模型是不可用的。同样,用于监视的高度信息并不包括在二维模型中。在目前的实施例中,用户可在三维场景中直接绘制监视区域。例如,可采用具有彩色边的多边形来指示所期望的监视区域。如图9中所示出的由多边形周界920圈出的所期望监视区域910的轮廓。图10示出了可通过四个视频传感设备1020的定位得到的覆盖区域1010。
实施例进一步计算了与所要求监视区域相比的覆盖范围。因此,当虚拟相机布置完成时,场景的透视图可变成用户设置监视区域时的透视图。随后可显示相机的覆盖区域。
覆盖范围可由下式计算:
其中“覆盖区”表示如图10中定位的虚拟相机覆盖的区域的面积1010,“监视区,表示图10中显示的监视区域的面积(即1010和1020的整体面积)。覆盖百分比对相机布置是很重要的,可引导用户修改相机参数以满足监视的要求,并可用于评估相机布置的质量。还可计算覆盖区域的交叠率。交叠区域指的是由多于一个的相机覆盖的区域。为了得到最优化的方案,交叠的范围应该最小化。“总覆盖区”定义为∑(每个相机覆盖∩监视区)。因此“交叠”可用下式表示:
Figure BSA00000688815700052
图11A和11B是采用虚拟环境确定传感器布置的示例处理1100的流程图。图11A和11B包括多个处理块1105-1180。虽然在图11A和11B的示例中按顺序排列,其他示例可重新排列这些块,省略一个或多个块,和/或采用多处理器或由两个或多个虚拟机器或子处理器组成的单个处理器并行执行两个或多个块。此外,还有其他示例可将块作为一个或多个具体的互连的硬件或集成电路模块来执行,模块之间并通过模块通信相关控制和数据信号。因此,任何处理流程都可应用于软件,固件,硬件和混合执行。
参见图11A和11B,在1105,区域模型、表示虚拟传感器的布置的模型中的位置、虚拟传感器的方位接收进计算机处理器中。在1110,根据虚拟传感器的位置和方位生成区域的阴影图。在1115,采用阴影图确定虚拟传感器可检测到的区域的一个或多个部分。在1120,根据虚拟传感器位置和方位确定所覆盖的模型区域。在1125,将与根据虚拟传感器位置和方位所覆盖的模型区域相关的信息发送到输出设备。
在1130,将与虚拟传感器所表示的传感器相关的信息发送到输出设备。该信息包括一个或多个传感器类型、传感器定位、传感器方位、和传感器成本。在1135,将区域的二维或三维图示发送到输出设备。该图示包括关于虚拟传感器的位置的信息。在1140,在输出设备上显示模型区域。模型区域的显示指示可由虚拟传感器检测到的区域的一个或多个部分和不能由虚拟传感器检测到的区域的一个部分。在1145,虚拟传感器可检测到的区域的分辨率根据虚拟传感器的位置及方位和虚拟传感器的参数确定。在1150,虚拟传感器表示视频传感设备,分辨率根据水平方向视场中像素的数量、视频传感设备的焦距、图像的宽度、从视频传感设备到视场中的点的距离确定。
在1152,所覆盖的模型区域根据一个或多个新位置、新方位、新参数确定,将与根据新位置、新方位、新参数所覆盖的区域相关的信息发送到输出设备。在1154,在输出设备上用一个或多个彩色图、密度图、和等高线图显示模型区域,这些图指示虚拟传感器检测的区域的分辨率。在一个实施例中,分辨率的不同等级可设定基准,用户可从这些不同等级的分辨率中选择。在1156,在输出设备上生成能够沿虚拟传感器检测的区域移动的平面,采用该平面来表示深度域,并重新计算分辨率。
在1160,生成构件并显示在输出设备上。构件与控制设备相关联以允许用户改变虚拟传感器的方位。在1162,绘制子区域的轮廓,并计算由虚拟传感器覆盖的子区域的百分比。在1164,虚拟传感器表示视频传感设备,改变视频传感设备的摇摄、倾斜和变焦中的一个或多个,从而建立视频传感设备的新视场,并计算由新视场覆盖的区域。在1166,在表示多个虚拟传感器的多种布置的模型中选择多个位置,并确定多个虚拟传感器的覆盖区域、多个虚拟传感器的一个或多个交叠区域、和没有被多个虚拟传感器的任一个覆盖的一个或多个区域其中之一或其中多个。在1168,根据与依据虚拟传感器的位置和方位覆盖的模型区域相关的信息在由模型表示的区域中安装一个或多个传感器。在1170,模型包括三维几何模型,在1175,模型包括一个或多个ISO/PAS 16739(工业基础分类)和OmniClassTM。在1180,传感器包括一个或多个视频传感设备,雷达,和毫米波(MMW)传感器。
图12是本发明实施例实行时可结合的硬件和操作环境的概览图。图12的描述意欲对本发明执行时结合的合适的计算机硬件和合适的计算环境提供一种简短、整体的描述。在一些实施例中,本发明采用由计算机(例如个人计算机)执行的计算机可执行指令(例如程序模块)的基本语境来描述。通常地,程序模块包括完成特定任务或执行特定概要数据类型的例程、程序、目标、组件、数据结构等。
此外,本领域技术人员将理解本发明可采用其他计算机系统配置来实行,包括手持设备,多处理器系统,基于微处理器或可编程的消费电子,网络PCS,小型计算机,大型计算机等类似的。本发明还可应用于分布式计算机环境,其中采用通过通信网络链接的I/O远程处理设备来执行任务。在分布式计算环境中,程序模块可定位在本地和远程存储设备中。
在图12示出的实施例中,提供可应用于其他图中示出的任一服务器和/或远程客户端的硬件和操作环境。
如图12所示,硬件和操作环境的一个实施例包括计算机20(例如个人计算机,工作站,或服务器)形式的通用计算设备,其包括一个或多个处理单元21,系统存储器22,和能够操作来将包括系统存储器22的各种系统组件耦合到处理单元21的系统总线23。可仅有一个或可有多于一个的处理单元21,这样计算机20的处理器包括单个的中央处理单元(CPU),或多个处理单元,通常称为多处理器或并行处理器环境。多处理器系统可包括云计算环境。在各个实施例中,计算机20是传统的计算机,分布式计算机,或其他任何类型的计算机。
系统总线23可以是总线结构多种类型中的任一种,所述总线结构包括采用各种总线架构中任意一种的存储器总线或存储器控制器、外围总线、和本地总线。系统存储器也可简单称为存储器,在一些实施例中,包括只读存储器(ROM)24和随机存取存储器(RAM)25。基本输入/输出系统(BIOS)程序26可存储在ROM24中,基本输入/输出系统(BIOS)程序26包含帮助在计算机20内元件之间传输信息(例如在启动期间)的基本例程。计算机20进一步包括对硬盘(未示出)进行读写的硬盘驱动器27,对可移动磁盘29进行读写的磁盘驱动器28,和对可移动光盘31(例如CD ROM或其他光学介质)进行读写的光盘驱动器30。
硬盘驱动器27、磁盘驱动器28、和光盘驱动器30分别与硬盘驱动器接口32、磁盘驱动器接口33、和光盘驱动器接口34耦合。驱动器和它们的相关联的计算机可读介质为计算机20提供计算机可读指令、数据结构、程序模块和其他数据的非易失性存储。本领域技术人员应理解的是可存储数据的能由计算机访问的任何类型的计算机可读介质,例如磁盒(magnetic cassette),闪存卡,数字视频盘,柏努利卡式磁带(Bernoulli cartridge),随机存取存储器(RAM),只读存储器(ROM),独立盘的冗余阵列(例如RAID存储设备)及类似的,可用于示例的操作环境中。
多个程序模块可存储在硬盘、磁盘29、光盘31、ROM24、或RAM25上,包括操作系统35,一个或多个应用程序36,其他程序模块37,和程序数据38。包含用于本发明的安全传输机的插头(plug)可驻留在这些计算机可读介质中的任一个或多个上。
用户可通过输入设备(例如键盘40和指针设备42)在计算机20内输入命令和信息。其他输入设备(未示出)可包括麦克风,操纵杆,游戏垫,卫星天线,扫描仪及类似的。这些其他输入设备通常通过耦合到系统总线23的串行端口接口46连接到处理单元21,但可通过其他接口(例如并行端口,游戏端口或通用串行总线(USB))连接。监控器47或其他类型的显示设备也可通过接口,例如视频适配器48来连接到系统总线23。监控器40可为用户显示图形用户界面。除监控器40外,计算机典型的还包括其他外围输出设备(未示出),例如扬声器和打印机。
计算机20可采用到一个或多个远程计算机或服务器(例如远程计算机49)的逻辑连接在网络环境中操作。这些逻辑连接由通信设备实现,所述通信设备耦合到计算机20或是计算机20的一部分,本发明并不限定特定类型的通信设备。远程计算机49可以是另一计算机,服务器,路由器,网络PC,客户端,对等设备或其他通用网络节点,典型地包括上述相对于计算机20的I/O的元件的多个或所有,虽然仅示出了存储器设备50。图12中示出的逻辑连接包括局域网(LAN)51和/或广域网(WAN)52。该网络环境在办公室网络,企业计算机网络,内联网和互联网等所有类型的网络中都是常见的。
当在LAN网络环境中应用时,计算机20通过网络接口或适配器53(通信设备的一种)连接到LAN51。在一些实施例中,当在WAN网络环境中应用时,典型地计算机20包括调制解调器54(另一种类型的通信设备)或其他任何类型的通信设备,例如,无线收发器,来通过广域网52(例如互联网)进行通信。调制解调器54,其可以是内部的或外部的,通过串行端口接口46连接到系统总线23。在网络环境中,相对于计算机20,描述的程序模块可存储在远程计算机,或服务器49的远程存储器设备50中。应理解的是示出的网络连接是示例性的,可采用其他形式的在计算机之间建立通信链路的通信设备,包括混合混合光纤-同轴电缆连接,T1-T3线,DSL’s,OC-3和/或OC-12,TCP/IP,微波,无线应用协议,和任何其它通过适合的开关、路由器、插座和电力线的电子媒介,其为本领域技术人员所公知和理解。
应理解的是存在实现本发明及其各个方面的其它变化和修改,例如对于本领域技术人员是很显而易见的,并且本发明不限于此处描述的特定实施例。上述的特征和实施例可以不同的组合方式彼此合并。因此可预见到覆盖所有落入本发明范围的修改,组合或等价物。
因此,已描述了传感器布置和分析的示例系统和方法。虽然已描述了特定示例实施例,但显然可对这些实施例作出各种修改和变化而不脱离本发明主要的精神和范围。相应地,说明书和附图视为说明性地而不是限制性的意义。附图通过图示示出一部分,但不限制,在特定实施例中应用本发明的主题。以足够的细节描述实施例使得本领域技术人员可实践此处公开的教导。可利用其它实施例并从中推导并作出结构和逻辑上的替代和变化而不超出本申请的范围。因此,详述并不是限制的意义,各个实施例的范围仅由附属权利要求以及这些权利要求设定的等价物的整个范围定义。
此处为方便起见,创造性主题的这些实施例可分别和/或共同称为术语“发明”,如果实际公开了超过一个实施例,其并不意欲自发将本申请的范围限定到任何单一发明或创造性概念。因此,尽管此处示出和描述了特定实施例,应理解的是计算来达到同样目标的任何配置都可由示出的特定实施例替代。本申请意欲覆盖各个实施例的任何和所有修改或变化。上述实施例的组合,和其它此处没特别描述的实施例,在本领域技术人员回顾上述描述后都是显而易见的。
提供摘要以遵守37 C.F.R.§1.72(b)的规定并使读者快速确定技术内容的本质和要旨。应理解的是它并不用于解释或限制权利要求的范围或含义。
在前述的实施例中,为了使本申请简单化,在单一实施例中将各个特征聚集在一起。本申请的方法不是来解释和表达根据权利要求的实施例比每个权利要求所明确陈述的具有更多的特征。反之,如下述权利要求所表达的,创造性主题存在于少于单个所公开实施例的所有特征中。因此下述权利要求据此合并入具体实施方式中,每个权利要求作为单独的示例实施例存在。

Claims (10)

1.一种方法,包括:
将区域模型接收到计算机处理器中;(1105)
将表示虚拟传感器布置的模型中的位置接收到计算机处理器中;(1105)
将虚拟传感器的方位接收到计算机处理器中;(1105)
用计算机处理器根据虚拟传感器的位置和方位生成区域的阴影图;(1110)
使用阴影图确定能够由虚拟传感器检测的区域的一个或多个部分;(1115)
用计算机处理器确定根据虚拟传感器的位置和方位覆盖的模型的区域;(1120)以及
将与根据虚拟传感器的位置和方位覆盖的模型的区域有关的信息发送到输出设备(1125)。
2.根据权利要求1的方法,包括将与虚拟传感器表示的传感器有关的信息发送到输出设备,该信息包括传感器类型、传感器定位、传感器方位和传感器成本中的一个或多个(1130)。
3.根据权利要求1的方法,包括用计算机处理器根据虚拟传感器的位置和方位以及虚拟传感器参数确定能够由虚拟传感器检测的区域的分辨率(1145)。
4.根据权利要求3的方法,其中虚拟传感器表示视频传感设备,其中分辨率根据水平方向视场中像素的数量、视频传感设备的焦距、图像的宽度、从视频传感设备到视场中的点的距离确定(1150)。
5.根据权利要求1的方法,包括用计算机处理器生成构件并将构件显示在输出设备上,构件与控制设备相关联以允许用户改变虚拟传感器的方位(1160)。
6.根据权利要求1的方法,包括
使用计算机处理器选择表示多个虚拟传感器的多种布置的模型中的多个位置;和(1166)
使用计算机处理器确定多个虚拟传感器的覆盖百分比、多个虚拟传感器的一个或多个交叠区域和没有被多个虚拟传感器中的任一个覆盖的一个或多个区域其中之一或其中多个(1166)。
7.根据权利要求1的方法,包括根据与依据虚拟传感器的位置和方位覆盖的模型区域相关的信息在由模型表示的区域中安装一个或多个传感器(1168)。
8.一种非易失性计算机可读介质,包括指令,当计算机处理器执行该指令时执行包括下述的方法:
将区域模型接收到计算机处理器中;(1105)
将表示虚拟传感器布置的模型中的位置接收到计算机处理器中;(1105)
将虚拟传感器的方位接收到计算机处理器中;(1105)
用计算机处理器根据虚拟传感器的位置和方位生成区域的阴影图;(1110)
使用阴影图确定能够由虚拟传感器检测的区域的一个或多个部分;(1115)
用计算机处理器确定根据虚拟传感器的位置和方位覆盖的模型的区域;(1120)以及
将与根据虚拟传感器的位置和方位覆盖的模型的区域有关的信息发送到输出设备(1125)。
9.根据权利要求8的计算机可读介质,包括用于下述的指令:
选择表示多个虚拟传感器的多种布置的模型中的多个位置;和(1166)
确定多个虚拟传感器的覆盖百分比、多个虚拟传感器的一个或多个交叠区域和没有被多个虚拟传感器中的任一个覆盖的一个或多个区域其中之一或其中多个(1166)。
10.一种系统,包括:
一个或多个计算机处理器,配置为:
将区域模型接收到计算机处理器中;(1105)
将表示虚拟传感器布置的模型中的位置接收到计算机处理器中;(1105)
将虚拟传感器的方位接收到计算机处理器中;(1105)
用计算机处理器根据虚拟传感器的位置和方位生成区域的阴影图;(1110)
使用阴影图确定能够由虚拟传感器检测的区域的一个或多个部分;(1115)
用计算机处理器确定根据虚拟传感器的位置和方位覆盖的模型的区域;(1120)以及
将与根据虚拟传感器的位置和方位覆盖的模型的区域有关的信息发送到输出设备(1125)。
CN201210076551.7A 2011-01-31 2012-01-30 利用虚拟环境的传感器布置和分析 Active CN102685394B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/017,969 2011-01-31
US13/017,969 US8830230B2 (en) 2011-01-31 2011-01-31 Sensor placement and analysis using a virtual environment
US13/017969 2011-01-31

Publications (2)

Publication Number Publication Date
CN102685394A true CN102685394A (zh) 2012-09-19
CN102685394B CN102685394B (zh) 2017-05-31

Family

ID=45571379

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210076551.7A Active CN102685394B (zh) 2011-01-31 2012-01-30 利用虚拟环境的传感器布置和分析

Country Status (3)

Country Link
US (2) US8830230B2 (zh)
EP (1) EP2482260A3 (zh)
CN (1) CN102685394B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI559130B (zh) * 2015-02-17 2016-11-21 神達電腦股份有限公司 數據處理系統、數據處理方法以及電力管理系統
CN107229329A (zh) * 2016-03-24 2017-10-03 福特全球技术公司 用于具有深度地面实况注释的虚拟传感器数据生成的方法和系统
CN107784151A (zh) * 2016-08-26 2018-03-09 福特全球技术公司 雷达和超声传感器的物理建模
CN110892793A (zh) * 2017-07-18 2020-03-17 昕诺飞控股有限公司 传感器控制设备
CN111902849A (zh) * 2018-04-09 2020-11-06 昕诺飞控股有限公司 在图像上叠加传感器及其检测区域的虚拟表示
CN111937051A (zh) * 2018-06-15 2020-11-13 谷歌有限责任公司 使用增强现实可视化的智能家居设备放置和安装
CN113824882A (zh) * 2021-09-27 2021-12-21 杭州海康威视数字技术股份有限公司 一种相机的参数确定方法、装置、电子设备及程序产品
WO2022118064A1 (en) * 2020-12-06 2022-06-09 Chain Technology Development Co., Ltd. System and method of optimal cameras placement and configuration using sparse voxel octree

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8452052B2 (en) * 2008-01-21 2013-05-28 The Boeing Company Modeling motion capture volumes with distance fields
US8830230B2 (en) 2011-01-31 2014-09-09 Honeywell International Inc. Sensor placement and analysis using a virtual environment
US8934017B2 (en) 2011-06-01 2015-01-13 Honeywell International Inc. System and method for automatic camera placement
CN103959340A (zh) * 2011-12-07 2014-07-30 英特尔公司 用于自动立体三维显示器的图形呈现技术
JP6222951B2 (ja) * 2013-03-15 2017-11-01 オリンパス株式会社 撮像装置、撮像システム及び撮像方法
EP2835792B1 (en) 2013-08-07 2016-10-05 Axis AB Method and system for selecting position and orientation for a monitoring camera
US9684370B2 (en) 2014-05-07 2017-06-20 Microsoft Technology Licensing, Llc Reducing camera interference using image analysis
US9646413B2 (en) 2014-08-27 2017-05-09 Robert Bosch Gmbh System and method for remote shadow rendering in a 3D virtual environment
US9460517B2 (en) 2014-10-22 2016-10-04 Pointivo, Inc Photogrammetric methods and devices related thereto
CN105608730A (zh) * 2014-10-28 2016-05-25 富泰华工业(深圳)有限公司 点云画笔选取系统及方法
US20160343140A1 (en) * 2015-05-24 2016-11-24 Pointivo, Inc. Surveying and measurement methods and devices
US10373343B1 (en) * 2015-05-28 2019-08-06 Certainteed Corporation System for visualization of a building material
IL239524A0 (en) * 2015-06-18 2015-11-30 Eran Jedwab System and method for deploying sensor-based surveillance systems
US9733973B2 (en) 2015-09-16 2017-08-15 Cisco Technology, Inc. Automatically determining sensor location in a virtualized computing environment
US10069918B2 (en) * 2015-11-11 2018-09-04 Ut-Battelle, Llc Global communication and control
US10318819B2 (en) 2016-01-05 2019-06-11 The Mitre Corporation Camera surveillance planning and tracking system
US10140872B2 (en) 2016-01-05 2018-11-27 The Mitre Corporation Camera surveillance planning and tracking system
KR102371409B1 (ko) 2016-01-08 2022-03-07 삼성전자주식회사 센서 관리 방법 및 장치
CN107274476B (zh) * 2017-08-16 2020-12-18 城市生活(北京)资讯有限公司 一种阴影图的生成方法及装置
CN108280887B (zh) * 2018-02-11 2021-11-05 鲸彩在线科技(大连)有限公司 一种阴影图确定方法及装置
US11734477B2 (en) * 2018-03-08 2023-08-22 Concurrent Technologies Corporation Location-based VR topological extrusion apparatus
CA3093875A1 (en) 2018-03-27 2019-10-03 Hitachi America, Ltd. 3d device simulator visualizer platform as a service
US11195324B1 (en) 2018-08-14 2021-12-07 Certainteed Llc Systems and methods for visualization of building structures
US11403437B2 (en) 2020-03-25 2022-08-02 Ford Global Technologies, Llc Method and system for determining sensor placement for a workspace
US20220083776A1 (en) * 2020-09-11 2022-03-17 Schlage Lock Company Llc Technologies for leveraging machine learning for customized installation of access control hardware
US11354994B1 (en) 2021-05-04 2022-06-07 Motorola Solutions, Inc. Analytics for planning an upgrade to a video camera surveillance system
US11842455B1 (en) 2022-06-20 2023-12-12 International Business Machines Corporation Synchronizing physical and virtual environments using quantum entanglement

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1343343A (zh) * 1999-03-08 2002-04-03 索尼计算机娱乐公司 处理图像的方法和设备
US20040105573A1 (en) * 2002-10-15 2004-06-03 Ulrich Neumann Augmented virtual environments
US20040174376A1 (en) * 2003-03-03 2004-09-09 Deering Michael F. Support of multi-layer transparency
CN1912950A (zh) * 2006-08-25 2007-02-14 浙江工业大学 基于全方位视觉传感器的违章车辆监控装置
US20070236485A1 (en) * 2006-03-31 2007-10-11 Microsoft Corporation Object Illumination in a Virtual Environment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6097394A (en) * 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
US6417861B1 (en) * 1999-02-17 2002-07-09 Sun Microsystems, Inc. Graphics system with programmable sample positions
US7259778B2 (en) * 2003-07-01 2007-08-21 L-3 Communications Corporation Method and apparatus for placing sensors using 3D models
US8090160B2 (en) * 2007-10-12 2012-01-03 The University Of Houston System Automated method for human face modeling and relighting with application to face recognition
US8830230B2 (en) 2011-01-31 2014-09-09 Honeywell International Inc. Sensor placement and analysis using a virtual environment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1343343A (zh) * 1999-03-08 2002-04-03 索尼计算机娱乐公司 处理图像的方法和设备
US20040105573A1 (en) * 2002-10-15 2004-06-03 Ulrich Neumann Augmented virtual environments
US20040174376A1 (en) * 2003-03-03 2004-09-09 Deering Michael F. Support of multi-layer transparency
US20070236485A1 (en) * 2006-03-31 2007-10-11 Microsoft Corporation Object Illumination in a Virtual Environment
CN1912950A (zh) * 2006-08-25 2007-02-14 浙江工业大学 基于全方位视觉传感器的违章车辆监控装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI559130B (zh) * 2015-02-17 2016-11-21 神達電腦股份有限公司 數據處理系統、數據處理方法以及電力管理系統
CN107229329A (zh) * 2016-03-24 2017-10-03 福特全球技术公司 用于具有深度地面实况注释的虚拟传感器数据生成的方法和系统
CN107784151A (zh) * 2016-08-26 2018-03-09 福特全球技术公司 雷达和超声传感器的物理建模
CN107784151B (zh) * 2016-08-26 2023-06-30 福特全球技术公司 雷达和超声传感器的物理建模
CN110892793A (zh) * 2017-07-18 2020-03-17 昕诺飞控股有限公司 传感器控制设备
CN110892793B (zh) * 2017-07-18 2022-06-14 昕诺飞控股有限公司 传感器控制设备
CN111902849A (zh) * 2018-04-09 2020-11-06 昕诺飞控股有限公司 在图像上叠加传感器及其检测区域的虚拟表示
CN111937051A (zh) * 2018-06-15 2020-11-13 谷歌有限责任公司 使用增强现实可视化的智能家居设备放置和安装
US11593999B2 (en) 2018-06-15 2023-02-28 Google Llc Smart-home device placement and installation using augmented-reality visualizations
WO2022118064A1 (en) * 2020-12-06 2022-06-09 Chain Technology Development Co., Ltd. System and method of optimal cameras placement and configuration using sparse voxel octree
CN113824882A (zh) * 2021-09-27 2021-12-21 杭州海康威视数字技术股份有限公司 一种相机的参数确定方法、装置、电子设备及程序产品
WO2023045726A1 (zh) * 2021-09-27 2023-03-30 杭州海康威视数字技术股份有限公司 一种相机的参数确定方法、装置、电子设备及程序产品

Also Published As

Publication number Publication date
US20120197600A1 (en) 2012-08-02
US9019273B2 (en) 2015-04-28
US20140313202A1 (en) 2014-10-23
CN102685394B (zh) 2017-05-31
US8830230B2 (en) 2014-09-09
EP2482260A3 (en) 2016-09-14
EP2482260A2 (en) 2012-08-01

Similar Documents

Publication Publication Date Title
CN102685394A (zh) 利用虚拟环境的传感器布置和分析
US20230113831A1 (en) Monitoring construction of a structure
US11551410B2 (en) Multi-modal method for interacting with 3D models
US20180075652A1 (en) Server and method for producing virtual reality image about object
CN109564690A (zh) 使用多向相机评估封闭空间的尺寸
CN111176224A (zh) 使用数字孪生的工业安全监视配置
CN111492403A (zh) 用于生成高清晰度地图的激光雷达到相机校准
US20140192159A1 (en) Camera registration and video integration in 3d geometry model
US11043038B1 (en) Apparatus and method of three-dimensional interaction for augmented reality remote assistance
US10297079B2 (en) Systems and methods for providing a combined visualizable representation for evaluating a target object
EP3330928A1 (en) Image generation device, image generation system, and image generation method
JP5016443B2 (ja) カメラ設置シミュレータプログラム
US10565786B1 (en) Sensor placement interface
Komatsu et al. Free viewpoint image generation system using fisheye cameras and a laser rangefinder for indoor robot teleoperation
JP5461782B2 (ja) カメラ映像シミュレータプログラム
JP2020135764A (ja) 立体物のモデリング方法、立体物のモデリング装置、サーバ、3次元モデル作成システム、およびプログラム
US20180025479A1 (en) Systems and methods for aligning measurement data to reference data
US11748964B2 (en) Method for determining at least one region in at least one input model for at least one element to be placed
US11189107B2 (en) 3D device simulator visualizer platform as a service
JP5120181B2 (ja) 画像処理装置およびプログラム
Garaas Sensor placement tool for rapid development of video sensor layouts.
JP2020135763A (ja) 立体物のモデリング方法、立体物のモデリング装置、サーバ、3次元モデル作成システム、プログラム
Tamminen Compact 3D camera scanner
Kawakami et al. Adding image information corresponding to the shape of the objects' surfaces on environmental maps
CA3196537A1 (en) Spatial blind spot monitoring systems and related methods of use

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant