CN103026395A - 混合交通传感器系统和相关的方法 - Google Patents
混合交通传感器系统和相关的方法 Download PDFInfo
- Publication number
- CN103026395A CN103026395A CN2011800319223A CN201180031922A CN103026395A CN 103026395 A CN103026395 A CN 103026395A CN 2011800319223 A CN2011800319223 A CN 2011800319223A CN 201180031922 A CN201180031922 A CN 201180031922A CN 103026395 A CN103026395 A CN 103026395A
- Authority
- CN
- China
- Prior art keywords
- sensor
- road
- traffic
- radar
- target generator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0116—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开一种交通传感系统(32,32’),用于传感在道路(30)处的交通,该系统包括具有第一视场(34-1)的第一传感器(40),具有第二视场(34-2)的第二传感器(42),以及控制器(56)。第一和第二视场在道路的一部分范围内的共同视场中至少部分地叠加,并且其中,所述第一传感器和第二传感器提供不同的传感模式。控制器被配置为选择来自第一和/或第二传感器的、用于共同视场的至少一部分的传感器数据流作为在道路处的操作条件的函数,以便提供道路检测。
Description
技术领域
本发明主要涉及交通传感器系统以及配置和操作交通传感器系统的方法。
背景技术
经常需要监控道路上交通并且启用智能交通系统控制。例如,交通监控允许增强控制交通信号、速度检测,事故(如车祸)和交通拥堵检测、车辆计数数据的收集、流量监控、以及许多其他的目标。
现有的交通检测系统可以以各种形式获得,利用各种不同的传感器来收集交通数据。已知感应回路系统利用安装在给定道路内的路面以下的传感器。然而,这些感应回路传感器的安装、更换和修复是相对昂贵的,因为相关道路工程需要访问位于路面下的传感器,更不用说与这种道路工程相关的封闭车道、交通混乱等。也可采用其他类型的传感器,如机器视觉视觉传感器和雷达传感器。这些不同类型的传感器各自具有其自身的特定的优点和缺点。
人们希望提供一种替代的交通传感系统。更具体地说,希望提供一种允许使用多个传感模式的交通传感系统,其被配置为使一种模式的长处可以帮助减轻或克服另一种模式的弱点。
发明内容
在一个方面中,根据本发明一种交通传感系统,用于传感在道路处的交通,该系统包括具有第一视场的第一传感器、具有第二视场的第二传感器、以及控制器。第一和第二视场在道路的一部分范围内的共同视场中至少部分地叠加,并且其中,所述第一传感器和第二传感器提供不同的传感模式。控制器被配置为选择来自第一和/或第二传感器的用于共同视场的至少一部分的传感器数据流作为在所述道路处的操作条件的函数,以便提供道路检测。
在另一个方面,根据本发明的一种标准化用于传感道路处的交通的交通传感器系统的叠加视场的方法,该方法包括:将第一合成目标产生器装置定位在道路上或道路附近,使用具有第一传感器坐标系统的第一传感器传感道路数据,使用具有第二传感器坐标系统的第二传感器传感道路数据,使用第一传感器检测第一合成目标产生器装置在第一传感器坐标系统中的位置,显示的第二传感器的传感器输出,在第二传感器坐标系统中选择第一合成目标产生器装置在显示器上的位置,作为第一合成目标产生器装置在第一和第二传感器坐标系统中的位置的函数关联第一和第二传感器坐标系统。第一和第二传感器的传感到的道路数据在第一道路区域中叠加,并且第一合成目标产生器定位在第一道路区域中。
考虑以下详细说明可以理解本发明的其它方面。
附图说明
图1是其中安装交通(traffic)传感系统的示例道路十字路口的俯视图。
图2是道路十字路口的示意性视图,示出用于多个传感器的叠加视场的一个实施例。
图3是的交通传感系统的混合传感器组件的实施例的透视图。
图4A是混合传感器组件和相关电路的一个实施例的示意性框图。
图4B是混合传感器组件的另一个实施例的示意性框图。
图5A是交通传感系统的一个实施例的示意性框图,具有独立的系统箱。
图5B是交通传感系统的另一个实施例的示意性框图,具有单个集成系统箱。
图6是交通传感系统的软件子系统的示意性框图。
图7是示出根据本发明的安装和标准化方法的流程图。
图8是道路十字路口的部分的正视图。
图9是标准化显示接口的视图的示例,用于建立多个传感器输入之间的坐标系统相关性,一个传感器是摄像机。
图10是用于使用机器视觉数据的示例建立交通车道的标准化显示的视图。
图11A是用于传感器方位检测和标准化的一种形式的一个标准化显示的视图。
图11B是用于传感器方位检测和标准化的另一种形式的另一个标准化显示的视图。
图11C是用于传感器方位检测和标准化的另一种形式的还另一个标准化显示的视图。
图12A-12E为车道边界估计图。
图13是用于建立检测区域的校准显示接口的视图。
图14是操作显示的视图,显示来自两个不同传感器模式的检测的示例比较。
图15是示出传感器模式选择的方法的实施例的流程图。
图16是示出基于预期白天情况的传感器选择的方法的实施例的流程图。
图17是示出基于预期夜间情况的传感器选择的方法的实施例的流程图。
虽然以上指明的附图阐述本发明的实施例,如在讨论中指出,也可以设想其它实施例。在所有情况下,被公开内容以代表性而不是限制性的方式提出本发明。应当理解的是,本领域技术人员可以设计出落入本发明的原理的范围和精神内的许多其他的修改和实施例。附图可以不按比例绘制,并且本发明的应用和实施例可以包括在附图中未具体示出的特征和部件。
具体实施方式
在一般情况下,本发明提供一种交通传感系统,其包括多个传感模式,以及用于标准化叠加传感器视场和操作交通传感系统的相关联的方法。该系统可以安装在道路处,如在道路交叉处,并且可以结合交通控制系统工作。交通传感系统可以结合雷达传感器、机器视觉传感器等。本发明提供一种混合传感系统,其包括不同类型的传感模式(即,不同类型的传感器),具有至少部分地叠加的视场,每一个视场都可以选择性地用于在特定情况下的交通传感。作为操作条件的函数,这些不同的传感模式可以切换。例如,机器视觉检测可以在晴朗的白天条件下使用,在夜间条件可以用雷达传感来代替。在各种实施方式中,对于给定传感器可以在整个视场上实现切换,或者代替地可以针对给定传感器的视场的一个或多个子部分实现切换(例如,提供切换用于视场区域内建立的一个或多个分立的检测器)。这样的传感器切换方法一般能够区别于数据融合。代替地,不同传感模式可以同时工作或如需要地结合某些情况。在给定交通传感系统中使用多个传感器提出许多挑战,如需要关联来自各种传感器的传感数据,使得使用任何传感模式的检测相对于真实世界的对象和在空间域中的地点一致。此外,传感器的切换需要适当的算法或规则来指导适当传感器选择作为给定操作条件的函数。在操作中,交通感测允许检测在给定视野中的对象,这允许交通信号控制、数据采集、警告和其他有用工作。本申请要求2010年11月15日申请的、名称为“Autoscope Hybrid Detection System”的美国临时专利申请序列号No.61/413,764的优先权,通过引用将其全部内容结合于此。
图1是其中安装交通传感系统32的示例性道路十字路口30(例如,控制信号十字路口)的俯视图。交通传感系统32包括由支撑结构36(例如,灯具悬臂、灯具、柱或其它合适结构)支撑的、成前视布置的混合传感器组件(或现场传感器组件)34。在图示的实施例中,传感器组件34安装在延伸跨过道路的至少一部分的灯具悬臂的中间部分中,并且沿相反方向(即,与相对于用于交通传感的感兴趣的道路的部分相反)布置。传感器组件34定位成远离道路的边缘(例如,从路边)距离D1和在道路上方高度H(例如,约5-11米)。传感器组件34具有相对于道路的方位角θ,和仰角(或倾斜)角度β。方位角θ和仰角(或倾斜)角度β可以相对于传感器组件34的每个传感器的视场(FOV)或光束的中心测量。关于道路十字路口30的特征,传感器组件34远离停止带(同义称为停止线)距离DS定位,该停止带用于希望被传感的交通38的引道(approach)的方向。停止带是一般指定的(例如,画线)或事实(即没有表示在路面上)位置,交通在该位置处沿道路十字路口30的引道38的方向38停止。引道38的方向具有宽度DR和1到n条交通车道,其在示出的实施例中包括分别具有宽度DL1、DL2、DL3、DL4的四条交通车道。在交通38的引道方向中感兴趣区域具有相对于传感器组件34超出停止带测量的深度DA。
应当指出,虽然图1特别地指明用于引道的单个方向的十字路口30和交通传感系统32的元件,典型应用将涉及多个传感器组件34,至少一个传感器组件34用于引道的每个方向,为此需要传感交通数据。例如,在传统的四路十字路口中,可以设置四个传感器组件34。T形、三路十字路口,可以设置三个传感器组件34。传感器组件34的准确数目可以根据需要变化,并且将频繁受到道路配置和所需的交通传感目标的影响。此外,本发明用于严格十字路口以外的应用。其它适合的应用包括在隧道、桥梁、收费站、访问控制设施、高速道路等处使用。
混合传感器组件34可以包括多个分立的传感器,其可以提供不同的传感模式。分立传感器的数目可以针对特定应用需要有所不同,也可以改变每个传感器的模式。机器视觉、雷达(例如,多普勒雷达)、激光雷达、声学和其它合适的类型的传感器都可以使用。
图2是道路十字路口30的示意图,示出用于混合传感器组件34的各自的分立传感器的三个叠加视场34-1、34-2和34-3的一个实施例。在图示的实施例中,第一视场34-1是比较大的,并且具有接近于零的方位角度θ1,第二视场34-2比第一视场34-1短(即,较浅的景深)和宽,但也具有接近于零的方位角θ2,而第三视场34-3比第二视场34-2短但宽,但是具有绝对值显著大于零的方位角。以这种方式,第一和第二视场34-1和34-2具有相当大的叠加,而第三视场34-3提供较少叠加,并且代替地包括额外的道路区域(例如,转弯区域)。应当指出,视场34-1、34-2和34-3可以基于用于相应传感器的传感模式的相关类型变化。此外,视场34-1、34-2和34-3的数量和方位可以因特定应用所需而变化。例如,在一个实施例中,可以只提供第一和第二视场34-1和34-2,并且省略第三视场34-3。
图3是交通传感系统32的混合传感器组件34的实施例的透视图。第一传感器40可以是雷达(例如,多普勒雷达),第二传感器42可以是机器视觉装置(例如,电荷耦合器件)。第一传感器40可以位于第二传感器下方,两个传感器40和42大致面对相同方向。硬件应该有符合国家电气制造商协会(NEMA)的环保要求的结实的机械设计。在一个实施例中,第一传感器40可以是通用中等范围分辨率(UMRR)雷达,第二传感器42可以是能够记录由一系列图像画面(frame)构成的视频流中的图像的可见光相机。支撑机构44通常将第一和第二传感器40和42支撑在支撑结构36上,同时允许传感器调整(例如,调整摇摄/偏航、倾斜/仰角等)。支撑机构的调整允许同时调整第一和第二传感器40和42两者的位置。这样的同时调整有利于其中第一和第二传感器40和42的方位角θ1和θ2基本上是相同的安装和设置。例如,其中第一传感器40是雷达,由于传感器之间的机械关系,简单地通过沿着保护罩46的手动对准的第二传感器42的视场的方位可以用来简化雷达的对准。在一些实施例中,第一和第二传感器40和42也可以允许相对于彼此调整(例如,转动等)。独立传感器可能是可取的,其中第一和第二传感器40和42的调整方位角θ1和θ2被期望是显著不同的。可以设置保护盖46以帮助保护和屏蔽第一和第二传感器40和42免受环境条件,如太阳、雨、雪和冰。第一传感器40的倾斜可以被约束到给定范围内,以尽量减少从较低背罩突起和视场被组件34的其它部分阻挡。
图4A是混合传感器组件34和相关的电路的实施例的示意性框图。在图示的实施例中,第一传感器40是雷达(例如,多普勒雷达),并且包括一个或多个天线50,以及模数(A/D)转换器52,和数字信号处理器(DSP)54。来自天线50的输出被发送到A/D转换器52,A/D转换器52发送数字信号到DSP 54。DSP54与处理器(CPU)56通信,处理器56被连接到输入/输出(I/O)机构58,以允许第一传感器40与外部组件通信。I/O机构可以是用于硬接线连接的端口,并且替换地(或另外)可以被设置用于无线通信。
此外,在图示的实施例中,第二传感器42是机器视觉装置并且包括视觉传感器(例如,CCD或CMOS阵列)60,A/D转换器62以及DSP 64。来自视觉传感器60的输出被发送到A/D转换器62,A/D转换器62发送数字信号到DSP 64。DSP 64与处理器(CPU)56通信,处理器56又连接到I/O机构58。
图4B是混合传感器组件34的另一个实施例的示意性框图。如图4B所示,在A/D转换器52和62、DSP 54和64以及CPU 56都集成到与传感器40和42相同的物理单元中,在图4A的实施例相反,在图4A的实施例中,A/D转换器52和62、DSP 54和64和CPU 56可以定位远离在单独外壳中的混合传感器组件34。
内部传感器算法可以与那些已知交通传感器相同或类似,进行任何所需额外修改,如可以使用下面进一步描述的混合检测模块(HDM)实现的排队检测和转弯运动检测算法。
应当指出,在图4中图示的实施例仅通过示例而不是限制的方式显示。在进一步的实施例中,可以利用其它类型的传感器,如激光雷达等。此外,可以使用两个以上的传感器,如用于特定应用所需的。
在典型安装中,混合传感器组件34可操作地连接到附加组件,如一个或多个控制器或接口箱和交通控制器(例如,交通信号系统)。图5A是交通传感系统32的一个实施例的示意性框图,交通传感系统32包括四个混合传感器组件34A-34D、总线72、混合接口配电箱74和混合交通检测系统箱76。总线72可操作地连接到每一个混合传感器组件34A-34D的,并且允许电力、视频和数据的传输。混合接口配电箱74也连接到总线72。在示出的实施例中,变焦控制器箱78和显示器80连接到混合接口配电箱74。变焦控制器箱78允许控制混合传感器组件34A-34D的机器视觉传感器的变焦。显示器80允许观看视频输出(例如,模拟视频输出)。电源82进一步连接到混合接口配电箱74,并且终端84(例如,膝上型计算机)可以与混合接口配电箱74连接。混合接口配电箱74可以接受110/220V交流电力,并且提供24V直流电力到传感器组件34A-34D。混合接口配电箱74的主要功能是传递电力到混合传感器组件34A-34D和管理混合传感器组件34A-34D与诸如混合交通检测系统76的其他组件之间的通信。混合接口配电箱74可以包括适当的电路、处理器、计算机可读存储器等以完成这些任务并且运行应用软件。终端84允许操作者或技术人员访问和连接混合接口配电箱74和混合传感器组件34A-34D以执行设置、配置、调整、维护、监测和其他类似的任务。可以将诸如来自华盛顿州雷德蒙市的微软公司的WINDOWS之类的合适的操作系统用于终端84。终端84可以定位在道路十字路口30,或者可以远离道路30定位,并且通过合适的连接(如通过以太网、专用网络或其它合适的通信链路)连接到混合接口配电箱74。在示出的实施例中,混合交通检测系统箱76进一步连接到交通控制器86,如交通信号的系统可以用来控制十字路口30处的交通。混合检测系统箱76可以包括适当的电路、处理器、计算机可读存储器等以运行应用软件,这在下面进一步讨论。在一些实施例中,混合检测系统框76包括一个或多个可热插拔电路卡,每个卡提供用于给定的一个混合传感器组件34A-34D的处理支持。在进一步的实施例中,交通控制器86可以被省略。诸如雨/湿度传感器之类的一个或多个额外的传感器87可以被任选地提供,或者在其他实施例中可以省略。应当指出的是,图5A的图示实施例仅通过示例的方式显示。替代的实现是可能的,如具有其它总线集成或没有特别地显示的额外组件。例如,可以设置能够访问诸如天气信息等的第三方数据的互联网连接。
图5B是交通传感系统32’的另一个实施例的示意性框图。在图5B中显示的系统32’的实施例与在图5A中显示的系统32大致相似;但是,系统32’包括提供混合接口配电箱74和混合交通检测系统箱76两者的功能的集成控制系统箱88。集成控制系统框88可以定位或接近混合传感器34,在地面上只有很少接口电路来检测到交通控制器86的检测信号。将多个控制箱集成在一起可以方便安装。
图6是交通传感系统32或32’的软件子系统的示意框图。对于每n个混合传感器组件,设置混合检测模块(HDM)90-1到90-n,其包括混合检测状态机(HDSM)92、雷达子系统94、视频子系统96和状态块98。一般情况下,每个HDM 90-1到90-n相关、同步和评估来自第一和第二传感器40和42的检测结果,但是还包含决定逻辑电路,以在两个传感器40和42(和子系统94和96)提供冲突评定时辨别在场景中(例如,十字路口30)正在发生什么事情。除了某些主-从功能,每个HDM 90-1至90-n一般彼此独立地操作,从而提供可扩展的、模块化的系统。HDMS 90-1至90-n的混合检测状态机92进一步可以将来自雷达和视频子系统94和96的检测输出结合在一起。HDMS 90-1至90-n可以将来自雷达子系统94的数据添加在来自视频子系统96的视频叠加上,其可以被数字地传输到终端84或被模拟显示在显示器80上用于查看。虽然相对于雷达和视频/相机(机器视觉)传感器描述图示实施例,应当理解,在替代的实施例中,可以使用其他类型的传感器。系统32或32’的软件还包括通信服务器(comserver)100,其管理每个HDMS90-1至90-n和混合图形用户接口(GUI)102、配置向导104和检测器编辑器106之间的通信。一旦配置,HDM 90-1到90-n软件可以独立于GUI 102软件运行,并且结合来自GUI 102、雷达子系统94、视频子系统96以及HDSM 92的通信。可以在设置在系统32的混合交通检测系统箱76或系统32’的集成控制系统箱88的各自硬件卡上实现HDM 90-1至90-n软件。
雷达和视频子系统94和96处理和控制传感器数据的收集,并且传送输出到HDSM 92。根据使用检测器编辑器106创建的并被保存为检测器文件的用户的检测器配置,视频子系统96(利用适当的处理器或其他硬件)可以分析视频或其他图像数据以提供一组检测器输出。这个检测器文件然后被执行以处理输入视频和生成输出数据,输出数据然后被转移到相关的HDM90-1至90-n,用于处理和最终检测选择。一些检测器,如排队大小检测器和转弯动作的检测,可能需要额外的传感器信息(例如,雷达数据),并且因此可以实现在HDM 90-1至90-n中,在HDM 90-1至90-n中中这样的额外数据是可用的。
雷达子系统94可以将数据以对象列表的形式提供给关联的HDMS 90-1至90-n,对象列表提供传感/跟踪的所有对象(车辆、行人等)的速度、位置和大小。通常情况下,雷达没有能力配置和运行机器视觉式检测器,因而检测器逻辑通常必须在HDMS 90-1到90-n中实施。在HDMS 90-1到90-n中的基于雷达的检测逻辑可以传感/跟踪对象标准化到与诸如机器视觉装置的其他传感器相同的空间坐标系统。系统32或32’可以使用标准化对象数据,以及从机器视觉(或其他的)检测器文件获得的检测器边界,以产生类似于机器视觉系统提供的内容的检测器输出。
状态块98提供相对于交通控制器86的状态的显示和输出,例如表示给定交通信号是否是“绿色”、“红色”等等。
混合GUI 102允许操作者与系统32或32’进行交互,并且提供计算机接口,如用于传感器标准化、检测域设置以及数据传输和集合,以能够进行性能可视化和评价。配置向导104可以包括用于系统和相关的功能的初始设置的特征。检测器编辑器106允许检测区域和相关检测管理功能的配置。GUI 102、配置向导104和检测器编辑器106可以通过终端84或可操作地连接到系统32的类似计算机访问。应当指出,虽然已经单独地描述各种软件模块和组件,应该注意到,这些功能可以被集成进入单个程序或软件套件,或者设置为单独的独立软件包。通过在进一步的实施例中的任何合适的软件,可以实现所公开的功能。
GUI 102软件可以运行在WindowsApple PC或Linux PC,或具有合适操作系统的其他适当的计算装置,并且可以利用以太网或其他合适的通信协议,以与HDMS 90-1到90-n通信。GUI 102提供一种机制,用于配置HDMS 90-1至90-n,包括视频和雷达子系统94和96,从而:(1)标准化/对齐来自第一和第二传感器40和42的视场;(2)配置用于HDSM 92的参数以结合视频和雷达数据;(3)能够视觉评价检测性能(叠加在视频显示器上);和(4)允许收集包括标准检测输出和开发数据二者的数据。GUI 102的混合视频播放器将允许用户将雷达跟踪标记(或来自任何其他传感模式的标记)叠加在来自机器视觉传感器的视频上(参见图11B和图14)。这些跟踪标志,可以显示其中雷达当前正在检测车辆的区域。这个视频叠加是有用的,以确认雷达被正确地配置,以及使用户实时地容易地评估雷达的性能。GUI 102的混合视频播放器可以允许用户从多个显示模式中进行选择,如:(1)混合-使用机器视觉和雷达传感器输入显示从混合决定逻辑确定的检测器的当前状态;(2)视频/视觉-只使用机器视觉输入显示检测器的当前状态;(3)雷达-只使用雷达传感器输入显示检测器的当前状态;和/或(4)视频/雷达比较-提供简单的方法以在视觉上地比较机器视觉和雷达的性能,采用多个配色方案(如黑色、蓝色、红色和绿色)以显示两个装置同意和不同意给定的检测区域时间的所有排列。在一些实施例中,只有上述显示模式的一些可以提供给用户。
GUI 102通过一个API与HDMS 90-1至90-n通信,即添加到客户端应用程序编程接口(CLAPI),客户端应用程序编程接口可以通过通信服务器100,并且最终到达HDMS 90-1至90-n。适用的通信协议可以发送和接收标准化信息、检测器输出限定、配置数据和其他信息,以支持GUI 102。
用于解释、分析和进行最终检测或系统的其他这种功能的功能性主要由混合检测状态机92执行。HDSM 92可以采用来自诸如机器视觉检测器和雷达基检测器之类检测器的输出,并且在它们之间进行仲裁,以进行最终检测决定。对于雷达数据,HDSM 92可以从雷达子系统94和相应的雷达传感器40-1至40-n,例如,检索目标对象(例如,车辆)的速度、大小和极坐标,以及被跟踪对象的笛卡尔坐标系。对于机器视觉,HDSM 92可以检索来自检测状态块98和来自视频子系统96和相关的视觉传感器(如,摄像头)42-1至42-n的数据。视频数据可以在处理过的每个视频画面的结束处获得。HDSM 92可以包含并且执行传感器算法的数据交换/融合/决定逻辑/等以处理雷达和机器视觉数据。基于来自雷达的输入和机器视觉数据和算法后决定逻辑,状态机确定可以使用哪个检测结果。优先级可以给予被认为对于当前条件(时间,天气,视频对比度水平,交通等级,传感器的安装位置等)是最准确的传感器。
状态块98可以提供最终的、统一的检测器输出到总线或通过合适的端口(或无线)直接地到交通控制器86。规则间隔的轮询可以用来提供来自状态块98的这些检测器输出。此外,状态块可以提供作为输入的信号控制器86的每个信号相位(例如,红、绿)的指示。
可以采用多种类型的检测。存在或停止线检测器确定在视野中(例如,在停止线或停止带处)存在车辆;检测器在确定存在车辆时的高精确度使检测器理想地用于信号控制十字路口应用。计数和速度检测(其包括车长和分类)用于沿着道路通过的车辆。交叉道路计数检测器提供检测车辆之间的间距的能力,以帮助准确计算。计数检测器和速度检测器协同工作以执行车辆检测处理(即,检测器显示在检测器下是否存在车辆,并且计算辆速度)。辅助检测器站编制交通量统计。流量是在指定的时间间隔期间检测到的车辆的总和。可以以公里/小时或英里/小时报告车速,并且可以报告为整数。车辆长度可以以米或英尺报告。可以提供先进的检测用于两难区域(主要关注存在检测、速度、加速度和减速度)。“两难区域”是其中驱动器必须在交通控制(即交通信号灯)从绿色变为黄色然后红色时决定继续或停止的区域。可以提供转弯运动计数,辅助检测器站连接到主检测器以编制交通量统计。流量是在指定的时间间隔期间检测到的车辆的总和。转弯运动计数是简单计数在十字路口处转弯(不直接行进通过路口)的车辆。特别地,可以分开地提供左转弯计数和右转弯计数。通常情况下,在相同车道中的交通可以行进直接通过或转弯,并且这个双车道能力必须加以考虑。也可以提供排队大小测量。排队大小可以限定为停止的或在十字路口接近处以用户限定速度(例如,默认为5英里/小时阈值)移动的对象;因此,排队大小可以是在排队中车辆的数目。代替地,可以从停止带到上游排队的端部或最远检测区域的端部(取其最短),测量排队大小。车辆可以在其接近并且进入排队时被检测,连续计数在由停止线限定的区域中的车辆数量延伸到排队尾部的后面。
还提供错误的处理,包括通信、软件错误和硬件错误的处理。关于潜在的通信错误,输出可以被设置为在下列条件下发出呼叫故障保护:(i)用于硬件电路和相关联的雷达传感器(例如,第一传感器40)之间的通信故障,和仅与雷达传感器相关的输出,如果正常操作,可以代替地使用机器视觉输出(例如,第二传感器42);(ii)用于机器视觉输出的损失和仅与该机器视觉传感器相关联的输出;和(iii)用于检测器端口通信的损失-相关的输出将被置于呼叫或者故障保护,用于其通讯丢失的从属单元。呼叫是一般的基于检测(即,触发“开启”的给定检测器)的输出(例如,到交通控制器86),并且故障保护呼叫可以默认到对应某检测的状态,该检测一般地减少驾驶员因为缺乏检测被“滞留”在十字路口的可能性。考虑潜在的软件错误,如果HDM软件90-1至90-n不运行,输出可以被设置为进行呼叫故障保护。关于潜在硬件错误,在下列条件下,选择的输出可以被设置为进行呼叫(吸收电流),或故障保护:(i)断电,全部输出;(ii)控制电路故障,全部输出;(iii)传感器组件34A-34D的任何传感器故障,仅与故障传感器相关联输出。
虽然上面已经描述了用于交通传感系统32或32’的软件的构成,应该理解,如需要用于特定应用,可以包括没有专门讨论的各种其他特征。例如,可以包括系统和系统的已知特征,两者可以从明尼苏达州圣保罗的Sensing Systems,Inc.获得。例如,这种已知功能可以包括:(a)健康监控-监控系统以确保一切运行正常;(b)记录系统-记录全部重要事件,用于故障排除和维修;(c)检测器端口信息-用于在连接装置(从)与另一装置(主)进行通信时使用;算法的检测器处理-用于处理视频图像和雷达输出,以能够检测和数据收集;(d)视频流-用于允许用户看到输出视频输送;(e)写入到非易失性存储器-允许模块写入和读取内部非易失性存储器,包含引导装载程序、操作软件,再加上额外存储器,该系统装置可以写入以用于数据存储;(f)协议消息-来自外部系统的消息/协议,能够与交通传感系统32或32’通信;(g)状态块-包含I/O的状态;及(h)数据收集-用于记录I/O、交通数据和报警状态。
现在,已经描述交通传感系统32和32’的基本部件,可以讨论安装和标准化系统的方法。混合系统的叠加传感视场的标准化是重要的,从而来自不同传感器的数据,特别是使用不同传感模式的那些,可以相关联并且结合或互换使用。在没有合适标准化的情况下,使用来自不同传感器的数据将在不同的坐标系统中产生检测,阻止了统一系统检测能力。
图7是流程图,示出用于系统32和32’的安装和标准化方法。首先,硬件和相关软件安装在交通传感所需要的位置处,诸如道路十字路口30(步骤100)。安装包括物理地安装全部传感器组件34(提供的组件的数目将变化用于特定应用),安装控制箱74、76和/或88,进行部件之间的有线和/或无线连接,并且对准传感器组件34以提供所需要的视场(参见图2和图8)。传感器组件34可以安装到任何合适的支撑结构36,并且用于特定应用所需要的特定的安装配置将有所不同。对准传感器组件34包括摇摄/偏航(左或右)、仰角/倾斜(向上或向下)、相机筒转动(顺时针或逆时针)、遮阳板/盖悬垂、变焦调整。一旦物理安装,相关的物理位置可以被测量(步骤102)。可以由技术员手动采取物理测量值,诸如以上相对于图1描述的传感器组件34的高度H以及距离D1、DS、DA、DR、DL1至DL2。这些测量结果可以用于确定传感器方向,帮助标准化和校准系统,并且建立传感和检测参数。在一个实施例中,仅仅采用传感器高度H和到停止带的距离DS测量值。
在物理位置已经被测量以后,传感器组件34和相关联的第一和第二传感器40和42的方位可以被确定(步骤104)。这个方位确定可以包括方位角θ、仰角β和转动角度的配置。用于给定的混合传感器组件34的每个分立的传感器40和42的方位角θ可以是非独立自由度,即,在优选的实施例中给定机械连接,方位角θ1和θ2对于第一和第二传感器40和42是相同的。第二传感器42(例如,机器视觉装置)可以被配置为使得用于交通引道38的停止线的中心基本上与相关联的视场34-1的中心对准。鉴于在优选实施例中的第一和第二传感器40和42之间的机械连接,人们然后知道第一传感器40的对齐(例如,雷达的视轴)已经被正确地设置。用于每个传感器40和42的仰角β是用于混合传感器组件34的独立自由度,意味着可以独立于第二传感器42的仰角β2(例如,机器视觉装置)调节第一传感器40(例如,雷达)的仰角β1。
一旦传感器方位已知,该传感器的坐标可以转动方位角θ,以使轴对齐基本上平行和垂直于引道38的交通方向。可以根据下面的等式(1)和(2)进行调整,其中,传感器数据设置在x,y笛卡尔坐标中:
x’=cos(θ)*x-sin(θ)*y (1)
y’=sin(θ)*x+cos(θ)*y (2)
根据等式(3)和(4),第二变换还可以用于协调第一和第二传感器40和42的轴标记惯例:
x”=-y’(3)
y”=x’ (4)
标准化应用(例如,GUI 102和/或配置向导104)可以然后被打开以开始用于每一个混合传感器组件34的第一和第二传感器40和42的视场标准化(步骤106)。在标准化应用开启的情况下,在给定混合传感器组件34的至少两个传感器的共同视场中(步骤108)中,对象被定位感兴趣的道路处或附近(例如,道路十字路口30)。在一个实施例中,对象可以合成目标产生器,一般来说,合成目标产生器是能够产生可记录传感器信号的对象或装置。例如,在一个实施例中,合成目标产生器可以是多普勒产生器,其可以产生雷达特征(多普勒效应),同时沿道路30固定(即,在道路30上不移动)。在代替的实施例中,使用红外(IR)传感器,合成目标产生器可以是加热元件。多个对象可以同时定位,或代替地,根据需要,一个或多个对象可以被顺序地定位。对象可以放置在交通路径的道路中或人行道上、林荫大道、豪宅或其他邻近区域。一般来说,至少三个对象以非共线布置定位。在其中混合传感器组件34包括三个或更多个分立的传感器的应用中,对象可以被定位在所有分立传感器的叠加视场中,或在给定时间处仅传感器的子集的视场中,虽然最终对象应定位在每个传感器组件34的视场中。对象可以由操作者手动暂时保持在适当位置,或可以自我支撑,而无需操作者存在。在其它实施例中,对象可以是定位在道路30处的现有对象,如柱子、邮箱、建筑等。
在对象定位的情况下,数据被记录用于被标准化的混合传感器组件的多个传感器34,以捕获数据,该数据包括在叠加的视场中被定位的对象,即,多个传感器检测在叠加视场内的道路上的对象(步骤110)。这个过程可以涉及同时传感多个对象,或顺序记录在不同的位置中的一个或多个对象(假设没有中间调整或重新定位标准化的混合传感器组件34的传感器)。捕获数据之后,操作者可以使用GUI 102来选择来自被标准化的混合第二传感器42(例如,机器视觉装置)的被记录的传感器组件的一个或多个画面的数据34,所述一个或多个画面提供对应于道路30的叠加视场中的被定位对象的位置的至少三个非共线点,并且操作者在一个或多个选定的画面中选择这些点,以确定对象在用于第二传感器42的坐标系统中的位置(步骤112)。选择来自第二传感器42的点可以由操作者通过视觉估计和输入装置的用于指定对象在画面中的位置致动(例如,点击鼠标、接触触摸屏等等)手动完成。在一个替换实施例中,可以提供独特的视觉标记以连接到对象,并且GUI 102可以自动或半自动地搜索画面,以确定和选择标记的位置,并且因此确定和选择该对象的位置。系统32或32’可以记录在与第二传感器42相关联的坐标系中的选择,如用于机器视觉装置输出的像素位置。系统32或32’也可以相对于与第一传感器40相关联的另一个坐标系统执行对象的自动识别,如在用于雷达的输出的极坐标中。操作者可以从对象列表选择第一传感器40的坐标系统的坐标(由于除了该对象之外可能在道路30上传感其他对象的可能性),或代替地自动过滤可以被执行以选择相应坐标。可以根据上述步骤104的方位确定调整(例如,转动)第一传感器40的所选择的坐标。选择过程可以反复用于给定的混合传感器组件34的所有适用的传感器,直到相同的对象的位置已经在用于每个传感器的各自的坐标系统中被选择。
在对应于对象的位置的点已经在每个传感器的坐标系中被选定以后,这些点被转换成或相关联于共同坐标,用于标准化并配置交通传感系统32或32’(步骤114)。例如,雷达极坐标可以被映射、转换或相关联于机器视觉装置的像素坐标。以这种方式,给定混合传感器组件34的所有传感器的数据之间的相关性,从而在这些传感器的共同叠加视场中的对象,可以在共同坐标系统中或者代替地在主坐标系统中被确定,并且被映射到用于其他传感器的任何其他的相关的坐标系统。在一个实施例中,全部传感器可以与共同的像素坐标系统相关联。
接着,可以通过系统32或32’的操作和移动对象的观察执行验证过程,该对象行进通过被标准化的混合传感器组件34的传感器的共同的叠加的视场(步骤116)。这是对已经执行的标准化的检测,并且操作者可以调整或清除,并且再次执行前面的步骤,以获得更多的所需的标准化。
在传感器组件34的标准化以后,操作者可以使用GUI 102来在共同的坐标系统中(或在与其他坐标系统相关联的一个坐标系统中)确定用于道路30上的一个或多个引道38的一个或多个交通车道(步骤118)。车道确认可以由操作者在传感器数据的显示器上画车道边界(例如,使用描绘道路30的机器视觉画面或多个画面)而手动执行。物理测量值(来自步骤102)可以被用来帮助识别车道。在替代的实施例中,自动化方法可以用于确定和/或调整车道标识。
此外,操作者可以使用GUI 102和/或检测编辑器106,以建立一个或多个检测区域(步骤120)。操作者可以在道路30的显示器上绘制检测区域。物理测量值(来自步骤102)可以用来协助建立检测区域。
在图中图示的方法仅通过示例的方式显示。本领域普通技术人员将理解,该方法可以结合以上未具体显示或论的其它步骤一起进行。此外,特定的步骤顺序可以变化,或者在进一步的实施例中可以同时进行。图7中显示的方法的进一步细节将关于在下面描述的附图被更好地理解。
图8是道路十字路口30的部分的正视图,示出混合传感器组件34的实施例,其中第一传感器40是雷达。在图示的实施例中,第一传感器40被对准,使得其视场34-1在停止带130的前面延伸。例如,对于距离混合传感器组件34约30米(即,DS=30米)定位的停止带,用于雷达(例如,第一传感器40)的仰角β1被设置为使得偏离主波瓣(main lobe)10dB的点与停止带130进行对准。图8示出用于灯具安装(即,其中支撑结构36是灯具)的这个概念。雷达被构造为使得偏离主波瓣10dB的点与停止线前约5米的道路30相交。雷达波束的正视宽度的一半然后被减去以通过交通传感系统32或32’得到正视方位可用值。
图9是GUI 102的标准化显示接口140,用于建立来自给定混合传感器组件34的多个传感器输入的之间的坐标系统相关性。在图示的实施例中,六个对象142A-142F被定位在道路30中。在一些实施例中,可能期望将对象142A-142F定位在道路30上的有意义的位置中,如沿着车道边界,沿着停止带130等。有意义的位置将大致对应给定应用所需的检测类型。代替地,对象142A-142F可以被定位在引道38的外部,如在中部或大道带、人行道等,以减少在标准化期间在引道38上的交通阻塞。
对象142A-142F中的每一个可以是合成目标产生器(例如,多普勒产生器等)。在一般情况下,合成目标产生器是能够产生可记录传感器信号的对象或装置,如在对象沿道路30静止时(即,在道路30上不移动)产生的雷达信号(多普勒效应)。以这种方式,道路30上的静止对象可以给出作为可以由雷达传感和检测的移动对象的外观。例如,机械和电气多普勒产生器是已知的,并且任何合适的多普勒产生器可以用于本发明作为用于利用雷达传感器的实施例的合成目标产生器。机械的或机电多普勒产生器可以包括在具有狭缝的狭缝外壳中的转动风扇。电气多普勒产生器可以包括变送器,以传送电磁波来模拟来自以合适的或所需的速度移动的对象的雷达回波信号(即,模拟反射雷达波)。尽管典型雷达通常不能检测静止对象,类似多普勒产生器的合成目标产生器使这样的检测是可能的。对于上文关于图7描述的标准化,静止对象比移动对象更方便。代替地,对象142A-142F可以是移动或相对道路30移动的对象,诸如角型反射器,帮助提供雷达反射信号。
虽然图9中显示6个对象142A-142F,在其它实施例中仅需要定位最少三个非共线定位对象。此外,正如上面提到的,并不是所有对象142A-142F需要同时定位。
图10是用于使用机器视觉数据(例如,来自第二传感器42)建立交通车道的标准化显示146的视图。车道边界线148-1、148-2和148-3可以使用GUI 102在传感器数据的显示之上手工画出。停止线边界148-4和感兴趣区域的边界148-5可以由操作者在传感器数据的显示上绘制。此外,尽管图示的实施例描述具有线性边界的实施例,非线性边界可以设置用于不同的道路几何形状。如在图10中显示的绘制边界线可以在传感器坐标系统之间的相关性已经建立以后执行,允许相对于一个坐标系统绘制的边界线与另一个或通用坐标系统(例如,以自动方式)映射或相关。
作为具有操作者手动绘制停止线边界148-4的替代方法,可以在进一步的实施例中使用自动或半自动过程。停车线位置通常很难找到,因为只有一个有些嘈杂的指示器:对象(例如,车辆)停止在哪里。对象不能保证完全停止在停车线(如通过油漆等标出在道路30上)上;车辆可能在道路30上的指定停车线的前面或后面达到数米处停止。此外,一些传感模式,诸如雷达,估计停止车辆位置可能具有明显错误。因此,在停车线估计中可以预期+/-数米误差。通过平均每次测量/传感周期中最靠近的停止的对象的位置(例如,y轴位置),可以自动或半自动地发现停止线位置。仅采用最近的停止对象有助于消除在排队中的非前方对象(即,在排队中的第二、第三等车辆)引起的不需要的偏斜(skew)。这个数据集将有一些离群值,可以使用迭代处理(类似于可以在方位角估计中使用的一个)除去离群值:
(a)采用最靠近停车线位置估计的中间50%的样本(内围层),并且放弃其他50%的点(离群值)。最初停车线位置估计可以是操作者的最佳猜测,由任何可用物理测量、地理信息系统(GIS)数据等等告知。
(b)确定内围层的平均值(平均值),并且认为这意味着新的停车线位置估计。
(c)重复步骤(a)和(b),直到方法收敛(例如,步骤(a)和(b)之间的0.0001增量),阈值数量的迭代步骤(a)和(b)已经达到(例如,100次迭代)。通常情况下,方法应在约10次迭代内收敛。收敛或达到迭代阈值以后,获得这个停止线边界位置的最后估计。如需要,可应用小的偏移。
提供方位信息到系统32或32’通常是必要的,以允许相对于需要被传感的道路30适当地识别混合传感器组件34的传感器的方位。在图11A、11B和11C中示出用于确定方位角的两种可能的方法。图11A是用于传感器方位检测和标准化的一种形式的标准化显示器150的视图。正如在图11A的图示实施例中显示,雷达输出(例如,第一传感器40的)设置在视图34-1的第一场中,用于道路30的L1至L4四个交通车道。在视场34-1中检测大量对象152(例如,车辆),并且提供运动矢量152-1用于每个检测对象。应当指出,对于雷达传感器系统,众所周知地,提供矢量输出用于检测到的移动对象。通过观看显示器150(例如,使用GUI 102),操作者可以调整由系统32或32’确认的第一传感器40的方位,例如,向量152-1基本上与交通车道L1至L4对齐。指示L1至L4交通车道的线可以由操作者手工画出(参见图10)。这个方法假定检测的对象大致平行于道路30的车道行进。操作者技能可以导致用于这个过程的数据中的任何异常值或伪像(artifact)。
图11B是用于另一种形式的传感器方位检测和标准化的另一个标准化显示150’的视图。在图11B图示的实施例中,显示150’是来自第二传感器42(例如,机器视觉装置)的图像数据与使用第一传感器40(例如,雷达)检测的对象的包围框154-1的视频叠加。操作者可以查看显示150’,以评估和调整边界框154-1和可在显示150’上显示的对象154-2的绘图之间的对齐。操作者技能可以用来解决在此过程中使用的数据中的任何异常值或伪像。
图11C是用于另一种形式的传感器方位检测和标准化的又一个标准化显示150”的视图。在图11C中图示的实施例中,自动化或半自动化程序允许进行传感器方位确定和标准化。程序可以进行如下操作。首先,车辆交通的传感器数据在给定一段时间(如,10-20分钟)内被记录并被保存。然后,操作者打开显示150”(例如,GUI 102的一部分),并且访问所保存的传感器数据。操作者在方框156中输入用于给定传感器(例如,第一传感器40,其可以是雷达)的初始标准化猜测值,,其可以包括如对方位角θ、停止线位置和车道边界猜测值。可以通过物理测量获悉这些猜测值,或者代替地,使用工程/技术图纸或电子地理信息系统(GIS)工具的距离测量工具,如从谷歌公司提供的谷歌地图、Mountain View、CA或来自微软公司的BING MAPS,获悉这些猜测值。方位角θ猜测值可以匹配在记录时可应用的传感器设定。然后,操作者可以请求系统采取所记录的数据和初始猜测值,并且计算最有可能的标准化。结果可以被显示和可视化显示,具有对象跟踪158-1、车道界线158-2、停止线158-3、传感器位置158-4(定位在距离图的原点处)和视场158-5。操作者可以在视觉上评估自动标准化,并且可以在结果块159中进行任何需要的变化,其在调整以后刷新图。此功能允许手动微调自动化结果。
可以在以下实施例中描述自动标准化算法的步骤。首先估计方位角θ。一旦方位角θ已知,用于相关传感器(例如,在第一传感器40)的对象坐标可以被转动,以使相关坐标系统的轴线平行和垂直于交通方向对齐。这个方位角θ简化停车线和车道界线的估计。接着,传感器坐标可以作为用户输入作为初始猜测值的方位角θ的函数转动。通过寻找在传感器视场中的对象(例如,车辆)的平均行进方向计算方位角θ。据推测,平均起来,对象将平行车道界线行进。当然,执行转弯机动或变换车道的车辆违反这个假设。这些类型的车辆在样品组中产生必须被除去的离群值。采用几种不同的方法来过滤离群值。作为最初的过滤,可以除去具有小于给定阈值(例如,大约24公里/小时或15英里/小时)速度的全部对象。这些对象被认为更可能是转弯车辆或以其它方式不平行于车道界线行进。此外,除去过去停止线约5至35米距离以外的任何对象;在这个中间区域中的对象被认为是被准确地跟踪的最可靠的候选车辆,同时在道路30的车道内行驶。由于尚未知道停止线位置,在这一点上可以使用操作者的猜测值。现在使用这种过滤数据集,用于每个跟踪对象的行进角度采取关联的x和y速度分量的反正切值计算。所有被过滤、跟踪对象的平均角度产生方位角θ估计。然而,在这一点上,离群值仍然可能偏斜结果。现在可以采用如下第二离群值去除步骤:
(a)采用最靠近方位角θ估计(内围层)的中间50%的样本的,并且放弃其他50%的点(离群值);
(b)采取内围层的平均值,并且认为这是新的方位角θ估计;和
(c)重复步骤(a)和(b),直到方法收敛(例如,步骤(a)和(b)之间的0.0001增量),或阈值次数的迭代步骤(a)和(b)已经达到(例如,100次迭代)。通常情况下,方法应在约10次迭代内收敛。收敛或达到迭代阈值以后,获得最后方位角θ估计。如果需要的话,这种收敛可以作为直方图图形表示。
图12A-12E是车道边界估计的曲线图,用于自动或半自动的车道边界建立或调整的方法的替代实施例。在一般情况下,本实施例假定对象(例如,车辆)在大约道路30的车道的中央行进,并且努力减少或最小化到用于每个对象的最近车道中央的平均距离。用户的初始猜测值用作用于车道中心的开始点(包括车道数),并且然后小的变化被测试,以看看它们是否提供较好结果。可以以用户猜测值(其可以基于物理测量)保持车道宽度恒定,并且仅仅应用车道位置的水平位移。可以使用+/-2米的搜索窗口,具有0.1米车道位移增量。对于每个搜索位置,车道边界移动偏移量,然后到车道中心的平均距离被计算,用于在每个车道中的全部车辆(这可以被称为车道的“平均误差”)。在尝试全部可能偏移量以后,通过除以用于在所有可能偏移量上的该车道的最低平均误差,每个车道的平均误差可以被标准化。这种标准化提供加权机制,其增加分配到其中发现与车辆路径的好的配合的车道的权重,并且减少具有更多噪声的数据的车道的权重。然后,所有车道的标准化平均误差的可以被加在一起用于每个偏移量,如在图12E中显示。给出最低总的标准化平均误差(在图12E中由线170指定)的偏移量,可以作为最佳估计。由最佳估计偏移量调整的用户的初始的猜测值可以用于建立用于系统32或32’的车道边界。正如已经指出的,在本例中,用于所有车道的单个偏移量用来一起移动所有车道,而不是调整个别车道大小以提供不同车道之间的移动。
图13是用于建立检测区域的校准显示接口180的视图,其可以通过检测器编辑器106实现。一般来说,检测区域道路中的其中对象(例如,车辆)的存在需要由系统32或32’检测的区域。许多不同类型的检测器是可能的,并且给定应用中采用的特定数量或类型可以根据需要变化。显示器180可以包括菜单或工具栏182,用于提供用户工具,用于指定相对于到道路30的检测器。在图示的实施例中,根据机器视觉传感器数据,道路30被图示为邻近于工具栏182。相对于目标位置限定诸如停车线检测器184和速度检测器186之类的检测器区域。此外,其他信息图标188可以被选择用于显示,如信号状态指标。显示接口180允许设置在系统32或32’的正常操作期间用于交通传感的检测器和相关系统参数。可以独立于上述标准化处理进行检测器区域的配置。检测区域的配置可以在像素/图像空间中进行且通常不依靠车辆交通的存在。在多个传感器的坐标系统进行标准化以后,可以进行检测区域的配置。
图14是交通传感系统32或32’的操作显示190视图,显示来自在视频叠加中(即,图形叠加在机器视觉传感器视频输出上)的两个不同传感器模式(例如,第一和第二传感器40和42)的示例检测比较。在所示的实施例中,提供检测器184A到184D,每个检测器图示的道路30的四车道之一。在图示实施例中设置图例192来表示是否没有进行检测(“两者关闭”)、只有第一传感器检测(“雷达开启”)、只有第二传感器检测(“机器视觉开启”)、或者是否两个传感器都进行检测。如图所示,车辆194触发两个传感器的检测器184B和184D的检测,而机器视觉传感器已经基于行人196的存在触发用于检测器184A的“错误”检测,行人196在垂直的引道38的方向的交叉车道方向行进,行人196不会触发一个传感器(雷达)。图14的图示显示不同传感模式如何在给定条件下可以不同地运行。
正如已经指出的那样,基于在道路和/或检测类型处的操作条件,本发明允许不同的传感器或传感模式之间切换。在一个实施例中,交通传感系统32或32’可以被配置作为总的切换系统,在该系统中,多个传感器同时运行(即,同时操作以传感数据),但是在任何给定的时间只有一个传感器被选择用于检测状态分析。考虑到检测类型,HDSM 90-1至90-n根据所使用的传感器的类型进行逻辑运算。
传感器切换的方法的一个实施例总结于表1中,其适用于来自混合传感器组件34的传感器40-1到40-n和42-1到40-n的后处理数据。可以简单地基于通过/未通过传送任何传感器子系统的最终输出,以提供最终检测决定。这与基于来自所有传感器的融合数据进行检测决定的数据融合方法相反。发明者已经基于机器视觉和雷达传感之间的比较场测试在表1中制定规则,以及与实益用途和切换逻辑相关的发现。表1中的所有规则假设使用被部署用于达到停车线后50米(即上游)的检测的雷达,并且然后在经过该50m区域时依靠机器视觉。在不同的配置假设下,可以应用其他规则。例如,在采用较窄雷达天线视场的情况下,在比机器视觉相对较长范围处,可以依靠雷达。
表1
表1
图15是流程图,示出传感器模式选择(即,传感器切换)的方法的实施例,用于交通传感系统32或32’的使用。最初,开始新画面,代表从用于给定混合传感器组件34所有可用传感模式新获取的传感器数据(步骤200)。执行雷达(或其他的第一传感器)故障检测(步骤202)。如果在步骤202处确认故障,执行另一项视频(或其他的第二传感器)故障检测(步骤204)。如果所有传感器都出现故障,可以将系统32或32’设置成全局故障保护模式(步骤206)。如果视频(或其他的第二传感器)仍然是可操作的,系统32或32’可以进入视频唯一模式(步骤208)。如果在步骤202处没有故障,执行视频(或其他的第二传感器)故障的另一项检测(步骤210)。如果视频(或其他的第二传感器)出现故障,系统32或32’可以进入雷达唯一模式(步骤212)。在雷达唯一模式中,执行检测器离雷达传感器(即,混合传感器组件34)的距离的检测(步骤214)。如果检测器在雷达波束以外,可以进入用于雷达的故障保护模式(步骤216),或如果检测器在雷达波束内部,则可以开始基于雷达的检测(步骤218)。
如果所有传感器都工作(即,没有故障),系统32或32’可以进入混合检测模式,可以利用来自所有传感器的传感器数据(步骤220)。离雷达传感器(即,混合传感器组件34)的检测器距离的检测被执行(步骤222)。在这里,检测器距离可以涉及给定检测器的与给定传感器相关的传感器视场中限定的位置和距离。如果检测器在雷达波束以外,系统32或32’可以仅使用视觉传感器数据用于检测器(步骤224),或如果检测器在雷达波束内部,那么可以进行混合检测决定(步骤226)。确定时间(步骤228)。在白天期间输入混合白天处理模式(参照图16)(步骤230),在夜间期间输入混合夜间处理模式(参照图17)(步骤232)。
上面相对于图15所描述的过程可以被执行用于被分析的每一画面。系统32或32’可以返回到步骤200,用于被分析的传感器数据的每一个新的画面。应当指出,虽然所公开的实施例涉及机器视觉(视频)和雷达传感器,同样的方法可以应用于使用其他类型的传感模式的系统。此外,本技术领域的普通技术人员将会理解,所公开的方法可以扩展到具有两个以上的传感器的系统。应当进一步指出,传感器模式切换可以在相关的传感器的整个共同的、叠加的视场上进行,或可以被局限于切换用于共同的、叠加视场的一个或多个部分的传感器模式。在后者的实施例中,可以进行不同的切换决定,用于共同的、叠加的视场的不同部分,例如,进行不同的切换决定,用于不同的检测器类型、不同车道等。
图16是一个流程图,示出使用交通传感系统32或32’的白天图像处理的方法的一个实施例。图16中所示的方法可以用在图15的步骤230处。
对于每个新画面(步骤300),可以检查作为机器视觉系统的特征的全局对比度检测器(步骤302)。如果对比度差(即低),那么系统32或32’可以仅依靠雷达数据用于检测(304)。如果对比度良好,即,足够用于机器视觉系统性能,则执行用于在雷达(即,天线罩)上堆积的冰和/或雪的检测(步骤306)。如果堆积有冰或雪,系统32或32’可以仅依靠机器视觉数据用于检测(步骤308)。
如果在雷达上不存在冰或雪堆积,则可以进行检测以确定是否存在雨(步骤309)。这种雨的检测可以利用任何可用的传感器的输入。如果没有检测到下雨,那么可以进行检测以确定阴影是否是潜在或可能发生的(步骤310)。该检测可能涉及太阳角度计算,或使用任何其他合适的方法,如下面描述的任何方法。如果阴影是可能的,则进行检测以确认是否观察到强阴影(步骤312)。如果阴影是不可能,或者如果没有观察到强阴影,则执行用于湿滑路面条件的检测(步骤314)。如果不存在湿滑路面条件,可以执行用于容易阻塞车道的检测(步骤316)。如果没有容易阻塞性,系统32或32可以仅依赖机器视觉数据用于检测(308)。在这种方式中,机器视觉可以作为用于白天检测的默认传感模式。如果下雨、强阴影、湿滑路面或车道阻塞条件存在,那么可以执行用于交通密度和速度的检查(318)。对于缓慢移动和堵塞条件,系统32或32’可以仅依靠机器视觉数据(步骤308)。对于轻度或中度交通密度和正常交通速度,可以进行混合检测决定(步骤320)。
图17是一个流程图,示出使用交通传感系统32或32’的夜间图像处理的方法的实施例。图17中所示的方法可以用在图15所示的步骤232处。
对于每个新的画面(步骤400),执行用于积聚在雷达(即,天线罩)上的冰或雪的检测(步骤402)。如果堆积有冰或雪,系统32或32’可以仅依靠机器视觉用于检测(404)。如果没有冰或雪的堆积,系统32或32’可以依靠雷达用于检测(步骤406)。当雷达被用于检测时,机器视觉可以用于验证或其他目的,以及在一些实施例中,如提供更精细的切换。
为测量在道路30处的各种条件的可能方法的示例总结在表2中,并在下面进一步描述。应该指出的是,在表2中给出的示例和随后描述一般集中于机器视觉和雷达传感模式,其他方法可以结合其他类型传感模式(激光雷达等)使用,无论是否明确提到。
表2
表2
强阴影
强阴影状况一般发生在白天,当太阳是在这样一个角度时:对象(如车辆)在显著延伸在对象主体以外的道路上投下动态阴影。使用机器视觉传感器,阴影可以造成误报。此外,应用阴影误报过滤器到机器视觉系统可能具有导致检测不到黑暗对象的不需要的副作用。阴影对于雷达一般不会产生性能下降。
使用机器视觉检测阴影的众多方法是已知的,并且如本技术领域普通技术人员将理解地,在本上下文中采用。候选技术包括空间和时间边缘内容分析、背景强度的均匀偏置、空间上连接的车道内对象的识别。
人们可以利用来自多个传感器模式的信息来确定检测特性。这种方法可以包括视频对比雷达检测报告的分析。如果阴影条件使得基于视频检测导致高的数量的错误检测,视频检测对雷达检测计数差异的分析表明阴影条件。也可以通过机器视觉传感器的罗盘方向、纬度/经度和日期/时间的知识预测阴影的存在,并且在几何计算中使用这些输入来找到太阳在天空中的角度和预测是否观察到强阴影。
在一个优选的实施例中,在强阴影存在时可以专门使用雷达(假设阴影的存在可以可靠地检测到)。在替代实施例中,可以采用许多代替的切换机器用于强阴影处理。例如,机器视觉检测算法可以代替分配置信水平,指示被检测对象是阴影或物体的可能性。在视频检测具有检测到的对象是物体而不是影子的低的置信水平时,雷达可以用作误报滤波器。代替地,雷达可以提供在每个检测器的检测区域中被检测到的多个雷达目标,(雷达目标通常是移动对象的瞬时检测,其随着时间的推移进行聚类以形成雷达对象)。目标计数是额外参数,该参数可以用于在机器视觉传感器阴影处理中。在另一个替代实施例中,可以使用车道间通信,使用的假设是:影子必须具有在附近的相关联阴影投射物体。此外,在又一个实施例中,如果机器视觉已知具有坏的背景估计,可以专门使用雷达。
夜间
在太阳足够远地在地平线以下时,夜间条件通常会发生,从而现场(即,在交通被检测的道路区域)变暗。对于单独的机器视觉系统,对象(如车辆)的主体在夜间变得越来越难看到,并且主要只是在道路上的车头灯和大灯反射(大灯飞溅)突出到视觉检测器。有效检测一般保持很高(除非车辆的前灯熄灭)。然而,前灯光斑(splash)往往会导致假警报和早期检测致动的不需要的增加。夜间条件的存在可以通过用于系统32或32’的安装位置的纬度/经度和日期/时间的知识预见。这些输入可以用在几何计算中,以发现太阳相对于地平线下降到低于阈值角度的时间。
在一个实施例中,在夜间期间可以专门使用雷达。在一个代替的实施例中,雷达可以用来检测车辆到达,并且机器视觉可以用来监视停止对象,因此有助于限制误报警。
降雨/湿滑路面
降雨和湿滑路面条件一般包括降雨过程和降雨后而道路仍然是湿的期间。可以通过降落速度对降雨进行分类。对于机器视觉系统,雨水和湿滑路面条件会导致通常相似于夜间条件:具有车前灯打开并且在道路上许多光反射可见的黑暗场景。在一个实施例中,基于机器视觉与雷达检测时间的分析,可以检测雨/湿滑路面条件,其中增加的时间差是前灯光斑过早地启动机器视觉检测指示。在代替实施例中,单独的雨水传感器87(例如,压电或其它类型)被监测,以确定下雨事件已经发生的时间。在更进一步的实施例中,通过寻找实际雨滴或由雨水引起的光学畸变,可以通过机器视觉处理检测降雨。通过测量尺寸、强度、前灯反射在道路上的边缘强度(所有这些因素在道路是湿的时增加),可以通过机器视觉处理检测湿滑路面。通过观察雷达信号回波的变化(例如,噪声增加,来自真实车辆的反射强度降低),则雷达可以检测降雨。此外,可以通过接收在互联网、广播或其它链接上的本地天气数据识别降雨。
在优选的实施例中,在湿滑路面条件被确认时,可以专门使用雷达检测。在替换实施例中,在雨水超过阈值水平(例如,可靠性阈值),可以专门使用机器视觉,并且在雨水低于阈值水平但是路面湿滑时,可以给雷达增加权重以减少错误警报,并且可以使用以上关于夜间条件描述的切换机构。
阻塞
阻塞通常是指对象(如车辆)部分或完全挡住从传感器到更远对象的视线。机器视觉可能容易受到阻塞误报警,可能存在阻塞错误地打开在相邻车道中的检测器问题。雷达不易受到阻塞误报警。不过,像机器视觉一样,雷达可能会错过完全或接近完全被阻塞的车辆。
通过几何推理,可确定阻塞的可能性。可使用检测器的位置和角度,和传感器的位置、高度H和方位,以评估是否阻塞将是可能的。此外,可以通过假设平均车辆大小和高度,预见阻塞程度。
在一个实施例中,雷达可以专门用在其中可能阻塞的车道。在另一个实施例中,在机器视觉认为阻塞存在时,雷达可以用作错误报警过滤器。机器视觉可以指定正在阻塞-已阻塞车道对,然后,在机器视觉发现可能阻塞并且匹配正在阻塞对象时,系统可以检测雷达,以验证是否雷达只检测在正在阻塞车道中的对象。此外,在另一个实施例中,雷达可以用来解决用于机器视觉的交叉交通错误报警的问题。
低对比度
在机器视觉图像中缺乏强视觉边缘时,低对比度条件一般存在。低对比度条件可能由如下因素引起:诸如雾、霾、烟、雪、冰、雨或丢失视频信号。在低对比度的条件下,机器视觉检测有时会失去检测车辆的能力。机器视觉系统可以有能力检测低对比度的条件,并且推动检测器进入故障保护始终开启状态,虽然这在十字路口处呈现交通流效率低下。雷达应该基本上不受低对比度的条件影响。雷达低对比度性能的唯一例外是大雨或大雪,特别是雪堆积在雷达的天线罩上;雷达可能会在这些条件中错过对象。能够使用外部加热器以防止雪积聚在天线罩上。
通过以已知的方式寻找在传感到的图像中的强视觉边缘的损失,机器视觉系统可以检测低对比度条件。在低对比度情况下,可以专门地依靠雷达。在进一步的实施例中,在雷达可能无法充分执行的某些气候条件下,这些条件可以被检测并且将检测器放置在故障保护状态,而不是依靠受损的雷达输入。
传感器故障
对于机器视觉、雷达或任何其他传感模式,传感器故障一般是指检测能力的完全漏失。其也可以包含部分传感器故障。由于用户错误、停电、线路故障、组件故障、干扰、软件挂断、传感器物理障碍或其他原因,传感器故障条件可能出现。在许多情况中,受传感器故障影响的传感器可以自诊断其自身故障,并且提供错误标志。在其他情况下,传感器可能会出现运行正常,但没有产生合理的检测。随着时间的推移,可以比较雷达和机器视觉检测计数,以检测到这些情况。如果其中一个传感器具有比其他传感器少得多的检测,这是具有较少检测的传感器可能无法正常操作的警告信号。如果只有传感器故障,可以专门依靠工作的(即非故障)传感器。如果两个传感器出现故障,关于切换通常什么都不能做,并且可以将输出设置为故障保护常开状态。
交通密度
交通密度一般是指通过交通被检测的十字路口或其它区域的车辆的速度。机器视觉检测器受交通密度影响不大。存在可能会潜在地增加错误警报的阴影源数量增加、前灯光斑或在高的交通密度条件中的阻塞。不过,也有较少实践机会用于高交通密度条件期间错误警报,因为检测器更可能被真正对象(例如,车辆)占用。在繁忙交通中,雷达一般经历降低的性能,并且更有可能在交通繁忙的情况下错过对象。交通密度可以通过共同交通工程统计数据测量,如流量、占用或流速。这些统计数据可以很容易地从雷达、视频或其他检测获得。在一个实施例中,在车流密度超过阈值时,可以专门依靠机器视觉。
距离
距离一般是指从传感器到检测器的真实世界距离(例如,到停止线DS的距离)。即使在比较大的距离处,机器视觉具有相当好的有效检测(positive detection)。最大的机器视觉检测范围取决于相机角度、镜头变焦和安装高度H,并且被在远场范围中的低分辨率限制。机器视觉通常不能可靠地测量在远场中的车辆距离或速度,尽管某些类型的假警报实际上成为在远场中的较少的问题,因为视场角度变得几乎平行于道路,限制在道路上的光学效应的可见性。雷达有效检测随着距离大幅下降。下降速度取决于仰角β和雷达传感器的安装高度。例如,在显著地低于额定的最大车辆检测范围的距离处,雷达可能会经历差的有效检测。可以通过系统的32或32’的校准和标准化数据很容易地确定每个检测器离传感器的距离。系统32或32’将知道到检测器的各个角落的现实世界距离。当检测器超过到雷达的最大阈值距离时,可以专门依靠机器视觉。此阈值可以基于雷达的安装高度H和仰角β调节。
速度
速度一般是指被传感的对象的速度。机器视觉受车速影响不大。在检测移动车辆时,雷达更可靠,因为其通常依靠于多普勒效应。雷达通常不能够检测缓慢移动或停止对象(低于约4千米/小时或2.5英里/小时)。错过停止对象不是最佳的,因为其可能导致延迟切换交通灯以服务道路引道38的相关的交通控制86,延迟或搁浅驾驶员。雷达提供速度测量,每个画面用于每个传感/跟踪目标。机器视觉还可以使用已知速度检测器测量速度。根据需要,可以利用任一种或两种机器。机器视觉可以用于停止车辆检测,并且雷达可用于移动车辆检测。这可以限制对于移动车辆的假警报,并且限制停止车辆的被错过的检测。
传感器运动
传感器运动是指交通传感器的物理运动。有两种主要类型的传感器运动:是摆动运动的振动,和是传感器位置长期持久变化的移动。运动可以由各种因素引起,如风力、通过车辆、支撑基础设施的弯曲或拱起或传感器的碰撞。机器视觉传感器的运动可以导致视觉传感器关于建立的(即固定的)检测区域的错位,创造潜在的错误警报和错过检测两者。机器视觉相机机载或者以后在视频处理中的图像稳定可以用于减少传感器运动的影响。在雷达从其原始位置移动时,雷达在其对象的位置估计中可能遇到错误。这可能会导致错误警报和错过检测。相比机器视觉,雷达受传感器运动的影响可能较小。机器视觉可以提供相机运动检测器,相机运动检测器通过机器视觉处理检测相机的位置变化。此外,或在替代方案中,通过将雷达跟踪车辆的位置与已知车道边界进行比较,可以检测雷达或机器视觉装置的传感器运动。如果车辆轨迹不是连续地与车道对齐,那么很可能是传感器的位置已经扰动。
如果只有一个传感器发生移动,那么可以专门使用另一个传感器。因为两个传感器连接到同一外壳,很可能两者同时移动。在这种情况下,受影响最小的传感器的权重增加甚至被专门使用。从机器视觉或雷达数据获得的运动的任何估计可以用于确定哪个传感器受运动影响最严重。否则,当发生重大运动时,默认可以使用雷达。代替地,在试图改变运动的影响时,基础机器视觉和雷达数据的运动估计可以用于纠正两个传感器的检测结果。对于机器视觉,这是可以通过对图像应用变换(例如,平移、转动、变形)做到。对于雷达,这可能涉及到车辆的位置估计(例如,只转动)的变换。此外,如果所有传感器已经显著移动,使得部分感兴趣区域不再可见,那么被影响的检测器可以被置于故障保护状态(例如,默认情况开启检测器)。
车道类型
车道类型一般指的是车道的类型(例如,直通车道、转弯车道或混合使用)。机器视觉通常没有受到车道类型很大的影响。对于直通通道,雷达性能一般比机器视觉更好。可以从车道到其他车道的相位数或相对位置推断类型。车道类型也可以在初始系统设置过程中通过用户明确地限定。在转弯车道中,可以更多地依靠机器视觉,以限制等待转弯的停止对象的错过。在直通车道中,可以更多地依靠雷达。
结论总结
交通传感系统32可以对单独依靠视频检测或雷达的现有产品提供改进性能。使用混合系统,可以使一些改进成为可能,包括改进的传统车辆分类精度、速度精度、停止车辆检测、错路车辆检测、车辆跟踪、成本节约和配置。此外,改进的有效检测、降低错误检测成为可能。在夜间和恶劣天气条件期间,车辆分类是困难的,因为机器视觉可能具有检测车辆特征的困难;然而,雷达不受大部分这些条件的影响,因此可以在这种情况下普遍提高基本分类的准确性,尽管已知雷达在测量车辆长度时存在限制。虽然一个版本的速度检测器整体通过白天、距离和其他方法提高速度测量,另一个推论可以通过寻找同时使用多种方式(如,机器视觉和雷达)相结合的过程进一步提高速度、检测精度。对于停止的车辆,在对象(如车辆)放缓至低于约4公里/小时(2.5英里/小时)时,在多普勒雷达(甚至在能够跟踪的情况下)中经常发生车辆“消失”,虽然机器视觉和雷达技术的结合可以帮助保持检测,直到该对象再次开始移动,并且还提供更准确、更快速地检测到停止的对象的能力。对于错误道路对象(例如,车辆),通过多普勒雷达,雷达可以很容易地确定是否对象行驶错误道路(即,在单向道路的错误方向上),具有较小的错误报警概率。因此,例如,当正常交通从单向高速道路的出口正在接近时,当驾驶员无意中驾驶错误道路到高速道路出口匝道上时,系统可能提供警报报警。对于通过数据融合的车辆跟踪,机器视觉或雷达输出的选择取决于照明、天气、阴影、白天和其他因素,使得HDM 90-1至90-n能够以算法后决定逻辑的形式将雷达对象的地图坐标映射到共同参考系统(例如,通用坐标系)中。增加系统集成可以帮助限制成本和提高性能。雷达和机器视觉的合作,同时在进一步的实施例共享诸如电源、I/O和DSP的共用组件,可以帮助进一步降低制造成本,同时实现持续的性能改进。关于自动设置和标准化方面,用户体验通过相对简单和直观的设置和标准化过程受益。
任何相关术语或此处使用的程度术语,如“基本上”、“大约”、“本质上”、“一般”之类的,应按照和受到任何适用的限定或在此明确表述的限制解释。在所有情况下,这里所用的任何的相对术语或程度术语应当被解释为,广泛地包括任何相关的公开的实施例以及由本技术领域的普通技术人员考虑本公开内容的整体应当理解的这种范围或变化,例如,包含普通制造公差变化、传感器的灵敏度变化、偶然对齐变化等。
虽然已经参照示例性实施例描述本发明,本领域技术人员应当理解,在不脱离本发明范围的情况下,可以进行各种改变,并且等同物可以替代其元件。此外,在不脱离其实质范围的情况下,可以进行许多修改,以使特定情况或材料适应本发明的教导。因此,目的在于,本发明不局限于披露的特定的实施例,而是本发明将包括落入所附权利要求书的范围内的所有实施例。例如,如果需要用于特定应用,上文所披露的各种实施例的特征可以在任何合适的结合中一起使用。
Claims (19)
1.一种交通传感系统,用于传感在道路处的交通,该系统包括:
具有第一视场的第一传感器;
具有第二视场的第二传感器,其中,所述第一和第二视场在所述道路的一部分范围内的共同视场中至少部分地叠加,并且其中,所述第一传感器和第二传感器提供不同的传感模式;和
控制器,该控制器配置为选择来自第一和/或第二传感器的用于共同视场的至少一部分的传感器数据流作为在所述道路处的操作条件的函数,以便提供道路交通检测。
2.根据权利要求1所述的交通传感系统,其中,控制器被进一步配置为选择用于共同视场的至少一部分的传感器数据流作为检测的类型的函数。
3.根据权利要求1所述的交通传感系统,其中,第一和第二传感器定位成彼此邻近,并且都由支撑结构共同地支撑。
4.根据权利要求1所述的交通传感系统,其中,所述道路的第一和第二传感器的各自的第一和第二视场在其范围内至少部分地叠加的部分包括在第一引道内的感兴趣的检测区域。
5.根据权利要求1所述的交通传感系统,其中,控制器被配置为选择来自第一或第二传感器的传感器数据流作为在道路处的条件的函数,所述条件包括以下至少一个:
(a)存在阴影,(b)白天或夜间照明,(c)雨水和湿滑路面条件,(d)对比度,(e)视场遮挡,(f)交通密度,(g)车道类型,(h)传感器到对象距离,(i)道路对象速度,(j)传感器故障和(k)通信故障。
6.根据权利要求5所述的交通传感系统,其中,所述第一传感器是雷达且第二传感器是机器视觉装置,并且其中,控制器被配置为默认选择机器视觉装置,并且使用雷达以改善在包括如下操作条件下的检测:低对比度、强阴影、夜间、排队和降低机器视觉性能的天气条件。
7.根据权利要求1所述的交通传感系统,其中,控制器被配置为选择来自第一和/或第二传感器的传感器数据流作为检测的类型的函数,所述检测的类型选自由下列方面组成的组:(a)对象计数,(b)对象速度,(c)停止线检测,(d)对象存在于选定区域中,(e)排队长度,(f)转弯移动检测,(g)对象分类,和(h)对象方向警告。
8.根据权利要求1所述的交通传感系统,其中,第一传感器包括雷达组件,并且其中第二传感器包括机器视觉组件。
9.一种标准化用于传感道路中的交通的交通传感器系统的方法,,该方法包括下述步骤:
将第一合成目标产生器装置定位在道路上或道路附近;
使用具有第一传感器坐标系统的第一传感器传感道路数据;
使用具有第二传感器坐标系统的第二传感器传感道路数据,其中,第一和第二传感器的传感到的道路数据在第一道路区域中叠加,并且其中,第一合成目标产生器定位在第一道路区域中;
使用第一传感器检测第一合成目标产生器装置在第一传感器坐标系统中的位置;
显示第二传感器的传感器输出;
在第二传感器坐标系统中选择第一合成目标产生器装置在显示器上的位置;以及
作为第一合成目标产生器装置在第一和第二传感器坐标系统中的位置的函数使第一和第二传感器坐标系统相关联。
10.根据权利要求9所述的方法,进一步包括下述步骤:
将第二合成目标产生器装置定位在所述道路上或所述道路附近;
使用第一传感器检测第二合成目标产生器装置在第一传感器坐标系统中的位置;以及
在第二传感器坐标系统中选择第二合成目标产生器装置在显示器上的位置;
其中还作为第二合成目标产生器装置在第一和第二传感器坐标系统中的位置的函数进行第一和第二传感器坐标系统的关联。
11.根据权利要求10所述的方法,进一步包括下述步骤:
将第三合成目标产生器装置定位在所述道路上或所述道路附近,其中,第一、第二和第三合成目标产生器装置不共线地定位;
使用第一传感器检测第三合成目标产生器装置在第一传感器坐标系统中的位置;以及
在第二传感器坐标系统中选择第三合成目标产生器装置在显示器上的位置;
其中还作为第三合成目标产生器装置在第一和第二传感器坐标系统中的位置的函数进行第一和第二传感器坐标系统的关联。
12.根据权利要求11所述的方法,其中,第一、第二和第三合成目标产生器装置是重新定位在所述道路上的不同的物理位置处的相同装置。
13.根据权利要求11所述的方法,其中,第一、第二和第三合成目标产生器装置同时定位在所述道路上的不同的物理位置处。
14.根据权利要求9的方法,其中,第一合成目标产生器装置相对于道路被保持在固定位置中。
15.一种在道路处使用的交通传感系统和标准化套件,所述套件包括:
能够定位在所述道路上或所述道路附近的第一合成目标产生器装置;
雷达传感器,具有能够定位在所述道路处的第一视场;
机器视觉传感器,具有能够定位在所述道路处的第二视场;
通信系统,被配置为将数据从第一和第二传感器传送到显示器。
16.根据权利要求15所述的套件,其中,第一合成目标产生器装置包括具有运动元件的机械或机电装置。
17.根据权利要求15所述的套件,其中,第一合成目标产生器装置包括生成用于模拟反射的雷达回波的电磁波的电气装置。
18.根据权利要求15所述的套件,其中,雷达传感器和机器视觉传感器彼此相邻地固定在共同混合传感器组件中。
19.根据权利要求15所述的套件,进一步包括:
终端,该终端能够操作地连接到通信系统,以允许操作者输入。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US41376410P | 2010-11-15 | 2010-11-15 | |
US61/413,764 | 2010-11-15 | ||
PCT/US2011/060726 WO2012068064A1 (en) | 2010-11-15 | 2011-11-15 | Hybrid traffic sensor system and associated method |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103026395A true CN103026395A (zh) | 2013-04-03 |
Family
ID=46084362
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011800319223A Pending CN103026395A (zh) | 2010-11-15 | 2011-11-15 | 混合交通传感器系统和相关的方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8849554B2 (zh) |
EP (1) | EP2663971A1 (zh) |
CN (1) | CN103026395A (zh) |
CA (1) | CA2803404A1 (zh) |
WO (1) | WO2012068064A1 (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103258429A (zh) * | 2013-04-26 | 2013-08-21 | 青岛海信网络科技股份有限公司 | 路口拥堵时机动车强行驶入的视频检测方法 |
CN103473938A (zh) * | 2013-09-16 | 2013-12-25 | 广东京安交通科技有限公司 | 一种可拓展的模块化道路交通信号控制机及其拓展方法 |
CN105096593A (zh) * | 2014-05-07 | 2015-11-25 | 罗伯特·博世有限公司 | 位置有关的具有交通路径识别的交通分析 |
CN106105399A (zh) * | 2014-03-19 | 2016-11-09 | 飞利浦灯具控股公司 | 多模态感测 |
CN106454147A (zh) * | 2016-10-25 | 2017-02-22 | 浙江宇视科技有限公司 | 图像采集补光方法及装置 |
CN106526605A (zh) * | 2016-10-28 | 2017-03-22 | 北京康力优蓝机器人科技有限公司 | 激光雷达与深度相机的数据融合方法及系统 |
CN107273785A (zh) * | 2016-03-30 | 2017-10-20 | 通用汽车环球科技运作有限责任公司 | 多尺度融合的道路表面状况检测 |
CN107797117A (zh) * | 2016-09-06 | 2018-03-13 | 夏普株式会社 | 自主行驶装置 |
CN108733030A (zh) * | 2018-06-05 | 2018-11-02 | 长春工业大学 | 一种基于网络的切换时滞系统中间估计器设计方法 |
CN109298429A (zh) * | 2017-07-24 | 2019-02-01 | 安波福技术有限公司 | 用于补偿传感器视场限制的自动化车辆操作 |
CN109615863A (zh) * | 2018-12-29 | 2019-04-12 | 南京理工大学 | 一种基于车牌识别的交通拥堵检测与通信装置及检测方法 |
CN110501698A (zh) * | 2018-05-18 | 2019-11-26 | 株式会社小糸制作所 | 传感器系统 |
CN110612234A (zh) * | 2017-03-31 | 2019-12-24 | 空中客车A^3有限责任公司 | 用于校准交通工具传感器的系统和方法 |
CN112257732A (zh) * | 2019-07-22 | 2021-01-22 | 南京人工智能高等研究院有限公司 | 一种特征图融合方法及装置 |
CN113091738A (zh) * | 2021-04-09 | 2021-07-09 | 安徽工程大学 | 基于视觉惯导融合的移动机器人地图构建方法及相关设备 |
CN113826028A (zh) * | 2019-03-31 | 2021-12-21 | 伟摩有限责任公司 | 雷达视场扩展 |
CN113888860A (zh) * | 2021-08-26 | 2022-01-04 | 北京万集科技股份有限公司 | 车辆异常行驶的检测方法、装置、服务器及可读存储介质 |
CN114863576A (zh) * | 2022-03-22 | 2022-08-05 | 蚂蚁区块链科技(上海)有限公司 | 路边停车位的管理系统和管理方法 |
CN115188214A (zh) * | 2022-07-11 | 2022-10-14 | 重庆交通大学 | 两车道混合交通协同控制方法、汽车及可读存储介质 |
Families Citing this family (71)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012068064A1 (en) * | 2010-11-15 | 2012-05-24 | Image Sensing Systems, Inc. | Hybrid traffic sensor system and associated method |
US9472097B2 (en) * | 2010-11-15 | 2016-10-18 | Image Sensing Systems, Inc. | Roadway sensing systems |
KR20120072131A (ko) * | 2010-12-23 | 2012-07-03 | 한국전자통신연구원 | 이미지 센서와 거리센서의 데이터 융합에 의한 상황인식 방법 및 그 장치 |
JP5741310B2 (ja) * | 2011-08-10 | 2015-07-01 | 富士通株式会社 | 車列長測定装置、車列長測定方法及び車列長測定用コンピュータプログラム |
US8953044B2 (en) * | 2011-10-05 | 2015-02-10 | Xerox Corporation | Multi-resolution video analysis and key feature preserving video reduction strategy for (real-time) vehicle tracking and speed enforcement systems |
US10018703B2 (en) * | 2012-09-13 | 2018-07-10 | Conduent Business Services, Llc | Method for stop sign law enforcement using motion vectors in video streams |
WO2013118730A1 (ja) * | 2012-02-08 | 2013-08-15 | 古野電気株式会社 | レーダ信号処理装置、レーダ装置、及びレーダ信号処理方法 |
US20130201051A1 (en) * | 2012-02-08 | 2013-08-08 | Iteris, Inc. | Vehicular observation and detection apparatus |
JP5615312B2 (ja) * | 2012-03-26 | 2014-10-29 | 株式会社デンソーアイティーラボラトリ | 渋滞予測方法及び渋滞予測装置 |
JP5716866B2 (ja) * | 2012-04-12 | 2015-05-13 | オムロン株式会社 | デバイス管理装置及びデバイス検索方法 |
EP2660624A1 (en) * | 2012-04-30 | 2013-11-06 | Traficon International N.V. | A traffic monitoring device and a method for monitoring a traffic stream. |
US9738253B2 (en) * | 2012-05-15 | 2017-08-22 | Aps Systems, Llc. | Sensor system for motor vehicle |
US9255989B2 (en) * | 2012-07-24 | 2016-02-09 | Toyota Motor Engineering & Manufacturing North America, Inc. | Tracking on-road vehicles with sensors of different modalities |
US9131295B2 (en) | 2012-08-07 | 2015-09-08 | Microsoft Technology Licensing, Llc | Multi-microphone audio source separation based on combined statistical angle distributions |
US9269146B2 (en) * | 2012-08-23 | 2016-02-23 | Microsoft Technology Licensing, Llc | Target object angle determination using multiple cameras |
JPWO2014050192A1 (ja) * | 2012-09-27 | 2016-08-22 | オムロン株式会社 | デバイス管理装置及びデバイス検索方法 |
KR20140062582A (ko) * | 2012-11-13 | 2014-05-26 | 한국전자통신연구원 | 차량 단말 장치 및 상기 차량 단말 장치의 제어 방법 |
ES2695156T3 (es) * | 2012-11-26 | 2019-01-02 | Sentry Prot Llc | Ensamblaje de sensor de esquina |
DE102013104256A1 (de) * | 2013-04-26 | 2014-10-30 | Conti Temic Microelectronic Gmbh | Verfahren und Vorrichtung zur Schätzung der Anzahl von Fahrspuren |
ES2543790T3 (es) * | 2013-05-13 | 2015-08-21 | Kapsch Trafficcom Ag | Dispositivo y procedimiento para determinar un rasgo de un vehículo |
PL2804013T3 (pl) * | 2013-05-13 | 2015-10-30 | Kapsch Trafficcom Ag | Urządzenie do pomiaru położenia pojazdu albo jego powierzchni |
US10377374B1 (en) * | 2013-11-06 | 2019-08-13 | Waymo Llc | Detection of pedestrian using radio devices |
US9654570B2 (en) * | 2013-12-20 | 2017-05-16 | International Business Machines Corporation | Providing a sensor composite service based on operational and spatial constraints |
DE102013114821B3 (de) * | 2013-12-23 | 2014-10-23 | Jenoptik Robot Gmbh | Verfahren zur Ausrichtung eines Laserscanners zu einer Fahrbahn |
DE102014119710A1 (de) | 2013-12-30 | 2015-07-02 | Clemens Rheinfelder | Vorrichtung und System zur Überwachung von Straßenverkehr, Fahrzeug sowie ein Verfahren zur Überwachung von Straßenverkehr |
KR20150084112A (ko) * | 2014-01-13 | 2015-07-22 | 한국전자통신연구원 | 교차로에서의 차량 제어 시스템 및 방법 |
EP2902802B1 (de) * | 2014-01-31 | 2016-10-26 | S.M.S. Smart Microwave Sensors GmbH | Sensorvorrichtung |
US9406145B2 (en) * | 2014-01-31 | 2016-08-02 | Applied Concepts, Inc. | Mobile radar and visual tracking coordinate transformation |
JP5991332B2 (ja) * | 2014-02-05 | 2016-09-14 | トヨタ自動車株式会社 | 衝突回避制御装置 |
US9208682B2 (en) * | 2014-03-13 | 2015-12-08 | Here Global B.V. | Lane level congestion splitting |
WO2015143037A1 (en) * | 2014-03-21 | 2015-09-24 | Omron Corporation | Method and apparatus for detecting and mitigating optical impairments in an optical system |
US9949339B2 (en) * | 2014-05-23 | 2018-04-17 | Lonestar Inventions, L.P. | Method and apparatus for controlling electrical power usage based on exact sun elevation angle and measured geographical location |
CA2955961A1 (en) | 2014-07-28 | 2016-02-04 | Econolite Group, Inc. | Self-configuring traffic signal controller |
DE102014010937A1 (de) * | 2014-07-28 | 2016-01-28 | S.M.S, Smart Microwave Sensors Gmbh | Verfahren zum Bestimmen einer Position und/oder Ausrichtung eines Sensors |
CN104881995B (zh) * | 2014-08-22 | 2017-10-31 | 中国科学院沈阳自动化研究所 | 一种路侧双波束微波雷达交通流量检测装置及方法 |
GB201503855D0 (en) * | 2015-03-06 | 2015-04-22 | Q Free Asa | Vehicle detection |
CN104933882A (zh) * | 2015-05-20 | 2015-09-23 | 浙江吉利汽车研究院有限公司 | 一种交通路口驾驶辅助方法及系统 |
US10378908B2 (en) * | 2015-06-26 | 2019-08-13 | Here Global B.V. | Method and apparatus for determining road stacking based upon error statistics |
US9847022B2 (en) * | 2015-07-22 | 2017-12-19 | Ace/Avant Concrete Construction Co., Inc. | Vehicle detection system and method |
US9805596B2 (en) * | 2015-07-31 | 2017-10-31 | University Of Central Florida Research Foundation, Inc. | Wrong way indication beacon and related methods |
US10109192B2 (en) * | 2015-07-31 | 2018-10-23 | Central Florida Expressway Authority | Wrong way indication beacon and related methods |
US10267908B2 (en) * | 2015-10-21 | 2019-04-23 | Waymo Llc | Methods and systems for clearing sensor occlusions |
GB2544324A (en) * | 2015-11-13 | 2017-05-17 | Cathx Res Ltd | Method and system for processing image data |
EP3236446B1 (en) * | 2016-04-22 | 2022-04-13 | Volvo Car Corporation | Arrangement and method for providing adaptation to queue length for traffic light assist-applications |
US10351131B2 (en) | 2016-08-16 | 2019-07-16 | University Of Central Florida Research Foundation, Inc. | Wrong way vehicle detection and control system |
JP2020502718A (ja) * | 2016-12-19 | 2020-01-23 | スルグリーン・エルエルシー | デジタル優先度付与をもつ接続された適応型車両交通管理システム |
ES2858448T3 (es) * | 2017-02-01 | 2021-09-30 | Kapsch Trafficcom Ag | Un procedimiento para predecir un comportamiento del tráfico en un sistema de carreteras |
US11043120B2 (en) * | 2017-06-28 | 2021-06-22 | Sumitomo Electric Industries, Ltd. | Preferential control cancel device, cancel method, and computer program |
US10705105B2 (en) | 2017-07-21 | 2020-07-07 | Applied Concepts, Inc. | Absolute speed detector |
JP6939378B2 (ja) * | 2017-10-11 | 2021-09-22 | トヨタ自動車株式会社 | 車両制御装置 |
CN109839132A (zh) * | 2017-11-29 | 2019-06-04 | 德尔福技术有限责任公司 | 自动车辆传感器校准系统 |
US20190162820A1 (en) * | 2017-11-29 | 2019-05-30 | Delphi Technologies, Llc | Automated vehicle sensor calibration system |
JP6828714B2 (ja) * | 2018-05-30 | 2021-02-10 | 株式会社Soken | 自己位置推定装置 |
EP3575829B1 (en) | 2018-05-30 | 2020-11-18 | Axis AB | A method of determining a transformation matrix |
CN110874926A (zh) * | 2018-08-31 | 2020-03-10 | 百度在线网络技术(北京)有限公司 | 智能路侧单元 |
CN110874922A (zh) * | 2018-08-31 | 2020-03-10 | 百度在线网络技术(北京)有限公司 | 智能路侧单元及其信息处理方法 |
DE102018007323A1 (de) * | 2018-09-18 | 2020-03-19 | Rtb Gmbh & Co. Kg | Kontrolleinrichtung für eine Ein- und Ausfahrt |
US10885776B2 (en) | 2018-10-11 | 2021-01-05 | Toyota Research Institute, Inc. | System and method for roadway context learning by infrastructure sensors |
WO2020230619A1 (ja) * | 2019-05-13 | 2020-11-19 | 日立オートモティブシステムズ株式会社 | 車両制御システム |
GB2584619A (en) * | 2019-05-23 | 2020-12-16 | The Local Data Company Ltd | Electronic counting device and method for counting objects |
JP7298323B2 (ja) * | 2019-06-14 | 2023-06-27 | マツダ株式会社 | 外部環境認識装置 |
JP7352393B2 (ja) * | 2019-06-21 | 2023-09-28 | パナソニックホールディングス株式会社 | 監視システム、及び、監視方法 |
WO2021099189A1 (en) | 2019-11-22 | 2021-05-27 | Signify Holding B.V. | Allocating different tasks to a plurality of presence sensor systems |
US11720106B2 (en) * | 2020-01-07 | 2023-08-08 | GM Global Technology Operations LLC | Sensor coverage analysis for automated driving scenarios involving intersections |
WO2021261680A1 (ko) * | 2020-06-26 | 2021-12-30 | 주식회사 에스오에스랩 | 센서 데이터 공유 및 활용 방법 |
US11956693B2 (en) * | 2020-12-03 | 2024-04-09 | Mitsubishi Electric Corporation | Apparatus and method for providing location |
JPWO2022153660A1 (zh) * | 2021-01-15 | 2022-07-21 | ||
DE102021108439A1 (de) * | 2021-04-01 | 2022-10-06 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Betreiben einer Heizeinrichtung zum Temperieren eines Radoms eines Radarsensors eines Fahrzeugs mit Nutzung von Bilddaten einer Kamera, Recheneinrichtung, Heizregelsystem sowie Fahrzeug |
CN113724499A (zh) * | 2021-11-01 | 2021-11-30 | 华录易云科技有限公司 | 一种道路交通事件三维可视化分析方法及系统 |
US20230316911A1 (en) * | 2022-03-31 | 2023-10-05 | Denso Corporation | Intersection-based map message generation and broadcasting |
US20230315717A1 (en) * | 2022-03-31 | 2023-10-05 | Amazon Technologies, Inc. | Vehicle update system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020092046A (ko) * | 2001-06-01 | 2002-12-11 | 주식회사 창의시스템 | 교통 정보 수집 및 상황 감시를 위한 통합 전송 장치 |
US6590521B1 (en) * | 1999-11-04 | 2003-07-08 | Honda Giken Gokyo Kabushiki Kaisha | Object recognition system |
KR20050075261A (ko) * | 2004-01-16 | 2005-07-20 | 서정수 | 교통정보 전송장치 |
CN1940711A (zh) * | 2005-09-27 | 2007-04-04 | 欧姆龙株式会社 | 前方摄影装置 |
US20070247334A1 (en) * | 2004-02-18 | 2007-10-25 | Gebert Rudiger H | Method and System For Verifying a Traffic Violation Image |
Family Cites Families (92)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA1210117A (en) | 1982-12-23 | 1986-08-19 | David M. Thomas | Algorithm for radar coordinate conversion in digital scan converters |
DE3728401A1 (de) | 1987-08-26 | 1989-03-09 | Robot Foto Electr Kg | Verkehrsueberwachungseinrichtung |
US5583506A (en) | 1988-07-22 | 1996-12-10 | Northrop Grumman Corporation | Signal processing system and method |
US5045937A (en) | 1989-08-25 | 1991-09-03 | Space Island Products & Services, Inc. | Geographical surveying using multiple cameras to obtain split-screen images with overlaid geographical coordinates |
US5245909A (en) | 1990-05-07 | 1993-09-21 | Mcdonnell Douglas Corporation | Automatic sensor alignment |
US5293455A (en) | 1991-02-13 | 1994-03-08 | Hughes Aircraft Company | Spatial-temporal-structure processor for multi-sensor, multi scan data fusion |
US5257194A (en) | 1991-04-30 | 1993-10-26 | Mitsubishi Corporation | Highway traffic signal local controller |
US6738697B2 (en) | 1995-06-07 | 2004-05-18 | Automotive Technologies International Inc. | Telematics system for vehicle diagnostics |
US5221956A (en) | 1991-08-14 | 1993-06-22 | Kustom Signals, Inc. | Lidar device with combined optical sight |
US5239296A (en) | 1991-10-23 | 1993-08-24 | Black Box Technologies | Method and apparatus for receiving optical signals used to determine vehicle velocity |
US5438361A (en) | 1992-04-13 | 1995-08-01 | Hughes Aircraft Company | Electronic gimbal system for electronically aligning video frames from a video sensor subject to disturbances |
US5661666A (en) | 1992-11-06 | 1997-08-26 | The United States Of America As Represented By The Secretary Of The Navy | Constant false probability data fusion system |
US5801943A (en) | 1993-07-23 | 1998-09-01 | Condition Monitoring Systems | Traffic surveillance and simulation apparatus |
WO1995032483A1 (en) | 1994-05-19 | 1995-11-30 | Geospan Corporation | Method for collecting and processing visual and spatial position information |
US7783403B2 (en) | 1994-05-23 | 2010-08-24 | Automotive Technologies International, Inc. | System and method for preventing vehicular accidents |
KR960003444A (ko) | 1994-06-01 | 1996-01-26 | 제임스 디. 튜턴 | 차량 감시 시스템 |
US5537511A (en) | 1994-10-18 | 1996-07-16 | The United States Of America As Represented By The Secretary Of The Navy | Neural network based data fusion system for source localization |
US7418346B2 (en) | 1997-10-22 | 2008-08-26 | Intelligent Technologies International, Inc. | Collision avoidance methods and systems |
US7610146B2 (en) | 1997-10-22 | 2009-10-27 | Intelligent Technologies International, Inc. | Vehicle position determining system and method |
DE19532104C1 (de) | 1995-08-30 | 1997-01-16 | Daimler Benz Ag | Verfahren und Vorrichtung zur Bestimmung der Position wenigstens einer Stelle eines spurgeführten Fahrzeugs |
JPH09142236A (ja) | 1995-11-17 | 1997-06-03 | Mitsubishi Electric Corp | 車両の周辺監視方法と周辺監視装置及び周辺監視装置の故障判定方法と周辺監視装置の故障判定装置 |
ES2195127T3 (es) * | 1996-04-01 | 2003-12-01 | Gatsometer Bv | Metodo y aparato para determinar la velocidad y la situacion de un vehiculo. |
DE19622777A1 (de) | 1996-06-07 | 1997-12-11 | Bosch Gmbh Robert | Sensorsystem zur automatischen relativen Positionskontrolle |
DE19632252B4 (de) | 1996-06-25 | 2006-03-02 | Volkswagen Ag | Vorrichtung zum Befestigen einer Sensoreinrichtung |
US5850625A (en) | 1997-03-13 | 1998-12-15 | Accurate Automation Corporation | Sensor fusion apparatus and method |
US5798983A (en) | 1997-05-22 | 1998-08-25 | Kuhn; John Patrick | Acoustic sensor system for vehicle detection and multi-lane highway monitoring |
US5963653A (en) | 1997-06-19 | 1999-10-05 | Raytheon Company | Hierarchical information fusion object recognition system and method |
US7647180B2 (en) | 1997-10-22 | 2010-01-12 | Intelligent Technologies International, Inc. | Vehicular intersection management techniques |
US7796081B2 (en) | 1997-10-22 | 2010-09-14 | Intelligent Technologies International, Inc. | Combined imaging and distance monitoring for vehicular applications |
US5952957A (en) | 1998-05-01 | 1999-09-14 | The United States Of America As Represented By The Secretary Of The Navy | Wavelet transform of super-resolutions based on radar and infrared sensor fusion |
US6466862B1 (en) * | 1999-04-19 | 2002-10-15 | Bruce DeKock | System for providing traffic information |
EP1055941B1 (en) | 1999-05-28 | 2006-10-04 | Mitsubishi Denki Kabushiki Kaisha | Coherent laser radar apparatus and radar/optical communication system |
US6499025B1 (en) | 1999-06-01 | 2002-12-24 | Microsoft Corporation | System and method for tracking objects by fusing results of multiple sensing modalities |
WO2000077539A1 (en) | 1999-06-14 | 2000-12-21 | Escort Inc. | Radar warning receiver with position and velocity sensitive functions |
JP2002189075A (ja) | 2000-12-20 | 2002-07-05 | Fujitsu Ten Ltd | 道路上方静止物検知方法 |
DE60212468T2 (de) | 2001-02-08 | 2007-06-14 | Fujitsu Ten Ltd., Kobe | Verfahren und Vorrichtung zum Justieren einer Einbauanordnung für Radar, sowie Radar justiert von diesem Verfahren oder dieser Vorrichtung |
US6696978B2 (en) | 2001-06-12 | 2004-02-24 | Koninklijke Philips Electronics N.V. | Combined laser/radar-video speed violation detector for law enforcement |
US7027615B2 (en) | 2001-06-20 | 2006-04-11 | Hrl Laboratories, Llc | Vision-based highway overhead structure detection system |
WO2003006288A1 (de) | 2001-07-11 | 2003-01-23 | Robert Bosch Gmbh | Verfahren und vorrichtung zur prädiktion von bewegungstrajektorien eines kraftahrzeugs |
US6556916B2 (en) * | 2001-09-27 | 2003-04-29 | Wavetronix Llc | System and method for identification of traffic lane positions |
US6693557B2 (en) * | 2001-09-27 | 2004-02-17 | Wavetronix Llc | Vehicular traffic sensor |
DE10149115A1 (de) | 2001-10-05 | 2003-04-17 | Bosch Gmbh Robert | Objekterfassungsvorrichtung |
US7099796B2 (en) | 2001-10-22 | 2006-08-29 | Honeywell International Inc. | Multi-sensor information fusion technique |
US6909997B2 (en) | 2002-03-26 | 2005-06-21 | Lockheed Martin Corporation | Method and system for data fusion using spatial and temporal diversity between sensors |
US6771208B2 (en) | 2002-04-24 | 2004-08-03 | Medius, Inc. | Multi-sensor system |
JP4019933B2 (ja) | 2002-12-26 | 2007-12-12 | 日産自動車株式会社 | 車両用レーダ装置およびレーダの光軸調整方法 |
US7382277B2 (en) | 2003-02-12 | 2008-06-03 | Edward D. Ioli Trust | System for tracking suspicious vehicular activity |
US7148861B2 (en) | 2003-03-01 | 2006-12-12 | The Boeing Company | Systems and methods for providing enhanced vision imaging with decreased latency |
RU2251712C1 (ru) | 2003-09-01 | 2005-05-10 | Государственное унитарное предприятие "Конструкторское бюро приборостроения" | Способ определения координат объекта и оптико-электронное устройство для его осуществления |
US7688224B2 (en) | 2003-10-14 | 2010-03-30 | Siemens Industry, Inc. | Method and system for collecting traffic data, monitoring traffic, and automated enforcement at a centralized station |
US7643066B2 (en) | 2004-02-19 | 2010-01-05 | Robert Bosch Gmbh | Method and apparatus for producing frame accurate position data in a PTZ dome camera with open loop control |
US7558762B2 (en) | 2004-08-14 | 2009-07-07 | Hrl Laboratories, Llc | Multi-view cognitive swarm for object recognition and 3D tracking |
US6903676B1 (en) | 2004-09-10 | 2005-06-07 | The United States Of America As Represented By The Secretary Of The Navy | Integrated radar, optical surveillance, and sighting system |
US7881496B2 (en) | 2004-09-30 | 2011-02-01 | Donnelly Corporation | Vision system for vehicle |
US20060091654A1 (en) | 2004-11-04 | 2006-05-04 | Autoliv Asp, Inc. | Sensor system with radar sensor and vision sensor |
US7639841B2 (en) | 2004-12-20 | 2009-12-29 | Siemens Corporation | System and method for on-road detection of a vehicle using knowledge fusion |
BE1016449A5 (nl) | 2005-02-07 | 2006-11-07 | Traficon Nv | Inrichting voor het detecteren van voertuigen en verkeerscontrolesysteem voorzien van dergelijke inrichting. |
US7821448B2 (en) | 2005-03-10 | 2010-10-26 | Honeywell International Inc. | Constant altitude plan position indicator display for multiple radars |
US7558536B2 (en) | 2005-07-18 | 2009-07-07 | EIS Electronic Integrated Systems, Inc. | Antenna/transceiver configuration in a traffic sensor |
US7454287B2 (en) | 2005-07-18 | 2008-11-18 | Image Sensing Systems, Inc. | Method and apparatus for providing automatic lane calibration in a traffic sensor |
US7768427B2 (en) * | 2005-08-05 | 2010-08-03 | Image Sensign Systems, Inc. | Processor architecture for traffic sensor and method for obtaining and processing traffic data using same |
US7706978B2 (en) * | 2005-09-02 | 2010-04-27 | Delphi Technologies, Inc. | Method for estimating unknown parameters for a vehicle object detection system |
US7474259B2 (en) * | 2005-09-13 | 2009-01-06 | Eis Electronic Integrated Systems Inc. | Traffic sensor and method for providing a stabilized signal |
US7460951B2 (en) | 2005-09-26 | 2008-12-02 | Gm Global Technology Operations, Inc. | System and method of target tracking using sensor fusion |
US7573400B2 (en) | 2005-10-31 | 2009-08-11 | Wavetronix, Llc | Systems and methods for configuring intersection detection zones |
US7889097B1 (en) * | 2005-12-19 | 2011-02-15 | Wavetronix Llc | Detecting targets in roadway intersections |
US7536365B2 (en) | 2005-12-08 | 2009-05-19 | Northrop Grumman Corporation | Hybrid architecture for acquisition, recognition, and fusion |
FI124429B (fi) | 2005-12-15 | 2014-08-29 | Foster Wheeler Energia Oy | Menetelmä ja laitteisto voimakattilan seinien tukemiseksi |
US7991542B2 (en) * | 2006-03-24 | 2011-08-02 | Wavetronix Llc | Monitoring signalized traffic flow |
US7420501B2 (en) | 2006-03-24 | 2008-09-02 | Sensis Corporation | Method and system for correlating radar position data with target identification data, and determining target position using round trip delay data |
US7541943B2 (en) | 2006-05-05 | 2009-06-02 | Eis Electronic Integrated Systems Inc. | Traffic sensor incorporating a video camera and method of operating same |
ATE479907T1 (de) * | 2006-07-13 | 2010-09-15 | Siemens Ag | Radaranordnung |
US9076332B2 (en) * | 2006-10-19 | 2015-07-07 | Makor Issues And Rights Ltd. | Multi-objective optimization for real time traffic light control and navigation systems for urban saturated networks |
US7501976B2 (en) | 2006-11-07 | 2009-03-10 | Dan Manor | Monopulse traffic sensor and method |
US7786897B2 (en) | 2007-01-23 | 2010-08-31 | Jai Pulnix, Inc. | High occupancy vehicle (HOV) lane enforcement |
US8462323B2 (en) | 2007-03-27 | 2013-06-11 | Metrolaser, Inc. | Integrated multi-sensor surveilance and tracking system |
US7825829B2 (en) | 2007-05-15 | 2010-11-02 | Jai, Inc. USA | Modulated light trigger for license plate recognition cameras |
US20080300776A1 (en) | 2007-06-01 | 2008-12-04 | Petrisor Gregory C | Traffic lane management system |
US7710257B2 (en) | 2007-08-14 | 2010-05-04 | International Business Machines Corporation | Pattern driven effectuator system |
US7532152B1 (en) | 2007-11-26 | 2009-05-12 | Toyota Motor Engineering & Manufacturing North America, Inc. | Automotive radar system |
FR2928221B1 (fr) | 2008-02-28 | 2013-10-18 | Neavia Technologies | Procede et dispositif de detection multi-technologie de vehicule. |
US20090292468A1 (en) | 2008-03-25 | 2009-11-26 | Shunguang Wu | Collision avoidance method and system using stereo vision and radar sensor fusion |
JP2012505115A (ja) | 2008-10-08 | 2012-03-01 | デルファイ・テクノロジーズ・インコーポレーテッド | 一体型レーダー−カメラセンサ |
TWI339627B (en) | 2008-12-30 | 2011-04-01 | Ind Tech Res Inst | System and method for detecting surrounding environment |
US8775063B2 (en) | 2009-01-26 | 2014-07-08 | GM Global Technology Operations LLC | System and method of lane path estimation using sensor fusion |
US8812226B2 (en) | 2009-01-26 | 2014-08-19 | GM Global Technology Operations LLC | Multiobject fusion module for collision preparation system |
US20100235129A1 (en) | 2009-03-10 | 2010-09-16 | Honeywell International Inc. | Calibration of multi-sensor system |
US8395529B2 (en) | 2009-04-02 | 2013-03-12 | GM Global Technology Operations LLC | Traffic infrastructure indicator on head-up display |
US8482486B2 (en) * | 2009-04-02 | 2013-07-09 | GM Global Technology Operations LLC | Rear view mirror on full-windshield head-up display |
US8676466B2 (en) | 2009-04-06 | 2014-03-18 | GM Global Technology Operations LLC | Fail-safe speed profiles for cooperative autonomous vehicles |
US8339282B2 (en) * | 2009-05-08 | 2012-12-25 | Lawson John Noble | Security systems |
WO2012068064A1 (en) * | 2010-11-15 | 2012-05-24 | Image Sensing Systems, Inc. | Hybrid traffic sensor system and associated method |
-
2011
- 2011-11-15 WO PCT/US2011/060726 patent/WO2012068064A1/en active Application Filing
- 2011-11-15 CN CN2011800319223A patent/CN103026395A/zh active Pending
- 2011-11-15 CA CA2803404A patent/CA2803404A1/en not_active Abandoned
- 2011-11-15 EP EP11840730.3A patent/EP2663971A1/en not_active Withdrawn
- 2011-11-15 US US13/704,316 patent/US8849554B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6590521B1 (en) * | 1999-11-04 | 2003-07-08 | Honda Giken Gokyo Kabushiki Kaisha | Object recognition system |
KR20020092046A (ko) * | 2001-06-01 | 2002-12-11 | 주식회사 창의시스템 | 교통 정보 수집 및 상황 감시를 위한 통합 전송 장치 |
KR20050075261A (ko) * | 2004-01-16 | 2005-07-20 | 서정수 | 교통정보 전송장치 |
US20070247334A1 (en) * | 2004-02-18 | 2007-10-25 | Gebert Rudiger H | Method and System For Verifying a Traffic Violation Image |
CN1940711A (zh) * | 2005-09-27 | 2007-04-04 | 欧姆龙株式会社 | 前方摄影装置 |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103258429A (zh) * | 2013-04-26 | 2013-08-21 | 青岛海信网络科技股份有限公司 | 路口拥堵时机动车强行驶入的视频检测方法 |
CN103258429B (zh) * | 2013-04-26 | 2015-06-03 | 青岛海信网络科技股份有限公司 | 路口拥堵时机动车强行驶入的视频检测方法 |
CN103473938A (zh) * | 2013-09-16 | 2013-12-25 | 广东京安交通科技有限公司 | 一种可拓展的模块化道路交通信号控制机及其拓展方法 |
CN106105399A (zh) * | 2014-03-19 | 2016-11-09 | 飞利浦灯具控股公司 | 多模态感测 |
CN105096593A (zh) * | 2014-05-07 | 2015-11-25 | 罗伯特·博世有限公司 | 位置有关的具有交通路径识别的交通分析 |
CN105096593B (zh) * | 2014-05-07 | 2019-07-30 | 罗伯特·博世有限公司 | 位置有关的具有交通路径识别的交通分析 |
CN107273785A (zh) * | 2016-03-30 | 2017-10-20 | 通用汽车环球科技运作有限责任公司 | 多尺度融合的道路表面状况检测 |
CN107797117A (zh) * | 2016-09-06 | 2018-03-13 | 夏普株式会社 | 自主行驶装置 |
CN106454147A (zh) * | 2016-10-25 | 2017-02-22 | 浙江宇视科技有限公司 | 图像采集补光方法及装置 |
CN106454147B (zh) * | 2016-10-25 | 2019-06-11 | 浙江宇视科技有限公司 | 图像采集补光方法及装置 |
CN106526605B (zh) * | 2016-10-28 | 2019-05-14 | 北京康力优蓝机器人科技有限公司 | 激光雷达与深度相机的数据融合方法及系统 |
CN106526605A (zh) * | 2016-10-28 | 2017-03-22 | 北京康力优蓝机器人科技有限公司 | 激光雷达与深度相机的数据融合方法及系统 |
CN110612234A (zh) * | 2017-03-31 | 2019-12-24 | 空中客车A^3有限责任公司 | 用于校准交通工具传感器的系统和方法 |
CN110612234B (zh) * | 2017-03-31 | 2023-05-02 | 空中客车A^3有限责任公司 | 用于校准交通工具传感器的系统和方法 |
CN109298429A (zh) * | 2017-07-24 | 2019-02-01 | 安波福技术有限公司 | 用于补偿传感器视场限制的自动化车辆操作 |
CN110501698A (zh) * | 2018-05-18 | 2019-11-26 | 株式会社小糸制作所 | 传感器系统 |
CN108733030A (zh) * | 2018-06-05 | 2018-11-02 | 长春工业大学 | 一种基于网络的切换时滞系统中间估计器设计方法 |
CN109615863B (zh) * | 2018-12-29 | 2021-11-23 | 南京理工大学 | 一种基于车牌识别的交通拥堵检测与通信装置及检测方法 |
CN109615863A (zh) * | 2018-12-29 | 2019-04-12 | 南京理工大学 | 一种基于车牌识别的交通拥堵检测与通信装置及检测方法 |
CN113826028A (zh) * | 2019-03-31 | 2021-12-21 | 伟摩有限责任公司 | 雷达视场扩展 |
CN112257732A (zh) * | 2019-07-22 | 2021-01-22 | 南京人工智能高等研究院有限公司 | 一种特征图融合方法及装置 |
CN113091738A (zh) * | 2021-04-09 | 2021-07-09 | 安徽工程大学 | 基于视觉惯导融合的移动机器人地图构建方法及相关设备 |
CN113888860A (zh) * | 2021-08-26 | 2022-01-04 | 北京万集科技股份有限公司 | 车辆异常行驶的检测方法、装置、服务器及可读存储介质 |
CN114863576A (zh) * | 2022-03-22 | 2022-08-05 | 蚂蚁区块链科技(上海)有限公司 | 路边停车位的管理系统和管理方法 |
CN115188214A (zh) * | 2022-07-11 | 2022-10-14 | 重庆交通大学 | 两车道混合交通协同控制方法、汽车及可读存储介质 |
CN115188214B (zh) * | 2022-07-11 | 2023-09-22 | 重庆交通大学 | 两车道混合交通协同控制方法、汽车及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2012068064A1 (en) | 2012-05-24 |
US20130151135A1 (en) | 2013-06-13 |
EP2663971A1 (en) | 2013-11-20 |
US8849554B2 (en) | 2014-09-30 |
CA2803404A1 (en) | 2012-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103026395A (zh) | 混合交通传感器系统和相关的方法 | |
JP2023126882A (ja) | 車両を自律的にナビゲートするためのシステム、車両、および車両をナビゲートする方法 | |
US9696409B2 (en) | Sensor suite and signal processing for border surveillance | |
CN109166314A (zh) | 基于全方位跟踪检测雷达的路况感知设备及车路协同系统 | |
CN102081861B (zh) | 车载装置及认知支援系统 | |
CN104590319B (zh) | 异物侵入检测装置和异物侵入检测方法 | |
RU113398U1 (ru) | Комплекс видеофиксации и измерения скорости движения и координат транспортных средств | |
JP5902046B2 (ja) | 自動車に搭載されているgnss受信機の位置を決定する方法及びシステム | |
KR101457137B1 (ko) | 레이더 센서에 의한 차량 현장 통합 감시 시스템 | |
CA2934301A1 (en) | Traffic monitoring and surveillance system and method, and corresponding traffic infraction recording system and unmanned air vehicle | |
CN110406544A (zh) | 雨雾场景下的车辆感知系统及方法 | |
US20210208282A1 (en) | Detection device and detection system | |
WO2013149149A1 (en) | Method to identify driven lane on map and improve vehicle position estimate | |
US20150325119A1 (en) | Site-specific traffic analysis including identification of a traffic path | |
RU2696464C2 (ru) | Двойной стереоскопический датчик | |
WO2018143237A1 (ja) | 情報処理装置、サーバ装置、情報処理システム、情報処理方法、およびプログラム | |
CN103765438A (zh) | 用于识别车辆前方的被照明的车道的方法和设备 | |
JP2011027595A (ja) | 地図データ検証システム | |
WO2020071995A1 (en) | Real time vehicle location system | |
US20080291274A1 (en) | Method for Operating at Least One Camera | |
US20230204380A1 (en) | Method for locating carriageway markings in a motor vehicle and motor vehicle | |
JP3501653B2 (ja) | エプロン監視方法及びその装置 | |
Wathen et al. | Real-time 3D change detection of IEDs | |
Kurata et al. | Evaluation of the detection characteristics of road sensors under poor-visibility conditions | |
Fuerstenberg et al. | Feature-level map building and object recognition for intersection safety applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1180437 Country of ref document: HK |
|
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130403 |