CN108469825A - 一种基于车路协同的智能巡视系统及其构建方法 - Google Patents
一种基于车路协同的智能巡视系统及其构建方法 Download PDFInfo
- Publication number
- CN108469825A CN108469825A CN201810354660.8A CN201810354660A CN108469825A CN 108469825 A CN108469825 A CN 108469825A CN 201810354660 A CN201810354660 A CN 201810354660A CN 108469825 A CN108469825 A CN 108469825A
- Authority
- CN
- China
- Prior art keywords
- intelligent patrol
- information
- patrol robot
- robot
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010276 construction Methods 0.000 title claims abstract description 16
- 238000007689 inspection Methods 0.000 claims abstract description 66
- 238000004891 communication Methods 0.000 claims abstract description 53
- 238000001514 detection method Methods 0.000 claims abstract description 24
- 230000007613 environmental effect Effects 0.000 claims abstract description 11
- 230000004888 barrier function Effects 0.000 claims description 74
- 238000005259 measurement Methods 0.000 claims description 56
- 238000001228 spectrum Methods 0.000 claims description 30
- 230000004927 fusion Effects 0.000 claims description 20
- 238000013459 approach Methods 0.000 claims description 18
- 238000000034 method Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 15
- 239000007789 gas Substances 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 10
- 101001093748 Homo sapiens Phosphatidylinositol N-acetylglucosaminyltransferase subunit P Proteins 0.000 claims description 9
- 230000000875 corresponding effect Effects 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 9
- 238000005516 engineering process Methods 0.000 claims description 7
- 230000005540 biological transmission Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 239000004615 ingredient Substances 0.000 claims description 6
- 239000000203 mixture Substances 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000013519 translation Methods 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 239000002341 toxic gas Substances 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 230000002596 correlated effect Effects 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000009434 installation Methods 0.000 claims description 3
- 238000007500 overflow downdraw method Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 230000002776 aggregation Effects 0.000 claims 1
- 238000004220 aggregation Methods 0.000 claims 1
- 230000008859 change Effects 0.000 claims 1
- 235000013399 edible fruits Nutrition 0.000 claims 1
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000008447 perception Effects 0.000 abstract description 2
- 238000012544 monitoring process Methods 0.000 description 3
- 239000000155 melt Substances 0.000 description 2
- 239000003595 mist Substances 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000686 essence Substances 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
- G05D1/0236—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于车路协同的智能巡视系统及其构建方法,通过建设在路边的路侧装置,获取检测范围内的环境信息及路面行人与非机动车的位置信息,将这些信息通过4G等有线或无线通信方式传输至中央处理设备,中央处理设备接收到路侧设备检测到的信息后,对这些数据进行处理和融合,然后通过内置的4G等有线或无线通信反馈给巡视区域内的智能巡视机器人,提供所巡视路径周边的环境信息,为智能巡视机器人的视觉盲区提供障碍物信息,实现多台智能巡视机器人对路侧装置检测到的信息的共享。智能巡视机器人根据这些信息感知周围环境,在沿着巡视路径行进的过程中,获取巡视信息并传送到中央处理设备,用于安防人员的观察。
Description
技术领域
本发明属于机器人智能控制及智能交通领域,将智能控制技术和智能交通与巡视机器人相结合,实现智能巡视机器人的自主巡视,特别是涉及一种基于车路协同的智能巡视系统及其构建方法。
背景技术
智能移动机器人是机器人研究领域的一个重要分支,主要研究方向集中在信息采集,导航定位,路径规划等方面。目前已有的智能巡视机器人,自身携带众多传感器,且可靠性较低,成本较高。智能巡视机器人在对采集到的数据进行处理时,大多依靠机器人自身,这样加就会大智能巡视机器人的运行负担,导致智能巡视机器人采集到信息的准确性和实时性较差。并且当前的智能巡视机器人多为基于GPS的定位终端系统,但是GPS信号的覆盖范围有限,无法在室内、隧道或高大建筑物附近保证稳定的通信连接。而且现有的智能巡视机器人不能检测到位于盲区的环境信息,特别是一些复杂路口的非机动车辆、行人的位置信息以及它们的状态。
发明内容
针对上述现有技术中描述的不足,本发明提供一种基于车路协同的智能巡视系统及其构建方法。本发明充分利用车路协同的技术优势,提高鲁棒性,降低成本,并且在中央处理设备进行数据处理,提高了智能巡视机器人的运行效率,同时为智能巡视机器人的盲区提供障碍物信息,实现多台智能巡视机器人间的信息共享,使智能巡视机器人更安全、高效、有序地完成巡视任务。
为解决上述技术问题,本发明所采用的技术方案如下:
一种基于车路协同的智能巡视系统,包括中央处理设备、路侧设备和智能巡视机器人,所述路侧设备包括激光检测传感器,通信单元,视觉传感器、温湿度传感器和雨量传感器;所述激光检测传感器用于获取交叉口路和弯道上的行人及非机动车位置信息,填补智能巡视机器人的检测盲区信息;所述通信单元包括DSRC通信模块和4G通信模块/无线通信模块;DSRC通信模块用于智能巡视机器人与路侧设备之间的信息交互;4G通信模块/无线通信模块用于路侧设备和中央处理设备之间的信息交互;所述视觉传感器包括安装在路侧设备上的视频摄像机,用于获取检测范围的动态环境信息和路面图像的纹理特征;所述温湿度传感器用于得到巡视环境中天气温湿度信息,所述雨量传感器用于得到巡视环境中降雨量的信息。
中央处理设备包括信息融合处理器、显示设备、4G通信模块/无线通信模块;所述信息融合处理器用于对路侧设备检测所得的信息进行处理、融合;所述显示设备用于将智能巡视机器人和路侧设备得到的信息反馈给安防人员;所述信息包括智能巡视机器人的巡视检测信息和路侧设备的工作状况信息,使安防人员能够实时获得智能巡视机器人的巡视环境信息,了解路侧设备的工作情况,以便及时检修;4G通信模块/无线通信模块,用于将经过信息融合处理器处理后的信息反馈给智能巡视机器人,指导智能巡视机器人自主驾驶和完成巡视任务。
智能巡视机器人上安装有毫米波雷达、温度传感器、气体成份传感器、浓度传感器、红外摄像机;所述毫米波雷达用于智能巡视机器人巡视过程对障碍物的测距,在遭遇大雾、雨雪恶劣天气时,智能巡视机器人仍可顺利工作;所述温度传感器用于获取巡视区域内的温度,气体成份传感器用于获取巡视区域内气体的组成成份,浓度传感器用于获取巡视区域内的气体浓度,便于智能巡视机器人检测小型火灾及危险区域内的有毒气体;红外摄像机用于及时检测巡视路径上的凹障碍物,同时使智能巡视机器人具备夜间工作的能力。
在智能巡视机器人上还安装有防跌落传感器,防跌落传感器检测到智能巡视机器人处于悬空状态时,智能巡视机器人及时急停,避免跌落,提高智能巡视机器人的鲁棒性,增强工作性能。
一种基于车路协同的智能巡视系统构建方法,步骤如下:S1,在智能巡视机器人内存储所要巡视区域的高精度地图,并设定智能巡视机器人的巡视路径;
S1.1、在智能巡视机器人中存储所巡视区域的高精度地图;
S1.2、设定巡视路径;
S1.2.1、获取智能巡视机器人的当前位置信息,并将当前位置信息作为起点,记为a1;
S1.2.2、在巡视路径上每隔设定距离获取并标定一次智能机器人的位置坐标,依次记为a2、a3、......、an,然后回到起点;
S1.2.3、智能巡视机器人返回至起点处并将标定的位置信息依次存储到智能巡视机器人内,完成巡视路径的设定;
S2,智能巡视机器人通过DRSC通信与路侧设备连接,并获取与路侧设备在同一时刻的距离信息,然后得到智能巡视机器人在所巡视区域内自身的局部位置信息;
S2.1,在巡视区域内,获取各路测设备的位置信息和高度信息,位置信息记为S(Xi,Yi)i=1,2,...,l,高度信息记为hi i=1,2,...,l,l为路测设备的个数,且l≥3;
S2.2,智能巡视机器人通过DSRC通信与路侧设备建立连接,并获取智能巡视机器人在同一时刻与各路侧设备的距离信息,记作[m1,m2,...,mi,...,ml];
S2.3,计算智能巡视机器人与各路侧设备的水平距离pi,计算公式为:
S2.4,根据步骤S2.3计算智能巡视机器人在巡视区域内的位置W(A,B),该智能巡视机器人的位置W(A,B)是通过各路侧设备的位置信息S(Xi,Yi)i=1,2,...,l计算得到,是一个智能巡视机器人与多个路侧设备之间的关系,计算公式为:
S3,智能巡视机器人进行避障巡视;
智能巡视机器人预先通过避障学习,之后在巡视工作中能够根据与障碍物的相对位置避开障碍物。
S3.1,智能巡视机器人采用B-P神经网络进行避障学习;
其步骤如下:
S3.1.1,建立智能巡视机器人和障碍物相对位置关系模型,记为:
M=[M1,M2,...,Mj,...,Mq];
S3.1.2,设定智能巡视机器人与障碍物间的安全距离,打开毫米波雷达,获得智能巡视机器人和障碍物间的距离信息;
S3.1.3,以智能巡视机器人和障碍物的距离数据作为输入矩阵,以智能巡视机器人和障碍物相对位置关系模型为期望输出矩阵,使用训练方法为梯度下降法、传递函数是非线性变换函数Sigmoid函数的BP神经网络模型进行训练;
S3.2,训练完成后,智能巡视机器人开始巡视,并通过毫米波雷达获得智能巡视机器人与障碍物的实时距离,并将获得的实时距离作为训练后BP神经网络模型的输入实现避障;
S3.3,在巡视过程中,智能巡视机器人获取当前环境图像信息并采用U-V视差进行处理,实现对凹障碍物的检测,获得凹障碍物的位置信息,并进行躲避,防止智能巡视机器人陷于凹障碍物中;
具体步骤如下:
S3.3.1,获得智能巡视机器人所处环境的视差图;
智能巡视机器人的摄像机获取当前所处环境的图像对,通过立体匹配算法得到视差图,并对视差图进行预处理,去除图像的噪声,增强对比度;
S3.3.2,计算凹障碍物在Y方向的坐标;
在处理后的视差图上统计V视差,使用Hough变换处理,检测道路相关线和障碍物相关线,则道路相关线和障碍物相关线的交点就是凹障碍物在Y方向的坐标;
S3.3.3,计算凹障碍物在Y方向的坐标;
在处理后的视差图上统计U视差,在U视图上进行Hough变换处理,检测横向直线,则横向直线就是凹障碍物在X方向的坐标;
S3.3.4,结合步骤S3.1.3和步骤S3.1.4得到凹障碍物的位置信息;
对U-V视差图获得的凹障碍物的坐标信息,按照Y坐标进行排序,并将对应的X坐标与Y坐标进行配对,进而得到凹障碍物的位置信息;
S4,巡视路径上位于道路两边安装的路侧设备,获取检测范围内的道路环境信息、路面行人和非机动车的位置信息以及路面图像的纹理特征;
S5,路侧设备通过4G通信模块/无线通信模块将检测信息发送至中央处理设备内;
S6,中央处理设备将接收的检测信息处理后发送给智能巡视机器人,智能巡视机器人根据接收的信息改变行驶速度;
S6.1,中央处理设备采用不同测量误差的测量信息融合方法分别对道路环境信息、路面行人和非机动车的位置信息进行初步融合,初步融合后进行多传感器聚类分组融合,然后将经过融合后的数据反馈给智能巡视机器人,为其提供巡视区域内视觉盲区的障碍信息,智能巡视机器人在得到的融合信息中检测到处于巡视路径且为视觉盲区的障碍物时,智能巡视机器人根据障碍物的位置信息进行减速;
所述不同测量误差的测量信息融合的方法步骤如下:
S6.1.1,首先对道路环境信息的测量集中的粗点采用基于多冗余测量的粗点滤除法进行滤除,对路面行人和非机动车的位置信息构成的测量集中的粗点同样采用基于多冗余测量的粗点滤除法进行滤除,此步骤中粗点滤除的目的是将多个传感器对同一目标检测得到的多个数据中误差较大的数据进行去除;
S6.1.1.1,给定测量集中测量数据的均值、方差的递推公式,均值的递推公式为:
式中,为采集到第i个测量数据后的样本均值;
方差的递推公式为:
式中:为采集到第i个测量数据后的方差;
S6.1.1.2,定义粗点;
假设测量数据的误差服从正态分布,并给定置信率为99.7%,则为粗点;
S6.1.1.3,根据步骤S6.1.1.1计算测量集中测量数据的均值和方差S2;
S6.1.1.4,计算样本的置信区间
S6.1.1.5,对整个测量集进行样本检验,若测量数据则xi为粗点;
S6.1.1.6,将原测量集中的粗点全部剔除,得新的样本集合;
S6.1.2,对初步融合后的样本集合中的样本数据按照多传感器聚类分组融合;
采用贴近度因子的分组方法,将不确定性高的传感器归成一类,而将不确定性低的传感器归为另一类进行;
步骤如下:
S6.1.2.1,给定贴近度:
为了度量传感器之间表现在不确定性上的贴近程度,选用析取算子作为贴近度,即:
式中:ψi为传感器i的不确定性度量算子;ψj为传感器j的不确定性度量算子;min表示交集,max表示并集;βij为传感器i与传感器j之间的不确定性贴近度;
且,当βij=0时,传感器i与传感器j之间完全不相关,不能聚为一类;
当βij=1时,传感器i与传感器j之间完全相关,能聚为一类;
当0<βij<1时,传感器i与传感器j之间具有一定的相关性,能否聚为一类需要根据实际情况而定;
S6.1.2.2,根据贴近度得到表示多传感器及其测量不确定的关联矩阵R=[rij],关联系数rij由贴近度βij和选择阈值λ决定,公式为:
S6.1.2.3,利用聚类思想,将关联系数相同的传感器为一组;
S6.1.2.4,将各组内的测量数据按照滤波算法分别进行融合得到各组对应的融合结果,各组对应的融合结果按照滤波算法再次进行融合,得到集中融合;
S6.2,中央处理设备通过接收的路面图像的纹理特征,得出道路湿滑状况并传输给智能巡视机器人,智能巡视机器人检测到道路湿滑程度大于设定阈值时,自动调整行驶速度;
所述通过位于路侧装置上的传感器采集路面图像的纹理特征,继而得出道路湿滑状况的方法如下:
S6.2.1,给定Fourier变换和功率谱;
对于在空域(x.y)位置的像素点f(x,y),此处空域是指组成图像的像素的集合。
Fourier变换定义为:
功率谱为:
基于功率谱特征提取算法如下:
S6.2.2,对路面图像进行二维快速Fourier变化,得到频谱F(u,v);
S6.2.3,由于频谱F(u,v)的原点不在中心,故对频谱F(u,v)进行平移,得到平移后频谱
S6.2.4,计算平移后频谱的功率谱
S6.2.5,建立以u和v为自变量,为变量的平面图,与湿滑路面的二维功率谱图比较,得出湿滑程度;
S6.2.6,将湿滑程度传输给智能巡视机器人,智能巡视机器人检测到道路湿滑程度大于设定阈值时,自动调整行驶速度;
S7,智能巡视机器人将所巡视的环境信息通过4G通信模块/无线通信模块发送至中央处理设备,用于安防人员的观察并实时了解巡逻区域的动态,对即将发生和已经发生的危险及时做出决策。
本发明通过建设在路边的路侧设备,获取检测范围内(包括巡视机器人的视觉盲区)的环境信息及路面行人与非机动车的位置信息,将这些信息通过4G等有线或无线通信方式传输至中央处理设备(监控室),中央处理设备接收到路侧设备检测到的信息后,对这些数据进行处理和融合,然后通过内置的4G等有线或无线通信反馈给巡视区域内的智能巡视机器人,提供所巡视路径周边的环境信息,为智能巡视机器人的视觉盲区提供障碍物信息,实现多台智能巡视机器人对路侧装置检测到的信息的共享。智能巡视机器人根据这些信息感知周围环境,在沿着巡视路径行进的过程中,获取巡视信息并传送到中央处理设备(监控室),用于安防人员的观察。本发明可在大幅减轻人类劳动的同时,安全可靠的完成危险区域的监测任务,对巡逻区域进行自动、智能的自主巡视,并将周围环境信息进行反馈。其可在易燃易爆品,有毒气体及其它一些比较危险的环境中使用,保障巡检人员的安全。也可用于工厂、小区及军队营区的自动化监控,实现无人智能巡检任务。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为人工标记的障碍物与智能巡视机器人间相对位置类别图。
图2为B-P神经网络学习流程图。
图3为U-V视差算法检测凹障碍物流程图。
图4为本发明系统流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一种基于车路协同的智能巡视系统,包括中央处理设备、路侧设备和智能巡视机器人,所述路侧设备包括激光检测传感器,通信单元,视觉传感器、温湿度传感器和雨量传感器;所述激光检测传感器用于获取交叉口路和弯道上的行人及非机动车位置信息,填补智能巡视机器人的检测盲区信息;所述通信单元包括DSRC通信模块和4G通信模块/无线通信模块;DSRC通信模块用于智能巡视机器人与路侧设备之间的信息交互;4G通信模块/无线通信模块用于路侧设备和中央处理设备之间的信息交互;所述视觉传感器包括安装在路侧设备上的视频摄像机,用于获取检测范围的动态环境信息和路面图像的纹理特征;所述温湿度传感器用于得到巡视环境中天气温湿度信息,所述雨量传感器用于得到巡视环境中降雨量的信息。
中央处理设备包括信息融合处理器、显示设备、4G通信模块/无线通信模块;所述信息融合处理器用于对路侧设备检测所得的信息进行处理、融合;所述显示设备用于将智能巡视机器人和路侧设备得到的信息反馈给安防人员;所述信息包括智能巡视机器人的巡视检测信息和路侧设备的工作状况信息,使安防人员能够实时获得智能巡视机器人的巡视环境信息,了解路侧设备的工作情况,以便及时检修;4G通信模块/无线通信模块,用于将经过信息融合处理器处理后的信息反馈给智能巡视机器人,指导智能巡视机器人自主驾驶和完成巡视任务。
智能巡视机器人上安装有毫米波雷达、温度传感器、气体成份传感器、浓度传感器、红外摄像机;所述毫米波雷达用于智能巡视机器人巡视过程对障碍物的测距,在遭遇大雾、雨雪恶劣天气时,智能巡视机器人仍可顺利工作;所述温度传感器用于获取巡视区域内的温度,气体成份传感器用于获取巡视区域内气体的组成成份,浓度传感器用于获取巡视区域内的气体浓度,便于智能巡视机器人检测小型火灾及危险区域内的有毒气体;红外摄像机用于及时检测巡视路径上的凹障碍物,同时使智能巡视机器人具备夜间工作的能力。
为增强智能巡视机器人的鲁棒性,在智能巡视机器人上还安装有防跌落传感器,防跌落传感器检测到智能巡视机器人处于悬空状态时,智能巡视机器人及时急停,避免跌落,提高智能巡视机器人的鲁棒性,增强工作性能。
而对于系统的构建,则有基于车路协同的智能巡视系统构建方法,如图4所示,步骤如下:
S1,在智能巡视机器人内存储所要巡视区域的高精度地图,并设定智能巡视机器人的巡视路径;
S1.1、在智能巡视机器人中存储所巡视区域的高精度地图;
S1.2、设定巡视路径;
S1.2.1、获取智能巡视机器人的当前位置信息,并将当前位置信息作为起点,记为a1;
S1.2.2、在巡视路径上每隔设定距离获取并标定一次智能机器人的位置坐标,依次记为a2、a3、......、an,然后回到起点;
S1.2.3、智能巡视机器人返回至起点处并将标定的位置信息依次存储到智能巡视机器人内,完成巡视路径的设定;
S2,智能巡视机器人通过DRSC通信与路侧设备连接,并获取与路侧设备在同一时刻的距离信息,然后得到智能巡视机器人在所巡视区域内自身的局部位置信息;
S2.1,在巡视区域内,获取各路测设备的位置信息和高度信息,位置信息记为S(Xi,Yi)i=1,2,...,l,高度信息记为hi i=1,2,...,l,l为路测设备的个数,且l≥3;
S2.2,智能巡视机器人通过DSRC通信与路侧设备建立连接,并获取智能巡视机器人在同一时刻与各路侧设备的距离信息,记作[m1,m2,...,mi,...,ml];
S2.3,计算智能巡视机器人与各路侧设备的水平距离pi,计算公式为:
S2.4,根据步骤S2.3计算智能巡视机器人在巡视区域内的位置W(A,B),该智能巡视机器人的位置W(A,B)是通过各路侧设备的位置信息S(Xi,Yi)i=1,2,...,l计算得到,是一个智能巡视机器人与多个路侧设备之间的关系。计算公式为:
S3,智能巡视机器人进行避障巡视。
该过程中智能巡视机器人预先通过避障学习,之后在巡视工作中能够根据与障碍物的相对位置避开障碍物。
S3.1,智能巡视机器人采用B-P神经网络进行避障学习;
其步骤如下:
S3.1.1,建立智能巡视机器人和障碍物相对位置关系模型,如图1所示,记为:
M=[M1,M2,...,Mj,...,Mq];
S3.1.2,设定智能巡视机器人与障碍物间的安全距离,打开毫米波雷达,获得智能巡视机器人和障碍物间的距离信息;
S3.1.3,以智能巡视机器人和障碍物的距离数据作为输入矩阵,以智能巡视机器人和障碍物相对位置关系模型为期望输出矩阵,使用训练方法为梯度下降法、传递函数是非线性变换函数Sigmoid函数的BP神经网络模型进行训练,如图2所示;
S3.2,训练完成后,智能巡视机器人开始巡视,并通过毫米波雷达获得智能巡视机器人与障碍物的实时距离,并将获得的实时距离作为训练后BP神经网络模型的输入实现避障;
S3.3,在巡视过程中,智能巡视机器人获取当前环境图像信息并采用U-V视差进行处理,实现对凹障碍物的检测,获得凹障碍物的位置信息,如图3所示,并进行躲避,防止智能巡视机器人陷于凹障碍物中;
具体步骤如下:
S3.3.1,获得智能巡视机器人所处环境的视差图;
智能巡视机器人的摄像机获取当前所处环境的图像对,通过立体匹配算法得到视差图,并对视差图进行预处理,去除图像的噪声,增强对比度;
S3.3.2,计算凹障碍物在Y方向的坐标;
在处理后的视差图上统计V视差,使用Hough变换处理,检测道路相关线和障碍物相关线,则道路相关线和障碍物相关线的交点就是凹障碍物在Y方向的坐标;
S3.3.3,计算凹障碍物在Y方向的坐标;
在处理后的视差图上统计U视差,在U视图上进行Hough变换处理,检测横向直线,则横向直线就是凹障碍物在X方向的坐标;
S3.3.4,结合步骤S3.1.3和步骤S3.1.4得到凹障碍物的位置信息;
对U-V视差图获得的凹障碍物的坐标信息,按照Y坐标进行排序,并将对应的X坐标与Y坐标进行配对,进而得到凹障碍物的位置信息;
S4,巡视路径上位于道路两边安装的路侧设备,获取检测范围内的道路环境信息、路面行人和非机动车的位置信息以及路面图像的纹理特征;
S5,路侧设备通过4G通信模块/无线通信模块将检测信息发送至中央处理设备内;
S6,中央处理设备将接收的检测信息处理后发送给智能巡视机器人,智能巡视机器人根据接收的信息改变行驶速度;
S6.1,中央处理设备采用不同测量误差的测量信息融合方法分别对道路环境信息、路面行人和非机动车的位置信息进行初步融合,初步融合后进行多传感器聚类分组融合,然后将经过融合后的数据反馈给智能巡视机器人,为其提供巡视区域内视觉盲区的障碍信息,智能巡视机器人在得到的融合信息中检测到处于巡视路径且为视觉盲区的障碍物时,智能巡视机器人根据障碍物的位置信息进行减速;
所述不同测量误差的测量信息融合的方法步骤如下:
S6.1.1,首先对道路环境信息的测量集中的粗点采用基于多冗余测量的粗点滤除法进行滤除,对路面行人和非机动车的位置信息构成的测量集中的粗点同样采用基于多冗余测量的粗点滤除法进行滤除。此步骤中粗点滤除的目的是将多个传感器对同一目标检测得到的多个数据中误差较大的数据进行去除;
S6.1.1.1,给定测量集中测量数据的均值、方差的递推公式,均值的递推公式为:
式中,为采集到第i个测量数据后的样本均值;
方差的递推公式为:
式中:为采集到第i个测量数据后的方差;
S6.1.1.2,定义粗点;
假设测量数据的误差服从正态分布,并给定置信率为99.7%,则为粗点;
S6.1.1.3,根据步骤S6.1.1.1计算测量集中测量数据的均值和方差S2;
S6.1.1.4,计算样本的置信区间
S6.1.1.5,对整个测量集进行样本检验,若测量数据则xi为粗点;
S6.1.1.6,将原测量集中的粗点全部剔除,得新的样本集合;
S6.1.2,对初步融合后的样本集合中的样本数据按照多传感器聚类分组融合;
采用贴近度因子的分组方法,将不确定性高的传感器归成一类,而将不确定性低的传感器归为另一类进行;
步骤如下:
S6.1.2.1,给定贴近度:
为了度量传感器之间表现在不确定性上的贴近程度,选用析取算子作为贴近度,即:
式中:ψi为传感器i的不确定性度量算子;ψj为传感器j的不确定性度量算子;min表示交集,max表示并集;βij为传感器i与传感器j之间的不确定性贴近度;
且,当βij=0时,传感器i与传感器j之间完全不相关,不能聚为一类;
当βij=1时,传感器i与传感器j之间完全相关,能聚为一类;
当0<βij<1时,传感器i与传感器j之间具有一定的相关性,能否聚为一类需要根据实际情况而定;
S6.1.2.2,根据贴近度得到表示多传感器及其测量不确定的关联矩阵R=[rij],关联系数rij由贴近度βij和选择阈值λ决定,公式为:
S6.1.2.3,利用聚类思想,将关联系数相同的传感器为一组;
S6.1.2.4,将各组内的测量数据按照滤波算法分别进行融合得到各组对应的融合结果,各组对应的融合结果按照滤波算法再次进行融合,得到集中融合;
S6.2,中央处理设备通过接收的路面图像的纹理特征,得出道路湿滑状况并传输给智能巡视机器人,智能巡视机器人检测到道路湿滑程度大于设定阈值时,自动调整行驶速度;
所述通过位于路侧装置上的传感器采集路面图像的纹理特征,继而得出道路湿滑状况的方法如下:
S6.2.1,给定Fourier变换和功率谱;
对于在空域(x.y)位置的像素点f(x,y),此处空域是指组成图像的像素的集合。
Fourier变换定义为:
功率谱为:
|F(u,v)|2=||F(u,v)F*(u,v)||;
基于功率谱特征提取算法如下:
S6.2.2,对路面图像进行二维快速Fourier变化,得到频谱F(u,v);
S6.2.3,由于频谱F(u,v)的原点不在中心,故对频谱F(u,v)进行平移,得到平移后频谱
S6.2.4,计算平移后频谱的功率谱
S6.2.5,建立以u和v为自变量,为变量的平面图,与湿滑路面的二维功率谱图比较,得出湿滑程度;
S6.2.6,将湿滑程度传输给智能巡视机器人,智能巡视机器人检测到道路湿滑程度大于设定阈值时,自动调整行驶速度;
S7,智能巡视机器人将所巡视的环境信息通过4G通信模块/无线通信模块发送至中央处理设备,用于安防人员的观察并实时了解巡逻区域的动态,对即将发生和已经发生的危险及时做出决策。
上面所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于车路协同的智能巡视系统,其特征在于:包括中央处理设备、路侧设备和智能巡视机器人,所述路侧设备包括激光检测传感器,通信单元,视觉传感器、温湿度传感器和雨量传感器;所述激光检测传感器用于获取交叉口路和弯道上的行人及非机动车位置信息,填补智能巡视机器人的检测盲区信息;所述通信单元包括DSRC通信模块和4G通信模块/无线通信模块;DSRC通信模块用于智能巡视机器人与路侧设备之间的信息交互;4G通信模块/无线通信模块用于路侧设备和中央处理设备之间的信息交互;所述视觉传感器包括安装在路侧设备上的视频摄像机,用于获取检测范围的动态环境信息和路面图像的纹理特征;所述温湿度传感器用于得到巡视环境中天气温湿度信息,所述雨量传感器用于得到巡视环境中降雨量的信息;
中央处理设备包括信息融合处理器、显示设备、4G通信模块/无线通信模块;所述信息融合处理器用于对路侧设备检测所得的信息进行处理、融合;所述显示设备用于将智能巡视机器人和路侧设备得到的信息反馈给安防人员;所述信息包括智能巡视机器人的巡视检测信息和路侧设备的工作状况信息,使安防人员能够实时获得智能巡视机器人的巡视环境信息,了解路侧设备的工作情况,以便及时检修;4G通信模块/无线通信模块,用于将经过信息融合处理器处理后的信息反馈给智能巡视机器人,指导智能巡视机器人自主驾驶和完成巡视任务;
智能巡视机器人上安装有毫米波雷达、温度传感器、气体成份传感器、浓度传感器、红外摄像机;所述毫米波雷达用于智能巡视机器人巡视过程对障碍物的测距,在遭遇大雾、雨雪恶劣天气时,智能巡视机器人仍可顺利工作;所述温度传感器用于获取巡视区域内的温度,气体成份传感器用于获取巡视区域内气体的组成成份,浓度传感器用于获取巡视区域内的气体浓度,便于智能巡视机器人检测小型火灾及危险区域内的有毒气体;红外摄像机用于及时检测巡视路径上的凹障碍物,同时使智能巡视机器人具备夜间工作的能力。
2.根据权利要求1所述的基于车路协同的智能巡视系统,其特征在于:在智能巡视机器人上还安装有防跌落传感器,防跌落传感器检测到智能巡视机器人处于悬空状态时,智能巡视机器人及时急停。
3.一种基于车路协同的智能巡视系统构建方法,其特征在于,步骤如下:
S1,在智能巡视机器人内存储所要巡视区域的高精度地图,并设定智能巡视机器人的巡视路径;
S2,智能巡视机器人通过DRSC通信与路侧设备连接,并获取与路侧设备在同一时刻的距离信息,然后得到智能巡视机器人在所巡视区域内自身的局部位置信息;
S3,智能巡视机器人进行避障巡视;
S4,巡视路径上位于道路两边安装的路侧设备,获取检测范围内的道路环境信息、路面行人和非机动车的位置信息以及路面图像的纹理特征;
S5,路侧设备通过4G通信模块/无线通信模块将检测信息发送至中央处理设备内;
S6,中央处理设备将接收的检测信息处理后发送给智能巡视机器人,智能巡视机器人根据接收的信息改变行驶速度;
S7,智能巡视机器人将所巡视的环境信息通过4G通信模块/无线通信模块发送至中央处理设备,用于安防人员的观察并实时了解巡逻区域的动态,对即将发生和已经发生的危险及时做出决策。
4.根据权利要求3所述的基于车路协同的智能巡视系统构建方法,其特征在于,在步骤S1中,具体步骤如下:
S1.1、在智能巡视机器人中存储所巡视区域的高精度地图;
S1.2、设定巡视路径;
S1.2.1、获取智能巡视机器人的当前位置信息,并将当前位置信息作为起点,记为a1;
S1.2.2、在巡视路径上每隔设定距离获取并标定一次智能机器人的位置坐标,依次记为a2、a3、......、an,然后回到起点;
S1.2.3、智能巡视机器人返回至起点处并将标定的位置信息依次存储到智能巡视机器人内,完成巡视路径的设定。
5.根据权利要求3所述的基于车路协同的智能巡视系统构建方法,其特征在于,在步骤S2中,具体步骤如下:
S2.1,在巡视区域内,获取各路测设备的位置信息和高度信息,位置信息记为:
S(Xi,Yi)i=1,2,...,l,高度信息记为hi i=1,2,...,l,l为路测设备的个数,且l≥3;
S2.2,智能巡视机器人通过DSRC通信与路侧设备建立连接,并获取智能巡视机器人在同一时刻与各路侧设备的距离信息,记作[m1,m2,...,mi,...,ml];
S2.3,计算智能巡视机器人与各路侧设备的水平距离pi,计算公式为:
S2.4,根据步骤S2.3计算智能巡视机器人在巡视区域内的位置W(A,B),该智能巡视机器人的位置W(A,B)是通过各路侧设备的位置信息S(Xi,Yi)i=1,2,...,l计算得到,是一个智能巡视机器人与多个路侧设备之间的关系,计算公式为:
6.根据权利要求3所述的基于车路协同的智能巡视系统构建方法,其特征在于,在步骤S3中,具体步骤如下:
S3.1,智能巡视机器人采用B-P神经网络进行避障学习;
S3.1.1,建立智能巡视机器人和障碍物相对位置关系模型,记为:
M=[M1,M2,...,Mj,...,Mq];
S3.1.2,设定智能巡视机器人与障碍物间的安全距离,打开毫米波雷达,获得智能巡视机器人和障碍物间的距离信息;
S3.1.3,以智能巡视机器人和障碍物的距离数据作为输入矩阵,以智能巡视机器人和障碍物相对位置关系模型为期望输出矩阵,使用训练方法为梯度下降法、传递函数是非线性变换函数Sigmoid函数的BP神经网络模型进行训练。
S3.2,训练完成后,智能巡视机器人开始巡视,并通过毫米波雷达获得智能巡视机器人与障碍物的实时距离,并将获得的实时距离作为训练后BP神经网络模型的输入实现避障;
S3.3,在巡视过程中,智能巡视机器人获取当前环境图像信息并采用U-V视差进行处理,实现对凹障碍物的检测,获得凹障碍物的位置信息,并进行躲避,防止智能巡视机器人陷于凹障碍物中;
S3.3.1,获得智能巡视机器人所处环境的视差图;
智能巡视机器人的摄像机获取当前所处环境的图像对,通过立体匹配算法得到视差图,并对视差图进行预处理,去除图像的噪声,增强对比度;
S3.3.2,计算凹障碍物在Y方向的坐标;
在处理后的视差图上统计V视差,使用Hough变换处理,检测道路相关线和障碍物相关线,则道路相关线和障碍物相关线的交点就是凹障碍物在Y方向的坐标;
S3.3.3,计算凹障碍物在Y方向的坐标;
在处理后的视差图上统计U视差,在U视图上进行Hough变换处理,检测横向直线,则横向直线就是凹障碍物在X方向的坐标;
S3.3.4,结合步骤S3.1.3和步骤S3.1.4得到凹障碍物的位置信息;
对U-V视差图获得的凹障碍物的坐标信息,按照Y坐标进行排序,并将对应的X坐标与Y坐标进行配对,进而得到凹障碍物的位置信息。
7.根据权利要求3所述的基于车路协同的智能巡视系统构建方法,其特征在于,在步骤S6中,具体步骤如下:S6.1,中央处理设备采用不同测量误差的测量信息融合方法分别对道路环境信息、路面行人和非机动车的位置信息进行初步融合,初步融合后进行多传感器聚类分组融合,然后将经过融合后的数据反馈给智能巡视机器人,为其提供巡视区域内视觉盲区的障碍信息,智能巡视机器人在得到的融合信息中检测到处于巡视路径且为视觉盲区的障碍物时,智能巡视机器人根据障碍物的位置信息进行减速;
所述不同测量误差的测量信息融合的方法步骤如下:
S6.1.1,首先对道路环境信息的测量集中的粗点采用基于多冗余测量的粗点滤除法进行滤除,对路面行人和非机动车的位置信息构成的测量集中的粗点同样采用基于多冗余测量的粗点滤除法进行滤除;
S6.1.2,对初步融合后的各自样本集合中的样本数据按照多传感器聚类分组融合;
采用贴近度因子的分组方法,将不确定性高的传感器归成一类,而将不确定性低的传感器归为另一类进行;
S6.2,中央处理设备通过接收的路面图像的纹理特征,得出道路湿滑状况并传输给智能巡视机器人,智能巡视机器人检测到道路湿滑程度大于设定阈值时,自动调整行驶速度。
8.根据权利要求7所述的基于车路协同的智能巡视系统构建方法,其特征在于,在步骤S6.1.1中,具体步骤如下:
S6.1.1.1,给定测量集中测量数据的均值、方差的递推公式,均值的递推公式为:
式中,为采集到第i个测量数据后的样本均值;
方差的递推公式为:
式中:为采集到第i个测量数据后的方差;
S6.1.1.2,定义粗点;
假设测量数据的误差服从正态分布,并给定置信率为99.7%,则为粗点;
S6.1.1.3,根据步骤S6.1.1.1计算测量集中测量数据的均值和方差S2;
S6.1.1.4,计算样本的置信区间
S6.1.1.5,对整个测量集进行样本检验,若测量数据则xi为粗点;
S6.1.1.6,将原测量集中的粗点全部剔除,得新的样本集合。
9.根据权利要求8所述的基于车路协同的智能巡视系统构建方法,其特征在于,在步骤S6.1.2中,具体步骤如下:
S6.1.2.1,给定贴近度:
为了度量传感器之间表现在不确定性上的贴近程度,选用析取算子作为贴近度,即:
式中:ψi为传感器i的不确定性度量算子;ψj为传感器j的不确定性度量算子;min表示交集,max表示并集;βij为传感器i与传感器j之间的不确定性贴近度;
且,当βij=0时,传感器i与传感器j之间完全不相关,不能聚为一类;
当βij=1时,传感器i与传感器j之间完全相关,能聚为一类;
当0<βij<1时,传感器i与传感器j之间具有一定的相关性,能否聚为一类需要根据实际情况而定;
S6.1.2.2,根据贴近度得到表示多传感器及其测量不确定的关联矩阵R=[rij],关联系数rij由贴近度βij和选择阈值λ决定,公式为:
S6.1.2.3,利用聚类思想,将关联系数相同的传感器为一组;
S6.1.2.4,将各组内的测量数据按照滤波算法分别进行融合得到各组对应的融合结果,各组对应的融合结果按照滤波算法再次进行融合,得到集中融合。
10.根据权利要求7所述的基于车路协同的智能巡视系统构建方法,其特征在于,在步骤S6.2中,所述通过位于路侧装置上的传感器采集路面图像的纹理特征,继而得出道路湿滑状况的方法如下:
S6.2.1,给定Fourier变换和功率谱;
对于在空域(x.y)位置的像素点f(x,y),此处空域是指组成图像的像素的集合。
Fourier变换定义为:
功率谱为:
|F(u,v)|2=||F(u,v)F*(u,v)||;
基于功率谱特征提取算法如下:
S6.2.2,对路面图像进行二维快速Fourier变化,得到频谱F(u,v);
S6.2.3,由于频谱F(u,v)的原点不在中心,故对频谱F(u,v)进行平移,得到平移后频谱
S6.2.4,计算平移后频谱的功率谱
S6.2.5,建立以u和v为自变量,为变量的平面图,与湿滑路面的二维功率谱图比较,得出湿滑程度;
S6.2.6,将湿滑程度传输给智能巡视机器人,智能巡视机器人检测到道路湿滑程度大于设定阈值时,自动调整行驶速度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810354660.8A CN108469825A (zh) | 2018-04-19 | 2018-04-19 | 一种基于车路协同的智能巡视系统及其构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810354660.8A CN108469825A (zh) | 2018-04-19 | 2018-04-19 | 一种基于车路协同的智能巡视系统及其构建方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108469825A true CN108469825A (zh) | 2018-08-31 |
Family
ID=63263242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810354660.8A Pending CN108469825A (zh) | 2018-04-19 | 2018-04-19 | 一种基于车路协同的智能巡视系统及其构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108469825A (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109491392A (zh) * | 2018-12-03 | 2019-03-19 | 上海木木聚枞机器人科技有限公司 | 一种共享避障的方法和系统 |
CN110262481A (zh) * | 2019-06-04 | 2019-09-20 | 西南交通大学 | 一种基于酶数值膜系统的移动机器人避障控制方法 |
CN110446278A (zh) * | 2019-07-30 | 2019-11-12 | 同济大学 | 基于v2i的智能驾驶汽车传感器盲区安全控制方法及系统 |
CN110442127A (zh) * | 2019-07-15 | 2019-11-12 | 广州杰赛科技股份有限公司 | 智能巡检方法、设备和装置 |
CN110675002A (zh) * | 2019-10-10 | 2020-01-10 | 中山大学 | 一种分布式完全覆盖的机器人编队覆盖方法 |
CN111027674A (zh) * | 2019-11-21 | 2020-04-17 | 腾讯科技(深圳)有限公司 | 应用于多智能体系统的测试方法和装置 |
CN111326007A (zh) * | 2018-12-17 | 2020-06-23 | 丰田自动车株式会社 | 远程监视系统和监视服务器 |
CN111785083A (zh) * | 2020-05-27 | 2020-10-16 | 诠航科技有限公司 | 一种基于护栏巡逻机的智慧交通预警系统 |
CN111830987A (zh) * | 2020-07-27 | 2020-10-27 | 济南浪潮高新科技投资发展有限公司 | 一种巡检机器人的控制方法、装置及一种机器人巡检系统 |
CN112417967A (zh) * | 2020-10-22 | 2021-02-26 | 腾讯科技(深圳)有限公司 | 障碍物检测方法、装置、计算机设备和存储介质 |
CN112633120A (zh) * | 2020-12-18 | 2021-04-09 | 北京理工大学重庆创新中心 | 一种基于半监督学习的智能路侧感知系统及模型训练方法 |
CN113433548A (zh) * | 2021-06-24 | 2021-09-24 | 中国第一汽车股份有限公司 | 一种数据监控方法、装置、设备及存储介质 |
CN113467447A (zh) * | 2021-06-24 | 2021-10-01 | 武汉虹信技术服务有限责任公司 | 一种基于巡逻机器人的非法人员入侵监测系统及方法 |
CN114584949A (zh) * | 2022-03-02 | 2022-06-03 | 阿波罗智能技术(北京)有限公司 | 车路协同确定障碍物属性值的方法、设备及自动驾驶车辆 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN201670290U (zh) * | 2010-05-20 | 2010-12-15 | 杭州瓦瑞科技有限公司 | 模块化的机器人底盘结构 |
CN103778429A (zh) * | 2014-01-24 | 2014-05-07 | 青岛秀山移动测量有限公司 | 一种车载激光扫描点云中道路信息自动提取方法 |
CN104217615A (zh) * | 2014-09-16 | 2014-12-17 | 武汉理工大学 | 一种基于车路协同的行人防碰撞系统和方法 |
CN104953709A (zh) * | 2015-06-15 | 2015-09-30 | 湖南机电职业技术学院 | 一种变电站智能巡视机器人 |
CN106340197A (zh) * | 2016-08-31 | 2017-01-18 | 北京万集科技股份有限公司 | 一种车路协同辅助驾驶系统及方法 |
CN106646513A (zh) * | 2016-12-29 | 2017-05-10 | 上海遥薇(集团)有限公司 | 一种基于智能机器人的地图构建系统和地图导航方法 |
CN106618399A (zh) * | 2016-11-23 | 2017-05-10 | 安徽南博机器人有限公司 | 一种智能洗地机器人 |
CN106781591A (zh) * | 2016-12-19 | 2017-05-31 | 吉林大学 | 一种基于车路协同的城市车辆导航系统 |
CN107065693A (zh) * | 2017-05-27 | 2017-08-18 | 安徽沪宁智能科技有限公司 | 一种基于ZigBee的远程控制智能消防机器人系统 |
CN107193282A (zh) * | 2017-06-16 | 2017-09-22 | 北京军立方机器人科技有限公司 | 一种智能安防机器人及智能安防系统 |
CN107214700A (zh) * | 2017-06-06 | 2017-09-29 | 青岛克路德机器人有限公司 | 一种机器人自主巡逻方法 |
-
2018
- 2018-04-19 CN CN201810354660.8A patent/CN108469825A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN201670290U (zh) * | 2010-05-20 | 2010-12-15 | 杭州瓦瑞科技有限公司 | 模块化的机器人底盘结构 |
CN103778429A (zh) * | 2014-01-24 | 2014-05-07 | 青岛秀山移动测量有限公司 | 一种车载激光扫描点云中道路信息自动提取方法 |
CN104217615A (zh) * | 2014-09-16 | 2014-12-17 | 武汉理工大学 | 一种基于车路协同的行人防碰撞系统和方法 |
CN104953709A (zh) * | 2015-06-15 | 2015-09-30 | 湖南机电职业技术学院 | 一种变电站智能巡视机器人 |
CN106340197A (zh) * | 2016-08-31 | 2017-01-18 | 北京万集科技股份有限公司 | 一种车路协同辅助驾驶系统及方法 |
CN106618399A (zh) * | 2016-11-23 | 2017-05-10 | 安徽南博机器人有限公司 | 一种智能洗地机器人 |
CN106781591A (zh) * | 2016-12-19 | 2017-05-31 | 吉林大学 | 一种基于车路协同的城市车辆导航系统 |
CN106646513A (zh) * | 2016-12-29 | 2017-05-10 | 上海遥薇(集团)有限公司 | 一种基于智能机器人的地图构建系统和地图导航方法 |
CN107065693A (zh) * | 2017-05-27 | 2017-08-18 | 安徽沪宁智能科技有限公司 | 一种基于ZigBee的远程控制智能消防机器人系统 |
CN107214700A (zh) * | 2017-06-06 | 2017-09-29 | 青岛克路德机器人有限公司 | 一种机器人自主巡逻方法 |
CN107193282A (zh) * | 2017-06-16 | 2017-09-22 | 北京军立方机器人科技有限公司 | 一种智能安防机器人及智能安防系统 |
Non-Patent Citations (11)
Title |
---|
NANNAN WANG等: "Cooperative Autonomous Driving for Traffic Congestion Avoidance Through Vehicle-to-Vehicle Communications", 《2017 IEEE VEHICULAR NETWORKING CONFERENCE》 * |
WANG, PANGWEI等: "A Dynamic Speed Guidance Model based on Cooperative Vehicle Infrastructure System", 《2016 IEEE 19TH INTERNATIONAL CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS 》 * |
上官珺: "基于U_V视差算法的障碍物识别技术研究", 《兰州工业高等专科学校学报》 * |
严新平等著: "《智能运输系统 原理、方法及应用 第2版》", 31 August 2014 * |
刘伟杰编著: "《现代交通科普丛书》", 31 August 2013 * |
徐贵力等: "利用傅里叶变换提取图像纹理特征新方法", 《光电工程》 * |
王宗暐等: "智能路侧系统在车路协同技术中的应用", 《中国市政工程》 * |
管雪沨等: "《盛思创客教育丛书》", 30 June 2017 * |
罗本成等: "一种基于不确定分析的多传感器信息动态融合方法", 《自动化学报》 * |
赵宗贵编: "《信息融合概念、方法与应用》", 30 November 2012 * |
齐方远: "基于神经网络避障和GPS定位的移动机器人自主运动方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109491392A (zh) * | 2018-12-03 | 2019-03-19 | 上海木木聚枞机器人科技有限公司 | 一种共享避障的方法和系统 |
CN111326007A (zh) * | 2018-12-17 | 2020-06-23 | 丰田自动车株式会社 | 远程监视系统和监视服务器 |
CN110262481A (zh) * | 2019-06-04 | 2019-09-20 | 西南交通大学 | 一种基于酶数值膜系统的移动机器人避障控制方法 |
CN110262481B (zh) * | 2019-06-04 | 2021-06-22 | 西南交通大学 | 一种基于酶数值膜系统的移动机器人避障控制方法 |
CN110442127A (zh) * | 2019-07-15 | 2019-11-12 | 广州杰赛科技股份有限公司 | 智能巡检方法、设备和装置 |
CN110442127B (zh) * | 2019-07-15 | 2022-06-17 | 广州杰赛科技股份有限公司 | 智能巡检方法、设备和装置 |
CN110446278A (zh) * | 2019-07-30 | 2019-11-12 | 同济大学 | 基于v2i的智能驾驶汽车传感器盲区安全控制方法及系统 |
CN110675002A (zh) * | 2019-10-10 | 2020-01-10 | 中山大学 | 一种分布式完全覆盖的机器人编队覆盖方法 |
CN110675002B (zh) * | 2019-10-10 | 2022-07-05 | 中山大学 | 一种分布式完全覆盖的机器人编队覆盖方法 |
CN111027674A (zh) * | 2019-11-21 | 2020-04-17 | 腾讯科技(深圳)有限公司 | 应用于多智能体系统的测试方法和装置 |
CN111027674B (zh) * | 2019-11-21 | 2023-02-07 | 腾讯科技(深圳)有限公司 | 应用于多智能体系统的测试方法和装置 |
CN111785083A (zh) * | 2020-05-27 | 2020-10-16 | 诠航科技有限公司 | 一种基于护栏巡逻机的智慧交通预警系统 |
CN111830987A (zh) * | 2020-07-27 | 2020-10-27 | 济南浪潮高新科技投资发展有限公司 | 一种巡检机器人的控制方法、装置及一种机器人巡检系统 |
CN112417967A (zh) * | 2020-10-22 | 2021-02-26 | 腾讯科技(深圳)有限公司 | 障碍物检测方法、装置、计算机设备和存储介质 |
CN112417967B (zh) * | 2020-10-22 | 2021-12-14 | 腾讯科技(深圳)有限公司 | 障碍物检测方法、装置、计算机设备和存储介质 |
CN112633120A (zh) * | 2020-12-18 | 2021-04-09 | 北京理工大学重庆创新中心 | 一种基于半监督学习的智能路侧感知系统及模型训练方法 |
CN112633120B (zh) * | 2020-12-18 | 2022-05-03 | 北京理工大学重庆创新中心 | 一种基于半监督学习的智能路侧感知系统的模型训练方法 |
CN113467447A (zh) * | 2021-06-24 | 2021-10-01 | 武汉虹信技术服务有限责任公司 | 一种基于巡逻机器人的非法人员入侵监测系统及方法 |
CN113433548A (zh) * | 2021-06-24 | 2021-09-24 | 中国第一汽车股份有限公司 | 一种数据监控方法、装置、设备及存储介质 |
CN114584949A (zh) * | 2022-03-02 | 2022-06-03 | 阿波罗智能技术(北京)有限公司 | 车路协同确定障碍物属性值的方法、设备及自动驾驶车辆 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108469825A (zh) | 一种基于车路协同的智能巡视系统及其构建方法 | |
CN108255189A (zh) | 一种电力巡检无人机系统 | |
CN110889350B (zh) | 一种基于三维成像的线路障碍物监测报警系统及方法 | |
CN107380163A (zh) | 基于磁导航的汽车智能报警预测系统及其方法 | |
CN105812733B (zh) | 一种民航空中交通管制的场面监视引导系统 | |
CN106808482B (zh) | 一种巡检机器人多传感器系统及巡检方法 | |
CN109377726A (zh) | 一种基于车联网的高速公路团雾精确警示、诱导系统及方法 | |
CN105743017B (zh) | 输电线路无人机巡检地面测控运输保障系统 | |
CN208953962U (zh) | 一种机器人感知系统及机器人 | |
CN108961790A (zh) | 基于四维实景交通仿真的恶劣天气预警管理系统及方法 | |
CN109212513A (zh) | 多目标在雷达间数据传递、数据融合及连续跟踪定位方法 | |
KR101803891B1 (ko) | 셀영역별 교통인수와 객체추적 모듈로 이루어진 하이브리드형 셀영역 기반 교통상황 실시간 통보장치 및 방법 | |
CN102435174A (zh) | 基于混合式双目视觉的障碍物检测方法及装置 | |
CN105835063A (zh) | 一种变电站室内巡检机器人系统及其巡检方法 | |
CN113870553B (zh) | 一种面向混合交通流的路网运行状态检测系统及方法 | |
CN109773783B (zh) | 一种基于空间点云识别的巡防智能机器人及其警务系统 | |
CN208675549U (zh) | 一种电子围栏管理系统 | |
CN107563356A (zh) | 一种无人机巡检管线目标分析管理方法及系统 | |
CN113066280A (zh) | 一种基于重合行程的无人配送车编队信息共享的信息场景构建方法 | |
CN113075686B (zh) | 一种基于多传感器融合的电缆沟智能巡检机器人建图方法 | |
CN105976549A (zh) | 智能森林防火预警系统及其方法 | |
JP2005011057A (ja) | 空間情報配信装置 | |
RU113046U1 (ru) | Комплексная система раннего обнаружения лесных пожаров, построенная на принципе разносенсорного панорамного обзора местности с функцией высокоточного определения очага возгорания | |
Kong et al. | A fusion-based system for road-network traffic state surveillance: a case study of Shanghai | |
CN113358033B (zh) | 基于视觉分析软测量的输电线下树木安全距离判断方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180831 |