CN111208820B - 人工智能大数据下粒子化无人车组、控制方法及介质 - Google Patents

人工智能大数据下粒子化无人车组、控制方法及介质 Download PDF

Info

Publication number
CN111208820B
CN111208820B CN202010023463.5A CN202010023463A CN111208820B CN 111208820 B CN111208820 B CN 111208820B CN 202010023463 A CN202010023463 A CN 202010023463A CN 111208820 B CN111208820 B CN 111208820B
Authority
CN
China
Prior art keywords
unmanned vehicle
matrix
unmanned
coordinate system
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010023463.5A
Other languages
English (en)
Other versions
CN111208820A (zh
Inventor
石帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Aoqiong Software Technology Co ltd
Original Assignee
Shanghai Xiaoao Software Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Xiaoao Software Technology Co ltd filed Critical Shanghai Xiaoao Software Technology Co ltd
Priority to CN202010023463.5A priority Critical patent/CN111208820B/zh
Publication of CN111208820A publication Critical patent/CN111208820A/zh
Application granted granted Critical
Publication of CN111208820B publication Critical patent/CN111208820B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0217Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明属于无人车控制领域,具体涉及一种基于粒子化分数阶的人工智能大数据下粒子化无人车组、控制方法及介质。本发明中若干无人车均由车身、供电装置、图像采集系统、距离传感器以及无人车控制系统组成,供电装置给整个无人车供电,由无人车组云控制系统和无人车控制系统对无人车组进行路径规划和行程控制。本发明以分数阶无人车控制策略展开研究,实现无人车控制系统的设计和稳定性分析,同时在控制律的基础上,对控制律中的参数进行优化,省去人工选取参数的问题。从而简化无人车组控制的难度,实现无人车的稳定控制。

Description

人工智能大数据下粒子化无人车组、控制方法及介质
技术领域
本发明属于无人车控制领域,具体涉及一种基于粒子化分数阶的人工智能大数据下粒子化无人车组、控制方法及介质。
背景技术
随着科技发展,技术不断推动创新,无人驾驶汽车应运而生,成为了解决交通一系列问题的重要方法之一,是当前以及未来汽车行业发展的重要趋势。无人驾驶汽车,也叫自动驾驶智能汽车,一般简称无人车,其原理是指在没有驾驶员参与的情况下,安装在汽车上的传感器感知车辆周围环境,集成在汽车内的计算机系统根据感知的车辆、道路、行人、障碍物等信息自主规划出一条安全可行的路径,并控制车辆的速度和转向,从而到达预定目标。无人驾驶汽车的研究,对于交通拥堵问题可以得到了有效的缓解,同时也降低了交通事故的发生概率,从根本上提高了整个交通运行系统的效率,保证了行车安全。
无人车的核心的模块包括,环境感知,决策规划,路径规划,运动控制等。环境感知主要是指无人驾驶系统通过各种传感器以及高精度地图从环境中提取有效信息,比如车辆自身的定位,障碍物的定位和分类等,决策规划主要是通过环境感知提供的信息,路径规划的结果以及运动控制反馈会回来的信息进行指令的下发,比如跟车,超车,加速,减速,转向,停车等;运动规划主要是根据决策规划模块下发的指令对车辆进行控制,比如油门的控制,方向盘的控制,刹车的控制等。
无人车环境感知模块中的目标检测使用的传感器是激光雷达和摄像头,但由于激光雷达价格比较昂贵,所以常用的传感器是摄像头,而且多摄像头采集的图像信息进行融合后,可以有效地模拟人的双眼生成三维立体图像,对于研究无人车模拟驾驶员进行自主驾驶具有重要价值。另一方面,近些年来图像处理器的迅猛发展以及卷积神经网络的提出,让深度学习在各类工程实践领域得到了广泛的应用,利用深度学习进行图像目标检测也成为了热门的研究方向之一。对无人车而言,如何从车载摄像头拍摄的图像中提取有效的信息是一项富有挑战性、极具价值的研究,使用深度学习进行图像目标检测的研究具有重要的意义。路径规划是无人车领域的核心技术之一,是很多企业和学者研究的重要课题。路径规划作为连接环境感知,决策规划和运动控制的桥梁,在无人车整个模块中起着重要的作用。路径规划算法的好坏直接决定着无人车能否在复杂环境中自主规划出一条可行的路径,并且得保证该路径安全可行,与周围障碍物不会发生碰撞,同时满足车辆非完整性约束的条件。因此,实现无人车在复杂的环境中自主完成路径规划具有重要的研究意义。
发明内容
本发明的目的在于提供一种控制精度更高、避障性能更强的人工智能大数据下粒子化无人车组。
本发明的目的还在于提供一种人工智能大数据下粒子化无人车组控制方法。
本发明的目的还在于提供一种人工智能大数据下粒子化无人车组控制介质。
本发明的目的是这样实现的:
人工智能大数据下粒子化无人车组,若干无人车均由车身、供电装置、图像采集系统、距离传感器以及无人车控制系统组成,供电装置给整个无人车供电,由无人车组云控制系统和无人车控制系统对无人车组进行路径规划和行程控制,无人车采用如下方法控制:
(1)无人车的图像采集系统采集图像,对采集的图像进行去噪处理后通过路径边缘点做最优路径规划;
(2)对无人车组进行行程控制,使无人车在规划的路径通道内行进;
(3)对行程中的无人车组进行姿态监控;
(4)重复步骤(2)-(3)直到无人车组停止工作为止;
所述步骤(1)包括如下步骤:
(1.1)图像采集去噪:
无人车组通过图像采集系统对路径所处环境进行三维图像采集,对采集的图像进行高斯滤波处理;
(1.2)对图像中道路进行边缘检测:
对图像中每个像素点周围的邻点灰度值进行Sobel算子计算,通过采集图像所取的亮度选择阈值τ,当
Figure BDA0002361627990000021
fx=(f(a-1,b-1)+2f(a-1,b)+f(a-1,b+1))
-(f(a+1,b+1)+2f(a-1,b)+f(a+1,b+1)),
fy=(f(a-1,b-1)+2f(a,b-1)+f(a+1,b-1))
-(f(a-1,b-1)+2f(a,b-1)+f(a+1,b-1)),
当So(a,b)>τ时,图像中点(a,b)为边缘点,a、b为边缘点坐标,f为灰度值;
(1.3)依据边缘点的路径规划:
无人车组云控制系统采集边缘点信息,通过边缘点构建出路径通道,设无人车的图像采集系统与距离传感器的与水平方向上的夹角为θa,距离传感器返回的数据为la,无人车的高度传感器的测量值为z′,水平方向参考系下的坐标为Dn0=(xa,yb,z′)=(la×cosθa,la×sinθa,z′);
根据路径通道中节点的迭代评价值确定规划的路径,两个相邻节点的距离为ln0,ln0=Dn0-Dn0-1,n0为当前节点的标号,起始点I0到当前节点In0的代价函数为:
Figure BDA0002361627990000031
扫描每个节点附近G(n0)最大的两个邻居节点进行连接,形成规划的路径通道。
所述步骤(2)包括:
(2.1)初始化数量大小为N的无人车组,包括无人车行进区域随机速度和无人车行进区域位置,确定每个无人车的姿态矩阵、姿态矩阵角速率以及姿态角;
(2.2)评估每组中无人车的适应值;
(2.3)评估每组中无人车当前搜索空间中最佳位置;
(2.4)更新无人车的惯性权重,更新每个无人车的速度和位置;
(2.5)在无人车组工作状态下重新执行步骤(2.2),在无人车组工作结束时结束本方法;
所述的无人车的姿态矩阵的确定步骤包括:
(2.1.1)设地球坐标系为earth系,地理坐标系为geo系,载体坐标系为carrier系,导航坐标系为pilot系,各坐标系的轴依次分别为Xg、Yg、Zg;Xc、Yc、Zc;Xp、Yp、Zp
(2.1.2)计算无人车的地理坐标系的方向余弦矩阵;
Figure BDA0002361627990000032
其中无人车所在经度为αe和纬度为δe;αe的取值范围为(-180°,180°);δe的取值范围为(-90°,90°);
(2.1.3)计算无人车的载体坐标系的方向余弦矩阵;
Figure BDA0002361627990000033
其中γc为载体坐标系相对于地理坐标系的横滚角,即Xc相对于Xg的夹角;
其中θc为载体坐标系相对于地理坐标系的俯仰角,即Yc相对于Yg的夹角;
其中
Figure BDA0002361627990000034
为载体坐标系相对于地理坐标系的航向角,即Zc相对于Zg的夹角;
(2.1.4)计算无人车的导航坐标系的姿态矩阵;
Figure BDA0002361627990000041
(2.1.5)计算无人车的导航坐标系的姿态矩阵角速率;
Figure BDA0002361627990000042
ωe为地球角速率在导航坐标系下的投影,ωa为无人车陀螺仪测量值。
所述的评估每组中无人车的适应值为:
Figure BDA0002361627990000043
fj(x表示无人车的目标路径上的第j个支路上的分支函数;αj表示第j个支路对应的权值,m为目标路径的支路总数,x表示被评估的无人车标号;
fj(x)=(βj∩γj)(βj∪γj)-2
βj为执行目标路径经过第j个支路的无人车集合;γj为输入被测程序执行后所经过第j个支路的无人车集合。
所述的评估每组中无人车当前搜索空间中最佳位置包括;
(2.3.1)将每个无人车的适应值与评估的无人车当前局部最佳已知位置pbesti,n进行比较,如果无人车的适应值小,则将该无人车的适应值替换为当前局部最佳已知位置pbesti,n
(2.3.2)将每个无人车的当前局部最佳已知位置pbest与无人车当前搜索空间中最佳位置gbest进行比较,如果无人车的当前局部最佳已知位置pbest小,则将该无人车的当前局部最佳已知位置pbest替换为当前搜索空间中最佳位置gbest。
所述评估的无人车当前局部最佳已知位置pbesti,n,包括:
N个无人车,每个无人车处于S维的搜索空间中,S≤3,本方法第n次迭代过程中第i个无人车的位置为:
Figure BDA0002361627990000044
该无人车对应的速度为:
Figure BDA0002361627990000045
Figure BDA0002361627990000046
所述的更新每个无人车的速度和位置包括;
(2.4.1)更新Gn为惯性权重:
Figure BDA0002361627990000047
Gnmax为无人车的惯性权重的最大值,Gnmin为惯性权重的最小值,
Nmax为迭代次数的最大值;
(2.4.2)更新无人车的速度:
vi,n=ps[vi,n-1+Gn·(pbest-xi,n-1)+Gn·(gbest-xi,n-1)];
ps为收缩因子,
Figure BDA0002361627990000051
k为网络搜索上限速度;
(2.4.3)更新无人车的位置;
xi,n=xi,n-1+vi,n
所述的αj表示第j个支路对应的权值,
Figure BDA0002361627990000052
γn表示迭代过程中路径连续匹配数大于1的值。
所述的步骤(3)包括如下步骤:
(3.1)通过图像采集系统提取前一个时间点上无人车轮廓的点云数据MW,在点云数据MW中取点的集合mi∈MW;同时提取mi对应的真实集合
Figure BDA0002361627990000053
(3.2)通过图像采集系统提取前当前时间点上无人车轮廓的点云数据QW,在点云数据QW中取点的集合qi∈Qw,使|qi-mi|取得最小值;
(3.3)计算摄像系统中旋转矩阵Rw和平移矩阵Tw
(3.4)通过旋转矩阵Rw和平移矩阵TW得到的真实集合
Figure BDA0002361627990000054
变换位姿后的集合m′i
Figure BDA0002361627990000055
(3.5)计算m′i与qi的平均距离
Figure BDA0002361627990000056
(3.6)如果平均距离
Figure BDA0002361627990000057
小于等于位姿预警阈值
Figure BDA0002361627990000058
则目标位姿正常,否则通信目标进行调整。
所述的计算摄像系统中旋转矩阵RW和平移矩阵TW包括:
(3.3.1)计算两个集合的质心:
Figure BDA0002361627990000061
Figure BDA0002361627990000062
为集合mi的点个数,Nqi为集合qi的点个数;
(3.3.2)计算两个集合点的协方差矩阵;
Figure BDA0002361627990000063
T为转置符号;
(3.3.3)计算反对称矩阵;
Figure BDA0002361627990000064
(3.3.4)构建4×4的矩阵
Figure BDA0002361627990000065
Figure BDA0002361627990000066
I3×3是3×3的单位矩阵,
Figure BDA0002361627990000067
为矩阵的迹,
Figure BDA0002361627990000068
是反对称矩阵的分量组成的列向量,
Figure BDA0002361627990000069
Figure BDA00023616279900000610
的最大特征值对应的特征向量r=[r0,r1,r2,r3];
(3.3.5)旋转矩阵RW为:
Figure BDA00023616279900000611
(3.3.6)平移矩阵Tw为:
Figure BDA00023616279900000612
人工智能大数据下粒子化无人车组控制方法,包含有采用上述的人工智能大数据下粒子化无人车组中所述的方法。
人工智能大数据下粒子化无人车组控制介质,控制介质采用上述人工智能大数据下粒子化无人车组控制方法对无人车组进行控制。
本发明的有益效果在于:
本发明以分数阶无人车控制策略展开研究,实现无人车控制系统的设计和稳定性分析,同时在控制律的基础上,对控制律中的参数进行优化,省去人工选取参数的问题。从而简化无人车组控制的难度,实现无人车的稳定控制。
附图说明
图1为本发明方法的具体流程图。
图2为本发明行程控制方法流程图。
图3为预设障碍图像示意图。
图4为特征提取示意图。
图5为边缘提取示意图。
图6为路径通道示意图。
图7为无人车行程测试图1。
图8为无人车行程测试图2。
图9为姿态监控方法模拟示意图。
具体实施方式
下面结合附图对本发明做进一步描述。
本发明涉及的人工智能大数据下粒子化无人车组,若干无人车均由车身、供电装置、图像采集系统、距离传感器以及无人车控制系统组成,由于本发明的重点在于无人车的控制,因此说明书中不再具体说明无人车的结构,本发明的控制方法适用于常规通信的无人车结构,也就是说只要具有无线通信模块和图像采集系统的无人车,就能够使用该方法,而不限于供电装置和车身结构等硬件形式。本发明由无人车组云控制系统和无人车控制系统对无人车组进行路径规划和行程控制,信号通过无人车的图像采集系统、距离传感器采集,传送到云控制系统和无人车控制系统后进行处理,云控制系统将处理后的信号无线传送给无人车控制系统,最终由无人车控制系统统一执行本控制方法,本发明中的云控制系统,即目前市场上可以使用的云(控制)系统,通过网络即可查询和使用,其主要作用是为了提高运算速度,同时减轻控制模块的计算量,如图1所示,本方法具体包括如下步骤:
(1)无人车的图像采集系统采集图像,对采集的图像进行去噪处理后通过路径边缘点做最优路径规划;
(2)对无人车组进行行程控制,使无人车在规划的路径通道内行进;
(3)对行程中的无人车组进行姿态监控;
(4)重复步骤(2)-(3)直到无人车组停止工作为止;
所述步骤(1)包括如下步骤:
(1.1)图像采集去噪:
无人车组通过图像采集系统对路径所处环境进行三维图像采集,对采集的图像进行高斯滤波处理;
(1.2)对图像中道路进行边缘检测:
对图像中每个像素点周围的邻点灰度值进行Sobel算子计算,通过采集图像所取的亮度选择阈值τ,当
Figure BDA0002361627990000081
fx=(f(a-1,b-1)+2f(a-1,b)+f(a-1,b+1))
-(f(a+1,b+1)+2f(a-1,b)+f(a+1,b+1)),
fy=(f(a-1,b-1)+2f(a,b-1)+f(a+1,b-1))
-(f(a-1,b-1)+2f(a,b-1)+f(a+1,b-1)),
当So(a,b)>τ时,图像中点(a,b)为边缘点,a、b为边缘点坐标,f为灰度值;
(1.3)依据边缘点的路径规划:
无人车组云控制系统采集边缘点信息,通过边缘点构建出路径通道,设无人车的图像采集系统与距离传感器的与水平方向上的夹角为θa,距离传感器返回的数据为la,无人车的高度传感器的测量值为z′,水平方向参考系下的坐标为Dn0=(xa,yb,z′)=(la×cosθa,la×sinθa,z′);
根据路径通道中节点的迭代评价值确定规划的路径,两个相邻节点的距离为ln0,ln0=Dn0-Dn0-1,n0为当前节点的标号,起始点I0到当前节点In0的代价函数为:
Figure BDA0002361627990000082
扫描每个节点附近G(n0)最大的两个邻居节点进行连接,形成规划的路径通道。
如图3-6所示,为本发明路径通道形成的模拟过程,通过上述方法,图3中障碍物的形状通过图像进行拟合,图4-图5对障碍物进行特征提取进而进行了边缘提取,最终形成了图6的路径通道的一层,白色区域即是路径通道的表征,最终将每一层通道叠加即形成了立体的路径通道。本发明的图像识别和规划根据两目标间的局部识别,而图像的识别是图像区分和匹配的结果。本发明对图像的区别和匹配是指根据采集图像的灰度值进行区域划分,同时将相同特征的区域进行连接而构成连通区域的集合,形成本发明的路径通道。本发明采用基于代价函数化的图像分析方法将路径通道从背景中分割出来。通过对静态路径进行图像采集通过迭代的方法根据分割效果不断的更新代价函数,由于采用在线确定代价函数的方法,在很大程度上提高了对图像处理的精确度,增加了本发明的实时性效果。与现有技术相比,本发明通过灰度值的运算给出路径通道同时又通过代价函数的方法给出路径的最优规划值,有效提高了无人车的行进效率。
如图2所示,所述步骤(2)包括:
(2.1)初始化数量大小为N的无人车组,包括无人车行进区域随机速度和无人车行进区域位置,确定每个无人车的姿态矩阵、姿态矩阵角速率以及姿态角;
(2.2)评估每组中无人车的适应值;
(2.3)评估每组中无人车当前搜索空间中最佳位置;
(2.4)更新无人车的惯性权重,更新每个无人车的速度和位置;
(2.5)在无人车组工作状态下重新执行步骤(2.2),在无人车组工作结束时结束本方法;
所述的无人车的姿态矩阵的确定步骤包括:
(2.1.1)设地球坐标系为earth系,地理坐标系为geo系,载体坐标系为carrier系,导航坐标系为pilot系,各坐标系的轴依次分别为Xg、Yg、Zg;Xc、Yc、Zc;Xp、Yp、Zp
(2.1.2)计算无人车的地理坐标系的方向余弦矩阵;
Figure BDA0002361627990000091
其中无人车所在经度为αe和纬度为δe;αe的取值范围为(-180°,180°);δe的取值范围为(-90°,90°);
(2.1.3)计算无人车的载体坐标系的方向余弦矩阵;
Figure BDA0002361627990000092
其中γc为载体坐标系相对于地理坐标系的横滚角,即Xc相对于Xg的夹角;
其中θc为载体坐标系相对于地理坐标系的俯仰角,即Yc相对于Yg的夹角;
其中
Figure BDA0002361627990000094
为载体坐标系相对于地理坐标系的航向角,即Zc相对于Zg的夹角;
(2.1.4)计算无人车的导航坐标系的姿态矩阵;
Figure BDA0002361627990000093
(2.1.5)计算无人车的导航坐标系的姿态矩阵角速率;
Figure BDA0002361627990000101
ωe为地球角速率在导航坐标系下的投影,ωa为无人车陀螺仪测量值。
无人车坐标解算是通常都是通过陀螺仪测得的无人车角速度进行实时矩阵解算,因无人车的姿态变化角速率非常快,因此对姿态矩阵进行计算的时间需要毫秒量级的周期,因此对于无人车组满足不了实时性的需求,而非实时性的计算数据必然会对矩阵的计算产生一定的误差。因此,其中的关键技术便是对无人车姿态进行实时解算,也是对无人车姿态解算算法精度产生影响的重要因素之一,而本发明对几个联立方程进行计算,无奇异性、方便计算,在闭环切换控制系统中能否稳定执行。与现有技术相比,本发明通过坐标系的转换能够给出无人车精确的角速率,有主于无人车姿态控制的精确性。
因此,无人车姿态角的实时值为:
Figure BDA0002361627990000102
Figure BDA0002361627990000103
Figure BDA0002361627990000104
Figure BDA0002361627990000105
为无人车导航坐标系的横滚角;
Figure BDA0002361627990000106
为无人车导航坐标系的航向角;
Figure BDA0002361627990000107
为无人车导航坐标系的俯仰角;
姿态矩阵、姿态矩阵角速率是无人车的关键参数,通过这两个参数能够在后续调整过程中更简单的计算出目标点位置。
针对微惯性器件的固有特性,本发明通过云数据融合算法获得最佳姿态角估计。姿态角可以由角速度积分得到,但因微惯性器件陀螺仪存在随机漂移误差,会随着时间的增加逐渐累积,载体在动态环境下,会引入线性加速度对俯仰角等信息造成误差,三轴磁力计会因电磁干扰造成偏航角数据产生误差。因此,本发明提出的数据融合算法,将测量数据作为测量值,通过矩阵式运算获得最佳姿态角估计。
本发明中所述的评估每组中无人车的适应值为:
Figure BDA0002361627990000108
fj(x)表示无人车的目标路径上的第j个支路上的分支函数;αj表示第j个支路对应的权值,m为目标路径的支路总数,x表示被评估的无人车标号;
fj(x)=(βj∩γj)(βj∪γj)-2
βj为执行目标路径经过第j个支路的无人车集合;γj为输入被测程序执行后所经过第j个支路的无人车集合。
所述的评估每组中无人车当前搜索空间中最佳位置包括;
(2.3.1)将每个无人车的适应值与评估的无人车当前局部最佳已知位置pbesti,n进行比较,如果无人车的适应值小,则将该无人车的适应值替换为当前局部最佳已知位置pbesti,n
(2.3.2)将每个无人车的当前局部最佳已知位置pbest与无人车当前搜索空间中最佳位置gbest进行比较,如果无人车的当前局部最佳已知位置pbest小,则将该无人车的当前局部最佳已知位置pbest替换为当前搜索空间中最佳位置gbest。
所述评估的无人车当前局部最佳已知位置pbesti,n,包括:
N个无人车,每个无人车处于S维的搜索空间中,S≤3,本方法第n次迭代过程中第i个无人车的位置为:
Figure BDA0002361627990000111
该无人车对应的速度为:
Figure BDA0002361627990000112
Figure BDA0002361627990000113
所述的更新每个无人车的速度和位置包括;
(2.4.1)更新Gn为惯性权重:
Figure BDA0002361627990000114
Gnmax为无人车的惯性权重的最大值,Gnmin为惯性权重的最小值,
Nmax为迭代次数的最大值;
(2.4.2)更新无人车的速度:
vi,n=ps[vi,n-1+Gn·(pbest-xi,n-1)+Gn·(gbest-xi,n-1)];
ps为收缩因子,
Figure BDA0002361627990000115
k为网络搜索上限速度;
(2.4.3)更新无人车的位置;
xi,n=xi,n-1+vi,n
所述的αj表示第j个支路对应的权值,
Figure BDA0002361627990000121
γn表示迭代过程中路径连续匹配数大于1的值。
为进一步使无人车位置进行精确控制,对无人车的速度进行优化,具体步骤包括:
(2.4.2.1)输入无人车速度函数vi,n、概率效用函数
Figure BDA0002361627990000122
均值函数
Figure BDA0002361627990000123
步长函数
Figure BDA0002361627990000124
测试时长;
(2.4.2.2)初始化方向性统计模型;
Figure BDA0002361627990000125
Figure BDA0002361627990000126
为无人车搜索方向,
Figure BDA0002361627990000127
为归一化系数;
Figure BDA0002361627990000128
Figure BDA0002361627990000129
为n阶修改正的贝塞尔函数;
Figure BDA00023616279900001210
(2.4.2.3)计算当前步长函数值
Figure BDA00023616279900001211
Figure BDA00023616279900001212
(2.4.2.4)通过概率效用函数评估无人车效用值;
Figure BDA00023616279900001213
Z为中间变量,
Figure BDA00023616279900001214
φ1(Z)、φ2(Z)是标准正态分布函数和概率密度函数;
(2.4.2.5)如果无人车效用值在阈值P一下,选择该无人车,记录该无人车的速度值;
(2.4.2.6)计算矫正的效用量;
Figure BDA00023616279900001215
作为无人车全局搜索的效用计量函数,衡量的是某一个无人车在全局搜索策略下可能带来的期望效用量,
(2.4.2.7)更新(2.4.2.5)中无人车的速度为
Figure BDA00023616279900001216
(2.4.2.8)重新执行步骤(2.4.2.1),直到所有无人车效用值维持在阈值P以上。
(2.5)在无人车组工作状态下重新执行步骤2.2,在无人车组工作结束时结束本方法。
如图7和图8所示,是经过路线预设后,都无人车实现形成控制的测试图。图中纵坐标为平面坐标系中一个轴(人为设定)的位置,横坐标为时间,单位为秒。图7中可知在线性移动中,随着时间的增加,误差在增大,那么无人车在实时过程中只要设定好足够的迭代条件(如时间或者阈值),即可形成较精确的路线控制。如图8所示,如果为曲线型运动,则本发明误差较小,因为阈值的迭代是不断变化不断调整的,因为无人车的运动还是以曲线型变化为主,因此,本发明是最适合实际使用的。对于上述数据,本发明每100个时间点提取1个数值给出如下表所示:
时间 预设值 测量值
0 0 0
5 0.1275 0.1303
10 0.255 0.2602
15 0.3825 0.3806
20 0.51 0.5005
25 0.6375 0.6404
30 0.765 0.7703
35 0.8925 0.8903
40 1.02 0.986
45 1.1475 1.1504
50 1.275 1.303
55 1.4025 1.4035
60 1.53 1.5026
表1为线性轨迹测量数据
时间 预设值 测量值
0 0 0
5 0.047943 0.04923
10 0.084147 0.08527
15 0.099749 0.09457
20 0.09093 0.09102
25 0.059847 0.05387
30 0.014112 0.01617
35 -0.03508 -0.03702
40 -0.07568 -0.07878
45 -0.09775 -0.09476
50 -0.09589 -0.09299
55 -0.07055 -0.07255
60 -0.02794 -0.02895
65 0.021512 0.02316
70 0.065699 0.06779
75 0.0938 0.09789
80 0.098936 0.09902
85 0.079849 0.07489
90 0.041212 0.04527
表2为曲线轨迹测量数据
本发明以分数阶无人车控制策略展开研究,实现无人车控制系统的设计和稳定性分析,同时在控制律的基础上,对控制律中的参数进行优化,省去人工选取参数的问题。从而简化无人车组控制的难度,实现无人车的稳定控制。与现有技术相比,本发明通过粒子化分数阶算法获得精确路线,与传统粒子化分数阶算法相比,通过引入矫正效用量来进一步提高无人车控制的准确率。
进一步的,所述的步骤(3)包括如下步骤:
(3.1)通过图像采集系统提取前一个时间点上无人车轮廓的点云数据Mw,在点云数据MW中取点的集合mi∈Mw;同时提取mi对应的真实集合
Figure BDA0002361627990000141
(3.2)通过图像采集系统提取前当前时间点上无人车轮廓的点云数据QW,在点云数据QW中取点的集合qi∈QW,使|qi-mi|取得最小值;
(3.3)计算摄像系统中旋转矩阵RW和平移矩阵TW
(3.4)通过旋转矩阵RW和平移矩阵Tw得到的真实集合
Figure BDA0002361627990000142
变换位姿后的集合m′i
Figure BDA0002361627990000143
(3.5)计算m′i与qi的平均距离
Figure BDA0002361627990000144
(3.6)如果平均距离
Figure BDA0002361627990000145
小于等于位姿预警阈值
Figure BDA0002361627990000146
则目标位姿正常,否则通信目标进行调整。
所述的计算摄像系统中旋转矩阵RW和平移矩阵TW包括:
(3.3.1)计算两个集合的质心:
Figure BDA0002361627990000147
Figure BDA0002361627990000148
为集合mi的点个数,Nqi为集合qi的点个数;
(3.3.2)计算两个集合点的协方差矩阵;
Figure BDA0002361627990000149
T为转置符号;
(3.3.3)计算反对称矩阵;
Figure BDA00023616279900001410
(3.3.4)构建4×4的矩阵
Figure BDA00023616279900001411
Figure BDA0002361627990000151
I3×3是3×3的单位矩阵,
Figure BDA0002361627990000152
为矩阵的迹,
Figure BDA0002361627990000153
是反对称矩阵的分量组成的列向量,
Figure BDA0002361627990000154
Figure BDA0002361627990000155
的最大特征值对应的特征向量r[r0,r1,r2,r3];
(3.3.5)旋转矩阵RW为:
Figure BDA0002361627990000156
(3.3.6)平移矩阵TW为:
Figure BDA0002361627990000157
如图9所示,是通过本发明实验获得目标跟踪与姿态监控效果图,根据测试模拟,本发明方法的平均误差为3.25,测算次数1350次,成功率100%
步骤(3)中提出通过无人车的视频图像彼此实施监控自身的位姿状态,一旦超过阈值,可以直接进行警戒,有效的提高了无人车组的稳定性,与步骤(2)的方法彼此互相协调互相配合,不仅能够有效保证无人车组的路径规划、行进和避障而且能够有效避免因外部环境变化造成的位姿影响。
人工智能大数据下粒子化无人车组控制方法,如上述的方法对无人车进行控制。
人工智能大数据下粒子化无人车组控制介质采用上述方法对无人车组进行控制。
需要指出的是,本发明中已经对所有符号和特殊定义做出了解释,而其他技术特征如车身、供电装置等以及一些简单参数均为本领域的公知常识。

Claims (8)

1.人工智能大数据下粒子化无人车组,若干无人车均由车身、供电装置、图像采集系统、距离传感器以及无人车控制系统组成,供电装置给整个无人车供电,由无人车组云控制系统和无人车控制系统对无人车组进行路径规划和行程控制,无人车采用如下方法控制:
(1)无人车的图像采集系统采集图像,对采集的图像进行去噪处理后通过路径边缘点做最优路径规划;
(2)对无人车组进行行程控制,使无人车在规划的路径通道内行进;
(3)对行程中的无人车组进行姿态监控;
(4)重复步骤(2)-(3)直到无人车组停止工作为止;
其特征在于,所述步骤(1)包括如下步骤:
(1.1)图像采集去噪:
无人车组通过图像采集系统对路径所处环境进行三维图像采集,对采集的图像进行高斯滤波处理;
(1.2)对图像中道路进行边缘检测:
对图像中每个像素点周围的邻点灰度值进行Sobel算子计算,通过采集图像所取的亮度选择阈值τ,当
Figure FDA0003557413880000011
fx=(f(a-1,b-1)+2f(a-1,b)+f(a-1,b+1))-(f(a+1,b+1)+2f(a-1,b)+f(a+1,b+1)),
fy=(f(a-1,b-1)+2f(a,b-1)+f(a+1,b-1))-(f(a-1,b-1)+2f(a,b-1)+f(a+1,b-1)),
当So(a,b)>τ时,图像中点(a,b)为边缘点,a、b为边缘点坐标,f为灰度值;
(1.3)依据边缘点的路径规划:
无人车组云控制系统采集边缘点信息,通过边缘点构建出路径通道,设无人车的图像采集系统与距离传感器的与水平方向上的夹角为θa,距离传感器返回的数据为la,无人车的高度传感器的测量值为z′,水平方向参考系下的坐标为Dn0=(xa,yb,z′)=(la×cosθa,la×sinθa,z′);
根据路径通道中节点的迭代评价值确定规划的路径,两个相邻节点的距离为ln0,ln0=Dn0-Dn0-1,n0为当前节点的标号,起始点I0到当前节点In0的代价函数为:
Figure FDA0003557413880000021
扫描每个节点附近G(n0)最大的两个邻居节点进行连接,形成规划的路径通道;
所述步骤(2)包括:
(2.1)初始化数量大小为N的无人车组,包括无人车行进区域随机速度和无人车行进区域位置,确定每个无人车的姿态矩阵、姿态矩阵角速率以及姿态角;
(2.2)评估每组中无人车的适应值;
(2.3)评估每组中无人车当前搜索空间中最佳位置;
(2.4)更新无人车的惯性权重,更新每个无人车的速度和位置;
(2.5)在无人车组工作状态下重新执行步骤(2.2),在无人车组工作结束时结束本方法;
所述的无人车的姿态矩阵的确定步骤包括:
(2.1.1)设地球坐标系为earth系,地理坐标系为geo系,载体坐标系为carrier系,导航坐标系为pilot系,各坐标系的轴依次分别为Xg、Yg、Zg;Xc、Yc、Zc;Xp、Yp、Zp
(2.1.2)计算无人车的地理坐标系的方向余弦矩阵;
Figure FDA0003557413880000022
其中无人车所在经度为αe和纬度为δe;αe的取值范围为(-180°,180°);δe的取值范围为(-90°,90°);
(2.1.3)计算无人车的载体坐标系的方向余弦矩阵;
Figure FDA0003557413880000023
其中γc为载体坐标系相对于地理坐标系的横滚角,即Xc相对于Xg的夹角;
其中θc为载体坐标系相对于地理坐标系的俯仰角,即Yc相对于Yg的夹角;
其中
Figure FDA0003557413880000024
为载体坐标系相对于地理坐标系的航向角,即Zc相对于Zg的夹角;
(2.1.4)计算无人车的导航坐标系的姿态矩阵;
Figure FDA0003557413880000025
(2.1.5)计算无人车的导航坐标系的姿态矩阵角速率;
Figure FDA0003557413880000031
ωe为地球角速率在导航坐标系下的投影,ωa为无人车陀螺仪测量值;
所述的评估每组中无人车的适应值为:
Figure FDA0003557413880000032
fj(x)表示无人车的目标路径上的第j个支路上的分支函数;αj表示第j个支路对应的权值,m为目标路径的支路总数,x表示被评估的无人车标号;
fj(x)=(βj∩γj)(βj∪γj)-2
βj为执行目标路径经过第j个支路的无人车集合;γj为输入被测程序执行后所经过第j个支路的无人车集合;
所述的步骤(3)包括如下步骤:
(3.1)通过图像采集系统提取前一个时间点上无人车轮廓的点云数据MW,在点云数据MW中取点的集合mi∈MW;同时提取mi对应的真实集合
Figure FDA0003557413880000033
(3.2)通过图像采集系统提取前当前时间点上无人车轮廓的点云数据QW,在点云数据QW中取点的集合qi∈QW,使|qi-mi|取得最小值;
(3.3)计算摄像系统中旋转矩阵RW和平移矩阵TW
(3.4)通过旋转矩阵RW和平移矩阵TW得到的真实集合
Figure FDA0003557413880000034
变换位姿后的集合m′i
Figure FDA0003557413880000035
(3.5)计算m′i与qi的平均距离
Figure FDA0003557413880000036
(3.6)如果平均距离
Figure FDA0003557413880000037
小于等于位姿预警阈值
Figure FDA0003557413880000038
则目标位姿正常,否则通信目标进行调整。
2.根据权利要求1所述的人工智能大数据下粒子化无人车组,其特征在于,所述的评估每组中无人车当前搜索空间中最佳位置包括;
(2.3.1)将每个无人车的适应值与评估的无人车当前局部最佳已知位置pbesti,n进行比较,如果无人车的适应值小,则将该无人车的适应值替换为当前局部最佳已知位置pbesti,n
(2.3.2)将每个无人车的当前局部最佳已知位置pbest与无人车当前搜索空间中最佳位置gbest进行比较,如果无人车的当前局部最佳已知位置pbest小,则将该无人车的当前局部最佳已知位置pbest替换为当前搜索空间中最佳位置gbest。
3.根据权利要求2所述的人工智能大数据下粒子化无人车组,其特征在于,所述评估的无人车当前局部最佳已知位置pbesti,n,包括:
N个无人车,每个无人车处于S维的搜索空间中,S≤3,本方法第n次迭代过程中第i个无人车的位置为:
Figure FDA0003557413880000041
该无人车对应的速度为:
Figure FDA0003557413880000042
Figure FDA0003557413880000043
4.根据权利要求2所述的人工智能大数据下粒子化无人车组,其特征在于,所述的更新每个无人车的速度和位置包括;
(2.4.1)更新Gn为惯性权重:
Figure FDA0003557413880000044
Gnmax为无人车的惯性权重的最大值,Gnmin为惯性权重的最小值,
Nmax为迭代次数的最大值;
(2.4.2)更新无人车的速度:
vi,n=ps[vi,n-1+Gn·(pbest-xi,n-1)+Gn·(gbest-xi,n-1)];
ps为收缩因子,
Figure FDA0003557413880000045
k为网络搜索上限速度;
(2.4.3)更新无人车的位置;
xi,n=xi,n-1+vi,n
5.根据权利要求1所述的人工智能大数据下粒子化无人车组,其特征在于,所述的αj表示第j个支路对应的权值,
Figure FDA0003557413880000046
γn表示迭代过程中路径连续匹配数大于1的值。
6.根据权利要求1所述的人工智能大数据下粒子化无人车组,其特征在于,所述的计算摄像系统中旋转矩阵RW和平移矩阵TW包括:
(3.3.1)计算两个集合的质心:
Figure FDA0003557413880000051
Figure FDA0003557413880000052
为集合mi的点个数,
Figure FDA0003557413880000053
为集合qi的点个数;
(3.3.2)计算两个集合点的协方差矩阵;
Figure FDA0003557413880000054
T为转置符号;
(3.3.3)计算反对称矩阵;
Figure FDA0003557413880000055
(3.3.4)构建4×4的矩阵
Figure FDA0003557413880000056
Figure FDA0003557413880000057
I3×3是3×3的单位矩阵,
Figure FDA0003557413880000058
为矩阵的迹,
Figure FDA0003557413880000059
是反对称矩阵的分量组成的列向量,
Figure FDA00035574138800000510
Figure FDA00035574138800000511
的最大特征值对应的特征向量r=[r0,r1,r2,r3];
(3.3.5)旋转矩阵RW为:
Figure FDA00035574138800000512
(3.3.6)平移矩阵TW为:
Figure FDA00035574138800000513
7.人工智能大数据下粒子化无人车组控制方法,其特征在于,采用根据权利要求1-6中任意一项中所述的人工智能大数据下粒子化无人车组的方法。
8.人工智能大数据下粒子化无人车组计算机可读存储介质,其特征在于,所述的计算机可读存储介质采用根据权利要求7所述的人工智能大数据下粒子化无人车组控制方法对无人车组进行控制。
CN202010023463.5A 2020-01-09 2020-01-09 人工智能大数据下粒子化无人车组、控制方法及介质 Active CN111208820B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010023463.5A CN111208820B (zh) 2020-01-09 2020-01-09 人工智能大数据下粒子化无人车组、控制方法及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010023463.5A CN111208820B (zh) 2020-01-09 2020-01-09 人工智能大数据下粒子化无人车组、控制方法及介质

Publications (2)

Publication Number Publication Date
CN111208820A CN111208820A (zh) 2020-05-29
CN111208820B true CN111208820B (zh) 2023-01-03

Family

ID=70790025

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010023463.5A Active CN111208820B (zh) 2020-01-09 2020-01-09 人工智能大数据下粒子化无人车组、控制方法及介质

Country Status (1)

Country Link
CN (1) CN111208820B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113218403B (zh) * 2021-05-14 2022-09-09 哈尔滨工程大学 惯性视觉组合式定位的agv系统
CN114089752A (zh) * 2021-11-11 2022-02-25 深圳市杉川机器人有限公司 机器人的自主探索方法、机器人及计算机可读存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3772845B2 (ja) * 2003-03-24 2006-05-10 コニカミノルタホールディングス株式会社 画像処理プログラム、画像処理装置、および撮影装置
CN101329402B (zh) * 2008-06-20 2010-12-29 西安电子科技大学 基于改进Wedgelet的多尺度SAR图像边缘检测方法
CN108470340A (zh) * 2017-02-23 2018-08-31 南宁市富久信息技术有限公司 一种改进的Sobel边缘检测算法
JP6841331B2 (ja) * 2017-07-24 2021-03-10 富士通株式会社 車両駐車支援装置、車両駐車支援プログラム
CN109974686B (zh) * 2017-12-28 2023-03-31 沈阳新松机器人自动化股份有限公司 基于监控摄像头检测的搬运机器人路径规划辅助方法

Also Published As

Publication number Publication date
CN111208820A (zh) 2020-05-29

Similar Documents

Publication Publication Date Title
Vivacqua et al. Self-localization based on visual lane marking maps: An accurate low-cost approach for autonomous driving
CN106774313B (zh) 一种基于多传感器的室外自动避障agv导航方法
CN110264721B (zh) 一种城市交叉口周边车辆轨迹预测方法
CN104764457B (zh) 一种用于无人车的城市环境构图方法
CN106896353A (zh) 一种基于三维激光雷达的无人车路口检测方法
CN106840179A (zh) 一种基于多传感器信息融合的智能车定位方法
CN108961811A (zh) 停车场车辆定位方法、系统、移动终端及存储介质
Zhang et al. A cognitively inspired system architecture for the Mengshi cognitive vehicle
CN112578673B (zh) 无人方程式赛车多传感器融合的感知决策与跟踪控制方法
CN111208820B (zh) 人工智能大数据下粒子化无人车组、控制方法及介质
CN111123953B (zh) 人工智能大数据下粒子化移动机器人组及其控制方法
CN106469505A (zh) 一种浮动车轨迹纠偏方法和装置
CN113252051A (zh) 一种地图构建方法及装置
CN114063090A (zh) 一种可移动设备的定位方法、装置及可移动设备
CN111089598B (zh) 一种基于icciu的车道级车载实时地图匹配方法
CN111708010B (zh) 一种可移动设备的定位方法、装置、系统及可移动设备
Hara et al. Vehicle localization based on the detection of line segments from multi-camera images
CN211427151U (zh) 一种应用于封闭场地无人驾驶货运车辆上的自动引导系统
Wang et al. Extraction of preview elevation information based on terrain mapping and trajectory prediction in real-time
CN114842660B (zh) 一种无人车道路轨迹预测方法、装置和电子设备
CN111198576A (zh) 人工智能大数据下粒子化无人机组控制方法、介质及机组
US20220196829A1 (en) Radar Reference Map Generation
US20220196828A1 (en) Radar Reference Map Generation
CN111360829B (zh) 人工智能大数据下医疗用品运送机器人及其控制方法
Chipka et al. Autonomous urban localization and navigation with limited information

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20221214

Address after: 201500 1st floor, No.1000 Tingwei Road, Jinshan District, Shanghai

Applicant after: Shanghai Xiaoao Software Technology Co.,Ltd.

Address before: 150001 No. 145-1, Nantong Avenue, Nangang District, Heilongjiang, Harbin

Applicant before: HARBIN ENGINEERING University

GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230424

Address after: 201500 1st floor, No.1000 Tingwei Road, Jinshan District, Shanghai

Patentee after: Shanghai Aoyao Artificial Intelligence Technology Co.,Ltd.

Address before: 201500 1st floor, No.1000 Tingwei Road, Jinshan District, Shanghai

Patentee before: Shanghai Xiaoao Software Technology Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240124

Address after: 201500 1st floor, No.1000 Tingwei Road, Jinshan District, Shanghai

Patentee after: Shanghai Aoqiong Software Technology Co.,Ltd.

Country or region after: China

Address before: 201500 1st floor, No.1000 Tingwei Road, Jinshan District, Shanghai

Patentee before: Shanghai Aoyao Artificial Intelligence Technology Co.,Ltd.

Country or region before: China