CN114022676A - 基于人工智能的车辆动态称重驾驶引导方法 - Google Patents
基于人工智能的车辆动态称重驾驶引导方法 Download PDFInfo
- Publication number
- CN114022676A CN114022676A CN202111286789.8A CN202111286789A CN114022676A CN 114022676 A CN114022676 A CN 114022676A CN 202111286789 A CN202111286789 A CN 202111286789A CN 114022676 A CN114022676 A CN 114022676A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- longitudinal distance
- initial
- distance
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01G—WEIGHING
- G01G19/00—Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups
- G01G19/02—Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups for weighing wheeled or rolling bodies, e.g. vehicles
- G01G19/03—Weighing apparatus or methods adapted for special purposes not provided for in the preceding groups for weighing wheeled or rolling bodies, e.g. vehicles for weighing during motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明涉及人工智能领域,具体涉及一种基于人工智能的车辆动态称重驾驶引导方法,该方法包括:获取车辆相对于图像采集装置的起始位姿;基于车辆的起始位姿预测第一纵向距离和第二纵向距离;获取车辆起始位置与动态测重仪间的总纵向距离,基于总纵向距离、第一纵向距离和第二纵向距离,获取车身回正起始点的可选范围;可选范围内不同位置的点分别作为车身回正起始点,基于车辆起始位置、车身回正起始点和动态测重仪的位置拟合多条行驶路线;对每条行驶路线进行行驶平滑性、容错性以及车身回正起始点位置合理性的评估,基于评估结果确定驾驶引导路线,进而获取引导指令。本发明可为车辆提供准确的驾驶引导。
Description
技术领域
本发明涉及人工智能领域,具体涉及一种基于人工智能的车辆动态称重驾驶引导方法。
背景技术
多数企业厂区往往需要对车辆载重进行检测,而体积较小的弯板式测重仪,由于携带方便,应用广泛。但是,也因为位置不固定、体积较小的原因,卡车等车辆由于视线问题往往难以确认自身的车辆是否能合适的驶到地秤上,也难以确认什么位置需要停车称重。目前在称重操作时,往往需要人为来引导车辆,但是,有些人因为经验问题并不能很好的完成引导指挥的工作,导致车辆不能准确停到测重仪上,而车辆对侧重仪的不平衡的压力很容易造成测重仪的损坏。
发明内容
为了解决上述技术问题,本发明的目的在于提供一种基于人工智能的车辆动态称重驾驶引导方法,所采用的技术方案具体如下:
本发明一个实施例提供了一种基于人工智能的车辆动态称重驾驶引导方法,该方法包括以下具体步骤:
获取动态测重仪的位置,确定车辆图像采集装置的位置,获取车辆相对于图像采集装置的起始位姿;
基于车辆的起始位姿预测第一纵向距离和第二纵向距离,所述纵向距离为车辆在垂直于动态测重仪连线方向上行驶的距离,第一纵向距离为车辆在方向盘一侧极限角度下行驶到过动态测重仪连线中点的垂线上时的纵向距离,此时车辆在所述垂线上的位置为第一位置,第二纵向距离为车辆在方向盘另一侧极限角度下从第一位置行驶到第二位置时的纵向距离,第二位置为车身刚回正且车轮正对动态测重仪时车辆所处位置;
获取车辆起始位置与动态测重仪间的总纵向距离,基于总纵向距离、第一纵向距离和第二纵向距离,获取车身回正起始点的可选范围;
可选范围内不同位置的点分别作为车身回正起始点,基于车辆起始位置、车身回正起始点和动态测重仪的位置拟合多条行驶路线;
对每条行驶路线进行行驶平滑性、容错性以及车身回正起始点位置合理性的评估,基于评估结果确定驾驶引导路线,进而获取引导指令。
进一步地,所述车辆相对于图像采集装置的起始位姿的获取具体为:
以车辆图像采集装置为原点建立坐标系,车辆中心点与原点的距离d、车辆中心点和原点连线与坐标轴的夹角θ表示车辆的起始位置;车身与坐标轴的夹角γ和车轮与坐标轴的夹角β表示车辆的起始姿态。
进一步地,利用神经网络对车辆的起始位姿进行处理,预测第一纵向距离和第二纵向距离,具体地:
将车辆相对于图像采集装置的起始位姿,和起始位置车辆中心点与过动态测重仪连线中点垂线间的距离,输入第一全连接网络中,输出车辆位于第一位置时的位姿和第一纵向距离;
将车辆位于第一位置时的位姿输入第二全连接网络中,输出第二纵向距离。
进一步地,对每条行驶路线进行行驶平滑性的评估具体包括车辆起始位置光滑程度的评估和行驶路线光滑程度的评估;其中,根据车辆在起始位置时车身与行驶路线起始点切线之间的夹角进行车辆起始位置光滑程度的评估。
进一步地,行驶路线光滑程度的评估具体为:
gh表示行驶路线的光滑程度;CDi和CDi-k分别表示第i个和第i-k个切线夹角,第i个切线夹角为行驶路线上第i个点和其相邻点切线的夹角,第i-k个切线夹角为行驶路线上第i-k个点和其相邻点切线的夹角;I为切线夹角的个数,K为预设值,g为关联系数,f的取值为[1,K]。
进一步地,对每条行驶路线进行容错性的评估具体为:
根据总纵向距离、第一纵向距离和第二纵向距离获取最长剩余可调整距离;
基于总纵向距离、车辆从起始位置行驶到车身回正起始点时的纵向距离和车辆从车身回正起始点行驶到车身刚回正且车轮正对动态测重仪时的纵向距离,获取实际剩余可调整距离;
根据实际剩余可调整距离与最长剩余可调整距离的比值进行行驶路线容错性的评估。
进一步地,对车身回正起始点进行位置合理性的评估具体为:
基于车身回正起始点对所述可选范围进行分割,获取距离分割比例;基于第一纵向距离和第二纵向距离,获取参考距离分割比例;
根据距离分割比例与参考距离分割比例的差值进行车身回正起始点进行位置合理性的评估。
本发明实施例至少具有如下有益效果:本发明行驶平滑性、容错性以及车身回正起始点位置合理性对每条行驶路线进行评估,基于评估结果确定驾驶引导路线,可为车辆提供准确的驾驶引导,避免车辆对侧重仪的不平衡的压力造成测重仪的损坏。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明实施例的方法流程图。
图2为本发明实施例的车辆驾驶引导过程示意图。
图3为车辆位姿表示参数示意图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种基于人工智能的车辆动态称重驾驶引导方法,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一或多个实施例中的特定特征、结构、或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
本发明的主要目的是:利用计算机视觉技术结合深度学习神经网络来根据动态的测重场景,得到合理的驾驶转角,辅助司机快速、合理的停靠到动态测重仪上。
本发明实施例以下面的应用场景为例对本发明进行说明:
该应用场景为:便捷式可移动测重仪与车辆图像采集装置布置好了之后,车辆驶向地秤,为了更容易的让司机合理停靠与地秤上,本发明通过车辆图像采集装置采集车辆的图像,对车辆图像进行分析,最后利用语音的方式来进行车辆驾驶的引导。
下面结合附图具体的说明本发明所提供的一种基于人工智能的车辆动态称重驾驶引导方法的具体方案。
参阅图1,其示出了本发明一个实施例提供的一种基于人工智能的车辆动态称重驾驶引导方法的步骤流程图,该方法包括以下步骤:
获取动态测重仪的位置,确定车辆图像采集装置的位置,获取车辆相对于图像采集装置的起始位姿;
基于车辆的起始位姿预测第一纵向距离和第二纵向距离,所述纵向距离为车辆在垂直于动态测重仪连线方向上行驶的距离,第一纵向距离为车辆在方向盘一侧极限角度下行驶到过动态测重仪连线中点的垂线上时的纵向距离,车辆在所述垂线上的位置为第一位置,第二纵向距离为车辆在方向盘另一侧极限角度下从第一位置行驶到第二位置时的纵向距离,第二位置为车身刚回正且车轮正对动态测重仪时车辆所处位置;
获取车辆起始位置与动态测重仪间的总纵向距离,基于总纵向距离、第一纵向距离和第二纵向距离,获取车身回正起始点的可选范围;
可选范围内不同位置的点分别作为车身回正起始点,基于车辆起始位置、车身回正起始点和动态测重仪的位置拟合多条行驶路线;
对每条行驶路线进行行驶平滑性、容错性以及车身回正起始点位置合理性的评估,基于评估结果确定驾驶引导路线,进而获取引导指令。
参阅图2,其示出了本发明实施例中车辆驾驶引导过程示意图,具体地,图2中示意了将车辆从其他位置引导向动态测重仪上的三个过程:第一个过程(T1到T2):车辆从其他位置行驶到过动态测重仪连线中点的垂线位置,即调整车辆的车轮使其朝向所述垂线行驶;第二个过程(T2到T3):车辆调整姿态为正对动态测重仪,即调整车辆的两个车轮使车轮正对两个动态测重仪;第三个过程(T3到T4):车辆的车轮停在动态测重仪上。
下面对上述各个步骤进行具体展开:
步骤S1,获取动态测重仪的位置,确定车辆图像采集装置的位置,获取车辆相对于图像采集装置的起始位姿。
本发明使用的车辆图像采集装置为可移动的图像采集装置,迎合了动态测重仪便于携带的优势,弥补动态测重仪体积窄小,车辆不易规范停稳在测重仪上的缺点。本发明中车辆图像采集装置的放置具有一定限制,需要车辆图像采集装置位于两测重仪的中心,并朝向车辆向动态测重仪行驶来的方向,以此方便各物体的投影和几何坐标系的建立,同时车辆图像采集装置使用三角架支撑放置。
确定动态测重仪和车辆图像采集装置的位置后,利用车辆图像采集装置采集车辆图像,对车辆图像进行分析处理,获取车辆相对于图像采集装置的起始位姿。因为便捷式动态测重仪的使用场景多变,为了让本发明的泛化能力更强,即检测车辆、车轮、车牌等目标时不受工况的影响,本发明采用神经网络的方式来减少场景成像带来的影响,且结合深度相机采集的深度信息来获得特定事物对应的三维点云信息,基于特定事物的三维点云信息获取当前空间下车辆的起始位姿,具体地:
(a)采集的RGB车辆图像经过DNN推理,识别图像中的车辆及其各部件,为了识别行驶向测重仪的车辆目标,本发明使用神经网络以语义分割的方式来进行检测推理,该语义分割神经网络的具体信息如下:
网络的结构为Encoder-Decoder的形式,即先通过编码器对车辆图像进行特征的提取,而后通过解码器对特征信息进行恢复解码得到对应的语义分割图像,实现端到端的目标检测。
网络使用的训练数据为图像采集装置以朝向车辆的视角采集的车辆图像;人为对图像中的车辆、车轮、车牌目标进行标注,获取标签数据;标注过程为:建立同等尺寸的单通道图像,对应原RGB车辆图像的像素位置进行标注,若RGB图像中对应像素属于背景类,则单通道图像中相应位置的像素标注为0,若为车辆车头目标则标注为1,若为车辆车身目标则标注为2,若为车辆车轮侧面则标注为3,车轮轮面则标注为4,若为车牌目标则标注为5。
(b)根据语义分割网络推理得到的语义遮罩,获取对应的深度图像;本发明中车辆图像采集装置为RGB-D相机,因此,采集的车辆图像既包括RGB图像,也含有深度D图像。上述步骤(a)可得到车轮车牌等各事物对应的语义分割结果,转换为对应的二值遮罩,与对应的深度图进行相乘操作,即可得到各事物对应的深度信息。
(c)通过投影变换得到车轮车牌等各事物对应的点云数据;深度信息D需要结合对应的相机内参矩阵[P]得到对应的像素三维坐标信息,即得到对应的点云信息,具体地:
式中,dx和dy分别表示单个像素代表的实际横向和纵向长度,单位为mm/pixel;F为图像对应的焦距,ZC为对应像素的深度距离信息;u0和v0分别为图像横向和纵向的中心位置;u和v分别为二维图像中像素的对应的横纵坐标;xw,yw,zw分别为像素对应的相机坐标系下的三维坐标,也即点云信息,相机坐标系以相机光心位置为参考原点。
至此,可得到图像中各像素对应的事物的三维空间信息(点云信息)。
(d)利用车身、车头对应的三维点云平面,可得到对应平面的法向量,结合车辆的尺寸,可以得到俯视视角下,车辆上各位置点在当前坐标系下的二维投影坐标;进而可得到车辆相对于图像采集装置的起始位姿,参阅图3,图中示出了车辆位姿的多个表示参数,以车辆图像采集装置为原点建立坐标系,车辆中心点与原点的距离d、车辆中心点和原点连线与坐标轴的夹角θ表示车辆的起始位置;车身与坐标轴的夹角γ和车轮与坐标轴的夹角β表示车辆的起始姿态。
一种实施方式中,车辆尺寸信息的获取方法为:人为的输入车辆的尺寸信息。
另一种实施方式中,车辆尺寸信息的获取方法为:搜集数据,建立车牌-车型-车辆尺寸的搜查数据库,先对车牌区域进行光学字符识别(OCR)得到对应的车牌信息,从搜查数据库中得到对应的车型信息,进而得到车型对应的车辆的立体尺寸信息,包括:车头的长高宽,车身的长高宽,车轮轴的位置等,以便能够进行准确的几何关系分析。
可选地,实施者还可在俯视视角下,以车辆图像采集装置为原点建立二位坐标系,测量得到车辆各位置点在地面上的二维坐标,基于车辆各位置点的二维坐标获取车辆相对于图像采集装置的起始位姿。
步骤S2,基于车辆的起始位姿预测第一纵向距离和第二纵向距离,所述纵向距离为车辆在垂直于动态测重仪连线方向上行驶的距离,第一纵向距离为车辆在方向盘一侧极限角度下行驶到过动态测重仪连线中点的垂线上时的纵向距离,车辆在所述垂线上的位置为第一位置,第二纵向距离为车辆在方向盘另一侧极限角度下从第一位置行驶到第二位置时的纵向距离,第二位置为车身刚回正且车轮正对动态测重仪时车辆所处位置;其中,方向盘的极限角度是指方向盘向任意一侧打死时对应的角度。
本发明利用神经网络对车辆的起始位姿进行处理,预测第一纵向距离和第二纵向距离,具体地:将车辆相对于图像采集装置的起始位姿,和起始位置车辆中心点与过动态测重仪连线中点垂线间的距离,输入第一全连接网络中,输出车辆位于第一位置时的位姿和第一纵向距离;将车辆位于第一位置时的位姿输入第二全连接网络中,输出第二纵向距离。
其中,实施例中第一全连接网络输入层神经元数量为位姿参数的数量5,输出层神经元数量同样为5;第二全连接层网络的输入层神经元数量为位姿参数的数量4,输出层神经元数量为1。训练第一全连接网络和第二全连接层网络所用损失函数均为均方误差损失函数。
不同轴距的车辆,其车轮转向对车身偏转的影响不同,为了使系统能够自动化的处理各种情况,实施例利用仿真软件来模拟车辆的转弯并得到大量对应数据,而后利用获取的数据训练第一全连接网络和第二全连接层网络,具体地:
使用现有的三维物理引擎来仿真模拟车辆的转弯,首先建立各类车型对应的车辆模型。设置起始的仿真参数,包括车辆的起始位姿,停止条件(横向移动距离及车身偏转角度)等。
第一模拟阶段:模拟器的输入数据为车辆中心点与原点的距离d、车辆中心点和原点连线与坐标轴的夹角θ、车身与坐标轴的夹角γ、车轮与坐标轴的夹角β和横向移动距离xd,输出数据为车辆往一侧打方向盘的场景下横向距离达到xd时,对应的车辆位姿和行驶的纵向距离;其中,横向距离为与纵向垂直的方向上的距离。
第二模拟阶段:模拟器的输入数据为第一模拟阶段输出数据中车辆的位姿数据,输出数据为车辆往另一侧打方向盘时车身刚好回正时,车辆行驶的纵向距离。
以上述方式得到大量数据来训练神经网络,以便能够直接输入对应的状态参数,便可由网络推理出近似的仿真结果。
步骤S3,获取车辆起始位置与动态测重仪间的总纵向距离,基于总纵向距离、第一纵向距离和第二纵向距离,获取车身回正起始点的可选范围。
实施例中获取车身回正起始点的可选范围之前,需要先判断车辆在起始位置是否满足可以进行驾驶引导的条件,具体地,基于车辆的起始位置和姿态,获取车辆起始位置与动态测重仪间的总纵向距离、第一纵向距离和第二纵向距离,若总纵向距离小于第一纵向距离和第二纵向距离之和,则不满足可以进行驾驶引导的条件,车辆需要进行后退操作,若总纵向距离大于等于第一纵向距离和第二纵向距离之和,则获取车身回正起始点的可选范围。
车身回正起始点的可选范围的获取方法为:将车辆起始位置与动态测重仪间的总纵向距离以动态测重仪连线中点为起点对应到过动态测重仪连线中点的垂线上,得到车辆在所述垂线上的投影位置,投影位置与第一位置间的范围为第一纵向距离对应的范围,第一纵向距离表示车辆在转弯情况下到达过动态测重仪连线中点的垂线上时要行驶的最短纵向距离;确定车身回正起始点的极限位置,所述极限位置与动态测重仪连线中点之间的距离为第二纵向距离,从车身回正起始点的极限位置开始往另一侧打死方向盘,车辆到达动态测重仪连线中点,车身刚好回正且车轮正对动态测重仪,即表示车辆最迟要从该点开始进行车身回正。因此,在所述投影位置与动态测重仪连线中点之间的范围中,去掉投影位置与第一位置之间的范围和车身回正起始点的极限位置与动态测重仪连线中点之间的范围,剩余的范围即为车身回正起始点的可选范围,车身回正起始点的可选范围的长度为车辆起始位置与动态测重仪间的总纵向距离减去第一纵向距离和第二纵向距离。
步骤S4,可选范围内不同位置的点分别作为车身回正起始点,基于车辆起始位置、车身回正起始点和动态测重仪的位置拟合多条行驶路线。
先由第一全连接网络结合车辆起始位姿信息,以及车身回正起始点位置,得到车身回正起始点对应的车辆位姿信息,再由第二全连接网络得到车辆姿态调整完毕后对应的终止点的位置;根据车辆起始位置、车身回正起始点位置和终止点位置三个点拟合光滑曲线,所述光滑曲线表示车辆前轴中心点的行驶轨迹,行驶轨迹上各点垂直方向以车辆轴距为限制,可得到对应的行驶路线。
步骤S5,对每条行驶路线进行行驶平滑性、容错性以及车身回正起始点位置合理性的评估,基于评估结果确定驾驶引导路线,进而获取引导指令。
(a)进行行驶平滑性评估需要结合车辆的起始姿态,原因为车辆并非理想中的质点,是具有一定体积的,曲线的光滑并不完全代表操作的平滑性,因此,对每条行驶路线进行行驶平滑性的评估具体包括车辆起始位置光滑程度的评估和行驶路线光滑程度的评估;其中,根据车辆在起始位置时车身与行驶路线起始点切线之间的夹角进行车辆起始位置光滑程度的评估。
具体地,车辆起始位置光滑程度的评估方法为:
具体地,行驶路线光滑程度的评估方法为:
gh表示行驶路线的光滑程度;CDi和CDi-k分别表示第i个和第i-k个切线夹角,第i个切线夹角为行驶路线上第i个点和其相邻点切线的夹角,第i-k个切线夹角为行驶路线上第i-k个点和其相邻点切线的夹角;I为切线夹角的个数,K为预设值,实施例中K值为3;g为关联系数,实施例中g的值为e;f的取值为[1,K];表示第i个和第i-k个切线夹角差值的权重。
具体地,行驶路线的行驶平滑性评估结果pn=wg+gh。
(b)对每条行驶路线进行容错性的评估具体为:
根据总纵向距离L、第一纵向距离L1和第二纵向距离L2获取最长剩余可调整距离,即最长剩余可调整距离为L-L1-L2;
基于总纵向距离L、车辆从起始位置行驶到车身回正起始点时的纵向距离L1′和车辆从车身回正起始点行驶到车身刚回正且车轮正对动态测重仪时的纵向距离L2′,获取实际剩余可调整距离,实际剩余可调整距离为L-L1′-L2′;
(c)对车身回正起始点进行位置合理性的评估具体为:
基于车身回正起始点对所述可选范围进行分割,获取距离分割比例,具体地,计算第一位置与车身回正起始点间的距离,与车身回正起始点与车身回正起始点的极限位置间距离的比值为距离分割比例,即基于第一纵向距离和第二纵向距离,获取参考距离分割比例,即
(d)基于评估结果确定驾驶引导路线:平滑性要求行驶路线更加平缓,而容错性要求路线更加趋近于极限操作,两者一定程度上相互约束,互相对抗,所以可由两个互相对抗的因素判断得到最优的行驶路线。具体地,行驶路线的整体评估结果Z的获取方法为:α1和α2为权值系数,实施例中α1和α2的值分别为0.55和0.45。基于每条行驶路线的整体评估结果Z,可确定驾驶引导路线。
进一步地,根据确定的驾驶引导路线获取引导指令,具体地:
由于司机难以接受明确的转角角度,因此,需要对应的模糊量来进行引导。上述得到的驾驶引导路线为车轮的移动轨迹,根据驾驶引导路线可知每个时刻车轮的偏转角度,将车轮的偏转角度转化为对应的方向盘转动量,再转化为对应的模糊引导指令。
首先获得车轮的偏转角与方向盘转角的比例关系m,根据当前的车轮偏转角β及驾驶引导路线上每个点的切线与以车辆图像采集装置为原点建立的坐标系的坐标轴的夹角来计算得到相应时刻对应的方向盘转角:
fθ=(cθa-cθb)*m
式中fθ表示方向盘转角,cθa为驾驶引导路线上点的切线与坐标轴的夹角,也即驾驶引导路线对应的倾斜角度,cθb为车轮与坐标轴的夹角;经验值m=15,即方向盘转动15°对应车轮转动1°。
当方向盘转角fθ大于设定阈值mk时,需要对司机进行语音指挥。
首先,对方向盘转角fθ进行拆分,得到整圈的数量,该量为明确量:
而后,对剩余角度进行模糊程度判断:
mu=fθ-zq*360°
式中,mu为小于一圈的方向盘转动角度,可根据mu值的大小来选择对应的模糊词汇,所述模糊词汇包括稍转一点、转小半圈、转半圈、转多半圈等词汇。具体的模糊词汇的确定以及mu值对应的模糊词汇可根据实际操作进行调整及设置。
至此,可以得到引导指令,例如:向左打一圈后再稍转一点。
步骤S6,判断车辆的停止时机。
车身刚回正且车轮正对动态测重仪后,需要向前继续行驶到测重仪上,此时需要侧面的相机来判断车辆车轮的位置是否在动态测重仪上,进而判断是否停车。
具体的,获取车轮侧面图像,提取测重仪连通域和车轮连通域,当测重仪连通域中心点的横坐标和车轮连通域中心点的横坐标相等时,车轮到达动态测重仪正上方,发出停车指令。
需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣。且上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于人工智能的车辆动态称重驾驶引导方法,其特征在于,该方法包括:
获取动态测重仪的位置,确定车辆图像采集装置的位置,获取车辆相对于图像采集装置的起始位姿;
基于车辆的起始位姿预测第一纵向距离和第二纵向距离,所述纵向距离为车辆在垂直于动态测重仪连线方向上行驶的距离,第一纵向距离为车辆在方向盘一侧极限角度下行驶到过动态测重仪连线中点的垂线上时的纵向距离,此时车辆在所述垂线上的位置为第一位置,第二纵向距离为车辆在方向盘另一侧极限角度下从第一位置行驶到第二位置时的纵向距离,第二位置为车身刚回正且车轮正对动态测重仪时车辆所处位置;
获取车辆起始位置与动态测重仪间的总纵向距离,基于总纵向距离、第一纵向距离和第二纵向距离,获取车身回正起始点的可选范围;
可选范围内不同位置的点分别作为车身回正起始点,基于车辆起始位置、车身回正起始点和动态测重仪的位置拟合多条行驶路线;
对每条行驶路线进行行驶平滑性、容错性以及车身回正起始点位置合理性的评估,基于评估结果确定驾驶引导路线,进而获取引导指令。
2.如权利要求1所述的方法,其特征在于,所述车辆相对于图像采集装置的起始位姿的获取具体为:
以车辆图像采集装置为原点建立坐标系,车辆中心点与原点的距离d、车辆中心点和原点连线与坐标轴的夹角θ表示车辆的起始位置;车身与坐标轴的夹角γ和车轮与坐标轴的夹角β表示车辆的起始姿态。
3.如权利要求2所述的方法,其特征在于,利用神经网络对车辆的起始位姿进行处理,预测第一纵向距离和第二纵向距离,具体地:
将车辆相对于图像采集装置的起始位姿,和起始位置车辆中心点与过动态测重仪连线中点垂线间的距离,输入第一全连接网络中,输出车辆位于第一位置时的位姿和第一纵向距离;
将车辆位于第一位置时的位姿输入第二全连接网络中,输出第二纵向距离。
4.如权利要求3所述的方法,其特征在于,对每条行驶路线进行行驶平滑性的评估具体包括车辆起始位置光滑程度的评估和行驶路线光滑程度的评估;其中,根据车辆在起始位置时车身与行驶路线起始点切线之间的夹角进行车辆起始位置光滑程度的评估。
6.如权利要求5所述的方法,其特征在于,对每条行驶路线进行容错性的评估具体为:
根据总纵向距离、第一纵向距离和第二纵向距离获取最长剩余可调整距离;
基于总纵向距离、车辆从起始位置行驶到车身回正起始点时的纵向距离和车辆从车身回正起始点行驶到车身刚回正且车轮正对动态测重仪时的纵向距离,获取实际剩余可调整距离;
根据实际剩余可调整距离与最长剩余可调整距离的比值进行行驶路线容错性的评估。
7.如权利要求6所述的方法,其特征在于,对车身回正起始点进行位置合理性的评估具体为:
基于车身回正起始点对所述可选范围进行分割,获取距离分割比例;基于第一纵向距离和第二纵向距离,获取参考距离分割比例;
根据距离分割比例与参考距离分割比例的差值进行车身回正起始点进行位置合理性的评估。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111286789.8A CN114022676B (zh) | 2021-11-02 | 2021-11-02 | 基于人工智能的车辆动态称重驾驶引导方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111286789.8A CN114022676B (zh) | 2021-11-02 | 2021-11-02 | 基于人工智能的车辆动态称重驾驶引导方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114022676A true CN114022676A (zh) | 2022-02-08 |
CN114022676B CN114022676B (zh) | 2023-05-12 |
Family
ID=80059656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111286789.8A Active CN114022676B (zh) | 2021-11-02 | 2021-11-02 | 基于人工智能的车辆动态称重驾驶引导方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114022676B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060025893A1 (en) * | 2002-07-16 | 2006-02-02 | Eckart Fischer | Method for assisting a driver when performing driving maneuvers |
US20180188031A1 (en) * | 2016-08-31 | 2018-07-05 | Faraday&Future Inc. | System and method for calibrating vehicle dynamics expectations for autonomous vehicle navigation and localization |
WO2020015990A1 (de) * | 2018-07-19 | 2020-01-23 | Robert Bosch Gmbh | Verfahren zum führen eines fahrzeugs von einer startposition zu einer zielposition |
CN111766866A (zh) * | 2019-03-13 | 2020-10-13 | 丰田自动车株式会社 | 信息处理装置和包括信息处理装置的自动行驶控制系统 |
CN112084232A (zh) * | 2020-08-11 | 2020-12-15 | 浙江大学 | 基于目标他车视野信息的车辆行驶风险评估方法及装置 |
US20210191421A1 (en) * | 2019-12-24 | 2021-06-24 | Ubtech Robotics Corp Ltd | Autonomous mobile apparatus and control method thereof |
CN113408550A (zh) * | 2021-08-17 | 2021-09-17 | 中国建筑第五工程局有限公司 | 基于图像处理的智能称重管理系统 |
CN113554698A (zh) * | 2020-04-23 | 2021-10-26 | 杭州海康威视数字技术股份有限公司 | 车辆位姿信息生成方法、装置及电子设备、存储介质 |
-
2021
- 2021-11-02 CN CN202111286789.8A patent/CN114022676B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060025893A1 (en) * | 2002-07-16 | 2006-02-02 | Eckart Fischer | Method for assisting a driver when performing driving maneuvers |
US20180188031A1 (en) * | 2016-08-31 | 2018-07-05 | Faraday&Future Inc. | System and method for calibrating vehicle dynamics expectations for autonomous vehicle navigation and localization |
WO2020015990A1 (de) * | 2018-07-19 | 2020-01-23 | Robert Bosch Gmbh | Verfahren zum führen eines fahrzeugs von einer startposition zu einer zielposition |
CN111766866A (zh) * | 2019-03-13 | 2020-10-13 | 丰田自动车株式会社 | 信息处理装置和包括信息处理装置的自动行驶控制系统 |
US20210191421A1 (en) * | 2019-12-24 | 2021-06-24 | Ubtech Robotics Corp Ltd | Autonomous mobile apparatus and control method thereof |
CN113554698A (zh) * | 2020-04-23 | 2021-10-26 | 杭州海康威视数字技术股份有限公司 | 车辆位姿信息生成方法、装置及电子设备、存储介质 |
CN112084232A (zh) * | 2020-08-11 | 2020-12-15 | 浙江大学 | 基于目标他车视野信息的车辆行驶风险评估方法及装置 |
CN113408550A (zh) * | 2021-08-17 | 2021-09-17 | 中国建筑第五工程局有限公司 | 基于图像处理的智能称重管理系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114022676B (zh) | 2023-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4409035B2 (ja) | 画像処理装置、特異箇所検出方法、及び特異箇所検出プログラムを記録した記録媒体 | |
CN111169468B (zh) | 一种自动泊车的系统及方法 | |
CN102227758A (zh) | 摄像装置 | |
Perrollaz et al. | A visibility-based approach for occupancy grid computation in disparity space | |
JP2022003508A (ja) | 軌道計画モデルの訓練方法と装置、電子機器、コンピュータ記憶媒体及びコンピュータプログラム | |
CN113715842B (zh) | 一种基于模仿学习和强化学习的高速运动车辆控制方法 | |
CN108919810A (zh) | 基于视觉示教的移动机器人定位与导航系统 | |
CN112731925A (zh) | 用于无人驾驶方程式赛车锥桶识别和路径规划及控制方法 | |
EP4088884A1 (en) | Method of acquiring sensor data on a construction site, construction robot system, computer program product, and training method | |
CN109466552A (zh) | 智能驾驶车道保持方法及系统 | |
Ostankovich et al. | Application of cyclegan-based augmentation for autonomous driving at night | |
EP4145392A1 (en) | Method and apparatus for determining three-dimensional information of target object | |
CN114387576A (zh) | 一种车道线识别方法、系统、介质、设备及信息处理终端 | |
Amado et al. | End-to-end deep learning applied in autonomous navigation using multi-cameras system with RGB and depth images | |
CN114022676A (zh) | 基于人工智能的车辆动态称重驾驶引导方法 | |
CN112651991A (zh) | 视觉定位方法、装置及计算机系统 | |
Mori et al. | Automatic Generation of Multidestination Routes for Autonomous Wheelchairs | |
CN115187959B (zh) | 一种基于双目视觉的飞行汽车山地着陆方法及系统 | |
CN113625718B (zh) | 车辆的行驶路径规划方法 | |
CN113570595B (zh) | 车辆轨迹预测方法和车辆轨迹预测模型的优化方法 | |
Zheng et al. | Vision-based autonomous vehicle control using the two-point visual driver control model | |
US20220245831A1 (en) | Speed estimation systems and methods without camera calibration | |
Souza et al. | Template-based autonomous navigation and obstacle avoidance in urban environments | |
CN112733934A (zh) | 复杂环境下的多模态特征融合道路场景语义分割方法 | |
Rosero et al. | CNN-Planner: A neural path planner based on sensor fusion in the bird's eye view representation space for mapless autonomous driving |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |