发明内容
为了解决上述技术问题,本申请的实施例提供了一种矿用卡车模拟驾驶训练系统,通过设置驾驶场景生成模块生成训练过程中的场景条件,然后驾驶员根据生成的场景条件进行训练,驾驶信息采集模块采集训练过程中驾驶员的训练决策量和训练控制输入量,无人驾驶算法模块根据该场景条件和当前车辆状态信息生成最优决策量和最优控制输入量,动作纠正模块根据最优决策量和最优控制输入量对训练决策量和训练控制输入量进行纠正,从而可以对训练过程中的每一个操作动作进行实时的监控和纠正,以加深驾驶员在训练过程中的每一个操作动作的理解和感知,从而可以更好的训练驾驶员,提高训练效果。
本申请提供了一种矿用卡车模拟驾驶训练系统,包括:驾驶信息采集模块,所述驾驶采集模块用于采集训练过程中驾驶员的训练决策量和训练控制输入量;驾驶场景生成模块,所述驾驶场景生成模块用于生成训练过程中的场景条件;无人驾驶算法模块,所述无人驾驶算法模块与所述驾驶场景生成模块通讯连接,用于根据所述场景条件和当前车辆状态信息生成最优决策量和最优控制输入量;以及动作纠正模块,所述动作纠正模块与所述驾驶信息采集模块、所述无人驾驶算法模块通讯连接,用于根据所述最优决策量和所述最优控制输入量对所述训练决策量和所述训练控制输入量进行纠正。
在一实施例中,所述训练决策量与所述最优决策量的差值大于预设的决策量阈值或者所述训练控制输入量与所述最优控制输入量的差值大于预设的控制量阈值时,所述动作纠正模块对所述训练决策量和所述训练控制输入量进行纠正。
在一实施例中,所述模拟驾驶训练系统还包括力反馈模块,所述力反馈模块与所述无人驾驶算法模块通讯连接,所述力反馈模块根据所述最优决策量和所述最优控制输入量生成对应的触觉反馈力。
在一实施例中,所述力反馈模块所生成的触觉反馈力的大小根据当前决策量、当前控制输入量与所述最优决策量和所述最优控制输入量之间的差值确定。
在一实施例中,所述模拟驾驶训练系统还包括驾驶技能评估模块,所述驾驶技能评估模块与所述驾驶信息采集模块、所述无人驾驶算法模块通讯连接,用于根据所述最优决策量、所述最优控制输入量、所述训练决策量和所述训练控制输入量,对驾驶员的驾驶技能进行评估。
在一实施例中,所述驾驶技能评估模块对所述驾驶员的驾驶技能进行评估的方式包括:
其中,δ
fi为第i次操作的最优决策量,δ
di为第i次操作的训练决策量,θ
fi为第i次操作的最优控制输入量,θ
di为第i次操作的训练控制输入量,n为训练过程中的操作次数。
在一实施例中,所述模拟驾驶训练系统还包括定向训练推荐模块,所述定向训练推荐模块与所述驾驶技能评估模块通讯连接,用于将驾驶技能得分低于预设的分数阈值的场景条件推荐给驾驶员。
在一实施例中,所述场景条件包括以下条件中的任一种或多种的组合:天气条件、路面条件、路径条件、危险系数。
在一实施例中,所述模拟驾驶训练系统还包括结果显示模块,所述结果显示模块用于将所述驾驶员的训练结果展示出来,其中训练结果包括所述驾驶员的训练决策量和训练控制输入量、所述最优决策量和所述最优控制输入量、所述驾驶技能得分。
在一实施例中,所述训练决策量包括如下信息中的任一种或多种的组合:转向、直行、超车、加速、减速、匀速;所述训练控制输入量包括如下信息中的任一种或多种的组合:节气门开度、方向盘转角。
本申请的实施例提供了一种矿用卡车模拟驾驶训练系统,通过设置驾驶场景生成模块生成训练过程中的场景条件,然后驾驶员根据生成的场景条件进行训练,驾驶信息采集模块采集训练过程中驾驶员的训练决策量和训练控制输入量,无人驾驶算法模块根据该场景条件和当前车辆状态信息生成最优决策量和最优控制输入量,动作纠正模块根据最优决策量和最优控制输入量对训练决策量和训练控制输入量进行纠正,从而可以对训练过程中的每一个操作动作进行实时的监控和纠正,以加深驾驶员在训练过程中的每一个操作动作的理解和感知,从而可以更好的训练驾驶员,提高训练效果。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
申请概述
由于矿区的工作条件非常恶劣,驾驶员在其中工作经常会出现安全事故,随着自动驾驶的不断发展,对于高危行业的矿区驾驶工作已经慢慢的开始自动驾驶操作了,以实现无人矿区的工作条件,即在矿区内无人实地操作,而是通过远程控制来实现车辆的行驶,从而可以有效避免人员伤亡,提高了矿区的人员安全性。
然而,自动驾驶或者说远程控制车辆行驶也是基于驾驶人员的控制实现的,作为实际操作车辆的驾驶员,不仅需要掌握基本的驾驶技巧,更需要掌握远程控制的技巧,这对于惯于常规实地操作的驾驶员和新进的驾驶员而言,无疑是一个新的技术挑战,因此,也需要对其进行训练,以保证在实际工作中能够保证车辆完成日常工作,并且不会出现过多的事故造成资源和财产的损失。
为了解决上述问题,本申请提出了一种矿用卡车模拟驾驶训练系统,利用模拟的驾驶训练系统对驾驶员进行训练,可以不用卡车进入实际场地而达到训练驾驶员的目的,这样也能避免卡车实地训练的损耗和危险,同时也需要实际场地的支持,降低了训练的条件,可以同时满足多个驾驶员的训练,提高了训练效率,具体的训练系统是通过设置驾驶场景生成模块生成训练过程中的场景条件,然后驾驶员根据生成的场景条件进行训练,驾驶信息采集模块采集训练过程中驾驶员的训练决策量和训练控制输入量,无人驾驶算法模块根据该场景条件和当前车辆状态信息生成最优决策量和最优控制输入量,动作纠正模块根据最优决策量和最优控制输入量对训练决策量和训练控制输入量进行纠正,从而可以对训练过程中的每一个操作动作进行实时的监控和纠正,以加深驾驶员在训练过程中的每一个操作动作的理解和感知,从而可以更好的训练驾驶员,提高训练效果。
在介绍了本申请的基本原理之后,下面将参考附图来具体介绍本申请的各种非限制性实施例。
示例性系统
图1是本申请一示例性实施例提供的一种矿用卡车模拟驾驶训练系统的结构示意图。如图1所示,该模拟驾驶训练系统100包括:驾驶信息采集模块110、驾驶场景生成模块120、无人驾驶算法模块130以及动作纠正模块140。其中,驾驶信息采集模块110用于采集训练过程中驾驶员的训练决策量和训练控制输入量,驾驶场景生成模块120用于生成训练过程中的场景条件,无人驾驶算法模块130与驾驶场景生成模块120通讯连接,用于根据场景条件和当前车辆状态信息生成最优决策量和最优控制输入量,动作纠正模块140与驾驶信息采集模块110、无人驾驶算法模块130通讯连接,用于根据最优决策量和最优控制输入量对训练决策量和训练控制输入量进行纠正。驾驶员在训练之前可以根据自身需求选取适合的训练场景,在驾驶员选定了训练场景后,驾驶场景生成模块120根据驾驶员选定的训练场景生成对应的场景条件(包括训练场景中的各个参数和虚拟的训练环境);然后,驾驶员可以根据生成的场景条件进行对应驾驶操作以输入训练决策量和训练控制输入量进行训练,同时,无人驾驶算法模块130根据场景条件和当前车辆状态信息生成最优决策量和最优控制输入量;并且,在训练过程中的每一个操作动作时间点,动作纠正模块140会根据最优决策量和最优控制输入量对训练决策量和训练控制输入量进行纠正。也就是说,驾驶员在训练过程中,动作纠正模块140会实时的对其操作动作进行纠正,以保证驾驶员能够实时的获知训练过程中的每一个操作动作是否正确或准确,也能够在每一个操作动作的时间点保证驾驶员能够更好的掌握,将整个训练过程具体拆分为多个操作动作时间点,可以加深驾驶员对每一个操作动作的理解和掌握成都,避免整个训练过程的掌握难度过大而导致驾驶员短时间内难以完成,同时可以避免对驾驶员的心里造成过大的负担而降低训练效果。
本申请的实施例提供了一种矿用卡车模拟驾驶训练系统,通过设置驾驶场景生成模块生成训练过程中的场景条件,然后驾驶员根据生成的场景条件进行训练,驾驶信息采集模块采集训练过程中驾驶员的训练决策量和训练控制输入量,无人驾驶算法模块根据该场景条件和当前车辆状态信息生成最优决策量和最优控制输入量,动作纠正模块根据最优决策量和最优控制输入量对训练决策量和训练控制输入量进行纠正,从而可以对训练过程中的每一个操作动作进行实时的监控和纠正,以加深驾驶员在训练过程中的每一个操作动作的理解和感知,从而可以更好的训练驾驶员,提高训练效果。
在一实施例中,场景条件可以包括以下条件中的任一种或多种的组合:天气条件、路面条件、路径条件、危险系数。具体的,天气条件可以是晴天、阴天、雨天、雪天等,路面条件可以是干路面、雨雪路面等附着条件,路径条件可以是道路曲率、道路坡度,危险系数可以是驾驶过程中会出现危险的概率。驾驶员在训练前可以通过手动选择上述条件中的多个进行组合以得到训练场景的条件,从而更有针对性的对特定的场景进行训练,以满足特定的需求。在一实施例中,选定的场景条件可以以虚拟影像的方式呈现在驾驶员面前,例如驾驶员可以佩戴VR眼镜与模拟驾驶训练系统100通讯连接,从而可以将场景条件对应的虚拟场景画面展现在驾驶员所佩戴的VR眼镜中,从而提高驾驶员训练的真实体验感。
在一实施例中,训练决策量可以包括如下信息中的任一种或多种的组合:转向、直行、超车、加速、减速、匀速;训练控制输入量可以包括如下信息中的任一种或多种的组合:节气门开度、方向盘转角。在训练过程中,驾驶员需要根据训练场景的设定,在对应的时间点进行对应的操作,即在对应的时间点输入训练决策量和训练控制输入量,其中,训练决策量可以包括转向、直行、超车、加速、减速、匀速等动作指令,而训练控制输入量可以包括节气门开度、方向盘转角等具体的控制量值。应当理解,最优决策量和最优控制输入量也包括与训练决策量和训练控制输入量对应的参数,从而可以与训练决策量和训练控制输入量进行比对。
在一实施例中,驾驶信息采集模块110所采集的信息还可以包括车辆的状态信息,例如轮胎与地面的摩擦系数、路面粗糙度等。驾驶信息采集模块110所采集的所有信息可以是通过模拟驾驶训练系统100直接获取,即预先设定或根据驾驶员的输入量获知,也可以是通过实际测量获知,例如,可以将训练车辆设置于轮毂设备上,训练车辆的车轮带动轮毂设备的轮毂转动,根据轮毂的反馈参数可以实时计算得到训练车轮的信息,从而更加贴合实际场景,提高训练效果。
在一实施例中,训练决策量与最优决策量的差值大于预设的决策量阈值或者训练控制输入量与最优控制输入量的差值大于预设的控制量阈值时,动作纠正模块140对训练决策量和训练控制输入量进行纠正。可以预先设定一个决策量阈值和控制量阈值,在训练过程中,当训练决策量与最优决策量的差值大于预设的决策量阈值或者训练控制输入量与最优控制输入量的差值大于预设的控制量阈值时,动作纠正模块140对训练决策量和训练控制输入量进行纠正。即驾驶员的训练决策量或训练控制输入量与无人驾驶算法模块130生成的最优决策量和最优控制输入量差距较大时,动作纠正模块140对训练决策量和训练控制输入量进行纠正。由于微小的决策量和控制输入量的差距可能不会对驾驶造成过大的影响,并且每个驾驶员也不可能做到完全一致的驾驶操作,因此,通过设置决策量阈值和控制量阈值,可以避免动作纠正模块140不断的进行纠正而导致驾驶员无所适从,同时也能适应于实际应用环境。应当理解,本申请实施例中预设的决策量阈值和控制量阈值可以在训练之前进行调整,例如针对驾驶员的驾驶水平可以适当调整,新的驾驶员对应的决策量阈值和控制量阈值可以相对有经验的驾驶员对应的决策量阈值和控制量阈值更大,即对新的驾驶员的要求比有经验的驾驶员稍低,从而可以使得驾驶员能够循序渐进的掌握驾驶技巧,而避免操之过急而带来的不良后果。
图2是本申请另一示例性实施例提供的一种矿用卡车模拟驾驶训练系统的结构示意图。如图2所示,模拟驾驶训练系统100还可以包括力反馈模块150,力反馈模块150与无人驾驶算法模块130通讯连接,力反馈模块150根据最优决策量和最优控制输入量生成对应的触觉反馈力。通过设置力反馈模块150,当驾驶员在一个时间点输入训练决策量和训练控制输入量时,力反馈模块150会根据最优决策量和最优控制输入量产生相应的触觉反馈力,即力反馈模块150会根据训练决策量、训练控制输入量与最优决策量、最优控制输入量的差距生成相应的触觉反馈力。具体的,力反馈模块150所生成的触觉反馈力的大小可以根据当前决策量、当前控制输入量与最优决策量和最优控制输入量之间的差值确定。例如,当训练决策量、训练控制输入量与最优决策量、最优控制输入量的差距较大时(此时的差距可以小于上述决策量阈值和控制量阈值,也可以大于或等于上述决策量阈值和控制量阈值),力反馈模块150给出的触觉反馈力较大,当训练决策量、训练控制输入量与最优决策量、最优控制输入量的差距较小时(此时的差距可以小于上述决策量阈值和控制量阈值,也可以大于或等于上述决策量阈值和控制量阈值),力反馈模块150给出的触觉反馈力较小。具体的,以方向盘转角为例进行说明,当驾驶员输入的方向盘转角与无人驾驶算法模块130生成的最优的方向盘转角之差为正值时,即驾驶员输入的方向盘转角过大,此时,力反馈模块150会产生一个反方向的反馈阻力触感来提示驾驶员,并且,当驾驶员输入的方向盘转角与最优的方向盘转角之差较大(大于预设的阈值)时,动作纠正模块140会产生一个反向的力来纠正;而当驾驶员输入的方向盘转角与无人驾驶算法模块130生成的最优的方向盘转角之差为负值时,即驾驶员输入的方向盘转角过小,此时,力反馈模块150会产生一个同方向的反馈力触感来提示驾驶员,并且,当驾驶员输入的方向盘转角与最优的方向盘转角之差较大(大于预设的阈值)时,动作纠正模块140会产生一个正向的力来纠正。这样,驾驶员就可以根据触觉反馈力的大小而获知当前的训练决策量、训练控制输入量是否合适,或者是否需要进一步调整,从而更好的将训练过程中的每一个中间状态反馈给驾驶员,以提高其训练效果。
在一实施例中,如图2所示,模拟驾驶训练系统100还可以包括驾驶技能评估模块160,驾驶技能评估模块160与驾驶信息采集模块110、无人驾驶算法模块130通讯连接,用于根据最优决策量、最优控制输入量、训练决策量和训练控制输入量,对驾驶员的驾驶技能进行评估。当驾驶员训练完成后,驾驶技能评估模块160可以根据最优决策量、最优控制输入量、训练决策量和训练控制输入量,对驾驶员的驾驶技能进行评估,即对驾驶员的驾驶技能进行打分。具体的,驾驶技能评估模块160对驾驶员的驾驶技能进行评估的方式可以包括:
其中,δ
fi为第i次操作的最优决策量,δ
di为第i次操作的训练决策量,θ
fi为第i次操作的最优控制输入量,θ
di为第i次操作的训练控制输入量,n为训练过程中的操作次数。同时上述公式可以对驾驶员的驾驶技能进行评估,还可以设定一个或多个分数等级,例如当驾驶员的驾驶技能得分达到第一分数等级(例如得分大于0.6)时,确定该驾驶员合格,可以进行难度较低或危险系数较低的矿场工作,当驾驶员的驾驶技能得分达到第二分数等级(例如得分大于0.9)时,确定该驾驶员优秀,可以进行难度较高或危险系数较高的矿场工作。应当理解,本申请实施例可以根据实际应用场景的需求而设定具体的分数等级,本申请实施例对此不做限定。
在一实施例中,如图2所示,模拟驾驶训练系统100还可以包括定向训练推荐模块170,定向训练推荐模块170与驾驶技能评估模块160通讯连接,用于将驾驶技能得分低于预设的分数阈值的场景条件推荐给驾驶员。对于同一个驾驶员,在其再次训练时,定向训练推荐模块170可以将该驾驶员以往训练中驾驶技能得分低于预设的分数阈值的场景条件推荐给驾驶员,即将该驾驶员以往训练中不是很理想的训练场景推荐给驾驶员,以供其有限选择来针对自身较差的训练场景进行训练,以提高驾驶技能,当然,驾驶员也可以不选择推荐的训练场景。
在一实施例中,如图2所示,模拟驾驶训练系统100还可以包括结果显示模块180,结果显示模块180用于将驾驶员的训练结果展示出来,其中训练结果包括驾驶员的训练决策量和训练控制输入量、最优决策量和最优控制输入量、驾驶技能得分。在驾驶员训练结束后,结果显示模块180可以将驾驶员的训练结果展示给驾驶员,以便驾驶员能够清楚的获知本次训练中的不足,具体的训练结果可以包括驾驶员的训练决策量和训练控制输入量、最优决策量和最优控制输入量、驾驶技能得分,其中,训练决策量和训练控制输入量、最优决策量和最优控制输入量可以根据时间点顺序以图表的方式展示,以增强其对比性和可视化效果,从而能够使得驾驶员更好的获知本次训练中不足的时间点和对应的操作动作,从而形成了一个更明确的经验总结。
以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,在本申请中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本申请的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本申请为必须采用上述具体的细节来实现。
本申请中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本申请的系统中,各部件是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。