CN113460059B - 一种基于智能方向盘的驾驶人驾驶积极性辨识装置及方法 - Google Patents
一种基于智能方向盘的驾驶人驾驶积极性辨识装置及方法 Download PDFInfo
- Publication number
- CN113460059B CN113460059B CN202110935742.3A CN202110935742A CN113460059B CN 113460059 B CN113460059 B CN 113460059B CN 202110935742 A CN202110935742 A CN 202110935742A CN 113460059 B CN113460059 B CN 113460059B
- Authority
- CN
- China
- Prior art keywords
- driver
- driving
- enthusiasm
- steering wheel
- pressure sensors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000012545 processing Methods 0.000 claims abstract description 36
- 230000003750 conditioning effect Effects 0.000 claims abstract description 24
- 238000009826 distribution Methods 0.000 claims abstract description 16
- 238000010586 diagram Methods 0.000 claims abstract description 15
- 238000012549 training Methods 0.000 claims abstract description 14
- 238000004364 calculation method Methods 0.000 claims description 25
- 210000003811 finger Anatomy 0.000 claims description 19
- 210000001364 upper extremity Anatomy 0.000 claims description 9
- 238000002474 experimental method Methods 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 241000282376 Panthera tigris Species 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 210000004247 hand Anatomy 0.000 claims description 4
- 210000004936 left thumb Anatomy 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 210000003205 muscle Anatomy 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 210000004935 right thumb Anatomy 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 2
- 230000015654 memory Effects 0.000 claims description 2
- 210000003813 thumb Anatomy 0.000 description 3
- 210000001015 abdomen Anatomy 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007787 long-term memory Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Steering Controls (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于智能方向盘的驾驶人驾驶积极性辨识装置及方法,辨识装置包括有方向盘、信号调理模块和处理单元,其中方向盘和处理单元均与信号调理模块相连接,方向盘上的驾驶人左手和右手抓握部位对应设置有数个压力传感器,方向盘上的驾驶人左手和右手抓握部位设置的数个压力传感器均与信号调理模块相连接,辨识方法为:步骤一、搭建驾驶人驾驶积极性辨识装置;步骤二、采集不同驾驶积极性下的握力数据;步骤三、计算握力分布图;步骤四、构建辨识模型;步骤五、训练辨识模型。有益效果:能够更加细致地反应出驾驶人对方向盘的操纵与控制,实时准确地识别驾驶积极性,而无需驾驶人穿戴各类肌电或脑电设备,提高了实用性。
Description
技术领域
本发明涉及一种驾驶积极性辨识装置及方法,特别涉及一种基于智能方向盘的驾驶人驾驶积极性辨识装置及方法。
背景技术
目前,随着现代制造业与新一代信息技术的深度融合,自动驾驶已成为汽车工业发展的潮流和前沿。然而,完全自动驾驶依然受限于技术发展的客观规律和潜在的道德法律问题,而无法在可预见的未来内得以实现。针对现阶段所遭遇的汽车自动化级别难以快速提升至完全自动驾驶水平,人机共驾的概念得到了广泛的关注和研究。人机共驾是指人类驾驶人和自动化系统合作完成驾驶任务的技术架构。通过驾驶人与自动化系统的协同合作实现行驶安全性的增强并在一定程度上降低驾驶人劳动强度。
在实现人机共驾的过程中,驾驶人的驾驶积极性是决定驾驶权分配的关键因素。若将驾驶权大量地分配给处于低驾驶积极性的驾驶人则会使车辆处于不受控的风险中。反之,若减少对高驾驶积极性驾驶人的驾驶权分配会导致人机冲突的发生,严重影响车辆安全性。因此,实现高精度、高实时性的驾驶人驾驶积极性辨识对于融合人类智能与机器智能,提高车辆安全性具有重要意义。
目前,现有研究多采用摄像头配合人工智能技术进行驾驶人疲劳状态识别,一些研究基于方向盘握力判断驾驶人是否脱手,鲜有通过智能方向盘实现的驾驶人驾驶积极性辨识。
发明内容
本发明的目的是在人机共驾过程中,通过驾驶人对方向盘的握力分布有效识别驾驶人的驾驶积极性而提供的一种基于智能方向盘的驾驶人驾驶积极性辨识装置及方法。
本发明提供的基于智能方向盘的驾驶人驾驶积极性辨识装置包括有方向盘、信号调理模块和处理单元,其中方向盘和处理单元均与信号调理模块相连接,方向盘上的驾驶人左手和右手抓握部位对应设置有数个压力传感器,方向盘上的驾驶人左手和右手抓握部位设置的数个压力传感器均与信号调理模块相连接,信号调理模块将数个压力传感器的电阻信号转换为0-5v的电压信号,处理单元内集成有十六通道A/D转换器,处理单元读取经转换后的数个压力传感器的电压值,处理单元根据数个压力传感器的特性曲线换算为测量点的握力值,处理单元中编写有辨识模型,用于驾驶人驾驶积极性辨识。
方向盘上设置的压力传感器均为柔性薄膜压力传感器,方向盘上的驾驶人左手和右手抓握部位分别对应设置有八个压力传感器,驾驶人左手和右手分别对应设置的八个压力传感器的设置部位分别为:左右手食指第二指节掌面侧区域、左右手中指第二指节掌面侧区域、左右手无名指第二指节掌面侧区域、左右手虎口掌面侧区域、左右手掌面小鱼际区域、左右手掌面大鱼际区域和左右手拇指指腹区域。
本发明提供的基于智能方向盘的驾驶人驾驶积极性辨识方法,其方法包括如下步骤:
步骤一、搭建驾驶人驾驶积极性辨识装置:驾驶人驾驶积极性辨识装置包括有方向盘、信号调理模块和处理单元,其中方向盘和处理单元均与信号调理模块相连接,方向盘上的驾驶人左手和右手抓握部位分别对应设置有八个压力传感器,驾驶人左手和右手分别对应设置的八个压力传感器的设置部位分别为:左右手食指第二指节掌面侧区域、左右手中指第二指节掌面侧区域、左右手无名指第二指节掌面侧区域、左右手虎口掌面侧区域、左右手掌面小鱼际区域、左右手掌面大鱼际区域和左右手拇指指腹区域,方向盘上的驾驶人左手和右手抓握部位设置的数个压力传感器均与信号调理模块相连接,信号调理模块将数个压力传感器的电阻信号转换为0-5v的电压信号,处理单元内集成有十六通道A/D转换器,处理单元读取经转换后的数个压力传感器的电压值,处理单元根据数个压力传感器的特性曲线换算为测量点的握力值,处理单元中编写有辨识模型,用于驾驶人驾驶积极性辨识;
步骤二、采集不同驾驶积极性下的握力数据:招募数名具有有效驾照的志愿者,要求志愿者以标准握姿抓握方向盘,随后通过线控转向系统或电动助力转向系统产生正弦力矩模拟汽车主动转向操作激励驾驶人,参照实际行驶工况下的转向力矩和转动速度,设定正弦力矩的幅值和周期分别为3Nm和0.5Hz,每位志愿者进行六次以上实验,每次实验中,要求志愿者不断切换三种驾驶积极性,即低、中和高,低驾驶积极性指驾驶人上肢处于放松状态,除施加保证方向盘运动过程中志愿者双手不从方向盘上滑下和脱离的握力之外,不施加额外的转向力矩,中驾驶积极性指驾驶人上肢保持紧张状态,用于执行精确的转向操作和快速反应,高驾驶积极性指驾驶人通过收缩上肢肌肉反抗汽车的主动转向操作,志愿者听从实验员的随机指令执行不同的驾驶积极性;
步骤三、计算握力分布图:对双手握力测量区域进行展开平铺处理,定义为32*32像素的灰度图像,根据方向盘上左右手抓握部位压力传感器之间的位置关系,设定左右手抓握部位压力传感器在图像上的像素位置,以图像左上角为起点,左手抓握部位压力传感器的像素坐标分别为6和7、4和13、3和18、9和10、7和24、9和28、14和6及12和21;右手抓握部位压力传感器的像素坐标分别为27和7、29和13、30和18、24和10、21和24、24和28、19和6及21和21;然后将该图像的四边及中间纵线的像素点的灰度值设为零,左右手抓握部位的压力传感器对应的十六个像素点根据步骤二中测量到的握力大小换算为灰度值,其他像素点的灰度值通过二维插值计算得出;
步骤四、构建辨识模型:辨识模型由卷积神经网络和长短期记忆神经网络串联而成,辨识模型由输入层、第一卷积层、第一池化层、第二卷积层、第二池化层、展平层、LSTM层、全连接层、softmax层和输出层依次连接组成,辨识模型的输入为每一个计算周期生成的握力分布图It,It通过输入层进行输入,辨识模型的输出为每一个计算周期的驾驶人驾驶积极性类别Ot,即低、中和高,Ot通过输出层进行输出,为了实现基于时间序列的分类任务,LSTM层负责传递历史信息,在计算周期t-1,辨识模型的输入为It-1,同时LSTM层接收计算周期t-2的历史信息Ht-2,并生成当前计算周期的历史信息Ht-1,进而辨识模型输出分类结果Ot,随着计算周期向前推进,此过程循环进行;
步骤五、训练辨识模型:辨识模型的训练过程为:将步骤二中每次实验的数据结果作为一个数据段,通过步骤三所述的方法将数据段中每一个计算周期的压力传感器数据转换为握力分布图作为辨识模型输入,同时将该计算周期的驾驶人驾驶积极性类别作为数据标签,将步骤二中采集到的数个数据段分为训练数据段和测试数据段,随机挑选总体的80%作为训练数据,其余作为测试数据,选取Adam优化器作为优化算法,采用早停法防止发生过拟合问题。
本发明的有益效果:
本发明提供的基于智能方向盘的驾驶人驾驶积极性辨识装置及方法,与现有技术相比,具有以下优势和特点:
1.本发明中的智能方向盘装置能够测量驾驶人标准方向盘握姿下的双手多点握力值,并能够通过被本发明中的计算方法形成握力分布图,能够更加细致地反应出驾驶人对方向盘的操纵与控制。
2.设计了基于卷积神经网络和长短期记忆神经网络的驾驶人驾驶积极性辨识模型并利用实验数据进行了辨识模型训练,结合智能方向盘,形成了驾驶人驾驶积极性辨识方法。将驾驶人驾驶积极性分为低、中、高三种,通过本发明的方法可以实时准确地识别驾驶积极性,而无需驾驶人穿戴各类肌电或脑电设备,提高了实用性。
附图说明
图1为本发明所述的驾驶人驾驶积极性辨识方法流程示意图。
图2为本发明所述的驾驶人驾驶积极性辨识装置结构示意图。
图3为本发明所述的压力传感器测量手部握力位置示意图。
图4为本发明所述的压力传感器在方向盘上的位置的正视图。
图5为本发明所述的压力传感器在方向盘上的位置的后视图。
图6为本发明所述的压力传感器在方向盘上的位置的左视图。
图7为本发明所述的压力传感器在方向盘上的位置的右视图。
图8为本发明所述的驾驶人驾驶积极性辨识方法采集数据示例示意图。
图9为本发明所述的握力分布图中的测量点像素位置示意图。
图10为本发明所述的握力分布图示例示意图。
图11为本发明所述的辨识模型结构示意图。
图12为本发明所述的驾驶人驾驶积极性辨识结果示例示意图。
上图中的标注如下:
1、方向盘 2、信号调理模块 3、处理单元 4、左手 5、右手
6、第一压力传感器 7、第二压力传感器 8、第三压力传感器
9、第四压力传感器 10、第五压力传感器 11、第六压力传感器
12、第七压力传感器 13、第八压力传感器 14、第九压力传感器
15、第十压力传感器 16、第十一压力传感器 17、第十二压力传感器
18、第十三压力传感器 19、第十四压力传感器 20、第十五压力传感器
21、第十六压力传感器。
具体实施方式
请参阅图1至图12所示:
本发明提供的基于智能方向盘的驾驶人驾驶积极性辨识装置包括有方向盘1、信号调理模块2和处理单元3,其中方向盘1和处理单元3均与信号调理模块2相连接,方向盘1上的驾驶人左手4和右手5抓握部位对应设置有第一压力传感器6至第十六压力传感器21,方向盘1上的驾驶人左手4和右手5抓握部位设置的第一压力传感器6至第十六压力传感器21均与信号调理模块2相连接,信号调理模块2将第一压力传感器6至第十六压力传感器21的电阻信号转换为0-5v的电压信号,处理单元3内集成有十六通道A/D转换器,处理单元3读取经转换后的第一压力传感器6至第十六压力传感器21的电压值,处理单元3根据第一压力传感器6至第十六压力传感器21的特性曲线换算为测量点的握力值,处理单元3中编写有辨识模型,用于驾驶人驾驶积极性辨识。
方向盘1上设置的第一压力传感器6至第十六压力传感器21均为柔性薄膜压力传感器,方向盘1上的驾驶人左手4抓握部位设置有第一压力传感器6至第八压力传感器13,右手5抓握部位设置有第九压力传感器14至第十六压力传感器21,驾驶人左手4和右手5分别对应设置部位分别为:第一压力传感器6对应左手食指第二指节掌面侧区域、第二压力传感器7对应左手中指第二指节掌面侧区域、第三压力传感器8对应左手无名指第二指节掌面侧区域、第四压力传感器9对应左手虎口掌面侧区域、第五压力传感器10对应左手掌面小鱼际区域、第六压力传感器11和第七传感器12对应左手手掌面大鱼际区域、第八传感器13对应左手拇指指腹区域、第九压力传感器14对应右手食指第二指节掌面侧区域、第十压力传感器15对应右手中指第二指节掌面侧区域、第十一压力传感器16对应右手无名指第二指节掌面侧区域、第十二压力传感器17对应右手虎口掌面侧区域、第十三压力传感器18对应右手掌面小鱼际区域、第十四压力传感器19和第十五传感器20对应右手手掌面大鱼际区域、第十六传感器21对应右手拇指指腹区域。
本发明提供的基于智能方向盘的驾驶人驾驶积极性辨识方法,其方法包括如下步骤:
步骤一、搭建驾驶人驾驶积极性辨识装置:驾驶人驾驶积极性辨识装置包括有方向盘1、信号调理模块2和处理单元3,其中方向盘1和处理单元3均与信号调理模块2相连接,方向盘1上的驾驶人左手4和右手5抓握部位分别对应设置有第一压力传感器6至第十六压力传感器21,驾驶人左手4和右手5分别对应设置的第一压力传感器6至第十六压力传感器21的设置部位分别为:左右手食指第二指节掌面侧区域、左右手中指第二指节掌面侧区域、左右手无名指第二指节掌面侧区域、左右手虎口掌面侧区域、左右手掌面小鱼际区域、左右手掌面大鱼际区域和左右手拇指指腹区域,方向盘上的驾驶人左手4和右手5抓握部位设置的第一压力传感器6至第十六压力传感器21均与信号调理模块2相连接,信号调理模块2将第一压力传感器6至第十六压力传感器21的电阻信号转换为0-5v的电压信号,处理单元3内集成有十六通道A/D转换器,处理单元3读取经转换后的第一压力传感器6至第十六压力传感器21的电压值,处理单元3根据第一压力传感器6至第十六压力传感器21的特性曲线换算为测量点的握力值,处理单元3中编写有辨识模型,用于驾驶人驾驶积极性辨识;
步骤二、采集不同驾驶积极性下的握力数据:招募数名具有有效驾照的志愿者,要求志愿者以标准握姿抓握方向盘1,随后通过线控转向系统或电动助力转向系统产生正弦力矩模拟汽车主动转向操作激励驾驶人,参照实际行驶工况下的转向力矩和转动速度,设定正弦力矩的幅值和周期分别为3Nm和0.5Hz,每位志愿者进行六次以上实验,每次实验中,要求志愿者不断切换三种驾驶积极性,即低、中和高,低驾驶积极性指驾驶人上肢处于放松状态,除施加保证方向盘运动过程中志愿者双手不从方向盘1上滑下和脱离的握力之外,不施加额外的转向力矩,中驾驶积极性指驾驶人上肢保持紧张状态,用于执行精确的转向操作和快速反应,高驾驶积极性指驾驶人通过收缩上肢肌肉反抗汽车的主动转向操作,志愿者听从实验员的随机指令执行不同的驾驶积极性;
步骤三、计算握力分布图:对双手握力测量区域进行展开平铺处理,定义为32*32像素的灰度图像,根据方向盘1上左右手抓握部位第一压力传感器6至第十六压力传感器21之间的位置关系,设定左右手抓握部位第一压力传感器6至第十六压力传感器21在图像上的像素位置,以图像左上角为起点,左手4抓握部位第一压力传感器6至第八压力传感器13的像素横纵坐标分别为6和7、4和13、3和18、9和10、7和24、9和28、14和6及12和21;右手5抓握部位第九压力传感器14至第十六压力传感器21的像素横纵坐标分别为27和7、29和13、30和18、24和10、21和24、24和28、19和6及21和21;然后将该图像的四边及中间纵线的像素点的灰度值设为零,左右手抓握部位的压力传感器对应的十六个像素点根据步骤二中测量到的握力大小换算为灰度值,其他像素点的灰度值通过二维插值计算得出;
步骤四、构建辨识模型:辨识模型由卷积神经网络和长短期记忆神经网络串联而成,辨识模型由输入层、第一卷积层、第一池化层、第二卷积层、第二池化层、展平层、LSTM层、全连接层、softmax层和输出层依次连接组成,辨识模型的输入为每一个计算周期生成的握力分布图It,It通过输入层进行输入,辨识模型的输出为每一个计算周期的驾驶人驾驶积极性类别Ot,即低、中和高,Ot通过输出层进行输出,为了实现基于时间序列的分类任务,LSTM层负责传递历史信息,在计算周期t-1,辨识模型的输入为It-1,同时LSTM层接收计算周期t-2的历史信息Ht-2,并生成当前计算周期的历史信息Ht-1,进而辨识模型输出分类结果Ot,随着计算周期向前推进,此过程循环进行;
步骤五、训练辨识模型:辨识模型的训练过程为:将步骤二中每次实验的数据结果作为一个数据段,通过步骤三所述的方法将数据段中每一个计算周期的十六个压力传感器数据转换为握力分布图作为辨识模型输入,同时将该计算周期的驾驶人驾驶积极性类别作为数据标签,将步骤二中采集到的数个数据段分为训练数据段和测试数据段,随机挑选总体的80%作为训练数据,其余作为测试数据。选取Adam优化器作为优化算法,采用早停法防止发生过拟合问题。
通过以上方法测得的结果如下表:
Claims (2)
1.一种基于智能方向盘的驾驶人驾驶积极性辨识方法,其特征在于:其方法包括如下步骤:
步骤一、搭建驾驶人驾驶积极性辨识装置:驾驶人驾驶积极性辨识装置包括有方向盘、信号调理模块和处理单元,其中方向盘和处理单元均与信号调理模块相连接,方向盘上的驾驶人左手和右手抓握部位分别对应设置有八个压力传感器,驾驶人左手和右手分别对应设置的八个压力传感器的设置部位分别为:左右手食指第二指节掌面侧区域、左右手中指第二指节掌面侧区域、左右手无名指第二指节掌面侧区域、左右手虎口掌面侧区域、左右手掌面小鱼际区域、左右手掌面大鱼际区域和左右手拇指指腹区域,方向盘上的驾驶人左手和右手抓握部位设置的数个压力传感器均与信号调理模块相连接,信号调理模块将数个压力传感器的电阻信号转换为0-5v的电压信号,处理单元内集成有十六通道A/D转换器,处理单元读取经转换后的数个压力传感器的电压值,处理单元根据数个压力传感器的特性曲线换算为测量点的握力值,处理单元中编写有辨识模型,用于驾驶人驾驶积极性辨识;
步骤二、采集不同驾驶积极性下的握力数据:招募数名具有有效驾照的志愿者,要求志愿者以标准握姿抓握方向盘,随后通过线控转向系统或电动助力转向系统产生正弦力矩模拟汽车主动转向操作激励驾驶人,参照实际行驶工况下的转向力矩和转动速度,设定正弦力矩的幅值和周期分别为3Nm和0.5Hz,每位志愿者进行六次以上实验,每次实验中,要求志愿者不断切换三种驾驶积极性,即低、中和高,低驾驶积极性指驾驶人上肢处于放松状态,除施加保证方向盘运动过程中志愿者双手不从方向盘上滑下和脱离的握力之外,不施加额外的转向力矩,中驾驶积极性指驾驶人上肢保持紧张状态,用于执行精确的转向操作和快速反应,高驾驶积极性指驾驶人通过收缩上肢肌肉反抗汽车的主动转向操作,志愿者听从实验员的随机指令执行不同的驾驶积极性;
步骤三、计算握力分布图:对双手握力测量区域进行展开平铺处理,定义为32*32像素的灰度图像,根据方向盘上左右手抓握部位压力传感器之间的位置关系,设定左右手抓握部位压力传感器在图像上的像素位置,以图像左上角为起点,左手抓握部位压力传感器的像素坐标分别为6和7、4和13、3和18、9和10、7和24、9和28、14和6及12和21;右手抓握部位压力传感器的像素坐标分别为27和7、29和13、30和18、24和10、21和24、24和28、19和6及21和21;然后将该图像的四边及中间纵线的像素点的灰度值设为零,左右手抓握部位的压力传感器对应的十六个像素点根据步骤二中测量到的握力大小换算为灰度值,其他像素点的灰度值通过二维插值计算得出;
步骤四、构建辨识模型:辨识模型由卷积神经网络和长短期记忆神经网络串联而成,辨识模型由输入层、第一卷积层、第一池化层、第二卷积层、第二池化层、展平层、LSTM层、全连接层、softmax层和输出层依次连接组成,辨识模型的输入为每一个计算周期生成的握力分布图It,It通过输入层进行输入,辨识模型的输出为每一个计算周期的驾驶人驾驶积极性类别Ot,即低、中和高,Ot通过输出层进行输出,为了实现基于时间序列的分类任务,LSTM层负责传递历史信息,在计算周期t-1,辨识模型的输入为It-1,同时LSTM层接收计算周期t-2的历史信息Ht-2,并生成当前计算周期的历史信息Ht-1,进而辨识模型输出分类结果Ot,随着计算周期向前推进,此过程循环进行;
步骤五、训练辨识模型:辨识模型的训练过程为:将步骤二中每次实验的数据结果作为一个数据段,通过步骤三所述的方法将数据段中每一个计算周期的压力传感器数据转换为握力分布图作为辨识模型输入,同时将该计算周期的驾驶人驾驶积极性类别作为数据标签,将步骤二中采集到的数个数据段分为训练数据段和测试数据段,随机挑选总体的80%作为训练数据,其余作为测试数据,选取Adam优化器作为优化算法,采用早停法防止发生过拟合问题。
2.根据权利要求1所述的一种基于智能方向盘的驾驶人驾驶积极性辨识方法,其特征在于:所述的方向盘上设置的压力传感器均为柔性薄膜压力传感器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110935742.3A CN113460059B (zh) | 2021-08-16 | 2021-08-16 | 一种基于智能方向盘的驾驶人驾驶积极性辨识装置及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110935742.3A CN113460059B (zh) | 2021-08-16 | 2021-08-16 | 一种基于智能方向盘的驾驶人驾驶积极性辨识装置及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113460059A CN113460059A (zh) | 2021-10-01 |
CN113460059B true CN113460059B (zh) | 2022-08-26 |
Family
ID=77866607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110935742.3A Active CN113460059B (zh) | 2021-08-16 | 2021-08-16 | 一种基于智能方向盘的驾驶人驾驶积极性辨识装置及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113460059B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113834994B (zh) * | 2021-10-27 | 2024-06-18 | 均胜均安汽车电子(上海)有限公司 | 一种离手检测方向盘的模拟触摸装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103318181A (zh) * | 2013-06-19 | 2013-09-25 | 电子科技大学 | 一种驾驶员意图识别方法 |
CN104859652A (zh) * | 2014-02-26 | 2015-08-26 | 通用汽车环球科技运作有限责任公司 | 用于自动驾驶的方法和系统 |
CN204667425U (zh) * | 2015-05-20 | 2015-09-23 | 刘志伟 | 自定位式虹膜图像采集器 |
CN107323459A (zh) * | 2017-06-23 | 2017-11-07 | 东风商用车有限公司 | 一种驾驶员行为识别传感装置及其识别方法 |
CN108459654A (zh) * | 2017-02-21 | 2018-08-28 | 丰田自动车株式会社 | 驾驶辅助装置 |
CN108725453A (zh) * | 2018-06-11 | 2018-11-02 | 南京航空航天大学 | 基于驾驶员模型和操纵逆动力学的人机共驾控制系统及其切换模式 |
CN108791058A (zh) * | 2018-06-27 | 2018-11-13 | 梧州学院 | 一种基于方向盘握力的安全驾驶检测装置及其控制方法 |
CN108819951A (zh) * | 2018-07-27 | 2018-11-16 | 重庆大学 | 一种考虑驾驶员驾驶技能的人机共驾横向驾驶权分配方法 |
DE102019213931A1 (de) * | 2019-09-12 | 2021-03-18 | Zf Friedrichshafen Ag | Verfahren und Computerprogrammprodukt zur Identifizierung eines Fahrzeugnutzers und Steuergerät für automatisierte Fahrfunktionen |
CN112721943A (zh) * | 2021-01-20 | 2021-04-30 | 吉林大学 | 一种具有冲突消解功能的人机共驾横向控制方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10114238A (ja) * | 1996-10-11 | 1998-05-06 | Hitachi Ltd | 自動車の定速走行制御装置 |
DE10218010A1 (de) * | 2002-04-23 | 2003-11-06 | Bosch Gmbh Robert | Verfahren und Vorrichtung zur Querführungsunterstützung bei Kraftfahrzeugen |
US7444224B2 (en) * | 2003-11-14 | 2008-10-28 | Nissan Motor Co., Ltd. | Lane departure prevention apparatus |
US9707974B2 (en) * | 2009-10-30 | 2017-07-18 | Ford Global Technologies, Llc | Vehicle with identification system |
EP3482344B1 (en) * | 2016-07-07 | 2022-08-31 | Harman International Industries, Incorporated | Portable personalization |
CN106741137A (zh) * | 2016-12-15 | 2017-05-31 | 吉林大学 | 一种个性化的电动助力转向系统及控制方法 |
US11106969B2 (en) * | 2017-01-19 | 2021-08-31 | International Business Machines Corporation | Method and apparatus for driver identification leveraging telematics data |
JP6410162B1 (ja) * | 2017-07-24 | 2018-10-24 | 有限会社 波多野巌松堂書店 | 運転支援装置、運転支援方法およびプログラム |
JP7106998B2 (ja) * | 2018-06-05 | 2022-07-27 | トヨタ自動車株式会社 | 運転支援装置 |
DE102018133672A1 (de) * | 2018-12-28 | 2020-07-02 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Erzeugen von Steuersignalen zum Unterstützen von Insassen eines Fahrzeugs |
JP7188075B2 (ja) * | 2018-12-28 | 2022-12-13 | トヨタ自動車株式会社 | 運転支援システム |
CN110525433B (zh) * | 2019-07-10 | 2020-07-28 | 聊城大学 | 基于驾驶员意图识别的转向力矩引导分配曲线设计方法 |
CN110852281B (zh) * | 2019-11-13 | 2022-05-17 | 吉林大学 | 基于高斯混合隐马尔科夫模型的驾驶员换道意图识别方法 |
CN110920539A (zh) * | 2019-11-15 | 2020-03-27 | 奇点汽车研发中心有限公司 | 车辆驾驶分析方法和装置、电子设备和计算机存储介质 |
CN110949398B (zh) * | 2019-11-28 | 2021-09-03 | 同济大学 | 一种车辆编队行驶中头车驾驶员异常驾驶行为检测方法 |
-
2021
- 2021-08-16 CN CN202110935742.3A patent/CN113460059B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103318181A (zh) * | 2013-06-19 | 2013-09-25 | 电子科技大学 | 一种驾驶员意图识别方法 |
CN104859652A (zh) * | 2014-02-26 | 2015-08-26 | 通用汽车环球科技运作有限责任公司 | 用于自动驾驶的方法和系统 |
CN204667425U (zh) * | 2015-05-20 | 2015-09-23 | 刘志伟 | 自定位式虹膜图像采集器 |
CN108459654A (zh) * | 2017-02-21 | 2018-08-28 | 丰田自动车株式会社 | 驾驶辅助装置 |
CN107323459A (zh) * | 2017-06-23 | 2017-11-07 | 东风商用车有限公司 | 一种驾驶员行为识别传感装置及其识别方法 |
CN108725453A (zh) * | 2018-06-11 | 2018-11-02 | 南京航空航天大学 | 基于驾驶员模型和操纵逆动力学的人机共驾控制系统及其切换模式 |
CN108791058A (zh) * | 2018-06-27 | 2018-11-13 | 梧州学院 | 一种基于方向盘握力的安全驾驶检测装置及其控制方法 |
CN108819951A (zh) * | 2018-07-27 | 2018-11-16 | 重庆大学 | 一种考虑驾驶员驾驶技能的人机共驾横向驾驶权分配方法 |
DE102019213931A1 (de) * | 2019-09-12 | 2021-03-18 | Zf Friedrichshafen Ag | Verfahren und Computerprogrammprodukt zur Identifizierung eines Fahrzeugnutzers und Steuergerät für automatisierte Fahrfunktionen |
CN112721943A (zh) * | 2021-01-20 | 2021-04-30 | 吉林大学 | 一种具有冲突消解功能的人机共驾横向控制方法 |
Non-Patent Citations (2)
Title |
---|
基于双层隐式马尔科夫模型的驾驶意图辨识;宗长富等;《汽车工程》;20110825(第08期);第61-66页 * |
智能汽车决策中的驾驶行为语义解析关键技术;李国法等;《汽车安全与节能学报》;20191215(第04期);第5-26页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113460059A (zh) | 2021-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hu et al. | Probability analysis for grasp planning facing the field of medical robotics | |
CN108972494B (zh) | 一种仿人机械手抓取控制系统及其数据处理方法 | |
Yang et al. | A learning framework of adaptive manipulative skills from human to robot | |
Takahashi et al. | Deep visuo-tactile learning: Estimation of tactile properties from images | |
Li et al. | Dynamic gesture recognition in the internet of things | |
Peng et al. | Wear particle classification considering particle overlapping | |
JP5209751B2 (ja) | ロボットの駆動システム、ロボットの駆動方法、及び、ロボットの駆動プログラム | |
CN110170994B (zh) | 一种用于机械手抓取任务的触觉伺服控制方法 | |
CN107160364A (zh) | 一种基于机器视觉的工业机器人示教系统及方法 | |
Petković et al. | Adaptive control algorithm of flexible robotic gripper by extreme learning machine | |
CN113460059B (zh) | 一种基于智能方向盘的驾驶人驾驶积极性辨识装置及方法 | |
Funabashi et al. | Morphology-specific convolutional neural networks for tactile object recognition with a multi-fingered hand | |
Liu et al. | A review of motion planning algorithms for robotic arm systems | |
Zapata-Impata et al. | Generation of tactile data from 3D vision and target robotic grasps | |
Cao et al. | A visual servo-based predictive control with echo state Gaussian process for soft bending actuator | |
Lu et al. | Visual-tactile robot grasping based on human skill learning from demonstrations using a wearable parallel hand exoskeleton | |
CN116652971A (zh) | 一种不同刚度物体识别与机械手抓取力控制方法 | |
Lu et al. | GTac-hand: A robotic hand with integrated tactile sensing and extrinsic contact sensing capabilities | |
Ramaswamy et al. | A survey of robotic hand-arm systems | |
Biju et al. | Sensor evaluation for hand grip strength | |
Pan et al. | Robot teaching system based on hand-robot contact state detection and motion intention recognition | |
Hoecherl et al. | Smartworkbench: Toward adaptive and transparent user assistance in industrial human-robot applications | |
Wang et al. | Learning adaptive grasping from human demonstrations | |
Ha et al. | Use of deep learning for position estimation and control of soft glove | |
Murakami et al. | A decision method for placement of tactile elements on a sensor glove for the recognition of grasp types |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20240605 Address after: 130103 No. 1118, Silicon Valley Street, High-tech Zone, Changchun City, Jilin Province Patentee after: SINOTEST EQUIPMENT CO.,LTD. Country or region after: China Address before: 130012 No. 2699 Qianjin Street, Jilin, Changchun Patentee before: Jilin University Country or region before: China |