CN113520397A - 一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法 - Google Patents

一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法 Download PDF

Info

Publication number
CN113520397A
CN113520397A CN202110835591.4A CN202110835591A CN113520397A CN 113520397 A CN113520397 A CN 113520397A CN 202110835591 A CN202110835591 A CN 202110835591A CN 113520397 A CN113520397 A CN 113520397A
Authority
CN
China
Prior art keywords
driving
wrist
driver
distraction
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110835591.4A
Other languages
English (en)
Inventor
孙文财
司仪豪
李世武
郭梦竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN202110835591.4A priority Critical patent/CN113520397A/zh
Publication of CN113520397A publication Critical patent/CN113520397A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7455Details of notification to user or communication with user or patient ; user input means characterised by tactile indication, e.g. vibration or electrical stimulation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2503/00Evaluating a particular growth phase or type of persons or animals
    • A61B2503/20Workers
    • A61B2503/22Motor vehicles operators, e.g. drivers, pilots, captains
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Psychiatry (AREA)
  • Developmental Disabilities (AREA)
  • Physiology (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Probability & Statistics with Applications (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Signal Processing (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法,包括如下步骤:步骤一、采集驾驶员驾驶时的腕部加速度和腕部角速度;步骤二、根据所述腕部加速度和腕部角速度更新腕部的姿态角和腕部的四元数,并构建运动学特征向量;步骤三、将所述特征向量标准化处理后输入驾驶分心识别模型,判断驾驶员是否为驾驶分心状态,若驾驶员为驾驶分心状态,提醒驾驶员改善驾驶行为。通过可穿戴式设备进行驾驶员腕部姿态捕捉,能够在恶劣的环境条件和较大的空间范围内进行应用,当驾驶员做出对应的符合传感器数据的驾驶分心动作,就可以对腕部姿态数据进行处理并识别,通过振动的方式提醒驾驶员改善其驾驶行为的目的。

Description

一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法
技术领域
本发明涉及交通安全技术领域,更具体的是,本发明涉及一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法。
背景技术
驾驶员分心是道路交通事故的主要原因,已经成为日益严重的公共安全隐患。随着手机和智能车载系统的广泛应用,驾驶员常常处于多任务处理的驾驶状态,这导致驾驶员对涉及安全驾驶的重要信息获取能力和处理能力下降,使得驾驶分心变得尤为常见,从而引起严重的车祸。因此,有效感知驾驶员驾驶分心对维持驾驶员驾驶能力,规避交通安全隐患非常重要。
目前的驾驶监测手段主要基于计算机视觉对驾驶员的面部特征和头部姿态进行驾驶分心判断,这种方式经济成本高,易受周围环境影响,同时会侵犯驾驶员隐私导致覆盖率低,难以大规模应用。
由于可穿戴智能设备的发展普及,通过可穿戴式惯性测量单元进行驾驶员腕部姿态捕捉,可以忽略外界的影响因素,因此,亟需开发一种可穿戴式的驾驶员分心行为识别的装置或者方法。
发明内容
本发明的目的是设计开发了一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法,对实时获取的腕部姿态通过驾驶分心识别模型识别驾驶员驾驶时是否分心,并在分心后进行振动提醒,提高了精确度和适用性。
本发明提供的技术方案为:
一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法,包括如下步骤:
步骤一、采集驾驶员驾驶时的腕部姿态信号;
步骤二、根据所述腕部姿态信号更新腕部的姿态角和腕部的四元数,构建运动学特征向量;
步骤三、将所述特征向量标准化处理后输入驾驶分心识别模型,判断驾驶员是否为驾驶分心状态,若驾驶员为驾驶分心状态,提醒驾驶员改善驾驶行为;
其中,所述驾驶分心识别模型的构建具体包括如下步骤:
步骤1、设定四种驾驶场景并分别进行数据采集和数据集标签标定及标准化,对所述数据集进行聚类后获得离散化的观测序列;
步骤2、构建初始模型为:
λ(n)=(A(n),B(n)(n));
Figure BDA0003177186020000021
式中,
Figure BDA0003177186020000022
为初始状态概率,
Figure BDA0003177186020000023
为在时刻t的状态为qi且在t+1时刻转移为状态qj的概率,bj(k)(n)表示处于状态qj的条件下生成观测vk的概率;
步骤3、将所述四种驾驶场景下的离散化的观测序列分别输入所述初始模型中生成四种腕部姿态类别模型,合并后为驾驶分心识别模型λ={λ1234};
所述步骤3包括如下步骤:
步骤a、对所述初始模型初始化:n=0;
步骤b、当n=1,2,…时,设定:
Figure BDA0003177186020000024
Figure BDA0003177186020000025
Figure BDA0003177186020000026
式中,ξt(i,j)为t时刻处于状态qi且t+1时刻处于状态qj的概率,γt(i)为t时刻处于状态qi的概率,n=1,2,…;
步骤c、将所述四种驾驶场景下的离散化的观测序列O=(o1,o2,…,oT)分别输入所述初始模型中,当所述观测序列的概率P=(O|λ)收敛时,获得λ(n+1)=(A(n+1),B(n+1)(n+1))中的模型参数,生成四种腕部姿态类别模型,合并后为驾驶分心识别模型λ={λ1234}。
优选的是,所述腕部姿态信号包括:腕部加速度和腕部角速度。
优选的是,所述姿态角和四元数满足:
Figure BDA0003177186020000031
Figure BDA0003177186020000032
式中,ωx为x轴上的腕部角速度值,ωy为y轴上的腕部角速度值,ωz为z轴上的腕部角速度值,q=(q0,q1,q2,q3)为四元数,
Figure BDA0003177186020000033
为四元数更新速率,
Figure BDA0003177186020000034
为第一姿态角,θ为第二姿态角,
Figure BDA0003177186020000035
为第一姿态角更新速率,
Figure BDA0003177186020000036
为第二姿态角更新速率,
Figure BDA0003177186020000037
为第三姿态角更新速率。
优选的是,所述运动学特征向量为:
Figure BDA0003177186020000038
式中,Y为运动学特征向量,αx为x轴上的腕部加速度值,αy为y轴上的腕部加速度值,αz为z轴上的腕部加速度值。
优选的是,所述标准化处理满足:
Figure BDA0003177186020000039
式中,Xz为变量的标准化值,Xi为变量的原始输入值,μ为变量的平均值,σ为变量的标准差。
优选的是,所述四种驾驶场景包括:接打手持电话、调整中控台、拿后座杂物和操纵方向盘。
优选的是,所述步骤三具体包括:
将实时采集的驾驶员驾驶时的腕部姿态信号转换为特征向量,将所述特征向量标准化处理后输入所述驾驶分心识别模型,比较四种标签的识别概率,所述识别概率最大时的标签为驾驶员的驾驶场景,对所述驾驶场景进行判断驾驶员是否为驾驶分心状态,若驾驶员为驾驶分心状态,提醒驾驶员改善驾驶行为。
优选的是,所述提醒驾驶员改善驾驶行为为对驾驶员的腕部进行振动警告。
本发明所述的有益效果:
(1)、本发明设计开发的一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法,通过可穿戴式的手环装置进行驾驶员的驾驶分心行为识别及提醒,属于非侵入式的实时辅助检测驾驶分心行为,更加方便,并且不受车辆类型和状态、驾驶经验与驾驶条件的限制,适用性更高。
(2)、本发明设计开发的基于可穿戴式惯性测量单元的驾驶分心行为识别方法,由于是通过穿戴式的手环装置实现的驾驶员的驾驶分心行为识别,能够有效降低驾驶员个体差异特征敏感度。
(3)、本发明设计开发的一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法,通过隐马尔可夫模型实现驾驶员的驾驶分心行为识别,并不需要其他的设备,因此普及率高、方便携带、成本低、能耗低。
附图说明
图1为本发明所述基于可穿戴式惯性测量单元的驾驶员驾驶分心行为识别系统的结构示意图。
图2为本发明所述基于可穿戴式惯性测量单元的驾驶分心行为识别方法流程示意图。
图3为本发明所述驾驶分心识别模型的训练与识别的流程示意图。
具体实施方式
下面结合对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字能够据以实施。
本发明提供的一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法,其能够基于可穿戴式惯性测量单元的驾驶员驾驶分心行为识别系统判断驾驶人是否处于驾驶分心状态,并在判断驾驶人处于驾驶分心状态时,对驾驶驾驶员进行警告,使其改善驾驶行为。
如图1所示,基于可穿戴式惯性测量单元的驾驶员驾驶分心行为识别系统,包括:一个惯性测量单元,其被用于实时获取驾驶员驾驶时的腕部姿态信号;一个计算单元,其与所述惯性测量单元相连接,被用于求解四元数微分方程和欧拉角微分方程,通过所述腕部姿态信号计算得到更新后的四元数和姿态角;一个存储器,其与所述惯性测量单元和计算单元相连接,被用于存储惯性测量单元提供的腕部姿态信号以及计算单元更新后的四元数和姿态角,并且还存储使用机器学习训练出来的模型;一个微处理器,其与所述存储器相连接,实时读取存储器中驾驶员腕部姿态信号的历史数据和当前数据,利用机器学习识别算法,依据事先采集的样本数据所训练的模型,判断当前驾驶员是否处于驾驶分心状态;一个振动警告单元,其与所述微处理器相连接,当驾驶员被微处理器判断为分心驾驶状态时,振动警告单元将以一种振动的方式警告驾驶员;一个电源模块,其与惯性测量单元、计算单元、存储器、微处理器和振动警告单元相连接,被用于支持该系统的电能。
在本实施例中,所述惯性测量单元包括陀螺仪和加速度传感器,分别用于测量腕部加速度和腕部角速度。
在本实施例中,所述基于可穿戴式惯性测量单元的驾驶员驾驶分心行为识别系统的具体产品形式是智能手环,其融合了惯性测量单元、计算单元、存储器、微处理器、振动警告单元和电源模块,佩戴在使用者右手手腕位置,用于检测驾驶员的腕部姿态情况,通过解算姿态数据并结合机器学习方法判断驾驶员驾驶分心状态。
如图2所示,本发明设计开发的一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法,采用惯性测量单元采集右手腕的加速度与角速度信号,通过计算四元数和姿态角构造特征向量并进行标准化预处理,预处理后数据通过PAM聚类进行离散化,得到在每个腕部姿态标签下的离散化训练序列,再依据驾驶分心识别模型进行参数训练,得到各动作标签下的最佳参数模型,然后应用模型对实时获取的腕部姿态进行识别,根据模型的概率计算,如果被判定为驾驶分心状态会通过振动警告单元对驾驶员进行振动提醒,具体包括如下步骤:
步骤一、使用基于可穿戴式惯性测量单元的驾驶员驾驶分心行为识别系统实时获取惯性测量单元所测得的腕部加速度和腕部角速度;
步骤二、根据所述腕部加速度和腕部角速度更新驾驶员腕部姿态角和四元数,构建运动学特征向量;
其中,通过求解四元数微分方程(1)和欧拉角微分方程(2),对驾驶员腕部运动四元数和姿态角进行更新:
Figure BDA0003177186020000061
Figure BDA0003177186020000062
式中,ωx为x轴上的腕部角速度值,ωy为y轴上的腕部角速度值,ωz为z轴上的腕部角速度值,q=(q0,q1,q2,q3)为四元数,
Figure BDA0003177186020000063
为四元数更新速率,
Figure BDA0003177186020000064
为第一姿态角,θ为第二姿态角,
Figure BDA0003177186020000065
为第一姿态角更新速率,
Figure BDA0003177186020000066
为第二姿态角更新速率,
Figure BDA0003177186020000067
为第三姿态角更新速率。
通过公式(3)实现四元数与姿态角之间的数据转换:
Figure BDA0003177186020000068
将所得到的加速度、角速度、姿态角和四元数等腕部运动学度量作为主要特征,构造特征向量:
Figure BDA0003177186020000075
式中,Y为运动学特征向量,αx为x轴上的腕部加速度值,αy为y轴上的腕部加速度值,αz为z轴上的腕部加速度值。
步骤三、将所述特征向量标准化处理后输入驾驶分心识别模型,判断驾驶员是否为驾驶分心状态,若驾驶员为驾驶分心状态,提醒驾驶员改善驾驶行为,具体的:
所述标准化处理满足:
Figure BDA0003177186020000071
式中,Xz为变量的标准化值,Xi为变量的原始输入值,μ为变量的平均值,σ为变量的标准差。
将标准化处理后的特征向量用于训练分类器,即驾驶分心识别模型,在本实施例中,系统基于隐马尔可夫模型(HMM)的分类器用于手势分类,使用Baum-Welch估计算法用于训练学习不同特定场景下腕部姿态标签下的模型λ(n)=(A(n),B(n)(n)),如图3所示,具体包括如下步骤:
步骤1、对驾驶员驾驶分心状态下腕部姿态进行样本数据采集,通过设定的四种驾驶场景(接打手持电话、调整中控台、拿后座杂物、操纵方向盘)进行样本数据采集和数据集标签标定及标准化,所述的数据集划分为训练集和测试集用于训练所述的驾驶分心识别模型,具体的:
(1)采集不少于20名驾驶员在四种驾驶场景下的腕部姿态信号;
(2)发布姿态指令,根据驾驶员完成动作的起止点,采用基于数据接收端按键的起止标记法进行手势状态分割,并进行姿态类别标签化处理;
步骤2、构建初始模型λ(n)=(A(n),B(n)(n)),模型中各参数如公式(6)所示:
Figure BDA0003177186020000072
式中,
Figure BDA0003177186020000073
为初始状态概率,
Figure BDA0003177186020000074
为在时刻t的状态为qi且在t+1时刻转移为状态qj的概率,bj(k)(n)表示处于状态qj的条件下生成观测vk的概率;
步骤3、将数据集通过PAM聚类算法进行聚类,分配相应的聚类中心,得到了离散化的观测序列,聚类后的标签取代原始数据集成为新的训练序列,选取所建立的新的训练序列,利用Baum-Welch估计算法来训练每个标签动作下的隐马尔科夫模型。
主要训练步骤如下:
步骤a、进行初始化,选取n=0,选取
Figure BDA0003177186020000081
bj(k)(0)
Figure BDA0003177186020000085
得到模型λ(0)=(A(0),B(0)(0));
步骤b、再引入两组概率变量ξt(i,j)和γt(i),其中ξt(i,j)表示t时刻处于状态qi且t+1时刻处于状态qj的概率,而γt(i)表示t时刻处于状态qi的概率,对n=1,2,…,如公式(7)-(9)所示:
Figure BDA0003177186020000082
Figure BDA0003177186020000083
Figure BDA0003177186020000084
步骤c、按观测序列O=(o1,o2,…,oT)和模型λ(n)=(A(n),B(n)(n))对上式中右端各值进行计算,当发现观测序列的概率P=(O|λ)收敛时,得到模型参数λ(n+1)=(A(n+1),B(n+)1(n+)1),确定了最佳的模型λ(n)=(A(n),B(n)(n))。
步骤d、每种腕部姿态都执行(a)-(c)的步骤,由此通过隐马尔科夫模型训练,生成四种腕部姿态类别模型λ={λ1234},即为驾驶分心识别模型,建立每种腕部姿态标签下的参数模型数据库,并存储至存储器中。
若驾驶员为驾驶分心状态,提醒驾驶员改善驾驶行为。
微处理器采用滑移时间窗的方法提取驾驶员行车过程中实时采集的腕部姿态信号,并将提取后的腕部姿态信号作为待识别信号集,转换为特征向量,将所述特征向量标准化处理后,输入到训练好的驾驶分心识别模型中,通过计算四种标签下的识别概率,评估此姿态序列的腕部姿态类别,确定各个驾驶场景的最大识别姿态概率;
计算最大识别姿态概率的置信度:
Figure BDA0003177186020000091
式中,C为置信度,Pmax=max(P(O|λ0),Psecond=max(P(O|λ1);
式中,Pmax为最大识别姿态概率,Psecond为除最大识别姿态概率外最大识别概率,λ0为最大识别姿态概率下的腕部姿态,λ1为第二大的识别姿态概率下的腕部姿态;
当C≥ε时,则确定模型已生成最大概率的特定场景下腕部姿态,动作标签视为所执行腕部动作的类别。
其中,ε为置信度阈值,且ε=0.75。
当前所执行腕部动作的类别被判定为驾驶分心类别时,微处理器发送信号至振动警告单元,振动警告单元接收信号,开始振动,提醒驾驶员改善其驾驶行为。
在实施例中,待识别信号集的识别结果显示,该模型算法针对特定腕部姿态的识别准确率高(96.63%),对腕部姿态感知敏感,模型的置信度量化有效地解决了由于过度样本引起的识别性能下降问题。
本发明提供的一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法,通过可穿戴式惯性测量单元进行驾驶员腕部姿态捕捉,可以忽略外界的影响因素,能够在恶劣的环境条件和较大的空间范围内进行应用,当驾驶员做出对应的符合传感器数据的驾驶分心动作,就可以对腕部姿态数据进行处理并识别,通过振动的方式提醒驾驶员改善其驾驶行为的目的,能够较为有效的解决现有技术的缺陷从而被广泛应用于针对分心驾驶行为姿态的识别,这将在交通运输领域有很大的应用前景。
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的实施例。

Claims (8)

1.一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法,其特征在于,包括如下步骤:
步骤一、采集驾驶员驾驶时的腕部姿态信号;
步骤二、根据所述腕部姿态信号更新腕部的姿态角和腕部的四元数,构建运动学特征向量;
步骤三、将所述特征向量标准化处理后输入驾驶分心识别模型,判断驾驶员是否为驾驶分心状态,若驾驶员为驾驶分心状态,提醒驾驶员改善驾驶行为;
其中,所述驾驶分心识别模型的构建具体包括如下步骤:
步骤1、设定四种驾驶场景并分别进行数据采集和数据集标签标定及标准化,对所述数据集进行聚类后获得离散化的观测序列;
步骤2、构建初始模型为:
λ(n)=(A(n),B(n)(n));
Figure FDA0003177186010000011
式中,
Figure FDA0003177186010000012
为初始状态概率,
Figure FDA0003177186010000013
为在时刻t的状态为qi且在t+1时刻转移为状态qj的概率,bj(k)(n)表示处于状态qj的条件下生成观测vk的概率;
步骤3、将所述四种驾驶场景下的离散化的观测序列分别输入所述初始模型中生成四种腕部姿态类别模型,合并后为驾驶分心识别模型λ={λ1234};
所述步骤3包括如下步骤:
步骤a、对所述初始模型初始化:n=0;
步骤b、当n=1,2,…时,设定:
Figure FDA0003177186010000014
Figure FDA0003177186010000021
Figure FDA0003177186010000022
式中,ξt(i,j)为t时刻处于状态qi且t+1时刻处于状态qj的概率,γt(i)为t时刻处于状态qi的概率,n=1,2,…;
步骤c、将所述四种驾驶场景下的离散化的观测序列O=(o1,o2,…,oT)分别输入所述初始模型中,当所述观测序列的概率P=(O|λ)收敛时,获得λ(n+1)=(A(n+1),B(n+1)(n+1))中的模型参数,生成四种腕部姿态类别模型,合并后为驾驶分心识别模型λ={λ1234}。
2.如权利要求1所述的基于可穿戴式惯性测量单元的驾驶分心行为识别方法,其特征在于,所述腕部姿态信号包括:腕部加速度和腕部角速度。
3.如权利要求2所述的基于可穿戴式惯性测量单元的驾驶分心行为识别方法,其特征在于,所述姿态角和四元数满足:
Figure FDA0003177186010000023
Figure FDA0003177186010000024
式中,ωx为x轴上的腕部角速度值,ωy为y轴上的腕部角速度值,ωz为z轴上的腕部角速度值,q=(q0,q1,q2,q3)为四元数,
Figure FDA0003177186010000025
为四元数更新速率,
Figure FDA0003177186010000026
为第一姿态角,θ为第二姿态角,
Figure FDA0003177186010000027
为第一姿态角更新速率,
Figure FDA0003177186010000028
为第二姿态角更新速率,
Figure FDA0003177186010000029
为第三姿态角更新速率。
4.如权利要求3所述的基于可穿戴式惯性测量单元的驾驶分心行为识别方法,其特征在于,所述运动学特征向量为:
Figure FDA00031771860100000210
式中,Y为运动学特征向量,αx为x轴上的腕部加速度值,αy为y轴上的腕部加速度值,αz为z轴上的腕部加速度值。
5.如权利要求4所述的基于可穿戴式惯性测量单元的驾驶分心行为识别方法,其特征在于,所述标准化处理满足:
Figure FDA0003177186010000031
式中,Xz为变量的标准化值,Xi为变量的原始输入值,μ为变量的平均值,σ为变量的标准差。
6.如权利要求5所述的基于可穿戴式惯性测量单元的驾驶分心行为识别方法,其特征在于,所述四种驾驶场景包括:接打手持电话、调整中控台、拿后座杂物和操纵方向盘。
7.如权利要求6所述的基于可穿戴式惯性测量单元的驾驶分心行为识别方法,其特征在于,所述步骤三具体包括:
将实时采集的驾驶员驾驶时的腕部姿态信号转换为特征向量,将所述特征向量标准化处理后输入所述驾驶分心识别模型,比较四种标签的识别概率,所述识别概率最大时的标签为驾驶员的驾驶场景,对所述驾驶场景进行判断驾驶员是否为驾驶分心状态,若驾驶员为驾驶分心状态,提醒驾驶员改善驾驶行为。
8.如权利要求7所述的基于可穿戴式惯性测量单元的驾驶分心行为识别方法,其特征在于,所述提醒驾驶员改善驾驶行为为对驾驶员的腕部进行振动警告。
CN202110835591.4A 2021-07-23 2021-07-23 一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法 Pending CN113520397A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110835591.4A CN113520397A (zh) 2021-07-23 2021-07-23 一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110835591.4A CN113520397A (zh) 2021-07-23 2021-07-23 一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法

Publications (1)

Publication Number Publication Date
CN113520397A true CN113520397A (zh) 2021-10-22

Family

ID=78120654

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110835591.4A Pending CN113520397A (zh) 2021-07-23 2021-07-23 一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法

Country Status (1)

Country Link
CN (1) CN113520397A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183466A (zh) * 2020-10-26 2021-01-05 同济大学 一种基于道路场景识别的分心驾驶识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100100004A1 (en) * 2008-10-16 2010-04-22 Koninklijke Nederlandse Akademie Van Wetenschappen Skin Temperature Measurement in Monitoring and Control of Sleep and Alertness
CN105185038A (zh) * 2015-10-20 2015-12-23 华东交通大学 一种基于Android智能手机的安全行车系统
CN111693024A (zh) * 2020-06-11 2020-09-22 秦奕天 一种基于九轴惯性测量单元可穿戴人体传感监测设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100100004A1 (en) * 2008-10-16 2010-04-22 Koninklijke Nederlandse Akademie Van Wetenschappen Skin Temperature Measurement in Monitoring and Control of Sleep and Alertness
CN105185038A (zh) * 2015-10-20 2015-12-23 华东交通大学 一种基于Android智能手机的安全行车系统
CN111693024A (zh) * 2020-06-11 2020-09-22 秦奕天 一种基于九轴惯性测量单元可穿戴人体传感监测设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WENCAI SUN等: "Driver Distraction Recognition Using Wearable IMU Sensor Data", 《SUSTAINABILITY》 *
赵耀霞: "惯性导航系统航向姿态计算算法研究", 《机械工程与自动化》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183466A (zh) * 2020-10-26 2021-01-05 同济大学 一种基于道路场景识别的分心驾驶识别方法
CN112183466B (zh) * 2020-10-26 2022-12-16 同济大学 一种基于道路场景识别的分心驾驶识别方法

Similar Documents

Publication Publication Date Title
US11685392B2 (en) Apparatus, systems and methods for classifying digital images
US20190065872A1 (en) Behavior recognition apparatus, learning apparatus, and method and program therefor
US11237184B2 (en) Methods and systems for pattern-based identification of a driver of a vehicle
EP3498559B1 (en) Method for recognizing the driving style of a driver of a land vehicle, and corresponding apparatus
Eren et al. Estimating driving behavior by a smartphone
JP6443393B2 (ja) 行動認識装置,学習装置,並びに方法およびプログラム
Johnson et al. Driving style recognition using a smartphone as a sensor platform
US20150116493A1 (en) Method and system for estimating gaze direction of vehicle drivers
CN107662613B (zh) 一种基于移动群智感知的极端驾驶行为识别方法及系统
JP2019220084A (ja) 解析装置、車載器、及びパターン解析補助装置
JP2008140118A (ja) 危険動作検出装置および危険動作検出方法
CN116353584A (zh) 一种车辆碰撞风险预测系统及车辆
Pech et al. Head tracking based glance area estimation for driver behaviour modelling during lane change execution
Saiprasert et al. Detecting driving events using smartphone
Haid et al. Inertial-based gesture recognition for artificial intelligent cockpit control using hidden Markov models
CN113520397A (zh) 一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法
CN111062300A (zh) 驾驶状态检测方法、装置、设备及计算机可读存储介质
US12060002B2 (en) System and method for tracking human behavior real-time with single magnetometer sensor and magnets
CN111717210B (zh) 一种驾驶员手部相对静止状态下脱离方向盘检测方法
Pech et al. Real time recognition of non-driving related tasks in the context of highly automated driving
CN108960033A (zh) 一种基于驾驶员前臂加速度的时速自适应变道驾驶行为检测方法
CN114926896A (zh) 一种自动驾驶车的控制方法
CN111806453A (zh) 一种驾驶员手部运动状态下脱离方向盘检测方法及装置
Altunkaya et al. Design and implementation of a novel algorithm to smart tachograph for detection and recognition of driving behaviour
Al-Din et al. Development of a highway driving events identification and classification using smartphone

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20211022