CN113520397A - 一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法 - Google Patents
一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法 Download PDFInfo
- Publication number
- CN113520397A CN113520397A CN202110835591.4A CN202110835591A CN113520397A CN 113520397 A CN113520397 A CN 113520397A CN 202110835591 A CN202110835591 A CN 202110835591A CN 113520397 A CN113520397 A CN 113520397A
- Authority
- CN
- China
- Prior art keywords
- driving
- wrist
- driver
- distraction
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005259 measurement Methods 0.000 title claims abstract description 37
- 238000000034 method Methods 0.000 title claims abstract description 36
- 210000000707 wrist Anatomy 0.000 claims abstract description 87
- 239000013598 vector Substances 0.000 claims abstract description 24
- 230000001133 acceleration Effects 0.000 claims abstract description 19
- 230000006399 behavior Effects 0.000 claims description 41
- 238000012545 processing Methods 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 150000001875 compounds Chemical class 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 238000013145 classification model Methods 0.000 claims description 2
- 238000010276 construction Methods 0.000 claims description 2
- 230000009471 action Effects 0.000 abstract description 8
- 230000007613 environmental effect Effects 0.000 abstract 1
- 230000036544 posture Effects 0.000 description 17
- 238000012549 training Methods 0.000 description 12
- 238000004364 calculation method Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 206010039203 Road traffic accident Diseases 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1118—Determining activity level
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/168—Evaluating attention deficit, hyperactivity
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
- A61B5/681—Wristwatch-type devices
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7455—Details of notification to user or communication with user or patient ; user input means characterised by tactile indication, e.g. vibration or electrical stimulation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/746—Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
- G06F18/295—Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/20—Workers
- A61B2503/22—Motor vehicles operators, e.g. drivers, pilots, captains
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/08—Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Heart & Thoracic Surgery (AREA)
- Theoretical Computer Science (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Psychiatry (AREA)
- Developmental Disabilities (AREA)
- Physiology (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Probability & Statistics with Applications (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Child & Adolescent Psychology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Signal Processing (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法,包括如下步骤:步骤一、采集驾驶员驾驶时的腕部加速度和腕部角速度;步骤二、根据所述腕部加速度和腕部角速度更新腕部的姿态角和腕部的四元数,并构建运动学特征向量;步骤三、将所述特征向量标准化处理后输入驾驶分心识别模型,判断驾驶员是否为驾驶分心状态,若驾驶员为驾驶分心状态,提醒驾驶员改善驾驶行为。通过可穿戴式设备进行驾驶员腕部姿态捕捉,能够在恶劣的环境条件和较大的空间范围内进行应用,当驾驶员做出对应的符合传感器数据的驾驶分心动作,就可以对腕部姿态数据进行处理并识别,通过振动的方式提醒驾驶员改善其驾驶行为的目的。
Description
技术领域
本发明涉及交通安全技术领域,更具体的是,本发明涉及一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法。
背景技术
驾驶员分心是道路交通事故的主要原因,已经成为日益严重的公共安全隐患。随着手机和智能车载系统的广泛应用,驾驶员常常处于多任务处理的驾驶状态,这导致驾驶员对涉及安全驾驶的重要信息获取能力和处理能力下降,使得驾驶分心变得尤为常见,从而引起严重的车祸。因此,有效感知驾驶员驾驶分心对维持驾驶员驾驶能力,规避交通安全隐患非常重要。
目前的驾驶监测手段主要基于计算机视觉对驾驶员的面部特征和头部姿态进行驾驶分心判断,这种方式经济成本高,易受周围环境影响,同时会侵犯驾驶员隐私导致覆盖率低,难以大规模应用。
由于可穿戴智能设备的发展普及,通过可穿戴式惯性测量单元进行驾驶员腕部姿态捕捉,可以忽略外界的影响因素,因此,亟需开发一种可穿戴式的驾驶员分心行为识别的装置或者方法。
发明内容
本发明的目的是设计开发了一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法,对实时获取的腕部姿态通过驾驶分心识别模型识别驾驶员驾驶时是否分心,并在分心后进行振动提醒,提高了精确度和适用性。
本发明提供的技术方案为:
一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法,包括如下步骤:
步骤一、采集驾驶员驾驶时的腕部姿态信号;
步骤二、根据所述腕部姿态信号更新腕部的姿态角和腕部的四元数,构建运动学特征向量;
步骤三、将所述特征向量标准化处理后输入驾驶分心识别模型,判断驾驶员是否为驾驶分心状态,若驾驶员为驾驶分心状态,提醒驾驶员改善驾驶行为;
其中,所述驾驶分心识别模型的构建具体包括如下步骤:
步骤1、设定四种驾驶场景并分别进行数据采集和数据集标签标定及标准化,对所述数据集进行聚类后获得离散化的观测序列;
步骤2、构建初始模型为:
λ(n)=(A(n),B(n),π(n));
步骤3、将所述四种驾驶场景下的离散化的观测序列分别输入所述初始模型中生成四种腕部姿态类别模型,合并后为驾驶分心识别模型λ={λ1,λ2,λ3,λ4};
所述步骤3包括如下步骤:
步骤a、对所述初始模型初始化:n=0;
步骤b、当n=1,2,…时,设定:
式中,ξt(i,j)为t时刻处于状态qi且t+1时刻处于状态qj的概率,γt(i)为t时刻处于状态qi的概率,n=1,2,…;
步骤c、将所述四种驾驶场景下的离散化的观测序列O=(o1,o2,…,oT)分别输入所述初始模型中,当所述观测序列的概率P=(O|λ)收敛时,获得λ(n+1)=(A(n+1),B(n+1),π(n+1))中的模型参数,生成四种腕部姿态类别模型,合并后为驾驶分心识别模型λ={λ1,λ2,λ3,λ4}。
优选的是,所述腕部姿态信号包括:腕部加速度和腕部角速度。
优选的是,所述姿态角和四元数满足:
式中,ωx为x轴上的腕部角速度值,ωy为y轴上的腕部角速度值,ωz为z轴上的腕部角速度值,q=(q0,q1,q2,q3)为四元数,为四元数更新速率,为第一姿态角,θ为第二姿态角,为第一姿态角更新速率,为第二姿态角更新速率,为第三姿态角更新速率。
优选的是,所述运动学特征向量为:
式中,Y为运动学特征向量,αx为x轴上的腕部加速度值,αy为y轴上的腕部加速度值,αz为z轴上的腕部加速度值。
优选的是,所述标准化处理满足:
式中,Xz为变量的标准化值,Xi为变量的原始输入值,μ为变量的平均值,σ为变量的标准差。
优选的是,所述四种驾驶场景包括:接打手持电话、调整中控台、拿后座杂物和操纵方向盘。
优选的是,所述步骤三具体包括:
将实时采集的驾驶员驾驶时的腕部姿态信号转换为特征向量,将所述特征向量标准化处理后输入所述驾驶分心识别模型,比较四种标签的识别概率,所述识别概率最大时的标签为驾驶员的驾驶场景,对所述驾驶场景进行判断驾驶员是否为驾驶分心状态,若驾驶员为驾驶分心状态,提醒驾驶员改善驾驶行为。
优选的是,所述提醒驾驶员改善驾驶行为为对驾驶员的腕部进行振动警告。
本发明所述的有益效果:
(1)、本发明设计开发的一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法,通过可穿戴式的手环装置进行驾驶员的驾驶分心行为识别及提醒,属于非侵入式的实时辅助检测驾驶分心行为,更加方便,并且不受车辆类型和状态、驾驶经验与驾驶条件的限制,适用性更高。
(2)、本发明设计开发的基于可穿戴式惯性测量单元的驾驶分心行为识别方法,由于是通过穿戴式的手环装置实现的驾驶员的驾驶分心行为识别,能够有效降低驾驶员个体差异特征敏感度。
(3)、本发明设计开发的一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法,通过隐马尔可夫模型实现驾驶员的驾驶分心行为识别,并不需要其他的设备,因此普及率高、方便携带、成本低、能耗低。
附图说明
图1为本发明所述基于可穿戴式惯性测量单元的驾驶员驾驶分心行为识别系统的结构示意图。
图2为本发明所述基于可穿戴式惯性测量单元的驾驶分心行为识别方法流程示意图。
图3为本发明所述驾驶分心识别模型的训练与识别的流程示意图。
具体实施方式
下面结合对本发明做进一步的详细说明,以令本领域技术人员参照说明书文字能够据以实施。
本发明提供的一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法,其能够基于可穿戴式惯性测量单元的驾驶员驾驶分心行为识别系统判断驾驶人是否处于驾驶分心状态,并在判断驾驶人处于驾驶分心状态时,对驾驶驾驶员进行警告,使其改善驾驶行为。
如图1所示,基于可穿戴式惯性测量单元的驾驶员驾驶分心行为识别系统,包括:一个惯性测量单元,其被用于实时获取驾驶员驾驶时的腕部姿态信号;一个计算单元,其与所述惯性测量单元相连接,被用于求解四元数微分方程和欧拉角微分方程,通过所述腕部姿态信号计算得到更新后的四元数和姿态角;一个存储器,其与所述惯性测量单元和计算单元相连接,被用于存储惯性测量单元提供的腕部姿态信号以及计算单元更新后的四元数和姿态角,并且还存储使用机器学习训练出来的模型;一个微处理器,其与所述存储器相连接,实时读取存储器中驾驶员腕部姿态信号的历史数据和当前数据,利用机器学习识别算法,依据事先采集的样本数据所训练的模型,判断当前驾驶员是否处于驾驶分心状态;一个振动警告单元,其与所述微处理器相连接,当驾驶员被微处理器判断为分心驾驶状态时,振动警告单元将以一种振动的方式警告驾驶员;一个电源模块,其与惯性测量单元、计算单元、存储器、微处理器和振动警告单元相连接,被用于支持该系统的电能。
在本实施例中,所述惯性测量单元包括陀螺仪和加速度传感器,分别用于测量腕部加速度和腕部角速度。
在本实施例中,所述基于可穿戴式惯性测量单元的驾驶员驾驶分心行为识别系统的具体产品形式是智能手环,其融合了惯性测量单元、计算单元、存储器、微处理器、振动警告单元和电源模块,佩戴在使用者右手手腕位置,用于检测驾驶员的腕部姿态情况,通过解算姿态数据并结合机器学习方法判断驾驶员驾驶分心状态。
如图2所示,本发明设计开发的一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法,采用惯性测量单元采集右手腕的加速度与角速度信号,通过计算四元数和姿态角构造特征向量并进行标准化预处理,预处理后数据通过PAM聚类进行离散化,得到在每个腕部姿态标签下的离散化训练序列,再依据驾驶分心识别模型进行参数训练,得到各动作标签下的最佳参数模型,然后应用模型对实时获取的腕部姿态进行识别,根据模型的概率计算,如果被判定为驾驶分心状态会通过振动警告单元对驾驶员进行振动提醒,具体包括如下步骤:
步骤一、使用基于可穿戴式惯性测量单元的驾驶员驾驶分心行为识别系统实时获取惯性测量单元所测得的腕部加速度和腕部角速度;
步骤二、根据所述腕部加速度和腕部角速度更新驾驶员腕部姿态角和四元数,构建运动学特征向量;
其中,通过求解四元数微分方程(1)和欧拉角微分方程(2),对驾驶员腕部运动四元数和姿态角进行更新:
式中,ωx为x轴上的腕部角速度值,ωy为y轴上的腕部角速度值,ωz为z轴上的腕部角速度值,q=(q0,q1,q2,q3)为四元数,为四元数更新速率,为第一姿态角,θ为第二姿态角,为第一姿态角更新速率,为第二姿态角更新速率,为第三姿态角更新速率。
通过公式(3)实现四元数与姿态角之间的数据转换:
将所得到的加速度、角速度、姿态角和四元数等腕部运动学度量作为主要特征,构造特征向量:
式中,Y为运动学特征向量,αx为x轴上的腕部加速度值,αy为y轴上的腕部加速度值,αz为z轴上的腕部加速度值。
步骤三、将所述特征向量标准化处理后输入驾驶分心识别模型,判断驾驶员是否为驾驶分心状态,若驾驶员为驾驶分心状态,提醒驾驶员改善驾驶行为,具体的:
所述标准化处理满足:
式中,Xz为变量的标准化值,Xi为变量的原始输入值,μ为变量的平均值,σ为变量的标准差。
将标准化处理后的特征向量用于训练分类器,即驾驶分心识别模型,在本实施例中,系统基于隐马尔可夫模型(HMM)的分类器用于手势分类,使用Baum-Welch估计算法用于训练学习不同特定场景下腕部姿态标签下的模型λ(n)=(A(n),B(n),π(n)),如图3所示,具体包括如下步骤:
步骤1、对驾驶员驾驶分心状态下腕部姿态进行样本数据采集,通过设定的四种驾驶场景(接打手持电话、调整中控台、拿后座杂物、操纵方向盘)进行样本数据采集和数据集标签标定及标准化,所述的数据集划分为训练集和测试集用于训练所述的驾驶分心识别模型,具体的:
(1)采集不少于20名驾驶员在四种驾驶场景下的腕部姿态信号;
(2)发布姿态指令,根据驾驶员完成动作的起止点,采用基于数据接收端按键的起止标记法进行手势状态分割,并进行姿态类别标签化处理;
步骤2、构建初始模型λ(n)=(A(n),B(n),π(n)),模型中各参数如公式(6)所示:
步骤3、将数据集通过PAM聚类算法进行聚类,分配相应的聚类中心,得到了离散化的观测序列,聚类后的标签取代原始数据集成为新的训练序列,选取所建立的新的训练序列,利用Baum-Welch估计算法来训练每个标签动作下的隐马尔科夫模型。
主要训练步骤如下:
步骤b、再引入两组概率变量ξt(i,j)和γt(i),其中ξt(i,j)表示t时刻处于状态qi且t+1时刻处于状态qj的概率,而γt(i)表示t时刻处于状态qi的概率,对n=1,2,…,如公式(7)-(9)所示:
步骤c、按观测序列O=(o1,o2,…,oT)和模型λ(n)=(A(n),B(n),π(n))对上式中右端各值进行计算,当发现观测序列的概率P=(O|λ)收敛时,得到模型参数λ(n+1)=(A(n+1),B(n+)1,π(n+)1),确定了最佳的模型λ(n)=(A(n),B(n),π(n))。
步骤d、每种腕部姿态都执行(a)-(c)的步骤,由此通过隐马尔科夫模型训练,生成四种腕部姿态类别模型λ={λ1,λ2,λ3,λ4},即为驾驶分心识别模型,建立每种腕部姿态标签下的参数模型数据库,并存储至存储器中。
若驾驶员为驾驶分心状态,提醒驾驶员改善驾驶行为。
微处理器采用滑移时间窗的方法提取驾驶员行车过程中实时采集的腕部姿态信号,并将提取后的腕部姿态信号作为待识别信号集,转换为特征向量,将所述特征向量标准化处理后,输入到训练好的驾驶分心识别模型中,通过计算四种标签下的识别概率,评估此姿态序列的腕部姿态类别,确定各个驾驶场景的最大识别姿态概率;
计算最大识别姿态概率的置信度:
式中,C为置信度,Pmax=max(P(O|λ0),Psecond=max(P(O|λ1);
式中,Pmax为最大识别姿态概率,Psecond为除最大识别姿态概率外最大识别概率,λ0为最大识别姿态概率下的腕部姿态,λ1为第二大的识别姿态概率下的腕部姿态;
当C≥ε时,则确定模型已生成最大概率的特定场景下腕部姿态,动作标签视为所执行腕部动作的类别。
其中,ε为置信度阈值,且ε=0.75。
当前所执行腕部动作的类别被判定为驾驶分心类别时,微处理器发送信号至振动警告单元,振动警告单元接收信号,开始振动,提醒驾驶员改善其驾驶行为。
在实施例中,待识别信号集的识别结果显示,该模型算法针对特定腕部姿态的识别准确率高(96.63%),对腕部姿态感知敏感,模型的置信度量化有效地解决了由于过度样本引起的识别性能下降问题。
本发明提供的一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法,通过可穿戴式惯性测量单元进行驾驶员腕部姿态捕捉,可以忽略外界的影响因素,能够在恶劣的环境条件和较大的空间范围内进行应用,当驾驶员做出对应的符合传感器数据的驾驶分心动作,就可以对腕部姿态数据进行处理并识别,通过振动的方式提醒驾驶员改善其驾驶行为的目的,能够较为有效的解决现有技术的缺陷从而被广泛应用于针对分心驾驶行为姿态的识别,这将在交通运输领域有很大的应用前景。
尽管本发明的实施方案已公开如上,但其并不仅仅限于说明书和实施方式中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的实施例。
Claims (8)
1.一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法,其特征在于,包括如下步骤:
步骤一、采集驾驶员驾驶时的腕部姿态信号;
步骤二、根据所述腕部姿态信号更新腕部的姿态角和腕部的四元数,构建运动学特征向量;
步骤三、将所述特征向量标准化处理后输入驾驶分心识别模型,判断驾驶员是否为驾驶分心状态,若驾驶员为驾驶分心状态,提醒驾驶员改善驾驶行为;
其中,所述驾驶分心识别模型的构建具体包括如下步骤:
步骤1、设定四种驾驶场景并分别进行数据采集和数据集标签标定及标准化,对所述数据集进行聚类后获得离散化的观测序列;
步骤2、构建初始模型为:
λ(n)=(A(n),B(n),π(n));
步骤3、将所述四种驾驶场景下的离散化的观测序列分别输入所述初始模型中生成四种腕部姿态类别模型,合并后为驾驶分心识别模型λ={λ1,λ2,λ3,λ4};
所述步骤3包括如下步骤:
步骤a、对所述初始模型初始化:n=0;
步骤b、当n=1,2,…时,设定:
式中,ξt(i,j)为t时刻处于状态qi且t+1时刻处于状态qj的概率,γt(i)为t时刻处于状态qi的概率,n=1,2,…;
步骤c、将所述四种驾驶场景下的离散化的观测序列O=(o1,o2,…,oT)分别输入所述初始模型中,当所述观测序列的概率P=(O|λ)收敛时,获得λ(n+1)=(A(n+1),B(n+1),π(n+1))中的模型参数,生成四种腕部姿态类别模型,合并后为驾驶分心识别模型λ={λ1,λ2,λ3,λ4}。
2.如权利要求1所述的基于可穿戴式惯性测量单元的驾驶分心行为识别方法,其特征在于,所述腕部姿态信号包括:腕部加速度和腕部角速度。
6.如权利要求5所述的基于可穿戴式惯性测量单元的驾驶分心行为识别方法,其特征在于,所述四种驾驶场景包括:接打手持电话、调整中控台、拿后座杂物和操纵方向盘。
7.如权利要求6所述的基于可穿戴式惯性测量单元的驾驶分心行为识别方法,其特征在于,所述步骤三具体包括:
将实时采集的驾驶员驾驶时的腕部姿态信号转换为特征向量,将所述特征向量标准化处理后输入所述驾驶分心识别模型,比较四种标签的识别概率,所述识别概率最大时的标签为驾驶员的驾驶场景,对所述驾驶场景进行判断驾驶员是否为驾驶分心状态,若驾驶员为驾驶分心状态,提醒驾驶员改善驾驶行为。
8.如权利要求7所述的基于可穿戴式惯性测量单元的驾驶分心行为识别方法,其特征在于,所述提醒驾驶员改善驾驶行为为对驾驶员的腕部进行振动警告。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110835591.4A CN113520397A (zh) | 2021-07-23 | 2021-07-23 | 一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110835591.4A CN113520397A (zh) | 2021-07-23 | 2021-07-23 | 一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113520397A true CN113520397A (zh) | 2021-10-22 |
Family
ID=78120654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110835591.4A Pending CN113520397A (zh) | 2021-07-23 | 2021-07-23 | 一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113520397A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183466A (zh) * | 2020-10-26 | 2021-01-05 | 同济大学 | 一种基于道路场景识别的分心驾驶识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100100004A1 (en) * | 2008-10-16 | 2010-04-22 | Koninklijke Nederlandse Akademie Van Wetenschappen | Skin Temperature Measurement in Monitoring and Control of Sleep and Alertness |
CN105185038A (zh) * | 2015-10-20 | 2015-12-23 | 华东交通大学 | 一种基于Android智能手机的安全行车系统 |
CN111693024A (zh) * | 2020-06-11 | 2020-09-22 | 秦奕天 | 一种基于九轴惯性测量单元可穿戴人体传感监测设备 |
-
2021
- 2021-07-23 CN CN202110835591.4A patent/CN113520397A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100100004A1 (en) * | 2008-10-16 | 2010-04-22 | Koninklijke Nederlandse Akademie Van Wetenschappen | Skin Temperature Measurement in Monitoring and Control of Sleep and Alertness |
CN105185038A (zh) * | 2015-10-20 | 2015-12-23 | 华东交通大学 | 一种基于Android智能手机的安全行车系统 |
CN111693024A (zh) * | 2020-06-11 | 2020-09-22 | 秦奕天 | 一种基于九轴惯性测量单元可穿戴人体传感监测设备 |
Non-Patent Citations (2)
Title |
---|
WENCAI SUN等: "Driver Distraction Recognition Using Wearable IMU Sensor Data", 《SUSTAINABILITY》 * |
赵耀霞: "惯性导航系统航向姿态计算算法研究", 《机械工程与自动化》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183466A (zh) * | 2020-10-26 | 2021-01-05 | 同济大学 | 一种基于道路场景识别的分心驾驶识别方法 |
CN112183466B (zh) * | 2020-10-26 | 2022-12-16 | 同济大学 | 一种基于道路场景识别的分心驾驶识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11685392B2 (en) | Apparatus, systems and methods for classifying digital images | |
US20190065872A1 (en) | Behavior recognition apparatus, learning apparatus, and method and program therefor | |
US11237184B2 (en) | Methods and systems for pattern-based identification of a driver of a vehicle | |
EP3498559B1 (en) | Method for recognizing the driving style of a driver of a land vehicle, and corresponding apparatus | |
Eren et al. | Estimating driving behavior by a smartphone | |
JP6443393B2 (ja) | 行動認識装置,学習装置,並びに方法およびプログラム | |
Johnson et al. | Driving style recognition using a smartphone as a sensor platform | |
US20150116493A1 (en) | Method and system for estimating gaze direction of vehicle drivers | |
CN107662613B (zh) | 一种基于移动群智感知的极端驾驶行为识别方法及系统 | |
JP2019220084A (ja) | 解析装置、車載器、及びパターン解析補助装置 | |
JP2008140118A (ja) | 危険動作検出装置および危険動作検出方法 | |
CN116353584A (zh) | 一种车辆碰撞风险预测系统及车辆 | |
Pech et al. | Head tracking based glance area estimation for driver behaviour modelling during lane change execution | |
Saiprasert et al. | Detecting driving events using smartphone | |
Haid et al. | Inertial-based gesture recognition for artificial intelligent cockpit control using hidden Markov models | |
CN113520397A (zh) | 一种基于可穿戴式惯性测量单元的驾驶分心行为识别方法 | |
CN111062300A (zh) | 驾驶状态检测方法、装置、设备及计算机可读存储介质 | |
US12060002B2 (en) | System and method for tracking human behavior real-time with single magnetometer sensor and magnets | |
CN111717210B (zh) | 一种驾驶员手部相对静止状态下脱离方向盘检测方法 | |
Pech et al. | Real time recognition of non-driving related tasks in the context of highly automated driving | |
CN108960033A (zh) | 一种基于驾驶员前臂加速度的时速自适应变道驾驶行为检测方法 | |
CN114926896A (zh) | 一种自动驾驶车的控制方法 | |
CN111806453A (zh) | 一种驾驶员手部运动状态下脱离方向盘检测方法及装置 | |
Altunkaya et al. | Design and implementation of a novel algorithm to smart tachograph for detection and recognition of driving behaviour | |
Al-Din et al. | Development of a highway driving events identification and classification using smartphone |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20211022 |