CN104463201A - 一种识别驾驶状态、驾驶人的方法及装置 - Google Patents

一种识别驾驶状态、驾驶人的方法及装置 Download PDF

Info

Publication number
CN104463201A
CN104463201A CN201410707459.5A CN201410707459A CN104463201A CN 104463201 A CN104463201 A CN 104463201A CN 201410707459 A CN201410707459 A CN 201410707459A CN 104463201 A CN104463201 A CN 104463201A
Authority
CN
China
Prior art keywords
identified
model
vector sequence
data
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410707459.5A
Other languages
English (en)
Other versions
CN104463201B (zh
Inventor
耿卫东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Hangzhou Huawei Digital Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Huawei Digital Technologies Co Ltd filed Critical Hangzhou Huawei Digital Technologies Co Ltd
Priority to CN201410707459.5A priority Critical patent/CN104463201B/zh
Publication of CN104463201A publication Critical patent/CN104463201A/zh
Application granted granted Critical
Publication of CN104463201B publication Critical patent/CN104463201B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明实施例公开了一种识别驾驶状态、驾驶人的方法及装置,涉及驾驶技术领域,用于解决由于手机利用单一的速度阈值判断自身是否处于驾驶状态的方案的识别精确度不高,和,手机利用单一的速度阈值判断手机处于驾驶状态后,无法确定手机所属的用户是否为驾驶人的问题。该方法包括:待识别客户端设备获取自身的多组待识别运动数据;其中,多组待识别运动数据包括驾驶数据或非驾驶数据;利用多组待识别运动数据和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态;其中,驾驶状态检测模型参数为利用多组待训练运动数据和每组待训练运动数据对应的真实行为标识训练得到的模型参数,多组待训练运动数据包括驾驶数据和非驾驶数据。

Description

一种识别驾驶状态、驾驶人的方法及装置
技术领域
本发明涉及驾驶技术领域,尤其涉及一种识别驾驶状态、驾驶人的方法及装置。
背景技术
安全驾驶是公共安全的重要组成部分,驾驶人处在驾驶状态时使用手机会对公共安全造成严重威胁。目前,一般需要首先判断手机是否处于驾驶状态后,再采取进一步的措施。
较常见的确定手机是否处于驾驶状态的方案为:手机利用内置的速度传感器实时检测自身的运动速度,当自身的运动速度大于或等于一速度阈值时,确定自身处于驾驶状态;当手机的运动速度小于该速度阈值时,确定自身处于非驾驶状态。
手机采用上述方案判断自身是否处于驾驶状态的过程中,至少在两种情况下,该方案的判断结果是错误的。情况1、手机内部设置的速度阈值较大,当手机处于驾驶状态,而车辆的行驶速度未达到速度阈值时,手机利用上述方法确定的自身的状态为非驾驶状态;情况2、手机内部设置的速度阈值较小,当手机处于非驾驶状态(例如,跑步状态),而手机的运动速度达到速度阈值时,手机利用上述方法确定的自身的状态为驾驶状态。可见,手机利用单一的速度阈值判断自身是否处于驾驶状态的方案的识别精确度不高;并且,手机利用单一的速度阈值判断手机处于驾驶状态后,无法确定手机所属的用户是否为驾驶人。
发明内容
本发明实施例提供一种识别驾驶状态、驾驶人的方法及装置,用于解决由于手机利用单一的速度阈值判断自身是否处于驾驶状态的方案的识别精确度不高,和,手机利用单一的速度阈值判断手机处于驾驶状态后,无法确定手机所属的用户是否为驾驶人的问题。
为达到上述目的,本发明的实施例采用如下技术方案:
第一方面,提供一种识别驾驶状态的方法,包括:
待识别客户端设备获取自身的多组待识别运动数据;其中,所述多组待识别运动数据包括驾驶数据或非驾驶数据;
利用所述多组待识别运动数据和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态;
其中,所述驾驶状态检测模型参数为利用多组待训练运动数据和所述每组待训练运动数据对应的真实行为标识训练得到的模型参数,所述多组待训练运动数据包括驾驶数据和非驾驶数据。
结合第一方面,在第一种可能的实现方式中,所述利用所述多组待识别运动数据和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态,包括:
从所述多组待识别运动数据提取多个目标特征向量序列;其中,每组待识别运动数据对应一个目标特征向量序列;所述目标特征向量序列对应的特征与训练驾驶状态检测模型过程中使用的目标特征向量序列对应的特征相同;
利用所述多个目标特征向量序列和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态。
结合第一方面或第一方面的第一种可能的实现方式,在第二种可能的实现方式中,所述多组待训练运动数据包括动态行为数据和静态行为数据,所述静态行为数据包括驾驶数据;所述驾驶状态检测模型参数包括:分类器模型参数和矫正器模型参数;所述分类器模型为利用所述动态行为数据和所述静态行为数据训练得到的参数模型,用于区分动态行为和静态行为;所述矫正器模型为利用所述分类器模型识别出的多组待测试运动数据对应的行为标识和所述多组待测试运动数据对应的真实行为标识训练得到的参数模型,用于矫正所述分类器模型识别出的行为标识;
所述利用所述多组待识别运动数据和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态,包括:
利用所述多组待识别运动数据对应的多个目标特征向量序列和所述分类器模型参数对所述多组待识别运动数据进行识别,得到所述分类器模型识别出的行为标识;
利用所述分类器模型识别出的行为标识和所述矫正器模型参数,得到所述矫正器模型矫正的行为标识;
当所述矫正器模型矫正的行为标识代表驾驶行为时,确定自身所处的状态为驾驶状态;当所述矫正器模型矫正的行为标识代表非驾驶行为时,确定自身所处的状态为非驾驶状态。
结合第一方面的第二种可能的实现方式,在第三种可能的实现方式中,所述分类器模型参数包括二分类器模型参数、静态行为分类器模型参数和动态行为分类器模型参数;其中,所述二分类器模型为利用所述动态行为数据和所述静态行为数据训练得到的参数模型,用于区分动态行为和静态行为;所述动态分类器模型为利用所述动态行为数据训练得到的参数模型,用于区分不同的动态行为;所述静态行为分类器模型为利用所述静态行为数据训练得到的参数模型,用于区分不同的静态行为。
第二方面,提供一种识别驾驶人的方法,包括:
待识别客户端设备获取自身的多组待识别驾驶数据;
利用所述多组待识别驾驶数据和所述待识别客户端设备的驾驶人识别模型参数确定自身所属的用户为驾驶人或乘客;其中,所述驾驶人识别模型参数为将所述待识别客户端设备的预设驾驶数据作为正例、其他客户端设备的预设驾驶数据作为反例,训练得到的模型参数。
结合第二方面,在第一种可能的实现方式中,所述利用所述多组待识别驾驶数据和所述待识别客户端设备的驾驶人识别模型参数确定自身所属的用户为驾驶人或乘客,包括:
从所述多组待识别驾驶数据提取多个第一目标特征向量序列;其中,每组待识别驾驶数据对应一个第一目标特征向量序列;所述第一目标特征向量序列对应的特征与训练驾驶人识别模型过程中使用的目标特征向量序列对应的特征相同;
利用所述多个第一目标特征向量序列和驾驶人识别模型参数确定自身所属的用户为驾驶人或乘客。
结合第二方面的第一种可能的实现方式,在第二种可能的实现方式中,所述驾驶人识别模型参数包括决策阈值模型参数;其中,所述决策阈值模型参数为利用多个第二目标特征向量序列对应的正例标识在邻域中所占比例,和所述多个第二目标特征向量序列对应的正/反例标识训练得到的模型参数;所述第二目标特征向量序列为所述预设驾驶数据对应的目标特征向量序列;
所述利用所述多个第一目标特征向量序列和驾驶人识别模型参数确定自身所属的用户为驾驶人或乘客,包括:
根据所述多个第一目标特征向量序列获取所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例;
当所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例大于或等于所述决策阈值模型参数时,确定自身所属的用户为驾驶人;当所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例小于所述决策阈值模型参数时,确定自身所属的用户为乘客。
结合第二方面的第二种可能的实现方式,在第三种可能的实现方式中,所述驾驶人识别模型参数还包括最邻近结点算法KNN模型参数;其中,所述KNN模型参数为利用所述多个第二目标特征向量序列训练KNN得到的模型参数;
所述根据所述多个第一目标特征向量序列获取所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例,包括:
根据所述KNN模型参数对所述多个第一目标特征向量序列进行识别,得到所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例。
第三方面,提供一种待识别客户端设备,包括:
获取单元,用于获取自身的多组待识别运动数据;其中,所述多组待识别运动数据包括驾驶数据或非驾驶数据;
确定单元,用于利用所述多组待识别运动数据和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态;
其中,所述驾驶状态检测模型参数为利用多组待训练运动数据和所述每组待训练运动数据对应的真实行为标识训练得到的模型参数,所述多组待训练运动数据包括驾驶数据和非驾驶数据。
结合第三方面,在第一种可能的实现方式中,所述待识别客户端设备包括:
提取单元,用于从所述多组待识别运动数据提取多个目标特征向量序列;其中,每组待识别运动数据对应一个目标特征向量序列;所述目标特征向量序列对应的特征与训练驾驶状态检测模型过程中使用的目标特征向量序列对应的特征相同;
所述确定单元,还用于利用所述多个目标特征向量序列和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态。
结合第三方面或第三方面的第一种可能的实现方式,在第二种可能的实现方式中,所述多组待训练运动数据包括动态行为数据和静态行为数据,所述静态行为数据包括驾驶数据;所述驾驶状态检测模型参数包括:分类器模型参数和矫正器模型参数;所述分类器模型为利用所述动态行为数据和所述静态行为数据训练得到的参数模型,用于区分动态行为和静态行为;所述矫正器模型为利用所述分类器模型识别出的多组待测试运动数据对应的行为标识和所述多组待测试运动数据对应的真实行为标识训练得到的参数模型,用于矫正所述分类器模型识别出的行为标识;
所述确定单元包括:
识别单元,用于利用所述多组待识别运动数据对应的多个目标特征向量序列和所述分类器模型参数对所述多组待识别运动数据进行识别,得到所述分类器模型识别出的行为标识;
矫正单元,用于利用所述分类器模型识别出的行为标识和所述矫正器模型参数,得到所述矫正器模型矫正的行为标识;
所述确定单元,具体用于当所述矫正器模型矫正的行为标识代表驾驶行为时,确定自身所处的状态为驾驶状态;当所述矫正器模型矫正的行为标识代表非驾驶行为时,确定自身所处的状态为非驾驶状态。
结合第三方面的第二种可能的实现方式,在第三种可能的实现方式中,所述分类器模型参数包括二分类器模型参数、静态行为分类器模型参数和动态行为分类器模型参数;其中,所述二分类器模型为利用所述动态行为数据和所述静态行为数据训练得到的参数模型,用于区分动态行为和静态行为;所述动态分类器模型为利用所述动态行为数据训练得到的参数模型,用于区分不同的动态行为;所述静态行为分类器模型为利用所述静态行为数据训练得到的参数模型,用于区分不同的静态行为。
第四方面,提供一种待识别客户端设备,包括:
获取单元,用于获取自身的多组待识别驾驶数据;
确定单元,用于利用所述多组待识别驾驶数据和所述待识别客户端设备的驾驶人识别模型参数确定自身所属的用户为驾驶人或乘客;其中,所述驾驶人识别模型参数为将所述待识别客户端设备的预设驾驶数据作为正例、其他客户端设备的预设驾驶数据作为反例,训练得到的模型参数。
结合第四方面,在第一种可能的实现方式中,所述确定单元包括:
提取单元,用于从所述多组待识别驾驶数据提取多个第一目标特征向量序列;其中,每组待识别驾驶数据对应一个第一目标特征向量序列;所述第一目标特征向量序列对应的特征与训练驾驶人识别模型过程中使用的目标特征向量序列对应的特征相同;
所述确定单元,还用于利用所述多个第一目标特征向量序列和驾驶人识别模型参数确定自身所属的用户为驾驶人或乘客。
结合第四方面的第一种可能的实现方式,在第二种可能的实现方式中,所述驾驶人识别模型参数包括决策阈值模型参数;其中,所述决策阈值模型参数为利用多个第二目标特征向量序列对应的正例标识在邻域中所占比例,和所述多个第二目标特征向量序列对应的正/反例标识训练得到的模型参数;所述第二目标特征向量序列为所述预设驾驶数据对应的目标特征向量序列;
所述获取单元,还用于根据所述多个第一目标特征向量序列获取所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例;
所述确定单元,具体用于当所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例大于或等于所述决策阈值模型参数时,确定自身所属的用户为驾驶人;当所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例小于所述决策阈值模型参数时,确定自身所属的用户为乘客。
结合第四方面的第二种可能的实现方式,在第三种可能的实现方式中,所述驾驶人识别模型参数还包括最邻近结点算法KNN模型参数;其中,所述KNN模型参数为利用所述多个第二目标特征向量序列训练KNN得到的模型参数;
所述获取单元包括:
识别单元,用于根据所述KNN模型参数对所述多个第一目标特征向量序列进行识别,得到所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例。
本发明实施例提供的识别驾驶状态、驾驶人的方法及装置,待识别客户端设备利用驾驶状态检测模型参数确定自身所处的状态是否为驾驶状态。当利用多组待训练运动数据训练驾驶状态检测模型,该多组待训练运动数据中包含客户端设备所对应的车辆在多种行驶速度场景下的数据时,若待识别客户端设备(例如,手机)的某一运动速度为该多种行驶速度中的值,则待识别客户端设备利用本发明实施例提供的识别驾驶状态的方法能够有效识别出自身所处的状态是否为驾驶状态。与现有技术相比,能够提高识别精确度。当待识别客户端设备确定自身处于驾驶状态时,待识别客户端设备可以利用驾驶人识别模型参数确定自身所属的用户是否为驾驶人。因此,可以解决现有技术中的手机利用单一的速度阈值判断手机处于驾驶状态后,无法确定手机所属的用户是否为驾驶人的问题。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例一提供的一种识别驾驶状态的方法的流程图;
图2为本发明实施例1提供的一种训练驾驶状态检测模型的方法的流程图;
图3为本发明实施例2提供的一种识别驾驶状态的方法的流程图;
图4为本发明实施例二提供的一种识别驾驶人的方法的流程图;
图5为本发明实施例3提供的一种训练驾驶人识别模型的方法的流程图;
图6为本发明实施例4提供的一种识别驾驶人的方法的流程图;
图7为本发明实施例三提供的一种待识别客户端设备的结构示意图;
图8为本发明实施例三提供的又一种待识别客户端设备的结构示意图;
图9为本发明实施例四提供的一种待识别客户端设备的结构示意图;
图10为本发明实施例五提供的一种待识别客户端设备的结构示意图;
图11为本发明实施例五提供的又一种待识别客户端设备的结构示意图;
图12为本发明实施例六提供的一种待识别客户端设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的识别驾驶状态的方法可以应用在驾驶技术领域中,例如:智能驾驶领域、辅助驾驶领域等。
实施例一
本发明实施例提供一种识别驾驶状态的方法,如图1所示,包括:
101、待识别客户端设备获取自身的多组待识别运动数据;其中,所述多组待识别运动数据包括驾驶数据或非驾驶数据。
步骤101具体实现时可以为:待识别客户端设备实时获取多组待识别运动数据。其中,多组待识别运动数据可以包括线速度、角速度、加速度等,待识别客户端设备可以通过获取内置的速度传感器、加速度传感器、磁通传感器等运动传感器的读数的方式获取自身的多组待识别运动数据。需要说明的是,客户端设备的运动状态与其所属的用户的运动状态相同,因此本发明实施例中将用户的运动数据也称为客户端设备的运动数据。
102、利用所述多组待识别运动数据和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态;其中,所述驾驶状态检测模型参数为利用多组待训练运动数据和所述每组待训练运动数据对应的真实行为标识训练得到的模型参数,所述多组待训练运动数据包括驾驶数据和非驾驶数据。
具体的,“驾驶状态检测模型”是指用于检测客户端设备是否处于驾驶状态的模型。驾驶状态检测模型可以通过服务端设备训练得到,也可以通过客户端设备训练得到,训练驾驶状态检测模型的方法可以参见实施例1。示例性的,当驾驶状态检测模型通过服务端设备训练得到时,在步骤102之前,所述方法还可以包括:待识别客户端设备接收服务端设备发送的驾驶状态检测模型参数。
其中,“多组待训练运动数据”可以为同一用户的多组待训练运动数据,也可以为不同用户的多组待训练运动数据;具体的,驾驶行为对应的待训练运动数据为驾驶数据,非驾驶行为对应的待训练运动数据为非驾驶数据。优选的,该多组待训练运动数据的数量越多,多组待训练运动数据对应的运动行为越多,多组待训练运动数据对应的用户越多,客户端设备利用该驾驶状态检测模型参数确定的自身是否处于驾驶状态的结果越准确。
“每组待训练运动数据”具体可以包括线速度、角速度、加速度等。服务端设备获取待训练运动数据的方式可以有多种,本发明实施例并不对其进行限制;例如,服务端设备可以接收来自不同客户端设备主动发送的待训练运动数据,也可以预先获取不同客户端设备的待训练运动数据。
“多组待测试运动数据”可以为上述多组待训练运动数据,也可以为服务端设备重新获取的多组待测试运动数据。
“运动数据对应的真实行为”可以为走路、跑步、跳跃、静止坐、静止站和驾驶等行为;其中,走路、跑步、跳跃等行为属于动态行为,静止坐、静止站和驾驶等行为属于静态行为。不同的行为对应不同的行为标识,该行为标识可以为行为编号,例如:行为编号1代表的行为可以为走路,行为编号2代表的行为可以为跑步等;行为标识也可以为其他用于区别不同行为的标识,本发明实施例不对行为标识的表示方法进行限制。
可选的,步骤102具体实现时可以通过以下步骤1)-2)
1)从所述多组待识别运动数据提取多个目标特征向量序列;其中,每组待识别运动数据对应一个目标特征向量序列;所述目标特征向量序列对应的特征与训练驾驶状态检测模型过程中使用的目标特征向量序列对应的特征相同。
2)利用所述多个目标特征向量序列和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态。
需要说明的是,目标特征向量序列可以是一个矩阵,矩阵的每行对应一个目标特征向量,也就是说,每个目标特征向量序列由多个目标特征向量组成。
示例性的,步骤1)在具体实现时可以为:对多组待识别运动数据进行预处理及特征提取;具体可以为:对多组待识别运动数据进行重采样;将经重采样后的多组待识别运动数据(该多组待识别运动数据为手机局部坐标系下的多组待识别运动数据)变换为世界坐标系下的多组待识别运动数据;为多组待识别运动数据中的每组待识别运动数据加窗(每组待识别运动数据可以加多个窗口),针对每个窗口提取一个目标特征向量,每组待识别运动数据得到一个目标特征向量序列。
需要说明的是,每个目标特征向量序列都有多个维度,每个维度对应一个特征,利用多组待训练运动数据和每组待训练运动数据对应的真实行为标识训练驾驶状态检测模型的过程中,需要对多组待训练运动数据进行预处理、特征提取和特征选择,得到目标特征向量序列;步骤1)在具体实现时,目标特征向量序列对应的特征与训练驾驶状态检测模型过程中使用的目标特征向量序列对应的特征相同。
其中,对多组待训练运动数据进行特征选择所使用的特征选择算法可以为mRMR(Minimum Redundancy Maximum Relevance,最小冗余最大相关)算法、SFS(Sequential Forward Selection,序列前向选择)算法和SVM(Support Vector Machine,支持向量机)算法等。通过特征选择算法从特征向量序列中选择特征得到目标特征向量序列的过程可参考现有技术,在此不再过多阐述。
可选的,所述多组待训练运动数据包括动态行为数据和静态行为数据,所述静态行为数据包括驾驶数据;所述驾驶状态检测模型参数包括:分类器模型参数和矫正器模型参数;所述分类器模型为利用所述动态行为数据和所述静态行为数据训练得到的参数模型,用于区分动态行为和静态行为;所述矫正器模型为利用所述分类器模型识别出的多组待测试运动数据对应的行为标识和所述多组待测试运动数据对应的真实行为标识训练得到的参数模型,用于矫正所述分类器模型识别出的行为标识;该情况下,步骤102具体实现时可以通过以下步骤(1)-(3):
(1)利用所述多组待识别运动数据对应的多个目标特征向量序列和所述分类器模型参数对所述多组待识别运动数据进行识别,得到所述分类器模型识别出的行为标识;
(2)利用所述分类器模型识别出的行为标识和所述矫正器模型参数,得到所述矫正器模型矫正的行为标识;
(3)当所述矫正器模型矫正的行为标识代表驾驶行为时,确定自身所处的状态为驾驶状态;当所述矫正器模型矫正的行为标识代表非驾驶行为时,确定自身所处的状态为非驾驶状态。
其中,“动态行为数据”是指动态行为对应的待训练运动数据,例如,走路、跑步或跳跃等行为对应的待训练运动数据,“静态行为数据”是指静态行为对应的待训练运动数据,例如,静止坐、静止站或驾驶等行为对应的待训练运动数据。在具体实现时,可以为所有的动态行为数据对应一个行为标识,为所有的静态行为数据对应另一个行为标识。
需要说明的是,由于步骤2中的“分类器模型识别出的行为标识”可能是待识别运动数据对应的真实行为标识,也可能不是待识别运动数据对应的真实行为标识;也就是说,分类器模型识别出的行为标识可能不准确;因此,为了提高识别准确率,客户端设备还需要通过矫正器模型来矫正分类器模型识别出的行为标识。
示例性的,矫正器模型可以为HMM模型;具体的,当矫正器模型为HMM模型时,矫正器模型参数(即HMM模型参数)为初始分布向量、观测分布矩阵和转移矩阵,HMM模型的训练方法可参见现有技术,在此不再过多阐述。
具体的,步骤(2)具体实现时可以为:根据分类器模型识别出的行为标识,使用Viterbi算法(一种译码算法)求解最优隐含状态序列,将最优隐含状态序列中的最后一个隐含状态或者最优隐含状态序列中出现次数最多的隐含状态对应的行为标识作为矫正器模型矫正的行为标识。
另外,若确定待识别客户端设备所处的状态为驾驶状态时,在步骤102之后,所述方法还可以包括:弹出“是否进入驾驶状态”的窗口,用于使待识别客户端设备所属的用户选择是否进入驾驶状态,若用户选择“是”,则对待识别客户端设备处在驾驶状态期间的业务自动回复,并在待识别客户端设备退出驾驶状态后显示该业务。
可选的,所述分类器模型参数包括二分类器模型参数、静态行为分类器模型参数和动态行为分类器模型参数;其中,所述二分类器模型为利用所述动态行为数据和所述静态行为数据训练得到的参数模型,用于区分动态行为和静态行为;所述动态分类器模型为利用所述动态行为数据训练得到的参数模型,用于区分不同的动态行为;所述静态行为分类器模型参数为利用所述静态行为数据训练得到的参数模型,用于区分不同的静态行为。
其中,“不同的动态行为”至少包含两种动态行为;例如,动态行为可以为走路、跑步、跳跃等;“不同的静态行为”包括驾驶行为和其他静态行为;例如,其他静态行为可以为静止坐、静止站等。
具体的,二分类器模型和静态行为分类器模型可以为QDA(quadratic discriminant analysis,二次判别分析)、SVM(Support VectorMachine,支持向量机)等,动态行为分类器模型可以为AdaBoost(自适应增强,一种分类方法)模型、HMM/GMM混合模型(HMM,英文全称为Hidden Markov Model,意为隐马尔可夫模型;GMM,英文全称为Gaussian Mixture Model,意为高斯混合模型)等,这些模型的训练方法可参见现有技术,在此不再过多阐述。
本发明实施例提供的识别驾驶状态的方法,待识别客户端设备利用驾驶状态检测模型参数确定自身所处的状态是否为驾驶状态。当利用多组待训练运动数据训练驾驶状态检测模型,该多组待训练运动数据中包含客户端设备所对应的车辆在多种行驶速度场景下的数据时,若待识别客户端设备(例如,手机)的某一运动速度为该多种行驶速度中的值,则待识别客户端设备利用本发明实施例提供的识别驾驶状态的方法能够有效识别出自身所处的状态是否为驾驶状态。与现有技术相比,能够提高识别精确度。
实施例1
本实施例具体以服务端设备训练驾驶状态检测模型为例对训练驾驶状态检测模型的过程进行示例性说明,本实施例的相关解释可参见上述实施例,该实施例中的行为标识为行为编号。如图2所示,该方法主要包括以下步骤:
201、服务端设备获取手机的n组待训练运动数据和每组待训练运动数据对应的真实行为编号作为n组待训练运动数据。
需要说明的是,本实施例中的相关解释可参见上述实施例。
需要说明的是,服务端设备获取手机的运动数据的前提为:手机与手机所属的用户的运动状态相同。当手机所属的用户处于运动状态时,服务端设备通过获取手机内置的加速度传感器、角速度传感器和磁通传感器等运动传感器的读数来获取运动数据,该运动数据具体可以为速度、加速度和角速度等。
具体的,步骤201在具体实现时,可以通过以下方式实现:用户设定自身的行为;当用户在进行该行为时,使自身的手机与自身所处的状态相同,将该状态下的手机内置的加速度传感器、角速度传感器和磁通传感器等运动传感器的读数上传给服务端设备,服务端设备将该读数作为该手机的该行为的运动数据;服务端设备将得到的多个手机的多个行为的运动数据作为n组待训练运动数据。
例如,对于手机A来说,服务端设备获取了手机A的4个行为的运动数据,得到4组运动数据,将该4组运动数据作为4组待训练运动数据;每组待训练运动数据对应的真实行为编号及真实行为编号对应的行为如表1所示。
表1
待训练的运动数据 真实行为编号 行为编号对应的行为
第1组 1 走路
第2组 2 跑步
第3组 3 静止站
第4组 4 驾驶
还需要说明的是,步骤201在具体实现时会获取多个用户的多个行为对应的运动数据,基于表1的示例只是示例性说明。
202、对n组待训练运动数据进行预处理及特征提取,得到n个特征向量序列;其中,每组待训练运动数据对应一个特征向量序列。
需要说明的是,每个特征向量序列都有其对应的行为编号,该行为编号即特征向量序列对应的运动数据对应的行为编号。特征向量序列可以是一个矩阵,矩阵的每行对应一个特征向量,也就是说,每个特征向量序列由多个特征向量组成。
示例性的,步骤202在具体实现时可以为:对多组待识别运动数据进行预处理及特征提取;具体可以为:对多组待识别运动数据进行重采样;将经重采样后的多组待识别运动数据(该多组待识别运动数据为手机局部坐标系下的多组待识别运动数据)变换为世界坐标系下的多组待识别运动数据;为多组待识别运动数据中的每组待识别运动数据加窗(每组待识别运动数据可以加多个窗口),针对每个窗口提取一个特征向量,每组待识别运动数据得到一个特征向量序列。
基于步骤201中的示例,对表1中的待训练的运动数据进行预处理及特征提取后,可以得到4个特征向量序列;待训练的运动数据与特征向量序列及特征向量序列对应的行为编号如表2所示。
表2
203、按照mRMR算法从n个特征向量序列中选择n个目标特征向量序列;其中,目标特征向量序列的维度数小于特征向量序列的维度数。
具体的,特征向量序列具有s个维度,经过mRMR算法选择后的目标特征向量序列,具有m个维度;其中,s>m,s、m均为正整数;目标特征向量序列由多个目标特征向量组成。
204、利用动态行为数据对应的目标特征向量序列及该目标特征向量序列对应的行为编号(可以为5,表示动态行为),和,静态行为数据对应的目标特征向量序列及该目标特征向量序列对应的行为编号(可以为6,表示静态行为)训练第一QDA模型,得到第一QDA模型参数,该第一QDA模型用于区分动态行为和静态行为。
基于步骤202中的示例,步骤204具体实现时可以为:为动态行为数据对应的目标特征向量序列1、2对应一个行为编号5,为静态行为数据对应的目标特征向量序列3、4对应一个行为编号6;利用目标特征向量序列1、2(动态行为数据对应的目标特征向量序列)及该目标特征向量序列1、2对应的行为编号(5,表示动态行为),和,目标特征向量序列3、4(静态行为数据对应的目标特征向量)及该目标特征向量序列3、4对应的行为编号(6,表示静态行为)训练第一QDA模型,得到第一QDA模型参数。
205、利用动态行为数据对应的目标特征向量序列及该目标特征向量序列对应的行为编号训练AdaBoost模型和HMM/GMM混合模型,得到AdaBoost模型参数和HMM/GMM混合模型参数。
其中,AdaBoost模型和HMM/GMM混合模型用于区分走路、跑步和跳跃等不同的动态行为。
基于步骤202中的示例,步骤205具体实现时可以为:利用目标特征向量序列1及其对应的行为编号,和,目标特征向量序列2及其对应的行为编号训练AdaBoost模型和HMM/GMM混合模型,得到AdaBoost模型参数和HMM/GMM混合模型参数。
206、利用静态行为数据对应的目标特征向量序列及该目标特征向量序列对应的行为编号训练第二QDA模型,得到第二QDA模型参数,该第二QDA模型用于区分驾驶行为和其他静态行为。
基于步骤202中的示例,步骤206具体实现时可以为:利用目标特征向量序列3及其对应的行为编号,和,目标特征向量序列4及其对应的行为编号训练第二QDA模型,得到第二QDA模型参数。
步骤205与步骤206的执行顺序不分先后。
207、将n个目标特征向量序列分为10等份,将10等份中的9等份对应的目标特征向量序列经分类器模型识别出9等份对应的目标特征向量序列对应的行为编号。
208、根据识别出的行为编号和9等份对应的目标特征向量序列对应的真实行为编号训练HMM模型,得到HMM模型参数,并用10等份中的另一等份对应的目标特征向量序列测试HMM模型,该HMM模型用于矫正分类器模型识别出的行为编号。
具体的,步骤208在具体实现时,将分类器模型识别出的行为编号作为观测状态,真实的行为编号作为隐含状态训练HMM模型,得到HMM模型参数;该模型参数具体为初始分布向量、观测分布矩阵和转移矩阵,HMM模型的训练方法可参见现有技术,在此不再过多阐述。
步骤204-207为服务端设备训练驾驶状态检测模型的具体过程。其中,步骤204-206为服务端训练分类器模型,得到分类器模型参数的过程;步骤207为服务端设备训练矫正器模型的具体过程。具体的,驾驶状态检测模型参数可以包括分类器模型参数和矫正器模型参数(HMM模型参数);进一步的,分类器模型参数可以包括二分类器模型参数(第一QDA模型参数)、动态行为分类器模型参数(AdaBoost模型参数和HMM/GMM混合模型参数)和静态行为分类器模型参数(第二QDA模型参数)。
209、服务端设备将驾驶状态检测模型参数及手机软件下发给客户端设备。
本发明实施例提供的识别驾驶状态的方法,服务端设备利用多组待训练运动数据训练驾驶状态检测模型,当该多组待训练运动数据中包含客户端设备所对应的车辆在多种行驶速度场景下的数据时,若待识别客户端设备(例如,手机)的某一运动速度为该多种行驶速度中的值,则待识别客户端设备利用本发明实施例提供的识别驾驶状态的方法能够有效识别出自身所处的状态是否为驾驶状态。与现有技术相比,能够提高识别精确度。
实施例2
本实施例主要描述待识别手机利用驾驶状态检测模型参数确定自身所处的状态是否为驾驶状态的过程,本实施例的相关解释可参见上述实施例,该实施例中的行为标识为行为编号。如图3所示,该方法主要包括以下步骤:
301、待识别手机接收服务端设备发送的驾驶状态检测模型参数和手机软件。
具体的,驾驶状态检测模型参数可以包括分类器模型参数和矫正器模型参数;进一步的,分类器模型参数可以包括AdaBoost模型参数和HMM/GMM混合模型参数、第一QDA模型参数和第二QDA模型参数;矫正器模型参数可以为HMM模型参数。具体的,该驾驶状态检测模型的训练方法可参见实施例二。
302、待识别手机利用内置的运动传感器实时获取多组待识别运动数据,对多组待识别运动数据进行预处理、特征提取得到目标特征向量序列。
需要说明的是,待识别手机对多组待识别运动数据进行预处理的方式与服务端设备对多组待识别运动数据进行预处理的方式相同,具体可参见实施例1;而对多组待识别运动数据进行特征提取时只需要提取服务端设备经过特征选择算法选择出的特征。
303、调用第一QDA模型参数对目标特征向量序列进行识别,识别该目标特征向量序列对应的行为是否为动态行为。
若是,则执行步骤304;若否,则执行步骤305。
304、调用AdaBoost模型参数和HMM/GMM混合模型参数对目标特征向量序列进行识别,识别该目标特征向量序列对应的具体的动态行为。
305、调用第二QDA模型参数对目标特征向量序列进行识别,识别该目标特征向量序列对应的静态行为为驾驶行为还是其他静态行为。
306、调用HMM模型参数对分类器模型(AdaBoost模型和HMM/GMM混合模型或者第二QDA模型)的识别结果进行矫正,当HMM模型矫正的行为编号代表驾驶行为时,确定自身所处的状态为驾驶状态;当HMM模型矫正的行为编号代表非驾驶行为时,确定自身所处的状态为非驾驶状态。
本发明实施例提供的识别驾驶状态的方法,待识别客户端设备利用驾驶状态检测模型参数确定自身所处的状态是否为驾驶状态。当利用多组待训练运动数据训练驾驶状态检测模型,该多组待训练运动数据中包含客户端设备所对应的车辆在多种行驶速度场景下的数据时,若待识别客户端设备(例如,手机)的某一运动速度为该多种行驶速度中的值,则待识别客户端设备利用本发明实施例提供的识别驾驶状态的方法能够有效识别出自身所处的状态是否为驾驶状态。与现有技术相比,能够提高识别精确度。
实施例二
本发明实施例提供了一种识别驾驶人的方法,如图4所示,包括:
401、待识别客户端设备获取自身的多组待识别驾驶数据。
“驾驶数据”具体可以为车辆在进行加速、减速或转弯等运动时客户端设备的内置的运动传感器采集得到的数据。每组预设驾驶数据至少包含加速、减速或转弯等驾驶数据。具体的,“多组待识别驾驶数据”可以为步骤101中的“多组待识别运动数据”,也可以为待识别客户端设备重新获取的多组待识别驾驶数据。
402、利用所述多组待识别驾驶数据和所述待识别客户端设备的驾驶人识别模型参数确定自身所属的用户为驾驶人或乘客;其中,所述驾驶人识别模型参数为将所述待识别客户端设备的预设驾驶数据作为正例、其他客户端设备的预设驾驶数据作为反例,训练得到的模型参数。
具体的,“驾驶人识别模型”用于客户端设备确定自身处于驾驶状态后,进一步确定自身所属的用户是否为驾驶人。驾驶人识别模型可以通过服务端设备训练得到,也可以通过客户端设备训练得到,训练驾驶人识别模型的方法可以参见实施例3。
示例性的,当驾驶人识别模型通过服务端设备训练得到时,在步骤402之前,所述方法还可以包括:待识别客户端设备接收服务端设备发送的驾驶人识别模型参数。
可选的,步骤402具体实现时可以包括以下步骤1)-2):
1)从所述多组待识别驾驶数据提取多个第一目标特征向量序列;其中,每组待识别驾驶数据对应一个第一目标特征向量序列;所述第一目标特征向量序列对应的特征与训练驾驶人识别模型过程中使用的目标特征向量序列对应的特征相同;
2)利用所述多个第一目标特征向量序列和驾驶人识别模型参数确定自身所属的用户为驾驶人或乘客。
需要说明的是,每个特征向量序列由多个特征向量组成,每个第一目标特征向量序列由多个第一目标特征向量组成。
步骤1)具体实现可以为:对多组预设驾驶数据进行预处理及特征提取;该预处理及特征提取的方式与实施例一中的客户端设备对多组待识别运动数据进行预处理及特征提取的方式相同。
可选的,所述驾驶人识别模型参数包括决策阈值模型参数;其中,所述决策阈值模型参数为利用多个第二目标特征向量序列对应的正例标识在邻域中所占比例,和所述多个第二目标特征向量序列对应的正/反例标识训练得到的模型参数;所述第二目标特征向量序列为所述预设驾驶数据对应的目标特征向量序列;该情况下,步骤402具体实现时可以包括以下步骤(1)-(2):
(1)根据所述多个第一目标特征向量序列获取所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例;
(2)当所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例大于或等于所述决策阈值模型参数时,确定自身所属的用户为驾驶人;当所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例小于所述决策阈值模型参数时,确定自身所属的用户为乘客。
其中,第二目标特征向量序列是指待识别客户端设备的预设驾驶数据和其他客户端设备的预设驾驶数据对应的目标特征向量序列。
可选的,所述驾驶人识别模型参数还包括最邻近结点算法KNN模型参数;其中,所述KNN模型参数为利用所述多个第二目标特征向量序列训练KNN得到的模型参数;该情况下,步骤(1)具体实现时可以包括:
根据所述KNN模型参数对所述多个第一目标特征向量序列进行识别,得到所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例。
具体的,驾驶人识别模型参数还可以包括GMM-UBM模型参数;GMM-UBM模型参数为利用训练集中的第二目标特征向量序列训练得到的模型参数;训练集中的第二目标特征向量序列中的一部分第二目标特征向量序列为待识别客户端设备的预设驾驶数据对应的目标特征向量序列,另一部分为其他客户端设备的预设驾驶数据对应的目标特征向量序列;该情况下,在步骤(2)之前,该方法可以包括以下步骤①-②:
①、利用多个第一目标特征向量序列和每个特征通道上的GMM-UBM模型参数得到每个特征通道上认证成功(即自身所属的用户为驾驶员)的似然序列。
②、利用每个特征通道上认证成功的似然序列和KNN模型参数,得到正例标识在邻域中所占比例。
需要说明的是,每个目标特征向量序列中的每个目标特征向量均有多个维度,一个维度对应一个特征;一个特征对应一个特征通道;另外,第二目标特征向量序列对应的每个特征通道上认证成功的GMM-UBM似然序列中的似然与第二目标特征向量序列中的第二目标特征向量一一对应。另外,还可以通过训练GMM模型得到第二目标特征向量序列对应的每个特征通道上认证成功的似然序列。
具体的,为了提高最终识别结果的精确度,驾驶人识别模型参数还可以包括双阈值模型参数;双阈值模型参数为利用验证集中的第二目标特征向量序列训练得到的模型参数;验证集中的第二目标特征向量序列为训练集之外的待识别客户端设备和其他客户端设备的预设驾驶数据对应的目标特征向量序列;并且,训练集中的待识别客户端设备的预设驾驶数据对应的目标特征向量序列与其他客户端设备的预设驾驶数据对应的目标特征向量序列的比例,与验证集中的待识别客户端设备的预设驾驶数据对应的目标特征向量序列与其他客户端设备的预设驾驶数据对应的目标特征向量序列的比例相同;该情况下,在步骤②之前,所述方法还包括:
利用所述每个特征通道上认证成功的似然序列和双阈值模型参数,剔除多个特征通道上识别能力低的目标特征向量;该情况下,步骤②可以包括:利用所述剔除识别能力低的第一目标特征向量后的所述第一目标特征向量序列对应的每个特征通道上认证成功的似然序列和所述KNN模型参数,得到正例标识在邻域中所占比例。
本发明实施例提供的识别驾驶人的方法,当待识别客户端设备确定自身处于驾驶状态时,待识别客户端设备可以利用驾驶人识别模型参数确定自身所属的用户是否为驾驶人。因此,可以解决现有技术中的手机利用单一的速度阈值判断手机处于驾驶状态后,无法确定手机所属的用户是否为驾驶人的问题。
实施例3
本实施例主要描述服务端设备训练驾驶人识别模型的过程,本实施例中的目标特征向量序列是指上述实施例中的第二目标特征向量序列,如图5所示,该方法主要包括以下步骤:
501、服务端设备获取q+p组驾驶数据,其中p组驾驶数据为其他手机的驾驶数据,q组驾驶数据为待识别手机的驾驶数据。
步骤501的具体实现方法可参见上述实施例。
502、将p组驾驶数据作为反例,并添加反例标识;将q组驾驶数据作为正例,并添加正例标识。
503、对q+p组驾驶数据进行预处理和特征提取得到q+p个目标特征向量序列。
步骤503的具体实现方法可参见实施例1中的步骤201和202。
504、将q+p个目标特征向量序列按照7︰3的比例划分为训练集和验证集;其中,训练集占10份中的7份,验证集占10份中的3份。
具体的,训练集内的添加正例标识的目标特征向量序列的个数和添加反例标识的目标特征向量序列的个数的比例与验证集内的添加正例标识的目标特征向量序列的个数和添加反例标识的目标特征向量序列的个数的比例相同。
505、利用训练集中的各个特征通道上的目标特征向量序列及其对应的标识,训练各个特征通道上的GMM-UBM模型,得到GMM-UBM模型参数;该GMM-UBM模型用于在各个特征通道上识别手机所属的用户为驾驶人或乘客。
GMM-UBM模型的训练方法可参见现有技术,在此不再过多阐述。
506、利用验证集中的目标特征向量序列经GMM-UBM模型识别后得到的各个特征通道上的识别成功(即手机所属的用户为驾驶人)的似然序列及其对应的标识训练双阈值模型,得到双阈值模型参数;该双阈值模型用于剔除识别能力低的目标特征向量。
需要说明的是,目标特征向量序列经GMM-UBM模型识别后得到的各个通道上的识别成功的似然序列对应的标识与该目标特征向量序列对应的标识相同。
具体的,步骤506具体可以通过以下步骤实现:(1)将单个目标特征向量序列中的每个目标特征向量对应的各个特征通道上的目标特征向量序列经GMM-UBM模型识别后得到的各个特征通道上的识别成功的似然序列作为该目标特征向量序列在该特征通道上的评分;(2)计算多个目标特征向量序列在该特征通道上的评分的均值和方差,并使用sigmoid函数进行评分归一化;(3)将多个目标特征向量序列在各个特征通道上的经评分归一化后的评分计算均值,采用该均值做单阈值决策,计算等错误率对应的决策阈值t;(4)将各个特征通道上的经评分归一化后的评分均减去t后取绝对值;(5)按照该绝对值剔除部分目标特征向量;(6)将剔除部分目标特征向量后的目标特征向量序列再次计算步骤(3)中的等错误率;(7)枚举双阈值决策允许的拒绝决策率,得到使等错误率最小的双阈值。
507、利用剔除部分目标特征向量后的目标特征向量序列经GMM-UBM模型识别后得到的各个特征通道上的识别成功的似然序列及其对应的标识训练KNN模型,得到KNN模型参数。
具体的,步骤507具体可以通过以下步骤实现:(1)将单个目标特征向量序列中的每个目标特征向量对应的各个特征通道上的目标特征向量序列经GMM-UBM模型识别后得到的各个特征通道上的识别成功的似然序列作为该目标特征向量序列在该特征通道上的评分;(2)计算多个目标特征向量序列在该特征通道上的评分的均值和方差,并使用sigmoid函数进行评分归一化;(3)将各个特征通道上的经评分归一化后的评分作为KNN算法的特征向量,训练KNN模型,其中KNN模型的训练方法可参见现有技术在此不再过多阐述。
508、利用剔除部分目标特征向量后的验证集中的目标特征向量序列经KNN模型识别后得到的正例标识在邻域中所占比例以及特征向量序列对应的标识训练均值投票模型,得到均值投票模型参数。
具体的,步骤508具体可以通过以下步骤实现:将剔除部分目标特征向量后的验证集中的目标特征向量序列经KNN模型识别后得到的正例标识在邻域中所占比例计算均值,采用该均值做单阈值决策,计算等错误率对应的决策阈值,该决策阈值即均值投票模型参数。
步骤501-508为服务端设备训练驾驶人识别模型的具体过程。具体的,驾驶人识别模型参数可以包括GMM-UBM模型参数、双阈值模型参数、KNN模型参数和均值投票模型参数。
509、服务端设备将驾驶状态检测模型参数及手机软件下发给客户端设备。
本发明实施例提供的识别驾驶人的方法,服务端设备利用多组待训练运动数据训练驾驶状态检测模型,当待识别客户端设备确定自身处于驾驶状态时,待识别客户端设备可以利用驾驶人识别模型参数确定自身所属的用户是否为驾驶人。因此,可以解决现有技术中的手机利用单一的速度阈值判断手机处于驾驶状态后,无法确定手机所属的用户是否为驾驶人的问题。
实施例4
本实施例主要描述客户端设备利用驾驶人识别模型参数识别自身所属的用户是否为驾驶人的过程,本实施例的相关解释可参见上述实施例,该实施例中的目标特征向量序列是指第二目标特征向量序列,行为标识为行为编号。如图6所示,该方法主要包括以下步骤:
601、待识别手机接收服务端设备发送的驾驶人识别模型参数和手机软件。
具体的,驾驶人识别模型参数可以包括GMM-UBM模型参数、双阈值模型参数、KNN模型参数和均值投票模型参数。
602、确定自身处于驾驶状态后,调用GMM-UBM模型参数在各个特征通道上对目标特征向量序列进行识别,得到识别成功(即自身所属的用户为驾驶员)的似然序列。
具体的,待识别手机确定自身是否处于驾驶状态的方法可以参见上述实施例一或者实施例2。
603、调用双阈值模型参数对步骤602得到的似然序列进行识别,将输出拒绝决策的似然序列中的似然对应的目标特征向量剔除。
调用双阈值模型参数对步骤602得到的单个似然序列进行识别时,每个似然序列中的似然可能得到三种识别结果:识别成功,识别失败或拒绝决策。
604、调用KNN模型参数并利用剔除部分目标特征向量后的目标特征向量序列计算正例标识在邻域中所占比例。
605、调用均值投票模型参数识别正例标识在邻域中所占比例,得到识别结果。
具体的,当步骤605中得到的比例大于均值投票模型参数则输出识别成功,代表当前自身所属的用户为驾驶员;当步骤605中得到的比例小于均值投票模型参数则输出识别失败,代表当前自身所属的用户为乘客。
本发明实施例提供的识别驾驶人的方法,当待识别客户端设备确定自身处于驾驶状态时,待识别客户端设备可以利用驾驶人识别模型参数确定自身所属的用户是否为驾驶人。因此,可以解决现有技术中的手机利用单一的速度阈值判断手机处于驾驶状态后,无法确定手机所属的用户是否为驾驶人的问题。
实施例三
本发明实施例提供一种待识别客户端设备70,用以执行图1所示的识别驾驶状态的方法,如图7所示,该待识别客户端设备70包括:获取单元701、确定单元702;其中:
获取单元701,用于获取自身的多组待识别运动数据;其中,所述多组待识别运动数据包括驾驶数据或非驾驶数据。
确定单元702,用于利用所述多组待识别运动数据和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态;
其中,所述驾驶状态检测模型参数为利用多组待训练运动数据和所述每组待训练运动数据对应的真实行为标识训练得到的模型参数,所述多组待训练运动数据包括驾驶数据和非驾驶数据。
可选的,如图8所示,所述待识别客户端设备70还包括:
提取单元703,用于从所述多组待识别运动数据提取多个目标特征向量序列;其中,每组待识别运动数据对应一个目标特征向量序列;所述目标特征向量序列对应的特征与训练驾驶状态检测模型过程中使用的目标特征向量序列对应的特征相同。
所述确定单元702,还用于利用所述多个目标特征向量序列和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态。
可选的,所述多组待训练运动数据包括动态行为数据和静态行为数据,所述静态行为数据包括驾驶数据;所述驾驶状态检测模型参数包括:分类器模型参数和矫正器模型参数;所述分类器模型为利用所述动态行为数据和所述静态行为数据训练得到的参数模型,用于区分动态行为和静态行为;所述矫正器模型为利用所述分类器模型识别出的多组待测试运动数据对应的行为标识和所述多组待测试运动数据对应的真实行为标识训练得到的参数模型,用于矫正所述分类器模型识别出的行为标识;所述确定单元702包括:
识别单元7021,用于利用所述多组待识别运动数据对应的多个目标特征向量序列和所述分类器模型参数对所述多组待识别运动数据进行识别,得到所述分类器模型识别出的行为标识。
矫正单元7022,用于利用所述分类器模型识别出的行为标识和所述矫正器模型参数,得到所述矫正器模型矫正的行为标识。
所述确定单元702,具体用于当所述矫正器模型矫正的行为标识代表驾驶行为时,确定自身所处的状态为驾驶状态;当所述矫正器模型矫正的行为标识代表非驾驶行为时,确定自身所处的状态为非驾驶状态。
可选的,所述分类器模型参数包括二分类器模型参数、静态行为分类器模型参数和动态行为分类器模型参数;其中,所述二分类器模型为利用所述动态行为数据和所述静态行为数据训练得到的参数模型,用于区分动态行为和静态行为;所述动态分类器模型为利用所述动态行为数据训练得到的参数模型,用于区分不同的动态行为;所述静态行为分类器模型为利用所述静态行为数据训练得到的参数模型,用于区分不同的静态行为。
本发明实施例提供的待识别客户端设备,利用驾驶状态检测模型参数确定自身所处的状态是否为驾驶状态。当利用多组待训练运动数据训练驾驶状态检测模型,该多组待训练运动数据中包含客户端设备所对应的车辆在多种行驶速度场景下的数据时,若待识别客户端设备(例如,手机)的某一运动速度为该多种行驶速度中的值,则待识别客户端设备利用本发明实施例提供的识别驾驶状态的方法能够有效识别出自身所处的状态是否为驾驶状态。与现有技术相比,能够提高识别精确度。
实施例四
在硬件实现上,实施例三中的各个单元可以以硬件形式内嵌于或独立于待识别客户端设备的处理器中,也可以以软件形式存储于待识别客户端设备的存储器中,以便于处理器调用执行以上各个单元对应的操作,该处理器可以为中央处理单元(CPU)、微处理器、单片机等。
如图9所示,为本发明实施例提供的待识别客户端设备90,用以执行图1所示的识别驾驶状态的方法,该待识别客户端设备90包括:存储器901、处理器902和总线系统903。
其中,存储器901和处理器902之间是通过总线系统903耦合在一起的,其中总线系统903除包括数据总线之外,还可以包括电源总线、控制总线和状态信号总线等。但是为了清楚说明起见,在图中将各种总线都标为总线系统903。
存储器901,用于存储一组代码。
存储器901中存储的代码用于控制处理器902执行以下动作:
获取自身的多组待识别运动数据;其中,所述多组待识别运动数据包括驾驶数据或非驾驶数据;
利用所述多组待识别运动数据和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态;
其中,所述驾驶状态检测模型参数为利用多组待训练运动数据和所述每组待训练运动数据对应的真实行为标识训练得到的模型参数,所述多组待训练运动数据包括驾驶数据和非驾驶数据。
可选的,所述处理器902还用于:
从所述多组待识别运动数据提取多个目标特征向量序列;其中,每组待识别运动数据对应一个目标特征向量序列;所述目标特征向量序列对应的特征与训练驾驶状态检测模型过程中使用的目标特征向量序列对应的特征相同;
利用所述多个目标特征向量序列和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态。
可选的,所述多组待训练运动数据包括动态行为数据和静态行为数据,所述静态行为数据包括驾驶数据;所述驾驶状态检测模型参数包括:分类器模型参数和矫正器模型参数;所述分类器模型为利用所述动态行为数据和所述静态行为数据训练得到的参数模型,用于区分动态行为和静态行为;所述矫正器模型为利用所述分类器模型识别出的多组待测试运动数据对应的行为标识和所述多组待测试运动数据对应的真实行为标识训练得到的参数模型,用于矫正所述分类器模型识别出的行为标识;所述处理器902还用于:
利用所述多组待识别运动数据对应的多个目标特征向量序列和所述分类器模型参数对所述多组待识别运动数据进行识别,得到所述分类器模型识别出的行为标识;
利用所述分类器模型识别出的行为标识和所述矫正器模型参数,得到所述矫正器模型矫正的行为标识;
当所述矫正器模型矫正的行为标识代表驾驶行为时,确定自身所处的状态为驾驶状态;当所述矫正器模型矫正的行为标识代表非驾驶行为时,确定自身所处的状态为非驾驶状态。
可选的,所述分类器模型参数包括二分类器模型参数、静态行为分类器模型参数和动态行为分类器模型参数;其中,所述二分类器模型为利用所述动态行为数据和所述静态行为数据训练得到的参数模型,用于区分动态行为和静态行为;所述动态分类器模型为利用所述动态行为数据训练得到的参数模型,用于区分不同的动态行为;所述静态行为分类器模型为利用所述静态行为数据训练得到的参数模型,用于区分不同的静态行为。
本发明实施例提供的待识别客户端设备,利用驾驶状态检测模型参数确定自身所处的状态是否为驾驶状态。当利用多组待训练运动数据训练驾驶状态检测模型,该多组待训练运动数据中包含客户端设备所对应的车辆在多种行驶速度场景下的数据时,若待识别客户端设备(例如,手机)的某一运动速度为该多种行驶速度中的值,则待识别客户端设备利用本发明实施例提供的识别驾驶状态的方法能够有效识别出自身所处的状态是否为驾驶状态。与现有技术相比,能够提高识别精确度。
实施例五
本发明实施例提供一种待识别客户端设备100,用以执行图4所示的识别驾驶人的方法,如图10所示,该待识别客户端设备100包括:获取单元1001、确定单元1002;其中:
获取单元1001,用于获取自身的多组待识别驾驶数据;
确定单元1002,用于利用所述多组待识别驾驶数据和所述待识别客户端设备100的驾驶人识别模型参数确定自身所属的用户为驾驶人或乘客;其中,所述驾驶人识别模型参数为将所述待识别客户端设备100的预设驾驶数据作为正例、其他客户端设备的预设驾驶数据作为反例,训练得到的模型参数。
可选的,如图11所示,所述确定单元1002包括:
提取单元10021,用于从所述多组待识别驾驶数据提取多个第一目标特征向量序列;其中,每组待识别驾驶数据对应一个第一目标特征向量序列;所述第一目标特征向量序列对应的特征与训练驾驶人识别模型过程中使用的目标特征向量序列对应的特征相同。
所述确定单元1002,还用于利用所述多个第一目标特征向量序列和驾驶人识别模型参数确定自身所属的用户为驾驶人或乘客。
可选的,所述驾驶人识别模型参数包括决策阈值模型参数;其中,所述决策阈值模型参数为利用多个第二目标特征向量序列对应的正例标识在邻域中所占比例,和所述多个第二目标特征向量序列对应的正/反例标识训练得到的模型参数;所述第二目标特征向量序列为所述预设驾驶数据对应的目标特征向量序列;
所述获取单元1001,还用于根据所述多个第一目标特征向量序列获取所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例;
所述确定单元1002,具体用于当所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例大于或等于所述决策阈值模型参数时,确定自身所属的用户为驾驶人;当所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例小于所述决策阈值模型参数时,确定自身所属的用户为乘客。
可选的,所述驾驶人识别模型参数还包括最邻近结点算法KNN模型参数;其中,所述KNN模型参数为利用所述多个第二目标特征向量序列训练KNN得到的模型参数;
所述获取单元1001包括:
识别单元10011,用于根据所述KNN模型参数对所述多个第一目标特征向量序列进行识别,得到所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例。
本发明实施例提供的待识别客户端设备,确定自身处于驾驶状态时,可以利用驾驶人识别模型参数确定自身所属的用户是否为驾驶人。因此,可以解决现有技术中的手机利用单一的速度阈值判断手机处于驾驶状态后,无法确定手机所属的用户是否为驾驶人的问题。
实施例六
在硬件实现上,实施例五中的各个单元可以以硬件形式内嵌于或独立于待识别客户端设备的处理器中,也可以以软件形式存储于待识别客户端设备的存储器中,以便于处理器调用执行以上各个单元对应的操作,该处理器可以为中央处理单元(CPU)、微处理器、单片机等。
如图12所示,为本发明实施例提供的待识别客户端设备120,用以执行图4所示的识别驾驶人的方法,该待识别客户端设备120包括:存储器1201、处理器1202和总线系统1203。
其中,存储器1201和处理器1202之间是通过总线系统1203耦合在一起的,其中总线系统1203除包括数据总线之外,还可以包括电源总线、控制总线和状态信号总线等。但是为了清楚说明起见,在图中将各种总线都标为总线系统1203。
存储器1201,用于存储一组代码。
存储器1201中存储的代码用于控制处理器1202执行以下动作:
获取自身的多组待识别驾驶数据;
利用所述多组待识别驾驶数据和所述待识别客户端设备100的驾驶人识别模型参数确定自身所属的用户为驾驶人或乘客;其中,所述驾驶人识别模型参数为将所述待识别客户端设备100的预设驾驶数据作为正例、其他客户端设备的预设驾驶数据作为反例,训练得到的模型参数。
可选的,所述处理器1202还用于:
从所述多组待识别驾驶数据提取多个第一目标特征向量序列;其中,每组待识别驾驶数据对应一个第一目标特征向量序列;所述第一目标特征向量序列对应的特征与训练驾驶人识别模型过程中使用的目标特征向量序列对应的特征相同;
利用所述多个第一目标特征向量序列和驾驶人识别模型参数确定自身所属的用户为驾驶人或乘客。
可选的,所述驾驶人识别模型参数包括决策阈值模型参数;其中,所述决策阈值模型参数为利用多个第二目标特征向量序列对应的正例标识在邻域中所占比例,和所述多个第二目标特征向量序列对应的正/反例标识训练得到的模型参数;所述第二目标特征向量序列为所述预设驾驶数据对应的目标特征向量序列;所述处理器1202还用于:
根据所述多个第一目标特征向量序列获取所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例;
当所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例大于或等于所述决策阈值模型参数时,确定自身所属的用户为驾驶人;当所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例小于所述决策阈值模型参数时,确定自身所属的用户为乘客。
可选的,所述驾驶人识别模型参数还包括最邻近结点算法KNN模型参数;其中,所述KNN模型参数为利用所述多个第二目标特征向量序列训练KNN得到的模型参数;所述处理器1202还用于:
根据所述KNN模型参数对所述多个第一目标特征向量序列进行识别,得到所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例。
本发明实施例提供的待识别客户端设备,确定自身处于驾驶状态时,可以利用驾驶人识别模型参数确定自身所属的用户是否为驾驶人。因此,可以解决现有技术中的手机利用单一的速度阈值判断手机处于驾驶状态后,无法确定手机所属的用户是否为驾驶人的问题。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理包括,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (16)

1.一种识别驾驶状态的方法,其特征在于,包括:
待识别客户端设备获取自身的多组待识别运动数据;其中,所述多组待识别运动数据包括驾驶数据或非驾驶数据;
利用所述多组待识别运动数据和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态;
其中,所述驾驶状态检测模型参数为利用多组待训练运动数据和所述每组待训练运动数据对应的真实行为标识训练得到的模型参数,所述多组待训练运动数据包括驾驶数据和非驾驶数据。
2.根据权利要求1所述的方法,其特征在于,所述利用所述多组待识别运动数据和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态,包括:
从所述多组待识别运动数据提取多个目标特征向量序列;其中,每组待识别运动数据对应一个目标特征向量序列;所述目标特征向量序列对应的特征与训练驾驶状态检测模型过程中使用的目标特征向量序列对应的特征相同;
利用所述多个目标特征向量序列和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态。
3.根据权利要求1或2所述的方法,其特征在于,所述多组待训练运动数据包括动态行为数据和静态行为数据,所述静态行为数据包括驾驶数据;所述驾驶状态检测模型参数包括:分类器模型参数和矫正器模型参数;所述分类器模型为利用所述动态行为数据和所述静态行为数据训练得到的参数模型,用于区分动态行为和静态行为;所述矫正器模型为利用所述分类器模型识别出的多组待测试运动数据对应的行为标识和所述多组待测试运动数据对应的真实行为标识训练得到的参数模型,用于矫正所述分类器模型识别出的行为标识;
所述利用所述多组待识别运动数据和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态,包括:
利用所述多组待识别运动数据对应的多个目标特征向量序列和所述分类器模型参数对所述多组待识别运动数据进行识别,得到所述分类器模型识别出的行为标识;
利用所述分类器模型识别出的行为标识和所述矫正器模型参数,得到所述矫正器模型矫正的行为标识;
当所述矫正器模型矫正的行为标识代表驾驶行为时,确定自身所处的状态为驾驶状态;当所述矫正器模型矫正的行为标识代表非驾驶行为时,确定自身所处的状态为非驾驶状态。
4.根据权利要求3所述的方法,其特征在于,所述分类器模型参数包括二分类器模型参数、静态行为分类器模型参数和动态行为分类器模型参数;其中,所述二分类器模型为利用所述动态行为数据和所述静态行为数据训练得到的参数模型,用于区分动态行为和静态行为;所述动态分类器模型为利用所述动态行为数据训练得到的参数模型,用于区分不同的动态行为;所述静态行为分类器模型为利用所述静态行为数据训练得到的参数模型,用于区分不同的静态行为。
5.一种识别驾驶人的方法,其特征在于,包括:
待识别客户端设备获取自身的多组待识别驾驶数据;
利用所述多组待识别驾驶数据和所述待识别客户端设备的驾驶人识别模型参数确定自身所属的用户为驾驶人或乘客;其中,所述驾驶人识别模型参数为将所述待识别客户端设备的预设驾驶数据作为正例、其他客户端设备的预设驾驶数据作为反例,训练得到的模型参数。
6.根据权利要求5所述的方法,其特征在于,所述利用所述多组待识别驾驶数据和所述待识别客户端设备的驾驶人识别模型参数确定自身所属的用户为驾驶人或乘客,包括:
从所述多组待识别驾驶数据提取多个第一目标特征向量序列;其中,每组待识别驾驶数据对应一个第一目标特征向量序列;所述第一目标特征向量序列对应的特征与训练驾驶人识别模型过程中使用的目标特征向量序列对应的特征相同;
利用所述多个第一目标特征向量序列和驾驶人识别模型参数确定自身所属的用户为驾驶人或乘客。
7.根据权利要求6所述的方法,其特征在于,所述驾驶人识别模型参数包括决策阈值模型参数;其中,所述决策阈值模型参数为利用多个第二目标特征向量序列对应的正例标识在邻域中所占比例,和所述多个第二目标特征向量序列对应的正/反例标识训练得到的模型参数;所述第二目标特征向量序列为所述预设驾驶数据对应的目标特征向量序列;
所述利用所述多个第一目标特征向量序列和驾驶人识别模型参数确定自身所属的用户为驾驶人或乘客,包括:
根据所述多个第一目标特征向量序列获取所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例;
当所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例大于或等于所述决策阈值模型参数时,确定自身所属的用户为驾驶人;当所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例小于所述决策阈值模型参数时,确定自身所属的用户为乘客。
8.根据权利要求7所述的方法,其特征在于,所述驾驶人识别模型参数还包括最邻近结点算法KNN模型参数;其中,所述KNN模型参数为利用所述多个第二目标特征向量序列训练KNN得到的模型参数;
所述根据所述多个第一目标特征向量序列获取所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例,包括:
根据所述KNN模型参数对所述多个第一目标特征向量序列进行识别,得到所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例。
9.一种待识别客户端设备,其特征在于,包括:
获取单元,用于获取自身的多组待识别运动数据;其中,所述多组待识别运动数据包括驾驶数据或非驾驶数据;
确定单元,用于利用所述多组待识别运动数据和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态;
其中,所述驾驶状态检测模型参数为利用多组待训练运动数据和所述每组待训练运动数据对应的真实行为标识训练得到的模型参数,所述多组待训练运动数据包括驾驶数据和非驾驶数据。
10.根据权利要求9所述的待识别客户端设备,其特征在于,所述待识别客户端设备包括:
提取单元,用于从所述多组待识别运动数据提取多个目标特征向量序列;其中,每组待识别运动数据对应一个目标特征向量序列;所述目标特征向量序列对应的特征与训练驾驶状态检测模型过程中使用的目标特征向量序列对应的特征相同;
所述确定单元,还用于利用所述多个目标特征向量序列和驾驶状态检测模型参数确定自身所处的状态为驾驶状态或非驾驶状态。
11.根据权利要求9或10所述的待识别客户端设备,其特征在于,所述多组待训练运动数据包括动态行为数据和静态行为数据,所述静态行为数据包括驾驶数据;所述驾驶状态检测模型参数包括:分类器模型参数和矫正器模型参数;所述分类器模型为利用所述动态行为数据和所述静态行为数据训练得到的参数模型,用于区分动态行为和静态行为;所述矫正器模型为利用所述分类器模型识别出的多组待测试运动数据对应的行为标识和所述多组待测试运动数据对应的真实行为标识训练得到的参数模型,用于矫正所述分类器模型识别出的行为标识;
所述确定单元包括:
识别单元,用于利用所述多组待识别运动数据对应的多个目标特征向量序列和所述分类器模型参数对所述多组待识别运动数据进行识别,得到所述分类器模型识别出的行为标识;
矫正单元,用于利用所述分类器模型识别出的行为标识和所述矫正器模型参数,得到所述矫正器模型矫正的行为标识;
所述确定单元,具体用于当所述矫正器模型矫正的行为标识代表驾驶行为时,确定自身所处的状态为驾驶状态;当所述矫正器模型矫正的行为标识代表非驾驶行为时,确定自身所处的状态为非驾驶状态。
12.根据权利要求11所述的待识别客户端设备,其特征在于,所述分类器模型参数包括二分类器模型参数、静态行为分类器模型参数和动态行为分类器模型参数;其中,所述二分类器模型为利用所述动态行为数据和所述静态行为数据训练得到的参数模型,用于区分动态行为和静态行为;所述动态分类器模型为利用所述动态行为数据训练得到的参数模型,用于区分不同的动态行为;所述静态行为分类器模型为利用所述静态行为数据训练得到的参数模型,用于区分不同的静态行为。
13.一种待识别客户端设备,其特征在于,包括:
获取单元,用于获取自身的多组待识别驾驶数据;
确定单元,用于利用所述多组待识别驾驶数据和所述待识别客户端设备的驾驶人识别模型参数确定自身所属的用户为驾驶人或乘客;其中,所述驾驶人识别模型参数为将所述待识别客户端设备的预设驾驶数据作为正例、其他客户端设备的预设驾驶数据作为反例,训练得到的模型参数。
14.根据权利要求13所述的待识别客户端设备,其特征在于,所述确定单元包括:
提取单元,用于从所述多组待识别驾驶数据提取多个第一目标特征向量序列;其中,每组待识别驾驶数据对应一个第一目标特征向量序列;所述第一目标特征向量序列对应的特征与训练驾驶人识别模型过程中使用的目标特征向量序列对应的特征相同;
所述确定单元,还用于利用所述多个第一目标特征向量序列和驾驶人识别模型参数确定自身所属的用户为驾驶人或乘客。
15.根据权利要求14所述的待识别客户端设备,其特征在于,所述驾驶人识别模型参数包括决策阈值模型参数;其中,所述决策阈值模型参数为利用多个第二目标特征向量序列对应的正例标识在邻域中所占比例,和所述多个第二目标特征向量序列对应的正/反例标识训练得到的模型参数;所述第二目标特征向量序列为所述预设驾驶数据对应的目标特征向量序列;
所述获取单元,还用于根据所述多个第一目标特征向量序列获取所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例;
所述确定单元,具体用于当所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例大于或等于所述决策阈值模型参数时,确定自身所属的用户为驾驶人;当所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例小于所述决策阈值模型参数时,确定自身所属的用户为乘客。
16.根据权利要求15所述的待识别客户端设备,其特征在于,所述驾驶人识别模型参数还包括最邻近结点算法KNN模型参数;其中,所述KNN模型参数为利用所述多个第二目标特征向量序列训练KNN得到的模型参数;
所述获取单元包括:
识别单元,用于根据所述KNN模型参数对所述多个第一目标特征向量序列进行识别,得到所述多个第一目标特征向量序列对应的正例标识在邻域中所占比例。
CN201410707459.5A 2014-11-28 2014-11-28 一种识别驾驶状态、驾驶人的方法及装置 Active CN104463201B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410707459.5A CN104463201B (zh) 2014-11-28 2014-11-28 一种识别驾驶状态、驾驶人的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410707459.5A CN104463201B (zh) 2014-11-28 2014-11-28 一种识别驾驶状态、驾驶人的方法及装置

Publications (2)

Publication Number Publication Date
CN104463201A true CN104463201A (zh) 2015-03-25
CN104463201B CN104463201B (zh) 2018-01-19

Family

ID=52909215

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410707459.5A Active CN104463201B (zh) 2014-11-28 2014-11-28 一种识别驾驶状态、驾驶人的方法及装置

Country Status (1)

Country Link
CN (1) CN104463201B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105320966A (zh) * 2015-10-30 2016-02-10 东软集团股份有限公司 一种车辆行驶状态识别方法及装置
CN106125876A (zh) * 2015-05-07 2016-11-16 现代自动车株式会社 电子设备及其显示器控制方法
CN106203437A (zh) * 2015-05-07 2016-12-07 平安科技(深圳)有限公司 个体驾驶行为特征识别方法和装置
CN107704918A (zh) * 2017-09-19 2018-02-16 平安科技(深圳)有限公司 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质
CN107766876A (zh) * 2017-09-19 2018-03-06 平安科技(深圳)有限公司 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质
CN108009463A (zh) * 2016-10-27 2018-05-08 中国移动通信有限公司研究院 一种身份识别的方法及装置
CN109447182A (zh) * 2018-11-19 2019-03-08 深圳市元征科技股份有限公司 基于hmm算法的驾驶行为分类方法和装置
WO2019056497A1 (zh) * 2017-09-19 2019-03-28 平安科技(深圳)有限公司 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质
WO2019056471A1 (zh) * 2017-09-19 2019-03-28 平安科技(深圳)有限公司 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质
CN110677579A (zh) * 2019-08-19 2020-01-10 北京达佳互联信息技术有限公司 基于拍摄场景的预警方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010042545A2 (en) * 2008-10-09 2010-04-15 University Of Utah Research Foundation System and method for preventing cell phone use while driving
CN102737510A (zh) * 2012-07-03 2012-10-17 浙江大学 一种基于移动智能终端的实时交通路况采集方法
CN104135911A (zh) * 2012-01-09 2014-11-05 因文森斯公司 多轴线活动监测装置中的活动分类

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010042545A2 (en) * 2008-10-09 2010-04-15 University Of Utah Research Foundation System and method for preventing cell phone use while driving
CN102177750A (zh) * 2008-10-09 2011-09-07 犹他大学研究基金会 用于防止驾驶时使用手机的系统和方法
CN104135911A (zh) * 2012-01-09 2014-11-05 因文森斯公司 多轴线活动监测装置中的活动分类
CN102737510A (zh) * 2012-07-03 2012-10-17 浙江大学 一种基于移动智能终端的实时交通路况采集方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106125876A (zh) * 2015-05-07 2016-11-16 现代自动车株式会社 电子设备及其显示器控制方法
CN106203437A (zh) * 2015-05-07 2016-12-07 平安科技(深圳)有限公司 个体驾驶行为特征识别方法和装置
CN106203437B (zh) * 2015-05-07 2017-11-24 平安科技(深圳)有限公司 个体驾驶行为特征识别方法和装置
CN105320966A (zh) * 2015-10-30 2016-02-10 东软集团股份有限公司 一种车辆行驶状态识别方法及装置
CN108009463A (zh) * 2016-10-27 2018-05-08 中国移动通信有限公司研究院 一种身份识别的方法及装置
CN108009463B (zh) * 2016-10-27 2020-10-30 中国移动通信有限公司研究院 一种身份识别的方法及装置
CN107766876A (zh) * 2017-09-19 2018-03-06 平安科技(深圳)有限公司 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质
CN107704918A (zh) * 2017-09-19 2018-02-16 平安科技(深圳)有限公司 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质
WO2019056497A1 (zh) * 2017-09-19 2019-03-28 平安科技(深圳)有限公司 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质
WO2019056498A1 (zh) * 2017-09-19 2019-03-28 平安科技(深圳)有限公司 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质
WO2019056470A1 (zh) * 2017-09-19 2019-03-28 平安科技(深圳)有限公司 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质
WO2019056471A1 (zh) * 2017-09-19 2019-03-28 平安科技(深圳)有限公司 驾驶模型训练方法、驾驶人识别方法、装置、设备及介质
CN109447182A (zh) * 2018-11-19 2019-03-08 深圳市元征科技股份有限公司 基于hmm算法的驾驶行为分类方法和装置
CN110677579A (zh) * 2019-08-19 2020-01-10 北京达佳互联信息技术有限公司 基于拍摄场景的预警方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN104463201B (zh) 2018-01-19

Similar Documents

Publication Publication Date Title
CN104463201A (zh) 一种识别驾驶状态、驾驶人的方法及装置
CN110741388B (zh) 对抗样本检测方法、装置、计算设备及计算机存储介质
CN108090508B (zh) 一种分类训练方法、装置及存储介质
CN103415825A (zh) 用于手势识别的系统和方法
CN110807402B (zh) 一种基于肤色检测的五官定位方法、系统和终端设备
CN107066980B (zh) 一种图像变形检测方法及装置
CN111861627A (zh) 一种共享车辆的寻找方法、装置、电子设备及存储介质
KR101545809B1 (ko) 차량 번호판 이중 검출 방법 및 장치
CN112016697A (zh) 一种联邦学习方法、装置、设备及存储介质
CN105303163A (zh) 一种目标检测的方法及检测装置
CN108304852B (zh) 道路路段类型的确定方法、装置以及存储介质、电子装置
CN112948619A (zh) 基于深度学习的手写棋谱辅助录入方法及装置
CN111274390B (zh) 一种基于对话数据的情感原因确定方法及装置
CN112466118A (zh) 车辆驾驶行为识别方法、系统、电子设备及存储介质
CN104376234B (zh) 启动子识别方法及系统
CN111241930A (zh) 一种用于人脸识别的方法及系统
CN114639152A (zh) 基于人脸识别的多模态语音交互方法、装置、设备及介质
CN112580531B (zh) 一种真假车牌的识别检测方法及系统
CN111062345B (zh) 静脉识别模型的训练方法、装置和静脉图像识别装置
CN112163521A (zh) 一种车辆行驶行为的识别方法、装置及设备
CN109815887B (zh) 一种基于多智能体协作的复杂光照下人脸图像的分类方法
CN116168438A (zh) 关键点检测方法、装置及电子设备
CN112560599A (zh) 文本识别方法、装置、计算机设备和存储介质
CN113469176A (zh) 一种目标检测模型训练方法、目标检测方法及其相关设备
CN111582446A (zh) 用于神经网络剪枝的系统和神经网络的剪枝处理方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20200422

Address after: 518129 Bantian HUAWEI headquarters office building, Longgang District, Guangdong, Shenzhen

Patentee after: HUAWEI TECHNOLOGIES Co.,Ltd.

Address before: 301, A building, room 3, building 301, foreshore Road, No. 310052, Binjiang District, Zhejiang, Hangzhou

Patentee before: Huawei Technologies Co.,Ltd.

TR01 Transfer of patent right