CN107704870B - 基于ble指纹定位与imu动作识别融合的可靠人车临近感知装置与方法 - Google Patents
基于ble指纹定位与imu动作识别融合的可靠人车临近感知装置与方法 Download PDFInfo
- Publication number
- CN107704870B CN107704870B CN201710801995.5A CN201710801995A CN107704870B CN 107704870 B CN107704870 B CN 107704870B CN 201710801995 A CN201710801995 A CN 201710801995A CN 107704870 B CN107704870 B CN 107704870B
- Authority
- CN
- China
- Prior art keywords
- vehicle
- user
- area
- action
- base station
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/021—Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mobile Radio Communication Systems (AREA)
- Navigation (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
Abstract
本发明公开了一种基于BLE指纹定位与IMU动作识别融合的可靠人车临近感知装置,包括云平台;数据采集模块,用于从云平台获取信息;还用于采集当前用户位置的iBeacon信号强度值;人车相对位置判断模块,用于获取到的该车型的指纹库和阈值数据进行判断出用户当前所处的区域;位置判断检查模块,用于对人车相对位置判断模块的判断结果进行有效性检查,确认判断结果的有效性;动作状态判断模块,利用智能手机中IMU动作识别模块检测用户动作状态的迁移,检测出用户的动作状态;融合模块,用于根据BLE蓝牙指纹定位结果与动作状态的融合实现精确可靠的人相对车辆的空间定位。本发明能实现高可靠性的人车相对定位,为无干预的车辆进入控制与位置服务提供保障。
Description
技术领域
本发明涉及定位技术,尤其涉及一种基于BLE指纹定位与IMU动作识别融合的可靠人车临近感知装置与方法。
背景技术
人车临近感知,即感知用户相对于车辆的位置。随着计算机技术的发展和应用领域的扩展,目前一些高端车辆越来越趋近于智能化,即汽车智能无钥匙进入系统、智能无钥匙启动系统等等。而这些智能化的控制与服务都是需要以可靠的人车临近感知技术为前提的,目前人车临近感知大多是基于无线射频识别(即RFID)技术来实现的,而该种技术的缺点是用户需要携带特定感应芯片作为智能车钥匙。而本发明的基于BLE指纹定位与IMU动作识别融合的人车临近感知方法只需以用户智能手机为载体,无需用户再携带额外设备。
BLE指纹定位是目前室内定位研究领域常用的主流方法之一,主要思想是先在定位环境中选定众多已知位置的参考点,离线采集所有参考点处的BLE信号向量,建立参考点与信号向量一一对应的指纹信息库。然后在线测量用户当前位置收集到的BLE信号信息,并用该信号信息去指纹信息库中进行匹配,找到指纹信息最相似的参考点,则用户当前位置近似等于该参考点的位置。
IMU动作识别是指根据用户在运动过程中惯性传感器所产生的加速度数据、陀螺仪数据等在进行滤波处理、提取特征值向量、利用模式识别的方法进行动作分类后识别出用户当前的运动状态。该方法已经在跑步计步、行人航迹推算等领域得到了广泛的应用。
发明内容
本发明要解决的技术问题在于针对现有技术中的缺陷,提供一种基于BLE指纹定位与IMU动作识别融合的可靠人车临近感知装置与方法。
本发明解决其技术问题所采用的技术方案是:一种基于BLE指纹定位与IMU动作识别融合的可靠人车临近感知装置,包括
云平台,用于预存每辆汽车的车载iBeacon基站的UUID和MAC地址信息,以及每种车型所对应的蓝牙指纹库和阈值信息;
数据采集模块,用于通过智能手机的蜂窝通信模块从云平台获取车辆的车载iBeacon基站UUID和MAC地址信息,以及该车型所对应的蓝牙指纹库信息、阈值信息;
还用于采集当前用户位置的iBeacon信号强度值(s1,s2);所述iBeacon信号由车载iBeacon基站发出;所述车载iBeacon基站为两个功率相同的iBeacon,分别固定设置在汽车的仪表台位置和汽车的后备箱中间位置;
人车相对位置判断模块,用于获取到的该车型的指纹库和阈值数据进行判断出用户当前所处的区域;所述区域包括IN区域:人位于车内,NEAR区域:人位于车外离车5米范围内,FAR区域:人位于车外离车5米范围外;
位置判断检查模块,用于对人车相对位置判断模块的判断结果进行有效性检查,确认判断结果的有效性;所述位置判断检查模块的工作方法如下:若当前i时刻的蓝牙定位区域B(i)和前四次的蓝牙定位区域B(j)(j取值范围为i-1,i-2,i-3,i-4)中至少有2次相同,则确定判断结果有效,否则确定判断结果无效。
动作状态判断模块,利用智能手机中IMU动作识别模块检测用户动作状态的迁移,检测出用户最近时刻的动作状态为V;
融合模块,用于根据BLE蓝牙指纹定位结果与动作状态的融合实现精确可靠的人相对车辆的空间定位;具体如下:根据检测到的用户最近时刻动作状态V来进一步证实当前用户的位置是否发生改变,如果证实发生改变则将蓝牙定位区域B作为用户当前位置A(i)输出,否则保持原有用户位置状态,将上一个时刻的位置A(i-1)作为A(i)输出。
按上述方案,云平台中对应的BLE指纹数据库和阈值信息的建立过程为:
S1.1,利用智能手机采集多组分别位于车辆外左前方,右前方,左边,右边,左后方,右后方;车内主驾驶位,副驾驶位,操纵杆,后座左边,后座中间,后座右边,一共12个参考点处的车载iBeacon信号强度向量值s=(s1,s2),其中,s1代表位于车内仪表台iBeacon基站的信号值,s2代表位于车辆后备箱中间iBeacon基站的信号值,每组数据采集时间相同,用于计算该车型在云平台中所对应的BLE指纹数据库;
S1.3,利用智能手机在离车辆5米的地方绕车行走,采集多组车载iBeacon信号值,每组采集时间相同,用于训练云平台中区分该车型的FAR区域与NEAR或IN区域的阈值信息;
S1.4,对于S1.3中采集到的数据进行统计分析,求出在离车5米的地方所采集到的车载Ibeacon信号s1和s2的平均值,分别作为区分该车型的FAR区域与NEAR或IN区域的阈值θ1和θ2,使得距离汽车5米外的位置收到的车载iBeacon信号(s1,s2)满足s1≤θ1且s2≤θ2,最后将得到的阈值信息上传云平台。
本发明还提供一种基于BLE指纹定位与IMU动作识别融合的可靠人车临近感知方法,包括如下步骤:
S1,通过智能手机的蜂窝通信模块从云平台获取车辆的车载iBeacon基站UUID和MAC地址信息,以及该车型所对应的蓝牙指纹库信息、阈值信息;所述云平台预存每辆汽车的车载iBeacon基站的UUID和MAC地址信息,以及每种车型所对应的蓝牙指纹库和阈值信息;
S2,采集当前用户位置的iBeacon信号强度值(s1,s2),根据S1中获取到的该车型的指纹库和阈值数据进行判断出用户当前所处的区域B;所述区域包括IN区域:人位于车内,NEAR区域:人位于车外离车5米范围内,FAR区域:人位于车外离车5米范围外;
S3:对S2中得出的蓝牙定位区域B进行有效性检查;具体方法为要求当前i时刻的蓝牙定位区域B(i)和前四次的蓝牙定位区域B(j)(j取值范围为i-1,i-2,i-3,i-4)中至少有2次相同则得出B(i)是有效的,否则无效;如果判断区域B(i)无效则直接结束,返回执行S2步骤;如果判断区域B有效则继续进行接下来流程;
S4:检查蓝牙定位区域B和用户上一个时刻的位置A(i-1)是否发生改变,如果没有发生改变,则直接得出结论B就是用户当前的位置A(i),并结束接下来的流程;否则继续进行;
S5:利用智能手机中IMU动作识别模块检测用户动作状态的迁移,检测出用户最近时刻的动作状态为V;
S6:根据S5中检测到的用户最近时刻动作状态V来进一步证实当前用户的位置是否发生改变,如果证实发生改变则将蓝牙定位区域B作为用户当前位置A(i)输出,否则保持原有用户位置状态,将A(i-1)作为A(i)输出。
按上述方案,所述S2中采集当前用户位置的iBeacon信号强度值(s1,s2)进行区域定位的间隔周期为20ms。
按上述方案,所述人车相对位置判断模块的工作方法如下:
S2.1,根据从云平台获得的车辆的车载iBeacon基站UUID和MAC地址信息,从当前所接收到的信号中匹配出前后两个车载iBeacon基站;
S2.2,采集用户当前位置收到的车载iBeacon基站信号(s1,s2),根据S1中从云平台获得到的阈值信息(θ1,θ2)进行判断,如果满足s1≤θ1且s2≤θ2,则可以判断用户当前在位于相对车辆的FAR区域,否则位于IN区域或者NEAR区域;
S2.3,如果S2.2中判断用户当前位置不处在FAR区域,则根据S2-2中从云平台获得到的蓝牙指纹库信息再进行判断,其中蓝牙指纹库信息为均匀分布在车内和车外的12个参考点(分别为车内:主驾驶位,副驾驶位,操纵杆,后座左边,后座中间,后座右边,车外:外左前方,右前方,左边,右边,左后方,右后方)的蓝牙指纹数据,分别计算用户当前位置的信号强度向量与12个参考点指纹数据的欧氏距离,找到距离最近的参考点P,如果点P位于车内,则判断用户当前处在IN区域,否则如果P是位于车外,则进一步判断用户当前处在NEAR区域中。
按上述方案,所述步骤S5中,检测用户动作状态的迁移的工作流程为:
S5.1,IMU动作识别子模块采集用户当前手机中线性加速度数据;
S5.2,将采集到的所有线性加速度数据由原来的相对手机屏幕的坐标系转换为相对大地的惯性坐标系;
S5.3,将由S5.2得到的转换坐标系后的数据进行滤波处理,采用均值滤波器的变体形式,且滤波窗长为3;
滤波公式如式(1)所示:
式中ori(i)表示i时刻的线性加速度采集值,processed(i)表示i时刻线性加速度经过预处理后的数据;
S5.4:对步骤S5.3中经过滤波处理后的数据再进行特征向量的提取,在一定的时间窗长范围内提取信号特征向量;
S5.5:对S5.4中提取到的特征向量,利用IMU动作识别模块中内置的决策树分类器模型(该分类器模型主要区分用户“上车”动作,“下车”动作、行走状态、静止状态、以及车内活动状态(即用手机“处理业务”状态))进行分类,得到用户当前的动作状态V。
按上述方案,所述步骤S6中,根据动作状态V来证实用户当前位置是否发生改变的流程为:
S6.1,如果检测用户位置由FAR区域变成NEAR或者NEAR区域变成FAR,则改变用户位置,直接将蓝牙定位区域B(i)作为用户当前A(i)输出;
S6.2,如果检测用户位置由NEAR区域转变为IN,则需要进一步证实S5中检测到的用户最近时刻动作状态V是否为“上车”动作,如果是则B(i)有效,则改变用户当前位置A(i)为B(i),否则说明B(i)有误,保持原有用户位置状态,将A(i-1)作为A(i)输出;
S6.3,如果检测用户位置由IN区域变成NEAR,则需要进一步证实S5中检测到的用户最近时刻动作状态V是否为“下车”动作,如果是则B(i)有效,则改变用户当前位置A(i)为B(i),否则说明B(i)有误,保持原有用户位置状态,将A(i-1)作为A(i)输出。
本发明产生的有益效果是:
使用本发明,在车辆的车载设备中,增加iBeacon基站,利用智能手机的BLE模块,以及加速度传感器,结合BLE信号的传播特性和人体活动判断,实现高可靠性的人车相对定位,为无干预的车辆进入控制与位置服务提供保障;
本发明装置非常容易集成到传统汽车上,与中控系统等集成,具备成本低、结构简单的特点。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明中一种基于BLE指纹定位与IMU动作识别融合的人车临近感知装置结构图。
图2是本发明中一种基于BLE指纹定位与IMU动作识别融合的人车临近感知方法流程图;
图3是本发明中BLE蓝牙指纹定位子模块判断流程图。
图4是本发明中IMU动作识别子模块流程图。
图5是IMU动作识别子模块中内置的决策树分类器图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,一种基于BLE指纹定位与IMU动作识别融合的可靠人车临近感知装置,包括
云平台,用于预存每辆汽车的车载iBeacon基站的UUID和MAC地址信息,以及每种车型所对应的蓝牙指纹库和阈值信息;
数据采集模块,用于通过智能手机的蜂窝通信模块从云平台获取车辆的车载iBeacon基站UUID和MAC地址信息,以及该车型所对应的蓝牙指纹库信息、阈值信息;
还用于采集当前用户位置的iBeacon信号强度值(s1,s2);所述iBeacon信号由车载iBeacon基站发出;所述车载iBeacon基站为两个功率相同的iBeacon,分别固定设置在汽车的仪表台位置和汽车的后备箱中间位置;
人车相对位置判断模块,用于获取到的该车型的指纹库和阈值数据进行判断出用户当前所处的区域;所述区域包括IN区域:人位于车内,NEAR区域:人位于车外离车5米范围内,FAR区域:人位于车外离车5米范围外;
人车相对位置判断模块的工作方法如下:
S2.1,根据从云平台获得的车辆的车载iBeacon基站UUID和MAC地址信息,从当前所接收到的信号中匹配出前后两个车载iBeacon基站;
S2.2,采集用户当前位置收到的车载iBeacon基站信号(s1,s2),根据S1中从云平台获得到的阈值信息(θ1,θ2)进行判断,如果满足s1≤θ1且s2≤θ2,则可以判断用户当前在位于相对车辆的FAR区域,否则位于IN区域或者NEAR区域;
S2.3,如果S2.2中判断用户当前位置不处在FAR区域,则根据S2-2中从云平台获得到的蓝牙指纹库信息再进行判断,其中蓝牙指纹库信息为均匀分布在车内和车外的12个参考点(分别为车内:主驾驶位,副驾驶位,操纵杆,后座左边,后座中间,后座右边,车外:外左前方,右前方,左边,右边,左后方,右后方)的蓝牙指纹数据,分别计算用户当前位置的信号强度向量与12个参考点指纹数据的欧氏距离,找到距离最近的参考点P,如果点P位于车内,则判断用户当前处在IN区域,否则如果P是位于车外,则进一步判断用户当前处在NEAR区域中。
位置判断检查模块,用于对人车相对位置判断模块的判断结果进行有效性检查,确认判断结果的有效性;所述位置判断检查模块的工作方法如下:若当前i时刻的蓝牙定位区域B(i)和前四次的蓝牙定位区域B(j)(j取值范围为i-1,i-2,i-3,i-4)中至少有2次相同,则确定判断结果有效,否则确定判断结果无效。
动作状态判断模块,利用智能手机中IMU动作识别模块检测用户动作状态的迁移,检测出用户最近时刻的动作状态为V;
融合模块,用于根据BLE蓝牙指纹定位结果与动作状态的融合实现精确可靠的人相对车辆的空间定位;具体如下:根据检测到的用户最近时刻动作状态V来进一步证实当前用户的位置是否发生改变,如果证实发生改变则将蓝牙定位区域B作为用户当前位置A(i)输出,否则保持原有用户位置状态,将上一个时刻的位置A(i-1)作为A(i)输出。
其中,云平台中对应的BLE指纹数据库和阈值信息的建立过程为:
S1.1,利用智能手机采集多组分别位于车辆外左前方,右前方,左边,右边,左后方,右后方;车内主驾驶位,副驾驶位,操纵杆,后座左边,后座中间,后座右边,一共12个参考点处的车载iBeacon信号强度向量值s=(s1,s2),其中,s1代表位于车内仪表台iBeacon基站的信号值,s2代表位于车辆后备箱中间iBeacon基站的信号值,每组数据采集时间相同,用于计算该车型在云平台中所对应的BLE指纹数据库;
S1.3,利用智能手机在离车辆5米的地方绕车行走,采集多组车载iBeacon信号值,每组采集时间相同,用于训练云平台中区分该车型的FAR区域与NEAR或IN区域的阈值信息;
S1.4,对于S1.3中采集到的数据进行统计分析,求出在离车5米的地方所采集到的车载Ibeacon信号s1和s2的平均值,分别作为区分该车型的FAR区域与NEAR或IN区域的阈值θ1和θ2,使得距离汽车5米外的位置收到的车载iBeacon信号(s1,s2)满足s1≤θ1且s2≤θ2,最后将得到的阈值信息上传云平台。
本发明还提供一种基于BLE指纹定位与IMU动作识别融合的可靠人车临近感知方法,包括如下步骤:
S1,通过智能手机的蜂窝通信模块从云平台获取车辆的车载iBeacon基站UUID和MAC地址信息,以及该车型所对应的蓝牙指纹库信息、阈值信息;所述云平台预存每辆汽车的车载iBeacon基站的UUID和MAC地址信息,以及每种车型所对应的蓝牙指纹库和阈值信息;
S2,采集当前用户位置的iBeacon信号强度值(s1,s2),根据S1中获取到的该车型的指纹库和阈值数据进行判断出用户当前所处的区域B;所述区域包括IN区域:人位于车内,NEAR区域:人位于车外离车5米范围内,FAR区域:人位于车外离车5米范围外;采集当前用户位置的iBeacon信号强度值(s1,s2)进行区域定位的间隔周期为20ms;
S3:对S2中得出的蓝牙定位区域B进行有效性检查;具体方法为要求当前i时刻的蓝牙定位区域B(i)和前四次的蓝牙定位区域B(j)(j取值范围为i-1,i-2,i-3,i-4)中至少有2次相同则得出B(i)是有效的,否则无效;如果判断区域B(i)无效则直接结束,返回执行S2步骤;如果判断区域B有效则继续进行接下来流程;
S4:检查蓝牙定位区域B和用户上一个时刻的位置A(i-1)是否发生改变,如果没有发生改变,则直接得出结论B就是用户当前的位置A(i),并结束接下来的流程;否则继续进行;
S5:利用智能手机中IMU动作识别模块检测用户动作状态的迁移,检测出用户最近时刻的动作状态为V;
S6:根据S5中检测到的用户最近时刻动作状态V来进一步证实当前用户的位置是否发生改变,如果证实发生改变则将蓝牙定位区域B作为用户当前位置A(i)输出,否则保持原有用户位置状态,将A(i-1)作为A(i)输出。
步骤S5中,检测用户动作状态的迁移的工作流程为:
S5.1,IMU动作识别子模块采集用户当前手机中线性加速度数据;
S5.2,将采集到的所有线性加速度数据由原来的相对手机屏幕的坐标系转换为相对大地的惯性坐标系;
S5.3,将由S5.2得到的转换坐标系后的数据进行滤波处理,采用均值滤波器的变体形式,且滤波窗长为3;
滤波公式如式(1)所示:
式中ori(i)表示i时刻的线性加速度采集值,processed(i)表示i时刻线性加速度经过预处理后的数据;
S5.4:对步骤S5.3中经过滤波处理后的数据再进行特征向量的提取,在一定的时间窗长范围内提取信号特征向量;
S5.5:对S5.4中提取到的特征向量,利用IMU动作识别模块中内置的决策树分类器模型(该分类器模型主要区分用户“上车”动作,“下车”动作、行走状态、静止状态、以及车内活动状态(即用手机“处理业务”状态))进行分类,得到用户当前的动作状态V。
步骤S6中,根据动作状态V来证实用户当前位置是否发生改变的流程为:
S6.1,如果检测用户位置由FAR区域变成NEAR或者NEAR区域变成FAR,则改变用户位置,直接将蓝牙定位区域B(i)作为用户当前A(i)输出;
S6.2,如果检测用户位置由NEAR区域转变为IN,则需要进一步证实S5中检测到的用户最近时刻动作状态V是否为“上车”动作,如果是则B(i)有效,则改变用户当前位置A(i)为B(i),否则说明B(i)有误,保持原有用户位置状态,将A(i-1)作为A(i)输出;
S6.3,如果检测用户位置由IN区域变成NEAR,则需要进一步证实S5中检测到的用户最近时刻动作状态V是否为“下车”动作,如果是则B(i)有效,则改变用户当前位置A(i)为B(i),否则说明B(i)有误,保持原有用户位置状态,将A(i-1)作为A(i)输出。
一个实例:如图2所示,具体包括如下步骤:
S1:利用智能手机采集多组分别位于车辆外左前方,右前方,左边,右边,左后方,右后方;车内主驾驶位,副驾驶位,操纵杆,后座左边,后座中间,后座右边,一共12个参考点处的车载iBeacon信号强度向量值s=(s1,s2),其中s1代表位于车内仪表台iBeacon基站的信号值,s2代表位于车辆后备箱中间iBeacon基站的信号值,每组数据采集时间相同,用于计算该车型在云平台中所对应的BLE指纹数据库;
S3:利用智能手机在离车辆5米的地方绕车行走,采集多组车载iBeacon信号值,每组采集时间相同,用于训练云平台中区分该车型的FAR区域与NEAR或IN区域的阈值信息;
S4:如图3,对于S3中采集到的数据进行统计分析,求出在离车5米的地方所采集到的车载Ibeacon信号s1和s2的平均值,分别作为区分该车型的FAR区域与NEAR或IN区域的阈值θ1和θ2,使得距离汽车5米外的位置收到的车载iBeacon信号(s1,s2)满足s1≤θ1且s2≤θ2,最后将得到的阈值信息上传云平台;
S5:移动端BLE指纹定位子模块根据从云平台获得的车辆的车载iBeacon基站UUID和MAC地址信息,从当前所接收到的信号中匹配出前后两个车载iBeacon基站;
S6:启动移动端BLE指纹定位子模块,采集用户当前位置收到的车载iBeacon基站信号(s1,s2),首先根据S5中从云平台获得到的阈值信息(θ1,θ2)进行判断,如果满足s1≤θ1且s2≤θ2,则可以得出蓝牙定位区域B(i)等于FAR区域,并直接进行步骤S8,否则位于IN区域或者NEAR区域,并继续进行接下来的步骤;
S7:根据S5中从云平台获得到的蓝牙指纹库信息,分别计算当前信号强度向量(s1,s2)与所有参考点指纹数据的欧氏距离,找到距离最近的参考点P,如果点P位于车内,则得出蓝牙定位区域B(i)等于IN区域,否则如果P是位于车外,蓝牙定位区域B(i)等于NEAR区域;
S8:对得出的蓝牙定位区域B(i)进行有效性检查;其特征在于利用用户的位置状态变化具有连续性的原理,我们选择B(i)和前四次的位置判断B(j)(j取值范围为i-1,i-2,i-3,i-4)中必须有2次相同则得出B(i)是有效的,否则无效;如果得出B(i)无效则直接结束接下来的流程,重新采集iBeacon基站的信号执行S6步骤,如果得出B(i)有效则继续进行接下来流程。
S9:检查蓝牙定位区域B(i)和用户上一个时刻的位置A(i-1)是否发生改变,如果没有发生改变,则直接得出结论B(i)就是用户当前的位置A(i),并结束本轮定位;否则继续进行接下来步骤。
S10:如果检测用户位置由FAR区域变成NEAR或者NEAR区域变成FAR,则改变用户位置,直接将蓝牙定位区域B(i)作为用户当前A(i)输出结束本轮定位,否则继续接下步骤;
S11:切换到IMU动作识别子模块,采集用户当前手机中线性加速度数据;
S12:如图4,将采集到的所有线性加速度数据由原来的相对手机屏幕的坐标系转换为相对大地的惯性坐标系,转换的过程主要是利用Android系统内部算法先根据重力传感器和磁力计传感器得出旋转矩阵,再将旋转矩阵反转(求逆矩阵)后,用原线性加速度矢量乘以反转后的旋转矩阵即可将参考系转换为大地惯性参考系;
S13:将由S12得到的转换坐标系后的数据进行滤波处理,采用均值滤波器的变体形式,且滤波窗长为3;
滤波公式如式(1)所示:
式中ori(i)表示i时刻的线性加速度采集值,processed(i)表示i时刻线性加速度经过预处理后的数据;
S14:对步骤S13中经过滤波处理后的数据再进行特征向量的提取,在本模块中提取特征值的数据窗长为2.4s。并且在窗口的滑动过程中采用50%的重叠率。且采用的特征向量为[σy,σx,Ey,Ez,Corz,μx]。其中σy和σx分别代表了Y轴和X轴加速度信号的标准差,Ey和Ez分表代表了Y轴和Z轴加速度信号的能量,Corz和μx分别代表Z轴和X轴加速度数据的自相关系数和平均值;
S15:对S14中提取到的特征向量利用如图5中的决策树模型进行分类,得到用户当前的动作状态V。如图所示,圆圈节点表示判断节点,三角形节点表示叶子节点,其中每一个判断节点的左子树表示判断式为true,右子树表示判断式为false。叶子节点中动作状态V0到V4分别对应行走状态、“上车”动作、“下车”动作、静止状态、车内活动状态,判断节点1到24的具体判断式如下:
S1162:如果检测用户位置由NEAR24区域转变为IN,则需要进一步证实S15中检测到的用户最近时刻动作状态V是否为“上车”动作,如果是则B(i)有效,则改变用户当前位置A(i)为B(i),否则说明B(i)有误,保持原有用户位置状态,将A(i-1)作为A(i)输出并结束本轮定位。
S17:如果检测用户位置由IN区域变成NEAR,则需要进一步证实S15中检测到的用户最近时刻动作状态V是否为“下车”动作,如果是则B(i)有效,则改变用户当前位置A(i)为B(i),否则说明B(i)有误,保持原有用户位置状态,将A(i-1)作为A(i)输出并结束本轮定位。
应当理解的是,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,而所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (8)
1.一种基于BLE指纹定位与IMU动作识别融合的可靠人车临近感知装置,包括
云平台,用于预存每辆汽车的车载iBeacon基站的UUID和MAC地址信息,以及每种车型所对应的蓝牙指纹库和阈值信息;
数据采集模块,用于从云平台获取车辆的车载iBeacon基站UUID和MAC地址信息,以及该车型所对应的蓝牙指纹库信息、阈值信息;
还用于采集当前用户位置的iBeacon信号强度值(s1,s2);其中,s1代表位于车内仪表台iBeacon基站的信号值,s2代表位于车辆后备箱中间iBeacon基站的信号值;所述iBeacon信号由车载iBeacon基站发出;所述车载iBeacon基站为两个功率相同的iBeacon,分别固定设置在汽车的仪表台位置和汽车的后备箱中间位置;
人车相对位置判断模块,用于获取到的该车型的指纹库和阈值数据进行判断出用户当前所处的区域;所述区域包括IN区域:人位于车内,NEAR区域:人位于车外离车5米范围内,FAR区域:人位于车外离车5米范围外;
位置判断检查模块,用于对人车相对位置判断模块的判断结果进行有效性检查,确认判断结果的有效性;所述位置判断检查模块的工作方法如下:若当前i时刻的蓝牙定位区域B(i)和前四次的蓝牙定位区域B(j)中至少有2次相同,则确定判断结果有效,否则确定判断结果无效;
动作状态判断模块,利用智能手机中IMU动作识别模块检测用户动作状态的迁移,检测出用户最近时刻的动作状态为V;
融合模块,用于根据BLE蓝牙指纹定位结果与动作状态的融合实现精确可靠的人相对车辆的空间定位;具体如下:根据检测到的用户最近时刻动作状态V来进一步证实当前用户的位置是否发生改变,如果证实发生改变,则将蓝牙定位区域B(i)作为用户当前位置A(i)输出,否则保持原有用户位置状态,将上一个时刻的位置A(i-1)作为A(i)输出。
2.一种基于BLE指纹定位与IMU动作识别融合的可靠人车临近感知方法,包括如下步骤:
S1,通过智能手机的蜂窝通信模块从云平台获取车辆的车载iBeacon基站UUID和MAC地址信息,以及该车辆的车型所对应的蓝牙指纹库信息、阈值信息;所述云平台预存每辆汽车的车载iBeacon基站的UUID和MAC地址信息,以及每种车型所对应的蓝牙指纹库和阈值信息;
S2,采集当前用户位置的iBeacon信号强度值(s1,s2),s1代表位于车内仪表台iBeacon基站的信号值,s2代表位于车辆后备箱中间iBeacon基站的信号值,根据S1中获取到的该车型的指纹库和阈值数据进行判断出用户当前所处的区域B;所述区域包括IN区域:人位于车内,NEAR区域:人位于车外离车5米范围内,FAR区域:人位于车外离车5米范围外;
S3:对S2中得出的蓝牙定位区域B进行有效性检查;具体方法为要求当前i时刻的蓝牙定位区域B(i)和前四次的蓝牙定位区域B(j)中必须有2次相同则得出B(i)是有效的,否则无效;如果判断区域B(i)无效则直接结束,返回执行S2步骤;如果判断区域B有效则继续进行接下来流程;
S4:检查蓝牙定位区域B和用户上一个时刻的位置A(i-1)是否发生改变,如果没有发生改变,则直接得出结论B就是用户当前的位置A(i),并结束接下来的流程;否则继续进行;
S5:利用智能手机中IMU动作识别模块检测用户动作状态的迁移,检测出用户最近时刻的动作状态为V;
S6:根据S5中检测到的用户最近时刻动作状态V来进一步证实当前用户的位置是否发生改变,如果证实发生改变则将蓝牙定位区域B(i)作为用户当前位置A(i)输出,否则保持原有用户位置状态,将A(i-1)作为A(i)输出。
3.根据权利要求2所述的基于BLE指纹定位与IMU动作识别融合的可靠人车临近感知方法,其特征在于,所述S2中采集当前用户位置的iBeacon信号强度值(s1,s2)进行区域定位的间隔周期为20ms。
4.根据权利要求2所述的基于BLE指纹定位与IMU动作识别融合的可靠人车临近感知方法,云平台中对应的BLE指纹数据库和阈值信息的建立过程为:
S1.1,利用智能手机采集多组分别位于车辆外左前方,右前方,左边,右边,左后方,右后方;车内主驾驶位,副驾驶位,操纵杆,后座左边,后座中间,后座右边,一共12个参考点处的车载iBeacon信号强度值s=(s1,s2),其中,s1代表位于车内仪表台iBeacon基站的信号值,s2代表位于车辆后备箱中间iBeacon基站的信号值,每组数据采集时间相同,用于计算该车型在云平台中所对应的BLE指纹数据库;
S1.3,利用智能手机在离车辆5米的地方绕车行走,采集多组车载iBeacon信号强度值,每组采集时间相同,用于训练云平台中区分该车型的FAR区域与NEAR或IN区域的阈值信息;
S1.4,对于S1.3中采集到的数据进行统计分析,求出在离车5米的地方所采集到的车载Ibeacon信号强度值s1和s2的平均值,分别作为区分该车型的FAR区域与NEAR或IN区域的阈值θ1和θ2,使得距离汽车5米外的位置收到的车载iBeacon信号强度值(s1,s2)满足s1≤θ1且s2≤θ2,最后将得到的阈值信息上传云平台。
5.根据权利要求2所述的基于BLE指纹定位与IMU动作识别融合的可靠人车临近感知方法,所述人车相对位置判断模块的工作方法如下:
S2.1,根据从云平台获得的车辆的车载iBeacon基站UUID和MAC地址信息,从当前所接收到的信号中匹配出前后两个车载iBeacon基站;
S2.2,采集用户当前位置收到的车载iBeacon基站信号强度值(s1,s2),根据S1中从云平台获得到的阈值信息(θ1,θ2)进行判断,如果满足s1≤θ1且s2≤θ2,则判断用户当前在位于相对车辆的FAR区域,否则位于IN区域或者NEAR区域;
S2.3,如果S2.2中判断用户当前位置不处在FAR区域,则根据S2.2中从云平台获得到的蓝牙指纹库信息再进行判断,其中蓝牙指纹库信息为均匀分布在车内和车外的多个参考点的蓝牙指纹数据,分别计算用户当前位置的信号强度向量与每个参考点指纹数据的欧氏距离,找到距离最近的参考点P,如果点P位于车内,则判断用户当前处在IN区域,否则如果P是位于车外,则进一步判断用户当前处在NEAR区域中。
6.根据权利要求2所述的基于BLE指纹定位与IMU动作识别融合的可靠人车临近感知方法,所述蓝牙指纹库信息为均匀分布在车内和车外的12个参考点的蓝牙指纹数据,12个参考点分别为:车内:主驾驶位,副驾驶位,操纵杆,后座左边,后座中间,后座右边,车外:外左前方,右前方,左边,右边,左后方,右后方。
7.根据权利要求2所述的基于BLE指纹定位与IMU动作识别融合的可靠人车临近感知方法,所述步骤S5中,检测用户动作状态的迁移的工作流程为:
S5.1,IMU动作识别子模块采集用户当前手机中线性加速度数据;
S5.2,将采集到的所有线性加速度数据由原来的相对手机屏幕的坐标系转换为相对大地的惯性坐标系;
S5.3,将由S5.2得到的转换坐标系后的数据进行滤波处理,采用均值滤波器的变体形式,且滤波窗长为3;
滤波公式如式(1)所示:
式中ori(i)表示i时刻的线性加速度采集值,processed(i)表示i时刻线性加速度经过预处理后的数据;
S5.4:对步骤S5.3中经过滤波处理后的数据再进行特征向量的提取,在一定的时间窗长范围内提取信号特征向量;
S5.5:对S5.4中提取到的特征向量,利用IMU动作识别模块中内置的决策树分类器模型进行分类,通过该分类器模型区分用户“上车”动作,“下车”动作、行走状态、静止状态、以及车内活动状态,得到用户当前的动作状态V。
8.根据权利要求2所述的基于BLE指纹定位与IMU动作识别融合的可靠人车临近感知方法,所述步骤S6中,根据动作状态V来证实用户当前位置是否发生改变的流程为:
S6.1,如果检测用户位置由FAR区域变成NEAR或者NEAR区域变成FAR,则改变用户位置,直接将蓝牙定位区域B(i)作为用户当前A(i)输出;
S6.2,如果检测用户位置由NEAR区域转变为IN,则需要进一步证实S5中检测到的用户最近时刻动作状态V是否为“上车”动作,如果是则B(i)有效,则改变用户当前位置A(i)为B(i),否则说明B(i)有误,保持原有用户位置状态,将A(i-1)作为A(i)输出;
S6.3,如果检测用户位置由IN区域变成NEAR,则需要进一步证实S5中检测到的用户最近时刻动作状态V是否为“下车”动作,如果是则B(i)有效,则改变用户当前位置A(i)为B(i),否则说明B(i)有误,保持原有用户位置状态,将A(i-1)作为A(i)输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710801995.5A CN107704870B (zh) | 2017-09-07 | 2017-09-07 | 基于ble指纹定位与imu动作识别融合的可靠人车临近感知装置与方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710801995.5A CN107704870B (zh) | 2017-09-07 | 2017-09-07 | 基于ble指纹定位与imu动作识别融合的可靠人车临近感知装置与方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107704870A CN107704870A (zh) | 2018-02-16 |
CN107704870B true CN107704870B (zh) | 2021-04-20 |
Family
ID=61172233
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710801995.5A Active CN107704870B (zh) | 2017-09-07 | 2017-09-07 | 基于ble指纹定位与imu动作识别融合的可靠人车临近感知装置与方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107704870B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111791830A (zh) * | 2019-04-08 | 2020-10-20 | 联合汽车电子有限公司 | 蓝牙信号识别方法与蓝牙信号识别系统 |
CN112824151B (zh) * | 2019-11-20 | 2024-06-04 | 宝马股份公司 | 用于控制车辆内的照明的方法、装置、系统以及车辆 |
CN113382441B (zh) * | 2021-05-24 | 2024-07-30 | 中国移动通信集团陕西有限公司 | 一种识别伴随用户的方法、装置、设备及可读存储介质 |
CN115175311B (zh) * | 2022-09-06 | 2022-12-20 | 上海银基信息安全技术股份有限公司 | 车辆数字钥匙的定位方法、装置、车辆及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103955980A (zh) * | 2014-05-13 | 2014-07-30 | 温州亿通自动化设备有限公司 | 一种基于人体模型特征的公交车客流统计装置及处理方法 |
CN104508719A (zh) * | 2012-07-17 | 2015-04-08 | 日产自动车株式会社 | 驾驶辅助系统以及驾驶辅助方法 |
CN105301558A (zh) * | 2015-09-22 | 2016-02-03 | 济南东朔微电子有限公司 | 一种基于蓝牙位置指纹的室内定位方法 |
CN106225790A (zh) * | 2016-07-13 | 2016-12-14 | 百度在线网络技术(北京)有限公司 | 一种无人车定位精度的确定方法及装置 |
CN106530676A (zh) * | 2016-08-08 | 2017-03-22 | 叶国华 | 一种面向新能源城市公交车的数据融合方法及v2x系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9313343B2 (en) * | 2014-02-20 | 2016-04-12 | Google Inc. | Methods and systems for communicating sensor data on a mobile device |
-
2017
- 2017-09-07 CN CN201710801995.5A patent/CN107704870B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104508719A (zh) * | 2012-07-17 | 2015-04-08 | 日产自动车株式会社 | 驾驶辅助系统以及驾驶辅助方法 |
CN103955980A (zh) * | 2014-05-13 | 2014-07-30 | 温州亿通自动化设备有限公司 | 一种基于人体模型特征的公交车客流统计装置及处理方法 |
CN105301558A (zh) * | 2015-09-22 | 2016-02-03 | 济南东朔微电子有限公司 | 一种基于蓝牙位置指纹的室内定位方法 |
CN106225790A (zh) * | 2016-07-13 | 2016-12-14 | 百度在线网络技术(北京)有限公司 | 一种无人车定位精度的确定方法及装置 |
CN106530676A (zh) * | 2016-08-08 | 2017-03-22 | 叶国华 | 一种面向新能源城市公交车的数据融合方法及v2x系统 |
Non-Patent Citations (2)
Title |
---|
Finding by Counting: A Probabilistic Packet Count Model for Indoor Localization in BLE Environments;Subham De等;《arXiv》;20170827;第1-8页 * |
统一融合定位的核心支撑技术综述;唐上昌;《电子技术与软件工程》;20151231;第32页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107704870A (zh) | 2018-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107650862B (zh) | 一种基于智能手机接近感知的汽车无钥匙进入系统及控制方法 | |
CN107704870B (zh) | 基于ble指纹定位与imu动作识别融合的可靠人车临近感知装置与方法 | |
CN108983204B (zh) | 一种无钥匙进入和无钥匙启动系统定位方法 | |
CN111415347B (zh) | 遗留对象检测方法和装置及交通工具 | |
CN108989541A (zh) | 基于情境的会话启动装置、系统、车辆和方法 | |
CN106846125A (zh) | 基于生物识别的共享车辆及其使用方法、客户端及系统 | |
CN103477597B (zh) | 在应用环境传感器系统的测量结果的情况下为车辆和其他通信参与者之间的无线通信时进行自适应的信道评估的方法 | |
CN107402397B (zh) | 基于移动终端的用户活动状态确定方法、装置及移动终端 | |
CN106658415B (zh) | 共享车辆实景寻找的方法、订车终端及系统 | |
CN110062326B (zh) | 一种车用蓝牙智能钥匙的定位与内外部辨识方法 | |
US20190384277A1 (en) | Remote driving managing apparatus and computer-readable storage medium | |
CN111144446B (zh) | 一种基于时空网格的司机身份识别方法和系统 | |
JP2019220084A (ja) | 解析装置、車載器、及びパターン解析補助装置 | |
CN109637126A (zh) | 一种基于v2x终端的交通对象识别系统及其方法 | |
CN106658416B (zh) | 共享车辆位置的输出方法、订车终端及系统 | |
CN111984806A (zh) | 一种确定车辆与终端关联程度的方法、装置和存储介质 | |
CN109308806A (zh) | 一种交通工具的行驶检测方法及服务器 | |
CN118042416A (zh) | 一种基于多源信息融合的人车路匹配方法、设备和介质 | |
CN206726281U (zh) | 基于生物识别的共享车辆 | |
CN110913065A (zh) | 用于增强型车辆设备连接的设备位置检测 | |
CN109635863B (zh) | 智能判断用户乘车的方法和装置 | |
CN113870555B (zh) | 基于手机imsi码与电子车牌的人车协同识别方法 | |
CN103268710B (zh) | 基于rfid/wsn精准公交到站队列导乘牌系统及工作方法 | |
US11307573B2 (en) | Communication terminal and computer-readable storage medium | |
CN115527373A (zh) | 乘车工具识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |