CN114706061A - 基于声波的融合定位方法和装置 - Google Patents
基于声波的融合定位方法和装置 Download PDFInfo
- Publication number
- CN114706061A CN114706061A CN202210354413.4A CN202210354413A CN114706061A CN 114706061 A CN114706061 A CN 114706061A CN 202210354413 A CN202210354413 A CN 202210354413A CN 114706061 A CN114706061 A CN 114706061A
- Authority
- CN
- China
- Prior art keywords
- angle
- intelligent equipment
- intelligent
- fusion
- receiving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/14—Systems for determining distance or velocity not using reflection or reradiation using ultrasonic, sonic, or infrasonic waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1652—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
本发明公开了一种基于声波的融合定位方法,调用智能设备中配置的角度传感器,获得智能设备上配置的任意两个接收端/发射端连线与水平面的夹角α;当α不大于θ时,获得一个接收端/发射端到目标设备连线与两个接收端/发射端连线所夹角为超声角z;使智能设备持续转动,调用角度传感器,获得智能设备在水平面中的转动方向和转动角度;将每次获得的修正超声角及对应的变化角度输入智能设备预写入的公式,输出测角结果。本发明融合IMU至声波定位体系中,利用IMU读取的角度变化值,修正声波定位测角,提高测角精度,既能提高定位效果,又能实现智能设备在任意角度实现定位测角的功能,排除了特定角度下的不置信区间,提高了声波定位、测角的适用性。
Description
技术领域
本发明涉及一种基于声波的融合定位方法和装置,属于定位技术领域。
背景技术
物联网(Internet of Things,简称IOT)是指通过各种信息传感器、射频识别技术、全球定位系统、红外感应器、激光扫描器等各种装置与技术,实时采集任何需要监控、连接、互动的物体或过程,采集其声、光、热、电、力学、化学、生物、位置等各种需要的信息,通过各类可能的网络接入,实现物与物、物与人的泛在连接,实现对物品和过程的智能化感知、识别和管理。物联网是一个基于互联网、传统电信网等的信息承载体,它让所有能够被独立寻址的普通物理对象形成互联互通的网络。
在物联网应用中,位置感知尤其重要,但是单个位置传感器常常存在定位误差,特别是采用声波定位时,处于某些姿态的智能设备,其本身的遮挡就会对信道产生影响,从而使定位结果出现误差,达不到满意的定位精度,难以满足物联网定位需求。
发明内容
本发明的目的是提供一种基于声波的融合定位方法和装置,该方法和装置不仅解决了现有技术中智能设备采用声波定位时,智能设备本身对信道产生遮蔽的问题,还解决了多传感器融合实现相对角度测算的问题。
为达到上述目的,本发明采用的技术方案是:一种基于声波的融合定位方法,所述方法包括以下步骤:
调用智能设备中配置的角度传感器,获得智能设备上配置的任意两个接收端/发射端连线与水平面的夹角α;
当α不大于θ时,所述接收端持续接收目标设备发出的直达声波定位信号/所述目标设备持续接收发射端发出的直达声波定位信号,获得一个接收端/发射端到目标设备连线与两个接收端/发射端连线所夹角为超声角z;
同时,使智能设备持续转动,调用角度传感器,获得智能设备在水平面中的转动方向和转动角度;
在同一转动方向的转动趋势中,当超声角随转动角度变大而变大时,修正超声角Z=z,当超声角随转动角度变大而变小时,修正超声角Z=z-180;
将每次获得的修正超声角及对应的变化角度输入智能设备预写入的公式:
⑥xk=A·yk-1+B;
⑨yk=xk+kk·(Z-H·xk);
其中,xk为先验估计值,A为状态转移矩阵、且A=1,yk为后验估计值,k=0、1、2……,用于表征移动过程中的融合测量节点,B为k-(k-1)时间差中的转动角度变化量,当Zk-Zk-1>0时,B取正值,当Zk-Zk-1小于0时,B取负值,为先验协方差矩阵,Pk为后验协方差矩阵,Q为IMU测角的方差,kk为卡尔曼系数,H为转换矩阵、且H=1,R为超声测角的方差;
当β≤z≤ε时,R趋向于0,当z<β、z>ε时,1/R趋向于0;
输出yk作为测角结果。
上述技术方案中进一步改进的方案如下:
1.上述方案中,β=60~80°,ε=100~120°。
2.上述方案中,当α大于θ时,调用所述智能设备配置的摄像头,图像识别获取目标设备与智能设备的相对角度。
3.上述方案中,所述θ=15~45°。
4.上述方案中,当Z>0、两个接收端/发射端连线在水平面中的转动方向为顺时针时,B取正值,逆时针时取负值,当Z<0、两个接收端/发射端连线在水平面中的转动方向为顺时针时,B取负值,逆时针时取正值。
5.上述方案中,在声波定位的同时使智能设备在竖直方向上位移,获得接收端/发射端与目标设备的距离Ln,所述智能设备输出Ln变小的位移方向。
6.上述方案中,所述声波定位信号中携带有目标设备/智能设备标识。
7.上述方案中,所述接收端/发射端安装于智能设备显示界面的两端。
8.上述方案中,输出所述目标设备相对智能设备的位置,所述相对位置为:以两个接收端/发射端连线作垂直于智能设备显示界面的垂直面,垂直面的一侧与Z的正值对应,另一侧与Z的负值对应,所述智能设备根据Z值的正负输出目标设备位与垂直面的位置关系作为目标设备相对智能设备的位置。
9.上述方案中,所述接收端为麦克风单元/所述发射端为扬声器单元。
本发明还提供了一种技术方案:一种基于声波的融合定位装置,所述装置包括处理器和存储器;
所述存储器用于存储执行权利要求1-10中任一项方法的可执行程序指令;
所述处理器用于执行所述存储器中存储的程序指令。
本发明还提供了另一种技术方案:一种计算机可读存储介质,其特征在于,该计算机可读存储介质存储有可执行程序指令,所述可执行程序指令被运行时,用于执行上述1-10中的任一项方法所述的步骤。
由于上述技术方案的运用,本发明与现有技术相比具有下列优点:
1、本发明一种基于声波的融合定位方法和装置,通过融合IMU至声波定位体系中,利用IMU读取的角度变化值,修正声波定位测角,提高测角精度,既能进一步提高定位效果,又能实现智能设备在任意角度实现定位测角的功能,排除了特定角度下的不置信区间,提高了声波定位、测角的适用性;同时,特别对于现有的智能设备来说,大多数使用状态均为手持/穿戴,此种状态下,两个接收端/发射端连线与水平面的夹角处于IMU修正声波测角的范围内,修正过程既符合人体工程力学,又满足智能设备的常用状态,实用性强。
2、本发明一种基于声波的融合定位方法和装置,通过已知的置信区间和不置信区间,提高置信区间声波测角的权重,降低其在不置信区间的权重,修正卡尔曼系数,提高修正测角循环过程的修正精度,从而加快修正速度,提高测角精度。
3、本发明一种基于声波的融合定位方法和装置,通过调用摄像头图像识别获取目标设备与智能设备的相对角度,弥补α大于θ后,IMU修正声波测角失去效果的问题,完善多种使用姿态下,智能设备的测角效果。
4、本发明一种基于声波的融合定位方法和装置,通过转动方向的识别,进一步补充B值取正负的判断条件,避免k和k+1的Z值跨越0/180时产生的误判。
5、本发明一种基于声波的融合定位方法和装置,通过Z值的正负及竖直方向上Ln值的变化获取用户视角的三维空间中目标设备相对于智能设备,位于智能设备的左侧/右侧、位于其上方/下方,使得用户能够更为直观的获取设备之间的位置关系,便于使用并进行后续操作。
附图说明
附图1为本发明的一种基于声波的融合定位方法的流程示意图。
具体实施方式
实施例1:一种基于声波的融合定位方法,参照附图1,此方法包括:
S1:调用智能设备中配置的角度传感器—IMU,获取智能设备上配置的两个接收端连线与水平面的夹角α,这里,智能设备为智能手机,接收端为配置于智能手机前端和后端的自带麦克风,其连线与智能手机的显示界面平行,用于表征手机长度方向的主体,而IMU为目前主流智能手机中的自带模块,也无需另外添加,调用其数据时,既可读取手机底层信息,获得IMU数据,也可重新接入IMU模块,直接获取其数据。
S2:当α不大于15°时,开启声波定位融合IMU数据修正测角的指令;
此时,通过蓝牙广播的形式,通知目标设备开启声波定位,分别激活目标设备的发射端(扬声器)和智能设备的接收端,接收端持续接收目标设备发出的直达声波定位信号,其中,声波定位信号为超声波定位信号,信号中携带有发送时刻及接收时刻,测得位于智能手机后端的接收端与目标设备(发射端)连线与两个接收端连线所夹超声角z;
测角方法为:两个接收端的距离已知、两个接收端分别与目标设备(发射端)的距离通过飞行时间算法可知,其构建的三角形中,已知的三边可计算出所需的超声角z的值;这里,无论是时间同步,还是时间不同步下的超声测距/测角已在我司过往的专利中有详尽的阐述,这里不再赘述。
在超声定位的同时,调用IMU,获得智能设备的转动方向和转动角度,这里的转动角度为第一使用状态到第二使用状态的变化角度,而使用状态的判断以固定时间长度或转动停顿作为划分界限,将超声角z、后端接收端与目标设备(发射端)的距离Ln和对应时刻的角度变化值存储至智能设备的存储器中,便于调用进行修正。
S3:随着智能设备在贴近水平面的转动,由于智能设备跨越两个接收端与目标设备(发射端)三点一线的状态时,超声角z存在相同值,用户难以判断目标设备位于智能设备左侧还是右侧,因此,在获得上述数据后优先对z值进行进一步处理,便于测角的循环修正;
Z值的处理方法为:在同一转动方向的转动趋势中,超声角z随转动角度变大而变大的区域中,修正超声角Z=z,在超声角z随转动角度变大而变小的区域中,修正超声角Z=z-180;
这里,记录Z值,并输出Z值的正负;
另外,可使用智能手机的指南针作为角度传感器替代IMU测算水平面中转动角度的效果。
S4:根据记录的数据循环修正测角结果:
①xk=A·yk-1+B;
④yk=xk+kk·(Z-H·xk);
其中,xk为先验估计值,A为状态转移矩阵、且A=1,yk为后验估计值,k=0、1、2……,用于表征移动过程中的融合测量节点,B为k-(k-1)时间差中的转动角度变化量,当Zk-Zk-1>0时,B取正值,当Zk-Zk-1小于0时,B取负值,为先验协方差矩阵,Pk为后验协方差矩阵,Q为IMU测角的方差,kk为卡尔曼系数,H为转换矩阵、且H=1,R为超声测角的方差;
这里,初启动时,先验估计值没有参考数据,但并不影响后续修正,只需持续转动智能手机,获得的状态数据越多,逐渐修正先验估计值,从而获得精确的后验估计值(输出值),这里的融合测量节点可以设置为固定时间长度融合输出一次;另外,IMU的方差(设备固有误差)可直接调用IMU设备信息获得,也可通过实验测量提前获取,而超声测角的方差为:当70°≤z≤110°时,R取0.1,当70°<β、z>110°时,R取1000;
持续移动智能设备,最佳选择为转动智能设备,待测角数据修正精确后,进入使用状态,输出yk,即为修正后的测角结果,同Z值、Ln同步输出至智能设备的显示界面或导入操作序列中,将角度变化转化为操作指令,完成智能设备与目标设备的交互。
实施例2:一种基于声波的融合定位方法,参照附图1,此方法包括:
S1:调用智能设备中配置的角度传感器—IMU,获取智能设备上配置的两个接收端连线与水平面的夹角α,这里,智能设备为智能手机,接收端为配置于智能手机前端和后端的自带麦克风,其连线与智能手机的显示界面平行,用于表征手机长度方向的主体,而IMU为目前主流智能手机中的自带模块,也无需另外添加,调用其数据时,既可读取手机底层信息,获得IMU数据,也可重新接入IMU模块,直接获取其数据。
S2:当α大于30°时,此时,常用使用状态为智能手机前端被抬起,在抬起状态下,调用智能设备配置的摄像头,图像识别获取目标设备与智能设备的相对角度,该方法为:
采集目标设备图片及尺寸,输入智能手机处理器中,建立目标设备模型;
拍摄得到具有目标设备的图像;
建立以图像一角为原点的坐标系,图像单位像素为单位值,图像中心坐标为(x,y),根据目标设备模型找到图像中的目标设备,取图像中目标设备一完整面的四个顶点,以此四个顶点做平行于图像四边的矩形,此矩形任一边像素长度为w,矩形中心点坐标为(a,b);
调用存储在移动设备中的目标设备对应矩形长边的实际边长度W,已知显示界面宽度为M,图像像素宽度为N,输出定位设备图像中的实际长度w′=Mw/N,输出移动设备和定位设备的距离d,d=Mw/NfW,其中,f为摄像单元焦距。
S3:当α不大于30°时,开启声波定位融合IMU数据修正测角的指令;
此时,通过蓝牙广播的形式,通知目标设备开启声波定位,分别激活目标设备的发射端(扬声器)和智能设备的接收端,接收端持续接收目标设备发出的直达声波定位信号,其中,声波定位信号为超声波定位信号,信号中携带有发送时刻及接收时刻,测得位于智能手机后端的接收端与目标设备(发射端)连线与两个接收端连线所夹超声角z;
测角方法为:两个接收端的距离已知、两个接收端分别与目标设备(发射端)的距离通过飞行时间算法可知,其构建的三角形中,已知的三边可计算出所需的超声角z的值;这里,无论是时间同步,还是时间不同步下的超声测距/测角已在我司过往的专利中有详尽的阐述,这里不再赘述。
在超声定位的同时,调用IMU,获得智能设备的转动方向和转动角度,这里的转动角度为第一使用状态到第二使用状态的变化角度,而使用状态的判断以固定时间长度或转动停顿作为划分界限,将超声角z、后端接收端与目标设备(发射端)的距离Ln和对应时刻的角度变化值存储至智能设备的存储器中,便于调用进行修正。
S4:随着智能设备在贴近水平面的转动,由于智能设备跨越两个接收端与目标设备(发射端)三点一线的状态时,超声角z存在相同值,用户难以判断目标设备位于智能设备左侧还是右侧,因此,在获得上述数据后优先对z值进行进一步处理,便于测角的循环修正;
Z值的处理方法为:在同一转动方向的转动趋势中,超声角z随转动角度变大而变大的区域中,修正超声角Z=z,在超声角z随转动角度变大而变小的区域中,修正超声角Z=z-180;
这里,记录Z值,并输出Z值的正负。
S5:根据记录的数据循环修正测角结果:
①xk=A·yk-1+B;
④tk=xk+kk·(Z-H·xk);
其中,xk为先验估计值,A为状态转移矩阵、且A=1,yk为后验估计值,k=0、1、2……,用于表征移动过程中的融合测量节点,B为k-(k-1)时间差中的转动角度变化量,当Zk-Zk-1>0时,B取正值,当Zk-Zk-1小于0时,B取负值,为先验协方差矩阵,Pk为后验协方差矩阵,Q为IMU测角的方差,kk为卡尔曼系数,H为转换矩阵、且H=1,R为超声测角的方差;
这里,当Z>0、两个接收端/连线在水平面中的转动方向为顺时针时,B取正值,逆时针时取负值,当Z<0、两个接收端连线在水平面中的转动方向为顺时针时,B取负值,逆时针时取正值,增加B取值的判断条件,需要同时满足两个条件时,才能确定B取正值/负值,避免转动智能设备跨越两个接收端与目标设备(发射端)在一条直线时,Zk-Zk-1不能准确判断B值正负的情况;
这里,智能手机可以读取指南针数据,得到转动方向为顺时针还是逆时针状态;
这里,初启动时,先验估计值没有参考数据,但并不影响后续修正,只需持续转动智能手机,获得的状态数据越多,逐渐修正先验估计值,从而获得精确的后验估计值(输出值),这里的融合测量节点可以设置为固定时间长度融合输出一次;另外,IMU的方差(设备固有误差)可直接调用IMU设备信息获得,也可通过实验测量提前获取,而超声测角的方差为:当70°≤z≤110°时,R取0.1,当70°<β、z>110°时,R取1000;
持续移动智能设备,最佳选择为转动智能设备,待测角数据修正精确后,进入使用状态,输出yk,即为修正后的测角结果,同Z值、Ln同步输出至智能设备的显示界面或导入操作序列中,将角度变化转化为操作指令,完成智能设备与目标设备的交互。
实施例3:一种基于声波的融合定位方法,参照附图1,此方法包括:
S1:调用智能设备中配置的角度传感器—IMU,获取智能设备上配置的两个发射端连线与水平面的夹角α,这里,智能设备为智能手机,发射端为配置于智能手机前端和后端的自带扬声器,其连线与智能手机的显示界面平行,用于表征手机长度方向的主体,而IMU为目前主流智能手机中的自带模块,也无需另外添加,调用其数据时,既可读取手机底层信息,获得IMU数据,也可重新接入IMU模块,直接获取其数据。
S2:当α大于45°时,此时,常用使用状态为智能手机前端被抬起,在抬起状态下,调用智能设备配置的摄像头,图像识别获取目标设备与智能设备的相对角度,该方法为:
采集目标设备图片及尺寸,输入智能手机处理器中,建立目标设备模型;
拍摄得到具有目标设备的图像;
建立以图像一角为原点的坐标系,图像单位像素为单位值,图像中心坐标为(x,y),根据目标设备模型找到图像中的目标设备,取图像中目标设备一完整面的四个顶点,以此四个顶点做平行于图像四边的矩形,此矩形任一边像素长度为w,矩形中心点坐标为(a,b);
调用存储在移动设备中的目标设备对应矩形长边的实际边长度W,已知显示界面宽度为M,图像像素宽度为N,输出定位设备图像中的实际长度w′=Mw/N,输出移动设备和定位设备的距离d,d=Mw/NfW,其中,f为摄像单元焦距。
S3:当α不大于45°时,开启声波定位融合IMU数据修正测角的指令;
此时,通过蓝牙广播的形式,通知目标设备开启声波定位,分别激活目标设备的接收端(麦克风)和智能设备的发射端,接收端持续接收发射端分别发出的直达声波定位信号,其中,声波定位信号为超声波定位信号,信号中携带有设备标识、发送时刻及接收时刻,测得位于智能手机后端的发射端与目标设备(接收端)连线与两个发射端连线所夹超声角z;
测角方法为:两个发射端的距离已知、两个发射端分别与目标设备(接收端)的距离通过飞行时间算法可知,其构建的三角形中,已知的三边可计算出所需的超声角z的值;这里,无论是时间同步,还是时间不同步下的超声测距/测角已在我司过往的专利中有详尽的阐述,这里不再赘述。
在超声定位的同时,调用IMU,获得智能设备的转动方向和转动角度,这里的转动角度为第一使用状态到第二使用状态的变化角度,而使用状态的判断以固定时间长度或转动停顿作为划分界限,将超声角z、后端接收端与目标设备(接收端)的距离Ln和对应时刻的角度变化值存储至智能设备的存储器中,便于调用进行修正。
S4:随着智能设备在贴近水平面的转动,由于智能设备跨越两个发射端与目标设备(接收端)三点一线的状态时,超声角z存在相同值,用户难以判断目标设备位于智能设备左侧还是右侧,因此,在获得上述数据后优先对z值进行进一步处理,便于测角的循环修正;
Z值的处理方法为:在同一转动方向的转动趋势中,超声角z随转动角度变大而变大的区域中,修正超声角Z=z,在超声角z随转动角度变大而变小的区域中,修正超声角Z=z-180;
这里,记录Z值,并输出Z值的正负。
S5:根据记录的数据循环修正测角结果:
⑥xk=A·yk-1+B;
⑨yk=xk+kk·(Z-H·xk);
其中,xk为先验估计值,A为状态转移矩阵、且A=1,yk为后验估计值,k=0、1、2……,用于表征移动过程中的融合测量节点,B为k-(k-1)时间差中的转动角度变化量,当Zk-Zk-1>0时,B取正值,当Zk-Zk-1小于0时,B取负值,为先验协方差矩阵,Pk为后验协方差矩阵,Q为IMU测角的方差,kk为卡尔曼系数,H为转换矩阵、且H=1,R为超声测角的方差;
这里,当Z>0、两个发射端连线在水平面中的转动方向为顺时针时,B取正值,逆时针时取负值,当Z<0、两个发射端连线在水平面中的转动方向为顺时针时,B取负值,逆时针时取正值,增加B取值的判断条件,需要同时满足两个条件时,才能确定B取正值/负值,避免转动智能设备跨越两个发送端与目标设备(接收端)在一条直线时,Zk-Zk-1不能准确判断B值正负的情况;
这里,初启动时,先验估计值没有参考数据,但并不影响后续修正,只需持续转动智能手机,获得的状态数据越多,逐渐修正先验估计值,从而获得精确的后验估计值(输出值),这里的融合测量节点可以设置为固定时间长度融合输出一次;另外,IMU的方差(设备固有误差)可直接调用IMU设备信息获得,也可通过实验测量提前获取,而超声测角的方差为:当70°≤z≤110°时,R取0.1,当70°<β、z>110°时,R取1000;
持续移动智能设备,最佳选择为转动智能设备,待测角数据修正精确后,进入使用状态,输出yk,即为修正后的测角结果,同Z值、Ln同步输出至智能设备的显示界面或导入操作序列中,将角度变化转化为操作指令,完成智能设备与目标设备的交互。
进一步地,输出所述目标设备相对智能设备的位置,所述相对位置为:以两个,发射端连线作垂直于智能设备显示界面的垂直面,垂直面的一侧(智能手机左侧)与Z的正值对应,另一侧(智能手机右侧)与Z的负值对应,所述智能设备根据Z值的正负输出目标设备位与垂直面的位置关系(左右侧)作为目标设备相对智能设备的位置;
进一步地,在声波定位的同时使智能设备在竖直方向上位移,获得发射端与目标设备的距离Ln,所述智能设备输出Ln变小的位移方向(上侧/下侧)。
实施例4:一种基于声波的融合定位装置,该装置包括处理器和存储器,存储器用于存储执行实施例1-3中任一项方法的可执行程序指令,处理器用于执行所述存储器中存储的程序指令。
实施例5:一种计算机可读存储介质,该计算机可读存储介质存储有可执行程序指令,所述可执行程序指令被运行时,用于执行上述实施例1-3中的任一项方法所述的步骤。
实施例6:一种基于声波的融合定位方法,基于实施例1-5,其中,IMU直接测得的角度是三维空间的角度变化量,将此角度做xy轴水平面上的投影即能得到水平面中的转动方向,由于在θ值以下的夹角中,智能设备于竖直方向角度变化值对两个接收端/发射端形成的线性模型角度测算的影响极小,因此将竖直方向的角度变化忽略。
同时,为了提高修正效果,对于实施例1-5,在持续转动的过程中,保持在同一高度进行修正,提高修正效果,避免Ln大幅变化对修正产生的不良影响,这里的同一高度指用户手持智能设备转动时,保持稳定,避免上下大幅度晃动。
实施例7:一种基于声波的融合定位方法,基于实施例1-6,用户手持智能手机/智能手表进入具有大量可交互设备(电视、音响、电脑、照明设备、投影仪、空调等)的物联网空间,开启融合定位功能,主动转动智能手机,与多个目标设备同时交互,修正其与各个目标设备的相对角度及位置关系,即可进入使用场景,找到对应目标设备交互或直接通过动作指令完成交互操作。
采用上述方案,通过融合IMU至声波定位体系中,利用IMU读取的角度变化值,修正声波定位测角,提高测角精度,既能进一步提高定位效果,又能实现智能设备在任意角度实现定位测角的功能,排除了特定角度下的不置信区间,提高了声波定位、测角的适用性;同时,特别对于现有的智能设备来说,大多数使用状态均为手持/穿戴,此种状态下,两个接收端/发射端连线与水平面的夹角处于IMU修正声波测角的范围内,修正过程既符合人体工程力学,又满足智能设备的常用状态,实用性强。
另外,通过已知的置信区间和不置信区间,提高置信区间声波测角的权重,降低其在不置信区间的权重,修正卡尔曼系数,提高修正测角循环过程的修正精度,从而加快修正速度,提高测角精度。
另外,通过调用摄像头图像识别获取目标设备与智能设备的相对角度,弥补α大于θ后,IMU修正声波测角失去效果的问题,完善多种使用姿态下,智能设备的测角效果。
另外,通过转动方向的识别,进一步补充B值取正负的判断条件,避免k和k+1的Z值跨越0/180时产生的误判。
另外,通过Z值的正负及竖直方向上Ln值的变化获取用户视角的三维空间中目标设备相对于智能设备,位于智能设备的左侧/右侧、位于其上方/下方,使得用户能够更为直观的获取设备之间的位置关系,便于使用并进行后续操作。
上述实施例只为说明本发明的技术构思及特点,其目的在于让熟悉此项技术的人士能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡根据本发明精神实质所作的等效变化或修饰,都应涵盖在本发明的保护范围之内。
Claims (12)
1.一种基于声波的融合定位方法,其特征在于,所述方法包括以下步骤:
调用智能设备中配置的角度传感器,获得智能设备上配置的任意两个接收端/发射端连线与水平面的夹角a;
当a不大于θ时,所述接收端持续接收目标设备发出的直达声波定位信号/所述目标设备持续接收发射端发出的直达声波定位信号,获得一个接收端/发射端到目标设备连线与两个接收端/发射端连线所夹角为超声角z;
同时,使智能设备持续转动,调用角度传感器,获得智能设备在水平面中的转动方向和转动角度;
在同一转动方向的转动趋势中,当超声角随转动角度变大而变大时,修正超声角Z=z,当超声角随转动角度变大而变小时,修正超声角Z=z-180;
将每次获得的修正超声角及对应的变化角度输入智能设备预写入的公式:
①xk=A·yk-1+B;
④yk=xk+kk·(Z-H·xk);
其中,xk为先验估计值,A为状态转移矩阵、且A=1,yk为后验估计值,k=0、1、2……,用于表征移动过程中的融合测量节点,B为k-(k-1)时间差中的转动角度变化量,当Zk-Zk-1>0时,B取正值,当Zk-Zk-1小于0时,B取负值,为先验协方差矩阵,Pk为后验协方差矩阵,Q为IMU测角的方差,kk为卡尔曼系数,H为转换矩阵、且H=1,R为超声测角的方差;
当β≤z≤ε时,R趋向于0,当z<β、z>ε时,1/R趋向于0;
输出yk作为测角结果。
2.根据权利要求1所述的基于声波的融合定位方法,其特征在于,β=60~80°,ε=100~120°。
3.根据权利要求1所述的基于声波的融合定位方法,其特征在于,当a大于θ时,调用所述智能设备配置的摄像头,图像识别获取目标设备与智能设备的相对角度。
4.根据权利要求1所述的基于声波的融合定位方法,其特征在于,所述θ=15~45°。
5.根据权利要求1所述的基于声波的融合定位方法,其特征在于,当Z>0、两个接收端/发射端连线在水平面中的转动方向为顺时针时,B取正值,逆时针时取负值,当Z<0、两个接收端/发射端连线在水平面中的转动方向为顺时针时,B取负值,逆时针时取正值。
6.根据权利要求1所述的基于声波的融合定位方法,其特征在于,在声波定位的同时使智能设备在竖直方向上位移,获得接收端/发射端与目标设备的距离Ln,所述智能设备输出Ln变小的位移方向。
7.根据权利要求1所述的基于声波的融合定位方法,其特征在于,所述声波定位信号中携带有目标设备/智能设备标识。
8.根据权利要求1所述的基于声波的融合定位方法,其特征在于,所述接收端/发射端安装于智能设备显示界面的两端。
9.根据权利要求7所述的基于声波的融合定位方法,其特征在于,输出所述目标设备相对智能设备的位置,所述相对位置为:以两个接收端/发射端连线作垂直于智能设备显示界面的垂直面,垂直面的一侧与Z的正值对应,另一侧与Z的负值对应,所述智能设备根据Z值的正负输出目标设备位与垂直面的位置关系作为目标设备相对智能设备的位置。
10.根据权利要求1~9中任一项所述的基于声波的融合定位方法,其特征在于,所述接收端为麦克风单元/所述发射端为扬声器单元。
11.一种基于声波的融合定位装置,其特征在于,所述装置包括处理器和存储器;
所述存储器用于存储执行权利要求1-10中任一项方法的可执行程序指令;
所述处理器用于执行所述存储器中存储的程序指令。
12.一种计算机可读存储介质,其特征在于,该计算机可读存储介质存储有可执行程序指令,所述可执行程序指令被运行时,用于执行上述1-10中的任一项方法所述的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210354413.4A CN114706061A (zh) | 2022-04-06 | 2022-04-06 | 基于声波的融合定位方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210354413.4A CN114706061A (zh) | 2022-04-06 | 2022-04-06 | 基于声波的融合定位方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114706061A true CN114706061A (zh) | 2022-07-05 |
Family
ID=82172080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210354413.4A Pending CN114706061A (zh) | 2022-04-06 | 2022-04-06 | 基于声波的融合定位方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114706061A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115184941A (zh) * | 2022-07-07 | 2022-10-14 | 浙江德清知路导航科技有限公司 | 一种基于音频的定位寻物方法、系统及设备 |
-
2022
- 2022-04-06 CN CN202210354413.4A patent/CN114706061A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115184941A (zh) * | 2022-07-07 | 2022-10-14 | 浙江德清知路导航科技有限公司 | 一种基于音频的定位寻物方法、系统及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10984554B2 (en) | Monocular vision tracking method, apparatus and non-volatile computer-readable storage medium | |
CN106679651B (zh) | 声源定位方法、装置和电子设备 | |
EP3469306B1 (en) | Geometric matching in visual navigation systems | |
CN110967024A (zh) | 可行驶区域的检测方法、装置、设备及存储介质 | |
WO2018095278A1 (zh) | 飞行器的信息获取方法、装置及设备 | |
US11557083B2 (en) | Photography-based 3D modeling system and method, and automatic 3D modeling apparatus and method | |
CN111436208B (zh) | 一种测绘采样点的规划方法、装置、控制终端及存储介质 | |
WO2019080052A1 (zh) | 姿态标定方法、设备及无人飞行器 | |
CN112261669A (zh) | 网络波束定向控制方法及装置、可读介质和电子设备 | |
CN111602139A (zh) | 图像处理方法、装置、控制终端及可移动设备 | |
WO2019080046A1 (zh) | 惯性测量单元的漂移标定方法、设备及无人飞行器 | |
US11042984B2 (en) | Systems and methods for providing image depth information | |
WO2024109796A1 (zh) | 一种扫描头位姿检测方法、装置、设备及介质 | |
WO2017117749A1 (zh) | 基于多种测距方式的跟焦系统、方法及拍摄系统 | |
CN108007426B (zh) | 一种摄像头测距方法 | |
CN114494388B (zh) | 一种大视场环境下图像三维重建方法、装置、设备及介质 | |
CN111540004A (zh) | 单相机极线校正方法及装置 | |
CN112270702A (zh) | 体积测量方法及装置、计算机可读介质和电子设备 | |
CN113129451B (zh) | 基于双目视觉定位的全息三维影像空间定量投影方法 | |
JP2022531186A (ja) | 情報処理方法、装置、電子機器、記憶媒体およびプログラム | |
CN114706061A (zh) | 基于声波的融合定位方法和装置 | |
WO2020255766A1 (ja) | 情報処理装置、情報処理方法、プログラム、投映装置、および情報処理システム | |
WO2024109795A1 (zh) | 一种扫描处理方法、装置、设备及介质 | |
CN114049401A (zh) | 双目相机标定方法、装置、设备及介质 | |
CN111696141B (zh) | 一种三维全景扫描采集方法、设备及存储设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |