CN110501674A - 一种基于半监督学习的声信号非视距识别方法 - Google Patents

一种基于半监督学习的声信号非视距识别方法 Download PDF

Info

Publication number
CN110501674A
CN110501674A CN201910770593.2A CN201910770593A CN110501674A CN 110501674 A CN110501674 A CN 110501674A CN 201910770593 A CN201910770593 A CN 201910770593A CN 110501674 A CN110501674 A CN 110501674A
Authority
CN
China
Prior art keywords
acoustical signal
non line
sight
segment
semi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910770593.2A
Other languages
English (en)
Inventor
胡志新
张磊
白旭晶
钟宇
薛文涛
左文斌
焦侃
杨伟婷
王楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changan University
Original Assignee
Changan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changan University filed Critical Changan University
Priority to CN201910770593.2A priority Critical patent/CN110501674A/zh
Publication of CN110501674A publication Critical patent/CN110501674A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/30Determining absolute distances from a plurality of spaced points of known location
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

本发明公开了一种基于半监督学习的声信号非视距识别方法,采集原始声信号x[n],对采集的原始声信号x[n]进行探测及分割,获得互相关结果片段Ri[τ],对得到的互相关结果片段Ri[τ]进行特征提取及非视距识别。能够获取有标签声信号数据样本和无标签数据样本,并提取出声信号数据样本的多个特征,然后基于这些特征值利用半监督学习进行非视距识别。本发明方法根据少量已知类别的声信号数据,自动区分大量未知声信号数据,本发明方法不必获取大量训练数据,节省了人力物力,且分类识别效果较好,解决了只有少量已知样本情况下声信号非视距识别的难题,为基于声技术的室内定位系统的实际应用提供了基础。

Description

一种基于半监督学习的声信号非视距识别方法
技术领域
本发明属于基于室内位置的服务技术领域,具体涉及一种基于半监督学习的声信号非视距识别方法。
背景技术
随着智能手机的普及,基于室内位置的服务需求越来越大,如室内导航、精准营销、公共安全等,尤其是在地下停车场、商场以及展馆等大型建筑中需求更大。针对以上需求,现已提出基于声音、GSM、蓝牙、Wi-Fi、磁场等技术的多种定位方法,而基于声音的定位技术具有与智能手机完全兼容、定位精度高及成本低等优点,成为最有可能解决手机室内定位的系统之一。然而,从2018年微软室内定位大赛的结果来看以及依据室内几何声学理论,当声源广播设备与接收设备间的视距(LOS)路径被遮挡,非视距(NLOS)现象会为距离量测引入一个较大的非负偏差,如图1所示,会降低定位系统的性能和稳定性。非视距(NLOS)现象已成为该类技术的技术瓶颈之一,成为基于声技术的智能移动终端在实际场景中应用的巨大挑战。
通过识别和丢弃NLOS量测值,仅利用LOS量测值可以提高定位精度,由此可得非视距识别的准确度成为室内定位精度的决定因素之一。现基于有监督学习的非视距识别方法运用的是声信号数据的历史信息,当已标记数据量较大时,非视距的识别情况较好。但是,在实际应用中,获得大量声信号数据的“标记”信息十分困难,需要耗费大量人力物力。这一问题限制了有监督学习方法在声信号非视距识别中的应用,迫切需要一种能够基于少量带标签的训练数据,对大量未知输入声信号数据进行非视距识别的方法。
发明内容
针对现在有技术中的技术问题,本发明提供了一种基于半监督学习的声信号非视距识别方法,本发明方法根据少量已知类别的训练数据,自动区分大量未知声信号数据,解决了声信号非视距识别的实际应用问题。
为解决上述技术问题,本发明通过以下技术方案予以解决:
一种基于半监督学习的声信号非视距识别方法,包括以下步骤:
S1:采集原始声信号x[n];
S2:对S1中采集的原始声信号x[n]进行探测及分割,获得互相关结果片段Ri[τ];
S3:对S2中得到的互相关结果片段Ri[τ]进行特征提取及非视距识别。
进一步地,S2包括如下步骤:
S2.1:对原始声信号x[n]进行滤波与增强,获得增强后的声信号x'[n];
S2.2:构造参考信号r[n],利用参考信号r[n]对增强后的声信号x'[n]进行互相关计算,获得结果Rx'r[τ];
S2.3:对S2.2中获得的结果Rx'r[τ]进行探测并进行分割提取,获得互相关结果片段Ri[τ],记第i个增强后的声信号的互相关结果片段为Ri[τ]。
进一步地,S2.1中,x'[n]=IFFT{FFT{x[n]}w[n]},其中w[n]为窗函数;
S2.2中,其中N为x'[n]的长度;
S2.3具体方法如下:
对Rx'r[τ]进行序贯检测,设定序贯装载信号片段的长度为Ts,序贯装载信号片段为seg[τ]=Rx'rs],其中τs=[(i-1)Ts+1:iTs];seg[τ]中包含有效信号的判定方式为K{seg[τ]}≥thd,其中thd为判定阈值,K{·}为波形峰度计算符;若seg[τ]中包含有效信号,则依据信标节点的广播时序将序贯装载信号片段及互相关结果片段与信标节点的ID进行匹配,结果记为ai;计算互相关结果片段中的最大峰值位置,记作截取声信号及互相关结果片段的下标索引为:
信标节点ai声信号的信号片段x′i[n]=x'[idxs:idxe],互相关结果片段Ri[τ]=Rx'r[idxs:idxe]。
进一步地,所述窗函数为矩形窗与布莱克曼窗组成的复合窗函数,利用矩形窗的长度来对原始声信号x[n]进行带通滤波。
进一步地,S3包括如下步骤:
S3.1:对互相关结果片段Ri[τ]的相对增益-时延分布进行估计,获得{Γaτ};
S3.2:从S3.1获得的{Γaτ}中提取能够提取的特征值,记作特征集FN,其中N为特征集的维度,N与所提取和使用的特征值种类数量有关;
S3.3:基于S3.2得到的特征集FN,使用半监督学习的方法对互相关结果片段Ri[τ]进行非视距识别。
进一步地,S3.1中,{Γaτ}表示为:
S3.2中,从{Γaτ}中提取的特征值包括:时延特征、波形特征和莱斯K系数;
S3.3包括如下步骤:
S3.3.1:在视距和非视距样本中分别各取部分数据作为已知类别的监督数据,进行标签扩散;
S3.3.2:对S3.3.1中经过标签扩散后的声信号数据进行分类识别。
进一步地,S3.3.1的具体方法为:
S3.3.1.1:设置标签扩散参数为L;
S3.3.1.2:计算每个标记已知类别的声信号数据和各个未知类别的声信号数据间距离,距离计算公式如下:
其中d为两个声信号数据特征集间的距离,x,y分别为两个声信号数据的特征集,N为特征集维度,i为从1到N的索引,xi和yi为x,y在当前索引维数下的特征值;
S3.3.1.3:根据距离计算结果,从小到大对所有未知类别的声信号数据进行排序;
S3.3.1.4:将距离最小的未知类别的声信号数据,标记成与该已知数据相同的类别标签。
进一步地,S3.3.2的具体方法为:
S3.3.2.1:设置分类参数为K;
S3.3.2.2:计算每个未知类别的声信号数据和各个已知类别的声信号数据间距离,所采用计算公式与S3.3.1.2中的计算公式相同;
S3.3.2.3:对每个未知类别的声信号数据,根据距离值计算结果,从小到大对所有已知类别的声信号数据进行排序;
S3.3.2.4:将距离值最小的已知类别的声信号数据中,出现频率最高的类别标签作为该未知数据的标签。
与现有技术相比,本发明至少具有以下有益效果:本发明一种基于半监督学习的声信号非视距识别方法,包括数据采集、声信号的探测及分割、特征提取及非视距识别,能够获取有标签声信号数据样本和无标签数据样本,并提取出声信号数据样本的多个特征,然后基于这些特征值利用半监督学习进行非视距识别。现有利用监督学习进行非视距识别方法,该方法仅在获取大量已知类别的声信号数据作为训练数据时,识别效果较理想,然而,实际应用中获取已知类别数据远远比获取未知类别数据难度大得多,本发明方法在获取少量已知类别的声信号数据后,充分利用大量未知类别的声信号数据,二者共同作为训练数据进行非视距识别,节省了人力物力,且分类识别效果较好,解决了只有少量已知样本情况下声信号非视距识别的难题,为基于声技术的室内定位系统的实际应用提供了基础。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式中的技术方案,下面将对具体实施方式描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为室内声信号视距及非视距传播场景描述;
图2为数据采集场景示意图;
图3为本发明方法对所采集的测试数据集进行识别后的结果展示;
图4为所采集原始声信号的图像展示。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例以某地下停车库为实验场景,搭建基于声技术的室内定位系统,进行原始声信号的数据采集,并完成非视距识别,说明基于半监督学习方法在声信号非视距识别中的应用,为进一步提高基于声技术的室内定位精度奠定基础。
本发明一种基于半监督学习的声信号非视距识别方法,包括以下步骤:
S1:采集原始声信号x[n],原始声信号作为样本数据,其中包括视距和非视距样本;如图4所示为采集到的某一个原始声信号图像展示,由图4可知该原始信号包括6个有效信号片段,分别由6个不同信标节点广播产生;
在如图2所示示意场景中搭建基于声技术的室内定位系统,整个系统由6个信标节点(编号1-6)、1个标签组成,其中,信标节点固定高度为2.5米进行声信号的广播,按照固定时序发送线性调频信号,即其中f0为起始频率,b0为调频斜率,b0t为信号的时域带宽。而标签进行声信号的接收;
所选数据采集场景可划分为4个区域,其中,区域1接收到信标节点1,2,4,5的声信号为视距信号,接收到信标节点3,6的声信号为非视距信号;区域2接收到信标节点3,4,5的声信号为视距信号,接收到信标节点1,2,6的声信号为非视距信号;区域3接收到信标节点1,2,3,4,5的声信号为视距信号,接收到信标节点6的声信号为非视距信号;区域4接收到信标节点6的声信号为视距信号,接收到信标节点1,2,3,4,5的声信号均为非视距信号;
将每个区域大致划分成由1m×1m的网格组成,网格交点即为数据采集点;
将定制标签安装在三角架上并调节高度为1.2m,由区域1到区域4,放于网格交点依次进行声信号数据采集,原始声信号记作x[n]。
S2:对S1中采集的原始声信号x[n]进行探测及分割,获得互相关结果片段Ri[τ],具体包括如下步骤:
S2.1:对原始声信号x[n]进行滤波与增强,获得增强后的声信号x'[n],通过x'[n]=IFFT{FFT{x[n]}w[n]}获得,其中w[n]为窗函数,本实施例中窗函数为矩形窗与布莱克曼窗组成的复合窗函数,利用矩形窗的长度来对原始声信号x[n]进行带通滤波;
S2.2:构造参考信号r[n],利用参考信号r[n]对增强后的声信号x'[n]进行互相关计算,获得结果Rx'r[τ],其中N为x'[n]的长度;
S2.3:对S2.2中获得的结果Rx'r[τ]进行探测并进行分割提取,获得互相关结果片段Ri[τ],记第i个增强后的声信号的互相关结果片段为Ri[τ],具体方法为:
对Rx'r[τ]进行序贯检测,以确定有效信号的下标索引号;设定序贯装载信号片段的长度为50ms,记作Ts=0.05fs,序贯装载信号片段为seg[τ]=Rx'rs],其中τs=[(i-1)Ts+1:iTs];那么seg[τ]中包含有效信号的判定方式为K{seg[τ]}≥thd,其中thd为判定阈值,K{·}为波形峰度计算符;若seg[τ]中包含有效信号,则依据信标节点的广播时序将序贯装载信号片段及互相关结果片段与信标节点的ID进行匹配,结果记为ai;计算互相关结果片段中的最大峰值位置,记作截取声信号及互相关结果片段的下标索引为:
信标节点ai声信号的信号片段x′i[n]=x'[idxs:idxe],互相关结果片段Ri[τ]=Rx'r[idxs:idxe],随后依次截取和存储所有信标节点的声信号片段及互相关结果片段;
S3:对S2中得到的互相关结果片段Ri[τ]进行特征提取及非视距识别,具体包括如下步骤:
S3.1:对互相关结果片段Ri[τ]的相对增益-时延分布进行估计,获得{Γaτ},表示为:
S3.2:从S3.1获得的{Γaτ}中提取能够提取的特征值,记作特征集FN,其中N为特征集的维度,N与所提取和使用的特征值种类数量有关;本实施例中,提取的特征值包括:时延特征、波形特征和莱斯K系数;
S3.3:基于S3.2得到的特征集FN,使用半监督学习的方法对互相关结果片段Ri[τ]进行非视距识别,具体包括如下步骤:
S3.3.1:在视距和非视距样本中分别各取部分数据(该实施例设置标签扩散参数L=30,即已知视距和非视距类别的样本各为30个)作为已知类别的监督数据,进行标签扩散,具体方法为:
S3.3.1.1:设置标签扩散参数为L=30;
S3.3.1.2:计算每个标记已知类别的声信号数据和各个未知类别的声信号数据间距离,距离计算公式如下:
其中d为两个声信号数据特征集间的距离,x,y分别为两个声信号数据的特征集,N为特征集维度,i为从1到N的索引,xi和yi为x,y在当前索引维数下的特征值;
S3.3.1.3:根据距离计算结果,从小到大对所有未知类别的声信号数据进行排序;
S3.3.1.4:将距离最小的未知类别的声信号数据,标记成与该已知数据相同的类别标签;
S3.3.2:对S3.3.1中经过标签扩散后的声信号数据进行分类识别,具体方法为:
S3.3.2.1:设置分类参数为K=5;
S3.3.2.2:计算每个未知类别的声信号数据和各个已知类别的声信号数据间距离,所采用计算公式与S3.3.1.2中的计算公式相同;
S3.3.2.3:对每个未知类别的声信号数据,根据距离值计算结果,从小到大对所有已知类别的声信号数据进行排序;
S3.3.2.4:将距离值最小的5个已知类别的声信号数据中,出现频率最高的类别标签作为该未知数据的标签。
对于样本数量较少的训练集,监督学习和半监督学习对声信号非视距识别的结果如图3所示。识别结果表明所提出的半监督学习方法可以在只获得少量已知类别的声信号数据情况下,对大量未知类别声信号数据进行识别分类,分类效果优于监督学习分类算法。本方法不必获取大量训练数据,节省了人力物力,解决了只有少量已知样本情况下声信号非视距识别的难题。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (8)

1.一种基于半监督学习的声信号非视距识别方法,其特征在于,包括以下步骤:
S1:采集原始声信号x[n];
S2:对S1中采集的原始声信号x[n]进行探测及分割,获得互相关结果片段Ri[τ];
S3:对S2中得到的互相关结果片段Ri[τ]进行特征提取及非视距识别。
2.根据权利要求1所述的一种基于半监督学习的声信号非视距识别方法,其特征在于,S2包括如下步骤:
S2.1:对原始声信号x[n]进行滤波与增强,获得增强后的声信号x'[n];
S2.2:构造参考信号r[n],利用参考信号r[n]对增强后的声信号x'[n]进行互相关计算,获得结果Rx'r[τ];
S2.3:对S2.2中获得的结果Rx'r[τ]进行探测并进行分割提取,获得互相关结果片段Ri[τ],记第i个增强后的声信号的互相关结果片段为Ri[τ]。
3.根据权利要求2所述的一种基于半监督学习的声信号非视距识别方法,其特征在于,
S2.1中,x'[n]=IFFT{FFT{x[n]}w[n]},其中w[n]为窗函数;
S2.2中,其中N为x'[n]的长度;
S2.3具体方法如下:
对Rx'r[τ]进行序贯检测,设定序贯装载信号片段的长度为Ts,序贯装载信号片段为seg[τ]=Rx'rs],其中τs=[(i-1)Ts+1:iTs];seg[τ]中包含有效信号的判定方式为K{seg[τ]}≥thd,其中thd为判定阈值,K{·}为波形峰度计算符;若seg[τ]中包含有效信号,则依据信标节点的广播时序将序贯装载信号片段及互相关结果片段与信标节点的ID进行匹配,结果记为ai;计算互相关结果片段中的最大峰值位置,记作截取声信号及互相关结果片段的下标索引为:
信标节点ai声信号的信号片段x′i[n]=x'[idxs:idxe],互相关结果片段Ri[τ]=Rx'r[idxs:idxe]。
4.根据权利要求2所述的一种基于半监督学习的声信号非视距识别方法,其特征在于,所述窗函数为矩形窗与布莱克曼窗组成的复合窗函数,利用矩形窗的长度来对原始声信号x[n]进行带通滤波。
5.根据权利要求1所述的一种基于半监督学习的声信号非视距识别方法,其特征在于,
S3包括如下步骤:
S3.1:对互相关结果片段Ri[τ]的相对增益-时延分布进行估计,获得{Γaτ};
S3.2:从S3.1获得的{Γaτ}中提取能够提取的特征值,记作特征集FN,其中N为特征集的维度,N与所提取和使用的特征值种类数量有关;
S3.3:基于S3.2得到的特征集FN,使用半监督学习的方法对互相关结果片段Ri[τ]进行非视距识别。
6.根据权利要求5所述的一种基于半监督学习的声信号非视距识别方法,其特征在于,
S3.1中,{Γaτ}表示为:
S3.2中,从{Γaτ}中提取的特征值包括:时延特征、波形特征和莱斯K系数;
S3.3包括如下步骤:
S3.3.1:在视距和非视距样本中分别各取部分数据作为已知类别的监督数据,进行标签扩散;
S3.3.2:对S3.3.1中经过标签扩散后的声信号数据进行分类识别。
7.根据权利要求6所述的一种基于半监督学习的声信号非视距识别方法,其特征在于,
S3.3.1的具体方法为:
S3.3.1.1:设置标签扩散参数为L;
S3.3.1.2:计算每个标记已知类别的声信号数据和各个未知类别的声信号数据间距离,距离计算公式如下:
其中d为两个声信号数据特征集间的距离,x,y分别为两个声信号数据的特征集,N为特征集维度,i为从1到N的索引,xi和yi为x,y在当前索引维数下的特征值;
S3.3.1.3:根据距离计算结果,从小到大对所有未知类别的声信号数据进行排序;
S3.3.1.4:将距离最小的未知类别的声信号数据,标记成与该已知数据相同的类别标签。
8.根据权利要求7所述的一种基于半监督学习的声信号非视距识别方法,其特征在于,
S3.3.2的具体方法为:
S3.3.2.1:设置分类参数为K;
S3.3.2.2:计算每个未知类别的声信号数据和各个已知类别的声信号数据间距离,所采用计算公式与S3.3.1.2中的计算公式相同;
S3.3.2.3:对每个未知类别的声信号数据,根据距离值计算结果,从小到大对所有已知类别的声信号数据进行排序;
S3.3.2.4:将距离值最小的已知类别的声信号数据中,出现频率最高的类别标签作为该未知数据的标签。
CN201910770593.2A 2019-08-20 2019-08-20 一种基于半监督学习的声信号非视距识别方法 Pending CN110501674A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910770593.2A CN110501674A (zh) 2019-08-20 2019-08-20 一种基于半监督学习的声信号非视距识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910770593.2A CN110501674A (zh) 2019-08-20 2019-08-20 一种基于半监督学习的声信号非视距识别方法

Publications (1)

Publication Number Publication Date
CN110501674A true CN110501674A (zh) 2019-11-26

Family

ID=68589037

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910770593.2A Pending CN110501674A (zh) 2019-08-20 2019-08-20 一种基于半监督学习的声信号非视距识别方法

Country Status (1)

Country Link
CN (1) CN110501674A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111308420A (zh) * 2019-12-06 2020-06-19 长安大学 一种基于声信号时延估计及到达频率的室内非视距定位方法
CN117118797A (zh) * 2023-10-25 2023-11-24 西华大学 一种基于LoS感知辅助的OFDM系统定时同步方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102074236A (zh) * 2010-11-29 2011-05-25 清华大学 一种分布式麦克风的说话人聚类方法
WO2012167479A1 (en) * 2011-07-15 2012-12-13 Huawei Technologies Co., Ltd. Method and apparatus for processing a multi-channel audio signal
WO2014024382A1 (ja) * 2012-08-09 2014-02-13 リオン株式会社 騒音観測装置及び騒音観測方法
CN104880693A (zh) * 2014-02-27 2015-09-02 华为技术有限公司 室内定位方法和装置
CN105323772A (zh) * 2015-09-23 2016-02-10 浙江大学 一种基于智能手机的传感器网络节点自定位方法
CN107423762A (zh) * 2017-07-26 2017-12-01 江南大学 基于流形正则化的半监督指纹定位算法
CN109470686A (zh) * 2018-11-19 2019-03-15 北京理工大学 一种基于半监督学习的激光诱导击穿光谱分类识别方法
US20190097865A1 (en) * 2012-12-05 2019-03-28 Origin Wireless, Inc. Apparatus, systems and methods for event recognition based on a wireless signal

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102074236A (zh) * 2010-11-29 2011-05-25 清华大学 一种分布式麦克风的说话人聚类方法
WO2012167479A1 (en) * 2011-07-15 2012-12-13 Huawei Technologies Co., Ltd. Method and apparatus for processing a multi-channel audio signal
WO2014024382A1 (ja) * 2012-08-09 2014-02-13 リオン株式会社 騒音観測装置及び騒音観測方法
US20190097865A1 (en) * 2012-12-05 2019-03-28 Origin Wireless, Inc. Apparatus, systems and methods for event recognition based on a wireless signal
CN104880693A (zh) * 2014-02-27 2015-09-02 华为技术有限公司 室内定位方法和装置
CN105323772A (zh) * 2015-09-23 2016-02-10 浙江大学 一种基于智能手机的传感器网络节点自定位方法
CN107423762A (zh) * 2017-07-26 2017-12-01 江南大学 基于流形正则化的半监督指纹定位算法
CN109470686A (zh) * 2018-11-19 2019-03-15 北京理工大学 一种基于半监督学习的激光诱导击穿光谱分类识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张磊: "基于声音的智能移动终端室内定位关键技术研究", 《中国优秀博硕士论文全文数据库(博士)信息科技辑》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111308420A (zh) * 2019-12-06 2020-06-19 长安大学 一种基于声信号时延估计及到达频率的室内非视距定位方法
CN117118797A (zh) * 2023-10-25 2023-11-24 西华大学 一种基于LoS感知辅助的OFDM系统定时同步方法
CN117118797B (zh) * 2023-10-25 2023-12-19 西华大学 一种基于LoS感知辅助的OFDM系统定时同步方法

Similar Documents

Publication Publication Date Title
CN104812061B (zh) 一种基于mimo-ofdm信道状态信息的室内测距及定位方法
US20180294901A1 (en) Systems, methods, and devices for electronic spectrum management
CN104853379B (zh) 一种无线网络质量评估方法及装置
CN107276707B (zh) 一种基于多属性分析的黑广播自动化分析方法及智能化识别装置
CN106792808A (zh) 一种基于信道状态信息的室内环境下视距路径识别方法
EP2827326A1 (en) Scene recognition method, device and mobile terminal based on ambient sound
CN111428561B (zh) 一种宽带电磁干扰源识别方法及系统、储存介质、设备
CN110501674A (zh) 一种基于半监督学习的声信号非视距识别方法
US9559794B2 (en) Apparatus and method for detecting signals
CN106851571A (zh) 一种基于决策树的快速KNN室内WiFi定位方法
CN109803274B (zh) 一种天线方位角优化方法和系统
EP3826203B1 (en) Signal detection device, signal detecting method, control circuit and computer readable storage medium
CN103561380A (zh) 位置指纹定位方法及装置
CN110427878A (zh) 一种快速射电暴信号识别方法与系统
CN103733512A (zh) 用于检测同一信道中同时发射的航空无线电信号的方法和设备
CN109379698B (zh) 基于信道模型特征提取的小区测量报告定位方法及系统
CN108243495A (zh) 一种位置指纹数据库建立方法、装置和终端定位方法
CN102707160A (zh) 一种航空无线电导航台站电磁环境自动化测试装置及其方法
CN108718254A (zh) 地铁室内分布系统故障定位方法及系统
CN115987386A (zh) 一种光缆同路由检测装置和方法
CN110995374A (zh) 黑广播信号监测系统
CN106510988A (zh) 一种支持智能终端机械结构的智能轮椅
CN104683983B (zh) 伪基站监测定位系统及方法
CN112770349A (zh) 一种基于5g无线频谱的智能监测分析平台
CN107426685A (zh) 一种获取多模定位指纹数据库的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned

Effective date of abandoning: 20231017

AD01 Patent right deemed abandoned