CN105807273B - 声源跟踪方法和装置 - Google Patents

声源跟踪方法和装置 Download PDF

Info

Publication number
CN105807273B
CN105807273B CN201610248866.3A CN201610248866A CN105807273B CN 105807273 B CN105807273 B CN 105807273B CN 201610248866 A CN201610248866 A CN 201610248866A CN 105807273 B CN105807273 B CN 105807273B
Authority
CN
China
Prior art keywords
acoustic target
positional information
target
moment
acoustic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610248866.3A
Other languages
English (en)
Other versions
CN105807273A (zh
Inventor
李峥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201610248866.3A priority Critical patent/CN105807273B/zh
Publication of CN105807273A publication Critical patent/CN105807273A/zh
Application granted granted Critical
Publication of CN105807273B publication Critical patent/CN105807273B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/14Systems for determining distance or velocity not using reflection or reradiation using ultrasonic, sonic, or infrasonic waves

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

本发明公开了一种声源跟踪方法和装置,其中,声源跟踪方法包括:S1、对声源目标进行检测,并获取声源目标在tk时刻的检测次数和最后一次预测时长;S2、根据检测次数和最后一次预测时长判断声源目标是否为真实目标;以及S3、若声源目标为真实目标,则输出声源目标在tk时刻的位置信息预测值。本发明实施例的声源跟踪方法和装置,通过将在同一时刻的位置信息检测值和位置信息预测值进行数据关联,能够准确判断出声源目标是否为真实目标,从而有效消除噪声、声音传播复杂性等因素导致的干扰和漏检,实现对声源目标的连续稳定跟踪,提升机器人声源定位系统的准确性和稳定性,进而提升人机交互体验。

Description

声源跟踪方法和装置
技术领域
本发明涉及声源定位技术领域,尤其涉及一种声源跟踪方法和装置。
背景技术
对于机器人来说,能够对声源目标进行定位和跟踪是非常必要的功能。该功能能够让机器人得知当前发声用户的位置,定位到感兴趣的事件的发声地点。一方面,可以为机器人下一步的行为提供听觉感知支撑;另一方面,也可以为远场语音识别提供增强能力。
目前,为了实现声源定位,主要通过麦克风阵列,使用波束形成的方法获取目标位置。但是,由于声音信号在空间中传播的复杂性,声源目标的位置并不能连续地获取,可能存在中断情况;另外,当检测到有多个目标比较接近或者出现交叉的时候,会对真正声源目标的检测产生干扰,降低声源目标位置检测的成功率,导致人机交互体验下降。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。为此,本发明的一个目的在于提出一种声源跟踪方法,能够实现对声源目标的连续稳定跟踪,提升机器人声源定位系统的准确性和稳定性,进而提升人机交互体验。
本发明的第二个目的在于提出一种声源跟踪装置。
为了实现上述目的,本发明第一方面实施例提出了一种声源跟踪方法,包括:S1、对声源目标进行检测,并获取所述声源目标在tk时刻的检测次数和最后一次预测时长;S2、根据所述检测次数和所述最后一次预测时长判断所述声源目标是否为真实目标;以及S3、若所述声源目标为真实目标,则输出所述声源目标在tk时刻的位置信息预测值。
本发明实施例的声源跟踪方法,通过将在同一时刻的位置信息检测值和位置信息预测值进行数据关联,能够准确判断出声源目标是否为真实目标,从而有效消除噪声、声音传播复杂性等因素导致的干扰和漏检,实现对声源目标的连续稳定跟踪,提升机器人声源定位系统的准确性和稳定性,进而提升人机交互体验。
本发明第二方面实施例提出了一种声源跟踪装置,包括:获取模块,用于对声源目标进行检测,并获取所述声源目标在tk时刻的检测次数和最后一次预测时长;判断模块,用于根据所述检测次数和所述最后一次预测时长判断所述声源目标是否为真实目标;以及输出模块,用于若所述声源目标为真实目标,则输出所述声源目标在tk时刻的位置信息预测值。
本发明实施例的声源跟踪装置,通过将在同一时刻的位置信息检测值和位置信息预测值进行数据关联,能够准确判断出声源目标是否为真实目标,从而有效消除噪声、声音传播复杂性等因素导致的干扰和漏检,实现对声源目标的连续稳定跟踪,提升机器人声源定位系统的准确性和稳定性,进而提升人机交互体验。
附图说明
图1是根据本发明一个实施例的声源跟踪方法的流程图;
图2(a)是本发明实施例中声源目标定位所记录的每一时刻检测到的纬度信息效果示意图;
图2(b)是本发明实施例中声源目标定位所记录的每一时刻检测到的经度信息效果示意图;
图3(a)是本发明实施例中声源目标定位预测的每一时刻的纬度信息效果示意图;
图3(b)是本发明实施例中声源目标定位预测的每一时刻的经度信息效果示意图;
图4是根据本发明一个实施例的声源跟踪装置的结构示意图一;
图5是根据本发明一个实施例的声源跟踪装置的结构示意图二。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的声源跟踪方法和装置。
图1是根据本发明一个实施例的声源跟踪方法的流程图。
如图1所示,声源跟踪方法可包括:
S1、对声源目标进行检测,并获取声源目标在tk时刻的检测次数和最后一次预测时长。
具体地,机器人可基于麦克风阵列对声源目标进行检测。当然,可能会检测到多个声源目标。其中,有的声源目标可能是产生干扰的虚假目标,因此需要识别出真实目标。
在本实施例中,步骤S1可分为以下几个步骤:
S11、实时记录声源目标的位置信息,以生成声源目标对应的轨迹信息。
若要识别出真实目标,需要持续地对多个声源目标进行检测,实时记录下检测到的声源目标的位置信息,以此生成每个声源目标对应的轨迹信息。
S12、获取声源目标在当前时刻的位置信息检测值以及根据轨迹信息生成的声源目标在当前时刻的位置信息预测值。
其中,可基于最小二乘轨迹算法计算声源目标在当前时刻的位置信息预测值。
举例来说,基于麦克风阵列对声源目标进行定位,通常采用球面二维定位,即声源目标的位置信息可通过经纬度表示:θ=[α,β],α为经度,β为纬度。因此,声源目标对应的轨迹信息可表示为θn=[αn(ti),βn(ti)](i=1,2,…,k-1)。其中,n表示第n个声源目标,ti表示某一时刻,例如t1为第一时刻、tk-1为第K-1时刻。由于麦克风阵列和声源目标的相对运动方式并不确定,因此可采用最小二乘算法拟合出一条直线,位置信息预测值计算公式如下:θn'(tk)=atk+b,其中,
最终,可计算出第K时刻的位置信息预测值θn'(tk)=[αn'(tk),βn'(tk)]。
而此时,检测到的位置信息检测值为θm(tk)=[αm(tk),βm(tk)]。由于并不确定检测到的数值是否与第n个声源目标相关联,因此,暂时标记为第m个声源目标。
S13、根据位置信息预测值判断位置信息检测值是否与声源目标关联。
具体地,当位置信息检测值与位置信息预测值的差小于等于预设阈值时,可确定位置信息检测值与声源目标关联。
在确定位置信息检测值与声源目标关联之后,可利用位置信息检测值对位置信息预测值进行卡尔曼滤波,以更新声源目标的轨迹信息。
继续上例进行说明,当位置信息检测值θm(tk)与位置信息预测值θn'(tk)的差小于等于预设阈值λm时,即|θm(tk)-θn'(tk)|≤λm时,说明位置信息检测值θm(tk)与与第n个声源目标相关联。然后可利用位置信息检测值θm(tk)对位置信息预测值进行卡尔曼滤波,从而更新声源目标的轨迹信息。其中,卡尔曼滤波公式为θn(tk)=θn'(tk)+κ(tk)×[θm(tk)-θn'(tk)],其中,κ(tk)为卡尔曼增益,即κ(tk)=[P(tk-1)+Q]×[P(tk-1)+Q+R]-1。其中,P(tk)=[1-κ(tk)]×[P(tk-1)+Q],R表示测量方差,Q表示状态方差。卡尔曼滤波能够提高检测准确性。
当位置信息预测值与位置信息检测值的差大于预设阈值时,确定位置信息检测值与声源目标不关联。举例来说,位置信息检测值与位置信息预测值之间的距离相差过大,说明本该被检测到的位置信息检测值在当前时刻并未出现预定的范围内,则可能是被漏检,也可能是该声源目标消失。
S14、若关联,则声源目标的检测次数加一。
如果确定位置信息检测值与声源目标关联,则说明当前时刻检测到的位置信息检测值被正确检测,可累计记录检测次数。
当达到tk时刻时,可获取声源目标在tk时刻的检测次数和最后一次预测时长。具体地,在进行连续的检测之后,可获取声源目标在tk时刻的检测次数Ln(tk)和最后一次预测时长Pn(tk)。其中,其中,即当位置信息检测值与声源目标关联时,γn(tk)值取1;若不关联,则值取0。
S2、根据检测次数和最后一次预测时长判断声源目标是否为真实目标。
具体地,当声源目标在tk时刻的检测次数大于预设次数,且当声源目标在tk时刻的最后一次预测时长小于第一预设时长时,确定声源目标为真实目标。其中,第一预设时长为真实目标所允许的最大预测时长。用公式进行表示,即Ln(tk)>Qmindetect∩Pn(tk)<Qmaxpredict2,其中,Qmindetect为预设次数,Qmaxpredict2为真实目标所允许的最大预测时长。也就是说,该声源目标既能够被检测到一定多的次数,且上一次预测所用的时间又小于一定时长,说明该声源目标为真实目标。
当声源目标在tk时刻的检测次数大于预设次数,且当声源目标在tk时刻的最后一次预测时长大于等于第一预设时长时,确定声源目标消失。用公式进行表示,即Ln(tk)>Qmindetect∩Pn(tk)≥Qmaxpredict2。也就是说,虽然该声源目标被检测到一定多的次数,但是上一次预测所用的时间超出了允许的范围,未预测出tk时刻的声源目标,则说明该声源目标消失。
当声源目标在tk时刻的检测次数小于预测次数,且当声源目标在tk时刻的最后一次预测时长大于第二预设时长时,确定声源目标为虚假目标,其中,第一预设时长大于第二预设时长。用公式进行表示,即Ln(tk)<Qmindetect∩Pn(tk)>Qmaxpredict1,其中,第二预设时长Qmaxpredict1为声源目标所允许的最大预测时长。第二预设时长Qmaxpredict1要求小于第一预设时长Qmaxpredict2。也就是说,声源目标在一定时间内没被检测到,则说明之前检测到的数值是由其他干扰引起的杂波产生的,可确定其为虚假目标。
S3、若声源目标为真实目标,则输出声源目标在tk时刻的位置信息预测值。
一旦确认声源目标为真实目标,则可输出该声源目标在tk时刻的位置信息预测值。在此之后,获取该声源目标在tk时刻的位置信息检测值,与tk时刻的位置信息预测值进行关联判断。依此类推,继续对tk+1时刻、tk+2时刻…等进行位置信息预测值和位置信息检测值进行关联判断,进而实现对声源目标进行连续跟踪定位。
图2(a)为本发明实施例中声源目标定位所记录的每一时刻检测到的纬度信息效果示意图。图2(b)为本发明实施例中声源目标定位所记录的每一时刻检测到的经度信息效果示意图。图3(a)为本发明实施例中声源目标定位预测的每一时刻的纬度信息效果示意图。图3(b)为本发明实施例中声源目标定位预测的每一时刻的经度信息效果示意图。从上述图中可看出,使用本发明对声源目标进行跟踪定位,能够有效地消除虚假目标和漏检的问题,获得的目标位置信息更准确、稳定。
本发明实施例的声源跟踪方法,通过将在同一时刻的位置信息检测值和位置信息预测值进行数据关联,能够准确判断出声源目标是否为真实目标,从而有效消除噪声、声音传播复杂性等因素导致的干扰和漏检,实现对声源目标的连续稳定跟踪,提升机器人声源定位系统的准确性和稳定性,进而提升人机交互体验。
为实现上述目的,本发明还提出一种声源跟踪装置。
图4是根据本发明一个实施例的声源跟踪装置的结构示意图一。
如图4所示,声源跟踪装置可包括:获取模块110、判断模块120以及输出模块130。
获取模块110用于对声源目标进行检测,并获取声源目标在tk时刻的检测次数和最后一次预测时长。其中,获取模块110可包括生成单元111、获取单元112、判断单元113和计数单元114。
获取模块110可基于麦克风阵列对声源目标进行检测。当然,可能会检测到多个声源目标。其中,有的声源目标可能是产生干扰的虚假目标,因此需要识别出真实目标。
具体地,生成单元111可实时记录声源目标的位置信息,以生成声源目标对应的轨迹信息。若要识别出真实目标,需要持续地对多个声源目标进行检测,实时记录下检测到的声源目标的位置信息,以此生成每个声源目标对应的轨迹信息。
获取单元112可获取声源目标在当前时刻的位置信息检测值以及根据轨迹信息生成的声源目标在当前时刻的位置信息预测值。其中,可基于最小二乘轨迹算法计算声源目标在当前时刻的位置信息预测值。
举例来说,基于麦克风阵列对声源目标进行定位,通常采用球面二维定位,即声源目标的位置信息可通过经纬度表示:θ=[α,β],α为经度,β为纬度。因此,声源目标对应的轨迹信息可表示为θn=[αn(ti),βn(ti)](i=1,2,…,k-1)。其中,n表示第n个声源目标,ti表示某一时刻,例如t1为第一时刻、tk-1为第K-1时刻。由于麦克风阵列和声源目标的相对运动方式并不确定,因此可采用最小二乘算法拟合出一条直线,位置信息预测值计算公式如下:θn'(tk)=atk+b,其中,
最终,可计算出第K时刻的位置信息预测值θn'(tk)=[αn'(tk),βn'(tk)]。
而此时,检测到的位置信息检测值为θm(tk)=[αm(tk),βm(tk)]。由于并不确定检测到的数值是否与第n个声源目标相关联,因此,暂时标记为第m个声源目标。
判断单元113可根据位置信息预测值判断位置信息检测值是否与声源目标关联。具体地,当位置信息检测值与位置信息预测值的差小于等于预设阈值时,可确定位置信息检测值与声源目标关联。当位置信息预测值与位置信息检测值的差大于预设阈值时,确定位置信息检测值与声源目标不关联。举例来说,位置信息检测值与位置信息预测值之间的距离相差过大,说明本该被检测到的位置信息检测值在当前时刻并未出现预定的范围内,则可能是被漏检,也可能是该声源目标消失。
计数单元114可在确定位置信息检测值与声源目标关联时,对声源目标的检测次数进行加一。如果确定位置信息检测值与声源目标关联,则说明当前时刻检测到的位置信息检测值被正确检测,可累计记录检测次数。
当达到tk时刻时,获取模块110可获取声源目标在tk时刻的检测次数和最后一次预测时长。具体地,在进行连续的检测之后,可获取声源目标在tk时刻的检测次数Ln(tk)和最后一次预测时长Pn(tk)。其中,其中,即当位置信息检测值与声源目标关联时,γn(tk)值取1;若不关联,则值取0。
判断模块120用于根据检测次数和最后一次预测时长判断声源目标是否为真实目标。具体地,当声源目标在tk时刻的检测次数大于预设次数,且当声源目标在tk时刻的最后一次预测时长小于第一预设时长时,确定声源目标为真实目标。其中,第一预设时长为真实目标所允许的最大预测时长。用公式进行表示,即Ln(tk)>Qmindetect∩Pn(tk)<Qmaxpredict2,其中,Qmindetect为预设次数,Qmaxpredict2为真实目标所允许的最大预测时长。也就是说,该声源目标既能够被检测到一定多的次数,且上一次预测所用的时间又小于一定时长,说明该声源目标为真实目标。
当声源目标在tk时刻的检测次数大于预设次数,且当声源目标在tk时刻的最后一次预测时长大于等于第一预设时长时,确定声源目标消失。用公式进行表示,即Ln(tk)>Qmindetect∩Pn(tk)≥Qmaxpredict2。也就是说,虽然该声源目标被检测到一定多的次数,但是上一次预测所用的时间超出了允许的范围,未预测出tk时刻的声源目标,则说明该声源目标消失。
当声源目标在tk时刻的检测次数小于预测次数,且当声源目标在tk时刻的最后一次预测时长大于第二预设时长时,确定声源目标为虚假目标,其中,第一预设时长大于第二预设时长。用公式进行表示,即Ln(tk)<Qmindetect∩Pn(tk)>Qmaxpredict1,其中,第二预设时长Qmaxpredict1为声源目标所允许的最大预测时长。第二预设时长Qmaxpredict1要求小于第一预设时长Qmaxpredict2。也就是说,声源目标在一定时间内没被检测到,则说明之前检测到的数值是由其他干扰引起的杂波产生的,可确定其为虚假目标。
输出模块130用于若声源目标为真实目标,则输出声源目标在tk时刻的位置信息预测值。一旦确认声源目标为真实目标,输出模块130则可输出该声源目标在tk时刻的位置信息预测值。在此之后,获取该声源目标在tk时刻的位置信息检测值,与tk时刻的位置信息预测值进行关联判断。依此类推,继续对tk+1时刻、tk+2时刻…等进行位置信息预测值和位置信息检测值进行关联判断,进而实现对声源目标进行连续跟踪定位。
图2(a)为本发明实施例中声源目标定位所记录的每一时刻检测到的纬度信息效果示意图。图2(b)为本发明实施例中声源目标定位所记录的每一时刻检测到的经度信息效果示意图。图3(a)为本发明实施例中声源目标定位预测的每一时刻的纬度信息效果示意图。图3(b)为本发明实施例中声源目标定位预测的每一时刻的经度信息效果示意图。从上述图中可看出,使用本发明对声源目标进行跟踪定位,能够有效地消除虚假目标和漏检的问题,获得的目标位置信息更准确、稳定。
此外,如图5所示,获取模块110还可包括更新单元115。
更新模块115用于在确定位置信息检测值与声源目标关联之后,利用位置信息检测值对位置信息预测值进行卡尔曼滤波,以更新声源目标的轨迹信息。举例来说,当位置信息检测值θm(tk)与位置信息预测值θn'(tk)的差小于等于预设阈值λm时,即|θm(tk)-θn'(tk)|≤λm时,说明位置信息检测值θm(tk)与与第n个声源目标相关联。然后可利用位置信息检测值θm(tk)对位置信息预测值进行卡尔曼滤波,从而更新声源目标的轨迹信息。其中,卡尔曼滤波公式为θn(tk)=θn'(tk)+κ(tk)×[θm(tk)-θn'(tk)],其中,κ(tk)为卡尔曼增益,即κ(tk)=[P(tk-1)+Q]×[P(tk-1)+Q+R]-1。其中,P(tk)=[1-κ(tk)]×[P(tk-1)+Q],R表示测量方差,Q表示状态方差。卡尔曼滤波能够提高检测准确性。
本发明实施例的声源跟踪装置,通过将在同一时刻的位置信息检测值和位置信息预测值进行数据关联,能够准确判断出声源目标是否为真实目标,从而有效消除噪声、声音传播复杂性等因素导致的干扰和漏检,实现对声源目标的连续稳定跟踪,提升机器人声源定位系统的准确性和稳定性,进而提升人机交互体验。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (14)

1.一种声源跟踪方法,其特征在于,包括以下步骤:
S1、对声源目标进行检测,并获取所述声源目标在tk时刻的检测次数和最后一次预测时长;
其中,所述步骤S1,包括:
S11、实时记录所述声源目标的位置信息,以生成所述声源目标对应的轨迹信息;
S12、获取所述声源目标在当前时刻的位置信息检测值以及根据所述轨迹信息生成的所述声源目标在当前时刻的位置信息预测值;
S13、根据所述位置信息预测值判断所述位置信息检测值是否与所述声源目标关联;
S14、若关联,则所述声源目标的检测次数加一;
S2、根据所述检测次数和所述最后一次预测时长判断所述声源目标是否为真实目标;以及
S3、若所述声源目标为真实目标,则输出所述声源目标在tk时刻的位置信息预测值。
2.如权利要求1所述的方法,其特征在于,所述步骤S13,包括:
当所述位置信息检测值与所述位置信息预测值的差小于等于预设阈值时,确定所述位置信息检测值与所述声源目标关联;
当所述位置信息检测值与所述位置信息预测值的差大于预设阈值时,确定所述位置信息检测值与所述声源目标不关联。
3.如权利要求2所述的方法,其特征在于,在确定所述位置信息检测值与所述声源目标关联之后,还包括:
利用所述位置信息检测值对所述位置信息预测值进行卡尔曼滤波,以更新所述声源目标的轨迹信息。
4.如权利要求1所述的方法,其特征在于,根据所述轨迹信息生成所述声源目标在当前时刻的位置信息预测值,包括:
基于最小二乘轨迹算法计算所述声源目标在当前时刻的位置信息预测值。
5.如权利要求1所述的方法,其特征在于,所述步骤S2,包括:
当所述声源目标在tk时刻的检测次数大于预设次数,且当所述声源目标在tk时刻的最后一次预测时长小于第一预设时长时,确定所述声源目标为真实目标。
6.如权利要求5所述的方法,其特征在于,所述步骤S2,还包括:
当所述声源目标在tk时刻的检测次数大于预设次数,且当所述声源目标在tk时刻的最后一次预测时长大于等于第一预设时长时,确定所述声源目标消失。
7.如权利要求5所述的方法,其特征在于,所述步骤S2,还包括:
当所述声源目标在tk时刻的检测次数小于预设次数,且当所述声源目标在tk时刻的最后一次预测时长大于第二预设时长时,确定所述声源目标为虚假目标,其中,所述第一预设时长大于所述第二预设时长。
8.一种声源跟踪装置,其特征在于,包括:
获取模块,用于对声源目标进行检测,并获取所述声源目标在tk时刻的检测次数和最后一次预测时长;
其中,所述获取模块,包括:
生成单元,用于对声源目标进行检测,并实时记录所述声源目标的位置信息,以生成所述声源目标对应的轨迹信息;
获取单元,用于获取所述声源目标在当前时刻的位置信息检测值以及根据所述轨迹信息生成的所述声源目标在当前时刻的位置信息预测值;
判断单元,用于根据所述位置信息预测值判断所述位置信息检测值是否与所述声源目标关联;
计数单元,用于当所述位置信息检测值与所述声源目标关联时,对所述声源目标的检测次数进行加一;
判断模块,用于根据所述检测次数和所述最后一次预测时长判断所述声源目标是否为真实目标;以及
输出模块,用于若所述声源目标为真实目标,则输出所述声源目标在tk时刻的位置信息预测值。
9.如权利要求8所述的装置,其特征在于,所述判断单元,用于:
当所述位置信息检测值与所述位置信息预测值的差小于等于预设阈值时,确定所述位置信息检测值与所述声源目标关联;
当所述位置信息检测值与所述位置信息预测值的差大于预设阈值时,确定所述位置信息检测值与所述声源目标不关联。
10.如权利要求9所述的装置,其特征在于,所述获取模块,还包括:
更新单元,用于在确定所述位置信息检测值与所述声源目标关联之后,利用所述位置信息检测值对所述位置信息预测值进行卡尔曼滤波,以更新所述声源目标的轨迹信息。
11.如权利要求8所述的装置,其特征在于,所述获取单元,用于:
基于最小二乘轨迹算法计算所述声源目标在当前时刻的位置信息预测值。
12.如权利要求8所述的装置,其特征在于,所述判断模块,用于:
当所述声源目标在tk时刻的检测次数大于预设次数,且当所述声源目标在tk时刻的最后一次预测时长小于第一预设时长时,确定所述声源目标为真实目标。
13.如权利要求12所述的装置,其特征在于,所述判断模块,还用于:
当所述声源目标在tk时刻的检测次数大于预设次数,且当所述声源目标在tk时刻的最后一次预测时长大于等于第一预设时长时,确定所述声源目标消失。
14.如权利要求12所述的装置,其特征在于,所述判断模块,还用于:
当所述声源目标在tk时刻的检测次数小于预设次数,且当所述声源目标在tk时刻的最后一次预测时长大于第二预设时长时,确定所述声源目标为虚假目标,其中,所述第一预设时长大于所述第二预设时长。
CN201610248866.3A 2016-04-20 2016-04-20 声源跟踪方法和装置 Active CN105807273B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610248866.3A CN105807273B (zh) 2016-04-20 2016-04-20 声源跟踪方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610248866.3A CN105807273B (zh) 2016-04-20 2016-04-20 声源跟踪方法和装置

Publications (2)

Publication Number Publication Date
CN105807273A CN105807273A (zh) 2016-07-27
CN105807273B true CN105807273B (zh) 2018-03-06

Family

ID=56457328

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610248866.3A Active CN105807273B (zh) 2016-04-20 2016-04-20 声源跟踪方法和装置

Country Status (1)

Country Link
CN (1) CN105807273B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019169616A1 (zh) * 2018-03-09 2019-09-12 深圳市汇顶科技股份有限公司 语音信号处理方法及装置
CN110596639A (zh) * 2019-07-22 2019-12-20 深圳市金溢科技股份有限公司 车辆跟踪定位方法、信息标记方法、系统及控制终端
CN110736789B (zh) * 2019-11-28 2022-01-25 山东大学齐鲁医院 一种泡沫硬化剂制备终点的判断方法及应用

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1664609A (zh) * 2004-03-01 2005-09-07 微软公司 提高定位估计的精度的系统和方法
CN1940591A (zh) * 2005-09-26 2007-04-04 通用汽车环球科技运作公司 使用传感器融合进行目标跟踪的系统和方法
CN104200813A (zh) * 2014-07-01 2014-12-10 东北大学 基于声源方向实时预测跟踪的动态盲信号分离方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001272458A (ja) * 2000-03-28 2001-10-05 Oki Electric Ind Co Ltd データ時系列結合方法
JP5614969B2 (ja) * 2009-10-30 2014-10-29 東京計器株式会社 目標追尾装置及び目標追尾方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1664609A (zh) * 2004-03-01 2005-09-07 微软公司 提高定位估计的精度的系统和方法
CN1940591A (zh) * 2005-09-26 2007-04-04 通用汽车环球科技运作公司 使用传感器融合进行目标跟踪的系统和方法
CN104200813A (zh) * 2014-07-01 2014-12-10 东北大学 基于声源方向实时预测跟踪的动态盲信号分离方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于卡尔曼滤波和预测的可控波束多声源跟踪;周峰;《微电子学与计算机》;20090531;第26卷(第5期);204-208 *

Also Published As

Publication number Publication date
CN105807273A (zh) 2016-07-27

Similar Documents

Publication Publication Date Title
US10511951B2 (en) Tracking and accountability device and system
US7336563B2 (en) Method and system for increased update rate in acoustic positioning
WO2019103620A3 (en) System, sensor and method for monitoring health related aspects of a patient
CN105807273B (zh) 声源跟踪方法和装置
US20060256660A1 (en) Real time acoustic event location and classification system with camera display
CN106339692B (zh) 一种疲劳驾驶状态信息确定方法及系统
US6230121B1 (en) Measurement and validation of interaction and communication
CN101952860A (zh) 带有信号识别的入侵检测系统
US11846541B2 (en) Optical fiber sensing system with improved state detection
US9852620B1 (en) System and method for detecting sound and performing an action on the detected sound
JPWO2019230687A1 (ja) 打音検査端末、打音検査システムおよび打音検査データ登録方法
CN104648627B (zh) 一种船舶预警方法
JP2010279638A (ja) ライフログ記録装置
WO2020163611A1 (en) Indoor occupancy estimation, trajectory tracking and event monitoring and tracking system
JP2017067469A (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
US20230074279A1 (en) Methods, non-transitory computer readable media, and systems of transcription using multiple recording devices
US9858791B1 (en) Tracking and accountability device and system
WO2017056774A1 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
US20120202523A1 (en) System and a method for employing swarms of electronic devices to locate survivors in the event of catastrophic structure collapse
WO2023010599A1 (zh) 基于视频和音频的目标轨迹标定方法和计算机设备
US10042062B2 (en) Earthquake prediction device
JP2005301751A (ja) 緊急車両走行位置検出装置
JP4895914B2 (ja) 水上/水中航走体監視装置
WO2013108229A3 (en) Robust presence detection through audible components analysis
KR20190062874A (ko) 기계 학습 기반 지반 및 구조물의 건전도 평가 방법 및 장치

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant