CN108520755B - 一种检测方法及装置 - Google Patents
一种检测方法及装置 Download PDFInfo
- Publication number
- CN108520755B CN108520755B CN201810335756.XA CN201810335756A CN108520755B CN 108520755 B CN108520755 B CN 108520755B CN 201810335756 A CN201810335756 A CN 201810335756A CN 108520755 B CN108520755 B CN 108520755B
- Authority
- CN
- China
- Prior art keywords
- target object
- terminal
- data
- target
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 62
- 230000005236 sound signal Effects 0.000 claims abstract description 127
- 238000000034 method Methods 0.000 claims description 35
- 238000001914 filtration Methods 0.000 claims description 6
- 230000002159 abnormal effect Effects 0.000 abstract description 9
- 206010011469 Crying Diseases 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 3
- 230000001934 delay Effects 0.000 description 2
- 235000019800 disodium phosphate Nutrition 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 206010011224 Cough Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02166—Microphone arrays; Beamforming
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明实施例提供了一种检测方法和装置,其中一种方法包括:第一终端采集预设时间段内目标对象的声音信号和目标对象姿态数据,根据该声音信号,确定目标对象声音数据,当接收到第二终端发送的数据获取请求时,第一终端将该目标对象声音数据和目标对象姿态数据发送给第二终端。采用本发明实施例,可以通过分析目标对象的声音信号和姿态数据,确定目标对象发生的目标事件,可保证及时检测到异常事件。
Description
技术领域
本发明涉及计算机和智能穿戴设备领域,尤其涉及一种检测方法及装置。
背景技术
日常生活中,弱势群体人群,包括老人或者儿童,人身和财产安全容易受到侵害。当该群体受到侵害后,无法清晰、正确地表达受到侵害的过程,也难以取证。为了保证弱势群体尤其是小孩的人身健康,及时检测发生在其身上的异常事件成为首要解决的问题,进而针对该异常事件采取解决措施,可以避免类似异常事件的继续发生。
发明内容
本发明实施例提供了一种检测方法及装置,可以通过分析目标对象的声音信号和姿态数据,确定目标对象发生的目标事件,可保证及时检测到异常事件。
本发明实施例第一方面提供了一种检测方法,包括:
第一终端采集预设时间段内目标对象预设范围的声音信号和目标对象姿态数据;
第一终端根据声音信号,确定目标对象声音数据;
当接收到第二终端的数据获取请求时,第一终端将目标对象声音数据和目标对象姿态数据发送至第二终端。
可选的,第一终端根据声音信号,确定目标对象声音数据,包括:
第一终端判定目标对象的声音信号的目标来源方向;
在目标对象的声音信号的目标来源方向上,第一终端提取目标对象声音数据,目标对象声音数据为经过去噪技术处理后的无噪声声音数据。
可选的,检测方法还包括:
第一终端根据目标对象声音数据和目标对象姿态数据,确定目标对象发生的第一目标事件;
当第一终端接收到第二终端的数据获取请求时,第一终端将第一目标事件发送至第二终端。
本发明实施例第二方面提供了另一种检测方法,包括:
第二终端向第一终端发送数据获取请求;
第二终端接收第一终端发送的目标对象声音数据和目标对象姿态数据;
第二终端根据目标对象声音数据和目标对象姿态数据,检测目标对象发生的第二目标事件。
可选的,第二终端根据目标对象声音数据和目标对象姿态数据,检测目标对象发生的第二目标事件,包括:
第二终端将目标对象声音数据和目标对象姿态数据输入至第一预设检测数据库中,获取目标对象发生的事件的概率,事件数量为至少一个;
第二终端判断每个事件的概率是否在预设概率阈值范围内,将在预设概率阈值范围内的概率对应的事件确定为目标对象发生的第二目标事件,第二目标对象事件至少为一个。
可选的,第二终端根据目标对象声音数据和目标对象姿态数据,检测目标对象发生的第二目标事件,包括:
第二终端根据目标对象声音数据和目标对象姿态数据,分别确定目标对象声音状态和目标对象姿态;
第二终端将目标对象声音状态和目标对象姿态分别输入到第二预设检测数据库中,检测目标对象发生的第二目标事件。
可选的,目标对象姿态数据包括目标对象角速度和目标对象线速度,第二终端根据目标对象声音数据和目标对象姿态数据,分别确定目标对象声音状态和目标对象姿态,包括:
第二终端将目标对象声音数据输入至预设声音状态识别数据库中,确定目标对象声音状态;
第二终端对目标对象的加速度和目标对象的线速度进行滤波处理,获取目标对象的平滑角速度和目标对象的平滑线速度;
第二终端将平滑角速度和平滑线速度输入至预设姿态识别数据库中,确定目标对象姿态。
可选的,检测方法还包括:第二终端接收第一终端发送的第一目标事件。
本发明实施例第三方面提供了一种检测装置,包括:
采集单元,用于采集预设时间段内目标对象的声音信号和目标对象姿态数据;
确定单元,用于根据目标对象的声音信号,确定目标对象声音数据;
发送单元,用于当接收到第二终端的数据获取请求时,将目标对象声音数据和目标对象姿态数据发送至第二终端。
可选的,确定单元还包括判定单元和提取单元:判定单元,用于判定目标对象的声音信号的目标来源方向;提取单元,用于在目标对象的声音信号的来源方向上,提取目标对象声音数据,该目标对象声音数据为进过去噪技术处理后的无噪声数据。
可选的,检测装置还包括检测单元,用于根据目标对象声音数据和目标对象姿态数据,检测目标对象发生的第一目标事件;其中,发送单元,还用于当接收到第二终端的数据获取请求时,将第一目标事件发送至第二终端。
本发明实施例第四方面提供了另一种检测装置,包括:
发送单元,用于向第一终端发送数据获取请求;
接收单元,用于接收第一终端发送的目标对象声音数据和目标对象姿态数据;
检测单元,用于根据目标对象声音数据和目标对象姿态数据,检测目标对象发生的目标事件。
可选的,检测单元具体用于:
将目标对象声音数据和目标对象姿态数据输入至第一预设检测数据库中,获取在目标对象发生的事件的概率,事件数量为至少一个;判断每个事件的概率是否在预设概率阈值范围内,将在预设概率阈值范围内的概率对应的事件确定为目标对象发生的第二目标事件,第二目标对象事件至少为一个。
可选的,检测单元具体用于:
根据目标对象声音数据和目标对象姿态数据,分别确定目标对象声音状态和目标对象姿态;将目标对象声音状态和目标对象姿态分别输入到第二预设检测数据库中,检测目标对象发生的第二目标事件。
可选的,目标对象姿态数据包括目标对象角速度和目标对象线速度,根据目标对象声音数据和目标对象姿态数据,分别确定目标对象声音状态和目标对象姿态,包括:
将目标对象声音数据输入至预设声音状态识别数据库中,确定目标对象声音状态;
对目标对象的加速度和目标对象的线速度进行滤波处理,获取目标对象的平滑角速度和目标对象的平滑线速度;
将平滑角速度和平滑线速度输入至预设姿态识别数据库中,确定目标对象姿态。
可选的,接收单元,还用于接收第一终端发送的第一目标事件。
通过本发明实施例采集预设时间段内目标对象的声音信号和目标对象姿态数据,根据该声音信号确定目标对象声音数据,进一步的存储该目标对象声音数据和目标对象姿态数据。在接收到第二终端的数据获取请求的情况下,将存储的目标对象声音数据和目标对象姿态数据发送给第二终端,可以通过分析目标对象声音数据和目标对象姿态数据,检测目标对象在预设时间段内发生过的目标事件。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种检测方法的流程示意图;
图2是本发明实施例提供的另一种检测方法的流程示意图;
图3是本发明实施例提供的一种第一终端采集目标对象的声音信号方法;
图4是本发明实施例提供的一种检测装置的示意性框图;
图5是本发明实施例提供的另一种检测装置的示意性框图;
图6是本发明实施例提供的一种终端的示意性框图图;
图7是本发明实施例提供的另一种终端的示意性框图。
具体实施方式
本发明通过目标对象佩戴的第一终端采集目标对象的声音信号和目标对象姿态数据,从声音信号中提取目标对象声音数据,并第一终端将目标声音数据和目标对象姿态数据发送给第二终端,第二终端根据上述两种数据检测目标对象发生的目标事件,以便于目标对象监护人及时得知在预设时间段内目标对象发生的事件,避免对目标对象的伤害。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例第一终端可以为智能可穿戴设备,比如智能手表、智能手环、智能胸针、录音笔、智能发夹以及智能吊坠等,或者第一终端也可以为手机,平板电脑等便携式移动终端。第二终端可以是与第一终端相同的终端,也可以是不同的终端,比如第二终端可以为手机、平板电脑等终端,或者第二终端也可以为台式计算机等非便携式终端。目标对象可以指第一终端的使用者。
参考图1,为本发明实施例提供的一种检测方法的示意流程图,如图1所示的检测方法可包括以下步骤:
101、第一终端采集预设时间段内目标对象的声音信号和目标对象姿态数据。
其中,目标对象姿态数据可包括目标对象的角速度和线速度,第一终端可以通过分析目标对象姿态数据获取目标对象姿态,其中目标对象姿态用于指示目标对象所处的姿势以及运动状态,比如目标对象姿态可以为跑步、跳高或者半蹲等。可选的,目标对象的声音信号中可包括预设范围内的其他声音信号比如其他用户的说话声或者环境中的嘈杂声等。可选的,预设时间段可以是第一终端设定的,也可以是第一终端中系统默认的,该预设时间段可以为从当天上午8:00-后一天上午8:00、或者可以为从当天上午9:00到当天中午12:00,或者也可以为其他任何的时间段。
可选的,第一终端可以通过内置的或者外接的一个或者多个麦克风采集目标对象的声音信号,该声音信号可以是单路的也可以是多路的(通过一个麦克风采集的声音信号称为单路声音信号,通过两个以上麦克风采集到的声音信号称为多路声音信号)。可选的,第一终端可以通过内置的加速度传感器、陀螺仪或者重力传感器采集目标对象的姿态数据。或者第一终端也可以通过其他的方式采集目标对象的声音信号和目标对象姿态数据,本发明实施例中不做具体限定。
可选的,第一终端采集的预设时间段内的目标对象的声音信号中可能包括目标对象预设范围内的其他声音信号,比如其他对象的声音信号或者环境中的噪声信号等,因此,本发明实施例的检测方法还可包括:第一终端在采集目标对象的声音信号和目标对象的姿态数据之前设定一个预设范围,第一终端采集在预设范围内的目标对象的声音信号和目标对象的姿态数据,目标对象的声音信号中包括纯净的目标对象的声音信号和噪声信号;第一终端采集到目标对象的声音信号和目标对象姿态数据之后,对该目标对象的声音信号进行去噪声处理,得到纯净的目标对象的声音信号。其中,预设范围可以是以目标对象为中心的半径为3米的圆形范围内,或者也可以是以目标对象为中心的边长为2米的正方形范围内,具体的预设范围在本发明实施例中不做限定。
102、第一终端根据声音信号,确定目标对象声音数据。
其中,目标对象声音数据为至少一组,可选的,如101中所提及第一终端采集到的声音信号中可只包括目标对象的声音信号,或者声音信号中可包括目标对象的声音信号和预设范围内的噪声信号。如果第一终端采集到的声音信号为目标对象的声音信号,则第一终端可根据该目标对象的声音信号,确定目标对象声音数据;如果第一终端采集到的声音信号中既包括目标对象的声音信号,又包括目标对象预设范围内的噪声信号,则第一终端可先利用去噪技术对采集到的声音信号进行处理,得到目标对象的声音信号,根据该目标对象的声音信号,确定目标对象声音数据。可选的,第一终端可利用波束形成技术从带有噪声的目标对象的声音信号中提取纯净的目标对象的声音信号。
可选的,第一终端根据声音信号,确定目标对象声音数据,包括:第一终端判定目标对象的声音信号的目标来源方向;在目标对象的声音信号的来源方向上,第一终端提取目标对象声音数据,目标对象声音数据为经过去噪技术处理后的无噪声声音数据。
可选的,如果声音信号中既包括目标对象的声音信号也包括噪声信号,第一终端根据声音信号,确定目标对象声音数据,包括:第一终端从声音信号中,确定目标对象的声音信号;第一终端判定目标对象的声音信号的目标来源方向;在目标对象的声音信号的来源方向上,第一终端提取目标对象声音数据,目标对象声音数据为经过去噪技术处理后的无噪声声音数据。也就是说如果第一终端采集到的声音信号中包括了目标对象的声音信号和噪声信号,第一终端可先从声音信号中,确定哪个是目标对象的声音信号,进一步的根据该声音信号,确定目标对象声音数据。举例来说,假设第一终端在已知的麦克风阵列的阵型下,可通过声音到达方向估计的方法,将采集到的声音信号中多个声源定位,在多个声源中找到目标对象的声源方向。进一步的,终端可以使用自适应波束形成方法或者固定波束形成方法,将波束指向目标对象方向,提取出目标对象声音数据。或者终端也可以使用其他方法确定目标对象声音数据,具体的实施方式在本发明实施例中不做限定。
103、当接收到第二终端的数据获取请求时,第一终端将目标对象声音数据和目标对象姿态数据发送至第二终端。
可选的,第一终端接收到第二终端的数据获取请求后,响应该数据获取请求,即第一终端可从其数据库中查找到第二终端所请求获取的数据,将该数据发送给第二终端,以便于第二终端根据上述两组数据,确定目标对象发生的目标事件。可选的,检测方法还包括:第一终端根据目标对象声音数据和目标对象姿态数据,检测目标对象发生的第一目标事件;当第一终端接收到第二终端的数据获取请求时,第一终端将第一目标事件发送至第二终端。换句话说第一终端在接收到第二终端的数据获取请求之前,根据目标对象声音数据和目标对象姿态数据,检测目标对象发生的第一目标事件,在接收到第二终端的数据获取请求时,第一终端将第一目标事件发送至第二终端,如此第二终端可接收第一终端发送的目标对象声音数据、目标对象姿态数据和第一目标事件。可选的,第二终端可以直接将第一目标事件作为目标对象发生的目标事件,或者第二终端也可以根据目标对象声音数据和目标对象姿态数据,检测发生目标对象发生的第二目标事件,进一步的将第一目标事件和第二目标事件对比,如果第一目标事件和第二目标事件为相同或者相近的目标事件,则第二终端可确定该第一目标事件或者第二目标事件为目标对象发生的目标事件;如果第一目标事件和第二目标事件为不相同的目标事件,则第二终端可重新根据目标对象声音数据和目标对象姿态数据,检测目标对象发生的第二目标事件,如此可保证第二终端检测到目标对象发生的目标事件的准确性和可靠性。
104、第二终端根据目标对象声音数据和目标对象姿态数据,检测目标对象发生的第二目标事件。
其中,目标对象发生的目标事件包括但是不限于,咳嗽、拍打、欢笑、哭闹、叫喊等可以根据声音确定的事件,目标对象发生的目标事件还可以包括如长时间静止,长时间在小范围移动,被抛甩、推搡和摔倒等等。
可选的,第二终端根据目标对象声音数据和目标对象姿态数据,检测目标对象发生的第二目标事件,包括:第二终端将目标对象声音数据和目标对象姿态数据输入至第一预设检测数据库中,获取在目标对象发生的事件的概率,事件数量为至少一个;第二终端判断每个事件的概率是否在预设概率阈值范围内,将在预设概率阈值范围内的概率对应的事件确定为发生在目标对象身上的第二目标事件,第二目标对象事件至少为一个。换句话说第二终端可预先设置第一预设检测数据库,第二终端可将接收到的目标对象声音数据和目标对象姿态数据输入至第一预设检测数据库中,确定目标对象可能发生的事件的概率,该事件的数量为至少一个,将各个事件的概率与各个事件概率阈值比较,将大于概率阈值的概率对应的事件作为目标对象发生的第二目标事件。其中,预设第一预设检测数据库可以是第二终端根据相关领域专家指导设定的,也可以是第二终端利用机器学习以及深度学习方法设定的。或者也可以是第二终端依据其他方法设定的,本发明实施例不做具体限定。
也就是说,第二终端可采取轮询的方式分别将目标对象声音数据和目标对象姿态数据与第一预设检测数据库中各个事件作匹配,获取每一个事件发生的概率。第二终端判断如果目标对象声音数据和目标对象姿态数据与预设第一预设检测数据库中存储的信息越像,概率就越高,反之则相反。当一个事件发生的概率大于概率阈值,第二终端确定该事件为目标对象发生的第二目标事件,否则确定目标对象没有发生该事件。以此类推直到每个事件都判断完毕。
举例来说,可假设第二终端的第一预设检测数据库中存储有拍打事件发生时对应的目标对象声音数据和目标对象姿态数据;哭闹事件发生时对应的目标对象声音数据和目标对象姿态数据;以及被抛甩事件发生时对应的目标对象声音数据和目标对象姿态数据等。第二终端可将获得到的目标对象声音数据和目标对象姿态数据分别与第一预设检测数据库中的拍打事件、哭闹事件和被抛甩事件匹配。可假设第二终端确定目标对象发生事件概率阈值为80%,即当一个事件发生的概率大于等于80%,则确定该事件是目标对象发生的第二目标事件;当一个事件发生的概率小于80%,则确定目标对象没有发生该事件。假设第一终端检测到目标对象发生拍打事件的概率是20%,哭闹事件的概率是80%,被抛甩事件的概率是90%,第二终端根据上述概率阈值,则确定目标对象发生的目标事件为哭闹和抛甩事件。或者,可选的,第二终端可预先为每个事件设定概率阈值,将各个可能目标对象发生的事件的概率与对应的概率阈值比较,确定目标对象发生的事件。比如,在上述例子中,第二终端可预先为每个事件设定的概率阈值分别为对拍打事件设定的概率阈值是80%,对哭闹事件设定的概率阈值是70%,对被抛甩事件设定的概率阈值是90%,第二终端根据各个事件的概率阈值可以确定目标对象发生了哭闹和被抛甩事件,没有发生拍打事件。
本发明实施例第一终端根据其在预设时间段内采集到的目标对象的声音信号确定目标对象声音数据,在第一终端接收到第二终端的数据获取请求情况下,第一终端将目标对象声音数据和采集到的目标对象姿态数据发送至第二终端,第二终端根据上述两种数据,检测目标对象发生的目标事件,可以实现通过分析目标对象的声音信号和姿态数据,确定目标对象发生的目标事件,可保证及时检测到异常事件。
参考图2,为本发明实施例提供的另一种检测方法的示意流程图,如图2所示的检测方法可包括以下步骤:
201、第一终端采集预设时间段内目标对象的声音信号和目标对象姿态数据。
步骤201可行的实施方式已经在图1所示的实施例中具体描述,在此不再赘述。
202、第一终端判定目标对象的声音信号的目标来源方向,在目标对象的声音信号的来源方向上,提取目标对象声音数据。
可选的,第一终端判定目标对象的声音信号的来源方向,包括:第一终端确定目标对象的声音信号到达第一终端的目标延时;根据目标延时,确定目标对象的声音信号的目标来源方向。换句话说,第一终端确定目标对象的声音信号到达第一终端的目标延时,根据该目标延时可以确定目标对象的声音信号是从哪个方向传播的,进一步的第一终端在该方向上提取目标对象的声音信号。
可选的,第一终端确定目标对象的声音信号到达第一终端的目标延时,包括:第一终端使用相关性方法找到声音信号的最大峰值点;通过最大峰值点获得目标对象声音到达终端的目标延时。
可选的,根据目标延时,确定目标对象的声音信号的目标来源方向,包括:第一终端根据预设的延时与来源方向的对应关系,将目标延时对应的来源方向作为目标对象的声音信号的目标来源方向。也就是说,第一终端可根据第一终端内置或者外接麦克风的阵型,预设至少一组延时与来源方向的对应关系,进而可以根据目标延时确定目标对象的声音信号。
举例来说,如图3中所示可假设第一终端包括301和302两个麦克风,且两个麦克风的位置如图,假设301和302之间的距离为3.4厘米,第一终端预设至少一组延时与来源方向的对应关系可具体方式可以为:第一终端可假设声音信号从图3中A方向输入到第一终端为正方向,也就是说301先接收到声音信号,302后接到声音信号,301和302接收到声音信号之间的时间差称为延时,该延时可通过公式τ=传播距离/声音速度=(0.034m)/(340m/s)=0.1ms计算得到,因此第一终端预设的至少一组延时与来源方向的对应关系可为:延时为0.1ms对应的来源方向为正方向,即图3中A方向;延时为-0.1ms对应的来源方向为反方向,即图3中B方向;延时为0ms对应的来源方向为垂直方向,即图3中C方向。基于以上第一终端预设的延时与来源方向的对应关系,假设图3中第一终端配置的301和302用于采集目标对象的声音信号,并假设301和302两个麦克风采集到的目标对象的声音信号可以分别表示为y1(k)和y2(k),第一终端信号的采样率为fs=50Khz。第一终端可以使用相关性公式计算得到最大峰值点,记做ks,假设ks=5。接着第一终端可以利用最大峰值点估计公式/>其中X表示第一终端的采样率,计算目标对象的声音信号到达第一终端的目标延时,记做/>在本例子中/>进一步的,第一终根据上述预设对应关系,确定目标延时/>对应的目标对象的声音信号的来源方向为图3中A方向。
其中,目标对象声音数据为经过去噪技术处理后的无噪声声音数据。可选的,第一终端可根据目标对象的声音信号来源方向和目标延时,构建空间滤波器,滤除其它不相关方向的声音,留下目标对象声音。举例来说,假设第一终端拥有一个麦克风阵列,阵列中包括N个麦克风,假设在第K时刻,第一终端的麦克风阵列采集到的声音信号可表示为yn(k)=ans[k-t-fn(τ)]+vn(k)=xn(k)+vn(k),其中n=1,2,...N,an(n=1,2,...,N)可表示由声音传播效应导致的衰减因子,其取值在0和1之间,s(k)可表示目标对象的声音信号,t可表示目标对象的声音信号到达麦克风阵列中第一个麦克风的时间,vn(k)可表示第一终端麦克风阵列中第n个麦克风采集到的环境加性噪声,fn(τ)可表示目标对象的声音信号到达第一终端第n个麦克风的延时,进一步基于上述假设,第一终端可使用延时求和(Delay andSum,DS)的方法构建空间滤波器,去掉目标对象的声音信号中的噪声信号,具体步骤可如下:(1)第一终端对上述的第一终端采集到的声音信号yn(k)进行延时对齐处理,延时对齐后的声音信号可记做为ya,n(k),表示为ya,n(k)=yn[k+fn(τ)]=ans(k-t)+va,n(k)=xa,n(k)+va,n(k),其中va,n(k)=vn[k+fn(t)];(2)第一终端将延时对齐后的各个声音信号相加,获取DS滤波器的输出的加权目标对象的声音信号,记做zDS(k),表示为更多的噪声,更少的目标声源分量;(4)第一终端可对zDS(k)和nDS(k)进行短时傅里叶变换(STFT),将加权后的目标对象的声音信号和加权后的噪声信号由时域变换到频率域,可使用公式ZDS(i,f)=STFT(zDS(k))和NDS(i,f)=STFT(nDS(k)),其中其中,i是STFT的帧下标,f是频率;(5)第一终端可利用维纳滤波方式,在频率域获取加权的目标对象的声音信号的信号普,可用公式表示为Z′DS(i,f)=ZDS(i,f)-λNDS(i,f),进一步的,第一终端可利用反傅里叶变换获取目标对象的声音信号,可表示为z′DS(k)=ISTFT(Z′DS(i,f)),其中0<λ<1是抑制系数,zDS表示加权的目标对象的声音信号的信号普,zDS(k)表示去除噪声的目标对象的声音信号。
203、当接收到第二终端的数据获取请求时,第一终端将目标对象声音数据和目标对象姿态数据发送至第二终端。
步骤203可行的实施方式已经在图1所示的实施例中具体描述,在此不再赘述。
204、第二终端根据目标对象声音数据和目标对象姿态数据,分别确定目标对象声音状态和目标对象姿态。
205、第二终端将目标对象声音状态和目标对象姿态分别输入到第二预设检测数据库中,检测发生在目标对象身上的第二目标事件。
可选的,目标对象姿态数据包括目标对象角速度和目标对象线速度,第二终端根据目标对象声音数据和目标对象姿态数据,分别确定目标对象声音状态和目标对象姿态,包括:第二终端将目标对象声音数据输入至预设声音状态识别数据库中,确定目标对象声音状态;第二终端对目标对象的加速度和目标对象的线速度进行滤波处理,获取目标对象的平滑角速度和目标对象的平滑线速度;第二终端将平滑角速度和平滑线速度输入至预设姿态识别数据库中,确定目标对象姿态。简单来说,第二终端可预先设置有声音状态识别数据库,其中该数据库中可包括多种声音数据和声音状态的对饮关系,当第二终端接收到目标对象声音数据时,可以将声音状态识别数据库中与该目标对象声音数据对应的声音状态确定为目标对象声音状态,比如可假设第二终端预设声音状态识别数据库中存储有声音数据A对应的声音状态为哭、声音数据B对应的声音状态为大喊大叫、声音数据C对应的声音状态为笑,假设第二终端获取到目标对象声音数据为声音数据B,则第二终端可确定目标对象的目标声音状态为大喊大叫。同理,第二终端可预先设置有姿态识别数据库,其中该数据库中可包括多种姿态数据和姿态的对应关系,当第二终端接收到目标对象姿态数据时,可将姿态识别数据库中与该目标对象姿态数据对应的姿态确定为目标对象自扰,比如可假设第二终端预设姿态识别数据库中存储有姿态数据M对应的姿态为站立、姿态数据N对应的姿态为蹲、姿态数据W对应的姿态为跑,假设第二终端获取到目标对象姿态数据为姿态数据W,则第二终端可确定目标对象的目标姿态为跑。
可选的,第二终端将目标对象声音状态和目标对象姿态分别输入到第二预设检测数据库中,检测发生在目标对象身上的第二目标事件。换句话说,第二终端可预先设置第二预设检测数据库,数据库中可存储有事件与声音状态和姿态的对应关系,第二终端将目标对象声音状态和目标对象姿态输入至第二预设检测数据库中后,第二终端将该数据库中与目标对象声音状态和目标对象姿态对应的事件确定为目标对象发生的第二目标事件。举例来说,可假设第二终端预设的第二预设检测数据库中存储的声音状态和姿态与事件对应关系包括:声音状态B和姿态W对应的事件为逃跑、声音状态C和姿态W对应的事件为玩耍、声音状态A和姿态M对应的事件为罚站。假设第二终端接收到的声音状态为B,姿态为W,将W和B输入至上述第二预设检测数据库中,第二终端可检测目标对象发生的目标事件为逃跑。
本实施例第一终端根据其在预设时间段内采集到的目标对象的声音信号确定目标对象声音数据,在第一终端接收到第二终端的数据获取请求情况下,第一终端将目标对象声音数据和采集到的目标对象姿态数据发送至第二终端,第二终端根据目标对象声音数据和目标对象姿态数据,确定目标对象声音状态和目标对象姿态,进一步的,第二终端将目标对象声音状态和目标对象姿态分别输入至第二预设检测数据库中,检测目标对象发生的第二目标事件,可以实现通过分析目标对象的声音信号和姿态数据,确定目标对象发生的目标事件,可保证及时检测到异常事件。
参考图4,为本发明实施例提供的一种检测装置的结构示意图,如图4的检测装置,可包括:采集单元401、确定单元402以及发送单元403;
采集单元401,用于采集预设时间段内目标对象的声音信号和目标对象姿态数据;
确定单元402,用于根据目标对象的声音信号,确定目标对象声音数据;
发送单元403,用于当接收到第二终端的数据获取请求时,将目标对象声音数据和目标对象姿态数据发送至第二终端。
可选的,确定单元402包括判定单元4021和提取单元4022,判断单元4021用于判定目标对象的声音信号的目标来源方向,提取单元4022用于在目标对象的声音信号的来源方向上,提取目标对象声音数据,该目标对象声音数据为进过去噪技术处理后的无噪声数据。
可选的,检测装置还包括:检测单元404,用于根据目标对象声音数据和目标对象姿态数据,检测目标对象发生的第一目标事件;其中,发送单元403,还用于当接收到第二终端的数据获取请求时,将第一目标事件发送至第二终端。
本实施例采集单元401采集预设时间段内目标对象的声音信号和目标对象姿态数据,确定单元402根据该目标对象的声音信号,确定目标对象声音数据,当接收到第二终端的数据获取请求时,发送单元403将目标对象声音数据和目标对象姿态数据发送至第二终端,可以实现通过分析目标对象的声音信号和姿态数据,确定目标对象发生的目标事件,可保证及时检测到异常事件。
参考图5,为本发明实施例提供的另一种检测装置的结构示意图,如图5的检测装置,可包括:发送单元501、接收单元502以及检测单元503;
发送单元501,用于向第一终端发送数据获取请求;
接收单元502,用于接收第一终端发送的目标对象声音数据和目标对象姿态数据;
检测单元503,用于根据目标对象声音数据和目标对象姿态数据,检测目标对象发生的目标事件。
可选的,检测单元503具体用于:将目标对象声音数据和目标对象姿态数据输入至第一预设检测数据库中,获取在目标对象发生的事件的概率,事件数量为至少一个;判断每个事件的概率是否在预设概率阈值范围内,将在预设概率阈值范围内的概率对应的事件确定为发生在目标对象身上的第二目标事件,第二目标对象事件至少为一个。
可选的,检测单元503具体用于:根据目标对象声音数据和目标对象姿态数据,分别确定目标对象声音状态和目标对象姿态;将目标对象声音状态和目标对象姿态分别输入到第二预设检测数据库中,检测发生在目标对象身上的第二目标事件。
可选的,目标对象姿态数据包括目标对象角速度和目标对象线速度,根据目标对象声音数据和目标对象姿态数据,分别确定目标对象声音状态和目标对象姿态,包括:
将目标对象声音数据输入至预设声音状态识别数据库中,确定目标对象声音状态;
对目标对象的加速度和目标对象的线速度进行滤波处理,获取目标对象的平滑角速度和目标对象的平滑线速度;
将平滑角速度和平滑线速度输入至预设姿态识别数据库中,确定目标对象姿态。
可选的,接收单元502还用于接收第一终端发送的第一目标事件。
本实施例发送单元501向第一终端发送数据获取请求,接收单元502接收第一终端发送的目标对象声音数据和目标对象姿态数据,检测单元503根据目标对象声音数据和目标对象姿态数据,检测目标对象发生的第二目标事件,可以实现通过分析目标对象的声音信号和姿态数据,确定目标对象发生的目标事件,可保证及时检测到异常事件。
可以理解的是,本实施例的数据信息处理装置的各功能模块、单元的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
参见图6,是本发明实施例提供的一种终端的示意性框图。如图所示的本实施例中的终端可以包括:一个或多个处理器601;一个或多个接收设备602,一个或多个发送设备603和存储器605。上述处理器601、接收设备602、发送设备603和存储器605通过总线605连接。存储器602用于存储计算机程序,计算机程序包括程序指令,处理器601用于执行存储器602存储的程序指令。其中,处理器601被配置用于调用程序指令执行:
采集预设时间段内目标对象预设范围的声音信号和目标对象姿态数据;
根据声音信号,确定目标对象声音数据;
当接收到第二终端的数据获取请求时将目标对象声音数据和目标对象姿态数据发送至第二终端。
应当理解,在本发明实施例中,所称处理器601可以是中央处理单元(CentralProcessing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
接收设备602可以包括变频器,接收机等,发送设备603可以包括变频器,发送机等。
该存储器605可以包括只读存储器和随机存取存储器,并向处理器601提供指令和数据。存储器605的一部分还可以包括非易失性随机存取存储器。例如,存储器605还可以存储设备类型的信息。
具体实现中,本发明实施例中所描述的处理器601、输入设备602、输出设备603可执行本发明实施例提供的的方法的第一实施例和第二实施例中所描述的实现方式,也可执行本发明实施例所描述的终端的实现方式,在此不再赘述。
参见图7,是本发明实施例提供的一种终端的示意性框图。如图所示的本实施例中的终端可以包括:一个或多个处理器701;一个或多个接收设备702,一个或多个发送设备703和存储器705。上述处理器701、接收设备702、发送设备703和存储器705通过总线705连接。存储器702用于存储计算机程序,计算机程序包括程序指令,处理器701用于执行存储器702存储的程序指令。其中,处理器701被配置用于调用程序指令执行:
向第一终端发送数据获取请求;
接收第一终端发送的目标对象声音数据和目标对象姿态数据;
根据目标对象声音数据和目标对象姿态数据,检测目标对象发生的第二目标事件。
应当理解,在本发明实施例中,所称处理器701可以是中央处理单元CPU,该处理器还可以是其他通用处理器、数字信号处理器DSP、专用集成电路ASIC、现成可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
接收设备702可以包括变频器,接收机等,发送设备703可以包括变频器,发送机
该存储器705可以包括只读存储器和随机存取存储器,并向处理器701提供指令和数据。存储器705的一部分还可以包括非易失性随机存取存储器。例如,存储器705还可以存储设备类型的信息。
具体实现中,本发明实施例中所描述的处理器701、输入设备702、输出设备703可执行本发明实施例提供的的方法的第一实施例和第二实施例中所描述的实现方式,也可执行本发明实施例所描述的终端的实现方式,在此不再赘述。
在本发明的实施例中提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序包括程序指令,程序指令被处理器执行时实现:
采集预设时间段内目标对象预设范围的声音信号和目标对象姿态数据;
根据声音信号,确定目标对象声音数据;
当接收到第二终端的数据获取请求时将目标对象声音数据和目标对象姿态数据发送至第二终端。
在本发明的实施例中提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序包括程序指令,程序指令被处理器执行时实现:
向第一终端发送数据获取请求;
接收第一终端发送的目标对象声音数据和目标对象姿态数据;
根据目标对象声音数据和目标对象姿态数据,检测目标对象发生的第二目标事件。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。
Claims (5)
1.一种检测方法,其特征在于,包括:
第一终端采集预设时间段内目标对象的声音信号和目标对象姿态数据;
所述第一终端根据所述声音信号,确定所述目标对象声音数据;
所述第一终端根据所述目标对象声音数据和所述目标对象姿态数据,检测所述目标对象发生的第一目标事件;
当接收到第二终端的数据获取请求时,所述第一终端将所述目标对象声音数据、所述目标对象姿态数据和所述第一目标事件发送至所述第二终端;
所述第二终端根据所述目标对象声音数据和所述目标对象姿态数据,检测所述目标对象发生的第二目标事件;
所述第二终端将所述第一目标事件和所述第二目标事件进行比对,并根据比对结果判断将所述第一目标事件作为所述目标对象的目标事件,或者重新根据所述目标对象声音数据和所述目标对象姿态数据,检测所述目标对象发生的第二目标事件。
2.根据权利要求1所述的方法,其特征在于,所述第一终端根据所述声音信号,确定所述目标对象声音数据,包括:
所述第一终端判定所述目标对象的声音信号的目标来源方向;
在所述目标对象的声音信号的所述目标来源方向上,所述第一终端提取所述目标对象声音数据,所述目标对象声音数据为经过去噪技术处理后的无噪声声音数据。
3.根据权利要求1所述的方法,其特征在于,所述第二终端根据所述目标对象声音数据和所述目标对象姿态数据,检测所述目标对象发生的第二目标事件,包括:
所述第二终端将所述目标对象声音数据和所述目标对象姿态数据输入至第一预设检测数据库中,获取在所述目标对象发生的事件的概率,所述第一预设检测数据库中事件数量为至少一个;
所述第二终端判断每个所述事件的概率是否在预设概率阈值范围内,将在预设概率阈值范围内的概率对应的事件确定为发生在所述目标对象身上的所述第二目标事件,所述第二目标事件至少为一个。
4.根据权利要求1所述的方法,其特征在于,所述第二终端根据所述目标对象声音数据和所述目标对象姿态数据,检测所述目标对象发生的第二目标事件,包括:
所述第二终端根据所述目标对象声音数据和所述目标对象姿态数据,分别确定目标对象声音状态和目标对象姿态;
所述第二终端将所述目标对象声音状态和所述目标对象姿态分别输入到第二预设检测数据库中,检测发生在所述目标对象身上的所述第二目标事件。
5.根据权利要求4所述的方法,其特征在于,所述目标对象姿态数据包括目标对象角速度和目标对象线速度,所述第二终端根据所述目标对象声音数据和所述目标对象姿态数据,分别确定目标对象声音状态和目标对象姿态,包括:
所述第二终端将所述目标对象声音数据输入至预设声音状态识别数据库中,确定所述目标对象声音状态;
所述第二终端对所述目标对象的角速度和所述目标对象的线速度进行滤波处理,获取所述目标对象的平滑角速度和所述目标对象的平滑线速度;
所述第二终端将所述平滑角速度和所述平滑线速度输入至预设姿态识别数据库中,确定所述目标对象姿态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810335756.XA CN108520755B (zh) | 2018-04-16 | 2018-04-16 | 一种检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810335756.XA CN108520755B (zh) | 2018-04-16 | 2018-04-16 | 一种检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108520755A CN108520755A (zh) | 2018-09-11 |
CN108520755B true CN108520755B (zh) | 2023-05-23 |
Family
ID=63429278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810335756.XA Active CN108520755B (zh) | 2018-04-16 | 2018-04-16 | 一种检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108520755B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113137983B (zh) * | 2021-04-30 | 2023-08-22 | 深圳市恒星物联科技有限公司 | 一种自学习的井盖姿态监测方法及监测系统 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102387345B (zh) * | 2011-09-09 | 2014-08-06 | 浙江工业大学 | 基于全方位视觉的独居老人安全监护系统 |
CN103308069B (zh) * | 2013-06-04 | 2015-06-24 | 电子科技大学 | 一种跌倒检测装置及方法 |
CN103530978B (zh) * | 2013-10-18 | 2015-11-04 | 南京大学 | 一种面向特殊人群的危险感知与报警系统 |
CN103702072A (zh) * | 2013-12-11 | 2014-04-02 | 乐视致新电子科技(天津)有限公司 | 一种基于可视终端的监护方法和可视终端 |
CN105550961A (zh) * | 2015-10-31 | 2016-05-04 | 东莞酷派软件技术有限公司 | 一种监护方法及装置 |
CN106264470B (zh) * | 2016-09-12 | 2018-05-29 | 广东欧珀移动通信有限公司 | 睡眠监测的方法及装置 |
CN106709471A (zh) * | 2017-01-05 | 2017-05-24 | 宇龙计算机通信科技(深圳)有限公司 | 跌倒检测方法及装置 |
CN107644509A (zh) * | 2017-09-04 | 2018-01-30 | 深圳支点电子智能科技有限公司 | 智能手表和相关产品 |
CN107908094A (zh) * | 2017-12-29 | 2018-04-13 | 郑州光之源电子科技有限公司 | 儿童智能手表及基于传感技术分析儿童遇险的方法 |
-
2018
- 2018-04-16 CN CN201810335756.XA patent/CN108520755B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN108520755A (zh) | 2018-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108899044B (zh) | 语音信号处理方法及装置 | |
RU2690214C2 (ru) | Био привязка для аутентификации пользователя | |
WO2020103411A1 (zh) | 一种跌倒检测方法、装置及系统 | |
CN110473539B (zh) | 提升语音唤醒性能的方法和装置 | |
Li et al. | A microphone array system for automatic fall detection | |
CN110069199B (zh) | 一种基于智能手表的皮肤式手指手势识别方法 | |
Chen et al. | Rapid: A multimodal and device-free approach using noise estimation for robust person identification | |
EP2727104B1 (en) | Identifying people that are proximate to a mobile device user via social graphs, speech models, and user context | |
US20230177942A1 (en) | Systems and methods for identifying an acoustic source based on observed sound | |
JP6164076B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
Bai et al. | Acoustic-based sensing and applications: A survey | |
Xu et al. | Attention-based gait recognition and walking direction estimation in wi-fi networks | |
Lian et al. | Fall detection via inaudible acoustic sensing | |
CN112327288B (zh) | 雷达人体动作识别方法、装置、电子设备和存储介质 | |
CN107333018A (zh) | 一种回声时延估计及追踪方法 | |
CN103617801A (zh) | 语音检测方法、装置及电子设备 | |
JP6367691B2 (ja) | 報知音感知・識別装置、報知音感知・識別方法、報知音感知・識別プログラム | |
Xia et al. | Pams: Improving privacy in audio-based mobile systems | |
CN108520755B (zh) | 一种检测方法及装置 | |
US20170132894A1 (en) | Vehicle warning method and device | |
Diaconita et al. | Do you hear what i hear? using acoustic probing to detect smartphone locations | |
Eyobu et al. | A real-time sleeping position recognition system using IMU sensor motion data | |
US20180003818A1 (en) | Method and apparatus for space status detection based on acoustic chirp signals | |
CN113767431A (zh) | 语音检测 | |
CN115482835A (zh) | 噪声检测方法、装置、电子设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |