CN108831474B - 语音识别设备及其语音信号捕获方法、装置和存储介质 - Google Patents

语音识别设备及其语音信号捕获方法、装置和存储介质 Download PDF

Info

Publication number
CN108831474B
CN108831474B CN201810426065.0A CN201810426065A CN108831474B CN 108831474 B CN108831474 B CN 108831474B CN 201810426065 A CN201810426065 A CN 201810426065A CN 108831474 B CN108831474 B CN 108831474B
Authority
CN
China
Prior art keywords
user
pickup
forming
voice
voice recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810426065.0A
Other languages
English (en)
Other versions
CN108831474A (zh
Inventor
何瑞澄
李开
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Midea Group Co Ltd
GD Midea Air Conditioning Equipment Co Ltd
Original Assignee
Midea Group Co Ltd
GD Midea Air Conditioning Equipment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Midea Group Co Ltd, GD Midea Air Conditioning Equipment Co Ltd filed Critical Midea Group Co Ltd
Priority to CN201810426065.0A priority Critical patent/CN108831474B/zh
Publication of CN108831474A publication Critical patent/CN108831474A/zh
Application granted granted Critical
Publication of CN108831474B publication Critical patent/CN108831474B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

本发明公开了一种语音信号捕获方法,该语音信号捕获方法包括以下步骤:获取语音识别设备作用空间内用户的位置;根据用户的位置确定拾音波束的形成参数;按照拾音波束的形成参数形成拾音波束,拾音波束指向用户的位置,以通过拾音波束收集用户发出的语音信号。本发明还公开了一种语音信号捕获设备、语音识别装置以及计算机可读存储介质。本发明可实现无需依靠用户发出的语音对用户进行定位,可提高拾音波束方向的准确性,减少其他方向上噪声的影响,以增加语音识别在噪声场景中应用的可靠性。

Description

语音识别设备及其语音信号捕获方法、装置和存储介质
技术领域
本发明涉及人机交互技术领域,尤其涉及语音信号捕获方法、语音信号捕获装置、语音识别设备以及计算机可读存储介质。
背景技术
随着技术的发展,语音识别系统的应用越来越普遍。现在的语音识别设备中一般采用麦克风阵列中的波束成形技术,以提高噪声环境下使用的成功率。
然而,在目前的应用场合中,都需要用户先发出语音指令之后,麦克风阵列再对用户的位置进行定位,在噪声较为复杂的场景,会造成无法很好的对用户的位置进行判定,使形成的拾音波束指向不准确,从而影响到后续语音识别的可靠性。
上述内容仅用于辅助理解本发明的技术方案,并不代表承认上述内容是现有技术。
发明内容
本发明的主要目的在于提供一种语音信号捕获方法,旨在提高拾音波束方向的准确性,减少其他方向上噪声的影响,增加语音识别在噪声场景中应用的可靠性。
为实现上述目的,本发明提供一种语音信号捕获方法,所述语音信号捕获方法包括以下步骤:
获取语音识别设备作用空间内用户的位置;
根据所述用户的位置确定拾音波束的形成参数;
按照所述拾音波束的形成参数形成拾音波束,所述拾音波束指向所述用户,以通过所述拾音波束收集所述用户发出的语音信号。
优选地,当所述语音识别设备作用空间内的用户为多个时,获取每个用户的位置;
根据各所述用户的位置分别确定对应的拾音波束的形成参数;
按照确定的形成参数分别形成拾音波束,形成的拾音波束分别指向每个用户,以通过所述形成的拾音波束收集各所述用户发出的语音信号。
优选地,所述根据各所述用户的位置分别确定对应的拾音波束的形成参数的步骤之前,还包括:
获取各所述用户的特征信息;
获取各所述用户的特征信息之间的差异;
根据获取的特征信息差异,确定各所述用户的位置对应的拾音波束的优先级;
所述根据各所述用户的位置分别确定对应的拾音波束的形成参数的步骤包括:
根据各所述用户的位置及其对应的拾音波束的优先级,分别确定对应的拾音波束的形成参数。
优选地,所述用户的特征信息包括用户的面部朝向或用户的口部特征信息。
优选地,所述根据各所述用户的位置分别确定对应的拾音波束的形成参数的步骤之前,还包括:
获取各所述用户与所述语音识别设备之间的距离;
获取各所述距离之间的差异;
根据获取的距离差异,确定各所述用户的位置对应的拾音波束的优先级;
所述根据各所述用户的位置分别确定对应的拾音波束的形成参数的步骤包括:
根据各所述用户的位置及其对应的拾音波束的优先级,分别确定对应的拾音波束的形成参数。
优选地,所述形成参数包括形成方向和形成强度,所述根据各所述用户的位置及其对应的拾音波束的优先级,确定对应的拾音波束的形成参数的步骤包括:
根据各所述用户的位置确定指向相应位置的拾音波束的形成方向;
根据各所述优先级确定指向相应位置的拾音波束的形成强度。
优选地,所述按照所述拾音波束的形成参数形成拾音波束的步骤之后,还包括:
当所述语音识别设备的作用空间内用户的数量和/或位置发生改变时,根据所述改变的用户的数量和/或位置调整所述拾音波束的形成参数。
此外,为实现上述目的,本发明还提供一种语音信号捕获装置,所述语音信号捕获装置包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的语音信号捕获程序,所述语音信号捕获程序被所述处理器执行时实现如上任一项所述的语音信号捕获方法的步骤。
此外,为实现上述目的,本发明还提供一种语音识别设备,所述语音识别设备包括如上所述的语音信号捕获装置。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有语音信号捕获程序,所述语音信号捕获程序被处理器执行时实现如上任一项所述的语音信号捕获方法的步骤。
本发明实施例提出的一种语音信号捕获方法,通过人体信息检测设备获取语音识别设备作用空间内用户的位置,根据获取到的用户的位置确定拾音波束的形成参数,按照确定的拾音波束的形成参数形成拾音波束,形成的拾音波束指向用户,以通过拾音波束收集用户发出的语音信号,无需依靠用户发出的语音对用户进行定位,可提高拾音波束方向的准确性,减少其他方向上噪声的影响,以增加语音识别在噪声场景中应用的可靠性。
附图说明
图1是本发明实施例涉及的硬件运行环境的装置结构示意图;
图2是本发明实施例涉及的硬件运行环境的设备结构示意图;
图3为本发明实施例中语音信号捕获方法的第一流程示意图;
图4为本发明实施例中语音信号捕获方法的第二流程示意图;
图5为本发明实施例中语音信号捕获方法的第三流程示意图;
图6为本发明实施例中语音信号捕获方法的第四流程示意图;
图7为本发明实施例中语音信号捕获方法的第五流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例的主要解决方案是:获取所述语音识别设备作用空间内用户的位置;根据所述用户的位置确定拾音波束的形成参数;按照所述拾音波束的形成参数形成拾音波束,所述拾音波束指向所述用户,以通过所述拾音波束收集所述用户发出的语音信号。
由于现有技术中,需要用户先发出语音指令之后,麦克风阵列再对用户的位置进行定位,在噪声较为复杂的场景,会造成无法很好的对用户的位置进行判定,使发出的拾音波束指向不准确,从而影响到后续语音识别的可靠性。
本发明提供一种解决方案,可提高拾音波束方向的准确性,减少其他方向上噪声的影响,以增加语音识别在噪声场景中应用的可靠性。
在本发明实施例中,如图1所示,语音信号捕获装置1可具体为麦克风阵列系统等可发出指向性拾音波束捕获语音信号的装置。在该语音信号捕获装置中可以包括:处理器1001,例如CPU,存储器1002,麦克风阵列1003,人体信息检测模块1004以及通信总线1005。其中,通信总线1005用于实现这些组件之间的连接通信。存储器1002可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1002可选的还可以是独立于前述处理器1001的存储装置。
其中,麦克风阵列1003包括若干个排列的声学传感器(如麦克风),可根据指令向特定方向发出拾音波束。人体信息检测模块1003可具体为红外传感器、图像传感器或声呐传感器等,用于检测语音信号捕获装置1作用空间内的用户的位置、距离、正面或口部特征信息等人体信息。
本领域技术人员可以理解,图1中示出的装置结构并不构成对装置的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种计算机存储介质的存储器1002中可以语音信号捕获程序。
在图1所示的装置中,处理器1001可以用于调用存储器1002中存储的语音信号捕获程序,并执行以下实施例中语音信号捕获方法的相关步骤操作。
参照图2,本发明实施例还提出一种语音识别设备,该语音识别设备包括上述的语音信号捕获装置1和与该语音捕获装置1通讯连接的语音识别装置2。
语音识别设备可具体为智能空调、智能电视、智能冰箱、智能音响等具有语音识别功能的设备。
语音识别装置2可将从语音信号捕获装置1中获取捕获到的语音信号进行处理、识别得到语音控制指令,以实现用户对语音识别设备的控制。语音识别装置2可为独立于语音信号捕获装置1的装置,也可为整合于语音信号捕获装置1中的语音识别模块。
语音信号捕获装置1和/或语音识别装置2可安装于语音识别设备中,也可根据实际需求独立于语音识别设备设于语音识别设备所需识别的空间范围中。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有语音信号捕获程序,所述语音信号捕获程序被处理器执行时实现执行以下实施例中语音信号捕获方法的相关步骤操作。
参照图3,本发明实施例提供一种语音信号捕获方法,应用于上述语音识别设备,所述语音信号捕获方法包括:
步骤S10,获取语音识别设备作用空间内用户的位置;
语音识别设备作用空间可具体为语音识别设备所在的室内环境,也可根据实际需求将语音识别设备中的语音信号捕获装置1设于所需识别的空间范围中。
人体信息检测模块1003实时检测语音识别设备作用空间内的人体信息,判断语音识别设备作用空间内是否存在用户,当存在用户时可认为该用户为语音识别设备的潜在用户,并获取用户的当前位置。当不存在用户时,可认为不存在需要对语音识别设备进行控制的用户。
其中,当判定语音识别设备作用空间内存在用户时,可认为空间内的所有用户皆为潜在用户并获取空间内的所有用户的当前位置;此外,可通过获取用户图像或其他用户的特征信息,与预存信息做比较,当获取用户特征信息与预存信息匹配时才获取用户的当前位置,可保证所获取的用户的当前位置是特定用户的当前位置,特定用户可具体为预设的拥有权限对语音识别设备进行控制的用户。
步骤S20,根据所述用户的位置确定拾音波束的形成参数;
预先空间内用户的位置与拾音波束的形成参数之间的对应关系,拾音波束的形成参数可具体为波束的方向、波束的数量、波束的强度、波束的宽度等,可根据具体需求进行设置。例如,用户相对于语音识别设备所在的方向对应拾音波束的形成方向,用户相对于语音识别设备的距离对应拾音波束的强度或宽度,此外,同一个用户的位置可根据实际需求对应一个或多个拾音波束等。
在获取到用户的位置后,可根据用户的位置和上述对应关系确定拾音波束的形成参数。
语音识别设备通过语音捕获装置捕获声音信号,并通过波束形成算法调节语音捕获设备中麦克风所拾取声音信号的相位与波幅,使得最终形成的声音信号可以在特定方向范围内具有较高的信噪比,从而达到保留特定方向范围内传播来的声音,并衰减或屏蔽其他方向传播来的声音信号,以实现目标声音信号的获取。由于声音信号被保留的方向范围通常为一个锥形区域,此锥形区域通常被形象的称为拾音波束。其中,拾音波束的方向可表征上述特定方向,拾音波束的强度可表征信噪比的高低,波束的宽度可表征上述锥形区域的大小。
步骤S30,按照所述拾音波束的形成拾音波束,所述拾音波束指向所述用户,以通过所述拾音波束收集所述用户发出的语音信号。
在拾音波束的形成参数确定后,控制麦克风阵列按照上述拾音波束的形成参数持续的发出指向性的拾音波束,使拾音波束指向上述用户,在该用户发出语音信号时,拾音波束可立即收集到用户发出的语音信号。
对拾音波束所收集到的语音信号进行处理和识别其中的语音命令,根据语音命令对语音识别设备进行控制,如空调、冰箱、电视等具有语音识别功能的设备。
在本实施例中,通过人体信息检测设备获取语音识别设备作用空间内用户的位置,根据获取到的用户的位置确定拾音波束的形成参数,按照确定的拾音波束的形成参数形成拾音波束,拾音波束指向用户,以通过拾音波束收集用户发出的语音信号,无需依靠用户发出的语音对用户进行定位,可提高拾音波束方向的准确性,减少其他方向上噪声的影响,以增加语音识别在噪声场景中应用的可靠性。
进一步的,参照图4,在语音识别设备作用空间内用户为多个时,语音信号捕获方法包括以下步骤:
步骤S40,获取每个用户的位置;
步骤S50,根据各所述用户的位置分别确定对应的拾音波束的形成参数;
步骤S60,按照确定的形成参数分别形成拾音波束,形成的拾音波束分别指向每个用户,以通过所述形成的拾音波束收集各所述用户发出的语音信号。
当语音识别设备作用空间内用户为多个(2个或2个以上)时,获取作用空间内用户的数量,这里的用户可以是所有用户,可为特定用户,并且获取每个用户的所在位置。
根据每个用户的位置分别确定一个与该用户的位置对应的拾音波束的形成参数。根据获取到的多个用户的位置对应确定有多个拾音波束的形成参数。每个用户所在位置所对应的拾音波束的形成参数具体根据每个用户各自所在的位置进行确定,这里的形成参数可具体为数量、方向、强度、宽度等。
需要说明的是,每个用户可对应一个或多个拾音波束,一个拾音波束可指向一个用户或多个用户,具体可根据实际需求进行设置。在相邻的用户的距离小于或等于预设距离时,该相邻的用户可共用同一个的拾音波束,在相邻的用户的距离大于预设距离时,该相邻的用户分别独立使用两个或两个以上的拾音波束,只需以保证拾音波束可指向每个用户即可。每个用户的位置对应确定指向该用户的拾音波束的形成方向及形成数量,保证拾音波束可指向作用空间内的每个用户。
在多个与用户位置对应的拾音波束的形成参数确定后,控制麦克风阵列按照确定的形成参数分别形成拾音波束,使形成的拾音波束可分别指向每个用户,在其中一个或几个用户发出语音信号时,拾音波束可立即收集到用户所发出的语音信号。
在本实施例中,在语音识别设备作用空间内用户为多个时,获取每个用户的位置,根据各所述用户的位置分别确定对应的拾音波束的形成参数,按照确定的形成参数分别形成拾音波束,形成的拾音波束分别指向每个用户的位置,以通过形成的拾音波束收集每个用户发出的语音信号,通过此方式,可保证在语音识别设备作用空间内用户为多个时,无需依靠用户发出的语音对用户进行定位,便可对作用空间内的多个用户的位置进行确定,可提高每个拾音波束方向的准确性,减少其他方向上噪声的影响,以增加语音识别在噪声场景中应用的可靠性。
进一步的,参照图5,所述根据各所述用户的位置分别确定对应的拾音波束的形成参数的步骤之前,还包括:
步骤S01,获取各所述用户的特征信息;
步骤S02,获取各所述用户的特征信息之间的差异;
步骤S03,根据获取的特征信息差异,确定各所述用户的位置对应的拾音波束的优先级;
所述根据各所述用户的位置分别确定对应的拾音波束的形成参数的步骤包括:
步骤S51,根据各所述用户的位置及其对应的拾音波束的优先级,分别确定对应的每个拾音波束的形成参数。
其中,用户的特征信息可包括用户的面部朝向、用户的口部特征、用户的眼睛等可用于判定用户使用语音识别设备的可能性大小的用户特征信息。
通过人体信息检测模块获取语音识别设备作用空间内的每个用户的图像,对所获取的用户图像的图像特征进行分析并判定每个用户的面部朝向、用户的口部特征信息等。
获取每个用户的面部朝向的差异,根据获取到的面部朝向的差异确定分别指向每个用户所在位置的拾音波束的优先级。具体的,判断用户的面部朝向相对于语音识别设备的角度,定义面部朝向正对语音识别设备时的角度为0度,用户的面部朝向相对于语音识别设备的角度越小,表明对应的用户使用语音识别设备的可能性越高,则拾音波束的优先级对应的越高。通过将语音识别设备作用空间内的每个用户的面部朝向相对于语音识别设备的角度的大小进行比较、排序,便可对应确定每个用户所对应的拾音波束的优先级的高低。
获取每个用户口部特征的的差异,根据获取到的用户的口部特征的差异确定分别指向每个用户所在位置的拾音波束的优先级。具体的判断获取的图像中用户嘴唇的完整度,完整度越高,表明对应的用户使用语音识别设备的可能性越高,则拾音波束的优先级应对应的越高。通过将语音识别设备作用空间内的每个用户的嘴唇的完整度进行比较、排序,便可对应确定每个用户的位置所对应的拾音波束的优先级的高低。
结合每个用户的位置和上述确定的指向该位置的拾音波束的优先级高低,可确定每个指向用户所在位置的拾音波束的形成参数。其中,根据拾音波束的优先级可对应确定拾音波束的强度或宽度等形成参数,优先级越高拾音波束的强度或宽度越大。
通过结合用户的位置以及上述确定的拾音波束的优先级,确定每个用户的位置对应的的拾音波束的形成参数,根据确定的形成参数分别形成拾音波束,可从多个用户中筛选出更有可能对语音识别设备进行控制的目标用户并获取其语音信号进行识别,以获得准确有效的语音识别指令,提高语音识别设备语音识别设备的准确度。其中,使用用户的面部朝向、用户的口部特征信息等对用户使用语音识别设备的可能性大小进行判断,可适应于用户的常用习惯直观判定多个用户中对语音识别设控制的用户。
进一步的,参照图6,所述根据各每个用户的位置及其对应的拾音波束的优先级,确定对应的拾音波束的形成参数的步骤之前,还包括:
步骤S04,获取各所述用户与所述语音识别设备之间的距离;
步骤S05,获取各所述距离之间的差异;
步骤S06,根据获取的距离差异,确定各所述用户的位置对应的拾音波束的优先级;
所述根据各所述用户的位置分别确定对应的拾音波束的形成参数的步骤包括:
步骤S52,根据各所述用户的位置及其对应的拾音波束的优先级,确定对应的拾音波束的形成参数。
其中,用户与语音识别设备之间的距离的差异可用于判定用户使用语音识别设备的可能性大小,该距离可通过获取到各个用户所在位置后通过计算得到。将每个用户与语音识别设备之间的距离大小进行比较,得到每个用户距离之间的大小差异,根据所得到的大小差异可对应确定分别指向用户所在位置的拾音波束的优先级。具体的,可定义距离越近,用户使用语音识别设备的可能性越大,则对应指向相应的用户的位置的拾音波束的优先级应越高。
结合每个用户的位置和上述确定的指向该位置的拾音波束的优先级高低,可确定每个指向用户所在位置的拾音波束的形成参数。其中,根据拾音波束的优先级可对应确定拾音波束的强度或宽度等形成参数,优先级越高拾音波束的强度或宽度越大。
通过结合用户的位置以及上述确定的拾音波束的优先级来确定指向每个用户的位置的拾音波束的形成参数,根据确定的形成参数分别形成拾音波束,可从多个用户中筛选出更有可能对语音识别设备进行控制的目标用户并获取其语音信号进行识别,以获得准确有效的语音识别指令,提高语音识别设备语音识别设备的准确度。其中,使用用户与语音识别设备之间的距离大小来对用户使用语音识别设备的可能性大小进行判断,可使用同一个检测设备在获取到用户位置的同时得到用户的距离数据,简单方便地实现对多个用户中对语音识别设控制的用户进行判定,无需添加其他的检测设备。
需要说明的是,根据实际使用需求,用户的位置所对应的拾音波束的优先级还可结合用户的特征信息以及与语音识别设备之间的距离,按照一定的权重进行确定。
具体的,参照图7,所述形成参数包括形成方向和形成强度,所述根据各所述用户的位置及其对应的拾音波束的优先级,确定对应的拾音波束的形成参数的步骤包括:
步骤S53,根据各所述用户的位置确定指向相应位置的拾音波束的形成方向;
步骤S54,根据各所述优先级确定指向相应位置的拾音波束的形成强度。
根据每个用户的位置确定对应的拾音波束的形成方向,使拾音波束指向每个用户,在此基础上,通过每个拾音波束的优先级,可确定指向相应位置的拾音波束的形成强度。通过上述方式,可实现从多个用户中筛选出更有可能对语音识别设备进行控制的目标用户后,有效的获取到目标用户发出的语音信号,使目标用户的语音指令可优先对语音识别设备进行控制。
进一步的,所述按照所述拾音波束的形成参数形成拾音波束的步骤之后,还包括:
当所述语音识别设备的作用空间内用户的数量和/或位置发生改变时,根据所述改变的用户的数量和/或位置调整所述拾音波束的形成参数。
语音识别设备的作用空间内用户的数量和/或位置发生改变,如用户移动到别的位置、用户离开语音识别设备的作用空间或存在新增的用户进入语音识别设备的作用空间内。此时,根据改变的用户的数量和/或位置调整拾音波束的形成参数,如用户的数量增大时对应的增多拾音波束的形成数量,用户的数量减少时对应的减少拾音波束的形成数量,用户的位置移动时对应的改变拾音波束的形成方向、强度或宽度等。
通过上述方式,可形成追踪用户的拾音波束,无论语音识别设备的作用空间内用户的数量和/或位置发生改变,均可形成指向每个用户的拾音波束以获取语音信号,提高语音信号识别设备适应不同场景使用的灵活性。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (6)

1.一种语音信号捕获方法,其特征在于,所述语音信号捕获方法包括以下步骤:
获取语音识别设备作用空间内用户的位置;
根据所述用户的位置确定拾音波束的形成参数;
按照所述拾音波束的形成参数形成拾音波束,所述拾音波束指向所述用户,以通过所述拾音波束收集所述用户发出的语音信号;
当所述语音识别设备作用空间内的用户为多个时,获取每个用户的位置;
获取各所述用户的特征信息,和/或各所述用户与所述语音识别设备之间的距离;
获取各所述用户的特征信息之间和/或各所述距离之间的差异;
根据获取的特征信息差异和/或距离差异,确定各所述用户的位置对应的拾音波束的优先级;
根据各所述用户的位置及其对应的拾音波束的优先级,分别确定对应的拾音波束的形成参数;所述形成参数包括形成方向和形成强度,根据各所述用户的位置确定指向相应位置的拾音波束的形成方向;根据各所述优先级确定指向相应位置的拾音波束的形成强度;
按照确定的形成参数分别形成拾音波束,形成的拾音波束分别指向每个用户,以通过所述形成的拾音波束收集各所述用户发出的语音信号。
2.如权利要求1所述的语音信号捕获方法,其特征在于,所述用户的特征信息包括用户的面部朝向或用户的口部特征信息。
3.如权利要求1至2中任一项所述的语音信号捕获方法,其特征在于,所述按照所述拾音波束的形成参数形成拾音波束的步骤之后,还包括:
当所述语音识别设备的作用空间内用户的数量和/或位置发生改变时,根据所述改变的用户的数量和/或位置调整所述拾音波束的形成参数。
4.一种语音信号捕获装置,其特征在于,所述语音信号捕获装置包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的语音信号捕获程序,所述语音信号捕获程序被所述处理器执行时实现如权利要求1至3中任一项所述的语音信号捕获方法的步骤。
5.一种语音识别设备,其特征在于,所述语音识别设备包括如权利要求4所述的语音信号捕获装置。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有语音信号捕获程序,所述语音信号捕获程序被处理器执行时实现如权利要求1至3中任一项所述的语音信号捕获方法的步骤。
CN201810426065.0A 2018-05-04 2018-05-04 语音识别设备及其语音信号捕获方法、装置和存储介质 Active CN108831474B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810426065.0A CN108831474B (zh) 2018-05-04 2018-05-04 语音识别设备及其语音信号捕获方法、装置和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810426065.0A CN108831474B (zh) 2018-05-04 2018-05-04 语音识别设备及其语音信号捕获方法、装置和存储介质

Publications (2)

Publication Number Publication Date
CN108831474A CN108831474A (zh) 2018-11-16
CN108831474B true CN108831474B (zh) 2021-05-25

Family

ID=64147583

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810426065.0A Active CN108831474B (zh) 2018-05-04 2018-05-04 语音识别设备及其语音信号捕获方法、装置和存储介质

Country Status (1)

Country Link
CN (1) CN108831474B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109410983A (zh) * 2018-11-23 2019-03-01 广东小天才科技有限公司 一种语音搜题方法及系统
CN109640224B (zh) * 2018-12-26 2022-01-21 北京猎户星空科技有限公司 一种拾音方法及装置
CN109461449B (zh) * 2018-12-29 2021-12-14 思必驰科技股份有限公司 用于智能设备的语音唤醒方法及系统
CN109754803B (zh) * 2019-01-23 2021-06-22 上海华镇电子科技有限公司 车载多音区语音交互系统及方法
CN110186171B (zh) * 2019-05-30 2021-09-10 广东美的制冷设备有限公司 空调器及其控制方法和计算机可读存储介质
CN110164443B (zh) * 2019-06-28 2021-09-14 联想(北京)有限公司 用于电子设备的语音处理方法、装置以及电子设备
CN112413834B (zh) * 2019-08-20 2021-12-17 广东美的制冷设备有限公司 空调系统及空调指令检测方法、控制装置和可读存储介质
CN111246339B (zh) * 2019-12-31 2021-12-07 上海景吾智能科技有限公司 一种调节拾音方向的方法、系统、存储介质及智能机器人
CN113132863B (zh) * 2020-01-16 2022-05-24 华为技术有限公司 立体声拾音方法、装置、终端设备和计算机可读存储介质
CN112185406A (zh) * 2020-09-18 2021-01-05 北京大米科技有限公司 声音处理方法、装置、电子设备和可读存储介质
CN112689191B (zh) * 2020-12-14 2023-05-12 努比亚技术有限公司 一种投屏控制方法、终端及计算机可读存储介质
CN113380243A (zh) * 2021-05-27 2021-09-10 广州广电运通智能科技有限公司 一种辅助语音交互的方法及系统、存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1933482A (zh) * 2005-09-16 2007-03-21 腾讯科技(深圳)有限公司 一种发起语音通话的方法
CN104053088A (zh) * 2013-03-11 2014-09-17 联想(北京)有限公司 一种麦克风阵列调整方法、麦克风阵列及电子设备
CN104320729A (zh) * 2014-10-09 2015-01-28 深圳市金立通信设备有限公司 一种拾音方法
CN104349053A (zh) * 2013-07-26 2015-02-11 Lg电子株式会社 移动终端及其控制方法
CN105681939A (zh) * 2014-11-18 2016-06-15 中兴通讯股份有限公司 一种终端拾音控制方法、终端及终端拾音控制系统
US9547306B2 (en) * 2014-09-30 2017-01-17 Speak Loud SPA State and context dependent voice based interface for an unmanned vehicle or robot
CN106440192A (zh) * 2016-09-19 2017-02-22 珠海格力电器股份有限公司 一种家电控制方法、装置、系统及智能空调

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7352358B2 (en) * 2002-07-27 2008-04-01 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to acoustical tracking
JP3632099B2 (ja) * 2002-12-17 2005-03-23 独立行政法人科学技術振興機構 ロボット視聴覚システム
CN202600135U (zh) * 2012-06-25 2012-12-12 重庆城市管理职业学院 城市噪声定位系统
JP6516585B2 (ja) * 2015-06-24 2019-05-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 制御装置、その方法及びプログラム
CN107642864B (zh) * 2017-08-18 2021-08-24 重庆海尔空调器有限公司 一种多空调语音控制方法、控制装置和空调系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1933482A (zh) * 2005-09-16 2007-03-21 腾讯科技(深圳)有限公司 一种发起语音通话的方法
CN104053088A (zh) * 2013-03-11 2014-09-17 联想(北京)有限公司 一种麦克风阵列调整方法、麦克风阵列及电子设备
CN104349053A (zh) * 2013-07-26 2015-02-11 Lg电子株式会社 移动终端及其控制方法
US9547306B2 (en) * 2014-09-30 2017-01-17 Speak Loud SPA State and context dependent voice based interface for an unmanned vehicle or robot
CN104320729A (zh) * 2014-10-09 2015-01-28 深圳市金立通信设备有限公司 一种拾音方法
CN105681939A (zh) * 2014-11-18 2016-06-15 中兴通讯股份有限公司 一种终端拾音控制方法、终端及终端拾音控制系统
CN106440192A (zh) * 2016-09-19 2017-02-22 珠海格力电器股份有限公司 一种家电控制方法、装置、系统及智能空调

Also Published As

Publication number Publication date
CN108831474A (zh) 2018-11-16

Similar Documents

Publication Publication Date Title
CN108831474B (zh) 语音识别设备及其语音信号捕获方法、装置和存储介质
CN106653041B (zh) 音频信号处理设备、方法和电子设备
EP3951779A1 (en) Method for enhancing far-field speech recognition rate, system and readable storage medium
US10694312B2 (en) Dynamic augmentation of real-world sounds into a virtual reality sound mix
US9084038B2 (en) Method of controlling audio recording and electronic device
US20150022636A1 (en) Method and system for voice capture using face detection in noisy environments
US9530407B2 (en) Spatial audio database based noise discrimination
CN111629301B (zh) 用于控制多个扬声器播放音频的方法、装置和电子设备
CN111034222A (zh) 拾音装置、拾音方法以及程序
JP6977448B2 (ja) 機器制御装置、機器制御プログラム、機器制御方法、対話装置、及びコミュニケーションシステム
CN112073804A (zh) 电视声音调整方法、电视及存储介质
CN111930336A (zh) 音频设备的音量调节方法、设备及存储介质
WO2020116054A1 (ja) 信号処理装置及び信号処理方法
WO2021108991A1 (zh) 控制方法、装置和可移动平台
CN115831141B (zh) 车载语音的降噪方法、装置、车辆及存储介质
US20220170656A1 (en) Air-conditioning instruction detection method, control device and air-conditioning system
CN109545217B (zh) 语音信号接收方法、装置、智能终端及可读存储介质
JP2019103009A (ja) 指向性制御装置と収音システムおよび指向性制御方法、指向性制御プログラム
WO2021038752A1 (ja) 画像処理装置、システム、画像処理方法および画像処理プログラム
KR102407872B1 (ko) 레이더 기반 음성 인식 서비스 장치 및 방법
KR101525349B1 (ko) 무선통신 서비스를 수행하는 네트워크 기반 초지향성 스피커 제공 시스템 및 방법
KR102333476B1 (ko) 레이더 기반 음성 인식 서비스 장치 및 방법
CN112197405B (zh) 区域规划方法、终端设备及计算机可读存储介质
US11215709B2 (en) Audio data gather
CN116828352A (zh) 收音装置以及收音装置的控制方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant