CN107948857B - 声音处理方法和电子设备 - Google Patents
声音处理方法和电子设备 Download PDFInfo
- Publication number
- CN107948857B CN107948857B CN201711382045.XA CN201711382045A CN107948857B CN 107948857 B CN107948857 B CN 107948857B CN 201711382045 A CN201711382045 A CN 201711382045A CN 107948857 B CN107948857 B CN 107948857B
- Authority
- CN
- China
- Prior art keywords
- information
- sound
- input device
- receiving
- microphone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开提供了一种声音处理方法,应用于电子设备,所述方法包括,接收第一声音信息,所述第一声音信息是通过设置在电子设备上的至少一个第一麦克风接收一段声音而生成的,接收与所述电子设备一起使用的输入设备发送的第二声音信息,所述第二声音信息是通过设置在所述输入设备上的至少一个第二麦克风接收所述一段声音而生成的,以及处理所述第一声音信息和第二声音信息,获得第三声音信息。本公开还提供了一种电子设备。
Description
技术领域
本公开涉及一种声音处理方法和电子设备。
背景技术
在人工智能的研究中,声音的识别是至关重要的,可以更好地实现人机交互,也可以拓宽人工智能的应用领域,例如用于测验用户的口语是否标准。
但是,由于很多的电子设备并不能像音响一样在四周放置多个麦克风,因此获取的音质的质量较差,进而影响了声音的识别。例如,现有的电子设备的显示屏越来越大,用于放置外设的空间越来越小,往往只能在屏幕的两边放置1到2个麦克风。因此,电子设备上的麦克风数量较少而且麦克风的位置不佳导致电子设备拾取的声音的音质很差。
在做出本发明的过程中,发明人发现,现有的电子设备拾取的声音存在噪声大和音质差,导致声音的识别不精确的问题。
发明内容
本公开的一个方面提供了一种声音处理方法,包括,接收第一声音信息,所述第一声音信息是通过设置在电子设备上的至少一个第一麦克风接收一段声音而生成的,接收与所述电子设备一起使用的输入设备发送的第二声音信息,所述第二声音信息是通过设置在所述输入设备上的至少一个第二麦克风接收所述一段声音而生成的,以及处理所述第一声音信息和第二声音信息,获得第三声音信息。
可选地,所述方法还包括,获取所述输入设备的初始位置信息,获取所述输入设备的运动信息,基于所述初始位置信息和运动信息,确定所述输入设备的相对位置信息,基于所述相对位置信息、第一声音信息和第二声音信息,确定所述一段声音的声源方向。
可选地,所述方法还包括,获取所述输入设备发送的压力信息,所述压力信息表征用户对所述输入设备施加的力,基于压力信息,判断用户的身材,以及基于所述用户的身材和所述一段声音的声源方向,确定所述用户的姿态信息。
可选地,所述方法还包括,接收第一回声信息,所述第一回声信息是通过所述至少一个第一麦克风接收所述一段声音的回声而生成的,接收与所述电子设备一起使用的输入设备发送的第二回声信息,所述第二回声信息是通过设置在所述输入设备上的所述至少一个第二麦克风接收所述一段声音的回声而生成的,以及处理所述第一回声信息和第二回声信息,获得环境空间大小。
可选地,所述输入设备是接收用户的肢体输入操作的输入设备,包括以下任意一项或多项:键盘、鼠标、操控杆、触控笔。
本公开的另一个方面提供了一种电子设备,包括处理器;以及存储器,其上存储有计算机可读指令,所述指令被处理器执行时,使得处理器,接收第一声音信息,所述第一声音信息是通过设置在电子设备上的至少一个第一麦克风接收一段声音而生成的,接收与所述电子设备一起使用的输入设备发送的第二声音信息,所述第二声音信息是通过设置在所述输入设备上的至少一个第二麦克风接收所述一段声音而生成的;以及处理所述第一声音信息和第二声音信息,获得第三声音信息。
可选地,所述处理器还执行,获取输入设备的初始位置信息,获取输入设备的运动信息,基于所述初始位置信息和运动信息,确定输入设备的相对位置信息,以及基于所述相对位置信息、第一声音信息和第二声音信息,确定所述一段声音的声源方向。
可选地,所述处理器还执行,获取输入设备发送的压力信息,所述压力信息表征用户对所述输入设备施加的力,基于压力信息,判断用户的身材,以及基于所述用户的身材和所述一段声音的声源方向,确定所述用户的姿态信息。
可选地,所述处理器还执行,接收第一回声信息,所述第一回声信息是通过所述至少一个第一麦克风接收所述一段声音的回声而生成的,接收与所述电子设备一起使用的输入设备发送的第二回声信息,所述第二回声信息是通过设置在所述输入设备上的所述至少一个第二麦克风接收所述一段声音的回声而生成的,以及处理所述第一回声信息和第二回声信息,获得环境空间大小。
可选地,所述输入设备是接收用户的肢体输入操作的输入设备,包括以下任意一项或多项:键盘、鼠标、操控杆、触控笔。
本公开的另一方面提供了一种非易失性存储介质,存储有计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
本公开的另一方面提供了一种计算机程序,所述计算机程序包括计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
附图说明
为了更完整地理解本公开及其优势,现在将参考结合附图的以下描述,其中:
图1A和图1B示意性示出了根据本公开实施例的信息处理方法的应用场景;
图2示意性示出了根据本公开实施例的信息处理方法的流程图;
图3示意性示出了根据本公开另一实施例的信息处理方法的流程图;
图4示意性示出了根据本公开另一实施例的信息处理方法的流程图;
图5示意性示出了根据本公开另一实施例的信息处理方法的流程图;
图6示意性示出了根据本公开实施例的信息处理系统的框图;
图7示意性示出了根据本公开另一实施例的信息处理系统的框图;
图8示意性示出了根据本公开另一实施例的信息处理系统的框图;
图9示意性示出了根据本公开另一实施例的信息处理系统的框图;以及
图10示意性示出了根据本公开实施例的电子设备的框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。本领域技术人员还应理解,实质上任意表示两个或更多可选项目的转折连词和/或短语,无论是在说明书、权利要求书还是附图中,都应被理解为给出了包括这些项目之一、这些项目任一方、或两个项目的可能性。例如,短语“A或B”应当被理解为包括“A”或“B”、或“A和B”的可能性。
附图中示出了一些方框图和/或流程图。应理解,方框图和/或流程图中的一些方框或其组合可以由计算机程序指令来实现。这些计算机程序指令可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,从而这些指令在由该处理器执行时可以创建用于实现这些方框图和/或流程图中所说明的功能/操作的装置。
因此,本公开的技术可以硬件和/或软件(包括固件、微代码等)的形式来实现。另外,本公开的技术可以采取存储有指令的计算机可读介质上的计算机程序产品的形式,该计算机程序产品可供指令执行系统使用或者结合指令执行系统使用。在本公开的上下文中,计算机可读介质可以是能够包含、存储、传送、传播或传输指令的任意介质。例如,计算机可读介质可以包括但不限于电、磁、光、电磁、红外或半导体系统、装置、器件或传播介质。计算机可读介质的具体示例包括:磁存储装置,如磁带或硬盘(HDD);光存储装置,如光盘(CD-ROM);存储器,如随机存取存储器(RAM)或闪存;和/或有线/无线通信链路。
本公开的实施例提供了一种声音处理方法和电子设备。该方法包括接收声音信息过程和处理声音信息过程。接收声音信息的过程包括接收第一声音信息和接收第二声音信息,所述第一声音信息是通过设置在电子设备上的至少一个第一麦克风接收一段声音而生成的,所述第二声音信息是通过设置在所述输入设备上的至少一个第二麦克风接收所述一段声音而生成的。该方法将电子设备上的第一麦克风和输入设备上的第二麦克风接收到的声音信息相结合,形成麦克风阵列,提高了噪声抑制能力,得以获得更好的音质,使电子设备对声音的识别更精确。
图1A和图1B示意性示出了根据本公开的实施例的信息处理方法的应用场景。需要注意的是,图1A和图1B所示仅为可以应用本公开实施例的场景的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1A所示,该应用场景包括电子设备100以及与该电子设备100一起使用的输入设备110。其中,电子设备100包括设置在电子设备100上的第一麦克风101、手写板102。
根据本公开的实施例,电子设备100例如可以是平板电脑,输入设备110例如可以是触控笔,可以在手写板102上书写。在现有技术中,电子设备100可以通过第一麦克风101接收来自用户的声音,电子设备的麦克风通常设置在电子设备的两侧,如图1A所示的电子设备100的第一麦克风101设置于电子设备100的两侧。然而,用户使用电子设备时,通常面向电子设备的屏幕,而不是面向电子设备的两侧,因此设置在电子设备两侧的麦克风接收到的用户的声音存在很大噪声。
对此,本公开的实施例提供了一种可以解决上述问题的方法,如图1B所示,在与电子设备100一起使用的输入设备110上设置第二麦克风111,其中,输入设备110例如是如图1B所示的触控笔。第二麦克风111可以包括放置在不同位置的多个麦克风单元,例如,第二麦克风111包括3个麦克风单元,分别分布于触控笔的上部、中部和下部。这样,第二麦克风111与第一麦克风101形成了立体语音阵列,语音阵列对声音波束赋型效果更好,并且对噪声的抑制能力更强。
在本公开的实施例中,当用户发出声音时,第一麦克风和第二麦克风能够同时接收到该声音,并且电子设备能够接收来自第二麦克风的声音,例如通过蓝牙传输将声音传输到电子设备,电子设备基于第一麦克风的声音和第二麦克风的声音,处理声音信息。
可以理解,电子设备100可以是任何可能的电子设备,与电子设备100一起使用的输入设备例如可以是鼠标、触控笔等,本公开在此不对电子设备以及所述输入设备的类型进行限制。
图2示意性示出了根据本公开实施例的信息处理方法的流程图。
如图2所示,该方法包括操作S210~S230。
在操作S210,接收第一声音信息,所述第一声音信息是通过设置在电子设备上的至少一个第一麦克风接收一段声音而生成的。
在操作S220,接收与所述电子设备一起使用的输入设备发送的第二声音信息,所述第二声音信息是通过设置在所述输入设备上的至少一个第二麦克风接收所述一段声音而生成的。
在操作S230,处理所述第一声音信息和第二声音信息,获得第三声音信息。
该方法将电子设备上的第一麦克风和输入设备上的第二麦克风接收到的声音信息相结合,形成麦克风阵列,提高了噪声抑制能力,得以获得更好的音质,使电子设备对声音的识别更精确。另一方面,通过在输入设备上设置麦克风,提高了输入设备的利用率。
根据本公开的实施例,在操作S210,所述第一麦克风可以设置在电子设备上的任意位置,通常,设置在电子设备的两侧。所述第一声音信息包括但不限于第一麦克风接收到的一段声音的频率、音色、响度等信息。
根据本公开的实施例,在操作S220,所述输入设备与电子设备配合使用,例如,在上述应用场景中的触控笔与电子设备100配合使用,完成用户的输入操作。输入设备上设置有至少一个第二麦克风,该第二麦克风的型号和/或结构可以与第一麦克风相同。本领域技术人员可以设置在合适的位置,例如可以设置在远离手部握持的位置。由第二麦克风接收的第二声音信息同第一麦克风接收的第一声音信息的来源相同,来自同一段声音,例如用户的一段语音。根据本公开的实施例,输入设备上的至少一个第二麦克风与电子设备上的至少一个第一麦克风形成麦克风阵列,麦克风阵列具有很好的抑制噪声的作用。
根据本公开的实施例,电子设备和所述电子设备一起使用的输入设备可以通过信息传输装置连接,例如蓝牙,在操作S220,电子设备接收所述输入设备发送的第二声音信息。
根据本公开的实施例,在操作S230,所述处理所述第一声音信息和第二声音信息包括对第一声音信息和第二声音信息中包含的声音信息的融合,例如第二声音信息包含的一段内容,第一声音信息中缺少该段内容,电子设备能够通过第二声音信息获取全部的一段声音包含的声音信息。所述处理所述第一声音信息和第二声音信息还包括对第一声音信息和第二声音信息的滤波,例如,预设声音响度阈值,滤除第一声音信息和/或第二声音信息中的响度阈值小于预设声音响度阈值的声音信息。
图3示意性示出了根据本公开另一实施例的信息处理方法的流程图。
如图3所示,该方法在图2所示的实施例的基础上还包括操作S310~S340。
在操作S310,获取输入设备的初始位置信息。
在操作S320,获取输入设备的运动信息。
在操作S330,基于所述初始位置信息和运动信息,确定输入设备的相对位置信息。
在操作S340,基于所述相对位置信息、第一声音信息和第二声音信息,确定所述一段声音的声源方向。
该方法通过实时获取输入设备的相对位置信息,以及接收第一声音信息和第二声音信息,能够确定声源的方向。
根据本公开的实施例,在操作S310,初始位置可以是用户在使用电子设备之前或者需要对电子设备以及输入设备的位置进行初始化时,用户放置的输入设备的位置。初始位置信息可以是输入设备相对于电子设备的位置,例如,在应用场景中所示的电子设备100和输入设备110,输入设备110放置在手写板102的左边边缘。所述获取输入设备的初始位置信息可以是通过摄像头采集输入设备与电子设备的初始位置图像,通过该图像获取输入设备与电子设备的相对位置。
根据本公开的实施例,在操作S320,输入设备的运动信息包括输入设备在初始位置的基础上的运动方向和运动距离。例如,在操作S310所述的情景中,输入设备110在初始位置手写板102的左边边缘的基础上,向左移动了一定距离,向上移动了一定距离。
根据本公开的实施例,在操作S330,基于所述初始位置信息和运动信息,确定输入设备的相对位置信息。例如,在操作S320的情景中,确定输入设备在电子设备左边边缘的左上方的位置。
根据本公开的实施例,在操作S340,基于所述相对位置信息、第一声音信息和第二声音信息,确定所述一段声音的声源方向,包括确定不同位置的麦克风接收到一段声音的时间差,再利用该时间差求得一段声音到达不同位置麦克风的距离差,再利用几何或搜索知识确定声源方向。也可以,根据设置在不同位置的第一麦克风和第二麦克风接收到的一段声音的频率、振幅等参数的不同确定声源的方向。具体地,在操作S330的情景中,确定输入设备在电子设备左边边缘的左上方的位置,而电子设备接收到的设置在输入设备左侧的麦克风发送声音信息的振幅大于右侧的麦克风发送声音信息,则确定该段声音的声源方向在电子设备的左边,并且通过计算可以确定与电子设备的距离。
图4示意性示出了根据本公开另一实施例的信息处理方法的流程图。
如图4所示,该方法在图2所示的实施例的基础上还包括操作S410~S430。
在操作S410,获取输入设备发送的压力信息,所述压力信息表征用户对所述输入设备施加的力。
在操作S420,基于压力信息,判断用户的身材。
在操作S430,基于所述用户的身材和所述一段声音的声源方向,确定所述用户的姿态信息。
该方法通过获取输入设备发送的压力信息判断用户的身材,基于用户身材和声音方向能够判断用户的姿态是否正确,以矫正用户姿态。
根据本公开的实施例,在操作S410,压力信息包括输入设备受到的压力大小和/或压力的位置等压力信息。该压力信息例如可以通过输入设备上的压力传感器获取。电子设备例如可以通过蓝牙获取输入设备发送的压力信息。
根据本公开的实施例,在操作S420,基于压力信息,判断用户的身材。不同大小的手掌,对输入设备例如触控笔的握持的位置不同,例如,手掌较大的用户,手指握持触控笔时,相邻手指的间距较大。通过压力传感器感知输入设备例如触控笔的受压位置,判断用户手掌的大小,基于手掌的大小判断用户的身材。
根据本公开的实施例,在操作S430,基于所述用户的身材和所述一段声音的声源方向,确定所述用户的姿态信息。例如,身高180cm的用户使用应用场景示例的电子设备100和输入设备110读写时,当用户坐姿正确时,用户的发出的声音的声源方向应该是距离手写板102垂直高度40cm的位置,若电子设备根据图3所示例的方法确定的声源方向为距离手写板102垂直高度30cm的位置,确定用户的姿态为驼背。
图5示意性示出了根据本公开另一实施例的信息处理方法的流程图。
如图5所示,该方法在图2所示的实施例的基础上还包括操作S510~S530。
在操作S510,接收第一回声信息,所述第一回声信息是通过所述至少一个第一麦克风接收所述一段声音的回声而生成的。
在操作S520,接收与所述电子设备一起使用的输入设备发送的第二回声信息,所述第二回声信息是通过设置在所述输入设备上的所述至少一个第二麦克风接收所述一段声音的回声而生成的。
在操作S530,处理所述第一回声信息和第二回声信息,获得环境空间大小。
该方法利用回声信息,智能判断用户所处环境空间的大小,进而可以为用户提供适合用户空间环境的服务,例如,推荐广告。
根据本公开的实施例,在操作S510,所述回声信息例如是用户发出的一段声音碰到墙壁反射的声音信息,第一回声信息是由至少一个第一麦克风接收一段声音的回声生成的。所述回声信息包括但不限于第一麦克风接收到的回声的频率、振幅、响度等信息。
根据本公开的实施例,在操作S520,所述输入设备与电子设备配合使用,例如,在上述应用场景中的触控笔与电子设备100配合使用,完成用户的输入操作。由第二麦克风接收的回声信息同第一麦克风接收的回声信息的来源相同,来自同一段声音的回声,例如用户的一段声音的回声。
根据本公开的实施例,电子设备和所述电子设备一起使用的输入设备可以通过信息传输装置连接,例如蓝牙,在操作S520,电子设备接收所述输入设备发送的第二回声信息。
根据本公开的实施例,在操作S530,所述处理所述第一回声信息和第二回声信息包括通过不同位置的麦克风接收到回声的时间、振幅等信息,确定输入设备以及电子设备到障碍物例如墙壁的距离,从而确定空间大小。
根据本公开的实施例,根据上述操作确定的空间大小,可以为用户推荐适合该空间环境的服务,例如,推荐广告。具体地,例如,用户所处的空间为小户型,则向用户推送小型家具或者折叠家具等。
根据本公开的实施例,其中,所述输入设备是接收用户的肢体输入操作的输入设备,包括以下任意一项或多项:接收用户的肢体输入操作的输入设备、键盘、鼠标、操控杆、触控笔。
图6示意性示出了根据本公开实施例的信息处理系统600的框图。
如图6所示,信息处理系统600包括第一接收模块610、第二接收模块620以及第一处理模块630。
第一接收模块610,例如执行参考图2中描述的操作S210,用于接收第一声音信息,所述第一声音信息是通过设置在电子设备上的至少一个第一麦克风接收一段声音而生成的。
第二接收模块620,例如执行参考图2中描述的操作S220,接收与所述电子设备一起使用的输入设备发送的第二声音信息,所述第二声音信息是通过设置在所述输入设备上的至少一个第二麦克风接收所述一段声音而生成的。
第一处理模块630,例如执行参考图2中描述的操作S230,处理所述第一声音信息和第二声音信息,获得第三声音信息。
图7示意性示出了根据本公开另一实施例的信息处理系统700的框图。
如图7所示,信息处理系统700在前述实施例的基础上还包括第一获取模块710、第二获取模块720、第一确定模块730和第二确定模块740。
第一获取模块710,例如执行参考图3中描述的操作S310,用于获取输入设备的初始位置信息。
第二获取模块720,例如执行参考图3中描述的操作S320,用于获取输入设备的运动信息。
第一确定模块730,例如执行参考图3中描述的操作S330,用于基于所述初始位置信息和运动信息,确定输入设备的相对位置信息。
第二确定模块740,例如执行参考图3中描述的操作S340,用于基于所述相对位置信息、第一声音信息和第二声音信息,确定所述一段声音的声源方向。
图8示意性示出了根据本公开另一实施例的信息处理系统800的框图。
如图8所示,信息处理系统800在前述实施例的基础上还包括第三获取模块810、判断模块820和第三确定模块830。
第三获取模块810,例如执行参考图4中描述的操作S410,用于获取输入设备发送的压力信息,所述压力信息表征用户对所述输入设备施加的力。
判断模块820,例如执行参考图4中描述的操作S420,用于基于压力信息,判断用户的身材。
第三确定模块830,例如执行参考图4中描述的操作S430,用于基于所述用户的身材和所述一段声音的声源方向,确定所述用户的姿态信息。
图9示意性示出了根据本公开另一实施例的信息处理系统900的框图。
如图9所示,信息处理系统900在图6所示的实施例的基础上还包括第三接收模块910、第四接收模块920和第二处理模块930。
第三接收模块910,例如执行参考图5中描述的操作S510,用于接收第一回声信息,所述第一回声信息是通过所述至少一个第一麦克风接收所述一段声音的回声而生成的。
第四接收模块920,例如执行参考图5中描述的操作S520,用于接收与所述电子设备一起使用的输入设备发送的第二回声信息,所述第二回声信息是通过设置在所述输入设备上的所述至少一个第二麦克风接收所述一段声音的回声而生成的。
第二处理模块930,例如执行参考图5中描述的操作S530,用于处理所述第一回声信息和第二回声信息,获得环境空间大小。
可以理解的是,上述模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本发明的实施例,上述模块中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以以对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式的适当组合来实现。或者,上述模块中的至少一个可以至少被部分地实现为计算机程序模块,当该程序被计算机运行时,可以执行相应模块的功能。
图10示意性示出了根据本公开实施例的电子设备的框图。
如图10所示,电子设备1000包括处理器1010、计算机可读存储介质1020、第一麦克风1030、以及第二麦克风1040。该电子设备1000可以执行上面参考图2~图5描述的方法,以形成麦克风阵列,提高噪声抑制能力,获得更好的音质,使电子设备对声音的识别更精确。
具体地,处理器1010例如可以包括通用微处理器、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器1010还可以包括用于缓存用途的板载存储器。处理器1010可以是用于执行参考图2~图5描述的根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
计算机可读存储介质1020,例如可以是能够包含、存储、传送、传播或传输指令的任意介质。例如,可读存储介质可以包括但不限于电、磁、光、电磁、红外或半导体系统、装置、器件或传播介质。可读存储介质的具体示例包括:磁存储装置,如磁带或硬盘(HDD);光存储装置,如光盘(CD-ROM);存储器,如随机存取存储器(RAM)或闪存;和/或有线/无线通信链路。
计算机可读存储介质1020可以包括计算机程序1021,该计算机程序1021可以包括代码/计算机可执行指令,其在由处理器510执行时使得处理器1010执行例如上面结合图2~图5所描述的方法流程及其任何变形。
计算机程序1021可被配置为具有例如包括计算机程序模块的计算机程序代码。例如,在示例实施例中,计算机程序1021中的代码可以包括一个或多个程序模块,例如包括1021A、模块1021B、……。应当注意,模块的划分方式和个数并不是固定的,本领域技术人员可以根据实际情况使用合适的程序模块或程序模块组合,当这些程序模块组合被处理器1010执行时,使得处理器1010可以执行例如上面结合图2~图5所描述的方法流程及其任何变形。
根据本公开的实施例,处理器1010可以与第一麦克风1030和第二麦克风1040进行交互,来执行上面结合图2~图5所描述的方法流程及其任何变形。
根据本发明的实施例,上述模块中的至少一个可以实现为参考图10描述的计算机程序模块,其在被处理器1010执行时,可以实现上面描述的相应操作。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
尽管已经参照本公开的特定示例性实施例示出并描述了本公开,但是本领域技术人员应该理解,在不背离所附权利要求及其等同物限定的本公开的精神和范围的情况下,可以对本公开进行形式和细节上的多种改变。因此,本公开的范围不应该限于上述实施例,而是应该不仅由所附权利要求来进行确定,还由所附权利要求的等同物来进行限定。
Claims (6)
1.一种声音处理方法,应用于电子设备,所述方法包括:
接收第一声音信息,所述第一声音信息是通过设置在电子设备上的至少一个第一麦克风接收一段声音而生成的;
接收与所述电子设备一起使用的输入设备发送的第二声音信息,所述第二声音信息是通过设置在所述输入设备上的至少一个第二麦克风接收所述一段声音而生成的,其中,所述至少一个第一麦克风和所述至少一个第二麦克风形成立体语音阵列;以及
处理所述第一声音信息和第二声音信息,获得第三声音信息;
获取所述输入设备的初始位置信息;
获取所述输入设备的运动信息;
基于所述初始位置信息和运动信息,确定所述输入设备的相对位置信息;以及
基于所述相对位置信息、第一声音信息和第二声音信息,确定所述一段声音的声源方向;
获取所述输入设备发送的压力信息,所述压力信息表征用户对所述输入设备施加的力;
基于压力信息,判断用户的身材;以及
基于所述用户的身材和所述一段声音的声源方向,确定所述用户的姿态信息,以矫正用户姿态。
2.根据权利要求1所述的方法,还包括:
接收第一回声信息,所述第一回声信息是通过所述至少一个第一麦克风接收所述一段声音的回声而生成的;
接收与所述电子设备一起使用的输入设备发送的第二回声信息,所述第二回声信息是通过设置在所述输入设备上的所述至少一个第二麦克风接收所述一段声音的回声而生成的;以及
处理所述第一回声信息和第二回声信息,获得环境空间大小。
3.根据权利要求1所述的方法,其中,所述输入设备是接收用户的肢体输入操作的输入设备,包括以下任意一项或多项:键盘、鼠标、操控杆、触控笔。
4.一种电子设备,包括:
处理器;以及
存储器,其上存储有计算机可读指令,所述指令被处理器执行时,使得处理器:
接收第一声音信息,所述第一声音信息是通过设置在电子设备上的至少一个第一麦克风接收一段声音而生成的;
接收与所述电子设备一起使用的输入设备发送的第二声音信息,所述第二声音信息是通过设置在所述输入设备上的至少一个第二麦克风接收所述一段声音而生成的,其中,所述至少一个第一麦克风和所述至少一个第二麦克风形成立体语音阵列;以及
处理所述第一声音信息和第二声音信息,获得第三声音信息;
获取所述输入设备的初始位置信息;
获取所述输入设备的运动信息;
基于所述初始位置信息和运动信息,确定所述输入设备的相对位置信息;以及
基于所述相对位置信息、第一声音信息和第二声音信息,确定所述一段声音的声源方向;
获取所述输入设备发送的压力信息,所述压力信息表征用户对所述输入设备施加的力;
基于压力信息,判断用户的身材;以及
基于所述用户的身材和所述一段声音的声源方向,确定所述用户的姿态信息,以矫正用户姿态。
5.根据权利要求4所述的电子设备,所述处理器还执行:
接收第一回声信息,所述第一回声信息是通过所述至少一个第一麦克风接收所述一段声音的回声而生成的;
接收与所述电子设备一起使用的输入设备发送的第二回声信息,所述第二回声信息是通过设置在所述输入设备上的所述至少一个第二麦克风接收所述一段声音的回声而生成的;以及
处理所述第一回声信息和第二回声信息,获得环境空间大小。
6.根据权利要求4所述的电子设备,所述输入设备是接收用户的肢体输入操作的输入设备,包括以下任意一项或多项:键盘、鼠标、操控杆、触控笔。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711382045.XA CN107948857B (zh) | 2017-12-19 | 2017-12-19 | 声音处理方法和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711382045.XA CN107948857B (zh) | 2017-12-19 | 2017-12-19 | 声音处理方法和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107948857A CN107948857A (zh) | 2018-04-20 |
CN107948857B true CN107948857B (zh) | 2021-07-16 |
Family
ID=61941381
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711382045.XA Active CN107948857B (zh) | 2017-12-19 | 2017-12-19 | 声音处理方法和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107948857B (zh) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103150038B (zh) * | 2013-03-21 | 2015-12-23 | 东莞恒涌电子制品有限公司 | 一种智能笔操控和使用方法 |
CN105611014A (zh) * | 2014-11-21 | 2016-05-25 | 中兴通讯股份有限公司 | 移动终端通话语音降噪方法及装置 |
TWI579835B (zh) * | 2015-03-19 | 2017-04-21 | 絡達科技股份有限公司 | 音效增益方法 |
KR102344045B1 (ko) * | 2015-04-21 | 2021-12-28 | 삼성전자주식회사 | 화면을 표시하는 전자 장치 및 그 제어 방법 |
CN206181355U (zh) * | 2016-11-09 | 2017-05-17 | 深圳倍易通科技有限公司 | 一种语音降噪系统 |
CN106679651B (zh) * | 2017-02-08 | 2019-10-25 | 北京地平线信息技术有限公司 | 声源定位方法、装置和电子设备 |
CN107040843B (zh) * | 2017-03-06 | 2021-05-18 | 联想(北京)有限公司 | 通过两个麦克风获取同一个音源的方法及采集设备 |
CN106872945B (zh) * | 2017-04-19 | 2020-01-17 | 北京地平线信息技术有限公司 | 声源定位方法、装置和电子设备 |
-
2017
- 2017-12-19 CN CN201711382045.XA patent/CN107948857B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107948857A (zh) | 2018-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11516040B2 (en) | Electronic device and method for controlling thereof | |
CN107077847B (zh) | 关键短语用户识别的增强 | |
JP6592183B2 (ja) | モニタリング | |
US8606735B2 (en) | Apparatus and method for predicting user's intention based on multimodal information | |
US10438588B2 (en) | Simultaneous multi-user audio signal recognition and processing for far field audio | |
US10339913B2 (en) | Context-based cancellation and amplification of acoustical signals in acoustical environments | |
US10339929B2 (en) | Speech recognition using acoustic features in conjunction with distance information | |
JP2017536600A (ja) | 複数モードでの会話的対話における話された言語の理解のための凝視 | |
KR20190034021A (ko) | 객체를 인식하는 방법 및 장치 | |
US10602270B1 (en) | Similarity measure assisted adaptation control | |
US10440497B2 (en) | Multi-modal dereverbaration in far-field audio systems | |
JP2016512632A (ja) | 音声およびジェスチャー・コマンド領域を割り当てるためのシステムおよび方法 | |
CN102903362A (zh) | 集成的本地和基于云的语音识别 | |
JP2013527947A5 (zh) | ||
WO2017034720A1 (en) | Gesture based annotations | |
CN108877787A (zh) | 语音识别方法、装置、服务器及存储介质 | |
TWI777229B (zh) | 互動對象的驅動方法、裝置、顯示設備、電子設備以及電腦可讀儲存介質 | |
CN107111363B (zh) | 用于监视的方法、装置和系统 | |
JP7091745B2 (ja) | 表示端末、プログラム、情報処理システム及び方法 | |
CN107346228B (zh) | 电子设备的语音处理方法及系统 | |
CN107948857B (zh) | 声音处理方法和电子设备 | |
US20150049016A1 (en) | Multimodal system and method facilitating gesture creation through scalar and vector data | |
WO2016197430A1 (zh) | 信息输出的方法、终端和计算机存储介质 | |
US20220012289A1 (en) | Systems, apparatus, and methods of using a self-automated map to automatically generate a query response | |
CN109358755B (zh) | 用于移动终端的手势检测方法、装置和移动终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |