CN110400566A - 识别方法和电子设备 - Google Patents

识别方法和电子设备 Download PDF

Info

Publication number
CN110400566A
CN110400566A CN201910570120.8A CN201910570120A CN110400566A CN 110400566 A CN110400566 A CN 110400566A CN 201910570120 A CN201910570120 A CN 201910570120A CN 110400566 A CN110400566 A CN 110400566A
Authority
CN
China
Prior art keywords
acquisition unit
audio
information
frequency information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910570120.8A
Other languages
English (en)
Other versions
CN110400566B (zh
Inventor
黄海锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201910570120.8A priority Critical patent/CN110400566B/zh
Publication of CN110400566A publication Critical patent/CN110400566A/zh
Application granted granted Critical
Publication of CN110400566B publication Critical patent/CN110400566B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/14Use of phonemic categorisation or speech recognition prior to speaker recognition or verification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Telephone Function (AREA)

Abstract

本申请实施例公开了一种识别方法和电子设备,其中,所述方法包括:获得由第一数量的采集单元中各个采集单元获得的音频信息,其中所述各个采集单元位于电子设备的各个采集位置处对所述音频信息进行采集;依据采集单元获得的音频信息,确定产生所述音频信息的对象的身份标识信息;至少依据所述对象的身份标识信息确定第二数量的第一目标采集单元;通过所述第一目标采集单元对所述身份标识信息的对象产生的声音信息进行采集;其中所述第二数量小于等于第一数量。

Description

识别方法和电子设备
技术领域
本申请涉及音频处理技术,具体涉及一种识别方法和电子设备。
背景技术
多数情况下,电子设备设置有单个采集单元如音频采集单元,由音频采集单元对用户产生的音频数据进行采集。为适合某些应用场景如会议场景,出现有两个及以上采集单元的电子设备,如果所有采集单元均对用户产生的音频数据进行采集,那么将造成采集资源的浪费。如何为用户挑选出合适的采集单元进行该用户的音频数据的采集,成为了亟待解决的技术问题。
发明内容
为解决现有存在的技术问题,本申请实施例提供一种识别方法和电子设备,至少能够实现从两个及以上的采集单元挑选出合适的采集单元以对用户的音频数据进行采集。
本申请实施例的技术方案是这样实现的:
本申请实施例提供一种识别方法,所述方法包括:
获得由第一数量的采集单元中各个采集单元获得的音频信息,其中所述各个采集单元位于电子设备的各个采集位置处对所述音频信息进行采集;
依据采集单元获得的音频信息,确定产生所述音频信息的对象的身份标识信息;
至少依据所述对象的身份标识信息确定第二数量的第一目标采集单元;
通过所述第一目标采集单元对所述身份标识信息的对象产生的声音信息进行采集;
其中所述第二数量小于等于第一数量。
上述方案中,所述依据采集单元获得的音频信息,确定产生所述音频信息的对象的身份标识信息,包括:
获得各个采集单元获得的音频信息的强度信息;
依据所述强度信息,确定第三数量的第二目标采集单元;其中,第三数量小于等于第一数量;
依据所述第三数量的第二目标采集单元采集到的所述音频信息,确定所述音频信息的声纹特征;
依据所述声纹特征,确定输入所述音频信息的对象的身份标识信息;
相应的,所述第一目标采集单元为所述第三数量的第二目标采集单元中的至少一个采集单元。
上述方案中,所述方法包括:
获得各个采集单元采集到的第一音频信息;
依据采集单元采集的第一音频信息,确定所述身份标识信息;
通过至少依据所述身份标识确定的所述第一目标采集单元对第二音频信息进行采集;
其中所述第一音频信息与第二音频信息不同。
上述方案中,所述至少依据所述对象的身份标识信息确定第二数量的第一目标采集单元,包括:
依据所述对象的身份标识信息,确定所述各个采集单元中能够采集到具有所述身份标识信息的对象产生的所述音频信息的采集单元其所采集到的音频的强度信息;
依据所述强度信息,确定所述第一目标采集单元。
上述方案中,所述第一目标采集单元为能够采集到具有所述身份标识信息的对象产生的所述音频信息的采集单元中采集到的针对所述对象的音频强度最大的采集单元。
上述方案中,所述方法还包括:
在确定所述第一目标采集单元为第一采集单元的情况下,
由所述第一采集单元进行所述身份标识的对象产生的声音信息的持续采集;
对所述第一采集单元持续采集的所述声音信息的强度信息进行计算;
在所述强度信息不满足预定条件的情况下,
将所述第一目标采集单元从所述第一采集单元切换至第二采集单元以利用所述第二采集单元对具有所述身份标识的对象产生的声音信息进行继续采集;
其中,所述第二采集单元为所述第一数量的采集单元中与第一采集单元不同的采集单元且所述第二采集单元为实时采集所述声音信息的至少一个采集单元中采集到的所述声音信息的强度信息满足所述预定条件的采集单元。
本申请实施例提供一种电子设备,包括:
获得单元,用于获得由第一数量的采集单元中各个采集单元获得的音频信息,其中所述各个采集单元位于电子设备的各个采集位置处对所述音频信息进行采集;
第一确定单元,用于依据采集单元获得的音频信息,确定产生所述音频信息的对象的身份标识信息;
第二确定单元,用于至少依据所述对象的身份标识信息确定第二数量的第一目标采集单元;
所述第一目标采集单元,用于对所述身份标识信息的对象产生的声音信息进行采集;
其中所述第二数量小于等于第一数量。
上述方案中,所述第一确定单元,还用于:
获得各个采集单元获得的音频信息的强度信息;
依据所述强度信息,确定第三数量的第二目标采集单元;其中,第三数量小于等于第一数量;
依据所述第三数量的第二目标采集单元采集到的所述音频信息,确定所述音频信息的声纹特征;
依据所述声纹特征,确定输入所述音频信息的对象的身份标识信息;
相应的,所述第一目标采集单元为所述第三数量的第二目标采集单元中的至少一个采集单元。
上述方案中,
所述获得单元,用于获得各个采集单元采集到的第一音频信息;
所述第一确定单元,用于依据采集单元采集的第一音频信息,确定所述身份标识信息;
所述第一目标采集单元,用于对第二音频信息进行采集,其中所述第一目标采集单元至少依据所述身份标识而确定;
其中所述第一音频信息与第二音频信息不同。
上述方案中,所述第二确定单元,用于:
依据所述对象的身份标识信息,确定所述各个采集单元中能够采集到具有所述身份标识信息的对象产生的所述音频信息的采集单元其所采集到的音频信息的属性;
依据所述属性,确定所述第一目标采集单元。
本申请实施例提供的识别方法和电子设备,其中,所述方法包括:获得由第一数量的采集单元中各个采集单元获得的音频信息,其中所述各个采集单元位于电子设备的各个采集位置处对所述音频信息进行采集;依据采集单元获得的音频信息,确定产生所述音频信息的对象的身份标识信息;至少依据所述对象的身份标识信息确定第二数量的第一目标采集单元;通过所述第一目标采集单元对所述身份标识信息的对象产生的声音信息进行采集;其中所述第二数量小于等于第一数量。
本申请实施例中,实现了从多个采集单元中为对象(用户)挑选出合适的采集单元对其产生的音频进行采集。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请提供识别方法的第一实施例的实现流程示意图;
图2为本申请提供识别方法的第二实施例的实现流程示意图;
图3为本申请提供的第一数量的采集单元在电子设备上的设置示意图;
图4为本申请实施例提供的实现原理示意图;
图5为本申请提供的电子设备的组成结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚明白,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互任意组合。在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行。并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本申请以下各实施例可以应用于任何具有两个及以上采集单元如音频采集单元(麦克风)的电子设备中,如智能手机、平板电脑(PAD)、台式机、智能手表、智能眼镜、智能鞋等,还可以是智能家居设备如智能冰箱、智能空调、智能油烟机等。本申请实施例中的优选的设备是PAD。
本申请提供识别方法的第一实施例,应用于电子设备中,如图1所示,所述方法包括:
步骤101:获得由第一数量的采集单元中各个采集单元获得的音频信息,其中所述各个采集单元位于电子设备的各个采集位置处对所述音频信息进行采集;
步骤102:依据采集单元获得的音频信息,确定产生所述音频信息的对象的身份标识信息;
步骤103:至少依据所述对象的身份标识信息确定第二数量的第一目标采集单元;其中所述第二数量小于等于第一数量;
步骤104:通过所述第一目标采集单元对所述身份标识信息的对象产生的声音信息进行采集;
执行步骤101~104的实体为电子设备。其中,所述第一数量、第二数量均为大于等于2的正整数,且在数值上第二数量小于第一数量。产生所述音频信息的对象可视为说出该音频信息的用户。所述身份标识信息可以是任何能够表示用户身份的信息,如声纹、姓名、身份证号、手机号中的至少任意一种。
在前述方案中,位于电子设备不同采集位置的采集单元、具体是音频采集单元如麦克风进行音频信息的采集,读取或采集由各个采集单元采集的音频信息,并依据读取或采集的音频信息,确定产生该音频信息的对象的身份标识信息;至少依据该身份标识信息确定一定数量的第一目标采集单元,确定该第一目标采集单元为后续用于采集具有该身份标识信息的对象产生的声音信息。其中,依据身份标识信息挑选出第一目标采集单元,第一目标采集单元用于对具有所述身份标识信息的对象产生的声音进行采集,可见,本申请实施例中,实现了从多个采集单元中为用户挑选出合适的采集单元对其产生的音频进行采集。与相关技术中所有采集单元均需对各个用户的音频进行采集的方案相比,实现了电子设备采用特定采集单元对特定用户进行音频采集的方案,可大大减少对采集资源的浪费。
本申请提供识别方法的第二实施例,应用于电子设备中,如图2所示,所述方法包括:
步骤201:获得由第一数量的采集单元中各个采集单元获得的音频信息,其中所述各个采集单元位于电子设备的各个采集位置处对所述音频信息进行采集;
步骤202:获得各个采集单元获得的音频信息的强度信息;
本步骤中,所述强度信息可以指的是任何能够代表该音频强度的信息,如音量、音频信号的幅度值等。
步骤203:依据所述强度信息,确定第三数量的第二目标采集单元;其中,第三数量小于等于第一数量;
本步骤中,第三数量为正整数、小于等于第一数量的数值,第三数量与第二数量可以相等,也可以不相等。
步骤204:依据所述第三数量的第二目标采集单元采集到的所述音频信息,确定所述音频信息的声纹特征;
步骤205:依据所述声纹特征,确定输入所述音频信息的对象的身份标识信息;
步骤206:选择所述第三数量的第二目标采集单元中的至少一个采集单元作为第一目标采集单元;
步骤207:通过第一目标采集单元对所述身份标识信息的对象产生的声音信息进行采集。
执行步骤201~207的实体可以为任何具有两个及以上音频采集单元如麦克风的电子设备。以上方法步骤中与方法实施例一相同的内容请参见前述对方法实施例一的相关说明,重复之处不再赘述。
前述方案中,依据采集单元采集的音频信息的强度,确定第三数量的第二目标采集单元,依据第二目标采集单元确定声纹特征,依据声纹特征,确定对象的身份标识,并利用第一目标采集单元对具有该身份标识的对象产生的声音信息进行采集。依据采集单元采集的音频信息的强度从第一数量的采集单元中挑选出至少部分采集单元作为第二目标采集单元,并利用挑选出的第二目标采集单元采集的音频信息进行声纹特征的确定,进而实现对身份标识的识别。这种利用挑选出的采集单元(第二目标采集单元)进行身份标识的识别的方案,与相关技术中的利用所有采集单元采集到的音频信息进行身份标识的识别,可大大节省计算成本。
此外,可以理解,挑选出的第二目标采集单元可以是其自身采集的音频信息的强度满足一定条件如音频信息的强度大于等于预定强度阈值的采集单元。挑选出的采集单元通常是所有采集单元中能够采集到较为清晰音频的采集单元,利用这些采集单元进行声纹识别,可进一步保证声纹识别的准确性。其中,强度阈值可以是任何合理的取值,视具体情况而灵活设定。在一个可选的实施例中,所述第二目标采集单元可以是能够采集到具有所述身份标识信息的对象产生的所述音频信息的采集单元中采集到的针对所述对象的音频强度最大的采集单元了,自然地,第一目标采集单元也是能够采集到该对象的音频强度最大的采集单元。
在第二目标采集单元是音频信息的强度大于等于预定强度阈值的采集单元或是采集的音频信息的强度最大的采集单元的基础上,第二目标采集单元可以采集到更为清晰的音频信息,与其它采集单元相比距离说话者更近,如此便可以直接将第二目标采集单元作为第一目标采集单元,利用距离说话者最近的采集单元进行说话者的声音信息的采集,可从多个采集单元中为用户挑选出合适的采集单元。利用距离说话者最近的采集单元进行说话者的声音信息的采集,是必可以采集到清晰的音频,实现了电子设备采用特定采集单元对特定用户进行音频采集的方案,可大大减少对采集资源的浪费,也方便后续电子设备对采集的音频的处理,体现了电子设备的功能多样性。
基于前述实施例一和/或所述的方案,所述方法还包括:
获得各个采集单元采集到的第一音频信息;依据采集单元采集的第一音频信息,确定所述身份标识信息;通过至少依据所述身份标识确定的所述第一目标采集单元对第二音频信息进行采集;其中所述第一音频信息与第二音频信息不同。本可选方案中,第一音频信息可以为在向电子设备发出语音命令之前说出的特定音频数据,用于电子设备对用户身份的识别。在利用特定的音频数据识别出用户身份之后,以确定出的第一目标采集单元对该用户发出的语音命令进行采集。这种基于特定音频数据进行用户身份识别的方案,相当于是一种触发电子设备对该特定音频数据之后用户发出的语音命令进行采集的方案,相当于预先通知电子设备做好采集语音命令的准备,能够保证电子设备不会错过采集语音命令的时机,体现了功能多样性,也大大提升了用户体验。
基于前述实施例一和/或二所述的方案,所述至少依据所述对象的身份标识信息确定第二数量的第一目标采集单元,包括:
依据所述对象的身份标识信息,确定所述各个采集单元中能够采集到具有所述身份标识信息的对象产生的所述音频信息的采集单元其所采集到的音频的强度信息;依据所述强度信息,确定所述第一目标采集单元。本可选方案中,从能够采集到目标对象的音频信息的采集单元中,依据该采集单元采集的音频信息的强度信息、具体为音量或音频幅度,挑选出第一目标采集单元。例如,从能够采集到目标对象的音频信息的采集单元中,挑选出音频强度信息大于等于预定强度阈值的采集单元或是音频强度最大的采集单元作为第一目标采集单元。可以理解,由以上方案所确定出的第一目标采集单元其是第一数量的采集单元中能够采集到该目标对象的音频最为清晰的采集单元(距离目标对象最近的采集单元),利用第一目标采集单元进行该目标对象的声音信息的继续采集,是必能够采集到清晰的音频信息,进而可保证电子设备对语音命令的识别准确性。
基于前述实施例一和/或二所述的方案,所述方法还包括:
在确定所述第一目标采集单元为第一采集单元的情况下,由所述第一采集单元进行所述身份标识的对象产生的声音信息的持续采集;对所述第一采集单元持续采集的所述声音信息的强度信息进行计算;在所述强度信息不满足预定条件的情况下,将所述第一目标采集单元从所述第一采集单元切换至第二采集单元以利用所述第二采集单元对所述身份标识的对象产生的声音信息进行继续采集;其中,所述第二采集单元为所述第一数量的采集单元中与第一采集单元不同的采集单元且所述第二采集单元为实时采集所述声音信息的至少一个采集单元中采集到的所述声音信息的强度信息满足所述预定条件的采集单元。可以理解,基于前述图1和/或图2所示的方案,本方案在于从多个采集单元中挑选出距离用户最近、可清晰采集到该用户声音的采集单元。本可选实施例中,考虑到了用户输入声音信息的过程中,存在有用户的位置发生变化的情况,在其位置变化的情况下,可清晰地采集到其语音数据的采集单元也会发生变化。例如,用户从位置1移动至位置2,则第一目标采集单元将从在用户处于位置1时距离用户最近的采集单元1变化为用户处于位置2时距离用户最近的采集单元2。也就是说,本申请实施例,可以根据用户位置的变化而实现第一目标采集单元的灵活切换,不论用户位置如何变化,电子设备始终采用距离其所处位置最近、能够采集到其清晰语音的采集单元对该用户的音频数据进行采集,实现了对用户的声音信息的清晰采集。
下面结合附图3和4及以下应用场景对本申请实施例作进一步详细的说明。
以图3所示的电子设备为例,包括有4个麦克风,4个麦克风在电子设备的设置位置不同。该电子设备以笔记本电脑为例,包括第一本体31和第二本体32。其中,显示单元311设置在第一本体31上。第一本体31和第二本体32之间可呈现0~360°之间的任意角度。4个麦克风中有2个设置在第一本体31上;1个设置在第二本体32上;1个设置在第二本体32的侧面上。可以理解,各个麦克风在电子设备上的设置位置除了可如图3所示,还可以设置在任何合理的位置上,不做一一描述。
图4中,将笔记本电脑划分为硬件层和操作系统(OS层);所述硬件层至少包括处理器如数字信号处理器DSP。语音引擎位于DSP上。
以个人使用笔记本电脑的场景为例,
假定用户1在位置1上想要发起语音指令“今天天气怎么样”(第二音频信息),在用户1向笔记本电脑说出这段语音指令之前,先发出一段唤醒词如“你好,联想”(第一音频信息)。用户1在位置1处向笔记本电脑说出“你好,联想”,4个麦克风均在各自所处的采集位置处采集针对这段唤醒词的音频信息。4个麦克风将各自采集的这段音频通过各自的通道发送至DSP、DSP接收到这段音频,判断出这段音频与预先设定的用于唤醒语音引擎的音频内容的相似度高于预设的相似度阈值,则认为4个麦克风采集的这段音频为唤醒词。DSP唤醒语音引擎,语音引擎接收到4个麦克风各自采集的唤醒词,计算各个麦克风采集到的唤醒词的强度信息如音量。从4个麦克风中挑选出采集到的唤醒词的音量大于等于强度阈值的麦克风。假定用户1在位置1处距离麦克风1和2比距离麦克风3和4的距离更近,麦克风1和2采集到的音量较麦克风3和4而言将更大,则挑选出的麦克风为麦克风1和2。语音引擎将挑选出的麦克风1和2作为第二目标采集单元。语音引擎分析产生由麦克风1和2采集的唤醒词的用户的声纹特征,假定该声纹特征与预先设定的至少一个用户的声纹特征中的用户1的声纹特征相似度高,则确认产生由麦克风1和2采集的唤醒词的用户为用户1。由于在个人应用笔记本电脑的应用场景中,多数情况下无其他人存在,4个麦克风采集到的唤醒词均是用户1说出的唤醒词。针对用户1产生的“您好,联想”的唤醒词,语音引擎经过如上的分析得出在4个采集用户1同一段唤醒词的麦克风中麦克风1和2采集到的唤醒词更清晰,则直接可以将麦克风1和2作为第一目标采集单元,并利用麦克风1和2采集用户1输入的想要查询天气情况的语音指令“今天天气怎么样”进行采集。麦克风1和2采集的语音命令发送至OS层,OS层分析语音命令并响应语音指令如查询天气情况并展示。可以理解,在麦克风1和2中,假定麦克风1距离用户1的嘴部更近,则麦克风1是所有麦克风中采集到的唤醒词的音量最大的采集单元,将其作为第一目标采集单元进行语音指令的采集。
以上方案,针对4个麦克风各自采集的唤醒词识别能够更清晰采集到用户1唤醒词的目标麦克风,利用目标麦克风采集到的唤醒词更为清晰的特点进行用户的身份识别,与相关技术中的利用所有麦克风采集到的信息进行身份标识的识别,一方面可大大节省识别成本;另一方面可提高身份识别的准确性。从而实现了从多个麦克风中为用户1挑选出合适的采集单元对其产生的音频进行采集的方案。
在实际应用中,在语音引擎计算各个麦克风采集到的唤醒词的强度信息之前,和/或OS层分析语音命令之前,还需要根据噪声频谱与用户输入的语音数据频谱之间的不同,将噪声数据删除。由此更可以提高目标采集单元的识别准确性,为用户1挑选出更能清晰采集到其音频的麦克风。
可以理解,以上方案中,每次用户想要向笔记本电脑发起一个语音指令均需在发出该语音指令之前发出一段唤醒词,基于各个麦克风采集到的唤醒词的强度来识别用户身份及能够更为清晰采集到该用户的语音指令的第二目标采集单元。如果用户1在处于位置1的情况下发出第一个唤醒词,在处于位置2的情况下发出第二个唤醒词,则基于这两个唤醒词的音频强度的分析而确定的用于采集语音指令的第二目标采集单元可能会发生变化,也可能不会发生变化,根据用户位置移动的幅度而定。基于此,也可认为本方案是一种基于唤醒词能够定位出用户相当于笔记本电脑的方位的方案,从而实现了对用户相对于笔记本电脑的方位的定位。
以多人使用笔记本电脑的场景如会议场景为例,
笔记本电脑预先可通过各个与会人员输入的一段音频信息获得各个与会人员的声纹信息。
在开会的过程中,全部如4个麦克风均开启,从各自所处的采集位置进行会议音频的采集。会议音频可以仅是一个与会人员的音频,也可以是两个及以上与会人员的音频,即多个用户的混合音频。以多个用户的混合音频为例,4个麦克风将各自采集的混合音频发送至DSP,DSP分析产生混合音频的各个用户的声纹信息,识别出混合音频中的各个与会人员(用户)。针对识别出的任意一个用户而言,如用户A,DSP从4个麦克风中先挑选出采集到用户A的音频的麦克风,再从挑选出的麦克风中,挑选出采集到用户A的音频的强度大于等于预定的强度阈值的麦克风,得到一判断结果。DSP将判断结果中表征采集到用户A的音频的强度大于等于预定的强度阈值的麦克风或采集到的用户A的音频音量最大的麦克风视为第一目标采集单元。电子设备利用第一目标采集单元采集用户A后续在会议上的发言。由此为会议上的各个与会人员挑选出了能够更好获得音频采集效果的麦克风对其发言内容进行采集。实现了特定麦克风对特定与会人员的发言内容的采集,即各个麦克风对对应的与会人员进行针对性采集,与相关技术中的各个麦克风均用于对所有与会人员进行音频采集的方案相比,本方案中的麦克风采集更有针对性,对于针对性采集的与会人员其更能够采集到音频效果更好的音频。前述方案是以与会人员在会议过程中其所处的位置不变或变化幅度较小为例进行的说明,如果位置变化较大,则依据位置的变化需要进行目标采集单元的重新确定,具体请参见后续相关内容。
可以理解,在会议场景中,4个麦克风从各自所处的采集位置进行会议音频的采集是实时采集的,基于各个与会人员的声纹特征,从实时采集的会议音频中识别出各个与会人员,从采集到对应与会人员的采集单元中挑选出对能够采集到该与会人员的音量大的采集单元作为第一目标采集单元。可以理解,由于会议音频是实时采集的,得出的第一目标采集单元也是实时得到的。考虑到与会人员在会议进行中可能会发生位置的移动,则根据实时采集的会议音频得到实时的目标采集单元,利用实时得到的目标采集单元进行与会人员的音频的采集。这种实时采集会议音频得到实时目标采集单元的方案,在整个会议过程对于各个与会人员的发言内容,无论其处于移动过程中的哪个位置发言,均可采用距离其最近的能够更清晰采集发言内容的采集单元对其进行发言内容的采集,能够大大满足会议场景的实际使用需求。
针对与会人员在会议过程中进行移动发言,除了可以依据前述实时采集实时确定的方案进行第一目标采集单元的识别之外,还可以通过如下方式进行第一目标采集单元的切换:
假定依据在会议的第15分钟采集的会议音频,为其中一个与会人员如用户A确定的第一目标采集单元为麦克风1为例,其它3个麦克风对会议的第16分钟产生的会议音频进行采集,笔记本电脑计算采集到第16分钟用户A产生的音频信息的麦克风1其采集到的针对用户A的强度信息,如果强度信息不满足预定条件如小于预定的强度阈值,则计算4个麦克风中除麦克风1之外的其它所有麦克风采集到的针对用户A的音频信息的强度。基于计算出的强度信息,从剩余的3个麦克风中,挑选出采集到的用户A的音频信息的强度大于等于强度阈值的麦克风,假定挑选出的麦克风为麦克风3,则将其作为用户A在会议的第16分钟的目标采集单元,也即切换用户A的目标采集单元从麦克风1切换至麦克风3。可以理解,考虑到用户从一个位置到另一位置的移动需要一定的时间,如需要30s的时间,第15分钟处于位置1,第16分钟的前30s进行位置的移动从位置1移动至位置2,则如上方案中可以是依据会议第16分钟的前30s内的会议音频进行用户A的目标采集单元的切换,从会议第16分钟的后30s开始采用切换后的麦克风进行用户A的发言内容的采集。
其中,基于一个与会人员产生的会议音频确定第一目标采集单元的过程请参见对多个用户的混合音频的处理而参照理解,不赘述。
前述方案中,是以预先获得各个与会人员的声纹信息为例,此外还可以针对会议音频进行声纹特征的提取,将提取的声纹特征与预设的几个用户的声纹特征进行匹配来确定与会人员的身份。
前述的会议场景的方案,可从各个麦克风中为各个与会人员挑选出能够采集到清晰语音的麦克风,以备留存。
前述的个人或多人使用笔迹本电脑的应用场景中,实现了硬件层如DSP从第一数量的采集单元到第二数量的第一目标采集单元的筛选,实现了目标采集单元在硬件层的筛选,由于硬件层直接与麦克风连接,可直接获取到各个麦克风采集到的音频,无法其它模块进行音频的转发,可保证硬件层对目标采集单元筛选的准确性。前述硬件层的DSP还可以由中央处理器(CPU,Central Processing Unit)、微控制单元(MCU,Microcontroller Unit)或可编程门阵列(FPGA,Field-Programmable Gate Array)来代替。
本申请实施例还提供一种电子设备,如图5所示,所述设备包括:获得单元501、第一确定单元502、第二确定单元503和至少两个及以上的采集单元504;所述采集单元504可以为麦克风;
获得单元501,用于获得由第一数量的采集单元中各个采集单元获得的音频信息,其中所述各个采集单元位于电子设备的各个采集位置处对所述音频信息进行采集;
第一确定单元502,用于依据采集单元获得的音频信息,确定产生所述音频信息的对象的身份标识信息;
第二确定单元503,用于至少依据所述对象的身份标识信息确定第二数量的第一目标采集单元;
所述第一目标采集单元5041,用于对所述身份标识信息的对象产生的声音信息进行采集;
其中所述第二数量小于等于第一数量。
在一个可选的方案中,所述第一确定单元501,还用于:
获得各个采集单元504获得的音频信息的强度信息;
依据所述强度信息,确定第三数量的第二目标采集单元;其中,第三数量小于等于第一数量;
依据所述第三数量的第二目标采集单元采集到的所述音频信息,确定所述音频信息的声纹特征;
依据所述声纹特征,确定输入所述音频信息的对象的身份标识信息;
相应的,所述第一目标采集单元5041为所述第三数量的第二目标采集单元中的至少一个采集单元。
在一个可选的方案中,所述获得单元501,用于获得各个采集单元采集到的第一音频信息;
所述第一确定单元502,用于依据采集单元504采集的第一音频信息,确定所述身份标识信息;
所述第一目标采集单元,用于对第二音频信息进行采集,其中所述第一目标采集单元至少依据所述身份标识而确定;
其中所述第一音频信息与第二音频信息不同。
在一个可选的方案中,所述第二确定单元503,用于:
依据所述对象的身份标识信息,确定所述各个采集单元中能够采集到具有所述身份标识信息的对象产生的所述音频信息的采集单元其所采集到的音频信息的属性;
依据所述属性,确定所述第一目标采集单元。
在一个可选的方案中,所述第一目标采集单元5041为能够采集到具有所述身份标识信息的对象产生的所述音频信息的采集单元中采集到的针对所述目标对象的音频强度最大的采集单元。
在一个可选的方案中,所述设备还包括:
在所述第二确定单元503确定所述第一目标采集单元5041为第一采集单元的情况下,
所述第一采集单元,用于对所述身份标识的对象产生的声音信息进行持续采集;
计算单元,用于对所述第一采集单元持续采集的所述声音信息的强度信息进行计算;
切换单元,用于在所述强度信息不满足预定条件的情况下,将所述第一目标采集单元从所述第一采集单元切换至第二采集单元以利用所述第二采集单元对所述身份标识的对象产生的声音信息进行继续采集;
其中,所述第二采集单元为所述第一数量的采集单元中与第一采集单元不同的采集单元且所述第二采集单元为实时采集所述声音信息的至少一个采集单元中采集到的所述声音信息的强度信息满足所述预定条件的采集单元。
本申请实施例中,所述获得单元501、第一确定单元502、第二确定单元503在实际应用中均可由所述电子设备中的中央处理器(CPU,Central Processing Unit)、数字信号处理器(DSP,Digital Signal Processor)、微控制单元(MCU,Microcontroller Unit)或可编程门阵列(FPGA,Field-Programmable Gate Array)实现。
需要说明的是,本申请实施例的电子设备,由于该电子设备解决问题的原理与前述的识别方法相似,因此,电子设备的实施过程及实施原理均可以参见前述识别方法的实施过程及实施原理描述,重复之处不再赘述。
本申请实施例还提供一种存储介质,用于存储计算机程序,该计算机程序被执行时至少执行前述实施例的识别方法,还可以执行在可选实施例中的方法。
本申请实施例还提供一种处理器,可用于执行存储介质存储的计算机程序,所述处理器在执行所述计算机程序时至少执行前述实施例的识别方法,还可以执行在可选实施例中的方法。所述处理器为DSP、CPU、MCU或FPGA。
需要说明的是,本申请实施例的存储介质可以由任何类型的易失性或非易失性存储设备、或者它们的组合来实现。其中,非易失性存储器可以是只读存储器(ROM,Read OnlyMemory)、可编程只读存储器(PROM,Programmable Read-Only Memory)、可擦除可编程只读存储器(EPROM,Erasable Programmable Read-Only Memory)、电可擦除可编程只读存储器(EEPROM,Electrically Erasable Programmable Read-Only Memory)、磁性随机存取存储器(FRAM,Ferromagnetic Random Access Memory)、快闪存储器(Flash Memory)、磁表面存储器、光盘、或只读光盘(CD-ROM,Compact Disc Read-Only Memory);磁表面存储器可以是磁盘存储器或磁带存储器。易失性存储器可以是随机存取存储器(RAM,Random AccessMemory),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(SRAM,Static Random Access Memory)、同步静态随机存取存储器(SSRAM,Synchronous Static Random Access Memory)、动态随机存取存储器(DRAM,Dynamic Random Access Memory)、同步动态随机存取存储器(SDRAM,SynchronousDynamic Random Access Memory)、双倍数据速率同步动态随机存取存储器(DDRSDRAM,Double Data Rate Synchronous Dynamic Random Access Memory)、增强型同步动态随机存取存储器(ESDRAM,Enhanced Synchronous Dynamic Random Access Memory)、同步连接动态随机存取存储器(SLDRAM,SyncLink Dynamic Random Access Memory)、直接内存总线随机存取存储器(DRRAM,Direct Rambus Random Access Memory)。本申请实施例描述的存储介质旨在包括但不限于这些和任意其它适合类型的存储器。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本申请各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本申请上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本申请各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种识别方法,所述方法包括:
获得由第一数量的采集单元中各个采集单元获得的音频信息,其中所述各个采集单元位于电子设备的各个采集位置处对所述音频信息进行采集;
依据采集单元获得的音频信息,确定产生所述音频信息的对象的身份标识信息;
至少依据所述对象的身份标识信息确定第二数量的第一目标采集单元;
通过所述第一目标采集单元对所述身份标识信息的对象产生的声音信息进行采集;
其中所述第二数量小于等于第一数量。
2.根据权利要求1所述的方法,所述依据采集单元获得的音频信息,确定产生所述音频信息的对象的身份标识信息,包括:
获得各个采集单元获得的音频信息的强度信息;
依据所述强度信息,确定第三数量的第二目标采集单元;其中,第三数量小于等于第一数量;
依据所述第三数量的第二目标采集单元采集到的所述音频信息,确定所述音频信息的声纹特征;
依据所述声纹特征,确定输入所述音频信息的对象的身份标识信息;
相应的,所述第一目标采集单元为所述第三数量的第二目标采集单元中的至少一个采集单元。
3.根据权利要求1所述的方法,所述方法包括:
获得各个采集单元采集到的第一音频信息;
依据采集单元采集的第一音频信息,确定所述身份标识信息;
通过至少依据所述身份标识确定的所述第一目标采集单元对第二音频信息进行采集;
其中所述第一音频信息与第二音频信息不同。
4.根据权利要求1所述的方法,所述至少依据所述对象的身份标识信息确定第二数量的第一目标采集单元,包括:
依据所述对象的身份标识信息,确定所述各个采集单元中能够采集到具有所述身份标识信息的对象产生的所述音频信息的采集单元其所采集到的音频的强度信息;
依据所述强度信息,确定所述第一目标采集单元。
5.根据权利要求4所述的方法,所述第一目标采集单元为能够采集到具有所述身份标识信息的对象产生的所述音频信息的采集单元中采集到的针对所述对象的音频强度最大的采集单元。
6.根据权利要求1所述的方法,所述方法还包括:
在确定所述第一目标采集单元为第一采集单元的情况下,
由所述第一采集单元进行所述身份标识的对象产生的声音信息的持续采集;
对所述第一采集单元持续采集的所述声音信息的强度信息进行计算;
在所述强度信息不满足预定条件的情况下,
将所述第一目标采集单元从所述第一采集单元切换至第二采集单元以利用所述第二采集单元对具有所述身份标识的对象产生的声音信息进行继续采集;
其中,所述第二采集单元为所述第一数量的采集单元中与第一采集单元不同的采集单元且所述第二采集单元为实时采集所述声音信息的至少一个采集单元中采集到的所述声音信息的强度信息满足所述预定条件的采集单元。
7.一种电子设备,包括:
获得单元,用于获得由第一数量的采集单元中各个采集单元获得的音频信息,其中所述各个采集单元位于电子设备的各个采集位置处对所述音频信息进行采集;
第一确定单元,用于依据采集单元获得的音频信息,确定产生所述音频信息的对象的身份标识信息;
第二确定单元,用于至少依据所述对象的身份标识信息确定第二数量的第一目标采集单元;
所述第一目标采集单元,用于对所述身份标识信息的对象产生的声音信息进行采集;
其中所述第二数量小于等于第一数量。
8.根据权利要求7所述的电子设备,所述第一确定单元,还用于:
获得各个采集单元获得的音频信息的强度信息;
依据所述强度信息,确定第三数量的第二目标采集单元;其中,第三数量小于等于第一数量;
依据所述第三数量的第二目标采集单元采集到的所述音频信息,确定所述音频信息的声纹特征;
依据所述声纹特征,确定输入所述音频信息的对象的身份标识信息;
相应的,所述第一目标采集单元为所述第三数量的第二目标采集单元中的至少一个采集单元。
9.根据权利要求7所述的电子设备,
所述获得单元,用于获得各个采集单元采集到的第一音频信息;
所述第一确定单元,用于依据采集单元采集的第一音频信息,确定所述身份标识信息;
所述第一目标采集单元,用于对第二音频信息进行采集,其中所述第一目标采集单元至少依据所述身份标识而确定;
其中所述第一音频信息与第二音频信息不同。
10.根据权利要求7所述的电子设备,所述第二确定单元,用于:
依据所述对象的身份标识信息,确定所述各个采集单元中能够采集到具有所述身份标识信息的对象产生的所述音频信息的采集单元其所采集到的音频信息的属性;
依据所述属性,确定所述第一目标采集单元。
CN201910570120.8A 2019-06-27 2019-06-27 识别方法和电子设备 Active CN110400566B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910570120.8A CN110400566B (zh) 2019-06-27 2019-06-27 识别方法和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910570120.8A CN110400566B (zh) 2019-06-27 2019-06-27 识别方法和电子设备

Publications (2)

Publication Number Publication Date
CN110400566A true CN110400566A (zh) 2019-11-01
CN110400566B CN110400566B (zh) 2022-05-31

Family

ID=68324270

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910570120.8A Active CN110400566B (zh) 2019-06-27 2019-06-27 识别方法和电子设备

Country Status (1)

Country Link
CN (1) CN110400566B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111091801A (zh) * 2019-12-31 2020-05-01 苏州缪斯谈谈科技有限公司 一种对于乐器的协同信号处理的方法及装置
CN112365895A (zh) * 2020-10-09 2021-02-12 深圳前海微众银行股份有限公司 音频处理方法、装置及计算设备、存储介质
CN112542178A (zh) * 2020-12-21 2021-03-23 维沃移动通信(深圳)有限公司 音频数据处理方法及装置
CN112750439A (zh) * 2020-12-29 2021-05-04 恒玄科技(上海)股份有限公司 语音识别方法,电子设备及存储介质
CN113596381A (zh) * 2021-07-01 2021-11-02 海南视联通信技术有限公司 一种音频数据的采集方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103067794A (zh) * 2012-12-11 2013-04-24 海能达通信股份有限公司 一种对讲机音频采集控制方法以及对讲机
CN105554202A (zh) * 2015-09-28 2016-05-04 宇龙计算机通信科技(深圳)有限公司 一种麦克风的控制方法和装置
US9640179B1 (en) * 2013-06-27 2017-05-02 Amazon Technologies, Inc. Tailoring beamforming techniques to environments
CN106708461A (zh) * 2015-07-17 2017-05-24 联想(北京)有限公司 信息处理方法及电子设备
CN108737615A (zh) * 2018-06-27 2018-11-02 努比亚技术有限公司 麦克风收音方法、移动终端及计算机可读存储介质
CN108922538A (zh) * 2018-05-29 2018-11-30 平安科技(深圳)有限公司 会议信息记录方法、装置、计算机设备及存储介质
CN108989947A (zh) * 2018-08-02 2018-12-11 广东工业大学 一种移动声源的获取方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103067794A (zh) * 2012-12-11 2013-04-24 海能达通信股份有限公司 一种对讲机音频采集控制方法以及对讲机
US9640179B1 (en) * 2013-06-27 2017-05-02 Amazon Technologies, Inc. Tailoring beamforming techniques to environments
CN106708461A (zh) * 2015-07-17 2017-05-24 联想(北京)有限公司 信息处理方法及电子设备
CN105554202A (zh) * 2015-09-28 2016-05-04 宇龙计算机通信科技(深圳)有限公司 一种麦克风的控制方法和装置
CN108922538A (zh) * 2018-05-29 2018-11-30 平安科技(深圳)有限公司 会议信息记录方法、装置、计算机设备及存储介质
CN108737615A (zh) * 2018-06-27 2018-11-02 努比亚技术有限公司 麦克风收音方法、移动终端及计算机可读存储介质
CN108989947A (zh) * 2018-08-02 2018-12-11 广东工业大学 一种移动声源的获取方法及系统

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111091801A (zh) * 2019-12-31 2020-05-01 苏州缪斯谈谈科技有限公司 一种对于乐器的协同信号处理的方法及装置
CN112365895A (zh) * 2020-10-09 2021-02-12 深圳前海微众银行股份有限公司 音频处理方法、装置及计算设备、存储介质
CN112365895B (zh) * 2020-10-09 2024-04-19 深圳前海微众银行股份有限公司 音频处理方法、装置及计算设备、存储介质
CN112542178A (zh) * 2020-12-21 2021-03-23 维沃移动通信(深圳)有限公司 音频数据处理方法及装置
CN112750439A (zh) * 2020-12-29 2021-05-04 恒玄科技(上海)股份有限公司 语音识别方法,电子设备及存储介质
CN112750439B (zh) * 2020-12-29 2023-10-03 恒玄科技(上海)股份有限公司 语音识别方法,电子设备及存储介质
CN113596381A (zh) * 2021-07-01 2021-11-02 海南视联通信技术有限公司 一种音频数据的采集方法及装置

Also Published As

Publication number Publication date
CN110400566B (zh) 2022-05-31

Similar Documents

Publication Publication Date Title
CN110400566A (zh) 识别方法和电子设备
CN103456299B (zh) 一种控制语音识别的方法和装置
CN103823561B (zh) 表情输入方法和装置
CN111210021B (zh) 一种音频信号处理方法、模型训练方法以及相关装置
CN107767863A (zh) 语音唤醒方法、系统及智能终端
CN108305615A (zh) 一种对象识别方法及其设备、存储介质、终端
CN109800744A (zh) 图像聚类方法及装置、电子设备和存储介质
CN108305632A (zh) 一种会议的语音摘要形成方法及系统
CN107799126A (zh) 基于有监督机器学习的语音端点检测方法及装置
CN110570873B (zh) 声纹唤醒方法、装置、计算机设备以及存储介质
CN105224073A (zh) 一种基于语音控制的点读手表及其点读方法
CN108922525B (zh) 语音处理方法、装置、存储介质及电子设备
CN104932681A (zh) 触觉效果的自动调整
CN112634897B (zh) 设备唤醒方法、装置和存储介质及电子装置
CN107492153A (zh) 考勤系统、方法、考勤服务器及考勤终端
JP2016062077A (ja) 対話装置、対話システム、対話プログラム、サーバ、サーバの制御方法およびサーバ制御プログラム
CN109410956A (zh) 一种音频数据的对象识别方法、装置、设备及存储介质
CN109412544A (zh) 一种智能穿戴设备的语音采集方法、装置及相关组件
CN108492829A (zh) 一种婴儿哭闹提醒方法、装置及系统
CN109903748A (zh) 一种基于自定义语音库的语音合成方法及装置
CN110970020A (zh) 一种利用声纹提取有效语音信号的方法
CN102509548B (zh) 一种基于多距离声传感器的音频索引方法
CN111506183A (zh) 一种智能终端及用户交互方法
CN112672120B (zh) 一种带语音分析功能的投影仪及个人健康数据生成方法
CN107707759A (zh) 终端控制方法、装置以及系统、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant