CN110853662B - 语音交互方法、装置及机器人 - Google Patents

语音交互方法、装置及机器人 Download PDF

Info

Publication number
CN110853662B
CN110853662B CN201810868308.6A CN201810868308A CN110853662B CN 110853662 B CN110853662 B CN 110853662B CN 201810868308 A CN201810868308 A CN 201810868308A CN 110853662 B CN110853662 B CN 110853662B
Authority
CN
China
Prior art keywords
voice
instruction
voice instruction
mode
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810868308.6A
Other languages
English (en)
Other versions
CN110853662A (zh
Inventor
熊友军
张军健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ubtech Robotics Corp
Original Assignee
Ubtech Robotics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ubtech Robotics Corp filed Critical Ubtech Robotics Corp
Priority to CN201810868308.6A priority Critical patent/CN110853662B/zh
Publication of CN110853662A publication Critical patent/CN110853662A/zh
Application granted granted Critical
Publication of CN110853662B publication Critical patent/CN110853662B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G10L21/0202
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Manipulator (AREA)

Abstract

本发明适用于智能机器人技术领域,本发明提供的一种语音交互方法、装置及机器人,所述方法包括:根据用户位置增强麦克风阵列中对应的麦克风,接收该麦克风发送用户的语音指令,并确定所述语音指令的语音信号噪声值,根据该语音信号噪声值确定该语音指令的分发模式,并根据该分发模式将该语音指令发送至对应的应用程序处理。由于本发明实施例不需要唤醒词,就能直接与机器人进行语音交互,语音交互方式简便、用户体验好。

Description

语音交互方法、装置及机器人
技术领域
本发明属于智能机器人技术领域,尤其涉及一种语音交互方法、装置及机器人。
背景技术
随着人工智能相关技术的日益成熟,人们的生活开始走向智能化,各种智能设备逐渐进入人们的日常生活中,如智能机器人等。语音作为人与智能机器人的主流交互方式,其方便快捷的优势有目共睹。
目前,传统的对机器人进行语音交互的方式,主要是通过唤醒词进行唤醒,即用户说出特定的唤醒词,机器人接收并识别出唤醒词时,机器人被唤醒,并进入人机交互的工作模式。但是这种通过唤醒词进行唤醒的方式,用户必须提前记住特定的唤醒词,否则不能进行唤醒,导致唤醒过程繁琐、用户体验较差。
发明内容
有鉴于此,本发明实施例提供了一种语音交互方法、装置及机器人,能够解决现有技术中语音交互需要通过唤醒词进行唤醒时,用户必须提前记住特定的唤醒词,否则不能进行唤醒,导致唤醒过程繁琐、用户体验较差的问题。
本发明实施例的第一方面,提供了一种语音交互方法,
根据用户位置增强麦克风阵列中对应的麦克风;
接收所述麦克风发送的所述用户的语音指令,并确定所述语音指令的语音信号噪声值;
根据所述语音信号噪声值确定所述语音指令的分发模式,并根据所述分发模式将所述语音指令分发至对应的应用程序处理。
本发明实施例的第二方面,提供了一种语音交互装置,包括:
麦克风增强模块,用于根据用户位置增强麦克风阵列中对应的麦克风;
语音信号噪声值确定模块,用于接收所述麦克风发送的所述用户的语音指令,并确定所述语音指令的语音信号噪声值;
语音指令分发模块,用于根据所述语音信号噪声值确定所述语音指令的分发模式,并根据所述分发模式将所述语音指令分发至对应的应用程序处理。
本发明实施例的第三方面,提供了一种机器人,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述的语音交互方法的步骤。
本发明实施例的第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述的语音交互方法的步骤。
本发明实施例与现有技术相比的有益效果是:本发明实施例提供的语音交互方法、装置及机器人,首先根据用户位置增强麦克风阵列中对应的麦克风,接收该麦克风发送用户的语音指令,并确定所述语音指令的语音信号噪声值,根据该语音信号噪声值确定该语音指令的分发模式,并根据该分发模式将该语音指令发送至对应的应用程序处理。由于本发明实施例不需要唤醒词,就能直接与机器人进行语音交互,语音交互方式简便、用户体验好。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的一种语音交互方法的流程示意图;
图2为本发明另一实施例提供的一种语音交互方法的流程示意图;
图3为本发明再一实施例提供的一种语音交互方法的流程示意图;
图4为本发明又一实施例提供的一种语音交互方法的流程示意图;
图5为本发明实施例提供的用户与机器人的方位参数的示意图;
图6为本发明一实施例提供的一种语音交互装置的结构框图;
图7为本发明一实施例提供的一种机器人的示意框图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/ 或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
参考图1,图1为本发明一实施例提供的一种语音交互方法的流程示意图。该方法可以应用于机器人,具体地该方法详述如下:
S101:根据用户位置增强麦克风阵列中对应的麦克风。
在本实施例中,机器人可以设置有360°的麦克风阵列,麦克风阵列中包含多个麦克风。本实施例的机器人上可以安装360°全方位激光雷达,激光雷达实时监测周围环境中是否有用户进入,当有用户进入时,生成用户的感应信号,并根据感应信号确定用户位置。
具体地,可以增强用户位置正前方的麦克风阵列中的一个或多个麦克风。
S102:接收麦克风发送的用户的语音指令,并确定语音指令的语音信号噪声值。
在本实施例中,语音指令为用户与机器人交互的指令,例如,语音指令可以是“今天的天气如何?”。
具体地,根据语音指令的语音信号提取该语音信号中的多个噪声信号,对多个噪声信号求取均方根,得到语音信号噪声值。
S103:根据语音信号噪声值确定语音指令的分发模式,并根据分发模式将语音指令分发至对应的应用程序处理。
在本实施例中,分发模式可以分为嘈杂模式和安静模式。其中嘈杂模式为机器人正在进行语音播报时,不对语音指令进行分发,机器人没有进行语音播报时,才对语音指令进行分发;安静模式为机器人正在进行语音播报时,终止语音播报并对语音指令进行分发,机器人没有进行语音播报时,直接对语音指令进行分发。
具体地,可以根据语音指令中特征关键词,确定语音指令对应的应用程序。
从上述描述可知,首先根据用户位置增强麦克风阵列中对应的麦克风,接收该麦克风发送用户的语音指令,并确定所述语音指令的语音信号噪声值,根据该语音信号噪声值确定该语音指令的分发模式,并根据该分发模式将该语音指令发送至对应的应用程序处理。由于本发明实施例不需要唤醒词,就能直接与机器人进行语音交互,语音交互方式简便、用户体验好。
参考图2,图2为本发明另一实施例提供的一种语音交互方法的流程示意图。在上述实施例的基础上,上述步骤S103详述如下:
S201:若语音信号噪声值大于预设阈值,则确定语音指令的分发模式为嘈杂模式。
在本实施例中,预设阈值可以根据需求进行设置,例如20dB。
S202:在嘈杂模式下,识别语音指令的指令语义。
具体地,在嘈杂模式下,首先对语音指令中语音信号进行去噪声处理,再将去除噪声的语音信号识别为文本信息,得到语音指令的指令语义。
S203:若判定当前没有进行语音播报,则将语音指令分发至指令语义对应的应用程序处理。
S204:若判定当前正在进行语音播报,则结束语音指令分发进程。
在本实施例中,由于嘈杂模式下的噪声值较大,该语音指令有可能是用户在没有想要与机器人语音交互的情况下,被机器人错误的获取为了语音指令,因此当机器人正在进行语音播报时,则不对该语音指令进行分发,只有在机器人没有进行语音播报时(即空闲时),才对该语音指令进行分发。
从上述描述可知,当语音指令噪声值较大,被确定为嘈杂模式时,当机器人正在进行语音播报时,则不对该语音指令进行分发,只有在机器人没有进行语音播报时(即空闲时),才对该语音指令进行分发,避免机器人将错误获取语音指令分发给对应的应用程序处理。
参考图3,图3为本发明再一实施例提供的一种语音交互方法的流程示意图。在上述实施例的基础上,上述步骤S103还可以包括:
S301:若语音信号噪声值小于或等于预设阈值,则确定语音指令的分发模式为安静模式。
在本实施例中,预设阈值可以根据需求进行设置,例如20dB。
S302:在安静模式下,识别语音指令的指令语义。
具体地,在安静模式下,直接对语音指令中语音信号识别为文本信息,得到语音指令的指令语义。
S303:若判定当前没有进行语音播报,则将语音指令分发至指令语义对应的应用程序处理。
S304:若判定当前正在进行语音播报,则结束语音播报,并将语音指令分发至指令语义对应的应用程序处理。
在本实施例中,由于安静模式下的噪声值较小,该语音指令是用户想要与机器人语音交互的情况下,被机器人获取的语音指令,因此当机器人正在进行语音播报时,则结束语音播报并对该语音指令进行分发,在机器人没有进行语音播报时,直接对该语音指令进行分发。
从上述描述可知,当语音指令噪声值较小,被确定为安静模式时,当机器人正在进行语音播报时,则结束语音播报并对该语音指令进行分发,在机器人没有进行语音播报时,直接对该语音指令进行分发,避免出现机器人遗漏语音指令,没有与用户进行交互的情况。
参考图4,图4为本发明又一实施例提供的一种语音交互方法的流程示意图。在上述实施例的基础上,上述步骤S101详述如下:
S401:获取用户的位置参数,其中位置参数包括方位角和距离值。
在本实施例中,方位角是指从某点的指北方向线起,依顺时针方向到目标方向线之间的水平夹角。本实施例中的方位角是指用户相对于机器人的方位角;距离值是指用户与机器人的距离值。预设角度范围可以根据需要进行设置。
S402:根据方位角确定麦克风阵列中在方位角预设角度范围内的第一预设数量的麦克风。
参考图5,图5为本发明实施例提供的用户与机器人的方位参数的示意图,其中方位角为45°,预设角度范围为[30°,-30°],第一预设数量为5个。
S403:根据距离值从第一预设数量的麦克风中选取第二预设数量的麦克风。
在本实施例中,第二预设数量与距离值成正比,即距离值较小时,选取的第二预设数量麦克风较少即可保证用户与机器人的语音交互,降低能耗。例如,参考图5,当距离值为10米时,第二预设数量可以是3个,当距离值为1米时,第二预设数量可以是1个。
S404:增强第二预设数量的麦克风。
从上述描述可知,本实施例中通过方位参数中的方位角和距离值,确定需要增强的麦克风的数量,既能保证麦克风的数量满足用户语音识别的需要,又能保证麦克风的数量不至于太多而增大功耗。
在本发明的一个实施例中,上述步骤S203中所述将所述语音指令分发至所述指令语义对应的应用程序处理的过程,包括:
将所述语音指令转化为文本信息;
提取所述文本信息中的特征关键词,并查询预存的数据库,得到所述特征关键词对应的应用程序接口;
将所述文本信息发送到所述应用接口对应的应用程序处理。
在本实施例中,机器人的预存的数据库中预存了特征关键词与应用程序接口的对应关系。
对应于上文实施例的语音交互方法,图6为本发明一实施例提供的一种语音交互装置的结构框图。为了便于说明,仅示出了与本发明实施例相关的部分。参照图6,所述装置应用于机器人,所述装置包括:麦克风增强模块501、语音信号噪声值确定模块502和语音指令分发模块503。
其中,麦克风增强模块501,用于根据用户位置增强麦克风阵列中对应的麦克风;
语音信号噪声值确定模块502,用于接收所述麦克风发送的所述用户的语音指令,并确定所述语音指令的语音信号噪声值;
语音指令分发模块503,用于根据所述语音信号噪声值确定所述语音指令的分发模式,并根据所述分发模式将所述语音指令分发至对应的应用程序处理。
参考图6,在本发明的一个实施例中,所述语音指令分发模块503,包括:
分发模式确定单元5031,用于若所述语音信号噪声值大于预设阈值,则确定所述语音指令的分发模式为嘈杂模式;
指令语义识别单元5032,用于在所述嘈杂模式下,识别所述语音指令的指令语义;
语音指令分发单元5033,用于若判定当前没有进行语音播报,则将所述语音指令分发至所述指令语义对应的应用程序处理,若判定当前正在进行语音播报,则结束所述语音指令分发进程。
参考图6,在本发明的一个实施例中,所述分发模式确定单元5031,还用于若所述语音信号噪声值小于或等于所述预设阈值,则确定所述语音指令的分发模式为安静模式;
所述指令语义识别单元5032,还用于在所述安静模式下,识别所述语音指令的指令语义;
所述语音指令分发单元5033,还用于若判定当前没有进行语音播报,则将所述语音指令分发至所述指令语义对应的应用程序处理,若判定当前正在进行语音播报,则结束语音播报,并将所述语音指令分发至所述指令语义对应的应用程序处理。
参考图6,在本发明的一个实施例中,所述麦克风增强模块501,具体用于获取所述用户的位置参数,其中所述位置参数包括方位角和距离值;
根据所述方位角确定麦克风阵列中在所述方位角预设角度范围内的第一预设数量的麦克风;
根据所述距离值从所述第一预设数量的麦克风中选取第二预设数量的麦克风;
增强所述第二预设数量的麦克风。
参考图6,在本发明的一个实施例中,所述语音指令分发单元5033,还用于
将所述语音指令转化为文本信息;
提取所述文本信息中的特征关键词,并查询预存的数据库,得到所述特征关键词对应的应用程序接口;
将所述文本信息发送到所述应用接口对应的应用程序处理。
参见图7,图7为本发明一实施例提供的一种机器人的示意框图。如图7 所示的本实施例中的终端600可以包括:一个或多个处理器601、一个或多个输入设备602、一个或多个则输出设备603及一个或多个存储器604。上述处理器601、输入设备602、则输出设备603及存储器604通过通信总线605完成相互间的通信。存储器604用于存储计算机程序,所述计算机程序包括程序指令。处理器601用于执行存储器604存储的程序指令。其中,处理器601被配置用于调用所述程序指令执行以下操作上述各装置实施例中各模块/单元的功能,例如图5所示模块501至503的功能。
应当理解,在本发明实施例中,所称处理器601可以是中央处理单元 (CentralProcessing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array, FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
输入设备602可以包括触控板、指纹采传感器(用于采集用户的指纹信息和指纹的方向信息)、麦克风等,输出设备603可以包括显示器(LCD等)、扬声器等。
该存储器604可以包括只读存储器和随机存取存储器,并向处理器601提供指令和数据。存储器604的一部分还可以包括非易失性随机存取存储器。例如,存储器604还可以存储设备类型的信息。
具体实现中,本发明实施例中所描述的处理器601、输入设备602、输出设备603可执行本发明实施例提供的业务请求方法的第一实施例和第二实施例中所描述的实现方式,也可执行本发明实施例所描述的终端的实现方式,在此不再赘述。
在本发明的另一实施例中提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令被处理器执行时实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
所述计算机可读存储介质可以是前述任一实施例所述的终端的内部存储单元,例如终端的硬盘或内存。所述计算机可读存储介质也可以是所述终端的外部存储设备,例如所述终端上配备的插接式硬盘,智能存储卡(Smart Media Card, SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)等。进一步地,所述计算机可读存储介质还可以既包括所述终端的内部存储单元也包括外部存储设备。所述计算机可读存储介质用于存储所述计算机程序及所述终端所需的其他程序和数据。所述计算机可读存储介质还可以用于暂时地存储已经输出或者将要输出的数据。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的终端和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的终端和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (8)

1.一种语音交互方法,其特征在于,包括:
根据用户位置增强麦克风阵列中对应的麦克风;
接收所述麦克风发送的所述用户的语音指令,并确定所述语音指令的语音信号噪声值;
根据所述语音信号噪声值确定所述语音指令的分发模式,并根据所述分发模式将所述语音指令分发至对应的应用程序处理,包括:若所述语音信号噪声值大于预设阈值,则确定所述语音指令的分发模式为嘈杂模式;在所述嘈杂模式下,将语音信号识别为文本信息,得到语音指令的指令语义;若判定当前没有进行语音播报,则将所述语音指令分发至所述指令语义对应的应用程序处理;若判定当前正在进行语音播报,则结束所述语音指令分发进程。
2.根据权利要求1所述的语音交互方法,其特征在于,所述根据所述语音信号噪声值确定所述语音指令的分发模式,并根据所述分发模式将所述语音指令分发至对应的应用程序,包括:
若所述语音信号噪声值小于或等于预设阈值,则确定所述语音指令的分发模式为安静模式;
在所述安静模式下,识别所述语音指令的指令语义;
若判定当前没有进行语音播报,则将所述语音指令分发至所述指令语义对应的应用程序处理;
若判定当前正在进行语音播报,则结束语音播报,并将所述语音指令分发至所述指令语义对应的应用程序处理。
3.根据权利要求1所述的语音交互方法,其特征在于,所述根据用户位置增强麦克风阵列中对应的麦克风,包括:
获取所述用户的位置参数,其中所述位置参数包括方位角和距离值;
根据所述方位角确定所述麦克风阵列中在方位角预设角度范围内的第一预设数量的麦克风;
根据所述距离值从所述第一预设数量的麦克风中选取第二预设数量的麦克风;
增强所述第二预设数量的麦克风。
4.根据权利要求1所述的语音交互方法,其特征在于,所述将所述语音指令分发至所述指令语义对应的应用程序处理,包括:
将所述语音指令转化为文本信息;
提取所述文本信息中的特征关键词,并查询预存的数据库,得到所述特征关键词对应的应用程序接口;
将所述文本信息发送到应用接口对应的应用程序处理。
5.一种语音交互装置,其特征在于,包括:
麦克风增强模块,用于根据用户位置增强麦克风阵列中对应的麦克风;
语音信号噪声值确定模块,用于接收所述麦克风发送的所述用户的语音指令,并确定所述语音指令的语音信号噪声值;
语音指令分发模块,用于根据所述语音信号噪声值确定所述语音指令的分发模式,并根据所述分发模式将所述语音指令分发至对应的应用程序处理;
所述语音指令分发模块,包括:
分发模式确定单元,用于若所述语音信号噪声值大于预设阈值,则确定所述语音指令的分发模式为嘈杂模式;
指令语义识别单元,用于在所述嘈杂模式下,将语音信号识别为文本信息,得到语音指令的指令语义;
语音指令分发单元,用于若判定当前没有进行语音播报,则将所述语音指令分发至所述指令语义对应的应用程序处理,若判定当前正在进行语音播报,则结束所述语音指令分发进程。
6.根据权利要求5所述的语音交互装置,其特征在于,
所述分发模式确定单元,还用于若所述语音信号噪声值小于或等于所述预设阈值,则确定所述语音指令的分发模式为安静模式;
所述指令语义识别单元,还用于在所述安静模式下,识别所述语音指令的指令语义;
所述语音指令分发单元,还用于若判定当前没有进行语音播报,则将所述语音指令分发至所述指令语义对应的应用程序处理,若判定当前正在进行语音播报,则结束语音播报,并将所述语音指令分发至所述指令语义对应的应用程序处理。
7.一种机器人,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至4任一项所述的语音交互方法的步骤。
8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述的语音交互方法的步骤。
CN201810868308.6A 2018-08-02 2018-08-02 语音交互方法、装置及机器人 Active CN110853662B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810868308.6A CN110853662B (zh) 2018-08-02 2018-08-02 语音交互方法、装置及机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810868308.6A CN110853662B (zh) 2018-08-02 2018-08-02 语音交互方法、装置及机器人

Publications (2)

Publication Number Publication Date
CN110853662A CN110853662A (zh) 2020-02-28
CN110853662B true CN110853662B (zh) 2022-06-24

Family

ID=69594941

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810868308.6A Active CN110853662B (zh) 2018-08-02 2018-08-02 语音交互方法、装置及机器人

Country Status (1)

Country Link
CN (1) CN110853662B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103295576A (zh) * 2012-03-02 2013-09-11 腾讯科技(深圳)有限公司 一种即时通信的语音识别方法和终端
CN104506586A (zh) * 2014-12-09 2015-04-08 北京奇虎科技有限公司 一种通过手势调节音量的智能耳机系统及调节方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9928011D0 (en) * 1999-11-27 2000-01-26 Ibm Voice processing system
US7392188B2 (en) * 2003-07-31 2008-06-24 Telefonaktiebolaget Lm Ericsson (Publ) System and method enabling acoustic barge-in
US8654993B2 (en) * 2005-12-07 2014-02-18 Apple Inc. Portable audio device providing automated control of audio volume parameters for hearing protection
CN105070290A (zh) * 2015-07-08 2015-11-18 苏州思必驰信息科技有限公司 人机语音交互方法及系统
TWI606390B (zh) * 2016-09-23 2017-11-21 元鼎音訊股份有限公司 可自動調整聲音輸出之方法及電子裝置
CN107316642A (zh) * 2017-06-30 2017-11-03 联想(北京)有限公司 视频文件录制方法、音频文件录制方法及移动终端

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103295576A (zh) * 2012-03-02 2013-09-11 腾讯科技(深圳)有限公司 一种即时通信的语音识别方法和终端
CN104506586A (zh) * 2014-12-09 2015-04-08 北京奇虎科技有限公司 一种通过手势调节音量的智能耳机系统及调节方法

Also Published As

Publication number Publication date
CN110853662A (zh) 2020-02-28

Similar Documents

Publication Publication Date Title
CN109378000B (zh) 语音唤醒方法、装置、系统、设备、服务器及存储介质
CN109841214B (zh) 语音唤醒处理方法、装置和存储介质
CN106782554B (zh) 基于人工智能的语音唤醒方法和装置
US20190228217A1 (en) Method, apparatus and device for waking up voice interaction function based on gesture, and computer readable medium
CN108665895B (zh) 用于处理信息的方法、装置和系统
CN110858483A (zh) 智能设备、语音唤醒方法、语音唤醒装置及存储介质
CN108986833A (zh) 基于麦克风阵列的拾音方法、系统、电子设备及存储介质
CN109101517B (zh) 信息处理方法、信息处理设备以及介质
CN110788866B (zh) 机器人唤醒方法、装置及终端设备
CN110706707B (zh) 用于语音交互的方法、装置、设备和计算机可读存储介质
CN109961781B (zh) 基于机器人的语音信息接收方法、系统及终端设备
CN104282307A (zh) 唤醒语音控制系统的方法、装置及终端
CN110277092A (zh) 一种语音播报方法、装置、电子设备及可读存储介质
CN111599371A (zh) 语音增加方法、系统、装置及存储介质
WO2020087895A1 (zh) 语音交互处理方法及装置
CN112233676A (zh) 智能设备唤醒方法、装置、电子设备及存储介质
CN112634895A (zh) 语音交互免唤醒方法和装置
CN113963695A (zh) 一种智能设备的唤醒方法、装置、设备及存储介质
CN110853662B (zh) 语音交互方法、装置及机器人
CN111081251B (zh) 语音唤醒方法及装置
CN111540357B (zh) 语音处理方法、装置、终端、服务器及存储介质
CN112669837A (zh) 智能终端的唤醒方法、装置及电子设备
CN116705033A (zh) 用于无线智能音频设备的片上系统和无线处理方法
CN112289311A (zh) 语音唤醒方法、装置、电子设备及存储介质
CN109658930B (zh) 语音信号处理方法、电子装置及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant