CN109147800A - 应答方法和装置 - Google Patents

应答方法和装置 Download PDF

Info

Publication number
CN109147800A
CN109147800A CN201811000038.3A CN201811000038A CN109147800A CN 109147800 A CN109147800 A CN 109147800A CN 201811000038 A CN201811000038 A CN 201811000038A CN 109147800 A CN109147800 A CN 109147800A
Authority
CN
China
Prior art keywords
voice
user
class
subscriber
voice messaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811000038.3A
Other languages
English (en)
Inventor
王文宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Shanghai Xiaodu Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201811000038.3A priority Critical patent/CN109147800A/zh
Publication of CN109147800A publication Critical patent/CN109147800A/zh
Priority to US16/505,648 priority patent/US11475897B2/en
Priority to JP2019129594A priority patent/JP6876752B2/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/06Decision making techniques; Pattern matching strategies
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Abstract

本申请实施例公开了应答方法和装置。该方法的一具体实施方式包括:接收用户通过客户端发送的语音信息;基于语音信息确定用户所属的用户类别;使用与用户类别匹配的语音,对语音信息进行应答。从而使得应答语音与用户的用户类别匹配,实现了使用与用户类别具有针对性的应答语音进行应答,可以改善用户体验。

Description

应答方法和装置
技术领域
本申请实施例涉及计算机技术领域,具体涉及互联网技术领域,尤其涉及应答方法和装置。
背景技术
随着人工智能技术的发展,智能带屏音箱以及智能音响逐渐被广大用户使用。
用户可以通过语音向上述智能带屏音箱和智能音响发送信息获取指令。智能带屏音箱或智能音响根据用户的信息获取指令向用户播放音频或视频信息等。
发明内容
本申请实施例提出了一种应答方法和装置。
第一方面,本申请实施例提供了一种应答方法,该方法包括:接收用户通过客户端发送的语音信息;基于语音信息确定用户所属的用户类别;使用与用户类别匹配的语音,对语音信息进行应答。
在一些实施例中,基于语音信息确定用户所属的用户类别,包括:对语音信息进行声纹识别,根据识别结果确定用户所属的用户类别。
在一些实施例中,基于语音信息确定用户所属的用户类别,包括:将语音信息输入到预先训练的用户类别识别模型,根据用户类别识别模型的输出确定用户所属的用户类别。
在一些实施例中,使用与用户类别匹配的语音,对语音信息进行应答,包括:解析语音信息的语义;确定与语义匹配的应答信息;使用上述语音播放应答信息。
在一些实施例中,使用与用户类别匹配的语音,对语音信息进行应答,包括:确定语音信息中是否包括礼貌用语;响应于确定语音信息中包括礼貌用语,使用上述语音播放预先设置的礼貌用语。
在一些实施例中,上述语音为合成语音,或预先录制的语音,其中,合成语音基于与用户类别匹配的语音参数合成。
在一些实施例中,用户类别为儿童用户,该方法还包括:向用户推送与儿童用户匹配的多媒体信息。
第二方面,本申请实施例提供了一种应答装置,该装置包括:接收单元,被配置成接收用户通过客户端发送的语音信息;确定单元,被配置成基于语音信息确定用户所属的用户类别;应答单元,被配置成使用与用户类别匹配的语音,对语音信息进行应答。
在一些实施例中,确定单元进一步被配置成:对语音信息进行声纹识别,根据识别结果确定用户所属的用户类别。
在一些实施例中,确定单元进一步被配置成:将语音信息输入到预先训练的用户类别识别模型,根据用户类别识别模型的输出确定用户所属的用户类别。
在一些实施例中,应答单元进一步被配置成:解析语音信息的语义;确定与语义匹配的应答信息;使用上述语音播放应答信息。
在一些实施例中,应答单元进一步被配置成:确定语音信息中是否包括礼貌用语;响应于确定语音信息中包括礼貌用语,使用上述语音播放预先设置的礼貌用语。
在一些实施例中,语音为合成语音,或预先录制的语音,其中,合成语音基于与用户类别匹配的语音参数合成。
在一些实施例中,用户类别为儿童用户,该装置还包括推送单元,推送单元被配置成:向用户推送与儿童用户匹配的多媒体信息。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的应答方法和装置,通过接收用户通过客户端发送的语音信息,而后基于语音信息确定用户所属的用户类别,最后使用与用户类别匹配的语音,对语音信息进行应答。从而使得应答语音与用户的用户类别匹配,实现了使用与用户类别具有针对性的应答语音进行应答,可以改善用户体验。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一个实施例的应答方法可以应用于其中的示例性系统架构图;
图2是根据本申请的应答方法的一个实施例的流程图;
图3是根据本申请的应答方法的一个应用场景的示意图;
图4是根据本申请的应答方法的又一个实施例的流程图;
图5是根据本申请的应答装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了本申请的一个实施例的应答方法可以应用于其中的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种客户端应用,例如多媒体信息播放类应用、搜索类应用、即时通信工具等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏并且支持多媒体信息播放的各种电子设备,包括但不限于智能手机、智能机器人、智能音箱、智能带屏音箱、可穿戴设备、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以提供各种服务,例如接收终端设备101、102、103发送的用户的语音信息,对语音信息进行分析处理,并根据处理结果(例如用户的用户类别)对语音信息进行回应。
需要说明的是,本申请实施例所提供的应答方法一般由服务器105执行,相应地,应答装置一般设置于服务器105中。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,其示出了根据本申请的应答方法的一个实施例的流程200。该应答方法,包括以下步骤:
步骤201,接收用户通过客户端发送的语音信息。
在本实施例中,应答方法的执行主体(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式接收用户通过设置在终端设备(例如图1所示的终端设备)的客户端发送的语音信息。
智能语音交互是基于语音输入的新一代人机交互模式,人们通过说话就可以得到反馈信息。通常,人们可以利用能够实现智能语音交互的智能语音设备,通过向智能语音设备输入语音,而得到相应地反馈信息。
实践中,一台智能语音设备(例如,智能音箱)可以为多个用户提供语音服务。例如,若智能语音设备为一个家庭所用,则该智能语音设备可以为多个家庭成员提供语音服务。若智能语音设备在公共场合使用,则该智能语音设备可以为多个用户提供语音服务。
在本实施例中,用户可以向终端设备发出语音信息,终端设备的客户端可以接收用户发出的语音信息。
这里,上述语音信息可以包括预先设置的唤醒词,例如唤醒词可以包括预先为客户端定义的名称等。
步骤202,基于语音信息确定用户所属的用户类别。
在本实施例中,基于步骤201中得到的用户的语音信息,上述执行主体(例如图1所示的服务器)可以利用各种分析手段对上述语音信息进行分析,从而确定用户所属的用户类别。
在本实施例中,可以将用户按年龄进行分类,也可以按照性别进行分类等。相应地,用户类别可以包括:儿童用户、青年用户、中年用户和老年用户;还可以包括男性用户和女性用户等。这里的用户类别可以根据需要进行设定。
下面以用户类别划分为儿童用户、青年用户、中年用户和老年用户为例来进行说明。其中,儿童用户、青年用户、中年用户和老年用户可以分别对应不同的年龄段的用户群。上述儿童用户、青年用户、中年用户和老年用户各自对应的年龄段可以根据具体的应用进行设定,此处不进行限定。
在本实施例的一些可选的实现方式中,上述基于语音信息确定用户所属的用户类别,可以包括:对语音信息进行声纹识别,根据声纹识别结果确定用户类别。
语音是人的自然属性之一,每个人的语音都具有个人的声学特征。而这些声学特征主要由说话人的包括肺、气管、喉、咽、鼻和口等生理特征决定。
声纹,是用电声学一起显示的携带语音信息的声波频谱。可以从声纹中提取出用户的声学特征。
声纹识别,生物识别技术的一种。声纹识别可以通过声音提取说话人的声学特征,并根据声学特征判别说话人身份,确定说话人对应的年龄段。
年龄段相同的人可以具有相对接近的生理特征,从而使得年龄段相同的人可以具有类似的声学特征。可以事先统计出每一年龄段的多个用户的具有共性的声学特征对应的特征参数区间。
在这些可选的实现方式中,上述执行主体可以对语音信息进行声纹识别,根据声纹识别结果确定用户类别。
在上述声纹识别中可以包括从用户的语音信息中提取出用户的声学特征的特征值。然后将所提取的用户的声学特征的特征值与预先提取的各年龄段对应的声学特征的特征参数区间,进行比对。将包括用户的声学特征的特征值的特征参数区间所对应的年龄段,作为上述用户对应的年龄段。然后根据确定出的用户对应的年龄段来确定用户的用户类别。
上述声学特征可以包括时长、基频、能量、共振峰频率、宽带、频率微扰、振幅微扰、过零率和梅尔频率倒谱参数中的至少一种。
在本实施例的一些可选的实现方式中,上述基于语音信息确定用户所属的用户类别,可以包括:将语音信息输入到预先训练的用户类别识别模型,根据用户类别识别模型的输出确定用户所属的用户类别。
在这些可选的实现方式中,上述执行主体中可以设置预先训练的用户类别识别模型,或者上述执行主体可以通过网络访问预先训练的用户类别识别模型。上述用户类别识别模型可以根据输入的用户的语音信息,输出用于指示用户所属的用户类别的输出结果。
上述用户类别识别模型可以是各种机器学习模型,例如:决策树模型、选择树模型、神经网络模型等等。
上述用户类别例如可以包括:儿童用户、青年用户、中年用户和老年用户;或者女性用户、男性用户等。
可以理解的是,上述用户类别识别模型可以是预先使用海量添加了用户类别标注的语音信息对初始用户类别识别模型进行训练得到的。
需要说明的是,上述对机器学习模型进行训练的方法是目前广泛研究和应用的公知技术,在此不再赘述。
步骤203,使用与用户类别匹配的语音,对语音信息进行应答。
在本实施例中,上述执行主体可以使用各种方法确定与用户类别匹配的语音,对用户的语音信息进行应答。
在本实施例中,对于每一用户类别,可以事先统计该用户类别所偏好的应答语音。这样一来,上述执行主体中可以事先存储各用户类别以及各用户类别分别偏好的应答语音,或者上述执行主体可以通过网络访问存储在其他电子设备中的各用户类别以及各用户类别分别偏好的应答语音。
在本实施例的一些可选的实现方式中,上述与用户类别匹配的语音为合成语音,或预先录制的语音。也就是说,在这些可选的实现方式中,应答方法的执行主体根据步骤202得到的用户类别,可以使用基于与用户类别匹配的语音参数合成的合成语音,对用户的语音信息进行应答;上述执行主体也可以使用预先录制的、与用户类别匹配的语音对用户的语音信息进行应答。
在一些应用场景中,与用户类别匹配的语音可以基于与用户类别匹配的语音参数合成。在这些应用场景中,上述执行主体中可以事先存储各用户类别以及各用户类别分别偏好的应答语音对应的语音参数。上述执行主体中可以通过网络访问存储在其他电子设备中的各用户类别以及各用户类别分别偏好的应答语音对应的语音参数。
上述语音参数例如可以包括但不限于:频谱,基频,时长、音高、音长、音强等参数中的至少一者。
在这些应用场景中,在通过步骤202中确定出用户的用户类别之后,上述执行主体可以从各用户类别对应的语音参数中,提取出与该用户类别对应的语音参数,然后将上述语音参数应用到语音合成技术,从而得到根据上述语音参数合成的合成语音。使用上述合成语音来对用户的语音信息进行应答。
语音合成,是指将任意文本转换成语音的技术,是人机交互必不可少的模块。
在这些应用场景中,上述执行主体中可以预先设置多个应答文本。上述执行主体可以将应答文本转换为合成语音,对用户的语音信息进行应答。
在本实施例中,若用户类别为儿童用户,可以将语音参数设置成与儿童匹配的语音参数。根据与儿童用户匹配的语音参数,使用语音合成技术所合成的语音,可以听起来与真实的儿童声音相同或相近,从而增加应答语音对儿童用户的亲和力。
类似地,若用户类别为老年用户,可以将语音参数设置成与经过统计得到的老年用户偏好的语音的语音参数。
也就是说,上述执行主体可以根据用户的类别,来选择与用户的类别对应的语音参数,从而生成与用户类别匹配的合成语音,并使用与用户类别对应的合成语音对用户的语音信息进行应答。实现了使用与用户类别具有针对性的应答语音进行应答,可以改善用户体验。
在另外一些应用场景中,与用户类别匹配的语音可以是预先录制的语音。在这些应用场景中,对于每一用户类别,可以预先录制与该用户类别匹配的真人语音。这样,可以得到分别与各用户类别分别匹配的、预先录制的真人语音。上述执行主体中可以保存上述与各用户类别分别匹配的、预先录制的真人语音;或者,上述执行主体可以通过网络访问设置在其他电子设备中的上述与各用户类别分别匹配的、预先录制的真人语音。在这些应用场景中,在通过步骤202中确定出用户的用户类别之后,上述执行主体可以从上述与各用户类别分别匹配的、预先录制的真人语音中,选取出与在步骤202中确定出的用户类别匹配的、预先录制的真人语音,对上述用户的语音信息进行应答。
继续参见图3,图3是根据本实施例的应答方法的应用场景的一个示意图300。在图3的应用场景中,儿童用户301可以向终端设备302发出语音信息,从而唤醒终端设备。终端设备302可以将上述语音信息发送给服务器303。服务器303可以首先接收儿童用户301通过终端设备302发送的语音信息。之后,服务器303可以基于语音信息确定儿童用户301所属的用户类别为儿童用户。然后,服务器303可以使用与儿童用户匹配的语音参数合成的合成童音。并用合成的童音对上述语音信息进行应答。接着,上述服务器303将合成的童音进行应答的应答语音信号发送给终端设备302。最后,终端设备302向儿童用户301播放上述应答语音信号对应的应答语音。
本申请的上述实施例提供的方法通过接收用户通过客户端发送的语音信息,而后基于语音信息确定用户所属的用户类别,最后使用与用户类别匹配的语音参数合成的合成语音,对语音信息进行应答,从而使得应答语音与用户的用户类别匹配,实现了使用与用户类别具有针对性的应答语音进行应答,可以改善用户体验。
在本实施例的一些可选的实现方式中,上述步骤203的使用与用户类别匹配的语音,对语音信息进行应答,包括如下子步骤:
子步骤2031,解析语音信息的语义。
在这些可选的实现方式中,上述执行主体可以使用各种方法解析语音信息的语义。作为示例,上述执行主体可以通过以下步骤解析语音信息的语义:首先,上述执行主体可以对上述语音信息进行语音识别,得到上述语音信息对应的文本信息。之后,再利用各种语义分析手段(例如,分词、词性标注、命名实体识别等)对上述文本信息进行分析,从而得到上述文本信息对应的语义。
需要说明的是,解析语音信息的语义是目前广泛研究和应用的公知技术,在此不再赘述。
子步骤2032,确定与语义匹配的应答信息。
在一些应用场景中,上述执行主体中可以预先存储有应答信息表。在应答信息表中可以关联存储多个语义,以及多个语义各自对应的应答信息。这里的应答信息可以包括应答文本。
在另外一些应用场景中,上述执行主体可以从互联网中获取多个聊天信息。从聊天信息中确定出多个包括与上述语义相同或相近的对话信息,然后从多个对话信息抽取出与上述语义匹配的应答信息。
子步骤2033,使用上述语音播放应答信息。
在这些可选的实现方式中,上述执行主体可以使用与用户的类别匹配的语音参数来生成合成语音,并使用上述合成语音来播放上述应答信息。或者,上述执行主体使用预先录制的、与用户类别匹配的语音播放上述应答信息。
在这些可选的实现方式中,由于根据语音信息对应的语义,使用与用户的类别匹配的语音进行应答,使得应答信息与用户的需求相匹配。一方面可以提高应答信息的准确度,另一方面可以进一步改善用户的满意度。
在本实施例的一些可选的实现方式中,上述步骤203的使用与用户类别匹配的语音,对语音信息进行应答,可以进一步包括如下子步骤:
子步骤2034,确定语音信息中是否包括礼貌用语。
在本实施例中,上述执行主体可以使用各种方法来确定语音信息中是否包括礼貌用语。
作为示例,上述执行主体可以根据如下步骤确定用户的语音信息是否包括礼貌用语:首先,上述执行主体可以对上述语音信息进行语音识别,得到上述语音信息对应的文本信息。然后,上述执行主体可以将预先设置的礼貌用语表中的每一个礼貌用语与上述文本信息进行匹配。若匹配成功,则确定用户的语音信息中包括礼貌用语。进一步地,上述执行主体还可以确定出语音信息包括哪一个/哪一些礼貌用语。
上述礼貌用语表中可以包括多个礼貌用语。上述礼貌用语可以为一个字,词,或者一个短语。
上述预先设置的礼貌用语表可以设置在上述执行主体中,也可以设置在与上述执行主体通过网络进行通信连接的其他电子设备中。
子步骤2035,响应于确定语音信息中包括礼貌用语,使用上述语音播放预先设置的礼貌用语。
在这些可选的实现方式中,上述执行主体可以对每一个礼貌用语预先设置对应的应答礼貌用语。例如,如果用户使用了礼貌用语“请问”,则对应的预先设置的礼貌用语可以为“谢谢你优雅的提问”等。上述执行主体可以使用与用户类别匹配的语音参数生成合成语音,并使用合成语音来播放上述预先设置的用于应答的礼貌用语。上述执行主体还可以使用预先录制的、与用户类别匹配的语音来播放上述预先设置的用于应答的礼貌用语。
在这些可选的实现方式中,若用户类别为儿童用户,则可以有利于培养儿童用户在语言交流中使用礼貌用语的习惯。若用户为青年用户、中年用户或者老年用户,则可以有利于提高应答信息对用户的亲和力。
进一步参考图4,其示出了应答方法的又一个实施例的流程400。该应答方法的流程400,包括以下步骤:
步骤401,接收用户通过客户端发送的语音信息。
在本实施例中,步骤401与图2所示的步骤201相同,此处不赘述。
步骤402,基于语音信息确定用户所属的用户类别。
在本实施例中,步骤402与图2所示的步骤202相同,此处不赘述。
步骤403,使用与用户类别匹配的语音,对语音信息进行应答。
在本实施例中,步骤403与图2所示的步骤203相同,此处不赘述。
步骤404,用户类别为儿童用户,向用户推送与儿童用户匹配的多媒体信息。
在本实施例中,用户类别可以为儿童用户。
上述执行主体可以通过各种方法获取儿童用户对应的多媒体信息。例如,动画、儿歌、儿童故事等等。
例如,上述执行主体中可以预先存储与儿童用户对应的多媒体信息。或者上述执行主体可以通过网络访问设置在其他电子设备中的与儿童用户匹配的多媒体信息。
上述与儿童用户匹配的多媒体信息可以是预先存储的多媒体信息。这些多媒体信息例如可以是通过线上或线下对海量儿童用户进行统计的得到的多媒体信息。
在一些应用场景中,若用户类别为儿童用户,上述执行主体可以自动屏蔽社会类信息、暴力类信息、色情信息等。
从图4中可以看出,与图2对应的实施例相比,本实施例中的应答方法的流程400突出了对儿童用户推送与儿童用户匹配的多媒体信息的步骤。由此,向用户推送信息符合用户需求,实现了富于针对性的信息推送。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种应答装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的应答装置500包括:接收单元501、确定单元502和应答单元503。其中,接收单元501,被配置成接收用户通过客户端发送的语音信息;确定单元502,被配置成基于语音信息确定用户所属的用户类别;应答单元503,被配置成使用与用户类别匹配的语音,对语音信息进行应答。
在本实施例中,应答装置500的接收单元501、确定单元502和应答单元503。的具体处理及其所带来的技术效果可分别参考图2对应实施例中步骤201、步骤202和步骤203的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,确定单元502进一步被配置成:对语音信息进行声纹识别,根据识别结果确定用户所属的用户类别。
在本实施例的一些可选的实现方式中,确定单元502进一步被配置成:将语音信息输入到预先训练的用户类别识别模型,根据用户类别识别模型的输出确定用户所属的用户类别。
在本实施例的一些可选的实现方式中,应答单元503进一步被配置成:解析语音信息的语义;确定与语义匹配的应答信息;使用上述语音播放应答信息。
在本实施例的一些可选的实现方式中,应答单元503进一步被配置成:确定语音信息中是否包括礼貌用语;响应于确定所述语音信息中包括礼貌用语,使用上述语音播放预先设置的礼貌用语。
在本实施例的一些可选的实现方式中,上述语音为合成语音,或预先录制的语音,其中,上述合成语音基于与用户类别匹配的语音参数合成。
在本实施例的一些可选的实现方式中,用户类别为儿童用户。应答装置500装置还包括推送单元504,推送单元504被配置成:向用户推送与儿童用户匹配的多媒体信息。
如图6所示,计算机系统600包括中央处理单元(CPU,Central Processing Unit)601,其可以根据存储在只读存储器(ROM,Read Only Memory)602中的程序或者从存储部分606加载到随机访问存储器(RAM,Random Access Memory)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM602以及RAM 603通过总线604彼此相连。输入/输出(I/O,Input/Output)接口605也连接至总线604。
以下部件连接至I/O接口605:包括硬盘等的存储部分606;以及包括诸如LAN(局域网,Local Area Network)卡、调制解调器等的网络接口卡的通信部分607。通信部分607经由诸如因特网的网络执行通信处理。驱动器608也根据需要连接至I/O接口605。可拆卸介质609,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器608上,以便于从其上读出的计算机程序根据需要被安装入存储部分606。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分607从网络上被下载和安装,和/或从可拆卸介质609被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括接收单元、确定单元和应答单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,接收单元还可以被描述为“接收用户通过客户端发送的语音信息的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:接收用户通过客户端发送的语音信息;基于语音信息确定用户所属的用户类别;使用与用户类别匹配的语音,对语音信息进行应答。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (16)

1.一种应答方法,包括:
接收用户通过客户端发送的语音信息;
基于所述语音信息确定所述用户所属的用户类别;
使用与所述用户类别匹配的语音,对所述语音信息进行应答。
2.根据权利要求1所述的方法,其中,所述基于所述语音信息确定所述用户所属的用户类别,包括:
对所述语音信息进行声纹识别,根据识别结果确定所述用户所属的用户类别。
3.根据权利要求1所述的方法,其中,所述基于所述语音信息确定所述用户所属的用户类别,包括:
将所述语音信息输入到预先训练的用户类别识别模型,根据所述用户类别识别模型的输出确定所述用户所属的用户类别。
4.根据权利要求1所述的方法,其中,所述使用与所述用户类别匹配的语音,对所述语音信息进行应答,包括:
解析所述语音信息的语义;
确定与所述语义匹配的应答信息;
使用所述语音播放所述应答信息。
5.根据权利要求1所述的方法,其中,所述使用与所述用户类别匹配的语音,对所述语音信息进行应答,包括:
确定语音信息中是否包括礼貌用语;
响应于确定所述语音信息中包括礼貌用语,使用所述语音播放预先设置的礼貌用语。
6.根据权利要求1-5任一所述的方法,其中,所述语音为合成语音,或预先录制的语音,其中,所述合成语音基于与所述用户类别匹配的语音参数合成。
7.根据权利要求1所述的方法,其中,所述用户类别为儿童用户,所述方法还包括:
向所述用户推送与儿童用户匹配的多媒体信息。
8.一种应答装置,包括:
接收单元,被配置成接收用户通过客户端发送的语音信息;
确定单元,被配置成基于所述语音信息确定所述用户所属的用户类别;
应答单元,被配置成使用与所述用户类别匹配的语音,对所述语音信息进行应答。
9.根据权利要求8所述的装置,其中,所述确定单元进一步被配置成:
对所述语音信息进行声纹识别,根据识别结果确定所述用户所属的用户类别。
10.根据权利要求8所述的装置,其中,所述确定单元进一步被配置成:
将所述语音信息输入到预先训练的用户类别识别模型,根据所述用户类别识别模型的输出确定所述用户所属的用户类别。
11.根据权利要求8所述的装置,其中,所述应答单元进一步被配置成:
解析所述语音信息的语义;
确定与所述语义匹配的应答信息;
使用所述语音播放所述应答信息。
12.根据权利要求8所述的装置,其中,所述应答单元进一步被配置成:
确定语音信息中是否包括礼貌用语;
响应于确定所述语音信息中包括礼貌用语,使用所述语音播放预先设置的礼貌用语。
13.根据权利8-12任一所述的装置,其中,所述语音为合成语音,或预先录制的语音,其中,所述合成语音基于与所述用户类别匹配的语音参数合成。
14.根据权利要求8所述的装置,其中,所述用户类别为儿童用户,所述装置还包括推送单元,所述推送单元被配置成:
向所述用户推送与儿童用户匹配的多媒体信息。
15.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
16.一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-7中任一所述的方法。
CN201811000038.3A 2018-08-30 2018-08-30 应答方法和装置 Pending CN109147800A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201811000038.3A CN109147800A (zh) 2018-08-30 2018-08-30 应答方法和装置
US16/505,648 US11475897B2 (en) 2018-08-30 2019-07-08 Method and apparatus for response using voice matching user category
JP2019129594A JP6876752B2 (ja) 2018-08-30 2019-07-11 応答方法及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811000038.3A CN109147800A (zh) 2018-08-30 2018-08-30 应答方法和装置

Publications (1)

Publication Number Publication Date
CN109147800A true CN109147800A (zh) 2019-01-04

Family

ID=64829189

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811000038.3A Pending CN109147800A (zh) 2018-08-30 2018-08-30 应答方法和装置

Country Status (3)

Country Link
US (1) US11475897B2 (zh)
JP (1) JP6876752B2 (zh)
CN (1) CN109147800A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109885277A (zh) * 2019-02-26 2019-06-14 百度在线网络技术(北京)有限公司 人机交互设备、方法、系统和装置
CN111276144A (zh) * 2020-02-21 2020-06-12 北京声智科技有限公司 一种平台匹配方法、装置、设备和介质
CN111724789A (zh) * 2019-03-19 2020-09-29 华为终端有限公司 语音交互的方法和终端设备
CN111805558A (zh) * 2020-08-03 2020-10-23 深圳作为科技有限公司 一种具有记忆识别功能的自学式老年护理机器人系统
CN112309403A (zh) * 2020-03-05 2021-02-02 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
WO2023109415A1 (zh) * 2021-12-16 2023-06-22 广州城市理工学院 一种全息互动系统

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020049687A1 (ja) * 2018-09-06 2020-03-12 日本電気株式会社 音声処理装置、音声処理方法、およびプログラム記録媒体
US11392771B2 (en) * 2020-02-28 2022-07-19 Rovi Guides, Inc. Methods for natural language model training in natural language understanding (NLU) systems
US11393455B2 (en) * 2020-02-28 2022-07-19 Rovi Guides, Inc. Methods for natural language model training in natural language understanding (NLU) systems
US11626103B2 (en) * 2020-02-28 2023-04-11 Rovi Guides, Inc. Methods for natural language model training in natural language understanding (NLU) systems
US11574127B2 (en) * 2020-02-28 2023-02-07 Rovi Guides, Inc. Methods for natural language model training in natural language understanding (NLU) systems
CN111638787B (zh) * 2020-05-29 2023-09-01 百度在线网络技术(北京)有限公司 用于展示信息的方法和装置
CN111916065A (zh) * 2020-08-05 2020-11-10 北京百度网讯科技有限公司 用于处理语音的方法和装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103187051A (zh) * 2011-12-28 2013-07-03 上海博泰悦臻电子设备制造有限公司 车载互动装置
CN103236259A (zh) * 2013-03-22 2013-08-07 乐金电子研发中心(上海)有限公司 语音识别处理及反馈系统、语音回复方法
CN106027485A (zh) * 2016-04-28 2016-10-12 乐视控股(北京)有限公司 基于语音交互的富媒体展示方法及系统
CN107358949A (zh) * 2017-05-27 2017-11-17 芜湖星途机器人科技有限公司 机器人发声自动调整系统
CN107832720A (zh) * 2017-11-16 2018-03-23 北京百度网讯科技有限公司 基于人工智能的信息处理方法和装置
CN108037905A (zh) * 2017-11-21 2018-05-15 北京光年无限科技有限公司 一种用于智能机器人的交互输出方法及智能机器人
CN108366302A (zh) * 2018-02-06 2018-08-03 南京创维信息技术研究院有限公司 Tts播报指令优化方法、智能电视、系统及存储装置
CN108388638A (zh) * 2018-02-26 2018-08-10 出门问问信息科技有限公司 语义解析方法、装置、设备及存储介质
CN110069608A (zh) * 2018-07-24 2019-07-30 百度在线网络技术(北京)有限公司 一种语音交互的方法、装置、设备和计算机存储介质

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6374225B1 (en) * 1998-10-09 2002-04-16 Enounce, Incorporated Method and apparatus to prepare listener-interest-filtered works
US6665644B1 (en) 1999-08-10 2003-12-16 International Business Machines Corporation Conversational data mining
JP3994368B2 (ja) * 2000-01-25 2007-10-17 ソニー株式会社 情報処理装置および情報処理方法、並びに記録媒体
US6466654B1 (en) * 2000-03-06 2002-10-15 Avaya Technology Corp. Personal virtual assistant with semantic tagging
JP2002041084A (ja) 2000-07-26 2002-02-08 Victor Co Of Japan Ltd 対話処理システム
JP3945356B2 (ja) 2002-09-17 2007-07-18 株式会社デンソー 音声対話装置及びプログラム
JP2007272773A (ja) 2006-03-31 2007-10-18 Xing Inc 対話型インターフェイス制御システム
US8374874B2 (en) * 2006-09-11 2013-02-12 Nuance Communications, Inc. Establishing a multimodal personality for a multimodal application in dependence upon attributes of user interaction
US8249225B2 (en) * 2008-03-14 2012-08-21 International Business Machines Corporation Identifying caller preferences based on voice print analysis
WO2009158581A2 (en) * 2008-06-27 2009-12-30 Adpassage, Inc. System and method for spoken topic or criterion recognition in digital media and contextual advertising
JP2010078763A (ja) 2008-09-25 2010-04-08 Brother Ind Ltd 音声処理装置、音声処理プログラム、およびインターホンシステム
US8682667B2 (en) * 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US20140046876A1 (en) * 2010-06-29 2014-02-13 Morf Dynamics Pty Ltd System and method of providing a computer-generated response
US20130304730A1 (en) * 2011-01-18 2013-11-14 Google Inc. Automated answers to online questions
WO2013187610A1 (en) 2012-06-15 2013-12-19 Samsung Electronics Co., Ltd. Terminal apparatus and control method thereof
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
JP2015119298A (ja) 2013-12-18 2015-06-25 船井電機株式会社 情報処理装置および通信装置
US9626961B2 (en) * 2014-01-31 2017-04-18 Vivint, Inc. Systems and methods for personifying communications
US9401143B2 (en) * 2014-03-24 2016-07-26 Google Inc. Cluster specific speech model
US9564123B1 (en) * 2014-05-12 2017-02-07 Soundhound, Inc. Method and system for building an integrated user profile
US20150339321A1 (en) * 2014-05-22 2015-11-26 Konnect Labs, Inc. Adaptable Multimedia Display System and Method
JP6120927B2 (ja) 2015-09-24 2017-04-26 シャープ株式会社 対話システム、対話を制御する方法、およびコンピュータを対話システムとして機能させるためのプログラム
US10097919B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Music service selection
JP6515057B2 (ja) 2016-03-31 2019-05-15 株式会社バンダイナムコエンターテインメント シミュレーションシステム、シミュレーション装置及びプログラム
US10074359B2 (en) * 2016-11-01 2018-09-11 Google Llc Dynamic text-to-speech provisioning
JP6553015B2 (ja) 2016-11-15 2019-07-31 日本電信電話株式会社 話者属性推定システム、学習装置、推定装置、話者属性推定方法、およびプログラム
US10347244B2 (en) * 2017-04-21 2019-07-09 Go-Vivace Inc. Dialogue system incorporating unique speech to text conversion method for meaningful dialogue response
CN107170456A (zh) 2017-06-28 2017-09-15 北京云知声信息技术有限公司 语音处理方法及装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103187051A (zh) * 2011-12-28 2013-07-03 上海博泰悦臻电子设备制造有限公司 车载互动装置
CN103236259A (zh) * 2013-03-22 2013-08-07 乐金电子研发中心(上海)有限公司 语音识别处理及反馈系统、语音回复方法
CN106027485A (zh) * 2016-04-28 2016-10-12 乐视控股(北京)有限公司 基于语音交互的富媒体展示方法及系统
CN107358949A (zh) * 2017-05-27 2017-11-17 芜湖星途机器人科技有限公司 机器人发声自动调整系统
CN107832720A (zh) * 2017-11-16 2018-03-23 北京百度网讯科技有限公司 基于人工智能的信息处理方法和装置
CN108037905A (zh) * 2017-11-21 2018-05-15 北京光年无限科技有限公司 一种用于智能机器人的交互输出方法及智能机器人
CN108366302A (zh) * 2018-02-06 2018-08-03 南京创维信息技术研究院有限公司 Tts播报指令优化方法、智能电视、系统及存储装置
CN108388638A (zh) * 2018-02-26 2018-08-10 出门问问信息科技有限公司 语义解析方法、装置、设备及存储介质
CN110069608A (zh) * 2018-07-24 2019-07-30 百度在线网络技术(北京)有限公司 一种语音交互的方法、装置、设备和计算机存储介质

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109885277A (zh) * 2019-02-26 2019-06-14 百度在线网络技术(北京)有限公司 人机交互设备、方法、系统和装置
CN111724789A (zh) * 2019-03-19 2020-09-29 华为终端有限公司 语音交互的方法和终端设备
CN111276144A (zh) * 2020-02-21 2020-06-12 北京声智科技有限公司 一种平台匹配方法、装置、设备和介质
CN112309403A (zh) * 2020-03-05 2021-02-02 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN111805558A (zh) * 2020-08-03 2020-10-23 深圳作为科技有限公司 一种具有记忆识别功能的自学式老年护理机器人系统
CN111805558B (zh) * 2020-08-03 2021-10-08 深圳作为科技有限公司 一种具有记忆识别功能的自学式老年护理机器人系统
WO2023109415A1 (zh) * 2021-12-16 2023-06-22 广州城市理工学院 一种全息互动系统

Also Published As

Publication number Publication date
JP2020034895A (ja) 2020-03-05
JP6876752B2 (ja) 2021-05-26
US20200075024A1 (en) 2020-03-05
US11475897B2 (en) 2022-10-18

Similar Documents

Publication Publication Date Title
CN109147800A (zh) 应答方法和装置
CN109272984A (zh) 用于语音交互的方法和装置
CN108962219B (zh) 用于处理文本的方法和装置
CN108737872A (zh) 用于输出信息的方法和装置
CN108347646B (zh) 多媒体内容播放方法和装置
CN109346076A (zh) 语音交互、语音处理方法、装置和系统
CN107832434A (zh) 基于语音交互生成多媒体播放列表的方法和装置
CN108882032A (zh) 用于输出信息的方法和装置
CN107623614A (zh) 用于推送信息的方法和装置
CN109257659A (zh) 字幕添加方法、装置、电子设备及计算机可读存储介质
CN107767869A (zh) 用于提供语音服务的方法和装置
US20220076674A1 (en) Cross-device voiceprint recognition
CN113010138B (zh) 文章的语音播放方法、装置、设备及计算机可读存储介质
JP2003521750A (ja) スピーチシステム
CN107808007A (zh) 信息处理方法和装置
CN109754783A (zh) 用于确定音频语句的边界的方法和装置
CN108933730A (zh) 信息推送方法和装置
CN108900612A (zh) 用于推送信息的方法和装置
CN108877803A (zh) 用于呈现信息的方法和装置
CN109308901A (zh) 歌唱者识别方法和装置
CN108924218A (zh) 用于推送信息的方法和装置
CN109493888A (zh) 漫画配音方法及装置、计算机可读存储介质、电子设备
CN109671435A (zh) 用于唤醒智能设备的方法和装置
DeMair Sounds authentic: the acoustic construction of Serial’s storyworld
CN108920657A (zh) 用于生成信息的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20210510

Address after: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing

Applicant after: BAIDU ONLINE NETWORK TECHNOLOGY (BEIJING) Co.,Ltd.

Applicant after: Shanghai Xiaodu Technology Co.,Ltd.

Address before: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing

Applicant before: BAIDU ONLINE NETWORK TECHNOLOGY (BEIJING) Co.,Ltd.

TA01 Transfer of patent application right
RJ01 Rejection of invention patent application after publication

Application publication date: 20190104