CN109272984A - 用于语音交互的方法和装置 - Google Patents
用于语音交互的方法和装置 Download PDFInfo
- Publication number
- CN109272984A CN109272984A CN201811209944.4A CN201811209944A CN109272984A CN 109272984 A CN109272984 A CN 109272984A CN 201811209944 A CN201811209944 A CN 201811209944A CN 109272984 A CN109272984 A CN 109272984A
- Authority
- CN
- China
- Prior art keywords
- response
- role
- voice messaging
- voice
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 49
- 230000004044 response Effects 0.000 claims abstract description 260
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 27
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 27
- 238000012512 characterization method Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 230000007246 mechanism Effects 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000006854 communication Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 230000001755 vocal effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000005291 magnetic effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Game Theory and Decision Science (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
Abstract
本申请实施例公开了用于语音交互的方法和装置。该方法的一具体实施方式包括:获取用户输入的语音信息;基于所获取的语音信息确定与所获取的语音信息匹配的应答角色;使用预先针对应答角色录制的语音或根据应答角色的声音特征参数合成的语音,对所获取的语音信息进行应答。该实施方式提供了一种基于语音信息确定应答角色的语音交互机制,丰富了语音交互方法。
Description
技术领域
本申请实施例涉及计算机技术领域,尤其涉及用于语音交互的方法和装置。
背景技术
随着人工智能技术的发展,智能语音设备,例如智能带屏音箱以及智能音响,逐渐被广大用户使用。用户可以通过语音与上述智能语音设备交互,使得上述智能语音设备可以根据用户发出的语音做出应答。目前,智能语音设备所使用的应答角色单一固定。
发明内容
本申请实施例提出了用于语音交互的方法和装置。
第一方面,本申请的一些实施例提供了一种用于语音交互的方法,该方法包括:获取用户输入的语音信息;基于所获取的语音信息确定与所获取的语音信息匹配的应答角色;使用预先针对应答角色录制的语音或根据应答角色的声音特征参数合成的语音,对所获取的语音信息进行应答。
在一些实施例中,基于所获取的语音信息确定与所获取的语音信息匹配的应答角色,包括:响应于识别出所获取的语音信息中包括预先为应答角色定义的名称,将识别出的名称对应的应答角色确定为与所获取的语音信息匹配的应答角色。
在一些实施例中,预先为应答角色定义的名称包括语音交互唤醒词。
在一些实施例中,基于所获取的语音信息确定与所获取的语音信息匹配的应答角色,包括:获取用户的属性信息;根据用户的属性信息以及预先设置的属性信息与应答角色的对应关系,确定与所获取的语音信息匹配的应答角色。
在一些实施例中,获取用户的属性信息,包括:对所获取的语音信息进行声纹识别,根据识别结果确定用户的属性信息。
在一些实施例中,获取用户的属性信息,包括:根据所获取的语音信息确定用户的标识信息;在预先存储的用户信息集合中查询与用户标识对应的用户属性信息。
在一些实施例中,使用预先针对应答角色录制的语音或根据应答角色的声音特征参数合成的语音,对所获取的语音信息进行应答,包括:将所获取的语音信息转换为文字;根据所转换的文字以及针对应答角色预先设置的语音应答逻辑,确定应答文字;使用预先针对应答角色录制的包含应答文字的语音,或根据应答角色的声音特征参数与应答文字合成的语音,对所获取的语音信息进行应答。
在一些实施例中,基于所获取的语音信息确定与所获取的语音信息匹配的应答角色,包括:根据所获取的语音信息确定用户的标识信息;在表征标识信息与应答角色的对应关系的应答角色设置记录中查询与确定出的标识信息对应的应答角色;将查询到的应答角色确定为与所获取的语音信息匹配的应答角色。
第二方面,本申请的一些实施例提供了一种用于语音交互的装置,该装置包括:获取单元,被配置成获取用户输入的语音信息;确定单元,被配置成基于所获取的语音信息确定与所获取的语音信息匹配的应答角色;应答单元,被配置成使用预先针对应答角色录制的语音或根据应答角色的声音特征参数合成的语音,对所获取的语音信息进行应答。
在一些实施例中,确定单元,进一步被配置成:响应于识别出所获取的语音信息中包括预先为应答角色定义的名称,将识别出的名称对应的应答角色确定为与所获取的语音信息匹配的应答角色。
在一些实施例中,预先为应答角色定义的名称包括语音交互唤醒词。
在一些实施例中,确定单元,包括:获取子单元,被配置成获取用户的属性信息;第一确定子单元,被配置成根据用户的属性信息以及预先设置的属性信息与应答角色的对应关系,确定与所获取的语音信息匹配的应答角色。
在一些实施例中,获取子单元,进一步被配置成:对所获取的语音信息进行声纹识别,根据识别结果确定用户的属性信息。
在一些实施例中,获取子单元,进一步被配置成:根据所获取的语音信息确定用户的标识信息;在预先存储的用户信息集合中查询与用户标识对应的用户属性信息。
在一些实施例中,应答单元,包括:转换子单元,被配置成将所获取的语音信息转换为文字;第二确定子单元,被配置成根据所转换的文字以及针对应答角色预先设置的语音应答逻辑,确定应答文字;应答子单元,被配置成使用预先针对应答角色录制的包含应答文字的语音,或根据应答角色的声音特征参数与应答文字合成的语音,对所获取的语音信息进行应答。
在一些实施例中,确定单元,包括:第三确定子单元,被配置成根据所获取的语音信息确定用户的标识信息;查询子单元,被配置成在表征标识信息与应答角色的对应关系的应答角色设置记录中查询与确定出的标识信息对应的应答角色;第四确定子单元,被配置成将查询到的应答角色确定为与所获取的语音信息匹配的应答角色。
第三方面,本申请的一些实施例提供了一种设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行,使得上述一个或多个处理器实现如第一方面上述的方法。
第四方面,本申请的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面上述的方法。
本申请实施例提供的用于语音交互的方法和装置,通过获取用户输入的语音信息,而后基于所获取的语音信息确定与所获取的语音信息匹配的应答角色,最后使用预先针对应答角色录制的语音或根据应答角色的声音特征参数合成的语音,对所获取的语音信息进行应答,提供了一种基于语音信息确定应答角色的语音交互机制,丰富了语音交互方法。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一些可以应用于其中的示例性系统架构图;
图2是根据本申请的用于语音交互的方法的一个实施例的流程图;
图3是根据本申请的用于语音交互的方法的应用场景的一个示意图;
图4是根据本申请的用于语音交互的方法的又一个实施例的流程图;
图5是根据本申请的用于语音交互的装置的一个实施例的结构示意图;
图6是适于用来实现本申请的一些实施例的服务器或终端的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于语音交互的方法或用于语音交互的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种客户端应用,例如多媒体信息播放类应用、语音助手类应用、智能家居类应用、电子商务类应用、搜索类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能音响、智能带屏音箱、智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供图像采集服务或者活体检测服务),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上安装的应用提供支持的后台服务器,服务器105可以获取用户输入的语音信息;基于所获取的语音信息确定与所获取的语音信息匹配的应答角色;使用预先针对应答角色录制的语音或根据应答角色的声音特征参数合成的语音,对所获取的语音信息进行应答。
需要说明的是,本申请实施例所提供的用于语音交互的方法可以由服务器105执行,也可以由终端设备101、102、103执行,相应地,用于语音交互的装置可以设置于服务器105中,也可以设置于终端设备101、102、103中。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的用于语音交互的方法的一个实施例的流程200。该用于语音交互的方法,包括以下步骤:
步骤201,获取用户输入的语音信息。
在本实施例中,用于语音交互的方法执行主体(例如图1所示的服务器或终端)可以首先获取用户输入的语音信息。上述执行主体可以是任何提供智能语音交互服务的设备,智能语音交互是基于语音输入的新一代人机交互模式,人们通过说话就可以得到反馈信息。通常,人们可以利用能够实现智能语音交互的智能语音设备,通过向智能语音设备输入语音,而得到相应地反馈信息。一台智能语音设备(例如,智能音箱)可以为多个用户提供语音服务,上述执行主体可以通过麦克风等声音采集装置获取用户输入的语音信息。
步骤202,基于所获取的语音信息确定与所获取的语音信息匹配的应答角色。
在本实施例中,上述执行主体可以基于步骤201中获取的语音信息确定与所获取的语音信息匹配的应答角色。对于语音交互设备,由于需要用语音应答用户,所以就存在一个系统的说话人,即应答角色,应答角色可以是提供语音应答的虚拟角色。由于应答角色对于用户有较强的感知,用户会由此对系统产生一定的情感认知,并产生偏好或厌烦等情绪。所以应答角色对于语音交互设备的用户体验会产生很大影响。
上述执行主体中可以存储有预先设置的针对各个应答角色录制的语音以及各个应答角色的属性数据,属性数据可以包括“头像”、“姓名”、“出生日期”、“性别”、“性格描述”、“TTS(Text to Speech,文本到语音)音色”、“话术”等等。其中,TTS音色可以是设备进行语音应答的说话人音色,话术可以是设备进行语音应答的说话方式及说话风格。作为示例,应答角色可以包括应答角色1与应答角色2,应答角色1可以是女生音色、可爱性格、说话语速快,应答角色2可以是男生音色、沉稳性格、说话语速慢。
在本实施例中,与所获取的语音信息匹配的应答角色可以是用户主动选择的应答角色或上述执行主体自动推荐的应答角色。上述执行主体可以显示预先设置的应答角色的属性信息和/或播放针对应答角色预先录制或合成的语音以供用户选择,也可以根据用户的属性信息或随机为其推荐应答角色,而后将用户选择的应答角色或为用户推荐的应答角色作为与所获取的语音信息匹配的应答角色。此外,用户也可以自行输入应答角色的属性信息和/或输入应答角色的语音以修改或增加应答角色。
在本实施例的一些可选实现方式中,基于所获取的语音信息确定与所获取的语音信息匹配的应答角色,包括:根据所获取的语音信息确定用户的标识信息;在表征标识信息与应答角色的对应关系的应答角色设置记录中查询与确定出的标识信息对应的应答角色;将查询到的应答角色确定为与所获取的语音信息匹配的应答角色。
在本实施例的一些可选实现方式中,基于所获取的语音信息确定与所获取的语音信息匹配的应答角色,包括:响应于识别出所获取的语音信息中包括预先为应答角色定义的名称,将识别出的名称对应的应答角色确定为与所获取的语音信息匹配的应答角色。
本实现方式使得用户可以通过说出应答角色的名称的方式选择应答角色,进一步丰富了语音交互方法。在本实现方式中,上述执行主体可以将语音信息转为文字,判断文字中是否包括预先为应答角色定义的名称,也可以直接将语音信息与应答角色的名称的语音进行音频对比。应答角色的名称可以是系统默认的,也可以是用户自行设置的。
在本实施例的一些可选实现方式中,预先为应答角色定义的名称包括语音交互唤醒词。语音交互唤醒词是让处于休眠状态下的设备进入到等待指令状态的词语。
步骤203,使用预先针对应答角色录制的语音或根据应答角色的声音特征参数合成的语音,对所获取的语音信息进行应答。
在本实施例中,上述执行主体可以使用预先针对步骤202中确定的应答角色录制的语音或根据步骤202中确定的应答角色的声音特征参数合成的语音,对所获取的语音信息进行应答。预先针对应答角色录制的语音可以是选择与应答角色的属性信息匹配的人员,或配音员采取与应答角色的属性信息匹配的声音录制的语音。例如,应答角色是年龄为18岁的女孩,则可以请18岁的女孩进行录制。语音合成可以使用TTS技术,也可以通过预先训练的语音合成模型进行。声音特征参数可以包括:频谱,基频,时长、音高、音长、音强等,还可以包括针对应答角色预先训练的语音合成模型的参数。
上述语音合成模型可以包含多个由底至上依次连接的神经网络。每一个语音合成模型对应的神经网络中的神经网络对应语音合成模型对应的神经网络的一层。例如,语音合成模型对应的神经网络由底至上包含多个依次连接的DNN,每一个DNN对应一层,在最后一个DNN所在的层之上,包含多个RNN,每一个RNN对应一层。语音合成模型的训练样本中包含文本和文本对应的语音。
在本实施例的一些可选实现方式中,使用预先针对应答角色录制的语音或根据应答角色的声音特征参数合成的语音,对所获取的语音信息进行应答,包括:将所获取的语音信息转换为文字;根据所转换的文字以及针对应答角色预先设置的语音应答逻辑,确定应答文字;使用预先针对应答角色录制的包含应答文字的语音,或根据应答角色的声音特征参数与应答文字合成的语音,对所获取的语音信息进行应答。
本实现方式通过针对应答角色预先设置的语音应答逻辑确定应答文字,使得应答语音更具有针对性,在本实现方式中,上述执行主体可以对上述语音信息进行语音识别,得到上述语音信息对应的文本信息。而后,可以利用各种语义分析手段(例如,分词、词性标注、命名实体识别等)对上述文本信息进行分析,从而得到上述文本信息对应的语义,最后确定与语义匹配的应答文字。上述语音应答逻辑可以包括所获取的语音信息转换为的文本与应答文本的对应关系,例如,应答角色为性格俏皮的女孩,获取到的语音信息转换的文字为“请播放一首歌曲”,则应答文字可以是“我猜你想听这首歌曲”。应答角色为性格沉稳的中年人,获取到的语音信息转换的文字为“请播放一首歌曲”,则应答文字可以是“好的,请您听这首歌曲”。
本申请的上述实施例提供的方法通过获取用户输入的语音信息;基于所获取的语音信息确定与所获取的语音信息匹配的应答角色;使用预先针对应答角色录制的语音或根据应答角色的声音特征参数合成的语音,对所获取的语音信息进行应答,提供了一种基于语音信息确定应答角色的语音交互机制,丰富了语音交互方法。
继续参见图3,图3是根据本实施例的用于语音交互的方法的应用场景的一个示意图。在图3的应用场景中,服务器301获取到用户302通过智能带屏音箱输入的语音信息304,以及用户303通过智能带屏音箱输入的语音信息305,而后基于语音信息304确定与语音信息304匹配的应答角色306,基于语音信息305确定与语音信息305匹配的应答角色307,最后使用预先针对应答角色306录制的语音或根据应答角色306的声音特征参数合成的语音,对语音信息304进行应答,使用预先针对应答角色307录制的语音或根据应答角色307的声音特征参数合成的语音,对语音信息305进行应答。
进一步参考图4,其示出了用于语音交互的方法的又一个实施例的流程400。该用于语音交互的方法的流程400,包括以下步骤:
步骤401,获取用户输入的语音信息。
在本实施例中,用于语音交互的方法执行主体(例如图1所示的服务器或终端)可以首先获取用户输入的语音信息。
步骤402,获取用户的属性信息。
在本实施例中,上述执行主体可以获取步骤401中输入语音信息的用户的属性信息。属性信息可以包括年龄、性别、职业、兴趣爱好等,按照属性可以将用户分为:儿童用户、青年用户、中年用户和老年用户、男性用户、女性用户等。
在本实施例的一些可选实现方式中,获取用户的属性信息,包括:对所获取的语音信息进行声纹识别,根据识别结果确定用户的属性信息。声纹,是用电声学一起显示的携带语音信息的声波频谱。可以从声纹中提取出用户的声学特征。声纹识别,生物识别技术的一种。声纹识别可以通过声音提取说话人的声学特征,并根据声学特征判别说话人身份,确定说话人对应的年龄段等属性信息。
以属性信息为年龄为例,年龄段相同的人可以具有相对接近的生理特征,从而使得年龄段相同的人可以具有类似的声学特征。可以事先统计出每一年龄段的多个用户的具有共性的声学特征对应的特征参数区间。在上述声纹识别中可以包括从用户的语音信息中提取出用户的声学特征的特征值。然后将所提取的用户的声学特征的特征值与预先提取的各年龄段对应的声学特征的特征参数区间,进行比对。将包括用户的声学特征的特征值的特征参数区间所对应的年龄段,作为上述用户对应的年龄段。然后根据确定出的用户对应的年龄段来确定用户的用户类别。上述声学特征可以包括时长、基频、能量、共振峰频率、宽带、频率微扰、振幅微扰、过零率和梅尔频率倒谱参数中的至少一种。
在本实施例的一些可选实现方式中,获取用户的属性信息,包括:根据所获取的语音信息确定用户的标识信息;在预先存储的用户信息集合中查询与用户标识对应的用户属性信息。上述执行主体可以通过所获取的语音信息的声学特征确定用户的标识信息。若声学特征与历史获取的语音信息的声学特征匹配,则确定用户的标识信息为与该历史获取的语音信息匹配的标识信息,若声学特征不与历史获取的语音信息的声学特征匹配,则可以重新注册用户。
步骤403,根据用户的属性信息以及预先设置的属性信息与应答角色的对应关系,确定与所获取的语音信息匹配的应答角色。
在本实施例中,上述执行主体可以根据步骤402中获取的用户的属性信息以及预先设置的属性信息与应答角色的对应关系,确定与所获取的语音信息匹配的应答角色。作为示例,若属性信息指示用户为儿童用户,其对应的应答角色的声音特征参数可以设置成与儿童匹配的声音特征参数。根据与儿童用户匹配的声音特征参数,使用语音合成技术所合成的语音,可以听起来与真实的儿童声音相同或相近,从而增加应答语音对儿童用户的亲和力。类似地,若属性信息指示用户为老年用户,可以将对应的应答角色的声音特征参数设置成与经过统计得到的老年用户偏好的语音的声音特征参数。
步骤404,使用预先针对应答角色录制的语音或根据应答角色的声音特征参数合成的语音,对所获取的语音信息进行应答。
在本实施例中,上述执行主体可以使用预先针对步骤403中确定的应答角色录制的语音或根据步骤403中确定的应答角色的声音特征参数合成的语音,对所获取的语音信息进行应答。
在本实施例中,步骤401、步骤404的操作与步骤201、步骤203的操作基本相同,在此不再赘述。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于语音交互的方法的流程400中通过用户的属性信息确定与所获取的语音信息匹配的应答角色,由此,本实施例描述的方案无需用户手动设置,进一步提高了语音交互效率。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于语音交互的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于语音交互的装置500包括:获取单元501、确定单元502、应答单元503。其中,获取单元,被配置成获取用户输入的语音信息;确定单元,被配置成基于所获取的语音信息确定与所获取的语音信息匹配的应答角色;应答单元,被配置成使用预先针对应答角色录制的语音或根据应答角色的声音特征参数合成的语音,对所获取的语音信息进行应答。
在本实施例中,用于语音交互的装置500的获取单元501、确定单元502、应答单元503的具体处理可以参考图2对应实施例中的步骤201、步骤202和步骤203。
在一些实施例中,确定单元,进一步被配置成:响应于识别出所获取的语音信息中包括预先为应答角色定义的名称,将识别出的名称对应的应答角色确定为与所获取的语音信息匹配的应答角色。
在一些实施例中,预先为应答角色定义的名称包括语音交互唤醒词。
在一些实施例中,确定单元,包括:获取子单元,被配置成获取用户的属性信息;第一确定子单元,被配置成根据用户的属性信息以及预先设置的属性信息与应答角色的对应关系,确定与所获取的语音信息匹配的应答角色。
在一些实施例中,获取子单元,进一步被配置成:对所获取的语音信息进行声纹识别,根据识别结果确定用户的属性信息。
在一些实施例中,获取子单元,进一步被配置成:根据所获取的语音信息确定用户的标识信息;在预先存储的用户信息集合中查询与用户标识对应的用户属性信息。
在一些实施例中,应答单元,包括:转换子单元,被配置成将所获取的语音信息转换为文字;第二确定子单元,被配置成根据所转换的文字以及针对应答角色预先设置的语音应答逻辑,确定应答文字;应答子单元,被配置成使用预先针对应答角色录制的包含应答文字的语音,或根据应答角色的声音特征参数与应答文字合成的语音,对所获取的语音信息进行应答。
在一些实施例中,确定单元,包括:第三确定子单元,被配置成根据所获取的语音信息确定用户的标识信息;查询子单元,被配置成在表征标识信息与应答角色的对应关系的应答角色设置记录中查询与确定出的标识信息对应的应答角色;第四确定子单元,被配置成将查询到的应答角色确定为与所获取的语音信息匹配的应答角色。
本申请的上述实施例提供的装置,通过获取用户输入的语音信息;基于所获取的语音信息确定与所获取的语音信息匹配的应答角色;使用预先针对应答角色录制的语音或根据应答角色的声音特征参数合成的语音,对所获取的语音信息进行应答,提供了一种基于语音信息确定应答角色的语音交互机制,丰富了语音交互方法。
下面参考图6,其示出了适于用来实现本申请实施例的服务器或终端的计算机系统600的结构示意图。图6示出的服务器或终端仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件可以连接至I/O接口605:包括诸如键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读介质或者是上述两者的任意组合。计算机可读介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如C语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、确定单元和应答单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“被配置成获取用户输入的语音信息的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取用户输入的语音信息;基于所获取的语音信息确定与所获取的语音信息匹配的应答角色;使用预先针对应答角色录制的语音或根据应答角色的声音特征参数合成的语音,对所获取的语音信息进行应答。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (18)
1.一种用于语音交互的方法,包括:
获取用户输入的语音信息;
基于所获取的语音信息确定与所获取的语音信息匹配的应答角色;
使用预先针对所述应答角色录制的语音或根据所述应答角色的声音特征参数合成的语音,对所获取的语音信息进行应答。
2.根据权利要求1所述的方法,其中,所述基于所获取的语音信息确定与所获取的语音信息匹配的应答角色,包括:
响应于识别出所获取的语音信息中包括预先为应答角色定义的名称,将识别出的名称对应的应答角色确定为与所获取的语音信息匹配的应答角色。
3.根据权利要求2所述的方法,其中,所述预先为应答角色定义的名称包括语音交互唤醒词。
4.根据权利要求1所述的方法,其中,所述基于所获取的语音信息确定与所获取的语音信息匹配的应答角色,包括:
获取所述用户的属性信息;
根据所述用户的属性信息以及预先设置的属性信息与应答角色的对应关系,确定与所获取的语音信息匹配的应答角色。
5.根据权利要求4所述的方法,其中,所述获取所述用户的属性信息,包括:
对所获取的语音信息进行声纹识别,根据识别结果确定所述用户的属性信息。
6.根据权利要求4所述的方法,其中,所述获取所述用户的属性信息,包括:
根据所获取的语音信息确定所述用户的标识信息;
在预先存储的用户信息集合中查询与所述用户标识对应的用户属性信息。
7.根据权利要求1所述的方法,其中,所述使用预先针对所述应答角色录制的语音或根据所述应答角色的声音特征参数合成的语音,对所获取的语音信息进行应答,包括:
将所获取的语音信息转换为文字;
根据所转换的文字以及针对所述应答角色预先设置的语音应答逻辑,确定应答文字;
使用预先针对所述应答角色录制的包含所述应答文字的语音,或根据所述应答角色的声音特征参数与所述应答文字合成的语音,对所获取的语音信息进行应答。
8.根据权利要求1-7中任一项所述的方法,其中,所述基于所获取的语音信息确定与所获取的语音信息匹配的应答角色,包括:
根据所获取的语音信息确定所述用户的标识信息;
在表征标识信息与应答角色的对应关系的应答角色设置记录中查询与确定出的标识信息对应的应答角色;
将查询到的应答角色确定为与所获取的语音信息匹配的应答角色。
9.一种用于语音交互的装置,包括:
获取单元,被配置成获取用户输入的语音信息;
确定单元,被配置成基于所获取的语音信息确定与所获取的语音信息匹配的应答角色;
应答单元,被配置成使用预先针对所述应答角色录制的语音或根据所述应答角色的声音特征参数合成的语音,对所获取的语音信息进行应答。
10.根据权利要求9所述的装置,其中,所述确定单元,进一步被配置成:
响应于识别出所获取的语音信息中包括预先为应答角色定义的名称,将识别出的名称对应的应答角色确定为与所获取的语音信息匹配的应答角色。
11.根据权利要求10所述的装置,其中,所述预先为应答角色定义的名称包括语音交互唤醒词。
12.根据权利要求11所述的装置,其中,所述确定单元,包括:
获取子单元,被配置成获取所述用户的属性信息;
第一确定子单元,被配置成根据所述用户的属性信息以及预先设置的属性信息与应答角色的对应关系,确定与所获取的语音信息匹配的应答角色。
13.根据权利要求12所述的装置,其中,所述获取子单元,进一步被配置成:
对所获取的语音信息进行声纹识别,根据识别结果确定所述用户的属性信息。
14.根据权利要求12所述的装置,其中,所述获取子单元,进一步被配置成:
根据所获取的语音信息确定所述用户的标识信息;
在预先存储的用户信息集合中查询与所述用户标识对应的用户属性信息。
15.根据权利要求9所述的装置,其中,所述应答单元,包括:
转换子单元,被配置成将所获取的语音信息转换为文字;
第二确定子单元,被配置成根据所转换的文字以及针对所述应答角色预先设置的语音应答逻辑,确定应答文字;
应答子单元,被配置成使用预先针对所述应答角色录制的包含所述应答文字的语音,或根据所述应答角色的声音特征参数与所述应答文字合成的语音,对所获取的语音信息进行应答。
16.根据权利要求9-15中任一项所述的装置,其中,所述确定单元,包括:
第三确定子单元,被配置成根据所获取的语音信息确定所述用户的标识信息;
查询子单元,被配置成在表征标识信息与应答角色的对应关系的应答角色设置记录中查询与确定出的标识信息对应的应答角色;
第四确定子单元,被配置成将查询到的应答角色确定为与所获取的语音信息匹配的应答角色。
17.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-8中任一所述的方法。
18.一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如权利要求1-8中任一所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811209944.4A CN109272984A (zh) | 2018-10-17 | 2018-10-17 | 用于语音交互的方法和装置 |
US16/564,596 US20200126566A1 (en) | 2018-10-17 | 2019-09-09 | Method and apparatus for voice interaction |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811209944.4A CN109272984A (zh) | 2018-10-17 | 2018-10-17 | 用于语音交互的方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109272984A true CN109272984A (zh) | 2019-01-25 |
Family
ID=65193747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811209944.4A Pending CN109272984A (zh) | 2018-10-17 | 2018-10-17 | 用于语音交互的方法和装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20200126566A1 (zh) |
CN (1) | CN109272984A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110085225A (zh) * | 2019-04-24 | 2019-08-02 | 北京百度网讯科技有限公司 | 语音交互方法、装置、智能机器人及计算机可读存储介质 |
CN110265062A (zh) * | 2019-06-13 | 2019-09-20 | 上海指旺信息科技有限公司 | 基于情绪检测的智能贷后催收方法及装置 |
CN110534131A (zh) * | 2019-08-30 | 2019-12-03 | 广州华多网络科技有限公司 | 一种音频播放方法及系统 |
CN111031386A (zh) * | 2019-12-17 | 2020-04-17 | 腾讯科技(深圳)有限公司 | 基于语音合成的视频配音方法、装置、计算机设备及介质 |
CN111261196A (zh) * | 2020-01-17 | 2020-06-09 | 厦门快商通科技股份有限公司 | 一种年龄预估方法和装置以及设备 |
CN111475020A (zh) * | 2020-04-02 | 2020-07-31 | 深圳创维-Rgb电子有限公司 | 一种信息的交互方法、交互装置、电子设备及存储介质 |
CN111724789A (zh) * | 2019-03-19 | 2020-09-29 | 华为终端有限公司 | 语音交互的方法和终端设备 |
CN111862938A (zh) * | 2020-05-07 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 一种智能应答方法与终端、计算机可读存储介质 |
CN112185344A (zh) * | 2020-09-27 | 2021-01-05 | 北京捷通华声科技股份有限公司 | 语音交互方法、装置、计算机可读存储介质和处理器 |
CN112309379A (zh) * | 2019-07-26 | 2021-02-02 | 北京地平线机器人技术研发有限公司 | 实现语音交互的方法、装置、介质以及电子设备 |
CN112820265A (zh) * | 2020-09-14 | 2021-05-18 | 腾讯科技(深圳)有限公司 | 一种语音合成模型训练方法和相关装置 |
CN112908292A (zh) * | 2019-11-19 | 2021-06-04 | 北京字节跳动网络技术有限公司 | 文本的语音合成方法、装置、电子设备及存储介质 |
WO2021139737A1 (zh) * | 2020-01-08 | 2021-07-15 | 北京嘀嘀无限科技发展有限公司 | 一种人机交互的方法和系统 |
WO2023185004A1 (zh) * | 2022-03-29 | 2023-10-05 | 青岛海尔空调器有限总公司 | 一种音色切换方法及装置 |
CN117316143A (zh) * | 2023-11-30 | 2023-12-29 | 深圳市金大智能创新科技有限公司 | 一种基于虚拟人进行人机交互的方法 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210053020A (ko) | 2019-11-01 | 2021-05-11 | 삼성전자주식회사 | 전자 장치 및 그 동작 방법 |
CN111916065A (zh) * | 2020-08-05 | 2020-11-10 | 北京百度网讯科技有限公司 | 用于处理语音的方法和装置 |
CN115461810A (zh) * | 2021-04-09 | 2022-12-09 | 松下知识产权经营株式会社 | 对发话设备进行控制的方法、服务器、发话设备以及程序 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010000161A1 (zh) * | 2008-06-30 | 2010-01-07 | 腾讯科技(深圳)有限公司 | 一种基于即时通讯系统的语音通话方法及装置 |
CN105719648A (zh) * | 2016-04-22 | 2016-06-29 | 百度在线网络技术(北京)有限公司 | 个性化无人车交互方法及无人车 |
CN106328133A (zh) * | 2016-08-18 | 2017-01-11 | 张培 | 一种语音应答响应装置 |
CN106653016A (zh) * | 2016-10-28 | 2017-05-10 | 上海智臻智能网络科技股份有限公司 | 智能交互方法和装置 |
CN107340991A (zh) * | 2017-07-18 | 2017-11-10 | 百度在线网络技术(北京)有限公司 | 语音角色的切换方法、装置、设备以及存储介质 |
CN107564510A (zh) * | 2017-08-23 | 2018-01-09 | 百度在线网络技术(北京)有限公司 | 一种语音虚拟角色管理方法、装置、服务器和存储介质 |
CN107704530A (zh) * | 2017-09-19 | 2018-02-16 | 百度在线网络技术(北京)有限公司 | 语音设备交互方法、装置及设备 |
-
2018
- 2018-10-17 CN CN201811209944.4A patent/CN109272984A/zh active Pending
-
2019
- 2019-09-09 US US16/564,596 patent/US20200126566A1/en not_active Abandoned
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010000161A1 (zh) * | 2008-06-30 | 2010-01-07 | 腾讯科技(深圳)有限公司 | 一种基于即时通讯系统的语音通话方法及装置 |
CN105719648A (zh) * | 2016-04-22 | 2016-06-29 | 百度在线网络技术(北京)有限公司 | 个性化无人车交互方法及无人车 |
CN106328133A (zh) * | 2016-08-18 | 2017-01-11 | 张培 | 一种语音应答响应装置 |
CN106653016A (zh) * | 2016-10-28 | 2017-05-10 | 上海智臻智能网络科技股份有限公司 | 智能交互方法和装置 |
CN107340991A (zh) * | 2017-07-18 | 2017-11-10 | 百度在线网络技术(北京)有限公司 | 语音角色的切换方法、装置、设备以及存储介质 |
CN107564510A (zh) * | 2017-08-23 | 2018-01-09 | 百度在线网络技术(北京)有限公司 | 一种语音虚拟角色管理方法、装置、服务器和存储介质 |
CN107704530A (zh) * | 2017-09-19 | 2018-02-16 | 百度在线网络技术(北京)有限公司 | 语音设备交互方法、装置及设备 |
Non-Patent Citations (1)
Title |
---|
戴士剑等: "《电子证据调查指南》", 31 July 2014 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111724789A (zh) * | 2019-03-19 | 2020-09-29 | 华为终端有限公司 | 语音交互的方法和终端设备 |
CN110085225A (zh) * | 2019-04-24 | 2019-08-02 | 北京百度网讯科技有限公司 | 语音交互方法、装置、智能机器人及计算机可读存储介质 |
CN110085225B (zh) * | 2019-04-24 | 2024-01-02 | 北京百度网讯科技有限公司 | 语音交互方法、装置、智能机器人及计算机可读存储介质 |
CN110265062A (zh) * | 2019-06-13 | 2019-09-20 | 上海指旺信息科技有限公司 | 基于情绪检测的智能贷后催收方法及装置 |
CN112309379B (zh) * | 2019-07-26 | 2024-05-31 | 北京地平线机器人技术研发有限公司 | 实现语音交互的方法、装置、介质以及电子设备 |
CN112309379A (zh) * | 2019-07-26 | 2021-02-02 | 北京地平线机器人技术研发有限公司 | 实现语音交互的方法、装置、介质以及电子设备 |
CN110534131A (zh) * | 2019-08-30 | 2019-12-03 | 广州华多网络科技有限公司 | 一种音频播放方法及系统 |
CN112908292A (zh) * | 2019-11-19 | 2021-06-04 | 北京字节跳动网络技术有限公司 | 文本的语音合成方法、装置、电子设备及存储介质 |
CN111031386A (zh) * | 2019-12-17 | 2020-04-17 | 腾讯科技(深圳)有限公司 | 基于语音合成的视频配音方法、装置、计算机设备及介质 |
CN111031386B (zh) * | 2019-12-17 | 2021-07-30 | 腾讯科技(深圳)有限公司 | 基于语音合成的视频配音方法、装置、计算机设备及介质 |
WO2021139737A1 (zh) * | 2020-01-08 | 2021-07-15 | 北京嘀嘀无限科技发展有限公司 | 一种人机交互的方法和系统 |
CN111261196A (zh) * | 2020-01-17 | 2020-06-09 | 厦门快商通科技股份有限公司 | 一种年龄预估方法和装置以及设备 |
CN111475020A (zh) * | 2020-04-02 | 2020-07-31 | 深圳创维-Rgb电子有限公司 | 一种信息的交互方法、交互装置、电子设备及存储介质 |
CN111862938A (zh) * | 2020-05-07 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 一种智能应答方法与终端、计算机可读存储介质 |
CN112820265A (zh) * | 2020-09-14 | 2021-05-18 | 腾讯科技(深圳)有限公司 | 一种语音合成模型训练方法和相关装置 |
CN112820265B (zh) * | 2020-09-14 | 2023-12-08 | 腾讯科技(深圳)有限公司 | 一种语音合成模型训练方法和相关装置 |
CN112185344A (zh) * | 2020-09-27 | 2021-01-05 | 北京捷通华声科技股份有限公司 | 语音交互方法、装置、计算机可读存储介质和处理器 |
WO2023185004A1 (zh) * | 2022-03-29 | 2023-10-05 | 青岛海尔空调器有限总公司 | 一种音色切换方法及装置 |
CN117316143A (zh) * | 2023-11-30 | 2023-12-29 | 深圳市金大智能创新科技有限公司 | 一种基于虚拟人进行人机交互的方法 |
Also Published As
Publication number | Publication date |
---|---|
US20200126566A1 (en) | 2020-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109272984A (zh) | 用于语音交互的方法和装置 | |
CN108962219B (zh) | 用于处理文本的方法和装置 | |
JP6876752B2 (ja) | 応答方法及び装置 | |
Humphry et al. | Preparing for smart voice assistants: Cultural histories and media innovations | |
CN107657017A (zh) | 用于提供语音服务的方法和装置 | |
CN108737872A (zh) | 用于输出信息的方法和装置 | |
MacDonald et al. | The art of becoming: How group improvisation works | |
CN109346076A (zh) | 语音交互、语音处理方法、装置和系统 | |
Holmes | An exploration of musical communication through expressive use of timbre: The performer’s perspective | |
CN107430858A (zh) | 传送标识当前说话者的元数据 | |
CN109739605A (zh) | 生成信息的方法和装置 | |
CN107133303A (zh) | 用于输出信息的方法和装置 | |
CN104471512A (zh) | 内容定制化 | |
CN113010138B (zh) | 文章的语音播放方法、装置、设备及计算机可读存储介质 | |
CN110288682A (zh) | 用于控制三维虚拟人像口型变化的方法和装置 | |
CN108900612A (zh) | 用于推送信息的方法和装置 | |
CN109308901A (zh) | 歌唱者识别方法和装置 | |
CN108924218A (zh) | 用于推送信息的方法和装置 | |
CN109671435A (zh) | 用于唤醒智能设备的方法和装置 | |
CN109410918A (zh) | 用于获取信息的方法及装置 | |
CN109801527A (zh) | 用于输出信息的方法和装置 | |
CN108877803A (zh) | 用于呈现信息的方法和装置 | |
Pauletto et al. | Exploring expressivity and emotion with artificial voice and speech technologies | |
Wu | Musical development of young children of the Chinese diaspora in London | |
CN110232920A (zh) | 语音处理方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190125 |
|
RJ01 | Rejection of invention patent application after publication |