CN111292733A - 一种语音交互方法和装置 - Google Patents
一种语音交互方法和装置 Download PDFInfo
- Publication number
- CN111292733A CN111292733A CN201811488466.5A CN201811488466A CN111292733A CN 111292733 A CN111292733 A CN 111292733A CN 201811488466 A CN201811488466 A CN 201811488466A CN 111292733 A CN111292733 A CN 111292733A
- Authority
- CN
- China
- Prior art keywords
- user
- voiceprint
- voiceprint feature
- identity
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Abstract
本申请公开了一种语音交互方法和装置。方法包括:接收用户输入的语音指令;从所述语音指令中提取第一声纹特征,并根据所述第一声纹特征确定所述用户的身份信息;根据所述用户的身份信息,以及对所述语音指令的识别结果,向所述用户提供个性化服务。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种语音交互方法和装置。
背景技术
随着科技的发展,智能设备的智能化程度越来越高。实际应用中,智能设备可以根据用户的历史使用数据、习惯、偏好等,为用户提供个性化服务。但是,针对于远场语音交互的共享型智能设备,由于面向的用户可能为多个,如何为每个用户都可以提供个性化服务,是当前需要考虑的问题。
因此,需要一种更加有效的语音交互方法。
发明内容
本说明书实施例提供一种语音交互方法和设备,用于实现共享型智能设备为不同用户提供符合用户需求的个性化服务。
第一方面,本说明书实施例提供了一种语音交互方法,包括:
接收用户输入的语音指令;
从所述语音指令中提取第一声纹特征,并根据所述第一声纹特征确定所述用户的身份信息;
根据所述用户的身份信息,以及对所述语音指令的识别结果,向所述用户提供个性化服务。
第二方面,本说明书实施例还提供了一种语音交互装置,用于执行如第一方面所述的语音交互方法,所述装置包括:
接收模块,接收用户输入的语音指令;
确定模块,从所述语音指令中提取第一声纹特征,并根据所述第一声纹特征确定所述用户的身份信息;
服务模块,根据所述用户的身份信息,以及对所述语音指令的识别结果,向所述用户提供个性化服务。
第三方面,本说明书实施例还提供了一种电子设备,包括:
存储器,存放程序;
处理器,执行所述存储器存储的程序,并具体执行如第一方面所述的语音交互方法。
第四方面,本说明书实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被包括多个应用程序的电子设备执行时,使得所述电子设备执行如第一方面所述的语音交互方法。
本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:
接收用户输入的语音指令,从语音指令中提取第一声纹特征,并根据第一声纹特征确定用户的身份信息,进而根据用户的身份信息,以及对语音指令的识别结果,向用户提供个性化服务,从而实现共享型智能设备为不同用户提供符合用户需求的个性化服务。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本说明书实施例提供的一种语音交互方法的流程示意图;
图2为为本说明书实施例提供的UP模块的示意图;
图3为本说明书实施例提供的一种电子设备的结构示意图;
图4为本说明书实施例提供的一种语音交互装置的结构示意图。
具体实施方式
下面结合本说明书具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书实施例提供的一种语音交互方法的流程示意图。所述方法可以如下所示。
步骤102,接收用户输入的语音指令。
步骤104,从语音指令中提取第一声纹特征,并根据第一声纹特征确定用户的身份信息。
步骤106,根据用户的身份信息,以及对语音指令的识别结果,向用户提供个性化服务。
针对于远场语音交互的共享型智能设备,麦克风模块接收到用户输入的语音指令之后,将语音指令传输至用户画像(UP,User Profile)模块,其中,UP模块部署在共享型智能设备中,或者部署在共享型智能设备对应的私有云服务器上。
声纹(VP,Voice Print)是生物特征的一种,用于描述携带言语信息的声波频谱。鉴于每个人的声纹特征的相对稳定性和强区分性,可以将声纹特征作为识别一个人的重要特征。
UP模块从语音指令中提取第一声纹特征,并根据第一声纹特征来确定用户的身份信息,进而可以实现根据用户的身份信息,为不同用户提供符合用户需求的个性化服务。
本说明书实施例中,根据第一声纹特征确定用户的身份信息,包括:
确定第一声纹特征数据库,第一声纹特征数据库中包括多个用户身份标识,以及与多个用户身份标识中任一用户身份标识对应的第二声纹特征;
将第一声纹特征与多个用户身份标识中任一用户身份标识对应的第二声纹特征进行匹配;
根据匹配结果,确定用户对应的目标用户身份标识,目标用户身份标识用于表示用户的身份信息;
第一声纹特征与第二声纹特征为相同或不同的声纹特征。
其中,通过以下方式确定得到第一声纹特征数据库:
获取历史语音指令集合,历史语音指令集合中包括多个历史语音指令;
提取多个历史语音指令中任一历史语音指令对应的第三声纹特征;
根据多个历史语音指令中任一历史语音指令对应的第三声纹特征,对多个历史语音指令进行声纹聚类,得到多个用户身份标识,以及与多个用户身份标识中任一用户身份标识对应的历史语音指令;
根据多个用户身份标识中任一用户身份标识对应的历史语音指令,确定该用户身份标识对应的第二声纹特征;
第二声纹特征和第三声纹特征为相同或不同的声纹特征。
其中,声纹特征包括下述至少一种:
语言、音色、音调、语速、口音,和频谱。
为了可以根据用户的声纹特征来确定用户的身份,UP模块首先根据共享型智能设备中的历史语音指令集合,通过声纹聚类的方式,构建包括多个用户身份标识,以及任一用户身份标识对应的第二声纹特征的第一声纹特征数据库(也可以称为,声纹池)。
图2为本说明书实施例提供的UP模块的示意图。
如图2所示,UP模块200至少包括:声纹提取单元201、声纹聚类模型202、第一声纹特征数据库203、UP数据单元204、自动语言识别(ASR,Automatic Speech Recognition)单元205、获得标识单元206、新增标识单元207。
UP模块200构建第一声纹特征数据库203的过程:
首先,UP模块200获取同一共享型智能设备中的历史语音指令集合,历史语音指令集合中包括该共享型智能设备上所有的历史语音指令;
其次,UP模块200中的声纹提取单元201,从历史语音指令集合中的多个历史语音指令中,提取任一历史语音指令对应的第三声纹特征,第三声纹特征包含但不限于:语言、音色、音调、语速、口音、频谱,等。
然后,UP模块200中的声纹聚类模型202,根据任一历史语音指令对应的第三声纹特征进行声纹聚类,将声纹特征相似度很高的历史语音指令归为一类,确定为来自同一个用户的历史语音指令,并为每一类历史语音指令打上一个用户标签,即用户身份标识。
例如,设备abc-用户1的历史语音指令,设备abc-用户2的历史语音指令,等。
最后,UP模块200中的声纹提取单元201,根据一个用户身份标识对应的历史语音指令,确定该用户身份标识对应的第二声纹特征。进而将任一用户身份标识,以及该用户身份标识对应的第二声纹特征存储在第一声纹特征数据库203中。
例如,设备abc-用户1对应的第二声纹特征(语言、音色、音调、语速、口音、频谱,等),设备abc-用户2对应的第二声纹特征(语言、音色、音调、语速、口音、频谱,等),等。
在一实施例中,对于很久没有使用共享型智能设备的用户,为了节约空间,UP模块200会在预设时长后删除该用户的数据,例如,该用户对应的历史语音指令,该用户对应的用户身份标识,以及该用户身份标识对应的第二声纹特征,等。
在另一实施例中,随着时间的变化,一个人年龄的增长或生理发育的影响,都可能会导致声音的变化。因此,UP模块200中的声纹聚类模型202会定期更新第一声纹数据库203中存储的用户身份标识对应的第二声纹特征。
本说明书实施例中,还包括:
根据用户身份标识对应的第二声纹特征,确定用户身份标识对应的第一用户画像;
用户身份标识对应的第一用户画像,用于反映与用户身份标识对应的用户的年龄和/或性别。
具体地,根据用户身份标识对应的第二声纹特征,确定用户身份标识对应的第一用户画像,包括:
确定第二声纹特征数据库,第二声纹特征数据库中包括不同用户画像对应的第四声纹特征;
将用户身份标识对应的第二声纹特征,与不同用户画像对应的第四声纹特征进行匹配;
根据匹配结果,确定用户身份标识对应的第一用户画像;
其中,第二声纹特征与第四声纹特征为相同或不同的声纹特征。
第二声纹特征数据库,也即共享型智能设备对应的公有云服务器中的公共声纹特征数据库,其中包括不同用户画像对应的第四声纹特征,例如,不同性别的用户对应的第四声纹特征、不同年龄的用户对应的第四声纹特征,等。
仍以上述图2为例,针对UP模块200中第一声纹特征数据库203中存储的多个用户身份标识以及任一用户身份标识对应的第二声纹特征,UP模块200中的声纹聚类模型202,将任一用户身份标识对应的第二声纹特征与第二声纹特征数据库中不同用户画像对应的第四声纹特征进行对比,从而判断该用户身份标识对应的第一用户画像(性别和/或年龄),并将任一用户身份标识对应的第一用户画像存储在UP模块200中的UP数据单元204中。
例如,UP数据单元204中存储有,设备abc-用户1:女性、年轻;设备abc-用户2:男性、老年。
本说明书实施例中,还包括:
根据用户身份标识对应的历史语音指令,确定用户身份标识对应的第二用户画像;
用户身份标识对应的第二用户画像,用于反映与用户身份标识对应的用户的个性化需求。
具体地,根据用户身份标识对应的历史语音指令,确定用户身份标识对应的第二用户画像,包括:
将用户身份标识对应的历史语音指令转换为文本指令;
根据预设规则对文本指令进行分析;
根据分析结果,确定用户身份标识对应的第二用户画像。
仍以上述图2为例,为了更好地为不同用户提供符合用户需求的个性化服务,UP模块200确定与用户的个性化需求相关的第二用户画像。
具体地,首先,UP模块200中的ASR单元205,将同一用户身份标识对应的历史语音指令转换为文本指令。例如,设备abc-用户1对应的文本指令为:20180618播放周杰伦的青花瓷、20180619播放毛不易,等;设备abc-用户2对应的文本指令为:20180618播放邓丽君、20180619播放陈百强,等。
然后,UP模块200中的UP数据单元204,根据预设规则,或特定的模型,对任一用户身份标识对应的文本指令进行分析,确定该用户身份标识对应,用于反映与该用户身份标识对应的用户的个性化需求的第二用户画像,以及将任一用户身份标识对应的第二用户画像补充存储在UP数据单元204中。
例如,UP数据单元204中存储有,设备abc-用户1:女性、年轻、喜欢流行歌曲、特别喜欢周杰伦和毛不易;设备abc-用户2:男性、老年、喜欢老歌、特别喜欢邓丽君和陈百强;等。
随着时间的变化,不同用户的喜好可能会发生变化,因此,UP模块会根据每个用户身份标识对应的历史语音指令,定期更新用户身份标识对应的第二用户画像。
仍以上述图2为例,当共享型智能设备中的麦克风模块接收到当前用户输入的语音指令之后,麦克风模块将该语音指令传输至UP模块200,UP模块200中的声纹提取单元201从该语音指令中提取第一声纹特征,UP模块中的获得标识单元206,将第一声纹特征与UP模块200中第一声纹特征数据库203中存储的,多个用户身份标识中任一用户身份标识对应的第二声纹特征,进行匹配,以及根据匹配结果,确定当前用户对应的目标用户身份标识,进而为当前用户提供个性化服务。
根据匹配结果确定用户对应的目标用户身份标识,进而为当前用户提供个性化服务的具体过程包括下述至少两种方式。
第一种:
本说明书实施例中,根据匹配结果,确定用户对应的目标用户身份标识,包括:
当第一声纹特征与多个用户身份标识中的一个用户身份标识对应的第二声纹特征之间的匹配度大于预设阈值时,将用户身份标识确定为目标用户身份标识。
仍以上述图2为例,UP模块200中的获得标识单元206,将声纹提取单元201从当前用户的语音指令中提取的第一声纹特征,与第一声纹特征数据库203中存储的任一用户身份标识对应的第二声纹特征进行匹配,若第一声纹特征与设备abc-用户1对应的第二声纹特征之间的匹配度大于预设阈值,因此,获得标识单元206可以确定当前用户的目标用户身份标识为设备abc-用户1。
针对于单条语音指令,采用上述根据声纹特征来确定用户身份的方式,使得召回率可以达到80%,准确率可以达到85%。其中,若可以排除音量过小、有噪音等干扰情况,召回率还会有所提高。
需要说明的是,若用户注册了声纹,则根据声纹特征确定用户身份信息的准确率将大大提高。
本说明书实施例中,根据用户的身份信息,以及对语音指令的识别结果,向用户提供个性化服务,包括:
确定目标用户身份标识对应的第一用户画像和/或第二用户画像;
根据目标用户身份标识对应的第一用户画像和第二用户画像,以及对语音指令的识别结果,向用户提供个性化服务。
仍以上述图2为例,获得标识单元206确定当前用户的目标用户身份标识之后,UP模块200从UP数据单元204中,确定与目标用户身份标识对应的第一用户画像和/或第二用户画像。根据与目标用户身份标识对应的第一用户画像和/或第二用户画像,可以了解到当前用户的年龄、性别、个性化需求,等。
若UP模块200为部署在共享型智能设备中的模块,则UP模块200将当前用户的语音指令、第一声纹特征、第一用户画像和/或第二用户画像等信息传输至共享型智能设备对应的公有云服务器中的用户画像决策(UPD,User Profile Decision)模块,使得UPD模块根据上述相关信息,为当前用户提供个性化服务。
需要说明的是,UPD模块为当前用户提供个性化服务的过程中,当前用户的隐私信息不会泄露到公有云服务器中,可以保证用户使用共享型智能设备的隐私安全性。
针对于单条语音指令,采用上述根据确定当前用户的用户画像的方式,在当前用户对应的历史语音指令数据充足的情况下(例如,一个月内有超过10条的历史语音指令),召回率可以达到85%,准确率可以达到90%。
本说明书实施例中,图1所示的语音交互方法应用于智能音箱,向用户提供个性化服务包括下述至少一种:
音乐推荐和聊天。
当共享型智能设备为智能音箱时,智能音箱可以为用户提供音乐推荐、聊天等个性化服务。
当多个用户共用一个智能音箱时,每个人有自己的个性化需求和点播记录。例如,老人爱听邓丽君,年轻人爱听周杰伦,儿童爱听儿歌,等。因此,部署在智能音箱中的UP模块或部署在智能音箱对应的私有云服务器上的UP模块,确定使用智能音箱的每个用户对应的第二声纹特征、第一用户画像(年龄、性别)、第二用户画像(个人爱好),等。
在一实施例中,当接收到当前用户的语音指令“我想听歌”时,UP模块可以根据从当前用户的语音指令中提取的第一声纹特征,确定当前用户的身份信息,从而确定当前用户的第二用户画像(个人爱好)。使得UPD模块可以根据可以当前用户的第二用户画像(个人爱好),为当前用户播放符合用户个性化需求的歌曲。
例如,为喜欢周杰伦的用户播放周杰伦的歌曲,为喜欢邓丽君的用户播放邓丽君的歌曲,等。
在另一实施例中,当接收到当前用户的语音指令“我想听歌”时,UP模块可以根据从当前用户的语音指令中提取的第一声纹特征,确定当前用户的身份信息,从而确定当前用户的第一用户画像(年龄)、第二用户画像(个人爱好)。使得UPD模块可以根据可以当前用户的第一用户画像(年龄)和第二用户画像(个人爱好),为当前用户播放符合用户个性化需求的歌曲,以及主动问候当前用户。
例如,当前用户为儿童时,UPD模块为当前用户播放儿歌,并可以在播放儿歌之前主动问候当前用户“宝贝,下面给你播放儿歌呦”。
在另一实施例中,当接收到当前用户的语音指令“今天心情不好”时,UP模块可以根据从当前用户的语音指令中提取的第一声纹特征,确定当前用户的身份信息,从而确定当前用户的第一用户画像(年龄、性别)、第二用户画像(个人爱好)。使得UPD模块可以根据可以当前用户的第一用户画像(年龄、性别)和第二用户画像(个人爱好),确定与当前用户聊一些符合用户个性化需求的话题。
例如,与老人聊养生话题,与年轻人聊世界杯话题,与儿童聊幼儿园话题,等。
针对同一智能音箱,可以根据声纹识别出当前用户,从而实现智能音箱为不同用户提供符合用户需求的个性化服务。
第二种:
本说明书实施例中,还包括:
当第一声纹特征与多个用户身份标识中任一用户身份标识对应的第二声纹特征之间的匹配度均不大于预设阈值时,在第一声纹特征数据库中增加一个新的用户身份标识。
仍以上述图2为例,UP模块200中的获得标识单元206,将声纹提取单元201从当前用户的语音指令中提取的第一声纹特征,与第一声纹特征数据库203中存储的任一用户身份标识对应的第二声纹特征进行匹配,若第一声纹特征与第一声纹特征数据库203中存储的任一用户身份标识对应的第二声纹特征之间的匹配度均不大于预设阈值,则获得标识单元206可以确定当前用户为新用户。此时,新增标识单元207生成一个新的用户身份标识,进而将该新的用户身份标识确定为当前用户的目标用户身份标识。
由于UP模块200中的UP数据单元204中,未存储有与该新的用户身份标识对应的第一用户画像和第二用户画像,因此,共享型智能设备无法为当前用户提供精准的个性化服务。但是,共享型智能设备可以根据历史服务数据,为当前用户提供粗略的个性化服务。
例如,针对智能音箱,若当前用户为新用户,且根据智能音箱中的历史播放数据可知,使用该智能音箱的用户经常点播周杰伦和毛不易的歌曲时,则智能音箱为新用户播放周杰伦或毛不易的歌曲,而不会播放该智能音箱从来没有播放过的摇滚歌曲,等。从而实现为当前新用户提供粗略的个性化服务。
仍以上述图2为例,针对于新增标识单元207生成的新的用户身份标识,作为临时用户身份标识添加到声纹聚类模型202中。
若之后预设时间段内未接收到与该临时用户身份标识对应的用户发送的语音指令,则UP模块200可以确定该与该临时用户身份标识对应的用户仅为临时出现的使用用户,可以将其对应的相关数据删除;
若之后预设时间段内接收到与该临时用户身份标识对应的用户发送的语音指令超过预设数量,则UP模块200可以确定共享型智能设备新增加了一个稳定的使用用户(例如,家庭中增加了保姆、配偶、子女等新成员),则将该临时用户身份标识升级为一个稳定的用户身份标识,并将该用户身份标识添加到第一声纹特征数据库203中,以及在UP数据单元204中确定与其对应的第一用户画像和/或第二用户画像,等。
本说明书实施例记载的技术方案,接收用户输入的语音指令,从语音指令中提取第一声纹特征,并根据第一声纹特征确定用户的身份信息,进而根据用户的身份信息,以及对语音指令的识别结果,向用户提供个性化服务,从而实现共享型智能设备为不同用户提供符合用户需求的个性化服务。
图3为本说明书实施例提供的一种电子设备的结构示意图。如图3所示,在硬件层面,该电子设备包括处理器,可选地还包括内部总线、网络接口、存储器。其中,存储器可能包含内存,例如高速随机存取存储器(Random-Access Memory,RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少1个磁盘存储器等。当然,该电子设备还可能包括其他业务所需要的硬件。
处理器、网络接口和存储器可以通过内部总线相互连接,该内部总线可以是ISA(Industry Standard Architecture,工业标准体系结构)总线、PCI(PeripheralComponent Interconnect,外设部件互连标准)总线或EISA(Extended Industry StandardArchitecture,扩展工业标准结构)总线等。所述总线可以分为地址总线、数据总线、控制总线等。为便于表示,图3中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
存储器,存放程序。具体地,程序可以包括程序代码,所述程序代码包括计算机操作指令。存储器可以包括内存和非易失性存储器,并向处理器提供指令和数据。
处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,在逻辑层面上形成语音交互装置。处理器,执行存储器所存放的程序,并具体执行图1所示的方法实施例的步骤。
上述如图1所述的方法可以应用于处理器中,或者由处理器实现。处理器可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本说明书实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本说明书实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
该电子设备可执行图1所示方法实施例执行的方法,并实现上述图1所示方法实施例的功能,本说明书实施例在此不再赘述。
本说明书实施例还提出了一种计算机可读存储介质,该计算机可读存储介质存储一个或多个程序,该一个或多个程序包括指令,该指令当被包括多个应用程序的电子设备执行时,能够使该电子设备执行图1所示实施例中的语音交互方法,并具体执行图1所示方法实施例的步骤。
图4为本说明书实施例提供的一种语音交互装置的结构示意图。图4所示的装置400可以用于执行上述图1-图2所示实施例的方法,装置400包括:
接收模块401,接收用户输入的语音指令;
确定模块402,从语音指令中提取第一声纹特征,并根据第一声纹特征确定用户的身份信息;
服务模块403,根据用户的身份信息,以及对语音指令的识别结果,向用户提供个性化服务。
可选地,确定模块402,进一步包括:
第一确定单元,确定第一声纹特征数据库,第一声纹特征数据库中包括多个用户身份标识,以及与多个用户身份标识中任一用户身份标识对应的第二声纹特征;
匹配单元,将第一声纹特征与多个用户身份标识中任一用户身份标识对应的第二声纹特征进行匹配;
第二确定单元,根据匹配结果,确定用户对应的目标用户身份标识,目标用户身份标识用于表示用户的身份信息;
其中,第一声纹特征与第二声纹特征为相同或不同的声纹特征。
可选地,通过以下方式确定得到第一声纹特征数据库:
获取历史语音指令集合,历史语音指令集合中包括多个历史语音指令;
提取多个历史语音指令中任一历史语音指令对应的第三声纹特征;
根据多个历史语音指令中任一历史语音指令对应的第三声纹特征,对多个历史语音指令进行声纹聚类,得到多个用户身份标识,以及与多个用户身份标识中任一用户身份标识对应的历史语音指令;
根据多个用户身份标识中任一用户身份标识对应的历史语音指令,确定用户身份标识对应的第二声纹特征;
其中,第二声纹特征和第三声纹特征为相同或不同的声纹特征。
可选地,第二确定单元,具体用于:
当第一声纹特征与多个用户身份标识中的一个用户身份标识对应的第二声纹特征之间的匹配度大于预设阈值时,将该用户身份标识确定为目标用户身份标识。
可选地,第二确定单元,具体用于:
当第一声纹特征与多个用户身份标识中任一用户身份标识对应的第二声纹特征之间的匹配度均不大于预设阈值时,在第一声纹特征数据库中增加一个新的用户身份标识。
可选地,确定模块402,还用于:
根据用户身份标识对应的第二声纹特征,确定用户身份标识对应的第一用户画像;
用户身份标识对应的第一用户画像,用于反映与用户身份标识对应的用户的年龄和/或性别。
可选地,确定模块402,具体用于:
确定第二声纹特征数据库,第二声纹特征数据库中包括不同用户画像对应的第四声纹特征;
将用户身份标识对应的第二声纹特征,与不同用户画像对应的第四声纹特征进行匹配;
根据匹配结果,确定用户身份标识对应的第一用户画像;
其中,第二声纹特征与第四声纹特征为相同或不同的声纹特征。
可选地,确定模块402,还用于:
根据用户身份标识对应的历史语音指令,确定用户身份标识对应的第二用户画像;
用户身份标识对应的第二用户画像,用于反映与用户身份标识对应的用户的个性化需求。
可选地,确定模块402,具体用于:
将用户身份标识对应的历史语音指令转换为文本指令;
根据预设规则对文本指令进行分析;
根据分析结果,确定用户身份标识对应的第二用户画像。
可选地,服务模块403,具体用于:
确定目标用户身份标识对应的第一用户画像和第二用户画像;
根据目标用户身份标识对应的第一用户画像和第二用户画像,以及对语音指令的识别结果,向用户提供个性化服务。
可选地,装置400为智能音箱,向用户提供个性化服务包括下述至少一种:
音乐推荐和聊天。
可选地,声纹特征包括下述至少一种:
语言、音色、音调、语速、口音,和频谱。
根据语音交互装置,接收模块接收用户输入的语音指令;确定模块从语音指令中提取第一声纹特征,并根据第一声纹特征确定用户的身份信息;服务模块根据用户的身份信息,以及对语音指令的识别结果,向用户提供个性化服务,从而实现共享型智能设备为不同用户提供符合用户需求的个性化服务。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (15)
1.一种语音交互方法,包括:
接收用户输入的语音指令;
从所述语音指令中提取第一声纹特征,并根据所述第一声纹特征确定所述用户的身份信息;
根据所述用户的身份信息,以及对所述语音指令的识别结果,向所述用户提供个性化服务。
2.如权利要求1所述的方法,根据所述第一声纹特征确定所述用户的身份信息,包括:
确定第一声纹特征数据库,所述第一声纹特征数据库中包括多个用户身份标识,以及与所述多个用户身份标识中任一用户身份标识对应的第二声纹特征;
将所述第一声纹特征与所述多个用户身份标识中任一用户身份标识对应的所述第二声纹特征进行匹配;
根据匹配结果,确定所述用户对应的目标用户身份标识,所述目标用户身份标识用于表示所述用户的身份信息;
其中,所述第一声纹特征与所述第二声纹特征为相同或不同的声纹特征。
3.如权利要求2所述的方法,通过以下方式确定得到所述第一声纹特征数据库:
获取历史语音指令集合,所述历史语音指令集合中包括多个历史语音指令;
提取所述多个历史语音指令中任一历史语音指令对应的第三声纹特征;
根据所述多个历史语音指令中任一历史语音指令对应的所述第三声纹特征,对所述多个历史语音指令进行声纹聚类,得到所述多个用户身份标识,以及与所述多个用户身份标识中任一用户身份标识对应的历史语音指令;
根据所述多个用户身份标识中任一用户身份标识对应的历史语音指令,确定所述用户身份标识对应的所述第二声纹特征;
其中,所述第二声纹特征和所述第三声纹特征为相同或不同的声纹特征。
4.如权利要求3所述的方法,根据匹配结果,确定所述用户对应的目标用户身份标识,包括:
当所述第一声纹特征与所述多个用户身份标识中的一个用户身份标识对应的所述第二声纹特征之间的匹配度大于预设阈值时,将所述用户身份标识确定为所述目标用户身份标识。
5.如权利要求4所述的方法,还包括:
当所述第一声纹特征与所述多个用户身份标识中任一用户身份标识对应的所述第二声纹特征之间的匹配度均不大于所述预设阈值时,在所述第一声纹特征数据库中增加一个新的用户身份标识。
6.如权利要求3所述的方法,还包括:
根据所述用户身份标识对应的所述第二声纹特征,确定所述用户身份标识对应的第一用户画像;
所述用户身份标识对应的第一用户画像,用于反映与所述用户身份标识对应的用户的年龄和/或性别。
7.如权利要求6所述的方法,根据所述用户身份标识对应的所述第二声纹特征,确定所述用户身份标识对应的第一用户画像,包括:
确定第二声纹特征数据库,所述第二声纹特征数据库中包括不同用户画像对应的第四声纹特征;
将所述用户身份标识对应的所述第二声纹特征,与所述不同用户画像对应的所述第四声纹特征进行匹配;
根据匹配结果,确定所述用户身份标识对应的第一用户画像;
其中,所述第二声纹特征与所述第四声纹特征为相同或不同的声纹特征。
8.如权利要求7所述的方法,还包括:
根据所述用户身份标识对应的历史语音指令,确定所述用户身份标识对应的第二用户画像;
所述用户身份标识对应的第二用户画像,用于反映与所述用户身份标识对应的用户的个性化需求。
9.如权利要求8所述的方法,根据所述用户身份标识对应的历史语音指令,确定所述用户身份标识对应的第二用户画像,包括:
将所述用户身份标识对应的历史语音指令转换为文本指令;
根据预设规则对所述文本指令进行分析;
根据分析结果,确定所述用户身份标识对应的第二用户画像。
10.如权利要求9所述的方法,根据所述用户的身份信息,以及对所述语音指令的识别结果,向所述用户提供个性化服务,包括:
确定所述目标用户身份标识对应的第一用户画像和第二用户画像;
根据所述目标用户身份标识对应的第一用户画像和第二用户画像,以及对所述语音指令的识别结果,向所述用户提供个性化服务。
11.如权利要求10所述的方法,其特征在于,所述方法应用于智能音箱,向所述用户提供个性化服务包括下述至少一种:
音乐推荐和聊天。
12.如权利要求2、3、7任一项所述的方法,其特征在于,所述声纹特征包括下述至少一种:
语言、音色、音调、语速、口音,和频谱。
13.一种语音交互装置,用于执行如权利要求1-12任一项所述的语音交互方法,所述装置包括:
接收模块,接收用户输入的语音指令;
确定模块,从所述语音指令中提取第一声纹特征,并根据所述第一声纹特征确定所述用户的身份信息;
服务模块,根据所述用户的身份信息,以及对所述语音指令的识别结果,向所述用户提供个性化服务。
14.一种电子设备,包括:
存储器,存放程序;
处理器,执行所述存储器存储的程序,并具体执行如权利要求1-12任一项所述的语音交互方法。
15.一种计算机可读存储介质,所述计算机可读存储介质存储一个或多个程序,所述一个或多个程序当被包括多个应用程序的电子设备执行时,使得所述电子设备执行如权利要求1-12任一项所述的语音交互方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811488466.5A CN111292733A (zh) | 2018-12-06 | 2018-12-06 | 一种语音交互方法和装置 |
TW108130243A TW202022851A (zh) | 2018-12-06 | 2019-08-23 | 語音互動方法和裝置 |
PCT/CN2019/122640 WO2020114384A1 (zh) | 2018-12-06 | 2019-12-03 | 一种语音交互方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811488466.5A CN111292733A (zh) | 2018-12-06 | 2018-12-06 | 一种语音交互方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111292733A true CN111292733A (zh) | 2020-06-16 |
Family
ID=70975228
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811488466.5A Pending CN111292733A (zh) | 2018-12-06 | 2018-12-06 | 一种语音交互方法和装置 |
Country Status (3)
Country | Link |
---|---|
CN (1) | CN111292733A (zh) |
TW (1) | TW202022851A (zh) |
WO (1) | WO2020114384A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112185362A (zh) * | 2020-09-24 | 2021-01-05 | 苏州思必驰信息科技有限公司 | 针对用户个性化服务的语音处理方法及装置 |
CN112181348A (zh) * | 2020-08-28 | 2021-01-05 | 星络智能科技有限公司 | 声音风格切换方法、系统、计算机设备及可读存储介质 |
CN112233670A (zh) * | 2020-08-28 | 2021-01-15 | 福州智象信息技术有限公司 | 一种基于alexa云服务的语音交互方法及系统 |
CN112333546A (zh) * | 2020-07-31 | 2021-02-05 | 深圳Tcl新技术有限公司 | 数据的推送方法、系统及计算机可读存储介质 |
CN114630171A (zh) * | 2020-12-11 | 2022-06-14 | 海信视像科技股份有限公司 | 显示设备以及配置切换方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI746149B (zh) * | 2020-09-04 | 2021-11-11 | 宏碁股份有限公司 | 智能音箱、智能音箱運作系統與點陣圖案的定時顯示方法 |
Citations (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103258535A (zh) * | 2013-05-30 | 2013-08-21 | 中国人民财产保险股份有限公司 | 基于声纹识别的身份识别方法及系统 |
CN104765996A (zh) * | 2014-01-06 | 2015-07-08 | 讯飞智元信息科技有限公司 | 声纹密码认证方法及系统 |
CN105117195A (zh) * | 2015-09-09 | 2015-12-02 | 百度在线网络技术(北京)有限公司 | 语音输入的引导方法和装置 |
CN105575391A (zh) * | 2014-10-10 | 2016-05-11 | 阿里巴巴集团控股有限公司 | 声纹信息管理方法、装置以及身份认证方法、系统 |
CN105656756A (zh) * | 2015-12-28 | 2016-06-08 | 百度在线网络技术(北京)有限公司 | 好友推荐方法和装置 |
CN105810200A (zh) * | 2016-02-04 | 2016-07-27 | 深圳前海勇艺达机器人有限公司 | 基于声纹识别的人机对话装置及其方法 |
CN105895077A (zh) * | 2015-11-15 | 2016-08-24 | 乐视移动智能信息技术(北京)有限公司 | 录音标记方法及录音装置 |
CN106446045A (zh) * | 2016-08-31 | 2017-02-22 | 上海交通大学 | 基于对话交互的用户画像的构建方法及系统 |
CN106448670A (zh) * | 2016-10-21 | 2017-02-22 | 竹间智能科技(上海)有限公司 | 基于深度学习和强化学习的自动回复对话系统 |
CN106506524A (zh) * | 2016-11-30 | 2017-03-15 | 百度在线网络技术(北京)有限公司 | 用于验证用户的方法和装置 |
CN106708983A (zh) * | 2016-12-09 | 2017-05-24 | 竹间智能科技(上海)有限公司 | 基于对话交互信息构建用户画像的系统及方法 |
CN106709754A (zh) * | 2016-11-25 | 2017-05-24 | 云南电网有限责任公司昆明供电局 | 一种用基于文本挖掘的电力用户分群方法 |
CN107147618A (zh) * | 2017-04-10 | 2017-09-08 | 北京猎户星空科技有限公司 | 一种用户注册方法、装置及电子设备 |
CN107481720A (zh) * | 2017-06-30 | 2017-12-15 | 百度在线网络技术(北京)有限公司 | 一种显式声纹识别方法及装置 |
CN108062375A (zh) * | 2017-12-12 | 2018-05-22 | 百度在线网络技术(北京)有限公司 | 一种用户画像的处理方法、装置、终端和存储介质 |
US20180144742A1 (en) * | 2016-11-18 | 2018-05-24 | Baidu Online Network Technology (Beijing) Co., Ltd | Method and apparatus for processing voice data |
CN108075892A (zh) * | 2016-11-09 | 2018-05-25 | 阿里巴巴集团控股有限公司 | 一种语音处理的方法、装置和设备 |
CN108305615A (zh) * | 2017-10-23 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 一种对象识别方法及其设备、存储介质、终端 |
CN108550050A (zh) * | 2018-03-27 | 2018-09-18 | 昆山和君纵达数据科技有限公司 | 一种基于呼叫中心数据的用户画像方法 |
CN108897734A (zh) * | 2018-06-13 | 2018-11-27 | 康键信息技术(深圳)有限公司 | 用户画像生成方法、装置、计算机设备和存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9313307B2 (en) * | 2005-09-01 | 2016-04-12 | Xtone Networks, Inc. | System and method for verifying the identity of a user by voiceprint analysis |
CN103730120A (zh) * | 2013-12-27 | 2014-04-16 | 深圳市亚略特生物识别科技有限公司 | 电子设备的语音控制方法及系统 |
CN105979376A (zh) * | 2015-12-02 | 2016-09-28 | 乐视致新电子科技(天津)有限公司 | 一种推荐方法和装置 |
CN105609103A (zh) * | 2015-12-18 | 2016-05-25 | 合肥寰景信息技术有限公司 | 一种语音即时识别系统 |
US10044710B2 (en) * | 2016-02-22 | 2018-08-07 | Bpip Limited Liability Company | Device and method for validating a user using an intelligent voice print |
-
2018
- 2018-12-06 CN CN201811488466.5A patent/CN111292733A/zh active Pending
-
2019
- 2019-08-23 TW TW108130243A patent/TW202022851A/zh unknown
- 2019-12-03 WO PCT/CN2019/122640 patent/WO2020114384A1/zh active Application Filing
Patent Citations (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103258535A (zh) * | 2013-05-30 | 2013-08-21 | 中国人民财产保险股份有限公司 | 基于声纹识别的身份识别方法及系统 |
CN104765996A (zh) * | 2014-01-06 | 2015-07-08 | 讯飞智元信息科技有限公司 | 声纹密码认证方法及系统 |
CN105575391A (zh) * | 2014-10-10 | 2016-05-11 | 阿里巴巴集团控股有限公司 | 声纹信息管理方法、装置以及身份认证方法、系统 |
CN105117195A (zh) * | 2015-09-09 | 2015-12-02 | 百度在线网络技术(北京)有限公司 | 语音输入的引导方法和装置 |
WO2017080239A1 (zh) * | 2015-11-15 | 2017-05-18 | 乐视控股(北京)有限公司 | 录音标记方法及录音装置 |
CN105895077A (zh) * | 2015-11-15 | 2016-08-24 | 乐视移动智能信息技术(北京)有限公司 | 录音标记方法及录音装置 |
CN105656756A (zh) * | 2015-12-28 | 2016-06-08 | 百度在线网络技术(北京)有限公司 | 好友推荐方法和装置 |
CN105810200A (zh) * | 2016-02-04 | 2016-07-27 | 深圳前海勇艺达机器人有限公司 | 基于声纹识别的人机对话装置及其方法 |
CN106446045A (zh) * | 2016-08-31 | 2017-02-22 | 上海交通大学 | 基于对话交互的用户画像的构建方法及系统 |
CN106448670A (zh) * | 2016-10-21 | 2017-02-22 | 竹间智能科技(上海)有限公司 | 基于深度学习和强化学习的自动回复对话系统 |
CN108075892A (zh) * | 2016-11-09 | 2018-05-25 | 阿里巴巴集团控股有限公司 | 一种语音处理的方法、装置和设备 |
US20180144742A1 (en) * | 2016-11-18 | 2018-05-24 | Baidu Online Network Technology (Beijing) Co., Ltd | Method and apparatus for processing voice data |
CN106709754A (zh) * | 2016-11-25 | 2017-05-24 | 云南电网有限责任公司昆明供电局 | 一种用基于文本挖掘的电力用户分群方法 |
CN106506524A (zh) * | 2016-11-30 | 2017-03-15 | 百度在线网络技术(北京)有限公司 | 用于验证用户的方法和装置 |
CN106708983A (zh) * | 2016-12-09 | 2017-05-24 | 竹间智能科技(上海)有限公司 | 基于对话交互信息构建用户画像的系统及方法 |
CN107147618A (zh) * | 2017-04-10 | 2017-09-08 | 北京猎户星空科技有限公司 | 一种用户注册方法、装置及电子设备 |
CN107481720A (zh) * | 2017-06-30 | 2017-12-15 | 百度在线网络技术(北京)有限公司 | 一种显式声纹识别方法及装置 |
CN108305615A (zh) * | 2017-10-23 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 一种对象识别方法及其设备、存储介质、终端 |
CN108062375A (zh) * | 2017-12-12 | 2018-05-22 | 百度在线网络技术(北京)有限公司 | 一种用户画像的处理方法、装置、终端和存储介质 |
CN108550050A (zh) * | 2018-03-27 | 2018-09-18 | 昆山和君纵达数据科技有限公司 | 一种基于呼叫中心数据的用户画像方法 |
CN108897734A (zh) * | 2018-06-13 | 2018-11-27 | 康键信息技术(深圳)有限公司 | 用户画像生成方法、装置、计算机设备和存储介质 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112333546A (zh) * | 2020-07-31 | 2021-02-05 | 深圳Tcl新技术有限公司 | 数据的推送方法、系统及计算机可读存储介质 |
CN112181348A (zh) * | 2020-08-28 | 2021-01-05 | 星络智能科技有限公司 | 声音风格切换方法、系统、计算机设备及可读存储介质 |
CN112233670A (zh) * | 2020-08-28 | 2021-01-15 | 福州智象信息技术有限公司 | 一种基于alexa云服务的语音交互方法及系统 |
CN112185362A (zh) * | 2020-09-24 | 2021-01-05 | 苏州思必驰信息科技有限公司 | 针对用户个性化服务的语音处理方法及装置 |
CN114630171A (zh) * | 2020-12-11 | 2022-06-14 | 海信视像科技股份有限公司 | 显示设备以及配置切换方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020114384A1 (zh) | 2020-06-11 |
TW202022851A (zh) | 2020-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111292733A (zh) | 一种语音交互方法和装置 | |
USRE49762E1 (en) | Method and device for performing voice recognition using grammar model | |
JP6883661B2 (ja) | モデル訓練方法、装置及びデバイス並びにデータ類似性決定方法、装置及びデバイス | |
US10819811B2 (en) | Accumulation of real-time crowd sourced data for inferring metadata about entities | |
KR102222317B1 (ko) | 음성 인식 방법, 전자 디바이스, 및 컴퓨터 저장 매체 | |
CN106653016B (zh) | 智能交互方法和装置 | |
US10395647B2 (en) | System and method for natural language processing | |
US10838746B2 (en) | Identifying parameter values and determining features for boosting rankings of relevant distributable digital assistant operations | |
US11074916B2 (en) | Information processing system, and information processing method | |
US11586689B2 (en) | Electronic apparatus and controlling method thereof | |
JP2021516361A (ja) | 音声ウェイクアップ方法及び装置 | |
US20180122369A1 (en) | Information processing system, information processing apparatus, and information processing method | |
CN111292734B (zh) | 一种语音交互方法和装置 | |
JP2019120935A (ja) | 人工知能機器で複数のウェイクワードを利用したサービス提供方法およびそのシステム | |
KR20210060897A (ko) | 음성 처리 방법 및 장치 | |
CN115952272A (zh) | 一种生成对话信息的方法、装置、设备及可读存储介质 | |
CN110265005B (zh) | 输出内容控制装置、输出内容控制方法以及存储介质 | |
WO2022143349A1 (zh) | 一种确定用户意图的方法及装置 | |
TW202025135A (zh) | 用於個性化語音合成的方法和裝置 | |
CN111161706A (zh) | 交互方法、装置、设备和系统 | |
US11893996B1 (en) | Supplemental content output | |
CN115759070A (zh) | 一种意图识别的方法、装置、存储介质及电子设备 | |
CN117540706A (zh) | 一种动作插入方法、装置、存储介质及电子设备 | |
CN111862947A (zh) | 用于控制智能设备的方法、装置、电子设备和计算机存储介质 | |
CN113642305A (zh) | 一种文本生成方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |