CN116994565A - 一种智能语音助手及其语音控制方法 - Google Patents
一种智能语音助手及其语音控制方法 Download PDFInfo
- Publication number
- CN116994565A CN116994565A CN202311248896.0A CN202311248896A CN116994565A CN 116994565 A CN116994565 A CN 116994565A CN 202311248896 A CN202311248896 A CN 202311248896A CN 116994565 A CN116994565 A CN 116994565A
- Authority
- CN
- China
- Prior art keywords
- word
- text content
- voice
- words
- control instruction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 239000011159 matrix material Substances 0.000 claims description 12
- 239000013589 supplement Substances 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 8
- 238000013136 deep learning model Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 230000004048 modification Effects 0.000 claims description 6
- 238000012986 modification Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000001419 dependent effect Effects 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000003607 modifier Substances 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- Animal Behavior & Ethology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
Abstract
本发明提出了一种智能语音助手及其语音控制方法,通过接收用户输入的语音内容,将所述语音内容输入语音识别引擎转换为文字内容,从所述文字内容中提取特征词,判断所述特征词与预设的通用控制指令列表中的通用控制指令是否匹配,当所述特征词与所述通用控制指令列表中的任一通用控制指令相匹配时,执行相应的通用控制指令,当所述通用控制指令列表中不存在与所述特征词相匹配的通用控制指令时,从所述特征词中提取个性特征词,从用户的个性化知识图谱中识别与所述个性特征词相关联的个性化元素,基于所述文字内容和所述个性化元素生成对应所述语音内容的控制指令,能够以更加智能的方式回应用户的语音控制指令。
Description
技术领域
本发明涉及人工智能技术领域,特别涉及一种智能语音助手及其语音控制方法。
背景技术
随着人工智能技术的飞速发展,智能语音助手从传统的按照设定程序对语音控制指令进行机械性回应,发展为逐渐能尝理解语音控制指令本身的含义,根据语音控制指令的语义来执行相应的控制操作。为了保障智能语音助手功能实现的稳定性,现有的智能语音助手都是基于云端实现的,所有的语音控制指令都经由云端的语音识别引擎进行识别后使用相同的自然语言处理模型进行语义识别和语音指令转换,这种处理方式的好处在于语音指令转换结果具有较强的可预见性,避免了预期外的语音控制结果给用户带来的不良体验,但其不足之处也相当明显,即其个性化空间较小,传统的给用户打标签的方式所能提供的个性化信息太少,不足以在智能语音助手的语音控制方面提供足够的个性化定制空间,使得智能语音助手在“智能”方面难以满足用户的要求。
发明内容
本发明正是基于上述问题,提出了一种智能语音助手及其语音控制方法,能够以更加智能的方式回应用户的语音控制指令。
有鉴于此,本发明的第一方面提出了一种智能语音助手,包括用于录制语音信息的麦克风、用于播放语音信息的扬声器、用于与云服务器和/或智能家居设备通信的通信单元以及控制单元,所述控制单元与所述麦克风、所述扬声器以及所述通信单元连接,所述控制单元被配置为:
接收用户输入的语音内容;
将所述语音内容输入语音识别引擎转换为文字内容;
从所述文字内容中提取特征词,所述特征词为所述文字内容中的体现用户的语音控制意图的一个关键词或多个关键词的组合;
判断所述文字内容的特征词与预设的通用控制指令列表中的通用控制指令是否匹配;
当所述文字内容的特征词与所述通用控制指令列表中的任一通用控制指令相匹配时,执行相应的通用控制指令;
当所述通用控制指令列表中不存在与所述文字内容的特征词相匹配的通用控制指令时,从所述文字内容的特征词中提取个性特征词;
从用户的个性化知识图谱中识别与所述个性特征词相关联的个性化元素;
基于所述文字内容和所述个性化元素生成对应所述语音内容的控制指令。
本发明的第二方面提出了一种语音控制方法,包括:
接收用户输入的语音内容;
将所述语音内容输入语音识别引擎转换为文字内容;
从所述文字内容中提取特征词,所述特征词为所述文字内容中的体现用户的语音控制意图的一个关键词或多个关键词的组合;
判断所述文字内容的特征词与预设的通用控制指令列表中的通用控制指令是否匹配;
当所述文字内容的特征词与所述通用控制指令列表中的任一通用控制指令相匹配时,执行相应的通用控制指令;
当所述通用控制指令列表中不存在与所述文字内容的特征词相匹配的通用控制指令时,从所述文字内容的特征词中提取个性特征词;
从用户的个性化知识图谱中识别与所述个性特征词相关联的个性化元素;
基于所述文字内容和所述个性化元素生成对应所述语音内容的控制指令。
进一步的,在上述的语音控制方法中,从所述文字内容中提取特征词的步骤具体包括:
对所述文字内容进行分词、词性标注和词性过滤处理以生成第一词语列表,将所述第一词语列表/>中的每个词语表示为/>,其中/>,/>为所述第一词语列表中的词语数量;
对所述文字内容进行分析以从所述第一词语列表中识别各种类型的关键词,所述关键词的类型包括所述文字内容中各个语句的主干词、中心词以及命名实体,将所述关键词的类型数量表示为/>;
根据所述关键词识别结果生成维数为的关键词矩阵/>,所述关键词矩阵中的每一个元素/>的值表示所述第一词语列表/>中的第/>个词语/>被识别为第/>种类型的关键词的识别结果;
获取预先配置的每种类型的关键词对应的特征权重系数,其中/>;
根据所述关键词矩阵和所述特征权重系数/>计算所述第一词语列表/>中每个词语/>的综合权重:
;
根据所述综合权重在所述第一词语列表/>中确定所述特征词。
进一步的,在上述的语音控制方法中,对所述文字内容进行分析以从所述第一词语列表中识别各种类型的关键词的步骤包括:
提取所述文字内容中每句话的主语、谓语和宾语;
基于所述文字内容中每句话的词语之间的依存关系生成每句话的以所述谓语为根节点的句法结构树,所述依存关系为单边修饰关系;
当所述根节点为动词时,将所述谓语确定为对应句子的主干词;
当所述根节点不是动词时,沿所述根节点顺序向下遍历所述句法结构树;
将在遍历过程中遇到的第一个动词确定为对应句子的主干词。
进一步的,在上述的语音控制方法中,在基于所述文字内容中每句话的词语之间的依存关系生成每句话的以所述谓语为根节点的句法结构树的步骤之后,还包括:
统计所述文字内容中每个词语在所述句法结构树中作为支配词的次数和作为从属词的次数;
将每个词语作为支配词的次数和作为从属词的次数之和确定为所述词语在相应句子中的中心度;
将所述文字内容每个句子中的中心度最大的名词确定为相应句子的中心词。
进一步的,在上述的语音控制方法中,所述综合权重的阈值为动态阈值,在根据所述综合权重在所述第一词语列表/>中确定所述特征词的步骤之前还包括配置所述动态阈值使得所述特征词中包含至少一个名词以及至少一个与所述名词具有依存关系的动词;
判断所述文字内容的特征词与预设的通用控制指令列表中的通用控制指令是否匹配的步骤具体包括:
判断所述通用控制指令列表中是否存在任一个通用控制指令同时包含所述动词和所述名词。
进一步的,在上述的语音控制方法中,从所述文字内容的特征词中提取个性特征词的步骤具体包括:
在所述通用控制指令列表中确定一个包含所述文字内容的最多特征词的目标通用控制指令;
基于所述目标通用控制指令和所述文字内容的特征词生成通用特征词列表和个性特征词列表;
将所述个性特征词列表中的特征词确定为所述个性特征词。
进一步的,在上述的语音控制方法中,还包括:
当智能语音助手进入聊天模式时,对当前用户的个性化知识图谱的基础元素进行完整性检查;
当所述个性化知识图谱的基础元素的完整性检查结果为信息缺失时,获取需要补充的基础元素的关键词;
基于所述需要补充的基础元素的关键词在聊天模式下引导用户补充缺失的基础元素。
进一步的,在上述的语音控制方法中,基于所述需要补充的基础元素的关键词在聊天模式下引导用户补充缺失的基础元素的步骤具体包括:
接收用户输入的聊天语音内容;
将所述语音内容输入语音识别引擎转换为聊天文字内容;
提取所述聊天文字内容的主题词;
计算所述主题词与需要补充的基础元素的关键词的相关性;
将与所述主题词的相关性大于预设的第一相关性阈值的需要补充的基础元素的关键词确定为第一目标关键词;
将所述第一目标关键词和所述聊天文字内容输入预先训练好的深度学习模型中生成对应的回复内容。
进一步的,在上述的语音控制方法中,在计算所述主题词与需要补充的基础元素的关键词的相关性的步骤之后,还包括:
将与所述主题词的相关性大于预设的第二相关性阈值的需要补充的基础元素的关键词确定为第二目标关键词,所述第二相关性阈值大于所述第一相关性阈值;
判断所述聊天文字内容中是否存在与所述第二目标关键词对应的用户信息;
当所述聊天文字内容中存在与所述第二目标关键词对应的用户信息时,生成所棕第二目标关键词对应的三元组保存到所述个性化知识图谱。
本发明提出了一种智能语音助手及其语音控制方法,通过接收用户输入的语音内容,将所述语音内容输入语音识别引擎转换为文字内容,从所述文字内容中提取特征词,判断所述特征词与预设的通用控制指令列表中的通用控制指令是否匹配,当所述特征词与所述通用控制指令列表中的任一通用控制指令相匹配时,执行相应的通用控制指令,当所述通用控制指令列表中不存在与所述特征词相匹配的通用控制指令时,从所述特征词中提取个性特征词,从用户的个性化知识图谱中识别与所述个性特征词相关联的个性化元素,基于所述文字内容和所述个性化元素生成对应所述语音内容的控制指令,能够以更加智能的方式回应用户的语音控制指令。
附图说明
图1是本发明一个实施例提供的一种智能语音助手的示意图;
图2是本发明一个实施例提供的一种语音控制方法的流程图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
在本发明的描述中,术语“多个”则指两个或两个以上,除非另有明确的限定,术语“上”、“下”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。术语“连接”、“安装”、“固定”等均应做广义理解,例如,“连接”可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是直接相连,也可以通过中间媒介间接相连。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。此外,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”等的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
在本说明书的描述中,术语“一个实施例”、“一些实施方式”、“具体实施例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或实例。而且,描述的具体特征、结构、材料或特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
下面参照附图来描述根据本发明一些实施方式提供的一种智能语音助手及其语音控制方法。
如图1所示,本发明的第一方面提出了一种智能语音助手,包括用于录制语音信息的麦克风、用于播放语音信息的扬声器、用于与云服务器和/或智能家居设备通信的通信单元以及控制单元,所述控制单元与所述麦克风、所述扬声器以及所述通信单元连接。具体的,所述智能语音助手可以为智能音箱、一体式终端等,也可以集成到如智能电视、智能手机、平板电脑或者个人计算机等智能设备中的任意一种。
如图2所示,所述控制单元被配置为:
接收用户输入的语音内容;
将所述语音内容输入语音识别引擎转换为文字内容;
从所述文字内容中提取特征词,所述特征词为所述文字内容中的体现用户的语音控制意图的一个关键词或多个关键词的组合;
判断所述文字内容的特征词与预设的通用控制指令列表中的通用控制指令是否匹配;
当所述文字内容的特征词与所述通用控制指令列表中的任一通用控制指令相匹配时,执行相应的通用控制指令;
当所述通用控制指令列表中不存在与所述文字内容的特征词相匹配的通用控制指令时,从所述文字内容的特征词中提取个性特征词;
从用户的个性化知识图谱中识别与所述个性特征词相关联的个性化元素;
基于所述文字内容和所述个性化元素生成对应所述语音内容的控制指令。
具体的,所述智能语音助手通过激活指令激活后进入录音状态,具体可以通过实体按键、虚拟按键或者语音指令等方式来触发所述激活指令,例如,所述智能语音助手持续以低功耗模式监听周边的声音信息,当检测到符合预设条件的语音时,则触发所述激活指令。通常用户激活所述智能语音助手时,接下来会在所述能语音助手处于录音状态时输入语音控制指令以使所述智能语音助手执行相应的语音控制功能。用于对所述智能语音助手进行语音控制的语音内容一般不会太长,通常是简短的一句话或者少量几句话的组合。
智能语音助手的语音控制功能主要有以下几种类型:1、媒体播放:获取互联网或者本地的多媒体数据如音乐、视频、图片或者文本等进行播放;2、智能控制:对智能家电如空调、电视、灯光、窗帘等进行控制;3、信息查询:通过互联网上的特定服务提供商获取如天气查询、知识问答、词句翻译等的信息查询结果;4、即时通信:与互联网上的远程客户端进行语音或视频通信,包括运行在其它智能语音助手上的客户端或者运行在其它智能设备如智能手机或者个人计算机上的客户端;5、智能提醒:设定符合特定条件包括时间条件、天气条件等的提醒任务,例如闹钟或者恶劣天气提醒等;6、智能交互:即以聊天模式与用户进行持续性的对话交互。
在上述实施方式的技术方案中,所述语音识别引擎可以是部署在本地或者云端的用于将语音识别为文字的语音识别引擎。优选的,将所述语音识别引擎部署在云端以利用云端强大的计算能力和更大的存储空间处理复杂的语音识别任务,并且可以不断更新和优化语音识别模型,提高语音识别的准确性和可靠性。
在本发明的技术方案中,所述通用控制指令列表预置在本地或者云端,在每次接收到用户输入的语音内容时执行匹配。所述通用控制指令是指不需要用户的个性化信息的语音控制指令,例如设置闹钟,用户仅需在语音内容中包含设置闹钟的关键字以及时间信息即可,不涉及用户自身的任何信息。又例如查询天气,直接按语音内容中所包含的地理位置进行天气信息查询,当语音内容中不包含地理位置时,默认以设备所在位置为查询天气的目标位置,也不涉及用户自身的任何信息。
进一步的,在上述的智能语音助手中,在从所述文字内容中提取特征词的步骤中,所述控制单元被配置为:
对所述文字内容进行分词、词性标注和词性过滤处理以生成第一词语列表,将所述第一词语列表/>中的每个词语表示为/>,其中/>,/>为所述第一词语列表中的词语数量;
对所述文字内容进行分析以从所述第一词语列表中识别各种类型的关键词,所述关键词的类型包括所述文字内容中各个语句的主干词、中心词以及命名实体,将所述关键词的类型数量表示为/>;
根据所述关键词识别结果生成维数为的关键词矩阵/>,所述关键词矩阵中的每一个元素/>的值表示所述第一词语列表/>中的第/>个词语/>被识别为第/>种类型的关键词的识别结果;
获取预先配置的每种类型的关键词对应的特征权重系数,其中/>;
根据所述关键词矩阵和所述特征权重系数/>计算所述第一词语列表/>中每个词语/>的综合权重:
;
根据所述综合权重在所述第一词语列表/>中确定所述特征词。
在上述实施方式的技术方案中,对所述文字内容进行分词后,对所述文字内容分词后的每个词语进行词性标注,具体为标出语句中每个词的词性,如名词、动词、形容词等,随后对所述文字内容的每个词语执行词性过滤,剔 除如连词、介词、语气助词等,仅保留名词、动词、形容词等重要词性的词语。
所述主干词指的是所述文字内容中每个句子的谓语动词,其代表的是每个句子的主要动作或状态。所述中心词指的是所述文字内容中每个句子的主题和内容重点。所述命名实体指的是所述文字内容中的人名、机构名、地名以及其他所有以名称为标识的实体。应当知道的是,所述第一词语列表中的每一个词语可以同时被识别为多种不同类型的关键词,例如一个词语可以即是中心词,也是命名实体。除了所述主干词、中心词以及所述命名实体外,所述关键词的类型还可以包括高频词或者通过如TextRank等基于图模型的关键提取算法评估得出的重要关键词。在不同应用环境下,配置的关键词类型及其数量的不同,相应的需要对其特征权重系数进行调整,以使得最终计算得到的综合权重更为合理。
所述关键词矩阵的每个元素的取值为0或者1,即如果所述关键词矩阵/>述中的元素/>的值为1时,则表示所述第一词语列表/>中的第/>个词语/>被识别为第/>种类型的关键词。反之,如果所述关键词矩阵/>述中的元素/>的值为0时,则表示所述第一词语列表/>中的第/>个词语/>不是第/>种类型的关键词。
所述关键词类型的选择方案以及所述特征权重系数的配置方案不同,根据所述综合权重在所述第一词语列表/>中确定所述特征词的步骤也相应的会有所不同。具体的,在本发明的一些实施方式中,可以将所述第一词语列表中的综合权重/>不为零的词语确定为所述特征词。在本发明另一些实施方式的技术方案中,可以预先配置一个综合权重阈值,将所述第一词语列表中的综合权重/>大于所述综合权重阈值的词语确定为所述特征词,优选的,将所述综合权重阈值配置为动态阈值,使得所述特征词中包含至少一个名词以及至少一个动词。
进一步的,在上述的智能语音助手中,在对所述文字内容进行分析以从所述第一词语列表中识别各种类型的关键词的步骤中,所述控制单元被配置为:
提取所述文字内容中每句话的主语、谓语和宾语;
基于所述文字内容中每句话的词语之间的依存关系生成每句话的以所述谓语为根节点的句法结构树,所述依存关系为单边修饰关系;
当所述根节点为动词时,将所述谓语确定为对应句子的主干词;
当所述根节点不是动词时,沿所述根节点顺序向下遍历所述句法结构树;
将在遍历过程中遇到的第一个动词确定为对应句子的主干词。
具体的,依存语法理论认为词与词之间存在主从关系,这是一种二元不等价的关系。在句子中,如果一个词修饰另一个词,则称修饰词为从属词,被修饰的词语称为支配词,两者之间的语法关系称为依存关系。在每一个句子中存在一个主干词,当所述文字内容中包含多个句子时,则可以从所述文字内容中识别得到对应数量的主干词。
进一步的,在上述的智能语音助手中,在基于所述文字内容中每句话的词语之间的依存关系生成每句话的以所述谓语为根节点的句法结构树的步骤之后,所述控制单元被配置为:
统计所述文字内容中每个词语在所述句法结构树中作为支配词的次数和作为从属词的次数;
将每个词语作为支配词的次数和作为从属词的次数之和确定为所述词语在相应句子中的中心度;
将所述文字内容每个句子中的中心度最大的名词确定为相应句子的中心词。
由于词与词之前的依存关系为单边修饰关系,因此在所述句法结构树中,词与词之间的依存关系可以使用单边箭头来进行连接,即将单边箭头从从属词指向支配词。每个词语在一个句子中的中心度即为其在所述句法结构树中的连线数量,所述连线数量为从该词语中引出的单边箭头和指向该词语的单边箭头的数量之和。
进一步的,在上述的智能语音助手中,所述综合权重阈值为动态阈值,在根据所述综合权重在所述第一词语列表/>中确定所述特征词的步骤之前,所述控制单元被配置为配置所述动态阈值使得所述特征词中包含至少一个名词以及至少一个与所述名词具有依存关系的动词;
在判断所述文字内容的特征词与预设的通用控制指令列表中的通用控制指令是否匹配的步骤中,所述控制单元被配置为:
判断所述通用控制指令列表中是否存在任一个通用控制指令同时包含所述动词和所述名词。
优选的,当所述特征词中存在一个或多个关键词不包含在所述通用控制指令列表中的任一个通用控制指令中时,确定所述通用控制指令列表中不存在与所述文字内容的特征词相匹配的通用控制指令。在该实施方式的技术方案中,当所述文字内容中的特征词多于任一通用控制指令时,即使有一个或多个通用控制指令包含了所述文字内容的部分特征词,或者说所述文字内容的部分特征词涵盖了某个通用控制指令的所有关键词时,仍然认为所述文字内容的特征词与该通用控制指令不匹配。
优选的,在从所述文字内容中提取特征词的步骤之前,所述控制单元被配置为:
计算所述文字内容中包含完整含义的句子的数量;
当时,跳过判断所述文字内容的特征词与预设的通用控制指令列表中的通用控制指令是否匹配的步骤;
直接执行从用户的个性化知识图谱中识别与所述特征词相关联的个性化元素的步骤。
进一步的,在上述的智能语音助手中,在从所述文字内容的特征词中提取个性特征词的步骤中,所述控制单元被配置为:
在所述通用控制指令列表中确定一个包含所述文字内容的最多特征词的目标通用控制指令;
基于所述目标通用控制指令和所述文字内容的特征词生成通用特征词列表和个性特征词列表;
将所述个性特征词列表中的特征词确定为所述个性特征词。
具体的,所述通用特征词列表中的特征词为所述文字内容的特征词中被所述目标通用控制指令所包含的特征词,所述个性特征词列表中的特征词为所述文字内容的特征词中除所述通用特征词列表的特征词以外的其它特征词。
从用户的个性化知识图谱中识别与所述特征词相关联的个性化元素的步骤具体包括:
在所述个性化知识图谱中查询包含所述个性特征词的三元组;
将查询到的三元组确定为与所述特征词相关联的个性化元素。
进一步的,在上述的智能语音助手中,所述控制单元被配置为:
当智能语音助手进入聊天模式时,对当前用户的个性化知识图谱的基础元素进行完整性检查;
当所述个性化知识图谱的基础元素的完整性检查结果为信息缺失时,获取需要补充的基础元素的关键词;
基于所述需要补充的基础元素的关键词在聊天模式下引导用户补充缺失的基础元素。
具体的,所述个性化知识图谱的基础元素为所述个性化知识图谱中包含用户基础个性化信息的三元组,用户的基础个性化信息包括但不限于用户的性别、年龄、住址、家庭成员、职业、技能、兴趣爱好以及工作单位等。优选的,为了保障用户个人隐私信息的安全,所述个性化知识图谱的数据库保存在运行所述智能语音助手的智能设备的本地存储空间中。在本发明的一些实施方式中,在云端预置了个性化知识图谱的基础元素的关键词列表,在所述智能语音助手进入聊天模式时,从云端将所述个性化知识图谱的基础元素的关键词列表加载到本地以对所述个性化知识图谱的基础元素进行完整性检查。
进一步的,在上述的智能语音助手中,在基于所述需要补充的基础元素的关键词在聊天模式下引导用户补充缺失的基础元素的步骤中,所述控制单元被配置为:
接收用户输入的聊天语音内容;
将所述语音内容输入语音识别引擎转换为聊天文字内容;
提取所述聊天文字内容的主题词;
计算所述主题词与需要补充的基础元素的关键词的相关性;
将与所述主题词的相关性大于预设的第一相关性阈值的需要补充的基础元素的关键词确定为第一目标关键词;
将所述第一目标关键词和所述聊天文字内容输入预先训练好的深度学习模型中生成对应的回复内容。
具体的,可以采用如词频统计法、TF-IDF(Term Frequency–Inverse DocumentFrequency,词频-逆向文件频率)算法、TextRank算法提取主题词或者利用训练好的LDA(Latent Dirichlet Allocation,隐含狄利克雷分布)模型提取主题词等方法提取所述聊天文字内容的主题词。所述深度学习模型为基于人机对话语料库结合所述基础元素的关键词训练得到。
进一步的,在上述的智能语音助手中,在计算所述主题词与需要补充的基础元素的关键词的相关性的步骤之后,所述控制单元被配置为:
将与所述主题词的相关性大于预设的第二相关性阈值的需要补充的基础元素的关键词确定为第二目标关键词,所述第二相关性阈值大于所述第一相关性阈值;
判断所述聊天文字内容中是否存在与所述第二目标关键词对应的用户信息;
当所述聊天文字内容中存在与所述第二目标关键词对应的用户信息时,生成所棕第二目标关键词对应的三元组保存到所述个性化知识图谱。
采用上述实施方式的技术方案,在聊天模式中引导用户提供需要补充的基础元素的缺失信息以补充到所述个性化知识图谱中,从而使得所述智能语音助手能够在用户输入语音控制指令时,根据所述个性化知识图谱中用户的个性化信息生成相应的控制指令。
进一步的,基于所述文字内容和所述个性化元素生成对应所述语音内容的控制指令的步骤具体包括确定所述文字内容对应的控制指令,将所述个性化元素添加为所述控制指令的控制参数或控制参数之一。
如图2所示,本发明的第二方面提出了一种语音控制方法,包括:
接收用户输入的语音内容;
将所述语音内容输入语音识别引擎转换为文字内容;
从所述文字内容中提取特征词,所述特征词为所述文字内容中的体现用户的语音控制意图的一个关键词或多个关键词的组合;
判断所述文字内容的特征词与预设的通用控制指令列表中的通用控制指令是否匹配;
当所述文字内容的特征词与所述通用控制指令列表中的任一通用控制指令相匹配时,执行相应的通用控制指令;
当所述通用控制指令列表中不存在与所述文字内容的特征词相匹配的通用控制指令时,从所述文字内容的特征词中提取个性特征词;
从用户的个性化知识图谱中识别与所述个性特征词相关联的个性化元素;
基于所述文字内容和所述个性化元素生成对应所述语音内容的控制指令。
具体的,所述智能语音助手通过激活指令激活后进入录音状态,具体可以通过实体按键、虚拟按键或者语音指令等方式来触发所述激活指令,例如,所述智能语音助手持续以低功耗模式监听周边的声音信息,当检测到符合预设条件的语音时,则触发所述激活指令。通常用户激活所述智能语音助手时,接下来会在所述能语音助手处于录音状态时输入语音控制指令以使所述智能语音助手执行相应的语音控制功能。用于对所述智能语音助手进行语音控制的语音内容一般不会太长,通常是简短的一句话或者少量几句话的组合。
智能语音助手的语音控制功能主要有以下几种类型:1、媒体播放:获取互联网或者本地的多媒体数据如音乐、视频、图片或者文本等进行播放;2、智能控制:对智能家电如空调、电视、灯光、窗帘等进行控制;3、信息查询:通过互联网上的特定服务提供商获取如天气查询、知识问答、词句翻译等的信息查询结果;4、即时通信:与互联网上的远程客户端进行语音或视频通信,包括运行在其它智能语音助手上的客户端或者运行在其它智能设备如智能手机或者个人计算机上的客户端;5、智能提醒:设定符合特定条件包括时间条件、天气条件等的提醒任务,例如闹钟或者恶劣天气提醒等;6、智能交互:即以聊天模式与用户进行持续性的对话交互。
在上述实施方式的技术方案中,所述语音识别引擎可以是部署在本地或者云端的用于将语音识别为文字的语音识别引擎。优选的,将所述语音识别引擎部署在云端以利用云端强大的计算能力和更大的存储空间处理复杂的语音识别任务,并且可以不断更新和优化语音识别模型,提高语音识别的准确性和可靠性。
在本发明的技术方案中,所述通用控制指令列表预置在本地或者云端,在每次接收到用户输入的语音内容时执行匹配。所述通用控制指令是指不需要用户的个性化信息的语音控制指令,例如设置闹钟,用户仅需在语音内容中包含设置闹钟的关键字以及时间信息即可,不涉及用户自身的任何信息。又例如查询天气,直接按语音内容中所包含的地理位置进行天气信息查询,当语音内容中不包含地理位置时,默认以设备所在位置为查询天气的目标位置,也不涉及用户自身的任何信息。
进一步的,在上述的语音控制方法中,从所述文字内容中提取特征词的步骤具体包括:
对所述文字内容进行分词、词性标注和词性过滤处理以生成第一词语列表,将所述第一词语列表/>中的每个词语表示为/>,其中/>,/>为所述第一词语列表中的词语数量;
对所述文字内容进行分析以从所述第一词语列表中识别各种类型的关键词,所述关键词的类型包括所述文字内容中各个语句的主干词、中心词以及命名实体,将所述关键词的类型数量表示为/>;
根据所述关键词识别结果生成维数为的关键词矩阵/>,所述关键词矩阵中的每一个元素/>的值表示所述第一词语列表/>中的第/>个词语/>被识别为第/>种类型的关键词的识别结果;
获取预先配置的每种类型的关键词对应的特征权重系数,其中/>;
根据所述关键词矩阵和所述特征权重系数/>计算所述第一词语列表/>中每个词语/>的综合权重:/>
;
根据所述综合权重在所述第一词语列表/>中确定所述特征词。
在上述实施方式的技术方案中,对所述文字内容进行分词后,对所述文字内容分词后的每个词语进行词性标注,具体为标出语句中每个词的词性,如名词、动词、形容词等,随后对所述文字内容的每个词语执行词性过滤,剔 除如连词、介词、语气助词等,仅保留名词、动词、形容词等重要词性的词语。
所述主干词指的是所述文字内容中每个句子的谓语动词,其代表的是每个句子的主要动作或状态。所述中心词指的是所述文字内容中每个句子的主题和内容重点。所述命名实体指的是所述文字内容中的人名、机构名、地名以及其他所有以名称为标识的实体。应当知道的是,所述第一词语列表中的每一个词语可以同时被识别为多种不同类型的关键词,例如一个词语可以即是中心词,也是命名实体。除了所述主干词、中心词以及所述命名实体外,所述关键词的类型还可以包括高频词或者通过如TextRank等基于图模型的关键提取算法评估得出的重要关键词。在不同应用环境下,配置的关键词类型及其数量的不同,相应的需要对其特征权重系数进行调整,以使得最终计算得到的综合权重更为合理。
所述关键词矩阵的每个元素的取值为0或者1,即如果所述关键词矩阵/>述中的元素/>的值为1时,则表示所述第一词语列表/>中的第/>个词语/>被识别为第/>种类型的关键词。反之,如果所述关键词矩阵/>述中的元素/>的值为0时,则表示所述第一词语列表/>中的第/>个词语/>不是第/>种类型的关键词。
所述关键词类型的选择方案以及所述特征权重系数的配置方案不同,根据所述综合权重在所述第一词语列表/>中确定所述特征词的步骤也相应的会有所不同。具体的,在本发明的一些实施方式中,可以将所述第一词语列表中的综合权重/>不为零的词语确定为所述特征词。在本发明另一些实施方式的技术方案中,可以预先配置一个综合权重阈值,将所述第一词语列表中的综合权重/>大于所述综合权重阈值的词语确定为所述特征词,优选的,将所述综合权重阈值配置为动态阈值,使得所述特征词中包含至少一个名词以及至少一个动词。
进一步的,在上述的语音控制方法中,对所述文字内容进行分析以从所述第一词语列表中识别各种类型的关键词的步骤包括:
提取所述文字内容中每句话的主语、谓语和宾语;
基于所述文字内容中每句话的词语之间的依存关系生成每句话的以所述谓语为根节点的句法结构树,所述依存关系为单边修饰关系;
当所述根节点为动词时,将所述谓语确定为对应句子的主干词;
当所述根节点不是动词时,沿所述根节点顺序向下遍历所述句法结构树;
将在遍历过程中遇到的第一个动词确定为对应句子的主干词。
具体的,依存语法理论认为词与词之间存在主从关系,这是一种二元不等价的关系。在句子中,如果一个词修饰另一个词,则称修饰词为从属词,被修饰的词语称为支配词,两者之间的语法关系称为依存关系。在每一个句子中存在一个主干词,当所述文字内容中包含多个句子时,则可以从所述文字内容中识别得到对应数量的主干词。
进一步的,在上述的语音控制方法中,在基于所述文字内容中每句话的词语之间的依存关系生成每句话的以所述谓语为根节点的句法结构树的步骤之后,还包括:
统计所述文字内容中每个词语在所述句法结构树中作为支配词的次数和作为从属词的次数;
将每个词语作为支配词的次数和作为从属词的次数之和确定为所述词语在相应句子中的中心度;
将所述文字内容每个句子中的中心度最大的名词确定为相应句子的中心词。
由于词与词之前的依存关系为单边修饰关系,因此在所述句法结构树中,词与词之间的依存关系可以使用单边箭头来进行连接,即将单边箭头从从属词指向支配词。每个词语在一个句子中的中心度即为其在所述句法结构树中的连线数量,所述连线数量为从该词语中引出的单边箭头和指向该词语的单边箭头的数量之和。
进一步的,在上述的语音控制方法中,所述综合权重阈值为动态阈值,在根据所述综合权重在所述第一词语列表/>中确定所述特征词的步骤之前还包括配置所述动态阈值使得所述特征词中包含至少一个名词以及至少一个与所述名词具有依存关系的动词;
判断所述文字内容的特征词与预设的通用控制指令列表中的通用控制指令是否匹配的步骤具体包括:
判断所述通用控制指令列表中是否存在任一个通用控制指令同时包含所述动词和所述名词。
优选的,当所述特征词中存在一个或多个关键词不包含在所述通用控制指令列表中的任一个通用控制指令中时,确定所述通用控制指令列表中不存在与所述文字内容的特征词相匹配的通用控制指令。在该实施方式的技术方案中,当所述文字内容中的特征词多于任一通用控制指令时,即使有一个或多个通用控制指令包含了所述文字内容的部分特征词,或者说所述文字内容的部分特征词涵盖了某个通用控制指令的所有关键词时,仍然认为所述文字内容的特征词与该通用控制指令不匹配。
优选的,在从所述文字内容中提取特征词的步骤之前,还包括:
计算所述文字内容中包含完整含义的句子的数量;
当时,跳过判断所述文字内容的特征词与预设的通用控制指令列表中的通用控制指令是否匹配的步骤;
直接执行从用户的个性化知识图谱中识别与所述特征词相关联的个性化元素的步骤。
进一步的,在上述的语音控制方法中,从所述文字内容的特征词中提取个性特征词的步骤具体包括:
在所述通用控制指令列表中确定一个包含所述文字内容的最多特征词的目标通用控制指令;
基于所述目标通用控制指令和所述文字内容的特征词生成通用特征词列表和个性特征词列表;
将所述个性特征词列表中的特征词确定为所述个性特征词。
具体的,所述通用特征词列表中的特征词为所述文字内容的特征词中被所述目标通用控制指令所包含的特征词,所述个性特征词列表中的特征词为所述文字内容的特征词中除所述通用特征词列表的特征词以外的其它特征词。
从用户的个性化知识图谱中识别与所述特征词相关联的个性化元素的步骤具体包括:
在所述个性化知识图谱中查询包含所述个性特征词的三元组;
将查询到的三元组确定为与所述特征词相关联的个性化元素。
进一步的,在上述的语音控制方法中,还包括:
当智能语音助手进入聊天模式时,对当前用户的个性化知识图谱的基础元素进行完整性检查;
当所述个性化知识图谱的基础元素的完整性检查结果为信息缺失时,获取需要补充的基础元素的关键词;
基于所述需要补充的基础元素的关键词在聊天模式下引导用户补充缺失的基础元素。
具体的,所述个性化知识图谱的基础元素为所述个性化知识图谱中包含用户基础个性化信息的三元组,用户的基础个性化信息包括但不限于用户的性别、年龄、住址、家庭成员、职业、技能、兴趣爱好以及工作单位等。优选的,为了保障用户个人隐私信息的安全,所述个性化知识图谱的数据库保存在运行所述智能语音助手的智能设备的本地存储空间中。在本发明的一些实施方式中,在云端预置了个性化知识图谱的基础元素的关键词列表,在所述智能语音助手进入聊天模式时,从云端将所述个性化知识图谱的基础元素的关键词列表加载到本地以对所述个性化知识图谱的基础元素进行完整性检查。
进一步的,在上述的语音控制方法中,基于所述需要补充的基础元素的关键词在聊天模式下引导用户补充缺失的基础元素的步骤具体包括:
接收用户输入的聊天语音内容;
将所述语音内容输入语音识别引擎转换为聊天文字内容;
提取所述聊天文字内容的主题词;
计算所述主题词与需要补充的基础元素的关键词的相关性;
将与所述主题词的相关性大于预设的第一相关性阈值的需要补充的基础元素的关键词确定为第一目标关键词;
将所述第一目标关键词和所述聊天文字内容输入预先训练好的深度学习模型中生成对应的回复内容。
具体的,可以采用如词频统计法、TF-IDF(Term Frequency–Inverse DocumentFrequency,词频-逆向文件频率)算法、TextRank算法提取主题词或者利用训练好的LDA(Latent Dirichlet Allocation,隐含狄利克雷分布)模型提取主题词等方法提取所述聊天文字内容的主题词。所述深度学习模型为基于人机对话语料库结合所述基础元素的关键词训练得到。
进一步的,在上述的语音控制方法中,在计算所述主题词与需要补充的基础元素的关键词的相关性的步骤之后,还包括:
将与所述主题词的相关性大于预设的第二相关性阈值的需要补充的基础元素的关键词确定为第二目标关键词,所述第二相关性阈值大于所述第一相关性阈值;
判断所述聊天文字内容中是否存在与所述第二目标关键词对应的用户信息;
当所述聊天文字内容中存在与所述第二目标关键词对应的用户信息时,生成所棕第二目标关键词对应的三元组保存到所述个性化知识图谱。
采用上述实施方式的技术方案,在聊天模式中引导用户提供需要补充的基础元素的缺失信息以补充到所述个性化知识图谱中,从而使得所述智能语音助手能够在用户输入语音控制指令时,根据所述个性化知识图谱中用户的个性化信息生成相应的控制指令。
进一步的,基于所述文字内容和所述个性化元素生成对应所述语音内容的控制指令的步骤具体包括确定所述文字内容对应的控制指令,将所述个性化元素添加为所述控制指令的控制参数或控制参数之一。
应当说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
依照本发明的实施例如上文所述,这些实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施例。显然,根据以上描述,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地利用本发明以及在本发明基础上的修改使用。本发明仅受权利要求书及其全部范围和等效物的限制。
Claims (10)
1.一种智能语音助手,其特征在于,包括用于录制语音信息的麦克风、用于播放语音信息的扬声器、用于与云服务器和/或智能家居设备通信的通信单元以及控制单元,所述控制单元与所述麦克风、所述扬声器以及所述通信单元连接,所述控制单元被配置为:
接收用户输入的语音内容;
将所述语音内容输入语音识别引擎转换为文字内容;
从所述文字内容中提取特征词,所述特征词为所述文字内容中的体现用户的语音控制意图的一个关键词或多个关键词的组合;
判断所述文字内容的特征词与预设的通用控制指令列表中的通用控制指令是否匹配;
当所述文字内容的特征词与所述通用控制指令列表中的任一通用控制指令相匹配时,执行相应的通用控制指令;
当所述通用控制指令列表中不存在与所述文字内容的特征词相匹配的通用控制指令时,从所述文字内容的特征词中提取个性特征词;
从用户的个性化知识图谱中识别与所述个性特征词相关联的个性化元素;
基于所述文字内容和所述个性化元素生成对应所述语音内容的控制指令。
2.一种语音控制方法,其特征在于,包括:
接收用户输入的语音内容;
将所述语音内容输入语音识别引擎转换为文字内容;
从所述文字内容中提取特征词,所述特征词为所述文字内容中的体现用户的语音控制意图的一个关键词或多个关键词的组合;
判断所述文字内容的特征词与预设的通用控制指令列表中的通用控制指令是否匹配;
当所述文字内容的特征词与所述通用控制指令列表中的任一通用控制指令相匹配时,执行相应的通用控制指令;
当所述通用控制指令列表中不存在与所述文字内容的特征词相匹配的通用控制指令时,从所述文字内容的特征词中提取个性特征词;
从用户的个性化知识图谱中识别与所述个性特征词相关联的个性化元素;
基于所述文字内容和所述个性化元素生成对应所述语音内容的控制指令。
3.根据权利要求2所述的语音控制方法,其特征在于,从所述文字内容中提取特征词的步骤具体包括:
对所述文字内容进行分词、词性标注和词性过滤处理以生成第一词语列表,将所述第一词语列表/>中的每个词语表示为/>,其中/>,/>为所述第一词语列表/>中的词语数量;
对所述文字内容进行分析以从所述第一词语列表中识别各种类型的关键词,所述关键词的类型包括所述文字内容中各个语句的主干词、中心词以及命名实体,将所述关键词的类型数量表示为/>;
根据所述关键词识别结果生成维数为的关键词矩阵/>,所述关键词矩阵/>中的每一个元素/>的值表示所述第一词语列表/>中的第/>个词语/>被识别为第/>种类型的关键词的识别结果;
获取预先配置的每种类型的关键词对应的特征权重系数,其中/>;
根据所述关键词矩阵和所述特征权重系数/>计算所述第一词语列表/>中每个词语的综合权重:
;
根据所述综合权重在所述第一词语列表/>中确定所述特征词。
4.根据权利要求3所述的语音控制方法,其特征在于,对所述文字内容进行分析以从所述第一词语列表中识别各种类型的关键词的步骤包括:
提取所述文字内容中每句话的主语、谓语和宾语;
基于所述文字内容中每句话的词语之间的依存关系生成每句话的以所述谓语为根节点的句法结构树,所述依存关系为单边修饰关系;
当所述根节点为动词时,将所述谓语确定为对应句子的主干词;
当所述根节点不是动词时,沿所述根节点顺序向下遍历所述句法结构树;
将在遍历过程中遇到的第一个动词确定为对应句子的主干词。
5.根据权利要求4所述的语音控制方法,其特征在于,在基于所述文字内容中每句话的词语之间的依存关系生成每句话的以所述谓语为根节点的句法结构树的步骤之后,还包括:
统计所述文字内容中每个词语在所述句法结构树中作为支配词的次数和作为从属词的次数;
将每个词语作为支配词的次数和作为从属词的次数之和确定为所述词语在相应句子中的中心度;
将所述文字内容每个句子中的中心度最大的名词确定为相应句子的中心词。
6.根据权利要求3所述的语音控制方法,其特征在于,所述综合权重的阈值为动态阈值,在根据所述综合权重在所述第一词语列表/>中确定所述特征词的步骤之前还包括配置所述动态阈值使得所述特征词中包含至少一个名词以及至少一个与所述名词具有依存关系的动词;
判断所述文字内容的特征词与预设的通用控制指令列表中的通用控制指令是否匹配的步骤具体包括:
判断所述通用控制指令列表中是否存在任一个通用控制指令同时包含所述动词和所述名词。
7.根据权利要求6所述的语音控制方法,其特征在于,从所述文字内容的特征词中提取个性特征词的步骤具体包括:
在所述通用控制指令列表中确定一个包含所述文字内容的最多特征词的目标通用控制指令;
基于所述目标通用控制指令和所述文字内容的特征词生成通用特征词列表和个性特征词列表;
将所述个性特征词列表中的特征词确定为所述个性特征词。
8.根据权利要求2所述的语音控制方法,其特征在于,还包括:
当智能语音助手进入聊天模式时,对当前用户的个性化知识图谱的基础元素进行完整性检查;
当所述个性化知识图谱的基础元素的完整性检查结果为信息缺失时,获取需要补充的基础元素的关键词;
基于所述需要补充的基础元素的关键词在聊天模式下引导用户补充缺失的基础元素。
9.根据权利要求8所述的语音控制方法,其特征在于,基于所述需要补充的基础元素的关键词在聊天模式下引导用户补充缺失的基础元素的步骤具体包括:
接收用户输入的聊天语音内容;
将所述语音内容输入语音识别引擎转换为聊天文字内容;
提取所述聊天文字内容的主题词;
计算所述主题词与需要补充的基础元素的关键词的相关性;
将与所述主题词的相关性大于预设的第一相关性阈值的需要补充的基础元素的关键词确定为第一目标关键词;
将所述第一目标关键词和所述聊天文字内容输入预先训练好的深度学习模型中生成对应的回复内容。
10.根据权利要求9所述的语音控制方法,其特征在于,在计算所述主题词与需要补充的基础元素的关键词的相关性的步骤之后,还包括:
将与所述主题词的相关性大于预设的第二相关性阈值的需要补充的基础元素的关键词确定为第二目标关键词,所述第二相关性阈值大于所述第一相关性阈值;
判断所述聊天文字内容中是否存在与所述第二目标关键词对应的用户信息;
当所述聊天文字内容中存在与所述第二目标关键词对应的用户信息时,生成所棕第二目标关键词对应的三元组保存到所述个性化知识图谱。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311248896.0A CN116994565B (zh) | 2023-09-26 | 2023-09-26 | 一种智能语音助手及其语音控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311248896.0A CN116994565B (zh) | 2023-09-26 | 2023-09-26 | 一种智能语音助手及其语音控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116994565A true CN116994565A (zh) | 2023-11-03 |
CN116994565B CN116994565B (zh) | 2023-12-15 |
Family
ID=88530522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311248896.0A Active CN116994565B (zh) | 2023-09-26 | 2023-09-26 | 一种智能语音助手及其语音控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116994565B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115565535A (zh) * | 2022-09-21 | 2023-01-03 | 深圳琪乐科技有限公司 | 一种智能语音客服系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110262273A (zh) * | 2019-07-12 | 2019-09-20 | 珠海格力电器股份有限公司 | 一种家居设备控制方法、装置、存储介质及智能家居系统 |
CN112583865A (zh) * | 2019-09-27 | 2021-03-30 | 阿里巴巴集团控股有限公司 | 一种控制方法、设备及存储介质 |
CN112735374A (zh) * | 2020-12-29 | 2021-04-30 | 北京三快在线科技有限公司 | 一种自动语音交互的方法及装置 |
CN113099054A (zh) * | 2021-03-30 | 2021-07-09 | 中国建设银行股份有限公司 | 语音交互的方法、装置、设备和计算机可读介质 |
US20210225380A1 (en) * | 2017-06-30 | 2021-07-22 | Baidu Online Network Technology (Beijing) Co., Ltd. | Voiceprint recognition method and apparatus |
-
2023
- 2023-09-26 CN CN202311248896.0A patent/CN116994565B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210225380A1 (en) * | 2017-06-30 | 2021-07-22 | Baidu Online Network Technology (Beijing) Co., Ltd. | Voiceprint recognition method and apparatus |
CN110262273A (zh) * | 2019-07-12 | 2019-09-20 | 珠海格力电器股份有限公司 | 一种家居设备控制方法、装置、存储介质及智能家居系统 |
CN112583865A (zh) * | 2019-09-27 | 2021-03-30 | 阿里巴巴集团控股有限公司 | 一种控制方法、设备及存储介质 |
CN112735374A (zh) * | 2020-12-29 | 2021-04-30 | 北京三快在线科技有限公司 | 一种自动语音交互的方法及装置 |
CN113099054A (zh) * | 2021-03-30 | 2021-07-09 | 中国建设银行股份有限公司 | 语音交互的方法、装置、设备和计算机可读介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115565535A (zh) * | 2022-09-21 | 2023-01-03 | 深圳琪乐科技有限公司 | 一种智能语音客服系统 |
CN115565535B (zh) * | 2022-09-21 | 2024-04-12 | 南京浮点智算数字科技有限公司 | 一种智能语音客服系统 |
Also Published As
Publication number | Publication date |
---|---|
CN116994565B (zh) | 2023-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6629375B2 (ja) | 会話型相互作用システムの検索入力におけるユーザ意図を推定する方法およびそのためのシステム | |
JP6667504B2 (ja) | オーファン発話検出システム及び方法 | |
JP6722225B2 (ja) | 会話型インターフェースの一部として動的に適用されるフィルタリングオペレータを伴う適応会話状態管理のための方法 | |
CN110770694B (zh) | 获得来自多个语料库的响应信息 | |
Malandrakis et al. | Distributional semantic models for affective text analysis | |
US7957968B2 (en) | Automatic grammar generation using distributedly collected knowledge | |
KR101751113B1 (ko) | 기억 능력을 이용하는 다중 사용자 기반의 대화 관리 방법 및 이를 수행하는 장치 | |
WO2018045646A1 (zh) | 基于人工智能的人机交互方法和装置 | |
WO2018232622A1 (en) | RECOMMENDATION OF MULTIMEDIA CONTENT THROUGH CONVERSATIONAL ROBOTS | |
US11488599B2 (en) | Session message processing with generating responses based on node relationships within knowledge graphs | |
US20130246392A1 (en) | Conversational System and Method of Searching for Information | |
JP2018195330A (ja) | 発話文生成装置とその方法とプログラム | |
WO2016087982A1 (en) | Persona-based profiles in question answering system | |
CN116994565B (zh) | 一种智能语音助手及其语音控制方法 | |
Torres-Cruz et al. | Evaluation of Performance of Artificial Intelligence System during Voice Recognition in Social Conversation | |
WO2007122700A1 (ja) | エキスパートシステム並びにエキスパート方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |