CN109697290B - 一种信息处理方法、设备及计算机存储介质 - Google Patents

一种信息处理方法、设备及计算机存储介质 Download PDF

Info

Publication number
CN109697290B
CN109697290B CN201811639291.3A CN201811639291A CN109697290B CN 109697290 B CN109697290 B CN 109697290B CN 201811639291 A CN201811639291 A CN 201811639291A CN 109697290 B CN109697290 B CN 109697290B
Authority
CN
China
Prior art keywords
information
audio
emotion
preset
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811639291.3A
Other languages
English (en)
Other versions
CN109697290A (zh
Inventor
周婷
裘思科
谢周兵
孙刚
王丛刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MIGU Digital Media Co Ltd
MIGU Culture Technology Co Ltd
Original Assignee
MIGU Digital Media Co Ltd
MIGU Culture Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MIGU Digital Media Co Ltd, MIGU Culture Technology Co Ltd filed Critical MIGU Digital Media Co Ltd
Priority to CN201811639291.3A priority Critical patent/CN109697290B/zh
Publication of CN109697290A publication Critical patent/CN109697290A/zh
Application granted granted Critical
Publication of CN109697290B publication Critical patent/CN109697290B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Child & Adolescent Psychology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Hospice & Palliative Care (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)

Abstract

本发明实施例公开了一种信息处理方法,该方法包括:接收用户输入的包括有第一音频信息的音频指令,并基于所述音频指令得到音频特征信息;基于所述音频特征信息确定与所述音频特征信息匹配的情绪信息;基于所述情绪信息确定与所述情绪信息匹配的反馈音效;采用所述反馈音效播放针对所述音频指令得到的第二音频信息。本发明实施例同时还公开了一种信息处理设备和计算机存储介质。

Description

一种信息处理方法、设备及计算机存储介质
技术领域
本发明涉及电子与信息技术领域,尤其是涉及一种信息处理方法、设备及计算机存储介质。
背景技术
现有的信息处理设备能够对用户通过语音输入的音频指令进行响应,并基于针对该音频指令得到的音频信息作出语音反馈。如当信息处理设备接收到用户通过语音输入的询问天气情况的音频指令时,信息处理设备在查询过当前天气状况后,会将查询到的天气信息通过语音播报的方式反馈给用户。然而,相关技术中,信息处理设备只能以一个固定不变的音效播放针对音频指令得到的音频信息。
发明内容
为解决上述技术问题,本发明实施例期望提供一种信息处理方法、设备及计算机存储介质,解决相关技术中信息处理设备只能以一个固定不变的音效播放针对音频指令得到的音频信息的问题。
本发明的技术方案是这样实现的:
一种信息处理方法,所述方法包括:
接收用户输入的包括有第一音频信息的音频指令,并基于所述音频指令得到音频特征信息;
基于所述音频特征信息确定与所述音频特征信息匹配的情绪信息;
基于所述情绪信息确定与所述情绪信息匹配的反馈音效;
采用所述反馈音效播放针对所述音频指令得到的第二音频信息。
可选地,所述基于所述情绪信息确定与所述情绪信息匹配的反馈音效,包括:
获取语音特征数据库;其中,所述语音特征数据库包括至少两个第一预设情绪信息,和与所述至少两个第一预设情绪信息对应的预设反馈音效;
若所述语音特征数据库包括与所述情绪信息匹配的所述第一预设情绪信息,基于所述情绪信息,从所述语音特征数据库中确定所述反馈音效。
可选地,所述接收用户输入的包括有第一音频信息的音频指令,并基于所述音频指令得到音频特征信息,包括:
接收用户输入的包括有第一音频信息的音频指令,并基于所述音频指令对所述第一音频信息进行语义识别,得到第一文字信息;
相应地,所述基于所述音频特征信息确定与所述音频特征信息匹配的情绪信息,包括:
若所述第一文字信息与用于表征第二预设情绪信息的预定文字信息匹配,确定所述情绪信息为所述第二预设情绪信息。
可选地,所述接收用户输入的包括有第一音频信息的音频指令,并基于所述音频指令得到音频特征信息,包括:
接收用户输入的包括有第一音频信息的音频指令,并基于所述音频指令对所述第一音频信息进行语义识别,得到第一文字信息;
获取与所述第一音频信息对应的音频时长,并基于所述音频时长和所述第一文字信息确定目标语速;
相应地,所述基于所述音频特征信息确定与所述音频特征信息匹配的情绪信息,包括:
基于所述目标语速确定所述情绪信息。
可选地,所述基于所述目标语速确定所述情绪信息,包括:
获取至少一个预设语速范围和至少一个第三预设情绪信息之间的对应关系;
基于所述对应关系,确定与所述目标语速对应的所述情绪信息。
可选地,所述采用所述反馈音效播放针对所述音频指令得到的第二音频信息,包括:
对所述第一音频信息进行语义识别,得到第一文字信息;
基于所述第一文字信息和所述情绪信息,获取反馈模板;其中,所述反馈模板包括至少一个未填充部分;
获取第二文字信息,并填充所述第二文字信息至所述未填充部分得到第三文字信息;
基于所述第三文字信息生成所述第二音频信息,并采用所述反馈音效播放所述第二音频信息。
一种信息处理设备,所述设备包括:处理器、存储器和通信总线;
所述通信总线用于实现处理器和存储器之间的通信连接;
所述处理器用于执行存储器中的信息处理方法的程序,以实现以下步骤:
接收用户输入的包括有第一音频信息的音频指令,并基于所述音频指令得到音频特征信息;
基于所述音频特征信息确定与所述音频特征信息匹配的情绪信息;
基于所述情绪信息确定与所述情绪信息匹配的反馈音效;
采用所述反馈音效播放针对所述音频指令得到的第二音频信息。
可选地,所述处理器执行基于所述情绪信息确定与所述情绪信息匹配的反馈音效的步骤时,还可以实现以下步骤:
获取语音特征数据库;其中,所述语音特征数据库包括至少两个第一预设情绪信息,和与所述至少两个第一预设情绪信息对应的预设反馈音效;
若所述语音特征数据库包括与所述情绪信息匹配的所述第一预设情绪信息,基于所述情绪信息,从所述语音特征数据库中确定所述反馈音效。
可选地,所述处理器执行采用所述反馈音效播放针对所述音频指令得到的第二音频信息的步骤时,还可以实现以下步骤:
对所述第一音频信息进行语义识别,得到第一文字信息;
基于所述第一文字信息和所述情绪信息,获取反馈模板;其中,所述反馈模板包括至少一个未填充部分;
获取第二文字信息,并填充所述第二文字信息至所述未填充部分得到第三文字信息;
基于所述第三文字信息生成所述第二音频信息,并采用所述反馈音效播放所述第二音频信息。
一种计算机存储介质,所述计算机存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述任一项所述的信息处理方法的步骤。
本发明实施例所提供的信息处理方法、设备及计算机存储介质,该方法包括:接收用户输入的包括有第一音频信息的音频指令,并基于所述音频指令得到音频特征信息;基于所述音频特征信息确定与所述音频特征信息匹配的情绪信息;基于所述情绪信息确定与所述情绪信息匹配的反馈音效;采用所述反馈音效播放针对所述音频指令得到的第二音频信息。由于能够根据情绪信息确定与情绪信息匹配的反馈音效,并采用反馈音效播放音频信息,从而能够根据情绪信息的不同,选择不同的反馈音效播放音频信息,解决了相关技术中信息处理设备只能以一个固定不变的音效播放针对音频指令得到的音频信息的问题,因此,本发明实施例中的能够使用不同的音效播放针对音频指令得到的音频信息。
附图说明
图1为本发明实施例提供的一种信息处理方法的流程示意图;
图2为本发明实施例提供的另一种信息处理方法的流程示意图;
图3为本发明实施例提供的一种信息处理设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
应理解,说明书通篇中提到的“本发明实施例”或“前述实施例”意味着与实施例有关的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,在整个说明书各处出现的“本发明实施例中”或“在前述实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中应。在本发明的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
本发明实施例提供一种信息处理方法,应用于信息处理设备,如图1所示,该方法包括以下步骤:
步骤101:接收用户输入的包括有第一音频信息的音频指令,并基于音频指令得到音频特征信息。
信息处理设备可以设有麦克风等语音输入装置,可以通过语音输入装置采集用户输入的第一音频信息,并基于第一音频信息生成音频指令。信息处理设备还可以设有虚拟键或者实体键等预设按键,可以通过用户触发预设按键接收用户输入的包括有第一音频信息的音频指令。
在本发明实施例中,信息处理设备可以为手机、平板电脑、笔记本电脑、掌上电脑、个人数字助理、便捷式媒体播放器、导航装置、可穿戴设备、智能手环、计步器、数字TV或者台式计算机等。
在一种实施方式中,信息处理设备可以通过信息处理设备中的音频接收模块接收用户输入的语音信息,并基于该语音信息生成包括有第一音频信息的音频指令。
其中,音频特征信息可以是通过对音频指令中的第一音频信息分析后得到的。
音频特征信息可以包括以下信息中的至少一种:文字信息、语速信息、频率信息、音量信息、清晰度信息、频谱信息、幅度信息、音色信息、短时能量信息以及持续时间信息;其中,该持续时间信息与语音信息的语音时长相对应。
步骤102:基于音频特征信息确定与音频特征信息匹配的情绪信息。
不同的音频特征信息可以对应不同的情绪信息。音频特征信息可以与包括多个情绪信息的情绪模板进行匹配,得到与音频特征信息匹配的情绪信息。信息处理设备可以采用支持向量机(Support Vector Machine,SVM)、k-近邻(k-Nearest Neighbors,kNN)算法或者贝叶斯算法等算法将将音频特征信息与包括多个情绪信息的情绪模板进行匹配,得到与音频特征信息匹配的情绪信息。在一种实施方式中,信息处理设备将音频特征信息与包括多个情绪的情绪模板进行匹配后,可以基于该音频特征信息对情绪模板进行更新,以使情绪模板越来越符合用户的音频特征。本发明是实施例中的情绪信息可以为平静、激动、失落、高兴或者着急等,本发明实施例不限定情绪信息的具体类型。
在另一实施例中,信息处理设备还可以获取用户的特征参数信息,例如,特征参数信息可以包括:温度信息、运动参数信息以及面部参数信息中的至少一种。基于此,信息处理设备还可以基于音频特征信息和特征参数信息,确定与音频特征信息匹配的情绪信息。如此,可以使得到的情绪信息更加准确。
步骤103:基于情绪信息确定与情绪信息匹配的反馈音效。
一种情绪信息仅可以确定一种反馈音效,一种反馈音效可以对应一种情绪信息,也可以对应多种情绪信息。例如,若情绪信息为悲伤或痛苦,与该情绪信息匹配的反馈音效均可以为皮卡丘的音效。
步骤104:采用反馈音效播放针对音频指令得到的第二音频信息。
信息处理设备可以针对音频指令获取第一音频信息并对第一音频信息进行语义识别得到识别结果,从而能够基于识别结果获取用于回复第一音频信息的第二音频信息,采用反馈音效播放第二音频信息。其中,识别结果可以为对第一音频信息进行识别的得到的文字结果,也可以对第一音频信息进行识别的得到的关键字。
在一种实施例中,第二音频信息中可以不包括与反馈音效对应的特征信息,信息处理设备可以通过对第二音频信息进行预设处理得到第三音频信息,并通过扬声器播放第三音频信息,使第三音频信息中包括与反馈音效对应的特征信息,从而信息处理设备可以采用反馈音效播放针对音频指令得到的第二音频信息。
在另一种实施例中,第二音频信息可以包括与反馈音效对应的特征信息,信息处理设备可以通过扬声器播放针对音频指令得到的第二音频信息,从而信息处理设备可以采用反馈音效播放针对音频指令得到的第二音频信息。
在采用反馈音效播放针对音频指令得到的第二音频信息之前,还可以对第二音频信息进行滤波去噪处理。
在本发明实施例中,由于能够根据情绪信息确定与情绪信息匹配的反馈音效,并采用反馈音效播放音频信息,从而能够根据情绪信息的不同,选择不同的反馈音效播放音频信息,避免了相关技术中信息处理设备只能以一个固定不变的音效播放针对音频指令得到的音频信息的问题,因此,本发明实施例中的能够使用不同的音效播放针对音频指令得到的音频信息。
基于前述实施例,本发明实施例提供一种信息处理方法,应用于信息处理设备,如图2所示,该方法包括以下步骤:
步骤201:接收用户输入的包括有第一音频信息的音频指令,并基于音频指令得到音频特征信息。
在一种实施方式中,信息处理设备可以接收用户输入的包括有第一音频信息的音频指令,并基于音频指令对第一音频信息进行语义识别,得到第一文字信息;其中音频特征信息包括第一文字信息。第一文字信息可以对第一音频信息进行语义识别得到的所有的文字信息,例如,当用户输入的语音信息为“今天的天气什么”,第一文字信息即为“今天的天气是什么”。第一文字信息也可以为对第一音频信息进行语义识别得到的关键字,例如,当用户输入的语音信息为“今天的天气什么”,第一文字信息即为“今天”和“天气”。
在另一种实施方式中,信息处理设备可以接收用户输入的包括有第一音频信息的音频指令,并基于音频指令对第一音频信息进行语义识别,得到第一文字信息;在得到第一文字信息后,还可以获取与第一音频信息对应的音频时长,并基于音频时长和第一文字信息确定目标语速。另外,信息处理设备还可以先获取音频时长,再对第一音频信息进行语义识别。其中,此处的音频时长可以与上述的语音时长相同。信息处理设备可以通过获取第一文字信息的文字个数或者第一文字信息所占内存大小,然后根据第一文字信息的文字个数或者第一文字信息所占内存大小与音频时长的比值,确定目标语速。
步骤202:基于音频特征信息确定与音频特征信息匹配的情绪信息。
在一种实施方式中,若第一文字信息与用于表征第二预设情绪信息的预定文字信息匹配,信息处理设备即可确定情绪信息为第二预设情绪信息。信息处理设备中可以包括文字样本库,文字样本库中可以包括多个文字样本和与每一文字样本对应的情绪信息,例如,文字样本为“快点”可以与“焦急”的情绪对应,当获取到的第一文字信息中包括“快点”这个词时,可以确定与第一文字信息对应的情绪信息为“焦急”。
在另一种实施方式中,信息处理设备可以基于目标语速确定情绪信息。
信息处理设备可以先获取至少一个预设语速范围和至少一个第三预设情绪信息之间的对应关系;然后基于对应关系,确定与目标语速对应的情绪信息。例如,在一个具体的实现方式中,信息处理设备可以分别获取第一预设语速范围、第二预设语速范围以及预设语速范围与预设情绪之间的对应关系,若确定目标语速处于第一预设语速范围内,则确定目标语速对应的情绪信息为第一预设语速范围对应的预设情绪信息,若确定目标语速处于第二预设语速范围内,则确定目标语速对应的情绪信息为第二预设语速范围对应的预设情绪信息;若确定目标语速处于第三预设语速范围内,则确定目标语速对应的情绪信息为第三预设语速范围对应的预设情绪信息。在本实施例中,第一预设语速范围可以为大于等于60且小于80字/min;第一预设语速范围可以为大于等于80且小于140字/min;第三预设语速范围可以为大于等于30且小于60字/min;第一预设语速范围对应的预设情绪信息为平静;第二预设语速范围对应的预设情绪信息为激动,第三预设语速范围对应的预设情绪信息失落。在其它实施例中,预设语速范围还可以为其它范围,与预设语速范围对应的预设情绪信息可以为其它情绪信息,此处不作限定。
在又一种实施方式中,信息处理设备还可以从第一音频信息中提取振幅信息、音量信息以及频率信息中至少一种信息;接着基于振幅信息、音量信息以及频率信息中至少一种信息确定情绪信息。
步骤203:获取语音特征数据库。
其中,语音特征数据库包括至少两个第一预设情绪信息,和与至少两个第一预设情绪信息对应的预设反馈音效。其中,与至少两个第一预设情绪信息对应的预设反馈音效可以为,与至少两个第一预设情绪信息中每一第一预设情绪信息对应的预设反馈音效。语音特征数据库中第一预设情绪信息的数据应大于或等于反馈音效的数量,即一个反馈音效可以对应至少一个第一预设情绪信息。
信息处理设备可以接收用户针对信息处理设备进行的预设操作,预设操作可以为对至少两个第一预设情绪信息和预设反馈音效进行映射的操作,并基于该预设操作来获取语音特征数据库。
步骤204:若语音特征数据库包括与情绪信息匹配的第一预设情绪信息,基于情绪信息,从语音特征数据库中确定反馈音效。
例如,信息处理设备可以预先设置有情绪信息为“失落”所对应的反馈音效为“路飞”的音效,而情绪信息为“开心”所对应的反馈音效为“皮卡丘”的音效,当信息处理设备通过用户输入的音频指令确定与音频指令对应的情绪信息为“开心”后,信息处理设备可以将“皮卡丘”的音效设置为针对音频指令的反馈音效,并使用该反馈音效向用户做出反馈。
步骤205:采用反馈音效播放针对音频指令得到的第二音频信息。
其中,采用反馈音效播放针对音频指令得到的第二音频信息这一步骤,可以通过以下步骤A~D来实现:
步骤A:对第一音频信息进行语义识别,得到第一文字信息。
其中,若信息处理设备已经得到第一文字信息,可以不执行步骤A,信息处理设备可以直接获取已经得到的第一文字信息。
步骤B:基于第一文字信息和情绪信息,获取反馈模板。
其中,反馈模板包括至少一个未填充部分。反馈模板不仅可以本地获取,也可以从其它设备(例如服务器)中获取,此处不作限定。
在发明实施例中,反馈模块不仅和第一文字信息相关,还要和情绪信息相关。情绪信息的不同,对应的反馈模板也不同。例如,对于“今天天气怎么样”的语音问题以及情绪信息为高兴时,对应的反馈模板可以为“天气(xx),白天高温(xx)度,夜间低温(xx)度,天气有些(xx),注意(xx)哦”。例如,对于“今天天气怎么样”的语音问题以及情绪信息为着急时,对应的反馈模板可以为“天气(xx),白天高温(xx)度,夜间低温(xx)度”;其中括号内的信息可以根据查询结果进行填写。
步骤C:获取第二文字信息,并填充第二文字信息至未填充部分得到第三文字信息。
第二文字信息用于表征对第一文字的回应信息。例如,当用户询问天气时,第二文字信息可以为包括晴、阴以及多云等天气信息以及温度信息等。此处不作限定。在一种实施方式中,若查询到的第二文字信息无法填充至所有的未填充部分时,可以对反馈模板进行修改,以使第二文字信息与反馈模板进行匹配。例如,当反馈模板为“天气(xx),白天高温(xx)度,夜间低温(xx)度,天气有些(xx),注意(xx)哦”,而获取到的第二文字信息仅为晴、以及白天高温20度,夜间低温2度时,则将反馈模板更改为“天气(xx),白天高温(xx)度,夜间低温(xx)度”,并将晴、20以及2填充至更改后的反馈模板中,得到第三文字信息“天气晴,白天高温20度,夜间低温2度”。在另一种实施方式中,反馈模板中可以包括用于对用户的情绪作出安抚的文字信息。
步骤D:基于第三文字信息生成第二音频信息,并采用反馈音效播放第二音频信息。
在一种实施方式中,信息处理设备可以先获取用于表征对用户的情绪信息进行安抚的第四文字信息,并将第四文字信息设在第三文字信息之前,然后基于第四文字信息和第三文字信息生成第二音频信息。信息处理设备可以根据不同的情绪信息,确定不同的第四文字信息。例如,当情绪信息为着急时,确定的第四文字信息为“不要着急哦”,当情绪信息为高兴时,确定的文字信息为“很高兴回答您的问题”等等。
还需要说明的是,本发明实施中的第一预设情绪信息、第二预设情绪信息、第三预设情绪信息可以相同,也可以不同。
需要说明的是,本实施例中与其它实施例中相同步骤和相同内容的说明,可以参照其它实施例中的描述,此处不再赘述。
在发明实施例中,由于能够根据情绪信息确定与情绪信息匹配的反馈音效,并采用反馈音效播放音频信息,从而能够根据情绪信息的不同,选择不同的反馈音效播放音频信息,避免了相关技术中信息处理设备只能以一个固定不变的音效播放针对音频指令得到的音频信息的问题,因此,本发明实施例中的能够使用不同的音效播放针对音频指令得到的音频信息。
基于前述实施例,本发明的实施例提供一种信息处理设备3,该信息处理设备3可以应用于图1和2对应的实施例提供的一种信息处理方法中,参照图3所示,该信息处理设备3可以包括:处理器31、存储器32和通信总线33,其中:
通信总线33用于实现处理器31和存储器32之间的通信连接。
处理器31用于执行存储器32中存储的信息处理方法的程序,以实现以下步骤:
接收用户输入的包括有第一音频信息的音频指令,并基于音频指令得到音频特征信息;
基于音频特征信息确定与音频特征信息匹配的情绪信息;
基于情绪信息确定与情绪信息匹配的反馈音效;
采用反馈音效播放针对音频指令得到的第二音频信息。
在本发明的其他实施例中,处理器31用于执行存储器32中存储的基于情绪信息确定与情绪信息匹配的反馈音效,以实现以下步骤:
获取语音特征数据库;其中,语音特征数据库包括至少两个第一预设情绪信息,和与至少两个第一预设情绪信息对应的预设反馈音效;
若语音特征数据库包括与情绪信息匹配的第一预设情绪信息,基于情绪信息,从语音特征数据库中确定反馈音效。
在本发明的其他实施例中,处理器31用于执行存储器32中存储的接收用户输入的包括有第一音频信息的音频指令,并基于音频指令得到音频特征信息,以实现以下步骤:
接收用户输入的包括有第一音频信息的音频指令,并基于音频指令对第一音频信息进行语义识别,得到第一文字信息;
相应地,处理器31用于执行存储器32中存储的基于音频特征信息确定与音频特征信息匹配的情绪信息,以实现以下步骤:
若第一文字信息与用于表征第二预设情绪信息的预定文字信息匹配,确定情绪信息为第二预设情绪信息。
在本发明的其他实施例中,处理器31用于执行存储器32中存储的接收用户输入的包括有第一音频信息的音频指令,并基于音频指令得到音频特征信息,以实现以下步骤:
接收用户输入的包括有第一音频信息的音频指令,并基于音频指令对第一音频信息进行语义识别,得到第一文字信息;
获取与第一音频信息对应的音频时长,并基于音频时长和第一文字信息确定目标语速;
相应地,处理器31用于执行存储器32中存储的基于音频特征信息确定与音频特征信息匹配的情绪信息,以实现以下步骤:
基于目标语速确定情绪信息。
在本发明的其他实施例中,处理器31用于执行存储器32中存储的基于目标语速确定情绪信息,以实现以下步骤:
获取至少一个预设语速范围和至少一个第三预设情绪信息之间的对应关系;
基于对应关系,确定与目标语速对应的情绪信息。
在本发明的其他实施例中,处理器31用于执行存储器32中存储的采用反馈音效播放针对音频指令得到的第二音频信息,以实现以下步骤:
对第一音频信息进行语义识别,得到第一文字信息;
基于第一文字信息和情绪信息,获取反馈模板;其中,反馈模板包括至少一个未填充部分;
获取第二文字信息,并填充第二文字信息至未填充部分得到第三文字信息;
基于第三文字信息生成第二音频信息,并采用反馈音效播放第二音频信息。
在发明实施例中,由于能够根据情绪信息确定与情绪信息匹配的反馈音效,并采用反馈音效播放音频信息,从而能够根据情绪信息的不同,选择不同的反馈音效播放音频信息,避免了相关技术中信息处理设备只能以一个固定不变的音效播放针对音频指令得到的音频信息的问题,因此,本发明实施例中的能够使用不同的音效播放针对音频指令得到的音频信息。
基于前述实施例,本发明的实施例提供一种计算机可读存储介质,计算机可读存储介质存储有一个或者多个程序,该一个或者多个程序可被一个或者多个处理器执行,以实现如上述任一项的信息处理方法的步骤。
需要说明的是,上述处理器可以为特定用途集成电路(ASIC,ApplicationSpecific Integrated Circuit)、数字信号处理器(DSP,Digital Signal Processor)、数字信号处理装置(DSPD,Digital Signal Processing Device)、可编程逻辑装置(PLD,Programmable Logic Device)、现场可编程门阵列(FPGA,Field Programmable GateArray)、中央处理器(CPU,Central Processing Unit)、信息处理器、微信息处理器、微处理器中的至少一种。可以理解地,实现上述处理器功能的电子器件还可以为其它,本申请实施例不作具体限定。
需要说明的是,上述计算机存储介质/存储器可以是只读存储器(Read OnlyMemory,ROM)、可编程只读存储器(Programmable Read-Only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,EPROM)、电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性随机存取存储器(Ferromagnetic Random Access Memory,FRAM)、快闪存储器(Flash Memory)、磁表面存储器、光盘、或只读光盘(Compact Disc Read-Only Memory,CD-ROM)等存储器;也可以是包括上述存储器之一或任意组合的各种终端,如移动电话、计算机、平板设备、个人数字助理等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,从语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的型式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所描述的方法。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可从计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (8)

1.一种信息处理方法,其特征在于,所述方法包括:
接收用户输入的包括有第一音频信息的音频指令,并基于所述音频指令得到音频特征信息;
基于所述音频特征信息确定与所述音频特征信息匹配的情绪信息;
基于所述情绪信息确定与所述情绪信息匹配的反馈音效;
基于所述第一音频信息和预设的反馈模板,生成第二音频信息;
采用所述反馈音效播放所述第二音频信息;
所述基于所述第一音频信息和预设的反馈模板,生成第二音频信息,包括:
对所述第一音频信息进行语义识别,得到第一文字信息;
基于所述第一文字信息和所述情绪信息,获取所述反馈模板;其中,所述反馈模板包括至少一个未填充部分;
获取第二文字信息,并填充所述第二文字信息至所述未填充部分得到第三文字信息;
获取第四文字信息,所述第四文字信息用于基于所述情绪信息对所述用户进行安抚;
基于所述第四文字信息和所述第三文字信息生成所述第二音频信息。
2.根据权利要求1所述的方法,其特征在于,所述基于所述情绪信息确定与所述情绪信息匹配的反馈音效,包括:
获取语音特征数据库;其中,所述语音特征数据库包括至少两个第一预设情绪信息,和与所述至少两个第一预设情绪信息对应的预设反馈音效;
若所述语音特征数据库包括与所述情绪信息匹配的所述第一预设情绪信息,基于所述情绪信息,从所述语音特征数据库中确定所述反馈音效。
3.根据权利要求1所述的方法,其特征在于,所述接收用户输入的包括有第一音频信息的音频指令,并基于所述音频指令得到音频特征信息,包括:
接收用户输入的包括有第一音频信息的音频指令,并基于所述音频指令对所述第一音频信息进行语义识别,得到第一文字信息;
相应地,所述基于所述音频特征信息确定与所述音频特征信息匹配的情绪信息,包括:
若所述第一文字信息与用于表征第二预设情绪信息的预定文字信息匹配,确定所述情绪信息为所述第二预设情绪信息。
4.根据权利要求1所述的方法,其特征在于,所述接收用户输入的包括有第一音频信息的音频指令,并基于所述音频指令得到音频特征信息,包括:
接收用户输入的包括有第一音频信息的音频指令,并基于所述音频指令对所述第一音频信息进行语义识别,得到第一文字信息;
获取与所述第一音频信息对应的音频时长,并基于所述音频时长和所述第一文字信息确定目标语速;
相应地,所述基于所述音频特征信息确定与所述音频特征信息匹配的情绪信息,包括:
基于所述目标语速确定所述情绪信息。
5.根据权利要求4所述的方法,其特征在于,所述基于所述目标语速确定所述情绪信息,包括:
获取至少一个预设语速范围和至少一个第三预设情绪信息之间的对应关系;
基于所述对应关系,确定与所述目标语速对应的所述情绪信息。
6.一种信息处理设备,其特征在于,所述设备包括:处理器、存储器和通信总线;
所述通信总线用于实现处理器和存储器之间的通信连接;
所述处理器用于执行存储器中的信息处理方法的程序,以实现以下步骤:
接收用户输入的包括有第一音频信息的音频指令,并基于所述音频指令得到音频特征信息;
基于所述音频特征信息确定与所述音频特征信息匹配的情绪信息;
基于所述情绪信息确定与所述情绪信息匹配的反馈音效;
基于所述第一音频信息和预设的反馈模板,生成第二音频信息;
采用所述反馈音效播放所述第二音频信息;
所述基于所述第一音频信息和预设的反馈模板,生成第二音频信息,包括:
对所述第一音频信息进行语义识别,得到第一文字信息;
基于所述第一文字信息和所述情绪信息,获取所述反馈模板;其中,所述反馈模板包括至少一个未填充部分;
获取第二文字信息,并填充所述第二文字信息至所述未填充部分得到第三文字信息;
获取第四文字信息,所述第四文字信息用于基于所述情绪信息对所述用户进行安抚;
基于所述第四文字信息和所述第三文字信息生成所述第二音频信息。
7.根据权利要求6所述的设备,其特征在于,所述处理器执行基于所述情绪信息确定与所述情绪信息匹配的反馈音效的步骤时,还可以实现以下步骤:
获取语音特征数据库;其中,所述语音特征数据库包括至少两个第一预设情绪信息,和与所述至少两个第一预设情绪信息对应的预设反馈音效;
若所述语音特征数据库包括与所述情绪信息匹配的所述第一预设情绪信息,基于所述情绪信息,从所述语音特征数据库中确定所述反馈音效。
8.一种计算机存储介质,其特征在于,所述计算机存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1至5中任一项所述的信息处理方法的步骤。
CN201811639291.3A 2018-12-29 2018-12-29 一种信息处理方法、设备及计算机存储介质 Active CN109697290B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811639291.3A CN109697290B (zh) 2018-12-29 2018-12-29 一种信息处理方法、设备及计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811639291.3A CN109697290B (zh) 2018-12-29 2018-12-29 一种信息处理方法、设备及计算机存储介质

Publications (2)

Publication Number Publication Date
CN109697290A CN109697290A (zh) 2019-04-30
CN109697290B true CN109697290B (zh) 2023-07-25

Family

ID=66233026

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811639291.3A Active CN109697290B (zh) 2018-12-29 2018-12-29 一种信息处理方法、设备及计算机存储介质

Country Status (1)

Country Link
CN (1) CN109697290B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110472007A (zh) * 2019-07-04 2019-11-19 深圳追一科技有限公司 信息推送方法、装置、设备及存储介质
CN110853606A (zh) * 2019-11-26 2020-02-28 Oppo广东移动通信有限公司 一种音效配置方法、装置及计算机可读存储介质
CN111312245B (zh) * 2020-02-18 2023-08-08 腾讯科技(深圳)有限公司 一种语音应答方法、装置和存储介质
CN111370030A (zh) * 2020-04-03 2020-07-03 龙马智芯(珠海横琴)科技有限公司 语音情感检测方法与装置、存储介质、电子设备
CN111863034A (zh) * 2020-06-19 2020-10-30 清华大学 一种语音情绪的反馈方法、装置、电子设备及存储介质
CN111914104A (zh) * 2020-08-07 2020-11-10 杭州栖金科技有限公司 影音特效处理方法、设备及机器可读存储介质
CN112235183B (zh) * 2020-08-29 2021-11-12 上海量明科技发展有限公司 通信消息处理方法、设备及即时通信客户端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016090762A1 (zh) * 2014-12-12 2016-06-16 中兴通讯股份有限公司 一种语音信号的处理方法、终端及计算机存储介质
CN107943405A (zh) * 2016-10-13 2018-04-20 广州市动景计算机科技有限公司 语音播报装置、方法、浏览器及用户终端
US10096319B1 (en) * 2017-03-13 2018-10-09 Amazon Technologies, Inc. Voice-based determination of physical and emotional characteristics of users
CN108986804A (zh) * 2018-06-29 2018-12-11 北京百度网讯科技有限公司 人机交互处理方法、装置、用户终端、处理服务器及系统
CN109036405A (zh) * 2018-07-27 2018-12-18 百度在线网络技术(北京)有限公司 语音交互方法、装置、设备及存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0809759A2 (pt) * 2007-04-26 2014-10-07 Ford Global Tech Llc "sistema informativo emotivo, sistemas de informações emotivas, métodos de condução emotiva de informações, sistemas informativos emotivos para um veículo de passageiro e método implementado por computador"
CN103543979A (zh) * 2012-07-17 2014-01-29 联想(北京)有限公司 一种输出语音的方法、语音交互的方法及电子设备
US9454604B2 (en) * 2013-03-15 2016-09-27 Futurewei Technologies, Inc. Motion-based music recommendation for mobile devices
US10068588B2 (en) * 2014-07-21 2018-09-04 Microsoft Technology Licensing, Llc Real-time emotion recognition from audio signals
CN105045919B (zh) * 2015-08-24 2019-08-16 北京云知声信息技术有限公司 一种信息输出方法及装置
CN105654950B (zh) * 2016-01-28 2019-07-16 百度在线网络技术(北京)有限公司 自适应语音反馈方法和装置
WO2017168936A1 (ja) * 2016-03-31 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10726836B2 (en) * 2016-08-12 2020-07-28 Kt Corporation Providing audio and video feedback with character based on voice command
CN106372059B (zh) * 2016-08-30 2018-09-11 北京百度网讯科技有限公司 信息输入方法和装置
CN107015781B (zh) * 2017-03-28 2021-02-19 联想(北京)有限公司 语音识别方法和系统
CN107093421A (zh) * 2017-04-20 2017-08-25 深圳易方数码科技股份有限公司 一种语音模拟方法和装置
CN107545029A (zh) * 2017-07-17 2018-01-05 百度在线网络技术(北京)有限公司 智能设备的语音反馈方法、设备及可读介质
CN108304434B (zh) * 2017-09-04 2021-11-05 腾讯科技(深圳)有限公司 信息反馈方法和终端设备
CN107871500B (zh) * 2017-11-16 2021-07-20 百度在线网络技术(北京)有限公司 一种播放多媒体的方法和装置
CN108039172A (zh) * 2017-12-01 2018-05-15 Tcl通力电子(惠州)有限公司 智能蓝牙音箱语音交互方法、智能蓝牙音箱及存储介质
CN108334498A (zh) * 2018-02-07 2018-07-27 百度在线网络技术(北京)有限公司 用于处理语音请求的方法和装置
CN108877794A (zh) * 2018-06-04 2018-11-23 百度在线网络技术(北京)有限公司 用于人机交互的方法、装置、电子设备和计算机可读存储介质
CN108897848A (zh) * 2018-06-28 2018-11-27 北京百度网讯科技有限公司 机器人互动方法、装置及设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016090762A1 (zh) * 2014-12-12 2016-06-16 中兴通讯股份有限公司 一种语音信号的处理方法、终端及计算机存储介质
CN107943405A (zh) * 2016-10-13 2018-04-20 广州市动景计算机科技有限公司 语音播报装置、方法、浏览器及用户终端
US10096319B1 (en) * 2017-03-13 2018-10-09 Amazon Technologies, Inc. Voice-based determination of physical and emotional characteristics of users
CN108986804A (zh) * 2018-06-29 2018-12-11 北京百度网讯科技有限公司 人机交互处理方法、装置、用户终端、处理服务器及系统
CN109036405A (zh) * 2018-07-27 2018-12-18 百度在线网络技术(北京)有限公司 语音交互方法、装置、设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于单片机的情绪调节仪的开发;李金喜;陈继永;;南通纺织职业技术学院学报(第03期);11-14 *
基于多模态信息融合的语音意图理解方法;郑彬彬;贾珈;蔡莲红;;中国科技论文在线(第07期);495-500 *

Also Published As

Publication number Publication date
CN109697290A (zh) 2019-04-30

Similar Documents

Publication Publication Date Title
CN109697290B (zh) 一种信息处理方法、设备及计算机存储介质
CN107591155B (zh) 语音识别方法及装置、终端及计算机可读存储介质
CN112786007B (zh) 语音合成方法、装置、可读介质及电子设备
CN106652997A (zh) 一种音频合成的方法及终端
CN111161725B (zh) 一种语音交互方法、装置、计算设备及存储介质
CN107705782B (zh) 用于确定音素发音时长的方法和装置
CN110377782B (zh) 音频检索方法、装置和存储介质
CN114443891B (zh) 编码器的生成方法、指纹提取方法、介质及电子设备
CN113327580A (zh) 语音合成方法、装置、可读介质及电子设备
CN111192594A (zh) 人声和伴奏分离方法及相关产品
CN108682415B (zh) 语音搜索方法、装置和系统
CN114155853A (zh) 一种拒识方法、装置、设备及存储介质
CN108829739A (zh) 一种信息推送方法及装置
CN111883139A (zh) 用于筛选目标语音的方法、装置、设备和介质
CN107910005B (zh) 交互文本的目标业务定位方法及装置
CN111259189A (zh) 一种音乐分类方法及装置
CN107680598B (zh) 基于好友声纹通讯录的信息交互方法、装置及其设备
CN111737515B (zh) 音频指纹提取方法、装置、计算机设备和可读存储介质
CN110827850B (zh) 音频分离方法、装置、设备及计算机可读存储介质
CN111198965A (zh) 一种歌曲检索方法、装置、服务器及存储介质
CN113032616B (zh) 音频推荐的方法、装置、计算机设备和存储介质
CN114420093A (zh) 一种同步调控音量大小与振动强度的方法及系统
CN112101023B (zh) 文本处理方法、装置以及电子设备
Blaszke et al. Determination of low-level audio descriptors of a musical instrument sound using neural network
CN114428838A (zh) 内容召回方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant