CN107423364B - 基于人工智能的回答话术播报方法、装置及存储介质 - Google Patents
基于人工智能的回答话术播报方法、装置及存储介质 Download PDFInfo
- Publication number
- CN107423364B CN107423364B CN201710480677.3A CN201710480677A CN107423364B CN 107423364 B CN107423364 B CN 107423364B CN 201710480677 A CN201710480677 A CN 201710480677A CN 107423364 B CN107423364 B CN 107423364B
- Authority
- CN
- China
- Prior art keywords
- voice
- answer
- broadcasting
- recorded
- query
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 14
- 230000008451 emotion Effects 0.000 claims abstract description 35
- 230000036651 mood Effects 0.000 claims abstract description 32
- 238000001356 surgical procedure Methods 0.000 claims description 11
- 238000004458 analytical method Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 239000000758 substrate Substances 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 3
- 238000005516 engineering process Methods 0.000 description 13
- 230000002996 emotional effect Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 241000989913 Gunnera petaloidea Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000009223 counseling Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/027—Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3343—Query execution using phonetics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了基于人工智能的回答话术播报方法、装置及存储介质,其中方法包括:获取用户输入的语音query;生成该query对应的回答话术;获取回答话术中的语气词对应的、与回答话术相匹配的情绪意义的录制音;将获取到的录制音与TTS生成音相结合,进行回答话术的TTS播报。应用本发明所述方案,能够提升回答话术的播报效果等。
Description
【技术领域】
本发明涉及计算机应用技术,特别涉及基于人工智能的回答话术播报方法、装置及存储介质。
【背景技术】
人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。
目前,智能语音设备越来越普及,以智能音箱为例,用户可通过语音与智能音箱进行交互,而和用户对话的就是一个智能语音助手,智能语音助手通过从文本到语音(TTS,Text To Speech)技术和用户进行对话。
在用户和智能音箱对话时,会希望是和一个类人的情感体进行对话,即希望智能音箱能够很好地表达语气、情绪等。
为此,现有技术中通常使用带有语气词的话术,即在获取到用户输入的语音查询(query)之后,生成带有语气词的回答话术,进而进行回答话术的TTS播报,所述语气词可包括哈哈、啦、哦等。
但是,当前各类智能音箱都没法很好地表达语气词在不同语境下的情绪意义。比如,“哈哈”有很多种情绪意义,如:冷笑的、敷衍的、开心的、极度兴奋的等,“哦”也有很多种情绪意义,如:疑问的,肯定的,惊讶的等。而目前的各类智能音箱都只能表达单一情绪,从而降低了回答话术的播报效果。
【发明内容】
有鉴于此,本发明提供了基于人工智能的回答话术播报方法、装置及存储介质,能够提升回答话术的播报效果。
具体技术方案如下:
一种基于人工智能的回答话术播报方法,包括:
获取用户输入的语音查询query;
生成所述query对应的回答话术;
获取所述回答话术中的语气词对应的、与所述回答话术相匹配的情绪意义的录制音;
将获取到的录制音与从文本到语音TTS生成音相结合,进行所述回答话术的TTS播报。
根据本发明一优选实施例,所述生成所述query对应的回答话术包括:
确定所述query对应的需求;
从所述需求对应的M种话术生成算法中选出一种话术生成算法,M为大于一的正整数;
利用选出的话术生成算法生成所述回答话术。
根据本发明一优选实施例,所述确定所述query对应的需求包括:
对所述query进行语音识别,得到语音识别结果;
通过对所述语音识别结果进行语义解析,确定出所述query对应的需求;
所述从所述需求对应的M种话术生成算法中选出一种话术生成算法包括:
从所述需求对应的M种话术生成算法中随机选出一种话术生成算法。
根据本发明一优选实施例,所述获取所述回答话术中的语气词对应的、与所述回答话术相匹配的情绪意义的录制音包括:
针对所述回答话术中的每个语气词,分别进行以下处理:
为所述语气词配置与所述回答话术相匹配的情绪意义;
获取所述情绪意义对应的录制音;
其中,所述语气词对应至少一个预先生成的录制音,每个录制音分别对应一种不同的情绪意义。
根据本发明一优选实施例,所述将获取到的录制音与TTS生成音相结合,进行所述回答话术的TTS播报包括:
当需要播报获取到的录制音对应的语气词时,播报获取到的录制音,否则,播报TTS生成音。
一种基于人工智能的回答话术播报装置,包括:接收单元、生成单元、获取单元以及播报单元;
所述接收单元,用于获取用户输入的语音查询query,并发送给所述生成单元;
所述生成单元,用于生成所述query对应的回答话术,并发送给所述获取单元;
所述获取单元,用于获取所述回答话术中的语气词对应的、与所述回答话术相匹配的情绪意义的录制音,并将所述回答话术以及所述录制音发送给所述播报单元;
所述播报单元,用于将获取到的录制音与从文本到语音TTS生成音相结合,进行所述回答话术的TTS播报。
根据本发明一优选实施例,所述生成单元确定所述query对应的需求,从所述需求对应的M种话术生成算法中选出一种话术生成算法,M为大于一的正整数,利用选出的话术生成算法生成所述回答话术。
根据本发明一优选实施例,所述生成单元对所述query进行语音识别,得到语音识别结果,通过对所述语音识别结果进行语义解析,确定出所述query对应的需求,并从所述需求对应的M种话术生成算法中随机选出一种话术生成算法,利用选出的话术生成算法生成所述回答话术。
根据本发明一优选实施例,所述获取单元针对所述回答话术中的每个语气词,分别进行以下处理:
为所述语气词配置与所述回答话术相匹配的情绪意义;
获取所述情绪意义对应的录制音;
其中,所述语气词对应至少一个预先生成的录制音,每个录制音分别对应一种不同的情绪意义。
根据本发明一优选实施例,所述播报单元在需要播报获取到的录制音对应的语气词时,播报获取到的录制音,否则,播报TTS生成音。
一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现如以上所述的方法。
一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如以上所述的方法。
基于上述介绍可以看出,采用本发明所述方案,在生成用户输入的query对应的回答话术之后,可进一步获取回答话术中的语气词对应的、与回答话术相匹配的情绪意义的录制音,进而将获取到的录制音与TTS生成音相结合,进行回答话术的TTS播报,由于针对语气词引入了带有情绪意义的录制音,并实现了录制音与TTS生成音的结合播报,因此,能够更好地进行回答话术的情感化表达,从而提升了回答话术的播报效果。
另外,采用本发明所述方案,通过设置多种话术生成算法,对于相同的需求,可生成不同的回答话术,从而实现了回答话术的多样化,并使得回答更为自然丰富,进而增强了对于用户的新鲜感和智能感。
【附图说明】
图1为本发明所述回答话术播报方法实施例的流程图。
图2为本发明所述用户与智能音箱的交互过程示意图。
图3为本发明所述回答话术播报装置实施例的组成结构示意图。
图4示出了适于用来实现本发明实施方式的示例性计算机系统/服务器12的框图。
【具体实施方式】
为了使本发明的技术方案更加清楚、明白,以下参照附图并举实施例,对本发明所述方案进行进一步说明。
显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
图1为本发明所述回答话术播报方法实施例的流程图,如图1所示,包括以下具体实现方式。
在101中,获取用户输入的语音query。
以智能音箱为例,用户可通过语音与智能音箱进行对话,在对话过程中,用户输入的语音即为query。
在102中,生成query对应的回答话术。
在获取到用户的query之后,可首先按照现有技术对query进行语音识别,从而得到语音识别结果,进而可通过对语音识别结果进行语义解析等,确定出query对应的需求。
针对一个具体的需求,如播放某一歌手的某一歌曲的需求,可给出多样的回答话术,而不是单一的回答话术。
相应地,针对每个需求,可预先分别设置M种话术生成算法,M为大于一的正整数,每种话术生成算法分别对应一种不同的回答话术。
这样,在确定出用户输入的query对应的需求之后,可从该需求对应的M种话术生成算法中选出一种话术生成算法,进而利用选出的话术生成算法生成回答话术。
如何进行选择不作限制,比如,可从M种话术生成算法中随机选出一种话术生成算法。
所述话术生成算法,也可称为话术生成规则,即规定了回答话术中需要包括哪些内容等。
以智能音箱为例,假设用户输入的query为“给我播放周杰伦的龙卷风”,那么对应的回答话术可如表一所示:
1 | 嗯嗯,我也是周杰伦的小迷妹哦,这就给你播放龙卷风 |
2 | 好呀,我们一起来听周杰伦的龙卷风 |
3 | OK,周杰伦,龙卷风 |
4 | 哇,我的最爱,周杰伦龙卷风 |
5 | 没问题,龙卷风 |
6 | 好呀,我们一起来听周杰伦的龙卷风 |
7 | 好的,难不倒我中华小曲库,来听周杰伦的龙卷风 |
8 | 周杰伦,龙卷风 |
9 | OK,为你播放周杰伦的龙卷风 |
10 | 没问题,为你播放周杰伦的龙卷风 |
11 | 听你的,那就播放周杰伦的龙卷风啦! |
表一query“给我播放周杰伦的龙卷风”对应的回答话术
针对query“给我播放周杰伦的龙卷风”,可随机生成表一所示的11种回答话术中的任意一种回答话术。
在103中,获取回答话术中的语气词对应的、与回答话术相匹配的情绪意义的录制音。
可针对回答话术中可能用到的各种语气词,预先分别录制对应于不同情绪意义的录制音。
针对每个语气词,可分别录制至少一种录制音,较佳地,可分别录制多种录制音。
比如,对于语气词“哦”,可分别录制“疑问”、“肯定”、“惊讶”等情绪意义的录制音。
这样,在102中生成query对应的回答话术之后,可针对回答话术中的每个语气词,分别按照以下方式进行处理:
为该语气词配置与回答话术相匹配的情绪意义;
获取该情绪意义对应的录制音;
如前所述,该语气词对应至少一个预先生成的录制音,每个录制音分别对应一种不同的情绪意义。
可通过对回答话术进行语义解析等,为语气词配置匹配的情绪意义。
举例说明:
对于语气词“哦”,预先分别录制了“疑问”、“肯定”、“惊讶”等情绪意义的录制音;
假设回答话术为“哦?这么巧!我也喜欢这首歌耶,马上为你播放周杰伦的龙卷风”,通过语义解析等,可以确定出该回答话术中的“哦”表达“惊讶”的情绪意义;
那么则可确定语气词“哦”匹配的情绪意义为“惊讶”,相应地,获取“惊讶”情绪意义对应的录制音。
在实际应用中,为了确保能够获取到所需的录制音,可针对每个语气词,尽可能地生成该语气词对应的各种情绪意义的录制音。
在104中,将获取到的录制音与TTS生成音相结合,进行回答话术的TTS播报。
假设回答话术为“哇,我的最爱,周杰伦龙卷风”,按照现有技术中,整个回答话术均采用TTS生成音,进行回答话术的TTS播报。
而采用本发明所述方案后,为回答话术中的语气词配置了匹配的情绪意义,并指令TTS使用该情绪意义的录制音。
相应地,可将获取到的录制音与TTS生成音相结合,进行回答话术的TTS播报,即实现录制音与TTS生成音的结合播报。
具体地,在播报过程中,当需要播报获取到的录制音对应的语气词时,则播报获取到的录制音,否则,播报TTS生成音。
基于上述介绍,以智能音箱为例,图2为本发明所述用户与智能音箱的交互过程示意图,如图2所示,用户query的语音识别结果为“给我播放周杰伦的龙卷风”,通过语义解析等,生成回答话术,并为回答话术中的语气词进行情绪配置,即确定对应的情绪意义的录制音,进而进行录制音与TTS生成音相结合的TTS播报,具体实现请参照前述相关说明,不再赘述。
总之,采用上述实施例所述方案,在生成用户输入的query对应的回答话术之后,可进一步获取回答话术中的语气词对应的、与回答话术相匹配的情绪意义的录制音,进而将获取到的录制音与TTS生成音相结合,进行回答话术的TTS播报,由于针对语气词引入了带有情绪意义的录制音,并实现了录制音与TTS生成音的结合播报,因此,能够更好地进行回答话术的情感化表达,从而提升了回答话术的播报效果。
另外,采用上述实施例所述方案,通过设置多种话术生成算法,对于相同的需求,可生成不同的回答话术,从而实现了回答话术的多样化,进而避免了用户总是得到相同的回答的问题,使得回答更为自然丰富,进而增强了对于用户的新鲜感和智能感。
以上是关于方法实施例的介绍,以下通过装置实施例,对本发明所述方案进行进一步说明。
图3为本发明所述回答话术播报装置实施例的组成结构示意图,如图3所示,包括:接收单元301、生成单元302、获取单元303以及播报单元304。
接收单元301,用于获取用户输入的语音query,并发送给生成单元302。
生成单元302,用于生成query对应的回答话术,并发送给获取单元303。
获取单元303,用于获取回答话术中的语气词对应的、与回答话术相匹配的情绪意义的录制音,并将回答话术以及录制音发送给播报单元304。
播报单元304,用于将获取到的录制音与TTS生成音相结合,进行回答话术的TTS播报。
其中,生成单元302在获取到用户的query之后,可首先按照现有技术对query进行语音识别,从而得到语音识别结果,进而可通过对语音识别结果进行语义解析等,确定出query对应的需求。
针对一个具体的需求,如播放某一歌手的某一歌曲的需求,可给出多样的回答话术,而不是单一的回答话术。
相应地,针对每个需求,可预先分别设置M种话术生成算法,M为大于一的正整数,每种话术生成算法分别对应一种不同的回答话术。
这样,生成单元302在确定出用户输入的query对应的需求之后,可从该需求对应的M种话术生成算法中选出一种话术生成算法,利用选出的话术生成算法生成回答话术。
如何进行选择不作限制,比如,可从M种话术生成算法中随机选出一种话术生成算法。
另外,可针对回答话术中可能用到的各种语气词,预先分别录制对应于不同情绪意义的录制音。
针对每个语气词,可分别录制至少一种录制音,较佳地,可分别录制多种录制音。
比如,对于语气词“哦”,可分别录制“疑问”、“肯定”、“惊讶”等情绪意义的录制音。
这样,获取单元303在获取到用户输入的query对应的回答话术之后,可针对回答话术中的每个语气词,分别进行以下处理:
为该语气词配置与回答话术相匹配的情绪意义;
获取该情绪意义对应的录制音;
如前所述,该语气词对应至少一个预先生成的录制音,每个录制音分别对应一种不同的情绪意义。
相应地,播报单元304可将获取到的录制音与TTS生成音相结合,进行回答话术的TTS播报。
比如,当需要播报获取到的录制音对应的语气词时,播报单元304播报获取到的录制音,否则,播报TTS生成音,从而实现了录制音与TTS生成音的结合播报。
图3所示装置实施例的具体工作流程请参照前述方法实施例中的相应说明,不再赘述。
可以看出,采用上述实施例所述方案,在生成用户输入的query对应的回答话术之后,可进一步获取回答话术中的语气词对应的、与回答话术相匹配的情绪意义的录制音,进而将获取到的录制音与TTS生成音相结合,进行回答话术的TTS播报,由于针对语气词引入了带有情绪意义的录制音,并实现了录制音与TTS生成音的结合播报,因此,能够更好地进行回答话术的情感化表达,从而提升了回答话术的播报效果。
另外,采用上述实施例所述方案,通过设置多种话术生成算法,对于相同的需求,可生成不同的回答话术,从而实现了回答话术的多样化,并使得回答更为自然丰富,进而增强了对于用户的新鲜感和智能感。
图4示出了适于用来实现本发明实施方式的示例性计算机系统/服务器12的框图。图4显示的计算机系统/服务器12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,计算机系统/服务器12以通用计算设备的形式表现。计算机系统/服务器12的组件可以包括但不限于:一个或者多个处理器(处理单元)16,存储器28,连接不同系统组件(包括存储器28和处理器16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机系统/服务器12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机系统/服务器12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机系统/服务器12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图4未显示,通常称为“硬盘驱动器”)。尽管图4中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机系统/服务器12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机系统/服务器12交互的设备通信,和/或与使得该计算机系统/服务器12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机系统/服务器12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图4所示,网络适配器20通过总线18与计算机系统/服务器12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机系统/服务器12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理器16通过运行存储在存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现图1所示实施例中的方法,即获取用户输入的语音query,生成该query对应的回答话术,获取回答话术中的语气词对应的、与回答话术相匹配的情绪意义的录制音,将获取到的录制音与TTS生成音相结合,进行回答话术的TTS播报。
具体实现请参照前述各实施例中的相应说明,不再赘述。
本发明同时公开了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时将实现如图1所示实施例中的方法。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法等,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。
Claims (6)
1.一种基于人工智能的回答话术播报方法,其特征在于,包括:
获取用户输入的语音查询query;
生成所述query对应的回答话术,包括:对所述query进行语音识别,得到语音识别结果,通过对所述语音识别结果进行语义解析,确定出所述query对应的需求,从所述需求对应的M种话术生成算法中随机选出一种话术生成算法,M为大于一的正整数,利用选出的话术生成算法生成所述回答话术;
获取所述回答话术中的语气词对应的、与所述回答话术相匹配的情绪意义的录制音,包括:针对所述回答话术中的每个语气词,分别为所述语气词配置与所述回答话术相匹配的情绪意义,并获取所述情绪意义对应的录制音,其中,所述语气词对应至少一个预先生成的录制音,每个录制音分别对应一种不同的情绪意义;
将获取到的录制音与从文本到语音TTS生成音相结合,进行所述回答话术的TTS播报。
2.根据权利要求1所述的方法,其特征在于,
所述将获取到的录制音与TTS生成音相结合,进行所述回答话术的TTS播报包括:
当需要播报获取到的录制音对应的语气词时,播报获取到的录制音,否则,播报TTS生成音。
3.一种基于人工智能的回答话术播报装置,其特征在于,包括:接收单元、生成单元、获取单元以及播报单元;
所述接收单元,用于获取用户输入的语音查询query,并发送给所述生成单元;
所述生成单元,用于生成所述query对应的回答话术,包括:对所述query进行语音识别,得到语音识别结果,通过对所述语音识别结果进行语义解析,确定出所述query对应的需求,从所述需求对应的M种话术生成算法中随机选出一种话术生成算法,M为大于一的正整数,利用选出的话术生成算法生成所述回答话术,并发送给所述获取单元;
所述获取单元,用于获取所述回答话术中的语气词对应的、与所述回答话术相匹配的情绪意义的录制音,包括:针对所述回答话术中的每个语气词,分别为所述语气词配置与所述回答话术相匹配的情绪意义,并获取所述情绪意义对应的录制音,其中,所述语气词对应至少一个预先生成的录制音,每个录制音分别对应一种不同的情绪意义,并将所述回答话术以及所述录制音发送给所述播报单元;
所述播报单元,用于将获取到的录制音与从文本到语音TTS生成音相结合,进行所述回答话术的TTS播报。
4.根据权利要求3所述的装置,其特征在于,
所述播报单元在需要播报获取到的录制音对应的语气词时,播报获取到的录制音,否则,播报TTS生成音。
5.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1~2中任一项所述的方法。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1~2中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710480677.3A CN107423364B (zh) | 2017-06-22 | 2017-06-22 | 基于人工智能的回答话术播报方法、装置及存储介质 |
US15/991,411 US10923102B2 (en) | 2017-06-22 | 2018-05-29 | Method and apparatus for broadcasting a response based on artificial intelligence, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710480677.3A CN107423364B (zh) | 2017-06-22 | 2017-06-22 | 基于人工智能的回答话术播报方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107423364A CN107423364A (zh) | 2017-12-01 |
CN107423364B true CN107423364B (zh) | 2024-01-26 |
Family
ID=60426175
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710480677.3A Active CN107423364B (zh) | 2017-06-22 | 2017-06-22 | 基于人工智能的回答话术播报方法、装置及存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10923102B2 (zh) |
CN (1) | CN107423364B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109033257A (zh) * | 2018-07-06 | 2018-12-18 | 中国平安人寿保险股份有限公司 | 话术推荐方法、装置、计算机设备和存储介质 |
CN108877800A (zh) * | 2018-08-30 | 2018-11-23 | 出门问问信息科技有限公司 | 语音交互方法、装置、电子设备及可读存储介质 |
CN109361804B (zh) * | 2018-11-26 | 2021-01-26 | 维沃移动通信有限公司 | 来电处理方法及移动终端 |
CN111435597B (zh) * | 2019-01-15 | 2023-01-10 | 珠海格力电器股份有限公司 | 语音信息的处理方法和装置 |
WO2020220914A1 (zh) * | 2019-04-30 | 2020-11-05 | 京东方科技集团股份有限公司 | 语音问答方法及其装置、计算机可读存储介质和电子设备 |
CN110444229A (zh) * | 2019-06-17 | 2019-11-12 | 深圳壹账通智能科技有限公司 | 基于语音识别的通信服务方法、装置、计算机设备及存储介质 |
CN110459210A (zh) * | 2019-07-30 | 2019-11-15 | 平安科技(深圳)有限公司 | 基于语音分析的问答方法、装置、设备及存储介质 |
CN110600002B (zh) * | 2019-09-18 | 2022-04-22 | 北京声智科技有限公司 | 语音合成方法、装置及电子设备 |
US11869497B2 (en) | 2020-03-10 | 2024-01-09 | MeetKai, Inc. | Parallel hypothetical reasoning to power a multi-lingual, multi-turn, multi-domain virtual assistant |
US12045572B2 (en) | 2020-03-10 | 2024-07-23 | MeetKai, Inc. | System and method for handling out of scope or out of domain user inquiries |
CN115699036A (zh) | 2020-03-17 | 2023-02-03 | 梅特凯股份有限公司 | 支持跨平台、边缘-云混合人工智能服务的智能层 |
US11995561B2 (en) * | 2020-03-17 | 2024-05-28 | MeetKai, Inc. | Universal client API for AI services |
CN111564153B (zh) * | 2020-04-02 | 2021-10-01 | 湖南声广科技有限公司 | 广播电台智能主播音乐节目系统 |
WO2022076471A1 (en) | 2020-10-05 | 2022-04-14 | MeetKai, Inc. | System and method for automatically generating question and query pairs |
CN114610861B (zh) * | 2022-05-11 | 2022-08-26 | 之江实验室 | 基于变分自编码器的融入知识和感情的端到端对话方法 |
CN115273852A (zh) * | 2022-06-21 | 2022-11-01 | 北京小米移动软件有限公司 | 语音应答方法、装置、可读存储介质及芯片 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001117752A (ja) * | 1999-10-15 | 2001-04-27 | Sony Corp | 情報処理装置および情報処理方法、並びに記録媒体 |
CN101030368A (zh) * | 2006-03-03 | 2007-09-05 | 国际商业机器公司 | 在保持情感的同时跨通道进行通信的方法和系统 |
CN101923669A (zh) * | 2008-07-18 | 2010-12-22 | 史迪芬·凯斯 | 智能的适应式设计 |
CN103543979A (zh) * | 2012-07-17 | 2014-01-29 | 联想(北京)有限公司 | 一种输出语音的方法、语音交互的方法及电子设备 |
CN103811009A (zh) * | 2014-03-13 | 2014-05-21 | 华东理工大学 | 一种基于语音分析的智能电话客服系统 |
CN104217149A (zh) * | 2013-05-31 | 2014-12-17 | 国际商业机器公司 | 基于语音的生物认证方法及设备 |
CN104239515A (zh) * | 2014-09-16 | 2014-12-24 | 广东欧珀移动通信有限公司 | 心情信息实现方法与系统 |
US9015032B2 (en) * | 2011-11-28 | 2015-04-21 | International Business Machines Corporation | Multilingual speech recognition and public announcement |
CN105162892A (zh) * | 2015-10-15 | 2015-12-16 | 戚克明 | 话术练习处理方法、装置及系统,话术练习监督方法 |
CN105376433A (zh) * | 2015-09-24 | 2016-03-02 | 深圳市车音网科技有限公司 | 语音自动回访装置、系统及其方法 |
CN105913039A (zh) * | 2016-04-26 | 2016-08-31 | 北京光年无限科技有限公司 | 基于视觉和语音的对话数据交互处理方法及装置 |
CN106024015A (zh) * | 2016-06-14 | 2016-10-12 | 上海航动科技有限公司 | 一种呼叫中心坐席人员监控方法及系统 |
CN106486121A (zh) * | 2016-10-28 | 2017-03-08 | 北京光年无限科技有限公司 | 应用于智能机器人的语音优化方法及装置 |
CN106599998A (zh) * | 2016-12-01 | 2017-04-26 | 竹间智能科技(上海)有限公司 | 基于情感特征调整机器人回答的方法及系统 |
CN106682090A (zh) * | 2016-11-29 | 2017-05-17 | 上海智臻智能网络科技股份有限公司 | 主动交互实现装置、方法及智能语音交互设备 |
CN106777236A (zh) * | 2016-12-27 | 2017-05-31 | 北京百度网讯科技有限公司 | 基于深度问答的查询结果的展现方法和装置 |
CN106874472A (zh) * | 2017-02-16 | 2017-06-20 | 深圳追科技有限公司 | 一种拟人机器人客服方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140213222A1 (en) * | 2012-11-09 | 2014-07-31 | II Rollan Roberts | Automated call and SMS greetings. |
WO2017112813A1 (en) * | 2015-12-22 | 2017-06-29 | Sri International | Multi-lingual virtual personal assistant |
CN106415527B (zh) * | 2016-08-31 | 2019-07-30 | 北京小米移动软件有限公司 | 消息通信方法及装置 |
-
2017
- 2017-06-22 CN CN201710480677.3A patent/CN107423364B/zh active Active
-
2018
- 2018-05-29 US US15/991,411 patent/US10923102B2/en active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001117752A (ja) * | 1999-10-15 | 2001-04-27 | Sony Corp | 情報処理装置および情報処理方法、並びに記録媒体 |
CN101030368A (zh) * | 2006-03-03 | 2007-09-05 | 国际商业机器公司 | 在保持情感的同时跨通道进行通信的方法和系统 |
CN101923669A (zh) * | 2008-07-18 | 2010-12-22 | 史迪芬·凯斯 | 智能的适应式设计 |
US9015032B2 (en) * | 2011-11-28 | 2015-04-21 | International Business Machines Corporation | Multilingual speech recognition and public announcement |
CN103543979A (zh) * | 2012-07-17 | 2014-01-29 | 联想(北京)有限公司 | 一种输出语音的方法、语音交互的方法及电子设备 |
CN104217149A (zh) * | 2013-05-31 | 2014-12-17 | 国际商业机器公司 | 基于语音的生物认证方法及设备 |
CN103811009A (zh) * | 2014-03-13 | 2014-05-21 | 华东理工大学 | 一种基于语音分析的智能电话客服系统 |
CN104239515A (zh) * | 2014-09-16 | 2014-12-24 | 广东欧珀移动通信有限公司 | 心情信息实现方法与系统 |
CN105376433A (zh) * | 2015-09-24 | 2016-03-02 | 深圳市车音网科技有限公司 | 语音自动回访装置、系统及其方法 |
CN105162892A (zh) * | 2015-10-15 | 2015-12-16 | 戚克明 | 话术练习处理方法、装置及系统,话术练习监督方法 |
CN105913039A (zh) * | 2016-04-26 | 2016-08-31 | 北京光年无限科技有限公司 | 基于视觉和语音的对话数据交互处理方法及装置 |
CN106024015A (zh) * | 2016-06-14 | 2016-10-12 | 上海航动科技有限公司 | 一种呼叫中心坐席人员监控方法及系统 |
CN106486121A (zh) * | 2016-10-28 | 2017-03-08 | 北京光年无限科技有限公司 | 应用于智能机器人的语音优化方法及装置 |
CN106682090A (zh) * | 2016-11-29 | 2017-05-17 | 上海智臻智能网络科技股份有限公司 | 主动交互实现装置、方法及智能语音交互设备 |
CN106599998A (zh) * | 2016-12-01 | 2017-04-26 | 竹间智能科技(上海)有限公司 | 基于情感特征调整机器人回答的方法及系统 |
CN106777236A (zh) * | 2016-12-27 | 2017-05-31 | 北京百度网讯科技有限公司 | 基于深度问答的查询结果的展现方法和装置 |
CN106874472A (zh) * | 2017-02-16 | 2017-06-20 | 深圳追科技有限公司 | 一种拟人机器人客服方法 |
Non-Patent Citations (2)
Title |
---|
对人工智能在金融领域应用的思考;杨涛;;国际金融(12);第26-29页 * |
幽默计算及其应用研究;林鸿飞;张冬瑜;杨亮;徐博;;山东大学学报(理学版)(07);第4-13页 * |
Also Published As
Publication number | Publication date |
---|---|
US20180374474A1 (en) | 2018-12-27 |
CN107423364A (zh) | 2017-12-01 |
US10923102B2 (en) | 2021-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107423364B (zh) | 基于人工智能的回答话术播报方法、装置及存储介质 | |
CN106688034B (zh) | 具有情感内容的文字至语音转换 | |
US10614803B2 (en) | Wake-on-voice method, terminal and storage medium | |
US10381017B2 (en) | Method and device for eliminating background sound, and terminal device | |
US9542956B1 (en) | Systems and methods for responding to human spoken audio | |
JP2020016875A (ja) | 音声インタラクション方法、装置、設備、コンピュータ記憶媒体及びコンピュータプログラム | |
JP6783339B2 (ja) | 音声を処理する方法及び装置 | |
CN104115221A (zh) | 基于文本到语音转换以及语义的音频人类交互证明 | |
US10783884B2 (en) | Electronic device-awakening method and apparatus, device and computer-readable storage medium | |
CN107705782B (zh) | 用于确定音素发音时长的方法和装置 | |
CN112164407B (zh) | 音色转换方法及装置 | |
US8620670B2 (en) | Automatic realtime speech impairment correction | |
CN113257218B (zh) | 语音合成方法、装置、电子设备和存储介质 | |
CN110267113A (zh) | 视频文件加工方法、系统、介质和电子设备 | |
KR20200027331A (ko) | 음성 합성 장치 | |
JP2019091416A (ja) | 人工知能応用を構築する方法及び装置 | |
CN111462726B (zh) | 一种外呼应答方法、装置、设备及介质 | |
WO2020013891A1 (en) | Techniques for providing audio and video effects | |
Abdullah et al. | Paralinguistic speech processing: An overview | |
CN109065019B (zh) | 一种面向智能机器人的故事数据处理方法及系统 | |
CN109460548B (zh) | 一种面向智能机器人的故事数据处理方法及系统 | |
CN111105781B (zh) | 语音处理方法、装置、电子设备以及介质 | |
CN109065018B (zh) | 一种面向智能机器人的故事数据处理方法及系统 | |
CN104317404A (zh) | 一种声纹控制音频播放设备、控制系统及方法 | |
US8219402B2 (en) | Asynchronous receipt of information from a user |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |