CN108922540B - 与老人用户进行连续ai对话的方法及系统 - Google Patents
与老人用户进行连续ai对话的方法及系统 Download PDFInfo
- Publication number
- CN108922540B CN108922540B CN201810847820.2A CN201810847820A CN108922540B CN 108922540 B CN108922540 B CN 108922540B CN 201810847820 A CN201810847820 A CN 201810847820A CN 108922540 B CN108922540 B CN 108922540B
- Authority
- CN
- China
- Prior art keywords
- information
- old
- voice
- module
- conversation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000013473 artificial intelligence Methods 0.000 title description 19
- 230000008451 emotion Effects 0.000 claims description 110
- 230000009471 action Effects 0.000 claims description 46
- 238000004891 communication Methods 0.000 claims description 22
- 238000010195 expression analysis Methods 0.000 claims description 2
- 230000008921 facial expression Effects 0.000 description 30
- 230000008569 process Effects 0.000 description 23
- 238000005516 engineering process Methods 0.000 description 7
- 230000011218 segmentation Effects 0.000 description 7
- 230000002996 emotional effect Effects 0.000 description 5
- 230000036651 mood Effects 0.000 description 5
- 238000012795 verification Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 208000037656 Respiratory Sounds Diseases 0.000 description 3
- 206010047924 Wheezing Diseases 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000008909 emotion recognition Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 240000008167 Calamus deerratus Species 0.000 description 1
- 235000011996 Calamus deerratus Nutrition 0.000 description 1
- 230000003292 diminished effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000007115 recruitment Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000037072 sun protection Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- General Health & Medical Sciences (AREA)
- Child & Adolescent Psychology (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及老人服务领域,具体涉及一种与老人用户进行连续AI对话的方法及系统,该系统包括:老人说话习惯分析模块和语音解析模块;老人说话习惯分析模块用于根据同一位老人输入的语音信息判断该老人的说话习惯信息,然后将老人的说话习惯信息发送给语音解析模块;语音解析模块接收到语音解析模块发送的老人的说话习惯信息后,根据该老人的说话习惯信息对该老人输入的语音信息按照输入时间先后进行重新组合,然后将组合后的语音信息解析成对应文本信息。与现有技术相比,本方案能够减少解析文本的错误率。
Description
技术领域
本发明涉及老人服务领域,具体涉及与一种老人用户进行连续AI对话的方法及系统。
背景技术
AI(人工智能),它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。
在对语音进行处理时,公开号为CN107305541A的中国专利文件公开了一种语音识别文本分段方法及装置,该方法包括:对语音数据进行端点检测,得到各语音段及各语音段的开始帧序号和结束帧序号;对各语音段进行语音识别,得到各语音段对应的识别文本;提取各语音段对应的识别文本的分段特征;利用提取的分段特征以及预先构建的分段模型,对所述语音数据对应的识别文本进行分段检测,以确定需要分段的位置;根据分段检测结果对所述语音数据对应的识别文本进行分段。该发明可以自动地实现对识别文本进行分段,使识别文本的篇章结构更加清晰。
但是,随着中国进入老龄化,中国老龄人越来越多,老人由于身体比较弱,说话习惯和年轻人不一样,比如,老人常常说话的时候会出现喘息的情况,导致老人说话断断续续,说话语速慢,说完一句话中间可能还会停顿很多次。若是在语音识别时一句话被断断续续分隔成多个小段,在语音识别时可能便会把每一个小段作为一个识别对象,使得对一个小段语音进行识别时这小段语音在不结合上下两个小段语音便无法正确解析,导致语音识别错误或分段错误,或者在一个小段语音输入后便误判断这一句话已经输入完毕,使得解析的文本信息完全偏离语音信息原本想表达的意思。
发明内容
本发明的提供了一种与老人用户进行连续AI对话的系统,以解决现有语音识别方法或系统用于对老人语音进行识别分段时由于老人说话断断续续,输入一句话进行多次停顿导致识别分段不成功的问题。
本发明提供的基础方案为:一种与老人用户进行连续AI对话的系统,包括:老人说话习惯分析模块和语音解析模块;
老人说话习惯分析模块用于根据同一位老人输入的语音信息判断该老人的说话习惯信息,然后将老人的说话习惯信息发送给语音解析模块;老人的说话习惯信息包括老人说话语速和音量大小信息;
语音解析模块接收到语音解析模块发送的老人的说话习惯信息后,根据该老人的说话习惯信息对该老人输入的语音信息按照输入时间先后进行重新组合,然后将组合后的语音信息解析成对应文本信息。
本基础方案的原理在于:一位老人说话时进行语音信息的输入,然后老人说话习惯分析模块便会对输入的语音信息进行该老人的说话习惯信息分析,然后将该老人的说话习惯信息发送给语音解析模块,语音解析模块接收到该老人的说话习惯信息后在该老人再次进行语音信息输入时便根据其说话习惯信息对其输入的语音信息按照输入时间先后顺序进行重新组合,然后将组合后的语音信息解析成对应的文本信息。
本基础方案的优点在于:在进行语音解析前针对同一个位老人输入的语音信息分析其说话习惯信息,即了解该老人正常说话时的语速、音量大小等信息,也就是说不同老人输入的语音信息都会形成对应的说话习惯信息,便于根据老人的说话习惯信息进行该老人语音信息的解析,使得每一位老人的语音信息解析方式都不一样;在进行语音解析时根据老人的说话习惯信息进行解析,使得语音信息解析后的文本信息更加贴近老人想表达的意思,减少了解析错误率。与现有技术相比,本方案是针对老人的说话习惯信息进行语音解析,能增加对老人说话的语音信息识别成功率。
进一步,还包括老人普遍交流习惯分析模块,老人普遍交流习惯分析模块用于对不同老人说话交流的习惯进行分析,然后生成老人普遍的说话习惯信息发送给语音解析模块;语音解析模块接收到老人普遍的说话习惯信息后,在一位老人输入语音信息时,根据该老人的说话习惯信息和老人普遍的说话习惯信息对输入的语音信息进行解析。
语音解析模块对老人说话的语音信息进行解析时,不仅根据该老人个人的说话习惯信息进行解析,还根据老人普遍的说话习惯信息进行解析,即对老人同年龄段的老人都进行了说话习惯分析,便于了解老人的普遍说话习惯,使得进行语音解析时解析的语音能更加准确。
进一步,还包括老人语音情绪判断模块和对话组合输出模块,老人语音情绪判断模块用于根据老人的说话习惯信息判断老人输入的语音信息中带有哪种情绪,然后将判断结果发送给对话组合输出模块,对话组合输出模块根据语音信息解析后的文本信息以及判断结果选择对话进行输出。
同一个老人在情绪变化后输入的语音信息中语速、音量、语气等都有所不同,而语音信息内容相同时,由于语气、音量等的变化将赋予这段语音信息不同的情感,即真正想表达的意思便会在语气、音量、语速等的快慢变化后将有所不同,对老人的情绪进行分析,便能更好的了解老人说话时语音信息中含有的情感,便于进行对话时选择更加合适的对话内容进行输出。
进一步,还包括老人动作表情采集模块和状态分析模块,老人动作表情采集模块用于采集老人的动作信息,然后将老人的动作信息发送给状态分析模块,状态分析模块接收到老人动作表情采集模块发送的动作信息后根据老人的动作信息判断老人当前所属状态信息。
老人当前所属状态信息指老人当前正在做什么。
对老人当前所属状态信息进行分析,便于知道老人正在做什么,知道老人处于什么样的状态。
进一步,还包括场景分配模块和场景对话存储模块,场景对话存储模块内存储有场景对话模型,场景分配模块用于根据老人的状态信息、老人情绪和语音信息解析后的文本信息在场景对话存储模块内寻找适合的场景对话模型,然后根据场景对话模型组合对话进行对话输出。
根据老人的状态信息、老人情绪和语音信息解析后的文本信息寻找的场景对话模型,进一步增加了输出对话准确性。
进一步,还包括连续对话组合模块,连续对话组合模块用于对输出的对话和老人输入的语音信息按照时间先后排列成对话排列表,然后根据对话排列表中的内容生成对应的文本信息内容发送给场景分配模块,场景分配模块接收到连续对话组合模块发送的文本信息内容后,根据对话排列表中的文本信息内容、老人的状态信息、老人情绪和语音信息解析后的文本信息在场景对话存储模块内寻找适合的场景对话模型。
根据对话排列表中的内容生成对应的文本信息内容发送给场景分配模块,即后选用的场景对话模型是根据之前的对话内容选择,也就是说实现了后续对话根据前面对话内容进行选择输出,实现可前后对话的关联性输出。
另外,针对与老人用户进行连续AI对话的系统,本发明还提供了一种与老人用户进行连续AI对话的方法,包括如下步骤:
步骤一:对老人输入的语音信息进行采集;
步骤二:根据不同老人输入的语音信息对所有老人普遍的说话习惯进行分析,得到所有老人普遍的说话习惯信息;
步骤三:根据老人普遍的说话习惯信息对同一位老人输入的语音信息进行分析得到该老人的说话习惯信息;
步骤四:根据老人的说话习惯信息对该老人输入的语音信息进行解析。
与现有技术相比,步骤三中,根据老人普遍的说话习惯信息对同一位老人输入的语音信息进行分析得到该老人的说话习惯信息,即老人普遍的说话习惯信息可以作为初次给该老人进行说话习惯信息分析时的依据,便于快速的获得比较正确的老人的说话习惯信息;同时,根据老人的说话习惯进行语音解析,增加了老人语音信息的解析正确率。
附图说明
图1为本发明实施例一中与老人用户进行连续AI对话的系统的逻辑框图;
图2为本发明实施例一中与老人用户进行连续AI对话的方法的实施流程图;
图3为本发明实施例二中与老人用户进行连续AI对话的系统的逻辑框图;
图4为本发明实施例二中与老人用户进行连续AI对话的方法的实施流程图。
具体实施方式
下面通过具体实施方式进一步详细的说明:
实施例一
如图1所示:一种与老人用户进行连续AI对话的系统,包括:用户终端和服务器。服务器和用户终端通过无线通信模块进行通信,无线通信模块可以选用现有USR-C322型号的WIFI通信模块或现有DX-BT18型号的蓝牙通信模块。
用户终端包括:
语音采集模块,用于对老人的语音信息进行采集,并将采集到语音信息发送给服务器。
语音输出模块,用于对服务器发送的对话信息和语音信息进行语音输出。
服务器包括:
对话输出模型存储模块,用于存储不同内容的语音信息或文本信息应该对应输出的对话内容。
老人说话习惯信息存储模块,用于存储老人的说话习惯信息。
老人说话习惯分析模块,用于接收语音采集模块发送的语音信息,并根据语音信息分析老人的说话习惯信息,并对老人的说话习惯信息进行分析记录,然后将分析记录的老人说话习惯信息存储到老人说话习惯存储模块内。在对老人的说话习惯信息进行分析时,包括对老人通常说话音量大小、停顿习惯、说话语速快慢、常用交流词汇等的分析。比如,很多人在老了以后会出现喘息、中气不足等现象,老人说话常常是断断续续的,老人说一句完整的话可能中间会停顿很多次。
老人普遍交流习惯分析模块,用于对不同用户终端使用的老人交流习惯进行分析,即老人说话习惯分析模块分析的每一位老人的说话习惯信息均发送给老人普遍交流习惯分析模块,然后老人普遍交流习惯分析模块对所有接受到的老人普遍的说话习惯信息进行分析,得出老人普遍的说话习惯信息发送给语音解析模块。
语音解析模块,用于接收语音采集模块发送的语音信息,然后根据该语音信息对应的老人说话习惯信息以及所有老人普遍的说话习惯信息将老人的语音信息按照输入时间先后进行重新组合,然后将重新组合后的语音信息解析成文本信息(语音解析可采用科大讯飞股份有限公司现有的语音识解析技术进行语音识别)。由于老人说话断断续续的,采用现有的语音解析技术可能会出现老人一句话还没有说完就已经判断这句话已经结束并开始解析,导致解析成的文本信息与老人实际要表达的意思不相同,按照老人的说话习惯信息将语音信息进行重新组合后再对语音信息进行解析,能够使得解析的文本信息更加准确,便于知道老人输入的语音信息中想表达的意思。语音解析模块对老人说话的语音信息进行解析时,不仅根据该老人个人的说话习惯信息进行解析,还根据老人普遍的说话习惯信息进行解析,即对老人同年龄段的老人都进行了说话习惯分析,便于了解老人的普遍说话习惯,使得进行语音解析时解析的语音能更加准确。
对话组合输出模块,用于根据语音解析模块解析后的文本信息在对话输出模型存储模块内寻找该文本信息对应应该输出的对话内容发送给语音输出模块进行语音输出。
另外,如图2所示,针对与老人用户进行连续AI对话的系统,本实施例还公开了一种与老人用户进行连续A1对话的方法,包括如下步骤:
S1、基础信息存储
在对话输出模型存储模块内存储不同内容的语音信息或文本信息应该对应输出的对话内容。
S2、语音采集
用户终端中的语音采集模块对老人输入的语音信息进行采集。
S3、语音处理
S3-1、老人说话习惯分析模块根据语音采集模块采集的语音信息分析老人的说话习惯信息,并对老人的说话习惯信息进行分析记录,然后将分析记录的老人说话习惯信息存储到老人说话习惯存储模块内。在对老人的说话习惯信息进行分析时,包括对老人通常说话音量大小、停顿习惯、说话语速快慢、常用交流词汇等的分析。比如,很多人在老了以后会出现喘息、中气不足等现象,老人说话常常是断断续续的,老人说一句完整的话可能中间会停顿很多次。
S3-2、老人普遍交流习惯分析模块根据不同用户终端使用的老人交流习惯进行分析,即老人说话习惯分析模块分析的每一位老人的说话习惯信息均发送给老人普遍交流习惯分析模块,然后老人普遍交流习惯分析模块对所有接受到的老人普遍的说话习惯进行分析,得出老人普遍的说话习惯信息发送给语音解析模块。
S3-3、语音解析模块根据语音采集模块发送的语音信息和该语音信息对应的老人说话习惯信息以及所有老人普遍的说话习惯信息将老人的语音信息进行重新组合,然后将重新组合后的语音信息解析成文本信息(语音解析可采用科大讯飞股份有限公司现有的语音识解析技术进行语音识别)。由于老人说话断断续续的,采用现有的语音解析技术可能会出现老人一句话还没有说完就已经判断这句话已经结束并开始解析,导致解析成的文本信息与老人实际要表达的意思不相同,按照老人的说话习惯信息将语音信息进行重新组合后再对语音信息进行解析,能够使得解析的文本信息更加准确,便于知道老人输入的语音信息中想表达的意思。语音解析模块对老人说话的语音信息进行解析时,不仅根据该老人个人的说话习惯信息进行解析,还根据老人普遍的说话习惯信息进行解析,即对老人同年龄段的老人都进行了说话习惯分析,便于了解老人的普遍说话习惯,使得进行语音解析时解析的语音能更加准确。
S4、对话组成并输出
对话组合输出模块根据语音解析模块解析后的文本信息在对话输出模型存储模块内寻找该文本信息对应应该输出的对话内容发送给语音输出模块进行语音输出。
实施例二
如图3所示,实施例二与实施例一的区别在于,实施例二中的用户终端还包括:
老人动作表情采集模块,用于对老人的面部表情信息和动作信息进行采集,然后将采集到的面部表情信息发送给老人表情判断模块,将老人的动作信息发送给状态分析模块。对面部表情信息和动作信息进行采集时可以选用现有Riwyth品牌的摄像头。
定位模块,用于对用户终端进行实时定位,并将定位信息发送给天气信息获取模块。
咨询模块,用于老人对机器人询问问题时从语音采集模块输入触发咨询模块工作的关键词语音后将进行输入的语音信息进行采集,然后将采集的语音信息发送给服务器。比如,触发咨询模块工作的关键词为机器人的名字,在老人叫到机器人名字时,咨询模块便会开始工作。
信息正误判断模块,用于老人对语音输出模块输出的对话信息或语音信息是否合适,然后将判断结果发送给数据更新模块。老人判断时主要判断机器人对自己输入的语音信息、动作信息、面部表情信息所代表的情绪和需要表达的意思是否解析正确,若老人判断为正确,则判断结果为合适,若老人判断为错误,则判断结果为老人认为正确的解答信息。判断结果输入时,也可以通过关键词语音的方式触发信息正误判断模块开始工作。
服务器还包括:
地域名称存储模块,用于存储中国所有省市内不同区域的地域名称,地域名称包括城市名称、区域划分名称和知名景点名称等。
词汇分类存储模块,用于对情绪化词语进行了分别存储,每一种情绪化词汇存储在不同的存储单元内,比如,将高兴、愤怒、委屈、吃惊、好奇、平静等不同情绪的词汇进行分类存储到不同的存储单元内,常用的表示高兴的词汇包括舒服、开心、愉悦、满足、快活、自在以及等词汇,且存储关于高兴词汇的存储单元内还存储有老人发出的笑声语音;常用的表示委屈的词汇包括冤枉、有苦难言、委曲求全、屈打成招、六月飞雪、苦不堪言等词汇;常用的表示愤怒的词汇包括讨厌、厌恶、憎恶、愤恨、气愤等词汇;常用的表示吃惊的词汇包括呀、啊等语气词,还包括:还可以这样、这样真的可以等短句;常用的表示好奇的词汇包括什么、不知道、想知道、告诉我等常用词汇。
情绪识别模型存储模块,用于存储老人在处于不同情绪下语速、音量、常用情绪词汇(常用情绪词汇存储在存储单元内)的限定条件,比如,将老人语速高于平时的说话语速的30%,说话音量高于平时说话音量的20%时判断为可能处于气愤情绪,若其中还含有关于气愤的常用词汇,则判定为老人属于气愤情绪中;再比如,老人没有说话,便表示老人情绪可能处于平稳状态,若老人说话语速、音量都正常,且没有情绪词汇,也表示老人可能处于平稳状态。
老人状态存储模块内存储,用于存储老人在不同状态下的动作信息,并将老人在不同状态下的动作信息分别存储在不同的存储子模块内,比如,将老人的动作状态分为工作、吃饭、睡觉、娱乐、通话等不同的状态,然后将判定为老人正在吃饭的动作信息、工作的动作信息、睡觉的动作信息、娱乐的动作信息等分别存储到对应的存储子模块内。每个存储子模块内还存储有筛选动作信息的参考模型,比如睡觉的动作信息参考模型是老人持续10分钟动,眼睛闭着、在床上、沙发上或趴在桌上。
表情所属情绪存储模块,用于存储老人的情绪和表情的对应信息,便于分析老人表情所代表的情绪。
场景对话存储模块,用于存储老人处于不同情绪和状态下的场景对话模型,场景对话模型是通过老人的情绪、状态、天气、季节和咨询模块发送的语音信息等进行分类的,比如:
场景一:场景判断条件为:伤心+看电视,输出对话为:你为什么感到伤心,电视节目很感人吗?
场景二:场景判断条件为:稳定+睡觉,不输出对话。
场景三:场景判断条件为:稳定+出门+晴天+温度28℃以上,输出对话为:今天天气为晴天,温度为29℃-35℃,记得防晒。
场景四:场景判断条件为:稳定+出门+雨天+温度20℃以下,输出对话为:今天会下雨,温度在13-20℃,记得带雨伞和添加衣服。
场景五:场景判断条件为:愤怒+争吵+晴天+春天,输出对话为:别生气,外出看风景是转换心情的绝佳方法。
天气信息获取模块,用于从气象局官网上获取天气预报信息,天气预报信息获取时,可以是根据定位模块发送的定位信息在气象局官网上获取定位位置所处区域的天气预报信息,也可以在老人提出的地域名称和地域名称存储模块内存储地域名称相符时获取该地域名称对应区域的天气预报信息,即天气信息获取模块接收到语音采集模块发送的语音信息中含有地域名称时,天气信息获取模块根据语音信息中的地域名称在地域名称存储模块内寻找是否有相应的地域名称,若有相应的地域名称,则根据该地域名称在气象局官网上寻找对应的天气预报信息。比如,用户终端位于四川省成都市锦江区内,那么定位模块定位位置便是属于四川省成都市锦江区内,定位模块将定位信息发送给天气信息获取模块时,天气信息获取模块便会根据定位模块发送的定位信息在气象局官网上寻找四川省成都市锦江区的天气预报信息。当语音采集模块采集到居住在四川省成都市锦江区内的老人的语音信息为“我们今天去云南玩”,那么天气信息获取模块便可以根据语音信息中“云南”这个地域名称在气象局官网上寻找云南的天气预报信息。
老人语音情绪判断模块,用于接收语音采集模块和咨询模块发送的语音信息,然后根据老人的说话习惯信息判断老人语音信息中带有哪种情绪,然后将判断结果生成语音情绪信息发送给用情绪分析模块。在对语音信息中的声音音量大小进行检测和判断原理类似于现有WS700A型号的声音分贝检测仪。对于音速快慢判断是通过识别语音信息中总字数和该语音信息持续时长进行判断的。在判断情绪信息时,由于人在说话时常愤怒、高兴、委屈等不同情况下说话的语速、所选用的词汇、音量大小等都有所区别,而有些词汇本身可能并不直接代表某种情绪,只是在被组成句子时由于语气词和说话声音快慢而给这个词汇附上了情绪,所以在对老人说话时的情绪进行判断时,通过老人的说话习惯信息和解析的文本信息综合判断能有效提高判断成功率。
老人表情判断模块,用于接收老人动作表情采集模块发送的关于老人的面部表情信息,然后根据老人的面部表情信息判断其代表着老人属于哪种情绪,然后根据判断结果生成面部表情情绪判断信息发送给情绪分析模块。通常,嘴角向上、眼睛眯着像月牙时表示在笑,即表示高兴,眉头皱在一起表示忧愁,眼睛瞪大表示愤怒或吃惊,眼睛瞪大且瞳孔缩小表示吃惊和恐惧。在根据老人的面部表情信息判断老人情绪和状态时,便可根据通常情况下不同情绪导致的面部特征变化来判断。
情绪分析模块,用于接收老人语音情绪判断模块发送的语音情绪信息和老人表情判断模块发送的面部表情情绪判断信息,然后将语音情绪信息和面部表情情绪信息中所代表的情绪类型进行对比判断两者所代表的情绪类型是否一致,若两者所代表的情绪类型一致,则将判断结果生成输出情绪信息发送给场景分配模块。若两者所代表的情绪类型不一致,则发出验证信息给语音输出模块。验证信息包括语音情绪信息和面部表情情绪信息中所代表的情绪类型进行对比判断两者所代表的情绪类型,比如,语音情绪信息代表的是伤心,面部表情情绪信息代表的是高兴,验证信息便是:您现在是高兴还是伤心呢?若语音信息代表的是愤怒,面部表情代表的是忧伤,验证信息便是:您现在是愤怒还是忧伤呢?当语音输出模块将这句验证信息进行语音输出后,老人通过咨询模块进行触发咨询模块工作的关键词和回答语音信息,咨询模块将老人回答的语音信息发送给老人语音情绪判断模块,同时,老人动作表情采集模块对老人回答语音信息输入时对老人的面部表情信息和动作信息进行采集,然后将采集到的面部表情信息发送给表情分析模块,将老人的动作信息发送给状态分析模块。
状态分析模块,用于接收老人表情动作采集模块发送的动作信息,然后根据老人的动作信息判断老人当前所属状态信息,老人所属状态表示对老人当前正在做的事情进行判断,然后将判断信息发送给场景分配模块。比如,老人正在工作、吃饭、睡觉、出门或看电视。
场景分配模块,用于接收状态分析模块发送的老人状态信息、情绪分析模块发送的输出情绪信息、语音解析模块发送的解析后的文本信息、以及天气信息获取模块发送的天气预报信息,然后根据老人状态信息、解析后的文本信息、天气预报信息和输出情绪信息在场景对话存储模块内寻找对应的场景对话模型,并根据场景对话模型和老人展开对话,之后将对话信息发送给语音输出模块进行语音输出。若老人语音情绪判断模块发送给情绪分析模块的语音情绪信息是根据咨询模块发送的语音信息判断而得,那么场景分配模块在根据情绪分析模块发送的输出情绪信息进行场景对话模型选择时不仅要根据老人状态信息和输出情绪信息选择场景对话模型,还要根据咨询模块发送的语音信息内容(采用现有的语义网对语音信息进行解析生成语音信息内容)选择场景对话模型。
连续对话组合模块,用于对语音采集模块采集的语音信息和语音输出模块输出的语音信息按照时间先后进行排列生成对话排列表,然后将对话排列表中的语音信息所对应的文本信息内容发送给场景分配模块,便于场景分配模块根据已经开展的对话内容选择之后需要进行的对话。场景分配模块接收到连续对话组合模块发送的文本信息内容后,根据对话排列表中的文本信息内容、老人状态信息、解析后的文本信息、天气预报信息和输出情绪信息在场景对话存储模块内寻找对应的场景对话模型实现与老人的连续对话。
数据更新模块,用于对咨询模块发送的判断结果,若判断结果信息为语音输出模块输出的对话信息或语音信息错误,则将该判断结果对应的场景对话模型进行调整(一个场景对话模型对应一个对话信息或语音信息,一个对话信息或语音信息对应一个判断结果),对场景对话模型进行调整时,保存场景对话模型中的场景判断条件,将输出对话修改为判断结果中的解答信息,并将调整后的场景对话模型存储到场景对话存储模块内覆盖原有的场景对话模型。
另外,如图4所示,针对本实施例中与老人用户进行连续AI对话的系统,还公开了一种与老人用户进行连续A1对话的方法,包括如下步骤:
S1、基础信息存储
S1-1、在服务器的词汇分类存储模块内对情绪化词语进行了分别存储,每一种情绪化词汇存储在不同的存储单元内,进入流程S1-2。
S1-2、在服务器的情绪识别模型存储模块内存储老人在处于不同情绪下语速、音量、常用情绪词汇的限定条件,进入流程S1-3。
S1-3、在服务器的老人状态存储模块内存储老人在不同状态下的动作信息,并将老人在不同状态下的动作信息分别存储在不同的存储子模块内,进入流程S1-4。
S1-4、在服务器的场景对话存储模块内存储老人处于不同情绪和状态下的场景对话模型,场景对话模型是通过老人的情绪、状态、天气、季节和咨询模块发送的语音信息等进行分类,进入流程S2。
S2、老人信息和位置信息获取
S2-1、用户终端中的老人动作表情采集模块对老人的面部表情信息和动作信息进行采集,然后将采集到的面部表情信息发送给老人表情判断模块,进入流程S3-3;将老人的动作信息发送给状态分析模块,进入流程S3-4;
S2-2、用户终端中的语音采集模块对老人的语音信息进行采集,并将采集到语音信息发送给服务器,进入流程S3-2;
S2-3、用户终端中的定位模块对用户终端进行实时定位,并将定位信息发送给天气信息获取模块,进入流程S3-1;
S3、老人信息和位置信息处理分析
S3-1、服务器中的天气信息获取模块根据定位模块发送的定位信息在气象局官网上获取定位位置所处区域的天气预报信息,或在老人提出的地域名称和地域名称存储模块内存储地域名称相符时获取该地域名称对应区域的天气预报信息,即天气信息获取模块接收到语音采集模块发送的语音信息中含有地域名称时,天气信息获取模块根据语音信息中的地域名称在地域名称存储模块内寻找是否有相应的地域名称,若有相应的地域名称,则根据该地域名称在气象局官网上寻找对应的天气预报信息,进入流程S3-6。
S3-2、老人说话习惯分析模块根据语音采集模块采集的语音信息分析老人的说话习惯信息,并对老人的说话习惯信息进行分析记录,然后将分析记录的老人说话习惯信息存储到老人说话习惯存储模块内,进入流程S3-3和S3-4。
S3-3、老人普遍交流习惯分析模块根据不同用户终端使用的老人交流习惯进行分析,即老人说话习惯分析模块分析的每一位老人的说话习惯信息均发送给老人普遍交流习惯分析模块,然后老人普遍交流习惯分析模块对所有接受到的老人说话习惯信息进行分析,得出老人普遍的说话习惯信息发送给语音解析模块,进入流程S3-4。
S3-4、语音解析模块根据语音采集模块发送的语音信息和该语音信息对应的老人说话习惯信息以及所有老人普遍的说话习惯信息将老人的语音信息进行重新组合,然后将重新组合后的语音信息解析成文本信息。由于老人说话断断续续的,采用现有的语音解析技术可能会出现老人一句话还没有说完就已经判断这句话已经结束并开始解析,导致解析成的文本信息与老人实际要表达的意思不相同,按照老人的说话习惯信息将语音信息进行重新组合(即对语音输入时中间断断续续停顿的地方进行处理使得语音信息连续)后再对语音信息进行解析,能够使得解析的文本信息更加准确,便于知道老人输入的语音信息中想表达的意思。语音解析模块对老人说话的语音信息进行解析时,不仅根据该老人个人的说话习惯信息进行解析,还根据老人普遍的说话习惯信息进行解析,即对老人同年龄段的老人都进行了说话习惯分析,便于了解老人的普遍说话习惯,使得进行语音解析时解析的语音能更加准确,进入流程S3-9。
S3-5、服务器中的老人语音情绪判断模块接收到语音采集模块和咨询模块发送的语音信息后,根据语音信息中声音音量大小、语速的快慢和说话内容判断老人语音中带有哪种情绪,然后将判断结果生成语音情绪信息发送给用情绪分析模块,进入流程S3-8。
S3-6、服务器中的老人表情判断模块接收到老人动作表情采集模块发送的关于老人的面部表情信息后,根据老人的面部表情信息判断其代表着老人属于哪种情绪,然后根据判断结果生成面部表情情绪判断信息发送给情绪分析模块,进入流程S3-8。
S3-7、服务器中的状态分析模块接收到老人表情动作采集模块发送的动作信息,然后根据老人的动作信息判断老人当前所属状态信息,老人所属状态表示对老人当前正在做的事情进行判断,然后将判断信息发送给场景分配模块,进入流程S3-9。
S3-8、服务器中的情绪分析模块接收到老人语音情绪判断模块发送的语音情绪信息和老人表情判断模块发送的面部表情情绪判断信息后,然后将语音情绪信息和面部表情情绪信息中所代表的情绪类型进行对比判断两者所代表的情绪类型是否一致,若两者所代表的情绪类型一致,则将判断结果生成输出情绪信息发送给场景分配模块,进入流程S3-9,若两者所代表的情绪类型不一致,则将判断结果生成输出情绪信息发送给语音输出模块进行语音信息输出,进入流程S6-1。
S3-9、服务器中的场景分配模块接收到分析模块发送的老人状态信息、情绪分析模块发送的输出情绪信息、语音解析模块发送的解析后的文本信息、以及天气信息获取模块发送的天气预报信息,然后根据老人状态信息、解析后的文本信息、天气预报信息和输出情绪信息在场景对话存储模块内寻找对应的场景对话模型,并根据场景对话模型和老人展开对话,之后将对话信息发送给语音输出模块进行语音输出,进入流程S4。
S4、场景对话输出
用户终端中的语音输出模块接收到场景分配模块发送的对话信息后对对话信息进行语音输出,进入流程S5和S6-1。
S5、连续对话组成
S5-1、连续对话组合模块对语音采集模块采集的语音信息和语音输出模块输出的语音信息按照时间先后进行排列生成对话排列表,然后将对话排列表中的语音信息所对应的文本信息内容发送给场景分配模块,进入流程S5-2。
S5-2、场景分配模块接收到连续对话组合模块发送的文本信息内容后,根据对话排列表中的文本信息内容、老人状态信息、解析后的文本信息、天气预报信息和输出情绪信息在场景对话存储模块内寻找对应的场景对话模型实现与老人的连续对话,进入流程S6。
S6、对话输出正误判断
S6-1、老人通过用户终端中的信息正误判断模块对语音输出模块输出的对话信息或语音信息是合适,然后将判断结果发送给数据更新模块。老人判断时主要判断机器人对自己输入的语音信息、动作信息、面部表情信息所代表的情绪和需要表达的意思是否解析正确,若老人判断为正确,则判断结果为合适,若老人判断为错误,则判断结果为老人认为正确的解答信息。判断结果输入时,也可以通过关键词语音的方式触发信息正误判断模块开始工作,进入流程S6-2。
S6-2、服务器中的数据更新模块对咨询模块发送的判断结果,若判断结果信息为语音输出模块输出的对话信息或语音信息错误,则将该判断结果对应的场景对话模型进行调整(一个场景对话模型对应一个对话信息或语音信息,一个对话信息或语音信息对应一个判断结果),对场景对话模型进行调整时,保存场景对话模型中的场景判断条件,将输出对话修改为判断结果中的解答信息,并将调整后的场景对话模型存储到场景对话存储模块内覆盖原有的场景对话模型,进入流程S1-4。
本实施例的又一实施方式为:老人说话习惯分析模块对老人的对话习惯进行分析前先通过老人普遍交流习惯分析模块对老人普遍的说话习惯进行分析,然后在对老人的对话习惯信息进行分析时根据老人普遍的说话习惯信息得出老人的对话习惯信息。
本实施例的另一实施方式为:对话组合输出模块根据语音解析模块解析后的文本信息、老人状态信息、情绪分析模块发送的输出情绪信息以及天气信息获取模块发送的天气预报信息在对话输出模型存储模块内寻找该文本信息对应应该输出的对话内容发送给语音输出模块进行语音输出。
以上所述的仅是本发明的实施例,方案中公知的具体结构及特性等常识在此未作过多描述,所属领域普通技术人员知晓申请日或者优先权日之前发明所属技术领域所有的普通技术知识,能够获知该领域中所有的现有技术,并且具有应用该日期之前常规实验手段的能力,所属领域普通技术人员可以在本申请给出的启示下,结合自身能力完善并实施本方案,一些典型的公知结构或者公知方法不应当成为所属领域普通技术人员实施本申请的障碍。应当指出,对于本领域的技术人员来说,在不脱离本发明结构的前提下,还可以作出若干变形和改进,这些也应该视为本发明的保护范围,这些都不会影响本发明实施的效果和专利的实用性。本申请要求的保护范围应当以其权利要求的内容为准,说明书中的具体实施方式等记载可以用于解释权利要求的内容。
Claims (7)
1.一种与老人用户进行连续AI对话的系统,其特征在于,包括:老人说话习惯分析模块和语音解析模块;
老人说话习惯分析模块用于根据同一位老人输入的语音信息判断该老人的说话习惯信息,然后将老人的说话习惯信息发送给语音解析模块;在对老人的说话习惯信息进行分析时,包括对老人通常说话音量大小、停顿习惯、说话语速快慢、常用交流词汇的分析;
语音解析模块接收到语音解析模块发送的老人的说话习惯信息后,根据该老人的说话习惯信息对该老人输入的语音信息按照输入时间先后进行重新组合,然后将组合后的语音信息解析成对应文本信息。
2.根据权利要求1所述的与老人用户进行连续AI对话的系统,其特征在于:还包括老人普遍交流习惯分析模块,老人普遍交流习惯分析模块用于对不同老人说话交流的习惯进行分析,然后生成老人普遍的说话习惯信息发送给语音解析模块;语音解析模块接收到老人普遍的说话习惯信息后,在一位老人输入语音信息时,根据该老人的说话习惯信息和老人普遍的说话习惯信息对输入的语音信息进行解析。
3.根据权利要求1所述的与老人用户进行连续AI对话的系统,其特征在于:还包括老人语音情绪判断模块和对话组合输出模块,老人语音情绪判断模块用于根据老人的说话习惯信息判断老人输入的语音信息中带有哪种情绪,然后将判断结果发送给对话组合输出模块,对话组合输出模块根据语音信息解析后的文本信息以及判断结果选择对话进行输出。
4.根据权利要求1-3中任一项所述的与老人用户进行连续AI对话的系统,其特征在于:还包括老人动作表情采集模块和状态分析模块,老人动作表情采集模块用于采集老人的动作信息,然后将老人的动作信息发送给状态分析模块,状态分析模块接收到老人动作表情采集模块发送的动作信息后根据老人的动作信息判断老人当前所属状态信息。
5.根据权利要求4所述的与老人用户进行连续AI对话的系统,其特征在于:还包括场景分配模块和场景对话存储模块,场景对话存储模块内存储有场景对话模型,场景分配模块用于根据老人的状态信息、老人情绪和语音信息解析后的文本信息在场景对话存储模块内寻找适合的场景对话模型,然后根据场景对话模型组合对话进行对话输出。
6.根据权利要求5所述的与老人用户进行连续AI对话的系统,其特征在于:还包括连续对话组合模块,连续对话组合模块用于对输出的对话和老人输入的语音信息按照时间先后排列成对话排列表,然后根据对话排列表中的内容生成对应的文本信息内容发送给场景分配模块,场景分配模块接收到连续对话组合模块发送的文本信息内容后,根据对话排列表中的文本信息内容、老人的状态信息、老人情绪和语音信息解析后的文本信息在场景对话存储模块内寻找适合的场景对话模型。
7.一种与老人用户进行连续AI对话的方法,包括如下步骤:
步骤一:对老人输入的语音信息进行采集;
步骤二:根据不同老人输入的语音信息对所有老人普遍的说话习惯进行分析,得到所有老人普遍的说话习惯信息,在对老人的说话习惯信息进行分析时,包括对老人通常说话音量大小、停顿习惯、说话语速快慢、常用交流词汇的分析;
步骤三:根据老人普遍的说话习惯信息对同一位老人输入的语音信息进行分析得到该老人的说话习惯信息;
步骤四:语音解析模块根据语音采集模块发送的语音信息和该语音信息对应的老人说话习惯信息以及所有老人普遍的说话习惯信息将老人的语音信息进行重新组合,然后将重新组合后的语音信息解析成文本信息,根据老人的说话习惯信息对该老人输入的语音信息进行解析。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810847820.2A CN108922540B (zh) | 2018-07-27 | 2018-07-27 | 与老人用户进行连续ai对话的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810847820.2A CN108922540B (zh) | 2018-07-27 | 2018-07-27 | 与老人用户进行连续ai对话的方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108922540A CN108922540A (zh) | 2018-11-30 |
CN108922540B true CN108922540B (zh) | 2023-01-24 |
Family
ID=64419043
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810847820.2A Active CN108922540B (zh) | 2018-07-27 | 2018-07-27 | 与老人用户进行连续ai对话的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108922540B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109658928B (zh) * | 2018-12-06 | 2020-06-23 | 山东大学 | 一种家庭服务机器人云端多模态对话方法、装置及系统 |
CN109979437B (zh) * | 2019-03-01 | 2022-05-20 | 阿波罗智联(北京)科技有限公司 | 语音识别方法、装置、设备和存储介质 |
CN111696559B (zh) * | 2019-03-15 | 2024-01-16 | 微软技术许可有限责任公司 | 提供情绪管理辅助 |
CN110473534A (zh) * | 2019-07-12 | 2019-11-19 | 南京邮电大学 | 一种基于深度神经网络的老年人看护对话系统 |
CN111815905A (zh) * | 2020-07-10 | 2020-10-23 | 江苏财经职业技术学院 | 基于智能养老系统的可穿戴终端设备及其控制方法 |
CN113113007A (zh) * | 2021-03-30 | 2021-07-13 | 北京金山云网络技术有限公司 | 语音数据的处理方法和装置、电子设备和存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0887289A (ja) * | 1994-09-19 | 1996-04-02 | Fujitsu Ltd | 音声規則合成装置 |
JPH10282986A (ja) * | 1997-04-04 | 1998-10-23 | Hitachi Ltd | 音声認識方法およびそのモデル設計方法 |
CN1512485A (zh) * | 2002-12-31 | 2004-07-14 | 北京天朗语音科技有限公司 | 语速自适应的语音识别系统 |
CN1920948A (zh) * | 2005-08-24 | 2007-02-28 | 富士通株式会社 | 语音识别系统及语音处理系统 |
JP2015049311A (ja) * | 2013-08-30 | 2015-03-16 | ブラザー工業株式会社 | 情報処理装置、話速データ生成方法、及びプログラム |
JP2015172622A (ja) * | 2014-03-11 | 2015-10-01 | 日本電気株式会社 | 音声出力装置および音声出力方法 |
CN106952645A (zh) * | 2017-03-24 | 2017-07-14 | 广东美的制冷设备有限公司 | 语音指令的识别方法、语音指令的识别装置和空调器 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8175874B2 (en) * | 2005-11-17 | 2012-05-08 | Shaul Shimhi | Personalized voice activity detection |
JP2009025388A (ja) * | 2007-07-17 | 2009-02-05 | Toyota Motor Corp | 音声認識装置 |
CN101625857B (zh) * | 2008-07-10 | 2012-05-09 | 新奥特(北京)视频技术有限公司 | 一种自适应的语音端点检测方法 |
WO2014107141A1 (en) * | 2013-01-03 | 2014-07-10 | Sestek Ses Ve Iletişim Bilgisayar Teknolojileri Sanayii Ve Ticaret Anonim Şirketi | Speech analytics system and methodology with accurate statistics |
KR102311922B1 (ko) * | 2014-10-28 | 2021-10-12 | 현대모비스 주식회사 | 사용자의 음성 특성을 이용한 대상 정보 음성 출력 제어 장치 및 방법 |
CN104835504A (zh) * | 2015-04-01 | 2015-08-12 | 广东小天才科技有限公司 | 一种消除语音互动过程中录音评测噪声干扰的方法及装置 |
KR20170033722A (ko) * | 2015-09-17 | 2017-03-27 | 삼성전자주식회사 | 사용자의 발화 처리 장치 및 방법과, 음성 대화 관리 장치 |
CN105704538A (zh) * | 2016-03-17 | 2016-06-22 | 广东小天才科技有限公司 | 一种音视频字幕生成方法及系统 |
CN106328124A (zh) * | 2016-08-24 | 2017-01-11 | 安徽咪鼠科技有限公司 | 一种基于用户行为特征的语音识别方法 |
CN106611598B (zh) * | 2016-12-28 | 2019-08-02 | 上海智臻智能网络科技股份有限公司 | 一种vad动态参数调整方法和装置 |
CN107038241A (zh) * | 2017-04-21 | 2017-08-11 | 上海庆科信息技术有限公司 | 具有情景分析功能的智能对话装置及方法 |
CN107248119A (zh) * | 2017-04-28 | 2017-10-13 | 深圳市前海安测信息技术有限公司 | 基于物联网的养老服务处理系统及方法 |
CN107369438A (zh) * | 2017-06-30 | 2017-11-21 | 重庆柚瓣家科技有限公司 | 居家养老服务平台 |
CN107886975B (zh) * | 2017-11-07 | 2020-03-10 | Oppo广东移动通信有限公司 | 音频的处理方法、装置、存储介质及电子设备 |
CN108257616A (zh) * | 2017-12-05 | 2018-07-06 | 苏州车萝卜汽车电子科技有限公司 | 人机对话的检测方法以及装置 |
-
2018
- 2018-07-27 CN CN201810847820.2A patent/CN108922540B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0887289A (ja) * | 1994-09-19 | 1996-04-02 | Fujitsu Ltd | 音声規則合成装置 |
JPH10282986A (ja) * | 1997-04-04 | 1998-10-23 | Hitachi Ltd | 音声認識方法およびそのモデル設計方法 |
CN1512485A (zh) * | 2002-12-31 | 2004-07-14 | 北京天朗语音科技有限公司 | 语速自适应的语音识别系统 |
CN1920948A (zh) * | 2005-08-24 | 2007-02-28 | 富士通株式会社 | 语音识别系统及语音处理系统 |
JP2015049311A (ja) * | 2013-08-30 | 2015-03-16 | ブラザー工業株式会社 | 情報処理装置、話速データ生成方法、及びプログラム |
JP2015172622A (ja) * | 2014-03-11 | 2015-10-01 | 日本電気株式会社 | 音声出力装置および音声出力方法 |
CN106952645A (zh) * | 2017-03-24 | 2017-07-14 | 广东美的制冷设备有限公司 | 语音指令的识别方法、语音指令的识别装置和空调器 |
Non-Patent Citations (1)
Title |
---|
Assistive design for elderly living ambient using voice and gesture recognition system;Haobijam Basanta et al;《2017 IEEE International Conference on Systems, Man, and Cybernetics (SMC)》;20171130;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN108922540A (zh) | 2018-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108922540B (zh) | 与老人用户进行连续ai对话的方法及系统 | |
CN108000526B (zh) | 用于智能机器人的对话交互方法及系统 | |
CN109410927A (zh) | 离线命令词与云端解析结合的语音识别方法、装置和系统 | |
CN109918650B (zh) | 自动生成采访稿的采访智能机器人装置及智能采访方法 | |
CN110517689A (zh) | 一种语音数据处理方法、装置及存储介质 | |
CN107993665A (zh) | 多人会话场景中发言人角色确定方法、智能会议方法及系统 | |
CN114401438B (zh) | 虚拟数字人的视频生成方法及装置、存储介质、终端 | |
KR20190028793A (ko) | 인공 지능에 기반한 휴먼 머신 인터랙티브 방법 및 장치 | |
CN107832286A (zh) | 智能交互方法、设备及存储介质 | |
CN111241357A (zh) | 对话训练方法、装置、系统及存储介质 | |
CN107797984A (zh) | 智能交互方法、设备及存储介质 | |
CN105224581B (zh) | 在播放音乐时呈现图片的方法和装置 | |
JP7105749B2 (ja) | キャラクタに応じたテキストを発話するエージェントのプログラム、装置及び方法 | |
JP6994289B2 (ja) | キャラクタ属性に応じた対話シナリオを作成するプログラム、装置及び方法 | |
WO2023184942A1 (zh) | 语音交互方法、装置及电器 | |
US20160198119A1 (en) | Imaging device | |
KR20160029895A (ko) | 감정 캐릭터 추천 장치 및 감정 캐릭터 추천 방법 | |
CN107274903A (zh) | 文本处理方法和装置、用于文本处理的装置 | |
CN108986785A (zh) | 一种文本改编方法及装置 | |
CN113591489B (zh) | 语音交互方法、装置及相关设备 | |
CN111324207A (zh) | 绘画显示方法、装置及电子设备 | |
CN106951433A (zh) | 一种检索方法及装置 | |
CN114048335A (zh) | 一种基于知识库的用户交互方法及装置 | |
KR20130068624A (ko) | 화자 그룹 기반 음성인식 장치 및 방법 | |
CN110781327B (zh) | 图像搜索方法、装置、终端设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |