CN112656414A - 一种通过ai对话检测心理状态的系统 - Google Patents

一种通过ai对话检测心理状态的系统 Download PDF

Info

Publication number
CN112656414A
CN112656414A CN202011498437.4A CN202011498437A CN112656414A CN 112656414 A CN112656414 A CN 112656414A CN 202011498437 A CN202011498437 A CN 202011498437A CN 112656414 A CN112656414 A CN 112656414A
Authority
CN
China
Prior art keywords
psychological
user
video
voice
dialogue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011498437.4A
Other languages
English (en)
Other versions
CN112656414B (zh
Inventor
任永亮
郭学栋
李嘉懿
张佳
蔡文锋
何汉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Intelligent Workshop Technology Co ltd
Original Assignee
Beijing Intelligent Workshop Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Intelligent Workshop Technology Co ltd filed Critical Beijing Intelligent Workshop Technology Co ltd
Priority to CN202011498437.4A priority Critical patent/CN112656414B/zh
Publication of CN112656414A publication Critical patent/CN112656414A/zh
Application granted granted Critical
Publication of CN112656414B publication Critical patent/CN112656414B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

一种通过AI对话检测心理状态的系统,包括AI对话交互设备(1)、服务器端模块(2)、远程在线医务单元(3)和心理状态和症状对应库(4);其中,AI对话交互设备(1)和服务器端模块(2)通信连接;服务器端模块(2)和远程在线医务单元(3)通信连接,从而实现AI对话交互设备(1)和远程在线医务单元(3)隔断通信连接;所述服务器端模块(2)和心理状态和症状对应库(4)通信连接,从而服务器端模块(2)实现查询心理状态和症状对应库中的检索数据。本发明的通过AI对话检测心理状态的系统,可以在聊天对话场景中自动捕捉心理咨询者的情绪,如果出现心理异常情况,进行不同知识意图的判断并利用心理疏导对话技巧返回不同的对话内容,严重情况者可以进行报警处理;同时,可以对咨询者的语音和视频进行必要的加密保护,从而更好保护咨询者的隐私,打消顾虑,更好诊断和了解情绪,提出解决方案。

Description

一种通过AI对话检测心理状态的系统
技术领域
本发明涉及心理状态检测统技术领域,具体为一种通过AI对话检测心理状态的系统及检测方法。
背景技术
人工智能(AI)技术中,目前工业界广泛应用视觉计算技术、语音技术、自然语言处理技术在审核、验证、安防等业务场景中实现降本增效的价值。其中,自然语言处理领域AI对话机器人技术根据自身的技术特点,在多轮对话中能够帮助用户做到服务预定、信息搜索、聊天社交等工作。
而现今,随着经济的快速的发展,人们的物质生活得到了极大的改善,但是精神生活却未相应跟进。心理健康问题是当下社会的一种普遍问题,在多元化的社会经济体系下,人们的价值观、生活方式正在急剧发生变化。不同的年龄群体都或多或少会对未来生活缺乏安全预期,对环境的快速变化无法作出适应性的改变,产生焦虑、抑郁、人际敏感甚至是自杀的心理疾病倾向,因此,为了解决这种心理问题,去接收心理医生的心理疏导就显得极为重要。
事实上,心理问题不同于生理疾病,生病程度与范围不好界定,传统心理诊断分为观察法、测试法、产品分析法、摄入谈话法、综合分析法,其中观察患者心理问题在应用上更多是以观察法、测试法切入。对与患者而言,心理疾病不受生理疾病痛苦控制,很难主动去进行心理问题诊疗,同时由于自己的主观排斥意识,会故意逃避问题、隐瞒事实,这也影响最终的测评结果、判定准确性。如何让患者可以打开心扉,而又不用担心自己的心理隐私被泄露,这是患者的一直担忧和鼓励的,这也是往往心理咨询存在的问题,尽管正常情况,心理治疗的医护人员并不会去泄露患者的隐私,如何打消患者的心理顾虑这是我们心理治疗十分重要的事情。
作为常识,如果有人直接坐在我们面前,我们容易产生紧张或者伪装自己,隐藏自己的心理思想,而人员未在我们面前,我们就更容易述说自己心扉。随着技术的发展,AI提供了解决的可能。AI对话是人工智能领域深度学习浪潮下的技术新趋势,对人来说是一种与传统事物相比完全不同的新鲜事物,它改变甚至正在颠覆人们的生活方式,通过对话场景切入,牵动生活行为模式的变化、认知方式的变化,更会影响人们的性格、心理决策。AI+心理诊断是一种生活新常态,也是社交泛化的场景之一。帮助人们改善自身状态,享受美好生活是人工智能技术正向发展、意义深远的一件事。也出现了一下在线心理咨询,如专利CN201811286196.X《一种通过聊天内容分析自杀倾向的心理模型》,该内容中仅针对“自杀倾向”的相关关键词、关键内容进行搜索查询并作出相对应的处理手段。
专利CN201780049702.0《在自动聊天中辅助心理治疗》,其中,在实施过程中,用户、聊天机器人、心理师之间通过UI界面进行交流,过程中由聊天机器人传输并分析用户信息,以便心理师提出最终治疗方案;
专利申请号202010364451.9《基于人机对话的心理疏导方法、心理疏导终端和存储介质,该专利通过与用户语音对话/视频对话的方式获取用户的聊天信息并通过深度学习模型对音频进行语义分析、语义理解,通过人机对话形式对用户进行心理疏解。
但是,上述专利中提及的AI对话机器人对心理诊疗的解决方案与本发明方案存在差异化,主要差异化内容如下:
1.本发明不仅仅局限在“自杀”倾向的心理问题检测,对于低层度的焦虑、抑郁、人际关系敏感等问题进行检测分析,提供正向引导;
2.本发明AI对话场景不仅可以通过文字聊天模式进行低干预的情绪疏解,也可以通过实时语音聊天和实时视频聊天模式进行心理沟通;
3.视频聊天模式下可通过面部表情识别进行多维度的心理诊疗,引导用户进行正确的治疗行为。
面对上述技术问题,人们希望提供一种能够快速捕捉患者的表情、同时可以保证视频不被医生自己看到,保证患者的隐身安全,或者病人选择性的开闭视频,以满足病人的实时选择需要,从而更好地、更放心地进行心理诊疗的心理咨询诊疗系统,并且在发生危险的情况或者极端情况下,及时进行报警,但到目前为止,现有技术中并无有效办法解决上述技术难题。
发明内容
针对上述技术问题,本发明的目的在于通过实现机器人对话系统可以实现与用户进行文本聊天交流、语音实时聊天、视频实时聊天的心理状态检测及正向情绪引导。方便用户实现远程云端的心理疏导,通过AI+心理诊断机制完成对用户的心理状态检测及定制化诊疗,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种通过AI对话检测心理状态的系统,包括AI对话交互设备(1)、服务器端模块(2)、远程在线医务单元(3)和心理状态和症状对应库(4);其中,AI对话交互设备(1)和服务器端模块(2)通信连接;服务器端模块(2)和远程在线医务单元(3)通信连接,从而实现AI对话交互设备(1)和远程在线医务单元(3)隔断通信连接;所述服务器端模块(2)和心理状态和症状对应库(4)通信连接,从而服务器端模块(2)实现查询心理状态和症状对应库中的检索数据;
其中,所述AI对话交互设备包括AI处理模块(5)、音频传感设备(6)、视频传感设备(7)、视频显示模块(8)、音频输出模块(9)和其他输入模块;所述AI对话交互设备内置AI对话系统;
其中,所述系统在使用时,心理咨询者通过AI对话交互设备(1)和服务器端模块(2)通信连接,并进一步和远程在线医务单元连接;所述AI对话交互设备(1)的音频传感设备(6)和视频传感设备(7)获取所述心理咨询者的声音和视频图像,并将视频图形在所述AI处理模块(5)中进行智能分析,如果所述AI处理模块(5)通过分析该心理监控咨询者的面部情绪存在隐瞒情绪的表情时,则此时进行心理监控咨询存在不能准确捕捉该心理监控咨询者的真实情绪或者患者存在临时不符合该心理监控咨询者的真实的情绪,所述AI处理模块(5)通过视频显示模块和/或音频输出模块去播放轻松视频和/或音频,从而舒缓该心理监控咨询者的情绪;
当所述AI处理模块(5)通过分析该心理监控咨询者的面部情绪不存在隐瞒情绪的表情时,则此时AI处理模块(5)开始和心理咨询者进行心理监控咨询。
优选地,所述AI对话交互设备1还包括心率测量设备,所述心率测量设备测量心理咨询者的心率并传输给AI处理模块5,所述AI处理模块5根据该心理咨询者的年龄、体重、身高和性别查询该心理咨询者合理的心率,如果心率不处于正常范围,则认为心理监控咨询者存在隐瞒或者顾虑,会导致心理测试不准确,因此通知心理监控咨询者平缓一下情绪后再进行心理咨询。
优选地,所述AI对话交互设备1还包括语音智能处理系统,所述语音智能处理系统能够自动识别心理咨询者的语音形成文字,将识别后的所述语音的文章加载到系统内置的基础声音中形成拟合语音,所述AI对话交互设备1将所述拟合语音通过所述服务器端模块2发送给远程在线医务单元3。
优选地,所述AI对话交互设备1的还包括面部表情捕捉系统,所述面部表情捕捉系统能够根据所述视频传感模块自动识别和捕捉所述心理咨询者的面部情绪表情,并将识别后的特殊面部表情传输给所述AI对话交互设备1,通过AI系统模块输出情绪识别结果再返回给服务器端模块2
优选地,所述AI处理模块5能够根据面部表情捕捉系统自动识别出异常情绪,并发送所述服务器端模块2,所述服务器端模块2通过查询心理状态和症状对应库,判断所述心理咨询者是否会做出极端动作,如果所述心理咨询者会做出极端动作,则所述服务器端模块2进行报警,并反馈给所述AI对话交互设备1,所述AI对话交互设备1通过所述音频输出模块和所述视频显示模块播放平复所述心理咨询者的音频和视频。
优选地,所述系统还包括自动在线诊断模式,在该自动在线诊断模式下,AI处理模块5根据音频传感设备6和视频传感设备7获取所述心理咨询者的声音和视频图像,进行处理后发送给服务器端模块,所述服务器端模块查询所述心理心理状态和症状对应库,得出心理咨询者的情绪和应对的心理辅导,并将心理辅导发送给所述AI对话交互设备1以便疏导心理咨询者。
优选地,所述服务器端模块存储相应的远程在线医务单元针对的心理咨询者的症状和对应的心理健康引导措施于所述心理心理状态和症状对应库。
优选地,所述AI对话交互设备1设置咨询隐私模式选择模块,所述咨询隐私模式选择模块包括语音和视频都保密模式、仅语音都保密模式、仅视频保密模式和无保密模式;在语音和视频都保密模式中,传输给远程在线医务单元的音频和视频都是拟合处理后的音频和视频;在仅语音都保密模式中,传输给远程在线医务单元的音频是拟合处理后的音频,而视频为心理咨询者的未经处理的视频;在仅视频保密模式中,传输给远程在线医务单元的视频都是拟合处理后的视频,但音频为心理咨询者的未经处理的音频;在无保密模式中,音频和视频都是心理咨询者的未经处理的音频和视频。
另外一方面,本申请还提供一种通过AI对话检测心理状态的方法,包括通过AI对话检测心理状态的系统,具体步骤如下:
S1,当用户打开AI对话系统,向用户发送预设对话内容并等待用户输入;
S2,用户输入内容后,AI对话系统记录该用户输入内容;
S3,根据用户输入内容,调用心理状态检测模型完成当前心理状态检测;
S4,根据用户输入内容,进行意图判断调用对话流对话逻辑并返回给用户内容;
S5,AI机器人完成回复,若对话流逻辑中含有追问逻辑,则继续向用户输出内容并等待用户反馈;
S6,若对话流逻辑中未含有追问逻辑,则等待用户再次输入内容;
S7,若用户在一定时间内未输入任何内容,则AI对话系统退出意图判断状态;
其特征在于:
其中,AI对话流程与用户交互形式可区分为文本交互、实时语音交互、视频交互;
所述AI交互形式流程包括如下步骤:
S201,当用户通过各端平台(移动/PC)打开AI对话系统;
S202,若用户选择文本聊天对话,系统默认向用户发送预设文案进行用户意图问询;
S203,若用户根据页面提示,选择实时语音通话;
S204,系统通过UI界面向用户问询是否开启麦克风权限;
S205,当用户点击允许后,自动向后端系统请求发送语音通话连接请求。
S206,后端系统默认创建语音聊天ID并接通1对1语音连线。
S207,若用户根据页面提示,选择实时视频通话。
S208,首次使用,系统通过UI界面向用户问询是够开启麦克风权限、摄像头权限。
S209,当用户点击允许后,自动向后段系统发送视频通话连接请求。
S210,后台系统默认创建视频聊天ID,并接通1对1视频通话。
S211,当用户向AI对话输入内容,AI对话系统记录该用户输入的内容数据;
S212,若为文本交互形式,通过用户输入的文本内容进行AI意图分类,并根据对话系统意图标签匹配对应的对话流模型,输出回复文本;
S213,若为语音交互形式,系统通过用户输入的语音内容识别转译为文本内容,并根据对话系统意图标签匹配对应的对话流模型,输出文本内容并调用文本语音生成模型完成语音合成并实时传输给用户;
S214,用户再次输入内容,系统通过用户输入的内容进行AI意图分类,并根据对话系统意图标签匹配对应的对话流模型,输出回复内容;
S215,若为视频交互形式,系统视频聊天UI界面展示机器人交互动画的同时并通过意图匹配对话流模型,通过调用文本语音生成模型输出语音内容返回给用户侧。
优先地,通过用户输入内容进行心理状态检测机制具体实现流程如下:
S301,当用户向AI对话系统输入内容,AI对话系统记录用户ID、输入内容数据;
S302,若用户通过文本形式完成对话交互,则仅记录文本内容数据;
S303,若用户通过语音形式完成对话交互,则记录语音内容数据并实时转译为文本内容数据;
S304,若用户通过视频形式完成对话交互,则根据摄像头抽帧采集用户面部表情图像数据和语音内容数据;
S305,AI对话系统调用心理状态检测模型;
S306,AI对话系统调用面部表情识别检测模型
S307,通过模型融合完成对当前心理状况的检测机制;分为文本信息检测和面部微表情心理状态检测;
S308,若心理状态检测结果处于心理异常状态,如自杀倾向、自虐倾向,可通过用户联系方式上报110接警中心,将用户基本信息、注册信息反馈至110接警中心。
S309,若心理状态检测结果处于心理正常,但心理属于不健康状态。如抑郁、失眠、心理障碍等;通过AI意图识别,进行多轮对话后的意图精确分类,并调用相关联对话流模型实现心理疏导。
S310,当用户再次输入内容数据,循环心理状态检测流程并记录用户内容行为数据,实时对用户完成心理状态的检测工作;
优选地,其中,AI对话系统输出的对话流内容语料存在多边性与生成性特点。主要生成流程如下:
心理咨询领域专家选择语料填充工具完成对心理咨询对话语料的基础工作、其中第一种方式为:
S401,创建一个对话流模块;
S402,设计AI对话交互路径,填充对话语料。
S403,指定用户输入逻辑,通过规划用户咨询步骤与咨询路径完成心理咨询疏解工作;
其中第二种方式为:
S411,创建一个对话流模块;
S412,设计心理咨询QA对话场景并填充对话内容预料;
S413,AI对话系统抽离Q预料与A预料;
S414,建立心理咨询对话生成模型,并通过预料数据库更新训练模型;
S415,模型生成更加精准的生成式内容并输出给用户。
与现有技术相比,本发明的有益效果是:
1、本发明通过AI对话系统检测用户心理状态可以收集单个用户的聊天内容数据建立用户心理状态倾向模型,做到及时诊断、提前治疗、预测行为等工作,减少自杀、危害社会公共安全等悲剧的事件发生。辅助医院、公安部门防患于未然,提升社会和谐稳定、个人家庭稳定幸福。
2、本发明通过对音频进行自动识别和音频拟合技术,使心理咨询者的声音可以保密,从而防止心理咨询者的声音被在线医务人员直接获取,从而更好的保护心理咨询者的隐私。
3、本发明通过对视频进行自动识别和视频拟合技术,使心理咨询者的视频可以保密,从而防止心理咨询者的视频被在线医务人员直接获取,从而更好的保护心理咨询者的隐私。
4、本发明的在线咨询可以自动咨询模式和选择性的开放视频、音频给在线咨询者,从而更好地服务心理咨询者。
附图说明
图1为本发明的整体结构示意图;
图2为本发明的AI对话交互设备的结构示意图。
图中:1、AI对话交互设备;2、服务器端模块;3、远程在线医务单元;4、心理状态和症状对应库;5、语音提醒单元;6、网络获取单元;7、病历存储单元;8、设备外壳;9、小型显示屏;10、储药盒;11、药剂存放传感模块;12、提醒吃药设定单元;13、家庭药箱。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
具体实施例一:
请参阅图1,本发明提供一种技术方案:一种通过AI对话检测心理状态的系统,包括AI对话交互设备(1)、服务器端模块(2)、远程在线医务单元(3)和心理状态和症状对应库(4);其中,AI对话交互设备(1)和服务器端模块(2)通信连接;服务器端模块(2)和远程在线医务单元(3)通信连接,从而实现AI对话交互设备(1)和远程在线医务单元(3)隔断通信连接;所述服务器端模块(2)和心理状态和症状对应库(4)通信连接,从而服务器端模块(2)实现查询心理状态和症状对应库中的检索数据;
其中,所述AI对话交互设备包括AI处理模块(5)、音频传感设备(6)、视频传感设备(7)、视频显示模块(8)、音频输出模块(9)和其他输入模块;所述AI对话交互设备内置AI对话系统;
其中,所述系统在使用时,心理咨询者通过AI对话交互设备(1)和服务器端模块(2)通信连接,并进一步和远程在线医务单元连接;所述AI对话交互设备(1)的音频传感设备(6)和视频传感设备(7)获取所述心理咨询者的声音和视频图像,并将视频图形在所述AI处理模块(5)中进行智能分析,如果所述AI处理模块(5)通过分析该心理监控咨询者的面部情绪存在隐瞒情绪的表情时,则此时进行心理监控咨询存在不能准确捕捉该心理监控咨询者的真实情绪或者患者存在临时不符合该心理监控咨询者的真实的情绪,所述AI处理模块(5)通过视频显示模块和/或音频输出模块去播放轻松视频和/或音频,从而舒缓该心理监控咨询者的情绪;
当所述AI处理模块(5)通过分析该心理监控咨询者的面部情绪不存在隐瞒情绪的表情时,则此时AI处理模块(5)开始和心理咨询者进行心理监控咨询。
优选地,所述AI对话交互设备1还包括心率测量设备,所述心率测量设备测量心理咨询者的心率并传输给AI处理模块5,所述AI处理模块5根据该心理咨询者的年龄、体重、身高和性别查询该心理咨询者合理的心率,如果心率不处于正常范围,则认为心理监控咨询者存在隐瞒或者顾虑,会导致心理测试不准确,因此通知心理监控咨询者平缓一下情绪后再进行心理咨询。
优选地,所述AI对话交互设备1还包括语音智能处理系统,所述语音智能处理系统能够自动识别心理咨询者的语音形成文字,将识别后的所述语音的文章加载到系统内置的基础声音中形成拟合语音,所述AI对话交互设备1将所述拟合语音通过所述服务器端模块2发送给远程在线医务单元3。
优选地,所述AI对话交互设备1的还包括面部表情捕捉系统,所述面部表情捕捉系统能够根据所述视频传感模块自动识别和捕捉所述心理咨询者的面部情绪表情,并将识别后的特殊面部表情传输给所述AI对话交互设备1,通过AI系统模块输出情绪识别结果再返回给服务器端模块2
优选地,所述AI处理模块5能够根据面部表情捕捉系统自动识别出异常情绪,并发送所述服务器端模块2,所述服务器端模块2通过查询心理状态和症状对应库,判断所述心理咨询者是否会做出极端动作,如果所述心理咨询者会做出极端动作,则所述服务器端模块2进行报警,并反馈给所述AI对话交互设备1,所述AI对话交互设备1通过所述音频输出模块和所述视频显示模块播放平复所述心理咨询者的音频和视频。
优选地,所述系统还包括自动在线诊断模式,在该自动在线诊断模式下,AI处理模块5根据音频传感设备6和视频传感设备7获取所述心理咨询者的声音和视频图像,进行处理后发送给服务器端模块,所述服务器端模块查询所述心理心理状态和症状对应库,得出心理咨询者的情绪和应对的心理辅导,并将心理辅导发送给所述AI对话交互设备1以便疏导心理咨询者。
优选地,所述服务器端模块存储相应的远程在线医务单元针对的心理咨询者的症状和对应的心理健康引导措施于所述心理心理状态和症状对应库。
优选地,所述AI对话交互设备1设置咨询隐私模式选择模块,所述咨询隐私模式选择模块包括语音和视频都保密模式、仅语音都保密模式、仅视频保密模式和无保密模式;在语音和视频都保密模式中,传输给远程在线医务单元的音频和视频都是拟合处理后的音频和视频;在仅语音都保密模式中,传输给远程在线医务单元的音频是拟合处理后的音频,而视频为心理咨询者的未经处理的视频;在仅视频保密模式中,传输给远程在线医务单元的视频都是拟合处理后的视频,但音频为心理咨询者的未经处理的音频;在无保密模式中,音频和视频都是心理咨询者的未经处理的音频和视频。
实施例二:
本申请还提供一种通过AI对话检测心理状态的方法,包括通过AI对话检测心理状态的系统,具体步骤如下:
S1,当用户打开AI对话系统,向用户发送预设对话内容并等待用户输入;
S2,用户输入内容后,AI对话系统记录该用户输入内容;
S3,根据用户输入内容,调用心理状态检测模型完成当前心理状态检测;
S4,根据用户输入内容,进行意图判断调用对话流对话逻辑并返回给用户内容;
S5,AI机器人完成回复,若对话流逻辑中含有追问逻辑,则继续向用户输出内容并等待用户反馈;
S6,若对话流逻辑中未含有追问逻辑,则等待用户再次输入内容;
S7,若用户在一定时间内未输入任何内容,则AI对话系统退出意图判断状态;
其特征在于:
其中,AI对话流程与用户交互形式可区分为文本交互、实时语音交互、视频交互;
所述AI交互形式流程包括如下步骤:
S201,当用户通过各端平台(移动/PC)打开AI对话系统;
S202,若用户选择文本聊天对话,系统默认向用户发送预设文案进行用户意图问询;
S203,若用户根据页面提示,选择实时语音通话;
S204,系统通过UI界面向用户问询是否开启麦克风权限;
S205,当用户点击允许后,自动向后端系统请求发送语音通话连接请求。
S206,后端系统默认创建语音聊天ID并接通1对1语音连线。
S207,若用户根据页面提示,选择实时视频通话。
S208,首次使用,系统通过UI界面向用户问询是够开启麦克风权限、摄像头权限。
S209,当用户点击允许后,自动向后段系统发送视频通话连接请求。
S210,后台系统默认创建视频聊天ID,并接通1对1视频通话。
S211,当用户向AI对话输入内容,AI对话系统记录该用户输入的内容数据;
S212,若为文本交互形式,通过用户输入的文本内容进行AI意图分类,并根据对话系统意图标签匹配对应的对话流模型,输出回复文本;
S213,若为语音交互形式,系统通过用户输入的语音内容识别转译为文本内容,并根据对话系统意图标签匹配对应的对话流模型,输出文本内容并调用文本语音生成模型完成语音合成并实时传输给用户;
S214,用户再次输入内容,系统通过用户输入的内容进行AI意图分类,并根据对话系统意图标签匹配对应的对话流模型,输出回复内容;
S215,若为视频交互形式,系统视频聊天UI界面展示机器人交互动画的同时并通过意图匹配对话流模型,通过调用文本语音生成模型输出语音内容返回给用户侧。
优先地,通过用户输入内容进行心理状态检测机制具体实现流程如下:
S301,当用户向AI对话系统输入内容,AI对话系统记录用户ID、输入内容数据;
S302,若用户通过文本形式完成对话交互,则仅记录文本内容数据;
S303,若用户通过语音形式完成对话交互,则记录语音内容数据并实时转译为文本内容数据;
S304,若用户通过视频形式完成对话交互,则根据摄像头抽帧采集用户面部表情图像数据和语音内容数据;
S305,AI对话系统调用心理状态检测模型;
S306,AI对话系统调用面部表情识别检测模型
S307,通过模型融合完成对当前心理状况的检测机制;分为文本信息检测和面部微表情心理状态检测;
S308,若心理状态检测结果处于心理异常状态,如自杀倾向、自虐倾向,可通过用户联系方式上报110接警中心,将用户基本信息、注册信息反馈至110接警中心。
S309,若心理状态检测结果处于心理正常,但心理属于不健康状态。如抑郁、失眠、心理障碍等;通过AI意图识别,进行多轮对话后的意图精确分类,并调用相关联对话流模型实现心理疏导。
S310,当用户再次输入内容数据,循环心理状态检测流程并记录用户内容行为数据,实时对用户完成心理状态的检测工作;
优选地,其中,AI对话系统输出的对话流内容语料存在多边性与生成性特点。主要生成流程如下:
心理咨询领域专家选择语料填充工具完成对心理咨询对话语料的基础工作、其中第一种方式为:
S401,创建一个对话流模块;
S402,设计AI对话交互路径,填充对话语料。
S403,指定用户输入逻辑,通过规划用户咨询步骤与咨询路径完成心理咨询疏解工作;
其中第二种方式为:
S411,创建一个对话流模块;
S412,设计心理咨询QA对话场景并填充对话内容预料;
S413,AI对话系统抽离Q预料与A预料;
S414,建立心理咨询对话生成模型,并通过预料数据库更新训练模型;
S415,模型生成更加精准的生成式内容并输出给用户。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (7)

1.一种通过AI对话检测心理状态的系统,包括AI对话交互设备(1)、服务器端模块(2)、远程在线医务单元(3)和心理状态和症状对应库(4);其中,AI对话交互设备(1)和服务器端模块(2)通信连接;服务器端模块(2)和远程在线医务单元(3)通信连接,从而实现AI对话交互设备(1)和远程在线医务单元(3)隔断通信连接;所述服务器端模块(2)和心理状态和症状对应库(4)通信连接,从而服务器端模块(2)实现查询心理状态和症状对应库中的检索数据;
其中,所述AI对话交互设备包括AI处理模块(5)、音频传感设备(6)、视频传感设备(7)、视频显示模块(8)、音频输出模块(9)和其他输入模块;所述AI对话交互设备内置AI对话系统;
其中,所述系统在使用时,心理咨询者通过AI对话交互设备(1)和服务器端模块(2)通信连接,并进一步和远程在线医务单元连接;所述AI对话交互设备(1)的音频传感设备(6)和视频传感设备(7)获取所述心理咨询者的声音和视频图像,并将视频图形在所述AI处理模块(5)中进行智能分析,如果所述AI处理模块(5)通过分析该心理监控咨询者的面部情绪存在隐瞒情绪的表情时,则此时进行心理监控咨询存在不能准确捕捉该心理监控咨询者的真卖情绪或者患者存在临时不符合该心理监控咨询者的真实的情绪,所述AI处理模块(5)通过视频显示模块和/或音频输出模块去播放轻松视频和/或音频,从而舒缓该心理监控咨询者的情绪;
当所述AI处理模块(5)通过分析该心理监控咨询者的面部情绪不存在隐瞒情绪的表情时,则此时AI处理模块(5)开始和心理咨询者进行心理监控咨询;
所述AI对话交互设备(1)还包括心率测量设备,所述心率测量设备测量心理咨询者的心率并传输给AI处理模块(5),所述AI处理模块(5)根据该心理咨询者的年龄、体重、身高和性别查询该心理咨询者合理的心率,如果心率不处于正常范围,通知心理监控咨询者平缓一下情绪后再进行心理咨询;
所述AI对话交互设备1还包括语音智能处理系统,所述语音智能处理系统能够自动识别心理咨询者的语音形成文字,将识别后的所述语音的文章加载到系统内置的基础声音中形成拟合语音,所述AI对话交互设备1将所述拟合语音通过所述服务器端模块2发送给远程在线医务单元3;
所述AI对话交互设备1的还包括面部表情捕捉系统,所述面部表情捕捉系统能够根据所述视频传感模块自动识别和捕捉所述心理咨询者的面部情绪表情,并将识别后的特殊面部表情传输给所述AI对话交互设备1,通过Al系统模块输出情绪识别结果再返回给服务器端模块2。
2.根据权利要求1所述的一种通过AI对话检测心理状态的系统,其特征在于:所述AI处理模块5能够根据面部表情捕捉系统自动识别出异常情绪,并发送所述服务器端模块2,所述服务器端模块2通过查询心理状态和症状对应库,判断所述心理咨询者是否会做出极端动作,如果所述心理咨询者会做出极端动作,则所述服务器端模块2进行报警,并反馈给所述AI对话交互设备1,所述Al对话交互设备1通过所述音频输出模块和所述视频显示模块播放平复所述心理咨询者的音频和视频。
3.根据权利要求1所述的一种通过AI对话检测心理状态的系统,其特征在于:所述系统还包括自动在线诊断模式,在该自动在线诊断模式下,Al 处理模块5根据音频传感设备6和视频传感设备7获取所述心理咨询者的声音和视频图像,进行处理后发送给服务器端模块,所述服务器端模块查询所述心理心理状态和症状对应库,得出心理咨询者的情绪和应对的心理辅导,并将心理辅导发送给所述AI对话交互设备1以便疏导心理咨询者。
4.根据权利要求1所述的一种所述通过AI对话检测心理状态的系统,其特征在于:所述服务器端模块存储相应的远程在线医务单元针对的心理咨询者的症状和对应的心理健康引导措施于所述心理心理状态和症状对应库。
5.根据权利要求1所述的一种所述通过AI对话检测心理状态的系统,其特征在于:所述AI对话交互设备1设置咨询隐私模式选择模块,所述咨询隐私模式选择模块包括语音和视频都保密模式、仅语音都保密模式、仅视频保密模式和无保密模式;在语音和视频都保密模式中,传输给远程在线医务单元的音频和视频都是拟合处理后的音频和视频;在仅语音都保密模式中,传输给远程在线医务单元的音频是拟合处理后的音频,而视频为心理咨询者的未经处理的视频;在仅视频保密模式中,传输给远程在线医务单元的视频都是拟合处理后的视频,但音频为心理咨询者的未经处理的音频;在无保密模式中,音频和视频都是心理咨询者的未经处理的音频和视频。
6.一种通过AI对话检测心理状态的方法,包括如权利要求1-5中任意一项的通过AI对话检测心理状态的系统,具体步骤如下:
S1,当用户打开AI对话系统,向用户发送预设对话内容并等待用户输入;
S2,用户输入内容后,AI对话系统记录该用户输入内容;
S3,根据用户输入内容,调用心理状态检测模型完成当前心理状态检测;
S4,根据用户输入内容,进行意图判断调用对话流对话逻辑并返回给用户内容;
S5,AI机器人完成回复,若对话流逻辑中含有追问逻辑,则继续向用户输出内容并等待用户反馈;
S6,若对话流逻辑中未含有追问逻辑,则等待用户再次输入内容;
S7,若用户在一定时间内未输入任何内容,则AI对话系统退出意图判断状态;
其特征在于:
其中,AI对话流程与用户交互形式可区分为文本交互、实时语音交互、视频交互;所述AI交互形式流程包括如下步骤:
S201,当用户通过各端平台(移动/PC)打开AI对话系统;
S202,若用户选择文本聊天对话,系统默认向用户发送预设文案进行用户意图问询;
S203,若用户根据页面提示,选择实时语音通话;
S204,系统通过UI界面向用户问询是否开启麦克风权限;
S205,当用户点击允许后,自动向后端系统请求发送语音通话连接请求;
S206,后端系统默认创建语音聊天ID并接通1对1语音连线;
S207,若用户根据页面提示,选择实时视频通话;
S208,首次使用,系统通过UI界面向用户问询是够开启麦克风权限、摄像头权限;
S209,当用户点击允许后,自动向后段系统发送视频通话连接请求;
S210,后台系统默认创建视频聊天ID,并接通1对1视频通话;
S211,当用户向AI对话输入内容,AI对话系统记录该用户输入的内容数据;
S212,若为文本交互形式,通过用户输入的文本内容进行AI意图分类,并根据对话系统意图标签匹配对应的对话流模型,输出回复文本;
S213,若为语音交互形式,系统通过用户输入的语音内容识别转译为文本内容,并根据对话系统意图标签匹配对应的对话流模型,输出文本内容并调用文本语音生成模型完成语音合成并实时传输给用户;
S214,用户再次输入内容,系统通过用户输入的内容进行Al意图分类,并根据对话系统意图标签匹配对应的对话流模型,输出回复内容;
S215,若为视频交互形式,系统视频聊天UI界面展示机器人交互动画的同时并通过意图匹配对话流模型,通过调用文本语音生成模型输出语音内容返回给用户侧。
7.根据权利要求6所述的一种通过AI对话检测心理状态的方法,其特征在于:通过用户输入内容进行心理状态检测机制具体实现流程如下:
S301,当用户向AI对话系统输入内容,AI对话系统记录用户ID、输入内容数据;
S302,若用户通过文本形式完成对话交互,则仅记录文本内容数据;
S303,若用户通过语音形式完成对话交互,则记录语音内容数据并实时转译为文本内容数据;
S304,若用户通过视频形式完成对话交互,则根据摄像头抽帧采集用户面部表情图像数据和语音内容数据;
S305,AI对话系统调用心理状态检测模型;
S306,AI对话系统调用面部表情识别检测模型
S307,通过模型融合完成对当前心理状况的检测机制;分为文本信息检测和面部微表情心理状态检测;
S308,若心理状态检测结果处于心理异常状态,如自杀倾向、自虐倾向,可通过用户联系方式上报110接警中心,将用户基本信息、注册信息反馈至110接警中心。
S309,若心理状态检测结果处于心理正常,但心理属于不健康状态。如抑郁、失眠、心理障碍等;通过Al意图识别,进行多轮对话后的意图精确分类,并调用相关联对话流模型实现心理疏导;
S310,当用户再次输入内容数据,循环心理状态检测流程并记录用户内容行为数据,实时对用户完成心理状态的检测工作。
CN202011498437.4A 2020-12-17 2020-12-17 一种通过ai对话检测心理状态的系统 Active CN112656414B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011498437.4A CN112656414B (zh) 2020-12-17 2020-12-17 一种通过ai对话检测心理状态的系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011498437.4A CN112656414B (zh) 2020-12-17 2020-12-17 一种通过ai对话检测心理状态的系统

Publications (2)

Publication Number Publication Date
CN112656414A true CN112656414A (zh) 2021-04-16
CN112656414B CN112656414B (zh) 2023-08-08

Family

ID=75405125

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011498437.4A Active CN112656414B (zh) 2020-12-17 2020-12-17 一种通过ai对话检测心理状态的系统

Country Status (1)

Country Link
CN (1) CN112656414B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101799849A (zh) * 2010-03-17 2010-08-11 哈尔滨工业大学 采用计算机实现的非障碍性自动心理咨询方法
JP3162025U (ja) * 2010-06-05 2010-08-19 株式会社魔法 感情分析ゲーム装置
CN109426653A (zh) * 2017-08-27 2019-03-05 南京乐朋电子科技有限公司 心理咨询机器人
WO2019168253A1 (ko) * 2018-02-27 2019-09-06 주식회사 와이즈넛 계층적으로 사용자 표현을 이해하고 답변을 생성하는 대화형 상담 챗봇 장치 및 방법
CN110370275A (zh) * 2019-07-01 2019-10-25 夏博洋 基于表情识别的情绪聊天机器人
CN111368053A (zh) * 2020-02-29 2020-07-03 重庆百事得大牛机器人有限公司 基于法律咨询机器人的情绪安抚系统
CN111916181A (zh) * 2020-07-23 2020-11-10 南京汇心创悦心理咨询服务有限公司 一种基于人工智能的心理建设系统及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101799849A (zh) * 2010-03-17 2010-08-11 哈尔滨工业大学 采用计算机实现的非障碍性自动心理咨询方法
JP3162025U (ja) * 2010-06-05 2010-08-19 株式会社魔法 感情分析ゲーム装置
CN109426653A (zh) * 2017-08-27 2019-03-05 南京乐朋电子科技有限公司 心理咨询机器人
WO2019168253A1 (ko) * 2018-02-27 2019-09-06 주식회사 와이즈넛 계층적으로 사용자 표현을 이해하고 답변을 생성하는 대화형 상담 챗봇 장치 및 방법
CN110370275A (zh) * 2019-07-01 2019-10-25 夏博洋 基于表情识别的情绪聊天机器人
CN111368053A (zh) * 2020-02-29 2020-07-03 重庆百事得大牛机器人有限公司 基于法律咨询机器人的情绪安抚系统
CN111916181A (zh) * 2020-07-23 2020-11-10 南京汇心创悦心理咨询服务有限公司 一种基于人工智能的心理建设系统及装置

Also Published As

Publication number Publication date
CN112656414B (zh) 2023-08-08

Similar Documents

Publication Publication Date Title
US10748644B2 (en) Systems and methods for mental health assessment
US11301680B2 (en) Computing device for enhancing communications
Denzin Symbolic interactionism and ethnomethodology
CN111459290B (zh) 交互意图确定方法及装置、计算机设备及存储介质
Park et al. Computational analysis of persuasiveness in social multimedia: A novel dataset and multimodal prediction approach
CN103561652B (zh) 用于辅助患者的方法和系统
US20130266925A1 (en) Embedded Conversational Agent-Based Kiosk for Automated Interviewing
CN111368053B (zh) 基于法律咨询机器人的情绪安抚系统
JP2009294647A (ja) 行動分析装置及びコールセンターシステム
Gironzetti et al. Smiling, gaze, and humor in conversation
US20210012065A1 (en) Methods Circuits Devices Systems and Functionally Associated Machine Executable Code for Generating a Scene Guidance Instruction
WO2020148920A1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
CN112581015B (zh) 基于ai检验的咨询师质量评估系统及评估方法
CN111599359A (zh) 人机交互方法、服务端、客户端及存储介质
CN110047518A (zh) 一种语音情感分析系统
WO2020128999A1 (en) System and method for reading and analysing behaviour including verbal, body language and facial expressions in order to determine a person's congruence
CN113035232B (zh) 一种基于语音识别的心理状态预测系统、方法及装置
Prinz The Smiling Chatbot: Investigating Emotional Contagion in Human-to-Chatbot Service Interactions
CN112656414B (zh) 一种通过ai对话检测心理状态的系统
Jaimes et al. Affective meeting video analysis
Gupta et al. REDE-Detecting human emotions using CNN and RASA
Karpouzis et al. Induction, recording and recognition of natural emotions from facial expressions and speech prosody
Ferrari et al. Using Voice and Biofeedback to Predict User Engagement during Product Feedback Interviews
US11886950B2 (en) System and method for assessing and verifying the validity of a transaction
Syed et al. Multimodal Prediction of Public Trust in Politicians from Speech and Text

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant