CN111300443A - 基于法律咨询机器人的情绪安抚方法 - Google Patents

基于法律咨询机器人的情绪安抚方法 Download PDF

Info

Publication number
CN111300443A
CN111300443A CN202010132125.5A CN202010132125A CN111300443A CN 111300443 A CN111300443 A CN 111300443A CN 202010132125 A CN202010132125 A CN 202010132125A CN 111300443 A CN111300443 A CN 111300443A
Authority
CN
China
Prior art keywords
information
emotion
consultant
placating
legal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010132125.5A
Other languages
English (en)
Other versions
CN111300443B (zh
Inventor
吴怡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Daniu Cognitive Technology Co.,Ltd.
Original Assignee
Chongqing Best Daniel Robot Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Best Daniel Robot Co ltd filed Critical Chongqing Best Daniel Robot Co ltd
Priority to CN202010132125.5A priority Critical patent/CN111300443B/zh
Publication of CN111300443A publication Critical patent/CN111300443A/zh
Application granted granted Critical
Publication of CN111300443B publication Critical patent/CN111300443B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Abstract

本发明涉及法律咨询的技术领域,具体公开了基于法律咨询机器人的情绪安抚方法,包括以下步骤:s100,采集语音信息;s200,根据语音信息分析识别得到语速信息、语调信息和文字信息;s400,当语速信息和语调信息其中之一不符合预设要求时,采集面部图像信息;s500,分析处理面部图像信息得到面部特征信息,根据面部特征信息从预设的人脸表情库中匹配出情绪信息;s800,当情绪信息判断的结果为消极情绪信息时根据预设的情绪安抚方式对咨询者进行情绪安抚,执行s100。采用本发明的技术方案能够识别前来做法律咨询的咨询者的情绪,当情绪出现异常时,能对咨询者进行情绪安抚,避免情绪影响咨询者阐述的法律问题,降低法律问题的准确性和完整性。

Description

基于法律咨询机器人的情绪安抚方法
技术领域
本发明涉及法律咨询的技术领域,特别涉及基于法律咨询机器人的情绪安抚方法。
背景技术
随着依法治国理念的推广,人们的法律意识在不断的提高,基层群众逐渐有了维权意识,但由于我国有14亿人口,而执业律师却只有42万人,远远不能满足群众的法律需求,因此,很多有群众虽有维权意识,但由于身边没有专业的法律咨询顾问,常常苦于没有维权途径。与此同时,法律咨询行业存在收费高的问题,导致法律咨询的时间成本增加,许多基层群众面对高昂的咨询价格时,望而却步。
随着人工智能技术的发展,为了满足众多法律咨询者的法律咨询需求,出现了很多用于法律咨询服务的智能机器人,例如中国专利公开号为CN109108989A的专利文献公开了一种语义识别的法律服务专用机器人,包括机器人本体以及设置在机器人本体内的服务器;所述机器人本体,包括用来采集咨询问题的采集端;所述服务器,包括用来对咨询问题进行法律语义提取的语义识别模块,所述语义识别模块包括存储并实时更新有多个法律词汇的词汇存储模块;语义识别模块从咨询问题中提取词语,并将每个词语与词汇存储模块中的法律词汇进行对比,用匹配成功的法律词汇替换咨询问题中的词语。
该机器人通过语义分析技术能够对咨询者的咨询问题进行分析,及时获知咨询者所表达的法律意思,进而快速提供针对性的法律服务。但是,该机器人只是将法律或案例输入机身,无法针对咨询者的各种情绪做出相应的反应,只能根据固有的模式对咨询者的咨询问题进行解答。通常情况下,来做法律咨询的咨询者基本上都是遇到了麻烦事,情绪不会兴高采烈的,相反会满面愁容或者义愤填膺。并且,像法律咨询机器人进行法律咨询的咨询者通常自身的学历水平不高,接触到的法律知识也不多,因此带有心里包袱的咨询者在做法律咨询时,如果咨询者出现生气的情绪时,可能会夸大事实;如果咨询者出现害怕的情绪时,由于咨询者心中害怕,不敢承认完整、清楚的叙述才更能够帮助他,由此,咨询者在陈述过程中会回避一些情况的陈述,因此情绪的变化非常影响陈述法律事实的准确性。由于该机器人没有情绪识别的功能模块,无法对前来咨询的咨询者的情绪进行分析,只能按照咨询者的回答,提供相应咨询答案,当咨询者受到情绪的影响,提供的法律事实出现误差,此时该机器人会依据错误的法律事实而给出错误的回答,降低法律咨询的质量。
发明内容
为解决法律咨询机器人无法对根据咨询者的情绪进行智能识别,导致咨询结果质量差的技术问题,本发明提供基于法律咨询机器人的情绪安抚方法,可以识别咨询者的情绪异常情况,当咨询者出现情绪异常时,能对咨询者进行情绪安抚。
本发明技术方案如下:
基于法律咨询机器人的情绪安抚方法,包括以下步骤:
步骤s100,采集咨询者的语音信息;
步骤s200,根据语音信息,分析识别得到语速信息、语调信息和文字信息,判断语速信息和语调信息是否符合预设要求,文字信息为咨询者叙述的咨询问题;
步骤s300,当语速信息和语调信息均符合预设要求时,对文字信息进行分析匹配得到咨询结果,并将咨询结果反馈给咨询者;
步骤s400,当语速信息和语调信息其中之一不符合预设要求时,采集咨询者的面部图像信息;
步骤s500,分析处理面部图像信息得到面部特征信息,根据面部特征信息从预设的人脸表情库中匹配出情绪信息,情绪信息包括积极情绪信息和消极情绪信息,积极情绪信息包括高兴,消极情绪信息包括恐惧、生气、痛苦、厌恶、羞耻和内疚;
步骤s600,根据情绪信息判断咨询者是积极情绪信息还是消极情绪信息;
步骤s700,当情绪信息判断的结果为积极情绪信息时,对文字信息进行分析匹配得到咨询结果,并将咨询结果反馈给咨询者;
步骤s800,当情绪信息判断的结果为消极情绪信息时,根据预设的情绪安抚方式对咨询者进行情绪安抚,执行步骤s100。
基础方案及有益效果:本方案通过对语音信息进行分析识别,得到语速信息和语调信息,并根据语速信息和语调信息判断是否预设要求,即语速信息和语调信息是否处于人正常说话时的范围。当判断结果为符合时,对文字信息进行分析匹配得到咨询结果,并将咨询结果反馈给咨询者;当判断结果为不符合时,此时,用户可能出现情绪上的变化,通过图像采集装置采集用户此时的面部图像信息,对面部图像信息进行分析处理得到面部特征信息,并将面部表情特征信息在人脸表情库中匹配得到情绪信息,从而通过情绪信息识别出用户面部表现出来的情绪。通过这种方式,相对于持续采集用户的面部图像信息,并进行识别匹配得到情绪信息的方式,本方法通过检测
判断用户语音信息中语速信息和语调信息不符合预设要求时,再采集并分析处理用户的面部图像信息,不仅能够识别出用户的表情信息,即用户的情绪变化,还能够避免对面部图像信息进行持续的采集和分析处理,从而降低功耗。
有关研究表明,如蒋云龙发表的文章《情绪对谈判的影响效应》中表明积极情绪(高兴)会做出让步且较少采取竞争的策略,交谈更加融洽,消极情绪(恐惧、生气、痛苦、厌恶、羞耻和内疚)会让自身不能对自己的利益准确的把握和感知,导致处于弱势(恐惧、痛苦、羞耻和内疚)时会让步,处于生气或者厌恶时,处理过程更加偏向于采取竞争策略。因此,人在积极情绪时,叙述的法律事实更加贴合实际,人在消极情绪的时候,如在生气和厌恶时,阐述的法律事实会更加偏向于自身的利益,在恐惧、痛苦、羞耻和内疚时阐述的法律事实会抛弃一些个人的利益,从而导致阐述的法律事实不完整或者失真。因此,在本方案中,当情绪信息为积极情绪信息时,对文字信息进行分析匹配得到咨询结果,并将咨询结果反馈给咨询者;当情绪信息为消极情绪信息时,根据预设的情绪安抚方式对咨询者进行情绪安抚。从而,实现在咨询者处于消极情绪信息时,能为咨询者提供情绪安抚,缓解咨询者的情绪。
并且,在情绪安抚期间,继续执行步骤s100,并依次执行后续步骤,由此,在对用户进行情绪安抚期间,通过对用户的面部图像信息进行采集,分析处理,匹配得到用户的情绪信息,并对用户的情绪信息进行判断。从而,当判断结果为情绪信息转变为积极情绪信息时,停止情绪安抚,为咨询者解答问题。由此,通过这种方式,不仅能够检测用户经过情绪安抚后情绪信息的变化,还能在情绪安抚达到效果后,即识别出用户的情绪信息为积极情绪信息,对文字信息(咨询者叙述的咨询问题)进行解答。
进一步:情绪判定方式具体为:步骤s200中的预设要求为语速信息大于预设第一速度阈值,并小于第二速度阈值,语调信息大于预设第一频率阈值,并小于第二频率阈值。
有益效果:正常情况下,人在情绪稳定时,说话的正常语调为150-500hz、语速为150-300字/分钟,当人的情绪出现异常,如高兴,恐惧,生气等情况时,咨询者的语调和语速会高于或者低于正常范围。因此,本方法通过将正常情况下,人的呼吸频率范围和心率范围作为判断咨询者语调信息和语速信息的预设要求,从而初步判定咨询者是否出现情绪异常情况。
进一步,还包括步骤s000,存储音乐库、问答语言库、法律条款库到数据库。
有益效果:法律条款库便于法律条款的查询,问答语言库为常规语言提取出来的关键词组形成的映射关系库,问答语言库和音乐库便于后续情绪安抚方式中语言安抚和音乐安抚的输出。
进一步,步骤s800中的情绪安抚方式包括音乐播放、问答语言、游戏和视频中一种或多种。
有益效果:音乐、游戏和视频是娱乐项目,具有放松情绪的作用,能够安抚咨询者的情绪,语言安慰,通过预设定的语言库,跟咨询者进行安慰。当咨询者情绪异常时,这四种情绪安抚方式任意组合,对咨询者进行情绪安抚,纾解咨询者的心情。
进一步,还包括步骤s900,采集心率和呼吸频率,当心率大于预设心率阈值,且呼吸频率大于预设呼吸频率阈值时,采集咨询者的面部图像信息,执行步骤s500。
有益效果:情绪变化会影响大脑中枢神经系统,从而导致肾上腺激素的释放失衡,影响人的呼吸频率以及心率。医学证明,人在高兴或者生气时,人的心率和呼吸频率均会变快,而恐惧时心率会变快,呼吸频率会变慢。因此,心率和呼吸频率能够表现咨询者的情绪波动,通过对心率和呼吸频率进行检测,判断,能够咨询者发生情绪波动时,开始对咨询者的面部图像进行分析处理得到情绪信息。补充通过语音的语速和语调对咨询者情绪波动的识别,从而提高对情绪波动检测的准确率。
进一步,步骤s700还包括以下子步骤:
步骤S710,当情绪信息判断的结果为积极情绪信息时,根据文字信息生成问题选项,咨询者根据问题选项回答问题答案,问题选项为根据咨询者叙述的咨询问题设置的问题选项;
步骤S720,根据问题答案生成新的文字信息。
有益效果:本方案中根据分析咨询者语音信息得到的咨询问题向咨询者进行认定询问,避免因为咨询者隐瞒,导致法律事实不完整,或者因为咨询者表述错误,导致识别的法律事实错误。
进一步,步骤s700还包括:
步骤s730,拆分文字信息得到词语信息;
步骤s740,根据词语信息在法律条款库中匹配出法律条文。
有益效果:通过对文字信息的关键词在数据库中进行匹配的方式,得到法律条款与咨询问题的相关性高,通过这种方式,提高咨询反馈的质量。
进一步,步骤s500具体还包括以下子步骤:
步骤s510,对采集到的面部图像进行预处理;
步骤s520,提取面部图像中的面部特征信息;
步骤s530,根据面部特征信息,从人脸表情库匹配出情绪信息。
有益效果:对面部图像的面部特征信息进行提取,并根据面部特征信息在存有大量表情与面部特征信息映射关系的人脸表情库中匹配出情绪信息,从而该情绪信息与实际咨询者面部体现出的情绪更加贴近,从而提高情绪识别的准确性。
进一步,步骤s800还包括以下子步骤:
步骤s810,当情绪信息判断的结果为消极情绪信息时,根据预设的情绪安抚方式生成情绪安抚选项供咨询者选择,情绪安抚选项包括音乐安抚选项、语言安抚选项、游戏安抚选项和视频安抚选项;
步骤s820,当咨询者在预设时间阈值内选择了情绪安抚选项时,根据咨询者选择的情绪安抚选项对咨询者进行情绪安抚,当咨询者在预设时间阈值内未选择,随机筛选出情绪安抚方式,并根据情绪安抚方式对咨询者进行情绪安抚。
有益效果:先通过向咨询者提供情绪安抚选项的方式,让咨询者能够按照需求选择更适合的方式让自己的情绪得到放松,当咨询者在没有意识选择情绪安抚选项时,能够随机选择一种情绪安抚方式对咨询者情绪安抚,提高情绪安抚的效果。
进一步,步骤s820还包括统计咨询者选择不同情绪安抚选项的次数,当连续选择次数达到阈值后,自动提供相应的情绪安抚方式。
有益效果:根据咨询者连续选择情绪安抚方式的次数,得到咨询者对某种情绪安抚方式喜爱程度,然后自动为咨询者提供咨询者偏爱的咨询方式,从而让咨询者得到更适合的情绪安抚方式,提高情绪安抚的效果。
附图说明
图1为基于法律咨询机器人的情绪安抚方法实施例一的流程图。
具体实施方式
下面通过具体实施方式进一步详细说明:
实施例一
如图1所示,基于法律咨询机器人的情绪安抚方法,包括以下步骤:
步骤s000,存储音乐库、问答语言库、法律条款库到数据库。
步骤s100还包括存储音乐、问答语言库、法律条款到数据库。具体而言,音乐按照不同类型存储在数据库中,问答语言库是采用现有的语音交互技术,通过提取常用对话语言中的关键词形成关键词组,通过一定量的训练而形成的语言交互模型,能够通过一个或者多个关键词,反馈出对话语句,从而实现人与机器人聊天。
步骤s100,采集咨询者的语音信息。当咨询者开始进行法律咨询,麦克风采集咨询者的语音信息,语音信息包括咨询者说话时的语音以及咨询者思考或者沉默时间的语音,本实施例中采用BY-M2麦克风,本领域的技术人员可以根据实际需求选择其他型号的麦克风。
步骤s200,根据语音信息,分析识别得到语速信息、语调信息和文字信息,判断语速信息和语调信息是否符合预设要求,文字信息为咨询者叙述的咨询问题,本实施例中预设要求为语速信息大于预设第一速度阈值,并小于第二速度阈值,语调信息大于预设第一频率阈值,并小于第二频率阈值。具体而言,通过分析语音信息的短时能量、过零率和基频,得到语音信息的语调和语速。本实施例中,第一速度阈值为150字/分钟,第二速度阈值为300字/分钟,第一频率阈值为150Hz,第二频率阈值为500Hz。
步骤s300,当语速信息和语调信息均符合要求时,对文字信息进行分析匹配得到咨询结果,并将咨询结果反馈给咨询者;
步骤s400,当语速信息和语调信息其中之一不符合要求时,采集咨询者的面部图像信息,本实施例中采用C6C云台监控摄像头采集咨询者的面部图像,在其他实施例中,本领域的技术人员可以根据实际需求选择其他型号的摄像头。
步骤s500,分析处理面部图像信息得到面部特征信息,根据面部特征信息从预设的人脸表情库中匹配出情绪信息,情绪信息包括积极情绪信息和消极情绪信息,积极情绪信息包括高兴,消极情绪信息包括恐惧、生气、痛苦、厌恶、羞耻和内疚,其中面部图像处理的过程包括以下子步骤:
步骤s510,对采集到的面部图像进行预处理,预处理包括人脸检测,即标定面部图像中人脸的位置和大小,本实施例中人脸检测采用Adaboost算法,还包括灰度处理和噪声处理等常规手段。
步骤s520,提取面部图像中的面部特征信息,本实施例采用小波变换,将面部图像的面部特征信息提取出来。
步骤s530,根据面部特征信息,从人脸表情库匹配出情绪信息,本实施例中,设定相似度的阈值为90,当相似度大于90时,则把匹配的得到的结果输出,从而识别得到表情。
步骤s600,根据情绪信息判断咨询者是积极情绪信息还是消极情绪信息;
步骤s700,当情绪信息判断的结果为积极情绪信息时,对文字信息进行分析匹配得到咨询结果,并将咨询结果反馈给咨询者;具体包括以下子步骤:
步骤S710,当情绪信息判断的结果为积极情绪信息时,根据文字信息生成问题选项,咨询者根据问题选项回答问题答案,问题选项为根据咨询者叙述的咨询问题设置的问题选项,具体而言,根据文字信息,按照主体、对象、事情、日期和地点等内容进行整理,然后问题选项的方式在法律咨询机器人的交互界面让咨询者对显示出来的问题选项进行选择。
步骤S720,根据问题答案生成新的文字信息。
步骤s730,拆分文字信息得到词语信息;
步骤s740,根据词语信息在法律条款库中匹配出法律条文。
步骤s800,当情绪信息判断的结果为消极情绪信息时,根据预设的情绪安抚方式对咨询者进行情绪安抚,执行步骤s100,其中,情绪安抚方式包括音乐播放、问答语言、游戏和视频中之一或者组合,具体包括以下步骤:
步骤s810,当情绪信息判断的结果为消极情绪信息时,根据预设的情绪安抚方式生成情绪安抚选项供咨询者选择,情绪安抚选项包括音乐安抚选项、语言安抚选项、游戏安抚选项和视频安抚选项;
步骤s820,当咨询者在预设时间阈值内选择了情绪安抚选项时,根据咨询者选择的情绪安抚选项对咨询者进行情绪安抚,本实施例中,时间阈值为1分钟,在其他实施例中考虑到咨询者选择所需时间,以及及时为咨询者进行情绪安抚的两个方面,时间阈值可以在10s到90s之间。步骤s820还包括统计咨询者选择不同情绪安抚选项的次数,当连续选择次数达到次数阈值后,自动提供相应的情绪安抚方式,本实施例中,次数阈值为3。例如,咨询者连续三次进行选择音乐安抚选项,下一次,对咨询者进行情绪安抚时,采用音乐安抚的方式,对咨询者进行情绪安抚。
步骤s820,当咨询者在预设时间阈值内未选择,随机筛选出情绪安抚方式,并根据情绪安抚方式对咨询者进行情绪安抚,执行步骤s100。
具体实施过程为:咨询者在法律咨询机器人前咨询,法律咨询机器人的交互终端持续采集咨询者的语音信息,法律咨询机器人分析识别采集到的语音信息,得到语速信息、语调信息和文字信息,假设咨询者此时的语速信息为400字/分钟,语调信息为550Hz,此时根据预设要求,该咨询者的语速信息(400字/分钟)大于预设第一速度阈值(150字/分钟),语调信息为550Hz,大于第一频率阈值(500Hz),即不合符预设要求。采集咨询者的面部图像,并采用Adaboost算法,以及灰度处理和噪声处理等常规手段对面部图像进行预处理,在采用小波变换提取经过预处理后的面部图像的面部特征信息,根据面部特征信息从人脸表情库中匹配出情绪信息。此时,匹配出的情绪信息为恐惧时,在法律咨询机器人交互终端的显示器上显示出音乐安抚选项、语言安抚选项、游戏安抚选项和视频安抚选项等四种情绪安抚选项。此时咨询者可以选择一种或者多种的情绪安抚选项,当咨询者在1分钟内未选择情绪安抚选项时,本方案中的法律咨询机器人开始随机选择一种情绪安抚方式对咨询者进行情绪安抚;当咨询者在1分钟内选择了音乐安抚选项,法律咨询机器人开始播放音乐。在此期间,法律咨询机器人继续执行步骤s100,并依次执行后续步骤。当检测分析出咨询者的情绪信息转变为积极情绪信息时,将根据文字信息进行分析匹配得到咨询结果反馈给咨询者。
实施例二
与实施例一的区别之处在于:还包括步骤s900,采集心率和呼吸频率,当心率大于预设心率阈值,且呼吸频率大于预设呼吸频率阈值时,采集咨询者的面部图像信息,执行步骤s500。情绪稳定时,正常的呼吸频率为每分钟18-22次,正常的心率为每分钟70-80次,本实施例中,呼吸频率阈值为22,心率阈值为80。用户在本方案中的机器人面前若是呼吸频率大于22次,或者呼吸频率大于每分钟80次时,执行步骤s500,开始通过对用户当前的面部图像进行识别,分析用户当前的情绪信息。
实施例三
与实施例一的区别之处在于:还包括情绪防欺骗方法,具体包括以下步骤:
图像采集步骤s1000,采集咨询者的第一面部图像,分析咨询者的第一面部图像,得到咨询者的年龄,当咨询者的年龄小于阈值年龄时,执行步骤s300;当咨询者的年龄大于阈值年龄时,执行防欺骗步骤s2100,第一面部图像为咨询者开始咨询时的面部图像,本实施例中阈值年龄为16岁,在其他实施例中,阈值年龄可为12到18岁。
防欺骗步骤依次包括以下步骤:
分析判断步骤s2100,采集咨询者的第二面部图像和第二语音信息,通过面部表情识别技术和语义识别技术,分析咨询者的第二面部图像和第二语音信息,得到咨询者的第二面部表情和第二语义信息,当咨询者的第二面部表情正常时,执行步骤s200;
步骤s2200,当咨询者的第二面部表情异常时,保存咨询者的第二面部图像,第二面部图像和第二语音信息为咨询者咨询过程中的面部图像和语音信息;采集咨询者的第三面部图像和第三语音信息,通过面部表情识别技术和语义识别技术,分析咨询者的第三面部图像和第三语音信息,得到咨询者的第三面部表情和第三语义信息,当咨询者的第三面部表情出现鬼脸或者翻白眼等滑稽表情,或者当第三语言信息出现“笨”、“蠢”等贬低的字眼时,对咨询者的第三面部图像和第三面部图像进行保存,第三面部图像和第三语音信息为咨询者离开前的面部表情和语音信息;
验证步骤s3200,法律咨询机器人在下一次做法律咨询时,将采集到的第一面部图像与已经保存的第二面部图像和第三面部图像进行对比分析,判断是否是同一个人,当咨询者与已经保存的第二面部图像和第三面部图像的咨询者为不是同一人时,执行步骤s200;当咨询者与已经保存的第二面部图像和第三面部图像的咨询者为是同一人时,执行假意安抚步骤s4000;
假意安抚步骤s4000,采集咨询者的第二面部图像和第二语音信息分析咨询者的第二面部图像和第二语音信息,当咨询者的第二面部图像或者第二语音信息与已经保存的第三面部图像或者第三语音信息相同时,对咨询者进行嘲讽,嘲讽的方式为语言嘲讽和画面嘲讽,语言嘲讽为播放预先设置的嘲讽语言,画面嘲讽为在机器人的交互终端显示预先设置的嘲讽画面。
以上所述的仅是本发明的实施例,方案中公知的具体结构及特性等常识在此未作过多描述。应当指出,对于本领域的技术人员来说,在不脱离本发明结构的前提下,还可以作出若干变形和改进,这些也应该视为本发明的保护范围,这些都不会影响本发明实施的效果和专利的实用性。本申请要求的保护范围应当以其权利要求的内容为准,说明书中的具体实施方式等记载可以用于解释权利要求的内容。

Claims (10)

1.基于法律咨询机器人的情绪安抚方法,其特征在于,包括以下步骤:
步骤s100,采集咨询者的语音信息;
步骤s200,根据语音信息,分析识别得到语速信息、语调信息和文字信息,判断语速信息和语调信息是否符合预设要求,文字信息为咨询者叙述的咨询问题;
步骤s300,当语速信息和语调信息均符合预设要求时,对文字信息进行分析匹配得到咨询结果,并将咨询结果反馈给咨询者;
步骤s400,当语速信息和语调信息其中之一不符合预设要求时,采集咨询者的面部图像信息;
步骤s500,分析处理面部图像信息得到面部特征信息,根据面部特征信息从预设的人脸表情库中匹配出情绪信息,情绪信息包括积极情绪信息和消极情绪信息,积极情绪信息包括高兴,消极情绪信息包括恐惧、生气、痛苦、厌恶、羞耻和内疚;
步骤s600,根据情绪信息判断咨询者是积极情绪信息还是消极情绪信息;
步骤s700,当情绪信息判断的结果为积极情绪信息时,对文字信息进行分析匹配得到咨询结果,并将咨询结果反馈给咨询者;
步骤s800,当情绪信息判断的结果为消极情绪信息时,根据预设的情绪安抚方式对咨询者进行情绪安抚,执行步骤s100。
2.根据权利要求1所述的基于法律咨询机器人的情绪安抚方法,其特征在于:情绪判定方式具体为:步骤s200中的预设要求为语速信息大于预设第一速度阈值,并小于第二速度阈值,语调信息大于预设第一频率阈值,并小于第二频率阈值。
3.根据权利要求1所述的基于法律咨询机器人的情绪安抚方法,其特征在于:还包括步骤s000,存储音乐库、问答语言库、法律条款库到数据库。
4.根据权利要求1所述的基于法律咨询机器人的情绪安抚方法,其特征在于:步骤s800中的情绪安抚方式包括音乐播放、问答语言、游戏和视频中一种或多种。
5.根据权利要求1所述的基于法律咨询机器人的情绪安抚方法,其特征在于:还包括步骤s900,采集心率和呼吸频率,当心率大于预设心率阈值,且前后呼吸频率大于预设呼吸频率阈值时,采集咨询者的面部图像信息,执行步骤s500。
6.根据权利要求1所述的基于法律咨询机器人的情绪安抚方法,其特征在于:步骤s700还包括以下子步骤:
步骤S710,当情绪信息判断的结果为积极情绪信息时,根据文字信息生成问题选项,咨询者根据问题选项回答问题答案,问题选项为根据咨询者叙述的咨询问题设置的问题;
步骤S720,根据问题答案生成新的文字信息。
7.根据权利要求1所述的基于法律咨询机器人的情绪安抚方法,其特征在于:步骤s700还包括:
步骤s730,拆分文字信息得到词语信息;
步骤s740,根据词语信息在法律条款库中匹配出法律条文。
8.根据权利要求1所述的基于法律咨询机器人的情绪安抚方法,其特征在于:步骤s500具体还包括以下子步骤:
步骤s510,对采集到的面部图像进行预处理;
步骤s520,提取面部图像中的面部特征信息;
步骤s530,根据面部特征信息,从人脸表情库匹配出情绪信息。
9.根据权利要求3所述的基于法律咨询机器人的情绪安抚方法,其特征在于:步骤s800还包括以下子步骤:
步骤s810,当情绪信息判断的结果为消极情绪信息时,根据预设的情绪安抚方式生成情绪安抚选项供咨询者选择,情绪安抚选项包括音乐安抚选项、语言安抚选项、游戏安抚选项和视频安抚选项;
步骤s820,当咨询者在预设时间阈值内选择了情绪安抚选项时,根据咨询者选择的情绪安抚选项对咨询者进行情绪安抚,当咨询者在预设时间阈值内未选择,随机筛选出情绪安抚方式,并根据情绪安抚方式对咨询者进行情绪安抚。
10.根据权利要求9所述的基于法律咨询机器人的情绪安抚方法,其特征在于:步骤s820还包括统计咨询者选择不同情绪安抚选项的次数,当连续选择次数达到阈值后,自动提供相应的情绪安抚方式。
CN202010132125.5A 2020-02-29 2020-02-29 基于法律咨询机器人的情绪安抚方法 Active CN111300443B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010132125.5A CN111300443B (zh) 2020-02-29 2020-02-29 基于法律咨询机器人的情绪安抚方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010132125.5A CN111300443B (zh) 2020-02-29 2020-02-29 基于法律咨询机器人的情绪安抚方法

Publications (2)

Publication Number Publication Date
CN111300443A true CN111300443A (zh) 2020-06-19
CN111300443B CN111300443B (zh) 2020-11-13

Family

ID=71155073

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010132125.5A Active CN111300443B (zh) 2020-02-29 2020-02-29 基于法律咨询机器人的情绪安抚方法

Country Status (1)

Country Link
CN (1) CN111300443B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112581015A (zh) * 2020-12-28 2021-03-30 北京智能工场科技有限公司 基于ai检验的咨询师质量评估系统及评估方法
CN112990067A (zh) * 2021-03-31 2021-06-18 上海理工大学 一种面向独居人群的机器人智能情绪识别治愈方法
CN113177114A (zh) * 2021-05-28 2021-07-27 重庆电子工程职业学院 一种基于深度学习的自然语言语义理解方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017226051A (ja) * 2016-06-23 2017-12-28 日本電信電話株式会社 発話動作提示装置、方法およびプログラム
CN107645523A (zh) * 2016-07-21 2018-01-30 北京快乐智慧科技有限责任公司 一种情绪交互的方法和系统
CN109108989A (zh) * 2018-07-20 2019-01-01 吴怡 一种语义识别的法律服务专用机器人
CN109389005A (zh) * 2017-08-05 2019-02-26 富泰华工业(深圳)有限公司 智能机器人及人机交互方法
CN110110049A (zh) * 2017-12-29 2019-08-09 深圳市优必选科技有限公司 服务咨询方法、装置、系统、服务机器人及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017226051A (ja) * 2016-06-23 2017-12-28 日本電信電話株式会社 発話動作提示装置、方法およびプログラム
CN107645523A (zh) * 2016-07-21 2018-01-30 北京快乐智慧科技有限责任公司 一种情绪交互的方法和系统
CN109389005A (zh) * 2017-08-05 2019-02-26 富泰华工业(深圳)有限公司 智能机器人及人机交互方法
CN110110049A (zh) * 2017-12-29 2019-08-09 深圳市优必选科技有限公司 服务咨询方法、装置、系统、服务机器人及存储介质
CN109108989A (zh) * 2018-07-20 2019-01-01 吴怡 一种语义识别的法律服务专用机器人

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112581015A (zh) * 2020-12-28 2021-03-30 北京智能工场科技有限公司 基于ai检验的咨询师质量评估系统及评估方法
CN112581015B (zh) * 2020-12-28 2024-02-09 北京智能工场科技有限公司 基于ai检验的咨询师质量评估系统及评估方法
CN112990067A (zh) * 2021-03-31 2021-06-18 上海理工大学 一种面向独居人群的机器人智能情绪识别治愈方法
CN113177114A (zh) * 2021-05-28 2021-07-27 重庆电子工程职业学院 一种基于深度学习的自然语言语义理解方法
CN113177114B (zh) * 2021-05-28 2022-10-21 重庆电子工程职业学院 一种基于深度学习的自然语言语义理解方法

Also Published As

Publication number Publication date
CN111300443B (zh) 2020-11-13

Similar Documents

Publication Publication Date Title
US9501743B2 (en) Method and apparatus for tailoring the output of an intelligent automated assistant to a user
US20210081056A1 (en) Vpa with integrated object recognition and facial expression recognition
CN111300443B (zh) 基于法律咨询机器人的情绪安抚方法
Steidl Automatic classification of emotion related user states in spontaneous children's speech
EP1076329B1 (en) Personality data mining method using a speech based dialog
Haq et al. Speaker-dependent audio-visual emotion recognition.
Ramakrishnan Recognition of emotion from speech: A review
CN110827821B (zh) 一种语音交互装置、方法和计算机可读存储介质
An et al. Automatic recognition of unified parkinson's disease rating from speech with acoustic, i-vector and phonotactic features.
CN111368053B (zh) 基于法律咨询机器人的情绪安抚系统
CN115713875A (zh) 一种基于心理分析的虚拟现实仿真教学方法
Qadri et al. A critical insight into multi-languages speech emotion databases
CN109074809B (zh) 信息处理设备、信息处理方法和计算机可读存储介质
Pao et al. Comparison of classification methods for detecting emotion from Mandarin speech
CN115482912A (zh) 对话机器自助心理干预系统及方法
Atassi et al. Emotional vocal expressions recognition using the COST 2102 Italian database of emotional speech
Haq Audio visual expressed emotion classification
Hammami Towards developing a speech emotion database for Tunisian Arabic
Fujie et al. Recognition of positive/negative attitude and its application to a spoken dialogue system
Xin et al. JNV corpus: A corpus of Japanese nonverbal vocalizations with diverse phrases and emotions
Formolo et al. Extracting interpersonal stance from vocal signals
Balomenos et al. An introduction to emotionally rich man-machine intelligent systems
Osadchyy et al. Analysis of the Mel scale features using classification of big data and speech signals
WO2023118967A1 (en) Apparatus and methods for assisting in reading
Rafeh et al. Proposing a hybrid approach for emotion classification using audio and video data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: Office 1, 18, building 7, Zhongyu xiangnai mansion, No. 101, Xinji Avenue, Longxi street, Yubei District, Chongqing

Patentee after: Chongqing Daniu Cognitive Technology Co.,Ltd.

Address before: Office 1, 18, building 7, Zhongyu xiangnai mansion, No. 101, Xinji Avenue, Longxi street, Yubei District, Chongqing

Patentee before: Chongqing best Daniel robot Co.,Ltd.

CP01 Change in the name or title of a patent holder