CN111368053A - 基于法律咨询机器人的情绪安抚系统 - Google Patents
基于法律咨询机器人的情绪安抚系统 Download PDFInfo
- Publication number
- CN111368053A CN111368053A CN202010132141.4A CN202010132141A CN111368053A CN 111368053 A CN111368053 A CN 111368053A CN 202010132141 A CN202010132141 A CN 202010132141A CN 111368053 A CN111368053 A CN 111368053A
- Authority
- CN
- China
- Prior art keywords
- emotion
- information
- module
- voice
- consultant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3343—Query execution using phonetics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/18—Legal services; Handling legal documents
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Abstract
本发明涉及法律咨询的技术领域,具体公开了基于法律咨询机器人的情绪安抚系统,包括人机交互终端采集咨询者的面部图像和语音信息;识别模块对语音信息进行识别得到语音速度、语音振幅和咨询信息,当语音速度和语音振幅满足条件时,从人机交互终端获取面部图像,对面部图像进行分析得到表情信息,然后根据表情信息分析得到情绪信息,情绪信息包括积极情绪信息和消极情绪信息,当情绪信息为消极情绪信息时,发送安抚指令给安抚模块;当情绪信息为积极情绪信息时,发送解答指令给解答模块;采用本发明的技术方案能够识别咨询者的情绪,并在咨询者出现情绪异常时,对咨询者进行情绪安抚,缓解咨询者的情绪。
Description
技术领域
本发明涉及法律咨询的技术领域,特别涉及基于法律咨询机器人的情绪安抚系统。
背景技术
随着人们的法律意识逐渐加强,越来越多的人们采用法律来维护自身的权益。但是,由于法律咨询行业存在收费高、从业人数不足的问题,许多具有维权意识的群众由于身边没有专业的法律顾问,常常苦于没有维权途径,无法采取适合的法律来维护自身的权益。
伴随着人工智能技术的发展,为了降低律师行业从业人数不足而引起的法律咨询的人力与时间成本偏高的问题,出现了一些用于法律咨询服务的机器人。这些用于法律咨询的机器人通过语义分析技术能够对咨询者口述的咨询问题进行分析,从而获知咨询者所要表达的咨询问题,从而给咨询者的咨询问题进行解答。
但是,通常情况下,咨询者前来做法律咨询基本上都是遇到了麻烦事,咨询者的情绪不会是兴高采烈的,相反的会满面愁容或者义愤填膺。有关研究表明,如蒋云龙发表的文章《情绪对谈判的影响效应》中表明积极情绪(高兴)会做出让步且较少采取竞争的策略,交谈更加融洽,消极情绪(恐惧、生气、痛苦、厌恶、羞耻和内疚)会让自身不能对自己的利益准确的把握和感知,处理过程更加偏向于选择竞争策略的应用,导致处于弱势(恐惧、痛苦、羞耻和内疚)时会让步,处于生气或者厌恶时。因此,人在积极情绪时,叙述的法律事实更加贴合实际,人在消极情绪的时候,如在生气和厌恶时,阐述的法律事实会更加偏向于自身的利益,在恐惧、痛苦、羞耻和内疚时阐述的法律事实会抛弃一些个人的利益,从而导致阐述的法律事实不完整或者失真。因此,当律师在与咨询者在做咨询时,律师会根据人的情绪对咨询者对人进行安抚,从而尽可能的得到完整且准确的法律事实,以此已达到更好的咨询效果。
但是,当前用于法律咨询的机器人采集法律事实的方式主要有两种,一种是采集咨询者咨询的语音信息,将采集到的语音信息转换成文字信息,然后通过语义分析技术识别文字信息得到咨询者的咨询问题;另一种是在界面显示列举选项,通过咨询者的选择得到咨询者的基础信息。因此,当前用于法律咨询的机器人只能针对咨询者提供的咨询问题或者基础信息,提供相应的解答意见,不能智能识别咨询者的情绪,即也不会在咨询者出现情绪异常时,对咨询者进行情绪安抚,智能效果差。
发明内容
为解决法律咨询机器人在咨询者咨询过程中出现情绪异常时,不能对咨询者及时的进行情绪安抚,导智能效果差的技术问题,本发明提供基于法律咨询机器人的情绪安抚系统,可以识别咨询者的情绪,并在咨询者出现情绪异常时,对咨询者进行情绪安抚,缓解咨询者的情绪。
本发明技术方案如下:
基于法律咨询机器人的情绪安抚系统,包括人机交互终端,识别模块、安抚模块和解答模块,其中:
人机交互终端,用于采集咨询者的面部图像和语音信息;
识别模块,用于对语音信息进行识别得到语言信息,语言信息包括语音速度、语音振幅和咨询信息,并分析语音速度和语音振幅,当语音速度大于预设的第一速度阈值或者小于预设的第二速度阈值,并且语音振幅大于预设的第一振幅阈值或者小于预设的第二振幅阈值时,从人机交互终端获取面部图像,对面部图像进行分析得到表情信息,然后根据表情信息分析得到情绪信息,情绪信息包括积极情绪信息和消极情绪信息,积极情绪信息包括高兴,消极情绪信息包括恐惧、生气、痛苦、厌恶、羞耻和内疚,当情绪信息为消极情绪信息时,发送安抚指令给安抚模块;当情绪信息为积极情绪信息时,发送解答指令给解答模块;
安抚模块,用于存储情绪安抚方式,当接收到安抚指令时,根据情绪安抚方式对咨询者进行情绪安抚;
解答模块,用于根据解答指令,通过人工智能法律分析模型分析语言信息中的咨询信息,生成解决方案,并将解决方案发送到人机交互终端。
本方案的工作原理在于:人机交互终端采集咨询者的面部图像和语音信息,通过识别模块对咨询者和语音信息进行分析得到语音速度、语音振幅和咨询信息,语音振幅表示声音的大小,即音量,当语音速度大于预设的第一速度阈值或者小于预设的第二速度阈值,并且语音振幅大于预设的第一振幅阈值或者小于预设的第二振幅阈值时,表明咨询者说话在语速和音量上不在正常说话时的范围内,用户可能存在情绪异常。此时,识别模块获取人机交互终端采集的面部图像,并对面部图像进行分析得到表情信息,然后根据表情信息分析得到情绪信息,通过情绪信息判断用户此刻的情绪。本方案中情绪信息包括积极情绪信息和消极情绪信息,积极情绪信息包括高兴,消极情绪信息包括恐惧、生气、痛苦、厌恶、羞耻和内疚,当情绪信息为积极情绪信息时,发送解答指令给解答模块,解答模块通过人工智能法律分析模型分析语言信息中的咨询信息生成解决方案,并将解决方案发送人机交互终端;当情绪信息为消极情绪信息时,发送安抚指令给安抚模块,由安抚模块根据情绪安抚方式对咨询者进行情绪安抚,缓解用户此时的情绪。
有益效果:本方案对语音信息的处理得到语音速度和语音振幅,通过对语音速度和语音振幅的数值与预设值(第一速度阈值、第二速度阈值、第一振幅阈值和第二振幅阈值)进行比较,初步判断用户的情绪是否异常,避免不间断的分析面部图像,降低识别模块的功耗。然后,分析面部图像,得到用户此刻的情绪信息,并根据情绪信息的不同对咨询者采取相应的反应(情绪安抚或解答问题)。相较于当前法律咨询机器人只根据咨询者描述的咨询问题,提供相应的解决方案,而法律咨询机器人针对的用户群体主要是文化程度不高,且自身掌握理解法律知识含义的不多,不知道所述法律事实对解决方案的影响,因此,在情绪出现消极情绪(恐惧、生气、痛苦、厌恶、羞耻和内疚)时,表述的法律事实容易受到情绪的影响,出现失真的现象。本方案通过识别用户的情绪信息,并根据情绪信息对用户进行情绪安抚,具有更好的智能效果,也能通过对用户进行情绪安抚平复用户的情绪,从而减小情绪对用户陈述的法律事实的影响。
进一步,情绪安抚方式包括语言安抚、音乐安抚、视频安抚和游戏安抚。
有益效果:语言安抚为跟咨询者聊天,转移或者抚平咨询者的异常情绪(沮丧或者生气),音乐安抚、视频安抚和游戏安抚,顾名思义,就是采用音乐和有趣的视频让咨询者的情绪变得快乐起来,游戏安抚具有解压的作用,通过游戏,咨询者可以排解心中的痛苦或者火气。
进一步,人工智能法律分析模型为通过大量的法律条款和咨询问题经过训练形成具有映射关系的人工智能网络模型。
有益效果:本方案中的人工智能法律分析模型具有大量法律条款和咨询问题之间映射关系,能够在获取咨询者的咨询问题后,迅速找到相应的解决方案,灵活性高,提高法律咨询效果。
进一步,识别模块包括图像识别子模块和语音识别子模块,其中,
语音识别子模块,采用语义识别技术对语音信息进行分析和识别,得到语音信息,并对语音信息中的语音速度和语音振幅进行判断,当语音速度大于预设的第一速度阈值或者小于预设的第二速度阈值,并且语音振幅大于预设的第一振幅阈值或者小于预设的第二振幅阈值时,向图像识别子模块发送图像识别指令;
图像识别子模块,包括人脸表情库,接收到图像识别指令后,向人机交互终端获取面部图像,并对面部图像进行分析和提取,得到面部特征信息,根据面部特征信息从人脸表情库匹配出表情信息。
有益效果:图像识别子模块一直对人机交互终端采集的面部图像进行分析,并且对面部图像分析所需的时间比图像采集的时间长,所以图像识别子模块将会一直不间断的工作,增加功耗。本方案通过对语言信息中的语音速度和语音振幅进行判断,当语音速度和语音振幅不在预设的正常范围内(语音速度大于预设的第一速度阈值或者小于预设的第二速度阈值,并且语音振幅大于预设的第一振幅阈值或者小于预设的第二振幅阈值)时,向图像识别子模块发送图像识别指令,图像识别子模块才对人机交互终端采集的面部图像进行分析,从而降低图像识别子模块分析面部图像的数量,即减少图像识别子模块工作的时间,从而减少图像识别子模块的功耗。
进一步,人机交互终端,还用于采集咨询者的心率和呼吸频率。
有益效果:通过采集咨询者的心率和呼吸频率,便于作为后续采集图像的触发条件。
进一步,情绪安抚方式包括自选和随机两种执行方式。
有益效果:自选即是咨询者自主选择需要的情绪安抚方式,适应咨询者的需要,随机即是机器人随机选择情绪安抚方式对咨询者进行情绪安抚,适应不喜欢做选择的咨询者的需要,从而,增强咨询者咨询体验效果。
进一步,识别模块还包括生物特征识别子模块,用于对咨询者的心率和呼吸频率进行分析,得到咨询者的生理信息。
有益效果:通过对咨询者心率和呼吸频率分析得到的生理信息,用于补充后续情绪信息判断的分析数据,使得后续情绪信息的判断更加准确。
进一步,识别模块还包括情绪判断子模块,用于根据表情信息和生理信息,分析得到咨询者的情绪信息,当情绪信息为消极情绪信息时,发送安抚指令给安抚模块;当情绪信息为积极情绪信息时,发送解答指令给解答模块。
有益效果:从表情表情和生理信息两个方面对咨询者的情绪进行分析,判断得到咨询者的情绪信息,使情绪信息的判断更准确。
进一步,识别模块还包括中断子模块,用于安抚模块对咨询者进行情绪安抚后,检测咨询者的情绪信息从消极情绪信息转变为积极情绪信息后,情绪信息不再发生改变的持续时间,当持续时间达到预设置的第一时间阈值时,向安抚模块发送中断指令,并向解答模块发送解答指令。
有益效果:通过对咨询者的情绪信息变化的持续时间的检测,能够大致估计咨询者的情绪是否恢复到高兴或者正常的情绪信息,并且可以在咨询者的情绪稳定时,及时中断对咨询者的情绪安抚,避免在咨询者的情绪稳定后,仍然持续为咨询者提供情绪安抚,浪费咨询者的咨询时间。
进一步,情绪判断子模块还用于当连续判断情绪信息为相同时的持续时间达到第二阈值时间时,根据情绪信息向安抚指令或者解答指令。
有益效果:通过在第二阈值时间内连续对情绪信息的判断,避免瞬时对情绪信息的错误判断。
附图说明
图1为基于法律咨询机器人的情绪安抚系统实施例一的逻辑框图;
图2为基于法律咨询机器人的情绪安抚系统实施例二的逻辑框图。
具体实施方式
下面通过具体实施方式进一步详细说明:
实施例一
如图1所示,基于法律咨询机器人的情绪安抚系统,包括人机交互终端、识别模块、安抚模块和解答模块,其中:
人机交互终端,用于采集咨询者的面部图像、语音信息、心率和呼吸频率,并将面部图像、语音信息、心率和呼吸频率发送给识别模块。本实施例中,用于法律咨询机器人的人机交互终端包括麦克风、喇叭、摄像头和显示器,显示器用于显示解决方案、供咨询者自主选择情绪安抚方式的选项,摄像头用于拍摄咨询者的面部图像,麦克风用于采集咨询者的语音信息和呼吸频率,喇叭用于法律咨询机器人与咨询者对话,人机交互终端还设置有用于采集咨询者心率的心率传感器。
识别模块,包括语音识别子模块、图像识别子模块、生物特征识别子模块和情绪判断模块,其中,语音识别子模块,采用语义识别技术对语音信息进行分析和识别,得到语言信息,语言信息包括语音速度、语音振幅和咨询信息,并对语音信息中的语音速度和语音振幅进行判断,当语音速度大于预设的第一速度阈值或者小于预设的第二速度阈值,并且语音振幅大于预设的第一振幅阈值或者小于预设的第二振幅阈值时,向图像识别子模块发送图像识别指令,其中,咨询信息为咨询者叙述的语音信息中有关咨询问题的信息。本实施例中对语音信息进行分析和识别采用语音识别技术实际采用的是科大讯飞的语义识别技术。
图像识别子模块,包括人脸表情库,接收到图像识别指令后,向人机交互终端获取面部图像,并对面部图像进行分析和提取,得到面部特征信息,根据面部特征信息从人脸表情库匹配出表情信息。具体而言,图像识别子模块采用图像识别技术,对面部图像进行分析处理,得到面部特征信息,根据面部特征信息从人脸表情库中匹配出表情信息。生物特征识别子模块,用于对咨询者的心率和呼吸频率进行分析,得到咨询者的生理信息,其中生理信息为对比正常情况下的心率和呼吸频率是偏高、偏低或者正常范围。
情绪判断子模块,用于根据表情信息和生理信息,分析得到咨询者的情绪信息,情绪信息包括积极情绪信息和消极情绪信息,积极情绪信息包括高兴,消极情绪信息包括恐惧、生气、痛苦、厌恶、羞耻和内疚,当情绪信息为消极情绪信息时,发送安抚指令给安抚模块;当情绪信息为积极情绪信息时,发送解答指令给解答模块。情绪判断子模块还用于当连续判断情绪信息为相同时的持续时间达到第二阈值时间时,根据情绪信息向安抚指令或者解答指令。具体而言,当连续判断情绪信息为消极情绪时的持续时间达到第二阈值时间时,情绪判断子模块发送安抚指令给安抚模块;当连续判断情绪信息为积极情绪时的持续时间达到第二阈值时间时,情绪判断子模块发送解答指令给解答模块,本实施例中,第二阈值时间为8秒,在其他实施例中,考虑到使用人群的不同,第二阈值时间可以在5秒~30秒的范围内调整。安抚模块,用于存储情绪安抚方式,当接收到安抚指令时,根据情绪安抚方式对咨询者进行情绪安抚,情绪安抚方式包括语言安抚、音乐安抚、视频安抚和游戏安抚。具体而言,语言安抚是当咨询者需要进行情绪安抚时,将按情绪信息设置的安抚语言与咨询者进行交流,达到情绪安抚的目的。音乐安抚是当咨询者需要进行情绪安抚时,在人机交互终端通过喇叭播放音乐。视频安抚和游戏安抚是将用于安抚的视频和游戏显示在人机交互终端的显示器上,咨询者可自行观看视频或者操作游戏,达到情绪安抚的目的。此外,本实施例中,情绪安抚方式包括自选和随机两种执行方式。安抚模块在对咨询者进行情绪安抚时,会在人机交互终端的显示器上显示情绪安抚方式的选项,供用户选择,当用户放弃选择时,安抚模块随机选择情绪安抚方式。
解答模块,用于根据解答指令,通过人工智能法律分析模型分析语言信息中的咨询信息,生成解决方案,并将解决方案发送到人机交互终端。人工智能法律分析模型为通过大量的法律条款和咨询问题经过训练形成具有映射关系的人工智能网络模型。
具体实施过程为:用户在法律咨询机器人通过说话的方式咨询问题,人机交互终端通过麦克风采集用户的语音信号和呼吸频率,还通过心率传感器采集心率。语音识别子模块通过科大讯飞的语音识别技术对语音信号进行识别得到语言信息,语言信息包括语音速度、语音振幅和咨询信息。当用户处于高兴时,经语音识别子模块识别得到语音速度在第一速度阈值和第二速度阈值之间,语音振幅在第一振幅阈值和第二振幅阈值之间,此时,语音识别子模块不发送图像识别指令给图像识别子模块,即图像识别子模块不对人机交互终端采集到的面部图像进行分析识别。
用户处于恐惧时,经语音识别子模块识别得到语音速度低于第一速度阈值,语音振幅也低于第一振幅阈值,此时,语音识别子模块发送图像识别指令给图像识别子模块,图像识别子模块从人机交互终端获取面部图像,并对面部图像进行分析和提取,得到面部特征信息,根据面部特征信息从人脸表情库匹配出表情信息。生物特征识别子模块获取此时人机交互模块采集用户的心率和呼吸频率,并进行分析,得到咨询者的生理信息,此时心率对比正常情况下偏高,呼吸频率对比正常情况下偏高。情绪判断子模块根据表情信息和生理信息,分析得到咨询者的情绪信息为恐惧,即消极情绪。此时,情绪判断子模块连续8秒判断情绪信息是否改变为积极情绪,即是否从恐惧转变为高兴,当在8秒内情绪信息未发生改变时,发送安抚指令给安抚模块。安抚模块在人机交互终端上显示语言安抚、音乐安抚、视频安抚和游戏安抚的四个情绪安抚选项。若用户在一分钟内选择了其中的情绪安抚选项,则根据用户选择的情绪安抚方式对用户进行情绪安抚,若用户在一分钟内未选择其中的情绪安抚选项,则随机选择四种情绪安抚方式的一种对用户进行情绪安抚;当在8秒内情绪信息发生改变时,发送解答指令给解答模块,解答模块通过人工智能法律分析模型分析语言信息中的咨询信息,生成解决方案,并将解决方案发送到人机交互终端。
实施例二
如图2所示,与实施例一的区别之处在于:识别模块还包括中断子模块,用于安抚模块对咨询者进行情绪安抚后,检测咨询者的情绪信息从沮丧或者生气转变为高兴或者正常后,情绪信息不发生改变的持续时间,当持续时间达到预设置的第一时间阈值时,向安抚模块发送中断指令,并向解答模块发送解答指令。本实施例中,第一时间阈值为5分钟,在其他实施例中,本领域的技术人员可以根据实际需求设置第一时间阈值。第一时间阈值是用于咨询者的情绪平复,通常情况下,人的情绪平复不是瞬间就可以完成的,当机器人的情绪安抚起作用后,通过设置第一时间阈值确定咨询者的情绪是否恢复正常。并且当通过第一时间阈值后,确定咨询者的情绪已经恢复正常后,向安抚模块发送中断指令,从而自动为咨询者解答咨询问题,避免咨询者情绪恢复正常后,机器人还在对咨询者进行情绪安抚,浪费咨询者的时间。
实施例三
与实施例一的区别之处在于:图像识别子模块还用于通过面部图像识别咨询者是否来咨询过以及咨询者的年龄,当咨询者的年龄大于阈值年龄时,对咨询者在接受情绪安抚时的面部图像进行分析,得到咨询者的面部表情,当面部表情为“蔑视”的面部表情时,保存咨询者当前的面部图像为第一面部图像,当下一次,同一个咨询者的面部图像出现与第一面部图像相同的面部表情时,向安抚模块发送搞怪指令,本实施例中,阈值年龄为12,在其他实施例中,本领域的技术人员,可以根据法律咨询机器人面向人群的学历和智能进行设置。安抚模块,还用于中断对咨询者的情绪安抚,并向人机交互终端发送滑稽语言信息或者滑稽语音信息。
具体而言,当图像识别子模块识别咨询者的年龄小于12岁时,且通过情绪判断子模块判断咨询者的情绪信息为沮丧或者生气时,安抚模块对咨询者进行正常的情绪安抚,有效的维护低龄咨询者的童心。当图像识别子模块识别咨询者的年龄大于12岁时,且通过情绪判断子模块判断咨询者的情绪信息为沮丧或者生气时,安抚模块对咨询者进行情绪安抚,此时图像识别子模块对咨询者在接受情绪安抚时的面部图像进行分析,当咨询者出现“蔑视”的面部表情时,图像识别子模块保存咨询者当前的面部表情为第一面部表情,在该咨询者再次来向法律咨询机器人咨询时,图像识别子模块通过第一面部图像与当前咨询者的面部图像进行分析,判断是否是同一个人,当判断为同一个人时,当图像识别子模块再次识别到该咨询者“蔑视”的面部表情时,向安抚模块发送搞怪指令,安抚模块向人机交互终端发送滑稽语言信息或者滑稽语音信息,通过滑稽语言信息或者滑稽音乐信息,以此提示咨询者,法律咨询机器人已经识破咨询者假意做出的沮丧或者生气的情绪,从而使本方案中的法律咨询机器人具有类人特性,更加智能。
以上所述的仅是本发明的实施例,方案中公知的具体结构及特性等常识在此未作过多描述。应当指出,对于本领域的技术人员来说,在不脱离本发明结构的前提下,还可以作出若干变形和改进,这些也应该视为本发明的保护范围,这些都不会影响本发明实施的效果和专利的实用性。本申请要求的保护范围应当以其权利要求的内容为准,说明书中的具体实施方式等记载可以用于解释权利要求的内容。
Claims (10)
1.基于法律咨询机器人的情绪安抚系统,其特征在于,包括人机交互终端、识别模块、安抚模块和解答模块,其中:
人机交互终端,用于采集咨询者的面部图像和语音信息;
识别模块,用于对语音信息进行识别得到语言信息,语言信息包括语音速度、语音振幅和咨询信息,并分析语音速度和语音振幅,当语音速度大于预设的第一速度阈值或者小于预设的第二速度阈值,并且语音振幅大于预设的第一振幅阈值或者小于预设的第二振幅阈值时,从人机交互终端获取面部图像,对面部图像进行分析得到表情信息,然后根据表情信息分析得到情绪信息,情绪信息包括积极情绪信息和消极情绪信息,积极情绪信息包括高兴,消极情绪信息包括恐惧、生气、痛苦、厌恶、羞耻和内疚,当情绪信息为消极情绪信息时,发送安抚指令给安抚模块;当情绪信息为积极情绪信息时,发送解答指令给解答模块;
安抚模块,用于存储情绪安抚方式,当接收到安抚指令时,根据情绪安抚方式对咨询者进行情绪安抚;
解答模块,用于根据解答指令,通过人工智能法律分析模型分析语言信息中的咨询信息,生成解决方案,并将解决方案发送到人机交互终端。
2.根据权利要求1所述的基于法律咨询机器人的情绪安抚系统,其特征在于:情绪安抚方式包括语言安抚、音乐安抚、视频安抚和游戏安抚。
3.根据权利要求1所述的基于法律咨询机器人的情绪安抚系统,其特征在于:人工智能法律分析模型为通过大量的法律条款和咨询问题经过训练形成具有映射关系的人工智能网络模型。
4.根据权利要求1所述的基于法律咨询机器人的情绪安抚系统,其特征在于:识别模块包括图像识别子模块和语音识别子模块,其中,
语音识别子模块,采用语义识别技术对语音信息进行分析和识别,得到语言信息,并对语言信息中的语音速度和语音振幅进行判断,当语音速度大于预设的第一速度阈值或者小于预设的第二速度阈值,并且语音振幅大于预设的第一振幅阈值或者小于预设的第二振幅阈值时,向图像识别子模块发送图像识别指令;
图像识别子模块,包括人脸表情库,接收到图像识别指令后,向人机交互终端获取面部图像,并对面部图像进行分析和提取,得到面部特征信息,根据面部特征信息从人脸表情库匹配出表情信息。
5.根据权利要求1所述的基于法律咨询机器人的情绪安抚系统,其特征在于:人机交互终端,还用于采集咨询者的心率和呼吸频率。
6.根据权利要求1所述的基于法律咨询机器人的情绪安抚系统,其特征在于:情绪安抚方式包括自选和随机两种执行方式。
7.根据权利要求5所述的基于法律咨询机器人的情绪安抚系统,其特征在于:识别模块还包括生物特征识别子模块,用于对咨询者的心率和呼吸频率进行分析,得到咨询者的生理信息。
8.根据权利要求7所述的基于法律咨询机器人的情绪安抚系统,其特征在于:识别模块还包括情绪判断子模块,用于根据表情信息和生理信息,分析得到咨询者的情绪信息,当情绪信息为消极情绪信息时,发送安抚指令给安抚模块;当情绪信息为积极情绪信息时,发送解答指令给解答模块。
9.根据权利要求1所述的基于法律咨询机器人的情绪安抚系统,其特征在于:识别模块还包括中断子模块,用于安抚模块对咨询者进行情绪安抚后,检测咨询者的情绪信息从消极情绪信息转变为积极情绪信息后,情绪信息不再发生改变的持续时间,当持续时间达到预设置的第一时间阈值时,向安抚模块发送中断指令,并向解答模块发送解答指令。
10.根据权利要求8所述的基于法律咨询机器人的情绪安抚系统,其特征在于:情绪判断子模块还用于当连续判断情绪信息为相同时的持续时间达到第二阈值时间时,根据情绪信息向安抚指令或者解答指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010132141.4A CN111368053B (zh) | 2020-02-29 | 2020-02-29 | 基于法律咨询机器人的情绪安抚系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010132141.4A CN111368053B (zh) | 2020-02-29 | 2020-02-29 | 基于法律咨询机器人的情绪安抚系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111368053A true CN111368053A (zh) | 2020-07-03 |
CN111368053B CN111368053B (zh) | 2020-12-11 |
Family
ID=71210088
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010132141.4A Active CN111368053B (zh) | 2020-02-29 | 2020-02-29 | 基于法律咨询机器人的情绪安抚系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111368053B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112581015A (zh) * | 2020-12-28 | 2021-03-30 | 北京智能工场科技有限公司 | 基于ai检验的咨询师质量评估系统及评估方法 |
CN112656414A (zh) * | 2020-12-17 | 2021-04-16 | 北京智能工场科技有限公司 | 一种通过ai对话检测心理状态的系统 |
CN113290567A (zh) * | 2021-04-19 | 2021-08-24 | 山东师范大学 | 基于群体情绪识别的人群疏散引导机器人 |
CN113380376A (zh) * | 2021-03-23 | 2021-09-10 | 北京智能工场科技有限公司 | 一种基于音乐的心理治疗的方法 |
CN115091482A (zh) * | 2022-07-14 | 2022-09-23 | 湖北工业大学 | 一种智能交流机器人 |
CN115240715A (zh) * | 2022-08-03 | 2022-10-25 | 上海三力信息科技有限公司 | 一种基于儿童手环的托育监护方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103996155A (zh) * | 2014-04-16 | 2014-08-20 | 深圳市易特科信息技术有限公司 | 智能交互及心理慰藉机器人服务系统 |
CN105082150A (zh) * | 2015-08-25 | 2015-11-25 | 国家康复辅具研究中心 | 一种基于用户情绪及意图识别的机器人人机交互方法 |
CN106844750A (zh) * | 2017-02-16 | 2017-06-13 | 深圳追科技有限公司 | 一种基于客服机器人中情感安抚的人机交互方法及系统 |
CN109145101A (zh) * | 2018-09-06 | 2019-01-04 | 北京京东尚科信息技术有限公司 | 人机对话方法、装置和计算机可读存储介质 |
CN109145106A (zh) * | 2018-07-20 | 2019-01-04 | 吴怡 | 一种自学习式法律咨询机器人 |
US20190143528A1 (en) * | 2016-07-20 | 2019-05-16 | Groove X, Inc. | Autonomously acting robot that understands physical contact |
CN110587621A (zh) * | 2019-08-30 | 2019-12-20 | 深圳智慧林网络科技有限公司 | 机器人、基于机器人的病人看护方法和可读存储介质 |
-
2020
- 2020-02-29 CN CN202010132141.4A patent/CN111368053B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103996155A (zh) * | 2014-04-16 | 2014-08-20 | 深圳市易特科信息技术有限公司 | 智能交互及心理慰藉机器人服务系统 |
CN105082150A (zh) * | 2015-08-25 | 2015-11-25 | 国家康复辅具研究中心 | 一种基于用户情绪及意图识别的机器人人机交互方法 |
US20190143528A1 (en) * | 2016-07-20 | 2019-05-16 | Groove X, Inc. | Autonomously acting robot that understands physical contact |
CN106844750A (zh) * | 2017-02-16 | 2017-06-13 | 深圳追科技有限公司 | 一种基于客服机器人中情感安抚的人机交互方法及系统 |
CN109145106A (zh) * | 2018-07-20 | 2019-01-04 | 吴怡 | 一种自学习式法律咨询机器人 |
CN109145101A (zh) * | 2018-09-06 | 2019-01-04 | 北京京东尚科信息技术有限公司 | 人机对话方法、装置和计算机可读存储介质 |
CN110587621A (zh) * | 2019-08-30 | 2019-12-20 | 深圳智慧林网络科技有限公司 | 机器人、基于机器人的病人看护方法和可读存储介质 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112656414A (zh) * | 2020-12-17 | 2021-04-16 | 北京智能工场科技有限公司 | 一种通过ai对话检测心理状态的系统 |
CN112581015A (zh) * | 2020-12-28 | 2021-03-30 | 北京智能工场科技有限公司 | 基于ai检验的咨询师质量评估系统及评估方法 |
CN112581015B (zh) * | 2020-12-28 | 2024-02-09 | 北京智能工场科技有限公司 | 基于ai检验的咨询师质量评估系统及评估方法 |
CN113380376A (zh) * | 2021-03-23 | 2021-09-10 | 北京智能工场科技有限公司 | 一种基于音乐的心理治疗的方法 |
CN113290567A (zh) * | 2021-04-19 | 2021-08-24 | 山东师范大学 | 基于群体情绪识别的人群疏散引导机器人 |
CN115091482A (zh) * | 2022-07-14 | 2022-09-23 | 湖北工业大学 | 一种智能交流机器人 |
CN115240715A (zh) * | 2022-08-03 | 2022-10-25 | 上海三力信息科技有限公司 | 一种基于儿童手环的托育监护方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111368053B (zh) | 2020-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111368053B (zh) | 基于法律咨询机器人的情绪安抚系统 | |
CN108000526B (zh) | 用于智能机器人的对话交互方法及系统 | |
US10884503B2 (en) | VPA with integrated object recognition and facial expression recognition | |
US11226673B2 (en) | Affective interaction systems, devices, and methods based on affective computing user interface | |
US9501743B2 (en) | Method and apparatus for tailoring the output of an intelligent automated assistant to a user | |
Vinola et al. | A survey on human emotion recognition approaches, databases and applications | |
CN107870994A (zh) | 用于智能机器人的人机交互方法及系统 | |
TW201935272A (zh) | 基於多模態情緒與臉部屬性識別的人機交互方法、系統 | |
US20140212854A1 (en) | Multi-modal modeling of temporal interaction sequences | |
US20050246165A1 (en) | System and method for analyzing and improving a discourse engaged in by a number of interacting agents | |
WO2002023524A1 (fr) | Procédé de reconnaissance d'émotion, procédé de création de sensibilité, dispositif, et logiciel | |
CN104538043A (zh) | 一种通话中实时情感提示装置 | |
CN108009490A (zh) | 一种基于识别情绪的聊天机器人系统及该系统的判断方法 | |
Ma et al. | ElderReact: a multimodal dataset for recognizing emotional response in aging adults | |
Mikhail et al. | Using minimal number of electrodes for emotion detection using brain signals produced from a new elicitation technique | |
WO2020148920A1 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
CN112651334A (zh) | 机器人视频交互方法和系统 | |
CN111300443A (zh) | 基于法律咨询机器人的情绪安抚方法 | |
JP3676981B2 (ja) | 感性発生方法及び感性発生装置並びにソフトウェア | |
CN112233800A (zh) | 一种基于儿童异常行为的疾病预测系统 | |
Cowie et al. | Piecing together the emotion jigsaw | |
WO2020030553A1 (en) | Computer-implemented system and method for collecting feedback | |
CN115482912A (zh) | 对话机器自助心理干预系统及方法 | |
Qodseya et al. | Visual-based eye contact detection in multi-person interactions | |
Paplu et al. | Harnessing long-term memory for personalized human-robot interactions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder | ||
CP01 | Change in the name or title of a patent holder |
Address after: Office 1, 18, building 7, Zhongyu xiangnai mansion, No. 101, Xinji Avenue, Longxi street, Yubei District, Chongqing Patentee after: Chongqing Daniu Cognitive Technology Co.,Ltd. Address before: Office 1, 18, building 7, Zhongyu xiangnai mansion, No. 101, Xinji Avenue, Longxi street, Yubei District, Chongqing Patentee before: Chongqing best Daniel robot Co.,Ltd. |