CN110587621B - 机器人、基于机器人的病人看护方法和可读存储介质 - Google Patents

机器人、基于机器人的病人看护方法和可读存储介质 Download PDF

Info

Publication number
CN110587621B
CN110587621B CN201910826347.4A CN201910826347A CN110587621B CN 110587621 B CN110587621 B CN 110587621B CN 201910826347 A CN201910826347 A CN 201910826347A CN 110587621 B CN110587621 B CN 110587621B
Authority
CN
China
Prior art keywords
patient
robot
emotional state
image
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910826347.4A
Other languages
English (en)
Other versions
CN110587621A (zh
Inventor
丁晓端
钟王攀
金大鹏
黄坤
李彤
殷燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Zhihuilin Network Technology Co ltd
Original Assignee
Shenzhen Zhihuilin Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Zhihuilin Network Technology Co ltd filed Critical Shenzhen Zhihuilin Network Technology Co ltd
Priority to CN201910826347.4A priority Critical patent/CN110587621B/zh
Publication of CN110587621A publication Critical patent/CN110587621A/zh
Application granted granted Critical
Publication of CN110587621B publication Critical patent/CN110587621B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Nursing (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种基于机器人的病人看护方法,机器人包括图像采集模块,所述基于机器人的病人看护方法包括以下步骤:获取所述图像采集模块采集的病人的图像;根据所述图像确定所述病人当前的情绪状态及/或根据所述图像确定所述病人在下一时间段的情绪状态。本发明还公开一种机器人和可读存储介质。本发明机器人能够及时的发现病人的异常情绪并对病人进行安抚。

Description

机器人、基于机器人的病人看护方法和可读存储介质
技术领域
本发明涉及机器人看护技术领域,尤其涉及一种机器人、基于机器人的病人看护方法和可读存储介质。
背景技术
随着人们生活、工作的压力增大,越来越多的人的精神处于紧张以及压抑状态,若不及时处理以及疏导,会导致人们产生精神疾病。
对于精神疾病的康复,需要有人员看护以对病人的进行及时的安抚。但目前,看护人员不可能对病人进行时时刻刻的看护,且看护人员无法察觉病人的某些不明显的异常情绪,导致病人的异常情绪不能被及时发现。
发明内容
本发明的主要目的在于提供一种机器人、基于机器人的病人看护方法和可读存储介质,旨在解决病人的异常情绪不能被及时发现的问题。
为实现上述目的,本发明提供的一种基于机器人的病人看护方法,机器人包括图像采集模块,所述基于机器人的病人看护方法包括以下步骤:
获取所述图像采集模块采集的病人的图像;
根据所述图像确定所述病人当前的情绪状态及/或根据所述图像确定所述病人在下一时间段的情绪状态。
在一实施例中,所述根据所述图像确定所述病人的情绪状态及/或根据所述图像确定所述病人在下一时间段的情绪状态的步骤包括:
根据所述图像识别所述病人的脸部表情以及肢体动作;
根据所述脸部表情以及所述肢体动作确定所述病人当前的情绪状态及/或根据所述脸部表情以及所述肢体动作确定所述病人在下一时间段的情绪状态。
在一实施例中,所述机器人还包括语音采集模块,所述根据所述脸部表情以及所述肢体动作确定所述病人当前的情绪状态及/或根据所述脸部表情以及所述肢体动作确定所述病人在下一时间段的情绪状态的步骤包括:
获取所述语音采集模块采集的病人的语音以及所述语音的语音参数,并将所述语音转换为文本,其中,所述语音参数包括音调、音速以及响度中的至少一个;
根据所述语音参数、所述文本、所述脸部表情以及所述肢体动作确定所述病人当前的情绪状态及/或根据所述语音参数、所述文本、所述脸部表情以及所述肢体动作确定所述病人在下一时间段的情绪状态。
在一实施例中,所述根据所述图像确定所述病人当前的情绪状态及/或根据所述图像确定所述病人在下一时间段的情绪状态的步骤之后,还包括:
获取所述病人的生理参数,其中,所述生理参数包括病人的体温以及心率;
根据所述生理参数以及图像判断所述病人是否出现身体不适;
在所述病人出现身体不适时,向预设终端输出病人身体不适的提示信息。
在一实施例中,所述根据所述图像确定所述病人当前的情绪状态及/或根据所述图像确定所述病人在下一时间段的情绪状态的步骤之后,还包括:
根据所述情绪状态判断所述病人是否需要进行安抚;
在判定所述病人需要安抚时,执行所述情绪状态对应的预设操作,以对所述病人的情绪进行安抚。
在一实施例中,所述预设操作包括播放音乐、播放视频、语音聊天、拨通预设终端进行语音通话以及向预设终端输出病人情绪较差的提示信息中的至少一种。
在一实施例中,所述执行所述情绪状态对应的预设操作的步骤包括:
根据所述情绪状态确定待控制家电以及待控制家电的目标运行参数;
控制所述待控制家电按照所述目标运行参数运行,以对所述病人的情绪进行安抚。
在一实施例中,所述获取所述图像采集模块采集的病人的图像的步骤之前,还包括:
实时获取所述病人的位置;
根据所述位置控制驱动机构运行以使机器人跟随所述病人,并控制图像采集模块采集病人的图像。
图像采集模块图像采集模块
为实现上述目的,本发明还提供一种机器人,所述机器人包括图像采集模块、存储器、处理器以及存储在所述存储器并可在所述处理器上运行的病人看护程序,所述病人看护程序被处理器执行时实现如上所述的基于机器人的病人看护方法的各个步骤。
为实现上述目的,本发明还提供一种可读存储介质,所述可读存储介质存储有病人看护程序,所述病人看护程序被处理器执行时实现如上所述的基于机器人的病人看护方法的各个步骤。
本发明提供的机器人、基于机器人的病人看护方法和可读存储介质,机器人获取图像采集模块采集的病人的图像,并根据图像确定病人当前的情绪状态、或者根据图像确定病人在下一时间段的情绪状态、或者根据图像确定病人在当前以及下一时间段的情绪状态。由于机器人能够根据病人的图像确定病人当前以及下一时间段,从而能够及时的发现病人的异常情绪。
附图说明
图1为本发明实施例涉及的机器人的硬件构架示意图;
图2为本发明基于机器人的病人看护方法第一实施例的流程示意图;
图3为图2中步骤S20的细化流程示意图;
图4为本发明基于机器人的病人看护方法第二实施例的流程示意图;
图5为本发明基于机器人的病人看护方法第三实施例的流程示意图;
图6为本发明基于机器人的病人看护方法第四实施例的流程示意图;
图7为本发明基于机器人的病人看护方法第五实施例的流程示意图;
图8为本发明基于机器人的病人看护方法第六实施例的流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例的主要解决方案是:获取所述图像采集模块采集的病人的图像;根据所述图像确定所述病人当前的情绪状态及/或根据所述图像确定所述病人在下一时间段的情绪状态。图像采集模块由于机器人能够根据病人的图像确定病人当前以及下一时间段,从而能够及时的发现病人的异常情绪。
作为一种实现方案,机器人可以如图1所示。
本发明实施例方案涉及的是机器人,机器人包括:处理器101,例如CPU,存储器102,通信总线103以及图像采集模块104。其中,通信总线103用于实现这些组件之间的连接通信,图像采集模块104可为摄像头。
存储器102可以是高速RAM存储器,也可以是稳定的存储器(non-volatilememory),例如磁盘存储器。如图1所示,作为一种计算机存储介质的存储器103中可以包括病人看护程序;而处理器101可以用于调用存储器102中存储的病人看护程序,并执行以下操作:
获取所述图像采集模块采集的病人的图像;
根据所述图像确定所述病人当前的情绪状态及/或根据所述图像确定所述病人在下一时间段的情绪状态。
在一实施例中,处理器101可以用于调用存储器102中存储的病人看护程序,并执行以下操作:
根据所述图像识别所述病人的脸部表情以及肢体动作;
根据所述脸部表情以及所述肢体动作确定所述病人当前的情绪状态及/或根据所述脸部表情以及所述肢体动作确定所述病人在下一时间段的情绪状态。
在一实施例中,处理器101可以用于调用存储器102中存储的病人看护程序,并执行以下操作:
获取所述语音采集模块采集的病人的语音以及所述语音的语音参数,并将所述语音转换为文本,其中,所述语音参数包括音调、音速以及响度中的至少一个;
根据所述语音参数、所述文本、所述脸部表情以及所述肢体动作确定所述病人当前的情绪状态及/或根据所述语音参数、所述文本、所述脸部表情以及所述肢体动作确定所述病人在下一时间段的情绪状态。
在一实施例中,处理器101可以用于调用存储器102中存储的病人看护程序,并执行以下操作:
获取所述病人的生理参数,其中,所述生理参数包括病人的体温以及心率;
根据所述生理参数以及图像判断所述病人是否出现身体不适;
在所述病人出现身体不适时,向预设终端输出病人身体不适的提示信息。
在一实施例中,处理器101可以用于调用存储器102中存储的病人看护程序,并执行以下操作:
根据所述情绪状态判断所述病人是否需要进行安抚;
在判定所述病人需要安抚时,执行所述情绪状态对应的预设操作,以对所述病人的情绪进行安抚。
在一实施例中,处理器101可以用于调用存储器102中存储的病人看护程序,并执行以下操作:
所述预设操作包括播放音乐、播放视频、语音聊天、拨通预设终端进行语音通话以及向预设终端输出病人情绪较差的提示信息中的至少一种。
在一实施例中,处理器101可以用于调用存储器102中存储的病人看护程序,并执行以下操作:
根据所述情绪状态确定待控制家电以及待控制家电的目标运行参数;
控制所述待控制家电按照所述目标运行参数运行,以对所述病人的情绪进行安抚。
在一实施例中,处理器101可以用于调用存储器102中存储的病人看护程序,并执行以下操作:
实时获取所述病人的位置;
根据所述位置控制驱动机构运行以使机器人跟随所述病人,并控制图像采集模块采集病人的图像。
本实施例根据上述方案,机器人获取图像采集模块采集的病人的图像,并根据图像确定病人当前的情绪状态、或者根据图像确定病人在下一时间段的情绪状态、或者根据图像确定病人在当前以及下一时间段的情绪状态。由于机器人能够根据病人的图像确定病人当前以及下一时间段,从而能够及时的发现病人的异常情绪。
基于上述机器人的硬件构架,提出本发明基于机器人的病人看护方法的实施例。
参照图2,图2为本发明基于机器人的病人看护的第一实施例,所述基于机器人的病人看护方法包括以下步骤:
步骤S10,获取所述图像采集模块采集的病人的图像;
在本实施例中,执行主体为机器人。机器人包括图像采集模块,图像采集模块可为摄像头。机器人与病人实施一对一的看护,机器人在对病人进行看护时,启动图像采集模块,图像采集模块实时采集病人的图像,也即机器人的处理器实时获取图像采集模块采集的图像。需要说明的是,在本实施例中,病人指的是患有精神疾病的病人,也即病人在一定程度上并未拥有自主行动能力,故需要对病人进行看护。
步骤S20,根据所述图像确定所述病人当前的情绪状态及/或根据所述图像确定所述病人在下一时间段的情绪状态;
机器人中设有情绪识别模型。情绪识别模型通过对含有异常情绪的病人的图像进行训练得到。具体的,采集异常情绪的病人的图像,且根据不同的异常情绪对图像进行情绪标签的标记,异常情绪包括惊恐、愤怒、过度兴奋等不正常的情绪,将带有情绪标签的图像输入预设的模型中进行训练,在当模型的收敛值不在变化时,停止训练,从而得到情绪识别模型,再将情绪识别模型存储至机器人中。当然,也可对正常情绪以及异常情绪的病人的图像进行训练,得到情绪识别模型。
机器人在获得病人的图像后,对图像中的病人进行情绪状态的识别,从而确定病人当前的情绪状态。此外,机器人还可预测下一个时间段内病人的情绪状态。具体的,请参照图3,也即步骤S20包括:
步骤S21,根据所述图像识别所述病人的脸部表情以及肢体动作;
步骤S22,根据所述脸部表情以及所述肢体动作确定所述病人的情绪状态及/或根据所述图像确定所述病人在下一时间段的情绪状态。
机器人从图像中查找到病人的脸部以及四肢,从而识别病人的脸部表情以及肢体动作,脸部表情以及肢体动作能够表征病人的情绪状态。例如,手握拳头且面目较为狰狞,可以判定病人处于愤怒状态。可以理解的是,机器人先从图像中识别病人的脸部表情,再确定病人的肢体动作,脸部表情为主,肢体动作为辅,也即优先从脸部表情判断病人的情绪状态,再通过肢体动作对由脸部表情确定情绪状态进行再次确认。
此外,可设置脸部表情与肢体动作的组合,每种组合对应一种情绪状态。例如,脸部表情分为5种、肢体动作分为10种,组合即为50种,对应50种情绪状态。
当然,不同的病人的脸部表情所代表的情绪状态不同,因此,可对病人的情绪状态进行观看,从而收集病人不同情绪状态下的图像,以建立病人对应的情绪识别模型。
上述为病人的当前的情绪状态的确定。机器人还具备识别病人下一个时间段的情绪状态的功能,也即机器人具有预测病人情绪状态的功能。具体的,机器人中设有预测模型,预测模型的训练方式与情绪识别模型的训练方式相同,不同之处在于,预测模型学习的图像为预测图像,预测图像中病人的脸部表情与肢体动作为病人爆发某种情绪状态之前的表情以及动作。例如,预测图像中病人的手指抖动、面部微红,这是病人即将进入愤怒的情绪状态的征兆,也即预测图像中的标记的情绪状态为愤怒。可以理解的是,预测模型通过含有预测的情绪标签的图像训练得到。需要说明的是,下一时间段指的是当前时间点和预设间隔时长构成的时间段,预设间隔时长为任何合适的数值,比如半小时。机器人可以预测模型对图像中病人的脸部表情以及肢体动作进行识别,从而预测出病人在下一时间段的情绪状态。
需要说明的是,机器人可以仅通过情绪识别模型识别病人的当前情绪状态,也可以仅通过预测模型识别病人在下一时间段的情绪状态,或者机器人同时采用情绪识别模型以及预测模型确定病人当前的情绪状态以及下一时间段的情绪状态。
在本实施例提供的技术方案中,机器人获取图像采集模块采集的病人的图像,并根据图像确定病人当前的情绪状态、或者根据图像确定病人在下一时间段的情绪状态、或者根据图像确定病人在当前以及下一时间段的情绪状态。由于机器人能够根据病人的图像确定病人当前以及下一时间段,从而能够及时的发现病人的异常情绪。
在一实施例中,机器人还包括语音采集模块,语音采集模块可为麦克风。机器人在采集病人的图像的同时,通过语音采集模块采集病人的语音。机器人中含有病人的声纹模板,在采集到语音后,机器人提取该语音的声纹特征,并比对声纹模板与声纹特征以确定该语音是否为病人发出。若该语音为病人发出,那么机器人获取语音的语音参数,语音参数包括音调、音速以及响度中的至少一个,同时,机器人还将语音转化为文本。
在得到语音的语音参数以及文本后,即可根据语音参数、文本、脸部表情以及肢体动作确定病人的情绪状态。具体的,语音参数以及文本也是确定病人情绪状态的因素之一,例如,音调较高、语速较快、响度较高、且文本中为无意义的词语,即可表征病人的情绪状态为激动、愤怒等情绪状态,机器人再结合脸部表情以及肢体动作进一步确定病人当前的情绪状态。
此外,机器人可能通过脸部表情以及肢体动作无法准确的判断病人的情绪状态,也即病人的异常情绪和病人的正常情绪的脸部表情以及肢体动作相同。此时,可通过语音进行情绪状态的确定。例如,病人的情绪状态为孤单,病人可能在自言自语,比如,“我想小明了”,机器人通过捕捉语音,识别到该文本,在通过病人的重复次数,确定孤单的等级,在病人重复“我想小明了”的次数达到预设次数,或者在预设时间周期的重复次数达到预设次数,即确定病人当前的情绪状态为孤单,也即机器人可以通过语音转化的文本确定病人当前的情绪状态。
此外,机器人可以通过脸部表情、主体动作、语音参数以及文本对病人进行下一时间段的情绪状态的预测,预测的流程可参照上述病人当前的情绪状态的确定流程,在此不再一一赘述。当然,机器人可以通过脸部表情、主体动作、语音参数以及文本同时确定病人当前的情绪状态以及下一时间段的情绪状态。
在本实施例中,机器人可以通过语音的文本、语音的语音参数、脸部表情以及肢体动作中的一个或多个准确的确定病人当前的情绪状态或者下一时间段段的情绪状态。
参照图4,图4为本发明基于机器人的病人看护方法的第二实施例,基于第一实施例,所述步骤S20之后,还包括:
步骤S30,获取所述病人的生理参数,其中,所述生理参数包括病人的体温以及心率;
步骤S40,根据所述生理参数以及图像判断所述病人是否出现身体不适;
步骤S50,在所述病人出现身体不适时,向预设终端输出病人身体不适的提示信息。
在本实施例中,机器人不仅可以识别病人的情绪状态,还可识别病人身体上的不适。机器人可设有红外测温装置,机器人通过红外测温装置可测量病人的体温。此外,病人可携带手环,手环与机器人通信连接,手环将病人的生理数据发送给机器人,也即机器人可获得病人的生理参数,生理参数包括病人的体温以及心率等。体温和心率能够反映出病人是否发烧,而图像可以识别病人的脸部表情以及肢体动作,例如,呕吐时脸部为痛苦的表情,感觉到冷时身体颤抖。也即机器人可以通过生理参数以及图像判断病人是否出现身体不适。
在当机器人判定病人出现身体不适时,则向预设终端发送病人身体不适的提示信息,使得预设终端的用户及时对病人采取措施,避免病人身体上的病情恶化。
在本实施例提供的技术方案中,机器人获取病人的生理参数,并根据生理参数以及图像判断病人是否出现身体上的不适,若是,则向预设终端输出病人身体不适的提示信息,使得预设终端的用户及时采取措施,减缓病人身体上的疼痛,进而避免由身体上的不适引发病人精神上复发。
参照图5,图5为本发明基于机器人的病人看护方法的第三实施例,基于第一或第二实施例,所述步骤S20之后,还包括:
步骤S60,根据所述情绪状态判断所述病人是否需要进行安抚;
在机器人确定病人的情绪状态后,机器人即可判断病人是否需要进行安抚。情绪状态既可以为当前的情绪状态,也可为下一时间段的情绪状态。具体的,情绪可分为多种类型,且各个情绪可分为严重、轻微等多个情绪等级,情绪状态即可用类型以及等级进行表征。某些类型的情绪状态需要立即进行安抚,而无需判断情绪的等级,例如,情绪状态为惊恐,此时,病人需要进行安抚。
另一些类型的情绪状态在轻微等级状态下,无需进行安抚,例如,情绪状态为兴奋,若兴奋的等级为轻微,则可判定病人的情绪正常,无需对病人进行安抚;若兴奋的等级为严重,则需要对病人进行安抚。
可以理解的是,机器人可先确定情绪状态的类型,若该情绪状态的类型为预设类型时,则可判定需要对病人进行安抚,可将负面情绪的情绪状态定义为预设类型;若情绪状态的类型不为预设类型(不为预设类型的情绪状态为正面情绪),则判断该情绪状态的等级是否大于预设等级,若是大于预设等级,则需要对病人进行安抚。需要说明的是,情绪状态可分为多个等级,例如1、2、3、4以及5五个等级,其中,1等级与2等级属于轻微的情绪等级,3等级属于中等的情绪等级,而4等级以及5等级则属于严重的情绪等级,可将预设等级设置为3级情绪等级。
步骤S70,在判定所述病人需要安抚时,执行所述情绪状态对应的预设操作,以对所述病人的情绪进行安抚。
在当机器人判定需要对病人进行安抚时,则执行情绪状态对应的预设操作,从而对病人进行情绪上的安抚。预设操作包括播放音乐、播放视屏、语音聊天、拨通预设终端进行语音通话以及向预设终端输出病人情绪较差的提示信息中的至少一个,预设操作即为视为机器人对病人的情绪安抚操作。不同的情绪状态对应的预设操作有所不同。例如,病人的情绪状态为悲伤,那么情绪状态对应的预设操作可是为播放欢快的音乐或者视频;若病人的情绪状态为孤单,则启动自动聊天程序,与病人进行聊天互动,或者直接拨通预设终端以和预设终端的用户进行语音聊天;若病人的情绪状态为紧张,则播放舒缓的音乐。
当然,机器人可直接向预设终端输出病人情绪较差的提示信息,使得预设终端的用户陪护病人,以对病人进行情绪的安抚。
在本实施例提供的技术方案中,机器人获取图像采集模块采集的病人的图像,并根据图像确定病人的情绪状态,再根据情绪状态判断病人是否需要进行安抚,若病人需要安抚,则执行预设操作从而对病人的情绪进行安抚。由于机器人能够根据病人的图像确定病人的情绪状态,且在情绪状态表征病人需要安抚时,执行预设操作对病人进行安抚,也即机器人能够及时的发现病人的异常情绪并对病人进行安抚。
参照图6,图6为本发明基于机器人的病人看护方法的第四实施例,基于第一至第三中任一实施例,所述步骤S10之前,还包括:
步骤S80,实时获取所述病人的位置;
步骤S90,根据所述位置控制驱动机构运行以使机器人跟随所述病人,并控制图像采集模块采集病人的图像。
在本实施例中,机器人对病人进行一对一的看护,也即病人在移动时,机器人随之移动。机器人设有移动机构,移动机构与驱动机构连接,机器人通过控制驱动机构即可控制机器人移动。
机器人实时获取病人的位置,从而控制驱动机构运行使得机器人跟随病人,并控制图像采集模块实时采集病人的图像。机器人可以通过图像采集模块采集病人的位置,也即机器人通过图像采集模块确定病人的脸部,以获取病人的脸部表情。
进一步的,可对病人设定活动区域,机器人中存储有病人的活动区域,也即机器人中存储有预设活动区域。机器人在确定病人的位置后,判断该位置是否处于活动区域,若位置不处于预设活动区域时,即可判定病人超出活动区域进行活动,此时,机器人向预设终端发送病人离开指定区域的提示信息,使得预设终端的用户将病人的活动范围限制在活动区域。或者,机器人可输出离开活动区域的提示信息,以对病人进行警示。
此外,可对预设活动区域进行封闭,例如,将卧室作为病人的预设活动区域,并将房门上锁,在机器人检测到病人房门进行多次开锁后,即可向预设终端发送病人想离开指定区域的提示信息,以供预设终端的用户开启房门。
参照图7,图7为本发明基于机器人的病人看护方法的第五实施例,基于第三实施例,所述步骤S20之后,还包括:
步骤S100,获取所述病人在预设周期内的情绪异常次数;
步骤S110,在所述情绪异常次数达到预设次数时,向预设终端输出病人情绪异常的提示信息。
在本实施例中,机器人设置预设周期,预设周期可为任意合适的数值,例如1h。在当机器人判定病人的情绪状态异常需要进行安抚时,机器人会执行情绪状态对应的预设操作,但实际上,预设操作会对病人的情绪状态有所缓解,但并不能确保能够完全消除病人的异常情绪。对此,机器人在判定病人出现异常的情绪状态且执行预设操作后,间隔一定的时间再次判断病人的情绪状态是否异常,间隔的时长小于预设周期,如,预设周期为1h,间隔的时长可为5min。若病人的情绪状态再次异常,则对预设周期中病人的情绪异常次数+1,且再次执行情绪状态对应的预设操作。
若是病人在预设周期内情绪异常的次数达到预设次数,即可判定病人的异常情绪并未被消除,此时,需要人工进行安抚。对此,机器人向预设终端输出病人情绪异常的提示信息,以提示预设终端的用户对病人进行安抚。此外,异常情绪不同,则预设终端不同,也即不同的用户(看护人员)安抚病人的不同异常情绪。例如,异常情绪状态为孤单,而A看护人员能够快速安抚病人的孤单情绪,此时,机器人确定A看护人员的预设终端,以向A看护人员输出提示信息。可以理解的是,机器人中存储有各个看护人员对不同异常情绪的安抚等级,从而根据异常情绪状态的类型确定异常情绪状态对应的安抚等级最高的空闲的看护人员,以向该看护人员输出提示信息。
在本实施例提供的技术方案中,机器人获取病人在预设周期内的情绪异常次数,在情绪异常次数达到预设次数时,则向预设终端输出病人情绪异常的提示信息,以供预设终端的用户对病人的情绪进行安抚。
参照图8,图8为本发明基于机器人的病人看护方法的第六实施例,基于第三实施例,所述步骤S70包括:
步骤S71,根据所述情绪状态确定待控制家电以及待控制家电的目标运行参数;
步骤S72,控制所述待控制家电按照所述目标运行参数运行,以对所述病人的情绪进行安抚。
在本实施例中,机器人上设有各个家电的控制程序,也即机器人拥有控制各个家电的权限。家电可为空调、电视机、灯等。在需要对病人进行情绪上的安抚时,机器人可以控制家电运行。例如,在情绪状态为紧张时,机器人可以控制灯运行,且控制灯以暖色光运行,从而舒缓病人的紧张情绪;此外,机器人还可控制电视机运行,并将频道调节至喜剧频道或者音乐频道,使得电视机播放喜剧或者音乐,获取机器人可以直接控制电视机播放存储的舒缓情绪的音乐以及视频等。
可以理解的是,机器人可根据情绪状态确定待控制家电以及待控制家电的目标运行参数,并控制待控制家电按照目标运行参数,从而对病人进行情绪上的安抚。
在本实施例提供的技术方案中,机器人拥有对各个家电的控制权限,在当病人需要进行安抚时,根据情绪状态确定待控制家电以及待控制家电的目标运行参数,从而控制待控制家电安装目标运行参数运行,以对病人的情绪进行安抚,也即机器人通过现有的家电对病人进行情绪的安抚,而无需在机器人中存储视频或者音乐等,机器人的存储成本较低。
本发明还提供一种机器人,所述机器人包括图像采集模块存储器、处理器以及存储在所述存储器并可在所述处理器上运行的病人看护程序,所述病人看护程序被处理器执行时实现如上所述的基于机器人的病人看护方法的各个步骤。
本发明还提供一种可读存储介质,所述可读存储介质存储有病人看护程序,所述病人看护程序被处理器执行时实现如上所述的基于机器人的病人看护方法的各个步骤。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (6)

1.一种基于机器人的病人看护方法,其特征在于,机器人包括图像采集模块,所述基于机器人的病人看护方法包括以下步骤:
实时获取所述病人的位置;
判断所述位置是否处于预设活动区域;
若否,则向预设终端发送病人离开指定区域的提示信息或者输出离开活动区域的提示信息以对病人进行警示;
根据所述位置控制驱动机构运行以使机器人跟随所述病人,并控制图像采集模块采集病人的图像;
获取所述图像采集模块采集的病人的图像;
根据所述图像确定所述病人当前的情绪状态及/或根据所述图像确定所述病人在下一时间段的情绪状态;
根据所述情绪状态判断所述病人是否需要进行安抚;
在判定所述病人需要安抚时,执行所述情绪状态对应的预设操作,以对所述病人的情绪进行安抚;
其中,所述执行所述情绪状态对应的预设操作的步骤包括:
根据所述情绪状态确定待控制家电以及待控制家电的目标运行参数;
控制所述待控制家电按照所述目标运行参数运行,以对所述病人的情绪进行安抚。
2.如权利要求1所述的基于机器人的病人看护方法,其特征在于,所述根据所述图像确定所述病人的情绪状态及/或根据所述图像确定所述病人在下一时间段的情绪状态的步骤包括:
根据所述图像识别所述病人的脸部表情以及肢体动作;
根据所述脸部表情以及所述肢体动作确定所述病人当前的情绪状态及/或根据所述脸部表情以及所述肢体动作确定所述病人在下一时间段的情绪状态。
3.如权利要求2所述的基于机器人的病人看护方法,其特征在于,所述机器人还包括语音采集模块,所述根据所述脸部表情以及所述肢体动作确定所述病人当前的情绪状态及/或根据所述脸部表情以及所述肢体动作确定所述病人在下一时间段的情绪状态的步骤包括:
获取所述语音采集模块采集的病人的语音以及所述语音的语音参数,并将所述语音转换为文本,其中,所述语音参数包括音调、音速以及响度中的至少一个;
根据所述语音参数、所述文本、所述脸部表情以及所述肢体动作确定所述病人当前的情绪状态及/或根据所述语音参数、所述文本、所述脸部表情以及所述肢体动作确定所述病人在下一时间段的情绪状态。
4.如权利要求1所述的基于机器人的病人看护方法,其特征在于,所述预设操作包括播放音乐、播放视频、语音聊天、拨通预设终端进行语音通话以及向预设终端输出病人情绪较差的提示信息中的至少一种。
5.一种机器人,其特征在于,所述机器人包括图像采集模块存储器、处理器以及存储在所述存储器并可在所述处理器上运行的病人看护程序,所述病人看护程序被处理器执行时实现如权利要求1-4任一项所述的基于机器人的病人看护方法的各个步骤。
6.一种可读存储介质,其特征在于,所述可读存储介质存储有病人看护程序,所述病人看护程序被处理器执行时实现如权利要求1-4任一项所述的基于机器人的病人看护方法的各个步骤。
CN201910826347.4A 2019-08-30 2019-08-30 机器人、基于机器人的病人看护方法和可读存储介质 Active CN110587621B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910826347.4A CN110587621B (zh) 2019-08-30 2019-08-30 机器人、基于机器人的病人看护方法和可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910826347.4A CN110587621B (zh) 2019-08-30 2019-08-30 机器人、基于机器人的病人看护方法和可读存储介质

Publications (2)

Publication Number Publication Date
CN110587621A CN110587621A (zh) 2019-12-20
CN110587621B true CN110587621B (zh) 2023-06-06

Family

ID=68857352

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910826347.4A Active CN110587621B (zh) 2019-08-30 2019-08-30 机器人、基于机器人的病人看护方法和可读存储介质

Country Status (1)

Country Link
CN (1) CN110587621B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368053B (zh) * 2020-02-29 2020-12-11 重庆百事得大牛机器人有限公司 基于法律咨询机器人的情绪安抚系统
CN112135386A (zh) * 2020-11-25 2020-12-25 中国人民解放军海军特色医学中心 一种适用于公共卫生安全的光环境调节系统及调节方法
CN112990067A (zh) * 2021-03-31 2021-06-18 上海理工大学 一种面向独居人群的机器人智能情绪识别治愈方法

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2013200230A1 (en) * 2005-03-01 2013-01-31 Advanced Neuromodulation Systems, Inc. Method of treating depression, mood disorders and anxiety disorders using neuromodulation
CN105931263A (zh) * 2016-03-31 2016-09-07 纳恩博(北京)科技有限公司 一种目标跟踪方法及电子设备
CN106361356A (zh) * 2016-08-24 2017-02-01 北京光年无限科技有限公司 情绪监控和预警方法及系统
CN106956271A (zh) * 2017-02-27 2017-07-18 华为技术有限公司 预测情感状态的方法和机器人
AU2017101213A4 (en) * 2016-09-05 2017-10-05 Digihealth Innovations Pty. Ltd. Software Platform for Personalised Integrated In-Home Care Monitoring
CN108303673A (zh) * 2018-02-01 2018-07-20 杭州球帆科技有限公司 一种基于视频辅助定位的uwb三维定位系统
CN109008952A (zh) * 2018-05-08 2018-12-18 深圳智慧林网络科技有限公司 基于深度学习的监护方法及相关产品
CN109272259A (zh) * 2018-11-08 2019-01-25 梁月竹 一种孤独症谱系障碍儿童情绪能力干预系统及方法
CN109299267A (zh) * 2018-10-16 2019-02-01 山西大学 一种文本对话的情绪识别与预测方法
WO2019033573A1 (zh) * 2017-08-17 2019-02-21 平安科技(深圳)有限公司 面部情绪识别方法、装置及存储介质
CN109766773A (zh) * 2018-12-18 2019-05-17 深圳壹账通智能科技有限公司 比赛监控方法、装置、计算机设备和存储介质
CN109801105A (zh) * 2019-01-17 2019-05-24 深圳壹账通智能科技有限公司 基于人工智能的服务评分方法、装置、设备及存储介质
CN109830280A (zh) * 2018-12-18 2019-05-31 深圳壹账通智能科技有限公司 心理辅助分析方法、装置、计算机设备和存储介质
CN109981972A (zh) * 2017-12-27 2019-07-05 深圳市优必选科技有限公司 一种机器人的目标跟踪方法、机器人及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7415093B2 (en) * 2006-10-30 2008-08-19 General Electric Company Method and apparatus of CT cardiac diagnostic imaging using motion a priori information from 3D ultrasound and ECG gating
US9220573B2 (en) * 2007-01-02 2015-12-29 Medtronic Navigation, Inc. System and method for tracking positions of uniform marker geometries
JP2014529964A (ja) * 2011-08-31 2014-11-13 ピング アイデンティティ コーポレーション モバイル機器経由の安全なトランザクション処理のシステムおよび方法
KR101988279B1 (ko) * 2013-01-07 2019-06-12 삼성전자 주식회사 얼굴 인식 기반 사용자 기능 운용 방법 및 이를 지원하는 단말기
US10872387B2 (en) * 2013-03-15 2020-12-22 Teletracking Technologies, Inc. Hospital bed event notification
US10045726B2 (en) * 2015-06-14 2018-08-14 Facense Ltd. Selecting a stressor based on thermal measurements of the face
JP6824967B2 (ja) * 2015-09-18 2021-02-03 オーリス ヘルス インコーポレイテッド 管状網のナビゲーション
US11049152B2 (en) * 2016-05-24 2021-06-29 Gaurang Gupta System and method for dynamically creating and publishing reviews
CN106182032B (zh) * 2016-08-24 2018-11-13 陈中流 一种陪护机器人
CN107689063A (zh) * 2017-07-27 2018-02-13 南京理工大学北方研究院 一种基于天花板图像的机器人室内定位方法
CN108242238B (zh) * 2018-01-11 2019-12-31 广东小天才科技有限公司 一种音频文件生成方法及装置、终端设备
CN108937973A (zh) * 2018-06-15 2018-12-07 四川文理学院 一种机器人诊断人体愤怒情绪方法及装置
CN109376225A (zh) * 2018-11-07 2019-02-22 广州市平道信息科技有限公司 聊天机器人装置及系统
CN109753663B (zh) * 2019-01-16 2023-12-29 中民乡邻投资控股有限公司 一种客户情绪分级方法及装置
CN110096600A (zh) * 2019-04-16 2019-08-06 上海图菱新能源科技有限公司 人工智能情绪改善互动程序和方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2013200230A1 (en) * 2005-03-01 2013-01-31 Advanced Neuromodulation Systems, Inc. Method of treating depression, mood disorders and anxiety disorders using neuromodulation
CN105931263A (zh) * 2016-03-31 2016-09-07 纳恩博(北京)科技有限公司 一种目标跟踪方法及电子设备
CN106361356A (zh) * 2016-08-24 2017-02-01 北京光年无限科技有限公司 情绪监控和预警方法及系统
AU2017101213A4 (en) * 2016-09-05 2017-10-05 Digihealth Innovations Pty. Ltd. Software Platform for Personalised Integrated In-Home Care Monitoring
CN106956271A (zh) * 2017-02-27 2017-07-18 华为技术有限公司 预测情感状态的方法和机器人
WO2019033573A1 (zh) * 2017-08-17 2019-02-21 平安科技(深圳)有限公司 面部情绪识别方法、装置及存储介质
CN109981972A (zh) * 2017-12-27 2019-07-05 深圳市优必选科技有限公司 一种机器人的目标跟踪方法、机器人及存储介质
CN108303673A (zh) * 2018-02-01 2018-07-20 杭州球帆科技有限公司 一种基于视频辅助定位的uwb三维定位系统
CN109008952A (zh) * 2018-05-08 2018-12-18 深圳智慧林网络科技有限公司 基于深度学习的监护方法及相关产品
CN109299267A (zh) * 2018-10-16 2019-02-01 山西大学 一种文本对话的情绪识别与预测方法
CN109272259A (zh) * 2018-11-08 2019-01-25 梁月竹 一种孤独症谱系障碍儿童情绪能力干预系统及方法
CN109766773A (zh) * 2018-12-18 2019-05-17 深圳壹账通智能科技有限公司 比赛监控方法、装置、计算机设备和存储介质
CN109830280A (zh) * 2018-12-18 2019-05-31 深圳壹账通智能科技有限公司 心理辅助分析方法、装置、计算机设备和存储介质
CN109801105A (zh) * 2019-01-17 2019-05-24 深圳壹账通智能科技有限公司 基于人工智能的服务评分方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110587621A (zh) 2019-12-20

Similar Documents

Publication Publication Date Title
CN110598611B (zh) 看护系统、基于看护系统的病人看护方法和可读存储介质
CN110587621B (zh) 机器人、基于机器人的病人看护方法和可读存储介质
JP6101684B2 (ja) 患者を支援する方法及びシステム
US10224060B2 (en) Interactive home-appliance system, server device, interactive home appliance, method for allowing home-appliance system to interact, and nonvolatile computer-readable data recording medium encoded with program for allowing computer to implement the method
US9724824B1 (en) Sensor use and analysis for dynamic update of interaction in a social robot
JP2008023127A (ja) 生体情報推定装置及びそれを搭載した電子機器
JP2006071936A (ja) 対話エージェント
CN110558997A (zh) 基于机器人的陪护方法、机器人和计算机可读存储介质
US20170344713A1 (en) Device, system and method for assessing information needs of a person
CN110598612B (zh) 基于移动终端的病人看护方法、移动终端和可读存储介质
JP2017100221A (ja) コミュニケーションロボット
JP2022095619A (ja) 療養支援システム
CN113096808A (zh) 事件提示方法、装置、计算机设备及存储介质
JP2015109040A (ja) 緊急通報装置および緊急通報システム
KR101927373B1 (ko) 거주자 모니터링 방법, 장치 및 시스템
JP2020126195A (ja) 音声対話装置、音声対話装置の制御装置及び制御プログラム
JP2006230548A (ja) 体調判定装置およびそのプログラム
JP2021033677A (ja) 情報処理装置及びプログラム
CN116440383A (zh) 一种便携式心理陪伴机器人系统与情绪支援方法
WO2022160938A1 (zh) 紧急求助功能的触发方法、装置、终端及存储介质
JP2021033676A (ja) 情報処理装置及びプログラム
JP2018147452A (ja) ドアシステム、およびドアシステムを用いた監視方法
Altmann et al. Analysis of nonverbal involvement in dyadic interactions
US20230105048A1 (en) Robot control method and information providing method
Bellodi et al. Dialogue support for memory impaired people

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant