CN108305640A - 智能机器人主动服务方法与装置 - Google Patents

智能机器人主动服务方法与装置 Download PDF

Info

Publication number
CN108305640A
CN108305640A CN201710024314.9A CN201710024314A CN108305640A CN 108305640 A CN108305640 A CN 108305640A CN 201710024314 A CN201710024314 A CN 201710024314A CN 108305640 A CN108305640 A CN 108305640A
Authority
CN
China
Prior art keywords
user
information
physical condition
emotional state
action message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710024314.9A
Other languages
English (en)
Inventor
涂其峰
郦会
行伟森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Great Intelligent Technology Co Ltd
Original Assignee
Shenzhen Great Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Great Intelligent Technology Co Ltd filed Critical Shenzhen Great Intelligent Technology Co Ltd
Priority to CN201710024314.9A priority Critical patent/CN108305640A/zh
Publication of CN108305640A publication Critical patent/CN108305640A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/66Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for extracting parameters related to health condition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks

Abstract

本发明涉及智能机器人技术领域,尤其涉及一种智能机器人主动服务方法与装置,通过采集用户的表情信息、动作信息、声音信息以及生理信息,并将其与数据库存储的信息进行对比,以获取用户的情绪状态或者身体状态;根据用户的情绪状态或者身体状态从语音数据库中输出与之对应的音频;获取用户针对所述音频回应的语音信息,根据所述语音信息判断所获取用户的情绪状态或者身体状态是否与用户的当前状态相符,是,则执行改善用户的情绪状态或者检查身体状态的指令;否,则输出预设的音频或视频。本发明通过机器人主动监测用户的情绪状态与身体状态,并向用户提供相应的服务,实现了智能机器人主动与用户进行交互,从而提高了用户的使用体验。

Description

智能机器人主动服务方法与装置
技术领域
本发明涉及智能机器人技术领域,尤其涉及一种智能机器人主动服务方法与装置。
背景技术
近年来,随着信息化、工业化不断融合,以物联网科技为代表的智能产业蓬勃兴起,成为现代科技创新的一个重要标志,作为物联网载体的智能终端(包括智能手机、平板、机器人等)已经进入家庭和服务行业。随着机器人技术的进步,机器人的种类越来越丰富,功能也越来越强大,机器人不仅在工业、医学、农业或者军事上应用广泛,更是在生活上开始慢慢地融入人类的社交。常见社交上的机器人应用于活动现场或者家庭,特别是在活动现场,机器人的交互往往能吸引群众的关注和兴趣。
目前,机器人与人们交互的方式,例如远程监控、与人陪伴聊天、提供视听娱乐等,均为被动响应用户命令,这种被动式交互方式容易使得人们对其失去主动逗乐的兴趣,使得用户体验不高。
发明内容
本发明的目的在于提供一种智能机器人主动服务方法与装置,旨在解决现有技术无法解决的智能机器人被动地与用户进行交互而使得用户体验低的问题。
本发明第一方面提供一种智能机器人主动服务方法,所述方法包括:
采集用户的表情信息、动作信息、声音信息以及生理信息,并将其与数据库存储的信息进行对比,以获取用户的情绪状态或者身体状态;根据用户的情绪状态或者身体状态从语音数据库中输出与之对应的音频;获取用户针对所述音频回应的语音信息,根据所述语音信息判断所获取用户的情绪状态或者身体状态是否与用户的当前状态相符,是,则执行改善用户的情绪状态或者检查身体状态的指令;否,则输出预设的音频或视频。
本发明第二方面提供一种智能机器人主动服务装置,所述智能机器人主动服务装置包括:
获取模块,用于采集用户的表情信息、动作信息、声音信息以及生理信息,并将其与数据库存储的信息进行对比,以获取用户的情绪状态或者身体状态;处理模块,用于根据用户的情绪状态或者身体状态从语音数据库中输出与之对应的音频;控制输出模块,用于获取用户针对所述音频回应的语音信息,根据所述语音信息判断所获取用户的情绪状态或者身体状态是否与用户的当前状态相符,是,则执行改善用户的情绪状态或者检查身体状态的指令;否,则输出预设的音频或视频。
本发明提供一种智能机器人主动服务方法与装置,通过采集用户的表情信息、动作信息、声音信息以及生理信息,并将其与数据库存储的信息进行对比,以获取用户的情绪状态或者身体状态;根据用户的情绪状态或者身体状态从语音数据库中输出与之对应的音频;获取用户针对所述音频回应的语音信息,根据所述语音信息判断所获取用户的情绪状态或者身体状态是否与用户的当前状态相符,是,则执行改善用户的情绪状态或者检查身体状态的指令;否,则输出预设的音频或视频。本发明通过机器人主动监测用户的情绪状态与身体状态,并向用户提供相应的服务,实现了智能机器人主动与用户进行交互,从而提高了用户的使用体验。
附图说明
图1是本发明实施例提供的一种智能机器人主动服务方法的流程图;
图2是本发明实施例提供的一种智能机器人主动服务装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则“该”意在包括复数形式。
图1示出了本发明实施例提供的一种智能机器人主动服务方法的实现流程,本实施例中的智能机器人主动服务方法的执行主体为智能机器人主动服务的装置。为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
在步骤S101中,采集用户的表情信息、动作信息、声音信息以及生理信息,并将其与数据库存储的信息进行对比,以获取用户的情绪状态或者身体状态。
具体地,通过采集用户的表情信息、动作信息及声音信息,并将采集到的用户的表情信息、动作信息及声音信息分别与数据库中存储的表情信息、动作信息及声音信息的样本信息进行对比,从而获取用户的情绪状态;通过采集用户的动作信息、声音信息及生理信息,并将采集到的用户的动作信息、声音信息及生理信息分别与数据库中存储的动作信息、声音信息及生理信息的样本信息进行对比,从而获取用户的身体状态。
进一步地,判断是否采集到用户表情,是,则采集用户面部表情信息;否,则判断是否采集到用户动作,是,则采集用户肢体动作信息;否,则判断是否采集到用户的声音,是,则采集用户的声音信息。其中,此过程为采集用户的表情信息、动作信息及声音信息的具体步骤,用以获取用户的情绪状态。具体为:
当用户主动面对机器人时,通过摄像头采集用户面部表情信息,如悲伤、高兴、痛苦等;若未采集到用户面部表情信息,则进行用户动作信息采集。
当用户的身体在摄像头采集范围内,但采集不到用户面部表情信息时,则采集当前用户肢体动作信息,如走、坐、蹲等;若未采集到当前用户肢体动作信息,则进行用户声音信息采集。
当能够采集到用户的声音信息时,则采集用户的声音信息,如“哎呦”、“好疼”、“唉”、“哈哈”等;若未采集到用户的声音信息,则停止获取用户的情绪状态。
进一步地,判断是否采集到用户生理数据,是,则采集用户生理信息;否,则判断是否采集到用户动作,是,则采集用户肢体动作信息;否,则判断是否采集到用户的声音,是,则采集用户的声音信息。其中,此过程为采集用户的动作信息、声音信息及生理信息的具体步骤,用以获取用户的身体状态。具体为:
当用户主动面对机器人时,通过红外感应装置采集用户的体温数据;若未采集到用户的体温数据,或用户的体温数据在正常数据范围内,则进行用户动作信息采集。
当用户的身体在摄像头采集范围内,则采集当前用户肢体动作信息,如走、坐、蹲等;若未采集到当前用户肢体动作信息,则进行用户声音信息采集。
当能够采集到用户的声音信息时,则采集用户的声音信息,如“咳咳”、“阿嚏”等等;若未采集到用户的声音信息,则停止获取用户的身体状态。
进一步地,将所述采集到的用户的表情信息、动作信息及声音信息与所述数据库存储的表情信息、动作信息及声音信息进行比对,获取用户的情绪状态。
进一步地,将所述采集到的用户的动作信息、声音信息及生理信息与所述数据库存储的动作信息、声音信息及生理信息进行比对,获取用户的身体状态。
在步骤S102中,根据用户的情绪状态或者身体状态从语音数据库中输出与之对应的音频。
根据用户的情绪状态从语音数据库中输出与之对应的音频具体来说是,若获取用户当前情绪状态为悲伤时,则从语音数据库中输出与悲伤情绪状态对应的问候信息,如“主人,你怎么了?为什么伤心?”等;若获取用户当前情绪状态为生气时,则从语音数据库中输出与生气情绪状态对应的问候信息,如“主人,你怎么了?”,“消消气吧”等;若获取用户当前情绪状态为开心时,则从语音数据库中输出与开心情绪状态对应的问候信息,如“主人,你怎么了?”,“什么事情这么开心?”等,具体可根据用户的喜好或需求进行设置。
根据用户的身体状态从语音数据库中输出与之对应的音频具体来说是,若是通过生理信息获取用户当前身体状态异常时,则从语音数据库中输出与身体状态异常对应的问候信息,如“主人,请使用水银温度计或其他接触式体温检测方式重新检测体温”,“主人,请注意身体”等语音提示;若是通过动作信息获取用户当前身体状态异常时,则从语音数据库中输出与身体状态异常对应的问候信息,如“主人,你怎么了?”,“哪里不舒服?”等;若是通过声音信息获取用户当前身体状态异常时,则从语音数据库中输出与身体状态异常对应的问候信息,如“主人,你怎么了?”,“哪里不舒服?”等,具体可根据用户的喜好或需求进行设置。
在步骤S103中,获取用户针对所述音频回应的语音信息,根据所述语音信息判断所获取用户的情绪状态或者身体状态是否与用户的当前状态相符;若相符,则执行步骤S104,执行改善用户的情绪状态或者检查身体状态的指令;若不相符,则输出预设的音频或视频。
进一步地,步骤S104中执行改善用户的检查身体状态指令具体为:输出语音提示用户是否需要检测身体,当检测到用户响应为是时,则通过检测设备引导用户完成身体检测,并反馈检测结果及建议;当检测到用户响应为否时,则输出预设语音提示用户注意身体状态。
其中,根据用户的情绪状态从语音数据库中输出与之对应的音频给用户后,获取用户针对所述音频给予的回应语音信息,根据所述语音信息判断锁获取用户的情绪状态是否与用户的当前状态相符,是,则执行改善用户的情绪状态的指令;否,则输出预设的音频或视频。具体为:
当根据用户的情绪状态为悲伤状态时,从语音数据库中输出与之对应的音频,当获取用户的回音语音信息如“是啊”,“你怎么知道”,“我不开心”等语音信息时,则确定用户的情绪状态为悲伤,与用户当前的状态相符,则根据设定进一步与用户进行语音交互;当获取用户的回音语音信息并非悲伤的情绪状态时,则确定用户的情绪状态与用户当前的状态不相符,则输出预设的音频,如“sorry我判断错啦”之类的语音,或者,输出预设的视频,如播放一段搞笑视频等。
其中,根据用户的身体状态从语音数据库中输出与之对应的音频给用户后,获取用户针对所述音频给予的回应语音信息,根据所述语音信息判断锁获取用户的身体状态是否与用户的当前状态相符,是,则执行检查用户的身体状态的指令;否,则输出预设的音频或视频。具体为:
当根据通过动作信息获取用户当前身体状态异常时,则从语音数据库中输出与身体状态异常对应的问候信息,从语音数据库中输出与之对应的音频,当获取用户的回音语音信息,如“是啊”,“你怎么知道”,“我不舒服”等语音信息时,则确定用户的身体状态与用户的当前状态相符,则询问用户是否需要检测身体,若检测到用户反馈需要检测身体,则执行检查用户的身体状态的指令,如通过机器人自带的白细胞检测设备引导用户完成身体检测,并反馈检测结果及建议。若检测到用户反馈不需要检测身体,则输出预设语音,提示用户注意身体;当获取用户的回音语音信息并非身体状态异常时,则确定用户的身体状态与用户的当前状态不相符,则输出预设的音频,如“sorry我判断错啦”之类的语音,或者,输出预设的视频,如播放一段搞笑视频。
优选地,根据预设时间从语音数据库中输出与之对应的音频。具体为:
按照预设的时间,如早上7点,输出预设音频至用户,唤醒用户;按照预设的时间,输出询问用户的心情状况的音频,如“最近心情好么?”等;按照预设的时间,输出询问用户的身体状况的音频,如“最近睡眠如何?”,“近期胃口如何?”等。
可选地,所述采集用户的表情信息,并将其与数据库存储的信息进行对比,以获取用户的身体状态还包括:判断是否采集到用户表情信息,是,则采集用户表情信息;否,则采集用户的生理信息、动作信息以及声音信息。
可选地,所述采集用户的表情信息,并将其与数据库存储的信息进行对比,以获取用户的身体状态还包括:将所述采集到的用户的表情信息与所述数据库存储的表情信息进行比对,获取用户的身体状态。
本发明实施例通过采集用户的表情信息、动作信息、声音信息以及生理信息,并将其与数据库存储的信息进行对比,以获取用户的情绪状态或者身体状态;根据用户的情绪状态或者身体状态从语音数据库中输出与之对应的音频;获取用户针对所述音频回应的语音信息,根据所述语音信息判断所获取用户的情绪状态或者身体状态是否与用户的当前状态相符,是,则执行改善用户的情绪状态或者检查身体状态的指令;否,则输出预设的音频或视频。本发明实施例通过主动监测用户的情绪状态与身体状态,并向用户提供相应的服务,实现了智能机器人主动与用户进行交互,从而提高了用户的使用体验。
图2示出了本发明实施例提供的一种智能机器人主动服务装置的结构图。为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
本发明实施例提供一种智能机器人主动服务装置,该装置包括获取模块201、处理模块202及控制输出模块203。
获取模块201,用于采集用户的表情信息、动作信息、声音信息以及生理信息,并将其与数据库存储的信息进行对比,以获取用户的情绪状态或者身体状态。
具体地,通过采集用户的表情信息、动作信息及声音信息,并将采集到的用户的表情信息、动作信息及声音信息分别与数据库中存储的表情信息、动作信息及声音信息的样本信息进行对比,从而获取用户的情绪状态;通过采集用户的动作信息、声音信息及生理信息,并将采集到的用户的动作信息、声音信息及生理信息分别与数据库中存储的动作信息、声音信息及生理信息的样本信息进行对比,从而获取用户的身体状态。
进一步地,获取模块201包括判断单元211、采集单元212及比较单元213。
进一步地,所述判断单元211用于判断是否采集到用户表情,是,则驱动所述采集单元212采集用户面部表情信息;否,则判断是否采集到用户动作,是,则驱动所述采集单元212采集用户肢体动作信息;否,则判断是否采集到用户的声音,是,则驱动所述采集单元212采集用户的声音信息;
其中,上述过程为采集用户的表情信息、动作信息及声音信息的具体步骤,用以获取用户的情绪状态。具体为:
当用户主动面对机器人时,通过摄像头采集用户面部表情信息,如悲伤、高兴、痛苦等;若未采集到用户面部表情信息,则进行用户动作信息采集。
当用户的身体在摄像头采集范围内,但采集不到用户面部表情信息时,则采集当前用户肢体动作信息,如走、坐、蹲等;若未采集到当前用户肢体动作信息,则进行用户声音信息采集。
当能够采集到用户的声音信息时,则采集用户的声音信息,如“哎呦”、“好疼”、“唉”、“哈哈”等;若未采集到用户的声音信息,则停止获取用户的情绪状态。
进一步地,所述判断单元211还用于判断是否采集到用户生理数据,是,则驱动所述采集单元212采集用户生理信息;否,则判断是否采集到用户动作,是,则驱动所述采集单元212采集用户肢体动作信息;否,则判断是否采集到用户的声音,是,则驱动所述采集单元212采集用户的声音信息。
其中,上述过程为采集用户的动作信息、声音信息及生理信息,用以获取用户的身体状态。具体为:
当用户主动面对机器人时,通过红外感应装置采集用户的体温数据;若未采集到用户的体温数据,或用户的体温数据在正常数据范围内,则进行用户动作信息采集。
当用户的身体在摄像头采集范围内,则采集当前用户肢体动作信息,如走、坐、蹲等;若未采集到当前用户肢体动作信息,则进行用户声音信息采集。
当能够采集到用户的声音信息时,则采集用户的声音信息,如“咳咳”、“阿嚏”等等;若未采集到用户的声音信息,则停止获取用户的身体状态。
进一步地,比较单元213用于将采集到的用户的表情信息、动作信息及声音信息与所述数据库存储的表情信息、动作信息及声音信息进行比对,获取用户的情绪状态。
进一步地,比较单元213还用于将采集到的用户的动作信息、声音信息及生理信息与所述数据库存储的动作信息、声音信息及生理信息进行比对,获取用户的身体状态。
进一步地,处理模块202,用于根据用户的情绪状态或者身体状态从语音数据库中输出与之对应的音频。
处理模块202根据用户的情绪状态从语音数据库中输出与之对应的音频具体来说是,若获取用户当前情绪状态为悲伤时,则从语音数据库中输出与悲伤情绪状态对应的问候信息,如“主人,你怎么了?为什么伤心?”等;若获取用户当前情绪状态为生气时,则从语音数据库中输出与生气情绪状态对应的问候信息,如“主人,你怎么了?”,“消消气吧”等;若获取用户当前情绪状态为开心时,则从语音数据库中输出与开心情绪状态对应的问候信息,如“主人,你怎么了?”,“什么事情这么开心?”等,具体可根据用户的喜好或需求进行设置。
处理模块202根据用户的身体状态从语音数据库中输出与之对应的音频具体来说是,若是通过生理信息获取用户当前身体状态异常时,则从语音数据库中输出与身体状态异常对应的问候信息,如“主人,请使用水银温度计或其他接触式体温检测方式重新检测体温”,“主人,请注意身体”等语音提示;若是通过动作信息获取用户当前身体状态异常时,则从语音数据库中输出与身体状态异常对应的问候信息,如“主人,你怎么了?”,“哪里不舒服?”等;若是通过声音信息获取用户当前身体状态异常时,则从语音数据库中输出与身体状态异常对应的问候信息,如“主人,你怎么了?”,“哪里不舒服?”等,具体可根据用户的喜好或需求进行设置。
进一步地,控制输出模块203,用于获取用户针对所述音频回应的语音信息,根据所述语音信息判断所获取用户的情绪状态或者身体状态是否与用户的当前状态相符,是,则执行改善用户的情绪状态或者检查身体状态的指令;否,则输出预设的音频或视频。
进一步地,执行改善用户的检查身体状态指令具体为:输出语音提示用户是否需要检测身体,当检测到用户响应为是时,则通过检测设备引导用户完成身体检测,并反馈检测结果及建议;当检测到用户响应为否时,则输出预设语音提示用户注意身体状态。
其中,根据用户的情绪状态从语音数据库中输出与之对应的音频给用户后,获取用户针对所述音频给予的回应语音信息,根据所述语音信息判断锁获取用户的情绪状态是否与用户的当前状态相符,是,则执行改善用户的情绪状态的指令;否,则输出预设的音频或视频。具体为:
控制输出模块203根据用户的情绪状态为悲伤状态时,从语音数据库中输出与之对应的音频,当获取用户的回音语音信息如“是啊”,“你怎么知道”,“我不开心”等语音信息时,则判断用户的情绪状态为悲伤,与用户当前的状态相符,则根据设定进一步与用户进行语音交互;当获取用户的回音语音信息并非悲伤的情绪状态时,与用户当前的状态不一致,则输出预设的音频,如“sorry我判断错啦”之类的语音,或者,输出预设的视频,如播放一段搞笑视频等。
其中,控制输出模块203根据用户的身体状态从语音数据库中输出与之对应的音频给用户后,获取用户针对所述音频给予的回应语音信息,根据所述语音信息判断锁获取用户的身体状态是否与用户的当前状态相符,是,则执行检查用户的身体状态的指令;否,则输出预设的音频或视频。具体为:
控制输出模块203根据通过动作信息获取用户当前身体状态异常时,则从语音数据库中输出与身体状态异常对应的问候信息,从语音数据库中输出与之对应的音频,当获取用户的回音语音信息,如“是啊”,“你怎么知道”,“我不舒服”等语音信息时,则确定用户的身体状态与用户的当前状态相符,则询问用户是否需要检测身体,若检测到用户反馈需要检测身体,则执行检查用户的身体状态的指令,如通过机器人自带的白细胞检测设备引导用户完成身体检测,并反馈检测结果及建议。若检测到用户反馈不需要检测身体,则输出预设语音,提示用户注意身体;当获取用户的回音语音信息并非身体状态异常时,则确定用户的身体状态与用户的当前状态不相符,则输出预设的音频,如“sorry我判断错啦”之类的语音,或者,输出预设的视频,如播放一段搞笑视频。
优选地,提示模块根据预设时间从语音数据库中输出与之对应的音频。具体为:
提示模块按照预设的时间,如早上7点,输出预设音频至用户;提示模块按照预设的时间,控输出询问用户的心情状况的音频,如“最近心情好么?”等;提示模块按照预设的时间,输出询问用户的身体状况的音频,如“最近睡眠如何?”,“近期胃口如何?”等。
可选地,所述获取模块201包括判断单元211和采集单元212;所述判断单元211还用于判断是否采集到用户表情信息,是,则驱动所述采集单元212采集用户表情信息;否,则判断是否采集到用户的生理信息、动作信息以及声音信息,并驱动所述采集单元212采集用户的生理信息、动作信息以及声音信息。
可选地,所述获取模块201还包括比较单元213;所述比较单元213用于将采集到的用户表情信息与所述数据库存储的表情信息进行比对,获取用户的身体状态。
本发明实施例通过采集用户的表情信息、动作信息、声音信息以及生理信息,并将其与数据库存储的信息进行对比,以获取用户的情绪状态或者身体状态;根据用户的情绪状态或者身体状态从语音数据库中输出与之对应的音频;获取用户针对所述音频回应的语音信息,根据所述语音信息判断所获取用户的情绪状态或者身体状态是否与用户的当前状态相符,是,则执行改善用户的情绪状态或者检查身体状态的指令;否,则输出预设的音频或视频。本发明实施例通过机器人主动监测用户的情绪状态与身体状态,并向用户提供相应的服务,实现了智能机器人主动与用户进行交互,从而提高了用户的使用体验。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种智能机器人主动服务方法,其特征在于,所述方法包括:
采集用户的表情信息、动作信息、声音信息以及生理信息,并将其与数据库存储的信息进行对比,以获取用户的情绪状态或者身体状态;
根据用户的情绪状态或者身体状态从语音数据库中输出与之对应的音频;
获取用户针对所述音频回应的语音信息,根据所述语音信息判断所获取用户的情绪状态或者身体状态是否与用户的当前状态相符,是,则执行改善用户的情绪状态或者检查身体状态的指令;否,则输出预设的音频或视频。
2.如权利要求1所述的方法,其特征在于,所述采集用户的表情信息、动作信息、声音信息,并将其与数据库存储的信息进行对比,以获取用户的情绪状态包括:判断是否采集到用户表情,是,则采集用户面部表情信息;否,则判断是否采集到用户动作,是,则采集用户肢体动作信息;否,则判断是否采集到用户的声音,是,则采集用户的声音信息;
所述采集用户的动作信息、声音信息以及生理信息,并将其与数据库存储的信息进行对比,以获取用户的身体状态包括:判断是否采集到用户生理数据,是,则采集用户生理信息;否,则判断是否采集到用户动作,是,则采集用户肢体动作信息;否,则判断是否采集到用户的声音,是,则采集用户的声音信息。
3.如权利要求1所述的方法,其特征在于,所述采集用户的表情信息、动作信息、声音信息,并将其与数据库存储的信息进行对比,以获取用户的情绪状态还包括:将所述采集到的用户的表情信息、动作信息及声音信息与所述数据库存储的表情信息、动作信息及声音信息进行比对,获取用户的情绪状态;
所述采集用户的动作信息、声音信息以及生理信息,并将其与数据库存储的信息进行对比,以获取用户的情绪状态或者身体状态还包括:将所述采集到的用户的动作信息、声音信息以及生理信息与所述数据库存储的动作信息、声音信息以及生理信息进行比对,获取用户的身体状态。
4.如权利要求1所述的方法,其特征在于,所述执行改善用户的身体状态的指令包括:
输出语音提示用户是否需要检测身体,当检测到用户响应为是时,则通过检测设备引导用户完成身体检测,并反馈检测结果及建议;当检测到用户响应为否时,则输出预设语音提示用户注意身体状态。
5.如权利要求1所述的方法,其特征在于,所述方法还包括:
根据预设时间从语音数据库中输出与之对应的音频。
6.一种智能机器人主动服务装置,其特征在于,所述智能机器人主动服务装置包括:
获取模块,用于采集用户的表情信息、动作信息、声音信息以及生理信息,并将其与数据库存储的信息进行对比,以获取用户的情绪状态或者身体状态;
处理模块,用于根据用户的情绪状态或者身体状态从语音数据库中输出与之对应的音频;
控制输出模块,用于获取用户针对所述音频回应的语音信息,根据所述语音信息判断所获取用户的情绪状态或者身体状态是否与用户的当前状态相符,是,则执行改善用户的情绪状态或者检查身体状态的指令;否,则输出预设的音频或视频。
7.如权利要求6所述的装置,其特征在于,所述获取模块包括判断单元和采集单元;
所述判断单元用于判断是否采集到用户表情,是,则驱动所述采集单元采集用户面部表情信息;否,则判断是否采集到用户动作,是,则驱动所述采集单元采集用户肢体动作信息;否,则判断是否采集到用户的声音,是,则驱动所述采集单元采集用户的声音信息;
所述判断单元还用于判断是否采集到用户生理数据,是,则驱动所述采集单元采集用户生理信息;否,则判断是否采集到用户动作,是,则驱动所述采集单元采集用户肢体动作信息;否,则判断是否采集到用户的声音,是,则驱动所述采集单元采集用户的声音信息。
8.如权利要求6所述的装置,其特征在于,所述获取模块还包括比较单元;
所述比较单元用于将采集到的用户的表情信息、动作信息及声音信息与所述数据库存储的表情信息、动作信息及声音信息进行比对,获取用户的情绪状态;
所述比较单元还用于将采集到的用户的动作信息、声音信息及生理信息与所述数据库存储的动作信息、声音信息及生理信息进行比对,获取用户的身体状态。
9.如权利要求6所述的装置,其特征在于,所述控制输出模块还用于:
输出语音提示用户是否需要检测身体,当检测到用户响应为是时,则通过检测设备引导用户完成身体检测,并反馈检测结果及建议;当检测到用户响应为否时,则输出预设语音提示用户注意身体状态。
10.如权利要求6所述的装置,其特征在于,所述智能机器人主动服务装置还包括提示模块,用于根据预设时间从语音数据库中输出与之对应的音频。
CN201710024314.9A 2017-01-13 2017-01-13 智能机器人主动服务方法与装置 Pending CN108305640A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710024314.9A CN108305640A (zh) 2017-01-13 2017-01-13 智能机器人主动服务方法与装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710024314.9A CN108305640A (zh) 2017-01-13 2017-01-13 智能机器人主动服务方法与装置

Publications (1)

Publication Number Publication Date
CN108305640A true CN108305640A (zh) 2018-07-20

Family

ID=62872401

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710024314.9A Pending CN108305640A (zh) 2017-01-13 2017-01-13 智能机器人主动服务方法与装置

Country Status (1)

Country Link
CN (1) CN108305640A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109376225A (zh) * 2018-11-07 2019-02-22 广州市平道信息科技有限公司 聊天机器人装置及系统
CN109616109A (zh) * 2018-12-04 2019-04-12 北京蓦然认知科技有限公司 一种语音唤醒方法、装置及系统
CN109669535A (zh) * 2018-11-22 2019-04-23 歌尔股份有限公司 音响控制方法及系统
CN111149172A (zh) * 2019-12-30 2020-05-12 深圳市易优斯科技有限公司 情绪管理方法、设备及计算机可读存储介质
CN111198505A (zh) * 2018-11-20 2020-05-26 青岛海尔洗衣机有限公司 家用电器输出视听信息的控制方法
CN111198506A (zh) * 2018-11-20 2020-05-26 青岛海尔洗衣机有限公司 家用电器输出视听信息的控制方法
CN111531552A (zh) * 2020-03-13 2020-08-14 华南理工大学 一种心理陪伴机器人及情绪支援方法
WO2021103609A1 (zh) * 2019-11-28 2021-06-03 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、电子设备以及存储介质
CN114454164A (zh) * 2022-01-14 2022-05-10 纳恩博(北京)科技有限公司 机器人的控制方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005237668A (ja) * 2004-02-26 2005-09-08 Kazuya Mera コンピュータネットワークにおける感情を考慮した対話装置
CN1701287A (zh) * 2002-09-20 2005-11-23 松下电器产业株式会社 对话型装置
CN105260588A (zh) * 2015-10-23 2016-01-20 福建优安米信息科技有限公司 一种健康守护机器人系统及其数据处理方法
CN105726045A (zh) * 2016-01-28 2016-07-06 惠州Tcl移动通信有限公司 一种情绪监控方法及其移动终端
CN106062869A (zh) * 2014-03-25 2016-10-26 夏普株式会社 交互型家电系统、服务器装置、交互型家电设备、用于家电系统进行交互的方法、对用于使计算机实现该方法的程序进行保存的非易失性的计算机可读取数据记录介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1701287A (zh) * 2002-09-20 2005-11-23 松下电器产业株式会社 对话型装置
JP2005237668A (ja) * 2004-02-26 2005-09-08 Kazuya Mera コンピュータネットワークにおける感情を考慮した対話装置
CN106062869A (zh) * 2014-03-25 2016-10-26 夏普株式会社 交互型家电系统、服务器装置、交互型家电设备、用于家电系统进行交互的方法、对用于使计算机实现该方法的程序进行保存的非易失性的计算机可读取数据记录介质
CN105260588A (zh) * 2015-10-23 2016-01-20 福建优安米信息科技有限公司 一种健康守护机器人系统及其数据处理方法
CN105726045A (zh) * 2016-01-28 2016-07-06 惠州Tcl移动通信有限公司 一种情绪监控方法及其移动终端

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109376225A (zh) * 2018-11-07 2019-02-22 广州市平道信息科技有限公司 聊天机器人装置及系统
CN111198505A (zh) * 2018-11-20 2020-05-26 青岛海尔洗衣机有限公司 家用电器输出视听信息的控制方法
CN111198506A (zh) * 2018-11-20 2020-05-26 青岛海尔洗衣机有限公司 家用电器输出视听信息的控制方法
CN109669535A (zh) * 2018-11-22 2019-04-23 歌尔股份有限公司 音响控制方法及系统
CN109616109A (zh) * 2018-12-04 2019-04-12 北京蓦然认知科技有限公司 一种语音唤醒方法、装置及系统
WO2021103609A1 (zh) * 2019-11-28 2021-06-03 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、电子设备以及存储介质
US11769499B2 (en) 2019-11-28 2023-09-26 Beijing Sensetime Technology Development Co., Ltd. Driving interaction object
CN111149172A (zh) * 2019-12-30 2020-05-12 深圳市易优斯科技有限公司 情绪管理方法、设备及计算机可读存储介质
WO2021134250A1 (zh) * 2019-12-30 2021-07-08 深圳市易优斯科技有限公司 情绪管理方法、设备及计算机可读存储介质
CN111531552A (zh) * 2020-03-13 2020-08-14 华南理工大学 一种心理陪伴机器人及情绪支援方法
CN114454164A (zh) * 2022-01-14 2022-05-10 纳恩博(北京)科技有限公司 机器人的控制方法和装置
CN114454164B (zh) * 2022-01-14 2024-01-09 纳恩博(北京)科技有限公司 机器人的控制方法和装置

Similar Documents

Publication Publication Date Title
CN108305640A (zh) 智能机器人主动服务方法与装置
US9086884B1 (en) Utilizing analysis of content to reduce power consumption of a sensor that measures affective response to the content
CN105868827B (zh) 一种智能机器人多模态交互方法和智能机器人
US20160117937A1 (en) System and method for providing biometric and context based messaging
US8380658B2 (en) Determination of extent of congruity between observation of authoring user and observation of receiving user
KR20170001490A (ko) 전자 장치 및 생체 센서를 이용한 전자 장치의 기능 제어 방법
CN107392124A (zh) 情绪识别方法、装置、终端及存储介质
TW200844797A (en) Interface to convert mental states and facial expressions to application input
US9161715B2 (en) Determination of extent of congruity between observation of authoring user and observation of receiving user
Dávila-Montero et al. Review and challenges of technologies for real-time human behavior monitoring
Kang et al. Sinabro: Opportunistic and unobtrusive mobile electrocardiogram monitoring system
CN206946938U (zh) 智能机器人主动服务系统
Yosi et al. Emotion recognition using electroencephalogram signal
CN113053492B (zh) 基于用户背景和情绪的自适应虚拟现实干预系统及方法
CN106537293A (zh) 一种机器人交互内容的生成方法、系统及机器人
CN108388399B (zh) 虚拟偶像的状态管理方法及系统
Yang et al. Survey on emotion sensing using mobile devices
EP3270263A1 (en) Information processing apparatus for presenting content, method for controlling the same, and control program
WO2018000260A1 (zh) 一种机器人交互内容的生成方法、系统及机器人
Majumder et al. A smart cyber-human system to support mental well-being through social engagement
CN109821234A (zh) 游戏控制方法、移动终端及计算机可读存储介质
CN108334200A (zh) 电子设备控制方法及相关产品
Nalepa et al. AfCAI systems: A ective Computing with Context Awareness for Ambient Intelligence. Research proposal.
CN112433602A (zh) 信息处理装置、存储介质及信息处理方法
Elbani Social touch: stimuli-imitation protocol and automated recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination