CN107398912B - 家庭机器人用户行为统计系统 - Google Patents
家庭机器人用户行为统计系统 Download PDFInfo
- Publication number
- CN107398912B CN107398912B CN201710509336.4A CN201710509336A CN107398912B CN 107398912 B CN107398912 B CN 107398912B CN 201710509336 A CN201710509336 A CN 201710509336A CN 107398912 B CN107398912 B CN 107398912B
- Authority
- CN
- China
- Prior art keywords
- behavior
- module
- user behavior
- user
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
- B25J11/009—Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Nursing (AREA)
- Manipulator (AREA)
Abstract
本发明申请公开了一种家庭机器人用户行为统计系统,包括设于服务器的数据库和设于机器人上的用户行为统计装置,其中所述用户行为统计装置包括:行为采集模块、行为判断模块、行为决策模块、行为排序模块和输出模块,所述数据库用于接收用户行为统计装置反馈的用户行为包和统计数据,后台工作人员通过数据库获取用户行为包和统计数据,根据用户行为包和统计数据对系统进行升级,并将升级后的代码通过数据库反馈给对机器人,进行系统功能更新。本方案中可增加系统功能,使其适应不同用户的特点和需求,使机器人更加智能化、人性化。
Description
技术领域
本发明涉及机器人通信技术领域,尤其涉及一种家庭机器人用户行为统计系统。
背景技术
机器人发展日新月异,这种自动执行工作的机器装置既可以接收人类指挥,又可以运行预先编排的程序,也可以根据人工智能技术指定的原则运动,从而协助或取代人类的一些工作。它与人们生活息息相关,给人们的生活带来很大的帮助,已经成为未来生活不可分割的一部分。
对于平时身边无人陪伴的老人和儿童,以何种手段对其进行陪护,避免其身体及心理疾病的发生,成为当前迫切需要解决的问题。
为了解决上述问题,近年来人们提出利用机器人来代替人对老年人和儿童进行陪伴,目前市面上已有一些能够与人进行互动的机器人产品。然而,这些机器人的动作、语言及其他辅助功能在出厂时都是提前编制的,功能单一且不能更新,而且不能针对不同用户的特点和需求进行不同类型的交互,智能性不足,因此无法满足不同老年人及儿童陪护的功能要求,不能更好的融入人们的生活。
发明内容
本发明意在提供一种家庭机器人用户行为统计系统,以解决现有家庭陪护机器人智能化不足的问题。
本发明提供基础方案是:家庭机器人用户行为统计系统,包括设于服务器的数据库和设于机器人上的用户行为统计装置,其中:
所述用户行为统计装置包括:
行为采集模块,行为采集模块用于采集用户行为;
行为判断模块,行为判断模块用于接收行为采集模块采集的用户行为,提取及识别特征信号,并将提取的特征信号与存储器中存储的通过用户行为样本训练获得的最佳特征进行对比:
当对比结果大于等于预设阈值时,则识别成功,输出识别结果信号;
当对比结果小于预设阈值时,则识别失败,打包识别失败时所获得的用户行为,形成用户行为包,输出识别结果信号和用户行为包;
行为决策模块,行为决策模块用于根据行为判断模块识别出的用户行为输出决策控制信号;
当行为决策模块接收到识别结果信号为识别成功信号时,根据行为判断模块识别出的用户行为输出决策控制信号;
当行为决策模块接收到识别结果信号为识别失败信号时,输出决策控制信号,并通过输出模块执行决策控制信号;
行为排序模块,行为排序模块用于接收输出识别结果信号,行为排序模块用于分类统计识别失败的用户行为出现次数,并将用户行为包和统计数据反馈给数据库;行为排序模块还用于分类统计可识别的用户行为出现次数,并将出现次数较多的用户行为和其所对应的决策控制信号设为常用模式,并将分别存储至行为识别模块和行为决策模块中;
输出模块,输出模块用于执行决策控制信号;
所述数据库用于接收用户行为统计装置反馈的用户行为包和统计数据,后台工作人员通过数据库获取用户行为包和统计数据,根据用户行为包和统计数据对系统进行升级,并将升级后的代码通过数据库反馈给对机器人,进行系统功能更新。
基础方案的工作原理:行为采集模块用于采集用户行为信息,并将用户行为信息发送给行为判断模块,行为判断模块接收到用户行为信息,提取用户行为信息的特征信号,并将特征信号与存储器中存储的通过用户行为样本训练获得的最佳特征进行对比:
当对比结果大于等于预设阈值时,则识别成功,输出识别结果;
行为决策模块接收到识别结果信号为识别成功信号时,根据行为判断模块识别出的用户行为输出决策控制信号,并通过输出模块执行决策控制信号;行为排序模块接收到识别结果信号后,统计识别到的用户行为出现次数,将出现次数较多的用户行为和其所对应的决策控制信号设为常用模式,并将分别存储至行为识别模块和行为决策模块中。
当对比结果小于预设阈值时,则识别失败,打包识别失败时所获得的用户行为,形成用户行为包,输出识别结果信号和用户行为包;
行为决策模块接收到识别结果信号为识别失败信号时,输出决策控制信号,并通过输出模块执行决策控制信号;行为排序模块用于接收识别结果信号和用户行为包,并分类统计识别失败的用户行为出现次数,将用户行为包和统计数据反馈给数据库,数据库接收用户行为统计装置反馈的用户行为包和统计数据,后台工作人员通过数据库获取用户行为包和统计数据,根据用户行为包和统计数据对系统进行升级,并将升级后的代码通过数据库反馈给所有机器人,进行系统功能更新。
基础方案的有益效果是:
1、本方案中行为排序模块对未识别的用户行为进行分类统计并反馈给服务器中的数据库,后端工作人员通过反馈对机器人系统进行升级,增加系统功能,使其适应不同用户的特点和需求,使机器人更加智能化、人性化;
2、本方案中行为排序模块对识别成功的用户行为进行分类统计,将出现次数较多的用户行为和其所对应的决策控制信号设为常用模式,减少了系统运算时间,方便快捷的输出决策控制。
进一步,所述行为采集模块包括:
图像采集模块,图像采集模块用于采集用户人脸图像信号;
语音采集模块,语音采集模块用于采集用户语音信号;
动作捕捉模块,行为采集模块用于采集用户的行为特征信号。
有益效果:通过人脸采集、语音采集模块和动作捕捉模块相结合,可快速准确的识别出用户的行为特征,如表情、意图等,提高了识别的准确性,从而可对识别的用户行为进行排序分类。
进一步,输出模块还包括语音输出模块,语音输出模块用于与用户进行语音交互。有益效果:语音输出模块可实现系统与用户的语音交互,通过语音输出模块可在识别失败时对用户进行语音提示或与用户进行再次确认。
进一步,行为排序模块对常用模式进行命名,形成常用模式名称。有益效果:行为排序模块对常用模式进行命名,可以是阿拉伯数字也可以时名称,便于存储,当识别到常用模式所对应的阿拉伯数字或名称时,直接调用常用模式,无需经过行为判断模块进行用户行为识别,减少了系统运算时间,加快了执行效率。
进一步,常用模式可通过语音采集模块调取。有益效果:当行为判断模块检测到语音信号中常用模式所对应的阿拉伯数字或名称时,直接调用常用模式,无需经过行为判断模块进行用户行为识别,减少了系统运算时间,加快了执行效率,也方便用户使用。
进一步,语音输出模块在行为判断模块接收到行为排序模块发送的常用模式时,可对用户进行语音提醒。有益效果:当设置了常用模式时对用户进行语音提醒说明,方便用户操作使用。
附图说明
图1为本发明家庭机器人用户行为统计系统实施例的原理框图。
具体实施方式
下面通过具体实施方式对本发明作进一步详细的说明:
说明书附图中的附图标记包括:数据库1、用户行为统计装置2、行为采集模块20、图像采集模块200、语音采集模块201、动作捕捉模块202、行为判断模块21、行为决策模块22、行为排序模块23、输出模块24、语音输出模块241。
家庭机器人用户行为统计系统实施例基本如图1所示:包括设于服务器的数据库1和设于机器人上的用户行为统计装置2,其中:
所述用户行为统计装置2包括:
行为采集模块20,行为采集模块20用于采集用户行为,其中行为采集模块20包括图像采集模块200、语音采集模块201和动作捕捉模块202,图像采集模块200用于采集用户人脸图像信号、语音采集模块201用于采集用户语音信号、行为采集模块20用于采集用户的行为特征信号,通过人脸采集、语音采集模块201和动作捕捉模块202相结合,可快速准确的识别出用户的行为特征,如表情、意图等,提高了识别的准确性,从而可对识别的用户行为进行排序分类。
其中图像采集模块200采用摄像头采集用户人脸图像,语音采集模块201使用体积小、精度高且体重轻的TZ-ZKA噪声传感器对声音进行采集,动作捕捉模块202采用加速度传感器和陀螺仪对人体的动作进行采集,其中加速度传感器用于检测人体移动的加速度,陀螺仪用于检测人体倾斜的角度;
行为判断模块21,行为判断模块21用于接收行为采集模块20采集的用户行为,提取及识别特征信号,并将提取的特征信号与存储器中存储的通过用户行为样本训练获得的最佳特征进行对比:
当对比结果大于等于预设阈值时,则识别成功,输出识别结果信号;
当对比结果小于预设阈值时,则识别失败,打包识别失败时所获得的用户行为,形成用户行为包,输出识别结果信号和用户行为包;
行为决策模块22,行为决策模块22用于根据行为判断模块21识别出的用户行为输出决策控制信号;
当行为决策模块22接收到识别结果信号为识别成功信号时,根据行为判断模块21识别出的用户行为输出决策控制信号;
当行为决策模块22接收到识别结果信号为识别失败信号时,输出决策控制信号,并通过输出模块24执行决策控制信号;
行为排序模块23,行为排序模块23用于接收输出识别结果信号,行为排序模块23用于分类统计识别失败的用户行为出现次数,并将用户行为包和统计数据反馈给数据库1;行为排序模块23还用于分类统计可识别的用户行为出现次数,并将出现次数较多的用户行为和其所对应的决策控制信号设为常用模式,并将分别存储至行为识别模块和行为决策模块22中。
行为排序模块23对常用模式进行命名,形成常用模式名称。行为排序模块23对常用模式进行命名,可以是阿拉伯数字也可以时名称,便于存储,当识别到常用模式所对应的阿拉伯数字或名称时,直接调用常用模式,无需经过行为判断模块21进行用户行为识别,减少了系统运算时间,加快了执行效率。
常用模式可通过语音采集模块201调取,当行为判断模块21检测到语音信号中常用模式所对应的阿拉伯数字或名称时,直接调用常用模式,无需经过行为判断模块21进行用户行为识别,减少了系统运算时间,加快了执行效率,也方便用户使用。
输出模块24,输出模块24用于执行决策控制信号;输出模块24包括动作输出和语音输出,语音输出模块241通过扬声器发生,动作输出通过采用步进电机控制肢体动作。语音输出模块241可实现系统与用户的语音交互,通过语音输出模块241可在识别失败时对用户进行语音提示或与用户进行再次确认。语音输出模块241在行为判断模块21接收到行为排序模块23发送的常用模式时,可对用户进行语音提醒。
其中通过采用DSP系列芯片作为微处理器对数据进行处理,从而实现信号的提取、识别和排序。
所述数据库1用于接收用户行为统计装置2反馈的用户行为包和统计数据,后台工作人员通过数据库1获取用户行为包和统计数据,根据用户行为包和统计数据对系统进行升级,并将升级后的代码通过数据库1反馈给对机器人,进行系统功能更新。
使用时,当行为判断模块21识别到用户比较忧伤,需要听一些音乐来缓解时,行为决策模块22则输出音乐命令,扬声器则播放出音乐,同时行为排序模块23对唱歌命令进行统计,如果接收到的音乐指令比较多,则排序模块将音乐设为常用模式,并编码1,编码完成则将常用模式存储至行为决策模块22,并控制扬声器发出“唱歌常用模式设置成功,请说1调取”,当机器人再次识别到“1”的语音信号时则自动播放音乐,减少了数据处理量。
当老人坐轮椅需要外出时,需要机器人帮老人推轮椅,当机器人不能识别推轮椅这个指令时,行为排序模块23将采集到的用户行为打包形成用户行为包,反馈给服务器,后台工作人员通过数据库1获取用户行为包和统计数据,根据用户行为包和统计数据对系统进行升级,并将升级后的代码通过数据库1反馈给对机器人,进行系统功能更新。
本方案中行为排序模块23对未识别的用户行为进行分类统计并反馈给服务器中的数据库1,后端工作人员通过反馈对机器人系统进行升级,增加系统功能,使其适应不同用户的特点和需求,使机器人更加智能化、人性化。
行为排序模块23对识别成功的用户行为进行分类统计,将出现次数较多的用户行为和其所对应的决策控制信号设为常用模式,减少了系统运算时间,方便快捷的输出决策控制。
以上所述的仅是本发明的实施例,方案中公知的具体结构及特性等常识在此未作过多描述。应当指出,对于本领域的技术人员来说,在不脱离本发明结构的前提下,还可以作出若干变形和改进,这些也应该视为本发明的保护范围,这些都不会影响本发明实施的效果和专利的实用性。本申请要求的保护范围应当以其权利要求的内容为准,说明书中的具体实施方式等记载可以用于解释权利要求的内容。
Claims (6)
1.家庭机器人用户行为统计系统,其特征在于,包括设于服务器的数据库和设于机器人上的用户行为统计装置,其中:所述用户行为统计装置包括:
行为采集模块,行为采集模块用于采集用户行为;
行为判断模块,行为判断模块用于接收行为采集模块采集的用户行为,提取及识别特征信号,并将提取的特征信号与存储器中存储的通过用户行为样本训练获得的最佳特征进行对比:当对比结果大于等于预设阈值时,则识别成功,输出识别结果信号;
当对比结果小于预设阈值时,则识别失败,打包识别失败时所获得的用户行为,形成用户行为包,输出识别结果信号和用户行为包;
行为决策模块,行为决策模块用于根据行为判断模块识别出的用户行为输出决策控制信号;
当行为决策模块接收到识别结果信号为识别成功信号时,根据行为判断模块识别出的用户行为输出决策控制信号;
当行为决策模块接收到识别结果信号为识别失败信号时,输出决策控制信号,并通过输出模块执行决策控制信号;
行为排序模块,行为排序模块用于接收输出识别结果信号,行为排序模块用于分类统计识别失败的用户行为出现次数,并将用户行为包和统计数据反馈给数据库;行为排序模块还用于分类统计可识别的用户行为出现次数,并将出现次数较多的用户行为和其所对应的决策控制信号设为常用模式,并将分别存储至行为识别模块和行为决策模块中;
输出模块,输出模块用于执行决策控制信号;
所述数据库用于接收用户行为统计装置反馈的用户行为包和统计数据,后台工作人员通过数据库获取用户行为包和统计数据,根据用户行为包和统计数据对系统进行升级,并将升级后的代码通过数据库反馈给对机器人,进行系统功能更新。
2.根据权利要求1所述的家庭机器人用户行为统计系统,其特征在于:所述行为采集模块包括:图像采集模块,图像采集模块用于采集用户人脸图像信号;
语音采集模块,语音采集模块用于采集用户语音信号;
动作捕捉模块,行为采集模块用于采集用户的行为特征信号。
3.根据权利要求2所述的家庭机器人用户行为统计系统,其特征在于:所述输出模块还包括语音输出模块,语音输出模块用于与用户进行语音交互。
4.根据权利要求3所述的家庭机器人用户行为统计系统,其特征在于:所述行为排序模块对常用模式进行命名,形成常用模式名称。
5.根据权利要求4所述的家庭机器人用户行为统计系统,其特征在于:所述常用模式可通过常用模式名称调取。
6.根据权利要求3所述的家庭机器人用户行为统计系统,其特征在于:所述语音输出模块在行为判断模块接收到行为排序模块发送的常用模式时,可对用户进行语音提醒。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710509336.4A CN107398912B (zh) | 2017-06-28 | 2017-06-28 | 家庭机器人用户行为统计系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710509336.4A CN107398912B (zh) | 2017-06-28 | 2017-06-28 | 家庭机器人用户行为统计系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107398912A CN107398912A (zh) | 2017-11-28 |
CN107398912B true CN107398912B (zh) | 2019-08-09 |
Family
ID=60404835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710509336.4A Active CN107398912B (zh) | 2017-06-28 | 2017-06-28 | 家庭机器人用户行为统计系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107398912B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109159126A (zh) * | 2018-10-11 | 2019-01-08 | 上海思依暄机器人科技股份有限公司 | 机器人行为的控制方法、控制系统及机器人 |
CN109623837A (zh) * | 2018-12-20 | 2019-04-16 | 北京子歌人工智能科技有限公司 | 一种基于人工智能的伴侣机器人 |
CN109857114A (zh) * | 2019-02-26 | 2019-06-07 | 温州市职业中等专业学校 | 校园移动智能机器人及校园智能管理系统 |
CN111540222A (zh) * | 2020-04-17 | 2020-08-14 | 新石器慧通(北京)科技有限公司 | 基于无人车的智能交互方法、装置及无人车 |
CN112315366A (zh) * | 2020-10-28 | 2021-02-05 | 苏州工艺美术职业技术学院 | 一种智能马桶 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013046563A1 (ja) * | 2011-09-29 | 2013-04-04 | パナソニック株式会社 | 自律移動装置、自律移動方法、及び、自律移動装置用のプログラム |
JP2016022537A (ja) * | 2014-07-16 | 2016-02-08 | 国立大学法人 筑波大学 | ロボット |
CN104965426A (zh) * | 2015-06-24 | 2015-10-07 | 百度在线网络技术(北京)有限公司 | 基于人工智能的智能机器人控制系统、方法和装置 |
CN106335063B (zh) * | 2016-11-18 | 2019-09-27 | 北京光年无限科技有限公司 | 一种用于机器人的动作输出控制方法及机器人 |
-
2017
- 2017-06-28 CN CN201710509336.4A patent/CN107398912B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107398912A (zh) | 2017-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107398912B (zh) | 家庭机器人用户行为统计系统 | |
Berchtold et al. | Actiserv: Activity recognition service for mobile phones | |
CN107430705B (zh) | 用于重新训练分类器的样本选择 | |
US7769588B2 (en) | Spoken man-machine interface with speaker identification | |
CN102985897A (zh) | 高效姿势处理 | |
CN110289000B (zh) | 一种语音识别方法、装置 | |
CN107491435B (zh) | 基于计算机自动识别用户情感的方法及装置 | |
CN108074571A (zh) | 增强现实设备的语音控制方法、系统及存储介质 | |
CN103236261B (zh) | 一种特定人语音识别的方法 | |
CN110491383A (zh) | 一种语音交互方法、装置、系统、存储介质及处理器 | |
CN109192194A (zh) | 语音数据标注方法、装置、计算机设备及存储介质 | |
CN107678550A (zh) | 一种基于数据手套的手语手势识别系统 | |
CN111126280B (zh) | 基于融合手势识别的失语症患者辅助康复训练系统及方法 | |
CN104809469A (zh) | 一种面向服务机器人的室内场景图像分类方法 | |
Alshamsi et al. | Automated facial expression and speech emotion recognition app development on smart phones using cloud computing | |
CN107111357A (zh) | 使用手势元素的手势识别 | |
CN111428666A (zh) | 基于快速人脸检测的智能家庭陪伴机器人系统及方法 | |
CN110428816B (zh) | 一种语音细胞库训练和分享的方法及装置 | |
JP2019046476A (ja) | ユーモア識別に基づく感情対話方法とロボットシステム | |
CN113012687B (zh) | 一种信息交互方法、装置及电子设备 | |
CN112230779B (zh) | 操作响应方法、装置、设备及存储介质 | |
CN109871817A (zh) | 基于足底压力和自适应集成学习的行走状态识别方法 | |
CN109472289B (zh) | 关键点检测方法和设备 | |
CN111477226A (zh) | 控制方法、智能设备和存储介质 | |
CN110673499A (zh) | 一种用于智能机器人的视听交互系统及其交互控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |