CN107179683B - 一种基于神经网络的交互机器人智能运动检测与控制方法 - Google Patents
一种基于神经网络的交互机器人智能运动检测与控制方法 Download PDFInfo
- Publication number
- CN107179683B CN107179683B CN201710211360.XA CN201710211360A CN107179683B CN 107179683 B CN107179683 B CN 107179683B CN 201710211360 A CN201710211360 A CN 201710211360A CN 107179683 B CN107179683 B CN 107179683B
- Authority
- CN
- China
- Prior art keywords
- neural network
- detection
- eye
- stage
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
Landscapes
- Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
Abstract
一种基于神经网络的交互机器人智能运动检测与控制方法,使用传统特征工程和分类器作为人眼部位初步定位,神经网络作为行为高效识别,引入有限状态机实现状态快速转换。阶段一提取Haar‑like特征并结合Adaboost级联分类器完成交互机器人人脸识别,脸部人眼识别,同时采用卷积神经网络进行人眼二次检测与筛选。阶段二,计算双眼光流图,使用CNN提取空域特征,LSTM提取时域特征,完成人眼行为识别。阶段三使用有限状态机FSM完成状态装换。该系统检测精度高,状态转换快速。
Description
技术领域
本发明涉及一种教育交互机器人人员行为检测与运动控制方法,具体利用交互机器人摄像头实时捕捉人员眼睛状态(向左,向右,恢复等状态),通过人脸检测,脸部眼睛检测,眼睛位置二次确认,CNN+LSTM眼睛光流图时空特征抽取与行为分类,最终使用有限状态机进行运动转换与控制。交互机器人根据运动状态执行相应的动作(左摆臂,右摆臂,摇手等)。该方法包含计算机视觉(行为识别)、人工智能(策略控制)等领域。
背景技术
交互机器人属于机器人一个分支,在工业,教育,科研等领域扮演着至关重要的作用。通过结合人工智能和机器人最前沿高新技术,完成传统工业生产,公共服务,高校科研,医疗呵护行业的人工服务替换,是推动社会生产,科研进步的重要工具。交互机器人涉及到的研究领域包括智能机器人系统,多智能体系统,实时模式识别与行为系统,智能体结构设计,实时规划和推理,传感器技术。其中计算机视觉主要旨在解决机器人视觉感知与检测任务,人工智能主要旨在解决感知数据融合与决策。
现有技术在使用眼睛行为控制交互机器人运动具有二个难点:难点一,如何在最短时间内检测摄像头捕捉到交互人员图片的眼睛部位,同时眼睛检测的正确性和鲁棒性直接影响系统后续行为检测流程以及最终运动状态执行结果,错误检测或者检测不到将导致行为分析失败;难点二,如何在眼睛部位检测到之后,根据时间信息分析眼睛动作确定交互人行为,并且快速进行状态装换与运动执行。上述问题,目前尚未得到解决。
发明内容
本发明要克服上述现有技术的缺点,提供一种一种基于神经网络的交互机器人智能运动检测与控制。
本发明利用计算机视觉,神经网络,人工智能方法解决问题,最终完成系统的设计与实现。使用检测快速,计算复杂度较低的Haar-like特征与Adaboost分类器作为人脸、人眼检测工具。使用卷积神经网络CNN作为人眼二次筛选与空间特征提取工具,使用长短期记忆神经网络LSTM作为时间特征提取工具,具备非常高的准确性与鲁棒性。使用有限状态机FSM作为运动状态控制算法,具备快速反应能力。
为了实现高准确性和实时性,具体方案如下(如图1):训练阶段采集大量交互人员行为样本(动作短视频),手动标注出人脸,人眼部位,提取Haar-like特征训练Adaboost,计算人眼光流图训练CNN与LSTM;检测阶段,机器人利用摄像头采集图像帧,分别进行人脸检测,脸部眼睛检测,眼睛二次筛选,行为识别,运动状态控制。
本发明的一种基于神经网络的交互机器人智能运动检测与控制方法,步骤如下:
步骤1.预处理。如图2,利用交互机器人摄像头采集交互人眼睛动作的短视频,每个视频时长2秒,眼睛动作包含向左运动,向右运动,恢复到直视前方的3类动作。为了保证系统鲁棒性,尽可能在不同背景下,多采集不同交互人样本。
步骤2.阶段一训练。如图2,对上述采集到的短视频动作样本,每隔5帧采集一张视频帧图片,并且手动标注人脸,人眼位置标定框,生成不同动作下的人脸和人眼照片。对人脸照片和人眼照片分别提取Haar-like特征,并且训练Adaboost级联分类器,用作人脸和脸部人眼检测工具。同时利用人眼照片训练卷积神经网络,用作人眼二次筛选工具。为保证检测速度,使用小型神经网络。
步骤3.阶段二训练。如图2,利用阶段一训练完毕的模型,首先对所有动作短视频做人眼检测,生成时间走向的人眼图片序列;其次对序列计算光流,得到每个短视频动作时间维度上的光流图序列,同时为每个短视频分配一个行为标签(向左,向右,恢复);最后利用光流图训练CNN+LSTM行为检测网络。得到阶段二模型。
步骤4.行为检测。如图3,该阶段使用交互机器人前置摄像头逐帧获取图像,使用训练完毕检测模型,对图像中交互人进行人脸识别,脸部人眼识别,CNN二次筛选,得到图片中交互人双眼图片;根据当前双眼状态和前一时刻双眼状态计算当前时刻的双眼光流图,利用训练完毕的阶段二模型,进行双眼行为识别,得到行为标签。
步骤5.状态控制。如图3,根据上一时刻的运动状态(行为标签),以及当前时刻的运动状态(行为标签),使用设置完毕的有限状态机FSM进行状态快速转换,实现运动状态控制(保持或者转换)。
本发明中训练和预测阶段所用到的技术:Haar-like,Adaboost,CNN,LSTM,均能使用OpenCV与Tensorflow实现,因此该方法实现完全可行。
本发明的优点是:最大化利用交互机器人硬件设备资源,使用传统特征与分类器快速地对人眼进行检测,计算量小;使用神经网络完成对人眼行为精确分析,准确率高;最终有限状态机算法完成状态转换,实时性强,灵敏度高。
附图说明
图1是本发明方法所用的系统总体框架
图2是本发明的训练阶段流程图
图3是本发明的检测阶段流程图
图4是本发明的方法流程图
具体实施方式
下面结合附图1-4,对本发明作进一步描述。
本发明的一种基于神经网络的交互机器人智能运动检测与控制方法,包括如下步骤:
步骤1.预处理。如图2,利用交互机器人摄像头采集交互人眼睛动作的短视频,每个视频时长2秒,眼睛动作包含向左运动,向右运动,恢复到直视前方等3类动作。为了保证系统鲁棒性,尽可能在不同背景下,多采集不同交互人样本。
步骤2.阶段一训练。如图2,对上述采集到的短视频动作样本,每隔5帧采集一张视频帧图片,并且手动标注人脸,人眼位置标定框,生成不同动作下的人脸和人眼照片。对人脸照片和人眼照片分别提取Haar-like特征,并且训练Adaboost级联分类器,用作人脸和脸部人眼检测工具。同时利用人眼照片训练卷积神经网络,用作人眼二次筛选工具。为保证检测速度,使用小型神经网络。
步骤3.阶段二训练。如图2,利用阶段一训练完毕的模型,首先对所有动作短视频做人眼检测,生成时间走向的人眼图片序列;其次对序列计算光流,得到每个短视频动作时间维度上的光流图序列,同时为每个短视频分配一个行为标签(向左,向右,恢复);最后利用光流图训练CNN+LSTM行为检测网络。得到阶段二模型。
步骤4.行为检测。如图3,该阶段使用交互机器人前置摄像头逐帧获取图像,使用训练完毕检测模型,对图像中交互人进行人脸识别,脸部人眼识别,CNN二次筛选,得到图片中交互人双眼图片;根据当前双眼状态和前一时刻双眼状态计算当前时刻的双眼光流图,利用训练完毕的阶段二模型,进行双眼行为识别,得到行为标签。
步骤5.状态控制。如图3,4。根据上一时刻的运动状态(行为标签),以及当前时刻的运动状态(行为标签),使用设置完毕的有限状态机FSM进行状态快速转换,实现运动状态控制(保持或者转换)
经过如上步骤,根据本发明,可以完成神经网络的交互机器人智能运动检测与控制系统实现。该系统结合传统算法与深度学习,识别快速,同时具备很高的准确性和系统灵敏性。
Claims (2)
1.一种基于神经网络的交互机器人智能运动检测与控制方法,具有以下步骤:
步骤1.预处理;利用交互机器人摄像头采集交互人眼睛动作的短视频,每个视频时长2秒,眼睛动作包含向左运动,向右运动,恢复到直视前方的3类动作;为了保证系统鲁棒性,尽可能在不同背景下,多采集不同交互人样本;
步骤2.阶段一训练;对采集到的短视频动作样本,每隔5帧采集一张视频帧图片,并且手动标注人脸,人眼位置标定框,生成不同动作下的人脸和人眼照片;对人脸照片和人眼照片分别提取Haar-like特征,并且训练Adaboost级联分类器,用作人脸和脸部人眼检测工具;同时利用人眼照片训练卷积神经网络,用作人眼二次筛选工具;为保证检测速度,使用小型神经网络;
步骤3.阶段二训练;利用阶段一训练完毕的模型,首先对所有动作短视频做人眼检测,生成时间走向的人眼图片序列;其次对序列计算光流,得到每个短视频动作时间维度上的光流图序列,同时为每个短视频分配一个标签,标签是向左,向右,恢复;最后利用光流图训练CNN+LSTM行为检测网络;得到阶段二模型;
步骤4.行为检测;该阶段使用交互机器人前置摄像头逐帧获取图像,使用训练完毕检测模型,对图像中交互人进行人脸识别,脸部人眼识别,CNN二次筛选,得到图片中交互人双眼图片;根据当前双眼状态和前一时刻双眼状态计算当前时刻的双眼光流图,利用训练完毕的阶段二模型,进行双眼行为识别,得到行为标签;
步骤5.状态控制;根据上一时刻的运动状态,以及当前时刻的运动状态,使用设置完毕的有限状态机FSM进行状态快速转换,实现运动状态控制。
2.如权利要求1所述的一种基于神经网络的交互机器人智能运动检测与控制方法,其特征在于:步骤2所述的阶段一训练,利用传统Haar-like与Adaboost分类器完成人眼快速检测,使用轻量级卷积神经网络完成人眼精确筛选;步骤3所述的阶段二,使用卷积神经网络CNN与长短期记忆神经网络LSTM完成人眼行为识别,识别精度高;最后使用有限状态机FSM完成运动控制与决策。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710211360.XA CN107179683B (zh) | 2017-04-01 | 2017-04-01 | 一种基于神经网络的交互机器人智能运动检测与控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710211360.XA CN107179683B (zh) | 2017-04-01 | 2017-04-01 | 一种基于神经网络的交互机器人智能运动检测与控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107179683A CN107179683A (zh) | 2017-09-19 |
CN107179683B true CN107179683B (zh) | 2020-04-24 |
Family
ID=59829939
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710211360.XA Active CN107179683B (zh) | 2017-04-01 | 2017-04-01 | 一种基于神经网络的交互机器人智能运动检测与控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107179683B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107729854A (zh) * | 2017-10-25 | 2018-02-23 | 南京阿凡达机器人科技有限公司 | 一种机器人的手势识别方法、系统及机器人 |
CN107862331A (zh) * | 2017-10-31 | 2018-03-30 | 华中科技大学 | 一种基于时间序列及cnn的不安全行为识别方法及系统 |
CN108009493B (zh) * | 2017-11-30 | 2021-07-06 | 电子科技大学 | 基于动作增强的人脸防欺骗识别方法 |
CN109919295B (zh) * | 2017-12-12 | 2022-10-28 | 北京大学深圳研究生院 | 一种基于轻量级卷积神经网络的嵌入式音频事件检测方法 |
CN108510194B (zh) * | 2018-03-30 | 2022-11-29 | 平安科技(深圳)有限公司 | 风控模型训练方法、风险识别方法、装置、设备及介质 |
CN108681690B (zh) * | 2018-04-04 | 2021-09-03 | 浙江大学 | 一种基于深度学习的流水线人员规范操作检测系统 |
CN109446872B (zh) * | 2018-08-24 | 2022-04-19 | 南京理工大学 | 一种基于递归神经网络的群体动作识别方法 |
CN109389091B (zh) * | 2018-10-22 | 2022-05-03 | 重庆邮电大学 | 基于神经网络和注意力机制结合的文字识别系统及方法 |
CN110084259B (zh) * | 2019-01-10 | 2022-09-20 | 谢飞 | 一种结合面部纹理和光流特征的面瘫分级综合评估系统 |
CN110154024B (zh) * | 2019-05-22 | 2020-09-15 | 清华大学 | 一种基于长短期记忆神经网络增量模型的装配控制方法 |
CN110275527B (zh) * | 2019-05-29 | 2022-02-11 | 南京航空航天大学 | 一种基于改进拟态物理法的多智能体系统运动控制方法 |
CN113156926B (zh) * | 2020-01-22 | 2024-05-17 | 深圳市优必选科技股份有限公司 | 机器人的有限状态机的建立方法、有限状态机和机器人 |
CN111428116B (zh) * | 2020-06-08 | 2021-01-12 | 四川大学 | 一种基于深度神经网络的微博社交机器人检测方法 |
CN111738176A (zh) * | 2020-06-24 | 2020-10-02 | 支付宝实验室(新加坡)有限公司 | 一种活体检测模型训练、活体检测方法、装置、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003175480A (ja) * | 2001-12-13 | 2003-06-24 | Sony Corp | ロボット装置及びその行動制御方法、連想記憶装置及び連想記憶方法 |
CN101092032A (zh) * | 2006-06-22 | 2007-12-26 | 本田研究所欧洲有限公司 | 机器人交互行为控制 |
CN105511260A (zh) * | 2015-10-16 | 2016-04-20 | 深圳市天博智科技有限公司 | 一种幼教陪伴型机器人及其交互方法和系统 |
CN106325065A (zh) * | 2015-06-26 | 2017-01-11 | 北京贝虎机器人技术有限公司 | 机器人交互行为的控制方法、装置及机器人 |
CN106406098A (zh) * | 2016-11-22 | 2017-02-15 | 西北工业大学 | 一种机器人系统在未知环境下的人机交互控制方法 |
-
2017
- 2017-04-01 CN CN201710211360.XA patent/CN107179683B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003175480A (ja) * | 2001-12-13 | 2003-06-24 | Sony Corp | ロボット装置及びその行動制御方法、連想記憶装置及び連想記憶方法 |
CN101092032A (zh) * | 2006-06-22 | 2007-12-26 | 本田研究所欧洲有限公司 | 机器人交互行为控制 |
CN106325065A (zh) * | 2015-06-26 | 2017-01-11 | 北京贝虎机器人技术有限公司 | 机器人交互行为的控制方法、装置及机器人 |
CN105511260A (zh) * | 2015-10-16 | 2016-04-20 | 深圳市天博智科技有限公司 | 一种幼教陪伴型机器人及其交互方法和系统 |
CN106406098A (zh) * | 2016-11-22 | 2017-02-15 | 西北工业大学 | 一种机器人系统在未知环境下的人机交互控制方法 |
Non-Patent Citations (1)
Title |
---|
基于实时手势识别与跟踪的人机交互实现;刘宇航 等;《科学技术与工程》;20160831;第16卷(第24期);第71-78页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107179683A (zh) | 2017-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107179683B (zh) | 一种基于神经网络的交互机器人智能运动检测与控制方法 | |
CN107808131B (zh) | 基于双通路深度卷积神经网络的动态手势识别方法 | |
Molchanov et al. | Online detection and classification of dynamic hand gestures with recurrent 3d convolutional neural network | |
CN110135249B (zh) | 基于时间注意力机制和lstm的人体行为识别方法 | |
CN110458025B (zh) | 一种基于双目摄像头的目标识别与定位方法 | |
CN111814661A (zh) | 基于残差-循环神经网络的人体行为识别方法 | |
JP2018514036A (ja) | 次元データ低減を有するマシンビジョン | |
CN112906604A (zh) | 一种基于骨骼和rgb帧融合的行为识别方法、装置及系统 | |
Choi et al. | Human body orientation estimation using convolutional neural network | |
Gupta et al. | Online detection and classification of dynamic hand gestures with recurrent 3d convolutional neural networks | |
Cao et al. | NeuroGrasp: multimodal neural network with Euler region regression for neuromorphic vision-based grasp pose estimation | |
KR20210018600A (ko) | 얼굴 표정 인식 시스템 | |
Baisware et al. | Review on recent advances in human action recognition in video data | |
CN113705445B (zh) | 一种基于事件相机的人体姿态识别的方法及设备 | |
Zhang et al. | EventMD: High-speed moving object detection based on event-based video frames | |
Shah et al. | Computer Vision & Deep Learning based Realtime and Pre-Recorded Human Pose Estimation | |
CN111931748B (zh) | 一种适用于蓄电池生产车间的工人疲劳度检测方法 | |
CN117576153A (zh) | 一种目标跟踪方法及系统 | |
Badave et al. | Face recognition based activity detection for security application | |
Gao et al. | Robust stroke recognition via vision and imu in robotic table tennis | |
Yang et al. | Skeleton-based hand gesture recognition for assembly line operation | |
Wu et al. | Multipath event-based network for low-power human action recognition | |
CN112967317B (zh) | 一种动态环境下基于卷积神经网络架构的视觉里程计方法 | |
Ito et al. | Anticipating the start of user interaction for service robot in the wild | |
Adebayo et al. | Hand-Eye-Object Tracking for Human Intention Inference |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |