CN105653037A - 一种基于行为分析的交互系统及方法 - Google Patents
一种基于行为分析的交互系统及方法 Download PDFInfo
- Publication number
- CN105653037A CN105653037A CN201511034397.7A CN201511034397A CN105653037A CN 105653037 A CN105653037 A CN 105653037A CN 201511034397 A CN201511034397 A CN 201511034397A CN 105653037 A CN105653037 A CN 105653037A
- Authority
- CN
- China
- Prior art keywords
- behavior
- behaviors
- human
- classification
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 17
- 230000003993 interaction Effects 0.000 claims abstract description 45
- 230000014509 gene expression Effects 0.000 claims abstract description 17
- 230000006399 behavior Effects 0.000 claims description 141
- 230000001815 facial effect Effects 0.000 claims description 37
- 230000009471 action Effects 0.000 claims description 22
- 238000012545 processing Methods 0.000 claims description 20
- 230000001960 triggered effect Effects 0.000 claims description 15
- 238000004891 communication Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 8
- 230000003542 behavioural effect Effects 0.000 claims 1
- 210000003414 extremity Anatomy 0.000 description 13
- 238000012549 training Methods 0.000 description 8
- 210000003811 finger Anatomy 0.000 description 5
- 210000005069 ears Anatomy 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于行为分析的交互系统及方法,其中系统包括图像采集装置,用于采集人体行为图像;交互装置,用于根据人体行为图像进行类别划分后,将不同类别行为图像与预设指令数据库进行查询,获取相应的控制指令。本发明通过对人体行为图像的分类获取人体不同部位图像,根据人体不同部分图像进行控制指令生成,从而达到控制智能装置的目的,通过对人体面部四个区域表情分析扩展人机交互表情控制种类,提高人机交互精确度。
Description
技术领域
本发明属于智能交互领域,具体而言,涉及一种基于行为分析的交互系统及方法。
背景技术
随着物联智能化程度越来越高,如何更好更简单的人机交互,让智能机器或智能手机了解人类动作意图,以便更好的为人类服务。目前,主要通过按键、植入手机中软件中动作指令或其他辅助设备,实现对设施设备的控制,发号指令。然而随着设备设施不断互联和增多,不可能设备挨个启动或关闭,如何通过人类一个身体的动作就可以实现控制,将大大降低人机交互困难。同时现有的人机交互仅仅是通过手势进行控制,并不能实现通过人类身体不同部位的不同动作直接控制设备。因此亟待发明一种应用前景极大,可广泛应用于机器人、智能穿戴、智能硬件、智能手机、自助服务设施等。
发明内容
为解决现有人机交互时间长、交互慢且交互指令信号不足,不能实现通过人类身体不同部位的不同动作直接控制设备的技术缺陷,本发明通过将人体行为划分实现人体面部信息及肢体工作信息的类型,初步实现将四肢识别、面部识别实现控制设备的目的,对人体行为的首次划分,实现交互指令的针对性,同时人体面部四区域的划分,提高人机交互指令的种类,实现多角度人机交互控制。
本发明提供了一种基于行为分析的交互系统,包括
图像采集装置,用于采集人体行为图像;
交互装置,用于根据人体行为图像进行类别划分后,将不同类别行为图像与预设指令数据库进行查询,获取相应的控制指令。
进一步,交互装置包括
接收模块,用于接收人体行为图像;
分类模块,用于根据预设分类规则将当前用户行为图像信息进行行为类别划分,类别包括面部行为、肢体动作行为,其中,面部行为包括面部四个区域表情,面部四个区域表情包括是通过预设的人脸面部5个基点进行划分所得;
处理模块,用于获取不同类别的行为并查询预设的指令数据库,判断该用户行为是否触发控制指令,是则生成控制指令,否则不做处理,其中,指令数据库包括控制指令。
进一步,处理模块还包括注册子模块、存储子模块,其中,
注册子模块,用于注册所述基于行为分析的交互装置的用户账号;
存储子模块,用于存储预设的用户不同行为、及其对应触发的控制指令。
进一步,处理器模块还包括反馈子模块、通信子模块,其中,
反馈子模块,用于将处理模块触发的控制指令通过通信子模块发送到移动终端。
进一步,通过AdaBoost分类器将人体面部行为、肢体动作行为进行特征提取后分类。
本发明还提供了一种基于行为分析的交互方法,采集人体行为图像;
根据人体行为图像进行类别划分后,将不同类别行为图像与预设指令数据库进行查询,获取相应的控制指令。
进一步,根据人体行为图像进行类别划分后,将不同类别行为图像与预设指令数据库进行查询,获取相应的控制指令包括
接收人体行为图像;
根据预设分类规则将当前用户行为图像信息进行行为类别划分,类别包括面部行为、肢体动作行为,其中,面部行为包括面部四个区域表情,面部四个区域表情包括是通过预设的人脸面部5个基点进行划分所得;
获取不同类别的行为并查询预设的指令数据库,判断该用户行为是否触发控制指令,是则生成控制指令,否则不做处理,其中,指令数据库包括控制指令。
进一步,获取不同类别的行为并查询预设的指令数据库之前还包括
注册所述基于行为分析的交互装置的用户账号;
存储预设的用户行为、及触发的控制指令。
进一步,获取不同类别的行为并查询预设的指令数据库,判断该用户行为是否触发控制指令,是则生成控制指令之后还包括
将处理模块触发的控制指令通过发送到移动终端令。
进一步,通过AdaBoost分类器将人体面部行为、肢体动作行为进行特征提取后分类。
综上,本发明通过对人体行为图像的分类获取人体不同部位图像,根据人体不同部分图像进行控制指令生成,从而达到控制智能装置的目的。本发明通过对人体面部四个区域表情分析扩展人机交互表情控制种类,提高人机交互精确度。
附图说明
图1为本发明所述的基于行为分析的交互系统的结构示意图;
图2为本发明所述的基于行为分析的交互装置的结构示意图;
图3为本发明所述的基于行为分析的交互装置中人体四区域的结构示意图;
图4为本发明所述的基于行为分析的交互方法的流程示意图;
图5为本发明所述的基于行为分析的交互装置一个步骤的的流程示意图。
具体实施方式
下面通过具体的实施例并结合附图对本发明做进一步的详细描述。
如图1所示,本发明提供了一种基于行为分析的交互装置,包括图像采集装置10、交互装置20。
图像采集装置10,用于采集人体行为图像。
具体实施时,所述图像采集装置可选的为摄像机。本发明的目的在于通过采集人体行为图像后,根据人体行为图像上的人体行为控制其他设备,实现与其他设备的交互。所述人体行为图像可选的包括JPG格式、png格式等,利用的图像采集装置不同,采集的人体行为图像格式不同。需要说明的是,本发明所述的图像采集装置包括并不限于摄像机,人体行为图像格式并不限于上述格式,在此不一一例举。
一般的图像采集装置只有在被启动后才进行图像采集。本发明的目的在于根据人体行为进行智能控制,实现与智能设备的交互。用户不在图像采集装置的采集范围时,本发明所述的图像采集装置采集不到用户行为图像。因此具体实施时,本发明所述的图像采集装置首先通过扫描判断图像采集范围是否存在人体,具体可选择的通过红外探测器进行人体扫描,也可选择的通过摄像头采集图像,通过对不同视频图像帧的比较,判断图像采集范围内是否存在交互人体(具体实施时,可通过将图像视频帧灰度处理,再进行比对后判断)。通过采集不同视频图像帧实现图像采集范围内交互人体判断时,具体可选的将每次采集的视频帧设为N,N为大于或等于8的自然数。所述图像采集装置将存在交互人体的人体行为图像发送到交互装置。
交互装置20,用于根据人体行为图像进行类别划分后,将不同类别行为图像与预设指令数据库进行查询,获取相应的控制指令。
具体实施过程中,所述图像采集装置可选的设置在所述交互装置上,还可选的将通信装置发送到交互装置。本发明的目的在于通过人体行为(如手势动作、腿部动作、面部表情)实现控制智能设备,当所述智能设备为机器人时,人形机器人通过摄像头获取人体行为图像,并将该人体行为图像进行类别划分后查询指令数据库获取相应的控制指令实现人形机器人控制。例如,当用户抬起胳膊,机器人通过相应的控制指令抬起胳膊。或者交换装置通过分析人体行为图像生成相应的控制指令,控制与交互装置连接的智能设备。例如,交互装置分析人体行为获取相应的控制指令后向对应的智能设备发送控制指令。
其中,
交互装置包括接收模块、分类模块、处理模块。
接收模块,用于接收人体行为图像。
分类模块,用于根据预设分类规则将当前用户行为图像信息进行行为类别划分,类别包括面部行为、肢体动作行为,其中,面部行为包括面部四个区域表情,面部四个区域表情包括是通过预设的人脸面部5个基点进行划分所得。
如图3所示,人脸面部表面包括四个区域表情,面部四个区域表情包括是通过预设的人脸面部5个基点进行划分所得。具体实施时,可选的将人脸面部5个基点分别为两耳的位置、眉心位置、鼻子位置、唇部与下巴中垂线上任意一点。
具体实施时,可参照如图3所示进行人脸面部表情区域设置。
其中,1-1为眉心位置,位于左右眼睛眉心中间;
1-2为两耳的位置,双耳左/右位置点,位于左右耳朵与脸部连接处,基本与眼部水平;
1-3为鼻子位置,位于鼻尖,与1-1竖直,位于一条线上;
1-4为唇部与下巴中垂线上任意一点,位于嘴巴下正中间,与1-1、1-3竖直,位于一条线上。
具体实施时,所述面部四个区别的划分通过人脸识别技术对接收模块接收的人体行为图像进行扫描,获取面部图像,通过面部特征提取,在人体面部进行四区域划分。具体实施时,可根据一组训练图像经过学习而获取面部图像,再根据人脸识别技术,获取人体面部五个位置点。
AdaBoost名称是“adaptiveboostint”的缩写。允许设计者不断地加入新的“弱分类器”,直到达到某个预定的足够小的误差率。在AdaBoost方法中,每一个训练样本都被赋予一个权重,表明它被某个分类分类器选入训练集的概率。如果某个样本点已经被准确分类,那么在构造下一个训练集中,它被选中的概率就被降低;相反,如果某个样本点没有被正确分类,那么它的权重就得到提高。通过这样的方式,AdaBoost方法能够“聚焦于”那么较为困难(更富有信息)的样本上。在具体实现上,最初令每一个样本的权重都相同,对于第k次迭代操作,我们就根据这些权重来选取样本点。
上述五个位置点将面部划分为四个象限区域,分别是P1左眼区域、P2右眼区域、P3右脸区域、P4左脸区域。
而肢体动作则包括胳膊与手部动作信息、腿部和脚部动作信息。例如左手五个手指的不同组合“手势”下的动作信息,包括大拇指、食指、中指、无名指、小手指五个手指不同手势。不同肢体动作表达不同信号。双手不同姿势可能标识不同的用户状态,不同用户状态对应不同的控制指令。本发明通过设置模块将不同手势信号及其对应的控制指令进行存储,当图像获取模块获取的用户行为与设置模块存储的肢体动作或人脸面部表情是否一致,从而获取相应的控制指令,实现根据用户行为与硬件设备进行交换的目的。
处理模块,用于获取不同类别的行为并查询预设的指令数据库,判断该用户行为是否触发控制指令,是则生成控制指令,否则不做处理,其中,指令数据库包括控制指令。
进一步,处理模块还包括注册子模块、存储子模块,其中,
注册子模块,用于注册所述基于行为分析的交互装置的用户账号。具体应用中每个用户的触发控制指令的行为不同,例如用户A通过左眼触发控制指令A,而用户B则是通过右眼或左手触发控制指令A。因此不同用户通过注册子模块实现注册账号,通过个人账号设置不同行为的触发的控制指令。
存储子模块,用于存储预设的用户行为、及触发的控制指令。
进一步,处理器模块还包括反馈子模块、通信子模块,其中,
反馈子模块,用于将处理模块触发的控制指令通过通信子模块发送到移动终端。每个用户触发控制指令后,本发明通过通信模块将反馈子模块将已触发的控制指令发送到用户
通过AdaBoost分类器将人体面部行为、肢体动作行为进行特征提取后分类。
本发明还提供了一种基于行为分析的交互方法,包括如下:
S1、采集人体行为图像;
S2、根据人体行为图像进行类别划分后,将不同类别行为图像与预设指令数据库进行查询,获取相应的控制指令。
其中S2中根据人体行为图像进行类别划分后,将不同类别行为图像与预设指令数据库进行查询,获取相应的控制指令包括
S21、接收人体行为图像。
S22、根据预设分类规则将当前用户行为图像信息进行行为类别划分,类别包括面部行为、肢体动作行为,其中,面部行为包括面部四个区域表情,面部四个区域表情包括是通过预设的人脸面部5个基点进行划分所得;
S23、获取不同类别的行为并查询预设的指令数据库,判断该用户行为是否触发控制指令,是则生成控制指令,否则不做处理,其中,指令数据库包括控制指令。
S23中获取不同类别的行为并查询预设的指令数据库之前还包括
注册所述基于行为分析的交互装置的用户账号;
存储预设的用户行为、及触发的控制指令。
S23中获取不同类别的行为并查询预设的指令数据库,判断该用户行为是否触发控制指令,是则生成控制指令之后还包括
将处理模块触发的控制指令通过发送到移动终端令。
通过AdaBoost分类器将人体面部行为、肢体动作行为进行特征提取后分类。
具体实施时,所述面部四个区别的划分通过人脸识别技术对接收模块接收的人体行为图像进行扫描,获取面部图像,通过面部特征提取,在人体面部进行四区域划分。具体实施时,可根据一组训练图像经过学习而获取面部图像,再根据人脸识别技术,获取人体面部五个位置点。
AdaBoost名称是“adaptiveboostint”的缩写。允许设计者不断地加入新的“弱分类器”,直到达到某个预定的足够小的误差率。在AdaBoost方法中,每一个训练样本都被赋予一个权重,表明它被某个分类分类器选入训练集的概率。如果某个样本点已经被准确分类,那么在构造下一个训练集中,它被选中的概率就被降低;相反,如果某个样本点没有被正确分类,那么它的权重就得到提高。通过这样的方式,AdaBoost方法能够“聚焦于”那么较为困难(更富有信息)的样本上。在具体实现上,最初令每一个样本的权重都相同,对于第k次迭代操作,我们就根据这些权重来选取样本点。
上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于行为分析的交互系统,其特征在于,包括
图像采集装置,用于采集人体行为图像;
交互装置,用于根据人体行为图像进行类别划分后,将不同类别行为图像与预设指令数据库进行查询,获取相应的控制指令。
2.根据权利要求1所述的基于行为分析的交互系统,其特征在于,交互装置包括
接收模块,用于接收人体行为图像;
分类模块,用于根据预设分类规则将当前用户行为图像信息进行行为类别划分,类别包括面部行为、肢体动作行为,其中,面部行为包括面部四个区域表情,面部四个区域表情包括是通过预设的人脸面部5个基点进行划分所得;
处理模块,用于获取不同类别的行为并查询预设的指令数据库,判断该用户行为是否触发控制指令,是则生成控制指令,否则不做处理,其中,指令数据库包括控制指令。
3.根据权利要求1所述的基于行为分析的交互装置,其特征在于,处理模块还包括注册子模块、存储子模块,其中,
注册子模块,用于注册所述基于行为分析的交互装置用户账号;
存储子模块,用于存储预设的用户行为、及触发的控制指令。
4.根据权利要求1所述的基于行为分析的交互装置,其特征在于,处理器模块还包括反馈子模块、通信子模块,其中,
反馈子模块,用于将处理模块触发的控制指令通过通信子模块发送到移动终端。
5.根据权利要求1所述的基于行为分析的交互装置,其特征在于,通过AdaBoost分类器将人体面部行为、肢体动作行为进行特征提取后分类。
6.一种基于行为分析的交互方法,其特征在于,包括如下:
采集人体行为图像;
根据人体行为图像进行类别划分后,将不同类别行为图像与预设指令数据库进行查询,获取相应的控制指令。
7.根据权利要求6所述的基于行为分析的交互方法,其特征在于,根据人体行为图像进行类别划分后,将不同类别行为图像与预设指令数据库进行查询,获取相应的控制指令包括
接收人体行为图像;
根据预设分类规则将当前用户行为图像信息进行行为类别划分,类别包括面部行为、肢体动作行为,其中,面部行为包括面部四个区域表,面部四个区域表情包括是通过预设的人脸面部5个基点进行划分所得;
获取不同类别的行为并查询预设的指令数据库,判断该用户行为是否触发控制指令,是则生成控制指令,否则不做处理,其中,指令数据库包括控制指令。
8.根据权利要求6所述的基于行为分析的交互方法,其特征在于,
获取不同类别的行为并查询预设的指令数据库,判断该用户行为是否触发控制指令之前还包括
注册所述基于行为分析的交互装置的用户账号;
存储预设的用户行为、及触发的控制指令。
9.根据权利要求6所述的基于行为分析的交互方法,其特征在于,
获取不同类别的行为并查询预设的指令数据库,判断该用户行为是否触发控制指令,是则生成控制指令之后还包括
将处理模块触发的控制指令通过发送到移动终端令。
10.根据权利要求6所述的基于行为分析的交互方法,其特征在于,
通过AdaBoost分类器将人体面部行为、肢体动作行为进行特征提取后分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201511034397.7A CN105653037A (zh) | 2015-12-31 | 2015-12-31 | 一种基于行为分析的交互系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201511034397.7A CN105653037A (zh) | 2015-12-31 | 2015-12-31 | 一种基于行为分析的交互系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105653037A true CN105653037A (zh) | 2016-06-08 |
Family
ID=56491224
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201511034397.7A Pending CN105653037A (zh) | 2015-12-31 | 2015-12-31 | 一种基于行为分析的交互系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105653037A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203299A (zh) * | 2016-06-30 | 2016-12-07 | 北京二郎神科技有限公司 | 一种可操控设备的控制方法和装置 |
CN107066081A (zh) * | 2016-12-23 | 2017-08-18 | 歌尔科技有限公司 | 一种虚拟现实系统的交互控制方法和装置及虚拟现实设备 |
CN107511827A (zh) * | 2017-09-29 | 2017-12-26 | 武汉康车自动化设备有限公司 | 一种通过捕捉腿部动作来控制机械手臂的装置 |
CN107831890A (zh) * | 2017-10-11 | 2018-03-23 | 北京华捷艾米科技有限公司 | 基于ar的人机交互方法、装置及设备 |
CN108724203A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 一种交互方法及装置 |
CN108764047A (zh) * | 2018-04-27 | 2018-11-06 | 深圳市商汤科技有限公司 | 群体情绪行为分析方法和装置、电子设备、介质、产品 |
CN109011138A (zh) * | 2018-05-07 | 2018-12-18 | 北京全贵医疗科技有限公司 | 基于头部图像的头部理疗方法及装置 |
CN109408037A (zh) * | 2018-09-13 | 2019-03-01 | 昆明理工大学 | 一种非接触的基于“手+脸表情+头部姿态”的混合控制方法 |
CN109781008A (zh) * | 2018-12-30 | 2019-05-21 | 北京猎户星空科技有限公司 | 一种距离测量方法、装置、设备及介质 |
CN110728256A (zh) * | 2019-10-22 | 2020-01-24 | 上海商汤智能科技有限公司 | 基于车载数字人的交互方法及装置、存储介质 |
CN111339809A (zh) * | 2018-12-20 | 2020-06-26 | 深圳市鸿合创新信息技术有限责任公司 | 一种课堂行为分析方法及装置、电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102711315A (zh) * | 2012-04-16 | 2012-10-03 | 东莞光阵显示器制品有限公司 | 基于视频动态识别的智能室内照明控制方法及系统 |
CN103839346A (zh) * | 2013-03-11 | 2014-06-04 | 成都百威讯科技有限责任公司 | 一种智能门窗防入侵装置以及系统、智能门禁系统 |
CN103984315A (zh) * | 2014-05-15 | 2014-08-13 | 成都百威讯科技有限责任公司 | 一种家用多功能智能机器人 |
CN104407694A (zh) * | 2014-10-29 | 2015-03-11 | 山东大学 | 一种结合人脸和手势控制的人机交互方法及装置 |
CN104463100A (zh) * | 2014-11-07 | 2015-03-25 | 重庆邮电大学 | 基于面部表情识别模式的智能轮椅人机交互系统及方法 |
-
2015
- 2015-12-31 CN CN201511034397.7A patent/CN105653037A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102711315A (zh) * | 2012-04-16 | 2012-10-03 | 东莞光阵显示器制品有限公司 | 基于视频动态识别的智能室内照明控制方法及系统 |
CN103839346A (zh) * | 2013-03-11 | 2014-06-04 | 成都百威讯科技有限责任公司 | 一种智能门窗防入侵装置以及系统、智能门禁系统 |
CN103984315A (zh) * | 2014-05-15 | 2014-08-13 | 成都百威讯科技有限责任公司 | 一种家用多功能智能机器人 |
CN104407694A (zh) * | 2014-10-29 | 2015-03-11 | 山东大学 | 一种结合人脸和手势控制的人机交互方法及装置 |
CN104463100A (zh) * | 2014-11-07 | 2015-03-25 | 重庆邮电大学 | 基于面部表情识别模式的智能轮椅人机交互系统及方法 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10710244B2 (en) | 2016-06-30 | 2020-07-14 | Beijing Airlango Technology Co., Ltd. | Robot control using gestures |
WO2018001245A1 (en) * | 2016-06-30 | 2018-01-04 | Beijing Airlango Technology Co., Ltd. | Robot control using gestures |
CN106203299A (zh) * | 2016-06-30 | 2016-12-07 | 北京二郎神科技有限公司 | 一种可操控设备的控制方法和装置 |
CN107066081A (zh) * | 2016-12-23 | 2017-08-18 | 歌尔科技有限公司 | 一种虚拟现实系统的交互控制方法和装置及虚拟现实设备 |
CN107066081B (zh) * | 2016-12-23 | 2023-09-15 | 歌尔科技有限公司 | 一种虚拟现实系统的交互控制方法和装置及虚拟现实设备 |
CN107511827A (zh) * | 2017-09-29 | 2017-12-26 | 武汉康车自动化设备有限公司 | 一种通过捕捉腿部动作来控制机械手臂的装置 |
CN107831890A (zh) * | 2017-10-11 | 2018-03-23 | 北京华捷艾米科技有限公司 | 基于ar的人机交互方法、装置及设备 |
CN108724203A (zh) * | 2018-03-21 | 2018-11-02 | 北京猎户星空科技有限公司 | 一种交互方法及装置 |
CN108764047A (zh) * | 2018-04-27 | 2018-11-06 | 深圳市商汤科技有限公司 | 群体情绪行为分析方法和装置、电子设备、介质、产品 |
CN109011138A (zh) * | 2018-05-07 | 2018-12-18 | 北京全贵医疗科技有限公司 | 基于头部图像的头部理疗方法及装置 |
CN109408037A (zh) * | 2018-09-13 | 2019-03-01 | 昆明理工大学 | 一种非接触的基于“手+脸表情+头部姿态”的混合控制方法 |
CN111339809A (zh) * | 2018-12-20 | 2020-06-26 | 深圳市鸿合创新信息技术有限责任公司 | 一种课堂行为分析方法及装置、电子设备 |
CN109781008A (zh) * | 2018-12-30 | 2019-05-21 | 北京猎户星空科技有限公司 | 一种距离测量方法、装置、设备及介质 |
CN109781008B (zh) * | 2018-12-30 | 2021-05-25 | 北京猎户星空科技有限公司 | 一种距离测量方法、装置、设备及介质 |
CN110728256A (zh) * | 2019-10-22 | 2020-01-24 | 上海商汤智能科技有限公司 | 基于车载数字人的交互方法及装置、存储介质 |
WO2021077737A1 (zh) * | 2019-10-22 | 2021-04-29 | 上海商汤智能科技有限公司 | 基于车载数字人的交互 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105653037A (zh) | 一种基于行为分析的交互系统及方法 | |
CN105487673B (zh) | 一种人机交互系统、方法及装置 | |
WO2020078017A1 (zh) | 用于识别空中手写的方法、装置、设备以及计算机可读存储介质 | |
CN108595008B (zh) | 基于眼动控制的人机交互方法 | |
CN103150019A (zh) | 一种手写输入系统及方法 | |
Wu et al. | Gaze direction estimation using support vector machine with active appearance model | |
CN109508687A (zh) | 人机交互控制方法、装置、存储介质和智能设备 | |
CN104616028B (zh) | 基于空间分割学习的人体肢体姿势动作识别方法 | |
CN106569613A (zh) | 一种多模态人机交互系统及其控制方法 | |
US20160202766A1 (en) | Gesture recognition method, gesture recognition system, terminal device and wearable device | |
Kang et al. | Development of head detection and tracking systems for visual surveillance | |
CN109766782B (zh) | 基于svm的实时肢体动作识别方法 | |
CN108198159A (zh) | 一种图像处理方法、移动终端以及计算机可读存储介质 | |
CN111027403A (zh) | 手势估计方法、装置、设备及计算机可读存储介质 | |
CN104821010A (zh) | 基于双目视觉的人手三维信息实时提取方法及系统 | |
CN110555417A (zh) | 一种基于深度学习的视频图像识别系统及方法 | |
CN113936340B (zh) | 一种基于训练数据采集的ai模型训练方法及装置 | |
CN104049760A (zh) | 一种人机交互命令的获取方法及系统 | |
Cai et al. | Visual focus of attention estimation using eye center localization | |
CN103105924A (zh) | 人机交互方法和装置 | |
CN110807391A (zh) | 基于视觉的人-无人机交互用人体姿态指令识别方法 | |
CN110546596A (zh) | 一种视线跟踪方法及用于执行所述方法的终端 | |
KR20170046519A (ko) | 손 모양 및 동작 인식장치 및 방법 | |
CN106468944A (zh) | 非接触式控制系统及方法 | |
CN115862130B (zh) | 基于人体姿态及其躯干运动场的行为识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160608 |