CN106095083A - 体感指令的确定方法以及体感交互装置 - Google Patents

体感指令的确定方法以及体感交互装置 Download PDF

Info

Publication number
CN106095083A
CN106095083A CN201610390585.1A CN201610390585A CN106095083A CN 106095083 A CN106095083 A CN 106095083A CN 201610390585 A CN201610390585 A CN 201610390585A CN 106095083 A CN106095083 A CN 106095083A
Authority
CN
China
Prior art keywords
instruction
sensing
angle
anthropometric dummy
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610390585.1A
Other languages
English (en)
Inventor
黄源浩
刘龙
肖振中
许星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Orbbec Co Ltd
Original Assignee
Shenzhen Orbbec Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Orbbec Co Ltd filed Critical Shenzhen Orbbec Co Ltd
Priority to CN201610390585.1A priority Critical patent/CN106095083A/zh
Publication of CN106095083A publication Critical patent/CN106095083A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种体感指令的确定方法以及体感交互装置,所述确定方法包括:体感交互装置建立当前感测对象的人体模型;其中,所述人体模型为多节点的人体骨架模型;分析得到所述人体模型中不同部位之间的夹角或所述夹角的变化范围;根据所述夹角或所述夹角的变化范围确定对应的体感指令。通过上述方式,不仅能够提高感测对象的深度图像数据对应的人体动作对受控设备的体感控制的准确率,减少误操作现象,而且针对不同种类的受控设备具有通用性,降低研发人员的人力和财力成本。

Description

体感指令的确定方法以及体感交互装置
技术领域
本发明涉及智能终端技术领域,特别是涉及一种体感指令的确定方法以及体感交互装置。
背景技术
体感交互技术作为新一代的人机交互技术,相比于键盘、鼠标以及触摸交互技术,更加自然和直观,例如体感游戏是通过自身的身体动作来操作游戏,相较于传统的通过键盘、鼠标以及有线手柄等的游戏,体感游戏不再是手指操作运动,身体的运动量和娱乐性都得到了很大的提高,因此,体感游戏得到了很好的发展。
上述列举的体感游戏一般是利用体感技术与计算机、电视等智能设备中的软件进行交互,但是体感交互技术还有一种比较重要的应用为利用体感交互技术对硬件设备进行操控,比如结合机器人、计算机、体感摄像头可以实现机器人的自动跟踪与壁障,同时可以实现近距离手势操控机器人等。
由于体感操控一般是针对可移动的硬件设备,如机器人或无人驾驶车辆等,在对这些硬件设备进行体感操控时,一般是通过人体动作语言来实现,然而,由于针对不同的硬件设备往往设定的人体动作语言并不相同,兼容性差,而且,现有的人体动作语言对硬件设备的控制准确率也并不高,往往存在误操作现象。
发明内容
本发明主要解决的技术问题是提供一种体感指令的确定方法以及体感交互装置,能够有效提高体感交互的控制执行率,提高体感控制的兼容性和通用性。
为解决上述技术问题,本发明采用的一个技术方案是:提供一种体感指令的确定方法,所述确定方法包括:
体感交互装置建立当前感测对象的人体模型;其中,所述人体模型为多节点的人体骨架模型;
分析得到所述人体模型中不同部位之间的夹角或所述夹角的变化范围;
根据所述夹角或所述夹角的变化范围确定对应的体感指令。
其中,所述体感指令包括加速、减速、前进、后退、左转、右转中的至少一种。
其中,所述根据所述夹角或所述夹角的变化范围确定对应的体感指令的步骤具体包括:
计算所述人体骨架中的人体躯干与左手大臂之间的夹角并当0≤α≤30°时,确定为前进指令,否则确定为后退指令,其中,向量为人体躯干向量,向量为左手大臂向量。
其中,所述根据所述夹角或所述夹角的变化范围确定对应的体感指令的步骤具体包括:
计算所述左手大臂与左手小臂之间夹角并当β值相较于前一时刻变大时,确定为加速指令,否则确定为减速指令,其中,向量为左手小臂向量。
其中,所述根据所述夹角或所述夹角的变化范围确定对应的体感指令的步骤具体包括:
计算右手大臂向量与人体躯干法线向量之间的夹角并当0≤γ≤90°时,确定为左转指令,否则确定为右转指令,其中,向量为右臂肩部向量。
其中,所述建立当前感测对象的人体模型的步骤包括:
采集当前感测对象的人体深度数据,利用所述人体深度数据建立所述人体模型。
其中,在所述根据所述夹角或所述夹角的变化范围确定对应的体感指令的步骤之后,还包括:
将所述体感指令发送至受控设备,以使所述受控设备执行所述体感指令。
为解决上述技术问题,本发明采用的另一个技术方案是:提供一种体感交互装置,所述体感交互装置包括:人体模型建立模块、分析模块以及体感指令确定模块,
所述人体模型建立模块用于建立当前感测对象的人体模型;其中,所述人体模型为多节点的人体骨架模型;
所述分析模块用于分析得到所述人体模型中不同部位之间的夹角或所述夹角的变化范围;
所述体感指令确定模块用于根据所述夹角或所述夹角的变化范围确定对应的体感指令。
其中,所述体感指令包括加速、减速、前进、后退、左转、右转中的至少一种。
其中,所述人体模型建立模块具体用于采集当前感测对象的人体深度数据,利用所述人体深度数据建立所述人体模型。
本发明的有益效果是:区别于现有技术的情况,本实施方式的体感交互装置建立当前感测对象的人体模型后,分析得到该人体模型中不同部位之间的夹角或该夹角的变化范围,并根据该夹角或夹角的变化范围确定对应的体感指令。通过上述方式,不仅能够提高感测对象的深度图像数据对应的人体动作对受控设备的体感控制的准确率,减少误操作现象,而且针对不同种类的受控设备具有通用性,降低研发人员的人力和财力成本。
附图说明
图1是本发明体感指令的确定方法一实施方式的流程示意图;
图2是本发明体感交互系统一实施方式的结构示意图;
图3是本发明体感交互系统另一实施方式的结构示意图;
图4是本发明人体模型一实施方式的结构示意图;
图5是本发明体感指令的确定方法另一实施方式的流程示意图;
图6是本本发明体感交互装置一实施方式的结构示意图;
图7是本发明体感交互装置另一实施方式的结构示意图;
图8是本发明体感交互装置再一实施方式的结构示意图。
具体实施方式
参阅图1,图1是本发明体感指令的确定方法一实施方式的流程示意图,本实施方式的体感确定方法包括如下步骤:
101:体感交互装置建立当前感测对象的人体模型;其中,所述人体模型为多节点的人体骨架模型。
具体,参阅图2,图2为本发明体感交互系统一实施方式的结构示意图。体感交互系统包括体感交互装置201以及受控设备202,其中,体感交互装置201与受控设备202远程无线连接。
其中,该受控设备302包括行走机器人、无人驾驶车辆等远程操控设备中的至少一种。
其中,受控设备202的数量可以为1个,如图2所示,也可以为多个,如图3所示,当体感交互装置301远程无线连接的受控设备302为多个时,实现一个体感交互装置301控制多个受控设备302的目的。例如可通过一个体感交互装置301同时控制多个机器人进行阅兵或者动作表演等。在此不做限定。
体感交互装置201为了实现对上述受控设备202的高精度体感操控,首先采集当前感测对象的人体深度数据,利用所述人体深度数据建立所述人体模型,如图4所示。具体地,体感交互装置201可通过深度相机、RGB相机以及SOC控制芯片中的至少一种来获取该感测对象的人体深度数据。
102:分析得到所述人体模型中不同部位之间的夹角或所述夹角的变化范围。
具体地,为了减小无线网络传输的无效工作量,提高体感交互成功率,体感交互装置201先将受控设备202的体感指令进行分类,如前进指令、后退指令、加速指令、减速指令、左转指令以及右转指令等,在此不做限定。然后根据设定的体感指令预设人体动作,并将该人体动作与体感指令建立对应关系。
体感交互装置201在采集到感测对象的人体深度数据后,首先判断该人体深度数据对应的人体动作是否在预先设定的人体动作范围内,即判断是否属于预设人体动作,如果属于预设人体动作,进一步地分析对该人体模型中不同部位之间的夹角或所述夹角的变化范围。如人体骨架中的人体躯干与左手大臂之间的夹角,左手大臂与左手小臂之间的夹角以及右手大臂向量与人体躯干法线向量之间的夹角等人体模型数据等。
103:根据所述夹角或所述夹角的变化范围确定对应的体感指令。
其中,该体感指令包括加速、减速、前进、后退、左转、右转中的至少一种。
具体地,结合图1、图2和图4,体感交互装置201根据人体骨架中的人体躯干与左手大臂之间的夹角α确定是前进指令或者是后退指令。其中,人体骨架中的人体躯干与左手大臂之间的夹角并当0≤α≤30°时,确定为前进指令,否则确定为后退指令,向量为人体躯干向量,向量为左手大臂向量。
体感交互装置201根据左手大臂与左手小臂之间夹角β确定是加速指令还是后退指令。具体地,左手大臂与左手小臂之间夹角并当β值相较于前一时刻变大时,确定为加速指令,否则确定为减速指令,其中,向量为左手小臂向量,如图4所示。
体感交互装置201根据人体躯干与右手大臂的相对位置确定是左转指令还是右转指令。具体地,通过右手大臂向量与人体躯干法线向量之间的夹角γ来确定,其中,并当0≤γ≤90°时,确定为左转指令,否则确定为右转指令,其中,向量为右臂肩部向量。如图4所示。
以上指令结合了夹角以及夹角的变化范围两种方式,仅需要通过双手就可以完整地控制受控终端的运行。
需要说明的是,上述对指令的确定和计算方法只是举例,而非限定,在其他实施方式中,也可以通过其他人体模型数据进行确定,本实施方式例举的人体动作信息也可以代表上述六种指令之外的其他体感指令,人体动作信息与体感指令之间的对应关系也可以互换,只要是与预先设定的对应关系相符合即可,在此不做限定。
进一步地,参阅图5,体感交互装置201在确定体感指令后,为了实现对受控设备202的远程控制,进一步的执行步骤504:将所述体感指令发送至受控设备202,以使所述受控设备202执行所述体感指令。
受控设备202接收到该体感指令后,执行与该体感指令对应的功能操作,如接收到左转指令,则执行左转操作,如接收到的是前进指令,则执行前进操作,如接收到的是加速指令,则加快当前操作的速度等,在此不做限定。
在另一个实施方式中,为了更清楚的了解当前受控设备202所处的环境以及工作状况,提高远程操控的可执行性,受控设备202采集所述受控设备202操作时的图像数据,并将所述图像数据传送至所述体感交互装置201,所述体感交互装置201显示所述图像数据。在一个具体的实施方式中,受控设备202可通过摄像头采集该图像数据,体感交互装置201可通过液晶显示屏或LED显示屏显示该图像数据,以为用户提供更加方便的体感反馈信息。
在另一个实施方式中,体感交互装置201在接收到该受控设备202操作时的图像数据后,进一步地分析所述图像数据得到所述受控设备的实际操作信息,判断该实际操作信息是否与体感交互装置201发送的体感指令对应的操作是否相匹配,如果该实际操作信息与对应的体感指令不或体感指令对应的操作不匹配时,发出数控设备出错的通知,如通过发出报警的方式来实现,在此不做限定。
区别于现有技术,本实施方式的体感交互装置建立当前感测对象的人体模型后,分析得到该人体模型中不同部位之间的夹角或该夹角的变化范围,并根据该夹角或夹角的变化范围确定对应的体感指令。通过上述方式,不仅能够提高感测对象的深度图像数据对应的人体动作对受控设备的体感控制的准确率,减少误操作现象,而且针对不同种类的受控设备具有通用性,降低研发人员的人力和财力成本。
另外,体感交互装置通过远程控制受控设备的方式能够大大降低环境对控制准确率的影响,而且,相较于现有技术,受控设备的设置位置也不再局限于其本身深度相机的感测范围,使体感交互技术对硬件设备的操控得到了更好的发展。而且一个体感交互装置控制多个受控设备的实施方式能够进一步提高对受控设备远程控制的效率,降低成本。
另外,受控设备采集其操作时的图像数据,并将该图像数据传送至所述体感交互装置,体感交互装置显示所述图像数据的实施方式,能够使远程的受控设备的周围环境状况以及当前的实际操作情形一目了然的出现在控制端,为工作人员对当前受控设备工作状况的监控和调整提供依据,也能够进一步的提高远程操控的可执行性和受控设备的工作效率。
参阅图6,图6是本发明体感交互装置一实施方式的结构示意图。本实施方式的体感交互装置包括人体模型建立模块601、分析模块602以及体感指令确定模块603。
人体模型建立模块601用于建立当前感测对象的人体模型;其中,所述人体模型为多节点的人体骨架模型。
具体的,体感交互装置为了实现对受控设备的高精度体感操控,人体模型建立模块301首先采集当前感测对象的人体深度数据,利用所述人体深度数据建立所述人体模型,具体地,人体模型建立模块301可通过深度相机、RGB相机以及SOC控制芯片中的至少一种来获取该感测对象的人体深度数据。
其中,该受控设备包括行走机器人、无人驾驶车辆等远程操控设备中的至少一种。
其中,该受控设备与体感交互装置通过远程无线连接,与该体感交互装置远程无线连接的受控设备的数量为一个或多个,当体感交互装置远程无线连接的受控设备为多个时,可实现一个体感交互装置控制多个受控设备的目的。例如可通过一个体感交互装置同时控制多个机器人进行阅兵或者动作表演等。在此不做限定。
分析模块602用于分析得到所述人体模型中不同部位之间的夹角或所述夹角的变化范围。
具体地,为了减小无线网络传输的无效工作量,提高体感交互成功率,分析模块602先将受控设备的体感指令进行分类,如前进指令、后退指令、加速指令、减速指令、左转指令以及右转指令等,在此不做限定。然后根据设定的体感指令预设人体动作,并将该人体动作与体感指令建立对应关系。
分析模块602在人体模型建立模块601采集到感测对象的人体深度数据后,首先判断该人体深度数据对应的人体动作是否在预先设定的人体动作范围内,即判断是否属于预设人体动作,如果属于预设人体动作,进一步地分析对该人体模型中不同部位之间的夹角或所述夹角的变化范围。如人体骨架中的人体躯干与左手大臂之间的夹角,左手大臂与左手小臂之间的夹角以及右手大臂向量与人体躯干法线向量之间的夹角等人体模型数据等。
体感指令确定模块603用于根据所述夹角或所述夹角的变化范围确定对应的体感指令。
其中,该体感指令包括加速、减速、前进、后退、左转、右转中的至少一种。
具体地,体感指令确定模块603根据人体骨架中的人体躯干与左手大臂之间的夹角α确定是前进指令或者是后退指令。其中,人体骨架中的人体躯干与左手大臂之间的夹角并当0≤α≤30°时,确定为前进指令,否则确定为后退指令,向量为人体躯干向量,向量为左手大臂向量。
体感指令确定模块603根据左手大臂与左手小臂之间夹角β确定是加速指令还是后退指令。具体地,左手大臂与左手小臂之间夹角并当β值相较于前一时刻变大时,确定为加速指令,否则确定为减速指令,其中,向量为左手小臂向量。
体感指令确定模块603根据人体躯干与右手大臂的相对位置确定是左转指令还是右转指令。具体地,通过右手大臂向量与人体躯干法线向量之间的夹角γ来确定,其中,并当0≤γ≤90°时,确定为左转指令,否则确定为右转指令,其中,向量为右臂肩部向量。
需要说明的是,上述对指令的确定和计算方法只是举例,而非限定,在其他实施方式中,也可以通过其他人体模型数据进行确定,本实施方式例举的人体动作信息也可以代表上述六种指令之外的其他体感指令,人体动作信息与体感指令之间的对应关系也可以互换,只要是与预先设定的对应关系相符合即可,在此不做限定。
进一步的如图7所示,体感交互装置除了包括人体模型建立模块701、分析模块702以及体感指令确定模块703,还包括发送模块704,该发送模块704用于将所述体感指令发送至受控设备,以使所述受控设备执行所述体感指令。
受控设备接收到该体感指令后,执行与该体感指令对应的功能操作,如接收到左转指令,则执行左转操作,如接收到的是前进指令,则执行前进操作,如接收到的是加速指令,则加快当前操作的速度等,在此不做限定。
在另一个实施方式中,为了更清楚的了解当前受控设备所处的环境以及工作状况,提高远程操控的可执行性,体感交互装置还包括显示模块805,如图8所示。该显示模块805用于显示受控设备返回的该受控设备操作时的图像数据。
具体的,受控设备通过其内设或外设的摄像头或其他数据采集单元采集所述受控设备操作时的图像数据,并将所述图像数据传送至所述体感交互装置,所述显示单元804接收到该图像数据后,显示所述图像数据。其中,该显示模块804可通过液晶显示屏或LED显示屏显示该图像数据,以为用户提供更加方便的体感反馈信息。
区别于现有技术,本实施方式的体感交互装置的人体模型建立模块建立当前感测对象的人体模型后,分析模块分析得到该人体模型中不同部位之间的夹角或该夹角的变化范围,体感指令确定模块根据该夹角或夹角的变化范围确定对应的体感指令。通过上述方式,不仅能够提高感测对象的深度图像数据对应的人体动作对受控设备的体感控制的准确率,减少误操作现象,而且针对不同种类的受控设备具有通用性,降低研发人员的人力和财力成本。
另外,体感交互装置通过远程控制受控设备的方式能够大大降低环境对控制准确率的影响,而且,相较于现有技术,受控设备的设置位置也不再局限于其本身深度相机的感测范围,使体感交互技术对硬件设备的操控得到了更好的发展。而且一个体感交互装置控制多个受控设备的实施方式能够进一步提高对受控设备远程控制的效率,降低成本。
另外,受控设备采集其操作时的图像数据,并将该图像数据传送至所述体感交互装置,体感交互装置显示所述图像数据的实施方式,能够使远程的受控设备的周围环境状况以及当前的实际操作情形一目了然的出现在控制端,为工作人员对当前受控设备工作状况的监控和调整提供依据,也能够进一步的提高远程操控的可执行性和受控设备的工作效率。
以上所述仅为本发明的实施方式,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种体感指令的确定方法,其特征在于,所述确定方法包括:
体感交互装置建立当前感测对象的人体模型;其中,所述人体模型为多节点的人体骨架模型;
分析得到所述人体模型中不同部位之间的夹角或所述夹角的变化范围;
根据所述夹角或所述夹角的变化范围确定对应的体感指令。
2.根据权利要求1所述的确定方法,其特征在于,所述体感指令包括加速、减速、前进、后退、左转、右转中的至少一种。
3.根据权利要求2所述的确定方法,其特征在于,所述根据所述夹角或所述夹角的变化范围确定对应的体感指令的步骤具体包括:
计算所述人体骨架中的人体躯干与左手大臂之间的夹角并当0≤α≤30°时,确定为前进指令,否则确定为后退指令,其中,向量为人体躯干向量,向量为左手大臂向量。
4.根据权利要求2所述的确定方法,其特征在于,所述根据所述夹角或所述夹角的变化范围确定对应的体感指令的步骤具体包括:
计算所述左手大臂与左手小臂之间夹角并当β值相较于前一时刻变大时,确定为加速指令,否则确定为减速指令,其中,向量为左手小臂向量。
5.根据权利要求2所述的确定方法,其特征在于,所述根据所述夹角或所述夹角的变化范围确定对应的体感指令的步骤具体包括:
计算右手大臂向量与人体躯干法线向量之间的夹角并当0≤γ≤90°时,确定为左转指令,否则确定为右转指令,其中,向量为右臂肩部向量。
6.根据权利要求1至5任一项所述的确定方法,其特征在于,所述建立当前感测对象的人体模型的步骤包括:
采集当前感测对象的人体深度数据,利用所述人体深度数据建立所述人体模型。
7.根据权利要求1至5任一项所述的确定方法,其特征在于,在所述根据所述夹角或所述夹角的变化范围确定对应的体感指令的步骤之后,还包括:
将所述体感指令发送至受控设备,以使所述受控设备执行所述体感指令。
8.一种体感交互装置,其特征在于,所述体感交互装置包括:人体模型建立模块、分析模块以及体感指令确定模块,
所述人体模型建立模块用于建立当前感测对象的人体模型;其中,所述人体模型为多节点的人体骨架模型;
所述分析模块用于分析得到所述人体模型中不同部位之间的夹角或所述夹角的变化范围;
所述体感指令确定模块用于根据所述夹角或所述夹角的变化范围确定对应的体感指令。
9.根据权利要求8所述的体感交互装置,其特征在于,所述体感指令包括加速、减速、前进、后退、左转、右转中的至少一种。
10.根据权利要求8所述的体感交互装置,其特征在于,所述人体模型建立模块具体用于采集当前感测对象的人体深度数据,利用所述人体深度数据建立所述人体模型。
CN201610390585.1A 2016-06-02 2016-06-02 体感指令的确定方法以及体感交互装置 Pending CN106095083A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610390585.1A CN106095083A (zh) 2016-06-02 2016-06-02 体感指令的确定方法以及体感交互装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610390585.1A CN106095083A (zh) 2016-06-02 2016-06-02 体感指令的确定方法以及体感交互装置

Publications (1)

Publication Number Publication Date
CN106095083A true CN106095083A (zh) 2016-11-09

Family

ID=57447294

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610390585.1A Pending CN106095083A (zh) 2016-06-02 2016-06-02 体感指令的确定方法以及体感交互装置

Country Status (1)

Country Link
CN (1) CN106095083A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107984477A (zh) * 2017-11-28 2018-05-04 宁波高新区锦众信息科技有限公司 一种用于监测人体位置的智能导览系统及控制方法
CN109126116A (zh) * 2018-06-01 2019-01-04 成都通甲优博科技有限责任公司 一种体感互动方法及其系统

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102542867A (zh) * 2010-12-21 2012-07-04 微软公司 通过虚拟骨架的驾驶模拟器控制
CN102693413A (zh) * 2011-02-18 2012-09-26 微软公司 运动识别
CN103118227A (zh) * 2012-11-16 2013-05-22 佳都新太科技股份有限公司 一种基于kinect的摄像机PTZ控制方法、装置和系统
CN103386683A (zh) * 2013-07-31 2013-11-13 哈尔滨工程大学 一种基于Kinect的体感控制机械臂方法
CN103399637A (zh) * 2013-07-31 2013-11-20 西北师范大学 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法
CN103558927A (zh) * 2013-11-21 2014-02-05 广州视声电子实业有限公司 一种3d手势控制方法和装置
CN103970264A (zh) * 2013-01-29 2014-08-06 纬创资通股份有限公司 手势辨识与控制方法及其装置
CN104460972A (zh) * 2013-11-25 2015-03-25 安徽寰智信息科技股份有限公司 一种基于Kinect的人机交互系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102542867A (zh) * 2010-12-21 2012-07-04 微软公司 通过虚拟骨架的驾驶模拟器控制
CN102693413A (zh) * 2011-02-18 2012-09-26 微软公司 运动识别
CN103118227A (zh) * 2012-11-16 2013-05-22 佳都新太科技股份有限公司 一种基于kinect的摄像机PTZ控制方法、装置和系统
CN103970264A (zh) * 2013-01-29 2014-08-06 纬创资通股份有限公司 手势辨识与控制方法及其装置
CN103386683A (zh) * 2013-07-31 2013-11-13 哈尔滨工程大学 一种基于Kinect的体感控制机械臂方法
CN103399637A (zh) * 2013-07-31 2013-11-20 西北师范大学 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法
CN103558927A (zh) * 2013-11-21 2014-02-05 广州视声电子实业有限公司 一种3d手势控制方法和装置
CN104460972A (zh) * 2013-11-25 2015-03-25 安徽寰智信息科技股份有限公司 一种基于Kinect的人机交互系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107984477A (zh) * 2017-11-28 2018-05-04 宁波高新区锦众信息科技有限公司 一种用于监测人体位置的智能导览系统及控制方法
CN109126116A (zh) * 2018-06-01 2019-01-04 成都通甲优博科技有限责任公司 一种体感互动方法及其系统

Similar Documents

Publication Publication Date Title
CN103399637B (zh) 基于kinect人体骨骼跟踪控制的智能机器人人机交互方法
CN106095087A (zh) 体感交互系统以及方法
CN106648103B (zh) 一种vr头戴设备的手势跟踪方法和vr头戴设备
CN100487636C (zh) 基于立体视觉的游戏控制系统及方法
CN104589356B (zh) 基于Kinect人手运动捕捉的灵巧手遥操作控制方法
CN103135755B (zh) 交互系统及方法
CN103530613B (zh) 一种基于单目视频序列的目标人手势交互方法
CN103246884B (zh) 基于深度图像序列的实时人体动作识别方法及装置
CN104346816B (zh) 一种深度确定方法、装置及电子设备
CN105204351B (zh) 空调机组的控制方法及装置
CN107139179A (zh) 一种智能服务机器人及工作方法
CN102402289B (zh) 一种基于机器视觉的手势鼠标识别方法
CN103605466A (zh) 一种基于面部识别操控终端的方法
CN102999152A (zh) 一种手势动作识别方法和系统
CN104750397A (zh) 一种基于体感的虚拟矿井自然交互方法
CN101853071A (zh) 基于视觉的手势识别方法及系统
CN105536205A (zh) 一种基于单目视频人体动作感知的上肢训练系统
US11850747B2 (en) Action imitation method and robot and computer readable medium using the same
CN107423392A (zh) 基于ar技术的字、词典查询方法、系统及装置
CN104517100B (zh) 手势预判方法和系统
CN106020478A (zh) 一种智能终端操控方法、装置和智能终端
CN103455657A (zh) 一种基于Kinect的现场作业仿真方法及其系统
CN106681354A (zh) 无人机的飞行控制方法和装置
CN107030692A (zh) 一种基于感知增强的机械手遥操作方法及系统
CN110210426A (zh) 基于注意力机制从单幅彩色图像进行手部姿态估计的方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20161109

RJ01 Rejection of invention patent application after publication