CN106681497A - 基于体感操控应用程序的方法和装置 - Google Patents

基于体感操控应用程序的方法和装置 Download PDF

Info

Publication number
CN106681497A
CN106681497A CN201611120687.8A CN201611120687A CN106681497A CN 106681497 A CN106681497 A CN 106681497A CN 201611120687 A CN201611120687 A CN 201611120687A CN 106681497 A CN106681497 A CN 106681497A
Authority
CN
China
Prior art keywords
information
gesture
application program
equipment
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201611120687.8A
Other languages
English (en)
Inventor
谭登峰
康三顺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Kernel Optoelectronics Technology Co Ltd
Original Assignee
Nanjing Kernel Optoelectronics Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Kernel Optoelectronics Technology Co Ltd filed Critical Nanjing Kernel Optoelectronics Technology Co Ltd
Priority to CN201611120687.8A priority Critical patent/CN106681497A/zh
Publication of CN106681497A publication Critical patent/CN106681497A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种基于体感操控应用程序的方法和装置。其中方法包括:通过设备获取人体骨架信息,并从人体骨架信息中提取人体右手的坐标信息;对人体右手的坐标信息进行分析,判断手势状态,并记录当前手势的位置,其中,手势状态包括手势张开状态以及手势握拳状态;根据当前手势的位置与相邻的上一位置计算预选空间轴的移动方向的位移,并对连续多个预选空间轴的移动方向的位移进行相加计算,生成计算结果;判断计算结果与预设阈值之间的关系,执行应用程序的相应操控操作。该方法解决了传统技术中,体感设备对手势识别与执行控制操作受限的弊端的问题,实现了手势操控应用程序的可靠性与灵活性。

Description

基于体感操控应用程序的方法和装置
技术领域
本发明涉及触控设备检测技术领域,特别涉及一种基于体感操控应用程序的方法和装置。
背景技术
目前,随着电子领域的发展,支持体感功能的设备越来越多,这就对支持体感功能的设备的操作提高了越来越高的要求。传统技术中,上述设备对人体的动作识别速率低,识别的准确性差;再者,上述设备对多手势操控设备的实现具有受限的弊端,缺乏应用的可靠性与灵活性。
发明内容
鉴于此,有必要针对传统技术存在的问题,提供了一种基于体感操控应用程序的方法和装置,能够实现对人体的动作识别准确性,且具有执行应用程序操控的准确性、可靠性与灵活性。
为达到发明目的,提供一种基于体感操控应用程序的方法,所述方法包括:通过设备获取人体骨架信息,并从所述人体骨架信息中提取人体右手的坐标信息,其中,所述人体骨架信息包括:头部信息、肩部信息、腰部信息、腿部信息、脚部信息、手臂信息以及双手信息,所述人体右手的所述坐标信息通过三维坐标的形式进行记录;对所述人体右手的所述坐标信息进行分析,判断所述手势状态,并记录当前手势的位置,其中,所述手势状态包括手势张开状态以及手势握拳状态;根据所述当前手势的位置与相邻的上一位置计算预选空间轴的移动方向的位移,并对连续多个所述预选空间轴的移动方向的位移进行相加计算,生成计算结果;判断所述计算结果与预设阈值之间的关系,执行所述应用程序的相应操控操作。
在其中一个实施例中,所述通过设备获取人体骨架信息的步骤之前包括:架设所述设备,并确定所检测的人体。
在其中一个实施例中,确定所检测的人体包括:默认设置与所述设备之间的距离为最小值的人体为所检测的人体;或若与所述设备之间的距离不为最小值,但在预设距离范围内,则操控者通过举起左手完成所检测的人体的操作。
在其中一个实施例中,所述设备包括kinect体感器、深度相机的至少一种。
在其中一个实施例中,所述对连续多个所述预选空间轴的移动方向的位移的和进行相加计算,生成计算结果包括:对预先获取的连续的三个z轴的移动方向的位移进行相加计算。
在其中一个实施例中,所述对所述人体右手的所述坐标信息进行分析包括:右手为所述手势张开状态,移动到被打开所述应用程序位置;
右手为所述手势握拳状态,通过调用第一预设函数执行所述应用程序的选定操作;
其中,所述预设函数为:
win32apimouse_event(MOUSEEVENTF_ABSOLUTE|MOUSEEVENTF_MO VE,DWORD dx,DWORD dy,
7,0,0);mouse_event(MOUSEEVENTF_LEFTDOWN,0,0,0,0);
其中dx,dy分别为当前手势光标所在的位置坐标。
在其中一个实施例中,所述判断所述计算结果与预设阈值之间的关系,执行所述应用程序的相应操控操作包括:当所述计算结果大于预设阈值时,则通过鼠标双击操作的方式执行所述应用程序的打开操作;
其中,所述鼠标双击操作的方式为通过调用第二预设函数来执行;
其中,所述第二预设函数为:win32api的
mouse_event(MOUSEEVENTF_ABSOLUTE|MOUSEEVENTF_MOVE,x,y,0,0);mouse_event(MOUSEEVENTF_LEFTDOWN|MOUSEEVENTF_LEFTUP,0,0,0,0);mouse_event(MOUSEEVENTF_LEFTDOWN|MOUSEEVENTF_LEFTUP,0,0,0,0)。
基于同一发明构思的一种基于体感操控应用程序的装置,所述装置包括:获取与提取模块,用于通过设备获取人体骨架信息,并从所述人体骨架信息中提取人体右手的坐标信息,其中,所述人体骨架信息包括:头部信息、肩部信息、腰部信息、腿部信息、脚部信息、手臂信息以及双手信息,所述人体右手的所述坐标信息通过三维坐标的形式进行记录;分析模块,用于对所述人体右手的所述坐标信息进行分析,判断所述手势状态,并记录当前手势的位置,其中,所述手势状态包括手势张开状态以及手势握拳状态;计算模块,用于根据所述当前手势的位置与相邻的上一位置计算预选空间轴的移动方向的位移,并对连续多个所述预选空间轴的移动方向的位移进行相加计算,生成计算结果;判断与执行模块,用于判断所述计算结果与预设阈值之间的关系,执行所述应用程序的相应操控操作。
在其中一个实施例中,还包括:检测模块,用于架设所述设备,并确定所检测的人体。
在其中一个实施例中,所述设备包括kinect体感器、深度相机的至少一种。
本发明提供的一种基于体感操控应用程序的方法和装置。通过设备获取人体骨架信息,并从人体骨架信息中提取人体右手的坐标信息,其中,人体骨架信息包括:头部信息、肩部信息、腰部信息、腿部信息、脚部信息、手臂信息以及双手信息,人体右手的坐标信息通过三维坐标的形式进行记录;对人体右手的坐标信息进行分析,判断手势状态,并记录当前手势的位置,其中,手势状态包括手势张开状态以及手势握拳状态;根据当前手势的位置与相邻的上一位置计算预选空间轴的移动方向的位移,并对连续多个预选空间轴的移动方向的位移进行相加计算,生成计算结果;判断计算结果与预设阈值之间的关系,执行应用程序的相应操控操作。该方法解决了传统技术中,体感设备对手势识别与执行控制操作受限的弊端的问题,实现了手势操控应用程序的可靠性与灵活性。
附图说明
图1为本发明一个实施例中的一种基于体感操控应用程序的方法的步骤流程图;以及
图2为本发明一个实施例中的一种基于体感操控应用程序的装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例对本发明基于体感操控应用程序的方法和装置进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如图1所示,为一个实施例中的一种基于体感操控应用程序的方法的步骤流程图。具体包括以下步骤:
步骤102,通过设备获取人体骨架信息,并从人体骨架信息中提取人体右手的坐标信息,其中,人体骨架信息包括:头部信息、肩部信息、腰部信息、腿部信息、脚部信息、手臂信息以及双手信息,人体右手的所述坐标信息通过三维坐标的形式进行记录,且设备包括kinect体感器、深度相机的至少一种。
本实施例中,通过设备获取人体骨架信息的步骤之前包括:架设设备,并确定所检测的人体。具体的,确定所检测的人体包括:默认设置与设备之间的距离为最小值的人体为所检测的人体;或若与设备之间的距离不为最小值,但在预设距离范围内,则操控者通过举起左手完成所检测的人体的操作。
步骤104,对人体右手的坐标信息进行分析,判断手势状态,并记录当前手势的位置,其中,手势状态包括手势张开状态以及手势握拳状态。
本实施例中,对人体右手的坐标信息进行分析包括:右手为手势张开状态,移动到被打开应用程序位置;右手为手势握拳状态,通过调用第一预设函数执行应用程序的选定操作。
其中,预设函数为:
win32apimouse_event(MOUSEEVENTF_ABSOLUTE|MOUSEEVENTF_MO VE,DWORD dx,DWORD dy,
7,0,0);mouse_event(MOUSEEVENTF_LEFTDOWN,0,0,0,0);其中dx,dy分别为当前手势光标所在的位置坐标。
步骤106,根据当前手势的位置与相邻的上一位置计算预选空间轴的移动方向的位移,并对连续多个预选空间轴的移动方向的位移进行相加计算,生成计算结果。
本实施例中,对连续多个预选空间轴的移动方向的位移的和进行相加计算,生成计算结果包括:对预先获取的连续的三个z轴的移动方向的位移进行相加计算。
步骤108,判断计算结果与预设阈值之间的关系,执行应用程序的相应操控操作。
本实施例中,判断计算结果与预设阈值之间的关系,执行应用程序的相应操控操作包括:当计算结果大于预设阈值时,则通过鼠标双击操作的方式执行应用程序的打开操作;其中,鼠标双击操作的方式为通过调用第二预设函数来执行。其中,第二预设函数为:win32api的
mouse_event(MOUSEEVENTF_ABSOLUTE|MOUSEEVENTF_MOVE,x,y,0,0);mouse_event(MOUSEEVENTF_LEFTDOWN|MOUSEEVENTF_LEFTUP,0,0,0,0);mouse_event(MOUSEEVENTF_LEFTDOWN|MOUSEEVENTF_LEFTUP,0,0,0,0)。
本发明提供的一种基于体感操控应用程序的方法。通过设备获取人体骨架信息,并从人体骨架信息中提取人体右手的坐标信息,其中,人体骨架信息包括:头部信息、肩部信息、腰部信息、腿部信息、脚部信息、手臂信息以及双手信息,人体右手的坐标信息通过三维坐标的形式进行记录;对人体右手的坐标信息进行分析,判断手势状态,并记录当前手势的位置,其中,手势状态包括手势张开状态以及手势握拳状态;根据当前手势的位置与相邻的上一位置计算预选空间轴的移动方向的位移,并对连续多个预选空间轴的移动方向的位移进行相加计算,生成计算结果;判断计算结果与预设阈值之间的关系,执行应用程序的相应操控操作。该方法解决了传统技术中,体感设备对手势识别与执行控制操作受限的弊端的问题,实现了手势操控应用程序的可靠性与灵活性。
基于同一发明构思,还提供了一种基于体感操控应用程序的装置,由于此装置解决问题的原理与前述一种基于体感操控应用程序的方法相似,因此,该装置的实施可以按照前述方法的具体步骤实现,重复之处不再赘述。
如图2所示,为一个实施例中的一种基于体感操控应用程序的装置的结构示意图。该基于体感操控应用程序的装置10包括:获取与提取模块200、分析模块400、计算模块600和判断与执行模块800。
其中,获取与提取模块200用于通过设备获取人体骨架信息,并从人体骨架信息中提取人体右手的坐标信息,其中,人体骨架信息包括:头部信息、肩部信息、腰部信息、腿部信息、脚部信息、手臂信息以及双手信息,人体右手的坐标信息通过三维坐标的形式进行记录;分析模块400用于对人体右手的坐标信息进行分析,判断手势状态,并记录当前手势的位置,其中,手势状态包括手势张开状态以及手势握拳状态;计算模块600用于根据当前手势的位置与相邻的上一位置计算预选空间轴的移动方向的位移,并对连续多个预选空间轴的移动方向的位移进行相加计算,生成计算结果;判断与执行模块800用于判断计算结果与预设阈值之间的关系,执行应用程序的相应操控操作。
本实施例中,设备包括kinect体感器、深度相机的至少一种。
在一个实施例中,该基于体感操控应用程序的装置10还包括:检测模块100(图中未示出)用于架设设备,并确定所检测的人体。
本发明提供的一种基于体感操控应用程序的装置。获取与提取模块200通过设备获取人体骨架信息,并从人体骨架信息中提取人体右手的坐标信息,其中,人体骨架信息包括:头部信息、肩部信息、腰部信息、腿部信息、脚部信息、手臂信息以及双手信息,人体右手的坐标信息通过三维坐标的形式进行记录;再通过分析模块400对人体右手的坐标信息进行分析,判断手势状态,并记录当前手势的位置,其中,手势状态包括手势张开状态以及手势握拳状态;再通过计算模块600根据当前手势的位置与相邻的上一位置计算预选空间轴的移动方向的位移,并对连续多个预选空间轴的移动方向的位移进行相加计算,生成计算结果;最终通过判断与执行模块800判断计算结果与预设阈值之间的关系,执行应用程序的相应操控操作。该装置解决了传统技术中,体感设备对手势识别与执行控制操作受限的弊端的问题,实现了手势操控应用程序的可靠性与灵活性。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种基于体感操控应用程序的方法,其特征在于,所述方法包括:
通过设备获取人体骨架信息,并从所述人体骨架信息中提取人体右手的坐标信息,其中,所述人体骨架信息包括:头部信息、肩部信息、腰部信息、腿部信息、脚部信息、手臂信息以及双手信息,所述人体右手的所述坐标信息通过三维坐标的形式进行记录;
对所述人体右手的所述坐标信息进行分析,判断所述手势状态,并记录当前手势的位置,其中,所述手势状态包括手势张开状态以及手势握拳状态;
根据所述当前手势的位置与相邻的上一位置计算预选空间轴的移动方向的位移,并对连续多个所述预选空间轴的移动方向的位移进行相加计算,生成计算结果;
判断所述计算结果与预设阈值之间的关系,执行所述应用程序的相应操控操作。
2.根据权利要求1所述的基于体感操控应用程序的方法,其特征在于,所述通过设备获取人体骨架信息的步骤之前包括:架设所述设备,并确定所检测的人体。
3.根据权利要求2所述的基于体感操控应用程序的方法,其特征在于,确定所检测的人体包括:默认设置与所述设备之间的距离为最小值的人体为所检测的人体;或
若与所述设备之间的距离不为最小值,但在预设距离范围内,则操控者通过举起左手完成所检测的人体的操作。
4.根据权利要求3所述的基于体感操控应用程序的方法,其特征在于,所述设备包括kinect体感器、深度相机的至少一种。
5.根据权利要求1所述的基于体感操控应用程序的方法,其特征在于,所述对连续多个所述预选空间轴的移动方向的位移的和进行相加计算,生成计算结果包括:对预先获取的连续的三个z轴的移动方向的位移进行相加计算。
6.根据权利要求1所述的基于体感操控应用程序的方法,其特征在于,所述对所述人体右手的所述坐标信息进行分析包括:右手为所述手势张开状态,移动到被打开所述应用程序位置;
右手为所述手势握拳状态,通过调用第一预设函数执行所述应用程序的选定操作;
其中,所述预设函数为:
win32apimouse_event(MOUSEEVENTF_ABSOLUTE|MOUSEEVENTF_MO VE,DWORD dx,DWORDdy,
7,0,0);mouse_event(MOUSEEVENTF_LEFTDOWN,0,0,0,0);
其中dx,dy分别为当前手势光标所在的位置坐标。
7.根据权利要求1所述的基于体感操控应用程序的方法,其特征在于,所述判断所述计算结果与预设阈值之间的关系,执行所述应用程序的相应操控操作包括:当所述计算结果大于预设阈值时,则通过鼠标双击操作的方式执行所述应用程序的打开操作;
其中,所述鼠标双击操作的方式为通过调用第二预设函数来执行;
其中,所述第二预设函数为:win32api的
mouse_event(MOUSEEVENTF_ABSOLUTE|MOUSEEVENTF_MOVE,x,y,0,0);mouse_event(MOUSEEVENTF_LEFTDOWN|MOUSEEVENTF_LEFTUP,0,0,0,0);mouse_event(MOUSEEVENTF_LEFTDOWN|MOUSEEVENTF_LEFTUP,0,0,0,0)。
8.一种基于体感操控应用程序的装置,其特征在于,所述装置包括:
获取与提取模块,用于通过设备获取人体骨架信息,并从所述人体骨架信息中提取人体右手的坐标信息,其中,所述人体骨架信息包括:头部信息、肩部信息、腰部信息、腿部信息、脚部信息、手臂信息以及双手信息,所述人体右手的所述坐标信息通过三维坐标的形式进行记录;
分析模块,用于对所述人体右手的所述坐标信息进行分析,判断所述手势状态,并记录当前手势的位置,其中,所述手势状态包括手势张开状态以及手势握拳状态;
计算模块,用于根据所述当前手势的位置与相邻的上一位置计算预选空间轴的移动方向的位移,并对连续多个所述预选空间轴的移动方向的位移进行相加计算,生成计算结果;
判断与执行模块,用于判断所述计算结果与预设阈值之间的关系,执行所述应用程序的相应操控操作。
9.根据权利要求8所述的基于体感操控应用程序的装置,其特征在于,还包括:检测模块,用于架设所述设备,并确定所检测的人体。
10.根据权利要求8或9任一项所述的基于体感操控应用程序的装置,其特征在于,所述设备包括kinect体感器、深度相机的至少一种。
CN201611120687.8A 2016-12-07 2016-12-07 基于体感操控应用程序的方法和装置 Pending CN106681497A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611120687.8A CN106681497A (zh) 2016-12-07 2016-12-07 基于体感操控应用程序的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611120687.8A CN106681497A (zh) 2016-12-07 2016-12-07 基于体感操控应用程序的方法和装置

Publications (1)

Publication Number Publication Date
CN106681497A true CN106681497A (zh) 2017-05-17

Family

ID=58867755

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611120687.8A Pending CN106681497A (zh) 2016-12-07 2016-12-07 基于体感操控应用程序的方法和装置

Country Status (1)

Country Link
CN (1) CN106681497A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101901052A (zh) * 2010-05-24 2010-12-01 华南理工大学 双手互为参考的目标控制方法
CN102253713A (zh) * 2011-06-23 2011-11-23 康佳集团股份有限公司 面向三维立体影像显示系统
CN102789313A (zh) * 2012-03-19 2012-11-21 乾行讯科(北京)科技有限公司 一种用户交互系统和方法
CN103246351A (zh) * 2013-05-23 2013-08-14 刘广松 一种用户交互系统和方法
CN103777748A (zh) * 2012-10-26 2014-05-07 华为技术有限公司 一种体感输入方法及装置
CN104969145A (zh) * 2012-12-14 2015-10-07 微软技术许可有限责任公司 靶向和按压自然用户输入

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101901052A (zh) * 2010-05-24 2010-12-01 华南理工大学 双手互为参考的目标控制方法
CN102253713A (zh) * 2011-06-23 2011-11-23 康佳集团股份有限公司 面向三维立体影像显示系统
CN102789313A (zh) * 2012-03-19 2012-11-21 乾行讯科(北京)科技有限公司 一种用户交互系统和方法
CN103777748A (zh) * 2012-10-26 2014-05-07 华为技术有限公司 一种体感输入方法及装置
CN104969145A (zh) * 2012-12-14 2015-10-07 微软技术许可有限责任公司 靶向和按压自然用户输入
CN103246351A (zh) * 2013-05-23 2013-08-14 刘广松 一种用户交互系统和方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZOUXY09: "Kinect开发笔记之(七)骨骼数据的提取", 《HTTPS://BLOG.CSDN.NET/ZOUXY09/ARTICLE/DETAILS/8161617》 *

Similar Documents

Publication Publication Date Title
CN104838337B (zh) 用于用户界面的无触摸输入
CN107428004B (zh) 对象数据的自动收集和标记
JP5525202B2 (ja) 動作分析装置、動作分析方法及び動作分析プログラム
Kjeldsen et al. Toward the use of gesture in traditional user interfaces
CN104063677B (zh) 用于估计人体姿态的设备和方法
CN102955658B (zh) 交互界面中的页面切换方法及装置
CN108838991A (zh) 一种自主类人双臂机器人及其对运动目标的跟踪操作系统
CN108789403A (zh) 操作装置、机器人系统以及操作方法
CN103383731A (zh) 一种基于指尖定位的投影交互方法、系统及计算设备
Chen et al. Using real-time acceleration data for exercise movement training with a decision tree approach
Boehm et al. Dynamic gesture recognition using neural networks: a fundament for advanced interaction construction
KR20140080221A (ko) 시각적 인디케이터를 이용하여 사용자 인터페이스를 제공하는 3차원 입체 영상 표시 장치 및 그 장치를 이용한 방법
Kang et al. Editing 3D models on smart devices
Chen et al. A human–robot interface for mobile manipulator
CN110427849A (zh) 人脸姿态确定方法、装置、存储介质和电子设备
Nasim et al. Physics-based interactive virtual grasping
Prasad et al. A wireless dynamic gesture user interface for HCI using hand data glove
Boruah et al. Development of a learning-aid tool using hand gesture based human computer interaction system
Li et al. A dexterous hand-arm teleoperation system based on hand pose estimation and active vision
CN106681497A (zh) 基于体感操控应用程序的方法和装置
CN106774835A (zh) 基于体感的终端操控方法和装置
CN108255294A (zh) 一种虚拟现实环境中的用户接触反馈系统、方法及设备
Bönig et al. Virtual validation of the manual assembly of a power electronic unit via motion capturing connected with a simulation tool using a human model
KR101558094B1 (ko) 직관적인 핸드 모션에 기반한 멀티-모달 시스템 및 그 제어 방법
Allevato et al. Affordance Discovery using Simulated Exploration.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20170517

RJ01 Rejection of invention patent application after publication