CN105975081A - 体感控制方法和装置 - Google Patents

体感控制方法和装置 Download PDF

Info

Publication number
CN105975081A
CN105975081A CN201610349978.8A CN201610349978A CN105975081A CN 105975081 A CN105975081 A CN 105975081A CN 201610349978 A CN201610349978 A CN 201610349978A CN 105975081 A CN105975081 A CN 105975081A
Authority
CN
China
Prior art keywords
sensing
instruction
motion
control instruction
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610349978.8A
Other languages
English (en)
Inventor
沈东�
胡春梅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHENZHEN GANWEI SOFTWARE TECHNOLOGY Co Ltd
Original Assignee
SHENZHEN GANWEI SOFTWARE TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHENZHEN GANWEI SOFTWARE TECHNOLOGY Co Ltd filed Critical SHENZHEN GANWEI SOFTWARE TECHNOLOGY Co Ltd
Priority to CN201610349978.8A priority Critical patent/CN105975081A/zh
Publication of CN105975081A publication Critical patent/CN105975081A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种体感控制方法,该方法包括:采集基于交互界面输入的体感数据,分析得到体感动作的特征参数;根据所述交互界面预先配置的指令数据库,以及所述体感动作的特征参数,获取控制指令;执行所述控制指令,并基于所述交互界面反馈所述控制指令的执行结果。本发明还公开了一种体感控制装置。本发明实现了对物联网管理平台的体感控制,增加了物联网管理平台操作方式的多样性,满足了用户的多样化需求,增强了操作管理的趣味性。

Description

体感控制方法和装置
技术领域
本发明涉及体感控制领域,尤其涉及一种体感控制方法和装置。
背景技术
随着物联网技术的发展,应用的行业与场景也越来多广泛,例如智能家居、智慧建筑、智慧交通、工厂监控等等。用户通过终端设备接入物联网的管理平台,即可实现对当前网络中的各设备的监控与管理。
现有技术通常是通过鼠标、触控屏等硬件设备,实现操作指令的输入,操作方式单一,难以满足用户多样化的操作需求。
发明内容
本发明的主要目的在于提供一种体感控制方法,旨在解决物联网的操作方式单一的技术问题。
为实现上述目的,本发明提供一种体感控制方法,所述体感控制方法包括以下步骤:
采集基于交互界面输入的体感数据,分析得到体感动作的特征参数;
根据所述交互界面预先配置的指令数据库,以及所述体感动作的特征参数,获取控制指令;
执行所述控制指令,并基于所述交互界面反馈所述控制指令的执行结果。
优选的,当所述交互界面为用户界面时,所述根据所述交互界面预先配置的指令数据库,以及所述体感动作的特征参数,获取控制指令的步骤包括:
根据所述体感动作特征参数中手的伸展状态、移动轨迹和时间信息,将所述体感动作投射在所述用户界面中,获取模拟动作;
根据所述用户界面预先配置的指令数据库,获取所述模拟动作对应的控制指令。
优选的,当所述交互界面为物理设备的控制界面时,所述根据所述交互界面预先配置的指令数据库,以及所述体感动作的特征参数,获取控制指令的步骤包括:
根据所述体感动作特征参数中手的伸展状态、移动轨迹和转动方向,模拟对所述物理设备的操作动作;
根据所述物理设备预先配置的指令数据库,获取所述操作动作对应的控制指令;
所述执行所述控制指令,并基于所述交互界面反馈所述控制指令的执行结果的步骤包括:
将所述控制指令发送到所述物理设备,控制所述物理设备执行所述控制指令;
接收所述物理设备返回的所述控制指令的执行结果,并在所述交互界面上显示所述执行结果。
优选的,当所述交互界面为三维场景展示界面时,所述根据所述交互界面预先配置的指令数据库,以及所述体感动作的特征参数,获取控制指令的步骤包括:
根据所述三维场景展示界面预先配置的指令数据库,以及所述体感动作特征参数中手和脚的移动轨迹、头部转动方向,获取调整所述三维场景视图的控制指令。
优选的,所述采集基于交互界面输入的体感数据,分析得到体感动作的特征参数的步骤之后,还包括:
根据所述体感动作特征参数,绘制体感轮廓并在所述交互界面上显示,供用户根据所述体感轮廓修正输入的体感动作。
此外,为实现上述目的,本发明还提供一种体感控制装置,所述体感控制装置包括:
采集模块,用于采集基于交互界面输入的体感数据,分析得到体感动作的特征参数;
指令模块,用于根据所述交互界面预先配置的指令数据库,以及所述体感动作的特征参数,获取控制指令;
执行模块,用于执行所述控制指令,并基于所述交互界面反馈所述控制指令的执行结果。
优选的,当所述交互界面为用户界面时,所述指令模块,还用于,
根据所述体感动作特征参数中手的伸展状态、移动轨迹和时间信息,将所述体感动作投射在所述用户界面中,获取模拟动作;根据所述用户界面预先配置的指令数据库,获取所述模拟动作对应的控制指令。
优选的,当所述交互界面为物理设备的控制界面时,所述指令模块,还用于,
根据所述体感动作特征参数中手的伸展状态、移动轨迹和转动方向,模拟对所述物理设备的操作动作;根据所述物理设备预先配置的指令数据库,获取所述操作动作对应的控制指令;
所述执行模块,还用于将所述控制指令发送到所述物理设备,控制所述物理设备执行所述控制指令;接收所述物理设备返回的所述控制指令的执行结果,并在所述交互界面上显示所述执行结果。
优选的,当所述交互界面为三维场景展示界面时,所述指令模块,还用于,
根据所述三维场景展示界面预先配置的指令数据库,以及所述体感动作特征参数中手和脚的移动轨迹、头部转动方向,获取调整所述三维场景视图的控制指令。
优选的,所述体感控制装置,还包括:
修正模块,用于根据所述体感动作特征参数,绘制体感轮廓并在所述交互界面上显示,供用户根据所述体感轮廓修正输入的体感动作。
本发明实施例提出的一种体感控制方法和装置,基于交互页面采集用户的体感数据,分析得到用户体感动作的特征参数;通过根据交互界面的属性给交互界面预先配置对应的个性化指令数据库,从而使根据体感动作获取的控制指令是与当前显示界面适应、匹配的,减小了无效控制指令的输出,提升了控制指令的正确率;在根据体感动作特征参数和交互界面的指令数据库获取控制指令后,执行得到的控制指令,并将执行结果反馈给用户。由此,本发明实现了对物联网管理平台的体感控制,增加了物联网管理平台操作方式的多样性,满足了用户的多样化需求,增强了操作管理的趣味性。
附图说明
图1为本发明体感控制方法第一实施例的流程示意图;
图2为本发明体感控制方法第二实施例的流程示意图;
图3为本发明体感控制方法第三实施例的流程示意图;
图4为本发明体感控制方法第四实施例的流程示意图;
图5为本发明体感控制方法第五实施例的流程示意图;
图6为本发明体感控制装置第一实施例、第二实施例、第三实施例、第四实施例的功能模块示意图;
图7为本发明体感控制装置第五实施例的功能模块示意图;
图8为本发明实施例中一种用户体感动作示意图;
图9为本发明实施例中一种用户界面体感控制示意图;
图10为本发明实施例中一种物理设备体感控制示意图;
图11为本发明实施例中一种用户体感控制应用场景示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参照图1,本发明体感控制方法第一实施例提供一种体感控制方法,所述体感控制方法包括:
步骤S10、采集基于交互界面输入的体感数据,分析得到体感动作的特征参数。
本发明实施例通过采集在当前交互界面输入的体感数据,根据用户的体感动作向物联网管理平台的交互页面输入控制指令,控制物联网管理平台执行控制指令,实现体感控制物联网管理平台,增加了物联网管理平台操作指令输入方式。
具体的,作为一种实施方式,首先,基于管理平台的当前交互界面,获取体感设备采集的体感数据。体感设备可通过红外线、摄像头等多种方式,采集用户输入的体感数据。管理平台的交互界面可以显示在各类显示设备上,例如移动终端、个人计算机、屏幕墙等。
管理平台根据体感设备采集的体感数据,分析得到体感动作的各项特征参数,得到的体感动作特征参数包括用户身体各个部位的运动特征参数及状态信息,例如,手的伸展状态、手的滑动轨迹、头部的转动动作、脚的抬升和下落动作等等。
步骤S20、根据所述交互界面预先配置的指令数据库,以及所述体感动作的特征参数,获取控制指令。
在分析得到体感动作的特征参数后,管理平台根据当前交互界面预先配置的对应的指令数据库,以及当前体感动作的特征参数,获取控制指令。
具体的,由于物联网管理平台中包括多种属性的交互界面,例如用户界面、接入物联网的物理设备的控制界面、三维场景展示界面、地图界面等等,因此,预先为不同的交互界面分别配置了个性化的指令数据库。
需要说明的是,指令数据库中记载了各种体感动作对应的控制指令,记载的控制指令是与当前交互界面匹配的。交互界面不同时,同样的体感动作对应的控制指令可能不同。例如,挥手动作在信息显示界面为跳转到下一页的控制指令,而在地图界面为地图滑动显示的控制指令。由此,提升了控制指令的适应性和使用性,获取的控制指令正确率更高,贴近用户在不同场景下的实际需求。
管理平台根据当前获取的体感动作特征参数,分析得到用户输入的体感动作。
然后,根据体感动作查询当前交互界面的指令数据库,获取当前体感动作对应的控制指令。
步骤S30、执行所述控制指令,并基于所述交互界面反馈所述控制指令的执行结果。
在获取控制指令后,管理平台执行当前获取的控制指令,并将执行结果显示在当前交互界面上,供用户获取当前控制指令的执行结果,实现用户通过体感动作对管理平台输入操作指令。
在本实施例中,采集基于交互界面输入的体感数据,分析得到体感动作的特征参数;然后,根据交互界面预先配置的指令数据库,以及体感动作的特征参数,获取控制指令;执行控制指令,并基于交互界面反馈控制指令的执行结果。本实施例通过对基于当前交互界面采集得到的体感数据进行分析,得到体感动作的特征参数,用于匹配对应的控制指令;本实施例预先根据交互界面的属性给交互界面配置对应的个性化指令数据库,从而使根据体感动作获取的控制指令是与当前显示界面适应、匹配的,减小了无效控制指令的输出,提升了控制指令的正确率;在根据体感动作特征参数和当前交互界面对应的指令数据库获取控制指令后,执行得到的控制指令,并将控制指令执行结果通过交互界面反馈给用户,由此,实现了对物联网管理平台的体感控制,增加了物联网管理平台操作方式的多样性,满足了用户的多样化需求,增强了操作管理的趣味性。
进一步的,参照图2,本发明体感控制方法第二实施例提供一种体感控制方法,基于上述图1所示的实施例,当所述交互界面为用户界面时,所述步骤S20包括:
步骤S21、根据所述体感动作特征参数中手的伸展状态、移动轨迹和时间信息,将所述体感动作投射在所述用户界面中,获取模拟动作。
物联网管理平台中包括各种属性的交互界面,本实施例中,当前交互界面为用户界面,也可称为UI(User Interface,用户界面)界面,用户界面可以是多标签页面。
首先,管理平台根据体感动作特征参数中手的伸展状态、移动轨迹和时间信息,将体感动作投射在用户界面中。其中,手的伸展状体包括握拳、平伸等;手的移动轨迹包括手向空间中各个方向的移动轨迹;时间信息包括手在各位置停留的时间。
根据体感动作的特征参数,获取用户的体感动作。
参照图8,用户的体感动作包括双手平伸水平分离、双手平伸水平合拢、双手分别握拳水平分离、双手分别握拳水平合拢、单手握拳向前推/后拉、单手平伸停留/向前推、单手平伸左/右滑动、单手平伸上/下滑动等。
例如,若用户双手平伸,并在水平方向上反向平移,双手指间的水平距离超过预设的距离,则判定当前体感动作为双手平伸水平分离;若用户双手平伸,并在水平方向上反向平移,双手指间的水平距离小于预设的距离,则判定当前体感动作为双手平伸水平合拢;若用户单手握拳并水平向前推,移动轨迹超过预设的距离,则判定当前体感动作为单手握拳向前推;若用户单手平伸,在同一位置或坐标的停留时间超过预设时间,则判定当前体感动作为单手平伸停留;若用户单手平伸,向用户坐标系中的左边移动,且移动距离超过预设的距离,则判定当前体感动作为单手平伸左滑动。
然后,管理平台将用户体感动作投射在用户界面,根据体感动作的各项特征参数进行分析得到模拟动作。
例如,将双手平伸水平分离投射在用户界面中,得到放大动作;将双手平伸水平合拢投射在用户界面中,得到缩小动作;将双手分别握拳水平分离投射在用户界面中,得到放大动作;将双手分别握拳水平合拢投射在用户界面中,得到放大动作;将单手握拳向前/后推投射在用户界面中,得到向上/向下滚动动作;将单手平伸停留投射在用户界面中,得到点击动作,以及单手投射在用户界面中的位置或坐标;将单手平伸左/右滑动投射在用户界面中,得到向左/右翻页动作。
由此,得到用户体感动作投射在用户界面中的模拟动作。
步骤S22、根据所述用户界面预先配置的指令数据库,获取所述模拟动作对应的控制指令。
在得到用户体感动作对应的模拟动作后,管理平台根据当前用户界面预先配置的指令数据库,查找模拟动作对应的控制指令。得到的控制指令包括切换至上一/下一标签页面、缩放显示页面、滚动显示页面或点击显示页面等。
例如,向左/右翻页动作对应的控制指令为切换为当前显示页面的上一/下一标签页面;得到向上/向下滚动动作对应的控制指令为向上/向下滚动显示页面;页面放大动作对应的控制指令为放大当前显示页面;缩小动作对应的控制指令为缩小当前的显示页面;点击动作对应的控制指令为点击当前显示页面中,体感动作投射的位置。
由此,得到控制指令。
然后,执行得到的控制指令,进行页面的标签切换、缩放、滚动或点击等,实现对交互界面的体感控制。
参照图9,当前用户界面为标签页1,若控制指令为切换为当前显示页面的下一标签页面,则对应的控制当前显示页面进行切换,切换为标签页2。
当然,本实施例中还可以结合用户体感动作的移动距离,控制页面缩放的尺寸、页面滚动的长度等。
在本实施例中,当所述交互界面为用户界面时,获取体感动作特征参数后,根据体感动作特征参数中手的伸展状态、移动轨迹和时间信息,将体感动作投射在用户界面中,获取模拟动作,从而将用户输入的体感动作转换为虚拟的模拟动作,用于更加准确的识别用户输入的控制指令;然后,根据用户界面预先配置的指令数据库,获取模拟动作对应的控制指令,控制指令包括切换至上一/下一标签页面、缩放显示页面、滚动显示页面或点击显示页面,包括对用户界面的各种常用操作指令,满了用户对用户界面的操作需求。本实施例通过将用户体感动作投射的用户界面上,再获取控制指令,提升了控制指令的准确性;并且,根据用户需求,配置了用户界面的常用控制指令,使用户能够通过体感动作顺利进行用户界面的各项操作控制,实现了操作指令输入方式的多样性。
进一步的,参照图3,本发明体感控制方法第三实施例提供一种体感控制方法,基于上述图1所示的实施例,当所述交互界面为物理设备的控制界面时,所述步骤S20包括:
步骤S23、根据所述体感动作特征参数中手的伸展状态、移动轨迹和转动方向,模拟对所述物理设备的操作动作。
物联网管理平台中包括各种属性的交互界面,本实施例中,当前交互界面为物理设备的控制界面,用于控制当前接入到管理平台中的物理设备。控制界面中的物理设备可以是摄像头、云台、传感器、警报器等等,管理平台可以基于网络控制物理设备,对物理设备进行管理。
首先,管理平台根据体感动作特征参数中,手的伸展状态、移动轨迹和转动方向,模拟对当前控制界面中物理设备的操作动作。
物理设备的控制界面中可以提供当前物理设备的虚拟控制组件,例如虚拟控制手柄、虚拟按钮等。
例如,当前控制界面中提供物理设备的虚拟开关按钮,若用户的体感动作为单手平伸前推,则根据单手平伸前推的动作特征参数,在物理设备上模拟单手平伸前推的动作,得到单手平伸前推时,按压开关按钮的动作为对物理设备的操作动作。
由此,得到对物理设备的操作动作。
步骤S24、根据所述物理设备预先配置的指令数据库,获取所述操作动作对应的控制指令。
在得到对物理设备的操作动作后,根据当前物理设备预先配置的指令数据库,查找当前操作动作对应的控制指令。
例如,对物理设备的操作动作为按压开关按钮,则根据当前物理设备与西安配置的指令数据库,获取按压开关按钮对应的控制指令:启动物理设备。
由此,得到当前操作动作对应的控制指令。
所述步骤S30包括:
步骤S31、将所述控制指令发送到所述物理设备,控制所述物理设备执行所述控制指令。
在获取控制指令后,管理平台基于网络连接,将控制指令发送到当前控制界面中的物理设备,控制物理设备指令控制指令。
例如,控制指令为启动物理设备,则控制物理设备模拟开关按钮被按压,并执行按钮被按压后触发的操作。
步骤S32、接收所述物理设备返回的所述控制指令的执行结果,并在所述交互界面上显示所述执行结果。
在控制物理设备执行当前的控制指令后,管理平台接收物理设备返回的当前控制指令的执行结果。
若物理设备成功执行当前的控制指令,则获取物理设备当前的运行状态,将控制指令成功执行的信息与物理设备当前的运行状态作为当前控制指令执行的结果,显示在当前物理设备的控制界面上,向用户反馈执行结果。
若物理设备未成功执行当前的控制指令,则将控制指令执行失败的信息作为当前控制指令执行的结果,显示在当前物理设备的控制界面上,向用户反馈执行结果。
参照图10,以当前物理设备为摄像头的云台为应用场景,进行举例说明。
云台可任意方向转动,从而调整摄像头的拍摄角度。
若用户输入的体感动作特征参数得到体感动作为单手指尖向上平伸,并且手掌顺时针转动,则在云台上模拟顺时针转动的动作,得到控制云台顺时针转动的动作为对云台的操作动作。
然后,根据云台预先配置的指令数据库,获取控制云台顺时针转动的操作动作对应的控制指令,也即控制云台顺时针转动的指令,顺时针转动的角度可以是预先配置的固定值。
然后,管理平台将控制指令发送给云台,控制云台根据预设的角度值顺时针转动。
若云台根据控制指令成功根据预设的角度顺时针转动,则管理平台将控制指令成功执行的信息作为执行结果,显示在当前云台的控制界面中;若云台根据控制指令未成功的根据预设的角度顺时针转动,则管理平台将控制指令执行失败的信息作为执行结果,显示在当前云台的控制界面中。
由此,用户获取当前体感动作对云台的操作结果。
当然,还可以根据手的拉伸动作实现控制摄像头拍摄焦距的调整等。
由此,实现了体感控制物联网管理平台中的物理设备。
在本实施例中,当交互界面为物理设备的控制界面时,根据体感动作特征参数中手的伸展状态、移动轨迹和转动方向,模拟对物理设备的操作动作;然后,根据物理设备预先配置的指令数据库,获取操作动作对应的控制指令;然后,将控制指令发送到物理设备,控制物理设备执行控制指令;接收物理设备返回的控制指令的执行结果,并在交互界面上显示执行结果。本实施例通过根据体感动作特征参数模拟对物理设备的操作动作,模拟实现用户操控物理设备的场景,获取用户当前体感动作为物理设备的操作动作,拉近了用户与远程的物理设备的距离感;不同的物理设备对应适配的指令数据库,根据对物理设备的操作动作和物理设备的指令数据库,查找得到当前操作动作对应的控制指令是与当前操作场景匹配且有效的,降低了体感控制的失败概率,使得用户可以通过多种体感动作控制物理设备,提升了用户体验。
进一步的,参照图4,本发明体感控制方法第四实施例提供一种体感控制方法,基于上述图3所示的实施例,当所述交互界面为三维场景展示界面时,所述步骤S20包括:
步骤S25、根据所述三维场景展示界面预先配置的指令数据库,以及所述体感动作特征参数中手和脚的移动轨迹、头部转动方向,获取调整所述三维场景视角的控制指令。
物联网管理平台中包括各种属性的交互界面,本实施例中,当前交互界面为三维场景展示界面,用于展示三维场景,例如住宅内部的三维场景、工厂厂房内部的三维场景、道路三维场景等。
在获取用户的体感动作特征参数后,管理平台根据当前三维场景展示界面预先配置的指令数据库,以及体感动作特征参数中的手和脚的移动轨迹、头部转动方向,获取调整当前三维场景视角的控制指令。
具体的,管理平台获取特征参数中手和脚的移动轨迹,以及头部转动方向。
然后,基于预先配置的指令数据库,根据手的移动轨迹或头部转动方向,获取对应的控制三维场景方向调整的控制指令;根据脚的移动轨迹,获取对应的控制三维场景缩放的控制指令。
例如,用户双脚原地踏步或向前行走,则根据指令数据库,得到双脚原地踏步或向前行走对应的控制三维场景放大的控制指令,模拟用户向前行走时三维场景视图的动态变化。
用户单手向左水平移动,则根据指令数据库,得到单手向左水平移动对应的控制三维场景视图向左转动的控制指令。
用户头部顺时针转动,则根据指令数据库,得到头部顺时针转动对应的控制三维场景视图顺时针转动的控制指令。
由此,得到调整当前三维场景视图的控制指令。
执行得到的控制指令,即可相应的调整当前三维场景的视图,使用户有三维场景的置入感。
在本实施例中,当交互界面为三维场景展示界面时,获取体感动作特征参数后,根据三维场景展示界面预先配置的指令数据库,以及体感动作特征参数中手和脚的移动轨迹、头部转动方向,获取调三维场景视图的控制指令。本实施例通过用户手和脚的移动轨迹、头部的转动方向,从而控制三维场景视图的调整,实现了用户体感动作对三维场景界面的控制,使用户对三维场景具有身临其境的真实感。
进一步的,参照图5,本发明体感控制方法第五实施例提供一种体感控制方法,基于上述图1图2、图3或图4所示的任一实施例(本实施例以图1为例),所述步骤S10之后,还包括:
步骤S40、根据所述体感动作特征参数,绘制体感轮廓并在所述交互界面上显示,供用户根据所述体感轮廓修正输入的体感动作。
由于用户在进行体感控制时,并不清楚其本身的动作是否正确、是否能够被识别,若识别失败也不知道具体的失败原因,降低了体感控制的实用性。
因此,本实施例在获取体感动作特征参数后,根据当前获取的体感动作特征参数,使用预先配置的人体图像素材,绘制用户的体感轮廓。绘制得到的体感轮廓可以是二维动态图像,也可以是三维动态视图,可根据需要灵活设置。
然后,参照图11,管理平台在当前交互界面预先配置的位置上,显示绘制得到的体感轮廓。
用户看到显示的体感轮廓后,可以对应修正人体动作,从而使管理平台更加准确的识别得到对应的控制指令。
例如,若用户当前双手平伸合拢,则绘制得到抽象的双手平伸合拢的动作轮廓,作为用户当前的体感轮廓;若用户当前原地踏步,则绘制得到抽象的人体原地踏步的动作轮廓,作为用户当前的体感轮廓。
在本实施例中,获取体感动作特征参数后,根据体感动作特征参数,绘制体感轮廓并在交互界面上显示,供用户根据体感轮廓修正输入的体感动作。本实施例中通过绘制并显示体感轮廓,使用户及时获取其体感动作的信息,进行自我修正,从而使用户输入更加容易识别的体感动作,提高体感控制的成功率。
参照图6,本发明体感控制装置第一实施例提供一种体感控制装置,所述体感控制装置包括:
采集模块10,用于采集基于交互界面输入的的体感数据,分析得到体感动作的特征参数。
本发明实施例通过采集在当前交互界面输入的体感数据,根据用户的体感动作向物联网管理平台的交互页面输入控制指令,控制物联网管理平台执行控制指令,实现体感控制物联网管理平台,增加了物联网管理平台操作指令输入方式。
体感控制装置部署在物联网管理平台中。
具体的,作为一种实施方式,首先,基于管理平台的当前交互界面,采集模块10获取体感设备采集的体感数据。体感设备可通过红外线、摄像头等多种方式,采集用户输入的体感数据。管理平台的交互界面可以显示在各类显示设备上,例如移动终端、个人计算机、屏幕墙等。
采集模块10根据体感设备采集的体感数据,分析得到体感动作的各项特征参数,得到的体感动作特征参数包括用户身体各个部位的运动特征参数及状态信息,例如,手的伸展状态、手的滑动轨迹、头部的转动动作、脚的抬升和下落动作等等。
指令模块20,用于根据所述交互界面预先配置的指令数据库,以及所述体感动作的特征参数,获取控制指令。
在分析得到体感动作的特征参数后,指令模块20根据当前交互界面预先配置对应的指令数据库,以及当前体感动作的特征参数,获取控制指令。
具体的,由于物联网管理平台中包括多种属性的交互界面,例如用户界面、接入物联网的物理设备的控制界面、三维场景展示界面、地图界面等等,因此,预先为不同的交互界面分别配置了个性化的指令数据库。
需要说明的是,指令数据库中记载了各种体感动作对应的控制指令,记载的控制指令是与当前交互界面匹配的。交互界面不同时,同样的体感动作对应的控制指令可能不同。例如,挥手动作在信息显示界面为跳转到下一页的控制指令,而在地图界面为地图滑动显示的控制指令。由此,提升了控制指令的适应性和使用性,获取的控制指令正确率更高,贴近用户在不同场景下的实际需求。
指令模块20根据当前获取的体感动作特征参数,分析得到用户输入的体感动作。
然后,指令模块20根据体感动作查询当前交互界面的指令数据库,获取当前体感动作对应的控制指令。
执行模块30,用于执行所述控制指令,并基于所述交互界面反馈所述控制指令的执行结果。
在获取控制指令后,执行模块30执行当前获取的控制指令,并将执行结果显示在当前交互界面上,供用户获取当前控制指令的执行结果,实现用户通过体感动作对管理平台输入操作指令。
在本实施例中,采集模块10采集基于交互界面输入的体感数据,分析得到体感动作的特征参数;然后,指令模块20根据交互界面预先配置的指令数据库,以及体感动作的特征参数,获取控制指令;执行模块30执行控制指令,并基于交互界面反馈控制指令的执行结果。本实施例通过对基于当前交互界面采集得到的体感数据进行分析,得到体感动作的特征参数,用于匹配对应的控制指令;本实施例预先根据交互界面的属性给交互界面配置对应的个性化指令数据库,从而使根据体感动作获取的控制指令是与当前显示界面适应、匹配的,减小了无效控制指令的输出,提升了控制指令的正确率;在根据体感动作特征参数和当前交互界面对应的指令数据库获取控制指令后,执行得到的控制指令,并将控制指令执行结果通过交互界面反馈给用户,由此,实现了对物联网管理平台的体感控制,增加了物联网管理平台操作方式的多样性,满足了用户的多样化需求,增强了操作管理的趣味性。
进一步的,参照图6,本发明体感控制装置第二实施例提供一种体感控制装置,基于上述图6所示的本发明体感控制装置第一实施例,当所述交互界面为用户界面时,所述指令模块20,还用于,
根据所述体感动作特征参数中手的伸展状态、移动轨迹和时间信息,将所述体感动作投射在所述用户界面中,获取模拟动作;根据所述用户界面预先配置的指令数据库,获取所述模拟动作对应的控制指令。
物联网管理平台中包括各种属性的交互界面,本实施例中,当前交互界面为用户界面,也可称为UI(User Interface,用户界面)界面,用户界面可以是多标签页面。
首先,指令模块20根据体感动作特征参数中手的伸展状态、移动轨迹和时间信息,将体感动作投射在用户界面中。其中,手的伸展状体包括握拳、平伸等;手的移动轨迹包括手向空间中各个方向的移动轨迹;时间信息包括手在各位置停留的时间。
指令模块20根据体感动作的特征参数,获取用户的体感动作。
参照图8,用户的体感动作包括双手平伸水平分离、双手平伸水平合拢、双手分别握拳水平分离、双手分别握拳水平合拢、单手握拳向前推/后拉、单手平伸停留/向前推、单手平伸左/右滑动、单手平伸上/下滑动等。
例如,若用户双手平伸,并在水平方向上反向平移,双手指间的水平距离超过预设的距离,则判定当前体感动作为双手平伸水平分离;若用户双手平伸,并在水平方向上反向平移,双手指间的水平距离小于预设的距离,则判定当前体感动作为双手平伸水平合拢;若用户单手握拳并水平向前推,移动轨迹超过预设的距离,则判定当前体感动作为单手握拳向前推;若用户单手平伸,在同一位置或坐标的停留时间超过预设时间,则判定当前体感动作为单手平伸停留;若用户单手平伸,向用户坐标系中的左边移动,且移动距离超过预设的距离,则判定当前体感动作为单手平伸左滑动。
然后,指令模块20将用户体感动作投射在用户界面,根据体感动作的各项特征参数进行分析得到模拟动作。
例如,将双手平伸水平分离投射在用户界面中,得到放大动作;将双手平伸水平合拢投射在用户界面中,得到缩小动作;将双手分别握拳水平分离投射在用户界面中,得到放大动作;将双手分别握拳水平合拢投射在用户界面中,得到放大动作;将单手握拳向前/后推投射在用户界面中,得到向上/向下滚动动作;将单手平伸停留投射在用户界面中,得到点击动作,以及单手投射在用户界面中的位置或坐标;将单手平伸左/右滑动投射在用户界面中,得到向左/右翻页动作。
由此,指令模块20得到用户体感动作投射在用户界面中的模拟动作。
在得到用户体感动作对应的模拟动作后,指令模块20根据当前用户界面预先配置的指令数据库,查找模拟动作对应的控制指令。得到的控制指令包括切换至上一/下一标签页面、缩放显示页面、滚动显示页面或点击显示页面等。
例如,向左/右翻页动作对应的控制指令为切换为当前显示页面的上一/下一标签页面;得到向上/向下滚动动作对应的控制指令为向上/向下滚动显示页面;页面放大动作对应的控制指令为放大当前显示页面;缩小动作对应的控制指令为缩小当前的显示页面;点击动作对应的控制指令为点击当前显示页面中,体感动作投射的位置。
由此,指令模块20得到控制指令。
然后,控制模块30执行得到的控制指令,进行页面的切换、缩放、滚动或点击等,实现对交互界面的体感控制。
参照图9,当前用户界面为标签页1,若控制指令为切换为当前显示页面的下一标签页面,则对应的控制当前显示页面进行切换,切换为标签页2。
当然,本实施例中还可以结合用户体感动作的移动距离,控制页面缩放的尺寸、页面滚动的长度等。
在本实施例中,当所述交互界面为用户界面时,获取体感动作特征参数后,指令模块20根据体感动作特征参数中手的伸展状态、移动轨迹和时间信息,将体感动作投射在用户界面中,获取模拟动作,从而将用户输入的体感动作转换为虚拟的模拟动作,用于更加准确的识别用户输入的控制指令;然后,根据用户界面预先配置的指令数据库,获取模拟动作对应的控制指令,控制指令包括切换至上一/下一标签页面、缩放显示页面、滚动显示页面或点击显示页面,包括对用户界面的各种常用操作指令,满了用户对用户界面的操作需求。本实施例通过将用户体感动作投射的用户界面上,再获取控制指令,提升了控制指令的准确性;并且,根据用户需求,配置了用户界面的常用控制指令,使用户能够通过体感动作顺利进行用户界面的各项操作控制,实现了操作指令输入方式的多样性。
进一步的,参照图6,本发明体感控制装置第三实施例提供一种体感控制装置,基于上述图6所示的本发明体感控制装置第一实施例,当所述交互界面为物理设备的控制界面时,所述指令模块20,还用于,
根据所述体感动作特征参数中手的伸展状态、移动轨迹和转动方向,模拟对所述物理设备的操作动作;根据所述物理设备预先配置的指令数据库,获取所述操作动作对应的控制指令。
物联网管理平台中包括各种属性的交互界面,本实施例中,当前交互界面为物理设备的控制界面,用于控制当前接入到管理平台中的物理设备。控制界面中的物理设备可以是摄像头、云台、传感器、警报器等等,管理平台可以基于网络控制物理设备,对物理设备进行管理。
首先,指令模块20根据体感动作特征参数中,手的伸展状态、移动轨迹和转动方向,模拟对当前控制界面中物理设备的操作动作。
物理设备的控制界面中可以提供当前物理设备的虚拟控制组件,例如虚拟控制手柄、虚拟按钮等。
例如,当前控制界面中提供物理设备的虚拟开关按钮,若用户的体感动作为单手平伸前推,则根据单手平伸前推的动作特征参数,在物理设备上模拟单手平伸前推的动作,得到单手平伸前推时,按压开关按钮的动作为对物理设备的操作动作。
由此,指令模块20得到对物理设备的操作动作。
在得到对物理设备的操作动作后,指令模块20根据当前物理设备预先配置的指令数据库,查找当前操作动作对应的控制指令。
例如,对物理设备的操作动作为按压开关按钮,则根据当前物理设备与西安配置的指令数据库,获取按压开关按钮对应的控制指令:启动物理设备。
由此,指令模块20得到当前操作动作对应的控制指令。
所述执行模块30,还用于将所述控制指令发送到所述物理设备,控制所述物理设备执行所述控制指令;接收所述物理设备返回的所述控制指令的执行结果,并在所述交互界面上显示所述执行结果。
在获取控制指令后,执行模块30基于网络连接,将控制指令发送到当前控制界面中的物理设备,控制物理设备指令控制指令。
例如,控制指令为启动物理设备,则控制物理设备模拟开关按钮被按压,并执行按钮被按压后触发的操作。
在控制物理设备执行当前的控制指令后,执行模块30接收物理设备返回的当前控制指令的执行结果。
若物理设备成功执行当前的控制指令,则执行模块30获取物理设备当前的运行状态,将控制指令成功执行的信息与物理设备当前的运行状态作为当前控制指令执行的结果,显示在当前物理设备的控制界面上,向用户反馈执行结果。
若物理设备未成功执行当前的控制指令,则执行模块30将控制指令执行失败的信息作为当前控制指令执行的结果,显示在当前物理设备的控制界面上,向用户反馈执行结果。
参照图10,以当前物理设备为摄像头的云台为应用场景,进行举例说明。
云台可任意方向转动,从而调整摄像头的拍摄角度。
若用户输入的体感动作特征参数得到体感动作为单手指尖向上平伸,并且手掌顺时针转动,则在云台上模拟顺时针转动的动作,得到控制云台顺时针转动的动作为对云台的操作动作。
然后,根据云台预先配置的指令数据库,获取控制云台顺时针转动的操作动作对应的控制指令,也即控制云台顺时针转动的指令,顺时针转动的角度可以是预先配置的固定值。
然后,执行模块30将控制指令发送给云台,控制云台根据预设的角度值顺时针转动。
若云台根据控制指令成功根据预设的角度顺时针转动,则执行模块30将控制指令成功执行的信息作为执行结果,显示在当前云台的控制界面中;若云台根据控制指令未成功的根据预设的角度顺时针转动,则执行模块30将控制指令执行失败的信息作为执行结果,显示在当前云台的控制界面中。
由此,用户获取当前体感动作的对云台的操作结果。
当然,还可以根据手的拉伸动作实现控制摄像头拍摄焦距的调整等。
由此,实现了体感控制物联网管理平台中的物理设备。
在本实施例中,当交互界面为物理设备的控制界面时,指令模块20根据体感动作特征参数中手的伸展状态、移动轨迹和转动方向,模拟对物理设备的操作动作;然后,根据物理设备预先配置的指令数据库,获取操作动作对应的控制指令;然后,执行模块30将控制指令发送到物理设备,控制物理设备执行控制指令;接收物理设备返回的控制指令的执行结果,并在交互界面上显示执行结果。本实施例通过根据体感动作特征参数模拟对物理设备的操作动作,模拟实现用户操控物理设备的场景,获取用户当前体感动作为物理设备的操作动作,拉近了用户与远程的物理设备的距离感;不同的物理设备对应适配的指令数据库,根据对物理设备的操作动作和物理设备的指令数据库,查找得到当前操作动作对应的控制指令是与当前操作场景匹配且有效的,降低了体感控制的失败概率,使得用户可以通过多种体感动作控制物理设备,提升了用户体验。
进一步,参照图6,本发明体感控制装置第四实施例提供一种体感控制装置,基于上述图6所示的本发明体感控制装置第一实施例,当所述交互界面为三维场景展示界面时,所述指令模块20,还用于,
根据所述三维场景展示界面预先配置的指令数据库,以及所述体感动作特征参数中手和脚的移动轨迹、头部转动方向,获取调整所述三维场景视图的控制指令。
物联网管理平台中包括各种属性的交互界面,本实施例中,当前交互界面为三维场景展示界面,用于展示三维场景,例如住宅内部的三维场景、工厂厂房内部的三维场景、道路三维场景等。
在获取用户的体感动作特征参数后,指令模块20根据当前三维场景展示界面预先配置的指令数据库,以及体感动作特征参数中的手和脚的移动轨迹、头部转动方向,获取调整当前三维场景视角的控制指令。
具体的,指令模块20获取特征参数中手和脚的移动轨迹,以及头部转动方向。
然后,指令模块20基于预先配置的指令数据库,根据手的移动轨迹或头部转动方向,获取对应的控制三维场景方向调整的控制指令;根据脚的移动轨迹,获取对应的控制三维场景缩放的控制指令。
例如,用户双脚原地踏步或向前行走,则根据指令数据库,得到双脚原地踏步或向前行走对应的控制三维场景放大的控制指令,模拟用户向前行走时三维场景视图的动态变化。
用户单手向左水平移动,则根据指令数据库,得到单手向左水平移动对应的控制三维场景视图向左转动的控制指令。
用户头部顺时针转动,则根据指令数据库,得到头部顺时针转动对应的控制三维场景视图顺时针转动的控制指令。
由此,指令模块20得到调整当前三维场景视图的控制指令。
控制模块30执行得到的控制指令,即可相应的调整当前三维场景的视图,使用户有三维场景的置入感。
在本实施例中,当交互界面为三维场景展示界面时,获取体感动作特征参数后,指令模块20根据三维场景展示界面预先配置的指令数据库,以及体感动作特征参数中手和脚的移动轨迹、头部转动方向,获取调三维场景视图的控制指令。本实施例通过用户手和脚的移动轨迹、头部的转动方向,从而控制三维场景视图的调整,实现了用户体感动作对三维场景界面的控制,使用户对三维场景具有身临其境的真实感。
具体的,参照图7,本发明体感控制装置第五实施例提供一种体感控制装置,基于上述图6所示的任一实施例(本实施例以本发明体感控制装置第一实施例为例),所述体感控制装置,还包括:
修正模块40,用于根据所述体感动作特征参数,绘制体感轮廓并在所述交互界面上显示,供用户根据所述体感轮廓修正输入的体感动作。
由于用户在进行体感控制时,并不清楚其本身的动作是否正确、是否能够被识别,若识别失败也不知道具体的失败原因,降低了体感控制的实用性。
因此,本实施例在获取体感动作特征参数后,修正模块40根据当前获取的体感动作特征参数,使用预先配置的人体图像素材,绘制用户的体感轮廓。绘制得到的体感轮廓可以是二维动态图像,也可以是三维动态视图,可根据需要灵活设置。
然后,参照图11,修正模块40在当前交互界面预先配置的位置上,显示绘制得到的体感轮廓。
用户看到显示的体感轮廓后,可以对应修正人体动作,从而使管理平台更加准确的识别得到对应的控制指令。
例如,若用户当前双手平伸合拢,则绘制得到抽象的双手平伸合拢的动作轮廓,作为用户当前的体感轮廓;若用户当前原地踏步,则绘制得到抽象的人体原地踏步的动作轮廓,作为用户当前的体感轮廓。
在本实施例中,获取体感动作特征参数后,修正模块40根据体感动作特征参数,绘制体感轮廓并在交互界面上显示,供用户根据体感轮廓修正输入的体感动作。本实施例中通过绘制并显示体感轮廓,使用户及时获取其体感动作的信息,进行自我修正,从而使用户输入更加容易识别的体感动作,提高体感控制的成功率。
以上仅为本发明的可选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种体感控制方法,其特征在于,所述体感控制方法包括以下步骤:
采集基于交互界面输入的体感数据,分析得到体感动作的特征参数;
根据所述交互界面预先配置的指令数据库,以及所述体感动作的特征参数,获取控制指令;
执行所述控制指令,并基于所述交互界面反馈所述控制指令的执行结果。
2.如权利要求1所述的体感控制方法,其特征在于,当所述交互界面为用户界面时,所述根据所述交互界面预先配置的指令数据库,以及所述体感动作的特征参数,获取控制指令的步骤包括:
根据所述体感动作特征参数中手的伸展状态、移动轨迹和时间信息,将所述体感动作投射在所述用户界面中,获取模拟动作;
根据所述用户界面预先配置的指令数据库,获取所述模拟动作对应的控制指令。
3.如权利要求1所述的体感控制方法,其特征在于,当所述交互界面为物理设备的控制界面时,所述根据所述交互界面预先配置的指令数据库,以及所述体感动作的特征参数,获取控制指令的步骤包括:
根据所述体感动作特征参数中手的伸展状态、移动轨迹和转动方向,模拟对所述物理设备的操作动作;
根据所述物理设备预先配置的指令数据库,获取所述操作动作对应的控制指令;
所述执行所述控制指令,并基于所述交互界面反馈所述控制指令的执行结果的步骤包括:
将所述控制指令发送到所述物理设备,控制所述物理设备执行所述控制指令;
接收所述物理设备返回的所述控制指令的执行结果,并在所述交互界面上显示所述执行结果。
4.如权利要求1所述的体感控制方法,其特征在于,当所述交互界面为三维场景展示界面时,所述根据所述交互界面预先配置的指令数据库,以及所述体感动作的特征参数,获取控制指令的步骤包括:
根据所述三维场景展示界面预先配置的指令数据库,以及所述体感动作特征参数中手和脚的移动轨迹、头部转动方向,获取调整所述三维场景视图的控制指令。
5.如权利要求1所述的体感控制方法,其特征在于,所述采集基于交互界面输入的的体感数据,分析得到体感动作的特征参数的步骤之后,还包括:
根据所述体感动作特征参数,绘制体感轮廓并在所述交互界面上显示,供用户根据所述体感轮廓修正输入的体感动作。
6.一种体感控制装置,其特征在于,所述体感控制装置包括:
采集模块,用于采集基于交互界面输入的的体感数据,分析得到体感动作的特征参数;
指令模块,用于根据所述交互界面预先配置的指令数据库,以及所述体感动作的特征参数,获取控制指令;
执行模块,用于执行所述控制指令,并基于所述交互界面反馈所述控制指令的执行结果。
7.如权利要求6所述的体感控制装置,其特征在于,当所述交互界面为用户界面时,所述指令模块,还用于,
根据所述体感动作特征参数中手的伸展状态、移动轨迹和时间信息,将所述体感动作投射在所述用户界面中,获取模拟动作;根据所述用户界面预先配置的指令数据库,获取所述模拟动作对应的控制指令。
8.如权利要求6所述的体感控制装置,其特征在于,当所述交互界面为物理设备的控制界面时,所述指令模块,还用于,
根据所述体感动作特征参数中手的伸展状态、移动轨迹和转动方向,模拟对所述物理设备的操作动作;根据所述物理设备预先配置的指令数据库,获取所述操作动作对应的控制指令;
所述执行模块,还用于将所述控制指令发送到所述物理设备,控制所述物理设备执行所述控制指令;接收所述物理设备返回的所述控制指令的执行结果,并在所述交互界面上显示所述执行结果。
9.如权利要求6所述的体感控制装置,其特征在于,当所述交互界面为三维场景展示界面时,所述指令模块,还用于,
根据所述三维场景展示界面预先配置的指令数据库,以及所述体感动作特征参数中手和脚的移动轨迹、头部转动方向,获取调整所述三维场景视图的控制指令。
10.如权利要求6所述的体感控制装置,其特征在于,所述体感控制装置,还包括:
修正模块,用于根据所述体感动作特征参数,绘制体感轮廓并在所述交互界面上显示,供用户根据所述体感轮廓修正输入的体感动作。
CN201610349978.8A 2016-05-24 2016-05-24 体感控制方法和装置 Pending CN105975081A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610349978.8A CN105975081A (zh) 2016-05-24 2016-05-24 体感控制方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610349978.8A CN105975081A (zh) 2016-05-24 2016-05-24 体感控制方法和装置

Publications (1)

Publication Number Publication Date
CN105975081A true CN105975081A (zh) 2016-09-28

Family

ID=56957046

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610349978.8A Pending CN105975081A (zh) 2016-05-24 2016-05-24 体感控制方法和装置

Country Status (1)

Country Link
CN (1) CN105975081A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599882A (zh) * 2017-01-07 2017-04-26 武克易 一种体感动作识别装置
CN106774829A (zh) * 2016-11-14 2017-05-31 平安科技(深圳)有限公司 一种对象控制方法和装置
US11461444B2 (en) 2017-03-31 2022-10-04 Advanced New Technologies Co., Ltd. Information processing method and device based on internet of things

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104516483A (zh) * 2013-09-28 2015-04-15 南京专创知识产权服务有限公司 基于体感技术的手语输入识别系统
CN104536563A (zh) * 2014-12-12 2015-04-22 林云帆 一种电子设备控制方法及系统
CN105068648A (zh) * 2015-08-03 2015-11-18 众景视界(北京)科技有限公司 头戴式智能交互系统
CN105204606A (zh) * 2014-06-11 2015-12-30 阿里巴巴集团控股有限公司 一种利用体感遥控设备控制浏览器的方法、装置及系统
US20160054808A1 (en) * 2013-09-04 2016-02-25 Sk Telecom Co., Ltd. Method and device for executing command on basis of context awareness

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160054808A1 (en) * 2013-09-04 2016-02-25 Sk Telecom Co., Ltd. Method and device for executing command on basis of context awareness
CN104516483A (zh) * 2013-09-28 2015-04-15 南京专创知识产权服务有限公司 基于体感技术的手语输入识别系统
CN105204606A (zh) * 2014-06-11 2015-12-30 阿里巴巴集团控股有限公司 一种利用体感遥控设备控制浏览器的方法、装置及系统
CN104536563A (zh) * 2014-12-12 2015-04-22 林云帆 一种电子设备控制方法及系统
CN105068648A (zh) * 2015-08-03 2015-11-18 众景视界(北京)科技有限公司 头戴式智能交互系统

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106774829A (zh) * 2016-11-14 2017-05-31 平安科技(深圳)有限公司 一种对象控制方法和装置
CN106774829B (zh) * 2016-11-14 2021-04-02 平安科技(深圳)有限公司 一种对象控制方法和装置
CN106599882A (zh) * 2017-01-07 2017-04-26 武克易 一种体感动作识别装置
US11461444B2 (en) 2017-03-31 2022-10-04 Advanced New Technologies Co., Ltd. Information processing method and device based on internet of things

Similar Documents

Publication Publication Date Title
Sanna et al. A Kinect-based natural interface for quadrotor control
CN103049852B (zh) 虚拟试衣系统
CN106201173B (zh) 一种基于投影的用户交互图标的交互控制方法及系统
CN102184020B (zh) 用于操纵用户界面的姿势和姿势修改
US9075434B2 (en) Translating user motion into multiple object responses
CN104933734B (zh) 一种基于多kinect的人体姿态数据融合方法
US20150227211A1 (en) Gesture input system, method, and program
US20110289455A1 (en) Gestures And Gesture Recognition For Manipulating A User-Interface
US20120053015A1 (en) Coordinated Motion and Audio Experience Using Looped Motions
WO2012164562A1 (en) Computer vision based control of a device using machine learning
CN101504728A (zh) 一种电子设备的遥控系统及其遥控方法
CN107930048B (zh) 一种太空体感识别运动分析系统及运动分析方法
CN104035557A (zh) 一种基于关节活跃度的Kinect动作识别方法
CN104571823A (zh) 一种基于智能电视的非接触式虚拟人机交互方法
CN105930785A (zh) 一种智能化的隐式交互系统
CN114998491A (zh) 数字人驱动方法、装置、设备及存储介质
CN105975081A (zh) 体感控制方法和装置
CN117292601A (zh) 一种虚拟现实手语教育系统
Sreejith et al. Real-time hands-free immersive image navigation system using Microsoft Kinect 2.0 and Leap Motion Controller
CN107168538A (zh) 一种基于肢体动作进行情感运算的3d校园导览方法及系统
CN109839827A (zh) 一种基于全空间位置信息的手势识别智能家居控制系统
Chang et al. Vision-based tracking and interpretation of human leg movement for virtual reality applications
CN105094344B (zh) 固定终端控制方法及装置
Rehman et al. Two hand gesture based 3d navigation in virtual environments
CN114020978B (zh) 基于多源信息融合的园区数字化漫游展示方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20160928

RJ01 Rejection of invention patent application after publication