CN102566744A - 一种鼠标控制方法、装置及终端 - Google Patents
一种鼠标控制方法、装置及终端 Download PDFInfo
- Publication number
- CN102566744A CN102566744A CN2010106003503A CN201010600350A CN102566744A CN 102566744 A CN102566744 A CN 102566744A CN 2010106003503 A CN2010106003503 A CN 2010106003503A CN 201010600350 A CN201010600350 A CN 201010600350A CN 102566744 A CN102566744 A CN 102566744A
- Authority
- CN
- China
- Prior art keywords
- mouse control
- user
- mouse
- control instruction
- limb
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 14
- 230000009471 action Effects 0.000 claims description 35
- 230000006698 induction Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 6
- 230000002452 interceptive effect Effects 0.000 abstract description 2
- 230000036541 health Effects 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Abstract
本发明适用于计算机领域,提供了一种鼠标控制方法、装置及终端,所述方法包括下述步骤:感应用户肢体运动的深度图像,获取图像深度数据;根据所述图像深度数据检测用户的鼠标控制指令;根据识别出的所述鼠标控制指令,进行相应的鼠标控制。在本发明中,通过对用户肢体的深度图像进行感应,识别出用户根据肢体动作所传达的鼠标控制指令,由此对鼠标进行相应的控制,不需要使用任何外部设备,提升了用户的人机交互体验。
Description
技术领域
本发明属于计算机领域,尤其涉及一种鼠标控制方法、装置及终端。
背景技术
无线鼠标方案和空中鼠标方案的出现在一定程度上解决了传统鼠标控制自由度受限的问题,使得用户在对鼠标进行控制时不再局限于有线方式。然而,上述两个方案都需要手持特定的交互设备,制造成本高,耗电量大,且手持设备容易损坏。同时,目前的空中鼠标方案大多基于红外图像处理,需要解决环境干扰和手持设备抖动等问题,高性能与成本控制无法平衡。最根本地,由于始终需要借助手持设备进行鼠标控制,用户需要在每次控制前先找到手持设备,操作便捷性降低。
发明内容
本发明实施例的目的在于提供一种鼠标控制方法,旨在解决现有技术中必须使用手持设备才能进行鼠标控制的问题。
本发明实施例是这样实现的,一种鼠标控制方法,所述方法包括下述步骤:
感应用户肢体运动的深度图像,获取图像深度数据;
根据所述图像深度数据检测用户的鼠标控制指令;
根据识别出的所述鼠标控制指令,进行相应的鼠标控制。
本发明实施例的另一目的在于提供一种鼠标控制装置,所述装置包括:
深度图像感应单元,用于感应用户肢体运动的深度图像,获取图像深度数据;
控制指令检测单元,用于根据所述图像深度数据检测用户的鼠标控制指令;
鼠标控制单元,用于根据所述鼠标控制指令,进行相应的鼠标控制。
本发明实施例的另一目的在于提供一种包括上述鼠标控制装置的终端。
在本发明实施例中,通过对用户肢体的深度图像进行感应,识别出用户根据肢体动作所传达的鼠标控制指令,由此对鼠标进行相应的控制,不需要使用任何外部设备,提升了用户的人机交互体验。
附图说明
图1是本发明实施例提供的鼠标控制方法的实现流程图;
图2是本发明实施例提供的鼠标控制指令识别的具体流程图;
图3是本发明实施例提供的鼠标控制装置的结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在本发明实施例中,通过对用户肢体的深度图像进行感应,识别出用户根据肢体动作所传达的鼠标控制指令,由此对鼠标进行相应的控制,不需要使用任何外部设备,提升了用户的人机交互体验。
图1示出了本发明实施例提供的鼠标控制方法的实现流程,详述如下:
在步骤S101中,感应用户肢体运动的深度图像,获取图像深度数据。
在本发明实施例中,被感应的用户肢体运动的深度图像位于感应设备的可感应范围内,通过深度图像感应,能够获取感应图像每个像素的深度数据,包括每个像素相对于感应器的距离及其距离变化。例如,当用户的手部向身体正前方推送时,能够通过感应器感应出该用户手部图像的像素相对于感应器的距离变化。
在步骤S102中,根据所述图像深度数据检测用户的鼠标控制指令。
在本发明实施例中,对获取到的图像深度数据进行处理,通过分析图像深度数据中所记录的每个像素相对于感应器的距离及其距离变化,得到用户的肢体运动数据,并通过判断用户肢体运动的类型,识别出该类型所代表的鼠标控制指令,其具体步骤如图2所示,在此不再赘述。
在步骤S103中,根据识别出的鼠标控制指令,进行相应的鼠标控制。
在本发明实施例中,根据识别出的鼠标控制指令,触发相应的操作系统动作,从而实现对鼠标位置和状态的更新。
例如,通过用户单手移动动作识别出用户当前的鼠标控制指令为鼠标移动,即触发操作系统的鼠标移动动作,鼠标移动的坐标数据则通过肢体运动数据计算出的手部相对位移决定。
在本发明实施例中,用户采用肢体动作对鼠标进行控制,通过上述步骤对用户的肢体动作进行感应和分析,判断出当前的肢体动作所代表的鼠标控制指令,对鼠标进行相应控制,省去了利用手持设备进行鼠标控制的不便。
图2示出了本发明实施例提供的鼠标控制指令识别的具体流程,详述如下:
在步骤S201中,根据图像深度数据检测用户进行鼠标控制的肢体部位。
在本发明实施例中,用户可以通过手、躯干、头等具体的肢体部位对鼠标进行控制,通过分析图像深度数据中变化的像素,识别出用户进行鼠标控制的肢体部位。
在步骤S202中,通过检测所述肢体部分的图像深度数据,判断用户的肢体动作类型。
在本发明实施例中,通过跟踪步骤S201中检测到的用户进行鼠标控制的肢体部位,由该肢体部位的图像深度数据判断出用户的肢体动作类型,其中,进行检测的所述肢体部分的图像深度数据包括用户进行鼠标控制的肢体部分的起始位置、运动轨迹和终止位置,通过检测到的上述数据,判断出用户的肢体动作类型,在本发明实施例中,用户的肢体动作类型可以为单手移动、单手推送等动作及其动作组合,在此不作限定。
在步骤S203中,通过用户的肢体动作类型识别出相应的鼠标控制指令。
在本发明实施例中,用户的每一类肢体动作均对应了一种鼠标控制指令,因此能够通过感应用户的肢体动作,检测出该肢体动作所代表的鼠标控制指令。
作为本发明的实现示例,用户的肢体动作与鼠标控制指令的对应关系可以如下:
单手移动,即用户在离开身体一定距离的垂直平面范围内进行单手移动,对应移动的鼠标控制指令,单手移动的范围和距离决定当前鼠标的相对位移。
单手向身体前方推送,即用户手部从离开身体一定距离位置上向正前方快速伸出继而再缩回,对应左键单击的鼠标控制指令,鼠标左键单击位置与单手推送动作开始时鼠标所处的位置一致。
单手向身体前方伸出并保持静止预定时间,即用户手部从离开身体一定距离位置上向前方快速伸出并保持静止,在设定的时间阈值范围到达后,鼠标进行右键单击,鼠标右键单击位置与单手伸出动作开始时鼠标所处的位置一致。
双手均离开身体一定距离的情况下,其中一只手再向身体前方做推送动作,则鼠标进入拖拽状态。在拖拽状态下,再次重复该动作,则退出鼠标拖拽状态,否则一直保持鼠标拖拽状态;在鼠标拖拽状态下,做单手移动动作,则对应鼠标拖拽轨迹。
在本发明实施例中,用户的肢体动作类型与鼠标控制指令的对应关系可以不限于上述实现示例,在此不作限定。
图3示出了本发明实施例提供的鼠标控制装置的结构,为了便于说明,仅示出了与本实施例相关的部分。
该鼠标控制装置可以用于计算机等操作系统终端,为运行于上述终端中的硬件单元、软件单元或者软硬件结合单元。参照图3,该鼠标控制装置包括:
深度图像感应单元31,对用户肢体运动的深度图像进行感应,以获取图像深度数据。在本发明实施例中,深度图像感应单元31可以基于红外图像感应实现。
控制指令检测单元32,通过分析深度图像感应单元31中获取的图像深度数据,检测出用户的鼠标控制指令。
鼠标控制单元33,根据识别出的鼠标控制指令,进行相应的鼠标控制,其包括了系统动作触发单元331,用于触发所述鼠标控制指令相应的系统动作。
其中,控制指令识别单元32具体包括:
肢体部位识别单元321,通过分析图像深度数据,识别出用户进行鼠标控制的肢体部位。
肢体动作判断单元322,通过检测用户进行鼠标控制的肢体部分的运动数据,判断用户的肢体动作类型。
控制指令识别单元323,根据用户的肢体动作类型,识别出用户的鼠标控制指令。
在本发明实施例中,用户采用肢体动作对鼠标进行控制,通过对用户的肢体动作进行深度图像感应和相关数据分析,判断出用户的肢体动作所代表的鼠标控制指令,从而实现对鼠标进行相应控制,省去了利用手持设备进行鼠标控制的不便。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种鼠标控制方法,其特征在于,所述方法包括下述步骤:
感应用户肢体运动的深度图像,获取图像深度数据;
根据所述图像深度数据检测用户的鼠标控制指令;
根据识别出的所述鼠标控制指令,进行相应的鼠标控制。
2.如权利要求1所述的方法,其特征在于,所述识别用户的鼠标控制指令的步骤具体为:
识别用户进行鼠标控制的肢体部位;
通过检测所述肢体部分的图像深度数据,判断用户的肢体动作类型;
通过所述肢体动作类型识别出相应的鼠标控制指令。
3.如权利要求1所述的方法,其特征在于,所述根据识别出的所述鼠标控制指令,进行相应的鼠标控制的步骤具体为:
触发所述鼠标控制指令相应的系统动作,对鼠标位置和状态进行更新。
4.一种鼠标控制装置,其特征在于,所述装置包括:
深度图像感应单元,用于感应用户肢体运动的深度图像,获取图像深度数据;
控制指令检测单元,用于根据所述图像深度数据检测用户的鼠标控制指令;
鼠标控制单元,用于根据所述鼠标控制指令,进行相应的鼠标控制。
5.如权利要求4所述的装置,其特征在于,所述控制指令检测单元包括:
肢体部位识别单元,用于识别用户进行鼠标控制的肢体部位;
肢体动作判断单元,用于通过检测所述肢体部分的图像深度数据,判断用户的肢体动作类型;
控制指令识别单元,用于通过所述肢体动作类型识别出相应的鼠标控制指令。
6.如权利要求4所述的装置,其特征在于,所述鼠标控制单元包括:
系统动作触发单元,用于触发所述鼠标控制指令相应的系统动作。
7.一种包括权利要求4至6任一项所述的鼠标控制装置的终端。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010106003503A CN102566744A (zh) | 2010-12-22 | 2010-12-22 | 一种鼠标控制方法、装置及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010106003503A CN102566744A (zh) | 2010-12-22 | 2010-12-22 | 一种鼠标控制方法、装置及终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102566744A true CN102566744A (zh) | 2012-07-11 |
Family
ID=46412331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010106003503A Pending CN102566744A (zh) | 2010-12-22 | 2010-12-22 | 一种鼠标控制方法、装置及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102566744A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103809749A (zh) * | 2014-01-17 | 2014-05-21 | 浙江大学 | 用于将康复训练动作转化成鼠标指令的系统 |
CN105630176A (zh) * | 2016-02-17 | 2016-06-01 | 天脉聚源(北京)传媒科技有限公司 | 一种智能体感控制的方法及装置 |
CN105867602A (zh) * | 2015-12-08 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 一种基于手势的操作组件控制方法及设备 |
CN105892641A (zh) * | 2015-12-09 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 一种用于体感控制的click响应处理方法、装置和系统 |
CN105912098A (zh) * | 2015-12-10 | 2016-08-31 | 乐视致新电子科技(天津)有限公司 | 一种基于体感的操作组件控制方法和系统 |
CN107533388A (zh) * | 2015-12-05 | 2018-01-02 | 深圳瀚飞科技开发有限公司 | 基于智能手机的空中鼠标实现方法 |
CN110928432A (zh) * | 2019-10-24 | 2020-03-27 | 中国人民解放军军事科学院国防科技创新研究院 | 指环鼠标、鼠标控制装置及鼠标控制系统 |
US20230031200A1 (en) * | 2021-07-30 | 2023-02-02 | Jadelynn Kim Dao | Touchless, Gesture-Based Human Interface Device |
-
2010
- 2010-12-22 CN CN2010106003503A patent/CN102566744A/zh active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103809749A (zh) * | 2014-01-17 | 2014-05-21 | 浙江大学 | 用于将康复训练动作转化成鼠标指令的系统 |
CN107533388A (zh) * | 2015-12-05 | 2018-01-02 | 深圳瀚飞科技开发有限公司 | 基于智能手机的空中鼠标实现方法 |
CN107533388B (zh) * | 2015-12-05 | 2021-03-19 | 深圳瀚飞科技开发有限公司 | 基于智能手机的空中鼠标实现方法 |
CN105867602A (zh) * | 2015-12-08 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 一种基于手势的操作组件控制方法及设备 |
CN105892641A (zh) * | 2015-12-09 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 一种用于体感控制的click响应处理方法、装置和系统 |
CN105912098A (zh) * | 2015-12-10 | 2016-08-31 | 乐视致新电子科技(天津)有限公司 | 一种基于体感的操作组件控制方法和系统 |
CN105630176A (zh) * | 2016-02-17 | 2016-06-01 | 天脉聚源(北京)传媒科技有限公司 | 一种智能体感控制的方法及装置 |
CN105630176B (zh) * | 2016-02-17 | 2018-08-24 | 天脉聚源(北京)传媒科技有限公司 | 一种智能体感控制的方法及装置 |
CN110928432A (zh) * | 2019-10-24 | 2020-03-27 | 中国人民解放军军事科学院国防科技创新研究院 | 指环鼠标、鼠标控制装置及鼠标控制系统 |
CN110928432B (zh) * | 2019-10-24 | 2023-06-23 | 中国人民解放军军事科学院国防科技创新研究院 | 指环鼠标、鼠标控制装置及鼠标控制系统 |
US20230031200A1 (en) * | 2021-07-30 | 2023-02-02 | Jadelynn Kim Dao | Touchless, Gesture-Based Human Interface Device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102566744A (zh) | 一种鼠标控制方法、装置及终端 | |
CN103294401B (zh) | 一种具有触摸屏的电子设备的图标处理方法及装置 | |
CN102645972B (zh) | 使用计算设备的移动来增强在与该计算设备交互时产生的输入事件的解释 | |
CN103019518B (zh) | 一种自动调整人机交互界面的方法 | |
EP3538975B1 (en) | Electronic device and methods for determining orientation of the device | |
CN104969156A (zh) | 交互感测 | |
CN103262005A (zh) | 检测涉及计算设备的有意移动的姿势 | |
CN103135753A (zh) | 手势输入的方法及系统 | |
CN103869942A (zh) | 一种输入控制方法及佩戴式电子装置 | |
CN102520790A (zh) | 一种基于图像传感模块的字符输入方法、装置及终端 | |
CN101968714A (zh) | 识别在移动终端界面上输入的操作轨迹的方法和系统 | |
CN101869484A (zh) | 具有触摸屏的医疗诊断装置及其操控方法 | |
CN102981755A (zh) | 基于远程应用的手势控制方法及系统 | |
US20130321303A1 (en) | Touch detection | |
CN102426491A (zh) | 一种用于触摸屏的多点触控实现方法及系统 | |
CN103218162A (zh) | 一种终端操作方法及装置 | |
CN106598422B (zh) | 混合操控方法及操控系统和电子设备 | |
CN102707802A (zh) | 手势运动映射到界面的速度控制方法 | |
EP3552089B1 (en) | Reversible digital ink for inking application user interfaces | |
CN103558913A (zh) | 一种具有振动反馈的虚拟输入手套键盘 | |
Nam et al. | Smartphone accelerometer-based gesture recognition and its robotic application | |
CN105892845A (zh) | 多点触控调整视频窗口的方法及设备 | |
CN104090682A (zh) | 一种触摸屏的触控系统及其实现方法 | |
Seo et al. | Remote data acquisition and touch-based control of a mobile robot using a smart phone | |
CN106547402A (zh) | 一种触控方法、触摸框和智能笔 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20120711 |