CN115390739A - 基于手掌触控的远程交互输入方法及装置、电子设备 - Google Patents
基于手掌触控的远程交互输入方法及装置、电子设备 Download PDFInfo
- Publication number
- CN115390739A CN115390739A CN202210975038.5A CN202210975038A CN115390739A CN 115390739 A CN115390739 A CN 115390739A CN 202210975038 A CN202210975038 A CN 202210975038A CN 115390739 A CN115390739 A CN 115390739A
- Authority
- CN
- China
- Prior art keywords
- palm
- area
- fitting
- screen
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 24
- 238000013507 mapping Methods 0.000 claims abstract description 40
- 210000003811 finger Anatomy 0.000 claims description 89
- 210000000707 wrist Anatomy 0.000 claims description 12
- 210000004932 little finger Anatomy 0.000 claims description 9
- 238000005516 engineering process Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 8
- 210000003813 thumb Anatomy 0.000 claims description 8
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000010191 image analysis Methods 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 claims description 5
- 241000282376 Panthera tigris Species 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 4
- 238000011897 real-time detection Methods 0.000 claims description 3
- 230000003993 interaction Effects 0.000 description 23
- 238000013461 design Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000005192 partition Methods 0.000 description 4
- 210000001015 abdomen Anatomy 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 244000060701 Kaempferia pandurata Species 0.000 description 2
- 235000016390 Uvaria chamae Nutrition 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
- G06F9/452—Remote windowing, e.g. X-Window System, desktop virtualisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种基于手掌触控的远程交互输入方法及装置、电子设备,包括:获取深度相机采集的整个手掌的第一深度图像;从第一深度图像中提取手掌区域,将手掌区域和被控制设备屏幕分别拟合为八个区域,计算手掌区域和被控制设备屏幕的八个区域坐标的映射关系;获取深度相机采集的包含另一只操作手的第二深度图像;从第二深度图像中提取一个或多个操作手指在第二深度图像中的指尖位置;根据操作手指指尖深度信息与手掌区域中对应指尖位置的深度信息,检测操作手指是否触碰手掌区域;如果检测到操作手指触碰手掌区域,根据指尖位置和映射关系,计算每一个触碰的操作手指的指尖位置对应至预期被控制设备屏幕的具体位置并传输至预期被控制设备。
Description
技术领域
本申请涉及人机交互领域,尤其涉及一种基于手掌触控的远程交互输入方法及装置、电子设备。
背景技术
随着数字化时代的发展和技术不断进步,手势交互的应用越来越多,然而现有的手势交互往往需要根据使用场景设计交互步骤,并需要经过一定练习培训才能完成交互任务,交互过程中存在长时间抬手操作、用户需要记住不同手势代表的含义来进行对应功能的操作、手势本身带有的随意性行为等情况,其缺点体现在缺乏精准操作控制、识别准确性不够以及复杂手势的学习成本较高,故未能得到广泛应用。如何融入实际用户场景,根据用户的行为和生活习惯,提供最自然的手势交互方案,最小化学习成本和记忆负担,成为交互设计的趋势。
发明内容
本申请实施例的目的是提供一种基于手掌触控的远程交互输入方法及装置、电子设备,以解决相关技术中存在的识别准确性不够、复杂手势学习成本较高的技术问题。
根据本申请实施例的第一方面,提供一种基于手掌触控的远程交互输入方法,包括如下步骤:
获取深度相机采集的整个手掌的第一深度图像;
从所述第一深度图像中提取手掌区域,将所述手掌区域和被控制设备屏幕分别拟合为八个区域,并计算所述手掌区域和被控制设备屏幕的八个区域坐标的映射关系;
获取深度相机采集的包含另一只操作手的第二深度图像;
从所述第二深度图像中提取一个或多个操作手指在所述第二深度图像中的指尖位置;
根据操作手指指尖深度信息与手掌区域中对应指尖位置的深度信息,检测操作手指是否触碰所述手掌区域;
如果检测到操作手指触碰所述手掌区域,根据所述指尖位置和映射关系,计算每一个触碰的操作手指的指尖位置对应至预期被控制设备屏幕的具体位置;
将所述具体位置传输至预期被控制设备,从而实现通过触摸手掌对远程设备屏幕的操作。
进一步地,将手掌区域和被控制设备屏幕分别拟合为八个区域,并计算所述手掌区域和被控制设备屏幕的八个区域坐标的映射关系,包括:
在深度相机采集到的第一深度图像中,通过深度分割和图像分析技术提取手掌区域;
将所述手掌区域拟合为八边形,拟合规则为:食指和中指根部拟合为第一个边;无名指和小指根部拟合为第二个边;小拇指根部至手腕处的手掌边缘拟合为两个边,分别为第三个边和第四个边;手腕处拟合为第五个边;大拇指根部至手腕处的手掌边缘拟合为第六个边;大拇指根部区域拟合为第七个边;虎口处拟合为第八个边;
将八个边的两端分别与掌心坐标分别连接,形成八个三角形;
将预期被控制设备屏幕对应拟合为八个三角形区域,并与所述八个三角形构成一一映射,形成八组相互对应的三角形,并基于仿射不变性计算每组三角形之间的坐标转换关系,即为映射关系。
进一步地,将预期被控制设备屏幕对应拟合为八个三角形区域,并与所述八个三角形构成一一映射,包括:
在设备屏幕中基于中心坐标点为原点,画垂直的十字坐标线,将设备屏幕分为四个象限,每个象限中将屏幕最远点和中心坐标点连线,从而将每个象限分为两个八个三角形区域,共计八个三角形区域;
将第一象限的第一个区域对应第一个边所在的三角形;
将第一象限的第二个区域对应第二个边所在的三角形;
将第二象限的第一个区域对应第三个边所在的三角形;
将第二象限的第二个区域对应第四个边所在的三角形;
将第三象限的第一个区域对应第五个边所在的三角形;
将第三象限的第二个区域对应第六个边所在的三角形;
将第四象限的第一个区域对应第七个边所在的三角形;
将第四象限的第二个区域对应第八个边所在的三角形。
进一步地,检测操作手指是否触碰所述手掌区域,包括:
计算操作手指指尖深度信息与手掌区域中对应指尖位置的深度信息,两者之差小于一定阈值即认为触碰。
进一步地,如果检测到操作手指触碰所述手掌区域,根据所述指尖位置和映射关系,计算每一个触碰的操作手指的指尖位置对应至预期被控制设备屏幕的具体位置,具体包括如下子步骤:
如果检测到操作手指触碰所述手掌区域,通过所述指尖位置得到操作手指所处的三角形及其在该三角形坐标系中的具体位置;
根据所述映射关系,将操作手指在该三角形坐标系中的具体位置转换成设备屏幕中相应的三角形坐标位置,并转换至被控制设备屏幕的具体位置。
进一步地,还包括:
重复执行从所述深度图像中提取手掌区域到将所述具体位置传输至预期被控制设备的步骤,实现多个手指操控状态实时检测与位置输出。
根据本申请实施例的第二方面,提供一种基于手掌触控的远程交互输入装置,包括:
第一获取模块,用于获取深度相机采集的整个手掌的第一深度图像;
提取计算模块,用于从所述第一深度图像中提取手掌区域,将所述手掌区域和被控制设备屏幕分别拟合为八个区域,并计算所述手掌区域和被控制设备屏幕的八个区域坐标的映射关系;
第二获取模块,用于获取深度相机采集的包含另一只操作手的第二深度图像;
提取模块,用于从所述第二深度图像中提取一个或多个操作手指在所述第二深度图像中的指尖位置;
检测模块,用于根据操作手指指尖深度信息与手掌区域中对应指尖位置的深度信息,检测操作手指是否触碰所述手掌区域;
计算模块,用于如果检测到操作手指触碰所述手掌区域,根据所述指尖位置和映射关系,计算每一个触碰的操作手指的指尖位置对应至预期被控制设备屏幕的具体位置;
传输模块,用于将所述具体位置传输至预期被控制设备,从而实现通过触摸手掌对远程设备屏幕的操作。
根据本申请实施例的第三方面,提供一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面所述的方法。
根据本申请实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现如第一方面所述方法的步骤。
本申请的实施例提供的技术方案可以包括以下有益效果:
由上述实施例可知,本申请从第一深度图像中提取整个手掌区域,将所述手掌区域和被控制设备屏幕拟合为对应的八个区域进行位置坐标的映射,从而实现整个手掌区域为触控屏,精准触控被控制设备屏幕。采用八个区域分区规则进行交互的映射,对设备屏幕的形状不做要求,也不必限制手掌区域的触控范围形状,即整个手掌区域都可以作为触控范围,且能够和预期被控制设备的屏幕对应,更利于人的自然交互理解。
本发明的方法具有便捷、舒适、自然的交互方式,人不需要低头就可以轻易理解掌中的变化,无需额外培训或校准,就可以像使用触摸屏一样在手掌中点点划划,实现交互;通过远程连接期望被控制的设备,即可随时随地手指触控实现远程交互,极大地提高了设备控制的便捷性,不用再为寻找遥控器等情况烦恼。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1是根据一示例性实施例示出的一种基于手掌触控的远程交互输入方法的流程图。
图2是根据一示例性实施例示出的一种基于手掌触控的远程交互输入方法的场景示意图。
图3是根据一示例性实施例示出的手掌分区图。
图4是根据一示例性实施例示出的预期被控制的屏幕分区图。
图5是根据一示例性实施例示出的分区三角形映射关系图。
图6是根据一示例性实施例示出的一种基于手掌触控的远程交互输入装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
图1是根据一示例性实施例示出的一种基于手掌触控的远程交互输入方法的流程图,如图1所示,该方法可以包括以下步骤:
S1:获取深度相机采集的整个手掌的第一深度图像;
S2:从所述第一深度图像中提取手掌区域,将所述手掌区域和被控制设备屏幕分别拟合为八个区域,并计算所述手掌区域和被控制设备屏幕的八个区域坐标的映射关系;
S3:获取深度相机采集的包含另一只操作手的第二深度图像;
S4:从所述第二深度图像中提取一个或多个操作手指在所述深度图像中的指尖位置;
S5:根据操作手指指尖深度信息与手掌区域中对应指尖位置的深度信息,检测操作手指是否触碰所述手掌区域;
S6:如果检测到操作手指触碰所述手掌区域,根据所述指尖位置和映射关系,计算每一个触碰的操作手指的指尖位置对应至预期被控制设备屏幕的具体位置;
S7:通过远程无线设备将所述具体位置传输至预期被控制设备,从而实现通过触摸手掌对远程设备屏幕的操作。
由上述实施例可知,本申请从第一深度图像中提取整个手掌区域,将所述手掌区域和被控制设备屏幕拟合为对应的八个区域进行位置坐标的映射,从而实现整个手掌区域为触控屏,精准触控被控制设备屏幕。采用八个区域分区规则进行交互的映射,对设备屏幕的形状不做要求,也不必限制手掌区域的触控范围形状,即整个手掌区域都可以作为触控范围,且能够和预期被控制设备的屏幕对应,更利于人的自然交互理解。
本发明的方法具有便捷、舒适、自然的交互方式,人不需要低头就可以轻易理解掌中的变化,无需额外培训或校准,就可以像使用触摸屏一样在手掌中点点划划,实现交互;通过远程连接期望被控制的设备,即可随时随地手指触控实现远程交互,极大地提高了设备控制的便捷性,不用再为寻找遥控器等情况烦恼。
在S1的具体实施中:获取深度相机采集的整个手掌的第一深度图像;
具体地,以人体自然摆放手掌于腹前的区域作为目标拍摄区域,设置深度相机位置,使得深度相机可拍摄到完整手掌区域。
以人自然靠坐的舒适状态将手掌摆放于腹前位置,另一只手的手指可以自然触摸该手掌区域,深度相机可以固定在肩部、领口、眼镜、帽檐、墙壁、屋顶等区域,使其相机角度可以完整拍摄到两只手的画面,如图2所示。
本步骤设计的优点在于使用场景非常常见,不需要长时间抬手,可以自然放松地将手掌轻靠在腹前,实现便捷、舒适、自然地交互,极大地提升了用户手势交互的体验感。
在S2的具体实施中:从所述第一深度图像中提取手掌区域,将所述手掌区域和被控制设备屏幕分别拟合为八个区域,并计算所述手掌区域和被控制设备屏幕的八个区域坐标的映射关系;该步骤可以包括以下子步骤:
S21:在深度相机采集到的第一深度图像中,通过深度分割和图像分析技术提取手掌区域;
具体地,这里的深度分割技术是根据像素不同将手和背景分割出来,采用图像分析技术区分手指和手掌,从而提取手掌区域;
S22:将所述手掌区域拟合为八边形,拟合规则为:食指和中指根部拟合为第一个边;无名指和小指根部拟合为第二个边;小拇指根部至手腕处的手掌边缘拟合为两个边,分别为第三个边和第四个边;手腕处拟合为第五个边;大拇指根部至手腕处的手掌边缘拟合为第六个边;大拇指根部区域拟合为第七个边;虎口处拟合为第八个边;
S23:将八个边的两端分别与掌心坐标分别连接,形成八个三角形;
具体地,在本实施例中,将深度相机拍摄提取后的手掌区域分区为八个三角形,编号如图3所示,包含食指和中指根部拟合的第一个边的三角形编号为1,包含无名指和小指根部拟合的第二个边的三角形编号为2,编号依次顺时针类推,共计得到8个编号三角形。
S24:将预期被控制设备屏幕对应拟合为八个三角形区域,并与所述八个三角形构成一一映射,形成八组相互对应的三角形,并基于仿射不变性计算每组三角形之间的坐标转换关系,即为映射关系。
其中将预期被控制设备屏幕对应拟合为八个三角形区域,并与所述八个三角形构成一一映射,包括:
在设备屏幕中基于中心坐标点为原点,画垂直的十字坐标线,将设备屏幕分为四个象限,每个象限中将屏幕最远点和中心坐标点连线,从而将每个象限分为两个八个三角形区域,共计八个三角形区域;
参考图3和图4,将第一象限的第一个区域对应第一个边所在的三角形;将第一象限的第二个区域对应第二个边所在的三角形;将第二象限的第一个区域对应第三个边所在的三角形;将第二象限的第二个区域对应第四个边所在的三角形;将第三象限的第一个区域对应第五个边所在的三角形;将第三象限的第二个区域对应第六个边所在的三角形;将第四象限的第一个区域对应第七个边所在的三角形;将第四象限的第二个区域对应第八个边所在的三角形。
将垂直坐标线右侧(即第一象限)第一个三角形编号为1,将垂直坐标线右侧(即第一象限)第二个三角形编号为2,编号依次顺时针类推,分区编号如图4所示,共计得到8个编号三角形。
图3包含的8个三角形与图4包含的8个三角形按照编号一一映射,即图3的1号三角形对应图4中的1号三角形,依次类推,形成八组相互对应的三角形。基于仿射不变性,计算每组三角形之间的坐标转换关系。
如图5所示,以图3中的1号三角形ABC和图4中的1号三角形A’B’C’为例,计算三角形ABC中的任意点P在三角形A’B’C’中的映射点P’的坐标值。基于仿射不变性原理,P=K1×A+K2×B+K3×C,且K1+K2+K3=1。其中K1、K2和K3可以通过以下公式计算得到:
K1=三角形BCP的面积/三角形ABC的面积;
K2=三角形ACP的面积/三角形ABC的面积;
K3=三角形ABP的面积/三角形ABC的面积;
通过以上公式计算得到K1、K2和K3的值,从而计算出P’=K1×A’+K2×B’+K3×C’。
P’和P的转换关系即代表了每组三角形间的坐标转换关系,因此可以计算出手掌区域任何一个三角形中的任意点在预期被控制设备的屏幕中对应的点的坐标值。
本步骤设计的优点在于,采用八个三角形分区规则进行交互的映射,对设备屏幕的形状不做要求,也不必限制手掌区域的触控范围形状,即整个手掌区域都可以作为触控范围,且能够和预期被控制设备的屏幕对应,实现易于理解实现的高效触控交互。
在S3的具体实施中:获取深度相机采集的包含另一只操作手的第二深度图像;
具体地,该步骤原理和S1类似,不做赘述。
在S4的具体实施中:从所述第二深度图像中提取一个或多个操作手指在所述深度图像中的指尖位置;
具体地,获取深度相机采集的包含手掌区域以及另一只操作手的深度图像,识别操作手的手指个数,提取所有操作手指在所述深度图像中的指尖深度信息和手掌区域中对应指尖位置的深度信息。
在S5的具体实施中:根据操作手指指尖深度信息与手掌区域中对应指尖位置的深度信息,检测操作手指是否触碰所述手掌区域;
具体地,计算操作手指指尖深度信息与手掌区域中对应指尖位置的深度信息,两者之差小于一定阈值即认为触碰。
在S6的具体实施中:如果检测到操作手指触碰所述手掌区域,根据所述指尖位置和映射关系,计算每一个触碰的操作手指的指尖位置对应至预期被控制设备屏幕的具体位置;
S61:如果检测到操作手指触碰所述手掌区域,通过所述指尖位置得到操作手指所处的三角形及其在该三角形坐标系中的具体位置;
S62:根据所述映射关系,将操作手指在该三角形坐标系中的具体位置转换成设备屏幕中相应的三角形坐标位置,并转换至被控制设备屏幕的具体位置。
具体地,根据深度相机采集的图像和深度数据,对比获取每一个操作手指触碰手掌区域的指尖位置,得到该位置包含所属三角形编号以及其在三角形坐标系中的具体坐标值,再根据步骤S2计算每一个触碰指尖位置对应的参数K1、K2和K3的值,从而计算出每一个触碰指尖位置P对应至预期被控制设备屏幕的具体位置P’。
本步骤设计的优点在于,可以支持一个或多个手指触碰,且计算方法简单有效,便于理解和操作,多个手指触碰还可以支持不同的交互输出方式,兼容性好。由于可以计算精准的触碰位置,故而交互识别精准性大大提高,相比以往的手势交互方法,用户体验自然也就更好。
在S7的具体实施中:通过远程无线设备将所述具体位置传输至预期被控制设备,从而实现通过触摸手掌对远程设备屏幕的操作。
具体地,本实施例中,远程无线设备可以采用蓝牙、WIFI等多种无线传输方式,将S6计算得到的具体位置传输至预期被控制设备。
还包括S8:重复S2-S7,实现多个手指操控状态实时检测与位置输出。
具体地,根据步骤S2至步骤S7的循环计算,支持实时检测操作手指具体位置,从而更加智能地进行触控操作。
本步骤设计的优点在于,实现了手势交互的持续输入,以支持更复杂的连续触碰操作,使交互输入方式更加地智能和便捷。
与前述的一种基于手掌触控的远程交互输入方法的实施例相对应,本申请还提供了一种基于手掌触控的远程交互输入装置的实施例。
图6是根据一示例性实施例示出的一种基于手掌触控的远程交互输入装置框图。参照图6,该装置包括第一获取模块21、提取计算模块22、第一获取模块23、提取模块24、检测模块25、计算模块26、传输模块27。
第一获取模块21,用于获取深度相机采集的整个手掌的第一深度图像;
提取计算模块22,用于从所述第一深度图像中提取手掌区域,将所述手掌区域和被控制设备屏幕分别拟合为八个区域,并计算所述手掌区域和被控制设备屏幕的八个区域坐标的映射关系;
第二获取模块23,用于获取深度相机采集的包含另一只操作手的第二深度图像;
提取模块24,用于从所述第二深度图像中提取一个或多个操作手指在所述第二深度图像中的指尖位置;
检测模块25,用于根据操作手指指尖深度信息与手掌区域中对应指尖位置的深度信息,检测操作手指是否触碰所述手掌区域;
计算模块26,用于如果检测到操作手指触碰所述手掌区域,根据所述指尖位置和映射关系,计算每一个触碰的操作手指的指尖位置对应至预期被控制设备屏幕的具体位置;
传输模块27,用于将所述具体位置传输至预期被控制设备,从而实现通过触摸手掌对远程设备屏幕的操作。。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本申请方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
相应的,本申请还提供一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如上述的基于手掌触控的远程交互输入方法。
相应的,本申请还提供一种计算机可读存储介质,其上存储有计算机指令,该指令被处理器执行时实现如上述的基于手掌触控的远程交互输入方法。
本领域技术人员在考虑说明书及实践这里公开的内容后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (10)
1.一种基于手掌触控的远程交互输入方法,其特征在于,包括如下步骤:
获取深度相机采集的整个手掌的第一深度图像;
从所述第一深度图像中提取手掌区域,将所述手掌区域和被控制设备屏幕分别拟合为八个区域,并计算所述手掌区域和被控制设备屏幕的八个区域坐标的映射关系;
获取深度相机采集的包含另一只操作手的第二深度图像;
从所述第二深度图像中提取一个或多个操作手指在所述第二深度图像中的指尖位置;
根据操作手指指尖深度信息与手掌区域中对应指尖位置的深度信息,检测操作手指是否触碰所述手掌区域;
如果检测到操作手指触碰所述手掌区域,根据所述指尖位置和映射关系,计算每一个触碰的操作手指的指尖位置对应至预期被控制设备屏幕的具体位置;
将所述具体位置传输至预期被控制设备,从而实现通过触摸手掌对远程设备屏幕的操作。
2.根据权利要求1所述的方法,其特征在于,将手掌区域和被控制设备屏幕分别拟合为八个区域,并计算所述手掌区域和被控制设备屏幕的八个区域坐标的映射关系,包括:
在深度相机采集到的第一深度图像中,通过深度分割和图像分析技术提取手掌区域;
将所述手掌区域拟合为八边形,拟合规则为:食指和中指根部拟合为第一个边;无名指和小指根部拟合为第二个边;小拇指根部至手腕处的手掌边缘拟合为两个边,分别为第三个边和第四个边;手腕处拟合为第五个边;大拇指根部至手腕处的手掌边缘拟合为第六个边;大拇指根部区域拟合为第七个边;虎口处拟合为第八个边;
将八个边的两端分别与掌心坐标分别连接,形成八个三角形;
将预期被控制设备屏幕对应拟合为八个三角形区域,并与所述八个三角形构成一一映射,形成八组相互对应的三角形,并基于仿射不变性计算每组三角形之间的坐标转换关系,即为映射关系。
3.根据权利要求2所述的方法,其特征在于,将预期被控制设备屏幕对应拟合为八个三角形区域,并与所述八个三角形构成一一映射,包括:
在设备屏幕中基于中心坐标点为原点,画垂直的十字坐标线,将设备屏幕分为四个象限,每个象限中将屏幕最远点和中心坐标点连线,从而将每个象限分为两个八个三角形区域,共计八个三角形区域;
将第一象限的第一个区域对应第一个边所在的三角形;
将第一象限的第二个区域对应第二个边所在的三角形;
将第二象限的第一个区域对应第三个边所在的三角形;
将第二象限的第二个区域对应第四个边所在的三角形;
将第三象限的第一个区域对应第五个边所在的三角形;
将第三象限的第二个区域对应第六个边所在的三角形;
将第四象限的第一个区域对应第七个边所在的三角形;
将第四象限的第二个区域对应第八个边所在的三角形。
4.根据权利要求1所述的方法,其特征在于,检测操作手指是否触碰所述手掌区域,包括:
计算操作手指指尖深度信息与手掌区域中对应指尖位置的深度信息,两者之差小于一定阈值即认为触碰。
5.根据权利要求1所述的方法,其特征在于,如果检测到操作手指触碰所述手掌区域,根据所述指尖位置和映射关系,计算每一个触碰的操作手指的指尖位置对应至预期被控制设备屏幕的具体位置,具体包括如下子步骤:
如果检测到操作手指触碰所述手掌区域,通过所述指尖位置得到操作手指所处的三角形及其在该三角形坐标系中的具体位置;
根据所述映射关系,将操作手指在该三角形坐标系中的具体位置转换成设备屏幕中相应的三角形坐标位置,并转换至被控制设备屏幕的具体位置。
6.根据权利要求1所述的方法,其特征在于,还包括:
重复执行从所述深度图像中提取手掌区域到将所述具体位置传输至预期被控制设备的步骤,实现多个手指操控状态实时检测与位置输出。
7.一种基于手掌触控的远程交互输入装置,其特征在于,包括:
第一获取模块,用于获取深度相机采集的整个手掌的第一深度图像;
提取计算模块,用于从所述第一深度图像中提取手掌区域,将所述手掌区域和被控制设备屏幕分别拟合为八个区域,并计算所述手掌区域和被控制设备屏幕的八个区域坐标的映射关系;
第二获取模块,用于获取深度相机采集的包含另一只操作手的第二深度图像;
提取模块,用于从所述第二深度图像中提取一个或多个操作手指在所述第二深度图像中的指尖位置;
检测模块,用于根据操作手指指尖深度信息与手掌区域中对应指尖位置的深度信息,检测操作手指是否触碰所述手掌区域;
计算模块,用于如果检测到操作手指触碰所述手掌区域,根据所述指尖位置和映射关系,计算每一个触碰的操作手指的指尖位置对应至预期被控制设备屏幕的具体位置;
传输模块,用于将所述具体位置传输至预期被控制设备,从而实现通过触摸手掌对远程设备屏幕的操作。
8.根据权利要求1所述的装置,其特征在于,将手掌区域和被控制设备屏幕分别拟合为八个区域,并计算所述手掌区域和被控制设备屏幕的八个区域坐标的映射关系,包括:
在深度相机采集到的第一深度图像中,通过深度分割和图像分析技术提取手掌区域;
将所述手掌区域拟合为八边形,拟合规则为:食指和中指根部拟合为第一个边;无名指和小指根部拟合为第二个边;小拇指根部至手腕处的手掌边缘拟合为两个边,分别为第三个边和第四个边;手腕处拟合为第五个边;大拇指根部至手腕处的手掌边缘拟合为第六个边;大拇指根部区域拟合为第七个边;虎口处拟合为第八个边;
将八个边的两端分别与掌心坐标分别连接,形成八个三角形;
将预期被控制设备屏幕对应拟合为八个三角形区域,并与所述八个三角形构成一一映射,形成八组相互对应的三角形,并基于仿射不变性计算每组三角形之间的坐标转换关系,即为映射关系。
9.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机指令,其特征在于,该指令被处理器执行时实现如权利要求1-6中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210975038.5A CN115390739A (zh) | 2022-08-15 | 2022-08-15 | 基于手掌触控的远程交互输入方法及装置、电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210975038.5A CN115390739A (zh) | 2022-08-15 | 2022-08-15 | 基于手掌触控的远程交互输入方法及装置、电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115390739A true CN115390739A (zh) | 2022-11-25 |
Family
ID=84118251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210975038.5A Withdrawn CN115390739A (zh) | 2022-08-15 | 2022-08-15 | 基于手掌触控的远程交互输入方法及装置、电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115390739A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117093078A (zh) * | 2023-10-16 | 2023-11-21 | 潍坊幻视软件科技有限公司 | 三维空间中使用手进行输入的系统 |
-
2022
- 2022-08-15 CN CN202210975038.5A patent/CN115390739A/zh not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117093078A (zh) * | 2023-10-16 | 2023-11-21 | 潍坊幻视软件科技有限公司 | 三维空间中使用手进行输入的系统 |
CN117093078B (zh) * | 2023-10-16 | 2024-01-16 | 潍坊幻视软件科技有限公司 | 三维空间中使用手进行输入的系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106598227B (zh) | 基于Leap Motion和Kinect的手势识别方法 | |
CN106650687B (zh) | 一种基于深度信息和骨骼信息的姿势矫正方法 | |
CN111488824B (zh) | 运动提示方法、装置、电子设备和存储介质 | |
CN105045398B (zh) | 一种基于手势识别的虚拟现实交互设备 | |
CN105096377B (zh) | 一种图像处理方法和装置 | |
CN104123007B (zh) | 一种多维加权的3d动态手势识别方法 | |
CN108509026B (zh) | 基于增强交互方式的远程维修支持系统及方法 | |
CN109597485B (zh) | 一种基于双指角域特征的手势交互系统及其工作方法 | |
CN105528082A (zh) | 三维空间及手势识别追踪交互方法、装置和系统 | |
CN109243575B (zh) | 一种基于移动交互和增强现实的虚拟针灸方法及系统 | |
CN103838378A (zh) | 一种基于瞳孔识别定位的头戴式眼睛操控系统 | |
CN102915111A (zh) | 一种腕上手势操控系统和方法 | |
CN102622916A (zh) | 人体穴位投影演示方法及装置 | |
CN111652047B (zh) | 基于彩色图和深度图的人体姿势识别方法及存储介质 | |
CN109839827B (zh) | 一种基于全空间位置信息的手势识别智能家居控制系统 | |
CN104038799A (zh) | 一种面向立体电视的手势操控方法 | |
CN105068662B (zh) | 一种用于人机交互的电子设备 | |
CN106909871A (zh) | 手势指令识别方法 | |
CN105046249B (zh) | 一种人机交互方法 | |
KR101654311B1 (ko) | 사용자 모션 인식 방법 및 장치 | |
CN115390739A (zh) | 基于手掌触控的远程交互输入方法及装置、电子设备 | |
CN104407696A (zh) | 移动设备的虚拟球模拟及控制的方法 | |
Wang et al. | Wheeled robot control based on gesture recognition using the Kinect sensor | |
CN102023707A (zh) | 基于dsp-pc机器视觉系统的斑纹式数据手套 | |
CN111103981B (zh) | 控制指令生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20221125 |
|
WW01 | Invention patent application withdrawn after publication |