CN104765459B - 虚拟操作的实现方法及装置 - Google Patents
虚拟操作的实现方法及装置 Download PDFInfo
- Publication number
- CN104765459B CN104765459B CN201510197987.5A CN201510197987A CN104765459B CN 104765459 B CN104765459 B CN 104765459B CN 201510197987 A CN201510197987 A CN 201510197987A CN 104765459 B CN104765459 B CN 104765459B
- Authority
- CN
- China
- Prior art keywords
- gesture motion
- mobile
- pixel
- moving
- match
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种虚拟操作的实现方法及装置,用以在移动终端上实现手势动作的人机交互方式。所述方法包括:终端通过摄像头实时录入手势动作;识别该手势动作,分析该手势动作的运动轨迹,并提取手势动作的图像像素范围;将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素进行匹配;若匹配成功,则执行与手势动作的运动轨迹相匹配的虚拟操作。该方法在移动终端上实现了手势动作的人机交互,为用户带来更为多样化、个性化的体验方式。
Description
技术领域
本发明涉及互联网技术领域,特别涉及一种虚拟操作的实现方法及装置。
背景技术
随着计算机技术的发展,虚拟现实技术在工业、教育、医疗、大数据视觉化、训练、虚拟社交以及游戏娱乐等领域有了广泛的应用。人机交互技术是沟通人与虚拟世界的桥梁,人机交互技术也不再局限于传统的键盘鼠标、游戏手柄与触摸屏,出现了其它更为新奇的人机交互方式。
基于手势的人机交互方式是利用手的位置、姿势与运动来与计算机进行人机交互的沟通方式,是目前在虚拟现实技术的研究热点之一。随着手机、平板电脑的日益普及,如何在移动终端上实现手势动作的人机交互方式,为用户带来更为多样化、个性化的体验方式是目前需要解决的问题。
发明内容
本发明提供一种虚拟操作的实现方法及装置,用以在移动终端上实现手势动作的人机交互方式。
本发明提供一种虚拟操作的实现方法,包括:
终端通过摄像头实时录入手势动作;
识别该手势动作,分析该手势动作的运动轨迹,并提取手势动作的图像像素范围;
将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素进行匹配;
若匹配成功,则执行与手势动作的运动轨迹相匹配的虚拟操作。
本发明实施例的一些有益效果可以包括:
通过摄像头实时录入现实的手势动作,以达到操作终端的目的。这里的终端可以是手机、平板电脑、笔记本电脑,也可以是其它的需要实施虚拟操作的处理终端。本发明通过对摄像头实时录入的手势动作进行分析,将分析得到的该手势动作的图像像素范围与终端屏幕中物体的页面像素进行匹配,匹配成功后执行与手势动作的运动轨迹相匹配的虚拟操作。该方法在移动终端上实现了手势动作的人机交互,为用户带来更为多样化、个性化的体验方式。
在一个实施例中,所述的手势动作包括上移、下移、左移、右移、抓起、右上移动、右下移动、左上移动或左下移动。
该实施例中,摄像头实时录入的手势动作包括上移、下移、左移、右移、抓起、右上移动、右下移动、左上移动或左下移动,经过处理分析,在终端实现相应的上移、下移、左移、右移、抓起、右上移动、右下移动、左上移动或左下移动虚拟操作。
在一个实施例中,所述将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素进行匹配,包括:
将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素的边缘像素进行匹配。
该实施例中,摄像头摄入手势动作的像素范围与手机屏幕中想操作的页面像素进行匹配,以确认手与屏幕中影像的立体空间关系,从而达到操作的目的。将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素的边缘像素进行匹配,若与终端屏幕中物体的页面像素的边缘像素匹配成功,则执行与摄像头摄入的手势动作一致的操作,如:上移、下移、左移、右移、抓起、右上移动、右下移动、左上移动或左下移动等。随着手势的移动,屏幕中的物体也随之移动。该方法可在移动终端上实现手势动作的人机交互,为用户带来更为多样化、个性化的体验方式。
本发明提供一种虚拟操作的实现装置,包括:
录入模块,用于终端通过摄像头实时录入手势动作;
识别模块,用于识别该手势动作,分析该手势动作的运动轨迹,并提取手势动作的图像像素范围;
匹配模块,用于将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素进行匹配;
执行模块,用于若匹配成功,则执行与手势动作的运动轨迹相匹配的虚拟操作。
本发明实施例的一些有益效果可以包括:
本发明提供的一种虚拟操作的实现装置通过摄像头实时录入现实的手势动作,以达到操作终端的目的。这里的终端可以是手机、平板电脑、笔记本电脑,也可以是其它的需要实施虚拟操作的处理终端。本发明通过对摄像头实时录入的手势动作进行分析,将分析得到的该手势动作的图像像素范围与终端屏幕中物体的页面像素进行匹配,匹配成功后执行与手势动作的运动轨迹相匹配的虚拟操作。该方法在移动终端上实现了手势动作的人机交互,为用户带来更为多样化、个性化的体验方式。
在一个实施例中,所述的手势动作包括上移、下移、左移、右移、抓起、右上移动、右下移动、左上移动或左下移动。
该实施例中,本发明提供的一种虚拟操作的实现装置,摄像头实时录入的手势动作包括上移、下移、左移、右移、抓起、右上移动、右下移动、左上移动或左下移动,经过处理分析,在终端实现相应的上移、下移、左移、右移、抓起、右上移动、右下移动、左上移动或左下移动虚拟操作。
在一个实施例中,所述匹配模块包括:
匹配子模块,用于将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素的边缘像素进行匹配。
该实施例中,本发明提供的一种虚拟操作的实现装置,通过摄像头摄入手势动作的像素范围与手机屏幕中想操作的页面像素进行匹配,以确认手与屏幕中影像的立体空间关系,从而达到操作的目的。
将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素的边缘像素进行匹配,若与终端屏幕中物体的页面像素的边缘像素匹配成功,则执行与摄像头摄入的手势动作一致的操作,如:上移、下移、左移、右移、抓起、右上移动、右下移动、左上移动或左下移动等。随着手势的移动,屏幕中的物体也随之移动。该方法可在移动终端上实现手势动作的人机交互,为用户带来更为多样化、个性化的体验方式。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中一种虚拟操作的实现方法的流程图;
图2为本发明实施例一中一种虚拟操作的实现方法的流程图;
图3为本发明实施例中的一种虚拟操作的实现装置的框图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
图1为本发明实施例中一种虚拟操作的实现方法。如图1所示,该方法包括以下步骤S101-S104:
步骤S101,终端通过摄像头实时录入手势动作。
步骤S102,识别该手势动作,分析该手势动作的运动轨迹,并提取手势动作的图像像素范围。
步骤S103,将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素进行匹配。
步骤S104,若匹配成功,则执行与手势动作的运动轨迹相匹配的虚拟操作。
通过摄像头实时录入现实的手势动作,以达到操作终端的目的。这里的终端可以是手机、平板电脑、笔记本电脑,也可以是其它的需要实施虚拟操作的处理终端。本发明通过对摄像头实时录入的手势动作进行分析,将分析得到的该手势动作的图像像素范围与终端屏幕中物体的页面像素进行匹配,匹配成功后执行与手势动作的运动轨迹相匹配的虚拟操作。
摄像头拍摄的手势的背景最好是纯色背景,如无其他物品的白色桌面。便于从拍摄的图像中提取出手的图像,将其与屏幕中的图像叠加。该方法在移动终端上实现了手势动作的人机交互,为用户带来更为多样化、个性化的体验方式。
在一个实施例中,手势动作包括上移、下移、左移、右移、抓起、右上移动、右下移动、左上移动或左下移动。
该实施例中,摄像头实时录入的手势动作包括上移、下移、左移、右移、抓起、右上移动、右下移动、左上移动或左下移动,经过处理分析,在终端实现相应的上移、下移、左移、右移、抓起、右上移动、右下移动、左上移动或左下移动虚拟操作。
下面通过具体实施例来说明本发明实施例提供的虚拟操作的实现方法。
实施例一
图2为本发明实施例一中一种虚拟操作的实现方法的流程图。如图1所示,该方法包括以下步骤S201-S204:
步骤S201,终端通过摄像头实时录入手势动作。
步骤S202,识别该手势动作,分析该手势动作的运动轨迹,并提取手势动作的图像像素范围。
步骤S203,将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素的边缘像素进行匹配。
步骤S204,若匹配成功,则执行与手势动作的运动轨迹相匹配的虚拟操作。
该实施例中,摄像头摄入手势动作的像素范围与手机屏幕中想操作的页面像素进行匹配,以确认手与屏幕中影像的立体空间关系,从而达到操作的目的。将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素的边缘像素进行匹配,若与终端屏幕中物体的页面像素的边缘像素匹配成功,则执行与摄像头摄入的手势动作一致的操作,如:上移、下移、左移、右移、抓起、右上移动、右下移动、左上移动或左下移动等。随着手势的移动,屏幕中的物体也随之移动。该方法可在移动终端上实现手势动作的人机交互,为用户带来更为多样化、个性化的体验方式。
对应于上述实施例提供的一种虚拟操作的实现方法,本发明实施例还提供一种虚拟操作的实现装置,如图3所示,包括:
录入模块101,用于终端通过摄像头实时录入手势动作;
识别模块102,用于识别该手势动作,分析该手势动作的运动轨迹,并提取手势动作的图像像素范围;
匹配模块103,用于将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素进行匹配;
执行模块104,用于若匹配成功,则执行与手势动作的运动轨迹相匹配的虚拟操作。
本发明提供的一种虚拟操作的实现装置通过摄像头实时录入现实的手势动作,以达到操作终端的目的。这里的终端可以是手机、平板电脑、笔记本电脑,也可以是其它的需要实施虚拟操作的处理终端。本发明通过对摄像头实时录入的手势动作进行分析,将分析得到的该手势动作的图像像素范围与终端屏幕中物体的页面像素进行匹配,匹配成功后执行与手势动作的运动轨迹相匹配的虚拟操作。该方法在移动终端上实现了手势动作的人机交互,为用户带来更为多样化、个性化的体验方式。
在一个实施例中,手势动作包括上移、下移、左移、右移、抓起、右上移动、右下移动、左上移动或左下移动。
该实施例中,本发明提供的一种虚拟操作的实现装置,摄像头实时录入的手势动作包括上移、下移、左移、右移、抓起、右上移动、右下移动、左上移动或左下移动,经过处理分析,在终端实现相应的上移、下移、左移、右移、抓起、右上移动、右下移动、左上移动或左下移动虚拟操作。
在一个实施例中,匹配模块包括:
匹配子模块,用于将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素的边缘像素进行匹配。
该实施例中,本发明提供的一种虚拟操作的实现装置,通过摄像头摄入手势动作的像素范围与手机屏幕中想操作的页面像素进行匹配,以确认手与屏幕中影像的立体空间关系,从而达到操作的目的。
将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素的边缘像素进行匹配,若与终端屏幕中物体的页面像素的边缘像素匹配成功,则执行与摄像头摄入的手势动作一致的操作,如:上移、下移、左移、右移、抓起、右上移动、右下移动、左上移动或左下移动等。随着手势的移动,屏幕中的物体也随之移动。该方法可在移动终端上实现手势动作的人机交互,为用户带来更为多样化、个性化的体验方式。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (4)
1.一种虚拟操作的实现方法,其特征在于,包括以下步骤:
终端通过摄像头实时录入手势动作;
识别该手势动作,分析该手势动作的运动轨迹,并提取手势动作的图像像素范围;
将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素进行匹配,以确认手与屏幕中影像的立体空间关系;
若匹配成功,则执行与手势动作的运动轨迹相匹配的虚拟操作;
所述将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素进行匹配,包括:
将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素的边缘像素进行匹配。
2.如权利要求1所述的方法,其特征在于,
所述的手势动作包括上移、下移、左移、右移、抓起、右上移动、右下移动、左上移动或左下移动。
3.一种虚拟操作的实现装置,其特征在于,
包括:
录入模块,用于终端通过摄像头实时录入手势动作;
识别模块,用于识别该手势动作,分析该手势动作的运动轨迹,并提取手势动作的图像像素范围;
匹配模块,用于将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素进行匹配,以确认手与屏幕中影像的立体空间关系;
执行模块,用于若匹配成功,则执行与手势动作的运动轨迹相匹配的虚拟操作;
所述匹配模块包括:
匹配子模块,用于将提取的手势动作的图像像素范围与终端屏幕中物体的页面像素的边缘像素进行匹配。
4.如权利要求3所述的装置,其特征在于,
所述的手势动作包括上移、下移、左移、右移、抓起、右上移动、右下移动、左上移动或左下移动。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510197987.5A CN104765459B (zh) | 2015-04-23 | 2015-04-23 | 虚拟操作的实现方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510197987.5A CN104765459B (zh) | 2015-04-23 | 2015-04-23 | 虚拟操作的实现方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104765459A CN104765459A (zh) | 2015-07-08 |
CN104765459B true CN104765459B (zh) | 2018-02-06 |
Family
ID=53647345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510197987.5A Expired - Fee Related CN104765459B (zh) | 2015-04-23 | 2015-04-23 | 虚拟操作的实现方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104765459B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106502401B (zh) * | 2016-10-31 | 2020-01-10 | 宇龙计算机通信科技(深圳)有限公司 | 一种图像控制方法及装置 |
CN107977083B (zh) * | 2017-12-20 | 2021-07-23 | 北京小米移动软件有限公司 | 基于vr系统的操作执行方法及装置 |
CN115390663B (zh) * | 2022-07-27 | 2023-05-26 | 上海合壹未来文化科技有限公司 | 一种虚拟人机交互方法、系统、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102375542A (zh) * | 2011-10-27 | 2012-03-14 | Tcl集团股份有限公司 | 一种肢体遥控电视的方法及电视遥控装置 |
EP2466423A1 (en) * | 2009-08-12 | 2012-06-20 | Shimane Prefectural Government | Image recognition device, operation determination method, and program |
-
2015
- 2015-04-23 CN CN201510197987.5A patent/CN104765459B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2466423A1 (en) * | 2009-08-12 | 2012-06-20 | Shimane Prefectural Government | Image recognition device, operation determination method, and program |
CN102375542A (zh) * | 2011-10-27 | 2012-03-14 | Tcl集团股份有限公司 | 一种肢体遥控电视的方法及电视遥控装置 |
Also Published As
Publication number | Publication date |
---|---|
CN104765459A (zh) | 2015-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107251102B (zh) | 基于与增强现实场景的用户交互的增强修改 | |
US20190392587A1 (en) | System for predicting articulated object feature location | |
US8958631B2 (en) | System and method for automatically defining and identifying a gesture | |
TWI512645B (zh) | 使用深度影像之手勢辨識裝置及方法 | |
CN109034397A (zh) | 模型训练方法、装置、计算机设备及存储介质 | |
US20130283202A1 (en) | User interface, apparatus and method for gesture recognition | |
KR20200120739A (ko) | 공중 필기 인식을 위한 방법, 장치, 기기 및 컴퓨터 판독 가능한 저장 매체 | |
US20130155026A1 (en) | New kind of multi-touch input device | |
Wang et al. | EGGNOG: A continuous, multi-modal data set of naturally occurring gestures with ground truth labels | |
EP4191517A1 (en) | Information display method and device, and storage medium | |
CN107451207A (zh) | 交互式图书互动系统及方法 | |
CN104077094A (zh) | 用于显示动作视频的显示设备和方法 | |
CN105892635A (zh) | 截图实现方法、装置及电子设备 | |
CN104765459B (zh) | 虚拟操作的实现方法及装置 | |
CN107066081B (zh) | 一种虚拟现实系统的交互控制方法和装置及虚拟现实设备 | |
CN106575200A (zh) | 用于触摸输入的方法和系统 | |
US9811505B2 (en) | Techniques to provide processing enhancements for a text editor in a computing environment | |
CN105975072A (zh) | 识别手势动作的方法、装置及系统 | |
CN112190921A (zh) | 一种游戏交互方法及装置 | |
Aloba et al. | Kinder-Gator: The UF Kinect Database of Child and Adult Motion. | |
CN104714650B (zh) | 一种信息输入方法和装置 | |
Töngi | Application of transfer learning to sign language recognition using an inflated 3D deep convolutional neural network | |
CN112580395A (zh) | 基于深度信息的3d人脸活体识别方法、系统、设备及介质 | |
Zhang et al. | Machine vision-based testing action recognition method for robotic testing of mobile application | |
CN105468094B (zh) | 一种操作计算机终端的方法及计算机终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: Realization method and device of virtual operation Effective date of registration: 20210104 Granted publication date: 20180206 Pledgee: Inner Mongolia Huipu Energy Co.,Ltd. Pledgor: WUXI TVMINING MEDIA SCIENCE & TECHNOLOGY Co.,Ltd. Registration number: Y2020990001517 |
|
PE01 | Entry into force of the registration of the contract for pledge of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180206 Termination date: 20210423 |
|
CF01 | Termination of patent right due to non-payment of annual fee |