CN104216646A - 基于手势创建应用程序的方法及装置 - Google Patents
基于手势创建应用程序的方法及装置 Download PDFInfo
- Publication number
- CN104216646A CN104216646A CN201310209999.6A CN201310209999A CN104216646A CN 104216646 A CN104216646 A CN 104216646A CN 201310209999 A CN201310209999 A CN 201310209999A CN 104216646 A CN104216646 A CN 104216646A
- Authority
- CN
- China
- Prior art keywords
- gesture
- event
- interface element
- application program
- gesture event
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供一种基于手势创建应用程序的方法及装置。其方法该方法应用在带有触摸显示设备的终端,包括:终端检测和识别作用在所述触摸显示设备上的手势事件;终端确定手势事件在应用程序设计时的界面中关联的界面元素;终端生成应用程序在运行时界面元素响应手势事件的事件处理命令;终端根据手势事件、界面元素和事件处理命令建立应用程序的手势处理模块。本发明的技术方案,能够根据应用程序设计时输入的手势定义应用程序运行时界面元素响应手势事件的处理功能,建立应用程序的手势识别处理模块,可以为开发者省去了编码实现手势识别及其处理功能的环节,简化了开发过程,降低了开发难度,扩展了应用程序支持的手势操作类型。
Description
技术领域
本发明实施例涉及通信设备技术领域,尤其涉及一种基于手势创建应用程序的方法及装置。
背景技术
基于触摸的手势技术已经广泛应用于当前的智能手机、平板电脑等带有触摸显示设备的移动终端,这些终端中的应用程序支持多种触摸手势。当用户使用单个或多个手指触击屏幕及在屏幕上移动时,系统跟踪记录手指的特征、位置和接触时间,将这些数据对象生成触摸事件不断发送给应用程序。应用程序将触摸事件传递给关联的界面元素,界面元素接收到触摸事件,激活事件处理命令(Event Handler,也称事件处理器),事件处理命令根据多个相关联的触摸事件计算出正在执行的手势,按照手势动作类型产生响应,比如对于单指轻击的手势,响应是选中界面对象;对于双指缩放的手势,响应是缩放屏幕内容。
现有的移动平台,如Android、iOS、Windows Phone,提供了一些简单手势事件的检测和手势识别,比如轻击、长按、拖动和缩放等手势。但对于复杂、特定轨迹的手势,如多指头运动、划线(比如划“√”)、有向手势等,则移动平台没有提供这些手势的识别功能,应用程序需要实现整个识别过程:监听属于同一个手势的触摸开始、触摸移动、触摸结束三种事件,根据事件中的触点数据分析手势轨迹特征,判断出手势类型,响应执行该类型手势对应的功能。这就给应用程序的开发工作带来了一定困难,而现有的开发工具在开发触摸应用程序时,需要开发者采用编写代码方式在事件处理函数中实现手势的识别,需要开发者具备一定的编程和算法基础,这也加大了应用开发的难度。现在的开发工具主要运行在PC(Personal Computer,个人计算机)平台中,无法在平板电脑等流行的带有触摸显示设备的终端中使用,而现有的带有触摸显示设备的移动终端中创建应用的开发工具非常少,不能满足用户在带有触摸显示设备的移动终端上工作的需求。因此,亟需提供一种能够应用在带有触摸显示设备的终端中的基于手势创建应用程序的技术方案。
发明内容
本发明实施例提供一种基于手势创建应用程序的方法及装置,用以提供一种在带有触摸显示设备的终端中的手势创建应用的技术方案,以扩展应用程序支持的手势操作类型,简化用户操作。
第一方面,本发明实施例提供一种基于手势创建应用的方法,该方法应用在带有触摸显示设备的终端,包括:
所述终端检测和识别作用在所述触摸显示设备上的手势事件;
所述终端确定所述手势事件在应用程序设计时的界面中关联的界面元素;
所述终端生成所述应用程序在运行时所述界面元素响应所述手势事件的事件处理命令;
所述终端根据所述手势事件、所述界面元素和所述事件处理命令建立所述应用程序的手势处理模块。
结合第一方面,在第一方面的第一种实现方式中,根据所述手势事件、所述界面元素和所述事件处理命令建立所述应用程序的手势处理模块,包括:
根据所述手势事件中的所述手势信息建立所述应用程序的手势库;
建立记录有所述手势事件、所述界面元素和所述事件处理命令的映射关系的所述应用程序的命令映射库;
建立手势识别单元,所述手势识别单元用于识别所述手势事件;
以及建立命令执行单元,所述命令执行单元用于从所述手势识别单元获取识别的所述手势事件,确定所述手势事件关联的所述界面元素,根据所述命令映射库中的所述映射关系获取所述界面元素和所述手势事件所对应的所述事件处理命令,调用并执行所述事件处理命令。
结合第一方面及其第一实现方式,在第一方面的第二种实现方式中,确定所述手势事件在应用程序设计时的界面中关联的界面元素,包括:
确定所述手势事件在所述应用程序设计时的界面中关联的界面元素以及作用区域;所述作用区域为所述手势事件作用在所述界面元素中的局部区域;
生成所述应用程序在运行时所述界面元素响应所述手势事件的事件处理命令,包括:
生成所述应用程序在运行时所述界面元素中的所述作用区域响应所述手势事件的事件处理命令;
此时对应的所述命令映射库中记录所述界面元素、所述作用区域、所述手势事件与所述事件处理命令的映射关系。
结合第一方面及期第二实现方式,在第一方面的第三种实现方式中,所述命令执行单元具体用于从所述手势识别单元获取识别的所述手势事件,确定所述手势事件关联的所述界面元素以及所述作用区域,根据所述命令映射库中的所述映射关系获取所述界面元素、所述作用区域和所述手势事件所对应的所述事件处理命令,调用并执行所述事件处理命令。
结合第一方面及期第三实现方式,在第一方面的第四种实现方式中,所述命令执行单元具体用于从所述手势识别单元获取识别的所述手势事件,确定所述手势事件关联的所述界面元素以及所述作用区域,在所述命令映射库中获取满足如下条件的所述映射关系:界面元素标识等于所述界面元素标识、作用区域包括所述作用区域、手势事件标识等于所述手势事件标识;获取所述映射关系中的所述事件处理命令,调用并执行所述事件处理命令。
第二方面,本发明实施例还提供一种基于手势创建应用程序的装置,该装置应用在带有触摸显示设备的终端,包括:
检测模块,用于检测和识别作用在所述触摸显示设备上的手势事件;确定模块,用于确定所述手势事件在应用程序设计时的界面中关联的界面元素;
生成模块,用于生成所述应用程序在运行时所述界面元素响应所述手势事件的事件处理命令;
建立模块,用于根据所述手势事件、所述界面元素和所述事件处理命令建立所述应用程序的手势处理模块。
结合第二方面,在第二方面的第一种实现方式中,所述建立模块,包括:
手势库建立子模块,用于根据所述手势事件中的所述手势信息建立所述应用程序的手势库;
命令映射库建立子模块,用于建立记录有所述手势事件、所述界面元素和所述事件处理命令的映射关系的所述应用程序的命令映射库;
手势识别单元建立子模块,用于以及建立手势识别单元,所述手势识别单元用于识别所述手势事件;
命令执行单元建立子模块,用于建立命令执行单元,所述命令执行单元用于从所述手势识别单元获取识别的所述手势事件,确定所述手势事件关联的所述界面元素,根据所述命令映射库中的所述映射关系获取所述界面元素和所述手势事件所对应的所述事件处理命令,调用并执行所述事件处理命令。
结合第二方面及其第一实现方式,在第二方面的第二种实现方式中,所述确定模块,具体用于确定所述手势事件在所述应用程序设计时的界面中关联的界面元素以及作用区域;所述作用区域为所述手势事件作用在所述界面元素中的局部区域;
所述生成模块,具体用于生成所述应用程序在运行时所述界面元素中的所述作用区域响应所述手势事件的事件处理命令;
所述建立模块,具体用于根据所述手势事件、所述界面元素、所述作用区域和所述事件处理命令建立所述应用程序的手势处理模块。
结合第二方面及其第二实现方式,在第二方面的第三种实现方式中,所述命令执行单元建立子模块建立的所述命令执行单元具体用于从所述手势识别单元获取识别的所述手势事件,确定所述手势事件关联的所述界面元素以及所述作用区域,根据所述命令映射库中的所述映射关系获取所述界面元素、所述作用区域和所述手势事件所对应的所述事件处理命令,调用并执行所述事件处理命令。
结合第二方面及其第三实现方式,在第二方面的第四种实现方式中,所述命令执行单元建立子模块建立的所述命令执行单元具体用于从所述手势识别单元获取识别的所述手势事件,确定所述手势事件关联的所述界面元素以及所述作用区域,在所述命令映射库中获取满足如下条件的所述映射关系:界面元素标识等于所述界面元素标识、作用区域包括所述作用区域、手势事件标识等于所述手势事件标识;获取所述映射关系中的所述事件处理命令,调用并执行所述事件处理命令。
本发明实施例提供一种基于手势创建应用程序的方法及装置,通过采用上述技术方案,能够弥补现有技术的不足实现在带有触摸显示设备的移动终端中创建应用程序,满足用户在带有触摸显示设备的移动终端上工作的需求。由于带有触摸显示设备的移动终端本身可以具有识别手势等功能,从而本发明实施例的技术方案可以使用在带有触摸显示设备的移动终端上。而且本发明实施例的技术方案,能够根据应用程序设计时输入的手势定义应用程序运行时界面元素响应手势事件的处理功能,建立应用程序的手势识别处理模块,可以为开发者省去了编码实现手势识别及其处理功能的环节,简化了开发过程,降低了开发难度,扩展了应用程序支持的手势操作类型,极大的简化了用户的操作。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的基于手势创建应用程序的方法的流程图;
图2为本发明实施例提供的显示了IDE的一种用户界面图;
图3为本发明实施例提供的显示了IDE的另一种用户界面图;
图4为本发明实施例提供的采用可视化流程设计生成事件处理命令的示意图;
图5为本发明实施例提供的采用功能配置方式生成事件处理命令的示意图;
图6为本发明实施例建立的应用程序的手势处理模块的结构示意图;图7为本发明一实施例提供的基于手势创建应用程序的装置的结构示意图;
图8为本发明另一实施例提供的基于手势创建应用程序的装置的结构示意图;
图9描述了本发明另一个实施例提供的基于手势创建应用程序的装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
现有的触摸应用程序开发工具,主要在PC平台中使用,如Eclipse、Xcode。在开发触摸应用程序时,需要开发者使用相应平台的SDK编写代码实现对用户手势输入的识别和处理,开发工具本身并没有提供任何手势识别及处理的快捷方式。开发者除了使用界面设计器设计应用界面外,还需使用代码编辑器编写程序的逻辑代码,包括处理用户的手势输入。虽然现有SDK提供了一个组件(如UIGesture Recognizer,用户界面手势识别)用于识别手势,但仅支持轻击、长按、拖动和缩放等几个简单手势,其他手势则需要应用程序自己实现手势识别的细节。
基于以上所述,现有技术中的应用程序需要自主实现一些复杂手势的识别,添加一个特定手势支持功能的步骤较麻烦,开发的工作量和难度较大。而且大量编码实现方式使得开发工具在带有触摸显示设备(如触摸屏)的移动终端上的成本变得较高,限制了其使用。因此本发明实施例提供本发明的手势创建应用程序的技术方案,以弥补现有技术的不足,提供一种可以应用在带有触摸显示设备的移动终端中的应用程序开发工具,以降低触摸应用程序的开发难度,节约开发成本,提高开发效率,且有利于扩展应用程序支持的手势操作类型。详细可以参见下述本发明实施例的具体内容。
本发明实施例涉及到事件处理命令。一般来说,事件处理命令指应用程序或其软件单元接收到某种事件(如用户输入事件、系统消息事件)后进行处理的动作,是一种逻辑功能。在一些实施例中,事件处理命令是一个函数或类方法,其概念等同于编程术语“事件处理函数”或“事件处理器”;而在另一些实施例中,事件处理命令是一个特定的应用程序功能或命令。
本发明实施例涉及到开发工具的界面设计器。界面设计器用于设计应用程序的用户界面。界面设计器包含两种视图方式:设计视图和触摸视图。处于设计视图时,界面设计器响应手势事件,执行应用程序界面元素的结构、布局、样式属性的修改,以创建应用程序的用户界面;处于触摸视图时,界面设计器响应手势事件,根据手势事件中的手势信息定义应用程序界面元素在运行时响应同类型手势事件的处理行为,即事件处理命令,以创建应用程序的触摸交互功能。设计视图与触摸视图可以相互切换,当界面设计器检测到“切换到触摸视图”事件后,将当前视图从设计视图切换到触摸视图,更改其手势事件处理机制。
图1为本发明一实施例提供的基于手势创建应用程序的方法的流程图。如图1所示,本实施例的基于手势创建应用程序的方法,该方法应用在带有触摸显示设备的终端,具体可以包括如下步骤:
100、终端检测和识别作用在触摸显示设备上的手势事件;
本实施例的手势事件包括手势信息和触摸事件。例如可以通过触摸屏来实现检测和识别手势事件。
101、终端确定手势事件在应用程序设计时的界面中关联的界面元素;
102、终端生成应用程序在运行时界面元素响应手势事件的事件处理命令;
其中该事件处理命令是应用程序在运行时,界面元素接收到与当前手势事件同类型的手势事件后所响应的功能。其中,同类型是指两个手势事件的手势经过识别后被判断为特征相似,属于同一种手势类型。
103、终端根据手势事件、事件处理命令建立应用程序的手势处理模块。
也就是说,应用程序的手势处理模块用于在接收到该手势事件时,执行对应的该事件处理命令。
本实施例的基于手势创建应用程序的方法的执行主体为基于手势创建应用程序的装置。该装置主要适用于开发应用程序的开发者,也可以称为开发工具设备。例如该装置具体可以运行在带有触摸显示设备的终端上,便于开发者基于手势创建应用程序。
本实施例主要限定了开发创建应用程序的手势处理模块的方法,也是区别于现有的基于PC开发应用程序的关键所在。例如创建应用程序可能还包括创建应用程序的用户界面,本发明实施例中的基于手势创建应用程序的方法中不限定创建应用程序的用户界面的方法,详细可以参考相关现有技术,在此不再赘述。
本实施例的基于手势创建应用程序的方法,通过采用上述技术方案,能够弥补现有技术的不足,实现在带有触摸显示设备的移动终端中创建应用程序,满足开发者在带有触摸显示设备的移动终端上工作的需求。由于带有触摸显示设备的移动终端本身可以具有识别手势等功能,从而本实施例的技术方案可以使用在带有触摸显示设备的移动终端上。而且本实施例的技术方案,能够根据应用程序设计时输入的手势定义应用程序运行时界面元素响应手势事件的处理功能,建立应用程序的手势识别处理模块,可以为开发者省去了编码实现手势识别及其处理功能的环节,简化了开发过程,降低了开发难度,扩展了应用程序支持的手势操作类型。
可选地,在上述图1所示实施例的技术方案的基础上,例如步骤100在具体实现时,可以在触摸显示设备上呈现一个界面设计器区域中来检测和识别手势事件,界面元素也要位于界面设计器区域内,且是在设计中的应用程序界面内。且根据本实施例的上述方法,可以检测和识别多个手势事件,并生成每一种手势事件关联的每一个界面元素对应的时间处理命令,从而建立能够在检测到每一种手势事件及作用的界面元素时,生成一个对应的事件处理命令。
进一步可选地,上述实施例中的触摸事件可以包括单点触摸事件或者多点触摸事件;手势信息包括手势类型和手势特征信息。
其中手势事件可以包含多个触摸事件和手势信息:每个触摸事件包含有一个或多个触点信息,每个触点信息包括触点标识符、坐标、时间戳等;手势信息包含手势类型和手势特征等信息。其中手势事件可以以手势类型进行分类,每个手势事件都有一个手势类型名称。如果当前手势事件的手势不在现有记录的手势类型中,则开发工具会设置一个新的手势类型名称,该名称可以由用户自定义。
因此,基于手势创建应用程序的装置或者开发工具设备在实现步骤100“检测和识别手势事件”时,需要检测多个特定组合的触摸事件,分析触点轨迹,提取出手势特征,识别手势类型,从而得到手势事件。
可选地,在上述图1所示实施例的技术方案的基础上,其中步骤103“根据手势事件、界面元素和事件处理命令建立应用程序的手势处理模块”,具体可以包括如下步骤:
(1)根据手势事件中的手势信息建立应用程序的手势库;
该手势库保存了应用程序所支持的手势特征信息(比如手势模板),以支持应用程序的手势识别。
(2)建立记录有界面元素、手势事件与事件处理命令的映射关系的应用程序的命令映射库;
该命令映射库记录应用程序界面元素、手势事件与事件处理命令的映射关系,一个界面元素和一种特定类型的手势事件形成一组,对应着一个事件处理命令。命令映射库既可以是一个逻辑实体,以静态代码方式表达映射关系;也可以是一个数据结构,比如具有两个键的哈希表,其中,界面元素和事件处理命令使用唯一标识属性(id或名称)表示,手势事件使用手势类型名称表示。在一些实施例中,限定了手势事件只作用在应用程序界面元素的局部区域,则命令映射库记录的是界面元素、指定的局部区域、手势事件与事件处理命令的映射关系。
(3)建立手势识别单元,该手势识别单元用于识别手势事件;
该手势识别单元用于识别应用程序的手势事件,根据手势库记录的数据识别手势类型。由于应用程序的手势库已保存当前手势事件的手势信息,因此手势识别单元也能够识别应用程序在运行时所接收到的同类型的手势事件。
(4)建立命令执行单元,该命令执行单元用于从手势识别单元获取识别的手势事件,确定手势事件关联的界面元素,根据命令映射库中的映射关系获取界面元素和手势事件所对应的事件处理命令,调用并执行事件处理命令。
其中命令执行单元判断手势事件关联的界面元素,其方法在于:界面元素的区域与手势事件的第一个触点坐标重叠的顶层的界面元素。在一些实施例中,手势事件可以在相关联的界面元素之间传递,比如类似Web页面的Dom冒泡事件流模型,将手势事件从最初确定的界面元素到其父级元素,由内到外传递,直到根元素(窗口)。此时,关联的界面元素有多个,命令执行单元会依照手势事件的传递方向调用命令映射库所记录的,当前关联的界面元素和当前手势事件所对应的事件处理命令(如果存在该事件处理命令),或者,只调用第一个事件处理命令。
可选地,在上述图1所示实施例的技术方案的基础上,其中步骤102“确定手势事件在应用程序设计时的界面中关联的界面元素”,包括:确定与手势事件的触摸事件中的第一个触点相接触的顶层的界面元素;或确定与手势事件对应的预先指定的界面元素。
在一些实施例中,该界面元素是原生渲染的GUI(Graphical UserInterface,图形用户界面)对象,与应用程序运行时的界面中对应的界面元素一致,具有相同的外观、属性和事件,但被屏蔽了某些事件处理;在一些实施例中,该界面元素只是一个简单的GUI对象(比如图形符号),用来模拟对应的应用程序界面元素。该界面元素可以是一个按钮、文本、输入框、图片、菜单或图标等,或由这些元素组成的组合界面元素,或窗口对象。
上述实施例方式是以手势事件作用在界面元素上为例来说明,当手势事件具体作用到界面元素某一作用区域的场景时,可选地,其中上述图1所示实施例中的步骤101“确定手势事件在应用程序设计时的界面中关联的界面元素”,具体可以包括:确定手势事件在应用程序设计时的界面中关联的界面元素以及作用区域;该作用区域即为手势事件作用在界面元素中的局部区域。此时即暗含着该手势事件作用在该界面元素的不同区域,产生的时间处理命令不相同。
其中步骤102“生成应用程序在运行时界面元素响应手势事件的事件处理命令”,具体可以包括:生成应用程序在运行时界面元素中的作用区域响应手势事件的事件处理命令。
其中步骤103“根据手势事件、界面元素和事件处理命令建立应用程序的手势处理模块”,具体可以包括:根据手势事件、界面元素、作用区域和事件处理命令建立所述应用程序的手势处理模块。
此时对应的上述步骤(2)“建立记录有界面元素、手势事件与事件处理命令的映射关系的应用程序的命令映射库”,具体可以包括:(2)建立记录有界面元素、作用区域、手势事件与事件处理命令的映射关系的应用程序的命令映射库。
进一步可选地,在上述技术方案的基础上,上述实施例中的步骤(4)中建立的命令执行单元具体用于从手势识别单元获取识别的手势事件,确定手势事件关联的界面元素以及作用区域,根据命令映射库中的映射关系获取界面元素、作用区域和手势事件所对应的事件处理命令,调用并执行事件处理命令。
进一步可选地,在上述技术方案的基础上,上述实施例中的步骤(4)中建立的命令执行单元具体用于从手势识别单元获取识别的手势事件,确定手势事件关联的界面元素以及作用区域,在命令映射库中获取满足如下条件的映射关系:界面元素标识等于确定的手势事件关联的界面元素标识、作用区域包括确定的手势事件关联的界面元素中的作用区域、手势事件标识等于手势识别单元识别的手势事件标识;获取映射关系中的事件处理命令,调用并执行事件处理命令。
其中界面元素标识可以为界面元素的ID,手势事件标识也可以为手势事件的ID。为了能够对各个界面元素、各种手势事件做区别,可以在各个界面元素标识ID,以加区分;可以在手势库中对各个手势事件标识ID,以加区分。
进一步可选地,在上述技术方案的基础上,上述实施例中的步骤102“生成应用程序在运行时界面元素响应同类型手势事件的事件处理命令”,具体可以包括:采用代码编辑的方式生成事件处理命令;或者采用可视化流程设计方式生成事件处理命令;或者采用功能配置方式生成事件处理命令。
例如,基于手势创建应用程序的装置或者开发工具设备可以显示该事件处理命令的编辑窗口,供用户编辑或设置,以生成事件处理命令。提供的编辑方式有多种,如可以包括:
代码编辑方式,基于手势创建应用程序的装置或者开发工具设备接收到的事件处理命令内容是用户输入的一段代码,比如一个函数或一个类方法;
可视化流程设计方式,基于手势创建应用程序的装置或者开发工具设备接收到的事件处理命令内容是用户设计的一个逻辑流程,开发工具将该逻辑流程转换为等价的应用程序可执行代码;
功能配置方式,基于手势创建应用程序的装置或者开发工具设备接收到的事件处理命令内容是用户配置一个已有的应用程序功能,比如跳转到首页、前进、后退、翻页等已定义好的应用程序功能,开发工具将该功能与所述事件处理命令关联在一起。
需要说明的是,基于手势创建应用程序不仅包括创建应用程序的手势处理模块,还可以包括创建应用程序的用户界面,其中创建应用程序的用户界面可以参考现有技术的在PC平台中创建应用程序的用户界面的方式。
上述实施例的所有可选技术方案,可以采用可结合的方式任意组合形成本发明的可选实施例,在此不再赘述。
上述实施例的基于手势创建应用程序的方法,通过采用上述技术方案,能够弥补现有技术的不足,由于带有触摸显示设备的移动终端本身可以具有识别手势等功能,从而上述实施例的技术方案可以实现在带有触摸显示设备的移动终端中创建应用程序,满足开发者在带有触摸显示设备的移动终端上工作的需求。而且本实施例的技术方案,能够根据应用程序设计时输入的手势定义应用程序运行时界面元素响应手势事件的处理功能,建立应用程序的手势识别处理模块,可以为开发者省去了编码实现手势识别及其处理功能的环节,简化了开发过程,降低了开发难度,扩展了应用程序支持的手势操作类型。
例如下面以本发明实施例中的技术方案应用在一种创建触摸应用程序的开发工具IDE(Integrated Development Environment,集成开发环境)为例,描述本发明的技术方案,其中IDE默认指这种开发工具。该IDE在带触摸屏的如平板电脑之类的终端中运行,能够识别触摸手势进行响应。IDE的界面设计器用于创建应用程序的用户界面,代码编辑器或逻辑设计器用于创建应用程序的逻辑功能。
图2为本发明实施例提供的显示了IDE的一种用户界面图。如图2所示,该用户界面图中包含工具栏、资源管理器、界面设计器、工具箱、属性窗口等多个视图。工具栏定义IDE的一些常规操作命令,如创建/保存应用程序项目、保存、编辑前进、后退等命令,工具栏能根据当前选中对象的类型显示相关联的操作命令。资源管理器显示和管理应用程序项目文件以及应用程序在运行期涉及到的资源文件,如界面文件、代码文件、逻辑流程文件、图片等。界面设计器位于设计区域内,是IDE的主要视图。工具箱显示当前设计器需要用到的工具资源符号,比如当前设计器是界面设计器时,工具箱列出了各种界面元素控件(文本框、按钮、下拉框、复选框、列表、布局组件等),如果当前设计器是逻辑设计器时,工具箱展示的是数据处理组件,如界面元素对象、API组件、数据运算符组件。属性窗口显示当前选中对象(例如控件)的属性列表,包含属性名称和属性值。除了工具栏、设计器外,其他视图提供了隐藏窗口的功能,以在平板电脑之类的终端上最大化显示设计区域。
在本发明一具体实施例中,以用户使用该IDE开发的一个移动阅读器的应用程序为例,来说明本发明方案。该移动阅读器支持的手势包括:
轻击:打开选中书籍;
手势“←”:翻到上一页;
手势“→”:翻到上一页;
双指缩放:放大或缩小当前页面大小;
手势“√”:返回到当前书籍的书目;
手势“O”:跳转到书籍查询页面;
手势“X”:退出阅读器;
IDE的界面设计器处于设计视图状态时,响应用户的操作手势以修改应用程序的设计界面。比如用户对阅读器界面中的文本框做出了缩放手势,则界面设计器则放大/缩小文本框的区域大小;用户对阅读器界面中的按钮做出了拖拽平移手势,则界面设计器将按钮移动到新的位置。
图3为本发明实施例提供的显示了IDE的另一种用户界面图。如图3所示,用户设计好移动阅读器的用户界面后,将界面设计器切换到触摸视图,以配置界面元素的手势事件处理命令,创建移动阅读器的触摸交互功能。比如用户在IDE的工具栏中点击“切换视图”按钮,界面设计器检测到该按钮事件后,将当前视图从设计视图切换到触摸视图,锁定了用户对移动阅读器界面的修改,更换了界面设计器响应用户手势动作的处理行为。
下面将以上述实施例创建的移动阅读器为例具体描述本发明创建应用程序的手势处理模块实现触摸交互功能以及逻辑处理功能的过程。
移动阅读器的一项触摸交互功能是,检测到用户输入的划√手势,跳转到阅读器的书目页面。以移动阅读器的这项功能为例,具体描述本发明方案,其步骤如下:
1、检测、识别手势事件。IDE检测在界面设计器触摸视图上产生的触摸事件,记录当前手势的触摸事件序列,识别手势。比如,在本实施例中,IDE检测到用户在界面设计器上对用于显示书籍内容的文本框contentTextBox所做出的单指划√手势。划√是一个动态手势,具有连续的动作轨迹,因此,该手势产生了多个触摸事件,包括一个触摸开始事件、多个触摸移动事件、一个触摸结束事件。一个触摸事件包含了一个或多个触点信息,每个触点信息包含触点标识符、坐标、时间戳等数据。触点、触摸事件、手势事件的结构及关系如下的伪代码表示:
基于手势创建应用程序的装置或者开发工具设备检测到当前√手势的所有触摸事件,创建当前手势事件对象gesture(Gesture Event类型,type字段为空)。并提取当前手势特征信息,使用手势识别算法计算出手势类型。若当前手势的类型未指定名称(系统默认的或用户指定的),则IDE显示一个窗口,提示用户输入以指定新手势的类型名称,比如当前√手势的名称是tick。IDE将该名称保存在gesture对象的type字段。
2、确定手势事件在应用程序设计时界面中关联的界面元素。当前实施例中,√手势的第一个触点在文本框content Text Box内。IDE读取gesture.event List[0].touch List[0].Point值,获取到当前手势第一个触点的位置,在当前应用的界面模型中查询出该位置对应的顶层界面元素是content Text Box,因此content Text Box便是当前√手势关联的界面元素,即所选界面元素。在某些实施例中,所选界面元素是预先指定的,比如用户先选中应用程序界面窗口,再做出√手势,则IDE直接将当前应用窗口作为所选界面元素,这种方式在一些界面元素叠加层次较多、区分边界不明显的场景是比较适用的。
3、生成应用程序在运行时界面元素响应同类型手势事件的事件处理命令。当前实施例中,所选界面元素是文本框content Text Box,当前手势事件gesture类型是tick。比如当前未定义任何事件处理命令,则IDE新建一条处理命令content Text Box_tick_handler,作为content Text Box响应tick类型手势事件的事件处理命令。IDE显示content Text Box_tick_handler命令的编辑窗口,以供用户定义事件处理命令的内容。如图3所示,事件处理命令的内容是使用代码编辑方式生成,体现为一个函数(content Text Box_tick_handler)。用户可在该函数中编码实现跳转到书目页面的功能。
在一些实施例中,事件处理命令的编辑方式是可视化设计方式,如图4所示为本发明实施例提供的采用可视化流程设计生成事件处理命令的示意图。图4所示为一种实现方式是类似工作流设计的可视化流程设计方式,其中逻辑设计器将应用程序的各类元素,如界面元素、应用程序对象、API和数据运算符等元素抽象成具有输入/输出端的数据处理组件,不同组件建立起一种数据输出、输入的关联关系,形成一个数据处理流程,以描述特定的应用程序功能。在图4中,UI组件包含文本框、按钮、图标、窗口等界面元素;API组件包含操作系统调用、编程语言框架库等本地API以及Web服务、REST等远程API;数据运算符组件包含排序、过滤、聚会、投影等计算操作。逻辑设计器使用图形化符号表示组件、组件关联关系、组件处理动作等,支持用户使用触摸手势操作设计器,添加/删除组件,设计组件之间的数据流关系。逻辑设计器生成的应用程序功能流程将被转换为对等的应用程序代码,作为手势事件处理命令的具体内容。
在一些实施例中,事件处理命令的编辑方式是功能配置方式。如图5所示为本发明实施例提供的采用功能配置方式生成事件处理命令的示意图。IDE列出应用程序已有的功能列表,供用户选定其中的一个功能,将该功能跟事件处理命令关联起来,事件处理命令的执行便是调用该功能。
4、建立应用程序的手势处理模块。例如图6为本发明实施例建立的应用程序的手势处理模块的结构示意图。
建立应用程序的手势处理模块,具体可以包括:
A、建立应用程序的手势库。IDE为当前应用程序建立一个手势库,从已得到的手势事件对象gesture数据中提取手势特征和手势类型名称,保存到应用程序手势库中,作为应用程序进行手势识别的参照模板。
B、建立应用程序的命令映射库。应用程序的命令映射库记录界面元素、手势事件与事件处理命令的映射关系。当前实施例中,命令映射库是一种特殊数据结构,如下伪代码所示:
IDE根据当前判断出的应用程序界面元素、识别出的手势事件、获取到的事件处理命令创建一条新的映射关系记录,保存到应用程序的命令映射库中。如当前实施例中,新创建的映射关系记录Map Relation对象,其ui ElementId字段值等于content Text Box,gesture Type字段值等于tick,event Handler字段值等于content Text Box_tick_handler。
C、建立手势识别单元。该手势识别单元用于识别应用程序的手势事件,根据手势库记录的数据识别手势类型。由于应用程序的手势库已保存当前手势事件的手势信息,因此手势识别单元也能够识别应用程序在运行时所接收到的同类型的手势事件。
D、建立命令执行单元。该命令执行单元用于从手势识别单元获取识别的手势事件,确定所述手势事件关联的界面元素,在命令映射库中根据映射关系,获取所述界面元素和所述手势事件对应的事件处理命令,调用并执行该事件处理命令。比如对于当前实施例,当阅读器程序运行时,其手势识别单元检测到用户的触摸动作,将其手势识别为√手势(阅读器手势库已预记录了√手势样本),得出手势类型名称是tick。命令执行单元根据当前tick手势的轨迹信息计算出手势关联的界面元素是id为content Text Box的文本框,在命令映射库根据映射关系获取事件处理命令,得到界面元素id等于content Text Box、手势类型等于tick的映射关系记录的事件处理命令是content Text Box_tick_handler函数,因此,命令执行单元调用content Text Box_tick_handler函数,运行“返回书目”功能。
上述实施例的基于手势创建应用程序的方法,通过采用上述技术方案,能够弥补现有技术的不足,由于带有触摸显示设备的移动终端本身可以具有识别手势等功能,从而上述实施例的技术方案可以实现在带有触摸显示设备的移动终端中创建应用程序,满足开发者在带有触摸显示设备的移动终端上工作的需求。而且上述实施例的技术方案,能够根据应用程序设计时输入的手势定义应用程序运行时界面元素响应手势事件的处理功能,建立应用程序的手势识别处理模块,可以为开发者省去了编码实现手势识别及其处理功能的环节,简化了开发过程,降低了开发难度,扩展了应用程序支持的手势操作类型。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
图7为本发明一实施例提供的基于手势创建应用程序的装置的结构示意图。如图7所示,本实施例的基于手势创建应用程序的装置,该装置应用在带有触摸显示设备的终端,具体可以包括:检测模块10、确定模块11、生成模块12和建立模块13。
其中检测模块10用于检测和识别作用在触摸显示设备上的手势事件;例如该手势事件可以包括手势信息和触摸事件,例如该检测模块10具体可以为一个终端中的触摸屏,来检测和识别手势事件。确定模块11与检测模块10连接,确定模块11用于确定检测模块10检测得到的手势事件在应用程序设计时的界面中关联的界面元素;生成模块12与确定模块11连接,生成模块12用于生成应用程序在运行时确定模块11确定的界面元素响应手势事件的事件处理命令;建立模块13分别与检测模块10、确定模块11和生成模块12连接,建立模块13用于根据检测模块10检测得到的手势事件、确定模块11确定的界面元素和生成模块12生成的事件处理命令建立应用程序的手势处理模块。
本实施例的基于手势创建应用程序的装置,通过采用上述模块实现基于手势创建应用程序,与上述相关方法实施例的实现机制相同,详细可以参考上述相关方法实施例的记载,在此不再赘述。
本实施例的基于手势创建应用程序的装置,通过采用上述模块能够弥补现有技术的不足,实现在带有触摸显示设备的移动终端中创建应用程序,满足开发者在带有触摸显示设备的移动终端上工作的需求。由于带有触摸显示设备的移动终端本身可以具有识别手势等功能,从而本实施例的技术方案可以使用在带有触摸显示设备的移动终端上。而且本实施例的技术方案,能够根据应用程序设计时输入的手势定义应用程序运行时界面元素响应手势事件的处理功能,建立应用程序的手势识别处理模块,可以为开发者省去了编码实现手势识别及其处理功能的环节,简化了开发过程,降低了开发难度,扩展了应用程序支持的手势操作类型。
图8为本发明另一实施例提供的基于手势创建应用程序的装置的结构示意图。如图8所示,本实施例的基于手势创建应用程序的装置在上述图7所示实施例的基础上,进一步更加详细地描述本发明的技术方案。如图8所示,本实施例的基于手势创建应用程序的装置,在图7所示实施例的基础上,进一步包括如下技术方案。
如图8所示,本实施例的建立模块13进一步包括:手势库建立子模块131、命令映射库建立子模块132、手势识别单元建立子模块133和命令执行单元建立子模块。
其中手势库建立子模块131与检测模块10连接,手势库建立子模块131用于根据检测模块10检测得到的手势事件中的手势信息建立应用程序的手势库;命令映射库建立子模块132分别与检测模块10、确定模块11和生成模块12连接,命令映射库建立子模块132用于根据检测模块10检测得到的手势事件、确定模块11确定的界面元素和生成模块12生成的事件处理命令,建立记录有手势事件、界面元素和事件处理命令的映射关系的应用程序的命令映射库。手势识别单元建立子模块133与检测模块10连接,手势识别单元建立子模块133用于根据检测模块10检测得到的手势事件,建立手势识别单元,该手势识别单元用于识别检测模块10检测得到的手势事件。命令执行单元建立子模块134与生成模块12连接,命令执行单元建立子模块134用于根据生成模块12生成的事件处理命令,建立命令执行单元,该命令执行单元用于从手势识别单元建立子模块133建立的手势识别单元获取识别的手势事件,确定手势事件关联的界面元素,根据命令映射库中的映射关系获取界面元素和手势事件所对应的事件处理命令,调用并执行事件处理命令。
进一步可选地,本实施例的基于手势创建应用程序的装置中,触摸事件可以包括单点触摸事件或者多点触摸事件;手势信息可以包括手势类型和手势特征信息。
进一步可选地,本实施例的基于手势创建应用程序的装置中,确定模块11具体用于确定与检测模块10检测得到的手势事件的触摸事件中的第一个触点相接触的顶层的所述界面元素;或具体用于确定与手势事件对应的预先指定的界面元素。
进一步可选地,本实施例的基于手势创建应用程序的装置中,确定模块11具体用于确定检测模块10检测得到的手势事件在应用程序设计时的界面中关联的界面元素以及作用区域;该作用区域为手势事件作用在界面元素中的局部区域;生成模块12用于生成应用程序在运行时确定模块11确定的界面元素中的作用区域响应手势事件的事件处理命令;建立模块13具体用于根据手势事件、界面元素、作用区域和事件处理命令建立应用程序的手势处理模块。此时具体地,命令映射库建立子模块132用于根据检测模块10检测得到的手势事件、确定模块11确定的界面元素以及作用区域和生成模块12生成的事件处理命令,建立记录有手势事件、界面元素、作用区域和事件处理命令的映射关系的应用程序的命令映射库。
进一步可选地,本实施例的基于手势创建应用程序的装置中,命令执行单元建立子模块134建立的命令执行单元具体用于从手势识别单元获取识别的手势事件,确定手势事件关联的界面元素以及作用区域,根据命令映射库中的映射关系获取界面元素、作用区域和手势事件所对应的事件处理命令,调用并执行事件处理命令。
进一步可选地,本实施例的基于手势创建应用程序的装置中,命令执行单元建立子模块134建立的命令执行单元具体用于从手势识别单元获取识别的手势事件,确定手势事件关联的界面元素以及作用区域,在命令映射库中获取满足如下条件的映射关系:界面元素标识等于界面元素标识、作用区域包括作用区域、手势事件标识等于手势事件标识;获取映射关系中的事件处理命令,调用并执行事件处理命令。
进一步可选地,本实施例的基于手势创建应用程序的装置中,生成模块12具体用于采用代码编辑的方式生成事件处理命令;或者生成模块12具体用于采用可视化流程设计方式生成事件处理命令;或者生成模块12具体用于采用功能配置方式生成事件处理命令。
进一步可选地,本实施例的基于手势创建应用程序的装置中,建立模块13还用于建立应用程序的用户界面,详细可以参考现有技术来实现,在此不再赘述。具体地,可以在上述技术方案的基础上,在建立模块13中增加一个新的子模块实现建立应用程序的用户界面的子功能。
本实施例的上述所有可选技术方案,可以采用可结合的方式任意组合形成本发明的可选实施例,详细可以根据上述实施例推理得到,在此不再一一举例赘述。
本实施例的基于手势创建应用程序的装置,通过采用上述模块实现基于手势创建应用程序,与上述相关方法实施例的实现机制相同,详细可以参考上述相关方法实施例的记载,在此不再赘述。
本实施例的基于手势创建应用程序的装置,通过采用上述模块能够弥补现有技术的不足,实现在带有触摸显示设备的移动终端中创建应用程序,满足开发者在带有触摸显示设备的移动终端上工作的需求。由于带有触摸显示设备的移动终端本身可以具有识别手势等功能,从而本实施例的技术方案可以使用在带有触摸显示设备的移动终端上。而且本实施例的技术方案,能够根据应用程序设计时输入的手势定义应用程序运行时界面元素响应手势事件的处理功能,建立应用程序的手势识别处理模块,可以为开发者省去了编码实现手势识别及其处理功能的环节,简化了开发过程,降低了开发难度,扩展了应用程序支持的手势操作类型。
图9描述了本发明另一个实施例提供的基于手势创建应用程序的装置的结构示意图,包括至少一个处理器902(例如CPU),至少一个网络接口905或者其他通信接口,存储器906,和至少一个通信总线903,用于实现这些装置之间的连接通信。处理器902用于执行存储器906中存储的可执行模块,例如计算机程序。存储器906可能包含高速随机存取存储器(RAM:Random Access Memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个网络接口905(可以是有线或者无线)实现该系统网关与至少一个其他网元之间的通信连接,可以使用互联网,广域网,本地网,城域网等。
在一些实施方式中,存储器906存储了程序9061,程序9061可以被处理器902执行,这个程序包括:所述终端检测和识别作用在所述触摸显示设备上的手势事件;所述终端确定所述手势事件在应用程序设计时的界面中关联的界面元素;所述终端生成所述应用程序在运行时所述界面元素响应所述手势事件的事件处理命令;所述终端根据所述手势事件、所述界面元素和所述事件处理命令建立所述应用程序的手势处理模块。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到至少两个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于手势创建应用程序的方法,该方法应用在带有触摸显示设备的终端,其特征在于,包括:
所述终端检测和识别作用在所述触摸显示设备上的手势事件;
所述终端确定所述手势事件在应用程序设计时的界面中关联的界面元素;
所述终端生成所述应用程序在运行时所述界面元素响应所述手势事件的事件处理命令;
所述终端根据所述手势事件、所述界面元素和所述事件处理命令建立所述应用程序的手势处理模块。
2.根据权利要求1所述的方法,其特征在于,根据所述手势事件、所述界面元素和所述事件处理命令建立所述应用程序的手势处理模块,包括:
根据所述手势事件中的所述手势信息建立所述应用程序的手势库;
建立记录有所述手势事件、所述界面元素和所述事件处理命令的映射关系的所述应用程序的命令映射库;
建立手势识别单元,所述手势识别单元用于识别所述手势事件;
以及建立命令执行单元,所述命令执行单元用于从所述手势识别单元获取识别的所述手势事件,确定所述手势事件关联的所述界面元素,根据所述命令映射库中的所述映射关系获取所述界面元素和所述手势事件所对应的所述事件处理命令,调用并执行所述事件处理命令。
3.根据权利要求2所述的方法,其特征在于,确定所述手势事件在应用程序设计时的界面中关联的界面元素,包括:确定所述手势事件在所述应用程序设计时的界面中关联的界面元素以及作用区域;所述作用区域为所述手势事件作用在所述界面元素中的局部区域;
生成所述应用程序在运行时所述界面元素响应所述手势事件的事件处理命令,包括:生成所述应用程序在运行时所述界面元素中的所述作用区域响应所述手势事件的事件处理命令;
根据所述手势事件、所述界面元素和所述事件处理命令建立所述应用程序的手势处理模块,包括:根据所述手势事件、所述界面元素、所述作用区域和所述事件处理命令建立所述应用程序的手势处理模块。
4.根据权利要求3所述的方法,其特征在于,所述命令执行单元具体用于从所述手势识别单元获取识别的所述手势事件,确定所述手势事件关联的所述界面元素以及所述作用区域,根据所述命令映射库中的所述映射关系获取与所述界面元素、所述作用区域和所述手势事件所对应的所述事件处理命令,调用并执行所述事件处理命令。
5.根据权利要求4所述的方法,其特征在于,所述命令执行单元具体用于从所述手势识别单元获取识别的所述手势事件,确定所述手势事件关联的所述界面元素以及所述作用区域,在所述命令映射库中获取满足如下条件的所述映射关系:界面元素标识等于所述界面元素标识、作用区域包括所述作用区域、手势事件标识等于所述手势事件标识;获取所述映射关系中的所述事件处理命令,调用并执行所述事件处理命令。
6.一种基于手势创建应用程序的装置,该装置应用在带有触摸显示设备的终端,其特征在于,包括:
检测模块,用于检测和识别作用在所述触摸显示设备上的手势事件;确定模块,用于确定所述手势事件在应用程序设计时的界面中关联的界面元素;
生成模块,用于生成所述应用程序在运行时所述界面元素响应所述手势事件的事件处理命令;
建立模块,用于根据所述手势事件、所述界面元素和所述事件处理命令建立所述应用程序的手势处理模块。
7.根据权利要求6所述的装置,其特征在于,所述建立模块,包括:
手势库建立子模块,用于根据所述手势事件中的所述手势信息建立所述应用程序的手势库;
命令映射库建立子模块,用于建立记录有所述手势事件、所述界面元素和所述事件处理命令的映射关系的所述应用程序的命令映射库;
手势识别单元建立子模块,用于以及建立手势识别单元,所述手势识别单元用于识别所述手势事件;
命令执行单元建立子模块,用于建立命令执行单元,所述命令执行单元用于从所述手势识别单元获取识别的所述手势事件,确定所述手势事件关联的所述界面元素,根据所述命令映射库中的所述映射关系获取所述界面元素和所述手势事件所对应的所述事件处理命令,调用并执行所述事件处理命令。
8.根据权利要求7所述的装置,其特征在于:
所述确定模块,具体用于确定所述手势事件在所述应用程序设计时的界面中关联的界面元素以及作用区域;所述作用区域为所述手势事件作用在所述界面元素中的局部区域;
所述生成模块,具体用于生成所述应用程序在运行时所述界面元素中的所述作用区域响应所述手势事件的事件处理命令;
所述建立模块,具体用于根据所述手势事件、所述界面元素、所述作用区域和所述事件处理命令建立所述应用程序的手势处理模块。
9.根据权利要求8所述的装置,其特征在于,所述命令执行单元建立子模块建立的所述命令执行单元具体用于从所述手势识别单元获取识别的所述手势事件,确定所述手势事件关联的所述界面元素以及所述作用区域,根据所述命令映射库中的所述映射关系获取所述界面元素、所述作用区域和所述手势事件所对应的所述事件处理命令,调用并执行所述事件处理命令。
10.根据权利要求9所述的装置,其特征在于,所述命令执行单元建立子模块建立的所述命令执行单元具体用于从所述手势识别单元获取识别的所述手势事件,确定所述手势事件关联的所述界面元素以及所述作用区域,在所述命令映射库中获取满足如下条件的所述映射关系:界面元素标识等于所述界面元素标识、作用区域包括所述作用区域、手势事件标识等于所述手势事件标识;获取所述映射关系中的所述事件处理命令,调用并执行所述事件处理命令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310209999.6A CN104216646A (zh) | 2013-05-30 | 2013-05-30 | 基于手势创建应用程序的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310209999.6A CN104216646A (zh) | 2013-05-30 | 2013-05-30 | 基于手势创建应用程序的方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104216646A true CN104216646A (zh) | 2014-12-17 |
Family
ID=52098199
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310209999.6A Pending CN104216646A (zh) | 2013-05-30 | 2013-05-30 | 基于手势创建应用程序的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104216646A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105511794A (zh) * | 2015-12-14 | 2016-04-20 | 中国电子科技集团公司第十五研究所 | 一种支持多点触控手势操作的标绘系统及其方法 |
WO2016202270A1 (en) * | 2015-06-17 | 2016-12-22 | Zheng Shi | System and method for physical programming on interactive surface |
CN108255297A (zh) * | 2017-12-29 | 2018-07-06 | 青岛真时科技有限公司 | 一种可穿戴设备应用控制方法和装置 |
CN108446072A (zh) * | 2018-02-27 | 2018-08-24 | 口碑(上海)信息技术有限公司 | 手势识别反馈方法及装置 |
CN111512286A (zh) * | 2017-12-29 | 2020-08-07 | 华为技术有限公司 | 编排程序的方法及电子设备 |
CN112416236A (zh) * | 2020-03-23 | 2021-02-26 | 上海幻电信息科技有限公司 | 基于web页面的手势封装、交互方法、设备和存储介质 |
CN114546549A (zh) * | 2022-01-24 | 2022-05-27 | 中国第一汽车股份有限公司 | 应用程序的控制方法、手势处理装置、智能终端及车辆 |
CN115016693A (zh) * | 2021-06-30 | 2022-09-06 | 北京字跳网络技术有限公司 | 构建应用的方法、装置、设备和计算机可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120192117A1 (en) * | 2011-01-24 | 2012-07-26 | Migos Charles J | Device, Method, and Graphical User Interface with a Dynamic Gesture Disambiguation Threshold |
CN102681847A (zh) * | 2012-04-28 | 2012-09-19 | 华为终端有限公司 | 触屏终端对象处理方法及触屏终端 |
CN102915202A (zh) * | 2012-09-25 | 2013-02-06 | 广东欧珀移动通信有限公司 | 一种触摸设备的触控方法及系统 |
-
2013
- 2013-05-30 CN CN201310209999.6A patent/CN104216646A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120192117A1 (en) * | 2011-01-24 | 2012-07-26 | Migos Charles J | Device, Method, and Graphical User Interface with a Dynamic Gesture Disambiguation Threshold |
CN102681847A (zh) * | 2012-04-28 | 2012-09-19 | 华为终端有限公司 | 触屏终端对象处理方法及触屏终端 |
CN102915202A (zh) * | 2012-09-25 | 2013-02-06 | 广东欧珀移动通信有限公司 | 一种触摸设备的触控方法及系统 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016202270A1 (en) * | 2015-06-17 | 2016-12-22 | Zheng Shi | System and method for physical programming on interactive surface |
CN105511794A (zh) * | 2015-12-14 | 2016-04-20 | 中国电子科技集团公司第十五研究所 | 一种支持多点触控手势操作的标绘系统及其方法 |
CN111512286B (zh) * | 2017-12-29 | 2023-04-28 | 华为技术有限公司 | 编排程序的方法及电子设备 |
CN108255297A (zh) * | 2017-12-29 | 2018-07-06 | 青岛真时科技有限公司 | 一种可穿戴设备应用控制方法和装置 |
CN111512286A (zh) * | 2017-12-29 | 2020-08-07 | 华为技术有限公司 | 编排程序的方法及电子设备 |
CN108446072A (zh) * | 2018-02-27 | 2018-08-24 | 口碑(上海)信息技术有限公司 | 手势识别反馈方法及装置 |
WO2019165936A1 (zh) * | 2018-02-27 | 2019-09-06 | 口碑(上海)信息技术有限公司 | 手势识别反馈方法及装置 |
CN112965654A (zh) * | 2018-02-27 | 2021-06-15 | 口碑(上海)信息技术有限公司 | 手势识别反馈方法及装置 |
CN112416236A (zh) * | 2020-03-23 | 2021-02-26 | 上海幻电信息科技有限公司 | 基于web页面的手势封装、交互方法、设备和存储介质 |
CN115016693A (zh) * | 2021-06-30 | 2022-09-06 | 北京字跳网络技术有限公司 | 构建应用的方法、装置、设备和计算机可读存储介质 |
CN115016693B (zh) * | 2021-06-30 | 2024-06-11 | 北京字跳网络技术有限公司 | 构建应用的方法、装置、设备和计算机可读存储介质 |
CN114546549A (zh) * | 2022-01-24 | 2022-05-27 | 中国第一汽车股份有限公司 | 应用程序的控制方法、手势处理装置、智能终端及车辆 |
CN114546549B (zh) * | 2022-01-24 | 2024-08-06 | 中国第一汽车股份有限公司 | 应用程序的控制方法、手势处理装置、智能终端及车辆 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104216646A (zh) | 基于手势创建应用程序的方法及装置 | |
KR101375166B1 (ko) | 문자화장단말기 및 제어방법 | |
RU2650029C2 (ru) | Способ и устройство для управления приложением посредством распознавания нарисованного от руки изображения | |
WO2017054623A1 (zh) | 一种启动应用程序的方法、装置及电子设备 | |
US9317257B2 (en) | Folded views in development environment | |
CN103164300A (zh) | 一种移动终端触摸屏自动测试方法及装置 | |
US20140145945A1 (en) | Touch-based input control method | |
WO2020060641A1 (en) | Proactive notification of relevant feature suggestions based on contextual analysis | |
CN106844181B (zh) | 用于记录用户行为的方法、系统及移动终端 | |
CN104063071A (zh) | 内容输入方法及装置 | |
CN107368511A (zh) | 一种信息展示方法及装置 | |
EP3195115A1 (en) | Code development tool with multi-context intelligent assistance | |
US11221729B1 (en) | Tracking and restoring pointer positions among applications | |
CN104267867A (zh) | 内容输入方法及装置 | |
CN104866416A (zh) | 实现应用程序性能分析的方法和装置 | |
CN105335383A (zh) | 输入信息的处理方法及装置 | |
CN107220377B (zh) | 搜索方法、电子设备及计算机存储介质 | |
CN115983221A (zh) | 可视化的rpa表格操作录制与自动执行方法及系统 | |
CN103870191A (zh) | 网页保存的方法及电子设备 | |
CN103941979B (zh) | 一种在移动设备中输入文字的方法和装置 | |
CN108241460A (zh) | 图片悬浮显示方法、系统以及计算机可读存储介质 | |
CN103037107A (zh) | 一种智能触屏手机标签编辑系统及工作方法 | |
US10970476B2 (en) | Augmenting digital ink strokes | |
CN103092615A (zh) | 一种任务预览的方法和装置 | |
CN104239606A (zh) | Web环境下支持触屏的UML建模方法与装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20141217 |
|
RJ01 | Rejection of invention patent application after publication |