CN104866079B - 一种信息处理方法及电子设备 - Google Patents
一种信息处理方法及电子设备 Download PDFInfo
- Publication number
- CN104866079B CN104866079B CN201410062588.3A CN201410062588A CN104866079B CN 104866079 B CN104866079 B CN 104866079B CN 201410062588 A CN201410062588 A CN 201410062588A CN 104866079 B CN104866079 B CN 104866079B
- Authority
- CN
- China
- Prior art keywords
- electronic equipment
- hand
- frame structure
- sensor
- fixed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/0202—Constructional details or processes of manufacture of the input device
- G06F3/0219—Special purpose keyboards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
- G06F3/0317—Detection arrangements using opto-electronic means in co-operation with a patterned surface, e.g. absolute position or relative movement detection for an optical mouse or pen positioned with respect to a coded surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供了一种信息处理方法及电子设备,电子设备包括:框架结构体、第一显示组件、第二显示组件和M个传感器,框架结构体包括将电子设备固定在第一用户的第一操作体上的框架结构体;第一、第二显示组件固定在框架结构体上,第一显示组件包括通过框架结构体的第一表面显露的显示屏,第二显示组件包括通过框体结构体的第二表面显露的投影头,第一表面和第二表面相交,M个传感器通过框架结构体固定;方法包括:当电子设备固定在第一操作体上时,通过第一传感器获得触发信息;响应触发信息,控制将图形交互界面投影到第一操作体的操作部。本申请可将图形交互界面投影到用户的手掌上,从而使得用户可针对图形交互界面进行交互操作,用户体验较好。
Description
技术领域
本发明涉及数据处理技术领域,更具体的说是涉及一种信息处理方法及电子设备。
背景技术
现有技术中,一些电子设备如智能表,通常需要戴在用户的手腕上,智能表的图形交互界面通过智能表的显示屏显示,发明人在实现本发明创造的过程中发现:用户只能通过显示屏上显示的图形交互界面实现与智能表的信息交互,用户体验不好。
发明内容
有鉴于此,本发明提供了一种信息处理方法及电子设备,用以解决现有技术中用户只能通过显示屏上显示的图形交互界面实现与智能表的信息交互,用户体验不好的问题。其技术方案如下:
一种信息处理方法,所述方法应用于电子设备,,所述电子设备包括:框架结构体、第一显示组件、第二显示组件和M个传感器,所述框架结构体包括一固定结构,所述固定结构能够将所述电子设备固定在属于第一用户的第一操作体上;所述第一显示组件和所述第二显示组件固定在所述框架结构体上,所述第一显示组件包括一显示屏幕;所述显示屏幕通过所述框架结构体的第一表面显露,所述第二显示组件包括投影头,所述投影头通过所述框体结构体的第二表面显露,所述第一表面和所述第二表面相交,所述M个传感器通过所述框架结构体固定;
所述方法包括:
当所述电子设备通过所述固定结构固定在属于第一用户的所述第一操作体上时,通过所述M个传感器的第一传感器获得触发信息;
响应所述触发信息,控制将图形交互界面通过所述投影头进行投射,在所述第一操作体的操作部呈现出所述图形交互界面,其中,当所述电子设备通过所述固定结构固定在属于所述第一用户的所述第一操作体时,所述操作部位于所述电子设备的所述框架结构体的第二表面一侧。
其中,所述操作部的用于呈现所述图形交互界面的承载面与所述电子设备的所述框架结构体的所述第二表面近似垂直。
其中,所述M个传感器包括第二传感器,所述第二传感器为设置在所述固定结构上的压力传感器阵列,或者,为固定在所述框架结构体内,并且,通过所述第二表面显露的摄像头;
所述方法还包括:
通过所述第二传感器获得所述操作部的交互操作;
响应所述交互操作,通过所述投影头控制改变呈现在所述操作部的所述承载面上的所述图形交互界面。
其中,所述操作体为所述第一用户的第一手臂和与所述第一手臂连接的第一手,所述操作部为与所述第一手臂连接的所述第一手;
所述操作部的交互操作具体为所述第一手的其中一个手指的弯曲操作,所述第一手的每个手指对应一个功能项,则响应所述交互操作具体为:显示与所述手指的弯曲操作对应的功能项的界面;
和/或,
所述操作部的交互操作具体为所述第一手的拇指从初始位置向手掌侧移动的操作,则响应所述交互操作具体为:触发确定指令,对所述图形交互界面中的待操作对象执行与所述确定指令对应的操作;
和/或,
所述操作部的交互操作具体为所述第一手的拇指从初始位置远离手掌侧移动的操作,则响应所述交互操作具体为:触发删除指令,对所述图形交互界面中的待操作对象执行与所述删除指令对应的操作;
和/或,
所述操作部的交互操作具体为所述第一手的多个手指同时弯曲的操作,所述多个不同的手指同时弯曲触发不同的操作指令,则响应所述交互操作具体为:触发与所述多个手指同时弯曲的操作对应的指令,执行对应的操作。
其中,所述多个手指同时弯曲的操作具体为:至少4个手指同时弯曲的操作;
则触发与所述多个手指同时弯曲的操作对应的指令,执行对应的操作,具体为:控制呈现在所述操作部的所述承载面上的当前图形交互界面改变为主界面。
其中,所述操作体为第一用户的第一手臂和与所述第一手臂连接的第一手,所述操作部位为与所述第一手臂连接的所述第一手;
所述操作部的交互操作具体为:所述第一手的旋转操作,所述第一手的旋转带动所述第一手臂的旋转;
则响应所述交互操作具体为:对所述当前交互界面中显示的对象进行放大或缩小。
一种电子设备,所述电子设备包括:框架结构体、第一显示组件、第二显示组件和M个传感器,所述框架结构体包括一固定结构,所述固定结构能够将所述电子设备固定在属于第一用户的第一操作体上;所述第一显示组件和所述第二显示组件固定在所述框架结构体上,所述第一显示组件包括一显示屏幕;所述显示屏幕通过所述框架结构体的第一表面显露,所述第二显示组件包括投影头,所述投影头通过所述框体结构体的第二表面显露,所述第一表面和所述第二表面相交,所述M个传感器通过所述框架结构体固定;
所述电子设备还包括:
第一获取单元,用于当所述电子设备通过所述固定结构固定在属于第一用户的所述第一操作体上时,通过所述M个传感器的第一传感器获得触发信息;
第一响应单元,用于响应所述触发信息,控制将图形交互界面通过所述投影头进行投射,在所述第一操作体的操作部呈现出所述图形交互界面,其中,当所述电子设备通过所述固定结构固定在属于所述第一用户的所述第一操作体时,所述操作部位于所述电子设备的所述框架结构体的第二表面一侧。
其中,所述操作部的用于呈现所述图形交互界面的承载面与所述电子设备的所述框架结构体的所述第二表面近似垂直。
其中,所述M个传感器包括第二传感器,所述第二传感器为设置在所述固定结构上的压力传感器阵列,或者,为固定在所述框架结构体内,并且,通过所述第二表面显露的摄像头;
所述电子设备还包括:
第二获取单元,用于通过所述第二传感器获得所述操作部的交互操作;
第二响应单元,用于响应所述交互操作,通过所述投影头控制改变呈现在所述操作部的所述承载面上的所述图形交互界面。
其中,所述操作体为所述第一用户的第一手臂和与所述第一手臂连接的第一手,所述操作部为与所述第一手臂连接的所述第一手;
所述操作部的交互操作具体为所述第一手的其中一个手指的弯曲操作,所述第一手的每个手指对应一个功能项,则所述第二响应单元,具体用于显示与所述手指的弯曲操作对应的功能项的界面;
和/或,
所述操作部的交互操作具体为所述第一手的拇指从初始位置向手掌侧移动的操作,则所述第二响应单元,具体用于触发确定指令,对所述图形交互界面中的待操作对象执行与所述确定指令对应的操作;
和/或,
所述操作部的交互操作具体为所述第一手的拇指从初始位置远离手掌侧移动的操作,则所述第二响应单元,具体用于触发删除指令,对所述图形交互界面中的待操作对象执行与所述删除指令对应的操作;
和/或,
所述操作部的交互操作具体为所述第一手的多个手指同时弯曲的操作,所述多个不同的手指同时弯曲触发不同的操作指令,则所述第二响应单元,具体用于触发与所述多个手指同时弯曲的操作对应的指令,执行对应的操作。
其中,所述多个手指同时弯曲的操作具体为:至少4个手指同时弯曲的操作;
则所述第二响应单元,具体用于控制呈现在所述操作部的所述承载面上的当前图形交互界面改变为主界面。
其中,所述操作体为第一用户的第一手臂和与所述第一手臂连接的第一手,所述操作部位为与所述第一手臂连接的所述第一手;
所述操作部的交互操作具体为:所述第一手的旋转操作,所述第一手的旋转带动所述第一手臂的旋转;
则所述第二响应单元,具体用于对所述当前交互界面中显示的对象进行放大或缩小。
上述技术方案具有如下有益效果:
本发明提供的信息处理方法及电子设备,当电子设备通过固定结构固定在属于第一用户的第一操作体上时,可通过传感器获得触发信息,从而控制将图形交互界面通过投影头进行投射,在第一操作体的操作部呈现出图形交互界面。本发明提供的信息处理方法及电子设备,可通过投影头将图形交互界面投影到用户的手掌上,从而使得用户可针对手掌上呈现的图形交互界面与电子设备进行信息交互,用户体验较好。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的信息处理方法的一种流程示意图;
图2为本发明实施例提供的一种电子设备的结构示意图;
图3为固定到第一手臂上的电子设备通过投影头往与第一手臂连接的第一手上投影的示意图;
图4为本发明实施例提供的信息处理方法的另一种流程示意图;
图5为本发明实施例提供的信息处理方法中的交互式操作示意图;
图6为本发明实施例提供的信息处理方法中的交互式操作示意图;
图7为本发明实施例提供的信息处理方法中的交互式操作示意图;
图8为本发明实施例提供的信息处理方法中的交互式操作示意图;
图9为本发明实施例提供的信息处理方法中的交互式操作示意图;
图10为本发明实施例提供的信息处理方法中的交互式操作示意图;
图11为本发明实施例提供的电子设备的一种结构示意图;
图12为本发明实施例提供的电子设备的另一种结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,为本发明实施例提供的信息处理方法的一种流程示意图,该方法应用于电子设备,图2示出了该电子设备的结构示意图,可以包括:框架结构体201、第一显示组件、第二显示组件和M个传感器,框架结构体201包括一固定结构202,固定结构202能够将电子设备固定在属于第一用户的第一操作体上,第一显示组件和第二显示组件固定在框架结构体201上,第一显示组件包括一显示屏幕203,显示屏幕203通过框架结构体201的第一表面显露,第二显示组件包括投影头204,投影头通过框体结构体201的第二表面显露,第一表面和第二表面相交,M个传感器通过框架结构体201固定,该方法可以包括:
步骤S101:当电子设备通过固定结构固定在属于第一用户的第一操作体上时,通过M个传感器的第一传感器获得触发信息。
其中,第一操作体为第一用户的第一手臂和与第一手臂连接的第一手。
在本实施例中,电子设备通过M个传感器的第一传感器获得触发信息的实现方式有多种。
在一种可能的实现方式中,第一传感器可以为触摸屏,触摸屏显示有一控键,当触摸屏接收到对该控键的触控操作时,电子设备获得触发信息。
在另一种可能的实现方式中,第一传感器可以为设置在框架结构体上的实体按键,当该实体按键被按下时,电子设备获得触发信息。
在另一种可能的实现方式中,第一传感器可以为摄像头,摄像头可以采集用户的手势,当摄像头采集的手势与设定手势匹配时,电子设备可获得触发信息。
步骤S102:响应触发信息,控制将图形交互界面通过投影头进行投射,在第一操作体的操作部呈现出图形交互界面。
其中,当电子设备通过固定结构固定在属于第一用户的第一操作体时,操作部位于电子设备的框架结构体的第二表面一侧。
其中,第一操作体的操作部为与第一手臂连接的第一手。
将图形交互界面通过投影头进行投射,在第一操作体的操作部呈现出图形交互界面,即通过投影头将图形交互界面投影到用户的手上,请参阅图3,示出了固定到第一手臂上的电子设备通过投影头往与第一手臂连接的第一手上投影的示意图。
在一种可能的情况中,第一操作体的操作部的用于呈现图形交互界面的承载面可以与电子设备的框架结构体的第二表面近似平行,即,与第一手臂连接的第一手的手掌是竖起的,此时,电子设备可将图形交互界面通过投影头进行投射,从而在竖起的第一手的手掌上呈现出图形交互界面。
可以理解的是,如果用户长时间将手掌竖起会感到疲劳,为了减轻用户的疲劳,使用户能够更轻松的使用电子设备,在另一种可能的情况中,第一操作体的操作部的用于呈现图形交互界面的承载面可以与电子设备的框架结构体的第二表面近似垂直。即,与第一手臂连接的第一手的手掌平摊着,手掌与手臂处于同一个表面,此时,为了使图形交互界面可以投影到平摊的手掌上,需要对投影头进行调整。在调整投影头的过程中,一方面要使图形交互界面能够呈现在平摊的手掌上,另一方面,要使平摊的手掌上呈现的图形交互界面显示矩形,从而达到较好的显示效果。
本发明实施例提供的信息处理方法,当电子设备通过固定结构固定在属于第一用户的第一操作体上时,可通过传感器获得触发信息,从而控制将图形交互界面通过投影头进行投射,在第一操作体的操作部呈现出图形交互界面。本发明提供的信息处理方法,可通过投影头将图形交互界面投影到用户的手掌上,从而使得用户可针对手掌上呈现的图形交互界面与电子设备进行信息交互,而不仅局限于电子设备的显示屏上呈现的图形交互界面,用户体验较好。
请参阅图4,为本发明实施例提供的信息处理方法的另一种流程示意图,该方法同样可应用于图2示出的电子设备,该方法可以包括:
步骤S401:当电子设备通过固定结构固定在属于第一用户的第一操作体上时,通过M个传感器的第一传感器获得触发信息。
其中,第一操作体为第一用户的第一手臂和与第一手臂连接的第一手。
在本实施例中,电子设备通过M个传感器的第以传感器获得触发信息的实现方式有多种。
在一种可能的实现方式中,第一传感器可以为触摸屏,触摸屏显示有一控键,当触摸屏接收到对该控键的触控操作时,电子设备获得触发信息。
在另一种可能的实现方式中,第一传感器可以为设置在框架结构体上的实体按键,当该实体按键被按下时,电子设备获得触发信息。
在另一种可能的实现方式中,第一传感器可以为摄像头,摄像头可以采集用户的手势,当摄像头采集的手势与设定手势匹配时,电子设备可获得触发信息。
步骤S402:响应触发信息,控制将图形交互界面通过投影头进行投射,在第一操作体的操作部呈现出图形交互界面。
其中,当电子设备通过固定结构固定在属于第一用户的第一操作体时,操作部位于电子设备的框架结构体的第二表面一侧。
其中,第一操作体的操作部为与第一手臂连接的第一手。
在一种可能的情况中,第一操作体的操作部的用于呈现图形交互界面的承载面可以与电子设备的框架结构体的第二表面近似平行,即,与第一手臂连接的第一手的手掌是竖起的,此时,电子设备可将图形交互界面通过投影头进行投射,从而在竖起的第一手的手掌上呈现出图形交互界面。
可以理解的是,如果用户长时间将手掌竖起会感到疲劳,为了减轻用户的疲劳,使用户能够更轻松的使用电子设备,在另一种可能的情况中,第一操作体的操作部的用于呈现图形交互界面的承载面可以与电子设备的框架结构体的第二表面近似垂直。即,与第一手臂连接的第一手的手掌平摊着,手掌与手臂处于同一个表面,此时,为了使图形交互界面可以投影到平摊的手掌上,需要对投影头进行调整。在调整投影头的过程中,一方面要使图形交互界面能够呈现在平摊的手掌上,另一方面,要使平摊的手掌上呈现的图形交互界面显示矩形,从而达到较好的显示效果。
步骤S403:通过第二传感器获得操作部的交互操作。
其中,交互操作为操作部的手势操作。
其中,第二传感器可以设置在固定结构上,如设置在固定结构的内侧的压力传感器阵列,当操作体进行交互操作时,可带动手臂的骨骼震动,骨骼震动作用于压力传感器阵列,这样电子设备可通过压力传感器阵列检测的压力确定交互操作。
第二传感器可还可以为固定在框架结构体内的并且通过第二表面显露的摄像头。
步骤S404:响应交互操作,通过投影头控制改变呈现在操作部的承载面上的图形交互界面。
在一种可能的实现方式中,操作部的交互操作可以为第一手的其中一个手指的弯曲操作。
第一手的每个手指可对应一个功能项,也可对应多个功能项。
当第一手的每个手指对应一个功能项时,响应交互操作具体为:显示与手指的弯曲操作对应的功能项的界面。
示例性的,请参阅图5,第一手的拇指对应A功能,食指对应B功能,中指对应C功能,无名指对应D功能,小指对应E功能。一种可能的情况,当电子设备控制投影头将图形交互界面投影到第一手的手掌时,手掌的各个手指上可分别显示对应的功能提示信息,用户通过该功能提示信息可很容易得知每个手指对应的功能项,当电子设备通过第二传感器获得其中一个手指的弯曲操作时,例如,获取食指的弯曲操作,由于食指与功能B对应,因此,将当前显示的图形交互界面改变为功能B的界面,其它手指同样如此。另一种可能的情况,当电子设备控制投影头将图形交互界面投影到第一手的手掌时,手掌的各个手指上并不显示功能提示信息,当电子设备通过第二传感器获得其中一个手指的弯曲操作时,例如,获取食指的弯曲操作,则将当前显示的图形交互界面改变为功能B的界面,其它手指同样如此。另外,需要说明的是,与每个手指对应的功能项可由用户自己设定。
当第一手的每个手指或部分手指对应多个功能时,可通过手指的弯曲操作的次数实现功能项的切换。
示例性的,请参阅图6,第一手的拇指对应选择功能,食指对应B1~B5五个功能项,中指对应C1~C5五个功能项,无名指对应D1~D5五个功能项,小指对应E1~E5五个功能项。以食指为例,当电子设备通过第二传感器获得食指弯曲一次的操作时,由B1功能项切换到B2功能项,当电子设备通过第二传感器获得食指连续弯曲两次的操作时,由B2功能项切换至B3功能项。如果用户想选择B3功能项,则通过拇指的弯曲操作实现,当电子设备通过第二传感器获得拇指的弯曲操作时,进入B3功能项的界面。
请参阅图7,第一手指的食指、中指、无名指和小指可对应多个字母,以中指为例,中指对应HIJKLMN,中指弯曲一次,从字母H切换到字母I,中指弯曲两次,从字母I切换到J,以此类推,如果用户想选择J,则可通过拇指从初始位置向手掌侧移动的操作实现,而拇指从初始位置远离手掌侧移动的操作可触发返回指令。
除了上述提供的实现方式外,还存在其它可能的实现方式:
例如,在一种可能的实现方式中,操作部的交互操作可以为第一手的拇指从初始位置向手掌侧移动的操作,则响应交互操作具体为:触发确定指令,对图形交互界面中的待操作对象执行与确定指令对应的操作。
在另一种可能的实现方式中,操作部的交互操作可以为第一手的拇指从初始位置远离手掌侧移动的操作,则响应所述交互操作具体为:触发删除指令,对图形界面中的待操作对象执行与删除指令对应的操作。
在另一种可能的实现方式中,操作部的交互操作可以为第一手的多个手指同时弯曲的操作,多个不同的手指同时弯曲触发不同的操作指令,则响应交互操作具体为:触发与多个手指同时弯曲的操作对应的指令,执行对应的操作。
示例性的,请参阅图8,食指和中指同时弯曲的操作可触发空格插入指令,例如,在两个单词之间插入空格,中指、无名指和小指同时弯曲的操作触发分享指令。
进一步的,多个手指同时弯曲的操作可以为至少4个手指同时弯曲的操作,则触发与多个手指同时弯曲的操作对应的指令,执行对应的操作,具体为:控制呈现在操作部的承载面上的当前图形交互界面改变为主界面。
示例性的,请参阅图9,当食指、中指、无名指和小指同时弯曲时,电子将当前图形界面改变为主页面。
在另一种可能的操作中,操作部的交互操作可以为第一手的旋转操作,第一手的旋转带动第一手臂的旋转。则响应交互操作具体为:对当前交互界面中显示的对象进行放大或缩小。具体的,可依据第一手臂的旋转方向确定是对显示的对象进行放大还是缩小。
在本实施例中,第一手臂的旋转方向可通过角度传感器和重力传感器确定。
示例性的,请参阅图10,第一手逆时针旋转为放大显示对象,顺时针旋转为缩小显示图像。
本发明实施例提供的信息处理方法,当电子设备通过固定结构固定在属于第一用户的第一操作体上时,可通过传感器获得触发信息,从而控制将图形交互界面通过投影头进行投射,在第一操作体的操作部呈现出图形交互界面,当通过传感器获得操作部的交互操作时,可通过投影头控制改变呈现在操作部的承载面上的图形交互界面。本发明提供的信息处理方法,可通过投影头将图形交互界面投影到用户的手掌上,从而使得用户可针对手掌上呈现的图形交互界面与电子设备进行信息交互,而不仅局限于电子设备的显示屏上呈现的图形交互界面,并且,用户只需通过一只手就可对图形交互界面进行操作,用户体验较好。
在上述实施例提供的信息处理方法中,交互操作均由第一操作体的操作部执行,例如,用于将电子设备固定在左手的手臂上,图形交互界面投影到左手的手掌上,用户通过左手针对图形交互界面进行操作,除了上述方式外,,交互操作可以第二操作体执行,例如,用于将电子设备固定在左手的手臂上,图形交互界面投影到左手的手掌上,用户通过右手针对左手的手掌上呈现的图形交互界面进行交互操作,该交互操作可以为设定的与各种功能对应的手势。
与上述方法相对应,本发明实施例还提供了一种电子设备。
请参阅图11,为本发明实施例提供的电子设备结构示意图,该电子设备包括:框架结构体、第一显示组件、第二显示组件和M个传感器,框架结构体包括一固定结构,固定结构能够将电子设备固定在属于第一用户的第一操作体上;第一显示组件和第二显示组件固定在框架结构体上,第一显示组件包括一显示屏幕;显示屏幕通过所述框架结构体的第一表面显露,第二显示组件包括投影头,投影头通过框体结构体的第二表面显露,第一表面和第二表面相交,M个传感器通过框架结构体固定;该电子设备还包括:第一获取单元1101和第一响应单元1102。其中:
第一获取单元1101,用于当电子设备通过固定结构固定在属于第一用户的第一操作体上时,通过M个传感器的第一传感器获得触发信息。
第一响应单元1102,用于响应触发信息,控制将图形交互界面通过投影头进行投射,在第一操作体的操作部呈现出图形交互界面。
其中,当电子设备通过固定结构固定在属于第一用户的第一操作体时,操作部位于电子设备的框架结构体的第二表面一侧。
其中,第一操作体的操作部为与第一手臂连接的第一手。
在一种可能的实现方式中,操作部的用于呈现图形交互界面的承载面与电子设备的框架结构体的第二表面近似垂直。
本发明实施例提供的电子设备,当通过固定结构固定在属于第一用户的第一操作体上时,可通过传感器获得触发信息,从而控制将图形交互界面通过投影头进行投射,在第一操作体的操作部呈现出图形交互界面。本发明实施例提供的电子设备,可通过投影头将图形交互界面投影到用户的手掌上,从而使得用户可针对手掌上呈现的图形交互界面与电子设备进行信息交互,而不仅局限于电子设备的显示屏上呈现的图形交互界面,用户体验较好。
请参阅图12,为本发明实施例提供的电子设备的另一种结构示意图,该电子设备与上述实施例提供的电子设备不同的时,本实施例提供的电子设备除了包括:第一获取单元1101和第一响应单元1102外,还包括:第二获取单元1201和第二响应单元1202。其中:
第二获取单元1201,用于通过第二传感器获得操作部的交互操作。
在本实施例中,M个传感器包括第二传感器,第二传感器可以为设置在固定结构上的压力传感器阵列,或者,为固定在框架结构体内,并且,通过第二表面显露的摄像头。
第二响应单元1202,用于响应交互操作,通过投影头控制改变呈现在操作部的承载面上的所述图形交互界面。
其中,操作体为第一用户的第一手臂和与第一手臂连接的第一手,操作部为与第一手臂连接的第一手。
在一种可能的实现方式中,操作部的交互操作具体为第一手的其中一个手指的弯曲操作,第一手的每个手指对应一个功能项,则第二响应单元1202,具体用于显示与手指的弯曲操作对应的功能项的界面。
在另一种可能的实现方式中,操作部的交互操作具体为第一手的拇指从初始位置向手掌侧移动的操作,则第二响应单元1202,具体用于触发确定指令,对图形交互界面中的待操作对象执行与确定指令对应的操作。
在另一种可能的实现方式中,操作部的交互操作具体为第一手的拇指从初始位置远离手掌侧移动的操作,则第二响应单元1202,具体用于触发删除指令,对图形交互界面中的待操作对象执行与删除指令对应的操作。
在另一种可能的实现方式中,操作部的交互操作具体为第一手的多个手指同时弯曲的操作,多个不同的手指同时弯曲触发不同的操作指令,则第二响应单元,具体用于触发与多个手指同时弯曲的操作对应的指令,执行对应的操作。
其中,多个手指同时弯曲的操作具体为:至少4个手指同时弯曲的操作;则第二响应单元1202触发与多个手指同时弯曲的操作对应的指令,执行对应的操作具体为:控制呈现在操作部的承载面上的当前图形交互界面改变为主界面。
在另一种可能的实现方式中,操作部的交互操作具体为第一手的旋转操作,第一手的旋转带动第一手臂的旋转。则第二响应单元1202,具体用于对当前交互界面中显示的对象进行放大或缩小。
本发明实施例提供的电子设备,当通过固定结构固定在属于第一用户的第一操作体上时,可通过传感器获得触发信息,从而控制将图形交互界面通过投影头进行投射,在第一操作体的操作部呈现出图形交互界面,当通过传感器获得操作部的交互操作时,可通过投影头控制改变呈现在操作部的承载面上的图形交互界面。本发明实施例提供的电子设备,可通过投影头将图形交互界面投影到用户的手掌上,从而使得用户可针对手掌上呈现的图形交互界面与电子设备进行信息交互,而不仅局限于电子设备的显示屏上呈现的图形交互界面,并且,用户只需通过一只手就可对图形交互界面进行操作,用户体验较好。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置或系统类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (12)
1.一种信息处理方法,所述方法应用于电子设备,其特征在于,所述电子设备包括:框架结构体、第一显示组件、第二显示组件和M个传感器,所述框架结构体包括一固定结构,所述固定结构能够将所述电子设备固定在属于第一用户的第一操作体上;所述第一显示组件和所述第二显示组件固定在所述框架结构体上,所述第一显示组件包括一显示屏幕;所述显示屏幕通过所述框架结构体的第一表面显露,所述第二显示组件包括投影头,所述投影头通过所述框架结构体的第二表面显露,所述第一表面和所述第二表面相交,所述M个传感器通过所述框架结构体固定;
所述方法包括:
当所述电子设备通过所述固定结构固定在属于第一用户的所述第一操作体上时,通过所述M个传感器的第一传感器获得触发信息;
响应所述触发信息,控制将图形交互界面通过所述投影头进行投射,在所述第一操作体的操作部呈现出所述图形交互界面,其中,当所述电子设备通过所述固定结构固定在属于所述第一用户的所述第一操作体时,所述操作部位于所述电子设备的所述框架结构体的第二表面一侧。
2.根据权利要求1所述的方法,其特征在于,所述操作部的用于呈现所述图形交互界面的承载面与所述电子设备的所述框架结构体的所述第二表面近似垂直。
3.根据权利要求2所述的方法,其特征在于,所述M个传感器包括第二传感器,所述第二传感器为设置在所述固定结构上的压力传感器阵列,或者,为固定在所述框架结构体内,并且,通过所述第二表面显露的摄像头;
所述方法还包括:
通过所述第二传感器获得所述操作部的交互操作;
响应所述交互操作,通过所述投影头控制改变呈现在所述操作部的所述承载面上的所述图形交互界面。
4.根据权利要求3所述的方法,其特征在于,所述操作体为所述第一用户的第一手臂和与所述第一手臂连接的第一手,所述操作部为与所述第一手臂连接的所述第一手;
所述操作部的交互操作具体为所述第一手的其中一个手指的弯曲操作,所述第一手的每个手指对应一个功能项,则响应所述交互操作具体为:显示与所述手指的弯曲操作对应的功能项的界面;
和/或,
所述操作部的交互操作具体为所述第一手的拇指从初始位置向手掌侧移动的操作,则响应所述交互操作具体为:触发确定指令,对所述图形交互界面中的待操作对象执行与所述确定指令对应的操作;
和/或,
所述操作部的交互操作具体为所述第一手的拇指从初始位置远离手掌侧移动的操作,则响应所述交互操作具体为:触发删除指令,对所述图形交互界面中的待操作对象执行与所述删除指令对应的操作;
和/或,
所述操作部的交互操作具体为所述第一手的多个手指同时弯曲的操作,所述多个不同的手指同时弯曲触发不同的操作指令,则响应所述交互操作具体为:触发与所述多个手指同时弯曲的操作对应的指令,执行对应的操作。
5.根据权利要求4所述的方法,其特征在于,所述多个手指同时弯曲的操作具体为:至少4个手指同时弯曲的操作;
则触发与所述多个手指同时弯曲的操作对应的指令,执行对应的操作,具体为:控制呈现在所述操作部的所述承载面上的当前图形交互界面改变为主界面。
6.根据权利要求3所述的方法,其特征在于,所述操作体为第一用户的第一手臂和与所述第一手臂连接的第一手,所述操作部位为与所述第一手臂连接的所述第一手;
所述操作部的交互操作具体为:所述第一手的旋转操作,所述第一手的旋转带动所述第一手臂的旋转;
则响应所述交互操作具体为:对当前图形交互界面中显示的对象进行放大或缩小。
7.一种电子设备,其特征在于,所述电子设备包括:框架结构体、第一显示组件、第二显示组件和M个传感器,所述框架结构体包括一固定结构,所述固定结构能够将所述电子设备固定在属于第一用户的第一操作体上;所述第一显示组件和所述第二显示组件固定在所述框架结构体上,所述第一显示组件包括一显示屏幕;所述显示屏幕通过所述框架结构体的第一表面显露,所述第二显示组件包括投影头,所述投影头通过所述框架结构体的第二表面显露,所述第一表面和所述第二表面相交,所述M个传感器通过所述框架结构体固定;
所述电子设备还包括:
第一获取单元,用于当所述电子设备通过所述固定结构固定在属于第一用户的所述第一操作体上时,通过所述M个传感器的第一传感器获得触发信息;
第一响应单元,用于响应所述触发信息,控制将图形交互界面通过所述投影头进行投射,在所述第一操作体的操作部呈现出所述图形交互界面,其中,当所述电子设备通过所述固定结构固定在属于所述第一用户的所述第一操作体时,所述操作部位于所述电子设备的所述框架结构体的第二表面一侧。
8.根据权利要求7所述的电子设备,其特征在于,所述操作部的用于呈现所述图形交互界面的承载面与所述电子设备的所述框架结构体的所述第二表面近似垂直。
9.根据权利要求8所述的电子设备,其特征在于,所述M个传感器包括第二传感器,所述第二传感器为设置在所述固定结构上的压力传感器阵列,或者,为固定在所述框架结构体内,并且,通过所述第二表面显露的摄像头;
所述电子设备还包括:
第二获取单元,用于通过所述第二传感器获得所述操作部的交互操作;
第二响应单元,用于响应所述交互操作,通过所述投影头控制改变呈现在所述操作部的所述承载面上的所述图形交互界面。
10.根据权利要求9所述的电子设备,其特征在于,所述操作体为所述第一用户的第一手臂和与所述第一手臂连接的第一手,所述操作部为与所述第一手臂连接的所述第一手;
所述操作部的交互操作具体为所述第一手的其中一个手指的弯曲操作,所述第一手的每个手指对应一个功能项,则所述第二响应单元,具体用于显示与所述手指的弯曲操作对应的功能项的界面;
和/或,
所述操作部的交互操作具体为所述第一手的拇指从初始位置向手掌侧移动的操作,则所述第二响应单元,具体用于触发确定指令,对所述图形交互界面中的待操作对象执行与所述确定指令对应的操作;
和/或,
所述操作部的交互操作具体为所述第一手的拇指从初始位置远离手掌侧移动的操作,则所述第二响应单元,具体用于触发删除指令,对所述图形交互界面中的待操作对象执行与所述删除指令对应的操作;
和/或,
所述操作部的交互操作具体为所述第一手的多个手指同时弯曲的操作,所述多个不同的手指同时弯曲触发不同的操作指令,则所述第二响应单元,具体用于触发与所述多个手指同时弯曲的操作对应的指令,执行对应的操作。
11.根据权利要求10所述的电子设备,其特征在于,所述多个手指同时弯曲的操作具体为:至少4个手指同时弯曲的操作;
则所述第二响应单元,具体用于控制呈现在所述操作部的所述承载面上的当前图形交互界面改变为主界面。
12.根据权利要求9所述的电子设备,其特征在于,所述操作体为第一用户的第一手臂和与所述第一手臂连接的第一手,所述操作部位为与所述第一手臂连接的所述第一手;
所述操作部的交互操作具体为:所述第一手的旋转操作,所述第一手的旋转带动所述第一手臂的旋转;
则所述第二响应单元,具体用于对当前图形交互界面中显示的对象进行放大或缩小。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410062588.3A CN104866079B (zh) | 2014-02-24 | 2014-02-24 | 一种信息处理方法及电子设备 |
US14/470,084 US20150241968A1 (en) | 2014-02-24 | 2014-08-27 | Method for Processing Information and Electronic Device |
DE102014113233.5A DE102014113233A1 (de) | 2014-02-24 | 2014-09-15 | Verfahren zur Informationsverarbeitung und elektronisches Gerät |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410062588.3A CN104866079B (zh) | 2014-02-24 | 2014-02-24 | 一种信息处理方法及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104866079A CN104866079A (zh) | 2015-08-26 |
CN104866079B true CN104866079B (zh) | 2018-11-09 |
Family
ID=53782347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410062588.3A Active CN104866079B (zh) | 2014-02-24 | 2014-02-24 | 一种信息处理方法及电子设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20150241968A1 (zh) |
CN (1) | CN104866079B (zh) |
DE (1) | DE102014113233A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101909540B1 (ko) * | 2014-10-23 | 2018-10-18 | 삼성전자주식회사 | 가상의 입력 영역을 이용한 포터블 디바이스의 사용자 입력 방법 |
US9886086B2 (en) * | 2015-08-21 | 2018-02-06 | Verizon Patent And Licensing Inc. | Gesture-based reorientation and navigation of a virtual reality (VR) interface |
JP2017054251A (ja) * | 2015-09-08 | 2017-03-16 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US11188154B2 (en) * | 2018-05-30 | 2021-11-30 | International Business Machines Corporation | Context dependent projection of holographic objects |
CN112461341B (zh) * | 2020-11-13 | 2022-04-05 | 深圳市西城微科电子有限公司 | 基于全桥电路的电子称及介质 |
CN114764293A (zh) * | 2021-01-04 | 2022-07-19 | 北京小米移动软件有限公司 | 一种可穿戴设备的控制方法、装置、可穿戴设备和存储介质 |
US11914789B2 (en) * | 2022-01-20 | 2024-02-27 | Htc Corporation | Method for inputting letters, host, and computer readable storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101785046A (zh) * | 2007-08-19 | 2010-07-21 | 环弓有限公司 | 穿在手指上的装置和相关使用方法 |
CN103246351A (zh) * | 2013-05-23 | 2013-08-14 | 刘广松 | 一种用户交互系统和方法 |
CN103558918A (zh) * | 2013-11-15 | 2014-02-05 | 上海威璞电子科技有限公司 | 智能手表基于手臂肌肉电流信号做手势识别的方案 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6747632B2 (en) * | 1997-03-06 | 2004-06-08 | Harmonic Research, Inc. | Wireless control device |
US10061387B2 (en) * | 2011-03-31 | 2018-08-28 | Nokia Technologies Oy | Method and apparatus for providing user interfaces |
US9936473B2 (en) * | 2011-05-03 | 2018-04-03 | Nokia Technologies Oy | Method and apparatus for managing radio interfaces |
US8228315B1 (en) * | 2011-07-12 | 2012-07-24 | Google Inc. | Methods and systems for a virtual input device |
US9690376B2 (en) * | 2012-11-01 | 2017-06-27 | Eyecam, Inc. | Wireless wrist computing and control device and method for 3D imaging, mapping, networking and interfacing |
-
2014
- 2014-02-24 CN CN201410062588.3A patent/CN104866079B/zh active Active
- 2014-08-27 US US14/470,084 patent/US20150241968A1/en not_active Abandoned
- 2014-09-15 DE DE102014113233.5A patent/DE102014113233A1/de active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101785046A (zh) * | 2007-08-19 | 2010-07-21 | 环弓有限公司 | 穿在手指上的装置和相关使用方法 |
CN103246351A (zh) * | 2013-05-23 | 2013-08-14 | 刘广松 | 一种用户交互系统和方法 |
CN103558918A (zh) * | 2013-11-15 | 2014-02-05 | 上海威璞电子科技有限公司 | 智能手表基于手臂肌肉电流信号做手势识别的方案 |
Also Published As
Publication number | Publication date |
---|---|
CN104866079A (zh) | 2015-08-26 |
US20150241968A1 (en) | 2015-08-27 |
DE102014113233A1 (de) | 2015-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104866079B (zh) | 一种信息处理方法及电子设备 | |
JP6293108B2 (ja) | 動的な触覚効果を有するマルチタッチデバイス | |
US11016631B2 (en) | Method and apparatus for ego-centric 3D human computer interface | |
US8866781B2 (en) | Contactless gesture-based control method and apparatus | |
CN104679233B (zh) | 用于生成摩擦和振动触感效果的系统和方法 | |
CN104049734B (zh) | 基于用户接触显示图形用户界面的方法和设备 | |
JP4447823B2 (ja) | 携帯情報機器 | |
CN103502923B (zh) | 用户与设备的基于触摸和非触摸的交互作用 | |
KR20150143671A (ko) | 휴대용 디바이스들 상에서의 한 손 및 멀티모드 상호작용을 위한 그립 포스 센서 어레이 및 방법들 | |
CN102103460A (zh) | 反映用户手握状态且可操作的手持式电子装置及操作方法 | |
US20110193771A1 (en) | Electronic device controllable by physical deformation | |
KR20140010003A (ko) | 컴퓨팅 디바이스와 사용작용할 때 생성된 입력 이벤트의 해석을 향상시키기 위해 컴퓨팅 디바이스의 이동을 사용하는 방법 | |
KR20160003031A (ko) | 햅틱 셀들의 어레이를 이용한 유형의 사용자 인터페이스 상호작용들 및 제스처들의 시뮬레이션 | |
TW200822682A (en) | Multi-function key with scrolling | |
EP2266015A1 (en) | Haptically enabled user interface | |
WO2015108112A1 (ja) | 操作判定装置、操作判定方法、および、プログラム | |
CN108304116A (zh) | 一种单手指触控交互的方法 | |
JP2011070609A (ja) | タッチパネル付情報端末装置、表示制御方法、および表示制御プログラム | |
CN110389659A (zh) | 针对增强或虚拟现实环境提供动态触觉回放的系统和方法 | |
TW200807284A (en) | Programmable touch system | |
WO2015039434A1 (zh) | 一种终端、终端控制方法及装置 | |
JP6183820B2 (ja) | 端末、及び端末制御方法 | |
TW201234240A (en) | Device and method for detecting multi-proximity and touch behavior of a proximity-touch detection device | |
Roudaut et al. | TimeTilt: using sensor-based gestures to travel through multiple applications on a mobile device | |
CN104951211B (zh) | 一种信息处理方法和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |