CN104866170A - 一种信息处理方法及电子设备 - Google Patents
一种信息处理方法及电子设备 Download PDFInfo
- Publication number
- CN104866170A CN104866170A CN201410062773.2A CN201410062773A CN104866170A CN 104866170 A CN104866170 A CN 104866170A CN 201410062773 A CN201410062773 A CN 201410062773A CN 104866170 A CN104866170 A CN 104866170A
- Authority
- CN
- China
- Prior art keywords
- interface
- interaction interface
- graphical interaction
- sensor
- projection head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供了一种信息处理方法及电子设备,电子设备包括框架结构体、第一显示组件、第二显示组件和M个传感器,框架结构体包括固定结构;第一、第二显示组件固定在框架结构体上,第一显示组件包括通过第一表面显露的显示屏,第二显示组件包括通过第二表面显露的投影头,第一表面和第二表面相交,M个传感器包括通过第二表面显露的第一传感器;方法包括:通过第二传感器获得触发信息;响应触发信息,控制将图形交互界面通过投影头投射到第一操作体上与第二表面的一侧;通过第一传感器获得第二操作体针对图形交互界面的交互操作;响应交互操作,通过投影头控制图形交互界面改变。由于图形交互界面的大小不受电子设备的屏幕的限制,用户体验较好。
Description
技术领域
本发明涉及数据处理领域,更具体的说,是涉及一种信息处理方法及电子设备。
背景技术
随着电子设备的发展,消费者对电子设备屏幕的要求越来越高,电子设备的屏幕越大,电子设备的人机交互界面越大,用户使用较大的人机交互界面与电子设备进行交互可以提升用户的体验。
不同的应用场景对电子设备的体积有一定的要求,例如智能表,现有技术中利用智能表进行人与电子设备之间的信息交互时,需要将智能表戴在用户的手腕上,所以对智能表的体积有一定的限制,进一步对智能表的屏幕的面积也有一定的限制,人机交互界面的面积也受到限制,从而导致用户体验不好。
发明人在实现本发明创造的过程中发现,因为人机交互界面显示在屏幕上,所以当屏幕的面积一定时,人机交互界面的面积也受到限制,即人机交互界面的大小受到电子设备屏幕大小的影响,从而导致用户体验不好。
发明内容
有鉴于此,本发明提供了一种信息处理方法及电子设备,以克服现有技术中由于智能表的体积有一定的限制,进一步对智能表的屏幕的面积也有一定的限制,人机交互界面的面积也受到限制,从而导致用户体验不好的问题。
为实现上述目的,本发明提供如下技术方案:
一种信息处理方法,所述方法应用于电子设备,所述电子设备包括:框架结构体、第一显示组件、第二显示组件和M个传感器,所述框架结构体包括一固定结构,所述固定结构能够将所述电子设备固定在属于第一用户的第一操作体上;所述第一显示组件和所述第二显示组件固定在所述框架结构体上,所述第一显示组件包括一显示屏幕;所述显示屏幕通过所述框架结构体的第一表面显露,所述第二显示组件包括投影头,所述投影头通过所述框体结构体的第二表面显露,所述第一表面和所述第二表面相交,所述M个传感器,通过所述框架结构体固定,所述M个传感器包括第一传感器,所述第一传感器通过所述框体结构体的第二表面显露;所述方法包括:
通过所述M个传感器的第二传感器获得触发信息;
响应所述触发信息,控制将图形交互界面通过所述投影头进行投射,在所述第一操作体上与所述第二表面的一侧显示所述图形交互界面;
通过所述第一传感器获得第二操作体针对所述图形交互界面的交互操作;
响应所述交互操作,通过所述投影头控制所述图形交互界面进行改变。
其中,所述交互操作为所述第二操作体针对所述图形交互界面的滑动式操作;
则所述响应所述交互操作,通过所述投影头控制所述图形交互界面进行改变,具体为:
确定所述滑动式操作的滑动距离;
依据所述滑动式操作的滑动距离通过所述投影头控制改变所述图形交互界面的大小。
其中,所述交互操作为所述第二操作体针对所述图形交互界面的滑动式操作,所述图形交互界面为提示信息的界面;
则所述响应所述交互操作,通过所述投影头控制所述图形交互界面进行改变,具体为:
确定所述滑动式操作的滑动距离;
依据所述滑动式操作的滑动距离通过所述投影头控制改变所述图形交互界面的大小,并且,在改变后的图形交互界面上显示所述提示信息的内容。
其中,所述图形交互界面为显示有应用程序标识的界面,所述交互操作为所述第二操作体针对所述显示有应用程序标识的界面中的第一应用程序标识的触点式操作;
则所述响应所述交互操作,通过所述投影头控制所述图形交互界面进行改变,具体为:
启动所述第一应用程序,通过所述投影头控制将所述显示有应用程序标识的界面改变为所述第一应用程序的界面。
其中,所述电子设备具有标准模式和智能模式,所述电子设备在获得所述触发信息之后,由所述标准模式切换至所述智能模式,在所述智能模式下,所述图形交互界面为显示有所述应用程序标识的界面。
其中,所述交互操作为所述第二操作体针对所述图形交互界面的滑动式操作,所述图形交互界面为提示信息的界面;
则响应所述交互操作,通过所述投影头控制所述图交互界面进行改变,包括:
确定所述滑动式操作的滑动距离;
依据所述滑动式操作的滑动距离通过所述投影头控制改变所述提示信息的界面的大小,并且,在改变大小后的界面上显示包括标记有所述提示信息的应用程序图标;
通过所述第一传感器获得第二操作体针对所述标记有所述提示信息的应用程序图标的触点式操作;
响应所述触点式操作,通过所述投影头控制所述显示包括标记有所述提示信息的应用程序图标的界面改变为显示所述提示信息的内容的界面。
一种电子设备,所述电子设备包括:框架结构体、第一显示组件、第二显示组件和M个传感器,所述框架结构体包括一固定结构,所述固定结构能够将所述电子设备固定在属于第一用户的第一操作体上;所述第一显示组件和所述第二显示组件固定在所述框架结构体上,所述第一显示组件包括一显示屏幕;所述显示屏幕通过所述框架结构体的第一表面显露,所述第二显示组件包括投影头,所述投影头通过所述框体结构体的第二表面显露,所述第一表面和所述第二表面相交,所述M个传感器,通过所述框架结构体固定,所述M个传感器包括第一传感器,所述第一传感器通过所述框体结构体的第二表面显露;所述电子设备还包括:
第一获取单元,用于通过所述M个传感器的第二传感器获得触发信息;
第一响应单元,用于响应所述获取单元获取的所述触发信息,控制将图形交互界面通过所述投影头进行投射,在所述第一操作体上与所述第二表面的一侧显示所述图形交互界面;
第二获取单元,用于通过所述第一传感器获得第二操作体针对所述图形交互界面的交互操作;
第二响应单元,用于响应所述交互操作,通过所述投影头控制所述图形交互界面进行改变。
其中,所述交互操作为所述第二操作体针对所述图形交互界面的滑动式操作;
所述第二响应单元包括:
第一确定子单元,用于确定所述滑动式操作的滑动距离;
第一控制子单元,用于依据所述滑动式操作的滑动距离通过所述投影头控制改变所述图形交互界面的大小。
其中,所述交互操作为所述第二操作体针对所述图形交互界面的滑动式操作,所述图形交互界面为提示信息的界面;
所述第二响应单元包括:
第二确定子单元,用于确定所述滑动式操作的滑动距离;
第二控制子单元,用于依据所述滑动式操作的滑动距离通过所述投影头控制改变所述图形交互界面的大小,并且,在改变后的图形交互界面上显示所述提示信息的内容。
其中,所述图形交互界面为显示有应用程序标识的界面,所述交互操作为所述第二操作体针对所述显示有应用程序标识的界面中的第一应用程序标识的触点式操作;
所述第二响应单元包括:
程序启动子单元,用于启动所述第一应用程序;
第三控制子单元,用于通过所述投影头控制将所述显示有应用程序标识的界面改变为所述第一应用程序的界面。
其中,所述电子设备具有标准模式和智能模式,所述第一获取单元在获得所述触发信息之后,所述电子设备由所述标准模式切换至所述智能模式,在所述智能模式下,所述图形交互界面为显示有所述应用程序标识的界面。
其中,所述交互操作为所述第二操作体针对所述图形交互界面的滑动式操作,所述图形交互界面为提示信息的界面;
所述第二响应单元,包括:
第三确定子单元,用于确定所述滑动式操作的滑动距离;
第四控制子单元,用于依据所述滑动式操作的滑动距离通过所述投影头控制改变所述提示信息的界面的大小,并且,在改变大小后的界面上显示包括标记有所述提示信息的应用程序图标;
获取子单元,用于通过所述第一传感器获得第二操作体针对所述标记有所述提示信息的应用程序图标的触点式操作;
响应子单元,用于响应所述触点式操作,通过所述投影头控制所述显示包括标记有所述提示信息的应用程序图标的界面改变为显示所述提示信息的内容的界面。
上述技术方案具有如下有益效果:
本发明提供的信息处理方法和电子设备,可通过电子设备上设置的传感器获得触发信息,并响应触发信息,从而通过投影头将图形交互界面投影到第一操作体(用户的手臂)上,将图形交互界面上投影到第一操作体上之后,还可通过传感器获得第二操作体(用户的手)针对图形交互界面的交互操作,从而通过投影头控制图形交互界面进行改变。本发明实施例提供的信息处理方法及电子设备,可将图形交互界面投影到用户的手臂上,并且,通过针对图形交互界面的交互操作可对投影到用户手臂上的图形交互界面进行改变,图形交互界面的大小不受电子设备的体积和屏幕的限制,用户体验较好。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的信息处理方法的一种流程示意图;
图2为本发明实施例提供的电子设备的结构示意图;
图3为本发明实施例提供的信息处理方法的另一种流程示意图;
图4为改变图形交互界面大小的实现过程示意图;
图5为本发明实施例提供的信息处理方法的另一种流程示意图;
图6为本发明实施例提供的信息处理方法的另一种流程示意图;
图7为对显示多个应用程序图标的界面中的一应用程序图标进行操作的示意图;
图8为本发明实施例提供的信息处理方法的另一种流程示意图;
图9为本发明实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,为本发明实施例提供的信息处理方法的一种流程示意图,该方法应用于电子设备,该电子设备的结构如图2所示,可以包括:框架结构体201、第一显示组件、第二显示组件和M个传感器,框架结构体201包括一固定结构202,固定结构202能够将电子设备固定在属于第一用户的第一操作体上;第一显示组件和第二显示组件固定在框架结构体201上,第一显示组件包括一显示屏幕203;显示屏幕203通过框架结构体201的第一表面显露,第二显示组件包括投影头204,投影头204通过框体结构体201的第二表面显露,第一表面和第二表面相交,M个传感器,通过框架结构体201固定,M个传感器包括第一传感器205,第一传感器205通过框体结构体201的第二表面显露;该方法可以包括:
步骤S101:通过M个传感器的第二传感器获得触发信息。
电子设备通过第二传感器获得触发信息的实现方式有多种。
在一种可能的实现方式中,第二传感器可以为触摸屏,触摸屏显示有一控键,当触摸屏接收到对该控键的触控操作时,电子设备获得触发信息。
在另一种可能的实现方式中,第二传感器可以为设置在框架结构体上的实体按键,当该实体按键被按下时,电子设备获得触发信息。
在另一种可能的实现方式中,第二传感器可以为摄像头,摄像头可以采集用户的手势,当摄像头采集的手势与设定手势匹配时,电子设备可获得触发信息。
在另一种可能的实现方式中,第二传感器可以为设置在显示屏幕上的触摸单元,当显示屏幕上显示可操作对象时,如果触摸单元接收到对所述可操作对象的触控操作,则电子设备可获得触发信息,例如,显示屏幕上显示一提示信息(收到一条短消息),当用户点击该提示信息时,电子设备可获得触发信息。
步骤S102:响应触发信息控制将图形交互界面通过投影头进行投射,在第一操作体上与第二表面的一侧显示图形交互界面。
其中,第一操作体为用户的手臂,电子设备通过投影头将图形交互界面投影到用户的手臂上。
步骤S103:通过第一传感器获得第二操作体针对图形交互界面的交互操作。
其中,第一传感器可以为摄像头,第二操作体可以为用户的手,交互操作可以为触摸手势,电子设备可通过摄像头采集用户针对图形交互界面的触摸手势。
步骤S104:响应交互操作,通过投影头控制图形交互界面进行改变。
其中,图形交互界面改变包括多种表现形式,例如,图形交互界面的大小改变,图像交互界面显示内容的改变等。
本发明提供的信息处理方法,可通过电子设备上设置的传感器获得触发信息,并响应触发信息,从而通过投影头将图形交互界面投影到第一操作体(用户的手臂)上,在将图形交互界面上投影到第一操作体上之后,还可通过传感器获得第二操作体(用户的手)针对图形交互界面的交互操作,从而通过投影头控制图形交互界面进行改变。本发明实施例提供的信息处理方法,可将图形交互界面投影到用户的手臂上,并且,通过针对图形交互界面的交互操作可对投影到用户手臂上的图形交互界面进行改变,图形交互界面的大小不受电子设备的体积和屏幕的限制,用户体验较好。
请参阅图3,为本发明实施例提供的信息处理方法的另一种流程示意图,该方法同样应用于如图2示出的结构的电子设备,该方法可以包括:
步骤S301:通过M个传感器的第二传感器获得触发信息。
电子设备通过第二传感器获得触发信息的实现方式可参见上述实施例,在此不作赘述。
步骤S302:响应触发信息,控制将图形交互界面通过投影头进行投射,在第一操作体上与第二表面的一侧显示图形交互界面。
其中,第一操作体即用户的手臂上显示的图形交互界面可以为一个小界面,也可以为界面的一部分,还可以为一信息提示界面。
步骤S303:通过第一传感器获得第二操作体针对图形交互界面的滑动式操作。
其中,第二操作体针对图形交互界面的滑动式操作可以为远离第二表面的滑动式操作。
步骤S304:确定滑动式操作的滑动距离。
具体的,M个传感器包括第三传感器,第三传感器用于检测滑动式操作的滑动距离,第三传感器可以通过框体结构体的第二表面显露,第三传感器可以但不限定为距离传感器,该距离传感器可以检测第二操作体远离第二表面的滑动距离。
步骤S305:依据滑动式操作的滑动距离通过投影头控制改变图形交互界面的大小。
电子设备可通过第三传感器检测的距离改变图形交互界面的大小。示例性的,滑动距离越大,显示在第一操作体上的图形交互界面越大。
示例性的,请参阅图4,电子设备的显示屏幕周围设置有触摸单元,该触摸单元可检测用户手指的触控操作,当用户用手指点击电子设备的显示屏幕周围的触摸单元时(参阅图4(a)),电子设备获得触发信息,通过投影头将图形交互界面投影到用户的手臂上,投影到用户手臂上的图形交互界面为一个小界面(参阅图4(b)),当用户用手指针对该小界面执行远离第二表面的滑动操作时,电子设备依据滑动距离通过投影头控制将小界面放大(参阅图4(c))。
本发明实施例提供的信息处理方法,可将图形交互界面投影到用户的手臂上,并且,用户通过针对图形交互界面的滑动式操作,可改变投影到用户手臂上的图形交互界面的大小,图形交互界面的大小不受电子设备的体积和屏幕的限制,用户体验较好。
请参阅图5,为本发明实施例提供的另一种信息处理方法的流程示意图,该方法同样应用于如图2示出的结构的电子设备,该方法可以包括:
步骤S501:通过M个传感器的第二传感器获得触发信息。
步骤S502:响应触发信息,控制将图形交互界面通过投影头进行投射,在第一操作体上与第二表面的一侧显示提示信息的界面。
示例性的,第二传感器为触摸单元,第二传感器设置在框架结构体的第一表面显露的显示屏幕上方,当电子设备接收到信息时,例如接收到短信,通过框架结构体的第一表面显露的显示屏幕上可显示提示信息,当用户点击触摸单元对显示屏幕上显示的提示信息进行操作时,电子设备获得触发信息,然后响应该触发信息,将提示信息的界面投影到第一操作体上。
步骤S503:通过第一传感器获得第二操作体针对提示信息的界面的滑动式操作。
其中,第二操作体可以为用户的手。示例性的,第一操作体为用户的左手臂,第二操作体为右手,电子设备通过投影头将图形交互界面投影到用户的左手臂上,用户可通过右手针对左手臂上显示的图形交互界面进行交互操作。
步骤S504:确定滑动式操作的滑动距离。·
步骤S505:依据滑动式操作的滑动距离通过投影头控制改变提示信息的界面的大小,并且,在改变后的界面上显示提示信息的内容。
示例性的,同样可参阅图4,电子设备的显示屏幕周围设置有触摸单元,该触摸单元可检测用户手指的触控操作,当用户用手指点击电子设备的显示屏幕周围的触摸单元时(参阅图4(a)),电子设备获得触发信息,通过投影头将图形交互界面投影到用户的手臂上,投影到用户手臂上的图形交互界面为一个提示信息的小界面(参阅图4(b)),当用户用手指针对提示信息的小界面执行远离第二表面的滑动操作时,电子设备依据滑动距离通过投影头控制将小界面放大,同时将提示信息的内容显示在放大的界面上(参阅图4(c))。假设提示信息为接收到短信的提示信息,电子设备获得针对提示信息的界面的滑动式操作时,在依据滑动式操作的滑动距离放大提示信息的界面的同时,将放大的提示信息的界面改变为放大的显示短信内容的界面。
本发明实施例提供的信息处理方法,可将图形交互界面投影到用户的手臂上,并且,用户通过针对图形交互界面的滑动式操作,可改变投影到用户手臂上的图形交互界面的大小,并改变图形交互界面上的显示内容,图形交互界面的大小不受电子设备的体积和屏幕的限制,用户体验较好。
请参阅图6,为本发明实施例提供的信息处理方法的另一种流程示意图,该方法同样应用于如图2示出的结构的电子设备,该方法可以包括:
步骤S601:通过M个传感器的第二传感器获得触发信息。
步骤S602:响应触发信息,控制将显示有应用程序标识的界面进行投射,将显示有应用程序标识的界面显示在第一操作体上与第二表面的一侧。
在本实施例中,电子设备具有两种工作模式,一种工作模式为标准模式,另一种工作模式为智能模式。
在标准模式下,电子设备只可以通过框架结构体的第一表面显露的显示屏幕显示时间等信息。可以理解的是,在标准模式下,由于电子设备只是用于显示时间等信息,因此比较省电。
电子设备在获得触发信息之后,由标准模式切换至智能模式,在智能模式下,电子设备将显示有应用程序标识的界面投影到在第一操作体上与第二表面的一侧,并且,可响应用户针对应用程序标识的界面中显示的应用标识的操作。
需要说明的是,在智能模式下,通过框架结构体的第一表面显露的显示屏幕可以显示信息,也可以不显示信息。
步骤S603:通过第一传感器获得第二操作体针对显示有应用程序标识的界面中第一应用程序标识的触点式操作。
步骤S604:启动第一应用程序,通过投影头控制将显示有应用程序标识的界面改变为第一应用程序的界面。
示例性的,请参阅图7,电子设备为标准模式时,如果获取到触发信息,则从标准模式切换到智能模式,将显示应用程序图标的界面通过投影头投影到用户的手臂上,用户可对显示应用程序图标的界面中的图标进行操作,具体的,用户可用手指点击显示应用程序图标的界面中的图标,启动对应的应用程序,同时电子设备的当前界面改变为第一应用程序的界面,例如,用户点击音乐播放图标,则电子设备启动音乐播放程序播放歌曲,同时将显示应用程序图标的界面改变为显示音乐播放程序的界面。
本发明实施例提供的信息处理方法,可将显示有应用程序标识的界面投影到用户的手臂上,并且,用户通过针对显示有应用程序标识的界面中的第一应用程序标识的触点式操作,启动对应的第一应用程序,并将显示有应用程序标识的界面改变为第一应用程序的界面,投影到用户手臂上的图形交互界面的大小不受电子设备的体积和屏幕的限制,用户体验较好。
请参阅图8,为本发明实施例提供的信息处理方法的另一种流程示意图,该方法同样应用于如图2示出的结构的电子设备,该方法可以包括:
步骤S801:通过M个传感器的第二传感器获得触发信息。
步骤S802:响应触发信息,控制将提示信息的界面通过投影头进行投射,在第一操作体上与第二表面的一侧显示提示信息的界面。
步骤S803:通过第一传感器获得第二操作体针对提示信息的界面的滑动式操作。
其中,第一传感器可以单不限定为图像采集装置,例如摄像头。
步骤S804:确定滑动式操作的滑动距离。
步骤S805:依据滑动式操作的滑动距离通过投影头控制改变图形交互界面的大小,并且,在改变大小后的界面上显示包括标记有提示信息的应用程序图标的界面。
步骤S806:通过第一传感器获得第二操作体针对应用程序图标的界面中标记有提示信息的应用程序图标的触点式操作。
步骤S807:响应触点式操作,通过投影头控制将显示有应用图标的界面改变为显示提示信息内容的界面。
示例性的,当电子设备接收到短信息时,例如接收到三条短信,通过框架结构体的第一表面显露的显示屏幕上可显示提示信息(例如,显示屏幕上显示“接收到三条短信”),假设第二传感器为设置在显示屏幕上方的触摸单元,当用户点击显示的提示信息时,电子设备获得触发信息,然后响应该触发信息,将提示信息的界面投影到第一操作体上。提示信息的界面可以为只显示提示信息的小界面。
当通过第一传感器获得用户的手针对提示信息的界面的滑动式操作时,电子设备依据用户的手指滑动的距离将提示信息的界面放大,在放大界面的同时,改变界面显示的内容,即,将显示提示信息的界面改变为放大的显示应用程序图标的界面,该放大的显示应用图标的界面上显示的图标包括短信图标,该短信图标上可显示标记3,显示的标记3用以提示用户收到三条短信。
当通过第一传感器获得用户的手指对显示应用图标的界面上短信图标的触点式操作时,即用户用手指点击短信图标,电子设备控制投影头将当前显示有应用图标的界面改变为显示三条短信内容的界面,即电子设备将短信内容在用户的手臂上显示出来。
本发明实施例提供的信息处理方法,可将图形交互界面投影到用户的手臂上,并且,用户通过针对图形界面的交互操作,可改变投影到用户手臂上的图形界面的大小和显示内容,投影到用户手臂上的图形界面的大小不受电子设备的体积和屏幕的限制,用户体验较好。
与上述方法相对应,本发明实施例还提供了一种电子设备。请参阅图7,该电子设备可以包括:框架结构体、第一显示组件、第二显示组件和M个传感器,框架结构体包括一固定结构,固定结构能够将电子设备固定在属于第一用户的第一操作体上;第一显示组件和第二显示组件固定在框架结构体上,第一显示组件包括一显示屏幕;显示屏幕通过框架结构体的第一表面显露,第二显示组件包括投影头,投影头通过框体结构体的第二表面显露,第一表面和第二表面相交,M个传感器,通过框架结构体固定,M个传感器包括第一传感器,第一传感器通过框体结构体的第二表面显露;该电子设备还可以包括:第一获取单元901、第一响应单元902、第二获取单元903和第二响应单元904。其中:
第一获取单元901,用于通过M个传感器的第二传感器获得触发信息。
第一响应单元902,用于响应第一获取单元901获取的触发信息,控制将图形交互界面通过投影头进行投射,在第一操作体上与第二表面的一侧显示图形交互界面。
第二获取单元903,用于通过第一传感器获得第二操作体针对图形交互界面的交互操作。
第二响应单元904,用于响应第二获取单元903获取的交互操作,通过投影头控制图形交互界面进行改变。
本发明提供的电子设备,可通过其上设置的传感器获得触发信息,并响应触发信息,从而通过投影头将图形交互界面投影到第一操作体(用户的手臂)上,在将图形交互界面上投影到第一操作体上之后,还可通过传感器获得第二操作体(用户的手)针对图形交互界面的交互操作,从而通过投影头控制图形交互界面进行改变。本发明实施例提供的电子设备,可将图形交互界面投影到用户的手臂上,并且,通过针对图形交互界面的交互操作可对投影到用户手臂上的图形交互界面进行改变,投影到用户手臂上的图形交互界面的大小不受电子设备的体积和屏幕的限制,用户体验较好。
在一种可能的实现方式中,第二获取单元903获取的交互操作可以为第二操作体针对所述图形交互界面的滑动式操作。
则第二响应单元902可以包括:第一确定子单元和第一控制子单元。其中,第一确定子单元,用于确定滑动式操作的滑动距离;第一控制子单元,用于依据滑动式操作的滑动距离通过投影头控制改变图形交互界面的大小。
在另一种可能的实现方式中,交互操作可以为第二操作体针对图形交互界面的滑动式操作,图形交互界面为提示信息的界面。
则第二响应单元902可以包括:第二确定子单元和第二控制子单元。
其中,第二确定子单元,用于确定滑动式操作的滑动距离;第二控制子单元,用于依据滑动式操作的滑动距离通过投影头控制改变图形交互界面的大小,并且,在改变后的图形交互界面上显示提示信息的内容。
在另一种可能的实现方式中,图形交互界面为显示有应用程序标识的界面,交互操作为第二操作体针对显示有应用程序标识的界面中的第一应用程序标识的触点式操作。
则第二响应单元902可以包括:程序启动子单元和第三控制子单元。
其中,程序启动子单元,用于启动第一应用程序;第三控制子单元,用于通过投影头控制将显示有应用程序标识的界面改变为第一应用程序的界面。
需要说明的是,电子设备具有标准模式和智能模式,第一获取单元701在获得触发信息之后,电子设备由标准模式切换至智能模式,在智能模式下,图形交互界面为显示有应用程序标识的界面。
在另一种可能的实现方式中,交互操作为第二操作体针对图形交互界面的滑动式操作,图形交互界面为提示信息的界面。
则第二响应单元902可以包括:第三确定子单元、第四控制子单元、获取子单元和响应子单元。
其中,第三确定子单元,用于确定滑动式操作的滑动距离;第四控制子单元,用于依据滑动式操作的滑动距离通过投影头控制改变提示信息的界面的大小,并且,在改变大小后的界面上显示包括标记有提示信息的应用程序图标;获取子单元,用于通过第一传感器获得第二操作体针对标记有提示信息的应用程序图标的触点式操作;响应子单元,用于响应触点式操作,通过投影头控制显示包括标记有提示信息的应用程序图标的界面改变为显示提示信息的内容的界面。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置或系统类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (12)
1.一种信息处理方法,所述方法应用于电子设备,其特征在于,所述电子设备包括:框架结构体、第一显示组件、第二显示组件和M个传感器,所述框架结构体包括一固定结构,所述固定结构能够将所述电子设备固定在属于第一用户的第一操作体上;所述第一显示组件和所述第二显示组件固定在所述框架结构体上,所述第一显示组件包括一显示屏幕;所述显示屏幕通过所述框架结构体的第一表面显露,所述第二显示组件包括投影头,所述投影头通过所述框体结构体的第二表面显露,所述第一表面和所述第二表面相交,所述M个传感器,通过所述框架结构体固定,所述M个传感器包括第一传感器,所述第一传感器通过所述框体结构体的第二表面显露;所述方法包括:
通过所述M个传感器的第二传感器获得触发信息;
响应所述触发信息,控制将图形交互界面通过所述投影头进行投射,在所述第一操作体上与所述第二表面的一侧显示所述图形交互界面;
通过所述第一传感器获得第二操作体针对所述图形交互界面的交互操作;
响应所述交互操作,通过所述投影头控制所述图形交互界面进行改变。
2.根据权利要求1所述的方法,其特征在于,所述交互操作为所述第二操作体针对所述图形交互界面的滑动式操作;
则所述响应所述交互操作,通过所述投影头控制所述图形交互界面进行改变,具体为:
确定所述滑动式操作的滑动距离;
依据所述滑动式操作的滑动距离通过所述投影头控制改变所述图形交互界面的大小。
3.根据权利要求1所述的方法,其特征在于,所述交互操作为所述第二操作体针对所述图形交互界面的滑动式操作,所述图形交互界面为提示信息的界面;
则所述响应所述交互操作,通过所述投影头控制所述图形交互界面进行改变,具体为:
确定所述滑动式操作的滑动距离;
依据所述滑动式操作的滑动距离通过所述投影头控制改变所述图形交互界面的大小,并且,在改变后的图形交互界面上显示所述提示信息的内容。
4.根据权利要求1所述的方法,其特征在于,所述图形交互界面为显示有应用程序标识的界面,所述交互操作为所述第二操作体针对所述显示有应用程序标识的界面中的第一应用程序标识的触点式操作;
则所述响应所述交互操作,通过所述投影头控制所述图形交互界面进行改变,具体为:
启动所述第一应用程序,通过所述投影头控制将所述显示有应用程序标识的界面改变为所述第一应用程序的界面。
5.根据权利要求4所述的方法,其特征在于,所述电子设备具有标准模式和智能模式,所述电子设备在获得所述触发信息之后,由所述标准模式切换至所述智能模式,在所述智能模式下,所述图形交互界面为显示有所述应用程序标识的界面。
6.根据权利要求1所述的方法,其特征在于,所述交互操作为所述第二操作体针对所述图形交互界面的滑动式操作,所述图形交互界面为提示信息的界面;
则响应所述交互操作,通过所述投影头控制所述图交互界面进行改变,包括:
确定所述滑动式操作的滑动距离;
依据所述滑动式操作的滑动距离通过所述投影头控制改变所述提示信息的界面的大小,并且,在改变大小后的界面上显示包括标记有所述提示信息的应用程序图标;
通过所述第一传感器获得第二操作体针对所述标记有所述提示信息的应用程序图标的触点式操作;
响应所述触点式操作,通过所述投影头控制所述显示包括标记有所述提示信息的应用程序图标的界面改变为显示所述提示信息的内容的界面。
7.一种电子设备,其特征在于,所述电子设备包括:框架结构体、第一显示组件、第二显示组件和M个传感器,所述框架结构体包括一固定结构,所述固定结构能够将所述电子设备固定在属于第一用户的第一操作体上;所述第一显示组件和所述第二显示组件固定在所述框架结构体上,所述第一显示组件包括一显示屏幕;所述显示屏幕通过所述框架结构体的第一表面显露,所述第二显示组件包括投影头,所述投影头通过所述框体结构体的第二表面显露,所述第一表面和所述第二表面相交,所述M个传感器,通过所述框架结构体固定,所述M个传感器包括第一传感器,所述第一传感器通过所述框体结构体的第二表面显露;所述电子设备还包括:
第一获取单元,用于通过所述M个传感器的第二传感器获得触发信息;
第一响应单元,用于响应所述获取单元获取的所述触发信息,控制将图形交互界面通过所述投影头进行投射,在所述第一操作体上与所述第二表面的一侧显示所述图形交互界面;
第二获取单元,用于通过所述第一传感器获得第二操作体针对所述图形交互界面的交互操作;
第二响应单元,用于响应所述交互操作,通过所述投影头控制所述图形交互界面进行改变。
8.根据权利要求7所述的电子设备,其特征在于,所述交互操作为所述第二操作体针对所述图形交互界面的滑动式操作;
所述第二响应单元包括:
第一确定子单元,用于确定所述滑动式操作的滑动距离;
第一控制子单元,用于依据所述滑动式操作的滑动距离通过所述投影头控制改变所述图形交互界面的大小。
9.根据权利要求7所述的电子设备,其特征在于,所述交互操作为所述第二操作体针对所述图形交互界面的滑动式操作,所述图形交互界面为提示信息的界面;
所述第二响应单元包括:
第二确定子单元,用于确定所述滑动式操作的滑动距离;
第二控制子单元,用于依据所述滑动式操作的滑动距离通过所述投影头控制改变所述图形交互界面的大小,并且,在改变后的图形交互界面上显示所述提示信息的内容。
10.根据权利要求7所述的电子设备,其特征在于,所述图形交互界面为显示有应用程序标识的界面,所述交互操作为所述第二操作体针对所述显示有应用程序标识的界面中的第一应用程序标识的触点式操作;
所述第二响应单元包括:
程序启动子单元,用于启动所述第一应用程序;
第三控制子单元,用于通过所述投影头控制将所述显示有应用程序标识的界面改变为所述第一应用程序的界面。
11.根据权利要求10所述的电子设备,其特征在于,所述电子设备具有标准模式和智能模式,所述第一获取单元在获得所述触发信息之后,所述电子设备由所述标准模式切换至所述智能模式,在所述智能模式下,所述图形交互界面为显示有所述应用程序标识的界面。
12.根据权利要求7所述的电子设备,其特征在于,所述交互操作为所述第二操作体针对所述图形交互界面的滑动式操作,所述图形交互界面为提示信息的界面;
所述第二响应单元,包括:
第三确定子单元,用于确定所述滑动式操作的滑动距离;
第四控制子单元,用于依据所述滑动式操作的滑动距离通过所述投影头控制改变所述提示信息的界面的大小,并且,在改变大小后的界面上显示包括标记有所述提示信息的应用程序图标;
获取子单元,用于通过所述第一传感器获得第二操作体针对所述标记有所述提示信息的应用程序图标的触点式操作;
响应子单元,用于响应所述触点式操作,通过所述投影头控制所述显示包括标记有所述提示信息的应用程序图标的界面改变为显示所述提示信息的内容的界面。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410062773.2A CN104866170B (zh) | 2014-02-24 | 2014-02-24 | 一种信息处理方法及电子设备 |
US14/470,144 US9846529B2 (en) | 2014-02-24 | 2014-08-27 | Method for processing information and electronic device |
DE102014113229.7A DE102014113229B4 (de) | 2014-02-24 | 2014-09-15 | Verfahren zur Informationsverarbeitung und elektronisches Gerät |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410062773.2A CN104866170B (zh) | 2014-02-24 | 2014-02-24 | 一种信息处理方法及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104866170A true CN104866170A (zh) | 2015-08-26 |
CN104866170B CN104866170B (zh) | 2018-12-14 |
Family
ID=53782346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410062773.2A Active CN104866170B (zh) | 2014-02-24 | 2014-02-24 | 一种信息处理方法及电子设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9846529B2 (zh) |
CN (1) | CN104866170B (zh) |
DE (1) | DE102014113229B4 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112911259A (zh) * | 2021-01-28 | 2021-06-04 | 维沃移动通信有限公司 | 投影设备及其控制方法 |
WO2022143384A1 (zh) * | 2020-12-28 | 2022-07-07 | 维沃移动通信有限公司 | 智能手环及其控制方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102029756B1 (ko) * | 2014-11-03 | 2019-10-08 | 삼성전자주식회사 | 웨어러블 디바이스 및 그 제어 방법 |
KR20160055577A (ko) * | 2014-11-10 | 2016-05-18 | 엘지전자 주식회사 | 웨어러블 디바이스 |
WO2016131926A1 (de) * | 2015-02-18 | 2016-08-25 | Wearable Life Science Gmbh | Benutzerschnittstelle zur verwendung mit einem elektrostimulations-system |
DE102018125956A1 (de) * | 2018-10-18 | 2020-04-23 | Karl Storz Se & Co. Kg | Verfahren und System zur Steuerung von Geräten in steriler Umgebung |
US11847256B2 (en) * | 2022-03-04 | 2023-12-19 | Humane, Inc. | Presenting and aligning laser projected virtual interfaces |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080018591A1 (en) * | 2006-07-20 | 2008-01-24 | Arkady Pittel | User Interfacing |
CN101707649A (zh) * | 2009-09-29 | 2010-05-12 | 宇龙计算机通信科技(深圳)有限公司 | 一种投影信息的交互操作方法、系统及移动终端 |
US20100199232A1 (en) * | 2009-02-03 | 2010-08-05 | Massachusetts Institute Of Technology | Wearable Gestural Interface |
CN102164204A (zh) * | 2011-02-15 | 2011-08-24 | 深圳桑菲消费通信有限公司 | 一种具有交互式功能的手机及其交互方法 |
CN102985896A (zh) * | 2010-07-16 | 2013-03-20 | 高通股份有限公司 | 用于与投影用户接口交互的方法和系统 |
CN103051782A (zh) * | 2012-12-10 | 2013-04-17 | 广东欧珀移动通信有限公司 | 一种移动终端投影调整方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8896578B2 (en) * | 2010-05-03 | 2014-11-25 | Lg Electronics Inc. | Mobile terminal and method of controlling the same |
US10061387B2 (en) | 2011-03-31 | 2018-08-28 | Nokia Technologies Oy | Method and apparatus for providing user interfaces |
-
2014
- 2014-02-24 CN CN201410062773.2A patent/CN104866170B/zh active Active
- 2014-08-27 US US14/470,144 patent/US9846529B2/en active Active
- 2014-09-15 DE DE102014113229.7A patent/DE102014113229B4/de active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080018591A1 (en) * | 2006-07-20 | 2008-01-24 | Arkady Pittel | User Interfacing |
US20100199232A1 (en) * | 2009-02-03 | 2010-08-05 | Massachusetts Institute Of Technology | Wearable Gestural Interface |
CN101707649A (zh) * | 2009-09-29 | 2010-05-12 | 宇龙计算机通信科技(深圳)有限公司 | 一种投影信息的交互操作方法、系统及移动终端 |
CN102985896A (zh) * | 2010-07-16 | 2013-03-20 | 高通股份有限公司 | 用于与投影用户接口交互的方法和系统 |
CN102164204A (zh) * | 2011-02-15 | 2011-08-24 | 深圳桑菲消费通信有限公司 | 一种具有交互式功能的手机及其交互方法 |
CN103051782A (zh) * | 2012-12-10 | 2013-04-17 | 广东欧珀移动通信有限公司 | 一种移动终端投影调整方法及装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022143384A1 (zh) * | 2020-12-28 | 2022-07-07 | 维沃移动通信有限公司 | 智能手环及其控制方法 |
CN112911259A (zh) * | 2021-01-28 | 2021-06-04 | 维沃移动通信有限公司 | 投影设备及其控制方法 |
Also Published As
Publication number | Publication date |
---|---|
US20150242094A1 (en) | 2015-08-27 |
DE102014113229B4 (de) | 2022-03-31 |
DE102014113229A1 (de) | 2015-08-27 |
CN104866170B (zh) | 2018-12-14 |
US9846529B2 (en) | 2017-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104866170A (zh) | 一种信息处理方法及电子设备 | |
AU2018282404B2 (en) | Touch-sensitive button | |
EP2369443B1 (en) | System and method for gesture detection and feedback | |
US9785217B2 (en) | System and method for low power input object detection and interaction | |
JP2009211641A (ja) | 入力装置、入力方法およびプログラム | |
JP2012003404A (ja) | 情報表示装置 | |
CN104460307A (zh) | 一种集成显示区的输入单元、穿戴式智能设备和输入方法 | |
AU2014242161A1 (en) | Off-center sensor target region | |
WO2016070465A1 (zh) | 多事件输入的方法和终端 | |
WO2022199540A1 (zh) | 未读消息标识清除方法、装置及电子设备 | |
WO2010119713A1 (ja) | 携帯端末 | |
CN108196727A (zh) | 在触屏设备上实现类似鼠标操作的方法 | |
JP2016066254A (ja) | タッチ検出装置を備えた電子装置 | |
KR20120107348A (ko) | 감압식 터치스크린 디바이스의 멀티 터치 처리방법 | |
CN104484117A (zh) | 人机交互方法及装置 | |
CN103092491A (zh) | 生成控制命令的方法和装置、以及电子设备 | |
JP2018097820A (ja) | タッチパネルシステム | |
KR101931280B1 (ko) | 터치방식 휴대용 단말기 및 그 구동 방법 | |
CN104063163A (zh) | 调整虚拟键盘按键大小的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |