CN111665979A - 操控方法及电子设备 - Google Patents

操控方法及电子设备 Download PDF

Info

Publication number
CN111665979A
CN111665979A CN202010414929.4A CN202010414929A CN111665979A CN 111665979 A CN111665979 A CN 111665979A CN 202010414929 A CN202010414929 A CN 202010414929A CN 111665979 A CN111665979 A CN 111665979A
Authority
CN
China
Prior art keywords
target operation
user
operation area
target
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010414929.4A
Other languages
English (en)
Other versions
CN111665979B (zh
Inventor
韩桂敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivo Mobile Communication Co Ltd
Original Assignee
Vivo Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Co Ltd filed Critical Vivo Mobile Communication Co Ltd
Priority to CN202010414929.4A priority Critical patent/CN111665979B/zh
Publication of CN111665979A publication Critical patent/CN111665979A/zh
Application granted granted Critical
Publication of CN111665979B publication Critical patent/CN111665979B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例公开了一种操控方法及电子设备,该方法包括:在用户握持电子设备的情况下,根据获取到的压感信息确定用户握持电子设备的握持手势;根据握持手势和用户的历史使用行为特征,确定用户期望的目标操作对象;在目标操作对象不在目标操作区域的情况下,控制目标操作对象从第一位置移动到目标操作区域,以使用户操控目标操作对象,目标操作区域为在握持手势下,用户能够触控到的操作区域。能够解决用户难以触控到用户期望的操作区域的问题。

Description

操控方法及电子设备
技术领域
本发明实施例涉及信息处理领域,尤其涉及一种操控方法及电子设备。
背景技术
随着电子设备硬件配置的逐步提高以及功能的拓展,电子设备已经成为人们日常生活中必不可少的必需品。
随着电子设备的普及,已经成为人们的重要生活娱乐工具,电子设备的屏幕也变得越来越大,用户在单手操作电子设备时,会出现用户难以触控到用户期望操作的区域,甚至经常为了触控到期望的区域导致设备不小心掉落。
因此,用户在单手操作时,存在难以触控到期望操作区域的问题。
发明内容
本发明实施例提供一种操控方法及电子设备,能够解决用户难以触控到用户期望的操作区域的问题。
为了解决上述技术问题,本发明实施例是这样实现的:
第一方面,本发明实施例提供了一种操控方法,应用于电子设备,该方法可以包括:
在用户握持电子设备的情况下,根据获取到的压感信息确定用户握持电子设备的握持手势;
根据握持手势和用户的历史使用行为特征,确定用户期望的目标操作对象;
在目标操作对象不在目标操作区域的情况下,控制目标操作对象从第一位置移动到目标操作区域,以使用户操控目标操作对象,目标操作区域为在握持手势下,用户能够触控到的操作区域。
第二方面,本发明实施例提供了一种电子设备,该电子设备可以包括:
第一确定模块,用于在用户握持电子设备的情况下,根据获取到的压感信息确定用户握持电子设备的握持手势;
第二确定模块,用于根据握持手势和用户的历史使用行为特征,确定用户期望的目标操作对象;
控制模块,用于在目标操作对象不在目标操作区域的情况下,控制目标操作对象从第一位置移动到目标操作区域,以使用户操控目标操作对象,目标操作区域为在握持手势下,用户能够触控到的操作区域。
第三方面,本发明实施例提供了一种电子设备,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如第一方面所示的操控方法。
第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如第一方面所示的操控方法。
本发明实施例中的方法,当用户握持电子设备并且难以触控到期望的操作区域时,根据用户手持电子设备的压感信息确定用户握持所述电子设备的握持手势,而且还能够根据用户的握持手势和历史使用行为特征来确定用户期望操控的目标操作对象,在用户期望操控的目标操作对象不在用户能够触控到的目标操作区域的情况下,将用户期望的目标操作对象移动到用户方便触控的目标操作区域,能够使用户简单方便的触控到想要操作的屏幕区域。由此,解决了用户难以触控到用户期望的操作区域的问题,有效提升了用户体验。
附图说明
从下面结合附图对本发明的具体实施方式的描述中可以更好地理解本发明其中,相同或相似的附图标记表示相同或相似的特征。
图1为本发明实施例提供的一种操控方法的应用场景示意图;
图2为本发明实施例提供的另一种操控方法的应用场景示意图;
图3为本发明实施例提供的一种操控方法的流程图;
图4为本发明实施例提供的一种操控显示界面的示意图;
图5为本发明实施例提供的另一种操控显示界面的示意图;
图6为本发明实施例提供的又一种操控显示界面的示意图;
图7为本发明实施例提供的一种实现操控方法的流程图;
图8为本发明实施例提供的另一种实现操控方法的流程图;
图9为本发明实施例提供的又一种实现操控方法的流程图;
图10为本发明实施例提供的一种电子设备的结构示意图;
图11为本发明实施例提供的一种电子设备的硬件结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
针对相关技术出现的问题,本发明实施例提供一种操控方法及电子设备,能够解决相关技术中,用户难以触控到期望的操作区域的问题。
本发明实施例提供的操控方法至少可以应用于下述的应用场景中,下面具体进行说明:
用户在使用电子设备时,电子设备会实时监测用户在设备背面、侧边的压感情况,不同握持手势的压感信息会发生变化。其中,压感信息包括压感分布和压感数据,压感分布用于表示电子设备接收到的压力的分布情况,压感数据用于表示电子设备接收到的压力的大小。
如图1所示,用户正常握持使用状态下,手势较轻松且力度较小,所以压感分布相对比较均匀,压感数据也较小。
如图2所示,当用户单手操作状态下,触控电子设备屏幕显示界面中的部分显示区域是有难度的,所以在用户想要努力触达难以触控到的区域时,背部支撑作用的手指和与侧边接触的手掌部位压感力度就会增强,有相互挤压的作用力,也就是说电子设备处于一种强受力状态,在强受力状态中压感分布不均匀,压感数据也较大。
针对上述应用场景中,本发明实施例提供的操控方法,首先,根据检测到的压感信息确定用户握持电子设备的握持手势。接着,根据用户握持电子设备的握持手势和用户的历史使用行为特征,确定用户期望的目标操作对象。然后,在目标操作对象不在目标操作区域的情况下,控制目标操作对象从原始位置到目标操作区域,以使用户能够操控目标操作对象。
由此,当用户握持电子设备并且难以触控到期望的操作区域时,根据用户手持电子设备的压感信息来确定用户期望的目标操作对象,将用户期望的目标操作对象移动到用户方便触控的目标操作区域,能够使用户简单方便的触控到想要操作的屏幕区域。解决了用户难以触控到用户期望的操作区域的问题,有效提升了用户体验。
需要说明的是,本发明实施例中的电子设备可以包括下述中的至少一种:手机、平板电脑、智能穿戴设备等具有接收信息以及显示信息功能的设备。
基于上述应用场景,下面对本发明实施例提供的操控方法进行详细说明。
图3为本发明实施例提供的一种操控方法的流程图。
如图3所示,该操控方法可以包括S310-S330,该方法应用于电子设备,具体如下所示:
S310,在用户握持电子设备的情况下,根据获取到的压感信息确定用户握持电子设备的握持手势。
S320,根据握持手势和用户的历史使用行为特征,确定用户期望的目标操作对象。
S330,在目标操作对象不在目标操作区域的情况下,控制目标操作对象从第一位置移动到目标操作区域,以使用户操控目标操作对象,目标操作区域为在握持手势下,用户能够触控到的操作区域。
本发明提供的操控方法中,通过压感信息确定用户期望的目标操作对象,将目标操作对象移动到用户方便触控的目标操作区域,能够使用户简单方便的触控到想要操作的屏幕区域,有效提升了用户体验。
下面,对S310-S330的内容分别进行描述:
首先,涉及S310,在根据获取到的压感信息确定用户握持电子设备的握持手势之前,需要判断用户与电子设备是否处于接触状态,即用户握持电子设备。由此,可以执行如下步骤,以确定用户握持电子设备:获取传感器的压感信息,根据压感信息,判断用户与电子设备是否处于接触状态。这里,若获取到压感信息时,则可以确定用户与电子设备处于接触状态;反之,若未获取到压感信息时,则可以确定用户与电子设备处于未接触状态。
可以理解的是,本发明实施例中涉及的电子设备是具有背面和全侧边压感系统的设备,用户在使用电子设备时,会实时监测用户在设备背面、侧边的压感情况,而且随着握持手势的变化,压感信息也会发生变化。
其中,在根据获取到的压感信息确定用户握持电子设备的握持手势时,具体可以包括:根据压感信息确定电子设备背部和/或侧边的受力分布信息和受力大小信息,受力分布信息和受力大小信息确定用户握持电子设备的握持手势。其中,握持手势可以包括右手手势电子设备、左手手持电子设备、采用左手托住电子设备且右手操作电子设备、双手操作电子设备等。
其次,涉及S320,根据握持手势和用户的历史使用行为特征,确定用户期望的目标操作对象。
基于上述确定的握持手势,以及用户对历史使用行为特征和握持手势之间的关联关系,即可确定与握持手势对应的用户期望的目标操作对象。在检测到用户(比如手部)对电子设备的握持手势发生变化时,目标操作对象也随着握持手势的变化而变化。
其中,历史使用行为特征可以包括用户历史操作行为路径和用户常用触控对象。下面分别进行介绍:
一方面,历史操作行为路径可以包括电子设备接收用户的任意两个连续的触控输入,比如,电子设备在第一时刻接收用户打开音乐播放app的第一输入,在第二时刻接收用户对音乐播放app界面上某一播放列表的第二输入,第二时刻晚于第一时刻,这里,历史操作行为路径包括:第一时刻对应的第一输入,和第二时刻对应的第二输入。
另一方面,用户常用触控对象可以为用户对特定显示界面上特定区域的触控频率高于预设阈值的触控对象,例如,电子设备在接收到用户打开搜索类app、购物类app、学习类app的输入之后,经常会接收到用户对其显示界面中搜索区域的输入,即搜索区域为用户常用触控对象。
示例性地,用户历史行为特征为在打开某应用程序之后,点击显示该应用程序显示界面上部的搜索控件,在这种情况下,通过根据压感信息确定的用户右手握持电子设备且手指趋向于触控显示界面上部的握持手势,就可以确定出用户期望的目标操作对象是上述涉及的搜索控件。
最后,涉及S330,如图3所示,作为本申请的另一种实现方式,为了准确的确定目标操作区域,在S330之前,还可以包括以下步骤:
根据握持手势,确定与握持手势相关联的目标操作区域。
示例性地,根据压感信息确定用户右手握持电子设备,并且使用右手大拇指触控电子设备的屏幕显示区域时,与握持手势相关的目标操作区域即为右手大拇指能够触控到的屏幕显示区域。可选地,在一种可能的实施例中,根据握持手势和历史使用行为特征,确定与握持手势相关联的目标操作区域。即基于对用户历史使用行为特征和握持手势变化的相关性分析(如:用户历史行为特征为在打开某应用程序之后,点击显示该应用程序显示界面上部的搜索控件,且握持手势为用户右手握持电子设备且手指趋向于触控显示界面上部的握持手势),可以通过机器学习,掌握用户单手使用电子设备时,握持手势和目标操作区域的相关性特点,根据握持手势和目标操作区域的相关性特点来动态圈定出当前屏幕的目标操作区域,也就是便于用户触控的利手操作区域。
需要提示的是,若电子设备检测到握持手势发生变化,则根据变化后的握持手势更新目标操作区域,以控制目标操作对象从第一位置移动到更新后的目标操作区域。
作为本申请的另一种实现方式,在目标操作对象为目标控件的情况下,为了准确的确定目标操作区域,在S330之后,还可以包括以下步骤:
将目标控件以悬浮窗的形式显示在目标操作区域。
用户在单手触达部分区域有困难时,电子设备自动把当前处于目标操作区域之外的目标控件,以悬浮窗的形式显示在目标操作区域,以使用户操控悬浮窗形式的目标控件。
如图4所示,左图中用户正在向屏幕左上角方向用力够触,基于对终端背部和侧边的压感感应检测识别,判断出当前用户正在右手单手操作,且期望触达屏幕左上角,屏幕左上角包括目标操作区域之外的可操作功能。也就是用户在期望触控屏幕左上角的区域遇到困难的情况,电子设备则自动把屏幕左上角包括的功能性触控控件简化为目标控件以悬浮窗的形式显示到右手拇指可操作的利手区域,也就是右图中所示的目标控件以悬浮窗形式的显示在用户便于触控的目标操作区域。
作为本申请的另一种实现方式,为了提升用户体验,在上述涉及到的将目标控件以悬浮窗的形式显示在目标操作区域的步骤之后,还可以包括以下步骤:
接收用户的第一输入;响应于第一输入,将目标控件移动到第一位置。
上述涉及到的第一输入可以包括电子设备检测到用户正常握持状态下的压感信息,或者用户对所述目标控件以外区域的输入。也就是说,当检测到电子设备的背面和侧边的压感感应恢复正常后,悬浮窗消失,或者用户也可以通过触控悬浮窗之外的区域退出。
在一种可能的实施例中,根据第一位置和目标操作区域,确定包含目标操作对象的第一显示画面移动到目标操作区域的第一移动轨迹;控制第一显示画面沿第一移动轨迹向目标操作区域移动。
基于用户单手触屏操作方向,控制第一显示画面向当前目标操作区域移动,移出屏幕的内容不显示,这种移出屏幕的情况类似拖动图片查看的情况。比如,如图5所示,判断用户右手单手拿握手机,并向屏幕上方的目标操作对象用力触屏时,不缩小第一显示画面,直接将包含目标操作对象的第一显示画面自动向相反方向(屏幕下方)平移,直到屏幕上方的目标操作对象移入当前目标操作区域为止。
由此,可以在用户操作电子设备遇到困难的场景下,包含目标操作对象的第一显示画面自动向用户当前便于操控的目标操作区域的方向移动,直至目标操作对象移入目标操作区域的范围内。如此,用户可以轻松触控想要触控的区域,还能减少由于触控困难导致的误触情况,提高操作次效率。
作为本申请的另一种实现方式,为了提升用户体验,在上述涉及到的控制第一显示画面沿第一移动轨迹向目标操作区域移动的步骤之后,还可以包括以下步骤:
接收用户的第二输入;响应于第二输入,将第一显示画面移动到第一位置。
上述涉及到的第二输入可以包括电子设备检测到用户正常握持状态下的压感信息,或者用户向第二移动轨迹的滑动输入。响应于第二输入沿第二移动轨迹将第一显示画面移动到第一位置,第一移动轨迹与所述第二移动轨迹方向不同。在当前状态下,用户可以通过拇指向第二移动轨迹方向滑动的操作,回复正常屏幕显示。
在另一种可能的实施例中,将包含目标操作对象的第一显示画面进行缩小处理,得到第二显示画面,第二显示画面与目标操作区域的尺寸相匹配;控制第二显示画面移动到目标操作区域。
如图6所示,当电子设备预判出用户处于单手操作终端设备状态,且压感感应数据反馈用户单手触达某些区域界面时出现困难、费力的情况,屏幕界面显示自动缩小,向当前大拇指的利手操作区域,即目标操作区域缩小显示。
由此,可以在用户操作电子设备遇到困难时,控制包含目标操作对象的第一显示画面向用户当前便于操控的目标操作区域的方向缩小,直至与目标操作区域的尺寸相匹配,如此,用户可以轻松触达其期望的触控区域(即目标操作对象),无需担心会因为握持电子设备困难而将电子设备掉落。
综上,本发明实施例中的方法,当用户握持电子设备并且难以触控到期望的操作区域时,根据用户手持电子设备的压感信息来确定用户期望的目标操作对象,将用户期望的目标操作对象移动到用户方便触控的目标操作区域,能够使用户简单方便的触控到想要操作的屏幕区域。解决了用户难以触控到用户期望的操作区域的问题,有效提升了用户体验。
为了便于理解本发明实施例提供的方法,基于上述基于图4所示的一种操控显示界面,相应地,本申请还提供了一种实现操控方法的具体实现方式。下面结合图7对以目标操作对象为目标控件的情况进行举例说明。
S710,在用户握持电子设备的情况下,根据获取到的压感信息确定用户握持电子设备的握持手势。
S720,根据握持手势和用户的历史使用行为特征,确定用户期望的目标操作对象。
S730,根据握持手势,确定与握持手势相关联的目标操作区域。
S740,在目标操作对象为目标控件的情况下,将目标控件以悬浮窗的形式移动到目标操作区域。
S750,接收用户的第一输入,响应于第一输入,将目标控件移动到第一位置。
下面,对S710-S730的内容分别进行描述:
首先,涉及S710,用户在使用电子设备时,电子设备会实时监测用户在设备背面、侧边的压感情况,不同握持手势的压感信息会发生变化。电子设备根据获取到的压感信息确定用户握持电子设备的握持手势。
其次,涉及S720,根据握持手势,以及用户的历史使用行为特征和握持手势之间的关联关系,即可确定与握持手势对应的用户期望的目标操作对象。即根据用户的握持手势,从历史使用行为特征的记录中确定用户以该握持手势握持电子设备时,对电子设备的触控操作,从而确定在当前时刻用户期望的目标操作对象。并且可以根据握持手势预判用户单手操作有困难的场景,动态圈定出的用户对当前屏幕期望的目标操作对象。
然后,涉及S730,当电子设备预判出用户处于单手操作终端设备状态,且压感信息反馈用户单手触达目标操作对象时出现困难、费力的情况,可以根据握持手势和历史使用行为特征,确定与握持手势相关联的目标操作区域。即基于对用户历史使用行为特征操作行为路径和压感接触信息压感信息(或根据压感信息确定的握持手势)变化的相关性分析,通过机器学习,掌握用户单手使用电子设备时,握持手势和目标操作区域的相关性行为特征特点,根据握持手势和目标操作区域的相关性特点来动态圈定出当前屏幕的目标操作区域,也就是便于用户触控的利手操作区域。
接着,涉及S740,用户在单手目标操作对象有困难时,自动把当前处于目标操作区域之外的可操作功能,即目标控件,以悬浮窗按钮形式显示在目标操作区域。
最后,涉及S750,当电子设备检测到背面和侧边的压感感应恢复正常后,悬浮窗消失,或者用户也可以通过点出悬浮窗之外的区域退出。
由此,用户就可以单手触达电子设备的整个可操作界面,在不改变屏幕内容显示效果和用户操控体验的情况下,使用户简单方便的触控到想要操作的屏幕区域,既能保证用户视觉观感,又能保证用户对电子设备的触控准确度。
为了便于理解本发明实施例提供的方法,基于图5所示的另一种操控显示界面,相应地,本申请还提供了另一种实现操控方法的具体实现方式。下面结合图8对本发明实施例所提供的另一种信息提示方法进行描述。
S810,在用户握持电子设备的情况下,根据获取到的压感信息确定用户握持电子设备的握持手势。
S820,根据握持手势和用户的历史使用行为特征,确定用户期望的目标操作对象。
S830,根据握持手势,确定与握持手势相关联的目标操作区域。
S840,根据第一位置和目标操作区域,确定包含目标操作对象的第一显示画面移动到目标操作区域的第一移动轨迹;控制第一显示画面沿第一移动轨迹向目标操作区域移动。
S850,接收用户的第二输入,响应于第二输入,将第一显示画面移动到第一位置。
其中,S810至S830与上述实施例中S710至S730相同,为了简要起见,在此不再详细描述。
涉及S840,基于用户单手触屏操作方向,包含目标操作对象的第一显示画面向当前操作目标操作区域移动,移出屏幕的内容不显示,这里的移出屏幕的内容不显示的情况类似放大图片拖动查看一样,不同的是此处的第一显示画面是自动进行的平移,比如,判断用户右手单手拿握手机,并向屏幕上方区域努力触屏时,屏幕显示内容自动向相反方向(屏幕下方)移动,直到屏幕上方的目标操作对象移入当前目标操作区域为止。
涉及S850,上述涉及到的第二输入可以包括电子设备检测到用户正常握持状态下的压感信息,或者用户向第二移动轨迹的滑动输入。响应于第二输入沿第二移动轨迹将第一显示画面移动到第一位置,第一移动轨迹与所述第二移动轨迹方向不同。与S840的例子相对应的,用户可以通过拇指向上方滑动的操作,恢复正常屏幕显示。
由此,可以在用户单手操作遇到困难的场景下,包含目标操作对象的第一显示画面自动向用户当前的目标操作区域移动,在用户便于触及的目标显示区域进行显示,提升用户触控的便捷度。
为了便于理解本发明实施例提供的方法,基于图6所示的又一种操控显示界面,相应地,本申请还提供了又一种实现操控方法的具体实现方式。下面结合图9对本发明实施例所提供的又一种实现操控方法进行描述。
S910,在用户握持电子设备的情况下,根据获取到的压感信息确定用户握持电子设备的握持手势。
S920,根据握持手势和用户的历史使用行为特征,确定用户期望的目标操作对象。
S930,根据握持手势,确定与握持手势相关联的目标操作区域。
S940,将包含目标操作对象的第一显示画面进行缩小处理,得到第二显示画面,第二显示画面与目标操作区域的尺寸相匹配;控制第二显示画面移动到目标操作区域。
S950,接收用户的第三输入,响应于第三输入,将第二显示画面移动到第一位置。
其中,S910至S930与上述实施例中S710至S730相同,为了简要起见,在此不再详细描述。
涉及S940,当电子设备预判出用户处于单手操作终端设备状态,且压感信息反馈用户单手触达目标操作对象时出现困难、费力的情况,包含目标操作对象的第一显示画面自动缩小,向用户当前的利目标操作区域缩小显示。比如,判断用户右手单手拿握手机,并向左上角区域努力触屏时,第一显示画面自动向相反方向(右下角)缩小平移,直到左上角功能目标操作对象移入当前目标操作区域为止。
涉及S950,上述涉及到的第三输入可以包括电子设备检测到用户正常握持状态下的压感信息,或者用户向缩小平移方向的相反方向的滑动输入,响应于第三输入,将第二显示画面恢复至第一显示画面的大小,并移动回第一位置。与S940的例子相对应的,用户可以通过拇指向左上角滑动的操作,恢复正常屏幕显示。
由此,可以在用户单手操作遇到困难的场景下,屏幕自动向用户当前的目标操作区域缩小屏幕内容显示界面,用户可以轻松触达屏幕显示界面的任何位置,也不用担心手机会因为操作失衡而掉落。
图10为本发明实施例提供的一种电子设备的结构示意图。
如图10所示,该电子设备100具体可以包括:
第一确定模块1001,用于在用户握持电子设备的情况下,根据获取到的压感信息确定用户握持电子设备的握持手势。
第二确定模块1002,用于根据握持手势和用户的历史使用行为特征,确定用户期望的目标操作对象。
控制模块1003,用于在目标操作对象不在目标操作区域的情况下,控制目标操作对象从第一位置移动到目标操作区域,以使用户操控目标操作对象,目标操作区域为在握持手势下,用户能够触控到的操作区域。
在本发明实施例中的第二确定模块还用于根据握持手势,确定与握持手势相关联的目标操作区域。
在另一种可能的实施例中,控制模块1003具体可以用于,根据第一位置和目标操作区域,确定包含目标操作对象的第一显示画面移动到目标操作区域的第一移动轨迹;控制第一显示画面沿第一移动轨迹向目标操作区域移动。
控制模块1003,具体用于将包含目标操作对象的第一显示画面进行缩小处理并移动至目标操作区域,以使目标操作对象从第一位置移动到目标操作区域。
控制模块1003,具体用于接收用户的第一输入;响应于第一输入,将目标操作对象移动到第一位置。
综上,当用户握持电子设备并且难以触控到期望的操作区域时,根据用户手持电子设备的压感信息来确定用户期望的目标操作对象,将用户期望的目标操作对象移动到用户方便触控的目标操作区域,能够使用户简单方便的触控到想要操作的屏幕区域。解决了用户难以触控到用户期望的操作区域的问题,有效提升了用户体验。
图11为本发明实施例提供的一种电子设备的硬件结构示意图。
该电子设备1100包括但不限于:射频单元1101、网络模块1102、音频输出单元1103、输入单元1104、传感器1105、显示单元1106、用户输入单元1107、接口单元1108、存储器1109、处理器1110、以及电源1111等部件。本领域技术人员可以理解,图11中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。在本发明实施例中,电子设备包括但不限于手机、平板电脑、笔记本电脑、掌上电脑、车载终端、可穿戴设备、以及计步器等。
处理器1110,用于在用户握持电子设备的情况下,根据获取到的压感信息确定用户握持电子设备的握持手势。
处理器1110,用于根据握持手势和用户的历史使用行为特征,确定用户期望的目标操作对象。
处理器1110,用于在目标操作对象不在目标操作区域的情况下,控制目标操作对象从第一位置移动到目标操作区域,以使用户操控目标操作对象,目标操作区域为在握持手势下,用户能够触控到的操作区域。
由此,当用户握持电子设备并且难以触控到期望的操作区域时,根据用户手持电子设备的压感信息确定用户握持所述电子设备的握持手势,而且还能够根据用户的握持手势和历史使用行为特征来确定用户期望操控的目标操作对象,在用户期望操控的目标操作对象不在用户能够触控到的目标操作区域的情况下,将用户期望的目标操作对象移动到用户方便触控的目标操作区域,能够使用户简单方便的触控到想要操作的屏幕区域。这样,解决了用户难以触控到用户期望的操作区域的问题,有效提升了用户体验。
应理解的是,本发明实施例中,射频单元1101可用于收发信息或通话过程中,信号的接收和发送,具体的,将来自基站的下行资源接收后,给处理器1110处理;另外,将上行的资源发送给基站。通常,射频单元1101包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器、双工器等。此外,射频单元1101还可以通过无线通信系统与网络和其他设备通信。
电子设备通过网络模块1102为用户提供了无线的宽带互联网访问,如帮助用户收发电子邮件、浏览网页和访问流式媒体等。
音频输出单元1103可以将射频单元1101或网络模块1102接收的或者在存储器1109中存储的音频资源转换成音频信号并且输出为声音。而且,音频输出单元1103还可以提供与电子设备1100执行的特定功能相关的音频输出(例如,呼叫信号接收声音、消息接收声音等等)。音频输出单元1103包括扬声器、蜂鸣器以及受话器等。
输入单元1104用于接收音频或视频信号。输入单元1104可以包括图形处理器(Graphics Processing Unit,GPU)11041和麦克风11042,图形处理器11041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像资源进行处理。处理后的图像帧可以显示在显示单元1107上。经图形处理器11041处理后的图像帧可以存储在存储器1109(或其它存储介质)中或者经由射频单元1101或网络模块1102进行发送。麦克风11042可以接收声音,并且能够将这样的声音处理为音频资源。处理后的音频资源可以在电话通话模式的情况下转换为可经由射频单元1101发送到移动通信基站的格式输出。
电子设备1100还包括至少一种传感器1105,比如光传感器、运动传感器以及其他传感器。具体地,光传感器包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板11061的亮度,接近传感器可在电子设备1100移动到耳边时,关闭显示面板11061和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别电子设备姿态(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;传感器1105还可以包括指纹传感器、压力传感器、虹膜传感器、分子传感器、陀螺仪、气压计、湿度计、温度计、红外线传感器等,在此不再赘述。
显示单元1106用于显示由用户输入的信息或提供给用户的信息。显示单元1106可包括显示面板11061,可以采用液晶显示器(Liquid Crystal Display,LCD)、有机发光二极管(Organic Light-Emitting Diode,OLED)等形式来配置显示面板11061。
用户输入单元1107可用于接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入。具体地,用户输入单元1107包括触控面板11071以及其他输入设备11072。触控面板11071,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板11071上或在触控面板11071附近的操作)。触控面板11071可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器1110,接收处理器1110发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板11071。除了触控面板11071,用户输入单元1107还可以包括其他输入设备11072。具体地,其他输入设备11072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。
进一步的,触控面板11071可覆盖在显示面板11061上,当触控面板11071检测到在其上或附近的触摸操作后,传送给处理器1110以确定触摸事件的类型,随后处理器1110根据触摸事件的类型在显示面板11061上提供相应的视觉输出。虽然在图11中,触控面板11071与显示面板11061是作为两个独立的部件来实现电子设备的输入和输出功能,但是在某些实施例中,可以将触控面板11071与显示面板11061集成而实现电子设备的输入和输出功能,具体此处不做限定。
接口单元1108为外部装置与电子设备1100连接的接口。例如,外部装置可以包括有线或无线头戴式耳机端口、外部电源(或电池充电器)端口、有线或无线资源端口、存储卡端口、用于连接具有识别模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等等。接口单元1108可以用于接收来自外部装置的输入(例如,资源信息、电力等等)并且将接收到的输入传输到电子设备1100内的一个或多个元件或者可以用于在电子设备1100和外部装置之间传输资源。
存储器1109可用于存储软件程序以及各种资源。存储器1109可主要包括存储程序区和存储资源区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储资源区可存储根据手机的使用所创建的资源(比如音频资源、电话本等)等。此外,存储器1109可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器1110是电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储器1109内的软件程序和/或模块,以及调用存储在存储器1109内的资源,执行电子设备的各种功能和处理资源,从而对电子设备进行整体监控。处理器1110可包括一个或多个处理单元;优选的,处理器1110可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1110中。
电子设备1100还可以包括给各个部件供电的电源1111(比如电池),优选的,电源1111可以通过电源管理系统与处理器1110逻辑连接,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
另外,电子设备1100包括一些未示出的功能模块,在此不再赘述。
本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,当计算机程序在计算机中执行时,令计算机执行本发明实施例的操控方法的步骤。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台电子设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本发明的保护之内。

Claims (11)

1.一种操控方法,应用于电子设备,其特征在于,包括:
在用户握持所述电子设备的情况下,根据获取到的压感信息确定所述用户握持所述电子设备的握持手势;
根据所述握持手势和所述用户的历史使用行为特征,确定所述用户期望的目标操作对象;
在所述目标操作对象不在目标操作区域的情况下,控制所述目标操作对象从第一位置移动到所述目标操作区域,以使所述用户操控所述目标操作对象;
其中,所述目标操作区域为在所述握持手势下,用户能够触控到的操作区域。
2.根据权利要求1所述的方法,其特征在于,在所述控制所述目标操作对象从第一位置移动到所述目标操作区域之前,所述方法还包括:
根据所述握持手势,确定与所述握持手势相关联的目标操作区域。
3.根据权利要求1所述的方法,其特征在于,所述控制所述目标操作对象从第一位置移动到所述目标操作区域,包括:
根据所述第一位置和所述目标操作区域,确定包含所述目标操作对象的第一显示画面移动到所述目标操作区域的第一移动轨迹;
控制所述第一显示画面沿所述第一移动轨迹向所述目标操作区域移动。
4.根据权利要求1所述的方法,其特征在于,所述控制所述目标操作对象从第一位置移动到所述目标操作区域,包括:
将包含所述目标操作对象的第一显示画面进行缩小处理并移动至所述目标操作区域,以使所述目标操作对象从所述第一位置移动到所述目标操作区域。
5.根据权利要求1所述的方法,其特征在于,在所述控制所述目标操作对象从第一位置移动到所述目标操作区域之后,所述方法还包括:
接收所述用户的第一输入;
响应于所述第一输入,将所述目标操作对象移动到所述第一位置。
6.一种电子设备,其特征在于,包括:
第一确定模块,用于在用户握持所述电子设备的情况下,根据获取到的压感信息确定所述用户握持所述电子设备的握持手势;
第二确定模块,用于根据所述握持手势和所述用户的历史使用行为特征,确定所述用户期望的目标操作对象;
控制模块,用于在所述目标操作对象不在目标操作区域的情况下,控制所述目标操作对象从第一位置移动到所述目标操作区域,以使所述用户操控所述目标操作对象,所述目标操作区域为在所述握持手势下,用户能够触控到的操作区域。
7.根据权利要求6所述的电子设备,其特征在于,所述第二确定模块还用于根据所述握持手势,确定与所述握持手势相关联的目标操作区域。
8.根据权利要求6所述的电子设备,其特征在于,所述控制模块,具体用于:
根据所述第一位置和所述目标操作区域,确定包含所述目标操作对象的第一显示画面移动到所述目标操作区域的第一移动轨迹;
控制所述第一显示画面沿所述第一移动轨迹向所述目标操作区域移动。
9.根据权利要求6所述的电子设备,其特征在于,所述控制模块,具体用于:
将包含所述目标操作对象的第一显示画面进行缩小处理并移动至所述目标操作区域,以使所述目标操作对象从所述第一位置移动到所述目标操作区域。
10.根据权利要求6所述的电子设备,其特征在于,所述控制模块,具体用于:
接收所述用户的第一输入;
响应于所述第一输入,将所述目标操作对象移动到所述第一位置。
11.一种电子设备,其特征在于,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1-5所述的操控方法的步骤。
CN202010414929.4A 2020-05-15 2020-05-15 操控方法及电子设备 Active CN111665979B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010414929.4A CN111665979B (zh) 2020-05-15 2020-05-15 操控方法及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010414929.4A CN111665979B (zh) 2020-05-15 2020-05-15 操控方法及电子设备

Publications (2)

Publication Number Publication Date
CN111665979A true CN111665979A (zh) 2020-09-15
CN111665979B CN111665979B (zh) 2023-08-11

Family

ID=72383787

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010414929.4A Active CN111665979B (zh) 2020-05-15 2020-05-15 操控方法及电子设备

Country Status (1)

Country Link
CN (1) CN111665979B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112558835A (zh) * 2020-12-23 2021-03-26 携程计算机技术(上海)有限公司 搜索交互方法、系统、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104252301A (zh) * 2013-06-26 2014-12-31 富泰华工业(深圳)有限公司 优化单手操作的系统、方法及电子装置
CN105373334A (zh) * 2015-11-25 2016-03-02 小米科技有限责任公司 交互式屏幕控制方法与装置
CN108108109A (zh) * 2017-11-29 2018-06-01 努比亚技术有限公司 一种终端操作方法、移动终端及计算机可读存储介质
CN108268195A (zh) * 2018-02-28 2018-07-10 努比亚技术有限公司 单手操作显示方法、移动终端及计算机可读存储介质
CN108287650A (zh) * 2017-12-15 2018-07-17 维沃移动通信有限公司 基于移动终端的单手操作方法及移动终端
CN108733275A (zh) * 2018-04-28 2018-11-02 维沃移动通信有限公司 一种对象显示方法及终端

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104252301A (zh) * 2013-06-26 2014-12-31 富泰华工业(深圳)有限公司 优化单手操作的系统、方法及电子装置
CN105373334A (zh) * 2015-11-25 2016-03-02 小米科技有限责任公司 交互式屏幕控制方法与装置
CN108108109A (zh) * 2017-11-29 2018-06-01 努比亚技术有限公司 一种终端操作方法、移动终端及计算机可读存储介质
CN108287650A (zh) * 2017-12-15 2018-07-17 维沃移动通信有限公司 基于移动终端的单手操作方法及移动终端
CN108268195A (zh) * 2018-02-28 2018-07-10 努比亚技术有限公司 单手操作显示方法、移动终端及计算机可读存储介质
CN108733275A (zh) * 2018-04-28 2018-11-02 维沃移动通信有限公司 一种对象显示方法及终端

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112558835A (zh) * 2020-12-23 2021-03-26 携程计算机技术(上海)有限公司 搜索交互方法、系统、电子设备及存储介质

Also Published As

Publication number Publication date
CN111665979B (zh) 2023-08-11

Similar Documents

Publication Publication Date Title
CN108255378B (zh) 一种显示控制方法及移动终端
CN108762954B (zh) 一种对象分享方法及移动终端
CN110798397B (zh) 文件发送方法、装置和电子设备
CN109407921B (zh) 一种应用程序的处理方法及终端设备
CN111338530B (zh) 应用程序图标的控制方法和电子设备
CN109032447B (zh) 一种图标处理方法及移动终端
CN109558061B (zh) 一种操作控制方法及终端
CN108762705B (zh) 一种信息显示方法、移动终端和计算机可读存储介质
CN110618969B (zh) 一种图标显示方法及电子设备
WO2019184947A1 (zh) 图像查看方法及移动终端
CN107728923B (zh) 一种操作的处理方法及移动终端
CN108536509B (zh) 一种应用分身方法及移动终端
CN109407949B (zh) 一种显示控制方法及终端
CN109683802B (zh) 一种图标移动方法及终端
CN109508136B (zh) 一种应用程序的显示方法及移动终端
CN110703972B (zh) 一种文件控制方法及电子设备
CN109407948B (zh) 一种界面显示方法及移动终端
CN108062194B (zh) 一种显示方法、装置及移动终端
CN110795189A (zh) 一种应用启动方法及电子设备
CN111143011B (zh) 显示方法及电子设备
CN111061446A (zh) 一种显示方法及电子设备
CN108897477B (zh) 一种操作控制方法及终端设备
CN107908329B (zh) 应用图标的管理方法和移动终端
CN111443860B (zh) 触控方法和电子设备
CN111443968A (zh) 一种截图方法及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant