CN105867746A - 一种触控操作方法及移动终端 - Google Patents
一种触控操作方法及移动终端 Download PDFInfo
- Publication number
- CN105867746A CN105867746A CN201610474109.8A CN201610474109A CN105867746A CN 105867746 A CN105867746 A CN 105867746A CN 201610474109 A CN201610474109 A CN 201610474109A CN 105867746 A CN105867746 A CN 105867746A
- Authority
- CN
- China
- Prior art keywords
- touch screen
- touch
- screen
- overlay area
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0414—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种触控操作方法及移动终端。该移动终端包括:第一触控屏幕和第二触控屏幕,以及还包括:区域识别模块,用于识别所述第一触控屏幕上的覆盖区域和所述第二触控屏幕上的覆盖区域;映射模块,用于在所述区域识别模块识别到所述第一触控屏幕上的覆盖区域之后,将所述第一触控屏幕上的覆盖盲区的显示内容映射至所述第二触控屏幕上的覆盖区域,以使在触控所述第二触控屏幕上的覆盖区域时执行所述第一触控屏幕上的覆盖盲区的触控响应。应用本发明的技术方案,能够解决用户单手握持大屏移动终端时不能操控其全部触控区域的问题,优化了大屏移动终端的触控操作,提升用户体验。
Description
技术领域
本发明涉及用户界面交互技术领域,尤其涉及一种触控操作方法及移动终端。
背景技术
现有技术中,大屏的智能手机因其具有很好的显示效果而受到越来越多的用户青睐。但是,大屏智能手机在具有较好显示效果的同时,也给用户的触控操作带来一定的不便。例如,用户单手握持大屏智能手机越来越困难,并且在单手握持情况下,若用户还要操控大屏智能手机,则显得更加困难。
具体地,用户单手握持、操作大屏智能手机的不便之处体现在:
一方面,手机屏幕宽度较大,用户单手握持时,留给大拇指的活动空间和区域非常小。另一方面,由于大拇指的活动空间和区域非常小,那么在滑动大拇指时,大拇指在屏幕上的覆盖区域(即可触控区域)也较小,导致大拇指无法覆盖屏幕上的一些区域(即覆盖盲区,不可触控区域),进而使得用户无法通过大拇指操控屏幕上的覆盖盲区,影响用户的触控体验。由此可见,现有技术中大屏智能手机的触控方案还有待改进。
发明内容
本发明的主要目的在于提出一种触控操作方法及移动终端,旨在解决用户单手握持大屏移动终端时不能操控其全部触控区域的问题,优化了大屏移动终端的触控操作,提升用户体验。
为实现上述目的,本发明提供的一种移动终端,包括第一触控屏幕和第二触控屏幕,所述移动终端包括:
区域识别模块,用于识别所述第一触控屏幕上的覆盖区域和所述第二触控屏幕上的覆盖区域;
映射模块,用于在所述区域识别模块识别到所述第一触控屏幕上的覆盖区域之后,将所述第一触控屏幕上的覆盖盲区的显示内容映射至所述第二触控屏幕上的覆盖区域,以使在触控所述第二触控屏幕上的覆盖区域时执行所述第一触控屏幕上的覆盖盲区的触控响应。
其中,所述移动终端还包括:
用户输入模块,用于接收用户在所述第一触控屏幕上和所述第二触控屏幕上的覆盖区域输入操作;
所述区域识别模块,具体用于根据所述用户输入模块接收到的所述覆盖区域输入操作,识别所述第一触控屏幕上的覆盖区域和所述第二触控屏幕上的覆盖区域。
其中,所述移动终端还包括:
感测模块,用于感测所述移动终端当前的屏幕状态;所述屏幕状态包括:横屏状态和竖屏状态;
所述用户输入模块,还用于根据所述感测模块感测到的所述移动终端当前的屏幕状态之后,输出提示信号,所述提示信号用户提示用户在所述第一触控屏幕上和所述第二触控屏幕上进行覆盖区域输入操作;
所述区域识别模块,具体用于根据所述感测模块感测到的所述移动终端的屏幕状态和所述用户输入模块接收到的所述覆盖区域输入操作,识别所述所述第一触控屏幕上的覆盖区域和所述第二触控屏幕上的覆盖区域。
其中,所述用户输入模块,还用于接收用户输入的针对所述第二触控屏幕的覆盖区域的触控操作;
所述移动终端还包括:
触控有效定义模块,用于判断所述用户输入模块接收到的针对所述第二触控屏幕的触控操作是否有效;
响应模块,用于在所述第二触控屏幕触控定义模块判断所述触控操作有效时,执行所述第一触控屏幕上的覆盖盲区的触控响应。
其中,所述映射模块,具体用于按照预设比例将所述第一触控屏幕上的覆盖盲区的显示内容映射至所述第二触控屏幕上的覆盖区域。
此外,为实现上述目的,本发明还提出一种触控操作方法,应用于移动终端,该移动终端包括:第一触控屏幕和第二触控屏幕,所述方法包括:
识别所述第一触控屏幕上的覆盖盲区和所述第二触控屏幕上的覆盖区域;
将所述第一触控屏幕上的覆盖盲区的显示内容映射至所述第二触控屏幕上的覆盖区域,以使在触控所述第二触控屏幕上的覆盖区域时执行所述第一触控屏幕上的覆盖盲区的触控响应。
其中,在所述识别所述第一触控屏幕上的覆盖盲区和所述第二触控屏幕的覆盖区域之前,所述方法还包括:
接收用户在所述第一触控屏幕上和所述第二触控屏幕上的覆盖区域输入操作;
所述识别所述第一触控屏幕上的覆盖盲区和所述第二触控屏幕上的覆盖区域,包括:
根据接收到的所述覆盖区域输入操作,识别所述第一触控屏幕上的覆盖区域和所述第二触控屏幕上的覆盖区域。
其中,在所述接收用户在所述第一触控屏幕上和所述第二触控屏幕上的覆盖区域输入操作之前,所述方法还包括:
感测所述移动终端当前的屏幕状态;所述屏幕状态包括:横屏状态和竖屏状态;以及,
输出提示信号,所述提示信号用于提示用户在所述第一触控屏幕上和所述第二触控屏幕进行覆盖区域输入操作。
其中,在所述将所述第一触控屏幕上的覆盖盲区的显示内容映射至所述第二触控屏幕上的覆盖区域之后,所述方法还包括:
接收用户输入的针对所述第二触控屏幕的覆盖区域的触控操作;
判断接收的所述针对所述第二触控屏幕的覆盖区域的触控操作是否有效;以及
当判断结果为是时,执行所述第一触控屏幕上的覆盖盲区的触控响应。
其中,所述将所述第一触控屏幕上的覆盖盲区的显示内容映射至所述第二触控屏幕上的覆盖区域,具体包括:
按照预设比例将所述第一触控屏幕上的覆盖盲区的显示内容映射至所述第二触控屏幕上的覆盖区域。
本发明提出的移动终端及触控操作方法,通过识别第一触控屏幕上的覆盖区域和第二触控屏幕上的覆盖区域,并将第一触控屏幕上的覆盖盲区的显示内容映射至第二触控屏幕上的覆盖区域。这样,使得用户在触控第二触控屏幕上的覆盖区域时,移动终端执行第一触控屏幕上的覆盖盲区的触控响应。即是说,本发明将对第一触控屏幕上的覆盖盲区的触控操作通过第二触控屏幕上的覆盖区域来完成,从而实现了用户对第一触控屏幕上的覆盖盲区的显示内容的触控操作,解决了现有技术中用户单手握持大屏移动终端时不能操控其全部触控区域的问题,优化了大屏移动终端的触控操作,提升了用户体验。
附图说明
图1为实现本发明各个实施例的移动终端一个可选的硬件结构示意图;
图2为如图1所示的移动终端的无线通信系统示意图;
图3是本发明第一实施例提出的移动终端的结构框图;
图4是本发明第二实施例提出的移动终端的结构框图;
图5是移动终端竖屏状态下第一触控屏幕的覆盖区域的实施例的示意图;
图6是移动终端竖屏状态下第二触控屏幕的覆盖区域的示意图;
图7是移动终端竖屏状态下第一触控屏幕的覆盖区域的另一实施例的示意图;
图8是本发明第三实施例提出的移动终端的结构框图;
图9是本发明第四实施例提出的触控操作方法的流程示意图;
图10是本发明第五实施例提出的触控操作方法的流程示意图;
图11是本发明第六实施例提出的触控操作方法的流程示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
现在将参考附图描述实现本发明各个实施例的移动终端。在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身并没有特定的意义。因此,"模块"与"部件"可以混合地使用。
移动终端可以以各种形式来实施。例如,本发明中描述的终端可以包括诸如移动电话、智能电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、导航装置等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。下面,假设终端是移动终端。然而,本领域技术人员将理解的是,除了特别用于移动目的的元件之外,根据本发明的实施方式的构造也能够应用于固定类型的终端。
图1为实现本发明各个实施例的移动终端的硬件结构示意。
移动终端100可以包括无线通信单元110、A/V(音频/视频)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180和电源单元190等等。图1示出了具有各种组件的移动终端,但是应理解的是,并不要求实施所有示出的组件。可以替代地实施更多或更少的组件。将在下面详细描述移动终端的元件。
无线通信单元110通常包括一个或多个组件,其允许移动终端100与无线通信系统或网络之间的无线电通信。例如,无线通信单元可以包括广播接收模块111、移动通信模块112、无线互联网模块113、短程通信模块114和位置信息模块115中的至少一个。
A/V输入单元120用于接收音频或视频信号。A/V输入单元120可以包括相机121和麦克风1220。用户输入单元130可以根据用户输入的命令生成键输入数据以控制移动终端的各种操作。用户输入单元130允许用户输入各种类型的信息,并且可以包括键盘、锅仔片、触摸板(例如,检测由于被接触而导致的电阻、压力、电容等等的变化的触敏组件)、滚轮、摇杆等等。特别地,当触摸板以层的形式叠加在显示单元151上时,可以形成触摸屏。
感测单元140检测移动终端100的当前状态,(例如,移动终端100的打开或关闭状态)、移动终端100的位置、用户对于移动终端100的接触(即,触摸输入)的有无、移动终端100的取向、移动终端100的加速或减速移动和方向等等,并且生成用于控制移动终端100的操作的命令或信号。例如,当移动终端100实施为滑动型移动电话时,感测单元140可以感测该滑动型电话是打开还是关闭。另外,感测单元140能够检测电源单元190是否提供电力或者接口单元170是否与外部装置耦接。感测单元140可以由传感器141来实现。
输出单元150可以包括显示单元151等等。显示单元151可以显示在移动终端100中处理的信息。例如,当移动终端100处于电话通话模式时,显示单元151可以显示与通话或其它通信(例如,文本消息收发、多媒体文件下载等等)相关的用户界面(UI)或图形用户界面(GUI)。当移动终端100处于视频通话模式或者图像捕获模式时,显示单元151可以显示捕获的图像和/或接收的图像、示出视频或图像以及相关功能的UI或GUI等等。
同时,当显示单元151和触摸板以层的形式彼此叠加以形成触摸屏时,显示单元151可以用作输入装置和输出装置。显示单元151可以包括液晶显示器(LCD)、薄膜晶体管LCD(TFT-LCD)、有机发光二极管(OLED)显示器、柔性显示器、三维(3D)显示器等等中的至少一种。这些显示器中的一些可以被构造为透明状以允许用户从外部观看,这可以称为透明显示器,典型的透明显示器可以例如为TOLED(透明有机发光二极管)显示器等等。根据特定想要的实施方式,移动终端100可以包括两个或更多显示单元(或其它显示装置),例如,移动终端可以包括外部显示单元(未示出)和内部显示单元(未示出)。触摸屏可用于检测触摸输入压力以及触摸输入位置和触摸输入面积。
存储器160可以存储由控制器180执行的处理和控制操作的软件程序等等,或者可以暂时地存储己经输出或将要输出的数据(例如,电话簿、消息、静态图像、视频等等)。而且,存储器160可以存储关于当触摸施加到触摸屏时输出的各种方式的振动和音频信号的数据。
存储器160可以包括至少一种类型的存储介质,所述存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等等。而且,移动终端100可以与通过网络连接执行存储器160的存储功能的网络存储装置协作。
控制器180通常控制移动终端的总体操作。例如,控制器180执行与语音通话、数据通信、视频通话等等相关的控制和处理。另外控制器180可以执行模式识别处理,以将在触摸屏上执行的手写输入或者图片绘制输入识别为字符或图像。
电源单元190在控制器180的控制下接收外部电力或内部电力并且提供操作各元件和组件所需的适当的电力。
这里描述的各种实施方式可以以使用例如计算机软件、硬件或其任何组合的计算机可读介质来实施。对于硬件实施,这里描述的实施方式可以通过使用特定用途集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理装置(DSPD)、可编程逻辑装置(PLD)、现场可编程门阵列(FPGA)、处理器、控制器、微控制器、微处理器、被设计为执行这里描述的功能的电子单元中的至少一种来实施,在一些情况下,这样的实施方式可以在控制器180中实施。对于软件实施,诸如过程或功能的实施方式可以与允许执行至少一种功能或操作的单独的软件模块来实施。软件代码可以由以任何适当的编程语言编写的软件应用程序(或程序)来实施,软件代码可以存储在存储器160中并且由控制器180执行。
至此,己经按照其功能描述了移动终端。下面,为了简要起见,将描述诸如折叠型、直板型、摆动型、滑动型移动终端等等的各种类型的移动终端中的滑动型移动终端作为示例。因此,本发明能够应用于任何类型的移动终端,并且不限于滑动型移动终端。
如图1中所示的移动终端100可以被构造为利用经由帧或分组发送数据的诸如有线和无线通信系统以及基于卫星的通信系统来操作。
现在将参考图2描述其中根据本发明的移动终端能够操作的通信系统。
这样的通信系统可以使用不同的空中接口和/或物理层。例如,由通信系统使用的空中接口包括例如频分多址(FDMA)、时分多址(TDMA)、码分多址(CDMA)和通用移动通信系统(UMTS)(特别地,长期演进(LTE))、全球移动通信系统(GSM)等等。作为非限制性示例,下面的描述涉及CDMA通信系统,但是这样的教导同样适用于其它类型的系统。
参考图2,CDMA无线通信系统可以包括多个移动终端100、多个基站(BS)270、基站控制器(BSC)275和移动交换中心(MSC)280。MSC280被构造为与公共电话交换网络(PSTN)290形成接口。MSC280还被构造为与可以经由回程线路耦接到基站270的BSC275形成接口。回程线路可以根据若干己知的接口中的任一种来构造,所述接口包括例如E1/T1、ATM,IP、PPP、帧中继、HDSL、ADSL或xDSL。将理解的是,如图2中所示的系统可以包括多个BSC2750。
每个BS270可以服务一个或多个分区(或区域),由多向天线或指向特定方向的天线覆盖的每个分区放射状地远离BS270。或者,每个分区可以由用于分集接收的两个或更多天线覆盖。每个BS270可以被构造为支持多个频率分配,并且每个频率分配具有特定频谱(例如,1.25MHz,5MHz等等)。
分区与频率分配的交叉可以被称为CDMA信道。BS270也可以被称为基站收发器子系统(BTS)或者其它等效术语。在这样的情况下,术语"基站"可以用于笼统地表示单个BSC275和至少一个BS270。基站也可以被称为"蜂窝站"。或者,特定BS270的各分区可以被称为多个蜂窝站。
如图2中所示,广播发射器(BT)295将广播信号发送给在系统内操作的移动终端100。如图1中所示的广播接收模块111被设置在移动终端100处以接收由BT295发送的广播信号。在图2中,示出了几个全球定位系统(GPS)卫星300。卫星300帮助定位多个移动终端100中的至少一个。
在图2中,描绘了多个卫星300,但是理解的是,可以利用任何数目的卫星获得有用的定位信息。如图1中所示的GPS模块115通常被构造为与卫星300配合以获得想要的定位信息。替代GPS跟踪技术或者在GPS跟踪技术之外,可以使用可以跟踪移动终端的位置的其它技术。另外,至少一个GPS卫星300可以选择性地或者额外地处理卫星DMB传输。
作为无线通信系统的一个典型操作,BS270接收来自各种移动终端100的反向链路信号。移动终端100通常参与通话、消息收发和其它类型的通信。特定基站270接收的每个反向链路信号被在特定BS270内进行处理。获得的数据被转发给相关的BSC275。BSC提供通话资源分配和包括BS270之间的软切换过程的协调的移动管理功能。BSC275还将接收到的数据路由到MSC280,其提供用于与PSTN290形成接口的额外的路由服务。类似地,PSTN290与MSC280形成接口,MSC与BSC275形成接口,并且BSC275相应地控制BS270以将正向链路信号发送到移动终端100。
基于上述移动终端硬件结构以及通信系统,提出本发明的移动终端的各个实施例。本发明提出的移动终端的各个实施例,能够对背景技术中提到的大屏智能手机的触控操作进行优化,实现用户在单手握持大屏的移动终端时也能够便捷地操控该移动终端触控屏幕上的所有触控区域。
为实现上述目的,本申请的发明人发现,在现有技术中,已经存在一些具有双面屏的手机,例如:翻盖手机,在翻盖的前后面分别设置一块屏幕;或者直板手机,在正面设置一块较大的屏幕的同时,在该屏幕上方或该屏幕的下方设置一块较小的辅助屏幕。虽然这些手机设置了双面屏,但其根本目的是:用第二块屏幕辅助显示一些信息。借助手机具有双面屏的思路,发明人想到,在大屏智能手机的使用场景中,为大屏智能手机设置两块触控屏幕,第一块触控屏幕用于显示用户界面,用户可通过操控第一块触控屏幕实现人机交互,而对于用户单手握持大屏智能手机时不能触控到的第一块触控屏幕上的区域,如果能够通过操作第二块触控屏幕来替代,则是非常好的用户体验。基于上述动机,提出了本发明的触控操作方法及移动终端的各个实施例。
如图3所示,本发明第一实施例提出一种移动终端,该移动终端包括第一触控屏幕和第二触控屏幕。其中,第一触控屏幕用于显示用户界面,第二触控屏幕与第一触控屏幕相对设置,即第二触控屏幕位于移动终端的背面。其中,第二触控屏幕可以是普通的触控屏,也可以只是单纯的触控面板(即只响应触摸信号,不显示图像)。
其中,该移动终端还包括:区域识别模块31和映射模块32。
区域识别模块31,用于识别第一触控屏幕上的覆盖区域和第二触控屏幕的覆盖区域;其中,覆盖区域是用户可触控操作的区域。当移动终端的触控屏幕太大时,若用户单手握持该移动终端,则只能够操控该触控屏幕的一部分。在本发明中,将用户可操控触控屏幕的区域称为覆盖区域,相应地,将用户不能操控的触控屏幕的区域称为覆盖盲区。由于该移动终端有两块屏幕,即第一触控屏幕和第二触控屏幕且第一触控屏幕用于显示用户界面,因此第一触控屏幕存在覆盖区域和覆盖盲区,第二触控屏幕存在覆盖区域,可能会存在覆盖盲区。
在区域识别模块31在识别第一触控屏幕上的覆盖区域之后,相应地,区域识别模块31能够获知第一触控屏幕上的覆盖盲区。此时,通过映射模块32将第一触控屏幕上的覆盖盲区的显示内容映射至第二触控屏幕上的覆盖区域。这样映射的目的时,使得用户在对第二触控屏幕上的覆盖区域执行触控操作时,能够将相应的触控操作映射至第一触控屏幕上的覆盖盲区。通俗地说,就是将对第一触控屏幕上的覆盖盲区的触控操作通过第二触控屏幕上的覆盖区域来完成,从而实现对第一触控屏幕上的覆盖盲区的触控操作。
需要说明的是,由于第一触控屏幕和第二触控屏幕的大小可能不相等,同时第一触控屏幕上的覆盖盲区与第二触控屏幕上的覆盖区域也可能不相等。因此,映射模块32在将第一触控屏幕上的覆盖盲区的显示内容映射至第二触控屏幕上的覆盖区域时,可以按照预设比例进行映射,以保证能够将第一触控屏幕上的覆盖盲区对应的显示内容(如用户界面)能够全部映射至第二触控屏幕上的覆盖区域。其中,预设比例可根据实际情况中第一触控屏幕的覆盖盲区与第二触控屏幕的覆盖区域具体设定。
需要说明的是,具体实现中,本发明实施例中区别识别模块31和映射模块32的功能,均可由上文中的控制器180来实现。
本发明实施例提供的移动终端,通过区域识别模块识别第一触控屏幕上的覆盖区域和第二触控屏幕的覆盖区域,并通过映射模块将第一触控屏幕上的覆盖盲区的显示内容映射至第二触控屏幕上的覆盖区域。这样,使得用户在触控第二触控屏幕上的覆盖区域时,移动终端执行第一触控屏幕上的覆盖盲区的触控响应。即是说,本发明实施例的移动终端将对第一触控屏幕上的覆盖盲区的触控操作通过第二触控屏幕上的覆盖区域来完成,从而实现了用户对第一触控屏幕上的覆盖盲区的触控操作,解决了现有技术中用户单手握持大屏移动终端时不能操控移动终端全部触控区域的问题,优化了大屏移动终端的触控操作,提升了用户体验。
如图4所示,本发明第二实施例提出一种移动终端,该移动终端包括第一触控屏幕和第二触控屏幕。其中,第一触控屏幕用于显示用户界面,第二触控屏幕与第一触控屏幕相对设置,即第二触控屏幕位于移动终端的背面。其中,第二触控屏幕可以是普通的触控屏,也可以只是单纯的触控面板(即只响应触摸信号,不显示图像)。
该移动终端还包括与第一实施例中相同的区域识别模块31和映射模块32。并且,本实施例中的移动终端还包括:用户输入模块33和感测模块34。
其中,感测模块34,用于感测移动终端当前的屏幕状态;移动终端的屏幕状态包括:横屏状态和竖屏状态。一般地,当用户横向握持移动终端时,移动终端处于横屏状态;当用户竖向握持移动终端时,移动终端处于竖屏状态。具体实现中,感测模块34可以是上文中提到的感测单元140,其可以由传感器实现其感测功能,达到感测移动终端的屏幕状态的目的。
在感测模块34感测到移动终端的屏幕状态之后,可通过用户输入模块33向用户输出提示信号,以提示用户当前可在第一触控屏幕上和第二触控屏幕进行覆盖区域输入操作。具体实现中,用户输入模块33可以是上文中提到的用户输入单元130。其中,用户输入模块33在输出提示信号时,可以以动画的形式提示用户分别在第一触控屏幕和第二触控屏幕上进行覆盖区域输入操作。用户可根据提示信号的提示,分别在第一触控屏幕和第二触控屏幕上进行覆盖区域输入操作。
在用户执行覆盖区域输入操作之后,用户输入模块33则接收用户在第一触控屏幕上和第二触控屏幕上的覆盖区域输入操作,并根据接收到的覆盖区域输入操作,通过区域识别模块31识别第一触控屏幕上的覆盖区域和第二触控屏幕上的覆盖区域,以及通过映射模块32进行相应的映射处理。
下面,将列举具体的应用场景来详细描述上述的工作过程。在具体的应用场景中,例如将移动终端,如大屏手机的正面屏幕(即第一触控屏幕)设为A面,将大屏手机的背面屏幕(即第二触控屏幕)设为B面。
应用场景一:
当用户单手竖向握持手机时,感测模块34感测到手机当前处于竖屏状态。此时用户输入模块33以动画形式提示用户在A面用大拇指划出其能触控的覆盖区域。用户通过用户输入模块33在A面进行覆盖区域输入操作,如用户从A面的右侧至屏幕底端划出一道弧线,如图5所示。此时A面被划分为两个区域,即弧线上方区域为A1和弧线下方区域为A2。用户在A面输入覆盖区域之后,用户输入模块33以动画形式提示用户在B面用食指划出其能触控的覆盖区域。此时用户通过用户输入模块33在B面进行覆盖区域输入操作,如用户从B面屏幕的右侧至屏幕左侧划出一道弧线,如图6所示。此时B面被划分为两个区域,即弧线上方区域为B1,弧线下方区域为B2。
用户输入模块33接收到用户的覆盖区域输入操作之后,则通过区域识别模块31进行识别,对两块触控屏幕的覆盖区域进行识别。区域识别模块31在对两块触控屏幕的覆盖区域进行识别时,还参考感测模块34的感测结果。参考移动终端屏幕状态的目的是:确定屏幕的区域划分是按照上下划分还是左右划分。此时,由于感测模块34感测到手机处于竖屏状态,因此区别识别模块31识别此时A面屏幕被分为上下两个区域,并且由于用户大拇指覆盖率最高的区域是A2区域,因此识别到A2区域是第一触控屏幕的覆盖区域,相应地A1区域是第一触控屏幕的覆盖盲区。并且,区别识别模块31识别此时B面屏幕被分为两个区域,并且由于用户的食指在手机背部可活动,该食指覆盖率最高的区域是B1区域,因此识别B1区域是第二触控屏幕的覆盖区域,相应地,B2区域是第一触控屏幕的覆盖盲区。
区域识别模块32在识别两块触控屏幕的覆盖区域之后,会将识别结果传输给映射模块32。映射模块32此时将A1区域的显示内容,如应用图标或菜单项映射到B1区域。在映射过程中,由于A1区域和B1区域面积不一定相同,因此,映射模块32此时将A1区域的应用图标或菜单项按预设比例映射到B1区域。此时,若用户在B1区域进行触控操作,则手机执行对应至A1区域的触控操作的响应,从而解决了A1区域的交互元素难以在单手情况下被点击的问题。即通过A2区域的大拇指的覆盖区域和B1区域食指的覆盖区域的叠加,完成了手机UI界面元素布局的全覆盖。
需要说明的是,当用户竖向单手倒着握持手机时(即用户上下颠倒握持手机),由于手机具备自动旋转功能,因此手机的UI界面会随着用户握持方向变化而自动调整,所以会有此使用场景的发生。在此场景下,区别识别模块31识别到A面的覆盖区域为A1区域,覆盖盲区为A2区域;B面的覆盖区域为B2区域,覆盖盲区为B1。因此,映射模块32在映射时,具体是将A2区域的应用图标或菜单项按预设比例映射到B2区域,基本方案与上述内容类似,这里不再赘述。
应用场景二:
当用户单手横向握持手机时,由于手机的形状基本上都为长方形,基本上用户的食指在B面和大拇指在A面的活动区域类似,因此用户输入的覆盖区域与应用场景一的划分方式不同:即覆盖区域的划分由上下划分变为左右划分。
具体地,感测模块34感测到手机当前处于横屏状态,此时用户输入模块33以动画形式提示用户在A面用大拇指划出其能触控的覆盖区域,在B面用食指划出其能触控的覆盖区域。用户通过用户输入模块33在A面和B面分别进行覆盖区域输入操作,假设用户的大拇指在A面的覆盖区域为A1区域,此时A面的覆盖盲区为A2区域。用户的食指在B面的覆盖区域为B1区域,那么相应地,区别识别模块31识别到A面的覆盖区域为A1区域,覆盖盲区为A2,B面的覆盖区域为B1区域,进而映射模块32在进行映射时,具体是将A2区域的应用图标或菜单项按预设比例映射到B1区域。此时,若用户在B1区域进行触控操作,则手机执行对应至A2区域的触控操作的响应,从而解决了A2区域的交互元素难以在单手情况下被点击的问题。即通过A1区域的大拇指的覆盖区域和B1区域食指的覆盖区域的叠加,完成了手机UI界面元素布局的全覆盖。
应用场景三:
当用户单手竖向握手机中间部分时,若手机的屏幕较大,用户的大拇指很可能上部分屏幕和下部分屏幕均覆盖不到(仅能覆盖中间的一段屏幕),此时,用户通过用户输入模块33在A面进行覆盖区域输入操作之后,区别识别模块31根据感测模块34的感测结果和用户输入模块33的接收结果,识别到此时A面屏幕被划分成如图7所示的三个区域A1、A2、A3,其中A1区域和A3区域是用户大拇指无法覆盖到的区域,即A1区域和A3区域是A面的覆盖盲区,A2区域是用户能覆盖的中间一段屏幕(为了简化区域划分,将包含大拇指滑动弧线的长方形作为A2区域),即A2区域是A面的覆盖区域。同时,用户通过用户输入模块33在B面进行覆盖区域输入操作之后,区别识别模块31根据感测模块34的感测结果和用户输入模块33的接收结果,识别到此时B面屏幕被划分成B1区域和B3两个区域,分别与A1和A3区域对应。区域识别模块31在识别到两块触控屏幕的覆盖区域之后,具体是按预设比例将A1区域的交互界面(如应用图标或菜单项)映射至B1区域。此时,若用户在B1区域进行触控操作,则手机执行对应至A1区域的触控操作的响应,用户在B3区域进行触控操作,则手机执行对应至A3区域的触控操作的响应,从而解决了A1区域、A3区域的交互元素难以在单手情况下被点击的问题。即通过A2区域的大拇指的覆盖区域和B1区域、B3区域的覆盖区域的叠加,完成了手机UI界面元素布局的全覆盖。
如图8所示,本发明第三实施例提出一种移动终端,本实施例与第二实施例大致相同,其区别在于,本实施例的移动终端进一步还包括:触控有效定义模块35以及响应模块36。
本实施例中,在映射模块32完成映射之后,用户输入模块33还接收用户输入的针对第二触控屏幕的触控操作。
在用户输入模块33接收到针对第二触控屏幕的触控操作之后,触控有效定义模块35则判断用户输入模块33接收到的针对第二触控屏幕的覆盖区域的触控操作是否有效。设置触控有效定义模块35的原因是:由于用户手持移动终端时,多个手指握持移动终端的第二触控屏幕,为了避免误操作,特设置触控有效定义模块35来定义对第二触控屏幕的有效触控操作。
触控有效定义模块35在判断用户输入模块33接收到的针对第二触控屏幕的触控操作是否有效时,例如可定义只有用户双击第二触控屏幕的操作才是有效的触控操作;或者触控有效定义模块35可以基于压力传感器来判断,当用户针对第二触控屏幕的触控操作的触压力度大于一定阈值的时才定义为有效的触控操作。
响应模块36,用于在触控有效定义模块35判断用户针对第二触控屏幕的覆盖区域的触控操作有效时,根据映射模块32的映射结果,即将所述第一触控屏幕上的覆盖盲区的显示内容映射至所述第二触控屏幕上的覆盖区域,执行第一触控屏幕上的覆盖盲区的触控响应。
本发明实施例的移动终端,在第二触控屏幕的覆盖区域接收到有效的触控操作时,执行所述第一触控屏幕上的覆盖盲区的触控响应。即是说,本发明实施例中将对第一触控屏幕上的覆盖盲区的触控操作通过第二触控屏幕上的覆盖区域来完成,从而实现了用户对第一触控屏幕上的覆盖盲区的触控操作,解决了现有技术中用户单手握持大屏智能手机时不能操控手机全部触控区域的问题,优化了大屏智能手机的触控操作,提升了用户体验。
相应地,本发明进一步提供一种触控操作方法,可以应用于包括第一触控屏幕和第二触控屏幕的移动终端中。其中,第一触控屏幕用于显示用户界面,第二触控屏幕与第一触控屏幕相对设置,即第二触控屏幕位于移动终端的背面。其中,第二触控屏幕可以是普通的触控屏,也可以只是单纯的触控面板(即只响应触摸信号,不显示图像)。下面,将通过图9至图11对本发明提供的触控操作方法进行详细描述。
参照图9,图9是本发明第四实施例提出的触控操作方法的流程示意图。如图9所示,本发明实施例的触控操作方法,包括:
S901,识别第一触控屏幕上的覆盖盲区和第二触控屏幕上的覆盖区域。
S902,将第一触控屏幕上的覆盖盲区的显示内容映射至第二触控屏幕上的覆盖区域,以使在触控第二触控屏幕上的覆盖区域时执行第一触控屏幕上的覆盖盲区的触控响应。
S901中,覆盖区域是用户可触控操作的区域。当移动终端的触控屏幕太大时,若用户单手握持该移动终端,则只能够操控该触控屏幕的一部分。在本发明中,将用户可操控触控屏幕的区域称为覆盖区域,相应地,将用户不能操控的触控屏幕的区域称为覆盖盲区。由于该移动终端有两块屏幕,即第一触控触控屏幕和第二触控屏幕且第一触控屏幕用于显示用户界面,因此第一触控屏幕存在覆盖区域和覆盖盲区,第二触控屏幕存在覆盖区域,可能会存在覆盖盲区。
S902中,在识别第一触控屏幕上的覆盖区域之后,相应地,则能够获知第一触控屏幕上的覆盖盲区。此时,执行映射操作,将第一触控屏幕上的覆盖盲区的显示内容映射至第二触控屏幕上的覆盖区域。这样映射的目的时,使得用户在对第二触控屏幕上的覆盖区域执行触控操作时,能够将相应的触控操作映射至第一触控屏幕上的覆盖盲区。通俗地说,就是将对第一触控屏幕上的覆盖盲区的触控操作通过第二触控屏幕上的覆盖区域来完成,从而实现对第一触控屏幕上的覆盖盲区的触控操作。
需要说明的是,由于第一触控屏幕和第二触控屏幕的大小可能不相等,同时第一触控屏幕上的覆盖盲区与第二触控屏幕上的覆盖区域也可能不相等。因此,在将第一触控屏幕上的覆盖盲区的显示内容映射至第二触控屏幕上的覆盖区域时,可以按照预设比例进行映射,以保证能够将第一触控屏幕上的覆盖盲区对应的显示内容(如用户界面)能够全部映射至第二触控屏幕上的覆盖区域。其中,预设比例可根据实际情况中第一触控屏幕的覆盖盲区与第二触控屏幕的覆盖区域具体设定。
本发明实施例提供的触控操作方法,通过识别第一触控屏幕上的覆盖区域和第二触控屏幕的覆盖区域,并将第一触控屏幕上的覆盖盲区的显示内容映射至第二触控屏幕上的覆盖区域。这样,使得用户在触控第二触控屏幕上的覆盖区域时,移动终端执行第一触控屏幕上的覆盖盲区的触控响应。即是说,本发明实施例的触控操作方法,将对移动终端上第一触控屏幕上的覆盖盲区的触控操作通过第二触控屏幕上的覆盖区域来完成,从而实现了用户对第一触控屏幕上的覆盖盲区的触控操作,解决了现有技术中用户单手握持大屏移动终端时不能操控移动终端全部触控区域的问题,优化了大屏移动终端的触控操作,提升了用户体验。
如图10所示,本发明第五实施例提出一种触控操作方法,本发明实施例的触控操作方法与第四实施例的触控操作方法相比,包括与步骤S901至S902相同的步骤S1001至S1002。与第四实施例的触控操作方法相比,在步骤S1001之前,即识别第一触控屏幕上的覆盖盲区和第二触控屏幕的覆盖区域之前本发明实施例的触控操作方法还包括:
S1003,感测移动终端当前的屏幕状态;该移动终端的屏幕状态包括:横屏状态和竖屏状态。
S1003中,一般地,当用户横向握持移动终端时,移动终端处于横屏状态;当用户竖向握持移动终端时,移动终端处于竖屏状态。具体实现中,可通过移动终端的感测单元140来感测其屏幕状态。感测单元140具体可以由传感器实现其感测功能,达到感测移动终端的屏幕状态的目的。
S1004,输出提示信号,该提示信号用于提示用户在第一触控屏幕上和第二触控屏幕进行覆盖区域输入操作。
S1004中,在感测到移动终端当前的屏幕状态之后,移动终端即可输出提示信号,以提示用户当前可在第一触控屏幕上和第二触控屏幕进行覆盖区域输入操作。在输出提示信号时,可以以动画的形式提示用户分别在第一触控屏幕和第二触控屏幕上进行输入覆盖区域的操作。用户可根据提示信号的提示,分别在第一触控屏幕和第二触控屏幕上进行覆盖区域输入操作。
S1005,接收用户在第一触控屏幕上和第二触控屏幕上的覆盖区域输入操作。
S1005中,在用户执行覆盖区域输入操作之后,则接收用户输入的其在第一触控屏幕上和第二触控屏幕上的覆盖区域输入操作,并对接收到的覆盖区域输入操作进行识别(S1001),以得到第一触控屏幕上的覆盖区域和第二触控屏幕上的覆盖区域,以及根据识别结果进行相应的映射处理(S1002)。在S1001中对覆盖区域进行识别时,还参考移动终端当前的屏幕状态。参考移动终端屏幕状态的目的是:确定屏幕的区域划分是按照上下划分还是左右划分。
下面,将列举具体的应用场景来详细描述上述的触控操作方法。在具体的应用场景中,例如将移动终端,如大屏手机的正面屏幕(即第一触控屏幕)设为A面,将大屏手机的背面屏幕(即第二触控屏幕)设为B面。
应用场景一:
当用户单手竖向握持手机时,感测到手机当前处于竖屏状态。此时大屏手机以动画形式提示用户在A面用大拇指划出其能触控的覆盖区域。用户在A面进行覆盖区域输入操作,如用户从A面的右侧至屏幕底端划出一道弧线,如图5所示。此时A面被划分为两个区域,即弧线上方区域为A1和弧线下方区域为A2。用户在A面输入覆盖区域之后,大屏手机以动画形式提示用户在B面用食指划出其能触控的覆盖区域。此时用户在B面进行覆盖区域输入操作,如用户从B面屏幕的右侧至屏幕左侧划出一道弧线,如图6所示。此时B面被划分为两个区域,即弧线上方区域为B1,弧线下方区域为B2。
在接收到用户的覆盖区域输入操作之后,则对输入操作进行识别,即对两块触控屏幕的覆盖区域进行识别。在对两块触控屏幕的覆盖区域进行识别时,还参考移动终端的屏幕状态。此时,由于感测到手机处于竖屏状态,因此识别此时A面屏幕被分为两个区域,并且由于用户大拇指覆盖率最高的区域是A2区域,因此识别到A2区域是第一触控屏幕的覆盖区域,相应地A1区域是第一触控屏幕的覆盖盲区。并且,识别此时B面屏幕被分为两个区域,并且由于用户的食指在手机背部可活动,该食指覆盖率最高的区域是B1区域,因此识别B1区域是第二触控屏幕的覆盖区域,相应地,B2区域是第一触控屏幕的覆盖盲区。
在识别两块触控屏幕的覆盖区域之后,会根据识别结果进行相应的映射处理。在映射过程中,此时具体将A1区域的显示内容,如应用图标或菜单项映射到B1区域。并且,由于A1区域和B1区域面积不一定相同,因此映射时具体是将A1区域的应用图标或菜单项按预设比例映射到B1区域。此时,若用户在B1区域进行触控操作,则手机执行对应至A1区域的触控操作的响应,从而解决了A1区域的交互元素难以在单手情况下被点击的问题。即通过A2区域的大拇指的覆盖区域和B1区域食指的覆盖区域的叠加,完成了手机UI界面元素布局的全覆盖。
需要说明的是,当用户竖向单手倒着握持手机时(即用户上下颠倒握持手机),由于手机具备自动旋转功能,因此手机的UI界面会随着用户握持方向变化而自动调整,所以会有此使用场景的发生。在此场景下,识别到A面的覆盖区域为A1区域,覆盖盲区为A2区域;B面的覆盖区域为B2区域,覆盖盲区为B1。因此,在映射时,具体是将A2区域的应用图标或菜单项按预设比例映射到B2区域,基本方案与上述内容类似,这里不再赘述。
应用场景二:
当用户单手横向握持手机时,由于手机的形状基本上都为长方形,基本上用户的食指在B面和大拇指在A面的活动区域类似,因此用户输入的覆盖区域与应用场景一的划分方式不同:即覆盖区域的划分由上下区域变为左右区域。
具体地,当感测到手机当前处于横屏状态时,则以动画形式提示用户在A面用大拇指划出其能触控的覆盖区域,在B面用食指划出其能触控的覆盖区域。用户在A面和B面分别进行覆盖区域输入操作,假设用户的大拇指在A面的覆盖区域为A1区域,此时A面的覆盖盲区为A2区域。用户的食指在B面的覆盖区域为B1区域,那么相应地,大屏手机识别到A面的覆盖区域为A1区域,覆盖盲区为A2,B面的覆盖区域为B1区域,进而在进行映射时,具体是将A2区域的应用图标或菜单项按预设比例映射到B1区域。此时,若用户在B1区域进行触控操作,则手机执行对应至A2区域的触控操作的响应,从而解决了A2区域的交互元素难以在单手情况下被点击的问题。即通过A1区域的大拇指的覆盖区域和B1区域食指的覆盖区域的叠加,完成了手机UI界面元素布局的全覆盖。
应用场景三:
当用户单手竖向握手机中间部分时,若手机的屏幕较大,用户的大拇指很可能上部分屏幕和下部分屏幕均覆盖不到(仅能覆盖中间的一段屏幕),此时,用户在A面进行覆盖区域输入操作之后,移动终端识别到A面屏幕被划分成如图7所示的三个区域A1、A2、A3。其中A1区域和A3区域是用户大拇指无法覆盖到的区域,即A1区域和A3区域是A面的覆盖盲区,A2区域是用户能覆盖的中间一段屏幕(为了简化区域划分,将包含大拇指滑动弧线的长方形作为A2区域),即A2区域是A面的覆盖区域。同时,用户在B面进行覆盖区域输入操作之后,B面屏幕被划分成B1区域和B3两个区域,分别与A1和A3区域对应。在识别到两块触控屏幕的覆盖区域之后,具体是按预设比例将A1区域的交互界面(如应用图标或菜单项)映射至B1区域。此时,若用户在B1区域进行触控操作,则手机执行对应至A1区域的触控操作的响应,用户在B3区域进行触控操作,则手机执行对应至A3区域的触控操作的响应,从而解决了A1区域、A3区域的交互元素难以在单手情况下被点击的问题。即通过A2区域的大拇指的覆盖区域和B1区域、B3区域的覆盖区域的叠加,完成了手机UI界面元素布局的全覆盖。
如图11,本发明第六实施例提出一种触控操作方法,本发明实施例的触控操作方法与第五实施例的触控操作方法相比,包括与步骤S1001至S1005相同的步骤S1101至S1105。与第五实施例的触控操作方法相比,在步骤S1102之后,即将第一触控屏幕上的覆盖盲区的显示内容映射至第二触控屏幕上的覆盖区域之后,本发明实施例的触控操作方法还包括:
S1106,接收用户输入的针对第二触控屏幕的覆盖区域的触控操作。
S1107,判断接收的针对第二触控屏幕的覆盖区域的触控操作是否有效。
S1108,当判断结果为是时,执行第一触控屏幕上的覆盖盲区的触控响应。
S1107中,判断针对第二触控屏幕的覆盖区域的触控操作是否有效的原因是:由于用户手持移动终端时,多个手指握持移动终端的第二触控屏幕,为了避免误操作,需对第二触控屏幕的触控操作进行有效性判断。
具体地,在判断接收到的针对第二触控屏幕的触控操作是否有效时,例如可定义只有用户双击第二触控屏幕的操作才是有效的触控操作;或者可以基于压力传感器来判断,当用户针对第二触控屏幕的触控操作的触压力度大于一定阈值的时才定义为有效的触控操作。本步骤中,若判断结果为是,则进入S1108,若判断结果为否,则直接结束流程。
本发明实施例的触控操作方法,在第二触控屏幕的覆盖区域接收到有效的触控操作时,执行所述第一触控屏幕上的覆盖盲区的触控响应。即是说,本发明实施例中将对第一触控屏幕上的覆盖盲区的触控操作通过第二触控屏幕上的覆盖区域来完成,从而实现了用户对第一触控屏幕上的覆盖盲区的触控操作,解决了现有技术中用户单手握持大屏智能手机时不能操控手机全部触控区域的问题,优化了大屏智能手机的触控操作,提升了用户体验。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种移动终端,包括第一触控屏幕和第二触控屏幕,其特征在于,所述移动终端包括:
区域识别模块,用于识别所述第一触控屏幕上的覆盖区域和所述第二触控屏幕上的覆盖区域;
映射模块,用于在所述区域识别模块识别到所述第一触控屏幕上的覆盖区域之后,将所述第一触控屏幕上的覆盖盲区的显示内容映射至所述第二触控屏幕上的覆盖区域,以使在触控所述第二触控屏幕上的覆盖区域时执行所述第一触控屏幕上的覆盖盲区的触控响应。
2.根据权利要求1所述的移动终端,其特征在于,所述移动终端还包括:
用户输入模块,用于接收用户在所述第一触控屏幕上和所述第二触控屏幕上的覆盖区域输入操作;
所述区域识别模块,具体用于根据所述用户输入模块接收到的所述覆盖区域输入操作,识别所述第一触控屏幕上的覆盖区域和所述第二触控屏幕上的覆盖区域。
3.根据权利要求2所述的移动终端,其特征在于,所述移动终端还包括:
感测模块,用于感测所述移动终端当前的屏幕状态;所述屏幕状态包括:横屏状态和竖屏状态;
所述用户输入模块,还用于根据所述感测模块感测到的所述移动终端当前的屏幕状态之后,输出提示信号,所述提示信号用户提示用户在所述第一触控屏幕上和所述第二触控屏幕上进行覆盖区域输入操作;
所述区域识别模块,具体用于根据所述感测模块感测到的所述移动终端的屏幕状态和所述用户输入模块接收到的所述覆盖区域输入操作,识别所述第一触控屏幕上的覆盖区域和所述第二触控屏幕上的覆盖区域。
4.根据权利要求2所述的移动终端,其特征在于,
所述用户输入模块,还用于接收用户输入的针对所述第二触控屏幕的覆盖区域的触控操作;
所述移动终端还包括:
触控有效定义模块,用于判断所述用户输入模块接收到的针对所述第二触控屏幕的触控操作是否有效;
响应模块,用于在所述第二触控屏幕触控定义模块判断所述触控操作有效时,执行所述第一触控屏幕上的覆盖盲区的触控响应。
5.根据权利要求1至3中任一项所述的移动终端,其特征在于,
所述映射模块,具体用于按照预设比例将所述第一触控屏幕上的覆盖盲区的显示内容映射至所述第二触控屏幕上的覆盖区域。
6.一种触控操作方法,应用于移动终端,该移动终端包括:第一触控屏幕和第二触控屏幕,其特征在于,所述方法包括:
识别所述第一触控屏幕上的覆盖盲区和所述第二触控屏幕上的覆盖区域;
将所述第一触控屏幕上的覆盖盲区的显示内容映射至所述第二触控屏幕上的覆盖区域,以使在触控所述第二触控屏幕上的覆盖区域时执行所述第一触控屏幕上的覆盖盲区的触控响应。
7.根据权利要求6所述的触控操作方法,其特征在于,在所述识别所述第一触控屏幕上的覆盖盲区和所述第二触控屏幕上的覆盖区域之前,所述方法还包括:
接收用户在所述第一触控屏幕上和所述第二触控屏幕上的覆盖区域输入操作;
所述识别所述第一触控屏幕上的覆盖盲区和所述第二触控屏幕上的覆盖区域,包括:
根据接收到的所述覆盖区域输入操作,识别所述第一触控屏幕上的覆盖区域和所述第二触控屏幕上的覆盖区域。
8.根据权利要求7所述的触控操作方法,其特征在于,在所述接收用户在所述第一触控屏幕上和所述第二触控屏幕上的覆盖区域输入操作之前,所述方法还包括:
感测所述移动终端当前的屏幕状态;所述屏幕状态包括:横屏状态和竖屏状态;以及,
输出提示信号,所述提示信号用于提示用户在所述第一触控屏幕上和所述第二触控屏幕进行覆盖区域输入操作。
9.根据权利要求7所述的触控操作方法,其特征在于,在所述将所述第一触控屏幕上的覆盖盲区的显示内容映射至所述第二触控屏幕上的覆盖区域之后,所述方法还包括:
接收用户输入的针对所述第二触控屏幕的覆盖区域的触控操作;
判断接收到的所述针对所述第二触控屏幕的覆盖区域的触控操作是否有效;以及
当判断结果为是时,执行所述第一触控屏幕上的覆盖盲区的触控响应。
10.根据权利要求6至8中任一项所述的触控操作方法,其特征在于,所述将所述第一触控屏幕上的覆盖盲区的显示内容映射至所述第二触控屏幕上的覆盖区域,具包括:
按照预设比例将所述第一触控屏幕上的覆盖盲区的显示内容映射至所述第二触控屏幕上的覆盖区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610474109.8A CN105867746A (zh) | 2016-06-24 | 2016-06-24 | 一种触控操作方法及移动终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610474109.8A CN105867746A (zh) | 2016-06-24 | 2016-06-24 | 一种触控操作方法及移动终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105867746A true CN105867746A (zh) | 2016-08-17 |
Family
ID=56655122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610474109.8A Pending CN105867746A (zh) | 2016-06-24 | 2016-06-24 | 一种触控操作方法及移动终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105867746A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106648236A (zh) * | 2016-12-20 | 2017-05-10 | 上海天马微电子有限公司 | 一种触控显示面板以及触控显示装置 |
CN107613077A (zh) * | 2017-10-16 | 2018-01-19 | 白海燕 | 一种控制手机屏幕的方法 |
WO2018040502A1 (zh) * | 2016-08-31 | 2018-03-08 | 中兴通讯股份有限公司 | 屏幕操控方法、装置、终端及计算机存储介质 |
CN108196748A (zh) * | 2017-12-28 | 2018-06-22 | 努比亚技术有限公司 | 终端显示控制方法、终端及计算机可读存储介质 |
CN108205430A (zh) * | 2017-11-01 | 2018-06-26 | 中兴通讯股份有限公司 | 双屏移动终端、相应操控方法及存储介质 |
CN108319422A (zh) * | 2017-01-18 | 2018-07-24 | 中兴通讯股份有限公司 | 一种多屏互动触控显示方法、装置、存储介质和终端 |
CN109117073A (zh) * | 2018-07-27 | 2019-01-01 | 努比亚技术有限公司 | 一种终端显示控制方法、终端及计算机可读存储介质 |
CN112198929A (zh) * | 2020-09-30 | 2021-01-08 | 联想(北京)有限公司 | 一种控制方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120084712A1 (en) * | 2010-10-01 | 2012-04-05 | Imerj LLC | Keeping focus at the top of the device when in landscape orientation |
CN104750188A (zh) * | 2015-03-26 | 2015-07-01 | 小米科技有限责任公司 | 移动终端 |
CN105183363A (zh) * | 2015-09-29 | 2015-12-23 | 努比亚技术有限公司 | 一种终端及基于压力传感器的触控方法 |
CN105528148A (zh) * | 2014-09-29 | 2016-04-27 | 北京展讯高科通信技术有限公司 | 移动终端及其操作方法及装置 |
-
2016
- 2016-06-24 CN CN201610474109.8A patent/CN105867746A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120084712A1 (en) * | 2010-10-01 | 2012-04-05 | Imerj LLC | Keeping focus at the top of the device when in landscape orientation |
CN105528148A (zh) * | 2014-09-29 | 2016-04-27 | 北京展讯高科通信技术有限公司 | 移动终端及其操作方法及装置 |
CN104750188A (zh) * | 2015-03-26 | 2015-07-01 | 小米科技有限责任公司 | 移动终端 |
CN105183363A (zh) * | 2015-09-29 | 2015-12-23 | 努比亚技术有限公司 | 一种终端及基于压力传感器的触控方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018040502A1 (zh) * | 2016-08-31 | 2018-03-08 | 中兴通讯股份有限公司 | 屏幕操控方法、装置、终端及计算机存储介质 |
CN107797747A (zh) * | 2016-08-31 | 2018-03-13 | 中兴通讯股份有限公司 | 一种基于多屏的屏幕操控方法、装置和终端 |
CN106648236A (zh) * | 2016-12-20 | 2017-05-10 | 上海天马微电子有限公司 | 一种触控显示面板以及触控显示装置 |
CN108319422A (zh) * | 2017-01-18 | 2018-07-24 | 中兴通讯股份有限公司 | 一种多屏互动触控显示方法、装置、存储介质和终端 |
CN107613077A (zh) * | 2017-10-16 | 2018-01-19 | 白海燕 | 一种控制手机屏幕的方法 |
CN108205430A (zh) * | 2017-11-01 | 2018-06-26 | 中兴通讯股份有限公司 | 双屏移动终端、相应操控方法及存储介质 |
CN108196748A (zh) * | 2017-12-28 | 2018-06-22 | 努比亚技术有限公司 | 终端显示控制方法、终端及计算机可读存储介质 |
CN109117073A (zh) * | 2018-07-27 | 2019-01-01 | 努比亚技术有限公司 | 一种终端显示控制方法、终端及计算机可读存储介质 |
CN109117073B (zh) * | 2018-07-27 | 2021-10-15 | 努比亚技术有限公司 | 一种终端显示控制方法、终端及计算机可读存储介质 |
CN112198929A (zh) * | 2020-09-30 | 2021-01-08 | 联想(北京)有限公司 | 一种控制方法及装置 |
CN112198929B (zh) * | 2020-09-30 | 2023-09-22 | 联想(北京)有限公司 | 一种控制方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105867746A (zh) | 一种触控操作方法及移动终端 | |
CN104808912B (zh) | 输入界面调整方法和装置 | |
CN105843508B (zh) | 移动终端及其截屏方法 | |
CN105739854B (zh) | 交互信息处理方法及装置 | |
CN104767889B (zh) | 屏幕状态控制方法及装置 | |
CN106547446A (zh) | 应用切换装置和方法 | |
CN106933489A (zh) | 防止屏幕误操作的方法及装置 | |
CN104205047A (zh) | 用于提供远程用户交互的装置和方法 | |
CN103716453A (zh) | 移动终端以及移动终端的控制方法 | |
CN105867728B (zh) | 一种人机界面显示系统和方法 | |
CN106843724A (zh) | 一种移动终端屏幕防误触装置及方法、移动终端 | |
CN106775266A (zh) | 移动终端及移动终端通知栏防误触的方法 | |
CN107132977A (zh) | 一种触屏边缘滑动的快捷操作方法及其装置 | |
CN105094543B (zh) | 终端操作指令输入方法及装置 | |
CN103377026A (zh) | 快捷面板显示方法及装置 | |
CN106873895A (zh) | 一种边缘手势操作的实现方法及装置 | |
CN106066766A (zh) | 一种移动终端及其控制方法 | |
CN107908355A (zh) | 移动终端的触控方法、移动终端及存储介质 | |
CN107656793A (zh) | 一种应用程序界面切换方法及移动终端 | |
CN104820546B (zh) | 功能信息展示方法和装置 | |
CN106488008A (zh) | 一种语音通话控制装置及其方法、移动终端 | |
CN106383661A (zh) | 移动终端及移动终端解锁防误触的方法 | |
CN106775345A (zh) | 移动终端亮屏控制装置及方法 | |
CN105357381A (zh) | 一种终端操作方法和智能终端 | |
CN107132967A (zh) | 一种应用的启动方法及装置、存储介质、终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160817 |