CN105511675A - 触摸控制方法、用户设备、输入处理方法、移动终端及智能终端 - Google Patents

触摸控制方法、用户设备、输入处理方法、移动终端及智能终端 Download PDF

Info

Publication number
CN105511675A
CN105511675A CN201510896531.8A CN201510896531A CN105511675A CN 105511675 A CN105511675 A CN 105511675A CN 201510896531 A CN201510896531 A CN 201510896531A CN 105511675 A CN105511675 A CN 105511675A
Authority
CN
China
Prior art keywords
touch
incoming event
edge
module
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510896531.8A
Other languages
English (en)
Other versions
CN105511675B (zh
Inventor
李鑫
迟建华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing orange Technology Development Co., Ltd
Original Assignee
Nubia Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nubia Technology Co Ltd filed Critical Nubia Technology Co Ltd
Priority to CN201510896531.8A priority Critical patent/CN105511675B/zh
Publication of CN105511675A publication Critical patent/CN105511675A/zh
Priority to PCT/CN2016/106171 priority patent/WO2017097097A1/zh
Priority to US15/781,955 priority patent/US20180364865A1/en
Application granted granted Critical
Publication of CN105511675B publication Critical patent/CN105511675B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种触摸控制方法、用户设备、输入处理方法、移动终端及智能终端,所述触摸控制方法包括:检测产生于触摸面板上的触摸信号;根据触摸信号识别触摸点;检测移动终端的分屏状态及旋转角度;根据识别出的触摸点、旋转角度及分屏状态,判断触摸点是位于第一显示区域的边缘触摸区域或正常触摸区域,还是位于第二显示区域的边缘触摸区域或正常触摸区域;基于判断结果执行相应的指令。实施本发明的有益效果是,可实现根据触摸屏的旋转及分屏状态,相应的变换边缘触摸区域,提高用户体验;在应用框架层才进行区分A区和C区的操作,且在应用框架层进行虚拟设备的建立,避免了在驱动层区分A区和C区对硬件的依赖;可兼容A协议和B协议。

Description

触摸控制方法、用户设备、输入处理方法、移动终端及智能终端
技术领域
本发明涉及通讯领域,更具体地说,涉及一种触摸控制方法、用户设备、输入处理方法、移动终端及智能终端。
背景技术
随着移动终端技术的发展,终端边框越做越窄。为了改善用户的输入体验,边缘输入技术(例如,边缘触控)应运而生。
现有技术的边缘输入,当检测触摸点信息(touchinfo)后,在驱动层即根据触摸点信息判断触控是否发生在边缘输入的区域。
然而,在实际中由于输入芯片存在多样性,驱动层获取触摸点信息的方法也都带有极强的针对性,这就导致在判断事件类型(是否为边缘输入事件)时,需要对各款输入芯片做差异化的修改和移植,工作量较大且容易出错。
另一方面,驱动层在上报事件时,可以选择A协议或者B协议两种实现方式,其中B协议会区分手指ID。而边缘输入的实现需要依赖手指ID,在多点输入时用于对比同一手指前后两次点击的数据。因此,现有技术的输入方案仅能支持B协议,而采用A协议的驱动则不能得到支持。
再者,现有技术中,边缘触摸区域是固定的,当移动终端的显示屏发生分屏时,边缘触摸区域不能适应性的变换以便分别对不同的显示区域进行控制。
因此,现有技术存在缺陷,需要改进。
发明内容
本发明要解决的技术问题在于,针对现有技术的上述移动终端的边缘触摸方式不能适应分屏的缺陷,提供一种触摸控制方法、用户设备、输入处理方法、移动终端及智能终端。
本发明解决其技术问题所采用的技术方案是:
第一方面,提供一种触摸控制方法,应用于移动终端,所述移动终端包括第一显示区域和第二显示区域,包括:
检测产生于触摸面板上的触摸信号;
根据触摸信号识别触摸点;
检测所述移动终端的分屏状态及旋转角度;
根据识别出的触摸点、所述旋转角度及分屏状态,判断触摸点是位于第一显示区域的边缘触摸区域或正常触摸区域,还是位于第二显示区域的边缘触摸区域或正常触摸区域;
基于判断结果执行相应的指令。
在一个实施例中,所述旋转角度包括:旋转0度、顺时针旋转90度、顺时针旋转180度、顺时针旋转270度、逆时针旋转90度、逆时针旋转180度和逆时针旋转270度。
在一个实施例中,所述分屏状态包括:上下分屏和左右分屏。
第二方面,提供一种用户设备,所述用户设备包括第一显示区域和第二显示区域,包括:触摸屏、动作传感器和处理器;
触摸屏,包括:触摸面板和触摸控制器,其中:
触摸面板,用于检测产生于触摸面板上的触摸信号;
触摸控制器,用于根据触摸信号识别触摸点;
动作传感器,用于检测所述用户设备的旋转角度;
处理器,包括:驱动模块、应用框架模块和应用模块,其中:
所述驱动模块,用于根据所述触摸信号获取输入事件,并上报到所述应用框架模块;
所述应用框架模块,用于根据上报的输入事件的触摸点位置、所述移动终端旋转角度及分屏状态,判断触摸点是位于第一显示区域的边缘触摸区域或正常触摸区域,还是位于第二显示区域的边缘触摸区域或正常触摸区域,并根据判断结果进行识别以及将识别结果上报给应用模块;
应用模块,用于基于判断结果执行相应的指令。
第三方面,提供一种输入处理方法,应用于移动终端,所述移动终端包括第一显示区域和第二显示区域,包括:
驱动层获取用户通过输入设备产生的输入事件,并上报到应用框架层;
应用框架层根据移动终端的端旋转角度、分屏状态和上报的输入事件,判断输入事件是位于第一显示区域的边缘输入事件或正常输入事件,还是位于第二显示区域的边缘输入事件或正常输入事件,并根据判断结果进行识别以及将识别结果上报给应用层;
应用层根据上报的识别结果执行相应的指令。
在一个实施例中,所述方法还包括:
为每一输入事件创建一具有设备标识的输入设备对象。
在一个实施例中,所述为每一输入事件创建一具有设备标识的输入设备对象包括:
将正常输入事件与具有第一设备标识的触摸屏相对应;
应用框架层设置一具有第二设备标识的第二输入设备对象与边缘输入事件相对应。
在一个实施例中,所述驱动层获取用户通过输入设备产生的输入事件,并上报到应用框架层包括:
所述驱动层为每一触摸点赋予一用于区分手指的编号,并采用A协议协议上报所述输入事件。
在一个实施例中,所述驱动层获取用户通过输入设备产生的输入事件,并上报到应用框架层包括:
所述驱动层采用B协议上报所述输入事件;
所述方法还包括:
所述应用框架层为所述输入事件中的每一触摸点赋予用于区分手指的编号。
在一个实施例中,所述移动终端的当前状态包括:旋转0度、顺时针旋转90度、顺时针旋转180度、顺时针旋转270度、逆时针旋转90度、逆时针旋转180度和逆时针旋转270度。
在一个实施例中,分屏状态包括:上下分屏和左右分屏。
第四方面,提供一种移动终端,所述移动终端包括第一显示区域和第二显示区域,包括:
输入设备;
动作传感器,用于检测所述移动终端的当前状态;
驱动层,用于获取用户通过输入设备产生的输入事件,并上报到应用框架层;
应用框架层,用于根据移动终端的端旋转角度、分屏状态和上报的输入事件,判断输入事件是位于第一显示区域的边缘输入事件或正常输入事件,还是位于第二显示区域的边缘输入事件或正常输入事件,并根据判断结果进行识别以及将识别结果上报给应用层;
应用层,用于根据上报的识别结果执行相应的指令。
在一个实施例中,所述正常输入事件与具有第一设备标识的第一输入设备对象相对应;
所述应用框架层还用于设置一具有第二设备标识的第二输入设备对象,用于与所述边缘输入事件相对应。
在一个实施例中,所述驱动层采用A协议或B协议上报输入事件,若采用A协议上报输入事件,则所述事件获取模块还用于为每一触摸点赋予一用于区分手指的编号;
若采用B协议上报输入事件,则所述应用框架层还用于为每一触摸点赋予用于区分手指的编号。
在一个实施例中,所述驱动层包括事件获取模块,用于获取用户通过输入设备产生的输入事件。
在一个实施例中,所述应用框架层包括输入读取器;
所述移动终端还包括设置于所述驱动层和所述输入读取器间的设备节点,用于通知所述输入读取器获取输入事件;
所述输入读取器,用于遍历设备节点,获取输入事件并上报。
在一个实施例中,所述移动终端的当前状态包括:旋转0度、顺时针旋转90度、顺时针旋转180度、顺时针旋转270度、逆时针旋转90度、逆时针旋转180度和逆时针旋转270度。
在一个实施例中,所述应用框架层还包括:第一事件处理模块,用于对所述输入读取器上报的输入事件进行坐标计算后上报;
第一判断模块,用于根据所述移动终端的当前状态和所述第一事件处理模块上报的坐标值判断输入事件是否为边缘输入事件,若不是则将输入事件上报。
在一个实施例中,所述应用框架层还包括:
第二事件处理模块,用于对所述输入读取器上报的输入事件进行坐标计算后上报;
第二判断模块,用于根据所述移动终端的当前状态和所述第二事件处理模块上报的坐标值判断输入事件是否为边缘输入事件,若是则将输入事件上报。
在一个实施例中,分屏状态包括:上下分屏和左右分屏。
在一个实施例中,所述应用框架层还包括:
事件派发模块,用于将所述第二判断模块和所述第一判断模块上报的事件进行上报。
在一个实施例中,所述应用框架层还包括:
第一应用模块;
第二应用模块;
第三判断模块,用于根据所述事件派发模块上报的事件中包含的设备标识判断事件是否为边缘输入事件,若属于,则上报给所述第一应用模块,否则上报给当所述第二应用模块;
所述第一应用模块,用于根据正常输入事件的相关参数对正常输入事件进行识别并将识别结果上报到应用层;
所述第二应用模块,用于根据边缘输入事件的相关参数对边缘输入事件进行识别并将识别结果上报的应用层。
在一个实施例中,所述输入设备为移动终端的触摸屏;
所述触摸屏包括至少一个边缘输入区和至少一个正常输入区。
在一个实施例中,所述输入设备为移动终端的触摸屏;
所述触摸屏包括至少一个边缘输入区、至少一个正常输入区和至少一个过渡区。
第五方面,提供一种具有通讯功能的智能终端,所述智能终端包括第一显示区域和第二显示区域,还包括:触摸屏、动作传感器和处理器;
触摸屏,包括:触摸面板和触摸控制器,其中:
触摸面板,用于检测产生于触摸面板上的触摸信号;
触摸控制器,用于根据触摸信号识别触摸点;
动作传感器,用于检测所述用户设备的旋转角度;
处理器,包括:驱动模块、应用框架模块和应用模块,其中:
所述驱动模块,用于根据所述触摸信号获取输入事件,并上报到所述应用框架模块;
所述应用框架模块,用于根据上报的输入事件的触摸点位置、所述移动终端旋转角度及分屏状态,判断触摸点是位于第一显示区域的边缘触摸区域或正常触摸区域,还是位于第二显示区域的边缘触摸区域或正常触摸区域,并根据判断结果进行识别以及将识别结果上报给应用模块;
应用模块,用于基于判断结果执行相应的指令。
实施本发明的触摸控制方法、用户设备、输入处理方法、移动终端及智能终端,可实现根据触摸屏的旋转及分屏状态,相应的变换边缘触摸区域,以更好的适应用户的操作,提高用户体验;另一方面,由于在应用框架层才进行区分A区和C区的操作,且在应用框架层进行虚拟设备的建立,避免了在驱动层区分A区和C区对硬件的依赖;通过设置触摸点编号,可实现区分手指,兼容A协议和B协议;且可集成到移动终端的操作系统中,可适用不同硬件、不同种类的移动终端,可移植性好;触摸点的所有要素(触摸点的坐标、编号等)被存储,可后续判断边缘输入(例如,FIT)提供便利。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明一实施例的移动终端的硬件结构示意图;
图2是本发明第一实施例的移动终端的触摸屏区域划分示意图;
图3是本发明一实施例的移动终端的上下分屏示意图;
图4是本发明一实施例的触摸面板坐标示意图;
图5是本发明一实施例的移动终端的左右分屏示意图;
图6是本发明一实施例的触摸面板坐标示意图;
图7是本发明一实施例的触摸面板坐标示意图;
图8是本发明一实施例的触摸面板坐标示意图;
图9是本发明实施例的触摸控制方法的流程示意图;
图10是本发明一实施例的移动终端的软件架构示意图;
图11是本发明一实施例的移动终端的结构示意图;
图12是本发明实施例根据设备标识判断输入事件的流程示意图;
图13是本发明实施例的输入处理方法的流程图;
图14是利用本发明实施例的输入处理方法对旋转角度为0度时的上下分屏的移动终端的相机应用进行开启的效果示意图;
图15是本发明第二实施例的移动终端的触摸屏区域划分示意图;
图16是本发明一实施例的用户设备的硬件结构示意图。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图详细说明本发明的具体实施方式。
参见图1,本发明一实施例的移动终端包括:输入设备、处理器903和显示屏904。在一个实施例中,输入设备为触摸屏2010。触摸屏2010包括触摸面板901和触摸控制器902。此外,输入设备还可为非触摸式输入设备(例如,红外输入设备等)等。
触摸控制器902可以是单个专用集成电路(ASIC),其可以包括一个或多个处理器子系统,处理器子系统可以包括一个或多个ARM处理器或者其它具有类似功能和性能的处理器。
触摸控制器902主要用于接收产生于触摸面板901的触摸信号,并进行处理后传输给移动终端的处理器903。这种处理例如,为将物理输入信号进行模数转换、处理得到触摸点坐标、处理得到触摸持续时间等。
处理器903接收触摸控制器902的输出,进行处理后基于该输出执行动作。所述动作包括但不限于,移动诸如由表或指示符的对象、滚动或摇摄、调整控制设置、打开文件或文档、查看菜单、作为选择、执行指令、操作耦接到主机设备的外围设备、应答电话呼叫、拨打电话、终止电话呼叫、改变音量或音频设置、存储于电话通信相关的信息(例如,地址、常用号码、已接呼叫、未接呼叫)、登录计算机或计算机网络、允许授权个体访问计算机或计算机网络的受限区域、记载与计算机桌面的用户喜好配置相关联的用户简档、允许访问网络内容、启动特定程序、加密或解码消息,等等。
处理器903还与显示屏904连接。显示屏904用于向设备的用户提供UI。
在一些实施例中,处理器903可以是与触摸控制器902分开的部件。在其它实施例中,处理器903可以与触摸控制器902为一合成的部件。
在一个实施例中,触摸面板901设置有分立的电容性传感器、电阻性传感器、力传感器、光学传感器或类似传感器等。
触摸面板901内包括有由导电材料制成横向和纵向的电极阵列。对于一个M行和N列电极阵列的单点触摸屏(仅能确定单点触摸的坐标),触摸控制器902采用自电容扫描,则分别扫描M行和N列后就可以根据每一行和每一列信号来进行计算,定位手指在触摸屏上的坐标。扫描次数为M+N次。
对于一个M行和N列电极阵列的多触点触摸屏(能检测并解析多点的坐标,即多点触控),触摸控制器902采用多触点互电容扫描,对行和列的交叉点扫描,由此,扫描次数为M×N次。
当用户的手指触摸面板,触摸面板产生触摸信号(为电信号)发送给触摸控制器902。触摸控制器902通过扫描可以得到触摸点的坐标。在一个实施例中,触摸屏2010的触摸面板901在物理上是一套独立的坐标定位系统,每次触摸的触摸点坐标上报到处理器903后,由处理器903转换为适应于显示屏904的像素坐标,以正确识别输入操作。
参见图2为本发明第一实施例的触摸面板的区域划分示意图。在该实施例中,为了实现边缘防误触、且提供新的交互方式,将触摸屏的触摸面板划分为三个区域,其中,C区101为边缘输入区,A区100为正常输入区。
在本发明的实施例中,A区内的输入操作,按照现有的正常处理方式进行处理,例如,A区100内单击某应用图标即开启该应用等。对于C区101内的输入操作,可定义为边缘输入处理方式,例如,可定义C区101内双边滑动即进行终端加速等。
在本发明的实施例中,C区可采用固定方式划分或自定义划分。固定划分,即设置固定长度、固定宽带的区域作为C区101。C区101可包括位于触摸面板左侧的部分区域和右侧的部分区域,其位置固定设于触摸面板的两侧边缘,如图1所示。当然,也可仅在一侧边缘处划分C区101。
自定义划分,即C区101的区域的个数、位置及大小,可自定义的设置,例如,可由用户进行设定,也可由移动终端根据自身需求,调整C区101的区域的数量、位置及大小。通常,C区101的基本图形设计为矩形,只要输入图形对角的两个顶点坐标即可确定C区的位置和大小。
为满足不同用户对不同应用的使用习惯,还可设置应用于不同应用场景下的多套C区设置方案。例如,在系统桌面下,因为图标占位较多,两侧的C区宽度设置得相对较窄;而当点击相机图标进入相机应用后,可设置此场景下的C区数量、位置、大小,在不影响对焦的情况下,C区宽度可设置的相对较宽。
本发明实施例对C区的划分、设置方式不作限制。
参见图3,本发明实施例中的显示屏904被划分为第一显示区域9041和第二显示区域9042。第一显示区域9041和第二显示区域9042可为上下分屏显示、左右分屏显示和大小屏分屏显示。
具体的,分屏的实现方法为现有技术,在此不对其进行详细描述。
参见图4,触摸面板左上角T0被设置为坐标原点,坐标值为(0,0)。而触摸面板的右下角的坐标值为T7(W,H),其中,W为触摸面板的宽度,H为触摸面板的高度。
在本发明的一个实施例中,如上所述将触摸屏划分为A区和C区,A区和C区属于同一坐标系。当移动终端的触摸面板被划分为多个区域后,将坐标也对应进行划分。例如,若触摸面板的宽度为W,C区宽度为Wc,则将坐标位于T0、T1、T4和T5所限定的区域内的触摸点,和/或坐标位于T2、T3、T6和T7所限定的区域内的触摸点,定义为边缘触摸点;而将坐标位于T1、T2、T5和T6所限定的区域内的触摸点定义为正常触摸点。
当显示屏904被划分为第一显示区域和第二显示区域后,相应的触摸面板的A区和C区的划分也进行适应性的变换。具体的,参见图4,分屏后,将触摸面板的T0、T1、P1、P2所限定的第一边缘触摸区域和/或T2、T3、P3、P4所限定的第二边缘触摸区域作为第一显示区域的边缘触摸区。将P1、P2、T4、T5所限定的第四边缘触摸区域和/或P3、P4、T6、T7所限定的第五边缘触摸区域作为第二显示区域的边缘触摸区。
图4的边缘触摸区域的划分方式与显示屏904采用左右分屏方式相对应。其中,H1为第一显示区域的高度,H2为第二显示区域的高度。本发明实施例对H1和H2不进行大小限制,即第一显示区域和第二显示区域可为相同大小或不同大小。Wc1为第一显示区域的边缘触摸区域的宽度,Wc2为第二显示区域的边缘触摸区域的宽度。本发明实施例中Wc1和Wc2相等。
在本发明的实施例中,第一边缘触摸区域、第二边缘触摸区域、第三边缘触摸区域和第四边缘触摸区域分别对应有相应的触摸手势,以及与触摸手势对应的指令。例如,可设置在第一边缘触摸区域进行下滑操作,则对应的指令为开启应用1,在第三边缘触摸区域进行下滑操作,则对应的指令为开启应用2等。应理解,由于分屏后,第一显示区域和第二显示区域为两个独立的显示和控制区域,因此,可将第一显示区域的第一边缘触摸区域和第二显示区域的第三边缘触摸区域中的触摸手势和指令设置为不同,将将第一显示区域的第二边缘触摸区域和第二显示区域的第四边缘触摸区域中的触摸手势和指令设置为不同。此外,也可将第一显示区域和第二显示区域的触摸手势和指令设置为相同,以便于用户的记忆和操作。
参见图5,若显示屏904采用左右分屏的方式,则为了操作的方便,设置左右两侧的两个边缘触摸区域,分别与第一显示区域和第二显示区域相对应。具体的,参见图6,触摸面板上T0、T1、T4和T5所限定的区域为与第一显示区域对应的边缘触摸区域;T2、T3、T6和T7所限定的区域为与第二显示区域对应的边缘触摸区域。Wc3和Wc4分别为这两个边缘触摸区域的宽度。
若图3所示的移动终端顺时针旋转90度,则图4所示的触摸面板划分方式变换为图7所示的划分方式。具体的,T0、T3、P5和P6所限定的区域为与第一显示区域对应的边缘触摸区域(其宽度为Wc1)。T4、T7、P7和P8所限定的区域为与第二显示区域对应的边缘触摸区域(其宽度为Wc2)。
如图5所示的移动终端顺时针旋转90度,则图5所示的触摸面板划分方式变换为图8所示的划分方式,具体的,T0、P9、P15、P16所限定的区域和/或T4、P11、P14、P13所限定的区域为与第一显示区域对应的边缘触摸区域(其宽度为Wc3,高度为W1)。T3、P10、P15、P16所限定的区域和/或T7、P12、P14、P13所限定的区域为与第二显示区域对应的边缘触摸区域(其宽度为Wc4,高度为W2)。应理解,Wc3和Wc4可相等。W1和W2可自由设定其大小。
应理解,本发明实施例的各种分屏方式下的边缘触摸区域的划分可根据需求进行设置,不限于上述所述的划分方式。
如图7-图8所示的触摸屏状态,其触摸屏的坐标系均未发生改变,即无论移动终端的触摸屏处于上述图7-图8的任一状态或其它旋转角度的状态(这些旋转状态可由动作传感器906检测得到),触摸面板901接收到触摸信号时,触摸控制器902上报的触摸点的坐标都是按照同样的坐标系进行上报的,不会关注触摸屏的旋转状态。而由于触摸屏2010发生旋转后,显示屏904也相应的发生了旋转,处理器903将把触摸控制器902上报的坐标进行适应性的转换以适应显示屏904的像素坐标。存储器905中存储有旋转角度与转换方法之间的对应关系,这样的转换将在后续进行介绍。
参见图9,基于上述移动终端,本发明实施例的触摸控制方法包括以下步骤:
S100、检测产生于触摸面板上的触摸信号。
S101、根据触摸信号识别触摸点。
具体的,当手指或其它物体触摸面板产生触摸手势时,生成触摸信号,触摸控制器检测该信号,并通过扫描等方式获得触摸点的物理坐标。在本发明实施例中,采用如图4中所示的坐标系。
由上所述,本发明实施例的移动终端的触摸屏被划分为边缘触摸区和正常触摸区,因此,对不同区的触摸手势分别进行定义。在一个实施例中,正常触摸区的触摸手势包括:单击、双击、滑动等。边缘触摸区的触摸手势包括:左侧边缘上滑、左侧边缘下滑、右侧边缘上滑、右侧边缘下滑、双边上滑、双边下滑、握持手机四角、单边来回滑、握一握、单手握持等。
应理解,这里的“左侧”和“右侧”是相对而言的。
S102、检测移动终端的旋转角度及分屏状态,根据识别出的触摸点、所述旋转角度及分屏状态,判断触摸点是位于第一显示区域的边缘触摸区域或正常触摸区域,还是位于第二显示区域的边缘触摸区域或正常触摸区域。
具体的,移动终端的旋转角度可由动作传感器检测移动终端的旋转角度从而得出。移动终端发生旋转时,触摸屏和显示屏跟随其旋转。
在本发明的实施例中,用户可通过手动设置的方式对显示屏进行分屏,以将触摸屏划分为第一显示区域和第二显示区域。由此,分屏状态可由处理器通过检测到移动终端的相关设置参数获得。
处理器根据触摸控制器上报的物理坐标判断触摸点所属的区域。在本发明的实施例中,存储器中存储有各区域的坐标范围,具体的,可将图4、图6、图7和图8所示的相关点的坐标进行存储,由此,可根据这些存储的坐标区域触摸点所属的显示区域,和是处于正常触摸区域还是边缘触摸区域。
参见图4,“上下分屏方式时”:第一显示区域的边缘触摸区域的坐标范围为:坐标位于T0、T1、P1、P2所限定的区域内,和/或坐标位于T2、T3、P3、P4所限定的区域内。第一显示区域正常触摸区域的坐标范围为:坐标位于T1、T2、P3和P2所限定的区域内。
第二显示区域的边缘触摸区域的坐标范围为:坐标位于P1、P2、T4、T5所限定的区域内,和/或坐标位于P3、P4、T6、T7所限定的区域内。第二显示区域正常触摸区域的坐标范围为:坐标位于P2、T5、T6和P3所限定的区域内。参见图7,“上下分屏方式时”:当触摸屏发生顺时针90度旋转或顺时针270度旋转时,第一显示区域的边缘触摸区域的坐标范围为:坐标位于T0、T3、P5和P6所限定的区域内。第一显示区域正常触摸区域的坐标范围为:坐标位于P5、P5’、P6’和P6所限定的区域内。
第二显示区域的边缘触摸区域的坐标范围为:坐标位于T4、T7、P7和P8所限定的区域内。第二显示区域正常触摸区域的坐标范围为:坐标位于P5’、P6’、P7和P8所限定的区域内。
参见图6,“左右分屏方式时”:第一显示区域的边缘触摸区域的坐标范围为:坐标位于T0、T1、T4和T5所限定的区域内。第一显示区域正常触摸区域的坐标范围为:坐标位于T2’、T2、T6和T6’所限定的区域内。
第二显示区域的边缘触摸区域的坐标范围为:坐标位于T0、T1、T4和T5所限定的区域内,和/或坐标位于T2、T3、T6和T7所限定的区域内。第二显示区域正常触摸区域的坐标范围为:坐标位于T2’、T6’、T5和T1所限定的区域内。
参见图8,“左右分屏方式时”:当触摸屏发生顺时针90度旋转或顺时针270度旋转时,第一显示区域的边缘触摸区域的坐标范围为:坐标位于T0、P9、P15、P16所限定的区域内,和/或坐标位于T4、P11、P14、P13所限定的区域内。第一显示区域正常触摸区域的坐标范围为:坐标位于P9、P15、P14和P11所限定的区域内。
第二显示区域的边缘触摸区域的坐标范围为:坐标位于T3、P10、P15、P16所限定的区域内,和/或坐标位于T7、P12、P14、P13所限定的区域内。第二显示区域正常触摸区域的坐标范围为:坐标位于P16、P10、P12和P14所限定的区域内。
S103、基于判断结果执行相应的指令。
具体的,由于触摸面板的坐标和显示屏的坐标为两个独立的坐标系,因此,需要将触摸面板的物理坐标映射为显示屏的像素点坐标,以实现正确显示触点效果、识别触摸手势。具体的,转换规则为:
旋转角度为0,对于触摸点M,触摸控制器上报的坐标为(xc,,yc),则无需进行转换,即显示屏的坐标同样为(xc,,yc)。
旋转角度为顺时针90度时,对于触摸点M,触摸控制器上报的坐标为(xc,,yc),则转换后的坐标为(yc,W-xc)。
旋转角度为顺时针180度时,对于触摸点M,触摸控制器上报的坐标为(xc,,yc),则转换后的坐标为(W-xc,H-yc)。
旋转角度为顺时针270度时,对于触摸点M,触摸控制器上报的坐标为(xc,,yc),则转换后的坐标为(H-yc,xc)。
在本发明的实施例中,若处于分屏状态,则将为第一显示区域和第二显示区域分别建立一个坐标系。并将上报的坐标按比例转换为与该两个坐标系对应的坐标。例如,将移动终端的显示屏进行上下分屏,且第一显示区域和第二显示区域为相等大小,则上报的坐标若为(xc,yc)则将其缩小二分之一为(xc/2,yc/2)。缩小后即可判断其坐标是落入第一显示区域还是第二显示区域。
应理解,在本发明实施例中,应先进行旋转的坐标转换后,再进行分屏的坐标的转换,以确保准确。
应理解,上述转换规则是建立在显示屏坐标系的大小和触摸面板坐标系的大小相同的基础上的(例如,均为1080×1920像素),若显示屏的坐标系与触摸面板坐标系的大小不相同,则在经过上述转换后,还要调整为适应于显示屏的坐标,具体的,将触摸面板的坐标乘以相应的转换系数。转换系数即显示屏和触摸面板的大小的比值。例如,若触摸面板为720×1280,而显示屏为1080×1920,则显示屏和触摸面板的比值为1.5,由此,将上报的触摸面板的物理坐标的横坐标和纵坐标分别乘以1.5,原来为(xc,yc),则转换为显示屏坐标时则变为(1.5×xc,1.5×yc),或(1.5×yc,1.5×W-xc)等等。
坐标转换和调整后,即可实现准确的显示,识别出正确的触控手势,由此执行与触控手势对应的指令。在本发明的实施例中,触控手势与指令一一对应并存储于存储器中。
本发明实施例的触摸控制方法可实现根据触摸屏的旋转和显示屏的分屏状态相应的变换边缘触摸区域,以更好的适应用户的操作,提高用户体验。
参见图10,本发明一实施例的移动终端的软件架构示意图。本发明实施例的移动终端的软件架构包括:输入设备201、驱动层202、应用框架层203和应用层204。其中,驱动层202、应用框架层203和应用层204的功能由处理器903执行。在一个实施例中,输入设备201为包括触摸面板和触摸控制器的触摸屏。
输入设备201接收到用户的输入操作,将物理输入转变为触摸信号,将触摸信号传递至驱动层202;驱动层202对输入的位置进行解析,得到触摸点的具体坐标、持续时间等参数,将该参数上传至应用框架层203,应用框架层203与驱动层202的通信可通过相应的接口来实现。应用框架层203接收到驱动层202上报的参数,进行解析,区分边缘输入事件和正常输入事件,并将有效的输入向上传递给应用层204的具体哪一个应用,以满足应用层204根据不同的输入操作执行不同的输入操作指令。
参见图11,为本发明一实施例的移动终端的结构示意图。在本发明的一个实施例中,输入设备包括上述所述的触摸屏2010。驱动层202包括事件获取模块2020。在驱动层202和应用框架层203之间设置有设备节点2021。应用框架层203包括输入读取器2030、第一事件处理模块2031、第二事件处理模块2032、第一判断模块2033、第二判断模块2034和事件派发模块2035、第三判断模块2036、第一应用模块2037、第二应用模块2038等。
其中,驱动层202包括事件获取模块2010,用于获取用户通过输入设备201产生的输入事件,例如,通过触摸屏进行的输入操作事件。在本发明的实施例中,输入事件包括:正常输入事件(A区输入事件)和边缘输入事件(C区输入事件)。正常输入事件包括在A区进行的单击、双击、滑动等输入操作。边缘输入事件包括在C区进行的左侧边缘上滑、左侧边缘下滑、右侧边缘上滑、右侧边缘下滑、双边上滑、双边下滑、握持手机四角、单边来回滑、握一握、单手握持等输入操作。
此外,事件获取模块2010还用于获取输入操作的触摸点的坐标、持续时间等相关参数。若采用A协议上报输入事件,则事件获取模块2010还用于为每一触摸点赋予一用于区分手指的编号(ID)。由此,若采用A协议上报输入事件,则上报的数据包括触摸点的坐标、持续时间等参数,以及触摸点的编号。
驱动层202和输入读取器2030间设置有设备节点2011,用于通知应用框架层203的输入读取器(inputreader)2030获取输入事件。
输入读取器2030,用于遍历设备节点,获取输入事件并上报。若驱动层202采用B协议上报输入事件,则输入读取器2030还用于为每一触摸点赋予用于区分手指的编号(ID)。在本发明的实施例中,输入读取器2030还用于将触摸点的所有要素信息(坐标、持续时间、编号等)进行存储。
在本发明的实施例中,为了便于应用层204区分不同的输入事件以进行响应,每一输入事件创建一具有设备标识的输入设备对象。在一个实施例中,可为正常输入事件创建第一输入设备对象,其具有第一标识。第一输入设备对象与实际硬件触摸屏相对应。
此外,应用框架层203还包括一第二输入设备对象2031。该第二输入设备对象2031(例如,边缘输入设备,FITdevice)为虚拟设备,即为一空设备,其有一第二标识,用于与边缘输入事件相对应。应理解,也可将边缘输入事件与具有第一标识的第一输入设备对象相对应,而将正常控事件与具有第二标识的第二输入设备对象相对应。
第一事件处理模块2031,用于对输入读取器2030上报的输入事件进行处理,例如,触摸点的坐标计算。
第二事件处理模块2032,用于对输入读取器2030上报的输入事件进行处理,例如,触摸点的坐标计算。
第一判断模块2033用于根据坐标值(X值)判断事件是否为边缘输入事件,若不是则将事件上传到事件派发模块2035。
第二判断模块2034用于根据坐标值(X值)判断事件是否为边缘输入事件,若是则将事件上传到事件派发模块2035。
应理解,在本发明的实施例中,第一判断模块2033和第二判断模块2034在判断时,并不需要关注分屏和旋转的情况,只需判断触摸点的坐标是否落入上述所述的第一显示区域和/或第二显示区域的边缘触摸区域的坐标范围内即可。
事件派发模块2035用于将边缘输入事件和/或A区输入事件上报到第三判断模块2036。在一个实施例中,边缘输入事件和A区输入事件上报所采用的通道不相同。边缘输入事件采用专用通道上报。
此外,事件派发模块2035还用于获取移动终端的当前状态,根据当前状态对上报的坐标进行转换和调整后上报。
本发明实施例中,当前状态包括旋转角度和分屏状态。根据动作传感器的检测结果获取移动终端的当前状态。根据检测到的移动终端的相关设置参数获取分屏状态。旋转角度包括:旋转角度为0度、顺时针90度、顺时针180度、顺时针270度等。应理解,若为逆时针旋转,则逆时针90度与顺时针270度相同,逆时针180度与顺时针180度相同,逆时针270度与顺时针90度相同。分屏状态包括:左右分屏和上下分屏。
在本发明的实施例中,若处于分屏状态,则将为第一显示区域和第二显示区域分别建立一个坐标系。并将上报的坐标按比例转换为与该两个坐标系对应的坐标。例如,将移动终端的显示屏进行上下分屏,且第一显示区域和第二显示区域为相等大小,则上报的坐标若为(xc,yc)则将其缩小二分之一为(xc/2,yc/2)。缩小后即可判断其坐标是落入第一显示区域还是第二显示区域。
而对于旋转一定角度的坐标转换方式参见上述描述。
应理解,在本发明实施例中,应先进行旋转的坐标转换后,再进行分屏的坐标的转换,以确保准确。
在一个实施例中,事件派发模块2036由inputdispatcher::dispatchmotion()实现。
第三判断模块2036用于根据设备标识(ID)判断事件是否为边缘输入事件,若属于,则上报给第一应用模块2037,否则上报给当第二应用模块2038。
具体的,参见图12,第三判断模块2036在判断时,首先获取设备标识,根据设备标识判断是否为触屏类型设备;若是,则进一步判断设备标识是否为C区设备标识即上述第二输入设备对象的标识,若是,则判断为边缘输入事件,若否,则判断为正常输入事件。应理解,也可在判断为触屏类设备后,进一步判断设备标识是否为A区设备标识即上述第一输入设备对应的标识,若是,则判断为正常输入事件,若否,则判断为边缘输入事件。
在本发明的实施例中,第一应用模块2037用于处理与A区输入相关的输入事件,具体的,这种处理包括:根据输入操作的触摸点坐标、持续时间、编号等进行处理识别,并将识别结果上报到应用层。第二应用模块2038用于处理与C区输入相关的输入事件,具体的,这种处理包括:根据处理操作的触摸点坐标、持续时间、编号进行处理识别,并将识别结果上报到应用层。例如,根据触摸点的坐标、持续时间和编号即可识别出输入操作是A区的单击、滑动,还是C区的单边来回滑等。
应用层204包括相机、图库、锁屏等应用(应用1、应用2……)。本发明实施例中的输入操作包括应用级和系统级,系统级的手势处理也将其归类为应用层。其中,应用级为对应用程序的操控,例如,开启、关闭、音量控制等。系统级为对移动终端的操控,例如,开机、加速、应用间切换、全局返回等。应用层可以通过注册C区事件的Listener获得C区的输入事件进行处理,也可以通过注册A区事件的Listener获得A区的输入事件进行处理。
在一个实施例中,移动终端设置并存储有与不同的输入操作对应的指令,其中包括与边缘输入操作对应的指令和与正常输入操作对应的指令。应用层接收到上报的边缘输入事件的识别结果,即根据边缘输入操作调用相应的指令以响应该边缘输入操作。应用层接收到上报的正常输入事件的识别结果,即根据正常输入操作调用相应的指令以响应该正常输入操作。
应理解,本发明实施例的输入事件包括仅在A区的输入操作、仅在C区的输入操作以及同时产生于A区和C区的输入操作。由此,指令也包括与这三类输入事件对应的指令。本发明实施例可实现A区和C区输入操作的组合对移动终端进行控制,例如,输入操作为同时单击A区和C区的相应位置,对应的指令为关闭某一应用,因此,通过同时单击A区和C区相应位置的输入操作,可实现对应用的关闭。
本发明实施例的移动终端,可实现根据触摸屏的旋转及分屏状态相应的变换边缘触摸区域,以更好的适应用户的操作,提高用户体验;另一方面,由于在应用框架层才进行区分A区和C区的操作,且在应用框架层进行虚拟设备的建立,避免了在驱动层区分A区和C区对硬件的依赖;通过设置触摸点编号,可实现区分手指,兼容A协议和B协议;且由于输入读取器2030、第一事件处理模块2031、第二事件处理模块2032、第一判断模块2033、第二判断模块2034和事件派发模块2035、第三判断模块2036、第一应用模块2037、第二应用模块2038等的功能可集成到移动终端的操作系统中,可适用不同硬件、不同种类的移动终端,可移植性好;输入读取器(InputReader)会自动将一个触摸点的所有要素(触摸点的坐标、编号等)保存起来,为后续判断边缘输入(例如,FIT)提供便利。
参见图13为本发明实施例的输入处理方法的流程图,包括以下步骤:
S1、驱动层获取用户通过输入设备产生的输入事件,并上报到应用框架层。
具体的,输入设备接收到用户的输入操作(即输入事件),将物理输入转变为电信号,并将电信号传递至驱动层。在本发明实施例中,输入事件包括A区输入事件和C区输入事件。A区输入事件包括在A区进行的单击、双击、滑动等输入操作。C区输入事件包括在C区进行的左侧边缘上滑、左侧边缘下滑、右侧边缘上滑、右侧边缘下滑、双边上滑、双边下滑、单边来回滑、握一握、单手握持等输入操作。
驱动层根据接收到的电信号对输入位置进行解析,得到触摸点的具体坐标、持续时间等相关参数。该相关参数被上报到应用框架层。
此外,若驱动层采用A协议上报输入事件,则该步骤S1还包括:
为每一触摸点赋予一用于区分手指的编号(ID)。
由此,若驱动层采用A协议上报输入事件,则上报的数据包括上述相关参数,以及触摸点的编号。
S2、应用框架层判断输入事件是边缘输入事件,还是正常输入事件,若为正常输入事件则执行步骤S3,若为边缘输入事件则执行步骤S4。
若驱动层采用B协议上报输入事件,则步骤S2还具体包括:为每一触摸点赋予用于区分手指的编号(ID);将触摸点的所有要素信息(坐标、持续时间、编号等)进行存储。
应理解,在判断时,并不需要关注分屏和旋转的情况,只需判断触摸点的坐标是否落入上述所述的第一显示区域和/或第二显示区域的边缘触摸区域的坐标范围内即可。
由此,本发明实施例通过设置触摸点编号,可实现区分手指,兼容A协议和B协议;且触摸点的所有要素(触摸点的坐标、编号等)被存储,可后续判断边缘输入(例如,FIT)提供便利。
在一个实施例中,边缘输入事件和正常输入事件上报所采用的通道不相同。边缘输入事件采用专用通道。
S3、应用框架层对正常输入事件进行处理识别,并将识别结果上报给应用层。
S4、应用框架层对边缘输入事件进行处理识别,并将识别结果上报给应用层。
具体的,处理识别包括:根据输入操作的触摸点坐标、持续时间、编号等进行处理识别,以确定输入操作。例如,根据触摸点的坐标、持续时间和编号即可识别出是A区的单击、滑动等输入操作,还是C区的单边来回滑等输入操作。
S5、应用层根据上报的识别结果执行相应的指令。
具体的,应用层包括相机、图库、锁屏等应用。本发明实施例中的输入操作包括应用级和系统级,系统级的手势处理也将其归类为应用层。其中,应用级为对应用程序的操控,例如,开启、关闭、音量控制等。系统级为对移动终端的操控,例如,开机、加速、应用间切换、全局返回等。
在一个实施例中,移动终端设置并存储有与不同的输入操作对应的指令,其中包括与边缘输入操作对应的指令和与正常输入操作对应的指令。应用层接收到上报的边缘输入事件的识别结果,即根据边缘输入操作调用相应的指令以响应该边缘输入操作;应用层接收到上报的正常输入事件的识别结果,即根据正常输入操作调用相应的指令以响应该正常输入操作。
应理解,本发明实施例的输入事件包括仅在A区的输入操作、仅在C区的输入操作以及同时产生于A区和C区的输入操作。由此,指令也包括与这三类输入事件对应的指令。本发明实施例可实现A区和C区输入操作的组合对移动终端进行控制,例如,输入操作为同时单击A区和C区的相应位置,对应的指令为关闭某一应用,因此,通过同时单击A区和C区相应位置的输入操作,可实现对应用的关闭。
在一个实施例中,本发明实施例的输入处理方法还包括:
S11、为每一输入事件创建一具有设备标识的输入设备对象。
具体的,在一个实施例中,可为正常输入事件创建第一输入设备对象,其具有第一标识。第一输入设备对象与输入设备触摸屏相对应。应用框架层设置一第二输入设备对象。该第二输入设备对象(例如,为FITdevice)为虚拟设备,即为一空设备,其具有一第二标识,用于与边缘输入事件相对应。应理解,也可将边缘输入事件与具有第一标识的第一输入设备对象相对应,而将正常控事件与具有第二标识的第二输入设备对象相对应。
在一个实施例中,本发明实施例的输入处理方法还包括:
S21、应用框架层根据移动终端的旋转角度和分屏状态,对上报的坐标进行转换和调整后上报。
对坐标进行转换和调整的具体实现参见上述描述,在此不再赘述。
在一个实施例中,步骤S21可由inputdispatcher::dispatchmotion()实现。
S22、根据设备标识判断输入事件是否为边缘输入事件,若属于,则上执行步骤S3,若不属于则执行步骤S4。
具体的,参见上述图11,根据设备标识判断输入事件是否为边缘输入事件时,首先获取设备标识,根据设备标识判断是否为触屏类型设备;若是,则进一步判断设备标识是否为C区设备标识即上述第二输入设备对象的标识,若是,则判断为边缘输入事件,若否,则判断为正常输入事件。应理解,也可在判断为触屏类设备后,进一步判断设备标识是否为A区设备标识即上述第一输入设备对应的标识,若是,则判断为正常输入事件,若否,则判断为边缘输入事件。
本发明实施例的输入处理方法,可实现根据触摸屏的旋转及分屏状态,相应的变换边缘触摸区域,以更好的适应用户的操作,提高用户体验;另一方面,由于在应用框架层才进行区分A区和C区的操作,且在应用框架层进行虚拟设备的建立,避免了在驱动层区分A区和C区对硬件的依赖;通过设置触摸点编号,可实现区分手指,兼容A协议和B协议;且可集成到移动终端的操作系统中,可适用不同硬件、不同种类的移动终端,可移植性好;触摸点的所有要素(触摸点的坐标、编号等)被存储,可后续判断边缘输入(例如,FIT)提供便利。
参见图14,是利用本发明实施例的输入处理方法对上下分屏方式的移动终端的相机应用进行开启的效果示意图。其中,图13左边的图为移动终端的主界面示意图,其中,区域1010为在第一显示区域的边缘输入区域(C区域101)预先设置的可实现开启相机功能的输入操作的触摸点。具体的,单击区域1010可实现开启相机。则在移动终端中,存储有指令为:开启相机,其与单击区域1010的输入操作相对应。
当需要使用相机时,用户单击触摸屏的区域1010,驱动层获取该输入事件,并上报到应用框架层。应用框架层根据触摸点的坐标可判断出该输入事件为边缘输入事件。应用框架层对该边缘输入事件进行处理识别,根据触摸点坐标、持续时间和编码,识别出该输入操作为单击区域1010。应用框架层将识别结果上报到应用层,应用层即执行开启相机的指令。
应理解,图14中,开启相机功能后,未示出C区,但其仍存在,或根据本发明实施例的上述对C区划分的描述,开启相机后,C区宽度可设置的相对较宽等,这可被本领域技术人员所理解。
参见图15为本发明第二实施例的移动终端的触摸屏划分示意图。在该实施例中,为了防止用户输入过程中偏离输入开始的区域导致准确率下降,在移动终端的触摸面板边缘增加过渡区103(T区)。
在该实施例中,若输入事件从C区开始,偏离到T区则依旧认为本次滑动是边缘手势;若输入事件从C区开始,偏离到A区,则认为本次边缘手势结束,开始正常输入事件;若输入事件从T区或者A区开始,无论之后滑动到触摸面板任何区域,都认为本次滑动是正常输入事件。
该实施例的输入事件的上报流程和上述实施例所述的交互控制方法相同,区别仅在于:应用框架层对边缘输入事件进行处理识别时,需要按照上述三种情况进行判断,以确定准确的输入事件。例如,应用框架层根据某一次输入事件上报的触摸点判断得到输入事件从C区开始,并偏离到A区(即输入开始时的触摸点坐标位于C区,而输入过程中某一触摸点的坐标位于A区),则第一判断模块和第二判断模块根据坐标判断的结果为输入事件为边缘输入事件,且本次边缘输入事件结束,开始正常输入事件,驱动层即开始下一次输入事件的上报。
相应的,本发明实施例还提供一种用户设备,参见图16为其硬件结构示意图。参见图16,用户设备1000包括触摸屏2010、控制器200、存储装置310、GPS芯片320、通信器330、视频处理器340、音频处理器350、按钮360、麦克风370、相机380、扬声器390和动作传感器906。
触摸屏2010可以如上所述划分为A区和C区,或A区、C区和T区。触摸屏2010可以实现为各种类型的显示器,诸如LCD(液晶显示器)、OLED(有机发光二极管)显示器和PDP(等离子体显示板)。触摸屏2010可以包括驱动电路,其能够实现为,例如a-siTFT、LTPS(低温多晶硅)TFT和OTFT(有机TFT),和背光单元。
同时,触摸屏2010可以包括用于感测用户的触摸手势的触摸传感器。触摸传感器可以实现为各种类型的传感器,诸如电容类型、电阻类型或者压电类型。电容类型通过当用户身体的一部分(例如,用户的手指)触摸表面上涂敷有导电材料的触摸屏的表面时感测由用户的身体激励的微电流计算触摸坐标值。根据电阻类型,触摸屏包括两个电极板,并且当用户触摸屏幕时通过感测当触摸点处的上板和下板接触时流动的电流,来计算触摸坐标值。此外,当用户设备1000支持笔输入功能时,触摸屏2010可以感测用于使用除了用户手指之外诸如笔之类的输入装置的用户手势。当输入装置是包括线圈的手写笔(styluspen)时,用户设备1000可以包括用于感测磁场的磁性传感器(未示出),所述磁场根据手写笔内线圈对磁性传感器的接近度而改变。由此,除了感测触摸手势之外,用户设备1000还可以感测接近的手势,即手写笔悬停在用户设备1000上方。
存储装置310可以存储用户设备1000的操作所需的各种程序和数据。例如,存储装置310可以存储用于构成将在各区(例如,A区、C区)上显示的各种屏幕的程序和数据。
控制器200通过使用存储在存储装置310中的程序和数据在触摸屏2010的各区上显示内容。
控制器200包括RAM210、ROM220、CPU230、GPU(图形处理单元)240和总线250。RAM210、ROM220、CPU230和GPU240可以通过总线250彼此连接。
CPU(处理器)230访问存储装置310并且使用存储在存储装置310中的操作系统(OS)执行启动。而且,CPU230通过使用存储在存储装置310中的各种程序、内容和数据执行各种操作。
ROM220存储用于系统启动的命令集。当开启命令被输入并且电力被提供时,CPU230根据存储在ROM220中命令集将存储在存储装置310中的OS复制到RAM210,并且通过运行OS启动系统。当启动完成时,CPU230将存储在存储装置310中的各种程序复制到RAM210,并且通过运行RAM210中的复制程序执行各种操作。具体地说,GPU240可以通过使用计算器(未示出)和渲染器(未示出)生成包括诸如图标、图像和文本这样的各种对象的屏幕。计算器计算诸如坐标值、格式、大小和颜色这样的特征值,其中分别根据屏幕的布局用颜色标记对象。
GPS芯片320是从GPS(全球定位系统)卫星接收GPS信号的单元,并且计算用户设备1000的当前位置。当使用导航程序时或者当请求用户的当前位置时,控制器200可以通过使用GPS芯片320计算用户的位置。
通信器330是根据各种类型的通信方法与各种类型的外部设备执行通信的单元。通信器330包括WiFi芯片331、蓝牙芯片332、无线通信芯片333和NFC芯片334。控制器200通过使用通信器330执行与各种外部设备的通信。
WiFi芯片331和蓝牙芯片332分别根据WiFi方法和蓝牙方法执行通信。当使用WiFi芯片331或者蓝牙芯片332时,诸如服务集标识符(servicesetidentifier,SSID)和会话密钥这样的各种连接信息可以首先被收发,可以通过使用连接信息连接通信,并且可以收发各种信息。无线通信芯片333是根据诸如IEEE、Zigbee、3G(第三代)、3GPP(第三代合作项目)和LTE(长期演进)这样的各种通信标准执行通信的芯片。NFC芯片334是根据使用各种RFID频带宽度当中13.56兆赫带宽的NFC(近场通信)方法进行操作的芯片,各种RFID频带宽度诸如135千赫兹、13.56兆赫、433兆赫、860~960兆赫和2.45吉赫。
视频处理器340是处理包括在通过通信器330接收到的内容或者存储在存储装置310中的内容中的视频数据的单元。视频处理器340可以执行对于视频数据的各种图像处理,诸如解码、缩放、噪声过滤、帧速率变换和分辩率变换。
音频处理器350是处理包括在通过通信器330接收到的内容或者存储在存储装置310中的内容中的音频数据的单元。音频处理器350可以执行对于音频数据的各种处理,诸如解码、放大和噪声过滤。
当对于多媒体内容运行再现程序时控制器200可以通过驱动视频处理器340和音频处理器350再现相应内容。
扬声器390输出在音频处理器350中生成的音频数据。
按钮360可以是各种类型的按钮,诸如机械按钮或者在像用户设备1000的主要外体的正面、侧面或者背面这样的一些区域上形成的触摸垫或者触摸轮。
麦克风370是接收用户语音或者其它声音并且将它们变换为音频数据的单元。控制器200可以使用在呼叫过程期间通过麦克风370输入的用户语音,或者将它们变换为音频数据并且存储在存储装置310中。
相机380是根据用户的控制捕获静止图像或者视频图像的单元。相机380可以实现为多个单元,诸如正面相机和背面相机。如下面所述,相机380可以用作在追踪用户的目光的示范性实施例中获得用户图像的装置。
当提供相机380和麦克风370时,控制器200可以根据通过麦克风370输入的用户的声音或者由相机380识别的用户动作执行控制操作。因此,用户设备1000可以在动作控制模式或者语音控制模式下操作。当在动作控制模式下操作时,控制器200通过激活相机380拍摄用户,跟踪用户动作的改变,以及执行相应的操作。当在语音控制模式下操作时,控制器200可以在语音识别模式下操作以分析通过麦克风370输入的语音并且根据分析的用户语音执行控制操作。
在支持动作控制模式或者语音控制模式的用户设备1000中,在上述各种示范性实施例中使用语音识别技术或者动作识别技术。例如,当用户执行像选择在主页屏幕上标记的对象这样的动作或者说出相应于对象的语音命令时,可以确定选择了相应对象并且可以执行与该对象匹配的控制操作。
动作传感器906是感测用户设备1000的主体的移动的单元。用户设备1000可以旋转或者沿各种方向倾斜。动作传感器906可以通过使用诸如地磁传感器、陀螺仪传感器和加速度传感器这样的各种传感器中的一个或多个来感测诸如旋转方向、角度和斜率这样的移动特征。应理解,当用户设备旋转时,相应的,触摸屏也进行了旋转,且与用户设备的旋转角度是相同的。
而且,虽然在图16中未示出,但是根据示范性实施例,用户设备1000还可以包括能够与USB连接器连接的USB端口、用于连接像耳机、鼠标、LAN和接收并处理DMB(数字多媒体广播)信号的DMB芯片这样的各种外部元件的各种输入端口、以及各种其他传感器。
如上所述,存储装置310可以存储各种程序。
基于图16所示的用户设备,在本发明的实施例中,触摸屏,用于检测产生于触摸面板上的触摸信号,以及用于根据触摸信号识别触摸点。
动作传感器,用于检测用户设备的旋转角度。
处理器,包括:驱动模块、应用框架模块和应用模块;
其中,驱动模块,用于根据触摸信号获取输入事件,并上报到应用框架模块;
应用框架模块,用于根据上报的输入事件的触摸点位置、旋转角度及分屏状态,判断触摸点是位于第一显示区域的边缘触摸区域或正常触摸区域,还是位于第二显示区域的边缘触摸区域或正常触摸区域,并根据判断结果进行识别以及将识别结果上报给应用模块
应用模块,用于根据上报的识别结果执行相应的指令。
应理解,该实施例的用户设备的各模块的工作原理和细节和上述实施例描述的相同,在此不再赘述。
本发明实施例的触摸控制方法、用户设备、输入处理方法、移动终端及智能终端,可实现根据触摸屏的旋转及分屏状态相应的变换边缘触摸区域,以更好的适应用户的操作,提高用户体验;另一方面,由于在应用框架层才进行区分A区和C区的操作,且在应用框架层进行虚拟设备的建立,避免了在驱动层区分A区和C区对硬件的依赖;通过设置触摸点编号,可实现区分手指,兼容A协议和B协议;且可集成到移动终端的操作系统中,可适用不同硬件、不同种类的移动终端,可移植性好;触摸点的所有要素(触摸点的坐标、编号等)被存储,可后续判断边缘输入(例如,FIT)提供便利。
应理解,本发明实施例的终端可以以各种形式来实施。例如,本发明中描述的终端可以包括诸如具有通讯功能的智能终端、手机、移动电话、智能电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、导航装置等等的移动设备以及诸如数字TV、台式计算机等等的固定设备。
流程图中或在本发明的实施例中以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所述技术领域的技术人员所理解。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。

Claims (25)

1.一种触摸控制方法,应用于移动终端,所述移动终端包括第一显示区域和第二显示区域,其特征在于,包括:
检测产生于触摸面板上的触摸信号;
根据触摸信号识别触摸点;
检测所述移动终端的分屏状态及旋转角度;
根据识别出的触摸点、所述旋转角度及分屏状态,判断触摸点是位于第一显示区域的边缘触摸区域或正常触摸区域,还是位于第二显示区域的边缘触摸区域或正常触摸区域;
基于判断结果执行相应的指令。
2.根据权利要求1所述的触摸控制方法,其特征在于,所述旋转角度包括:旋转0度、顺时针旋转90度、顺时针旋转180度、顺时针旋转270度、逆时针旋转90度、逆时针旋转180度和逆时针旋转270度。
3.根据权利要求2所述的触摸控制方法,其特征在于,所述分屏状态包括:上下分屏和左右分屏。
4.一种用户设备,所述用户设备包括第一显示区域和第二显示区域,其特征在于,包括:触摸屏、动作传感器和处理器;
触摸屏,包括:触摸面板和触摸控制器,其中:
触摸面板,用于检测产生于触摸面板上的触摸信号;
触摸控制器,用于根据触摸信号识别触摸点;
动作传感器,用于检测所述用户设备的旋转角度;
处理器,包括:驱动模块、应用框架模块和应用模块,其中:
所述驱动模块,用于根据所述触摸信号获取输入事件,并上报到所述应用框架模块;
所述应用框架模块,用于根据上报的输入事件的触摸点位置、所述移动终端旋转角度及分屏状态,判断触摸点是位于第一显示区域的边缘触摸区域或正常触摸区域,还是位于第二显示区域的边缘触摸区域或正常触摸区域,并根据判断结果进行识别以及将识别结果上报给应用模块;
应用模块,用于基于判断结果执行相应的指令。
5.一种输入处理方法,应用于移动终端,所述移动终端包括第一显示区域和第二显示区域,其特征在于,包括:
驱动层获取用户通过输入设备产生的输入事件,并上报到应用框架层;
应用框架层根据移动终端的端旋转角度、分屏状态和上报的输入事件,判断输入事件是位于第一显示区域的边缘输入事件或正常输入事件,还是位于第二显示区域的边缘输入事件或正常输入事件,并根据判断结果进行识别以及将识别结果上报给应用层;
应用层根据上报的识别结果执行相应的指令。
6.根据权利要求5所述的输入处理方法,其特征在于,所述方法还包括:
为每一输入事件创建一具有设备标识的输入设备对象。
7.根据权利要求6所述的输入处理方法,其特征在于,所述为每一输入事件创建一具有设备标识的输入设备对象包括:
将正常输入事件与具有第一设备标识的触摸屏相对应;
应用框架层设置一具有第二设备标识的第二输入设备对象与边缘输入事件相对应。
8.根据权利要求5所述的输入处理方法,其特征在于,所述驱动层获取用户通过输入设备产生的输入事件,并上报到应用框架层包括:
所述驱动层为每一触摸点赋予一用于区分手指的编号,并采用A协议协议上报所述输入事件。
9.根据权利要求5所述的输入处理方法,其特征在于,所述驱动层获取用户通过输入设备产生的输入事件,并上报到应用框架层包括:
所述驱动层采用B协议上报所述输入事件;
所述方法还包括:
所述应用框架层为所述输入事件中的每一触摸点赋予用于区分手指的编号。
10.根据权利要求5-9任一项所述的输入处理方法,其特征在于,所述移动终端的当前状态包括:旋转0度、顺时针旋转90度、顺时针旋转180度、顺时针旋转270度、逆时针旋转90度、逆时针旋转180度和逆时针旋转270度。
11.根据权利要求10所述的输入处理方法,其特征在于,分屏状态包括:上下分屏和左右分屏。
12.一种移动终端,所述移动终端包括第一显示区域和第二显示区域,其特征在于,包括:
输入设备;
动作传感器,用于检测所述移动终端的当前状态;
驱动层,用于获取用户通过输入设备产生的输入事件,并上报到应用框架层;
应用框架层,用于根据移动终端的端旋转角度、分屏状态和上报的输入事件,判断输入事件是位于第一显示区域的边缘输入事件或正常输入事件,还是位于第二显示区域的边缘输入事件或正常输入事件,并根据判断结果进行识别以及将识别结果上报给应用层;
应用层,用于根据上报的识别结果执行相应的指令。
13.根据权利要求12所述的移动终端,其特征在于,所述正常输入事件与具有第一设备标识的第一输入设备对象相对应;
所述应用框架层还用于设置一具有第二设备标识的第二输入设备对象,用于与所述边缘输入事件相对应。
14.根据权利要求12所述的移动终端,其特征在于,所述驱动层采用A协议或B协议上报输入事件,若采用A协议上报输入事件,则所述事件获取模块还用于为每一触摸点赋予一用于区分手指的编号;
若采用B协议上报输入事件,则所述应用框架层还用于为每一触摸点赋予用于区分手指的编号。
15.根据权利要求12所述的移动终端,其特征在于,所述驱动层包括事件获取模块,用于获取用户通过输入设备产生的输入事件。
16.根据权利要求12所述的移动终端,其特征在于,所述应用框架层包括输入读取器;
所述移动终端还包括设置于所述驱动层和所述输入读取器间的设备节点,用于通知所述输入读取器获取输入事件;
所述输入读取器,用于遍历设备节点,获取输入事件并上报。
17.根据权利要求12所述的移动终端,其特征在于,所述移动终端的当前状态包括:旋转0度、顺时针旋转90度、顺时针旋转180度、顺时针旋转270度、逆时针旋转90度、逆时针旋转180度和逆时针旋转270度。
18.根据权利要求17所述的移动终端,其特征在于,所述应用框架层还包括:第一事件处理模块,用于对所述输入读取器上报的输入事件进行坐标计算后上报;
第一判断模块,用于根据所述移动终端的当前状态和所述第一事件处理模块上报的坐标值判断输入事件是否为边缘输入事件,若不是则将输入事件上报。
19.根据权利要求18所述的移动终端,其特征在于,所述应用框架层还包括:
第二事件处理模块,用于对所述输入读取器上报的输入事件进行坐标计算后上报;
第二判断模块,用于根据所述移动终端的当前状态和所述第二事件处理模块上报的坐标值判断输入事件是否为边缘输入事件,若是则将输入事件上报。
20.根据权利要求18或19所述的移动终端,其特征在于,分屏状态包括:上下分屏和左右分屏。
21.根据权利要求20所述的移动终端,其特征在于,所述应用框架层还包括:
事件派发模块,用于将所述第二判断模块和所述第一判断模块上报的事件进行上报。
22.根据权利要求21所述的移动终端,其特征在于,所述应用框架层还包括:
第一应用模块;
第二应用模块;
第三判断模块,用于根据所述事件派发模块上报的事件中包含的设备标识判断事件是否为边缘输入事件,若属于,则上报给所述第一应用模块,否则上报给当所述第二应用模块;
所述第一应用模块,用于根据正常输入事件的相关参数对正常输入事件进行识别并将识别结果上报到应用层;
所述第二应用模块,用于根据边缘输入事件的相关参数对边缘输入事件进行识别并将识别结果上报的应用层。
23.根据权利要求12所述的移动终端,其特征在于,所述输入设备为移动终端的触摸屏;
所述触摸屏包括至少一个边缘输入区和至少一个正常输入区。
24.根据权利要求12所述的移动终端,其特征在于,所述输入设备为移动终端的触摸屏;
所述触摸屏包括至少一个边缘输入区、至少一个正常输入区和至少一个过渡区。
25.一种具有通讯功能的智能终端,所述智能终端包括第一显示区域和第二显示区域,其特征在于,还包括:触摸屏、动作传感器和处理器;
触摸屏,包括:触摸面板和触摸控制器,其中:
触摸面板,用于检测产生于触摸面板上的触摸信号;
触摸控制器,用于根据触摸信号识别触摸点;
动作传感器,用于检测所述用户设备的旋转角度;
处理器,包括:驱动模块、应用框架模块和应用模块,其中:
所述驱动模块,用于根据所述触摸信号获取输入事件,并上报到所述应用框架模块;
所述应用框架模块,用于根据上报的输入事件的触摸点位置、所述移动终端旋转角度及分屏状态,判断触摸点是位于第一显示区域的边缘触摸区域或正常触摸区域,还是位于第二显示区域的边缘触摸区域或正常触摸区域,并根据判断结果进行识别以及将识别结果上报给应用模块;
应用模块,用于基于判断结果执行相应的指令。
CN201510896531.8A 2015-11-20 2015-12-07 触摸控制方法、用户设备、输入处理方法、移动终端及智能终端 Expired - Fee Related CN105511675B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201510896531.8A CN105511675B (zh) 2015-11-20 2015-12-07 触摸控制方法、用户设备、输入处理方法、移动终端及智能终端
PCT/CN2016/106171 WO2017097097A1 (zh) 2015-11-20 2016-11-16 触摸控制方法、用户设备、输入处理方法、移动终端及智能终端
US15/781,955 US20180364865A1 (en) 2015-11-20 2016-11-16 Touch control method, user equipment, input processing method, mobile terminal and intelligent terminal

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN2015108118720 2015-11-20
CN201510811872 2015-11-20
CN201510896531.8A CN105511675B (zh) 2015-11-20 2015-12-07 触摸控制方法、用户设备、输入处理方法、移动终端及智能终端

Publications (2)

Publication Number Publication Date
CN105511675A true CN105511675A (zh) 2016-04-20
CN105511675B CN105511675B (zh) 2020-07-24

Family

ID=55719715

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510896531.8A Expired - Fee Related CN105511675B (zh) 2015-11-20 2015-12-07 触摸控制方法、用户设备、输入处理方法、移动终端及智能终端

Country Status (3)

Country Link
US (1) US20180364865A1 (zh)
CN (1) CN105511675B (zh)
WO (1) WO2017097097A1 (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106101423A (zh) * 2016-06-28 2016-11-09 努比亚技术有限公司 分屏区域大小调整装置及方法
CN106095163A (zh) * 2016-05-30 2016-11-09 京东方科技集团股份有限公司 触控屏的驱动装置、显示装置
WO2017084469A1 (zh) * 2015-11-20 2017-05-26 努比亚技术有限公司 触摸控制方法、用户设备、输入处理方法和移动终端
CN106802764A (zh) * 2017-01-19 2017-06-06 努比亚技术有限公司 一种基于边缘输入的试穿戴装置及方法
WO2017097097A1 (zh) * 2015-11-20 2017-06-15 努比亚技术有限公司 触摸控制方法、用户设备、输入处理方法、移动终端及智能终端
CN107479745A (zh) * 2017-07-31 2017-12-15 北京雷石天地电子技术有限公司 一种配置触摸屏的方法、模块及操作系统
WO2018068207A1 (zh) * 2016-10-11 2018-04-19 华为技术有限公司 识别操作的方法、装置及移动终端
CN108089805A (zh) * 2017-12-28 2018-05-29 努比亚技术有限公司 一种图片操作方法、移动终端和计算机可读存储介质
WO2018107896A1 (zh) * 2016-12-16 2018-06-21 广东欧珀移动通信有限公司 一种分屏防误触方法、装置、移动终端及存储介质
CN109710169A (zh) * 2018-12-29 2019-05-03 Tcl移动通信科技(宁波)有限公司 一种基于温度传感器的控制方法、移动终端及存储介质
CN110049177A (zh) * 2018-01-16 2019-07-23 中兴通讯股份有限公司 一种新消息处理方法、装置及存储介质
CN110262705A (zh) * 2019-06-24 2019-09-20 北京集创北方科技股份有限公司 定位方法、定位装置及电子设备
CN111258455A (zh) * 2020-01-17 2020-06-09 Oppo广东移动通信有限公司 一种事件流处理方法、事件流处理装置及移动终端
CN111338506A (zh) * 2020-02-19 2020-06-26 Oppo广东移动通信有限公司 触摸响应方法、装置、电子设备及存储介质

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110045819B (zh) * 2019-03-01 2021-07-09 华为技术有限公司 一种手势处理方法及设备
KR20210015489A (ko) 2019-08-02 2021-02-10 삼성전자주식회사 휠 입력을 처리하는 전자 장치 및 이의 동작 방법
CN110716660B (zh) * 2019-09-02 2023-05-09 Oppo(重庆)智能科技有限公司 一种触摸屏启动方法及终端、存储介质
CN110955568B (zh) * 2019-11-06 2023-09-01 Oppo(重庆)智能科技有限公司 触摸屏问题的定位方法及装置、设备、存储介质
CN111104012B (zh) * 2019-12-12 2021-06-15 惠州Tcl移动通信有限公司 测距方法及其装置、存储介质及终端设备
CN111158819B (zh) * 2019-12-25 2024-02-20 广州华多网络科技有限公司 界面状态的确定方法、装置、设备及存储介质
CN113253858A (zh) * 2020-02-13 2021-08-13 北京小米移动软件有限公司 触控屏的控制方法及装置、移动终端和存储介质
CN113395389B (zh) * 2020-03-13 2022-12-02 北京小米移动软件有限公司 一种防止屏幕误触的方法、装置及存储介质
CN114356133B (zh) * 2021-12-23 2023-12-01 深圳市创易联合科技有限公司 触控物体的尺寸分析方法、装置、终端设备以及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101676843A (zh) * 2008-09-18 2010-03-24 联想(北京)有限公司 触摸输入方法及触摸输入装置
CN102236468A (zh) * 2010-04-26 2011-11-09 宏达国际电子股份有限公司 感测方法、计算机程序产品与便携式装置
CN103309605A (zh) * 2012-03-06 2013-09-18 索尼公司 信息处理装置和信息处理方法
CN104735256A (zh) * 2015-03-27 2015-06-24 努比亚技术有限公司 移动终端的握持方式判断方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110089032A (ko) * 2010-01-29 2011-08-04 주식회사 팬택 이동 단말기 및 이동 단말기를 이용한 정보 표시 방법
CN103003869B (zh) * 2010-07-05 2015-04-15 富士通株式会社 显示控制装置以及显示控制方法
US20120289290A1 (en) * 2011-05-12 2012-11-15 KT Corporation, KT TECH INC. Transferring objects between application windows displayed on mobile terminal
CN105094499A (zh) * 2014-04-24 2015-11-25 青岛海信移动通信技术股份有限公司 一种智能移动终端及其应用程序窗口处理方法
KR20160088603A (ko) * 2015-01-16 2016-07-26 삼성전자주식회사 화면 제어 장치 및 방법
CN104735255B (zh) * 2015-03-27 2018-02-23 努比亚技术有限公司 分屏显示方法和系统
CN105511675B (zh) * 2015-11-20 2020-07-24 重庆桔子科技发展有限公司 触摸控制方法、用户设备、输入处理方法、移动终端及智能终端

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101676843A (zh) * 2008-09-18 2010-03-24 联想(北京)有限公司 触摸输入方法及触摸输入装置
CN102236468A (zh) * 2010-04-26 2011-11-09 宏达国际电子股份有限公司 感测方法、计算机程序产品与便携式装置
CN103309605A (zh) * 2012-03-06 2013-09-18 索尼公司 信息处理装置和信息处理方法
CN104735256A (zh) * 2015-03-27 2015-06-24 努比亚技术有限公司 移动终端的握持方式判断方法及装置

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017084469A1 (zh) * 2015-11-20 2017-05-26 努比亚技术有限公司 触摸控制方法、用户设备、输入处理方法和移动终端
WO2017097097A1 (zh) * 2015-11-20 2017-06-15 努比亚技术有限公司 触摸控制方法、用户设备、输入处理方法、移动终端及智能终端
CN106095163B (zh) * 2016-05-30 2019-01-22 京东方科技集团股份有限公司 触控屏的驱动装置、显示装置
CN106095163A (zh) * 2016-05-30 2016-11-09 京东方科技集团股份有限公司 触控屏的驱动装置、显示装置
CN106101423B (zh) * 2016-06-28 2019-11-05 努比亚技术有限公司 分屏区域大小调整装置及方法
CN106101423A (zh) * 2016-06-28 2016-11-09 努比亚技术有限公司 分屏区域大小调整装置及方法
WO2018068207A1 (zh) * 2016-10-11 2018-04-19 华为技术有限公司 识别操作的方法、装置及移动终端
US10739927B2 (en) 2016-10-11 2020-08-11 Huawei Technologies Co., Ltd. Operation detection method and apparatus, and mobile terminal
WO2018107896A1 (zh) * 2016-12-16 2018-06-21 广东欧珀移动通信有限公司 一种分屏防误触方法、装置、移动终端及存储介质
CN106802764A (zh) * 2017-01-19 2017-06-06 努比亚技术有限公司 一种基于边缘输入的试穿戴装置及方法
CN107479745B (zh) * 2017-07-31 2020-07-21 北京雷石天地电子技术有限公司 一种配置触摸屏的方法、模块及操作系统
CN107479745A (zh) * 2017-07-31 2017-12-15 北京雷石天地电子技术有限公司 一种配置触摸屏的方法、模块及操作系统
CN108089805A (zh) * 2017-12-28 2018-05-29 努比亚技术有限公司 一种图片操作方法、移动终端和计算机可读存储介质
CN110049177A (zh) * 2018-01-16 2019-07-23 中兴通讯股份有限公司 一种新消息处理方法、装置及存储介质
CN109710169A (zh) * 2018-12-29 2019-05-03 Tcl移动通信科技(宁波)有限公司 一种基于温度传感器的控制方法、移动终端及存储介质
CN109710169B (zh) * 2018-12-29 2023-09-08 深圳市瑞比德传感技术有限公司 一种基于温度传感器的控制方法、移动终端及存储介质
CN110262705A (zh) * 2019-06-24 2019-09-20 北京集创北方科技股份有限公司 定位方法、定位装置及电子设备
CN110262705B (zh) * 2019-06-24 2022-05-27 北京集创北方科技股份有限公司 定位方法、定位装置及电子设备
CN111258455A (zh) * 2020-01-17 2020-06-09 Oppo广东移动通信有限公司 一种事件流处理方法、事件流处理装置及移动终端
CN111258455B (zh) * 2020-01-17 2023-08-18 Oppo广东移动通信有限公司 一种事件流处理方法、事件流处理装置及移动终端
CN111338506A (zh) * 2020-02-19 2020-06-26 Oppo广东移动通信有限公司 触摸响应方法、装置、电子设备及存储介质
CN111338506B (zh) * 2020-02-19 2022-01-07 Oppo广东移动通信有限公司 触摸响应方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN105511675B (zh) 2020-07-24
WO2017097097A1 (zh) 2017-06-15
US20180364865A1 (en) 2018-12-20

Similar Documents

Publication Publication Date Title
CN105511675A (zh) 触摸控制方法、用户设备、输入处理方法、移动终端及智能终端
KR102119843B1 (ko) 사용자 단말 장치 및 이의 디스플레이 방법
US20200050359A1 (en) Apparatus including a touch screen under a multi-application environment and controlling method thereof
KR102331956B1 (ko) 사용자 단말 장치 및 이의 디스플레이 방법
US10996834B2 (en) Touchscreen apparatus user interface processing method and touchscreen apparatus
CN105487705A (zh) 移动终端、输入处理方法及用户设备
KR20230117542A (ko) 사용자 단말 장치 및 이의 디스플레이 방법
KR102016975B1 (ko) 디스플레이 장치 및 그 제어 방법
KR102089707B1 (ko) 디스플레이 장치 및 그 제어 방법
US10088991B2 (en) Display device for executing multiple applications and method for controlling the same
US10067666B2 (en) User terminal device and method for controlling the same
KR102102157B1 (ko) 복수 어플리케이션을 실행하는 디스플레이 장치 및 그 제어 방법
CN108733296B (zh) 书写笔迹的擦除方法、装置和设备
CN107506086A (zh) 触摸屏控制方法、装置、移动终端及存储介质
KR20100136616A (ko) 휴대용 단말기에서 멀티 터치 입력 오류를 줄이기 위한 장치 및 방법
KR20150095541A (ko) 사용자 단말 장치 및 이의 디스플레이 방법
US20210208740A1 (en) Method, Mobile Terminal, and Non-Transitory Computer-Readable Storage Medium for Controlling Displaying Direction
CN105556453A (zh) 显示装置及其方法
CN105573545A (zh) 一种手势校准方法、装置及手势输入处理方法
CN110647286A (zh) 屏幕元素控制方法、装置、设备、存储介质
CN105335007A (zh) 触摸控制方法、用户设备、输入处理方法和移动终端
US11455071B2 (en) Layout method, device and equipment for window control bars
CN102968245A (zh) 鼠标触摸协同控制方法、装置及智能电视交互方法、系统
WO2016155518A1 (zh) 一种界面交互方法及装置
CN107562346A (zh) 终端控制方法、装置、终端及计算机可读存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20200629

Address after: 401120 No.618 Liangjiang Avenue, Longxing Town, Yubei District, Chongqing

Applicant after: Chongqing orange Technology Development Co., Ltd

Address before: 518057 Guangdong Province, Shenzhen high tech Zone of Nanshan District City, No. 9018 North Central Avenue's innovation building A, 6-8 layer, 10-11 layer, B layer, C District 6-10 District 6 floor

Applicant before: NUBIA TECHNOLOGY Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200724

Termination date: 20201207

CF01 Termination of patent right due to non-payment of annual fee