CN104238807A - 用于通过使用多点触摸选择对象的设备和方法 - Google Patents
用于通过使用多点触摸选择对象的设备和方法 Download PDFInfo
- Publication number
- CN104238807A CN104238807A CN201410255390.7A CN201410255390A CN104238807A CN 104238807 A CN104238807 A CN 104238807A CN 201410255390 A CN201410255390 A CN 201410255390A CN 104238807 A CN104238807 A CN 104238807A
- Authority
- CN
- China
- Prior art keywords
- touch
- reference point
- screen
- input
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Abstract
提供了一种用于通过使用多点触摸选择对象的设备和方法,其中,通过所述方法选择在电子装置的屏幕上显示的对象。所述方法包括:确定是否向电子装置的触摸屏输入了至少两个触摸,当确定已输入了所述至少两个触摸时,从所述至少两个触摸已被输入的触摸点确定参考点,当在触摸屏上所述至少两个触摸已被输入的触摸点被移动时,跟踪确定的参考点被移动的路径,在触摸屏上显示的屏幕上选择与参考点的移动路径相应的至少一个对象。
Description
技术领域
本公开涉及一种电子装置。更具体地,本公开涉及一种用于通过使用多点触摸选择对象的设备和方法。
背景技术
随着由移动装置(例如智能电话)提供的服务和功能的数量和复杂性已经增加,这些功能的使用也已经增加。为支持这些功能中的许多功能,现在大多数移动装置设置有使用触摸屏的图形用户界面(GUI)。此外,已开发出了可在移动装置中执行的多种应用,以便提高移动装置的有效价值并满足用户的各种需求。
可在移动装置中存储和执行由装置生产企业生产并安装在装置中的基本应用,以及通过互联网从各种网站下载的额外的应用。额外的应用可由一般开发人员开发并注册在各种网站中。
可使用多种方法来选择正在电子装置(诸如包括触摸屏的移动装置(例如智能电话))中的屏幕上显示的对象(例如,文本、图像、图像列表等)。例如,可使用执行的应用的单独子菜单中的对象选择模式,来选择在屏幕上显示的特定对象。在另一种方法中,可通过输入特定键来进入对象选择模式。然而,在这些对象选择方法中,必须选择单独菜单以便切换到对象选择模式,并必须执行额外的操作以便在选择了模式切换功能之后选择对象。
为了从屏幕上当前显示的对象中选择特定文本,也可通过长时间触摸期望的字符,来执行切换到对象选择模式。也就是说,当包括字符的特定区域被长时间触摸时,包括期望的字符的区域被遮挡并显示。此时,用户可通过拖动在显示的区域的开始部分和结束部分分别显示的指示符来选择字符。然而,由于用户必须长时间保持触摸以便做出选择,因此用户发现难以快速选择对象。此外,由于即使在切换到对象选择模式后,为了指定选择区域,用户必须拖动在屏幕上以小尺寸显示的指示符,因此,该方法对于选择文本区域是不方便的。
因此,需要一种对象选择方法,其中,在所述方法中可通过一次触摸立即选择在屏幕上显示的多种对象,而无需为了切换到对象选择模式的不必要的处理。
以上信息仅作为背景信息被呈现以协助对本公开的理解。至于以上的任何内容是否可应用为针对本公开的现有技术,尚未做出确定,也未做出声明。
发明内容
本公开的各方面在于至少解决以上提到的问题和/或缺点,并至少提供下述优点。因此,本公开的一方面在于提供一种用于通过使用多点触摸来选择对象的设备和方法,其中,用户可用包括多个触摸的一个输入,来选择正在屏幕上显示的文本的期望区域。
本公开的另一方面在于提供一种用于通过使用多点触摸来选择对象的设备和方法,其中,用户可用包括多个触摸的一个输入,来选择正在屏幕上显示的多列表中的至少一个对象。
本公开的另一方面在于提供一种用于通过使用多点触摸来选择对象的设备和方法,其中,用户可用包括多个触摸的一个输入,来选择正在屏幕上显示的图像的期望区域。
根据本公开的一方面,提供了一种通过使用多点触摸来选择对象的方法。所述方法包括:确定是否向电子装置的触摸屏输入了至少两个触摸,当确定已输入了所述至少两个触摸时,从所述至少两个触摸已被输入的触摸点确定参考点,当在触摸屏上所述至少两个触摸已被输入的触摸点被移动时,跟踪确定的参考点被移动的路径,在触摸屏上显示的屏幕上选择与参考点的移动路径相应的至少一个对象。
所述方法还包括:当确定已输入了所述至少两个触摸时,切换到对象选择模式。
确定是否输入了所述至少两个触摸的步骤可包括:当所述至少两个触摸的触摸时间差在阈值时间间隔内时,确定已输入了所述至少两个触摸。
参考点可被确定为所述至少两个触摸已被输入的位置之间的中点。
可通过将权重分配给所述至少两个触摸已被输入的一个或更多个位置,来确定参考点。
所述方法还可包括:在确定了参考点之后,分析在确定的参考点处的对象的类型。
所述方法还可包括:在通过分析对象的类型确定了对象为文本的情况下,将参考点的横坐标设置为更靠近两个触摸中的左触摸的触摸位置,并将参考点的纵坐标设置为更靠近两个触摸中的右触摸的触摸位置。
所述方法还可包括:在确定了对象为图像的情况下,当参考点的移动路径形成环形曲线时,将环形曲线内的区域确定为选择区域。
所述方法还可包括:在确定了对象为多列表的情况下,沿参考点的移动路径选择与至少一个复选框相应的对象。
根据本公开的另一方面,提供了一种用于通过使用多点触摸选择对象的设备。所述设备包括:触摸屏,被配置为显示至少一个对象;控制器,被配置为确定是否向触摸屏输入了至少两个触摸,当确定已输入了所述至少两个触摸时,从所述至少两个触摸已被输入的触摸点确定参考点,当在触摸屏上所述至少两个触摸已被输入的触摸点被移动时,跟踪确定的参考点被移动的路径,在触摸屏上显示的屏幕上选择与参考点的移动路径相应的至少一个对象。
当确定已输入了所述至少两个触摸时,控制器可控制切换到对象选择模式。
当所述至少两个触摸的触摸时间差在阈值时间间隔内时,控制器可确定已输入了所述至少两个触摸。
参考点可被确定为所述至少两个触摸已被输入的位置之间的中点。
可通过将权重分配给所述至少两个触摸已被输入的一个或更多个位置,来确定参考点。
控制器可在确定了参考点之后,分析在确定的参考点处的对象的类型。
在确定了对象为文本的情况下,参考点的横坐标可被设置为更靠近两个触摸中的左触摸的触摸位置,参考点的纵坐标可被设置为更靠近两个触摸中的右触摸的触摸位置。
在确定了对象为图像的情况下,当参考点的移动路径形成环形曲线时,环形曲线内的区域可被确定为选择区域。
控制器还被配置为在确定了对象为多列表的情况下,沿参考点的移动路径选择与至少一个复选框相应的对象。
关于通过使用多点触摸选择对象的方法的信息可被存储在计算机可读记录介质中。记录介质包括存储由计算机系统读取的程序和数据的任何一种记录介质。例如,记录介质包括只读存储器(ROM)、随机存取存储器(RAM)、光盘(CD)、数字视频光盘(DVD)、磁带、软盘、光学数据存储装置、嵌入式多媒体卡(eMMC)等。此外,可将记录介质分布在通过网络彼此连接的计算机系统中,以使得可以以分布方式存储和执行计算机可读代码。
根据本公开的实施例,可通过一个触摸来选择正在屏幕上显示的多个对象,而无需为了切换到对象选择模式的不必要处理。
根据本公开的实施例,可通过包括多个触摸的单个输入,来选择正在屏幕上显示的文本的期望区域。
根据本公开的实施例,可通过包括多个触摸的单个输入,来选择正在屏幕上显示的多列表中的至少一个对象。
根据本公开的实施例,可通过包括多个触摸的单个输入,来选择正在屏幕上显示的图像的期望区域。
因此,可容易地选择正在电子装置(诸如包括屏幕显示单元的智能电话)的屏幕上显示的各种类型的对象,因而可提供方便的用户体验。
从以下通过结合附图,公开本公开的各种实施例的详细描述中,对于本领域的技术人员,本公开的其他方面、优点和显著特点将变得更加明显。
附图说明
从下面结合附图进行的详细描述中,本公开的特定实施例的以上和其他方面、特点和优点将会变得更加明显,其中:
图1是示出根据本公开的实施例的作为电子装置的便携式终端的示例的框图;
图2是示出根据本公开的实施例的便携式终端的前视图;
图3是示出根据本公开的实施例的便携式终端的后视图;
图4是示出根据本公开的实施例的用于通过使用多点触摸来选择对象的设备的框图;
图5是示出根据本公开的实施例的通过使用多点触摸来选择对象的过程的流程图;
图6是示出根据本公开的第一实施例的通过使用多点触摸来选择文本的过程的流程图;
图7是示出根据本公开的第二实施例的通过使用多点触摸来选择多列表的过程的流程图;
图8是示出根据本公开的第三实施例的通过使用多点触摸来选择图像的过程的流程图;
图9示出根据本公开的实施例的选择屏幕上的文本的示例;
图10示出根据本公开的实施例的选择屏幕上的多列表的示例;
图11示出根据本公开的实施例的选择屏幕上的图像的示例;
图12至图15示出根据本公开的实施例的从多点触摸点确定参考点的示例。
在整个附图中,应该注意相同的标号被用于描述相同或相似的元件、特征和结构。
具体实施方式
提供参照附图的以下描述,以协助对由权利要求及它们的等同物限定的本公开的各种实施例的全面理解。描述包括各种特定细节以帮助理解,但这些细节将仅被视为是示例性的。因此,本领域的普通技术人员将认识到在不脱离本公开的范围和精神的情况下,可对描述于此的各种实施例进行各种改变和修改。此外,为了清楚和简洁,公知的功能和结构的描述可被省略。
在以下描述和权利要求中使用的术语和词语不限于字面意思,而是仅被发明者用于使能够对本公开有清晰和一致的理解。因此,本领域技术人员应该清楚,提供本公开的各种实施例的以下描述,仅仅是为了说明的目的,而不是为了限制由权利要求和它们的等同物限定的本公开的目的。
将理解,除非上下文明确指出,否则单数形式包括复数形式。因此,例如,涉及到“组件表面”包括涉及一个或多个这样的表面。
虽然包括序数(诸如“第一”、“第二”等)的术语可被用于描述各种组件,但这些组件不被以上术语限制。这些术语仅被用于将一个元件与其他元件区分的目的。例如,在不脱离本公开的范围的情况下,第一元件可被称为第二元件,同样地,第二元件也可被称为第一元件。如这里所使用的,术语“和/或”包括一个或多个相关列出的项的任何组合和所有组合。这里使用的术语仅仅用于描述特定实施例,并不意图限制本公开。
如这里所使用的,诸如“包括”和/或“具有”的术语可被解释为指示特定特征、数量、步骤、操作、组成元件、组件或它们的组合,但并不是被解释为排除存在或增加了一个或多个其它特征、数量、步骤、操作、组成元件、组件或它们的组合的可能性。
除非定义,否则这里使用的所有术语具有与本领域技术人员通常理解的相同的意思。除非在本说明书中明确地定义,否则如在通用字典中定义的那些术语,应该被解释为具有与在相关技术领域中的上下文的意思相同的意思,并且将不被解释为具有理想的或过于正式的意思。还将理解,除非这里明确地定义,否则术语(诸如在通用字典中定义的那些术语)应该被解释为具有与相关领域的上下文中的意思一致的意思,并且将不被解释为理想化或过于正式的意义。
在本公开的实施例中,公开了一种通过使用多点触摸选择对象以选择在电子装置的屏幕上显示的对象的方法和设备。根据本公开的实施例,可通过输入多个触摸(例如,两个触摸(在下文中,被称为多点触摸))来执行自动切换到对象选择模式,并可通过跟踪输入触摸的移动路径,来选择与移动路径相应的至少一个对象。
根据本公开的实施例的可被选择的对象可包括文本、图像、多列表等,并且本公开不限于此。
例如,当屏幕上的触摸点与文本区域相应时,与触摸的移动路径相应的文本可被选择。此外,当屏幕上的触摸点与图像区域相应时,在根据触摸的移动路径形成的环形曲线内的区域可被选择。此外,当屏幕上的触摸点与多列表区域相应时,与触摸的移动路径相应的至少一个对象(例如,复选框)可被选择。术语多列表是指被分类并显示的多个对象(诸如文件或照片)。例如,可以以缩略图图像的形式显示多个图像,并且还可与各个对象相应地显示复选框。
在下面的描述中,术语“多点触摸”表示多个触摸(例如,两个或更多个触摸)被输入到触摸屏的状态。在各种实施例中,在当已输入多个触摸中的每一个触摸时的时间差在阈值时间间隔内的情况下,可确定多个触摸已被同时输入。
可在包括显示单元(例如触摸屏)的任何电子装置中实现(即,实施)根据本公开的实施例的用于通过使用多点触摸来选择对象的方法和设备,并且通过显示单元显示各个对象并可安装可选择屏幕上的特定对象的应用的任何电子装置,可被包括在根据本公开的实施例的电子装置中。
因此,在本公开中,电子装置可以是包括触摸屏的任意装置,并可被称为便携式终端、移动终端、通信终端、便携式通信终端、便携式移动终端等。例如,电子装置可以是智能电话、蜂窝电话、游戏机、电视(TV)、显示装置、车辆头枕单元、笔记本式计算机、膝上型计算机、平板计算机、个人媒体播放器(PMP)、个人数字助理(PDA)、导航装置、银行的自动取款机(ATM)、商店的销售点终端(POS)装置等。此外,本公开中的电子装置可以是柔性装置或柔性显示装置。
电子装置的代表性配置为便携式终端(例如,蜂窝电话或智能电话)。在下面的描述中,根据需要可省略或修改电子装置的代表性配置的一些元件。将参照图1至图3描述便携式终端的配置,其中,便携式终端是应用了本公开的电子装置的示例。
图1是示出根据本公开的实施例的作为电子装置的便携式终端的示例的框图。
参照图1,便携式终端100可通过使用通信模块120、连接器165和耳机连接插孔167中的至少一个,与外部电子装置连接。所述电子装置可包括可以以有线方式被可拆卸地连接到便携式终端100的以下各种装置之一,诸如,耳机、外部扬声器、通用串行总线(USB)存储器、充电器、支架/Dock接口、数字多媒体广播(DMB)天线、移动支付相关设备、健康护理装置(例如血糖测量装置)、游戏机、车辆导航装置等。此外,电子装置可包括可被无线连接的蓝牙通信装置、近场通信(NFC)装置、Wi-Fi直接通信装置和无线接入点(AP)。便携式终端100可通过使用有线或无线的方式连接到另一便携式终端或电子装置(例如,蜂窝电话、智能电话、平板PC、台式PC和服务器中的一个)。
便携式终端100可包括至少一个触摸屏190和至少一个触摸屏控制器195。此外,便携式终端100可包括控制器110、通信模块120、多媒体模块140、相机模块150、输入/输出模块160、传感器模块170、存储单元175和电源单元180。通信模块120可包括移动通信模块121、子通信模块130和广播通信模块141。子通信模块130可包括无线LAN模块131和NFC模块132中的至少一个,多媒体模块140可包括音频播放模块142和视频播放模块143中的至少一个。相机模块150可包括第一相机151和第二相机152中的至少一个。输入/输出模块160可包括按钮161、麦克风162、扬声器163、振动元件164、连接器165和键盘166。
控制器110可包括CPU111、ROM112和RAM113,其中,在ROM112中存储为了控制便携式终端100的控制程序,RAM113存储从便携式终端的外部输入的信号或数据,或被用作为了在便携式终端100中执行的操作的存储区域。CPU111可包括单核、双核、三核或四核。可通过内部总线将CPU111、ROM112和RAM113彼此连接。
控制器110可控制通信模块120、多媒体模块140、相机模块150、输入/输出模块160、传感器模块170、存储单元175、电源单元180、触摸屏190和触摸屏控制器195。
此时,根据本公开的实施例,控制器110确定多个触摸已经被输入到了触摸屏190上显示的屏幕,跟踪屏幕上的多个触摸的移动路径,因而可控制使得多个对象可被选择。稍后将参照图4描述根据本公开的实施例的控制器110的各种功能。
当输入单元168靠近触摸屏190或位于靠近触摸屏190的位置时,控制器110可感测用户输入事件(诸如悬浮事件)。根据本公开的实施例,控制器110可确定由多个输入单元引起的多个触摸(例如,通过触摸屏的触摸),并控制选择屏幕上包括的至少一个对象的功能。
控制器110可检测通过相机模块150、输入/输出模块160、传感器模块170和触摸屏190接收的多个用户输入。除触摸之外,用户输入可包括输入到便携式终端的各种类型的信息(诸如,用户的手势、语音、眼动、虹膜识别、生物信号等)。控制器110可控制将被执行的与检测到的用户输入相应的操作和功能。
控制器110可将控制信号输出到输入单元168或振动元件164。控制信号包括关于振动模式的信息,并且输入单元168或振动元件164响应于振动模式产生振动。关于振动模式的信息可表示振动模式本身和振动模式的标识符。可选地,控制信号也可仅包括对于产生振动的请求。
便携式终端100可根据便携式终端100的性能,包括移动通信模块121、无线LAN模块131和NFC模块132中的至少一个。
移动通信模块121在控制器110的控制下通过使用一个或多个天线(未示出),使便携式终端100能够通过移动通信与外部电子装置连接。移动通信模块121可将用于语音呼叫、视频呼叫、短消息服务(SMS)或多媒体消息服务(MMS)的无线信号发送到具有输入到便携式终端100的电话号码的蜂窝电话、智能电话、平板PC或其他电子装置(未示出),并可从所述蜂窝电话、智能电话、平板PC或其他电子装置(未示出)接收所述无线信号。
子通信模块130可包括无线LAN模块131和NFC模块132中的至少一个。例如,子通信模块130可仅包括无线LAN模块131,或仅包括近场通信模块132。可选地,子通信模块130可包括无线LAN模块131和NFC模块132两者。
可在控制器110的控制下,在安装了无线接入点(AP)的地方将无线LAN模块131连接到互联网。无线LAN模块131可支持电气和电子工程师协会(IEEE)的无线LAN协议(例如,IEEE802.11x)。NFC模块132可在控制器110的控制下,在便携式终端100和外部电子装置(未示出)之间以无线方式执行NFC。近场通信方法可包括蓝牙、红外数据协会(IrDA)、Wi-Fi直接通信和近场通信(NFC)。
广播通信模块141可在控制器110的控制下通过广播通信天线接收从广播站发送的广播信号(例如,TV广播信号、音频广播信号或数据广播信号)和额外的信息(例如,电子节目指南(EPS)、电子服务指南(ESG)等)。
多媒体模块140可包括音频播放模块142和视频播放模块143。音频播放模块142可在控制器110的控制下播放存储在存储单元175中的或者接收到的数字音频文件(例如,具有诸如mp3、wma、ogg和wav扩展名的文件)。视频播放模块143在控制器110的控制下播放存储或者接收到的数字视频文件(例如,具有诸如mpeg、mpg、mp4、avi、mov和mkv扩展名的文件)。
多媒体模块140可被集成在控制器110中。相机模块150可包括在控制器110的控制下拍摄静止图像和运动图像的第一相机151和第二相机152中的至少一个。此外,相机模块150可包括为了拍摄对象执行放大/缩小的镜筒155、控制镜筒155的移动的马达154和提供拍摄对象所必需的辅助光源的闪光灯153中的至少一个。第一相机151可被布置在便携式终端100的前表面上,第二相机可被布置在便携式终端100的后表面上。
输入/输出模块160可包括至少一个按钮161、至少一个麦克风162、至少一个扬声器163、至少一个振动元件164、连接器165、键盘166、耳机连接插孔167和输入单元168中的至少一个。输入/输出模块160不限于此,并且可设置有光标控制(诸如鼠标、跟踪球、操纵杆或光标方向键)以便控制触摸屏190上的光标移动。
按钮161可被形成在便携式终端100的外壳(或壳体)的前表面、侧表面或后表面上,并且可包括电源/锁定按钮、音量按钮、菜单按钮、主屏按钮、返回按钮、搜索按钮等。麦克风162在控制器110的控制下接收语音或声音以产生电信号。扬声器163可在控制器110的控制下将与各种信号或数据(例如,无线数据、广播数据、数字音频数据、数字视频数据等)相应的声音输出到便携式终端100的外部。扬声器163可输出与便携式终端100执行的功能相应的声音(例如,与电话呼叫相应的按键操作音、呼叫连接音、对方用户的语音等)。一个或多个扬声器163可被形成在便携式终端100的壳体的一个或多个合适的位置。
振动元件164可在控制器110的控制下将电信号转换为机械振动。例如,当振动模式下的便携式终端100从另一装置(未示出)接收语音呼叫或视频呼叫时,振动元件164进行操作。一个或多个振动元件164可被形成在便携式终端100的壳体中。振动元件164可进行操作,以与通过触摸屏190的用户输入相应。
连接器165可被用作为了将便携式终端100与外部电子装置或电源连接的接口。控制器110可通过连接到连接器165的有线线缆,将存储在便携式终端100的存储单元175中的数据发送到外部电子装置,或从外部电子装置接收数据。此外,便携式终端100可通过连接到连接器165的有线线缆从电源接收电能或通过使用电源为电池充电。
为了控制便携式终端100,键盘166可从用户接收按键输入。键盘166可包括形成在便携式终端100中的物理键盘或显示在触摸屏190上的虚拟键盘。根据便携式终端100的性能或结构,可不包括形成在便携式终端100中的物理键盘。耳机可被插入到耳机连接插孔167,从而被连接到便携式终端100。
输入单元168可被插入到并保留在便携式终端100中,并且当被使用时可从便携式终端100被提取或分离出来。进行操作以与输入单元168的安装和拆卸相应的安装/拆卸识别开关169可被安装在便携式终端100中插入了输入单元168的区域处,并可将与输入单元168的连接和拆卸相应的信号提供给控制器110。当输入单元168被安装时,连接/拆卸识别开关169可被配置为直接或间接地接触输入单元168。因此,连接/拆卸识别开关169可基于是否与输入单元168接触,产生与输入单元168的连接或拆卸相应的信号(即,通知输入单元的连接或拆卸的信号),并将信号输出到控制器110。
传感器模块170包括检测便携式终端100的状态的至少一个传感器。例如,传感器模块170可包括接近传感器、照度传感器、运动传感器、地磁传感器、重力传感器、高度计、GPS模块157等中的至少一个,其中,接近传感器检测与便携式终端100的用户接近,照度传感器检测在便携式终端100周围的光量,运动传感器检测便携式终端100的运动(例如,便携式终端100的旋转、便携式终端100的加速或振动等),地磁传感器通过使用地球的磁场检测便携式终端100的罗盘的方位点,重力传感器检测重力的作用方向,高度计通过测量大气压检测高度。
GPS模块157可从地球轨道上的多个GPS卫星接收电波(例如信号),并可通过使用电波从GPS卫星到便携式终端100的到达时间,来计算便携式终端100的位置。
存储单元175可在控制器110的控制下,存储根据通信模块120、多媒体模块140、相机模块150、输入/输出模块160、传感器模块170或触摸屏190的操作而输入和输出的信号或数据。存储单元175可存储用于控制便携式终端100或控制器110的控制程序或应用。
术语“存储单元”表示任意数据存储装置(诸如,存储单元175、控制器110中的ROM112和RAM113、或安装到便携式终端100的存储卡(例如,SD卡、记忆棒等)。存储单元175还可包括非易失性存储器、易失性存储器、硬盘驱动器(HDD)、固态驱动器(SSD)等。
存储单元175可存储具有各种功能(诸如,导航、视频呼叫、游戏或基于时间的闹铃应用)的应用、为了提供与应用相关的图形用户界面(GUI)的图像、用户信息、文件、与处理触摸输入的方法相关的数据库或数据、、驱动便携式终端100所必需的背景图像(菜单屏幕和待机屏幕)或操作程序、和由相机模块150拍摄的图像。
此外,存储单元175可存储根据本公开的实施例的关于通过多点触摸选择的至少一个对象的信息,或与所述至少一个对象相关的信息,并存储根据本公开的实施例的当跟踪触摸的移动路径时与触摸的移动路径相关的至少一段信息。
存储单元175是机器(例如计算机)可读介质,并且被称为机器可读介质的术语可被定义为将数据提供给机器,使得机器可执行特定功能的介质。存储单元175可包括非易失性介质和易失性介质。所有这样的介质应该是一些有形的东西,从而可通过将命令读取到机器的物理机制,来检测通过介质传送的命令。
机器可读介质不限于此,并可包括软盘、柔性盘、硬盘、磁带、压缩盘只读存储器(CD-ROM)、光盘、穿孔卡片、纸带、RAM、可编程只读存储器(PROM)、可擦除PROM(EPROM)、FLASH-EPROM、嵌入式多媒体卡等中的至少一个。
电源单元180可在控制器110的控制下向布置在便携式终端100的壳体中的一个或多个电池提供电能。所述一个或多个电池向便携式终端100提供电能。此外,电源单元180可将通过与连接器165连接的有线线缆从外部电源输入的电能,提供给便携式终端100。此外,电源单元180还可将通过无线充电技术从外部电源无线输入的电能,提供给便携式终端100。
便携式终端100可包括向用户提供与各种服务(例如,电话呼叫、数据传输、广播、拍摄等)相应的用户图形界面的至少一个触摸屏190。触摸屏190可将与输入到用户图形界面的至少一个用户输入相应的模拟信号,输出到触摸屏控制器195。
触摸屏190可接收通过用户身体(例如,包括拇指的手指)或输入单元(例如,触控笔、电子笔等)进行的至少一个用户输入。例如,可通过电阻方法、电容方法、红外线方法、声波方法或所述方法的组合来实现触摸屏190。
触摸屏190可包括可分别感测手指和输入单元168的触摸或接近的至少两个触摸面板,从而可接收通过手指和输入单元168进行的输入。所述至少两个触摸面板可将相互不同的输出值提供给触摸屏控制器195,触摸屏控制器195可不同地识别从所述至少两个触摸屏面板输入的值,并识别来自触摸屏190的输入是通过手指和输入单元168进行的输入中的哪一个。
触摸不限于触摸屏190与用户身体或可触摸输入单元之间的接触,并可包括非接触(例如,触摸屏190与用户身体或可触摸输入单元之间的可检测的间隔为1mm或小于1mm的状态)。可根据便携式终端100的性能或结构改变在触摸屏190中的可检测的间隔。
触摸屏控制器195将从触摸屏190输入的模拟信号转换为数字信号,并将数字信号发送到控制器110。控制器110可通过使用从触摸屏控制器195接收的数字信号,来控制触摸屏190。触摸屏控制器195可检测通过触摸屏190输出的值(例如电流值),以识别悬浮间隔或距离以及用户输入的位置,并还可将识别的距离值转换为数字信号(例如Z坐标),以将数字信号提供给控制器110。此外,触摸屏控制器195可检测通过触摸屏190输出的值(例如电流值),以检测用户输入单元应用于触摸屏190的压力,并还可将识别的压力值转换为数字信号,以将数字信号提供给控制器110。
此外,根据本公开的实施例,触摸屏控制器195可将从触摸屏190输入的多个模拟信号转换为数字信号,以将数字信号发送到控制器110。此时,控制器110可通过从触摸屏控制器195接收到的多个数字信号,来确定是否输入了多个触摸。
图2是示出根据本公开的实施例的便携式终端的前视图,图3是示出根据本公开的实施例的便携式终端的后视图。
参照图2和图3,触摸屏190被布置在便携式终端100的前表面100a的中心区域。触摸屏190可被大范围地形成以占据便携式终端100的前表面100a的大部分。图2示出主要的主屏幕被显示在触摸屏190上的示例。当便携式终端100的电源接通时,主要的主屏幕与显示在触摸屏190上的第一屏幕相应。此外,在便携式终端100具有几页不同的主屏幕的情况下,主要的主屏幕可与几页主屏幕中的第一主屏幕相应。在图2和图3的示例中,天气应用191被作为主屏幕的部分示出。可在主屏幕中显示为了执行频繁使用的应用的快捷方式图标191a、191b和191c,主菜单切换键191d,时间以及天气。当用户选择主菜单切换键191d时,菜单屏幕被显示在触摸屏190上。此外,还可在触摸屏190的上端部分形成显示便携式终端100的状态(诸如,电池充电状态、接收的信号的强度、当前时间等)的状态栏192。
可在触摸屏190的下面形成主屏按钮161a、菜单按钮161b和返回按钮161c。主要的主屏幕通过主屏按钮161a被显示在触摸屏190上。例如,在触摸屏190上正显示着菜单屏幕或与主要的主屏幕不同的另一主屏幕的状态下,当选择了主屏按钮161a时,主要的主屏幕可被显示在触摸屏190上。此外,当在触摸屏190上执行应用的同时主屏按钮161a被选择时,图2中示出的主要的主屏幕可被显示在触摸屏190上。此外,主屏按钮161a还可被用于允许在触摸屏190上显示最近使用的应用或任务管理器。
菜单按钮161b提供可在触摸屏190上显示的连接菜单。连接菜单可包括微件添加菜单、背景图像改变菜单、搜索菜单、版本菜单、环境设置菜单等。
返回按钮161c可被用于显示刚刚在当前执行的屏幕之前被执行的屏幕,或终止最近最常使用的应用。
第一相机151、照度传感器171、接近传感器172和耳用扬声器163a可被布置在便携式终端100的前表面100a的边缘处。第二相机152、闪光灯153和扬声器163可被布置在便携式终端100的后表面100c上。
例如,电源/锁定按钮161d、包括音量增大按钮161f和音量减小按钮161g的音量按钮161e、用于接收广播的地面DMB天线(未示出)和一个或多个麦克风162可被布置在便携式终端100的侧表面100b上。DMB天线可被固定到便携式终端100,或可从便携式终端100被可拆卸地形成。
连接器165可被形成在便携式终端100的下侧面上。多个电极可被形成在连接器165中,并可与电子装置有线地连接。耳机插孔167可被形成在便携式终端100的上侧面上。耳机可被插入到耳机插孔167。
输入单元168可被安装在便携式终端100的下侧面上。输入单元168可被插入并保持在便携式100中,并可被从便携式终端100提取和分离出来以用于使用。
以上已描述了便携式终端100的结构,其中,便携式终端100是可应用本公开的电子装置的示例。
在下文中,将参照图4至图8描述根据本公开的实施例的通过使用多点触摸来选择对象的设备和方法。
图4是示出根据本公开的实施例的用于通过使用多点触摸来选择对象的设备的框图。
参照图4,设备400可被配置为包括多点触摸确定单元410、参考点计算单元420、对象分析单元430、选择模式切换单元440、开始点确定单元450、移动路径跟踪单元460和选择的对象确定单元470中的一个或更多个。在各种实施例中,设备400的一些元件可被包括在图1的便携式终端100的控制器110中。
多点触摸确定单元410确定是否输入了多点触摸。在实施例中,多点触摸单元410基于由通过触摸屏输入的多个触摸接收的信号,来确定是否输入了多点触摸。此时,可不同地实现确定是否输入了多点触摸的方法。例如,根据本公开的实施例,多点触摸确定单元410可比较当多个触摸中的每一个触摸被输入时的时间,当输入时间差在阈值时间间隔内时将触摸视为正在被输入,因此确定已经输入了多点触摸。例如,多点触摸确定单元410可确定输入第一触摸的时间,可确定输入第二触摸的时间,并可确定输入时间之间的差是否小于阈值。在实施例中,输入时间之间的差可以是零。
随着多点触摸确定单元410确定已经输入了多点触摸,对象分析单元430可分析在触摸屏的屏幕上的当前多点触摸的部分与哪种类型的对象相应。例如,多点触摸的部分可以是文本区域、图像区域或用于选择的多列表。此时,可基于多个多点触摸点中的任何一个来确定对象,或也可根据本公开的另一实施例,通过从多个触摸点计算单独的参考点来确定对象。
参考点计算单元420可执行从输入了多点触摸的多个输入点计算用于对象分析的参考点的功能。此时,可不同地实现计算参考点的方法。例如,参考点计算单元420可将两个输入触摸点之间的中点设置为参考点,或也可通过将权重分配给每一个触摸点来设置参考点。稍后将参照图12至图15描述关于该功能的特定实施例。
当多点触摸确定单元410确定已输入了多点触摸时,选择模式切换单元440执行切换到对象选择模式的功能,其中,在对象选择模式下,可在相应应用中选择显示在屏幕上的特定对象。用户通过根据切换到对象选择模式的屏幕执行各种操作,以使得对象可被选择。
开始点确定单元450确定用于选择对象的开始点,并且可不同地实现确定开始点的方法。开始点可与参考点计算单元420已经计算出的参考点相同或不同。稍后将参照图12至图15描述关于该功能的特定实施例。
当在屏幕上移动多点触摸时,移动路径跟踪单元460执行跟踪多点触摸的移动路径的功能。例如,当用户在向屏幕输入多点触摸之后,在不释放触摸的情况下在屏幕上滑动触摸时,多点触摸的移动路径被产生。此时,关于多点触摸的移动路径的信息可被存储在存储单元(诸如存储单元175)中。
选择的对象确定单元470执行将与由移动路径跟踪单元460跟踪的多点触摸的移动路径相应的至少一个对象确定为选择的对象的功能。
为了表示设备400的各个元件可以是功能上和逻辑上分开的,在附图中单独示出各个元件,但这并不意味着所述元件可被实现为物理上分离的元件或代码。
在本发明说明书中,每一个功能单元可意味着用于实现本公开的精神和范围的硬件和用于驱动所述硬件的软件的功能和结构组合。例如,功能单元可意味着预定代码和用于执行预定代码的硬件资源的逻辑单元,并且本公开所属技术领域的一个普通技术人员可容易地推导出功能单元并不必意味着物理上连接的代码或一种硬件。
在下文中,将参照图5至图8描述根据本公开的实施例的通过使用多点触摸来选择对象的过程。
图5是示出根据本公开的实施例的通过使用多点触摸来选择对象的过程的流程图。
参照图5,当在操作S501在电子装置中包括的触摸屏上感测到触摸时,在操作S502确定触摸是否与多点触摸相应。当在操作S502确定触摸不与多点触摸相应时,在操作S503触摸被视为将被处理的普通触摸。
另一方面,当在操作S502确定触摸与多点触摸相应时,执行切换到对象选择模式的操作,使得可选择至少一个相应对象。因此,在操作S504从多个多点触摸位置计算用于对象分析的参考点,并在操作S505通过分析在计算出的参考点处的数据特性,来分析在触摸位置处的对象。分析的对象可以是文本、图像和多列表中的任何一个。
在操作S506,确定分析的对象是否是文本、图像和多列表。基于在操作S506的确定,过程如在图6至图8中的一个中所示的继续。也就是说,当分析的对象与文本相应时,可根据图6的过程执行选择对象的过程,当分析的对象与多列表相应时,可根据图7的过程执行选择对象的过程,当分析的对象与图像相应时,可根据图8的过程执行选择对象的过程。
图6是示出根据本公开的第一实施例的通过使用多点触摸来选择文本的过程的流程图。当从图5中的当前的多点触摸位置分析出的对象与如图9所示的文本相应时,可通过如图6所示的过程来选择至少一个相应的文本。
参照图6,在操作S601,从当前的多点触摸位置计算出用于对象选择的参考点,并将已从第一多点触摸位置计算出的用于对象选择的参考点设置为选择开始点。此时,用于对象选择的参考点的开始点(即,选择开始点)可与如上所述的用于对象分析的参考点基本相同或不同。
当移动了多点触摸位置时(例如,当滑动用于多点触摸的手时),用于通过多点触摸进行对象选择的参考点从选择开始点开始移动。因此,在本公开的实施例中的操作S602,跟踪从多点触摸位置计算出的用于对象选择的参考点的移动路径。
在操作S603确定多点触摸是否被释放。当在操作S603确定多点触摸未被释放时,处理返回至操作S602并继续随后的操作。当在操作S603确定多点触摸被释放时,在操作S604选择与跟踪的移动路径相应的文本。此时,当多个文本与跟踪的移动路径相应时,可遮挡并选择多个文本。
如上所述选择的文本可被用于应用支持的多种功能。此外,选择的文本可被复制并随后在其他应用中使用。
图7是示出根据本公开的第二实施例的通过使用多点触摸来选择多列表的过程的流程图。当从图5中的当前的多点触摸位置分析出的对象与如图10所示的多列表相应时,可通过如图7所示的过程,在相应的多列表中选择至少一个对象。
参照图7,在操作S701,从当前的多点触摸位置计算出用于对象选择的参考点,并将已从第一多点触摸位置计算出的用于对象选择的参考点设置为选择开始点。此时,用于对象选择的参考点的开始点(即,选择开始点)可与如上所述的用于对象分析的参考点基本相同或不同。
当移动了多点触摸位置时(例如,当滑动用于多点触摸的手时),用于通过多点触摸进行对象选择的参考点从选择开始点开始移动。因此,在本公开的实施例中的操作S702,跟踪从多点触摸位置计算出的用于对象选择的参考点的移动路径。
在操作S703确定多点触摸是否被释放。当在操作S703确定多点触摸未被释放时,处理返回至操作S702并继续随后的操作。当在操作S703确定多点触摸被释放时,在操作S704选择并处理与跟踪的移动路径相应的多列表中的特定对象。
如上所述选择的对象可被用于应用支持的多种功能。例如,当如图10所示选择了多个图像时,可执行复制或发送选择的图像的功能,然而本公开不限于此。
图8是示出根据本公开的第三实施例的通过使用多点触摸来选择图像的过程的流程图。当从图5中的当前的多点触摸位置分析出的对象与如图11所示的图像相应时,可通过如图8所示的过程选择相应图像中的特定区域。
参照图8,在操作S801,从当前的多点触摸位置计算出用于对象选择的参考点,并将已从第一多点触摸位置计算出的用于对象选择的参考点设置为选择开始点。此时,用于对象选择的参考点的开始点(即,选择开始点)可与如上所述的用于对象分析的参考点基本相同或不同。
当移动了多点触摸位置时(例如,当滑动用于多点触摸的手时),用于通过多点触摸进行对象选择的参考点从选择开始点开始移动。因此,在本公开的实施例中的操作S802,跟踪从多点触摸位置计算出的用于对象选择的参考点的移动路径。
在操作S803确定多点触摸是否被释放。当在操作S803确定多点触摸未被释放时,处理返回至操作S802并继续随后的操作。当在操作S803确定多点触摸被释放时,在操作S804确定移动路径是否为环形曲线。当在操作S804确定移动路径不是环形曲线时,在操作S805可释放选择,或可这样处理使得没有区域被选择。
另一方面,当在操作S804确定移动路径为环形曲线时,在操作S806可将环形曲线区域确定为选择的区域。
如上所述选择的图像区域可被用于应用支持的多种功能。此外,选择的图像区域可被复制,并随后在其他应用中使用。
已经参照图5至图8描述了根据本公开的各种实施例的方法。
可以以程序指令的形式实现根据本公开的实施例的通过使用多点触摸来选择对象的方法,其中,程序指令可通过各种计算机单元被执行,并记录在计算机可读介质中。计算机可读介质可单独地或结合地包括程序指令、数据文件和数据结构。记录在介质中的程序指令可与为本公开专门设计和配置的程序指令或与所使用的计算机软件领域中的技术人员公知的程序指令相应。计算机可读介质包括磁介质(诸如硬盘、软盘和磁带)、光学介质(诸如CD-ROM和DVD)、磁光介质(诸如软光盘)和专门配置以存储和执行程序指令的硬件(诸如ROM、RAM、闪存)。程序指令包括可由计算机通过解释器执行的高级语言代码以及由编译器产生的机器语言代码。为了执行本公开的操作,上述硬件装置可被配置为作为一个或多个软件模块来操作,反之亦然。
在下文中,将参照图9至图11描述在电子装置的屏幕上实现的本公开的实施例。图9示出通过多点触摸来选择文本对象的示例,图10示出通过多点触摸来选择多列表中的对象的示例,图11示出通过多点触摸来选择图像的特定区域的示例。
参照图9,在屏幕上显示“THE ROSES OF SHARON ARE IN FULL BLOOM.”的文本900的状态下,当用户用两个手指(例如,食指910a和中指920a)对文本“ARE”的附近进行多点触摸,并将多点触摸手指滑动到正好在文本“BOTH”前的位置910b和920b时,根据本公开的实施例,文本“ARE IN FULLBLOOM”930可被遮挡并选择。也就是说,当根据滑移运动移动从食指910a和中指920a的触摸位置计算出的参考点时,与参考点的移动路径相应的所有文本可被选择。因此,用户可仅通过一个简单的触摸容易地选择期望的文本区域。
参照图10,多个图像1001、1002、1003、1004、1005、1006、1007、1008、1009、1010、1011、1012、1013、1014和1015均可以以缩略图的形式显示在屏幕1000上。复选框1001a、1002a、1003a、1004a、1005a、1006a、1007a、1008a、1009a、1010a、1011a、1012a、1013a、1014a和1015a均可分别显示在缩略图像的下侧。通常,用户必须单独地选择与各个缩略图像邻近显示的每一个相应的复选框1001a至1015a,以便从多个缩略图像1001至1015中选择期望的图像。也就是说,为了选择十幅图像有必要进行十个触摸。
然而,在本公开的实施例中,用户对要选择的特定图像的复选框(例如第一复选框1001a)进行多点触摸,并滑动对于用户期望选择的图像的触摸,从而仅通过一个触摸容易地选择多个图像。
例如,用户对第一复选框1001a进行多点触摸,随后以第二复选框1002a、第三复选框1003a、第四复选框1004a、第五复选框1005a、第十复选框1010a、第九复选框1009a、第八复选框1008a、第七复选框1007a、第六复选框1006a、第十一复选框1011a、第十二复选框1012a、第十三复选框1013a和第十四复选框1014a的顺序滑动触摸,从而可选择多个相应的图像。
参照图11,在屏幕上显示图像1100的状态下,当用户用两个手指(例如,食指1110和中指1120)对图像1100的特定点进行多点触摸,并通过多点触摸手指的滑移运动形成环形曲线1130时,环形曲线1130内的区域1140可被选择。
也就是说,当根据滑移运动移动从食指1110和中指1120的触摸点计算出的参考点,并且参考点的移动路径形成环形曲线1130时,环形曲线内的区域1140可被选择。因此,用户可仅通过一个简单的触摸容易地选择期望的图像区域。
在下文中,将参照图12至图15描述根据本公开的实施例的确定参考点(例如,用于确定对象类型的参考点或用于对象选择的参考点)和选择开始点的方法。
参照图12,可基于两个触摸点计算用于确定对象类型的参考点。此时,两个触摸点之间的中点可被计算为如上所述的参考点,并且可通过将权重分配给各个触摸点来计算参考点。
例如,在计算参考点的过程中,可将权重分配给参考点的横坐标,使得横坐标位于更靠近食指的触摸点,并可将权重分配给参考点的纵坐标,使得纵坐标位于更靠近中指的触摸点。此外,在通过分析对象的类型确定了对象为文本的情况下,参考点的横坐标可被设置为更靠近两个触摸点中的左触摸的触摸位置,并且参考点的纵坐标可被设置为更靠近两个触摸点中的右触摸的触摸位置。
同时,在如图12所示计算出参考点后,可基于参考点计算选择开始点,或也可从两个触摸点计算出选择开始点。
图13示出根据本公开的实施例的在将被选择的对象为文本的情况下计算选择开始点的示例。
参照图13,当在对象选择模式下将被选择的对象为文本时,选择开始点的横坐标可被设置为位于参考点的左侧。根据如上所述的这种方法,当通过食指和中指输入多点触摸时,可计算出选择开始点的位置位于更靠近食指处,从而可根据用户的意图正确地选择文本。
图14和图15示出根据本公开的实施例的在将被选择的对象为多列表的情况下计算选择开始点的示例。
参照图14至图15,当在对象选择模式下将被选择的对象为多列表时,满足下面条件的点可被确定为选择开始点。
第一条件:食指的末端区域
第二条件:中指的左侧面区域
第三条件:距参考点最近的第二象限中的对象的坐标
因此,在满足第一条件和第二条件的区域内的任意点可被确定为选择开始点,满足第三条件的点可被选择性地确定为选择开始点。
同时,当将被选择的对象为图像时,选择开始点的位置可与参考点的位置相同地被使用。
此外,根据本公开的另一实施例,当多点触摸的位置被移动(例如滑动触摸屏幕的手)因而靠近屏幕的边缘时,屏幕被切换到下一页,并且还可在切换的屏幕上持续地选择对象。
尽管本公开已描述了特定问题(诸如,具体组件、有限实施例和附图),但仅提供它们用于帮助总体理解本公开,并且本公开不限于各种实施例。本领域的技术人员可根据描述进行各种修改和改变。
尽管已参照本公开的各种实施例显示和描述了本公开,但本领域的技术人员将明白,在不脱离由权利要求和它们的等同物限定的本公开的精神和范围的情况下,可对其进行形式和细节上的各种改变。
Claims (15)
1.一种通过使用多点触摸来选择对象的方法,所述方法包括:
确定是否向电子装置的触摸屏输入了至少两个触摸;
当确定已输入了所述至少两个触摸时,从所述至少两个触摸已被输入的触摸点确定参考点;
当在触摸屏上所述至少两个触摸已被输入的触摸点被移动时,跟踪确定的参考点被移动的路径;
在触摸屏上显示的屏幕上选择与参考点的移动路径相应的至少一个对象。
2.如权利要求1所述的方法,还包括:
当确定已输入了所述至少两个触摸时,切换到对象选择模式。
3.如权利要求1所述的方法,其中,确定是否输入了所述至少两个触摸的步骤包括:
当所述至少两个触摸的触摸时间差在阈值时间间隔内时,确定已输入了所述至少两个触摸。
4.如权利要求1所述的方法,其中,参考点为所述至少两个触摸已被输入的位置之间的中点。
5.如权利要求1所述的方法,其中,通过将权重分配给所述至少两个触摸已被输入的至少一个位置,来确定参考点。
6.如权利要求1所述的方法,还包括:
在确定了参考点之后,分析在确定的参考点处的对象的类型。
7.如权利要求6所述的方法,还包括:
在通过分析对象的类型确定了对象为文本的情况下,将参考点的横坐标设置为更靠近两个触摸中的左触摸的触摸位置,并将参考点的纵坐标设置为更靠近两个触摸中的右触摸的触摸位置。
8.如权利要求6所述的方法,还包括:
在通过分析对象的类型确定了对象为图像的情况下,当参考点的移动路径形成环形曲线时,确定环形曲线内的区域为选择区域。
9.一种用于通过使用多点触摸选择对象的设备,所述设备包括:
触摸屏,被配置为显示至少一个对象;
控制器,被配置为确定是否向触摸屏输入了至少两个触摸,当确定已输入了所述至少两个触摸时,从所述至少两个触摸已被输入的触摸点确定参考点,当在触摸屏上所述至少两个触摸已被输入的触摸点被移动时,跟踪确定的参考点被移动的路径,在触摸屏上显示的屏幕上选择与参考点的移动路径相应的至少一个对象。
10.如权利要求9所述的设备,其中,控制器还被配置为当确定所述至少两个触摸已被输入时,控制切换到对象选择模式。
11.如权利要求9所述的设备,其中,控制器还被配置为当所述至少两个触摸的触摸时间差在阈值时间间隔内时,确定已输入了所述至少两个触摸。
12.如权利要求9所述的设备,其中,参考点被确定为所述至少两个触摸已被输入的位置之间的中点。
13.如权利要求9所述的设备,其中,通过将权重分配给所述至少两个触摸已被输入的位置中的至少一个位置,来确定参考点。
14.如权利要求9所述的设备,其中,控制器还被配置为在确定了参考点之后,分析在确定的参考点处的对象的类型。
15.如权利要求14的设备,其中,控制器还被配置为在通过分析对象的类型确定了对象为多列表的情况下,沿参考点的移动路径选择与至少一个复选框相应的对象。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130065834A KR102113674B1 (ko) | 2013-06-10 | 2013-06-10 | 다중 터치를 이용한 객체 선택 장치, 방법 및 컴퓨터 판독 가능한 기록 매체 |
KR10-2013-0065834 | 2013-06-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104238807A true CN104238807A (zh) | 2014-12-24 |
CN104238807B CN104238807B (zh) | 2019-05-10 |
Family
ID=50943044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410255390.7A Expired - Fee Related CN104238807B (zh) | 2013-06-10 | 2014-06-10 | 用于通过使用多点触摸选择对象的设备和方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9261995B2 (zh) |
EP (1) | EP2813938B1 (zh) |
KR (1) | KR102113674B1 (zh) |
CN (1) | CN104238807B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107066167A (zh) * | 2016-09-27 | 2017-08-18 | 华为技术有限公司 | 一种区域选择方法、装置和图形用户界面 |
CN107111431A (zh) * | 2014-12-29 | 2017-08-29 | 三星电子株式会社 | 用户终端装置 |
CN110297587A (zh) * | 2019-05-08 | 2019-10-01 | 深圳市科莱德电子有限公司 | 车载导航系统的控制方法及装置 |
US10635136B2 (en) | 2014-12-29 | 2020-04-28 | Samsung Electronics Co., Ltd. | Foldable device and method of controlling the same |
US11019189B2 (en) | 2014-12-29 | 2021-05-25 | Samsung Electronics Co., Ltd. | User terminal apparatus |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
WO2013169851A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for facilitating user interaction with controls in a user interface |
EP3594797A1 (en) | 2012-05-09 | 2020-01-15 | Apple Inc. | Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface |
KR101956082B1 (ko) | 2012-05-09 | 2019-03-11 | 애플 인크. | 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스 |
WO2013169845A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for scrolling nested regions |
WO2013169875A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for displaying content associated with a corresponding affordance |
KR101823288B1 (ko) | 2012-05-09 | 2018-01-29 | 애플 인크. | 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스 |
DE202013012233U1 (de) | 2012-05-09 | 2016-01-18 | Apple Inc. | Vorrichtung und grafische Benutzerschnittstelle zum Anzeigen zusätzlicher Informationen in Antwort auf einen Benutzerkontakt |
WO2013169882A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for moving and dropping a user interface object |
WO2013169843A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for manipulating framed graphical objects |
DE112013002412T5 (de) | 2012-05-09 | 2015-02-19 | Apple Inc. | Vorrichtung, Verfahren und grafische Benutzeroberfläche zum Bereitstellen von Rückmeldung für das Wechseln von Aktivierungszuständen eines Benutzerschnittstellenobjekts |
WO2013169842A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for selecting object within a group of objects |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
WO2013169865A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
EP2939097B1 (en) | 2012-12-29 | 2018-12-26 | Apple Inc. | Device, method, and graphical user interface for navigating user interface hierarchies |
WO2014105279A1 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for switching between user interfaces |
JP6093877B2 (ja) | 2012-12-29 | 2017-03-08 | アップル インコーポレイテッド | 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース |
CN104903834B (zh) | 2012-12-29 | 2019-07-05 | 苹果公司 | 用于在触摸输入到显示输出关系之间过渡的设备、方法和图形用户界面 |
JP6097843B2 (ja) | 2012-12-29 | 2017-03-15 | アップル インコーポレイテッド | コンテンツをスクロールするか選択するかを判定するためのデバイス、方法、及びグラフィカルユーザインタフェース |
WO2014105277A2 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics |
US9671953B2 (en) * | 2013-03-04 | 2017-06-06 | The United States Of America As Represented By The Secretary Of The Army | Systems and methods using drawings which incorporate biometric data as security information |
WO2014205605A1 (en) * | 2013-06-28 | 2014-12-31 | France Telecom | Method to select portion of graphical user interface |
JP5832489B2 (ja) * | 2013-08-26 | 2015-12-16 | 株式会社コナミデジタルエンタテインメント | 移動制御装置及びプログラム |
US20150135115A1 (en) * | 2013-11-11 | 2015-05-14 | Lenovo (Singapore) Pte. Ltd. | Multi-touch input for changing text and image attributes |
US20150143291A1 (en) * | 2013-11-21 | 2015-05-21 | Tencent Technology (Shenzhen) Company Limited | System and method for controlling data items displayed on a user interface |
CN106716328A (zh) * | 2014-09-16 | 2017-05-24 | 惠普发展公司,有限责任合伙企业 | 生成用于离散光标移动的触摸输入特征 |
KR20160068494A (ko) * | 2014-12-05 | 2016-06-15 | 삼성전자주식회사 | 터치 입력을 처리하는 전자 장치 및 터치 입력을 처리하는 방법 |
US10048757B2 (en) | 2015-03-08 | 2018-08-14 | Apple Inc. | Devices and methods for controlling media presentation |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US9645732B2 (en) | 2015-03-08 | 2017-05-09 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US9990107B2 (en) | 2015-03-08 | 2018-06-05 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US10095396B2 (en) | 2015-03-08 | 2018-10-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US9785305B2 (en) | 2015-03-19 | 2017-10-10 | Apple Inc. | Touch input cursor manipulation |
US9639184B2 (en) | 2015-03-19 | 2017-05-02 | Apple Inc. | Touch input cursor manipulation |
US20170045981A1 (en) | 2015-08-10 | 2017-02-16 | Apple Inc. | Devices and Methods for Processing Touch Inputs Based on Their Intensities |
US10152208B2 (en) | 2015-04-01 | 2018-12-11 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
US10200598B2 (en) | 2015-06-07 | 2019-02-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9830048B2 (en) | 2015-06-07 | 2017-11-28 | Apple Inc. | Devices and methods for processing touch inputs with instructions in a web page |
US9860451B2 (en) | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9674426B2 (en) | 2015-06-07 | 2017-06-06 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10346030B2 (en) | 2015-06-07 | 2019-07-09 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9891811B2 (en) | 2015-06-07 | 2018-02-13 | Apple Inc. | Devices and methods for navigating between user interfaces |
US10235035B2 (en) | 2015-08-10 | 2019-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
US9880735B2 (en) | 2015-08-10 | 2018-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10248308B2 (en) | 2015-08-10 | 2019-04-02 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures |
US10416800B2 (en) | 2015-08-10 | 2019-09-17 | Apple Inc. | Devices, methods, and graphical user interfaces for adjusting user interface objects |
KR102337875B1 (ko) * | 2017-03-31 | 2021-12-10 | 삼성전자주식회사 | 전자 장치 및 그 동작 방법 |
CN113256686B (zh) * | 2021-06-28 | 2021-10-08 | 上海齐感电子信息科技有限公司 | 视觉准确目标跟踪系统及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101526881A (zh) * | 2008-03-04 | 2009-09-09 | 苹果公司 | 使用手势选择文本 |
WO2012162895A1 (en) * | 2011-06-03 | 2012-12-06 | Google Inc. | Gestures for selecting text |
US20130047093A1 (en) * | 2011-05-23 | 2013-02-21 | Jeffrey Jon Reuschel | Digital whiteboard collaboration apparatuses, methods and systems |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100412766C (zh) * | 2003-08-29 | 2008-08-20 | 诺基亚公司 | 在基于触摸的用户输入装置上用于识别双点用户输入的方法和装置 |
US20090282332A1 (en) | 2008-05-12 | 2009-11-12 | Nokia Corporation | Apparatus, method and computer program product for selecting multiple items using multi-touch |
WO2009140347A2 (en) * | 2008-05-14 | 2009-11-19 | 3M Innovative Properties Company | Systems and methods for assessing locations of multiple touch inputs |
US20090327272A1 (en) * | 2008-06-30 | 2009-12-31 | Rami Koivunen | Method and System for Searching Multiple Data Types |
KR101046660B1 (ko) | 2009-05-12 | 2011-07-06 | 고려대학교 산학협력단 | 문자 입출력 장치 및 그 방법 |
US20100302212A1 (en) * | 2009-06-02 | 2010-12-02 | Microsoft Corporation | Touch personalization for a display device |
US20130201155A1 (en) * | 2010-08-12 | 2013-08-08 | Genqing Wu | Finger identification on a touchscreen |
KR20120061038A (ko) | 2010-11-01 | 2012-06-12 | 김기주 | 터치스크린 상에서 터치 버튼의 멀티터치 인식방법, 문자 입력 방법 및 객체 변형 방법 |
US20120169671A1 (en) | 2011-01-03 | 2012-07-05 | Primax Electronics Ltd. | Multi-touch input apparatus and its interface method using data fusion of a single touch sensor pad and an imaging sensor |
KR101842457B1 (ko) | 2011-03-09 | 2018-03-27 | 엘지전자 주식회사 | 이동 단말기 및 그의 텍스트 커서 운용방법 |
US8581901B2 (en) * | 2011-07-28 | 2013-11-12 | Adobe Systems Incorporated | Methods and apparatus for interactive rotation of 3D objects using multitouch gestures |
US20140337139A1 (en) * | 2013-05-07 | 2014-11-13 | Google Inc. | Channel-level advertising attributes in an internet-based content platform |
-
2013
- 2013-06-10 KR KR1020130065834A patent/KR102113674B1/ko active IP Right Grant
-
2014
- 2014-04-10 US US14/249,718 patent/US9261995B2/en not_active Expired - Fee Related
- 2014-05-09 EP EP14167738.5A patent/EP2813938B1/en not_active Not-in-force
- 2014-06-10 CN CN201410255390.7A patent/CN104238807B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101526881A (zh) * | 2008-03-04 | 2009-09-09 | 苹果公司 | 使用手势选择文本 |
US20130047093A1 (en) * | 2011-05-23 | 2013-02-21 | Jeffrey Jon Reuschel | Digital whiteboard collaboration apparatuses, methods and systems |
WO2012162895A1 (en) * | 2011-06-03 | 2012-12-06 | Google Inc. | Gestures for selecting text |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107111431A (zh) * | 2014-12-29 | 2017-08-29 | 三星电子株式会社 | 用户终端装置 |
US10635136B2 (en) | 2014-12-29 | 2020-04-28 | Samsung Electronics Co., Ltd. | Foldable device and method of controlling the same |
US11019189B2 (en) | 2014-12-29 | 2021-05-25 | Samsung Electronics Co., Ltd. | User terminal apparatus |
US11144095B2 (en) | 2014-12-29 | 2021-10-12 | Samsung Electronics Co., Ltd. | Foldable device and method of controlling the same |
CN107066167A (zh) * | 2016-09-27 | 2017-08-18 | 华为技术有限公司 | 一种区域选择方法、装置和图形用户界面 |
CN110297587A (zh) * | 2019-05-08 | 2019-10-01 | 深圳市科莱德电子有限公司 | 车载导航系统的控制方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
US20140362003A1 (en) | 2014-12-11 |
KR102113674B1 (ko) | 2020-05-21 |
EP2813938B1 (en) | 2019-04-10 |
CN104238807B (zh) | 2019-05-10 |
US9261995B2 (en) | 2016-02-16 |
EP2813938A1 (en) | 2014-12-17 |
KR20140143985A (ko) | 2014-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104238807A (zh) | 用于通过使用多点触摸选择对象的设备和方法 | |
KR102139526B1 (ko) | 전자 장치의 화면상에 표시되는 복수의 객체들을 실행하는 장치, 방법 및 컴퓨터 판독 가능한 기록 매체 | |
KR102129374B1 (ko) | 사용자 인터페이스 제공 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말 | |
EP2738654B1 (en) | Touch screen operation method and terminal | |
CN103164157A (zh) | 在便携式终端中用于提供多点触摸交互的方法和设备 | |
CN104035672A (zh) | 用于通过检测摩擦手势提供预览的移动设备及其控制方法 | |
CN104281430A (zh) | 执行与显示在外部装置上的信息相关的功能的方法和设备 | |
CN104111794A (zh) | 用于提供与设备状态相应的改变的快捷图标的方法和设备 | |
KR102155133B1 (ko) | 이미지 표시 방법 및 장치 | |
CN103870535A (zh) | 信息搜索方法和装置 | |
CN104007892A (zh) | 用于控制多个对象的显示的方法及其移动终端 | |
CN104035679A (zh) | 显示代表信息的电子设备及其控制方法 | |
KR101893928B1 (ko) | 단말기의 페이지 표시 방법 및 장치 | |
US20140337720A1 (en) | Apparatus and method of executing function related to user input on screen | |
CN103853507A (zh) | 显示结束效果的移动设备及其控制方法 | |
CN103164156A (zh) | 便携式终端的触摸输入方法和设备 | |
US10409478B2 (en) | Method, apparatus, and recording medium for scrapping content | |
US20150106706A1 (en) | Electronic device and method for controlling object display | |
CN103631434B (zh) | 具有使用多点触摸的手写功能的移动设备及其控制方法 | |
CN103914254A (zh) | 用于动态显示盒管理的方法和设备 | |
CN103984433A (zh) | 用于控制触摸键操作的方法和设备 | |
CN103677480A (zh) | 用于测量坐标的设备及其控制方法 | |
KR20150007577A (ko) | 데이터 병합을 제어하는 휴대 단말 및 방법 | |
CN105518577A (zh) | 用于创建手写内容的用户装置和方法 | |
CN103543940A (zh) | 用于在移动装置中操作附加功能的方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190510 |
|
CF01 | Termination of patent right due to non-payment of annual fee |