CN103853346B - 管理显示在触摸屏上的多个对象的设备和方法 - Google Patents

管理显示在触摸屏上的多个对象的设备和方法 Download PDF

Info

Publication number
CN103853346B
CN103853346B CN201310631446.XA CN201310631446A CN103853346B CN 103853346 B CN103853346 B CN 103853346B CN 201310631446 A CN201310631446 A CN 201310631446A CN 103853346 B CN103853346 B CN 103853346B
Authority
CN
China
Prior art keywords
touch screen
touchscreen
controller
touch
mobile device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201310631446.XA
Other languages
English (en)
Other versions
CN103853346A (zh
Inventor
李胜明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to CN201810612161.4A priority Critical patent/CN108897484A/zh
Publication of CN103853346A publication Critical patent/CN103853346A/zh
Application granted granted Critical
Publication of CN103853346B publication Critical patent/CN103853346B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

提供一种管理显示在触摸屏上的多个对象的方法和设备。所述方法包括:将所述多个对象显示在触摸屏上,确定是否通过输入源在触摸屏上同时触摸所述多个对象中的第一对象和第二对象,如果同时触摸了第一对象和第二对象,则确定第一对象是否在触摸屏上移动,如果第一对象在触摸屏上移动,则确定第一对象和第二对象之间的距离,如果第一对象和第二对象之间的距离小于预定值,则将第一对象和第二对象组合成集合,并将所述集合显示在触摸屏上。

Description

管理显示在触摸屏上的多个对象的设备和方法
技术领域
本公开涉及一种管理显示在触摸屏上的多个对象的设备和方法。更具体地讲,本公开涉及一种根据用户手势有效地管理显示在触摸屏上的多个对象的设备和方法。
背景技术
通过将触摸面板与显示装置组合来配置触摸屏。由于其方便输入用户命令而无需键盘或鼠标的优点,触摸屏广泛用在各种电子装置中,包括移动装置、导航仪、电视(TV)、银行的自动取款机(ATM)、商店中的销售点(POS)装置等。
例如,随着移动装置提供越来越多的服务和附加功能,移动装置在触摸屏上显示图形用户界面(GUI)。
为了增加移动装置的利用并满足各种用户的需求,正在开发多种应用以在移动装置中执行。
除了由制造商开发并安装在移动装置中的基本应用之外,移动装置的用户可经互联网从应用商店下载应用并将应用安装在移动装置中。第三方开发者可开发这样的应用并将它们注册在Web上的应用服务中。因此,任何人可在应用商店上向移动用户销售开发的应用。因而,存在移动装置可用的许多应用。
在近来诸如智能电话或平板PC的移动装置中可存储几百个应用,并显示快捷键作为图标以执行各个应用。因此,用户可通过在触摸屏上触摸表示应用的图标来在移动装置中执行期望的应用。除了快捷键之外,诸如微件、图片和文档的许多其他可视对象显示在移动装置的触摸屏上。
尽管在移动装置中提供各种应用以刺激消费者的兴趣并满足他们的需求,移动装置可用的应用的增加引起问题。具体地讲,太多应用存储在移动装置中,而在移动装置的小尺寸屏幕上可显示的图标的数量有限。用户可搜索应用列表以寻找期望的应用,但这样的搜索可能花费太多时间。
因此,鉴于屏幕的有限空间,有必要对屏幕上的大量可视对象分类并组织。例如,有必要通过编辑、组合、移动或删除移动装置的屏幕上的多个可视对象来方便地管理它们。然而,在移动装置中,用户应该多次触摸每个对象以管理屏幕上的对象。当在单个文件夹中管理对象时,移动装置的屏幕应该切换至编辑屏幕,然后应该将每个对象移至文件夹中,或者应该重复地输入删除或修改命令以删除或修改文件夹中的对象。此编辑处理由于不方便而耗费时间。
呈现以上信息作为背景信息仅是为了帮助理解本公开。对于上述任何内容是否可用作本公开的现有技术并不确定,也未断言。
发明内容
本公开的各个方面在于解决至少上述问题和/或缺点,并提供至少下面所描述的优点。因此,本公开的一方面在于提供一种有效管理显示在触摸屏上的多个对象的设备和方法。
本公开的另一方面在于提供一种将显示在触摸屏上的多个对象快速组合和分离的设备和方法。
本公开的另一方面在于提供一种容易地锁定或解锁显示在触摸屏上的多个对象的设备和方法。
依据本公开的一方面,提供一种管理显示在触摸屏上的多个对象的方法。所述方法包括:将所述多个对象显示在触摸屏上;确定是否通过输入源在触摸屏上同时触摸所述多个对象中的第一对象和第二对象;如果同时触摸了第一对象和第二对象,则确定第一对象是否在触摸屏上移动;如果第一对象在触摸屏上移动,则确定第一对象和第二对象之间的距离;如果第一对象和第二对象之间的距离小于预定值,则将第一对象和第二对象组合成集合,并将所述集合显示在触摸屏上。
组合第一对象和第二对象的步骤可包括:减小第一对象和第二对象的尺寸。减小尺寸的步骤可包括:缩放第一对象和第二对象。
当第一对象和第二对象在触摸屏上彼此接触时,可改变第一对象和第二对象的形状并显示改变的第一对象和第二对象。随着第一对象和第二对象之间的距离减小,可基于第一对象和第二对象之间的距离改变第一对象和第二对象的形状。
如果通过输入源同时触摸所述集合和所述多个对象中的第三对象并将所述集合和第三对象移动在预定距离内,则可将第三对象与所述集合组合成新的集合,并可将所述新的集合显示在触摸屏上。
所述集合可显示在所述对象中的一个对象的显示区域中。
如果通过输入源触摸所述集合,则所述集合可被放大并放大地显示在触摸屏上。
如果通过输入源触摸所述集合中的两个点并使这两个点远离彼此移动,则所述集合可被放大并放大地显示在触摸屏上。
如果通过输入源触摸所述集合并在触摸屏上横向摇动所述集合,则第一对象可从所述集合移除并显示在触摸屏上所述集合的外部。
如果通过输入源触摸所述集合并且横向摇动具有触摸屏的移动装置,则第一对象可从所述集合移除并显示在触摸屏上所述集合的外部。
依据本公开的另一方面,提供一种管理显示在触摸屏上的多个对象的方法。所述方法包括:将所述多个对象显示在触摸屏上;感测输入源对触摸屏上的所述多个对象中的对象的触摸;感测输入源在触摸的对象上的扭曲;确定输入源是否扭曲了预定角度;如果输入源扭曲了预定角度,则将触摸的对象锁定。
所述方法还可包括:确定是否触摸锁定的对象;如果触摸了锁定的对象,则在触摸屏上显示密码输入窗口;如果有效的密码输入至密码输入窗口,则将锁定的对象解锁。
触摸的对象可在锁定和解锁之前和之后具有不同的图像。
依据本公开的另一方面,提供一种管理显示在触摸屏上的多个对象的方法。所述方法包括:将所述多个对象的初始图像显示在触摸屏上;存储显示在触摸屏上的所述多个对象中的每一个的执行计数;如果在第一时间周期期间所述多个对象中的至少一个对象的执行计数小于预定数,则将所述多个对象中的所述至少一个对象的初始图像改变为替换图像。
所述替换图像可包括初始图像的缩小图像和颜色密度低于初始图像的图像中的一个。
如果在第二时间周期期间所述至少一个对象未执行,则可将所述至少一个一个对象自动从触摸屏删除。
如果在第二时间周期期间所述对象执行,则所述对象的替换图像可返回至所述对象的初始图像。
依据本公开的另一方面,提供一种管理显示在触摸屏上的多个对象的设备。所述设备包括:触摸屏,被配置为显示所述多个对象;控制器,被配置为如果通过输入源在触摸屏上同时触摸所述多个对象中的第一对象和第二对象,并且第一对象在触摸屏上移动,则确定第一对象和第二对象之间的距离,如果第一对象和第二对象之间的距离小于预定值,则将第一对象和第二对象组合成集合,并将所述集合显示在触摸屏上。
对于本领域技术人员而言,从下面结合附图公开本公开的各种实施例的详细描述,本公开的其他方面、优点和特征将变得明显。
附图说明
从下面结合附图进行的描述,本公开的某些实施例的上述和其他方面、特征和优点将更明显,其中:
图1是根据本公开实施例的移动装置的框图;
图2是根据本公开实施例的移动装置的正面透视图;
图3是根据本公开实施例的移动装置的背面透视图;
图4A、图4B、图4C、图4D和图4E示出根据本公开实施例的移动装置中的菜单屏幕;
图5是示出根据本公开实施例的管理显示在触摸屏上的对象的方法的流程图;
图6A、图6B、图6C、图6D、图6E、图6F和图6G示出根据本公开实施例的编辑显示在触摸屏上的对象的操作;
图7A、图7B和图7C示出根据本公开另一实施例的编辑显示在触摸屏上的对象的操作;
图8A、图8B、图8C、图8D、图8E和图8F示出根据本公开另一实施例的编辑显示在触摸屏上的对象的操作;
图9A、图9B、图9C和图9D示出根据本公开实施例的放大触摸屏上的组合对象的集合的方法;
图10A、图10B、图10C和图10D示出根据本公开另一实施例的放大触摸屏上的组合对象的集合的方法;
图11A和图11B示出根据本公开另一实施例的放大触摸屏上的组合对象的方法;
图12A、图12B、图12C和图12D示出根据本公开实施例的分离触摸屏上的组合对象的集合的方法;
图13A、图13B、图13C和图13D示出根据本公开另一实施例的分离触摸屏上的组合对象的集合的方法;
图14A、图14B、图14C、图14D、图14E和图14F示出根据本公开实施例的锁定和解锁显示在触摸屏上的对象的方法;
图15A、图15B和图15C示出根据本公开另一实施例的锁定和解锁显示在触摸屏上的对象的方法;
图16A和图16B示出根据本公开另一实施例的锁定和解锁显示在触摸屏上的对象的方法;
图17A、图17B、图17C和图17D示出根据本公开实施例的基于显示在触摸屏上的对象的使用来管理所述对象的方法;
图18A、图18B、图18C和图18D示出根据本公开另一实施例的基于显示在触摸屏上的对象的使用来管理所述对象的方法;
图19A、图19B、图19C、图19D和图19E示出根据本公开实施例的对触摸屏上的对象显示运动效果的方法。
贯穿附图,类似的标号将被理解为表示类似的部件、组件和结构。
具体实施方式
提供下面参照附图的描述以帮助全面理解由权利要求及其等同物限定的本公开的各种实施例。其包括各种具体细节以帮助理解,但这些细节应该被视为仅是示例性的。因此,本领域普通技术人员将认识到,在不脱离本公开的范围和精神的情况下,可进行这里描述的各种实施例的各种改变和修改。另外,为了清晰和简明起见,可省略公知功能和构造的描述。
下面的描述和权利要求中所使用的术语和词不限于文献含义,而是仅由发明人用来实现对本公开的清晰和一致的理解。因此,对于本领域技术人员应该明显的是,提供下面对本公开各种实施例的描述仅是为了示意性目的,而非为了限制由权利要求及其等同物限定的本公开的目的。
应该理解,单数形式包括多个所指对象,除非上下文清楚地另外指定。因此,例如,提及“元件表面”包括一个或多个这样的表面。
对于术语“基本上”,其意指所陈述的特性、参数或值无需精确地实现,而是可能发生偏差或变化(包括例如公差、测量误差、测量精度极限以及本领域技术人员已知的其他因素),所述偏差或变化的量不会妨碍特性预期提供的效果。
将提供本公开的各种实施例以实现本公开的上述技术方面。在实现方式中,定义的实体可具有相同的名称,但本公开不限于此。因此,本公开的各种实施例可以相同或容易的修改实现于具有类似的技术背景的系统中。
尽管在手持移动装置的背景下描述本公开的各种实施例,将清楚地理解的是,根据本公开的管理显示在触摸屏上的多个对象的设备和方法可应用于配备有触摸屏的电子装置(例如导航仪、电视(TV)、银行的自动取款机(ATM)和商店的销售点(POS)装置)以及移动装置(诸如便携式电话、智能电话和平板个人计算机(PC))。
图1是根据本公开实施例的移动装置的框图。
参照图1,移动装置100可通过外部装置接口(诸如子通信模块130、连接器165和耳机插孔167)连接到外部装置(未示出)。术语“外部装置”包括可以以可拆卸的方式连接到移动装置100的多种装置,例如耳机、外部扬声器、通用串行总线(USB)存储器、充电器、支架、基座、数字多媒体广播(DMB)天线、支付装置、保健装置(如,血糖仪等)、游戏机、车载导航仪等。外部装置还可包括能够经由无线链路连接到移动装置100的装置,例如,通信装置、近场通信(NFC)装置、无线保真(WiFi)Direct通信装置、无线接入点(AP)等。另外,外部装置可以是另一移动装置、便携式电话、智能电话、平板PC、台式PC、服务器等中的任一个。
参照图1,移动装置100包括显示器190和显示器控制器195。移动装置100还包括控制器110、移动通信模块120、子通信模块130、多媒体模块140、相机模块150、全球定位系统(GPS)模块155、输入/输出(I/O)模块160、传感器模块170、存储器175和电源180。子通信模块130包括无线局域网(WLAN)模块131和短距离通信模块132中的至少一个,多媒体模块140包括广播通信模块141、音频播放模块142和视频播放模块143中的至少一个。相机模块150包括第一相机151和第二相机152中的至少一个,I/O模块160包括按钮161、麦克风162、扬声器163、振动电机164、连接器165、键区166和耳机插孔167中的至少一个。作为示例,基于显示器190是触摸屏,显示器控制器195是触摸屏控制器的理解来进行下面的描述。
控制器110可包括中央处理单元(CPU)111、存储用于控制移动装置100的控制程序的只读存储器(ROM)112、以及存储从移动装置100的外部接收的信号或数据或者用作由移动装置100执行的操作的存储空间的随机存取存储器(RAM)113。CPU 111可包括任何合适数量的核。CPU 111、ROM 112和RAM 113可通过内部总线连接到彼此。
控制器110可控制移动通信模块120、子通信模块130、多媒体模块140、相机模块150、GPS模块155、I/O模块160、传感器模块170、存储器175、电源180、触摸屏190和触摸屏控制器195。控制器110提供对移动装置100的总体控制。具体地讲,当通过输入同时触摸并拖拽显示在触摸屏190上的至少两个对象并放置使其彼此相距预定距离或彼此接触时,控制器110可将触摸的对象组合成集合,并将触摸的对象的集合显示在触摸屏190上。另外,控制器110可将组合的集合分离成单个的对象。控制器110对触摸屏190上的对象重新缩放(即,调整尺寸)。控制器110可锁定或解锁单个的对象或对象的集合。另外,控制器110可从触摸屏190移除很少使用的对象。
移动通信模块120在控制器110的控制下通过移动通信经一个或多个天线(未示出)将移动装置100连接到外部装置。移动通信模块120将无线信号发送给便携式电话(未示出)、智能电话(未示出)、平板PC(未示出)或具有输入到移动装置100的电话号码的另一电子装置(未示出)或者从其接收无线信号,以进行语音呼叫、视频呼叫、短消息服务(SMS)或多媒体信使服务(MMS)。
子通信模块130可包括WLAN模块131和短距离通信模块132中的至少一个。例如,子通信模块130可包括WLAN模块131和短距离通信模块132中的一个或多个。
WLAN模块131可在安装有无线AP(未示出)的位置连接到互联网。WLAN模块131支持电气和电子工程师协会(IEEE)的任何合适的WLAN标准,例如IEEE802.11x。短距离通信模块132可在控制器110的控制下在移动装置100与成像装置(未示出)之间进行短距离无线通信。短距离通信可通过任何合适的接口来实现,例如、红外数据协会(IrDA)、WiFiDirect、NFC等。
移动装置100可包括移动通信模块120、WLAN模块131和短距离通信模块132中的至少一个。例如,移动装置100可包括移动通信模块120、WLAN模块131和短距离通信模块132的组合。
多媒体模块140可包括广播通信模块141、音频播放模块142或视频播放模块143。广播通信模块141可通过广播通信天线(未示出)从广播站接收广播信号(如,TV广播信号、无线电广播信号、数据广播信号等)和附加广播信息(如,电子节目指南(EPG)、电子服务指南(ESG)等)。音频播放模块142可打开存储或接收的数字音频文件(例如,具有诸如mp3、wma、ogg或wav的扩展名的文件)。视频播放模块143可打开存储或接收的数字视频文件(例如,具有诸如mpeg、mpg、mp4、avi、mov或mkv的扩展名的文件)。视频播放模块143也可打开数字音频文件。
多媒体模块140可包括音频播放模块142和视频播放模块143,而没有广播通信模块141。另选地,多媒体模块140的音频播放模块142或视频播放模块143可并入控制器110中。
相机模块150可包括第一相机151和第二相机152中的至少一个以用于捕捉静止图像或视频。另外,第一相机151或第二相机152可包括辅助光源(如,闪光灯(未示出))以用于提供拍摄图像的光。第一相机151可设置在移动装置100的前表面上,而第二相机152可设置在装置100的后表面上。另选地,第一相机151和第二相机152可彼此靠近地布置(如,第一相机151和第二相机152之间的距离介于1cm和8cm之间)以便拍摄三维静止图像或视频。
GPS模块155可从轨道中的多个GPS卫星(未示出)接收无线电波,并基于卫星信号从GPS卫星到移动装置100的到达时间(ToA)确定移动装置100的位置。
I/O模块160可包括按钮161、麦克风162、扬声器163、振动电机164、连接器165和键区166中的至少一个。
按钮161可形成在移动装置100的壳体的前表面、侧表面或后表面上,并可包括开机/锁定按钮(未示出)、音量按钮(未示出)、菜单按钮、主屏按钮、后退按钮、搜索按钮等中的至少一个。
麦克风162接收语音或声音,并将接收的语音或声音转换为电信号。
扬声器163可输出与从移动通信模块120、子通信模块130、多媒体模块140和相机模块150接收的各种信号(如,无线信号、广播信号、数字音频文件、数字视频文件、照片拍摄等)对应的声音。扬声器163可输出与移动装置100所执行的功能对应的声音(如,按钮操纵声音、用于呼叫的回铃音等)。一个或多个扬声器163可设置在移动装置100的壳体的一个适当位置或多个适当位置。
振动电机164可将电信号转换为机械振动。例如,当移动装置100在振动模式下从另一装置(未示出)接收到到来语音呼叫时,振动电机164操作。一个或多个振动电机164可安装在移动装置100的壳体的内部。振动电机164可响应于用户在触摸屏190上的触摸以及触摸在触摸屏190上的连续移动而操作。
连接器165可用作接口以将移动装置100连接到外部装置(未示出)或电源(未示出)。连接器165可经由线缆将存储在存储器175中的数据发送给外部装置,或者可经由线缆从外部装置接收数据。移动装置100可经由连接到连接器165的线缆从电源接收电力或对电池(未示出)充电。
键区166可从用户接收键输入以控制移动装置100。键区166包括形成在移动装置100中的物理键区(未示出)或显示在显示器190上的虚拟键区(未示出)。根据移动装置100的配置可不设置物理键区。
耳机(未示出)可通过插入耳机插孔167中来连接到移动装置100。
传感器模块170包括至少一个传感器以用于检测移动装置100的状态。例如,传感器模块170可包括检测用户是否靠近移动装置100的接近传感器、检测移动装置100周围的环境光的量的照明传感器(未示出)、检测移动装置100的运动(如,移动装置100的旋转、加速度、振动等)的运动传感器(未示出)、利用地球磁场检测方位的地磁传感器(未示出)、检测重力的方向的重力传感器(未示出)、通过测量气压来检测海拔的高度计(未示出)等。至少一个传感器可检测移动装置100的环境条件,产生与检测到的条件对应的信号,并将产生的信号发送给控制器110。可根据移动装置100的配置将传感器添加到传感器模块170或从其移除。
存储器175可根据移动通信模块120、子通信模块130、多媒体模块140、相机模块150、GPS模块155、I/O模块160、传感器模块170和触摸屏190的操作存储输入/输出信号或数据。存储器175可存储用于控制移动装置100或控制器110的控制程序以及便于用户执行以进行交互的应用。
存储器可包括控制器110内的存储器175、ROM 112和RAM 113,或者安装到移动装置100的存储器卡(未示出)(如,安全数字(SD)卡、存储棒等)。存储器可包括非易失性存储器、易失性存储器、硬盘驱动器(HDD)、固态驱动器SSD)等。
电源180可向安装在移动装置100的壳体中的一个或多个电池(未示出)供电。所述一个或多个电池向移动装置100供电。另外,电源180可供应经由连接到连接器165的线缆从外部电源(未示出)接收的电力。电源180还可通过无线充电技术将无线地从外部电源接收的电力供应给移动装置100。
触摸屏190可向用户提供与各种服务(如,呼叫、数据传输、广播、摄像等)对应的用户界面(UI)。触摸屏190可将与UI上的至少一个触摸对应的模拟信号发送给显示器控制器195。触摸屏190可通过用户的身体部位(如,手指)或触摸输入工具(如,手写笔)接收至少一个触摸输入。另外,触摸屏190可接收与一个或多个触摸之中的触摸的连续移动对应的触摸输入信号。触摸屏190可将与输入触摸的连续移动对应的模拟信号发送给触摸屏控制器195。
在本公开的各种实施例中,触摸可包括非接触触摸(如,触摸屏190与用户身体部位或触摸输入工具之间的可检测间隙可为1mm或更小,不限于触摸屏190与用户身体部位或触摸输入工具之间的接触。触摸屏190的可检测间隙可根据移动装置100的配置而变化。
触摸屏190可通过(例如)电阻型、电容型、红外线型、声波型或它们中的两个或更多个的组合来实现。
触摸屏控制器195将从触摸屏190接收的模拟信号转换为数字信号(如,X和Y坐标)。控制器110可利用从触摸屏控制器195接收的数字信号来控制触摸屏190。例如,控制器110可响应于触摸来控制显示在触摸屏190上的快捷图标(未示出)的选择或执行。触摸屏控制器195可并入控制器110中。
图2是分别根据本公开实施例的移动装置的正面透视图,图3是根据本公开实施例的移动装置的背面透视图。
参照图2,触摸屏190被布置在移动装置100的前表面100a的中心,占据前表面100a的大部分。在图2中,作为示例,主要主屏显示在触摸屏190上。主要主屏是当移动装置100接通电源时将显示在触摸屏190上的第一屏幕。在移动装置100具有不同的主屏的情况下,主要主屏可以是多页主屏中的第一个。用于执行频繁使用的应用的快捷图标21、22和23、主菜单切换键24、时间、天气等可显示在主屏上。主菜单切换键24用于在触摸屏190上显示菜单屏幕。状态栏192可显示在触摸屏190的顶部,以指示移动装置100的状态,例如电池充电状态、接收信号强度和当前时间。
主屏按钮161a、菜单按钮161b和后退按钮161c可形成在触摸屏190的底部。
主屏按钮161a用于在触摸屏190上显示主要主屏。例如,响应于在除主要主屏之外的任何其他主屏或菜单屏幕显示在触摸屏190的同时触摸主屏按钮161a,主要主屏可显示在触摸屏190上。响应于在触摸屏190上应用执行期间触摸主屏按钮161a,图2所示的主要主屏可显示在触摸屏190上。主屏按钮161a还可用于在触摸屏190上显示最近使用的应用或任务管理器。
菜单按钮161b提供触摸屏190上可用的链接菜单。链接菜单可包括微件添加菜单、背景改变菜单、搜索菜单、编辑菜单、环境设置菜单等。
后退按钮161c可显示当前屏幕之前的屏幕或结束最后使用的应用。
第一相机151、照明传感器170a、扬声器163和接近传感器170b可布置在移动装置100的前表面100a的角落处,而第二相机152、闪光灯153和扬声器163可被布置在移动装置100的后表面100c上。
电源/重启按钮161d、音量按钮161e(包括音量增大按钮161f和音量减小按钮161g)、用于接收广播信号的地面DMB天线141a以及一个或多个麦克风162可被布置在移动装置100的侧表面100b上。DMB天线141a可固定地或可拆卸地安装到移动装置100。
连接器165形成在移动装置100的底侧表面上。连接器165包括多个电极,可通过线缆电连接到外部装置。耳机插孔167可形成在移动装置100的顶侧表面上,以允许耳机插入。
图4A、图4B、图4C、图4D和图4E示出根据本公开实施例的移动装置中的菜单屏幕。
参照图4A、图4B、图4C、图4D和图4E,菜单屏幕显示在触摸屏190上。诸如在移动装置100中执行应用的快捷图标、微件、表示各种文件格式的文本的图标、照片和文件夹的各种可视对象成矩阵地布置在菜单屏幕上。所述应用包括存储在移动装置100中的由移动装置100的制造商提供的应用。另外,所述应用包括用户购买以及用户从互联网下载的应用。对象可被表示为图标或按钮,所述图标或按钮是图像、文本、照片或它们的组合。显示在图4A、图4B、图4C、图4D和图4E中的菜单屏幕不同于图2所示的主屏,然而,菜单屏幕可用作主屏。
参照图4A、图4B、图4C、图4D和图4E,对象被示出为快捷图标1-01至5-20。作为示例,菜单屏幕总共具有5页,每页具有20个图标。例如,图4A示出菜单屏幕的第1页,包括标记为图标1-01至图标1-20的20个图标。菜单屏幕的第1页可以是主菜单屏幕。在图4A中,页指示符193显示在触摸屏190的底部,指示菜单屏幕的当前页是第1页。图4B示出菜单屏幕的第2页,在触摸屏190上显示标记为图标2-01至图标2-20的20个图标。图4C示出菜单屏幕的第3页,在触摸屏190上显示标记为图标3-01至图标3-20的20个图标。图4D示出菜单屏幕的第4页,在触摸屏190上显示标记为图标4-01至图标4-20的20个图标。图4E示出菜单屏幕的第5页,在触摸屏190上显示标记为图标5-01至图标5-20的20个图标。用户可通过在触摸屏190上在箭头方向194之一上向左或向右轻拂或拖拽,来在显示在触摸屏190上的菜单屏幕上从一页切换至另一页。当图标被触摸时,控制器110执行与触摸的图标对应的应用,并将执行的应用显示在触摸屏190上。
如上所述,许多应用存储在诸如智能电话、平板PC等的移动装置100中。因此,为了在移动装置100中执行期望的应用,用户必须如图4A至4E所示在菜单屏幕上依次翻页,直到定位期望的应用,这要花费时间。
如果表示相关应用的图标被收集在触摸屏190上的预定位置处,用户可快速搜索期望的图标或有关图标。
因此,本公开的各种实施例提供一种快速且容易地管理诸如显示在移动装置100的触摸屏190上的图标的可视对象的方法和设备。
图5是示出根据本公开实施例的管理显示在触摸屏上的对象的方法的流程图,图6A、图6B、图6C、图6D、图6E、图6F和图6G示出根据本公开实施例的编辑显示在触摸屏上的对象的操作。
参照图5、图6A、图6B、图6C、图6D、图6E、图6F和图6G,在操作S502,控制器110在触摸屏190上显示多个对象11至23。多个对象11至23可包括各种可视对象,例如用于执行应用的快捷图标、微件、表示各种文件格式的文本的图标、照片和文件夹。移动装置100中可执行的应用存储在移动装置100中或可从提供Web服务器的外部应用下载到移动装置100。
参照图6A、图6B、图6C、图6D、图6E、图6F和图6G,对象11至23被示出为(例如)用于在触摸屏190上执行应用的快捷图标。如图6A所示,图标11至23成矩阵地布置。图标11至23的至少一部分具有不同的轮廓形状。例如,图标11至23的总体形状可不同,图标11至23可具有不同的弯曲轮廓。例如,在图6A中,图标16包括背景图像16-1、标题16-2和独特图像16-3。背景图像16-1的颜色可为单一的或渐变。背景图像16-1还可以是特定图像或图案。标题16-2是识别对象16的文本。独特图像16-3表示与图标16对应的应用。因此,独特图像16-3可以是诸如人物、符号等的图像或者诸如徽标的文本,其使用户能够容易地识别图标16。图标16的轮廓可限定图标16的总体形状,关于图标16的信息可包含在图标16内。因此,无需在图标16的外部抽出区域用于图标16的标题或者描述图标16的特征的其他信息。
图标21、22和23可以是表示频繁使用的应用的快捷图标,其显示在触摸屏190的底部。图标21、22和23可被布置在触摸屏190的固定位置处。图标21、22和23可为可编辑的,并且可与其他图标11至20互换。尽管在图6A中在触摸屏190上显示了有限数量的图标11至23,但可在触摸屏190上显示更多对象。
随后,在操作S504,控制器110确定是否通过输入装置1触摸了显示在触摸屏190上的至少两个对象。在操作S504,触摸可以是长按触摸手势。参照图6B,例如,可通过用户的食指和拇指分别触摸两个对象15和17(本文中,第一对象17和第二对象15)。可通过输入装置1同时触摸显示在触摸屏190上的对象11至23中的三个或更多个对象。即使两个对象15和17被顺序触摸,只要通过输入装置1保持同时触摸它们达预定时间,这两个对象15和17就可视作被同时触摸。
在操作S506,控制器110确定是否从输入装置1接收到对触摸屏100上触摸的对象15和17中的至少一个的移动命令。当接收到移动命令时,在操作S508,控制器110控制触摸屏100上的所述至少一个触摸的对象的移动。移动命令可以是通过输入装置1在触摸屏190上拖拽对象15和17中的至少一个上的触摸的手势。例如,参照图6C,移动命令可以是通过输入装置1在触摸屏190上拖拽第一对象17上的触摸或对象15和17二者上的触摸的手势。
在操作S510,控制器110确定是否使对象15和17接触。例如,控制器110确定在图6C中拖拽的第一对象17是否朝着第二对象15移动,从而第一对象17的轮廓是否与第二对象15的轮廓接触。如果两个对象15和17彼此靠近,则控制器110可确定对象15和17彼此接触。
如果第二对象15接触第一对象17,则在操作S512,控制器110可改变对象15和17的轮廓。当对象15和17的轮廓改变时,控制器110还可控制对象15和17的内部形状的改变。例如,在图6D中,接触第二对象15的第一对象17的拐角17a的形状改变。接触第一对象17的第二对象15的拐角15a的形状也可改变。由于控制器110以这样的方式控制在触摸屏190上显示对象15和17的改变的形状,因此对象15和17之间的接触可被指示。图6D示出对象15和17开始非常局部地彼此接触。由输入装置1触摸的点(如,由用户的拇指和食指触摸的点)之间的距离被称作d1。
参照图6E和图6F,当在触摸屏190上对象15和17彼此接近时,对象15和17改变形状。在图6E中,触摸屏190上触摸的两个点之间的距离d2小于图6D所示的距离d1。在图6F中,触摸屏190上触摸的两个点之间的距离d3小于图6E所示的触摸的两个点之间的距离d2。参照图6E和图6F,随着第一对象17的形状改变,可形成凹部17b和凸部17c中的一者或两者。第二对象15也改变形状,因此可在第二对象15中形成凹部15b和凸部15c中的一者或两者。如图6E所示,第二对象15的凸部15c可融合到第一对象17的凹部17b中。另外,第一对象17的凸部17c可融合在第二对象15的凹部15b中。随着触摸的两个点通过输入装置1移动得更靠近彼此,触摸的对象15和17之间的距离减小,控制器10可控制触摸屏190上的对象15和17的形状的进一步改变。
由于当触摸的对象15和17接触并且它们的形状改变时,用户可容易地识别出对象15和17将要组合。随着触摸的对象15和17越靠近,对象15和17的形状改变越大。因此,用户可容易地确定对象15和17将要合并。对象的形状改变也改变对象的轮廓(这不同于对象尺寸的缩放)。
为了如上所述改变显示在触摸屏190上的对象的形状,可利用基于矢量的方案创建图标11至23。即,例如,图标16包含基于矢量的背景图像16-1、基于矢量的标题16-2和基于矢量的独特图像16-3。即,图标16的背景图像16-1、标题16-2和独特图像16-3可利用基于矢量的方案形成。基于矢量的方案是指将将被显示在触摸屏190上的背景图像、标题、独特图像等存储为线的方法。如果图标16利用基于矢量的方案形成,则不管图标16是重新缩放或是形状改变,图标16的显示质量不劣化,并且图标16中的线和面之间的边界清晰。另一方面,如果以基于位图的方案创建图标11至23,则由于图像被渲染为一系列像素,因此图标11至23的重新缩放导致以不自然的形状渲染图标11至23。因此,随着在移动装置100中触摸屏190变得越来越大,对基于矢量的图标的需求增加,而非现有技术的基于位图的图标。
返回参照图5,操作S512是可选的。具体地讲,当显示在触摸屏190上的对象组合,而对象的形状没有任何改变时,可不执行操作S512。在这种情况下,可按照除了基于矢量的方案之外的方案(例如,按照基于位图的方案)形成对象。
随后,在操作S514,控制器110确定触摸的对象15和17是否在距彼此的预定距离内。如果触摸的对象15和17在距离d3内,则在操作S516,控制器110将对象15和17组合并将组合的对象作为集合35显示在触摸屏190上。参照图6G,对象15和17组合地显示在触摸屏190上。组合的对象15和17显示在组合之前第二对象15所显示的区域中。即,随着第一对象17靠近第二对象15的显示区域31,对象15和17可组合。集合35显示在区域31中,该区域包括对象15和17的缩小图像。集合35可显示在触摸屏190的背景图像上方,可不需要诸如文件夹图像的附加图像。因此,在显示在触摸屏190上的多个对象11至20中的至少两个对象15和17被触摸之后,可通过使对象15和17越来越靠近彼此的一个用户手势来快速组合触摸的对象15和17。如图6G所示,控制器110可另外重新布置对象18、19和20以填充组合之前第一对象17所显示的区域32,并将重新布置的对象18、19和20显示在触摸屏190上。
如果在操作S514,触摸的对象15和17还未在距离d3内,则控制器110不组合对象15和17。
另外,如果对象具有阻止其被组合的属性或者超过预定数量的对象将要组合,则可不组合对象。在这种情况下,即使在操作S514,对象15和17接触,控制器110也可控制对象15和17的形状保持不变。当对象15和17不可组合并且越来越靠近彼此或接触彼此时,控制器110可将第二对象15重叠在第一对象17上方。因此,如果尽管对象15和17之间接触,但其形状不改变,则用户可容易地识别出对象15和17无法组合。另外,控制器110控制其他未触摸的对象11、12、13、14、16、18、19和20不与触摸的对象15和17组合。
在本公开的实施例中,对象11至20的轮廓为随机曲线。对象11至20有颜色或具有纹理。通过将关于对象11至20的所有信息(例如标题、人物、徽标等)包含在对象11至20内,对象11至20被配置为像人类干细胞的效果。有利地,由于产生集合35之前和之后的触摸屏190的环境被设置为向用户提醒分支成更多细胞(反之亦然)的干细胞或者多个共存干细胞,可通过触摸屏190提供类似于进行活动的简单的活有机体的图形用户界面(GUI)。另外,通过使对象11至20在稍后描述的拆散、缩放和锁定集合35的操作以及处理特定对象所发生的事件的操作中能够提供类似有机体的行为,可提供直观和用户友好的GUI。
图7A、图7B和图7C示出根据本公开另一实施例的编辑显示在触摸屏上的对象的操作。
参照图7A和图7B,在显示在触摸屏190上的多个对象11至20中,通过输入装置1触摸位于显示区域32中的第一对象17和位于显示区域33中的对象13(本文中,第三对象13)并将第一对象17和第三对象13拖拽至区域34。然后,控制器110可控制如图7B所示将组合的第一对象17和第三对象13显示在区域34中。
参照图7C,在触摸的第一对象17和第三对象13组合成集合36之后,控制器110重新布置其他对象11、12、14、15、16、18、19和20以及集合36以便用触摸屏190上除了第一对象17和第三对象13之外的对象填充空区域32和33。
尽管作为示例在图7A、图7B和图7C中组合两个对象13和17,但是如果通过输入装置1同时触摸三个或更多个对象,然后将其收集,则控制器110也可控制将触摸的三个或更多个对象组合地显示在触摸屏190上。
图8A、图8B、图8C、图8D、图8E和图8F示出根据本公开另一实施例的编辑显示在触摸屏上的对象的操作。
参照图8A、图8B、图8C、图8D、图8E和图8F,用户可将对象15和17的集合35与对象16组合。例如,如图8B、图8C和图8D所示,当通过输入装置1(如,用户的拇指和食指)在触摸屏190上触摸(参见图8A)集合35和对象16并将集合35和对象16拖拽至距离d3内时,控制器110可控制如图8E所示将集合35和对象16组合地显示在触摸屏190上。控制器110控制将组合的对象15、16和17显示在对象显示区域31中并形成新的集合36。
参照图8F,快捷图标11至17、21、22和23、微件24以及多个集合38和40显示在触摸屏190上。参照图8F,尽管在快捷图标11至17、21、22和23按照3×5矩阵显示在触摸屏190上的结构中,微件24按照1×2尺寸显示,微件24的尺寸可自由增加。集合40的尺寸可基本上是与快捷图标11至17、21、22和23中的每一个相同的尺寸。然而,集合38可大于快捷图标11至17、21、22和23中的每一个,集合38的尺寸也可自由增加。集合38可包含比集合40更多的对象。如图8F所示,集合38和40的轮廓可分别由标号38-1和40-1指示,包含在集合38和40中的所有对象的缩小图像可驻留在集合38和40的轮廓38-1和40-1内。因此,用户可容易地识别出集合38和40内的对象。另选地,仅包括在集合38和40中的一部分对象的缩小图像可显示在触摸屏190上(如,文本可省略,等等)。
图9A、图9B、图9C和图9D示出根据本公开实施例的放大触摸屏上的组合对象的集合的方法。
参照图9A,如果组合对象的集合40显示在小触摸屏190上,用户可能难以识别集合40内的对象或图标。因此,用户可通过用输入装置1多次触摸集合40来放大或缩小集合40,如图9B、图9C和图9D所示。
具体地讲,如果如图9B所示通过输入装置1(如,用户的拇指和食指)触摸显示在触摸屏190上的集合40上的两个点,并且拇指和食指远离彼此移动,则控制器110感测捏(pinch)手势,并如图9C所示根据捏手势控制将集合40放大地显示在触摸屏190上。随着集合40被放大,控制器110控制将集合40内的放大的对象显示在触摸屏190上。
图9D示出在触摸屏190上集合40被放大至最大尺寸的状态。集合40包含多个对象41至50。
相反,如果通过输入装置1(如,用户的拇指和食指)触摸显示在触摸屏190上的集合40上的两个点,并且拇指和食指朝着彼此移动,则控制器110可根据触摸屏190上拇指和食指之间的距离控制缩小并显示集合40。
参照图9B、图9C和图9D,当在触摸屏190上放大集合40时,控制器110控制附加显示圆形轮廓52,所述圆形轮廓52成形为围绕集合40的放大镜。随着集合40放大,圆形轮廓52越来越大,随着集合40减小,圆形轮廓52越来越小。结果,集合40可看起来像通过放大镜在触摸屏190上放大。另外,控制器110可控制按照使集合40下面的对象11、12、13、21、22和23看起来模糊的方式显示对象11、12、13、21、22和23,并可控制禁用对象11、12、13、21、22和23。在图9D中,模糊的对象11、12、13、21、22和23用虚线标记。
在如图9D所示集合40在触摸屏190上被放大的情况下,后退按钮53可显示在触摸屏190上。当触摸后退按钮53时,控制器110可使集合40返回到其原始尺寸,并如图9A所示以原始尺寸来显示集合40。
图10A、图10B、图10C和图10D示出根据本公开另一实施例的放大触摸屏上的组合对象的集合的方法。
参照图10A,如果通过输入装置1(如,用户的食指)触摸集合40上的点,然后向集合40外部拖拽所述触摸,则控制器110检测拖拽手势并控制将集合40放大地显示在触摸屏190上。例如,当用户用输入装置1触摸集合40的轮廓40-1上的点40-2并在触摸屏190上向下拖拽所述触摸时,控制器110识别用户手势并控制集合40放大。
另外,随着集合40放大,控制器110可控制显示触摸屏190上的集合40内的对象尺寸。
参照图10C,当在触摸屏190上集合40放大至最大尺寸时,包含在集合40中的多个对象41至50被显示。
参照图10D,在触摸屏190上集合40放大的情况下,如果通过输入装置1触摸集合40上的点,然后向集合40内部拖拽所述触摸,则控制器110可检测拖拽手势并控制将集合40缩小地显示在触摸屏190上。例如,如果用户用输入装置1触摸集合40的轮廓40-1上的点40-2,然后在触摸屏190上向上拖拽所述触摸,则控制器110识别用户手势并控制集合40缩小。
参照图10A,在集合40放大之前,轮廓40-1可围绕集合40内的对象绘制。轮廓40-1的形状和尺寸可类似于邻近图标11至18、21、22和23中的每一个。如果集合40有许多对象,则集合40及其轮廓40-1可大于邻近图标11至18、21、22和23中的每一个。参照图10B,当集合40放大时,集合40的轮廓40-1可仅增大,而形状不变。另选地,当集合40放大时,集合40的轮廓40-1可按照与轮廓40-1的形状不同的圆形放大镜的形式绘制。
另外,控制器110可控制按照使集合40下面的对象11、12、13、21、22和23看起来模糊的方式显示对象11、12、13、21、22和23,并且可控制禁用对象11、12、13、21、22和23。在图10C和图10D中,在触摸屏190上集合40放大的情况下,后退按钮53可显示在触摸屏190上。
图11A和图11B示出根据本公开另一实施例的放大触摸屏上的组合对象的方法。
参照图11A和图11B,如果组合对象的集合40显示在小触摸屏190上,则用户可能难以识别集合40内的对象或图标。因此,用户可通过用输入装置1触摸集合40来放大或缩小集合40,如图11A和图11B所示。
例如,如果如图11A所示通过输入装置1轻击显示在触摸屏190上的集合40上的点,则控制器110可感测轻击手势,并可控制将集合40放大地显示在触摸屏190,如图11B所示。随着集合40放大,控制器110可控制将集合40内放大的对象显示在触摸屏190上。
当在触摸屏190上集合40放大时,控制器110可控制显示圆形轮廓52,该圆形轮廓成形为围绕集合40的放大镜。.随着集合40放大,圆形轮廓52越来越大,随着集合40缩小,圆形轮廓52越来越小。结果,集合40可看起来在触摸屏190上类似于放大镜一样放大。
在集合40在触摸屏190上放大的情况下,后退按钮53可显示在触摸屏190上。当触摸后退按钮53时,控制器110可控制按原始尺寸显示集合40,如图11A所示。
图12A、图12B、图12C和图12D示出根据本公开实施例的分离触摸屏上的组合对象的集合的方法。
参照图12A和图12B,集合40包含(例如)10个对象。尽管为了方便描述在触摸屏190上仅显示了集合40,但其他对象或图标也可添加到触摸屏190。
用户可通过用输入装置1触摸集合40内的点60,然后在两个相反方向61和62上线性地重复摇动输入装置1达较短时间(如,2秒),来将集合40分离成单个的对象。
摇动手势至少包括用输入装置1在一个方向61上拖拽点60上的触摸,然后在相反方向62上拖拽该触摸的手势。即,摇动手势是在触摸屏190上用输入装置1横向或来回进行的2次拖拽手势。当在触摸屏190上感测到一个方向61上的拖拽,然后相反方向62上的另一拖拽时,控制器110可被设置为将2次拖拽手势识别为用于移动触摸屏190上的集合40的命令。因此,优选的是横向或来回拖拽输入装置1至少三次(如,在方向61,相反方向62,然后方向61上拖拽输入装置1),控制器110确定摇动手势的输入。在方向61或62上的拖拽手势可在集合40的显示区域63内部进行,或者部分地在集合40的显示区域63外部进行。随着在触摸屏190上重复摇动手势的次数更多,控制器110可控制将集合40加速分离成单个的对象。另外,随着输入装置1通过摇动手势横向移动的距离更大,控制器110可控制将集合40分离成单个的对象。随着输入装置1通过摇动手势横向移动得更快,控制器110可控制将集合40分离成单个的对象。
在图12B中,当感测到输入装置1对集合40的摇动手势时,控制器110控制从集合40移除一些对象41、44和48,并显示从集合40分离的对象41、44和48。对象41、44和48可能处于集合40的最外侧。
参照图12C,当感测到对包含除了对象41、44和48之外的集合40的剩余对象的集合40-1的另外摇动手势时,控制器110控制从集合40-1移除对象42、43和47,并将来自集合40-1的对象42、43和47显示在触摸屏190上。对象42、43和47可能处于集合40-1的最外侧。
参照图12D,当感测到对包含集合40-1的剩余对象45、46、49和50的集合40-2的另外摇动手势时,控制器110将集合40-2分离成对象45、46、49和50,并控制将对象45、46、49和50显示在触摸屏190上。
如上所述,当感测到通过输入装置1对显示在触摸屏190上的集合40内的点60的触摸以及在相反方向上重复拖拽该触摸时,控制器110可确定输入摇动手势,并可顺序地将集合40分离成单个的对象41至50。由于顺序地将集合40分离成单个的对象的处理向用户提醒从一串葡萄的最外侧开始顺序地从这一串葡萄上摇落葡萄,用户可容易且直观地理解集合40的分离操作。另外,用户可通过对集合40做出摇动手势来容易地将分离命令输入到移动装置100。
当感测到通过输入装置1对显示在触摸屏190上的集合40内的点60的触摸以及在触摸屏190上的不同方向上重复拖拽该触摸时,控制器110可确定输入摇动手势,并因此控制将集合40一次性分离成对象41至50,并将对象41至50显示在触摸屏190上。
图13A、图13B、图13C和图13D示出根据本公开另一实施例的拆散触摸屏上的组合对象的集合的方法。
参照图13A、13B、13C和13D,当感测到输入装置1对集合40内的点60的触摸,然后在不同方向上重复摇动移动装置100的手势时,控制器110可确定输入摇动手势。例如,当用户在触摸集合40的同时横向或来回摇动移动装置100时,控制器可通过传感器模块170感测移动装置的摇动,确定摇动输入摇动手势,并将集合40分离成单个的对象41至50。
随着移动装置100摇动得更多,控制器110可控制将集合40加速分离成对象41至50。随着移动装置100横向摇动的距离更长,控制器110可控制将集合40加速分离成对象41至50。随着移动装置100横向摇动得更快,控制器110可控制将集合40加速分离成对象41至50。
参照图13A、图13B、图13C和图13D,集合40顺序分离成触摸屏190上的单个的对象41至50,如之前参照图12A至图12D所描述的。另外,当感测到摇动手势时,控制器110可控制将从集合40分离的单个的对象41至50显示在触摸屏190上。
图14A、图14B、图14C、图14D、图14E和图14F示出根据本公开实施例的锁定和解锁显示在触摸屏上的对象的方法。
参照图14A,用户可能需要锁定显示在触摸屏190上的对象11至18以及集合40中的一部分。例如,用户可利用移动装置100中的备忘录应用撰写并存储便签。为了保护隐私,可能有必要阻止其他人访问该便签。在这种情况下,用户可锁定表示备忘录应用的对象17。如果用户想要阻止其他人查看用户的呼叫记录,用户可锁定表示提供呼叫记录和电话簿以及接电话或打电话的电话应用的对象21。另外,可锁定表示电子邮件、即时消息、社交网络服务(SNS)、照片搜索应用等的图标。
为了锁定对象17,用户可触摸对象17,然后用输入装置1按预定角度扭曲或旋转触摸。当用户用输入装置1按预定角度扭曲或旋转触摸时,控制器110可控制将密码设置窗口(未示出)显示在触摸屏190上以允许用户设置密码。密码设置窗口可按照用户输入预定拖拽图案(而非输入密码)的方式来配置。此外,如果在终端中预先设置了密码,则在锁定对象17时就不需要执行输入密码的操作。
参照图14B,控制器110在触摸屏190上显示多个对象11至18以及集合40。当接收到对对象17的锁定命令时,控制器110控制在触摸屏190上显示指示锁定进度的锁定指示符70。可通过用输入装置1按压或双击触摸屏190上的对象17的手势来产生锁定命令。
图14B示出锁定指示符70显示在触摸屏190上的示例。参照图14B,锁定指示符70显示在触摸对象17附近。具体地讲,优选地,锁定指示符70显示在触摸对象17的上方,以使得锁定指示符70不会被输入装置1(如,用户的食指)遮盖。锁定指示符70包括锁定起始线71。另外,锁定指示符70可包括打开的锁图像72。打开的锁图像72可表示触摸对象17还未锁定。锁定指示符70还可包括锁定结束线73和闭合的锁图像74。在图14B中,锁定起始线71和锁定结束线73从对象17的中心径向延伸,彼此相隔预定角度θ。角度θ可以是输入装置1的扭曲或旋转角度,例如,90度。
参照图14C,当输入装置1扭曲对象17上的触摸时,控制器110感测输入装置1的扭曲角度并在锁定指示符70中显示指示条75。在图14C中,显示四个指示条75,其指示对象17还未锁定。随着输入装置1扭曲更大角度,显示更多指示条75。从锁定起始线71开始在线71和73之间填充指示条75。
控制器110确定输入装置1是否扭曲了预定角度θ。如果输入装置1扭曲了预定角度θ,则控制器110锁定触摸对象17。参照图14D,当锁定触摸对象17时,控制器110可控制显示在锁定起始线71和锁定结束线73之间填充满的指示条75,并可通知完全锁定对象17。
参照图14E,文本“锁定”显示在对象17上方,以指示对象17的锁定状态。在本公开的替代实施例中,可通过在对象17上方显示表示锁定状态的图像(如,锁图像)或者改变对象17的颜色来指示对象17的锁定状态。一旦对象17被锁定,则即使对象17被触摸,控制器110也不在移动装置100中执行与对象17对应的应用。
参照图14B、图14C和图14D,标号82表示触摸屏190上被输入装置1触摸的区域。控制器110可通过感测触摸区域82的位置的改变来确定用于锁定对象的输入装置1的扭曲或旋转角度是否改变。
参照图14F,示出解锁锁定对象17的操作。具体地讲,当用户用输入装置1轻击锁定对象17一次时,控制器110可控制将密码输入窗口76显示在触摸屏190上,以允许用户输入密码。如果用户在密码输入窗口76中输入有效密码,则控制器110可控制解锁对象17。密码输入窗口76可按照用户输入预定拖拽图案(而非输入密码)的方式来配置。当通过输入装置1触摸解锁的对象17时,控制器110控制在移动装置100中执行与对象17对应的应用。
尽管在图14A、图14B、图14C、图14D、图14E和图14F中将触摸对象17示出为静止地显示在触摸屏190上,但当输入装置1触摸对象17并扭曲对象17上的触摸时,控制器110可控制将对象17旋转地显示在触摸屏190上。如果对象17在触摸屏190上旋转预定角度θ,则控制器110可控制锁定对象17。
图15A、图15B和图15C示出根据本公开另一实施例的锁定和解锁显示在触摸屏上的对象的方法。
参照图15A,与备忘录应用对应的对象17包括对象17的基于矢量的图标背景17-1、基于矢量的标题17-2和基于矢量的图像17-3。当用户通过用输入装置1触摸与备忘录应用对应的对象17,然后将对象17上的触摸扭曲或旋转预定角度θ来输入锁定命令时,控制器110感测锁定命令并锁定对象17。此时,控制器110可控制将密码设置窗口(未示出)显示在触摸屏190上以允许用户设置密码。密码设置窗口可按照用户输入预定拖拽图案(而非输入密码)的方式来配置。此外,如果在终端中预先设置了密码,则在锁定对象17时就不需要执行输入密码的操作。
参照图15B,可通过在对象17上方显示锁图像17-4来指示对象17的锁定状态。另外,通过用斜线给对象17加阴影来强调对象17的锁定状态。
参照图15C,可通过在对象17上方显示文本“锁定”,而在锁定的对象17中没有基于矢量的标题17-2和基于矢量的图像17-3中的至少一个,来指示对象17的锁定状态。控制器110可将对象17的图像改变为另一图像,而不显示基于矢量的图标背景17-1、基于矢量的标题17-2和基于矢量的图像17-3中的任何一个。由于除了用户之外的任何人都不知道锁定的对象17,因此用户隐私可被保护。
图16A和图16B示出根据本公开另一实施例的锁定和解锁显示在触摸屏上的对象的方法。
在本公开的另一实施例中,可锁定集合40,并且可改变锁定的集合40的图像。
例如,参照图16A,集合40包括多个对象,每一对象包含基于矢量的图标背景、基于矢量的标题和基于矢量的图像的缩小版本。当用户通过用输入装置1触摸集合40并将所述触摸扭曲或旋转预定角度θ来输入锁定命令时,控制器110感测该锁定命令并锁定集合40。一旦集合40被置于锁定状态,控制器110就控制包括在集合40中的对象不被执行。
参照图16B,当集合40被锁定时,控制器110通过在集合40上方显示文本“锁定”来指示集合40的锁定状态。另外,控制器110可仅显示集合40的轮廓,而不显示包括在锁定的集合40中的任何对象。锁定的集合40可改变为另一图像。因此,由于集合40被显示为锁定,包括在锁定的集合40中的对象没有暴露给除了用户之外的任何人,用户隐私可被保护。在本公开的替代实施例中,控制器110可控制显示包括在锁定的集合40中的对象的缩小图像。
图17A、图17B、图17C和图17D示出根据本公开实施例的基于显示在触摸屏上的对象的使用来管理所述对象的方法。
参照图17A,多个对象11至23显示在触摸屏190上。由于用户频繁选择对象11至23中的一些,可在移动装置100中频繁地执行与选择的对象对应的应用。另一方面,其他对象可能不常使用。如果不常使用的对象继续占据小触摸屏190的一部分,则当缺少显示频繁使用的对象的空间时,可能未有效使用触摸屏190。
在本公开的实施例中,通过根据移动装置100中的对象11至23的选择计数(即,与对象11至23对应的应用的执行计数或最近未用时间周期)改变对象11至23的尺寸、颜色和形状中的至少一个,对象11至23可能看起来像活跃地活着和逐渐死去的有机体一样。
参照图17B,控制器110控制在触摸屏190上显示多个对象11至23。控制器110存储通过输入装置1选择对象11至23并在移动装置100中执行选择的对象11至23的计数。如果在第一时间周期(如,最近4周)期间显示在触摸屏190上的对象11至23中的至少一个的执行计数小于预定值,则控制器110用另一图像代替该对象的初始图像,并控制对象的显示。例如,控制器110可根据对象11至23的选择和执行计数控制以不同的尺寸显示对象11至23。在图17B中,显示的对象16和20比触摸屏190上的其他对象11至15和17至19小,这指示通过输入装置1选择并执行对象16和20少于其他对象11至15和17至19。
在本公开的替代实施例中,参照图17C,对象16和20比其他对象11至15和17至19小。尤其是,对象20比对象16小。这指示在移动装置100中,对象16和20被选择并执行少于其他对象11至15和17至19,并且对象16的选择和执行计数少于对象20。
如果在图17B或图17C中通过输入装置1选择缩小的对象16和20并在移动装置100中执行,则控制器110可控制如图17A所示将对象16和20以原始尺寸显示在触摸屏上。
然而,如果在第一时间周期(如,最近4周)之后的第二时间周期(如,2周)期间未执行缩小的对象16和20,则控制器110可控制从触摸屏190移除对象16和20。即,控制器110可自动从触摸屏190的当前屏幕删除对象16和20。
参照图17D,在将对象16和20从触摸屏190移除之后,控制器110可重新布置其他对象11至15和17至19,并控制将重新布置的对象11至15和17至19显示在触摸屏190上。
例如,即使从显示在触摸屏190上的主屏移除对象16和20,对象16和20可仍存在于其他屏幕(如,主菜单屏幕)上。
即使从主屏或主菜单屏幕移除对象16和20,也不卸载与对象16和29对应的应用。因此,即使从主屏或主菜单屏幕移除对象16和20,对象16和20以及与对象16和20对应的应用可仍存储在存储器175中,并可在任何时间显示在触摸屏190上。
图18A、图18B、图18C和图18D示出根据本公开另一实施例的基于显示在触摸屏上的对象的使用来管理所述对象的方法;
参照图18A,在本公开的另一实施例中,通过根据移动装置100中的对象11至23的选择计数(即,与对象11至23对应的应用的执行计数或最近未用时间周期)改变对象11至23的颜色,对象11至23可能看起来像活跃地活着和逐渐死去的有机体一样。
参照图18B,控制器110可存储在移动装置100中执行选择的对象11至23的计数,并可根据其执行计数以不同的颜色显示对象11至23。在图18B中,相对于其他对象11至15和17至19,以低颜色密度或者以无色(如,灰色)显示对象16和20。这指示在移动装置100中执行对象16和20少于其他对象11至15和17至19。
在本公开的替代实施例中,参照图18C,使用比其他对象11至15和17至19更低的颜色密度显示对象16和20。尤其是,使用比对象16更低的颜色密度显示对象20。这意味着在移动装置100中,执行对象16和20少于其他对象11至15和17至19,并且对象16的选择和执行计数少于对象20。
如果在图18B或图18C中用户选择缩小的对象16和20并在移动装置100中执行,则控制器110可控制如图18A所示将对象16和20以原始颜色密度显示在触摸屏上。
然而,如果在移动装置100中缩小的对象16和20继续未被执行,则控制器110可控制从触摸屏190移除对象16和20。
参照图18D,在从触摸屏190移除对象16和20之后,控制器110可重新布置其他对象11至15和17至19,并控制将重新布置的对象11至15和17至19显示在触摸屏190上。
图19A、图19B、图19C、图19D和图19E示出根据本公开实施例的对触摸屏上的对象显示运动效果的方法。
参照图19A、图19B、图19C、图19D和图19E,在对显示在触摸屏190上的对象产生事件时,控制器110可对该对象应用运动效果。例如,当在电子邮件应用中接收到电子邮件时,可在触摸屏190上的电子邮件图标15上指示电子邮件接收。在图19A中,在电子邮件图标15上指示接收到三封电子邮件。当事件发生于对象15时,控制器110可控制反复收缩和膨胀触摸屏190上的对象15的尺寸。
参照图19A、图19B、图19C、图19D和图19E,在事件发生于对象15之后,随着时间过去,对象15的尺寸逐渐减小,然后逐渐增大。
在对象15逐渐收缩的同时,控制器110可控制逐渐收缩对象15的独特图像15-3。
另外,在对象15逐渐收缩的同时,控制器110可控制改变对象15的背景图像15-1的颜色。
不管对象15的尺寸逐渐减小,控制器110可保持标题15-2和到来消息指示符15-4的尺寸不变。
另外,当对象15的尺寸减小时,控制器110可围绕对象15创建阴影15-5。阴影15-5从对象15的轮廓延伸。随着对象15逐渐收缩,控制器110可控制阴影15-5逐渐扩大。
在对象15逐渐扩大的同时,控制器110可控制逐渐扩大对象15的独特图像15-3。
在对象15逐渐扩大的同时,控制器110可控制改变对象15的背景图像15-1的颜色。
不管对象15的逐渐扩大,控制器110可保持标题15-2和到来消息指示符15-4的尺寸不变。
在对象15逐渐扩大的同时,控制器110可控制阴影15-5逐渐收缩。
如图19A、图19B、图19C、图19D和图19E所示,控制器110可通过重复对象15的上述收缩和膨胀对对象15提供效果,以使得对象15看起来像有机体一样。因此,用户可识别出发生与对象15有关的事件。另外,与对象15上的事件发生次数的简单指示相比,本公开的实施例使用户能够更直观地识别出事件的发生。
从上面的描述明显的是,本公开的优点在于:在配备有触摸屏的装置中可有效管理显示在小屏幕上的多个对象。可通过简单的用户手势快速组合和分离显示在触摸屏上的多个对象。可通过简单的用户手势容易地锁定和解锁显示在触摸屏上的多个对象。另外,可在触摸屏上自动删除表示不常使用的应用的图标。因此,用户可通过简单的用户手势有效管理表示存储在移动装置中的多个应用的对象。
应该注意的是,上述本公开的各种实施例涉及处理输入数据和产生输出数据。此输入数据处理和输出数据产生可实现于硬件或与硬件结合的软件中。例如,在移动装置或者类似或相关电路中可采用特定电子元件以用于实现与上述本公开的各种实施例关联的功能。另选地,依据存储的指令操作的一个或多个处理器可实现与上述本公开的各种实施例关联的功能。如果是这样,则这样的指令可存储在一个或多个非瞬时性处理器可读介质上也在本公开的范围内。处理器可读介质的示例包括只读存储器(ROM)、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光学数据存储装置。处理器可读介质还可分布于联网的计算机系统上。另外,用于实现本公开的功能计算机程序、指令和指令段可由本公开所属领域的程序员容易地解释。
尽管已参照本公开的各种实施例示出和描述了本公开,本领域技术人员将理解,在不脱离由权利要求及其等同物限定的本公开的精神和范围的情况下,可对其进行形式和细节上的各种改变。

Claims (12)

1.一种管理显示在触摸屏上的多个对象的方法,所述方法包括:
将所述多个对象显示在触摸屏上;
确定是否通过输入源在触摸屏上同时触摸所述多个对象中的第一对象和第二对象;
如果同时触摸了第一对象和第二对象,则确定第一对象是否在触摸屏上移动;
如果第一对象在触摸屏上移动,则确定第一对象和第二对象之间的距离;
如果第一对象和第二对象之间的距离小于第一预定值,则确定第一对象和第二对象中的每一个是否能够被组合;
如果第一对象和第二对象中的每一个能够被组合,则随着第一对象和第二对象彼此靠近而逐渐改变第一对象和第二对象的形状,并且当第一对象和第二对象之间的距离小于第二预定值时,将第一对象和第二对象组合成集合,并将所述集合显示在触摸屏上;
如果第一对象和第二对象中的任意一个不能够被组合,则在第一对象和第二对象彼此靠近的过程中不改变第一对象和第二对象的形状,并在第一对象和第二对象彼此接触时将第一对象和第二对象显示为彼此重叠。
2.根据权利要求1所述的方法,其中,组合第一对象和第二对象的步骤包括:减小第一对象和第二对象的尺寸。
3.根据权利要求2所述的方法,其中,减小第一对象和第二对象的尺寸的步骤包括:缩放第一对象和第二对象。
4.根据权利要求1所述的方法,其中,随着第一对象和第二对象彼此靠近而逐渐改变第一对象和第二对象的形状的步骤包括:随着第一对象和第二对象之间的距离减小,基于第一对象和第二对象之间的距离改变第一对象和第二对象的形状。
5.根据权利要求1所述的方法,还包括:如果通过输入源同时触摸所述集合和所述多个对象中的第三对象并将所述集合和第三对象移动到预定距离内,则将第三对象与所述集合组合成新的集合,并将所述新的集合显示在触摸屏上。
6.根据权利要求1所述的方法,其中,显示所述多个对象的步骤包括:将所述集合显示在第一对象和第二对象中的一个对象的显示区域中。
7.一种管理显示在触摸屏上的多个对象的设备,所述设备包括:
触摸屏,被配置为显示所述多个对象;
控制器,被配置为如果通过输入源在触摸屏上同时触摸所述多个对象中的第一对象和第二对象,并且第一对象在触摸屏上移动,则确定第一对象和第二对象之间的距离,如果第一对象和第二对象之间的距离小于第一预定值,确定第一对象和第二对象中的每一个是否能够被组合,如果第一对象和第二对象中的每一个能够被组合,则随着第一对象和第二对象彼此靠近而逐渐改变第一对象和第二对象的形状,并且当第一对象和第二对象之间的距离小于第二预定值时,将第一对象和第二对象组合成集合,并将所述集合显示在触摸屏上,如果第一对象和第二对象中的任意一个不能够被组合,则在第一对象和第二对象彼此靠近的过程中不改变第一对象和第二对象的形状,并在第一对象和第二对象彼此接触时将第一对象和第二对象显示为彼此重叠。
8.根据权利要求7所述的设备,其中,所述控制器减小第一对象和第二对象的尺寸以将第一对象和第二对象组合成所述集合。
9.根据权利要求7所述的设备,其中,所述控制器通过缩放第一对象和第二对象来减小第一对象和第二对象的尺寸。
10.根据权利要求7所述的设备,其中,随着第一对象和第二对象之间的距离减小,则所述控制器基于第一对象和第二对象之间的距离改变第一对象和第二对象的形状。
11.根据权利要求7所述的设备,其中,如果通过输入源同时触摸所述集合和所述多个对象中的第三对象并将所述集合和第三对象移动在预定距离内,则所述控制器将第三对象与所述集合组合成新的集合,并将所述新的集合显示在触摸屏上。
12.根据权利要求7所述的设备,其中,所述集合显示在第一对象和第二对象中的一个对象的显示区域中。
CN201310631446.XA 2012-11-30 2013-11-29 管理显示在触摸屏上的多个对象的设备和方法 Expired - Fee Related CN103853346B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810612161.4A CN108897484A (zh) 2012-11-30 2013-11-29 管理显示在触摸屏上的多个对象的设备和方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0138040 2012-11-30
KR1020120138040A KR20140070040A (ko) 2012-11-30 2012-11-30 터치스크린 상에 표시되는 복수의 객체들을 관리하는 장치 및 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201810612161.4A Division CN108897484A (zh) 2012-11-30 2013-11-29 管理显示在触摸屏上的多个对象的设备和方法

Publications (2)

Publication Number Publication Date
CN103853346A CN103853346A (zh) 2014-06-11
CN103853346B true CN103853346B (zh) 2018-07-06

Family

ID=49679396

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201810612161.4A Withdrawn CN108897484A (zh) 2012-11-30 2013-11-29 管理显示在触摸屏上的多个对象的设备和方法
CN201310631446.XA Expired - Fee Related CN103853346B (zh) 2012-11-30 2013-11-29 管理显示在触摸屏上的多个对象的设备和方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201810612161.4A Withdrawn CN108897484A (zh) 2012-11-30 2013-11-29 管理显示在触摸屏上的多个对象的设备和方法

Country Status (11)

Country Link
US (3) US20140152597A1 (zh)
EP (1) EP2738662A1 (zh)
JP (2) JP2014110054A (zh)
KR (1) KR20140070040A (zh)
CN (2) CN108897484A (zh)
AU (1) AU2013263767B2 (zh)
BR (1) BR102013030675A2 (zh)
CA (1) CA2835373A1 (zh)
RU (1) RU2013153254A (zh)
WO (1) WO2014084668A1 (zh)
ZA (1) ZA201308966B (zh)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130070506A (ko) * 2011-12-19 2013-06-27 삼성전자주식회사 페이지 형태를 디스플레이하는 방법 및 디스플레이 장치
JP5726221B2 (ja) * 2013-02-04 2015-05-27 シャープ株式会社 データ処理装置
KR102146244B1 (ko) * 2013-02-22 2020-08-21 삼성전자주식회사 휴대 단말에 대한 동작 관련 입력에 따라 복수개의 객체들의 표시를 제어하는 방법 및 이를 위한 휴대 단말
USD742911S1 (en) * 2013-03-15 2015-11-10 Nokia Corporation Display screen with graphical user interface
USD749125S1 (en) * 2013-03-29 2016-02-09 Deere & Company Display screen with an animated graphical user interface
US10545657B2 (en) 2013-09-03 2020-01-28 Apple Inc. User interface for manipulating user interface objects
USD780198S1 (en) * 2013-09-18 2017-02-28 Lenovo (Beijing) Co., Ltd. Display screen with graphical user interface
EP3086537A4 (en) * 2013-12-18 2017-08-09 Yulong Computer Telecommunication Scientific (Shenzhen) Co., Ltd. Application icon display control method and terminal
CN105556866B (zh) * 2014-02-21 2018-05-15 联发科技股份有限公司 无线通信连接的建立方法及其电子装置
USD777739S1 (en) * 2014-02-21 2017-01-31 Lenovo (Beijing) Co., Ltd. Display screen or portion thereof with graphical user interface
USD784373S1 (en) * 2014-02-21 2017-04-18 Lenovo (Beijing) Co., Ltd. Display screen or portion thereof with graphical user interface
KR102173110B1 (ko) * 2014-05-07 2020-11-02 삼성전자주식회사 웨어러블 디바이스 및 그 제어 방법
EP3105669B1 (en) * 2014-06-24 2021-05-26 Apple Inc. Application menu for video system
USD789976S1 (en) * 2014-06-24 2017-06-20 Google Inc. Display screen with animated graphical user interface
JP6296919B2 (ja) * 2014-06-30 2018-03-20 株式会社東芝 情報処理装置及びグループ化実行/解除方法
JP6405143B2 (ja) * 2014-07-30 2018-10-17 シャープ株式会社 コンテンツ表示装置及び表示方法
CN105335041B (zh) * 2014-08-05 2019-01-15 阿里巴巴集团控股有限公司 一种提供应用图标的方法及装置
USD735754S1 (en) 2014-09-02 2015-08-04 Apple Inc. Display screen or portion thereof with graphical user interface
CN112130720A (zh) 2014-09-02 2020-12-25 苹果公司 多维对象重排
US10073590B2 (en) 2014-09-02 2018-09-11 Apple Inc. Reduced size user interface
EP3190497B1 (en) * 2014-09-03 2021-07-21 LG Electronics Inc. Module-type mobile terminal and control method therefor
USD779517S1 (en) * 2014-09-11 2017-02-21 Shuttersong Incorporated Display screen or portion thereof with graphical user interface
USD779515S1 (en) * 2014-09-11 2017-02-21 Shuttersong Incorporated Display screen or portion thereof with graphical user interface
USD779516S1 (en) * 2014-09-11 2017-02-21 Shuttersong Incorporated Display screen or portion thereof with graphical user interface
GB2530078A (en) * 2014-09-12 2016-03-16 Samsung Electronics Co Ltd Launching applications through an application selection screen
KR20160046633A (ko) * 2014-10-21 2016-04-29 삼성전자주식회사 입력 지원 방법 및 이를 지원하는 전자 장치
US9389742B2 (en) * 2014-12-10 2016-07-12 Pixart Imaging Inc. Capacitive touch device, capacitive communication device and communication system
USD783683S1 (en) * 2014-12-23 2017-04-11 Mcafee, Inc. Display screen with animated graphical user interface
USD760740S1 (en) * 2015-01-23 2016-07-05 Your Voice Usa Corp. Display screen with icon
USD765699S1 (en) * 2015-06-06 2016-09-06 Apple Inc. Display screen or portion thereof with graphical user interface
USD863332S1 (en) * 2015-08-12 2019-10-15 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
US10209851B2 (en) * 2015-09-18 2019-02-19 Google Llc Management of inactive windows
US10891106B2 (en) 2015-10-13 2021-01-12 Google Llc Automatic batch voice commands
JP6376105B2 (ja) * 2015-10-30 2018-08-22 京セラドキュメントソリューションズ株式会社 表示装置および表示制御プログラム
CN105630380B (zh) * 2015-12-21 2018-12-28 广州视睿电子科技有限公司 元素组合及拆分的方法和系统
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
KR102589496B1 (ko) * 2016-07-04 2023-10-16 삼성전자 주식회사 화면 표시 방법 및 이를 지원하는 전자 장치
JP6098752B1 (ja) * 2016-08-10 2017-03-22 富士ゼロックス株式会社 情報処理装置およびプログラム
JP2018032249A (ja) * 2016-08-25 2018-03-01 富士ゼロックス株式会社 処理装置及びプログラム
CN106896998B (zh) * 2016-09-21 2020-06-02 阿里巴巴集团控股有限公司 一种操作对象的处理方法及装置
WO2018098946A1 (zh) * 2016-11-30 2018-06-07 华为技术有限公司 一种用户界面的显示方法、装置及用户界面
USD820305S1 (en) * 2017-03-30 2018-06-12 Facebook, Inc. Display panel of a programmed computer system with a graphical user interface
US11586338B2 (en) * 2017-04-05 2023-02-21 Open Text Sa Ulc Systems and methods for animated computer generated display
USD837234S1 (en) 2017-05-25 2019-01-01 Palantir Technologies Inc. Display screen or portion thereof with transitional graphical user interface
USD842333S1 (en) 2017-06-04 2019-03-05 Apple Inc. Display screen or portion thereof with graphical user interface
KR102313755B1 (ko) * 2017-06-07 2021-10-18 엘지전자 주식회사 이동 단말기 및 그 제어 방법
USD866579S1 (en) 2017-08-22 2019-11-12 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD843412S1 (en) * 2017-10-03 2019-03-19 Google Llc Display screen with icon
JP2019128899A (ja) * 2018-01-26 2019-08-01 富士通株式会社 表示制御プログラム、表示制御装置及び表示制御方法
JP6901426B2 (ja) * 2018-03-15 2021-07-14 株式会社日立産機システム エアシャワー装置
WO2019229929A1 (ja) * 2018-05-31 2019-12-05 東芝キヤリア株式会社 タッチパネルを用いた設備管理装置および管理画面生成方法
US10990260B2 (en) * 2018-08-23 2021-04-27 Motorola Mobility Llc Electronic device control in response to finger rotation upon fingerprint sensor and corresponding methods
IL264046B2 (en) * 2018-12-31 2023-03-01 Elbit Systems Ltd System and method for increasing the field of view of a sensor
US20220149919A1 (en) 2019-02-26 2022-05-12 Ntt Docomo, Inc. Terminal and communication method
USD945472S1 (en) * 2019-03-27 2022-03-08 Staples, Inc. Display screen or portion thereof with a transitional graphical user interface
JP7561606B2 (ja) 2020-12-23 2024-10-04 フォルシアクラリオン・エレクトロニクス株式会社 情報処理装置及び表示制御方法
JP6992916B2 (ja) * 2021-01-20 2022-01-13 富士フイルムビジネスイノベーション株式会社 処理装置
US11893212B2 (en) 2021-06-06 2024-02-06 Apple Inc. User interfaces for managing application widgets
USD1026009S1 (en) * 2021-11-17 2024-05-07 Express Scripts Strategic Development, Inc. Display screen with an icon
USD1034659S1 (en) 2022-06-28 2024-07-09 SimpliSafe, Inc. Display screen with graphical user interface
USD1034658S1 (en) 2022-06-28 2024-07-09 SimpliSafe, Inc. Display screen with animated graphical user interface
USD1034660S1 (en) * 2022-06-28 2024-07-09 SimpliSafe, Inc. Display screen with animated graphical user interface

Family Cites Families (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5500933A (en) * 1993-04-28 1996-03-19 Canon Information Systems, Inc. Display system which displays motion video objects combined with other visual objects
US5564004A (en) * 1994-04-13 1996-10-08 International Business Machines Corporation Method and system for facilitating the selection of icons
US5784061A (en) * 1996-06-26 1998-07-21 Xerox Corporation Method and apparatus for collapsing and expanding selected regions on a work space of a computer controlled display system
US6606103B1 (en) * 1999-11-30 2003-08-12 Uhc Llc Infinite resolution scheme for graphical user interface object
US20030007010A1 (en) * 2001-04-30 2003-01-09 International Business Machines Corporation Providing alternate access for physically impaired users to items normally displayed in drop down menus on user-interactive display interfaces
JP2003345492A (ja) * 2002-05-27 2003-12-05 Sony Corp 携帯電子機器
JP4239090B2 (ja) * 2004-01-08 2009-03-18 富士フイルム株式会社 ファイル管理プログラム
JP4574227B2 (ja) * 2004-05-14 2010-11-04 キヤノン株式会社 画像管理装置及びその制御方法、並びに、コンピュータプログラム及びコンピュータ可読記憶媒体
US20070016958A1 (en) * 2005-07-12 2007-01-18 International Business Machines Corporation Allowing any computer users access to use only a selection of the available applications
JP4759743B2 (ja) * 2006-06-06 2011-08-31 国立大学法人 東京大学 オブジェクト表示処理装置、オブジェクト表示処理方法、およびオブジェクト表示処理用プログラム
JP5305605B2 (ja) * 2007-03-16 2013-10-02 株式会社ソニー・コンピュータエンタテインメント データ処理装置、データ処理方法、及びデータ処理プログラム
US8051387B2 (en) * 2007-06-28 2011-11-01 Nokia Corporation Method, computer program product and apparatus providing an improved spatial user interface for content providers
US20090101415A1 (en) * 2007-10-19 2009-04-23 Nokia Corporation Apparatus, method, computer program and user interface for enabling user input
WO2009063034A2 (en) * 2007-11-15 2009-05-22 Desknet Sa Method enabling a computer apparatus run by an operating system to execute software modules
US8284170B2 (en) * 2008-09-30 2012-10-09 Apple Inc. Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor
KR101586627B1 (ko) * 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
US8245143B2 (en) * 2008-10-08 2012-08-14 Research In Motion Limited Method and handheld electronic device having a graphical user interface which arranges icons dynamically
KR101503835B1 (ko) * 2008-10-13 2015-03-18 삼성전자주식회사 멀티터치를 이용한 오브젝트 관리 방법 및 장치
US20100229129A1 (en) * 2009-03-04 2010-09-09 Microsoft Corporation Creating organizational containers on a graphical user interface
US20100251185A1 (en) * 2009-03-31 2010-09-30 Codemasters Software Company Ltd. Virtual object appearance control
CN101853118A (zh) * 2009-04-03 2010-10-06 鸿富锦精密工业(深圳)有限公司 触控系统及使用该触控系统进行数据编辑的方法
KR101537706B1 (ko) * 2009-04-16 2015-07-20 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US9009612B2 (en) * 2009-06-07 2015-04-14 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US8719729B2 (en) * 2009-06-25 2014-05-06 Ncr Corporation User interface for a computing device
JP2011028670A (ja) * 2009-07-29 2011-02-10 Kyocera Corp 検索表示装置及び検索表示方法
KR100984817B1 (ko) * 2009-08-19 2010-10-01 주식회사 컴퍼니원헌드레드 이동통신 단말기의 터치스크린을 이용한 사용자 인터페이스 방법
USD625734S1 (en) * 2009-09-01 2010-10-19 Sony Ericsson Mobile Communications Ab Transitional graphic user interface for a display of a mobile telephone
US9383916B2 (en) * 2009-09-30 2016-07-05 Microsoft Technology Licensing, Llc Dynamic image presentation
KR101701492B1 (ko) * 2009-10-16 2017-02-14 삼성전자주식회사 데이터 표시 방법 및 그를 수행하는 단말기
US8386950B2 (en) * 2010-04-05 2013-02-26 Sony Ericsson Mobile Communications Ab Methods, systems and computer program products for arranging a plurality of icons on a touch sensitive display
US8458615B2 (en) * 2010-04-07 2013-06-04 Apple Inc. Device, method, and graphical user interface for managing folders
KR101774312B1 (ko) * 2010-08-23 2017-09-04 엘지전자 주식회사 이동 단말기 및 그 제어 방법
USD691629S1 (en) * 2011-08-16 2013-10-15 Nest Labs, Inc. Display screen with an animated graphical user interface
JP5815932B2 (ja) * 2010-10-27 2015-11-17 京セラ株式会社 電子機器
KR101189630B1 (ko) * 2010-12-03 2012-10-12 한국기술교육대학교 산학협력단 멀티터치를 이용한 오브젝트 제어장치 및 그 방법
KR101728728B1 (ko) * 2011-03-18 2017-04-21 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101853057B1 (ko) * 2011-04-29 2018-04-27 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
GB201115369D0 (en) * 2011-09-06 2011-10-19 Gooisoft Ltd Graphical user interface, computing device, and method for operating the same
US20130311954A1 (en) * 2012-05-18 2013-11-21 Geegui Corporation Efficient user interface
USD726743S1 (en) * 2012-06-15 2015-04-14 Nokia Corporation Display screen with graphical user interface
US10529014B2 (en) * 2012-07-12 2020-01-07 Mx Technologies, Inc. Dynamically resizing bubbles for display in different-sized two-dimensional viewing areas of different computer display devices
US10713730B2 (en) * 2012-09-11 2020-07-14 Mx Technologies, Inc. Meter for graphically representing relative status in a parent-child relationship and method for use thereof
US10649619B2 (en) * 2013-02-21 2020-05-12 Oath Inc. System and method of using context in selecting a response to user device interaction
USD742911S1 (en) * 2013-03-15 2015-11-10 Nokia Corporation Display screen with graphical user interface
US10394410B2 (en) * 2013-05-09 2019-08-27 Amazon Technologies, Inc. Mobile device interfaces
USD740307S1 (en) * 2013-10-16 2015-10-06 Star*Club, Inc. Computer display screen with graphical user interface
USD762682S1 (en) * 2014-01-17 2016-08-02 Beats Music, Llc Display screen or portion thereof with animated graphical user interface
USD750102S1 (en) * 2014-01-30 2016-02-23 Pepsico, Inc. Display screen or portion thereof with graphical user interface
USD778311S1 (en) * 2014-06-23 2017-02-07 Google Inc. Display screen with graphical user interface for account switching by swipe
USD777768S1 (en) * 2014-06-23 2017-01-31 Google Inc. Display screen with graphical user interface for account switching by tap
USD735754S1 (en) * 2014-09-02 2015-08-04 Apple Inc. Display screen or portion thereof with graphical user interface
USD791143S1 (en) * 2014-09-03 2017-07-04 Apple Inc. Display screen or portion thereof with graphical user interface
USD775633S1 (en) * 2014-10-15 2017-01-03 Snap Inc. Portion of a display having a graphical user interface with transitional icon
USD761813S1 (en) * 2014-11-03 2016-07-19 Chris J. Katopis Display screen with soccer keyboard graphical user interface
USD766315S1 (en) * 2014-11-28 2016-09-13 Samsung Electronics Co., Ltd. Display screen or portion thereof with an animated graphical user interface
USD770513S1 (en) * 2014-11-28 2016-11-01 Samsung Electronics Co., Ltd. Display screen or portion thereof with an animated graphical user interface
USD776673S1 (en) * 2015-01-20 2017-01-17 Microsoft Corporation Display screen with animated graphical user interface
USD776674S1 (en) * 2015-01-20 2017-01-17 Microsoft Corporation Display screen with animated graphical user interface
USD766313S1 (en) * 2015-01-20 2016-09-13 Microsoft Corporation Display screen with animated graphical user interface
USD776672S1 (en) * 2015-01-20 2017-01-17 Microsoft Corporation Display screen with animated graphical user interface
USD760740S1 (en) * 2015-01-23 2016-07-05 Your Voice Usa Corp. Display screen with icon
USD763889S1 (en) * 2015-01-28 2016-08-16 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD762227S1 (en) * 2015-02-13 2016-07-26 Nike, Inc. Display screen with graphical user interface
USD800747S1 (en) * 2015-03-17 2017-10-24 Samsung Electronics Co., Ltd. Display screen or portion thereof with animated graphical user interface
USD795917S1 (en) * 2015-05-17 2017-08-29 Google Inc. Display screen with an animated graphical user interface
USD776133S1 (en) * 2015-06-23 2017-01-10 Zynga Inc. Display screen or portion thereof with a graphical user interface
USD791806S1 (en) * 2015-08-08 2017-07-11 Youfolo, Inc. Display screen or portion thereof with animated graphical user interface
USD802620S1 (en) * 2015-08-12 2017-11-14 Samsung Electronics Co., Ltd. Display screen or portion thereof with animiated graphical user interface
USD803233S1 (en) * 2015-08-14 2017-11-21 Sonos, Inc. Display device with animated graphical user interface element
USD786917S1 (en) * 2015-09-02 2017-05-16 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD804513S1 (en) * 2015-09-02 2017-12-05 Samsung Electronics Co., Ltd Display screen or portion thereof with graphical user interface
USD807391S1 (en) * 2015-12-15 2018-01-09 Stasis Labs, Inc. Display screen with graphical user interface for health monitoring display
USD778942S1 (en) * 2016-01-11 2017-02-14 Apple Inc. Display screen or portion thereof with graphical user interface

Also Published As

Publication number Publication date
US20160092063A1 (en) 2016-03-31
AU2013263767A1 (en) 2014-06-19
JP2019032848A (ja) 2019-02-28
CN103853346A (zh) 2014-06-11
WO2014084668A1 (en) 2014-06-05
EP2738662A1 (en) 2014-06-04
US20140152597A1 (en) 2014-06-05
ZA201308966B (en) 2014-11-26
CA2835373A1 (en) 2014-05-30
CN108897484A (zh) 2018-11-27
KR20140070040A (ko) 2014-06-10
RU2013153254A (ru) 2015-06-10
JP2014110054A (ja) 2014-06-12
BR102013030675A2 (pt) 2015-10-27
USD817998S1 (en) 2018-05-15
AU2013263767B2 (en) 2019-01-31

Similar Documents

Publication Publication Date Title
CN103853346B (zh) 管理显示在触摸屏上的多个对象的设备和方法
CN103713843B (zh) 用于在移动装置中产生任务推荐图标的方法和设备
KR102146244B1 (ko) 휴대 단말에 대한 동작 관련 입력에 따라 복수개의 객체들의 표시를 제어하는 방법 및 이를 위한 휴대 단말
CN103729160B (zh) 多显示设备和多显示方法
KR102113683B1 (ko) 문지르기 제스처를 검출하여 미리보기를 제공하는 모바일 장치 및 그 제어 방법
CN108600605A (zh) 移动终端及其控制方法
CN105393202B (zh) 用于提供组合用户界面组件的便携式的设备和控制其的方法
KR20140143555A (ko) 휴대 장치의 잠금 화면 상에서 빠른 어플리케이션 실행 방법 및 이를 위한 휴대 장치
US20130290866A1 (en) Mobile terminal and control method thereof
KR20140143971A (ko) 홈 화면 공유 장치 및 방법
CN103428358A (zh) 移动终端及其控制方法
AU2014269350A1 (en) Apparatus, method and computer readable recording medium for displaying thumbnail image of panoramic photo
KR20140140957A (ko) 화면 데이터의 미러링 방법, 저장 매체 및 전자 장치
CN105094661A (zh) 移动终端及其控制方法
KR20140000572A (ko) 모바일 장치에서의 메뉴 표시 장치 및 방법
KR20140142081A (ko) 그룹 리코딩 방법, 저장 매체 및 전자 장치
KR20140081470A (ko) 문자 확대 표시 방법, 상기 방법이 적용되는 장치, 및 상기 방법을 수행하는 프로그램을 저장하는 컴퓨터로 읽을 수 있는 저장 매체
US20140195964A1 (en) Method and apparatus for dynamic display box management
KR20140042427A (ko) 애니메이션 이모티콘을 생성하는 장치 및 그 방법
CN113112986A (zh) 音频合成方法、装置、设备、介质及程序产品
US10409478B2 (en) Method, apparatus, and recording medium for scrapping content
KR20140111089A (ko) 오브젝트에 대한 사전 실행 기능을 가지는 모바일 장치 및 그 제어방법
KR20150026110A (ko) 아이콘들을 관리하는 방법 및 이를 위한 모바일 단말기
KR20140089714A (ko) 상태 바를 변경하는 모바일 장치 및 그 제어 방법
KR20140090321A (ko) 트리거를 기반으로 오브젝트를 표시하는 모바일 장치 및 그 제어 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180706

Termination date: 20201129