CN107077276B - 用于提供用户界面的方法和装置 - Google Patents

用于提供用户界面的方法和装置 Download PDF

Info

Publication number
CN107077276B
CN107077276B CN201580055979.5A CN201580055979A CN107077276B CN 107077276 B CN107077276 B CN 107077276B CN 201580055979 A CN201580055979 A CN 201580055979A CN 107077276 B CN107077276 B CN 107077276B
Authority
CN
China
Prior art keywords
input
control
cursor
area
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201580055979.5A
Other languages
English (en)
Other versions
CN107077276A (zh
Inventor
洪道义
田敬薰
吴智成
李基硕
崔东柱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority claimed from PCT/KR2015/010918 external-priority patent/WO2016060501A1/en
Publication of CN107077276A publication Critical patent/CN107077276A/zh
Application granted granted Critical
Publication of CN107077276B publication Critical patent/CN107077276B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Abstract

本公开涉及传感器网络、机器类型通信(MTC)、机器与机器(M2M)通信、以及用于物联网的技术(IoT)。基于诸如智能家居、智能建筑、智能城市、智能汽车、互联汽车、医疗保健、数字教育、智能零售、安全以及安保服务的上述技术,本公开可以应用于智能服务。提供了一种由电子设备提供用户界面(UI)的方法。该方法包括显示控制UI、经由显示的控制UI接收第一拖动输入、并且当第一拖动输入的方向对应于第一方向时在预设位置处显示光标UI。根据本公开的实施例,可以提供通过其电子设备可以容易地接收用户输入的UI。更具体地,在包括单手输入的有限输入状态下,用户可以容易地做出用于选择显示在显示单元上的项目的输入,并且因此,可以提高用户便利性。

Description

用于提供用户界面的方法和装置
技术领域
本公开涉及用于提供用户界面的方法和装置。更具体地说,本公开涉及用于提供可由一只手控制的电子设备的用户界面的方法和装置。
背景技术
作为人类生成和使用信息的以人类为中心的连接性网络的互联网,现在正在发展到诸如物体的分布式实体不用人类干预而交换和处理信息的物联网(IoT)。作为IoT技术和通过与云服务器连接的大数据处理技术的组合的万物互联网(IoE)已经出现。由于IoT实现需要诸如“传感技术”、“有线/无线通信和网络基础设施”、“服务接口技术”、以及“安全技术”的技术要素,最近已经在研究传感器网络、机器与机器(M2M)通信、机器类型通信(MTC)等等。
这样的IoT环境可以提供智能互联网技术服务,该智能互联网技术服务通过收集和分析在互联的物体之中生成的数据为人类生活创造新的价值。通过现有的信息技术(IT)和各种工业应用之间的融合和结合,可将IoT应用于包括智能家居、智能建筑、智能城市、智能汽车或互联汽车、智能电网、医疗保健、智能家电和高级医疗服务的各种领域。。
触摸屏可以用作电子设备、特别是移动设备的主要输入源。如上所述,根据电子设备的屏幕尺寸,在小屏幕中可能错误地选择不期望的内容,并且当使用更大屏幕时,用户通过使用另一只手来选择在移动电子设备中特定位置处显示的项目来进行输入是不方便的。
更具体地说,电子设备的直观输入类型可以包括用于触摸可见项目以选择该项目的屏幕。然而,触摸屏可能由于其尺寸而导致不方便。当屏幕很小时,在屏幕中准确地选择期望的内容很困难。相反,当屏幕很大时,通过屏幕键盘单手输入字符和数字很困难。此外,由于内容分布在屏幕上,通过支撑移动设备的手的手指来选择内容很困难。
当屏幕很小时屏幕的放大以及选择内容需要附加的操作来放大屏幕,从而浪费时间并产生手的移动。此外,由于屏幕的放大,可见的内容减少。当屏幕很大时缩小控制窗口并向用户提供缩小的控制窗口的方法包括复杂的设置过程。虽然该方法对于输入字符和数字是有用的,但是该方法具有需要手的频繁移动来在屏幕上选择内容的问题。
上述信息仅作为背景信息呈现,以帮助理解本公开。至于上述任何内容是否可作为关于本公开的现有技术而适用,没有确定,并且没有做出声明。
发明内容
技术问题
本公开的方面要解决至少上述问题和/或缺点,并提供至少下面描述的优点。因此,本公开的一个方面是提供用于容易地选择在电子设备中显示的项目的方法和装置。更具体地说,本公开的一个方面是提供用于在电子设备中显示用于用户输入的控制用户界面(UI)以及根据与显示的控制UI对应的输入来选择在电子设备中显示的项目的方法和装置。
本公开的另一方面是提供一种用于基于在触摸屏的特定区域中接收的输入来选择在电子设备中的另一区域中显示的项目的方法和装置。
本公开的另一方面是提供一种用于基于触摸输入、拖动输入、以及按压输入中的至少一个在电子设备中的特定区域中显示的用户项目的方法和装置。
解决问题
根据本公开的一个方面,提供了一种通过电子设备提供UI的方法。该方法包括显示控制UI、经由显示的控制UI接收第一拖动、以及当第一拖动输入的方向对应于第一方向时在预设位置显示光标UI。
根据本公开的另一方面,提供了一种用于提供UI的电子设备。所述电子设备包括显示单元、配置为在与显示单元对应的位置处接收触摸输入的触摸屏、以及控制器,其配置为在显示单元上显示控制UI、通过触摸屏经由显示的控制UI接收第一拖动输入、并且当第一拖动输入的方向对应于第一方向时在显示单元上的预设位置处显示光标UI。
根据本公开的另一方面,提供了一种通过电子设备提供UI的方法。该方法包括接收用于显示光标的第一输入、在与第一输入对应的位置处显示光标、以及响应于第一输入或第二输入移动显示的光标。
根据本公开的另一方面,提供了一种用于提供UI的电子设备。所述电子设备包括显示单元、触摸屏,其配置为在对应于显示单元的位置处接收触摸输入、以及控制器,其配置为通过触摸屏接收用于显示光标的第一输入、在显示单元上与第一输入对应的位置处显示光标、并响应于用于移动光标的第一输入或第二输入移动显示的光标。
从以下结合附图公开了本公开的各种实施例的详细描述中,本公开的其它方面、优点和突出特征对于本领域技术人员将变得显而易见。
发明的有利效果
从以下结合附图公开本发明的示例性实施例的详细描述中,本发明的优点和显着特征对于本领域技术人员将变得显而易见。根据本公开的实施例,可以提供通过其电子设备可以容易地接收用户输入的UI。更具体地说,在包括单手控制的有限输入状态下,用户可以容易地做用于选择显示在显示单元上的特定项目的输入,并且,因此可以提高用户便利性。
此外,本公开的实施例提供了一种用于基于在触摸屏或触摸输入单元上做的用户输入来选择显示在另一区域的项目的方法和装置。因此,用户可以基于由握住电子设备的手在特定区域中做的输入来选择位于其他区域中的项目,从而提高用户便利性。
此外,根据本公开的实施例,实现了通过电子设备容易地接收用户输入的最佳环境,以及因此可以提高用户便利性,并且可以提高电子设备的可用性、便利性、可访问性和竞争力。
附图说明
从以下结合附图的描述中,本公开的某些实施例的上述和其它方面、特征和优点将更加显而易见,其中:
图1是根据本公开的实施例的电子设备的框图;
图2是根据本公开的实施例的电子设备的透视图;
图3A、图3B、图3C、图3D、图3E、图3F、图3G、图3H、图3I、图3J和图3K说明了根据本公开的各种实施例的由电子设备提供的用户界面(UI);
图4A、图4B、图4C、图4D、图4E、图4F、图4G、图4H和图4I示出了根据本公开的各种实施例的由电子设备提供UI的方法;
图5说明了根据本公开的实施例的控制UI;
图6说明了根据本公开的实施例的控制UI的示例;
图7是根据本公开的实施例的提供UI的方法的流程图;
图8是根据本公开的实施例的提供UI的方法的流程图;
图9是根据本公开的实施例的提供UI的方法的流程图;
图10是根据本公开的实施例的提供UI的方法的流程图;
图11是根据本公开的实施例的提供UI的方法的流程图;
图12A、图12B、图12C、图12D、图12E、图12F、图12G、图12H和图12I说明了根据本公开的各种实施例的提供UI的方法;
图13是根据本公开的实施例的显示控制UI的方法的流程图;
图14是根据本公开的实施例的提供UI的方法的流程图;
图15是根据本公开的实施例的提供UI的方法的流程图;
图16A和图16B说明了根据本公开的各种实施例的提供UI的方法;以及
图17是根据本公开的实施例的提供UI的方法的流程图。
在整个附图中,相同的附图标记将被理解为指相同的零件(part)、部件和结构。
具体实施方式
提供了参考附图的以下描述以帮助全面了解由权利要求及其等同物(equivalent)定义的本公开的各种实施例。它包括各种具体细节,以帮助这种理解,但这些细节将被视为仅仅是示例性的。因此,本领域普通技术人员将认识到,在不脱离本公开的范围和精神的情况下,可以对本文所述的各种实施例做各种改变和修改。此外,为了清楚和简明,可以省略对公知功能和结构的描述。
以下描述和权利要求中使用的术语和词语不限于书面意义,而是仅由发明人使用以使得能够清楚和一致地理解本公开内容。因此,本领域技术人员应当明白,仅为了说明的目的提供本公开的各种实施例的以下描述,而不是为了限制由所附权利要求及其等同物定义的本公开的目的。
要明白的是,除非上下文另有明确规定,单数形式“一”,“一个”和“该”包括复数指示物。因此,例如,提及“组件表面”包括提及这些表面中的一个或多个。
出于同样的原因,在附图中,一些元件可能被夸大、省略或示意性地说明。此外,每个元素的大小并不完全反映实际尺寸。在附图中,相同或对应的元件被提供具有相同的附图标记。
这里,应当理解,流程图说明的每个框以及流程图说明中的框的组合可以由计算机程序指令来实现。这些计算机程序指令可以提供给通用计算机、专用计算机、或其他可编程数据处理装置的处理器以产生机器,以便经由计算机或其他可编程数据处理装置的处理器执行的指令创建用于实现流程图一个或多个框中指定的功能的工具。这些计算机程序指令还可以存储在计算机可用或计算机可读存储器中,该存储器可以指引计算机或其他可编程数据处理装置以特定方式运行,以便存储在计算机可用或计算机可读存储器中的指令生产包括实现流程图框中指定的功能的指令工具的制品。计算机程序指令还可以被加载到计算机或其他可编程数据处理装置上,以使在计算机或其他可编程装置上进行一系列操作以产生计算机实现的过程,以便在计算机或其它可编程装置上执行的指令提供用于实现流程图一个或多个框中指定的功能的操作。
并且流程图的每个框可以表示代码的模块、段或部分,其包括用于实现指定的(多个)逻辑功能的一个或多个可执行指令。还应当注意,在一些替代的实现方式中,框中记录的功能可能发生在次序之外。例如,取决于所涉及的功能,连续示出的两个框可以实际基本上同时执行,或者有时可以以相反的顺序执行框。
如本文所使用的,“单元”或“模块”是指进行预定功能的软件元件或硬件元件,诸如现场可编程门阵列(FPGA)或专用集成电路(ASIC)。然而,“单元”或“模块”不限于软件或硬件。“单元”或“模块”可以构造成存储在可寻址存储介质中或者执行一个或多个处理器。因此,“单元”或“模块”包括例如,软件元件、面向对象的软件元件、类元件或任务元件、过程、功能、属性、步骤、子例程、程序代码的段、驱动器、固件、微代码、电路、数据、数据库、数据结构、表格、数组和参数。由“单元”或“模块”提供的元件和功能可以组合成较少数量的元件、“单元”或“模块”、或者被分成更大数量的元件、“单元”或“模块”。另外,可以实现元件和“单元”或“模块”以再现设备或安全多媒体卡内的一个或多个中央处理单元(CPU)。
在本公开的各种实施例中,电子设备可以包括使用应用处理器(AP)、图形处理单元(GPU)和CPU中的一个或多个的所有设备,诸如所有信息和通信设备、多媒体设备、可穿戴设备及其应用设备,其支持根据本公开的各种实施例的功能。作为示例,根据本公开的各种实施例的电子设备可以包括可以显示项目、接收用户输入以及选择与所接收的用户输入对应的项目的电子设备。根据本公开的实施例,电子设备可以由能够支持根据本公开的实施例的功能的所有类型的设备和各种设备来实现,诸如智能电话、平板个人电脑(PC)、移动通信终端、视频电话、电子书阅读器、台式PC、笔记本电脑、上网本计算机、个人数字助理(PDA)、便携式多媒体播放器(PMP)、运动图像专家组阶段1或阶段2(MPEG-1或MPEG-2)、音频层3(MP3)播放器、移动医疗设备、相机和可穿戴设备(例如,诸如电子眼镜的头戴式设备(HMD)、电子衣服、电子手链、电子项链、电子配件、电子纹身、或智能手表)。此外,根据本公开的各种实施例的电子设备可以是具有锁屏功能的智能家用电器。例如,智能家用电器可以包括电视(TV)、数字通用盘(DVD)播放器、音响、冰箱、空调、真空吸尘器、烤箱、微波炉、洗衣机、空气净化器、机顶盒、电视盒(例如,Samsung HomeSyncTM,Apple TVTM或GoogleTVTM)、游戏机、电子词典、电子钥匙、摄像机、以及电子相框。
根据本公开的各种实施例的电子设备可以包括各种医疗器具(例如,磁共振血管造影术(MRA)、磁共振成像(MRI)、计算机断层扫描(CT)和超声波机器)、导航装备、全球定位系统(GPS)接收机、事件数据记录器(EDR)、飞行数据记录器(FDR)、汽车信息娱乐设备、船舶电子设备(例如,船舶导航装备和回转罗盘)、航空电子设备、安全装备、车头单元、工业或家用机器人、银行系统的自动取款机(ATM)和商店的销售终端(POS)中的至少一种。
此外,根据本公开的各种实施例的电子设备可以包括家具或建筑物/结构的一部分、电子板、电子签名接收设备、投影仪和各种类型的测量仪器(例如,水表、电表、燃气表和无线电波表)中的至少一种,其具有能够显示项目并根据用户输入选择项目的功能。
此外,根据本公开的各种实施例的电子设备可以是灵活的设备。
对于本领域技术人员显而易见的是,根据本公开的各种实施例的电子设备可以是前述各种设备中的一个或多个的组合,并且不限于前述设备。
根据本公开的实施例的用于提供用户界面(UI)的方法和装置可以包括基于在特定区域中接收的用户输入来选择在另一区域中显示的项目的方法以及使用该方法的装置。例如,可以提供基于通过在另一区域中显示的控制UI接收到的输入来选择显示在包括触摸屏的电子设备的区域中的项目的方法,以及使用该方法的装置。
图1是根据本公开的实施例的电子设备的框图。
参考图1,根据本公开的各种实施例的电子设备100可以包括无线通信单元110、用户输入单元120、触摸屏130、音频处理器140、存储单元150、接口单元160、相机模块170、控制器180和电源单元190。在本公开的各种实施例中,图1说明的电子设备100的部件可能不是必需的,并且电子设备100可以省略组件。
无线通信单元110可以包括一个或多个模块,其使得电子设备100与无线通信系统之间或电子设备100与另一电子设备之间无线通信。例如,无线通信单元110可以包括移动通信模块111、无线局域网(LAN)模块113、短距离通信模块115、位置计算模块117、以及广播接收模块119。
移动通信模块111可以经由移动通信网络向/从基站、外部电子设备和各种服务器(例如,集成服务器、提供商服务器、内容服务器、因特网服务器和云服务器)中的至少一个发送/接收无线信号。根据文本/多媒体消息的发送和接收,无线信号可以包括语音呼叫信号、视频呼叫信号和各种形式的数据。
移动通信模块111可以发送和接收数据(例如,日志、内容、消息、邮件、图像、动态图像、天气信息、位置信息、时间信息等)。根据本公开的实施例,移动通信模块111可以通过网络(例如,移动通信网络)连接到另一个电子设备和服务器中的至少一个,以便获取(接收)各种类型的数据。移动通信模块111可以响应于用户请求将用于电子设备100的操作所需的各种类型的数据发送到外面(例如,服务器、另一个电子设备等)。
无线LAN模块113可以是用于建立无线因特网接入以及与其他电子设备的无线LAN链路的模块。无线LAN模块113可以安装在电子设备100的里面或外面。可以使用无线因特网技术,例如无线LAN标准(例如,802.11n等)、无线宽带(WiBro)、全球微波互联接入(WiMax)、高速下行链路分组接入(HSDPA)、毫米波(mmWave)等。
无线LAN模块113可以向/从外面发送/接收用户选择的数据。根据本公开的实施例,无线LAN模块113可以通过网络(例如,无线因特网)从另一电子设备或服务器获取(接收)数据。无线LAN模块113可以响应于用户请求向外面(例如,服务器)发送数据或从外面接收数据。当与其他电子设备的无线LAN链路形成时,无线LAN模块113可以向/从另一电子设备发送或接收对应用户选择的各种类型的数据。无线LAN模块113可以总是保持在接通状态,或者可以根据电子设备100的设置或用户输入选择性地接通。
短距离通信模块115可以用于进行短距离通信。蓝牙
Figure GDA0003020449060000081
、低功耗蓝牙(BLE)、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、
Figure GDA0003020449060000082
、近场通信(NFC)等可以用作短距离通信技术。
短距离通信模块115可以接收数据。根据本公开的实施例,短距离通信模块115可以通过网络(例如,短距离通信网络)从另一电子设备获取数据。当与其他电子设备的短距离通信连接时,短距离通信模块115可以向/从另一电子设备发送或接收对应用户选择的数据。短距离通信模块115可以总是保持在接通状态,或者可以根据电子设备100的设置或用户输入选择性地接通。
位置计算模块117是用于获得电子设备100的位置的模块,并且作为代表示例可以包括GPS模块。位置计算模块117可以通过计算距离三个或更多基站的距离的信息和时间信息然后对所计算的信息应用三角学,来根据纬度、经度和高度计算当前位置的三维信息。或者,位置计算模块117可以通过从三个或更多卫星连续接收关于电子设备100的位置信息来计算位置信息。电子设备100上的位置信息可以通过各种方法获得。
广播接收模块119可以通过广播频道(例如,卫星广播频道、地面广播频道等)从外部广播管理服务器接收广播信号(例如,TV广播信号、无线电广播信号、数据广播信号等)和/或广播相关信息(例如,与广播信道关联的信息、广播节目或广播服务提供商)。
用户输入单元120可以生成用于控制电子设备100的输入数据。用户输入单元120可以包括用于检测用户输入的至少一个输入工具。例如,用户输入单元120可以包括键盘、圆顶开关、按钮、触摸板(电阻型/电容型)、点动和梭式(jog and shuttle)、以及传感器。根据本公开的各种实施例,按钮可以接收用于执行预设功能的用户输入,并且可以以按钮类型和触摸板类型的至少一种类型来实现。此外,按钮可以包括提供在触摸屏130的区域中的软类型和提供在触摸屏130以外的区域中的物理类型中的至少一种类型。此外,用户输入单元120可以包括用于区分触摸输入和按压输入的按钮。按压输入可以包括通过对按钮施加物理力而接收的输入,并且触摸输入可以包括接触按钮的输入。根据本公开的实施例,按压输入可以包括触摸输入。当施加到按钮的压力等于或小于特定边界值时,按压输入被确定为触摸输入,并且当压力大于特定值时,按压输入被确定为按压输入。
根据本公开的各种实施例,传感器可以包括语音识别传感器、手指扫描传感器、红外(IR)传感器、加速度传感器、陀螺仪传感器、地磁传感器、照明传感器、颜色传感器、图像传感器、温度传感器、接近传感器、运动识别传感器、心率监测器(HRM)传感器、虹膜扫描传感器、脑电图(EEG)传感器、心电图(ECG)传感器或压力传感器。
用户输入单元120的一些部分可以以电子设备100的外部区域处的按钮形式实现,或者用户输入单元120的一些或全部部分也可以作为触摸面板实现。用户输入单元120可以接收用于启动电子设备100的用户输入并根据用户输入生成输入信号。例如,用户输入单元120可以接收用于显示或选择项目、执行特定应用、输入(制作或插入)数据、改变电子设备100的位置、显示内容、连接网络以及发送或接收数据的各种用户输入,并且可以根据用户输入生成输入信号。
触摸屏130是用于同时进行输入和输出(即,显示)功能的输入/输出工具,并且可以包括显示单元131和触摸检测单元133。在本公开的各种实施例中,触摸屏130通过显示单元131根据电子设备100的操作可以显示包括视觉信息的各种屏幕。各种屏幕可以包括例如,项目显示屏幕、锁定屏幕、指纹识别屏幕、信使屏幕、呼叫屏幕、游戏屏幕、视频再现屏幕、画廊屏幕、网页屏幕、主屏幕或网络连接屏幕。当通过显示单元131显示特定屏幕时,触摸屏130可以基于来自用户通过触摸检测单元133的触摸、悬停(hovering)和空中手势输入中的至少一个来检测事件(例如,触摸事件、悬停事件或空中手势事件),并且将根据事件的输入信号发送到控制器180。
显示单元131可以显示(输出)由电子设备100处理的各种各样的信息。例如,显示单元131可以显示与用于由电子设备100显示和选择项目的操作相关的UI或图形UI(GUI)。此外,当电子设备100处于电话呼叫模式时,显示单元131可以显示与电话呼叫相关的UI或GUI。在下文中,UI可以包括GUI。显示单元131可以显示至少一个项目和用于选择项目的控制UI。根据对应于控制UI的输入,可以选择位于与控制UI位于的区域不同的区域中的项目。此外,可以基于用户输入单元120接收的输入来选择位于与用户输入单元120位于的区域不同的区域中的项目,而不需要单独显示控制UI。当电子设备100处于视频呼叫模式或摄影模式时,显示单元131可以显示捕获的和/或接收的图像以及与操作对应模式相关的UI和GUI。显示单元131可以显示与电子设备100或其他电子设备的使用相关的数据或内容或者连接到网络的其他电子设备的信息。显示单元131可以显示与执行的应用对应的各种应用执行屏幕。
取决于电子设备100的方位(或电子设备100的放置方向),显示单元131可以显示横向模式和纵向模式,在横向和纵向模式之间显示切换。显示单元131可以包括液晶显示器(LCD)、薄膜晶体管LCD(TFT-LCD)、发光二极管(LED)、有机LED(OLED)、有源矩阵OLED(AMOLED)、柔性显示器、弯曲显示器和三维显示器(3D)。一些显示器可以被实现为透明或透明类型的透明显示器。
触摸检测单元133可以位于显示单元131上,并且可以检测与触摸屏130的表面接触或接近的用户输入。根据单点触摸、多点触控、悬停和空气手势中的至少一个,用户输入可以包括触摸事件或接近事件输入。例如,用户输入可以以点击、拖动、扫描、轻拂、滑动、拖放、绘制手势(例如,书写)等的类型做到。触摸检测单元133可以检测触摸屏130的表面上的用户输入(例如,触摸事件或接近事件)、产生与检测到的用户输入对应的信号、并将生成的信号传送到控制器180。控制器180可以通过从触摸检测单元133发送的信号控制与生成了用户输入(例如,触摸事件或接近事件)的区域对应的功能的执行。
触摸检测单元133可以接收用于启动与电子设备100的使用相关的操作的用户输入,并且根据用户输入生成输入信号。
触摸检测单元133可以被配置为将施加到显示单元131的特定部分的压力变化或者在显示单元131的特定部分生成的电容的变化转换为电输入信号。触摸检测单元133可以检测输入工具(例如,用户的手指、电子笔等)接触或接近的显示单元131的表面的位置和区域。此外,触摸检测单元133可以实现为根据施加的触摸类型来检测做出触摸时的压力。当存在用于触摸检测单元133的触摸或接近输入时,与输入对应的信号(信号)可以传送到触摸控制器(未示出)。触摸控制器(未示出)可以处理该信号,然后将对应的数据发送到控制器180。因此,控制器180可以识别做出触摸或接近输入的触摸屏130的被触摸的区域,并执行与触摸或接近输入对应的功能。
音频处理器140可以向扬声器(SPK)141发送来自控制器180的音频信号输入,并且可以将诸如来自麦克风(MIC)143的语音输入的音频信号传送到控制器180。音频处理器140可以将语音/声音数据转换成可听见的声音,以通过SPK 141输出可听见的声音,并将诸如从MIC 143接收的诸如语音的音频信号转换为数字信号,以将数字信号传送到控制器180。音频处理器140可以根据音频处理信息(例如,效果声音、音乐文件等)输出与用户输入对应的音频信号。
SPK 141可以输出从无线通信单元110接收或存储在存储单元150中的音频数据。SPK 141可以输出与由电子设备141进行的各种操作(功能)相关的声音信号。
MIC 143可以接收外部声音信号并将声音信号转换成电子语音数据。在电话呼叫模式中,通过MIC 143处理的语音数据可以被转换成可以通过移动通信模块111发送的格式。可以在MIC 143中实现各种降噪算法,以去除外部声音中产生的噪声信号。
存储单元150可以存储由控制器180执行的一个或多个程序,并临时存储输入/输出数据。输入/输出数据可以包括例如日志、内容、信使数据(例如会话数据)、联系人信息(例如,固定电话或移动电话号码)、消息、媒体文件(例如,音频、视频和图像文件)。
存储单元150可以存储与显示电子设备100的项目相关的各种程序和数据。例如,存储单元150可以存储与包括从里面或外面获取的信息的一个或多个项目相关的信息,存储用于响应于用户交互和根据程序处理的数据选择项目的一个或多个程序。
存储单元150还可以根据电子设备100的操作来存储使用频率(例如,应用使用频率、内容使用频率等)、重要性和优先级。响应于触摸屏130上的触摸输入或接近输入,存储单元150可以存储与要输出的各种模式的振动和声音相关的数据。存储单元150可以存储电子设备100的操作系统(OS)、与输入和使用触摸屏130的显示控制操作相关的程序、与电子设备100的各种操作(功能)的控制操作相关的程序以及由程序的操作生成的各种各样的数据。
存储单元150可以包括闪存类型、硬盘类型、微型、卡类型(例如,安全数字(SD)卡、极限数字(XD)卡等)、动态随机存取存储器(DRAM)、静态RAM(SRAM)、只读存储器(ROM)、可编程ROM(PROM)、电可擦除PROM(EEPROM)、磁RAM(MRAM)、磁盘和光盘类型存储器中的至少一种类型的存储介质。电子设备100还可以相对于在诸如因特网上的外部设备上存储内容的存储功能来操作。
接口单元160可以用作电子设备100和连接到电子设备100的所有外部设备之间的接口。接口单元160可以从外部设备接收数据或接收电力,并将数据或电力发送到电子设备内的每个组件或允许电子设备100内的数据被发送到外部设备。例如,接口单元160可以包括有线/无线头戴式耳机端口、外部充电器端口、有线/无线数据端口、存储卡端口、用于连接包括识别模块的设备的端口、音频输入/输出端口、视频输入/输出端口、耳机端口等。
相机模块170支持电子设备100的拍摄功能。相机模块170可以捕获被摄体(subject)的图像(静止图像或动态图像)。相机模块170可以拍摄预定的被摄体,并且可以将拍摄的数据传送到显示单元131和控制器180。相机模块170可以包括用于将输入光(photo)信号转换成电信号的图像传感器(或照相机传感器)(未示出)、以及将从图像传感器输入的电信号转换为数字图像数据的图像信号处理器(未示出)。图像传感器可以包括使用诸如电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)的方案的传感器。相机模块170可以支持用于支持根据用户设置的各种拍摄选项(例如,缩放、屏幕比例、和效果(例如,素描、单色(mono)、深褐色、复古、马赛克和相框))的图像处理功能。
控制器180可以控制电子设备100的一般操作。例如,控制器180可以进行与语音通信、数据通信、视频通信等相关的控制。根据本公开的实施例,控制器180可以控制与显示项目并根据用户输入选择项目相关的操作。
例如,控制器180可以在显示单元131上显示至少一个项目,并且基于用户输入来选择所显示的项目。更具体地说,控制器180可以显示用于选择项目的控制UI,并且基于根据控制UI做的用户输入来选择所显示的项目。此外,控制器180可以基于在用户输入单元120上做的输入来选择所显示的项目。
根据本公开的实施例,控制器180可以由一个或多个处理器通过执行存储在存储单元150中的一个或多个程序来实现。例如,控制器180可以控制显示单元131以包括项目和控制UI的至少一个,并且可以基于通过触摸检测单元133和用户输入单元120中的至少一个接收的输入来控制电子设备100以选择项目。
除了前述功能之外,控制器180还可以控制与电子设备100的一般功能相关的各种操作。例如,当执行特定应用时,控制器180可以为特定应用控制操作和屏幕显示。此外,控制器180可以接收对应于由基于触摸或基于接近的输入接口(例如,触摸屏130)支持的各种触摸事件输入或接近事件输入的输入信号,并且可以根据所接收的输入信号来控制操作。另外,控制器180还可以基于有线通信或无线通信来控制数据的发送/接收。
电源单元190可以接收外部电力和内部电力以及提供操作每个组件所需的电力。根据本公开的实施例,电源单元190可以向显示单元131提供或阻止(接通/断开)电力。
本公开的各种实施例可以通过使用软件、硬件或其组合在可以通过计算机或类似设备读取的记录介质中实现。根据一个实现方式,本公开的各种实施例可以使用ASIC、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、FPGA、处理器、控制器、微控制器、微处理器和用于进行其他功能的电子单元中的至少一个实现。
本公开的其他实施例可以包括具有在其中记录有程序的计算机可读记录介质,以执行用于响应于显示单元131的断开或接通来选择用于锁屏的内容的操作、用于基于所选择的内容改变锁屏的操作、用于基于至少一个按钮(例如,电源按钮、音量按钮和主页按钮中的至少一些)接收用户交互的操作、以及用于当显示单元131接通时显示改变的锁屏的操作。
本公开的方面也可以实现为单独的软件模块。软件模块的每一个可以进行本公开中描述的一个或多个功能和操作。
在下面的描述中,包括在显示单元中的项目可以包括文本、图像、音乐、动态图像、图标、链接、应用或网页,并且其可以基于诸如消息、馈送、新闻、图片或内部(例如,存储单元150)或外部(例如,外部服务器或其他电子设备)收集或接收的库存的信息来生成。此外,根据本公开的实施例,用户输入可以包括通过触摸检测单元133或用户输入单元120做的触摸输入、点击输入、按压输入、拖动输入和保持输入。根据本公开的实施例,触摸输入可以是拖动输入、保持输入和点击输入。
图2是根据本公开的实施例的电子设备的透视图。
参考图2,电子设备100可以包括可以显示与电子设备100的操作相关的UI的显示单元205。根据本公开的实施例,显示单元205可以包括多个区域,并且例如,可以包括第一显示单元210和第二显示单元220。根据本公开的实施例,第一显示单元210和第二显示单元220可以形成为在不同平面上彼此连接。此外,根据本公开的实施例,第一显示单元210和第二显示单元220的平面可以形成为彼此交叉,并且第二显示单元220可以形成为从第一显示单元210的一侧弯曲。
第一显示单元210可以包括一个或多个项目212。根据本公开的实施例,该项目可以包括可由用户选择或显示特定信息的元素。
第二显示单元220可以包括一个或多个项目222。在本公开的整个实施例中,可以通过第二显示单元220接收用于显示控制UI或光标的输入,并且因此,可以进行用于在第一显示单元210上显示控制UI或光标的操作。
根据本公开的实施例,显示在显示单元上的项目可以是彼此相等或彼此不同的项目。当项目彼此不同时,可以根据其特征来区分显示在该区域中的项目以显示在各个显示单元上。
根据本公开的实施例,电子设备100可以包括一个或多个输入单元230、240和245。输入单元230、240和245可以检测用户的触摸输入和按压输入中的至少一个。更具体地说,第一输入单元230可以可区分地检测触摸输入和按压输入。第二输入单元240和第三输入单元245可以检测触摸输入。当检测到在每个输入单元230、240或245上做的输入时,电子设备100可以进行与每个输入对应的操作。更具体地说,基于由第一输入单元至第三输入单元230、240和245中的至少一个接收的触摸输入和按压输入中的至少一个,可以进行在本公开的实施例中公开的项目选择。例如,根据由第一输入单元230接收的触摸输入,可以顺序选择在屏幕上显示的一个或多个项目。
图3A、图3B、图3C、图3D、图3E、图3F、图3G、图3H、图3I、图3J和图3K说明了根据本公开的各种实施例的由电子设备提供的UI。
参考图3A、图3B、图3C、图3D、图3E、图3F、图3G、图3H、图3I、图3J和图3K,电子设备100可以在显示单元205上显示一个或多个项目301至305。显示单元205可以包括在对应位置形成的触摸屏,并且触摸屏可以接收对应于显示在显示单元205上的元素的输入。
根据本公开的实施例的电子设备100可以包括一个或多个输入单元,诸如根据本公开的实施例的可以接收触摸输入和按压输入的第一输入单元230、以及可以接收触摸输入的第二输入单元240和第三输入单元245。
参考图3A和图3B,可以在电子设备100上显示第一项目301、第二项目302、第三项目303、第四项目304和第五项目305。根据本公开的实施例,电子设备100可以显示用于基于控制用户输入来选择项目的控制UI 310。用于显示控制UI 310的输入可以包括在单独的菜单屏幕上激活用于显示控制UI的设置的输入和由触摸屏和输入单元中的至少一个接收的特定输入。更具体地说,输入可以包括在显示单元205的特定区域中在触摸屏上相继地做至少两次的点击输入、持续至少特定时间的保持输入、选择用于显示控制UI 310的特定图标的输入、以及在输入单元230上至少一次做的触摸输入和按压输入中的至少一个。另外,输入可以包括在第一输入单元230上相继做至少两次的点击输入和按压输入。此外,输入可以包括持续比特定时间长的点击输入和按压输入。此外,输入可以包括在第二输入240和第三输入单元245上连续做至少两次的点击输入。另外,输入可以包括在第二输入240和第三输入单元245上持续比特定时间更长的点击输入。根据本公开的实施例,当显示控制UI 310时可以发生单手控制模式,并且可以通过基于控制UI 310接收的用户输入来选择至少一个项目。根据本公开的实施例,单手控制模式可以根据单独的用户设置开始。更具体地说,当电子设备100根据用户的设置以单手控制模式操作时,可以显示控制UI 310。更具体地说,当电子设备100以单手控制模式执行应用时,控制UI 310可以直接显示在预定位置并且可以基于所显示的控制UI 310顺序地选择项目。
此外,根据本公开的实施例,控制UI 310可以显示在与用于显示控制UI 310的输入对应的位置。控制UI 310的形式可以取决于实施例变化并且其详细示例将在下面描述。
参考图3B、图3C和图3D,显示控制UI 310,并且当接收到显示的控制UI 310中的用户输入320时,可以选择显示的项目中的至少一个。根据本公开的实施例,可以包括选择项目的操作以及显示与选择的项目对应的焦点区域330的操作。由于显示了与要选择的项目对应的对焦区域330,因此用户可以容易地确定是否选择了对应的项目。根据本公开的实施例,可以基于预设顺序来确定根据用户输入320选择的项目的顺序,并且可以基于显示在显示单元205上的项目的位置和项目的使用频率中的至少一个来确定预设顺序。更具体地说,在多个显示项目中,可以首先选择位于顶部的项目。在具有水平相同位置的项目中,可以首先选择位于左侧的项目。然而,这样的顺序不是固定的,并且可以根据项目的布置和用于显示项目的应用类型中的至少一个来改变和应用。选择顺序可以取决于用户设置变化。
可以根据用户输入320选择第一项目301。更具体地说,当由控制UI 310最初接收用于选择项目的输入时,可以选择第一项目301,并且当附加地接收用于选择项目的输入时,可以选择第二项目302。当选择第二项目302时,可以显示对应的焦点区域332。例如,可以基于在控制UI 310上做的触摸输入来顺序地选择第一项目301和第二项目302,并且当附加地接收到项目选择输入时,可以选择第三项目303。根据重复的选择输入,可以顺序选择显示在显示单元205上的项目。根据本公开的实施例,当第一输入单元230而不是控制UI310接收到触摸或按压输入时,可以顺序地选择项目。根据本公开的实施例,图3D中的箭头用于帮助理解,但可以省略,并且可以由在选择第一项目301之后根据下一个点击指示要选择的项目的UI来提供。项目选择输入可以用作项目执行输入。
参考图3D和图3E,可以选择第二项302,并且相应地可以显示焦点区域332。此时,当接收到在特定方向移动控制310的输入时,可以基于移动方向来选择与移动控制310的输入对应的另一项目。更具体地说,当在图3D中选择第二项目302时,并且在图3E中接收3D在右方向上拖动控制UI 310的输入时,可以选择第三项303,并且可以显示对应的焦点区域334。参考图3C,当选择在第一项目301之后在右下方向移动控制UI 310的输入时,可以顺序地选择第三项目303和第五项目305。也就是说,当接收到移动控制UI 310的输入时,可以基于输入的移动方向来选择项目。
参考图3F,响应于用户输入320,可以在显示单元205上显示光标340。根据本公开的实施例,光标340可以响应于用户输入320而移动,并且可以选择与移动的位置对应的至少一个项目。根据本公开的实施例,可以根据接收到用户输入320的位置来选择性地显示引导UI 350。引导UI 350可以具有从显示单元205上显示的整个屏幕缩小的形式,并且可以选择性地显示仅从整个屏幕可选择的项目。根据实施例,光标340可以响应于用户输入而移动,并且更具体地说,光标340可以与引导UI 350上的移动距离成比例地移动。如上所述,引导UI 350可以包括在单手控制模式中。
根据本公开的实施例,基于在点击操作、保持操作和至少一个点击之后的保持操作中的至少一个,可以显示光标340和引导UI 350中的至少一个。当光标340移动到与特定项目对应的位置时,可以选择项目并且还可以根据单独的选择输入来选择项目。单独的选择输入可以包括点击输入。
参考图3C和图3G,当选择第一项目301时进行特定方向的拖动时,显示单元205上显示的屏幕可以在拖动方向上移动和显示。更具体地说,当选择第一项目301时控制UI 310接收到底部方向上的拖动输入时,可以向下移动显示单元205上显示的整个屏幕,并且可以向下移动显示在单元205上显示的整个屏幕以将所选择的项目301移动到控制UI 310原始显示的位置附近。用户可以通过移动的屏幕上的触摸输入来选择项目。如上所述,通过向下移动整个屏幕,用户可以在所选择的项目附近提供输入。
参考图3C、图3D和图3H,当选择第一项目301并且第一项目301对应于需要附加输入的栏(例如,搜索栏、文本框等)时,可以显示对应于所选择的第一项目301的输入UI 360,并且用户可以通过输入UI 360输入与第一项目301对应的附加信息。根据本公开的实施例,输入UI 360可以是通过其可以输入字符和数字中的至少一个的小键盘。此外,根据本公开的实施例,输入UI 360可以显示在与控制UI 310所显示的位置对应的位置。更具体地说,当控制UI 310位于屏幕的右下部分并且选择了第一项目301时,输入UI 360可以位于屏幕的右下部分。根据本公开的实施例,当控制UI 310位于左下部分并且选择了第一项目301时,输入UI 360可以显示在左下部分。当在控制UI 310上附加地做出选择另一项目的输入并且下一个所选择的第二项目302对应于不需要附加输入的项目时,可以显示第二项目302的焦点区域332并且可以不显示输入UI 360。如上所述,根据被顺序选择的项目的特性,可以选择性地显示输入UI 360。此外,当选择需要附加输入的项目时,可以自动显示输入UI 360而不需要单独的输入。当接收到用于激活单手控制模式的输入或者当终端以单手控制模式操作的同时执行应用并且第一所选择的项目对应于需要附加输入的项目时,响应于应用程序的执行,可以显示输入UI 360。
参考图3I,根据本公开的实施例,可以显示控制UI 312、314和316并且每个控制UI可以从多个项目中选择至少一个项目。更具体地说,当第一控制UI 312接收到选择输入时,可以选择第一项目301,当第二控制UI 314接收到选择输入时,可以顺序地选择第二项目302和第三项目303,并且当第三UI 316接收到选择输入时,可以顺序地选择第四项目304和第五项目305。根据本公开的实施例,为了显示对应于控制UI 312、314和316的项目,可以分别显示辅助UI 372、374和376。更具体地说,可以以与每个控制UI对应的形式来配置每个辅助UI。
参考图3J,可以基于由输入单元230、240和245中的至少一个接收的输入来开始选择模式,并且可以选择每个项目。根据本公开的实施例,选择模式可以包括用于基于单独的输入来选择在输入位置之外的项目的操作。由每个输入单元230、240或245接收的输入可以包括触摸输入、按压输入、保持输入和点击输入中的至少一个。根据本公开的第一实施例,选择模式可以基于由第一输入单元230接收的至少一个按压输入开始。在选择模式中,可以基于由第一输入单元230接收到的点击输入或触摸输入来移动焦点,并且可以由单独的选择输入来选择项目。此外,通过将焦点输入和选择输入视为一个输入,基于通过第一输入单元230做的点击输入可以顺序选择项目,并且可以根据所选择的项目显示与项目选择对应的UI。对应于项目选择的UI可以进行显示用于键输入的小键盘的操作。根据本公开的实施例,基于由第二输入单元240或第三输入单元245接收到的输入,选择模式可以开始或进行项目选择。
参考图3K,基于由输入单元230、240和245中的至少一个接收的输入选择模式可以开始,并且可以选择每个项目。根据本公开的实施例,选择模式可以包括用于基于单独的输入来选择在输入位置之外的项目的操作。由每个输入单元230、240或245接收的输入可以包括触摸输入、按压输入、保持输入和点击输入中的至少一个。当所选择的第一项目301需要附加输入时,可以显示用于接收附加输入的输入UI 360。输入UI 360可以包括通过其可以输入字符的虚拟键盘。
图4A、图4B、图4C、图4D、图4E、图4F、图4G、图4H和图4I示出了根据本公开的各种实施例的由电子设备提供UI的方法。
参考图4A、图4B、图4C、图4D、图4E、图4F、图4G、图4H和图4I,根据电子设备提供的应用,可以实现根据本公开的实施例的选择模式。虽然描述了基于控制UI 450根据输入452可以进行焦点移动和选择中的至少一个,但可以通过由电子设备提供的输入单元进行该焦点移动和选择中的至少一个。根据本公开的实施例,根据接收到的选择可以顺序地选择多个可选项目,并且根据用户的设置或应用设置可以顺序选择仅仅一些可选项目。
参考第一图4A,基于用户输入452,可以由控制UI 450顺序地选择可选项目401、402、403、404、405、406和407。基于项目在屏幕上布置的位置和由用户使用项目的频率中的至少一个可以确定选择顺序。
参考图4B,基于用户输入452,可以由控制UI 450顺序地选择可选项410、411、412、413、414、415、416、417、418和419。基于项目在屏幕上布置的位置和由用户使用项目的频率中的至少一个可以确定选择顺序。当选择允许单独的输入的项目411和412时,可以附加地显示用于选择用户输入的输入UI,并且下面将描述其详细的实施例。
参考图4C,基于用户输入452,可以由控制UI 450顺序地选择可选项421、422、423、424、425、426、427、428、429、430和431。基于项目在屏幕上布置的位置和由用户使用项目的频率中的至少一个可以确定选择顺序。
参考图4D,基于用户输入452,可以由控制UI 450顺序地选择可选项440、441、442、443、444、445、446、447、448和449。基于项目在屏幕上布置的位置和由用户使用项目的频率中的至少一个可以确定选择顺序。
参考图4E,基于经由控制UI 460接收的用户输入462可以改变所选择的项目。更具体地说,当选择第一项目470时,如果接收到用于向下移动控制UI 460的用户输入462,可以选择位于第一项目470下方的第二项目472。在这种情况下,所选择的项目可以接收单独的输入并且可以显示与项目的输入对应的输入UI。
参考图4F,基于经由控制UI 460接收的用户输入462可以改变所选择的项目。更具体地说,当选择第一项目480时,如果接收到用于向右移动控制UI 460的用户输入462,可以选择位于第一项480的右边的第二项目482。
参考图4G、图4H和图4I,焦点491可以标记为所选择的第一项目490。当第一项目490可以接收单独的附加输入时,可以显示用于附加信息输入的输入UI 492。可以在输入UI492的区域中显示控制UI 494并且通过控制UI494可以接收用于选择另一项目的输入。如图4H和图4I说明的,可以显示控制UI来代替点击键496或498,并且点击键496或498的位置可以对应于用于显示输入UI 492的输入的位置。
图5说明了根据本公开的实施例的控制UI的示例。
参考图5,控制UI可以包括输入区域520和方向显示区域530,并且根据本公开的实施例可以省略一些显示方向。当在方向显示区域530接收到用户触摸输入510时,可以将用户触摸输入510识别为对应的方向输入。
当触摸和拖动输入区域520时,可以选择与拖动方向对应的项目。当用于输入区域520的输入被释放时,输入区域可以返回到原始区域,并且因此,可以移动焦点或者可以改变所选择的项目。根据本公开的实施例,显而易见的是,输入方向不受方向显示区域530的形状的限制,并且可以全部接收全向输入。
图6说明了根据本公开的实施例的控制UI的另一示例。
参考图6所示,控制UI可以包括输入区域620和方向显示区域630,并且根据本公开的实施例可以省略一些显示方向。当在输入区域620中接收到特定输入时(所述特定输入可以来自手610),可以显示用于进行与控制UI相关的操作的菜单640。此外,当附加地接收到与菜单位置相对应的输入时,可以进行对应的操作。根据本公开的实施例,特定输入可以包括在输入区域620中接收的保持输入和至少两个点击输入。此外,显示的菜单640可以显示用于显示另一个控制UI的菜单、用于显示新的控制UI的菜单、用于隐藏控制UI的菜单以及用于移动控制UI的菜单中的至少一个。根据本公开的实施例,根据设置,即使当接收到相同的输入时,也可以进行不同的选择输入,并且因此,可以以可由用户区分的形式来显示控制UI。当如以上参考图3I所说明的显示附加的控制UI时,可以使用用于显示新的控制UI的菜单。根据本公开的实施例,当显示附加控制UI时,可以改变控制UI显示的方向并且可以控制附加控制UI之间的间隔以防止不正确的输入。
根据本公开的实施例,用于控制控制UI的操作可以包括一个方向上以特定距离范围进行拖动并在相反的方向上进行拖动。
图7是根据本公开的实施例的提供UI的方法的流程图。
参考图7,根据本公开的实施例的电子设备可以根据用户输入进行操作。
在操作710中,电子设备可以确定是否接收到用于显示控制UI的输入。该输入可以包括根据特定菜单的模式选择输入、施加到触摸屏的触摸输入和施加到电子设备的输入单元的输入。
当接收到控制UI显示输入时,在操作715中,可以显示控制UI。控制UI可以包括用于在与显示位置不同的位置处选择项目的UI。
在操作720中,通过控制UI可以接收项目选择输入。项目选择输入可以包括由控制UI或电子设备接收的输入。
在操作725中,可以显示与选择输入对应的UI。与选择输入对应的UI可以取决于所选择的项目的类型而变化。当所选择的项目需要附加信息输入时,可以显示用于信息输入的键输入UI。在焦点移动输入的情况下,电子设备在所选择的项目上可以显示焦点UI。
在操作730中,可以显示与所选择的项目对应的UI。当项目执行特定应用时,电子设备可以显示通过其执行对应的应用的UI。当项目对应于用于进行特定功能的项目时,电子设备可以进行相应的功能。
图8是根据本公开的实施例的提供UI的方法的流程图。
参考图8,电子设备可以显示至少一个项目并且接收用于选择项目的输入。当启动与项目选择相关的模式时,焦点UI可以显示在可选项目之一上并且通过单独的选择输入可以选择其上显示焦点UI的项目。
更具体地说,在焦点UI位于特定项目的状态下,在操作810中,可以确定是否接收到焦点移动输入。焦点移动输入可以包括由触摸屏或输入单元接收的触摸输入、点击输入、按压输入和保持输入中的至少一个。
在操作815中,电子设备可以显示与焦点移动输入对应的焦点UI。更具体地说,可以确定根据焦点移动输入将焦点移动到其的项目,并且在与所确定的项目对应的位置处可以显示焦点UI。焦点UI指示焦点位于项目上并且可以包括提供用于在该项目周围绘制虚线、生成特定区域以围绕该项目、或者改变该项目的形状或颜色的UI。根据本公开的实施例,根据焦点移动输入可以在一个或多个可选项目之间顺序地移动焦点,并且可以移动焦点到位于特定方向上的项目。此外,通过在与焦点已经移动到其的项目对应的位置处显示焦点UI,用户可以容易地确定焦点位于其上的项目。
在操作820中,电子设备可以确定是否接收到项目选择输入。项目选择输入可以包括由电子设备的输入单元和触摸屏中的至少一个接收的触摸输入、点击输入、按压输入和保持输入中的至少一个。根据选择输入,可以选择焦点位于其上的项目。
当未接收到选择输入时,在操作825中,电子设备可以确定是否接收到选择释放输入。选择释放输入可以包括除了控制UI之外的其它区域的触摸输入和释放输入中的至少一个。当接收到释放输入时,电子设备可以移除所显示的焦点UI,并等待再次接收模式选择输入或焦点移动输入。
当接收到选择输入时,在操作830中,电子设备可以显示与所选择的项目对应的UI。当所选择的项目是用于附加信息输入的项目时,电子设备可以显示用于信息输入的输入UI。当所选择的项目是用于进行特定功能的项目时,电子设备可以显示与特定功能相关的UI。
图9是根据本公开的实施例的提供UI的方法的流程图。
参考图9,根据本公开的实施例的提供UI的方法可以应用到根据本公开的图3F的实施例并且也应用到其他实施例。
在操作905中,电子设备可以确定是否接收到光标显示输入。更具体地说,光标显示输入可以包括由触摸屏和输入单元中的至少一个接收的触摸输入、点击输入、按压输入和保持输入中的至少一个。此外,光标显示输入可以包括在由触摸屏接收到至少一个点击输入之后的预定时间内接收的保持输入。
在操作910中,可以显示与输入对应的光标UI。显示的光标UI的位置可以取决于用户的设置而变化。在对应于屏幕中心的位置或对应于特定项目的位置可以显示光标UI,并且响应于用户输入,所显示的光标可以移动。
在操作915中,可以显示引导UI。在接收用户输入的区域附近可以显示引导UI并且显示从显示单元上显示的图像缩小的图像。当在引导UI上做用户输入时,光标可以移动到对应的位置。可以选择性地显示引导UI。当不显示引导UI时,响应于用户输入,光标可以移动。
在操作920中,电子设备可以根据光标移动输入显示UI。光标移动输入可以包括拖动输入并且根据拖动输入移动光标。根据本公开的实施例,光标可以与拖动的移动距离成比例地移动。更具体地说,光标可以与引导UI占整个屏幕的百分比成反比地移动比拖动输入更远。当移动的光标位于可选择的项目上方时,可以显示示出焦点位于该项目上的UI。
在操作925中,电子设备可以确定是否接收到选择输入。当未接收到选择输入时,可以显示与光标移动输入对应的UI。
当接收到选择输入时,在操作930中,用户终端可以显示与选择输入对应的UI。根据本公开的实施例,选择输入可以包括由触摸屏和输入单元中的至少一个接收的触摸输入、点击输入、按压输入以及保持输入中的至少一个。与选择输入对应的UI可以包括包含用于信息输入的小键盘的UI和与对应于所选择的项目的操作相关的UI的UI。
图10是根据本公开的实施例的提供UI的方法的流程图。
参考图10,可以如参考图3I在上述说明的显示多个控制UI。
在操作1005中,电子设备可以显示多个控制UI。根据本公开的实施例,可以根据项目类型、项目布置和用户设置中的至少一个来确定控制UI的数量。
在操作1010中,当以不同的显示特征区分与各个控制UI对应的项目时,可以显示UI。更具体地说,当根据颜色区分可选择的项目时,控制UI的颜色可以不同。此外,可以在显示与各个控制UI对应的项目的区域中重叠地显示与各个控制UI对应的颜色。
在操作1015中,通过特定的控制UI,可以接收与对应的控制UI对应的项目选择输入。项目选择输入可以包括由触摸屏和输入单元中的至少一个接收的触摸输入、点击输入、按压输入和保持输入中的至少一个。
在操作1020中,可以显示与所选择的项目对应的UI。与选择输入对应的UI可以包括包含用于信息输入的小键盘的UI和与对应于所选择的项目的操作相关的UI的UI。
图11是根据本公开的实施例的提供UI的方法的流程图。
参考图11,提供UI的方法可以包括以下操作中的至少一个。
在操作1105中,可以接收与执行选择模式相关的输入。选择模式可以包括用户在其中可以选择可选择的项目的模式。更具体地说,在除了在显示单元上显示的项目的位置之外的位置处接收用户输入,并且因此,可以包括用于对对应项目选择的模式。选择模式可以包括用于单手控制模式的模式。与选择模式的执行相关的输入可以根据由用户输入的菜单选择来执行对应模式。此外,项目选择输入可以包括由触摸屏和输入单元中的至少一个接收的触摸输入、点击输入、按压输入和保持输入中的至少一个。
在操作1110中,电子设备可以根据选择模式的执行来显示UI。更具体地说,电子设备可以显示用于接收与选择模式操作相关的输入的控制UI、指示焦点位于特定项目上的焦点UI、以及用于附加信息输入的键盘UI中的至少一个。
在操作1115中,电子设备可以确定是否接收到焦点移动输入。更具体地说,焦点移动输入可以包括通过控制UI和输入单元中的至少一个接收的触摸输入、点击输入、按压输入、拖动输入和保持输入中的一个。
当接收到焦点移动输入时,在操作1120中,响应于移动输入,电子设备可以将焦点移动到下一个项目。更具体地说,电子设备可以根据点击输入顺序地将焦点移动到下一个次序的项目或者根据拖动输入将焦点移动到位于对应方向的项目。
当未接收到运动输入时,在操作1125中,电子设备可以确定是否接收到选择输入。选择输入可以包括通过控制UI和输入单元中的至少一个接收的触摸输入、点击输入、按压输入、拖动输入、和保持输入中的一个。当未接收到选择输入时,电子设备可以移动到操作1115。
当接收到选择输入时,在操作1130中,电子设备可以显示与选择输入对应的UI。与选择输入对应的UI可以取决于所选择的项目的类型而变化。当所选择的项目需要附加信息输入时,可以显示用于信息输入的键输入UI。在焦点移动输入的情况下,电子设备可以在所选择的项目上显示焦点UI。
图12A、图12B、图12C、图12D、图12E、图12F、图12G、图12H、以及图12I示出了根据本公开的各种实施例的提供UI的方法。
参考图12A、图12B、图12C、图12D、图12E、图12F、图12G、图12H、以及图12I,可以在显示单元1200上显示一个或多个项目1202、1204、以及1206。所显示的项目是用于本公开的实施例的描述的示例。即使不显示项目时,也可以进行与本公开的实施例对应的操作。
参考图12A,可以在显示单元1200的预定位置处显示控制UI 1210。更具体地说,控制UI 1210可以包括第一UI 1212和第二UI 1214。第一UI 1212可以指示接收到用户输入的参考位置并且可以根据用户输入被移动。第二UI 1214可以根据第一UI 1212的移动来指示相对位置。更具体地说,尽管第一UI 1212根据用户输入而移动,但是第二UI 1214可以是固定的。根据本公开的实施例,尽管描述了控制UI 1210包括第一UI 1212和第二UI 1214,但是显而易见的是,当控制UI 1210包括仅第一UI 1212时,可以进行类似的实现。
此外,在接通终端的显示单元1200的状态下,可以显示控制UI 1210预设的时间。当在预设时间内接收到与控制UI 1210对应的输入时,可以连续地显示控制UI 1210。更具体地说,当在接通显示单元1200的状态下显示控制UI 1210 5秒钟并且在5秒内接收到与控制UI 1210对应的输入时,电子设备可以连续地显示控制UI 1210。否则,电子设备可以不显示控制UI1210。与控制UI 1210对应的输入可以包括与显示控制UI 1210的区域对应的触摸输入。如上所述,可以根据用户输入总是显示控制UI 1210。
参考图12B,可以由控制UI 1210接收用户输入1220。更具体地说,可以由第一UI1212接收用户输入1220,并且对应的终端可以基于在特定的方向移动第一UI 1212的输入来进行相应的功能。更具体地说,当用户通过在触摸第一UI 1212时拖动第一UI 1212来做出移动第一UI 1212到第二UI1214的外面时,基于拖动的方向可以进行相应的功能。更具体地说,可以预设与拖动方向对应的功能,并且该功能可以包括显示用于项目选择的光标的操作、与主页键对应的操作、返回到先前操作的操作、以及返回到下一个操作的操作中的至少一个。此外,该功能可以对应于通过取决于用户的设置可以变化的终端的其他输入工具输入的功能中的至少一个。
参考图12C,当通过用户输入1220进行第一UI的向下拖动1222时,可以显示与拖动1222对应的光标1230。可以各种改变拖动方向,并且可以根据实施例不同地应用光标1230第一次出现的位置。响应于向下拖动1222,可以从显示单元1200的最上边显示光标1230,并且可以根据附加地做出的用户输入1220来移动和显示光标1230。可以以如附图标记1216指示的虚线形式显示第一UI,或者可以不显示。当做出附加用户输入时,甚至可以显示第二UI1214。光标1230可以根据第一UI 1216的移动方向而移动,更具体地说,与第一UI的移动距离成比例地移动。
参考图12D,当通过用户输入1220进行第一UI的向上拖动1224时,可以显示与拖动1224对应的光标1230。可以各种改变拖动方向,并且可以根据实施例不同地应用光标1230第一次出现的位置。响应于向上拖动1224,可以在显示单元1200的中心显示光标1230,并且可以根据附加地做出的用户输入1220来移动和显示光标1230。可以各种确定光标第一次出现的位置,但是显而易见的是,光标可以根据拖动方向出现在不同的初始位置或相同的位置。第一UI可以以如附图标记1216指示的虚线的形式显示,或者可以不显示。当做出附加用户输入时,甚至可以显示第二UI 1214。光标1230可以根据第一UI 1216的移动方向移动,并且更具体地说,与第一UI的移动距离成比例地移动。
参考图12E,当显示光标1230时,光标1230可以根据用户输入1220移动。更具体地说,当显示光标的同时在特定方向上进行第一UI 1216的拖动1226时,光标1230可以响应于拖动1226移动。根据本公开的实施例,根据拖动方向1226可以确定光标1230的移动方向,并且基于拖动1226距离可以确定光标1230的移动距离。更具体地说,与拖动1226的距离成比例地,可以确定光标1230的移动距离。
参考图12F,可以选择与光标1230的位置对应的项目。更具体地说,当终端在光标1230位于第一项目1202上的状态下接收到选择输入时,可以选择第一项目1202。选择输入可以包括当光标1230位于第一项目1202上时释放用户输入1220的输入或者在释放用户输入1220之后的预设时间内的附加触摸输入。更具体地说,当光标1230位于第一项目1202上并且在第一UI 1216上做的用户输入被释放时,可以选择第一项目1202并且可以进行根据所选择的第一项目1202的操作。此外,当在预设时间内做触摸输入时,可以进行选择第一项目1202的操作。当选择了第一项目时,可以如参考图12A在上述说明的显示控制UI 1210。
参考图12G,描述了从显示中移除控制UI 1210的操作。当保持控制UI1210上的触摸输入预设时间或更长时间时,可以在显示单元1200上显示删除UI 1240。当用户移动控制UI 1210到与删除UI 1240对应的位置时,可以删除控制UI 1210。
参考图12H和图12I,可以在预定位置处显示控制UI 1210。更具体地说,控制UI1210可以包括第一UI 1212和第二UI 1214。第一UI 1212可以指示接收到用户输入的参考位置并且可以根据用户输入被移动。第二UI1214可以根据第一UI 1212的移动来指示相对位置。根据本公开的实施例,可以具有透明度地显示第一UI 1212,并且更具体地说,可以半透明地显示第一UI 1212以便可以示出位于后面的项目。此外,第一UI 1212可以选择性地显示边界1213。当显示第一UI 1212时,可以显示仅边界1213,并且第一UI 1212的里面可以是完全透明的。同时,可以选择性地显示第二UI1214。即使没有显示第二UI 1214时,通过第一UI 1212做的输入可以进行与显示第二UI 1214的情况对应的操作。
根据本公开的实施例,可以具有透明度地显示控制UI 1210的整体,并且可以在显示单元1200上显示第四项目1208。如上所述,通过具有透明度地显示控制UI 1210,可以防止在显示单元1200上显示的项目被控制UI 1210隐藏。
当在显示单元1200上重叠显示控制UI 1210和第四项目1208时接收到用户触摸输入1220时,终端可以进行选择第四项目1208的操作。此外,当由终端接收移动控制UI 1210的输入时,终端可以移动控制UI 1210。当接收到控制控制UI 1210的输入时,终端可以根据控制UI 1210的控制进行操作。更具体地说,当接收到用于移动控制UI 1210的保持输入时,可以选择控制UI 1210并且可以根据拖动输入来移动控制UI 1210。当接收到用于控制控制UI 1210的拖动输入时,终端可以根据拖动输入进行操作。更具体地说,终端可以进行根据用于控制控制UI 1210的输入的操作中的至少一个。
图13是根据本公开的实施例的显示控制UI的方法的流程图。
在操作1310中,可以根据终端的驱动来显示控制UI。尽管已经描述了在终端的驱动时显示控制UI,但是当接通终端的显示单元时也可以显示控制UI。
在操作1315中,可以确定是否在预设时间内接收到用于控制UI的输入。根据本公开的实施例,可以根据终端的设置来不同地配置预设时间。此外,用于控制UI的输入可以是与显示控制UI的位置对应的触摸输入。更具体地说,可以在显示控制UI之后3至5秒内确定在与控制UI相对应的位置处是否接收到触摸输入。
当接收到触摸输入时,在操作1320中,可以连续地显示控制UI,并且可以基于通过控制UI做的输入来进行对应的功能。更具体地说,当在操作1315中接收到输入时,可以总是显示控制UI并且可以显示控制UI直到下一个显示单元被断开。
当没有接收到触摸输入时,可以不显示操作1325中显示的控制UI。此后,通过单独的用户设置或再次打开显示单元的方法,可以再次显示控制UI。
图14是根据本公开的实施例的提供UI的方法的流程图。
参考图14,在操作1410中,终端可以在显示单元上显示控制UI。更具体地说,可以基于图13中描述的本公开的实施例来显示控制UI。
在操作1415中,终端可以确定是否由控制UI接收到操作输入。更具体地说,操作输入可以包括在特定方向上拖动控制UI的一部分的输入。
当接收到操作输入时,在操作1420中,用户终端可以基于操作输入的方向、距离、以及速度中的至少一个来进行对应的功能。更具体地说,当拖动方向包含在预设范围内时,可以进行对应的功能。相应的功能可以包括显示用于项目选择的光标的操作、与主页键对应的操作、返回到先前操作的操作、以及返回下一个操作的操作中的至少一个。此外,该功能可以包括通过终端的其他输入工具输入的功能中的至少一个。
当拖动距离超过预设阈值时,可以进行与拖动方向对应的操作。
图15是根据本公开的实施例的提供UI的方法的流程图。
参考图15,在操作1510中,终端可以确定是否接收到与控制UI对应的操作输入。操作输入可以包括根据本公开的前述实施例的操作输入中的至少一个。
当接收到操作输入时,在操作1515中,终端可以在显示单元上显示与操作输入对应的光标UI。根据本公开的实施例,可以根据操作输入来改变显示的光标UI的位置。更具体地说,当向上拖动控制UI时,光标可以显示在显示单元的中心。当向下拖动控制UI时,光标可以显示在显示单元的上部。
在操作1520中,可以确定是否接收到光标移动输入。根据本公开的实施例,光标移动输入可以包括在显示光标UI之后附加地做出的拖动输入。
当接收到光标移动输入时,在操作1525中,响应于的光标移动输入可以移动光标。更具体地说,可以根据光标移动输入的方向、距离、以及速度来移动光标。
当没有接收到光标移动输入时,在操作1530中,可以确定是否接收到光标选择输入。光标选择输入可以包括选择与显示光标的位置对应的项目。更具体地说,光标选择输入可以包括当在与控制UI对应的位置处接收到释放输入时,在接收到释放输入之后的预设时间内在对应位置附加地接收触摸输入的情况。当未接收到选择输入时,终端可以移动到操作1515并显示光标UI。
当接收到选择输入时,在操作1535中,可以确定在光标位置是否存在可选择的项目。
在存在可选择的项目的情况下,在操作1540中,可以选择与光标位置对应的项目。
当没有可选择的项目或者当选择项目时,在操作1545中,可以再次显示控制UI,并且用户可以通过基于控制UI的操作输入附加地进行对应的功能。
图16A和图16B说明了根据本公开的各种实施例的提供UI的方法。
参考图16A和图16B,可以在终端的显示单元1600上显示一个或多个项目1602、1604、以及1606。所显示的项目是用于描述本公开的实施例的示例。
参考图16A,当接收到从预定区域开始的拖动输入1620时,可以显示光标1630。更具体地说,当接收到从预设区域开始的拖动输入1620时,可以在与接收到拖动输入1620的位置对应的位置处显示光标1630。预设区域可以包括显示单元1600的四个边缘中的至少一个的附近的区域。光标1630可以根据拖动输入的轨迹1622沿着对应的运动轨迹1632移动。可以根据拖动输入1620开始的位置来确定光标1630出现的位置。根据本公开的实施例,拖动输入1620在显示单元1600的右边缘附近开始,并且光标1630显示在右边缘的上中间部分并且根据拖动输入的轨迹1622沿运动轨迹1632移动。根据本公开的实施例,可以选择性地显示或可以不显示拖动输入的轨迹1622和光标的移动轨迹1632。
参考图16B,当接收到从预定区域开始的拖动输入1620时,可以在相应的位置显示光标1630。更具体地说,当在显示单元1600的下边缘附近接收拖动输入1620时,光标1630可以显示在显示单元1600的中心。可以根据在将显示单元1600分成两部分的虚拟参考线1640上的拖动输入显示光标1630。可以不显示虚拟参考线1640,并且参考线1640的位置可以根据本公开的实施例而变化。光标1630可以根据拖动输入的轨迹1624沿着对应的运动轨迹1634移动。可以根据拖动输入1620开始的位置来确定光标1630出现的位置。根据本公开的实施例,在显示光标1630之后,光标1630可以根据用户的拖动输入而移动,并且当接收到包括释放输入的用户选择输入时,可以选择在与光标1630的位置对应的位置处的项目。在显示光标1630之后,可以进行本公开的另一实施例中描述的与光标相关的操作。
图17是根据本公开的实施例的提供UI的方法的流程图。
参考图17,在操作1710中,终端可以接收用于显示光标的输入。更具体地说,用于显示光标的输入可以包括从预定区域开始的拖动输入。预定区域可以是在终端的显示单元上的预设区域。更具体地说,预设区域可以包括在终端的显示单元的边缘附近的区域。如上所述,用于显示光标的输入可以包括从终端的显示单元的边缘附近开始的拖动输入。
在操作1715中,响应于用于显示光标的输入,终端可以在终端的显示单元上显示光标。可以基于接收到用于显示光标的输入的位置来确定显示光标的位置。更具体地说,可以根据用于显示光标的输入的坐标来确定显示光标的位置的坐标。显示光标的位置的坐标中的至少一个可以与用于显示光标的输入的坐标相同并且可以对应于通过添加偏移值到用于显示光标的输入的坐标而生成的位置。可以基于显示单元的大小、用户设置、以及输入工具中的至少一个来选择偏移值。更具体地说,随着显示单元的尺寸更大,偏移值可以变大,并且可以根据输入工具不同地设置偏移值。
当接收到光标移动输入时,在操作1720中,终端可以根据光标移动输入来移动显示的光标。更具体地说,光标移动输入可以包括拖动输入。当用于显示光标的输入是从特定区域开始的拖动输入时,可以根据拖动输入显示光标并且可以根据拖动输入的轨迹来移动所显示的光标。
在操作1725中,终端可以确定是否接收到与显示的光标对应的选择输入。当未接收到选择输入时,可以连续显示光标或光标可以消失。根据本公开的实施例,选择输入可以包括释放输入和在释放输入之后的预设时间内接收的触摸输入。
当接收到选择输入时,在操作1730中,终端可以进行选择与显示光标的位置对应的项目的操作。
在本公开的整个实施例中,可以基于用户通过终端的设置菜单的输入来显示控制UI或光标。更具体地说,可以在用于设置终端的状态的菜单中接收用于显示控制UI或光标的设置输入。
可以选择性地执行本公开的实施例中描述的每个操作以实现本公开的实施例,并且显而易见的是,并非所有操作都是实现本公开的实施例所必需的。
虽然已经参考本发明的各种实施例示出和描述了本公开,但是本领域技术人员将会理解,在不脱离所附权利要求及其等同物定义的本公开的精神和范围的情况下,在其中可以在形式和细节上做各种改变。

Claims (20)

1.一种由电子设备提供用户界面(UI)的方法,所述方法包括:
在显示单元上显示控制UI和多个项目;
经由所显示的控制UI接收第一拖动输入;以及
在第一拖动输入对应于向下的情况下,启动从电子设备的触摸屏的最上侧显示光标UI;
在第一拖动输入对应于向上的情况下,启动将光标UI显示在电子设备的触摸屏的特定位置处;
响应于在所述控制UI的输入区域中接收到特定输入在显示单元上显示与所述控制UI不同的另一控制UI;
在接收到用于选择所述控制UI的第一输入的情况下,显示第一区域的第一指示符并选择布置在第一区域上的第一多个项目中的一个;
在接收到用于选择所述另一控制UI的第二输入的情况下,显示与第一区域不同的第二区域的第二指示符,并选择布置在第二区域上的第二多个项目中的一个;以及
在接收到用于选择所述另一控制UI的第三输入的情况下,显示第二区域的第二指示符并选择布置在第二区域上的第二多个项目中的另一个,
其中,所述项目的选择顺序基于根据显示的项目的位置和项目的使用频率中的至少一者确定的预设顺序,
其中,所述控制UI的位置不同于第一区域,以及
其中,所述另一控制UI的位置与第二区域不同。
2.根据权利要求1所述的方法,还包括:
接收光标移动输入;
响应于所述光标移动输入,移动所述光标UI,
其中所述光标移动输入的所述接收包括接收第二拖动输入,以及
其中所述光标UI的所述移动包括根据所述第二拖动输入的方向、距离、以及速度中的至少一个移动所述光标UI。
3.根据权利要求1所述的方法,还包括:
接收选择输入;以及
响应于所述选择输入,选择在与所述光标UI对应的位置处的项目,
其中所述选择输入包含释放输入和在所述释放输入之后的预设时间内接收的触摸输入。
4.根据权利要求1所述的方法,还包括如果在预设时间内没有由所显示的控制UI接收到对应的输入,删除所显示的控制UI。
5.根据权利要求1所述的方法,还包括,如果所述第一拖动输入的方向对应于第二方向,进行与所述第二方向对应的功能,
其中所述控制UI的所述显示包括显示所述控制UI以与项目重叠,所述方法还包括,如果由所述控制UI接收到触摸输入,响应于所述触摸输入选择与所述控制UI重叠的所述项目,以及
其中所述控制UI的所述显示包括显示所述控制UI以具有透明度。
6.一种用于提供用户界面(UI)的电子设备,所述电子设备包括:
显示单元;
触摸屏,配置为在与所述显示单元对应的位置处接收触摸输入;以及
控制器,配置为:
在所述显示单元上显示控制UI和多个项目,
响应于在所述控制UI的输入区域中接收到特定输入在所述显示单元上显示与所述控制UI不同的另一控制UI;
通过所述触摸屏接收与所显示的控制UI对应的第一拖动输入,以及,
在第一拖动输入对应于向下的情况下,启动从电子设备的触摸屏的最上侧显示光标UI,
在第一拖动输入对应于向上的情况下,启动将光标UI显示在电子设备的触摸屏的特定位置处,
在接收到用于选择所述控制UI的第一输入的情况下,显示第一区域的第一指示符并选择布置在第一区域上的第一多个项目中的一个;
在接收到用于选择所述另一控制UI的第二输入的情况下,显示与第一区域不同的第二区域的第二指示符,并选择布置在第二区域上的第二多个项目中的一个;以及
在接收到用于选择所述另一控制UI的第三输入的情况下,显示第二区域的第二指示符并选择布置在第二区域上的第二多个项目中的另一个,
其中,所述项目的选择顺序基于根据显示的项目的位置和项目的使用频率中的至少一者确定的预设顺序,
其中,所述控制UI的位置不同于第一区域,以及
其中,所述另一控制UI的位置与第二区域不同。
7.根据权利要求6所述的电子设备,其中,所述控制器还配置为:
通过所述触摸屏接收光标移动输入,以及
响应于所述光标移动输入,移动所述光标UI。
8.根据权利要求6所述的电子设备,其中,所述控制器还配置为:
接收第二拖动输入,以及
根据所述第二拖动输入的方向、距离、以及速度中的至少一个来移动所述光标UI。
9.根据权利要求6所述的电子设备,其中,所述控制器还配置为:
接收选择输入,以及
响应于所述选择输入,选择在与所述光标UI对应的位置处的项目,
其中所述选择输入包含释放输入和在所述释放输入之后的预设时间内接收的触摸输入。
10.根据权利要求6所述的电子设备,其中,如果在预设时间内没有由所显示的控制UI接收到对应的输入,所述控制器还配置为删除所显示的控制UI。
11.根据权利要求6所述的电子设备,其中,如果所述第一拖动输入的方向对应于第二方向,所述控制器还配置为执行与所述第二方向对应的功能。
12.根据权利要求6所述的电子设备,其中,所述控制器还配置为:
显示所述控制UI与项目重叠,以及
如果所述控制UI接收到触摸输入,选择与所述控制UI重叠的所述项目,以及
其中所述控制器显示所述控制UI以具有透明度。
13.一种由电子设备提供用户界面(UI)的方法,所述方法包括:
接收用于显示光标的第一输入;
在显示单元上显示控制UI和多个项目;
在第一输入对应于向下拖动的情况下,启动从电子设备的触摸屏的最上侧显示光标;
在第一输入对应于向上拖动的情况下,启动将光标显示在电子设备的触摸屏的特定位置处;
响应于所述第一输入或第二输入,移动所显示的光标;
响应于在所述控制UI的输入区域中接收到特定输入在显示单元上显示与所述控制UI不同的另一控制UI;
在接收到用于选择所述控制UI的第一输入的情况下,显示第一区域的第一指示符并选择布置在第一区域上的第一多个项目中的一个;
在接收到用于选择所述另一控制UI的第二输入的情况下,显示与第一区域不同的第二区域的第二指示符,并选择布置在第二区域上的第二多个项目中的一个;以及
在接收到用于选择所述另一控制UI的第三输入的情况下,显示第二区域的第二指示符并选择布置在第二区域上的第二多个项目中的另一个,
其中,所述项目的选择顺序基于根据显示的项目的位置和项目的使用频率中的至少一者确定的预设顺序,
其中,所述控制UI的位置不同于第一区域,以及
其中,所述另一控制UI的位置与第二区域不同。
14.根据权利要求13所述的方法,
其中所述第一输入包含在预定区域处开始的拖动输入,以及
其中所述光标的显示还包括在与所述拖动输入开始的位置对应的位置处显示所述光标。
15.根据权利要求13所述的方法,
其中所述第一输入包含在包含所述电子设备的显示单元附近的区域的第三区域处开始的拖动输入,以及
其中所述光标的显示包括在与所述拖动输入开始的位置对应的位置处显示所述光标。
16.根据权利要求13所述的方法,
其中所述光标的所述显示包括在与接收到所述第一输入的位置分开预设的偏移值的位置处显示所述光标,以及
其中基于所述显示单元的尺寸、用户的设置、以及输入源中的至少一个确定所述偏移值。
17.一种用于提供用户界面(UI)的电子设备,所述电子设备包括:
显示单元;
触摸屏,配置为在与所述显示单元对应的位置处接收触摸输入;以及
控制器,配置为:
在显示单元上显示控制UI和多个项目;
响应于在所述控制UI的输入区域中接收到特定输入在所述显示单元上显示与所述控制UI不同的另一控制UI;
通过所述触摸屏接收用于显示光标的第一输入,
在第一输入对应于向下拖动的情况下,启动从触摸屏的最上侧显示光标,
在第一输入对应于向上拖动的情况下,启示将光标显示在触摸屏的特定位置处,
响应于所述第一输入或第二输入,移动所显示的光标,
在接收到用于选择所述控制UI的第一输入的情况下,显示第一区域的第一指示符并选择布置在第一区域上的第一多个项目中的一个;
在接收到用于选择所述另一控制UI的第二输入的情况下,显示与第一区域不同的第二区域的第二指示符,并选择布置在第二区域上的第二多个项目中的一个;以及
在接收到用于选择所述另一控制UI的第三输入的情况下,显示第二区域的第二指示符并选择布置在第二区域上的第二多个项目中的另一个,
其中,所述项目的选择顺序基于根据显示的项目的位置和项目的使用频率中的至少一者确定的预设顺序,
其中,所述控制UI的位置不同于第一区域,以及
其中,所述另一控制UI的位置与第二区域不同。
18.根据权利要求17所述的电子设备,
其中所述第一输入包含在预定区域处开始的拖动输入,以及
其中所述控制器还配置为在与所述拖动输入开始的位置对应的位置处显示所述光标。
19.根据权利要求17所述的电子设备,
其中所述第一输入包含在包含所述电子设备的显示单元附近的区域的第三区域处开始的拖动输入,以及
其中所述控制器还配置为在与所述拖动输入开始的位置对应的位置处显示所述光标。
20.根据权利要求17所述的电子设备,
其中所述控制器还配置为在与接收到所述第一输入的位置分开预设的偏移值的位置处显示所述光标,以及
其中基于所述显示单元的尺寸、用户的设置、以及输入源中的至少一个确定所述偏移值。
CN201580055979.5A 2014-10-15 2015-10-15 用于提供用户界面的方法和装置 Active CN107077276B (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
KR20140139288 2014-10-15
KR10-2014-0139288 2014-10-15
KR10-2014-0179749 2014-12-12
KR20140179749 2014-12-12
KR1020150003681A KR102160105B1 (ko) 2014-10-15 2015-01-09 사용자 인터페이스를 제공하는 방법 및 장치
KR10-2015-0003681 2015-01-09
PCT/KR2015/010918 WO2016060501A1 (en) 2014-10-15 2015-10-15 Method and apparatus for providing user interface

Publications (2)

Publication Number Publication Date
CN107077276A CN107077276A (zh) 2017-08-18
CN107077276B true CN107077276B (zh) 2021-07-20

Family

ID=55918791

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580055979.5A Active CN107077276B (zh) 2014-10-15 2015-10-15 用于提供用户界面的方法和装置

Country Status (3)

Country Link
EP (1) EP3207445B1 (zh)
KR (1) KR102160105B1 (zh)
CN (1) CN107077276B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109189245A (zh) * 2018-11-05 2019-01-11 深圳腾千里科技有限公司 一种智能笔及该智能笔实现鼠标功能的方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8381135B2 (en) * 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
FR2898197A1 (fr) * 2006-03-02 2007-09-07 Thomas Joseph Pouit Ecran tactile a point d'interaction distinct du point de contact
CN101587390A (zh) * 2008-05-20 2009-11-25 宏碁股份有限公司 延伸游标产生方法及其延伸游标产生装置
US9542097B2 (en) * 2010-01-13 2017-01-10 Lenovo (Singapore) Pte. Ltd. Virtual touchpad for a touch device
US8656315B2 (en) * 2011-05-27 2014-02-18 Google Inc. Moving a graphical selector
JP2013015890A (ja) * 2011-06-30 2013-01-24 Toshiba Corp 情報処理装置および情報処理装置の制御方法
US9671880B2 (en) * 2011-12-22 2017-06-06 Sony Corporation Display control device, display control method, and computer program
KR20130105044A (ko) * 2012-03-16 2013-09-25 삼성전자주식회사 터치 스크린 단말기의 사용자 인터페이스 방법 및 장치
CN102819394B (zh) * 2012-07-27 2016-06-08 东莞宇龙通信科技有限公司 终端和终端操作方法
KR20140033839A (ko) * 2012-09-11 2014-03-19 삼성전자주식회사 터치스크린을 구비한 단말에서 한 손을 이용한 사용자 인터페이스 방법 및 장치
JP2014089522A (ja) * 2012-10-29 2014-05-15 Kyocera Corp 電子機器及び制御プログラム並びに電子機器の動作方法
CN103309604A (zh) * 2012-11-16 2013-09-18 中兴通讯股份有限公司 一种终端及终端屏幕显示信息控制方法
CN103019588A (zh) * 2012-11-26 2013-04-03 中兴通讯股份有限公司 一种触摸定位方法、装置及终端
US20140184503A1 (en) * 2013-01-02 2014-07-03 Samsung Display Co., Ltd. Terminal and method for operating the same
KR101504310B1 (ko) * 2013-02-07 2015-03-20 (주)아토미디어 사용자 단말 및 이의 인터페이싱 방법
KR20140110262A (ko) * 2013-03-07 2014-09-17 주식회사 유소프테이션 휴대형 장치 및 커서를 이용한 조작 방법
CN103412725B (zh) * 2013-08-27 2016-07-06 广州市动景计算机科技有限公司 一种触控操作方法和装置

Also Published As

Publication number Publication date
EP3207445A1 (en) 2017-08-23
KR102160105B1 (ko) 2020-09-25
CN107077276A (zh) 2017-08-18
KR20160044396A (ko) 2016-04-25
EP3207445A4 (en) 2017-09-27
EP3207445B1 (en) 2022-09-21

Similar Documents

Publication Publication Date Title
US11079895B2 (en) Method and apparatus for providing user interface
EP3586316B1 (en) Method and apparatus for providing augmented reality function in electronic device
US11797249B2 (en) Method and apparatus for providing lock-screen
EP3686723B1 (en) User terminal device providing user interaction and method therefor
EP2960768B1 (en) Mobile terminal and method for controlling the same
KR102302353B1 (ko) 전자 장치 및 이의 ui 표시 방법
US9582168B2 (en) Apparatus, method and computer readable recording medium for displaying thumbnail image of panoramic photo
US20150378707A1 (en) Mobile terminal and method for controlling the same
US10095386B2 (en) Mobile device for displaying virtually listed pages and displaying method thereof
US9633412B2 (en) Method of adjusting screen magnification of electronic device, machine-readable storage medium, and electronic device
EP3203359A1 (en) Method for providing remark information related to image, and terminal therefor
KR20150124311A (ko) 오브젝트 운용 방법 및 이를 지원하는 전자 장치
US10095348B2 (en) Mobile terminal and method for controlling the same
KR20160050682A (ko) 전자장치의 화면 표시 제어 방법 및 장치
KR20150026132A (ko) 전자 장치를 이용하여 오브젝트를 공유하는 방법 및 장치
KR102627191B1 (ko) 휴대 장치 및 휴대 장치의 화면 제어방법
US10095384B2 (en) Method of receiving user input by detecting movement of user and apparatus therefor
US20150063785A1 (en) Method of overlappingly displaying visual object on video, storage medium, and electronic device
US10055092B2 (en) Electronic device and method of displaying object
US9959034B2 (en) Mobile terminal and method for controlling the same
CN107077276B (zh) 用于提供用户界面的方法和装置
KR20160025914A (ko) 블록을 설정하는 전자 장치 및 방법
KR102526860B1 (ko) 전자 장치 및 전자 장치 제어 방법
KR20170086947A (ko) 이동단말기 및 그 제어방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant