CN111665983B - 电子设备及其显示方法 - Google Patents

电子设备及其显示方法 Download PDF

Info

Publication number
CN111665983B
CN111665983B CN202010463208.2A CN202010463208A CN111665983B CN 111665983 B CN111665983 B CN 111665983B CN 202010463208 A CN202010463208 A CN 202010463208A CN 111665983 B CN111665983 B CN 111665983B
Authority
CN
China
Prior art keywords
display area
electronic device
area
display
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010463208.2A
Other languages
English (en)
Other versions
CN111665983A (zh
Inventor
裵有东
朴炫燮
金大明
朴镇亨
赵时衍
金素英
郑熙锡
徐昊成
金柳水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020140116509A external-priority patent/KR101559091B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to CN202010463208.2A priority Critical patent/CN111665983B/zh
Publication of CN111665983A publication Critical patent/CN111665983A/zh
Application granted granted Critical
Publication of CN111665983B publication Critical patent/CN111665983B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephone Function (AREA)

Abstract

提供了一种电子设备及其显示方法。所述电子设备包括:显示器,包括主显示区域和曲面辅助显示区域,曲面辅助显示区域从主显示区域整体延伸并向主显示区域的一侧弯曲,曲面辅助显示区域具有比主显示区域更小的尺寸;检测器,检测电子设备的握持;以及控制器,被配置为:基于在向主显示区域和曲面辅助显示区域提供信息的状态下检测到电子设备的握持,控制显示器不重新排列提供给主显示区域的信息,而是在曲面辅助显示区域中不被握持接触的区域中,重新排列和显示提供给曲面辅助显示区域的信息。

Description

电子设备及其显示方法
本申请是申请日为2015年09月02日,申请号为201510557879.4,发明名称为“具有弯曲显示器的电子设备以及用于控制其的方法”的发明专利申请的分案申请。
技术领域
与示例性实施例一致的装置和方法涉及控制具有弯曲或曲面显示器的电子设备及其显示方法,并且更具体地,涉及基于用户对设备的握持来控制电子设备及其显示方法。
背景技术
随着数字技术的发展,各种电子设备能够在被携带时进行通信并且处理个人信息。例如,诸如个人数字助理(PDA)、电子调度器、智能电话、平板个人计算机(PC)等的电子设备正进入市场。这样的电子设备已经发展到包括其它终端设备的领域以及它们的传统领域的移动融合阶段。例如,电子设备可以执行各种功能,诸如进行语音呼叫、进行视频呼叫、诸如短消息服务(SMS)/多媒体消息服务(MMS)的消息发送、电子调度、拍摄、交换电子邮件、重放广播、重放移动图像、因特网、电子商务、重放音乐、日程管理、社交网络服务(SNS)、找朋友服务、信使、字典等。
具体地,正在研究和开发通过将柔性显示器与电子设备进行组合来实现的装备有弯曲或曲面显示器的电子设备。柔性显示器可以自由地弯曲和不弯曲,并且弯曲显示器根据有意的设计而保持其变形的形状。此外,考虑到电子设备的外部,存在开发装备有弯曲显示器的电子设备的需求,并且也存在用于使用安装在电子设备上的弯曲显示器来提高控制电子设备的功能的方便性的方法的需求。
发明内容
一个或多个示例性实施例可以克服上面的缺点以及上面未描述的其它缺点。然而,可以理解的是,不要求一个或多个示例性实施例克服上述的缺点,并且可以不克服上述的任何问题。
一个或多个示例性实施例提供了一种具有弯曲或曲面显示器的电子设备以及用于控制所述电子设备的方法,所述电子设备可以减少在用户使用所述电子设备时可能导致的无意的故障或错误输入。
一个或多个示例性实施例还提供了一种具有弯曲或曲面显示器的电子设备以及用于控制所述电子设备的方法,所述电子设备可以减少在用户使用侧显示区域时可能导致的无意的故障或错误输入。
一个或多个示例性实施例还提供了一种电子设备,其可以通过考虑所述电子设备的各种状态、定向或姿势来减少无意的故障或输入(例如,电子设备被握持的状态或者电子设备被握住的状态)。
根据示例性实施例的一方面,提供了一种由包括包含有主显示区域和对应的辅助显示区域的曲面显示器的电子设备执行的控制方法,所述控制方法包括:在电子设备被用户握持的状态下,检测辅助显示区域上的触摸输入;响应于在辅助显示区域的第一区域上检测到触摸输入并且电子设备处于电子设备被用户握持的状态下,作为用户输入处理该触摸输入;以及,响应于在与第一区域不同的辅助显示区域的第二区域上检测到触摸输入并且电子设备处于电子设备被用户握持的状态下,控制以忽略该触摸输入。
所述控制以忽略该触摸输入可以包括:停用与第二区域对应的触摸传感器,或者不处理、丢弃或忽略与通过与第二区域对应的触摸传感器的触摸输入相关的信息。
所述作为用户输入处理该触摸输入可以包括,响应于检测到触摸在第一区域上显示的UI元件的触摸输入,执行与UI元件相关的功能。
辅助显示区域的第一区域和第二区域的位置可以根据电子设备被用户握持的状态是主显示朝上的状态还是主显示朝下的状态而变化。
辅助显示区域的第一区域和第二区域的位置可以根据电子设备被用户握持的状态是电子设备被右手握持的状态还是电子设备被左手握持的状态而变化。
所述控制方法还可以包括在检测到触摸输入的辅助显示区域的第一区域的位置上显示UI元件。
所述控制方法还可以包括确定电子设备的状态,并且所述确定电子设备的状态包括基于以下的至少一个来确定电子设备是否被握持:电子设备的主显示区域或辅助显示区域上的触摸输入的位置、指示在电子设备的后表面上是否检测到用户的触摸输入的信息、或者电子设备的运动。
根据另一示例性实施例的一方面,提供了一种由包括包含有主显示区域和辅助显示区域的曲面显示器的电子设备执行的控制方法,所述控制方法包括:在辅助显示区域的第一位置上显示UI元件;以及,响应于检测到用户正在握持电子设备,在与第一位置不同的辅助显示区域的第二位置上显示UI元件。
在辅助显示区域的第二位置上显示UI元件可以包括:响应于检测到右手正在握持电子设备,在辅助显示区域的第二位置上显示UI元件;并且,响应于检测到左手正在握持电子设备,在与第二位置不同的辅助显示区域的第三位置上显示UI元件。
在辅助显示区域的第二位置上显示UI元件可以包括:响应于检测到电子设备被定向在第一方向上使得电子设备的顶部的位置比电子设备的底部更高,在辅助显示区域的第二位置上显示UI元件;并且,响应于检测到电子设备被定向在第二方向上使得电子设备的顶部的位置比电子设备的底部更低,在与第二位置不同的辅助显示区域的第三位置上显示UI元件。
根据另一示例性实施例的一方面,提供了一种包括包含有主显示区域和辅助显示区域的曲面显示器的电子设备,所述电子设备包括:变形显示器,其包括主显示区域和辅助显示区域;触摸传感器,其被配置为检测触摸输入;以及控制器,其被配置为响应于在所述控制器确定电子设备被用户握持的状态下在辅助显示区域的第一区域上检测到触摸输入,作为用户输入处理该触摸输入,并且,响应于在所述控制器确定电子设备正在被用户握持的状态下在与第一区域不同的辅助显示区域的第二区域上检测到触摸输入,控制以忽略该触摸输入。
响应于控制以忽略该触摸输入,所述控制器还可以被配置为停用与第二区域对应的触摸传感器,或者不处理、丢弃或忽略与通过与第二区域对应的触摸传感器的触摸输入相关的信息。
响应于作为用户输入处理该触摸输入以及检测到触摸在第一区域上显示的UI元件的触摸输入,所述控制器可以被配置为执行与UI元件相关的功能。
辅助显示区域的第一区域和第二区域的位置可以根据主显示是朝上还是朝下的状态而变化。
辅助显示区域的第一区域和第二区域的位置可以根据电子设备被用户握持的状态是电子设备被右手握持的状态还是电子设备被左手握持的状态而变化。
所述控制器可以被配置为控制所述曲面显示器以在检测到触摸输入的辅助显示区域的第一区域的位置上显示UI元件。
所述控制器可以被配置为基于以下的至少一个来确定电子设备是否被握持或者握持状态:电子设备的主显示区域或辅助显示区域上的触摸输入的位置、关于在电子设备的后表面上是否检测到用户的触摸输入的信息、或者电子设备的运动。
根据另一示例性实施例的一方面,提供了一种包括包含有主显示区域和辅助显示区域的弯曲显示器的电子设备,所述电子设备包括:变形显示器,其包括主显示区域和辅助显示区域;触摸传感器,其被配置为检测触摸输入;以及控制器,其被配置为响应于在辅助显示区域的第一位置上显示UI元件时检测到用户正在握持电子设备,控制所述变形显示器在与第一位置不同的辅助显示区域的第二位置上显示UI元件。
所述控制器可以被配置为:响应于检测到右手正在握持电子设备,控制所述变形显示器在辅助显示区域的第二位置上显示UI元件;并且,响应于检测到左手正在握持电子设备,控制所述变形显示器在与第二位置不同的辅助显示区域的第三位置上显示UI元件。
所述控制器可以被配置为:响应于检测到电子设备被定向在第一方向上使得电子设备的顶部的位置比电子设备的底部更高,控制所述变形显示器在辅助显示区域的第二位置上显示UI元件;并且,响应于检测到电子设备被定向在第二方向上使得电子设备的顶部的位置比电子设备的底部更低,控制所述变形显示器以在与第二位置不同的辅助显示区域的第三位置上显示UI元件。
根据本发明的另一个方面,提供了一种电子设备。该电子设备包括:显示器,包括主显示区域和曲面辅助显示区域,所述曲面辅助显示区域从所述主显示区域整体延伸并向所述主显示区域的一侧弯曲,所述曲面辅助显示区域具有比所述主显示区域更小的尺寸;检测器,检测所述电子设备的握持;以及控制器,被配置为:基于在向所述主显示区域和曲面辅助显示区域提供信息的状态下检测到所述电子设备的握持,控制所述显示器不重新排列提供给所述主显示区域的信息,而是在所述曲面辅助显示区域中不被握持接触的区域中,重新排列和显示提供给所述曲面辅助显示区域的信息。
根据本发明的另一个方面,提供了一种电子设备的显示方法。所述电子设备包括主显示区域和曲面辅助显示区域,所述曲面辅助显示区域从所述主显示区域整体延伸并向所述主显示区域的一侧弯曲,所述曲面辅助显示区域具有比所述主显示区域更小的尺寸。所述方法包括:向所述主显示区域和曲面辅助显示区域提供信息;以及基于检测到所述电子设备的握持,不重新排列提供给所述主显示区域的信息,而是在所述曲面辅助显示区域中不被握持接触的区域中,重新排列和显示提供给所述曲面辅助显示区域的信息。
根据如上所述的各种示例性实施例,可以最小化在用户使用具有弯曲显示器的电子设备时由用户可能无意导致的故障或不需要的输入。
具体地,在用户握持电子设备时,故障和不需要的输入更可能发生。然而,根据各种示例性实施例,故障或不需要的输入不太可能发生。
此外,通过根据电子设备的用户的握持状态来调整将要被显示的UI元件的位置,用户可以更容易并且更方便地使用电子设备。
附图说明
通过参照附图详细地描述示例性实施例,上述和/或其它方面将更加显而易见,附图中:
图1是详细示出根据示例性实施例的电子设备的配置的框图;
图2是说明根据示例性实施例的在电子设备中存储的软件的配置的视图;
图3A至图3D是说明根据示例性实施例的电子设备的示例的视图;
图4是示出根据示例性实施例的电子设备的运动的视图;
图5是示出根据示例性实施例的提供通知信息的电子设备的视图;
图6A至图21是示出根据示例性实施例的控制电子设备的过程的视图;
图22A至图36是示出根据示例性实施例的在电子设备中显示应用执行屏幕的过程的视图;
图37至48是示出根据示例性实施例的使用电子设备的前表面和侧表面进行交互的视图;
图49至图54是示出根据示例性实施例的电子设备对于每个显示区域具备不同电容的过程的视图;
图55和图56是说明根据示例性实施例的用于控制电子设备的方法的流程图;以及
图57是示出根据另一示例性实施例的电子设备的配置的框图。
具体实施方式
在下文中,将简单地说明在示例性实施例中使用的术语,并且将参照附图更加详细地描述示例性实施例。
虽然在示例性实施例中使用的术语是考虑本公开中的功能在当前时间广泛使用的一般术语,但是可以根据本领域技术人员的意图、先例以及新技术的引进来改变术语。此外,在特殊情况下,可以使用由申请人选择的术语。在这种情况下,将在对应的详细描述中详细地说明术语的含义。因此,应当基于术语的含义以及本公开的描述而不是仅仅基于术语的名称来定义在示例性实施例中使用的术语。
虽然在附图中示出了本公开的具体示例性实施例并且提供了相关的详细描述,但是可以进行各种改变并且可以提供各种示例性实施例。因此,本公开的各种示例性实施例不限于具体实施例,并且应当被解释为包括被包括在本公开的示例性实施例的想法和技术范围中的所有改变和/或等同物或替代物。由于公知的功能或结构会以不必要的细节模糊本发明的构思,因此在下面的描述中不详细描述公知的功能或结构。
虽然可以使用诸如“第一”和“第二”的术语来说明各种元件,但是所述元件不应当受这些术语的限制。可以将这些术语用于区分一个元件与另一个元件的目的。
如在此使用的,单数形式也意图包括复数形式,除非上下文明确指出其它情况。在示例性实施例中使用的术语“包括”或“包含”指示所公开的对应特征、数字、步骤、操作、元件、部分或其组合的存在,并且不限于附加的一个或多个特征、数字、步骤、操作、元件、部分或其组合。
在示例性实施例中使用的“模块”或“单元”执行至少一个功能或操作,并且可以通过使用硬件或软件或硬件和软件的组合来实现。此外,除了需要通过使用特定硬件来实现的“模块”或“单元”之外,可以将多个“模块”或多个“单元”集成到至少一个模块中,并且可以通过使用至少一个处理器(未示出)来实现多个“模块”或多个“单元”。
将理解的是,当提及将元件“连接”到另一元件时,可以将该元件“直接地连接”到另一元件,并且可以使用该元件与另一元件之间的插入元件将该元件“电连接”到另一元件。将进一步理解的是,当元件“包括”另一元件时,术语“包括”不排除一个或多个其它元件的存在或附加。
在下文中,将参照附图更加详细地描述示例性实施例。提供了在说明书中定义的事物(诸如详细的结构和元件)来帮助对示例性实施例的全面理解。然而,显而易见的是,本领域普通技术人员可以在没有这些具体定义的事物的情况下实施示例性实施例。在示例性实施例的描述中,当认为相关领域的某些详细说明可能不必要地模糊本发明的构思的本质时,省略相关领域的某些详细说明。在附图的说明中,将相似参考标号用于相似元件。
在示例性实施例中使用的术语“盖子”可以是用于通过覆盖电子设备(或便携式终端设备)的显示区域的一部分或全部来保护显示器的物体或设备。可以将盖子电连接或非电连接到电子设备。此外,可以将盖子连接到电子设备以进行通信。此外,可以将盖子可移除地安装到电子设备上或者可以从电子设备移除盖子,并且因此可以出售或单独提供盖子,或者可以将盖子集成到电子设备中并且可以与电子设备一起出售。
在示例性实施例中的术语“用户输入”可以包括触摸输入、弯曲输入、变形输入、语音输入、按键输入和多模式输入中的至少一个,但并不限于这些输入。
在示例性实施例中的术语“触摸输入”是指由用户在显示器和盖子上执行来控制设备的触摸手势。此外,“触摸输入”可以包括不与显示器接触并且距显示器的距离超过预定距离的触摸(例如,浮动或悬停)。触摸输入可以包括触摸和保持手势、触摸然后移除触摸的点击手势、双击手势、平移手势、轻弹手势以及触摸然后在仍然触摸的同时在一个方向上移动的触摸和拖动手势、捏压手势等,但并不限于这些。
在示例性实施例中的术语“按键输入”是指用户通过使用被附接到设备上的物理按键来控制设备的输入。
在示例性实施例中的术语“运动输入”是指由用户对设备所进行的控制设备的运动。例如,运动输入可以包括旋转设备的用户运动、倾斜设备的用户运动、以及垂直和水平移动设备的用户运动。
在示例性实施例中的术语“多模式输入”是指两个或两个以上输入方法的组合。例如,设备可以接收用户的触摸输入和运动输入,并且可以接收用户的触摸输入和语音输入。
在示例性实施例中的术语“应用”是指被设计来执行特定功能的一组计算机程序。在示例性实施例中可以存在各种应用。例如,应用可以包括游戏应用、移动图像重放应用、地图应用、备忘录应用、日历应用、电话簿应用、广播应用、锻炼支持应用、支付应用、照片文件夹应用等,但并不限于这些。
在示例性实施例中的术语“应用标识信息”可以是用于区分一个应用与其它应用的独特信息。例如,应用标识信息可以包括图标、索引项、链接信息等,但并不限于这些。
在示例性实施例中的术语“用户界面(UI)元件”是指能够与用户进行交互并且因此根据用户输入来提供视觉、听觉或嗅觉反馈的元件。可以以图像、文本和移动图像的至少一个的形式来表示UI元件。此外,可以将不显示上述信息但能够根据用户输入提供反馈的区域称为UI元件。此外,例如,UI元件可以是上述应用标识信息。
图1是详细示出根据示例性实施例的电子设备100的配置的框图。
例如,电子设备100可以是智能电话、膝上型计算机、PDA、媒体播放器、MP3播放器、微服务器、全球定位系统(GPS)设备、电子书终端、数字广播终端、公用电话亭、电子相册、导航设备、包括手表或头戴式显示器(HMD)的可穿戴设备以及其它移动设备或非移动计算设备。
如图1所示,电子设备100包括图像接收器110、图像处理器120、显示器130、通信器140(例如,收发器等)、存储部件150(例如,存储器等)、音频处理器160、音频输出器170(例如,扬声器、音频输出设备等)、传感器180以及控制器190。
在图1中所示的电子设备100设置有各种功能,诸如内容提供功能、显示功能等,并且图1示出了电子设备100的整体元件。因此,根据示例性实施例,可以省略或改变在图1中所示的一些元件,并且可以添加其它元件。
图像接收器110经由各种来源接收图像数据。例如,图像接收器110可以从外部广播站接收广播数据,可以在实时的基础上从外部服务器接收视频点播(VOD)数据,并且可以从外部设备接收图像数据。
图像处理器120是用于处理在图像接收器110处所接收的图像数据的元件。图像处理器120可以执行关于图像数据的各种图像处理操作,诸如解码、缩放、噪声滤波、帧速率转换、分辨率转换等。
显示器130显示作为由图像处理器120处理图像数据的结果的图像帧,或者显示由图形处理器194生成的各种屏幕中的至少一个屏幕。
显示器130不限于具体实现方式。例如,可以通过使用诸如液晶显示器(LCD)、有机发光二极管(OLED)显示器、有源矩阵(AM)-OLED、等离子体显示面板(PDP)等各种类型的显示器来实现显示器130。根据其实现方式,显示器130还可以包括附加的元件。例如,当显示器130是LCD时,显示器130可以包括LCD面板(未示出)、向LCD面板(未示出)提供光的背光单元(未示出)、以及驱动面板(未示出)的面板驱动基底(未示出)。可以将显示器130与传感器180的触摸传感器181进行组合来作为触摸屏提供。
可以将显示器130与以弯曲显示器(即曲面显示器)的形式的电子设备100的前表面区域和侧表面区域或后表面区域中的至少一个连接。可以通过使用柔性显示器来实现弯曲显示器,或者可以通过使用正常并不柔性的显示器来实现弯曲显示器。例如,可以通过将多个平面显示器彼此连接来实现弯曲显示器。
在通过使用柔性显示器来实现弯曲显示器时,通过像纸一样薄且柔韧的基底,可以在没有损坏的情况下弯曲、弯折或卷曲柔性显示器。可以使用塑料基底以及普通玻璃基底来制造柔性显示器。在使用塑料基底时,为了防止损坏基底,可以使用低温制造处理器来代替现有制造处理器。此外,通过使用塑料薄膜来取代包围LCD、OLED显示器、AM-OLED、PDP等中的液晶的玻璃基底,柔性显示器可以具有被折叠或展开的柔韧性。这样的柔性显示器又薄又轻并且还耐冲击。此外,由于能够如上所述地弯曲、曲面化、变形或弯折柔性显示器,因此可以以各种形式来制造柔性显示器。
柔性显示器可以根据电子设备100的大小而具有特定屏幕大小(例如,3英寸、4英寸、4.65英寸、5英寸、6.5英寸、8.4英寸等)的有源矩阵屏幕,并且可以将柔性显示器延伸到电子设备100的至少一个侧表面(例如,左侧、右侧、上侧和下侧中的至少一个的表面)。可以将柔性显示器折叠成具有比柔性显示器中可允许的曲率半径更低的曲率半径,并且可以将柔性显示器与电子设备100的侧表面进行连接。
通信器140被配置为以各种通信方法与各种类型的外部设备进行通信。通信器140包括WiFi芯片141、蓝牙芯片142、无线通信芯片143和近场通信(NFC)芯片144中的一个或多个。控制器190可以使用通信器140与各种类型的外部设备进行通信。
具体地,WiFi芯片141和蓝牙芯片142分别以WiFi方法和蓝牙方法进行通信。在使用WiFi芯片141或蓝牙芯片142时,可以首先交换诸如SSID和会话密钥的各种连接信息,并且可以使用连接信息来建立通信,并且然后可以交换各种信息。无线通信芯片143根据诸如IEEE、ZigBee、第三代(3G)、第三代合作伙伴计划(3GPP)、长期演进(LTE)等的各种通信标准来进行通信。NFC芯片144以使用各种RF-ID频带(诸如135kHz、13.56MHz、433MHz、860-960MHz和2.45GHz)中的13.56MHz频带的NFC方法来操作。
存储部件150可以存储用于操作电子设备100所必需的各种程序和数据。存储部件150可以包括非易失性存储器、易失性存储器、闪速存储器、硬盘驱动器(HHD)或固态驱动器(SSD)。存储部件150可以由控制器190来访问,并且可以在控制器190的控制下读取/记录/校正/删除/更新数据。在本公开中使用的术语“存储部件”可以包括存储部件150、控制器190中的只读存储器(ROM)以及安装在随机存取存储器(RAM)或电子设备100中的存储器卡(未示出)(例如,微型SD卡、记忆棒)。
具体地,存储部件150可以存储用于配置将要在显示区域上显示的各种屏幕的程序和数据。
在下文中,将参照图2来说明在电子设备100中存储的软件的配置。参照图2,可以在存储部件150中存储包括操作系统(OS)210、内核220、中间件230、应用240等的软件。
OS 210控制和管理硬件的整体操作。换言之,OS 210是负责诸如硬件管理、存储器和安全性的基本功能的层。
将内核220用作向中间件230发送包括在显示器130中检测到的触摸信号的各种信号的通道。
中间件230包括控制电子设备100的操作的各种软件模块。参照图2,中间件230包括X11模块230-1、APP管理器230-2、连接管理器230-3、安全性模块230-4、系统管理器230-5、多媒体框架230-6、用户界面(UI)框架230-7、窗口管理器230-8以及子UI框架230-9。
X11模块230-1从在电子设备100中提供的各种硬件处接收各种事件信号。在此叙述的事件是指检测到用户手势的事件、生成系统警告的事件、执行或结束特定程序的事件等。
APP管理器230-2管理在存储部件150中安装的各种应用240的执行状态。响应于由X11模块230-1检测到应用执行事件,应用管理器230-2调用和执行对应于该事件的应用。
连接管理器230-3支持有线或无线网络连接。连接管理器230-3可以包括诸如DNET模块、通用即插即用(UPnP)模块等的各种子模块。
安全性模块230-4支持对于硬件的认证、许可和安全存储。
系统管理器230-5监控电子设备100的元件的状态,并且向其它模块提供监控的结果。例如,响应于电池寿命水平低、生成错误或者通信断开,系统管理器230-5向主UI框架230-7或子UI框架230-9提供监控的结果并且输出通知消息或通知声音。
多媒体框架230-6再现在电子设备100中存储或者从外部源提供的多媒体内容。多媒体框架230-6可以包括播放器模块、摄录像机模块、声音处理模块等。因此,多媒体框架230-6可以再现各种多媒体内容、生成屏幕和声音、以及再现所述屏幕和声音。
主UI框架230-7提供将要在显示器130的主区域显示的各种UI,并且子UI框架230-9提供将要在子区域显示的各种UI。主UI框架230-7和子UI框架230-9可以包括配置各种UI元件的图像合成器模块、计算用于显示UI元件的坐标的坐标合成器模块、在所计算的坐标上渲染所配置的UI元件的渲染模块、提供用于配置2D或3D形式的UI的工具的2D/3D UI工具包。
窗口管理器230-8可以检测使用用户的身体或笔生成的触摸事件或其它输入事件。当检测到这种事件时,窗口管理器230-8向主UI框架230-7或子UI框架230-9发送事件信号,使得执行与该事件对应的操作。
此外,可以存储诸如写入模块或角度计算模块这样的各种程序模块,所述写入模块在用户在屏幕上触摸或拖动时通过跟踪拖动线来绘制线条,所述角度计算模块基于由运动传感器182检测的传感器值来计算俯仰(pitch)角、滚转(roll)角、偏航(yaw)角。
应用模块240包括应用240-1至240-n来支持各种功能。例如,应用模块240可以包括提供各种服务的程序模块,所述程序模块诸如导航程序模块、游戏模块、电子书模块、日历模块、通知管理模块等。可以将应用设置为缺省,或者可以在用户使用应用时临时设置并且使用应用。在选择了UI元件时,主CPU 193可以使用应用模块240来执行对应于所选择的UI元件的应用。
在图2中所示的软件配置仅仅是示例并且不限于此。因此,可以省略或改变一些元件或者在必要时可以添加元件。例如,存储部件150可以附加地设置有各种程序,诸如分析由各种传感器所感测的信号的感测模块、消息模块(诸如,信使程序、短消息服务(SMS)和多媒体消息服务(MMS)程序、以及电子邮件程序)、呼叫信息聚合器程序模块、VoIP模块、web浏览器模块等。
回到图1,音频处理器160处理图像内容的音频数据。音频处理器160可以执行关于音频数据的各种处理操作,诸如解码、放大、噪声滤波等。可以将由音频处理器160处理的音频数据输出到音频输出器170。
可以将音频输出器170配置为输出各种通知声音或语音消息以及在音频处理器160中经受诸如解码、放大和噪声滤波的各种处理操作的各种音频数据。具体地,可以通过使用扬声器来实现音频输出器170。然而,这仅仅是示例,并且可以通过使用能够输出音频数据的输出终端来实现音频输出器170。
传感器180检测各种用户交互。传感器180可以检测诸如电子设备100的状态、定向或姿势改变、亮度改变、加速度改变的各种改变中的至少一个,并且将对应的电信号发送到控制器390。换言之,传感器180可以检测基于电子设备100进行的状态改变,生成对应的检测信号,并且将所述对应的检测信号发送到控制器390。传感器180可以包括各种传感器。在电子设备100被驱动(或基于用户设置)时,将电力提供给在传感器180的控制下设置的至少一个传感器,并且所述传感器检测状态变化。
传感器180可以包括能够检测电子设备100的状态改变的所有类型的感测设备中的至少一个设备。例如,传感器180可以包括各种感测设备中的至少一个传感器,诸如触摸传感器、加速度传感器、陀螺仪传感器、亮度传感器、接近传感器、压力传感器、噪声传感器(例如,麦克风)、视频传感器(例如,相机模块)以及定时器。
可以根据感测目的将传感器180划分成触摸传感器181、运动传感器182以及盖子打开和关闭传感器183,如图1所示。然而,这不应当被认为是限制,并且可以根据其它目的来划分传感器180。这并不意味着物理划分,并且可以将至少一个传感器进行组合来用作传感器181、182和183。此外,可以根据实现方法将传感器180的元件或功能的一些包括在控制器190中。
例如,触摸传感器181可以使用被附接到显示面板的后表面上的触摸传感器来检测用户的触摸输入。控制器190可以通过从触摸传感器181获取关于触摸坐标和触摸时间的信息来确定触摸输入的类型(例如,点击手势、双击手势、平移手势、轻弹手势以及触摸和拖动手势等)。此外,触摸传感器181可以使用由触摸传感器181获取的触摸坐标和触摸时间来为自己确定触摸输入的类型。
盖子打开和关闭传感器183可以使用霍尔传感器、亮度传感器以及压力传感器中的至少一个来确定与电子设备100连接的盖子是打开的还是关闭的。霍尔传感器是其中电压根据电场的量值而改变、并且可以在盖子是打开或关闭时检测在导体中流动的电流的电势差的元件。控制器190可以从盖子打开和关闭传感器183获取在盖子是打开或关闭时生成的电势差,并且使用与所获取的电势差相关的信息来确定盖子是打开的还是关闭的。
此外,在使用亮度传感器时,亮度传感器可以检测由周围亮度根据盖子是打开还是关闭而进行的改变所生成的电信号。控制器190可以通过将由盖子打开和关闭传感器183所检测的结果与预设参考值进行比较来确定盖子是打开的还是关闭的。例如,在能够由亮度传感器测量的最亮亮度是100、最暗亮度是0并且预设参考值的亮度是30的情况下,并且在由亮度传感器测量的亮度值小于或等于30的参考值时,控制器190可以确定盖子是关闭的。
运动传感器182可以使用加速度传感器、倾斜传感器、以及陀螺仪传感器、3轴磁传感器中的至少一个来检测电子设备100的运动(例如,旋转、倾斜等)。运动传感器182可以向控制器190发送所生成的电信号。例如,在使用加速度传感器时,运动传感器182可以测量关于电子设备100的X轴、Y轴和Z轴中的每一个轴的重力加速度,如图4所示。具体地,运动传感器182可以测量电子设备100的重力加速度和运动加速度相加的加速度。然而,当电子设备100中不存在运动时,仅重力加速度可以被测量。例如,基于假设来进行下文的说明,所述假设是:当其前表面向上地放置电子设备100时,重力加速度为正(+)方向,并且,当其后表面向上地放置电子设备100时,重力加速度为负(-)方向。
如图4所示,当电子设备100被放置成其后表面与平坦表面接触时,作为由运动传感器182测量的重力加速度,X轴和Y轴分量测量到0米/秒^2,并且Z轴分量测量到特定正值(例如,+9.8米/秒^2)。另一方面,当电子设备100被放置成其前表面与平坦表面接触时,作为由运动传感器182测量的重力加速度,X轴和Y轴分量测量到0米/秒^2,并且Z轴分量测量到特定负值(例如,-9.8米/秒^2)。
此外,当相对于桌子的表面斜向地放置电子设备100时,作为由运动传感器182测量的重力加速度,至少一个轴测量到不同于0米/秒^2的值。在这种情况下,三个轴分量的平方的总和的平方根(即,矢量和)可以是上述的特定值(例如,9.8米/秒^2)。在上面的示例中,运动传感器182检测坐标系统上X轴、Y轴和Z轴方向中的每一个方向的加速度。可以根据附接传感器的位置来改变轴以及对应于轴的重力加速度。
在从运动传感器182发送的重力加速度由至少一个轴分量测量时,控制器190可以使用每一个轴的加速度来确定(计算)所放置的电子设备100的状态、定向或姿势。可以由滚转角(Φ)、俯仰角(θ)和偏航角(ψ)来指示状态、定向或姿势。滚转角(Φ)指示关于图4中的X轴的旋转角,俯仰角(θ)指示关于图4中的Y轴的旋转角,并且偏航角(ψ)指示关于图4中的Z轴的旋转角。在图4所示的示例中,当从运动传感器182发送的重力加速度的Z轴的重力加速度是+9.8米/秒^2时,滚转角(Φ)和俯仰角(θ)是“0”,并且因此所放置的电子设备100的状态、定向或姿势被确定为将受到Z轴的重力加速度的后表面放置在重力的方向上的状态、定向或姿势。在上述方法中,控制器190可以检测电子设备100的任何状态、定向或姿势,并且可以附加地实现用于检测电子设备100的状态、定向或姿势的状态、定向或姿势检测器。
控制器190可以使用算法来确定电子设备100的状态、定向或姿势,所述算法诸如利用欧拉角的状态、定向或姿势计算算法、利用扩展卡尔曼滤波器的状态、定向或姿势计算算法、以及加速度估计切换算法。换言之,根据示例性实施例可以以各种方式来实现用于利用加速度计测量电子设备100的状态、定向或姿势的方法。
控制器190使用在存储部件150中存储的各种程序来控制电子设备100的整体操作。
如图1所示,控制器190包括随机存取存储器(RAM)191、只读存储器(ROM)192、图形处理器193、主CPU 194、第一至第n接口195-1至195-n、以及总线196。在这种情况下,可以经由总线196将RAM 191、ROM 192、图形处理器193、主CPU 194以及第一至第n接口195-1至195-n彼此连接。
ROM 192存储用于引导系统的一组命令。在输入开启命令并且提供电力时,主CPU194根据在ROM 192中存储的命令将在存储部件150中存储的O/S复制到RAM 191上,执行O/S并且引导系统。在完成引导时,主CPU 194将在存储部件150中存储的各种应用程序复制到RAM 191上,执行被复制到RAM 191上的应用程序,并且执行各种操作。
图形处理器193使用计算器(未示出)和渲染器(未示出)来生成包括诸如项目、图像、文本等的各种对象的屏幕。计算器使用从传感器180接收的控制命令根据屏幕的布局来计算将要被显示的对象的属性值,诸如对象的坐标值、形状、大小、颜色等。渲染器生成包括基于由计算器计算的属性值的对象的各种布局的屏幕。在显示器130的显示区域上显示由渲染器生成的屏幕。
主CPU 194访问存储部件150并且使用在存储部件150中存储的O/S来执行引导。此外,主CPU 194使用在存储部件150中存储的各种程序、内容和数据来执行各种操作。
将第一至第n接口195-1至195-n与上述的各种元件连接。接口之一可以是通过网络与外部设备进行连接的网络接口。
具体地,在侧显示区域的第一区域上检测到触摸输入时,响应于由传感器180检测到触摸输入,在用户握持电子设备100的状态下,控制器190作为用户输入处理该触摸输入。在侧显示区域的与第一区域不同的第二区域上检测到触摸输入时,控制器190可以控制以忽略该触摸输入。此外,在侧显示区域的第一位置上显示UI元件时,控制器190可以基于由传感器检测的信息来确定用户是否握持电子设备100。响应于电子设备100被握持,控制器190可以显示在与第一位置不同的侧显示区域的第二位置上所显示的UI元件。
图3A至图3D是示出根据示例性实施例的电子设备100的示例的视图。
如图3A至图3D中所示,根据示例性实施例的电子设备100包括弯曲显示器310、在其中安置和固定弯曲显示器310的主体300以及被布置在主体300中以执行电子设备100的功能的附加设备。附加设备可以包括扬声器321、传感器(例如,亮度传感器322、前置相机模块323等)、连接接口324(例如,充电端口、数据输入/输出端口和音频输入/输出端口)、麦克风325和/或物理按钮(未示出)。
在示例性实施例中使用的“弯曲显示区域”是指在其中显示数据的弯曲显示器310上的区域。此外,“显示区域”是指在其中显示数据的弯曲显示器以及不弯曲的平面显示器上的区域。数据包括诸如图像、文本和移动图像这样的能够在显示区域上显示的各种类型的信息,并且可以通过各种屏幕显示数据。屏幕可以包括单个层或多个层。可以将多个层一层又一层地连续重叠来配置屏幕。在这种情况下,用户可以将被布置在多个层上的各种数据认为是单个屏幕。
此外,在如图3A至图3C所示的具有弯曲显示器的电子设备100中,与电子设备100的前表面对应的弯曲显示区域311被称为前显示区域311或主显示区域311,并且与电子设备100的侧表面对应的显示区域312被称为侧显示区域312、子显示区域312或辅助显示区域。
此外,在如图3D所示的具有弯曲显示器和盖子两者的电子设备100的情况下,当盖子330覆盖电子设备100的前表面时,被盖子覆盖的电子设备100的前表面上的显示区域被称为前显示区域311、主显示区域311或盖子中的显示区域311。另一方面,未被盖子330覆盖的电子设备100的侧表面上的显示区域被称为侧显示区域312、子显示区域312、盖子外的显示区域312或暴露显示区域312。
图5是示出根据示例性实施例的提供通知信息的电子设备100的视图。
参照图5,电子设备100可以使用侧显示区域来提供通知信息501。通知信息501可以指从另一外部设备接收的信息。例如,通知信息501可以包括事件,诸如呼叫接收、消息接收(例如,基于SMS/MMS的消息接收)、邮件接收、推送服务的信息接收、SNS的通知接收。此外,通知信息501可以指在电子设备100中生成并且与电子设备100的当前状态相关的信息。例如,通知信息501可以包括关于以下内容的信息:电子设备100的剩余电池寿命、当前时间、电子设备100的长距离或短距离网络的连接状态、电子设备的接收模式状态(例如,振动模式、静音模式、声音模式等)或者由用户设置的通知信息的存在/不存在。
根据示例性实施例,响应于在未使用电子设备100的前显示区域(例如,其它对象(例如,电子设备100的盖子、笔记本等)遮蔽了前显示区域、或者将电子设备100放置成其前表面向下与桌子的表面接触)的状态下生成通知信息501,电子设备100通过侧显示区域312来提供通知信息501。这种情况可以包括用户在会议中将电子设备100倒置在桌子上的情况。换言之,正如在将电子设备100放置成其前显示区域向下与桌子的表面接触的情况下,用户可以改变电子设备100的状态。此外,如图3D所示的单独的盖子或者笔记本可以遮蔽电子设备100的前显示区域。
在这种状态下,电子设备100可以检测电子设备100的状态,并且进入侧显示使用模式。可以由检测光量的改变的亮度传感器、用于检测电子设备100的状态、定向或姿势的传感器(例如,地磁传感器、加速度传感器等)、霍尔传感器、定时器等来检测电子设备100的状态。可以将传感器集成到单个芯片中,或者可以将多个传感器实现为单独的芯片。例如,电子设备100可以基于由亮度传感器检测的亮度值来确定当前状态。此外,电子设备100可以基于由运动传感器检测的状态、定向或姿势信息(例如,对于x轴、y轴和z轴的测量值)来确定当前状态。此外,电子设备100可以基于由定时器检测的当前时间来确定当前状态。当使用定时器时,电子设备100可以确定当前时间是否对应于由用户设置的时区以自动执行方式通知模式,并且可以响应于与由用户设置的时间对应的当前时间而进入方式通知模式。
如上所述,响应于遮蔽电子设备100的前显示区域并且执行侧显示区域使用模式,可以以单色(例如,黑色)处理前显示区域,或者将电力划分成用于前显示区域的电力和用于侧显示区域的电力并且断开用于前显示区域的电力。在这种情况下,在侧显示使用模式下,仅输出屏幕并且可以省略声音输出或振动输出。这可以由用户来不同地设置。
此外,可以通过环境设置或者由电子设备100所提供的单独的应用来定义电子设备100的右手模式和左手模式。在这种情况下,电子设备100可以仅操作与所确定的模式对应的侧显示区域。例如,在如图3B所示的电子设备100具有右侧显示区域和左侧显示区域两者的状态下,响应于设置右手模式,电子设备100可以使用右侧显示区域输出通知信息,并且,响应于设置左手模式,电子设备100可以使用左侧显示区域输出通知信息。
图6A至图21是示出根据示例性实施例的控制电子设备100的过程的视图。
根据示例性实施例,在用户握持电子设备100的状态下,传感器180可以检测侧显示区域上的触摸输入。在这种情况下,响应于在侧显示区域的第一位置上检测到触摸输入,控制器190可以作为用户输入处理所检测到的触摸输入,并且,响应于在与第一位置不同的第二位置上检测到触摸输入,控制器190可以忽略或丢弃所检测到的触摸输入。
在如图6A的视图610所示,便携式显示设备100被放置在地面上或固定在支架中的状态下,控制器190可以在显示区域611上显示UI元件的同时在侧显示区域612上显示至少一个UI元件。在这种情况下,可以在侧显示区域612的某一区域上显示UI元件。
如图6A的视图620所示,用户可以握持电子设备100。在这种情况下,控制器190可以使用由传感器180获取的传感器信息来确定电子设备100是否被握持并且还可以确定握持的形状或握持位置。
例如,控制器190可以使用由加速度传感器获取的信息来检测电子设备100的运动,并且,响应于使用由接近传感器或相机在预定时间(例如,1-1.5秒)内获取的信息检测到在电子设备100前方的用户,控制器190可以确定电子设备100被握持。
此外,响应于确定弯曲显示器上的触摸输入对应于与各种握持形状对应的握持图案中的一个握持图案,控制器190可以根据所确定的握持图案来确定电子设备100的握持形状。具体地,如图7A所示,可以将与中指、无名指和小指分别对应的前显示区域711上的区域711-1、711-2和711-3,以及与拇指和手掌分别对应的侧显示区域712上的区域712-1和712-2预设为握持图案。在这种情况下,响应于弯曲显示器上的触摸输入被确定为在握持图案的区域中执行或者具有与握持图案相似的形状,控制器190可以确定电子设备100被右手握持。此外,如图7B所示,可以将与手掌对应的电子设备100的后表面713上的区域713-1预设为握持图案。在这种情况下,响应于电子设备100的后表面713上的触摸输入被确定为在握持图案的区域中执行或者具有与握持图案相似的形状,控制器190可以确定电子设备100被右手握持。可替换地,响应于在电子设备100的后表面713上检测到触摸输入,控制器190可以确定电子设备100被握持。此外,控制器190可以通过考虑弯曲显示器上触摸输入的数量来确定电子设备100是否被握持或者确定握持形状。例如,响应于在预定时间内在弯曲显示器上输入三个或更多个触摸输入,控制器190可以确定电子设备100被握持。在这种情况下,例如,三个触摸输入可以对应于触摸前显示区域的中指、小指和无名指。
在电子设备100被握持的状态下,传感器180可以检测如图6B的视图630所示的将拇指移开侧显示区域612的用户输入。在这种情况下,控制器190可以控制显示器130在侧显示区域612的第一区域612-1上显示至少一个UI元件。此外,控制器190可以控制显示器130在侧显示区域612的第二区域612-2上不显示UI元件。在此,可以通过考虑其中用户能够使用用户的拇指触摸侧显示区域612的位置来确定第一区域612-1和第二区域612-2。
参照图8,在用户握持电子设备100时,用户在侧显示区域812上能够使用用户的拇指801触摸的区域可能是有限的。一般地,在将用户的手掌802固定在侧显示区域812上的同时,用户很容易仅使用拇指801来触摸侧显示区域812上的UI元件。因此,可以将显示UI元件的区域限制为范围812-1,所述范围812-1从用户通过弯曲用户的拇指801能够触摸的位置到用户通过伸展用户的拇指801能够触摸的位置。此外,可以通过考虑侧显示区域812上手掌触摸的区域来改变显示UI元件的区域,或者可以通过考虑用户的年龄、性别和手大小来确定显示UI元件的区域。
此外,如图6B的视图640所示,传感器180可以再次检测触摸第一区域612-1上的UI元件613的用户输入。在这种情况下,当电子设备100被最初握持时,控制器190可以忽略在侧显示区域612上进行的用户触摸。响应于在最初握持后移除手指并且随后再次触摸的用户触摸输入,在侧显示区域612的第一区域612-1上检测到触摸输入时,控制器190可以作为用户输入处理该触摸输入,并且,在侧显示区域612的第二区域612-2上检测到触摸输入时,控制器190可以忽略该触摸输入。忽略该触摸输入可以包括由控制器190控制传感器180来停用与第二区域对应的触摸传感器,或者不处理或丢弃关于通过传感器180的触摸输入的信息。
例如,控制器190可以将由触摸面板所提供的电荷量限制为低于预定值,或者可以停用与触摸检测相关的元件中的至少一个,使得与第二区域612-2对应的触摸传感器无法检测第二区域612-2的触摸。此外,即使响应于接收关于通过传感器180在与第二区域612-2对应的触摸传感器中生成的触摸输入的信息(例如,触摸位置、触摸方向和触摸时间)的信号,控制器190可以将与触摸输入相关的输出值处理为零或者处理限制的功能以便不提供与触摸输入对应的视觉反馈。
接着,响应于UI元件上的用户输入,控制器190可以执行与UI元件613对应的功能。例如,当UI元件613是应用标识信息时,与UI元件对应的功能可以是应用执行屏幕。
根据另一示例性实施例,显示器130可以在侧显示区域的第一位置上显示UI元件。响应于用户握持电子设备100,电子设备100可以在与第一位置不同的侧显示区域的第二位置上显示UI元件。
如图9的视图910所示,在电子设备100被放置在地板上或者固定在支架中的状态下,控制器190可以在第一位置912-5上显示UI元件912-1,所述第一位置912-5是侧显示区域912的某一位置。例如,显示UI元件912-1的某一位置可以位于侧显示区域912的下端,但并不限于此。
此外,如图9的视图920所示,用户可以握持电子设备100。在这种情况下,控制器190可以控制显示器130在第二位置912-6上显示已经在侧显示区域912中的第一位置912-5上显示过的UI元件912-1。换言之,控制器190可以基于用户的握持、用户的手指和拇指的位置、以及电子设备100的状态、姿势或定向,将显示UI元件912-1的位置移动到用户容易触摸的位置。例如,如在图8中说明的,当用户握持电子设备100时,控制器190可以通过考虑侧显示区域812上用户能够使用拇指801触摸的位置来确定第二位置912-6来显示UI元件912-1。
根据另一示例性实施例,在侧显示区域中,可以根据电子设备100被右手还是左手握持来改变其中作为用户输入处理触摸输入的区域的位置以及其中忽略触摸输入的区域的位置。此外,在侧显示区域中,可以根据是否翻转电子设备100来改变其中作为用户输入处理触摸输入的区域的位置以及其中忽略触摸输入的区域的位置。例如,可以定向电子设备,使得包括扬声器的顶部如在1010中朝上或者如在1020中朝下。在另一个示例中,可以将终端设备定向在第一方向上以使得电子设备的顶部的位置比电子设备的底部更高,或者可以将终端设备定向在第二方向上以使得电子设备的顶部的位置比便携式终端的底部更低。在又一个示例中,可以将电子设备的显示区域911和912转向面对用户手的手掌或桌子,或者可以将电子设备的显示区域911和912转向背对用户手的手掌或桌子。可以基于电子设备的定向来确定在侧显示区域或其它显示区域中的用户界面项目的位置。
根据另一示例性实施例,可以根据电子设备100被右手还是左手握持来改变显示UI元件的侧显示区域中的位置。此外,可以根据翻转还是未翻转电子设备100来改变显示UI元件的侧显示区域中的位置。
如图10A的视图1010所示,可以由右手握持电子设备100,并且如图10A的视图1020以及图10B的视图1030和1040所示,可以由左手握持电子设备100。
响应于如图10A的视图1010所示的由右手握持电子设备100并且将侧显示区域1012定向为朝着用户的拇指,如上所述,可以在用户能够使用拇指来触摸的侧显示区域1012的第一区域1012-1上显示UI元件,并且可以在用户使用手掌触摸的侧显示区域1012的第二区域1012-2上不显示UI元件。在这种情况下,响应于在第一区域1012-1上检测到选择UI元件的触摸输入,控制器190可以作为用户输入处理该触摸输入并且执行与UI元件对应的功能。另一方面,响应于在第二区域1012-1上检测到触摸输入,控制器190可以控制忽略该触摸输入。
如图10A的视图1020所示,可以由左手握持电子设备100,同时将侧显示区域定向为朝着拇指并且将显示区域1011定向为朝着手指。在这种情况下,控制器190可以通过使用通过传感器180获取的加速度传感器信息来确定电子设备100被翻转(例如,被旋转150°至200°)并且握持。在这种情况下,控制器190可以控制显示器130反转前显示区域1021的内容以避免在观看内容时给用户带来不便。此外,在电子设备100被翻转并且握持的状态下,控制器190可以控制显示器130在用户使用拇指能够触摸的侧显示区域1022的第一区域1022-1上显示UI元件,并且在用户使用手掌触摸的侧显示区域1022的第二区域1022-2上不显示UI元件。在这种情况下,可以将UI元件反转并且显示在第一区域1022-1上,使得用户在观看UI元件时没有不便。响应于在第一区域1022-1上检测到选择UI元件的触摸输入,控制器190可以作为用户输入处理该触摸输入并且执行与UI元件对应的功能。另一方面,响应于在第二区域1022-2上检测到触摸输入,控制器190可以控制忽略该触摸输入。
如图10B的视图1030所示,响应于电子设备100被左手握持,同时将侧显示区域1032定向为与拇指相对并且将显示区域1031定向为朝着拇指,控制器190可以控制忽略侧显示区域1032上的触摸输入。例如,响应于在侧显示区域1032上检测到多个手指触摸,控制器190可以确定电子设备100被左手握持并且侧显示区域被定向为与拇指相对,并且控制显示器130忽略侧显示区域1032上的触摸输入。在这种情况下,为了向用户通知侧显示区域1032上的触摸输入被忽略,控制器190可以控制显示器130降低侧显示区域1032的屏幕的亮度、关闭与侧显示区域1032对应的弯曲显示器、以单色显示侧显示区域1032或者在侧显示区域1032上不显示UI元件。
根据另一示例性实施例,如图10B的视图1040所示,响应于电子设备100被左手握持,同时将侧显示区域1042定向为与拇指相对并且将显示区域1041定向为朝着拇指,控制器190可以控制显示器130在用户使用食指和中指触摸的侧显示区域1042的第一区域1042-1上显示UI元件,并且在用户使用无名指和小指触摸的侧显示区域1042的第二区域1042-2上不显示UI元件。
为此,控制器190可以确定侧显示区域1042上的触摸输入的位置和数量。例如,响应于在侧显示区域1042上检测到三个或更多个触摸输入,控制器190可以确定电子设备100被左手握持。此外,控制器190可以控制作为用户输入处理侧显示区域1042上的多个触摸输入中与在最高位置的手指对应的触摸输入,并且忽略与其它手指对应的触摸输入。
响应于在第一区域1042-1上检测到选择UI元件的触摸输入,控制器190可以作为用户输入处理该触摸输入并且执行与UI元件对应的功能。另一方面,响应于在第二区域1042-2上检测到触摸输入,控制器190可以控制忽略该触摸输入。
在如图11A所示的具有盖子的电子设备100未被握持的状态下,传感器180可以检测选择侧显示区域1112上的相机应用标识信息的用户输入。例如,在如图11A的视图1110所示的盖子打开的状态下,传感器180可以检测选择侧显示区域1112上的相机应用标识信息1112-1的用户输入。此外,在如图11A的视图1120所示的由盖子覆盖前显示区域1111的状态下,传感器180可以检测选择侧显示区域1112上的相机应用标识信息1112-1的用户输入。
接着,用户可以以用户的手指不接触侧显示区域1112的纵向模式来握持电子设备100。在这种状态下,响应于选择相机应用标识信息的用户输入,控制器190可以执行相机应用并且控制显示器130在前显示区域1111上显示执行相机应用的结果,如图11B的视图1130所示。执行相机应用的结果可以是包括预览图像的屏幕。此外,控制器190可以控制显示器130在侧显示区域1112上显示用于控制相机应用的UI元件1112-1和1112-2。在这种情况下,可以通过考虑用户的手指的位置在侧显示区域1112的一侧上显示UI元件。例如,UI元件1112-1和1112-2可以是放大UI元件、缩小UI元件、拍摄UI元件、闪光UI元件或结束UI元件中的至少一个。
此外,用户可以以用户的手指接触侧显示区域1112的横向模式来握持电子设备100。在这种状态下,响应于选择相机应用标识信息的用户输入,控制器190可以执行相机应用并且控制显示器130在前显示区域1111上显示执行相机应用的结果,如图11C的视图1140所示。接着,响应于用户将用户的手指移开侧显示区域1112,控制器190可以控制显示器130如图11C的视图1150所示的在侧显示区域1112上显示UI元件1112-1和1112-2。在这种情况下,可以在用户在最初握持电子设备100时使用用户的手指触摸的侧显示区域1112的位置上显示UI元件1112-1和1112-2。因此,可以根据用户的手指的接触位置和/或电子设备的定向来改变显示UI元件1112-1和1112-2的位置。在这种状态下,响应于在侧显示区域1112上检测到触摸一个UI元件(例如,拍摄UI元件)的用户输入,控制器190拍摄预览图像并且将其存储在存储部件150中。
在UI元件被选择之前以及UI元件被选择之后,UI元件的暗度或色度可以不同。例如,在UI元件被选择之前UI元件的暗度或色度可以比在UI元件被选择之后UI元件的暗度或色度更高。
参照图12,电子设备100可以具有含有固定器331的盖子330。在这种情况下,参照图12的视图1210,响应于打开盖子330,传感器180可以在前显示区域1211和侧显示区域1212的整体上检测触摸输入。另一方面,响应于如图12的视图1220所示的盖子330覆盖前显示区域1211和一部分侧显示区域1212,控制器190可以在侧显示区域1212上除了与固定器331对应的区域之外的区域1212-1和1212-2上显示UI元件,此外,响应于选择UI元件的触摸输入,控制器190可以执行与UI元件相关的功能。
在这种情况下,为了在除了与固定器331对应的区域之外的区域1212-1和1212-2上显示UI元件,用户可以通过环境设置菜单来设置活动触摸输入区域和非活动触摸输入区域。活动触摸输入区域可以指其中控制器190可以响应于用户的触摸输入而作为用户输入处理该触摸输入的区域。另一方面,非活动触摸输入区域可以指其中控制器190可以响应于用户的触摸输入而控制忽略或丢弃该触摸输入的区域。例如,响应于请求通过环境设置菜单来设置活动侧显示区域,用户可以如图13的视图1310所示的通过选择侧显示区域1312的1312-1和1312-2部分来设置活动触摸输入区域。然后,如图13的视图1320所示的,控制器190可以突出侧显示区域1312中被指定为活动触摸输入区域的区域1312-1和1312-2。在另一示例性实施例中,控制器190可以指定侧显示区域1312中由用户选择的区域作为非活动触摸输入区域。当用户如上所述地通过环境设置菜单在侧显示区域中指定在其中触摸输入能够被处理的区域,控制器190可以在除了被具有固定器的盖子覆盖的侧显示区域之外的区域上显示UI元件。在图13中,用户在电子设备100的右侧显示区域中设置活动触摸输入区域和非活动触摸输入区域。然而,用户可以在电子设备100的左侧显示区域中或者电子设备100的两侧显示区域中设置活动触摸输入区域和非活动触摸输入区域。
可以通过用户执行以下操作来设置活动触摸输入和非活动触摸输入区域:滑动他们的手指跨过所期望的区域,选择或触摸侧显示区域1312的预定单元中的一个或多个区域,在侧显示区域1312的预定单元中的一个或多个区域中执行触摸和保持,和/或执行其它触摸手势来选择侧显示区域1312的所期望的区域。
参照图14,在用户握持电子设备100的状态下,传感器190可以以不同方式来检测前显示区域1411上的触摸输入和侧显示区域1412上的触摸输入。例如,传感器190可以使用触摸传感器来检测前显示区域上的用户的触摸输入。另一方面,由于在侧显示区域1412中发生由用户的触摸导致的故障的概率很高,因此传感器190可以使用触摸传感器和压力传感器来检测侧显示区域上的触摸输入。例如,响应于用户触摸侧显示区域1412上的UI元件并且使用比预定压力更高的压力来按压该UI元件,控制器190可以确定UI元件被选择并且执行与UI元件相关的功能。
根据另一示例性实施例,当如图14所示在侧显示区域1412上显示多个UI元件时,控制器190可以使用触摸传感器来检测一些UI元件1412-1并且使用触摸传感器和压力传感器来检测其它UI元件1412-2。例如,在UI元件1412-2被给定高优先级的情况下,响应于通过传感器180检测到触摸输入以及使用比预定压力更高的压力来按压UI元件的用户输入,控制器190可以执行与UI元件相关的功能。另一方面,在UI元件1412-1被给定低优先级的情况下,响应于通过传感器180检测到触摸输入,控制器190可以执行与元件相关的功能。
可以将使用触摸传感器检测的UI元件1412-1以及使用触摸传感器和压力传感器检测的UI元件1412-2彼此区分并且显示。例如,可以以2D图形显示使用触摸传感器检测的UI元件1412-1,而可以以3D图形显示使用触摸传感器和压力传感器检测的UI元件1412-2以便使用户感觉好像可以按压UI元件1412-2。
在如图15的视图1510所示的将具有两侧表面上的显示区域的电子设备100放置在地板上或者固定在支架中的状态下,控制器190可以在侧显示区域1512和1513两者上显示至少一个UI元件。在这种情况下,可以在侧显示区域1512和1513两者的某区域上显示UI元件。在这种状态下,响应于检测到UI元件上的触摸输入,控制器190可以执行与UI元件相关的功能。
如图15的视图1520所示,用户可以握持具有两侧表面上的显示区域1512和1513的电子设备100。在这种情况下,控制器190可以使用由加速度传感器获取的信息以及由接近传感器获取的信息来确定电子设备100是否被握持。在如图15的视图1520所示的电子设备100被握持的状态下,在用户的拇指位于侧显示区域1513-1和1513-2两者中并且用户的手指位于1512中的情况下,控制器190可以作为用户输入处理区域1513-1上的触摸输入。例如,响应于在用户的拇指位于的区域1513-1上检测到选择UI元件的用户输入,控制器190可以执行与UI元件相关的功能。另一方面,控制器190可以控制忽略侧显示区域1512和1513两者中除了用户的拇指位于的区域1513-1之外的区域1512和1513-2上的触摸输入。例如,控制器190可以控制在除了用户拇指位于的区域1513-1之外的区域1512和1513-2上不显示任何UI元件。
在另一示例性实施例,当如图16所示的用户握持具有中央显示1611和侧表面显示区域1612和1613的电子设备100时,控制器190可以作为用户输入处理侧显示区域1612和1613两者中用户的拇指位于的区域1612-1和用户的食指位于的区域1613-1上的触摸输入或者使用比预定压力更高的压力按压的触摸输入。例如,控制器190可以在用户的拇指位于的区域1612-1和用户的食指位于的区域1613-1上提供UI元件,并且,响应于选择UI元件的用户输入,控制器190可以执行与UI元件相关的功能。
图17说明用户设置侧显示区域1712的活动触摸输入区域和非活动触摸输入区域的方法的另一个示例。例如,在具有中央显示区域1711的电子设备100进入侧显示区域1712的指定模式的状态下,传感器180可以检测如图17的视图1710所示的通过触摸或使用触笔来选择侧显示区域1712的区域1712-1的用户输入。响应于用户输入,控制器190可以将通过触摸或使用触笔所选择的区域1712-1确定作为能够显示UI元件的活动触摸输入区域。根据另一示例性实施例,控制器190可以将通过触摸或使用触笔所选择的区域确定作为触摸输入被忽略的区域。
根据另一示例性实施例,控制器190可以通过考虑用户的握持习惯来指定侧显示区域1712的活动触摸输入区域。例如,控制器190可以周期性地获取侧显示区域1712中用户使用用户的拇指触摸的位置,并且在存储部件150中存储该位置,并且控制器190可以将用户重复触摸多于预定次数的区域确定作为活动触摸输入区域。
响应于在如图17的视图1720所示的确定活动触摸输入区域的状态下握持电子设备100,控制器190可以控制显示器130在侧显示区域1712的活动触摸输入区域1712-1上显示UI元件。
在如图18A的视图1810所示的电子设备100被握持的状态下,控制器190可以控制显示器130在侧显示区域的第一区域1813上显示UI元件1812-1和1812-2。在这种情况下,在第一区域1813上显示的UI元件1812-1和1812-2可以是用户频繁使用的UI元件、预先指定的UI元件、或者被给定高优先级的UI元件。第一区域1813可以是控制器190作为用户输入处理触摸输入的区域。此外,第二区域1814可以是控制器190控制忽略触摸输入的区域。在这种情况下,可以以不同的基础颜色来显示第一区域1813和第二区域1814或者第一区域1813和第二区域1814可以具有不同的暗度以彼此区分,或者可以突出第一区域1813。
接着,在如图18A的视图1820所示的用户继续握持电子设备100的状态下,传感器180可以检测在侧显示区域1812中沿着纵向侧执行从底部到顶部的触摸和拖动手势或轻弹手势的用户输入。响应于该用户输入,控制器190可以控制显示器130将新UI元件1812-3添加到第一区域1813上。在这种情况下,可以未在前显示区域1811或侧显示区域1812上显示过新UI元件1812-3,并且新UI元件1812-3可以突然出现。可替换地,可以在前显示区域1811上已经显示过新UI元件1812-3,并且将新UI元件1812-3移动到第一区域1813。此外,新UI元件1812-3可以已经以非活动状态存在于侧显示区域1812的第二区域1814中,并且被移动到第一区域1813。
接着,在如图18B的视图1830所示的用户继续握持电子设备100的状态下,传感器180可以检测在侧显示区域1812中沿着纵向侧执行从顶部到底部的触摸和拖动手势或轻弹手势的用户输入。响应于该用户输入,控制器190可以控制显示器130如图18B的视图1840所示的移除一个UI元件1812-3。作为移除的结果,可以将UI元件1812-3删除、移动到前显示区域1811、或者移动到触摸输入被忽略的第二区域1814。响应于将UI元件1812-3移动到第二区域1814,可以改变UI元件1812-3的暗度或色度。
在如图18B的视图1840所示的用户继续握持电子设备100的状态下,传感器180可以检测选择UI元件1812-2的用户输入。例如,用户输入可以是触摸UI元件1812-2的触摸手势、朝着前显示区域1811拖动UI元件1812-2的拖动手势或者倾斜电子设备100的倾斜手势中的一个。
在如图19的视图1910所示的用户继续握持电子设备100的状态下,控制器190可以控制激活侧显示区域1912的第一区域1912-1并且停用侧显示区域1912的第二区域1912-2。在这种情况下,可以在激活的第一区域1912-1上显示UI元件。在如图19的视图1920所示的用户翻转并且握持电子设备100的状态下,控制器190可以控制停用侧显示区域1912的整体。响应于停用侧显示区域1912,用户可以在使用用户的四个手指固定电子设备100的同时使用用户的拇指来控制前显示区域1911上的UI元件。
在如图20的视图2010所示的具有显示2011的电子设备100被握持的状态下,控制器190可以控制激活侧显示区域2012的第一区域2013并且停用侧显示区域2012的第二区域2014。在这种情况下,可以在激活的第一区域2013上显示UI元件2012-1。在这种状态下,传感器180可以检测触摸UI元件2012-1并且随后从顶部拖动或轻弹到底部的用户输入。换言之,传感器180可以检测将UI元件2012-1移动到停用的第二区域2014的用户输入。响应于该用户输入,控制器190可以控制显示器130在第二区域2014上显示停用的UI元件2012-1。在这种状态下,停用的UI元件2012-1可以具有比它被停用之前更低的暗度或色度。此后,在用户从侧显示区域2012的第二区域2014拖动或轻弹到第一区域2013、将电子设备100放置在地板上或者将电子设备100固定在支架中时,可以激活停用的UI元件2012-1。
根据示例性实施例,当用户握持具有显示区域2111和侧显示区域2112的电子设备100时,可能无意地触摸侧显示区域上的UI元件。在这种状态下,用户可以如图21所示的水平倾斜电子设备100来取消UI元件的选择。响应于用户的倾斜手势,控制器190可以取消与UI元件相关的功能的执行。此外,在取消执行时,控制器190可以停用侧显示区域2112,使得侧显示区域2112上的触摸输入被忽略。为了再次激活侧显示区域2112,用户可以再次水平倾斜电子设备100、在预定时间内触摸和保持侧显示区域2112、或者沿着侧显示区域2112的纵向侧拖动。
图22A至图36是示出根据示例性实施例的在电子设备100中显示应用执行屏幕的过程的视图。
根据示例性实施例,在侧显示区域上显示UI元件时,传感器180可以检测触摸UI元件并且然后朝着前显示区域拖动的用户输入。响应于该用户输入,控制器190可以在前显示区域上显示与UI元件相关的信息。例如,当UI元件是应用标识信息时,与UI元件相关的信息可以是与应用标识信息对应的应用的执行屏幕。在这种情况下,朝着前显示区域拖动的用户输入可以是前显示区域上的对角线方向或拱形的方向。这样的用户输入可以向用户提供更直观和更有情感的交互。
参照图22A的视图2210,电子设备100可以控制显示器130在侧显示区域2212上显示应用标识信息列表。在显示应用标识信息时,传感器180可以检测触摸被包括在应用标识信息列表中的一条应用标识信息2212-1并且然后在仍然触摸的同时在一个方向上拖动的用户输入。所述一个方向可以是其中拖动从侧显示区域2212的触摸位置开始并且以对角线方向跨越前显示区域2211的方向。响应于用户输入,控制器190可以控制显示器130逐渐增大与应用标识信息对应的应用执行屏幕的大小并且显示应用执行屏幕,如图22A的视图2220至图22B的视图2240所示。在这种情况下,逐渐增大的应用执行屏幕的大小可以与对角线方向上用户的拖动手势的长度对应。此外,随着应用执行屏幕的大小增大,被包括在应用执行屏幕中的信息量可能增加。例如,当一条应用标识信息2212-1是音乐应用的图标时,被包括在图22A的视图2220中的应用执行屏幕的信息可以是歌曲标题,被包括在图22B的视图2230中的应用执行屏幕中的信息可以是歌曲标题和缩略图,并且被包括在图22B的视图2240中的应用执行屏幕中的信息可以是歌曲标题、缩略图和菜单中的至少一个。
参照图23A的视图2310,电子设备100可以控制显示器130在侧显示区域2312上显示应用标识信息列表。在显示应用标识信息列表时,传感器180可以检测触摸被包括在应用标识信息列表中的一条应用标识信息2312-1、在仍然触摸的同时在一个方向上拖动并且然后在与一个方向相反的方向上再次拖动的用户输入。例如,所述一个方向可以是其中拖动从侧显示区域2312的触摸位置开始并且以对角线方向跨越前显示区域2311的方向。响应于用户输入,控制器190可以控制显示器130来显示应用执行屏幕,同时逐渐增大与应用标识信息对应的应用执行屏幕的大小,然后逐渐减小应用执行屏幕的大小,如图23A的视图2320至图23B的视图2340所示。此外,随着应用执行屏幕的大小增大,被包括在应用执行屏幕中的信息量可能增大并且然后减小。例如,当一条应用标识信息2312-1是信使应用的图标时,被包括在图23A的视图2320和图23B的视图2340中的应用执行屏幕中的信息可以是被包括在消息中的文本,并且被包括在图23B的视图2330中的应用执行屏幕中的信息可以是被包括在消息中的文本、图像和输入字段中的至少一个。如上所述,响应于诸如通过电子设备100接收消息的通知信息,用户可以通过触摸和拖动手势简单地识别与通知信息相关的详细内容。应用执行屏幕的大小的增大和减小可以与由用户的拖动触摸输入所行进的距离成正比。
参照图24A的视图2410,电子设备100可以控制显示器130在侧显示区域2412上显示应用标识信息列表。在显示应用标识信息列表时,传感器180可以检测触摸被包括在应用标识信息列表中的一条应用标识信息2412-1、在仍然触摸的同时在一个方向上拖动并且然后在与一个方向相反的方向上再次拖动的用户输入。例如,所述一个方向可以是拖动从侧显示区域2412的触摸位置开始并且移动到前显示区域2411的水平方向。响应于用户输入,控制器190可以控制显示器130逐渐增大与应用标识信息对应的应用执行屏幕的大小、逐渐减小应用执行屏幕的大小并且然后使应用执行屏幕消失,如图24A的视图2420至图24B的视图2440所示。例如,当一条应用标识信息2412-1是信使应用的图标时,控制器190可以控制显示器130来增大从另一用户发送的消息的内容、减小内容并且然后使内容消失。在这种情况下,当消息是一次性通知信息时,一条应用标识信息2412-1可以随着消息消失而从侧显示区域2412消失。
根据另一示例性实施例,在图25A的视图2510中,控制器190可以控制显示器130响应于如图24A的视图2420所示的用户的触摸和拖动而在前显示区域2511上显示消息。接着,传感器180可以从用户的触摸和拖动检测在垂直方向上(例如,向下方向)连续拖动的用户输入。响应于用户输入,控制器190可以控制显示器130如图25A的视图2520所示的显示包括先前所接收的消息的屏幕。接着,传感器180可以检测朝着侧显示区域2512拖动包括先前所接收的消息的屏幕的用户输入。响应于用户输入,控制器190可以控制显示器130如图25B的视图2530所示的将包括先前所接收的消息的屏幕移动到侧显示区域2512并且使屏幕消失。此外,控制器190可以控制显示器130如图25B的视图2540所示的显示包括先前所接收的消息的屏幕从其上消失的前显示区域2511。
参照图26的视图2610,在侧显示区域上显示应用标识信息列表时,传感器180可以检测触摸被包括在应用标识信息列表中的一条应用标识信息2612-1并且然后在一个方向上拖动的用户输入。例如,所述一个方向可以是拖动从侧显示区域的触摸位置开始并且移动到前显示区域的水平方向。响应于用户输入,控制器190可以控制显示器130在前显示区域2611上显示与应用标识信息对应的应用执行屏幕。例如,当一条应用标识信息2612-1是信使应用的图标时,控制器190可以控制显示器130显示包括一至三行的文本的屏幕2611-1。接着,传感器180可以检测在仍然保持前显示区域2611上的先前拖动的同时在垂直方向上(例如,向下方向)连续拖动的用户输入。响应于用户输入,参照图26的视图2620所示,控制器190可以控制显示器130在前显示区域2611上显示包括更多消息内容的屏幕2611-2。例如,当包括一至三行的文本的屏幕2611-1包括关于消息的接收或消息的标题的信息时,包括更多消息内容的屏幕2611-2可以是消息的主文本、被附接到消息上的内容或者被附接到消息上的内容的信息中的至少一个。
参照图27A的视图2710,在前显示区域2711上显示包括一至三行的文本的屏幕2711-1时,传感器180可以检测将用户的手指移开的用户输入。接着,参照图27A的视图2720和图27B的视图2730所示,传感器180可以检测触摸被包括在侧显示区域2712的应用标识信息列表中的一条应用标识信息2712-1并且然后在一个方向上拖动的用户输入。响应于用户输入,控制器190可以控制显示器130将包括一至三行的文本的现有屏幕2711-1移除并且显示与新选择的一条应用标识2712-1对应的应用执行屏幕2711-2。
参照图28A的视图2810,在侧显示区域2812上显示应用标识信息列表时,传感器180可以检测触摸被包括在应用标识信息列表中的一条应用标识信息2812-1并且朝着前显示区域2811拖动的用户输入。响应于用户输入,控制器190可以控制显示器130在前显示区域2811上显示与一条应用标识信息2812-1对应的一个应用执行屏幕2811-1。接着,传感器180可以检测触摸被包括在应用标识信息列表中的另一条应用标识信息2812-2并且朝着前显示区域2811拖动的用户输入。响应于用户输入,控制器190可以控制显示器130在前显示区域2811上显示与另一条应用标识信息2812-2对应的另一应用执行屏幕2811-2的至少一部分,如图28A的视图2820所示。在这种情况下,一个应用执行屏幕2811-1的至少一部分可以与另一应用执行屏幕2811-2重叠。在这种情况下,在保持用户输入的触摸的状态下,控制器190可以控制显示器130显示其中应用执行屏幕2811-1和2811-2彼此重叠或者将另一应用执行屏幕2811-2作为半透明屏幕的区域。接着,传感器180可以检测移除正在预定位置上保持的触摸的用户输入。在这种情况下,预定位置可以在前显示区域2811的中心区域中。例如,中心区域可以是从前显示区域2811的中心到从前显示区域2811的中心垂直延伸的侧边的距离的1/3以内的区域。响应于用户输入,控制器190可以控制显示器130将一个应用执行屏幕2811-1和另一应用执行屏幕2811-2进行组合并且将所组合的屏幕显示为单个屏幕,如图28B的视图2830所示。
根据另一示例性实施例,参照图28C的视图2840,在前显示区域2811上显示一个应用执行屏幕2811-1时,传感器180可以检测触摸被包括在应用标识信息列表中的另一条应用标识信息2812-2并且朝着前显示区域2811拖动的用户输入。响应于用户输入,控制器190可以控制显示器130在前显示区域2811上显示与另一条应用标识信息2812-2对应的另一应用执行屏幕2811-2的至少一部分,如图28C的视图2850所示。接着,传感器180可以检测移除正在预定位置上保持的触摸的用户输入。在这种情况下,预定位置可以是在图28A的视图2820的前显示区域2811的中心区域之外的位置。响应于用户输入,如图28C的视图2860所示,控制器190可以控制显示器130独立地显示一个应用执行屏幕2811-1和另一应用执行屏幕2811-2。
参照图29A的视图2910,显示器130可以在前显示区域2911上显示多个应用执行屏幕2911-1、2911-2和2911-3。在这种情况下,可以突出并且在侧显示区域2912上显示与多个应用执行屏幕2911-1、2911-2和2911-3对应的应用标识信息2912-1、2912-2和2912-3。在这种状态下,传感器180可以检测触摸多个应用的前显示区域2911上的一个应用执行屏幕2911-1的用户输入。响应于用户输入,控制器190可以控制显示器130在最上层显示从多个应用执行屏幕2911-1、2911-2和2911-3中所选择的一个应用执行屏幕2911-1,如图29A的视图2920所示。
根据另一示例性实施例,参照图29B的视图2930,显示器130可以在前显示区域2911上显示多个应用执行屏幕2911-1、2911-2和2911-3。在这种状态下,传感器180可以检测触摸在侧显示区域2912的应用标识信息列表中与一个应用执行屏幕2911-1对应的一条应用标识信息2912-1的用户输入。响应于用户输入,控制器190可以控制显示器130在最上层显示从多个应用执行屏幕2911-1、2911-2和2911-3中所选择的一个应用执行屏幕2911-1,如图29B的视图2940所示。
根据另一示例性实施例,参照图29C的视图2950,显示器130可以在前显示区域2911上显示多个应用执行屏幕2911-1、2911-2和2911-3。在这种状态下,传感器180可以检测触摸在侧显示区域2912的应用标识信息列表中与一个应用执行屏幕2911-1对应的一条应用标识信息2912-1并且然后以水平方向朝着前显示区域2911拖动的用户输入。响应于用户输入,控制器190可以控制显示器130在最上层显示从多个应用执行屏幕2911-1、2911-2和2911-3中所选择的一个应用执行屏幕2911-1,如图29C的视图2960所示。
参照图30的视图3010,显示器130可以在前显示区域3011上显示多个应用执行屏幕3011-1、3011-2和3011-3。在这种状态下,传感器180可以检测触摸侧显示区域3012的应用标识信息列表中的一条应用标识信息3012-4并且然后以对角线方向朝着前显示区域3011拖动的用户输入。响应于用户输入,控制器190可以控制显示器130在前显示区域3011上显示与所选择的一条应用标识信息3012-4对应的应用执行屏幕3011-4,如图30的视图3020所示。
参照图31A的视图3130,显示器130可以在前显示区域3111上显示应用执行屏幕3111-1。在这种状态下,传感器180可以检测触摸在侧显示区域3112的应用标识信息列表中与应用执行屏幕3111-1对应的应用标识信息3112-1的用户输入。响应于用户输入,控制器190可以控制显示器130如图31A的视图3120所示的移除应用执行屏幕3111-1或者最小化并且在前显示区域3111的一侧或侧显示区域3112上显示应用执行屏幕3111-1。
根据另一示例性实施例,参照图31B的视图3130,显示器130可以在前显示区域3111上显示应用执行屏幕3111-1。在这种状态下,传感器180可以检测触摸应用执行屏幕3111-1并且然后朝着侧显示区域3112拖动或轻弹的用户输入。响应于用户输入,控制器190可以控制显示器130如图31B的视图3140所示的移除应用执行屏幕3111-1或者最小化并且在前显示区域3111的一侧或侧显示区域3112上显示应用执行屏幕3111-1。
参照图32A的视图3210,显示器130可以显示侧显示区域3212(例如,辅助显示区域)和在前显示区域3211上显示应用执行屏幕3211-1。在这种状态下,传感器180可以检测两次触摸应用执行屏幕3211-1的上端的用户输入。响应于用户输入,控制器190可以控制显示器130如图32A的视图3220所示的增大应用执行屏幕3211-1的大小并且显示应用执行屏幕3211-1。增大应用执行屏幕3211-1的大小可以指增大屏幕的放大比率或者增大屏幕的大小并且因此包括更多信息。
根据另一示例性实施例,参照图32B的视图3230,显示器130可以在前显示区域3211上显示应用执行屏幕3211-1。在这种状态下,传感器180可以检测触摸应用执行屏幕3211-1的上端并且然后以垂直方向(例如,向上方向)轻弹或拖动的用户输入。响应于用户输入,控制器190可以控制显示器130增大应用执行屏幕3211-1的大小并且显示应用执行屏幕3211-1,如图32B的视图3240所示。
参照图33A的视图3310,显示器130可以显示侧显示区域3312和在前显示区域3311上显示应用执行屏幕3311-1。在这种状态下,传感器180可以检测两次触摸或双击应用执行屏幕3311-1的上端的用户输入。响应于用户输入,控制器190可以控制显示器130如图33A的视图3320所示的减小应用执行屏幕3311-1的大小并且显示应用执行屏幕3311-1。减小应用执行屏幕3311-1的大小可以指减小屏幕的放大比率或者减小屏幕的大小并且因此包括较少信息。
根据另一示例性实施例,参照图33B的视图3330,显示器130可以在前显示区域3311上显示应用执行屏幕3311-1。在这种状态下,传感器180可以检测触摸应用执行屏幕3311-1的上端并且然后以垂直方向(例如,向下方向)轻弹或拖动的用户输入。响应于用户输入,控制器190可以控制显示器130增大应用执行屏幕3311-1的大小并且显示应用执行屏幕3311-1,如图33B的视图3340所示。
参照图34A的视图3410,显示器130可以显示侧显示区域3412和在前显示区域3411上显示应用执行屏幕3411-1。在这种状态下,传感器180可以检测在应用执行屏幕3411-1的角的上方悬停并且然后拖动的用户输入。响应于用户输入,控制器190可以控制显示器130如图34A的视图3420所示的与拖动的长度成正比地增大应用执行屏幕3411-1的大小并且显示应用执行屏幕3411-1。例如,当用户的拖动移动到前显示区域3411的角或接近该角时,应用执行屏幕3411-1的大小可以增大到对应于前显示区域3411的实际大小(full size)。
根据另一示例性实施例,参照图34B的视图3430,显示器130可以在前显示区域3411上显示应用执行屏幕3411-1。在这种状态下,传感器180可以检测在应用执行屏幕3411-1的角的上方悬停的用户输入。响应于用户输入,控制器190可以控制显示器130在悬停位置上显示用于调整应用执行屏幕3411-1的大小的UI元件3411-2。当显示UI元件3411-2时,传感器180可以检测在仍然悬停的同时拖动的用户输入。响应于用户输入,控制器190可以控制显示器130与拖动的长度成正比地增大或减小应用执行屏幕3411-1的大小并且显示应用执行屏幕3411-1。另一方面,当显示UI元件时,传感器180可以检测触摸UI元件的用户输入。在这种情况下,控制器190可以控制显示器130如图34B的视图3440所示的显示应用执行屏幕3411-1以对应于前显示区域3411的全大小。
参照图35A的视图3510,显示器130可以在前显示区域3511上显示应用执行屏幕3511-1。在这种状态下,传感器180可以检测触摸应用执行屏幕3511-1的上端并且在预定时间内(例如,1或2秒)保持该触摸的用户输入。根据另一示例性实施例,传感器180可以检测触摸在侧显示区域3512上与应用执行屏幕3511-1对应的应用标识信息3512-1并且在预定时间内(例如,1或2秒)保持该触摸的用户输入。响应于用户输入,显示器130可以如图35A的视图3520所示的在前显示区域3511上显示询问是否结束应用执行屏幕3511-1的UI元件3511-2。响应于确认结束应用执行屏幕3511-1的用户输入,控制器190可以从前显示区域3511移除应用执行屏幕3511-1。
根据另一示例性实施例,参照图35B的视图3530,显示器130可以在前显示区域3511上显示应用执行屏幕3511-1。在这种状态下,传感器180可以检测触摸应用执行屏幕3511-1的一个点并且然后以斜向方向拖动的用户输入。根据另一示例性实施例,传感器180可以检测触摸应用执行屏幕3511-1的一个点并且然后朝着侧显示区域3512拖动的用户输入。响应于用户输入,显示器130可以如图35B的视图3540所示的在前显示区域3511上显示询问是否结束应用执行屏幕3511-1的UI元件3511-2。响应于确认结束应用执行屏幕3511-1的用户输入,控制器190可以从前显示区域3511移除应用执行屏幕3511-1。
参照图36的视图3610,显示器130可以在前显示区域3611上显示应用执行屏幕3611-1。在这种情况下,可以在应用执行屏幕3611-1的一侧上显示用于控制应用执行屏幕3611-1的UI元件3611-2。例如,可以以表示应用执行屏幕3611-1的图标的形式来显示UI元件3611-2,并且UI元件3611-2可以帮助用户容易知道应用执行屏幕3611-1的种类。具体地,在应用执行屏幕没有上端栏时,可以选择性地显示UI元件3611-2。用户可以使用UI元件3611-2来执行各种交互以控制应用执行屏幕3611-1。例如,响应于用户触摸UI元件3611-2并且然后拖动,可以移动应用执行屏幕3611-1。此外,响应于用户双击UI元件3611-2,可以放大应用执行屏幕3611-1。此外,响应于用户触摸UI元件3611-2并且然后朝着侧显示区域3612拖动,控制器190可以控制显示器130如图36的视图3620所示的不显示应用执行屏幕3611-1。如上所述,在用户使用UI元件3611-2而不使用上端栏来控制应用执行屏幕3611-1时,可以在删除上端栏时为用户提供包括更多信息的应用执行屏幕3611-1。
图37至48是示出根据示例性实施例的使用电子设备100的前表面和侧表面进行交互的视图。
根据示例性实施例,传感器180可以检测在选择前显示区域的同时在侧显示区域上拖动的用户输入。响应于用户输入,控制器190可以控制与被包括在前显示区域中的图像内容相关的信息。例如,控制器190可以通过考虑拖动的长度来调整图像内容的大小、调整图像内容的一部分的大小或者调整与图像内容相关的音量。如所描述的,通过在前显示区域和侧显示区域上同时或连续地执行多个触摸,可以提高用户使用具有弯曲显示器的电子设备100的方便性。此外,用户可以通过一起使用前显示区域和侧显示区域的各种交互来容易并且直观地操纵电子设备100。
参照图37的视图3710,控制器190可以执行电子书应用或文件编辑应用,并且控制显示器130在前显示区域3711上显示包括图像内容3711-1(例如,图像或移动图像)的文件。此外,控制器190可以控制显示器130在侧显示区域3712上显示用于控制图像内容3711-1的UI元件3712-1(例如,可沿侧显示区域3712的纵向侧移动的调节按钮)。在这种状态下,传感器180可以检测在触摸前显示区域3711的图像内容3711-1的同时触摸侧显示区域3712的UI元件3712-1并且然后沿着纵向侧拖动的用户输入。响应于用户输入,控制器190可以控制显示器130如图37的视图3720所示的显示包括其大小已经改变的图像内容3711-1的文件。图像内容3711-1的大小可以与关于UI元件3712-1的拖动的长度或拖动方向成正比。例如,响应于UI元件3712-1向下移动,可以减小图像内容3711-1的大小。另一方面,响应于UI元件3712-1向上移动,可以增大图像内容3711-1的大小。
参照图38的视图3810,控制器190可以执行像册应用或照片编辑应用并且控制显示器130在前显示区域3811上显示图像内容(例如,图像)。此外,控制器190可以控制显示器130在侧显示区域3812上显示用于控制图像内容3811-1的UI元件3812-1。在这种状态下,传感器180可以检测在触摸前显示区域3811的图像内容的一个对象3811-1的同时触摸侧显示区域3812的UI元件3812-1并且然后沿着纵向侧拖动的用户输入。图像内容的一个对象3811-1可以是图像内容的一部分或者被添加以编辑图像内容的单独的对象(例如,语音泡、图标等)。响应于用户输入,控制器190可以控制显示器130如图38的视图3820所示的显示其大小已经改变的对象3811-1。在这种情况下,对象3811-1的大小可以与关于UI元件3812-1的拖动的长度或拖动方向成正比。例如,响应于UI元件3812-1向下移动,可以减小对象3811-1的大小。另一方面,响应于UI元件3812-1向上移动,可以增大对象3811-1的大小。
参照图39的视图3910,控制器190可以执行相机应用并且控制显示器130在前显示区域3911上显示预览图像。此外,控制器190可以控制显示器130在侧显示区域3912上显示用于控制图像内容的UI元件3912-1(例如,可沿侧显示区域3912的纵向侧移动的调节按钮)。在这种状态下,传感器180可以检测在触摸前显示区域3911的预览图像的一个点3911-1的同时触摸侧显示区域3912的UI元件3912-1并且然后沿着纵向侧拖动的用户输入。响应于用户输入,控制器190可以控制显示器130如图39的视图3920所示的显示关于一个点3911-1对焦的预览图像。在这种情况下,与关于UI元件的拖动的长度或拖动方向成正比,关于一个点3911-1对焦的精确度可以变化。
参照图40的视图4010,控制器190可以执行相机应用并且控制显示器130在前显示区域4011上显示预览图像。此外,控制器190可以控制显示器130在侧显示区域4012上显示用于控制图像内容的UI元件4012-1。在这种状态下,传感器180可以检测触摸预览图像的一个点4011-1并且多触摸侧显示区域4012的UI元件4012-1并且然后拖动以移动用户的两个手指进一步分开的用户输入。响应于用户输入,控制器190可以控制显示器130如图40的视图4020所示的调整相邻图像关于一个点4011-1的失焦的程度。例如,与两个手指之间的距离成正比,可以改变相邻图像关于一个点4011-1的清晰度或模糊的程度。
参照图41的视图4110,控制器190可以执行相机应用并且控制显示器130在前显示区域4111上显示预览图像。此外,控制器190可以控制显示器130在侧显示区域4112上显示用于控制图像内容的UI元件4112-1。在这种状态下,传感器180可以检测触摸前显示区域4111的预览图像的一个点4111-1并且触摸侧显示区域4112的UI元件4112-1并且然后沿着纵向侧拖动的用户输入。响应于用户输入,控制器190可以控制显示器130如图41的视图4120所示的关于一个点4111-1放大或缩小预览图像。
参照图42的视图4210,控制器190可以控制显示器130在前显示区域4211上显示包括图像内容4211-1(例如,图像或移动图像)的文件。在这种状态下,传感器180可以检测在触摸前显示区域4211上的图像内容4211-1的同时触摸侧显示区域4212并且然后沿着纵向侧拖动的用户输入。
响应于用户输入,控制器190可以控制显示器130在侧显示区域4212上显示用于快速控制所选择的图像内容4211-1的UI元件,如图42的视图4220所示。在侧显示区域4212上显示的UI元件可以是能够编辑图像内容的UI元件、能够向其他人发送图像内容4211-1的UI元件、或者能够存储图像内容4211-1的UI元件中的至少一个。
参照图43的视图4310,控制器190可以控制显示器130在前显示区域4311上显示包括图像内容4311-1(例如,图像或移动图像)的文件。此外,控制器190可以控制显示器130在侧显示区域4312上显示用于控制图像内容4311-1的UI元件。在这种状态下,传感器180可以检测在触摸前显示区域4311上的图像内容4311-1的同时触摸侧显示区域4312的一个UI元件4312-1并且然后沿着短侧拖动的用户输入。
响应于用户输入,控制器190可以控制显示器130在前显示区域4311上显示与一个UI元件4312-1对应的功能或应用执行屏幕,如图43的视图4320所示。例如,当一个UI元件4312-1是电子邮件应用的图标时,在前显示区域4311上显示的应用执行屏幕可以是包括作为附件的图像内容4311的电子邮件撰写屏幕。
参照图44的视图4410,控制器190可以执行电话呼叫应用并且控制显示器130在前显示区域4411上显示示出了用户正在与其他人进行视频呼叫的屏幕。此外,控制器190可以控制显示器130在侧显示区域4412上显示用于控制图像内容的UI元件4412-1。在这种状态下,传感器180可以检测从前显示区域4412上的其他人的标识信息中选择一个人4411-1的标识信息并且触摸侧显示区域4412上的UI元件4412-1并且然后沿着纵向侧拖动的用户输入。响应于用户输入,控制器190可以控制扬声器170对所选择的一个人改变呼叫音量,如图44的视图4420所示。此外,控制器190可以控制显示器130显示指示呼叫音量的改变的对象4411-2。
参照图45的视图4510,控制器190可以控制显示器130在前显示区域4511上显示包括多个对象的屏幕。在这种情况下,多个对象可以提供不同声音。例如,对象可以提供不同乐器声音,诸如钢琴声音或小提琴声音、或不同人声。此外,控制器190可以控制显示器130在侧显示区域4512上显示用于控制图像内容的UI元件4512-1。在这种状态下,传感器180可以检测从前显示区域4511上的多个对象中选择一个对象4511-1并且触摸侧显示区域4512上的UI元件4512-1并且然后沿着纵向侧拖动的用户输入。响应于用户输入,控制器190可以控制扬声器170改变从所选择的对象输出的声音的音量,如图45的视图4520所示。此外,控制器190可以控制显示器130显示指示声音的音量的改变的对象4511-2。
参照图46的视图4610,控制器190可以执行媒体应用并且控制显示器130在前显示区域4611上显示图像内容(例如,移动图像)以及用于控制图像内容的UI元件4611-1。例如,UI元件4611-1可以是与图像内容的重放相关的UI元件,并且用户可以使用UI元件4611-1来执行调整图像内容的停止、图像内容的暂停、图像内容的开始或图像内容的重放时间的功能。此外,控制器190可以控制显示器130在侧显示区域4612上显示用于控制图像内容的UI元件4612-1。在这种状态下,传感器180可以检测选择UI元件4611-1以调整图像内容的重放时间并且触摸侧显示区域4612上的UI元件4612-1并且然后沿着纵向侧拖动的用户输入。响应于用户输入,控制器190可以控制显示器130微小地调整图像内容的重放时间(例如,1至10秒)并且显示图像内容,如图46的视图4620所示。
参照图47的视图4710,控制器190可以控制显示器130在前显示区域4711上显示3D对象。此外,控制器190可以控制显示器130在侧显示区域4712上显示用于控制图像内容的UI元件4712-1。在这种状态下,传感器180可以检测从3D对象中选择一个对象4711-1并且触摸侧显示区域4712上的UI元件4712-1并且然后沿着纵向侧拖动的用户输入。响应于用户输入,控制器190可以控制显示器130改变所选择的对象4711-1的深度并且显示对象4711-1,如图47的视图4720所示。
参照图48的视图4810,控制器190可以控制显示器130在前显示区域4811上显示3D对象。此外,控制器190可以控制显示器130在侧显示区域4812上显示用于控制图像内容的UI元件4812-1。在这种状态下,传感器180可以检测从前显示区域4812上的3D对象中选择一个对象4811-1并且多触摸侧显示区域4812上的UI元件4812-1并且然后拖动以移动用户的两个手指进一步分开的用户输入。响应于用户输入,控制器190可以控制显示器130改变所选择的对象4811-1的大小并且显示对象4811-1,如图48的视图4820所示。
图49至图54是示出根据示例性实施例的电子设备100对于每个显示区域具备不同电容的过程的视图。
根据示例性实施例,控制器190可以控制传感器180根据弯曲显示器的盖子是打开还是关闭来具备不同的电容。
图49是示出传感器180以不同方式提供电容以在弯曲显示区域上接收用户输入的示例性实施例的视图。例如,如图49的视图4910所示,传感器180可以提供比预定值更高的电容以检测在弯曲显示器的透明盖子上方的用户的悬停手势。可替换地,如图49的视图4920所示,传感器180可以提供比预定值更低的电容以检测在弯曲显示器的透明盖子上的用户的触摸手势。可替换地,如图49的视图4930所示,传感器180可以提供比图49的视图4920的电容更低的电容以检测在未被透明盖子覆盖的弯曲显示器上的用户的触摸手势。
根据另一示例性实施例,控制器190可以控制传感器180根据显示区域来具备不同的电容。可以将用于根据显示区域提供不同电容的方法应用于触摸传感器和笔识别传感器两者。例如,可以将该方法应用于所有的电容式触摸和笔触摸结合方法、电容式触摸和EMR笔识别结合方法、以及触摸和笔集成的C-笔(C-pen)方法。根据另一示例性实施例,输入识别或输入的处理可以基于显示区域的电容。电容的阈值或预定值可以被用于基于所检测的电容是否大于或小于阈值或预定值来检测输入、处理输入并且执行功能。
参照图50A,在盖子覆盖电子设备100的弯曲显示区域的整体时,前显示区域与盖子之间的距离h1以及侧显示区域与盖子之间的距离h2可以是不同的。这可以是因为盖子的覆盖形状是不同的。例如,在与侧显示区域对应的盖子以曲面的形状覆盖时,侧显示区域与盖子之间的距离可能增大。在这种情况下,在将相同电容应用于前显示区域和侧显示区域时,用户可以感觉到两个区域之间的触摸灵敏度的差异。
因此,控制器190可以控制传感器180根据弯曲显示区域来具备不同电容,使得两个区域具有相同或相似的触摸灵敏度。换言之,控制器190可以向前显示区域和侧显示区域提供不同电容。例如,控制器190可以为侧显示区域提供比前显示区域的电容更高的电容。
在另一示例中,在如图50B所示的盖子覆盖电子设备100的前显示区域并且将相同的电容应用于前显示区域和侧显示区域时,存在两个区域之间的触摸灵敏度的差异。换言之,前显示区域的触摸灵敏度可能比侧显示区域的触摸灵敏度更低。因此,控制器190可以向前显示区域和侧显示区域提供不同电容,使得两个区域具有相同或相似的触摸灵敏度。例如,控制器190可以为侧显示区域提供比前显示区域的电容更低的电容。
参照图51,在其中前表面和后表面上的触摸输入都是可能的电子设备100中,控制器190可以根据电子设备100的状态、定向或姿势向不同显示区域提供不同电容。例如,在如图51的视图5110所示的电子设备100的前表面位于用户的前面时,控制器190可以向电子设备100的前表面5111提供比预定值更大的电容以使得可以检测前表面5111上的用户触摸,并且向电子设备100的后表面5112提供比预定值更低的电容或者可以不提供电容以使得不检测后表面5112上的用户触摸。因此,在用户握持电子设备100时,可以减少或消除由电子设备100的后表面5112上的触摸所导致的故障。可替换地,在如图51的视图5120所示的电子设备100的后表面位于用户的前面时,控制器190可以向电子设备100的后表面5112提供比预定值更大的电容以使得可以检测后表面5112上的用户触摸,并且向电子设备100的前表面5111提供比预定值更低的电容或者可以不提供电容以使得不检测前表面5111上的用户触摸。因此,在用户握持电子设备100时,可以减少或消除由电子设备100的前表面5111上的触摸所导致的故障。
参照图52,在具有柔性显示器的电子设备100中,控制器190可以根据柔性显示器的区域来提供不同的电容。例如,频繁执行用户触摸的区域5211和5212中的电容可以高于其它区域5213的电容。因此,频繁执行触摸的区域5211和5212的触摸灵敏度高于其它区域5213的触摸灵敏度,并且用户可以容易地操纵柔性显示器。
参照图53,控制器190可以提供菜单以调整弯曲显示区域的触摸灵敏度。例如,在如图53的视图5310所示的显示区域是被划分成前显示区域和侧显示区域的弯曲显示器区域时,控制器190可以如图53的视图5320所示的通过触摸灵敏度调整菜单5322来提供指示弯曲显示区域的形状的图形5321。在这种情况下,菜单5322可以显示用于调整触摸灵敏度的UI元件5322-1、用于选择手指触摸灵敏度作为将要被调整的触摸灵敏度的UI元件5322-3以及用于选择笔触摸灵敏度作为将要被调整的触摸灵敏度的UI元件5322-2中的至少一个。在这种状态下,用户可以使用用于调整每个显示区域的触摸灵敏度的UI元件5322-1来调整弯曲显示器的每个区域的触摸灵敏度。例如,用户可以触摸并且拖动指示弯曲显示器的各个区域的触摸灵敏度的图形之一。作为调整的结果,控制器190可以控制显示器130显示指示已经调整了弯曲显示区域的一个区域的触摸灵敏度的屏幕,如图53的视图5330所示。
参照图54,控制器190可以提供菜单以调整柔性显示区域的触摸灵敏度。例如,在如图54的视图5410所示的显示区域是柔性显示区域时,控制器190可以如图54的视图5420所示的通过触摸灵敏度调整菜单来提供指示柔性显示区域的形状的图形5421。在这种情况下,菜单可以显示用于调整触摸灵敏度的UI元件5422-1、用于选择手指触摸灵敏度作为将要被调整的触摸灵敏度的UI元件5422-3以及用于选择笔触摸灵敏度作为将要被调整的触摸灵敏度的UI元件5422-2中的至少一个。在这种状态下,用户可以使用用于调整每个柔性显示区域的触摸灵敏度的UI元件5422-1来调整柔性显示器的每个区域的触摸灵敏度。例如,用户可以触摸并且拖动指示柔性显示器的各个区域的触摸灵敏度的图形之一。作为调整的结果,控制器190可以控制显示器130显示指示已经调整了柔性显示区域的一个区域的触摸灵敏度的屏幕,如图54的视图5430所示。可以对触摸显示器的多个区域的每个区域调整显示器的触摸灵敏度,并且可以调整显示器的触摸灵敏度来根据正在使用的输入设备的类型而变化。
图55和图56是说明根据示例性实施例的用于控制电子设备100的方法的流程图。
参照图55,在用户握持电子设备100的状态下,电子设备100可以检测侧显示区域上的触摸输入(操作S5501)。
电子设备100可以确定所检测的触摸输入的位置是侧显示区域的第一区域还是与第一区域不同的侧显示区域的第二区域(操作S5503)。
响应于在侧显示区域的第一区域上检测到触摸输入,电子设备100可以作为用户输入处理该触摸输入(操作S5505)。另一方面,响应于在侧显示区域的第二区域上检测到触摸输入,电子设备100控制以忽略触摸输入(操作S5507)。例如,控制以忽略触摸输入可以包括停用与第二区域对应的触摸传感器或者不处理与通过与第二区域对应的触摸传感器的触摸输入相关的信息。此外,作为用户输入处理该触摸输入可以包括响应于检测到触摸在第一区域上显示的UI元件的触摸输入,执行与该UI元件相关的功能。
参照图56,电子设备100可以在侧显示区域的第一位置上显示UI元件(操作S5601)。
在显示UI元件时,电子设备100可以确定电子设备100是否被握持(操作S5603)。
响应于电子设备100被握持(操作S5603-Y),电子设备100可以在与第一位置不同的侧显示区域的第二位置上显示UI元件(操作S5605)。另一方面,响应于电子设备100未被握持(操作S5603-N),电子设备100可以继续在侧显示区域的第一位置上显示UI元件(S5607)。
图57是简要地示出根据另一示例性实施例的电子设备100的配置的框图。
参照图57,电子设备100包括显示器130、传感器180和控制器190。上面已经描述了显示器130、传感器180和控制器190的配置,因此省略冗余的说明。可以将以弯曲或变形显示器的形式的显示器130与电子设备100的前区域和侧区域相连接。
根据示例性实施例,在用户握持电子设备100的状态下,传感器180可以检测侧显示区域上的触摸输入。
响应于通过传感器180在侧显示区域的第一区域上检测到触摸输入,控制器190可以作为用户输入处理该触摸输入,并且,响应于在与第一区域不同的侧显示区域的第二区域上检测到触摸输入,控制器190可以控制以忽略或丢弃该触摸输入。
根据另一示例性实施例,在侧显示区域的第一位置上显示UI元件时,控制器190可以基于通过传感器180所获取的信息来确定用户是否握持电子设备100。响应于电子设备100被握持,控制器190可以在与第一位置不同的侧显示区域的第二位置上显示UI元件。
根据各种示例性实施例的电子设备100的控制方法可以被实现为程序并且被提供给电子设备100。具体地,可以提供在其中存储了包括电子设备100的控制方法的程序的非暂时性计算机可读介质。
非暂时性计算机可读介质是指半永久性地存储数据而不是在很短时间内存储数据(诸如寄存器、高速缓存器和存储器)并且可由装置读取的介质。具体地,可以在非暂时性计算机可读介质中存储并且提供上述程序,所述非暂时性计算机可读介质诸如光盘(CD)、数字多功能盘(DVD)、硬盘、蓝光盘、通用串行总线(USB)、存储卡、以及只读存储器(ROM)。此外,还可以在作为非暂时性计算机可读介质的示例的电子设备100的存储部件150中存储并且提供上述程序。
上述示例性实施例和优点仅仅是示例性的,并且不应当被解释为限制本发明的构思。可以轻而易举地将示例性实施例应用于其它类型的装置。示例性实施例的描述旨在说明性,而不是限制权利要求的范围,并且许多替换、修改和变化对本领域技术人员而言将是显而易见的。

Claims (8)

1.一种电子设备包括:
显示器,包括主显示区域和曲面辅助显示区域,所述曲面辅助显示区域从所述主显示区域整体延伸并且朝向所述主显示区域的一侧弯曲,所述曲面辅助显示区域具有比所述主显示区域更小的尺寸;
检测器,检测所述显示器上的触摸输入;以及
控制器,被配置为:
控制显示器在主显示区域上提供第一用户界面UI元素;
控制显示器在曲面辅助显示区域的第一区域上提供第二UI元素,其中,第二UI元素包括至少一个用户界面元素,并且第一区域与当电子设备被手握持时用户可以用手的拇指触摸的位置一致,是其中任何UI元素能够被触摸输入激活的活动触摸输入区域;
基于在主显示区域和曲面辅助显示区域上检测到的第一触摸输入,确定当第一UI元素被提供在主显示区域上并且第二UI元素被提供在曲面辅助显示区域的第一区域上时所述电子设备是否被用户的手握持;并且
响应于确定当第一UI元素被提供在主显示区域上并且第二UI元素被提供在曲面辅助显示区域的第一区域上时所述电子设备被手握持:
基于在主显示区域和曲面辅助显示区域上检测到的第一触摸输入,确定曲面辅助显示区域的第二区域,其中,第二区域是其中任何UI元素不能被触摸输入激活的非活动触摸输入区域;并且
控制显示器将在曲面辅助显示区域上提供的第二UI元素从曲面辅助显示区域的第一区域移动到所确定的第二区域,同时保持第一UI元素被提供在主显示区域上,
其中,所述检测器还被配置为在所述电子设备被手握持的同时检测将在第一区域上提供的至少一个UI元素从第一区域拖动到第二区域的用户输入,以及
其中,所述控制器还被配置为在所述电子设备被手握持的同时基于检测到拖动至少一个UI元素的用户输入,控制所述显示器在第二区域上提供至少一个UI元素,并且提供在第二区域上的至少一个UI元素不能被触摸输入激活。
2.如权利要求1所述的电子设备,
其中,当所述电子设备被握持时,所述曲面辅助显示区域的第二区域上检测到的第二触摸输入被忽略。
3.如权利要求1所述的电子设备,
其中,所述控制器被配置为:
基于所述电子设备的握持状态发生改变,控制所述显示器根据改变后的握持状态,改变提供在所述曲面辅助显示区域上的第二UI元素的显示位置,并显示第二UI元素。
4.如权利要求3所述的电子设备,
其中,所述控制器被配置为:
控制所述显示器根据握持所述电子设备的手和所述电子设备的旋转状态,改变提供在所述曲面辅助显示区域上的第二UI元素的显示位置,并显示第二UI元素。
5.一种电子设备的显示方法,所述电子设备包括主显示区域和曲面辅助显示区域,所述曲面辅助显示区域从所述主显示区域整体延伸并且朝向所述主显示区域的一侧弯曲,所述曲面辅助显示区域具有比所述主显示区域更小的尺寸,所述方法包括:
在主显示区域上提供第一用户界面UI元素;
在曲面辅助显示区域的第一区域上提供第二UI元素,其中,第二UI元素包括至少一个用户界面元素,并且第一区域与当电子设备被手握持时用户可以用手的拇指触摸的位置一致,是其中任何UI元素能够被触摸输入激活的活动触摸输入区域;
基于在主显示区域和曲面辅助显示区域上检测到的第一触摸输入,确定当第一UI元素被提供在主显示区域上并且第二UI元素被提供在曲面辅助显示区域的第一区域上时所述电子设备是否被用户的手握持;并且
响应于确定当第一UI元素被提供在主显示区域上并且第二UI元素被提供在曲面辅助显示区域的第一区域上时所述电子设备被手握持:
基于在主显示区域和曲面辅助显示区域上检测到的第一触摸输入,确定曲面辅助显示区域的第二区域,其中,第二区域是其中任何UI元素不能被触摸输入激活的非活动触摸输入区域;
将在曲面辅助显示区域上提供的第二UI元素从曲面辅助显示区域的第一区域移动到所确定的第二区域,同时保持第一UI元素被提供在主显示区域上;
在所述电子设备被手握持的同时检测将在第一区域上提供的至少一个UI元素从第一区域拖动到第二区域的用户输入;以及
在所述电子设备被手握持的同时基于检测到拖动至少一个UI元素的用户输入,在第二区域上提供至少一个UI元素,并且提供在第二区域上的至少一个UI元素不能被触摸输入激活。
6.如权利要求5所述的显示方法,
其中,当所述电子设备被握持时,所述曲面辅助显示区域的第二区域上检测到的第二触摸输入被忽略。
7.如权利要求5所述的显示方法,还包括:
基于所述电子设备的握持状态发生改变,根据改变后的握持状态,改变提供在所述曲面辅助显示区域上的第二UI元素的显示位置,并显示第二UI元素。
8.如权利要求7所述的显示方法,
其中,所述改变提供在所述曲面辅助显示区域上的第二UI元素的显示位置,并显示第二UI元素包括:
根据握持所述电子设备的手和所述电子设备的旋转状态,改变提供在所述曲面辅助显示区域上的第二UI元素的显示位置,并显示第二UI元素。
CN202010463208.2A 2014-09-02 2015-09-02 电子设备及其显示方法 Active CN111665983B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010463208.2A CN111665983B (zh) 2014-09-02 2015-09-02 电子设备及其显示方法

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR1020140116509A KR101559091B1 (ko) 2014-09-02 2014-09-02 벤디드 디스플레이를 구비한 휴대 단말기의 제어 방법 및 장치
KR10-2014-0116509 2014-09-02
KR1020150050967A KR102255143B1 (ko) 2014-09-02 2015-04-10 벤디드 디스플레이를 구비한 휴대 단말기의 제어 방법 및 장치
KR10-2015-0050967 2015-04-10
CN202010463208.2A CN111665983B (zh) 2014-09-02 2015-09-02 电子设备及其显示方法
CN201510557879.4A CN105335001B (zh) 2014-09-02 2015-09-02 具有弯曲显示器的电子设备以及用于控制其的方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201510557879.4A Division CN105335001B (zh) 2014-09-02 2015-09-02 具有弯曲显示器的电子设备以及用于控制其的方法

Publications (2)

Publication Number Publication Date
CN111665983A CN111665983A (zh) 2020-09-15
CN111665983B true CN111665983B (zh) 2024-02-09

Family

ID=54014746

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202010463208.2A Active CN111665983B (zh) 2014-09-02 2015-09-02 电子设备及其显示方法
CN201510557879.4A Expired - Fee Related CN105335001B (zh) 2014-09-02 2015-09-02 具有弯曲显示器的电子设备以及用于控制其的方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201510557879.4A Expired - Fee Related CN105335001B (zh) 2014-09-02 2015-09-02 具有弯曲显示器的电子设备以及用于控制其的方法

Country Status (7)

Country Link
US (1) US10891005B2 (zh)
EP (2) EP2993571A1 (zh)
KR (1) KR102255143B1 (zh)
CN (2) CN111665983B (zh)
AU (1) AU2015312634B2 (zh)
TW (1) TWI722995B (zh)
WO (1) WO2016036137A1 (zh)

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220129126A9 (en) * 2009-12-20 2022-04-28 Benjamin Firooz Ghassabian System for capturing event provided from edge of touch screen
KR102309298B1 (ko) * 2014-12-29 2021-10-06 엘지전자 주식회사 서브영역에 디스플레이된 이미지를 통해 어플리케이션의 기능을 제어하는 벤디드 디스플레이 디바이스 및 그 제어 방법
US10067666B2 (en) * 2015-01-08 2018-09-04 Samsung Electronics Co., Ltd. User terminal device and method for controlling the same
US9473192B2 (en) * 2015-03-10 2016-10-18 Incipio, Llc Protective case for mobile device having cover with opaque and transparent regions
US20170010780A1 (en) * 2015-07-06 2017-01-12 Hand Held Products, Inc. Programmable touchscreen zone for mobile devices
CN105094281A (zh) * 2015-07-20 2015-11-25 京东方科技集团股份有限公司 用于控制显示装置的控制方法、控制模块和显示装置
US11284003B2 (en) * 2015-07-29 2022-03-22 Samsung Electronics Co., Ltd. User terminal apparatus and control method thereof
TWI616784B (zh) * 2015-07-31 2018-03-01 晨星半導體股份有限公司 觸控式電子裝置及其控制方法
CN107250969B (zh) * 2015-08-31 2020-07-24 华为技术有限公司 屏幕开启方法、装置及电子设备
CN105159595A (zh) * 2015-09-30 2015-12-16 惠州Tcl移动通信有限公司 一种实现侧面功能键的方法及系统
US9942367B2 (en) * 2015-10-13 2018-04-10 Samsung Electronics Co., Ltd. Electronic device and method for controlling the electronic device thereof
US10908742B2 (en) * 2015-10-21 2021-02-02 Microsoft Technology Licensing, Llc Device with grooves in conductive casing
US10216405B2 (en) * 2015-10-24 2019-02-26 Microsoft Technology Licensing, Llc Presenting control interface based on multi-input command
KR102429740B1 (ko) 2015-12-24 2022-08-05 삼성전자 주식회사 터치 이벤트 처리 방법 및 그 장치
US20170185261A1 (en) * 2015-12-28 2017-06-29 Htc Corporation Virtual reality device, method for virtual reality
CN105808140A (zh) * 2016-02-29 2016-07-27 努比亚技术有限公司 移动终端控制装置及方法
GB2553744B (en) * 2016-04-29 2018-09-05 Advanced Risc Mach Ltd Graphics processing systems
KR102505562B1 (ko) 2016-05-20 2023-03-03 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN105955658A (zh) * 2016-05-23 2016-09-21 广东欧珀移动通信有限公司 一种通过曲面屏交互的方法、装置及移动终端
US10635299B2 (en) * 2016-06-10 2020-04-28 Apple Inc. Device, method, and graphical user interface for manipulating windows in split screen mode
WO2018013068A1 (en) * 2016-07-11 2018-01-18 Hewlett-Packard Development Company, L.P. Power management in a display unit
KR102553558B1 (ko) * 2016-08-01 2023-07-10 삼성전자 주식회사 전자 장치 및 전자 장치의 터치 이벤트 처리 방법
CN106293213B (zh) * 2016-08-01 2020-05-26 联想(北京)有限公司 一种调整压力感应区域灵敏度的方法及电子设备
CN108885531A (zh) * 2016-10-14 2018-11-23 华为技术有限公司 一种界面显示的方法及终端
JP2018082243A (ja) * 2016-11-14 2018-05-24 京セラ株式会社 電子機器、制御方法、およびプログラム
KR102645631B1 (ko) 2016-11-22 2024-03-08 삼성디스플레이 주식회사 벤디드 표시 장치
CN106775295B (zh) * 2016-11-25 2019-01-29 维沃移动通信有限公司 一种基于曲面屏幕的显示方法及移动终端
KR102606119B1 (ko) * 2016-12-05 2023-11-24 엘지전자 주식회사 단말기 및 그 제어 방법
KR102653367B1 (ko) 2016-12-08 2024-04-02 삼성전자 주식회사 벤디드 디스플레이를 구비한 전자 장치 및 그 제어 방법
US10338812B2 (en) 2017-01-10 2019-07-02 International Business Machines Corporation Replacement of physical buttons with virtual controls
CN106843786B (zh) * 2017-01-23 2022-12-20 宇龙计算机通信科技(深圳)有限公司 显示屏的开启方法、显示屏的开启装置和终端
US10467796B2 (en) * 2017-04-17 2019-11-05 Intel Corporation Graphics system with additional context
KR102364429B1 (ko) * 2017-05-17 2022-02-17 삼성전자주식회사 콘텐츠를 표시하기 위한 방법 및 그 전자 장치
CN107562353A (zh) * 2017-07-17 2018-01-09 努比亚技术有限公司 一种显示界面控制方法、终端及计算机可读存储介质
WO2019017153A1 (ja) * 2017-07-20 2019-01-24 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN107562266B (zh) * 2017-08-23 2021-03-19 美智光电科技股份有限公司 电容屏校准方法、装置及终端设备
CN107544713A (zh) * 2017-08-31 2018-01-05 美的智慧家居科技有限公司 电容屏控制方法、装置及终端设备
WO2019056393A1 (zh) * 2017-09-25 2019-03-28 华为技术有限公司 一种终端界面的显示方法及终端
KR20190054397A (ko) 2017-11-13 2019-05-22 삼성전자주식회사 디스플레이장치 및 그 제어방법
WO2019100298A1 (zh) * 2017-11-23 2019-05-31 华为技术有限公司 一种拍照方法及终端
CN107797743A (zh) * 2017-11-30 2018-03-13 努比亚技术有限公司 界面操作方法、移动终端及计算机可读存储介质
CN108021306B (zh) * 2017-12-20 2021-06-01 Oppo广东移动通信有限公司 应用界面显示方法及相关设备
KR102514729B1 (ko) * 2018-01-18 2023-03-29 삼성전자주식회사 제한 영역을 포함하는 디스플레이를 이용하여 동작을 제어하기 위한 전자 장치 및 그 동작 방법
CN108379277A (zh) * 2018-02-14 2018-08-10 重庆大学 红景天苷在制备治疗糖尿病伤口溃疡的药物中的应用
CN108563393A (zh) * 2018-04-27 2018-09-21 Oppo广东移动通信有限公司 设备参数调节方法、装置、存储介质和电子设备
CN108733299A (zh) * 2018-05-17 2018-11-02 Oppo广东移动通信有限公司 应用分屏方法、装置、存储介质和电子设备
WO2020065794A1 (ja) * 2018-09-26 2020-04-02 シャープ株式会社 表示装置
CN112136093B (zh) * 2018-11-30 2023-02-03 华为技术有限公司 控制屏幕开闭的方法、控制屏幕开闭的装置和电子设备
KR102645332B1 (ko) 2018-12-19 2024-03-11 삼성전자주식회사 디스플레이의 복수의 영역들 간 인터랙팅을 위한 방법 및 전자 장치
KR20200120784A (ko) * 2019-04-11 2020-10-22 삼성디스플레이 주식회사 표시장치 및 표시장치 제조방법
CN112130741A (zh) * 2019-06-24 2020-12-25 中兴通讯股份有限公司 一种移动终端的控制方法及移动终端
CN112306273A (zh) * 2019-07-26 2021-02-02 北京小米移动软件有限公司 触控显示屏和移动终端
IT201900019037A1 (it) * 2019-10-16 2021-04-16 St Microelectronics Srl Metodo perfezionato per rilevare un gesto di inclinazione del polso e unita' elettronica e dispositivo elettronico indossabile che implementano il medesimo
US11907526B2 (en) 2019-12-09 2024-02-20 Huawei Technologies Co., Ltd. Touch region adjustment method and apparatus for determining a grasping gesture of a user on an electronic device
CN113031802B (zh) * 2019-12-09 2024-07-19 华为终端有限公司 一种触控区域调整方法及装置
TWI719791B (zh) * 2019-12-31 2021-02-21 緯創資通股份有限公司 觸控靈敏度的調整方法及使用此方法的行動裝置
US10957229B1 (en) * 2020-01-21 2021-03-23 Motorola Mobility Llc Content extension on curved glass
US11176862B2 (en) 2020-01-21 2021-11-16 Motorola Mobility Llc Managing notifications on a curved display surface
US11516335B2 (en) 2020-01-21 2022-11-29 Motorola Mobility Llc Personalizable UI component layout on curved glass
CN111459447B (zh) * 2020-03-31 2023-05-19 维沃移动通信有限公司 一种音量调节显示方法及电子设备
CN113552994A (zh) * 2020-04-23 2021-10-26 华为技术有限公司 一种触控操作方法及设备
US11513604B2 (en) 2020-06-17 2022-11-29 Motorola Mobility Llc Selectable response options displayed based-on device grip position
US11595511B2 (en) * 2020-07-30 2023-02-28 Motorola Mobility Llc Adaptive grip suppression within curved display edges
WO2022025320A1 (ko) * 2020-07-30 2022-02-03 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US11543860B2 (en) * 2020-07-30 2023-01-03 Motorola Mobility Llc Adaptive grip suppression tuning
CN112068730A (zh) * 2020-08-27 2020-12-11 北京小米移动软件有限公司 报点输出控制方法、报点输出控制装置及存储介质
US11508276B2 (en) 2020-09-18 2022-11-22 Motorola Mobility Llc Adaptive user interface display size for curved display edges
US11287972B1 (en) 2020-09-18 2022-03-29 Motorola Mobility Llc Selectable element selection within a curved display edge
CN114442829A (zh) * 2020-10-30 2022-05-06 群创光电股份有限公司 触控面板及其触控面板操作方法
CN113760150B (zh) * 2021-09-22 2023-05-30 北京字跳网络技术有限公司 页面处理方法、装置、设备及存储介质
EP4343526A1 (en) * 2021-12-08 2024-03-27 Samsung Electronics Co., Ltd. Electronic device supporting one-handed operation mode, and operating method for electronic device
US11726734B2 (en) 2022-01-13 2023-08-15 Motorola Mobility Llc Configuring an external presentation device based on an impairment of a user

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101739208A (zh) * 2008-11-25 2010-06-16 三星电子株式会社 提供用户界面的设备和方法
CN102566816A (zh) * 2010-11-25 2012-07-11 Lg电子株式会社 移动终端
CN103197879A (zh) * 2012-01-06 2013-07-10 三星电子株式会社 在具有柔性显示器的便携式装置上显示屏幕的设备和方法
CN103365594A (zh) * 2012-04-08 2013-10-23 三星电子株式会社 柔性显示设备和用于提供其ui的方法
CN103578359A (zh) * 2012-07-30 2014-02-12 三星电子株式会社 柔性显示装置及其显示方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7656393B2 (en) * 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
KR101354316B1 (ko) 2005-03-04 2014-01-22 애플 인크. 다기능 휴대용 장치
CN101609383B (zh) 2006-03-03 2014-08-06 苹果公司 具有显示器和用于用户界面及控制的周围触摸敏感边框的电子设备
KR101144423B1 (ko) * 2006-11-16 2012-05-10 엘지전자 주식회사 휴대 단말기 및 휴대 단말기의 화면 표시 방법
US7912508B2 (en) 2006-12-15 2011-03-22 Motorola Mobility, Inc. Wireless communication device with additional input or output device
US8154523B2 (en) 2007-12-13 2012-04-10 Eastman Kodak Company Electronic device, display and touch-sensitive user interface
KR101499546B1 (ko) * 2008-01-17 2015-03-09 삼성전자주식회사 터치 스크린 장치의 디스플레이 영역 제어 방법, 장치, 및기록매체
EP3654141A1 (en) * 2008-10-06 2020-05-20 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
US8195254B2 (en) 2009-12-22 2012-06-05 Nokia Corporation Apparatus comprising a sliding display part
US20120036471A1 (en) 2010-08-04 2012-02-09 Misys Tool bars along lateral edges of a mobile computing device display
US8593418B2 (en) 2010-08-08 2013-11-26 Qualcomm Incorporated Method and system for adjusting display content
KR101685363B1 (ko) * 2010-09-27 2016-12-12 엘지전자 주식회사 휴대 단말기 및 그 동작 방법
US20120120000A1 (en) * 2010-11-12 2012-05-17 Research In Motion Limited Method of interacting with a portable electronic device
US20120162078A1 (en) * 2010-12-28 2012-06-28 Bran Ferren Adaptive virtual keyboard for handheld device
US9898122B2 (en) 2011-05-12 2018-02-20 Google Technology Holdings LLC Touch-screen device and method for detecting and ignoring false touch inputs near an edge of the touch-screen device
JP5134706B2 (ja) 2011-05-16 2013-01-30 日本写真印刷株式会社 曲面タッチパネル、その製造方法及び曲面タッチパネル付表示装置
KR101320385B1 (ko) 2011-06-30 2013-10-23 삼성디스플레이 주식회사 가요성 표시 패널 및 상기 가요성 표시 패널을 포함하는 표시 장치
KR20130005733A (ko) * 2011-07-07 2013-01-16 삼성전자주식회사 터치 내비게이션 기능을 운용하는 방법 및 이를 지원하는 모바일 단말기
US9110580B2 (en) 2011-08-05 2015-08-18 Nokia Technologies Oy Apparatus comprising a display and a method and computer program
US8723824B2 (en) 2011-09-27 2014-05-13 Apple Inc. Electronic devices with sidewall displays
KR101515629B1 (ko) * 2012-01-07 2015-04-27 삼성전자주식회사 플렉서블 표시부를 갖는 휴대단말의 이벤트 제공 방법 및 장치
US8860763B2 (en) 2012-01-31 2014-10-14 Xerox Corporation Reversible user interface component
KR101403025B1 (ko) 2012-02-29 2014-06-11 주식회사 팬택 터치 디스플레이를 구비한 디바이스 및 터치 오동작 방지 방법
KR20130102298A (ko) 2012-03-07 2013-09-17 주식회사 팬택 휴대용 단말기 및 휴대용 단말기의 디스플레이 제어 방법
KR101496512B1 (ko) * 2012-03-08 2015-02-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101515623B1 (ko) * 2012-05-14 2015-04-28 삼성전자주식회사 벤디드 디스플레이를 갖는 휴대단말의 기능 운용 방법 및 장치
KR20140040401A (ko) 2012-09-26 2014-04-03 삼성전자주식회사 한 손 제어 모드를 제공하기 위한 방법 및 그 전자장치
KR102145533B1 (ko) * 2012-10-04 2020-08-18 삼성전자주식회사 플렉서블 디스플레이 장치 및 그의 제어 방법
KR101995278B1 (ko) * 2012-10-23 2019-07-02 삼성전자 주식회사 터치 디바이스의 ui 표시방법 및 장치
KR101963207B1 (ko) 2012-11-02 2019-07-31 삼성전자주식회사 단말기의 동작제어 장치 및 방법
US20140132481A1 (en) 2012-11-09 2014-05-15 Microsoft Corporation Mobile devices with plural displays
US9448719B2 (en) * 2012-12-14 2016-09-20 Barnes & Noble College Booksellers, Llc Touch sensitive device with pinch-based expand/collapse function
EP2770418A1 (en) * 2013-02-25 2014-08-27 Samsung Electronics Co., Ltd Electronic apparatus comprising a touch screen and method of controlling the same
KR102118381B1 (ko) * 2013-03-06 2020-06-04 엘지전자 주식회사 이동 단말기
US20140320420A1 (en) * 2013-04-25 2014-10-30 Sony Corporation Method and apparatus for controlling a mobile device based on touch operations

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101739208A (zh) * 2008-11-25 2010-06-16 三星电子株式会社 提供用户界面的设备和方法
CN102566816A (zh) * 2010-11-25 2012-07-11 Lg电子株式会社 移动终端
CN103197879A (zh) * 2012-01-06 2013-07-10 三星电子株式会社 在具有柔性显示器的便携式装置上显示屏幕的设备和方法
CN103365594A (zh) * 2012-04-08 2013-10-23 三星电子株式会社 柔性显示设备和用于提供其ui的方法
CN103578359A (zh) * 2012-07-30 2014-02-12 三星电子株式会社 柔性显示装置及其显示方法

Also Published As

Publication number Publication date
WO2016036137A1 (en) 2016-03-10
CN105335001B (zh) 2020-06-19
US10891005B2 (en) 2021-01-12
KR102255143B1 (ko) 2021-05-25
AU2015312634B2 (en) 2018-04-05
TW201610784A (zh) 2016-03-16
CN111665983A (zh) 2020-09-15
EP2993571A1 (en) 2016-03-09
EP3736681A1 (en) 2020-11-11
AU2015312634A1 (en) 2017-03-30
US20160062515A1 (en) 2016-03-03
TWI722995B (zh) 2021-04-01
KR20160028338A (ko) 2016-03-11
CN105335001A (zh) 2016-02-17
EP3736681B1 (en) 2024-08-21

Similar Documents

Publication Publication Date Title
CN111665983B (zh) 电子设备及其显示方法
KR102423826B1 (ko) 사용자 단말 장치 및 그의 제어 방법
CN105224166B (zh) 便携式终端及其显示方法
US10401964B2 (en) Mobile terminal and method for controlling haptic feedback
KR101515620B1 (ko) 사용자 단말 장치 및 그의 제어 방법
US10698564B2 (en) User terminal device and displaying method thereof
TWI629636B (zh) 用於控制一電子器件之方法、電子器件及非暫時性電腦可讀儲存媒體
KR20170043065A (ko) 휴대 장치 및 휴대 장치의 화면 표시방법
KR101559091B1 (ko) 벤디드 디스플레이를 구비한 휴대 단말기의 제어 방법 및 장치
KR102168648B1 (ko) 사용자 단말 장치 및 그 제어 방법
KR102183445B1 (ko) 투과 영역을 포함하는 커버를 가지는 휴대 단말기의 디스플레이 방법 및 장치
EP3287886B1 (en) User terminal apparatus and controlling method thereof
EP3128397B1 (en) Electronic apparatus and text input method for the same
KR20170009688A (ko) 전자 장치 및 이의 제어 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant