CN103914207A - 终端及用于操作终端的方法 - Google Patents

终端及用于操作终端的方法 Download PDF

Info

Publication number
CN103914207A
CN103914207A CN201310586039.1A CN201310586039A CN103914207A CN 103914207 A CN103914207 A CN 103914207A CN 201310586039 A CN201310586039 A CN 201310586039A CN 103914207 A CN103914207 A CN 103914207A
Authority
CN
China
Prior art keywords
touch
screen
button
controller
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201310586039.1A
Other languages
English (en)
Inventor
张珉准
金洪宝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Display Co Ltd
Original Assignee
Samsung Display Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020130051402A external-priority patent/KR20140088487A/ko
Application filed by Samsung Display Co Ltd filed Critical Samsung Display Co Ltd
Publication of CN103914207A publication Critical patent/CN103914207A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供一种终端及用于操作终端的方法。该终端包括:按键;从外部接收触摸输入并且显示显示屏的触摸屏;以及根据所述按键的状态和所接收的触摸输入控制所述触摸屏的显示屏的控制器,所述按键的状态为被按下或松开按下,其中如果所述按键的按下或松开按下被检测到,则所述控制器显示具有比所述显示屏的尺寸小的尺寸的操作区域,并且其中如果所述触摸输入在所述操作区域内的第一点处,则所述控制器被配置为运行与响应于在与所述第一点相对应的第二点处的触摸输入运行的操作相同的操作,所述第二点在所述触摸屏的显示屏的整个区域内。

Description

终端及用于操作终端的方法
技术领域
示例实施例涉及终端及用于操作终端的方法。更具体地,示例实施例涉及使用户能够更容易地操作终端的终端及用于操作终端的方法。
背景技术
随着信息通信技术的发展以及符合多变信息社会的需求,例如个人计算机、智能电话、移动终端、便携式电子设备等的终端已高速传播。例如,用户能够利用各种类型的输入设备,例如键盘、鼠标、跟踪球、手写笔、触摸屏和/或按键将数据输入终端。
图形用户界面(“GUI”)指用户能够通过屏幕执行操作的环境,当用户与电子设备交换信息时图形显示在屏幕上。随着电子设备的发展,各种类型的终端需要用户的操作采用GUI,并且通过GUI执行输入/输出操作。
发明内容
示例实施例提供一种终端和一种用于操作终端的方法,其能够使用户更容易地操作终端。
示例实施例也提供一种终端和一种用于操作终端的方法,即使操作在终端的触摸屏的特定区域内,也能够使用户操作与触摸屏的整个区域相对应的屏幕。
示例实施例还提供一种终端和一种用于操作终端的方法,其使用户能够使用抓住终端的用户手的拇指操作显示在用户的拇指不能触及的区域内的屏幕。
根据示例实施例的方面,提供一种终端,该终端包括:按键;被配置为从外部接收触摸输入并且显示显示屏的触摸屏;以及被配置为根据所述按键的状态和所接收的触摸输入控制所述触摸屏的显示屏的控制器,所述按键的状态为被按下或松开按下,其中如果所述按键的按下或松开按下被检测到,则所述控制器被配置为在所述触摸屏的显示屏上显示具有比所述显示屏的尺寸小的尺寸的操作区域,并且其中,如果所述触摸输入在所述操作区域内的第一点处,则所述控制器被配置为运行与响应于在与所述第一点相对应的第二点处的触摸输入而运行的操作相同的操作,所述第二点在所述触摸屏的显示屏的整个区域内。
所述第一点与所述操作区域的相对位置可以基本上和所述第二点与所述触摸屏的显示屏的整个区域的相对位置相同。
所述操作区域的边界和所述触摸屏的边界可以是矩形形状,并且如果所述操作区域的左下角的坐标为(x1,y1),所述操作区域的右上角的坐标为(x1’,y1’),所述第一点的坐标为(a1,b1),所述触摸屏的左下角的坐标为(x2,y2),所述触摸屏的右上角的坐标为(x2’,y2’),并且所述第二点的坐标为(a2,b2),则(x1’-x1)与(a1-x1)之比基本上和(x2’-x2)与(a2-x2)之比相同,并且(y1’-y1)与(b1-y1)之比基本上与(y2’-y2)与(b2-y2)之比相同。
如果所述按键的按下被检测到,则所述控制器可以显示所述操作区域,并且如果所述按键的松开按下被检测到,则所述控制器可以不显示所述操作区域。
无论所述按键的松开按下何时被检测到,所述控制器可以对是否显示所述操作区域进行切换。
根据示例实施例的另一方面,提供一种终端,该终端包括:按键;从外部接收触摸输入并且显示屏幕的触摸屏;以及根据所述按键是否被按下和所接收的触摸输入控制显示在所述触摸屏上的所述屏幕的控制器,其中如果所述按键的按下或松开按下被检测到,则所述控制器在所述触摸屏上的所述屏幕显示具有比所述触摸屏的尺寸小的尺寸的操作区域并且在所述触摸屏上的所述屏幕显示光标,如果从所述操作区域中的第一点到所述操作区域中的第二点的拖动被接收到,则所述控制器移动所显示的光标,并且如果所述触摸输入在所述操作区域中的第三点处被接收到,则所述控制器运行与在所移动光标位于的点处进行触摸输入的情况下运行的操作相同的操作。
所述控制器可以以与所接收拖动的方向相对应的方向移动所述光标和与所接收拖动的距离相对应的距离一样长。
如果所述第一点的坐标为(x1,y1),并且所述第二点的坐标为(x2,y2),则所述控制器可以关于x轴移动所述光标和第一距离(x2-x1)一样长,并且关于y轴移动所述光标和第二距离(y2-y1)一样长。
根据示例实施例的又一方面,提供一种终端,该终端包括:按键;从外部接收触摸输入并且显示屏幕的触摸屏;测量姿态信息的姿态传感器;以及根据所述按键是否被按下、所接收的触摸输入和所测量的姿态信息控制显示在所述触摸屏上的屏幕的控制器,其中如果所述按键的按下或松开按下被检测到,则所述姿态传感器测量所述终端的姿态信息,并且所述控制器基于所测量的姿态信息滚动显示在所述触摸屏上的屏幕,并且如果所述触摸输入在所述触摸屏中的某一点处被接收到,则所述控制器关于进行所述触摸输入的点运行操作。
所述控制器可以利用所测量的姿态信息基于垂直方向探测所述终端的旋转角和旋转方向,并且所述控制器可以基于所探测的旋转角和旋转方向以特定速度并且沿特定方向滚动所述屏幕。
所述控制器可以在所探测的旋转角变得更大时以更高的速度滚动所述屏幕。
如果所探测的旋转角小于特定角,则所述控制器可以不滚动所述屏幕,但是如果所探测的旋转角等于或大于所述特定角则可以滚动所述屏幕。
所述触摸屏可以采用矩形形状,并且所述控制器可以沿方向从包括在所述触摸屏中的四边中的第一边到面对所述第一边且放置在低于或等于第一边的高度处的第二边的矢量、和方向从与所述第一边相邻的两边中的第三边到面对所述第三边且放置在低于或等于所述第三边的高度处的第四边的矢量的矢量和方向滚动所述屏幕。
根据示例实施例的再一实施例,提供一种终端,该终端包括:按键;从外部接收触摸输入并且显示屏幕的触摸屏;以及根据所述按键是否被按下和所接收的触摸输入控制显示在所述触摸屏上的屏幕的控制器,其中如果所述按键的按下或松开按下被检测到,则所述控制器在所述触摸屏上显示用于显示在所述触摸屏上显示的所述屏幕的一部分的窗口,如果从布置所显示窗口的区域中的第一点到所述触摸屏上的第二点的拖动被接收到,则所述控制器移动所显示的窗口,并且其中如果所述触摸输入在布置所移动窗口的区域中的第三点处被接收到,则所述控制器关于进行所述触摸输入的点运行操作。
所述窗口可以显示与待显示的屏幕的特定区域相对应的屏幕,除非所述窗口被显示在所述触摸屏上。
如果所述第一点的坐标为(x1,y1),并且所述第二点的坐标为(x2,y2),则所述控制器可以关于x轴移动所述窗口与第一距离(x2-x1)一样长,并且关于y轴移动所述窗口与第二距离(y2-y1)一样长。
根据示例实施例的再一方面,提供一种用于操作包括按键和触摸屏的终端的方法,所述方法包括:检测所述按键的按下或松开按下;在所述触摸屏上显示具有比所述触摸屏的尺寸小的尺寸的操作区域;在所述操作区域中的第一点处接收触摸输入;并且运行和在第二点处进行触摸输入的情况下运行的操作相同的操作,所述第二点在所述触摸屏的整个区域内与所述第一点相对应。
根据示例实施例的再一方面,提供一种用于操作包括按键和触摸屏的终端的方法,所述方法包括:检测所述按键的按下或松开按下;在所述触摸屏上显示具有比所述触摸屏的尺寸小的尺寸的操作区域;在所述触摸屏上显示光标;接收从所述操作区域中的第一点到所述操作区域中的第二点的拖动;移动所显示的光标;在所述操作区域中的第三点处接收触摸输入;并且运行与在所移动光标位于的点处进行触摸输入的情况下运行的操作相同的操作。
根据示例实施例的再一方面,提供一种用于操作包括按键和触摸屏的终端的方法,所述方法包括:检测所述按键的按下或松开按下;测量所述终端的姿态信息;基于所测量的姿态信息滚动在所述触摸屏上显示的屏幕;在所述触摸屏上的某一点处接收触摸输入;并且关于进行所述触摸输入的点运行操作。
根据示例实施例的再一方面,提供一种用于操作包括按键和触摸屏的终端的方法,所述方法包括:检测所述按键的按下或松开按下;在所述触摸屏上显示用于显示在所述触摸屏上显示的屏幕的一部分的窗口;接收从布置所述窗口的区域中的第一点到所述触摸屏上的第二点的拖动;移动所显示的窗口;在布置所移动窗口的区域中的第三点处接收触摸输入;并且关于进行所述触摸输入的点运行操作。
根据示例实施例的再一方面,提供一种终端,该终端包括:从外部接收触摸输入并且显示屏幕的触摸屏;以及根据所接收的触摸输入控制在所述触摸屏上显示的所述屏幕的控制器,其中所述控制器在所述触摸屏上显示光标,如果从所述触摸屏上的第一点到所述触摸屏上的第二点的拖动被接收到,则所述控制器移动所显示的光标,并且如果所述触摸输入在所述触摸屏上的第三点处被接收到,则所述控制器运行与在放置所移动光标的点处进行触摸输入的情况下运行的操作相同的操作。
根据示例实施例的再一方面,提供一种终端,该终端包括:按键;从外部接收触摸输入并且显示屏幕的触摸屏;以及根据所述按键是否被按下和所接收的触摸输入控制在所述触摸屏上显示的所述屏幕的控制器,其中如果所述按键的按下或松开按下被检测到,则所述控制器在所述触摸屏上显示光标并且在所述触摸屏上显示操作支持对象,如果所述操作支持对象的拖动被接收到,则所述控制器移动所显示的光标,并且如果所述触摸输入在所述操作支持对象上被接收到,则所述控制器运行与在放置所移动光标的点处进行触摸输入的情况下运行的操作相同的操作。
所述操作支持对象可以包括第一子对象和第二子对象,并且如果所述第一子对象的拖动被接收到,则所述控制器可以移动所显示的光标,并且如果所述触摸输入在所述第二子对象上被接收到,则所述控制器可以运行与在放置所移动光标的点处进行触摸输入的情况下运行的操作相同的操作。
根据示例实施例的再一实施例,提供一种用于操作包括按键和触摸屏的终端的方法,所述方法包括:检测所述按键的按下或松开按下;在所述触摸屏上显示光标;在所述触摸屏上显示操作支持对象;接收所述操作支持对象的拖动;移动所显示的光标;在所述操作支持对象上接收触摸输入;并且运行与在放置所移动光标的点处进行触摸输入的情况下运行的操作相同的操作。
所述操作支持对象可以包括第一子对象和第二子对象,并且接收所述操作支持对象的拖动可以包括接收所述第一子对象的拖动,并且在所述操作支持对象上接收所述触摸输入可以包括在所述第二子对象上接收所述触摸输入。
附图说明
通过参照附图详细描述示例性实施例,特征对于本领域普通技术人员来说将变得明显,附图中:
图1图示根据实施例的终端的配置的框图;
图2图示根据实施例的终端的触摸屏的操作区域的平面图;
图3图示根据实施例的用于操作终端的方法中的过程的流程图;
图4图示解释根据实施例的用于操作终端的方法的平面图;
图5图示根据实施例的用于操作终端的方法的平面图;
图6图示根据实施例的用于操作终端的方法的平面图;
图7图示根据实施例的用于操作终端的方法的平面图;
图8图示根据另一实施例的用于操作终端的方法的过程的流程图;
图9图示根据另一实施例的用于操作终端的方法的平面图;
图10图示根据另一实施例的用于操作终端的方法的过程的流程图;
图11图示解释根据另一实施例的用于操作终端的方法的平面图;
图12图示根据另一实施例的用于操作终端的方法的过程的流程图;
图13图示根据另一实施例的用于操作终端的方法的过程的平面图;
图14图示根据另一实施例的用于操作终端的方法的过程的平面图;
图15图示根据另一实施例的用于操作终端的方法的平面图;
图16图示根据另一实施例的用于操作终端的方法的平面图;以及
图17图示解释根据示例实施例的另一实施例的用于操作终端的方法的平面图。
具体实施方式
示例实施例的优点和特征以及实施示例实施例的方法可以通过参考下列优选实施例的详细描述和附图更容易地理解。然而,示例实施例可以以许多不同的形式具体实现,并且不应当被解释为限于这里提出的实施例。更确切地说,提供这些实施例是为了使本公开内容将是彻底和完整的并将向本领域技术人员更充分地传达本发明的构思,并且示例实施例将仅仅通过所附权利要求来限定。因此,在一些实施例中,为了不以不必要的细节使实施例的描述模糊,公知的结构和设备未示出。相同的附图标记始终指相同的元件。
在图中,层和区域的厚度为了清楚起见可以放大。进一步,将理解,当一元件或层被提及在另一元件或层“上”或者“连接至”另一元件或层时,其可以直接在另一元件上或层上或者连接至另一元件或层,或者中间元件或层可以存在。相反,当一元件被提及“直接”在另一元件或层“上”或者“直接连接至”另一元件或层时,没有中间元件或层存在。如这里所使用的,术语“和/或”包括一个或多个相关联列出项的任意和所有组合。
为了易于描述,空间上相对的术语,例如“在……下面”、“在……之下”、“下面”、“在……上方”、“上面”等,可以在这里用于描述一个元件或特征与另一(些)元件或特征的关系,如图中所示出的。将理解,除了图中图示的方位以外,空间上相对的术语旨在包含使用或操作中的设备的不同方位。
这里描述的实施例将参照平面图和/或截面图通过本发明的理想示意图的方式进行描述。相应地,示例性视图可以依据于制造技术和/或容差进行修改。因此,本发明的实施例不限于视图中示出的那些,而是包括在根据制造工艺形成的配置方面的修改。因此,在图中例示的区域具有示意特性,并且在图中示出的区域的形状例示元件的区域的形状而不限制本发明的方面。
下文中,将参照附图详细描述根据优选实施例的终端100和用于操作终端100的方法。
图1图示根据实施例的终端100的配置的框图。终端100可以是例如个人计算机、智能电话、移动终端、车辆终端或便携式电子设备。
参考图1,根据实施例的终端100可以包括按键110、从外部接收触摸输入并显示屏幕的触摸屏120、测量终端100的姿态信息的姿态传感器130,以及根据按键110是否被按下、触摸输入和所测量姿态信息控制在触摸屏120上显示的屏幕的控制器140。
按键110可以通过用户的操作被按下或松开按下。例如,按键110可以被切换。换句话说,按键110可以通过用户的操作被切换在按下状态下或在松开按下状态下。按键110可以是被布置为暴露在终端100的外观,例如表面上的硬件按键,或者可以是被显示在触摸屏120上的软件按键。
触摸屏120可以从外部接收触摸输入。触摸屏120可以通过用户的例如直接触摸接收输入。触摸输入可以包括触摸事件和触摸松开事件。触摸屏120可以是例如压敏触摸屏、静电触摸屏或其组合。
触摸屏120可以显示屏幕。例如,触摸屏120可以是平板显示设备,例如LCD(液晶显示器)、OLED(有机发光二极管)显示器或PDP(等离子体显示面板)显示器。触摸屏120可以是例如柔性显示器。
触摸屏120可以显示GUI(图形用户界面)。触摸屏120可以显示例如图标或窗口。进一步,触摸屏120可以显示文件的内容。文件可以包括例如图片、文本、音乐、运动图像或其它对象。在触摸屏120中,用于接收触摸输入的区域和用于显示屏幕的区域可以基本上相同。
姿态传感器130可以测量3D空间中终端100的姿态,例如特性信息。姿态传感器130可以测量终端100的3D姿态,例如诸如倾斜之类的状态、位置、加速度和角速度。姿态传感器130可以包括加速度传感器、重力传感器、倾斜传感器、地磁传感器以及红外传感器中的至少一个。
控制器140可以根据通过触摸屏120接收的触摸输入来控制在触摸屏120上显示的屏幕。例如,如果触摸事件或触摸松开事件通过触摸屏120的坐标(x,y)输入,则控制器140可以关于与在触摸屏120上显示的屏幕的坐标(x,y)相对应的点运行操作,例如选择或运行。由控制器140运行的操作可以根据在与坐标相对应的点处在触摸屏120上显示的对象而不同。例如,如果用于特定应用程序的图标被显示在与显示于触摸屏120上的屏幕的坐标(x,y)相对应的点处,则控制器140可以使应用程序的运行屏幕显示在触摸屏120上。
控制器140可以根据按键110是否被按下和由姿态传感器130测量的姿态信息控制在触摸屏120上显示的屏幕,这将参照图2至图15在后面进行描述。
如果终端100是例如诸如智能电话之类的移动终端,则用户可以在用户仅用一只手握住终端100的状态下使用终端100。进一步,用户可以使用抓住终端100的手的拇指进行触摸输入。
然而,由于用于接收触摸输入的区域和用于在触摸屏120中显示屏幕的区域基本相同,因此用户可能在触摸屏120具有大尺寸的情况下在触摸输入上承受大的压力。换句话说,如果终端100的触摸屏120具有大尺寸,则用户可能难以仅仅使用抓住终端100的手的拇指在触摸屏的整个区域上进行触摸输入。
下文中,将参照附图详细描述根据实施例的用于操作终端100的方法。根据用于操作终端100的方法,用户能够仅仅通过在触摸屏120的特定区域内的操作而操作与触摸屏120的整个区域相对应的屏幕。相应地,即使在仅仅使用抓住终端100的手的拇指时,用户也能够容易地操作与触摸屏120的整个区域相对应的屏幕。
根据实施例的终端100可以例如是个人计算机、智能电话、移动终端、车辆终端或便携式电子设备。然而,为了解释的方便,假设终端100是移动终端。进一步,下文中待描述的实施例可以应用于不同类型的终端100。
图2图示根据实施例的终端100的操作区域的平面图。例如,参照图2,用户可以使用左手握住终端100。进一步,甚至在用户方便握住终端100的状态下,用户也能够使用左手的拇指仅仅在图2的白色区域WR中进行触摸输入。换句话说,由于用户的左手拇指难以伸长并触及触摸屏120的全部区域,例如可能难以在利用左手握住终端时伸展左拇指以便触及图2中的白色区域和阴影区域两者,因此可以通过仅仅接触图2的白色区域,即比触摸屏120的整个区域小的区域来进行触摸输入。也就是说,触摸屏120上的触摸输入区域,即图2的白色区域可以在握住终端100时通过可由握住终端100的同一只手的拇指接近的区域限定。
图3图示根据第一实施例的用于操作终端100的方法的过程的流程图。图4至图7是解释根据第一实施例的用于操作终端100的方法的平面图。
参照图1和图3,根据用于操作终端100的方法,按键110的按下或松开按下可以首先被检测到(S100)。取决于实施例,下列步骤可以在按键110的按下被检测到时或者在按键110的按下被执行之后按键110的松开按下被检测到时执行。
例如,参照图4,根据第一实施例的终端100可以包括显示在触摸屏120上的软件按键型按键110。如图4中所示,按键110可以布置在图2中图示的白色区域中。换句话说,按键110可以布置在触摸屏120的抓住终端100的用户手的拇指能够自然触及的区域中。
图4图示被布置在触摸屏120的下部中央部分中的按键110。然而,按键110可以被布置在图2中图示出的白色区域内的任何地方。例如,如图5中示出的,按键110可以被布置在触摸屏120的左下角部分中。布置按键110的位置可以取决于实施例而不同,其中按键110的位置可以在终端110的使用期间自动或手动改变。
进一步,如图6所示,按键110可以是被布置以暴露在终端110的外观,例如表面上的硬件按键。硬件按键型按键110可以布置在终端100外观的抓住终端100的用户手的拇指能够自然触及的区域中。进一步,硬件按键型按键110可以布置在终端100外观的除了抓住终端100的用户手的拇指以外的剩余手指中至少之一能够自然触及的区域中。
终端100的用户能够使用抓住终端100的手的拇指按下按键110。例如,参照图4,用户可以触摸显示在触摸屏120上的按键110,并且然后松开触摸。触摸屏120可以检测触摸事件和触摸松开事件的发生,并且终端100可以检测按键110的按下或松开按下。
例如,再次参照图3,具有比触摸屏120的尺寸小的尺寸的操作区域125(图4)可以被显示(S110)。在另一示例中,操作区域125的尺寸可以等于触摸屏120的尺寸。进一步,如图4中所示,操作区域125可以布置在图2的白色区域中。换句话说,操作区域125可以布置在触摸屏120的抓住终端100的用户手的拇指能够自然触及的区域中,而例如除了拇指以外不移动抓握手的手指。
例如,操作区域125可以被布置为基本与触摸屏120的左下角相邻,例如操作区域125的左角可以与触摸屏120的左角重叠。然而,操作区域125还可以被布置为与触摸屏120的角分离,只要操作区域125在图2的白色区域WR内。
操作区域125可以显示在触摸屏120上,使得用户能够可视地确认该操作区域125。例如,如图4中所示,操作区域125的边界线(图4中的粗线)和操作区域125内部的阴影可以被显示。在另一示例中,操作区域125可以被半透明或透明地显示。在又一示例中,仅仅操作区域125的边界线可以被显示。换句话说,当操作区域125被显示时,显示在触摸屏120上的屏幕的一部分可以隐藏或者可以与操作区域125重叠。进一步,操作区域125可以不可视地被显示。
操作区域125的边界线的形状可以基本上与触摸屏120的边界的形状相同。例如,如果触摸屏120的边界具有矩形形状,则操作区域125的边界线可以具有矩形形状。进一步,由触摸屏120的边界线形成的矩形的宽度与长度之比可以等于由操作区域125的边界线形成的矩形的宽度与长度之比。然而,操作区域125的边界线的形状也可以与触摸屏120的边界线的形状不同。
不管操作区域125的显示,按键110可以固定地布置在例如触摸屏120的一部分,例如下部中心上,或者按键110的布置位置可以取决于操作区域125是否被显示而不同。例如,如果操作区域125不被显示,如图5中所示,则按键110可以布置在触摸屏120的左下角部分上,而如果操作区域125通过按键110的按下的检测被显示,如图4中所示,则按键110可以布置在触摸屏120的下部中心部分上。
进一步,如果操作区域125被显示,则按键110可以被布置在操作区域125的外部上,如图4中所示,或者可以布置在操作区域125的内部上,如图7中所示。参照图7,如果操作区域125被布置为基本与触摸屏120的左下角相邻,则按键110可以被布置为基本与操作区域125的左下角相邻。
进一步,是否显示按键110可以取决于是否显示操作区域125而不同。例如,如果操作区域125不被显示,则按键110可以被显示,而如果操作区域125通过按键110的按下的检测而显示,则按键110可以不被显示。在此情况下,按键110可以通过特定操作被再次显示。
如果按键110的按下被再次检测到或者按键110的松开按下被再次检测到,则操作区域125被显示之后,终端100可以不显示操作区域125。换句话说,操作区域125的显示可以取决于按键110的按下状态或松开按下状态的检测而被切换。
例如,无论按键110的松开按下何时被检测到,操作区域125的显示都可以被切换。进一步,在另一实施例中,如果按键110的按下被检测到,则操作区域125可以被显示,而如果按键110的松开按下被检测到,则操作区域125可以不被显示。
再次参照图3,关于操作区域125中第一点的触摸输入可以被接收到(S120)。终端100的用户可以利用抓住终端100的手的拇指关于操作区域125中第一点进行触摸输入。触摸输入可以包括触摸事件和触摸松开事件。例如,如图4中所示,用户可以触摸操作区域125中的右上部分,并且然后松开触摸。
再次参照图3,与在关于与触摸屏的整个区域中第一点相对应的第二点进行触摸输入的情况下运行的操作相同的操作可以被执行(S130)。第二点可以包括在触摸屏120的整个区域中。例如,第二点可以包括在触摸屏120的剩余区域,即触摸屏120的除了操作区域125以外的区域中。在另一示例中,第二点可以包括在触摸屏120的整个区域的操作区域125中。
第二点可以对应于第一点。第一点在操作区域125中的相对位置可以对应于第二点在触摸屏120的整个区域中的相对位置。也就是说,在操作区域125中布置第一点的相对位置可以基本上与在触摸屏120的整个区域中布置第二点的相对位置相同。
例如,假设操作区域125的边界的形状与触摸屏120的边界的形状基本相同,并且操作区域125的边界和触摸屏120的边界是矩形形状。如果在操作区域125的宽度与长度之比被保持的情况下,操作区域125被放大使得操作区域125的尺寸变得等于触摸屏120的整个区域的尺寸,则第一点和第二点可以指示相同的点。
例如,假设操作区域125的左下角的坐标为(x1,y1),操作区域125的右上角的坐标为(x1’,y1’),并且第一点的坐标为(a1,b1)。进一步,假设触摸屏120的左下角的坐标为(x2,y2),触摸屏120的右上角的坐标为(x2’,y2’),并且第二点的坐标为(a2,b2)。(x1’-x1)与(a1-x1)之比可以和(x2’-x2)与(a2-x2)之比基本相同。进一步,(y1’-y1)与(b1-y1)之比可以和(y2’-y2)与(b2-y2)之比基本相同。
如果关于第二点进行触摸输入,则终端100的控制器140可以执行与运行该操作相同的操作。换句话说,尽管实际上关于操作区域125中的第一点进行触摸输入,但终端100可以操作好像关于第二点进行触摸输入。例如,如果关于操作区域125中的第一点输入触摸事件和触摸松开事件,则控制器140可以关于显示在触摸屏120上的屏幕的第二点执行选择或运行。控制器140的被运行操作可以根据在第二点处显示的对象而不同。
在实施例中,如果第二点包括在操作区域125中,则控制器140可以不执行操作。进一步,在另一实施例中,如果第二点包括在操作区域125中,则控制器140可以执行操作好像关于在操作区域125被显示时隐藏的屏幕或与操作区域125重叠的屏幕的第二点进行触摸输入。
图8图示根据第二实施例的用于操作终端100的方法的过程的流程图,而图9是根据第二实施例的用于操作终端100的方法的平面图。
参照图8,根据用于操作终端100的方法,按键110的按下或松开按下可以首先被检测到(S200)。取决于实施例,下列步骤可以在按键110的按下被检测到时或在按键110的按下被执行之后按键110的松开按下被检测到时执行。
由于根据第二实施例的按键110的类型、位置和显示方法与根据上述第一实施例的相同,因此将省略其详细描述。
终端100的用户可以使用抓住终端100的手的拇指按下按键110。例如,参照图9,用户可以触摸显示在触摸屏120上的按键110,然后松开触摸。触摸屏120可以检测触摸事件和触摸松开事件的发生,并且终端100可以检测按键110的按下或松开按下。
再次参照图8,具有与比触摸屏120的尺寸小的尺寸的操作区域125可以被显示(S210)。进一步,操作区域125的尺寸可以等于触摸屏120的尺寸。由于操作区域125的位置、显示方法和形状与根据上述第一实施例的相同,因此将省略其详细描述。
再次参照图8,光标128可以被显示(S220)。参照图9,具有箭头形状的光标128可以显示在触摸屏120上。光标128可以在操作区域125被显示(S210)或者按键110的按下或松开按下被检测到(S200)之前被显示(S220)。光标128可以在从用户接收触摸输入的点处或预定的点处显示。
再次参照图8,从操作区域125中的第一点到操作区域125中的第二点的拖动可以被接收到(S230)。具体地,终端100的用户可以使用抓住终端100的手的拇指触摸操作区域125中的第一点。换句话说,用户可以关于第一点产生触摸事件,并且终端100可以检测触摸事件。进一步,用户可以移动拇指到第二点,而不从触摸屏120拿走拇指。进一步,用户可以在第二点处从触摸屏120拿走拇指。换句话说,用户可以关于第二点产生触摸松开事件,并且终端100可以检测触摸松开事件。通过这个,终端100可以接收从操作区域125中的第一点到操作区域125中的第二点的拖动。
接下来,光标128可以被移动和显示(S240)。参照图9,光标128的移动方向和移动距离可以对应于所接收拖动的方向和距离。换句话说,光标128的移动方向和移动距离与所接收拖动的方向和距离可以具有函数关系。
例如,假设第一点的坐标为(x1,y1)并且第二点的坐标为(x2,y2)。光标128可以关于x轴沿第一距离(x2-x1)以及关于y轴沿第二距离(y2-y1)移动,并且。第一距离和第二距离可以彼此相等,或者可以彼此不同。第一距离或第二距离的详细值可以根据用户的目的或不管用户的目的而在终端100中预定。
接下来,关于操作区域125中第三点的触摸输入可以被接收到(S250)。终端100的用户可以使用抓住终端100的手的拇指关于操作区域125中的第三点进行触摸输入。触摸输入可以包括触摸事件和触摸松开事件。
接下来,与在关于所移动光标128位于的点进行触摸输入时运行的操作相同的操作可以被执行(S260)。终端100的控制器140可以执行与在关于所移动光标128位于的点进行触摸输入时运行的操作相同的操作。换句话说,尽管实际关于操作区域125中的第三点进行触摸输入,但终端100可以操作好像关于光标128位于的点进行触摸输入。
例如,如果关于操作区域125中的第三点输入触摸事件和触摸松开事件,则控制器140可以关于显示在触摸屏120上的屏幕的、光标128位于的点执行选择或运行。控制器140将运行什么操作可以取决于显示在光标128位于的点处的对象的类型而不同。
在实施例中,如果光标128位于的点包括在操作区域125中,则控制器140可以不执行操作。进一步,在另一实施例中,如果光标128位于的点包括在操作区域125中,则控制器140可以执行操作好像关于操作区域125显示时被隐藏的屏幕或与操作区域125重叠的屏幕的、光标128位于的点进行触摸输入。
图10图示根据第三实施例的用于操作终端100的方法的过程的流程图,而图11是解释根据第三实施例的用于操作终端100的方法的平面图。
参照图10,依照根据第三实施例的用于操作终端100的方法,按键110的按下或松开按下可以首先被检测到(S270)。取决于实施例,下列步骤可以在按键110的按下被检测到时或按键110的按下被执行之后按键110的松开按下被检测到时执行。由于根据第三实施例的按键110的类型、位置和显示方法与根据上述第一实施例的相同,因此将省略其详细描述。
终端100的用户可以使用抓住终端100的手的拇指按下按键110。例如,参照图11,用户可以触摸被显示在触摸屏120上的按键110,并且然后松开触摸。触摸屏120可以检测触摸事件和触摸松开事件的发生,并且终端100可以检测按键110的按下或松开按下。
再次参照图10,光标128可以被显示(S271)。参照图11,具有箭头形状的光标128可以显示在触摸屏120上。光标128的显示(S271)可以在按键110的按下或松开按下被检测到(S270)之前执行。光标128可以被显示在从用户接收触摸输入的点处,或者可以被显示在预定点处。
再次参照图10,操作支持对象138可以被显示(S272)。操作支持对象138可以被显示在触摸屏120上。操作支持对象138可以被显示在从用户接收触摸输入的点处,或者可以被显示在预定点处。在操作支持对象138被显示在预定点处的情况下,操作支持对象138可以被显示在图2中的白色区域WR中。换句话说,操作支持对象138可以被显示在抓住终端100的用户手的拇指能够在触摸屏120的区域中触及的区域中。
操作支持对象138可以被显示在触摸屏120上使得用户能够可视地确认操作支持对象138。操作支持对象138可以被显示为例如图标。操作支持对象138可以被不透明、半透明或透明地显示。根据另一实施例,仅仅操作支持对象138的轮廓可以被显示。当操作支持对象138被显示时,显示在触摸屏120上的屏幕的一部分可以被隐藏或者可以与操作支持对象138重叠。进一步,操作支持对象138可以不可视地被显示。
参照图11,操作支持对象138可以包括第一子对象141、第二子对象142和第三子对象143。如果第一子对象141被拖动,则第一子对象141、第二子对象142和第三子对象143可以一起在屏幕上作为一组移动。进一步,如果第一子对象141被拖动,则终端100可以根据第一子对象141的拖动方向和拖动距离而移动所显示的光标128。
如果用户在完成拖动之后从触摸屏120拿走手指,则操作支持对象138可以在第一子对象141的拖动被输入之前移动至并显示在操作支持对象138位于的点处。通过这个,操作支持对象138可以总是被显示在用户的操作是可能的区域中。
如果第二子对象142或第三子对象143上的触摸输入从用户被接收到,则预定的操作可以关于光标128位于的点执行。例如,如果第二子对象142或第三子对象143上的触摸输入被接收到,则与在光标128位于的点处进行触摸输入时运行的操作相同的操作可以被执行。根据另一实施例,如果第二子对象142或第三子对象143上的触摸输入被接收到,则例如弹出菜单等可以被显示在光标128位于的点处。
再次参照图10,操作支持对象138的拖动可以被接收到(S273)。具体地,终端100的用户可以使用抓住终端100的手的拇指触摸操作支持对象138的第一子对象141位于的第一点。进一步,用户可以在用户不从触摸屏120拿走拇指的状态下移动拇指到第二点。通过这个,终端100可以接收操作支持对象138的拖动。
接下来,所显示光标128可以被移动和显示(S274)。参照图11,光标128的移动方向和移动距离可以对应于所接收拖动的方向和距离。换句话说,光标128的移动方向和移动距离与所接收拖动的方向和距离可以具有函数关系。
例如,假设第一点的坐标为(x1,y1),并且第二点的坐标为(x2,y2)。光标128可以关于x轴沿第一距离(x2-x1)以及关于y轴沿第二距离(y2-y1)移动。第一距离和第二距离可以彼此相等,或者可以彼此不同。第一距离或第二距离的详细值可以根据用户的目的或不管用户的目的在终端100中预定。
进一步,光标128的移动距离可以对应于用户的手指触摸触摸屏120的时间。换句话说,光标128的移动距离与用户的手指触摸触摸屏120的时间可以具有函数关系。
例如,假设用户的手指在第一点被触摸之后在用户不从第一操作支持对象138位于的第一点拿走手指的状态下移动至第二点。进一步,假设当用户的手指移动至第二点之后预定时间消逝时,用户将手指从触摸屏120分离。
光标128的移动方向可以对应于从第一点到第二点的方向。进一步,光标128的移动距离可以对应于用户的手指移动至第二点并且然后手指从触摸屏120分离的时间。例如,光标120的移动距离可以与时间成比例。
接下来,操作支持对象138上的触摸输入可以被接收到(S275)。终端100的用户可以使用抓住终端100的手的拇指在操作支持对象138上进行触摸输入。用户可以在操作支持对象138的第二子对象142或第三子对象143上进行触摸输入。
接下来,与在所移动光标128位于的点处进行触摸输入的情况下执行的操作相同的操作可以被执行(S276)。终端100的控制器140可以执行与在所移动光标128位于的点处进行触摸输入的情况下执行的操作相同的操作。换句话说,尽管实际在操作支持对象138上进行触摸输入,但终端100可以操作好像在光标128位于的点处进行触摸输入。
例如,如果关于操作支持对象138输入触摸事件或触摸松开事件,则控制器140可以关于在显示于触摸屏120上的屏幕上的、光标128位于的点运行操作,例如选择或运行。取决于显示在光标128位于的点处的对象的类型,控制器140将运行什么操作可以不同。
图12图示根据示例实施例的第四实施例的用于操作终端的方法的过程的流程图,而图13是解释根据示例实施例的第四实施例的用于操作终端的方法的平面图。
参照图12,在根据示例实施例的第四实施例的用于操作终端100的方法中,按键110的按下或松开按下可以首先被检测到(S300)。取决于实施例,下列步骤可以在按键110的按下被检测到时或在按键110的按下被执行之后按键110的松开按下被检测到时执行。由于根据示例实施例的第四实施例的按键110的类型、位置和显示方法与根据上述的第一实施例相同,因此将省略其详细解释。
终端100的用户可以使用抓住终端100的手的拇指按下按键110。例如,参照图13,用户可以触摸被显示在触摸屏120上的按键110,并且然后松开触摸。触摸屏120可以检测触摸事件和触摸松开事件的发生,并且终端100能够检测按键110的按下或松开按下。
再次参照图12,终端100的姿态信息可以被测量(S310)。终端100的姿态信息可以由姿态传感器130测量。姿态传感器130可以包括重力传感器、陀螺仪或地磁传感器。姿态传感器130可以测量姿态信息,例如终端100的倾斜、加速度或角速度。
接下来,显示在触摸屏120上的屏幕可以基于所测量的姿态信息被滚动(S320)。控制器140可以使用所测量的姿态信息基于垂直方向探测终端100的倾斜。换句话说,控制器140可以基于垂直方向探测终端100的旋转角和旋转方向。
参照图13,控制器140可以基于所探测的旋转角和旋转方向滚动显示在触摸屏120上的屏幕。控制器140可以基于所探测的旋转方向和旋转角以特定速度并且以特定方向滚动被显示在触摸屏120上的屏幕。例如,控制器140可以以与所探测旋转角成比例的速度滚动屏幕。换句话说,当所探测的旋转角变得更大时,控制器140可以以更高的速度滚动屏幕。
进一步,在另一实施例中,如果所探测的旋转角小于特定角,则控制器140可以不滚动屏幕,但如果所探测的旋转角等于或大于特定角,则控制器140可以以恒定速度滚动屏幕。特定角可以是例如45度。
进一步,在另一实施例中,如果所探测的旋转角小于特定角,则控制器140可以不滚动屏幕,而如果所探测的旋转角等于或大于特定角,则控制器140可以以与所探测旋转角成比例的速度滚动屏幕。换句话说,如果所探测的旋转角小于特定角,则控制器140不滚动屏幕,而如果所探测的旋转角等于或大于特定角,则当所探测的旋转角变得更大时,控制器140可以以更高的速度滚动屏幕。
进一步,控制器140可以基于垂直方向以对应于终端100的旋转方向的方向滚动屏幕。例如,假设终端100被旋转,使得包括在具有矩形形状的触摸屏120中的四边中的第一边被放置在比面对第一边的第二边低的高度,并且与第一边相邻的两边中的第三边被放置在比面对第三边的第四边低的高度。控制器140可以以方向从第二边到第一边的矢量和方向从第四边到第三边的矢量的矢量和的方向滚动屏幕。
相应地,终端100的用户可以通过终端100的倾斜使显示在触摸屏120上的屏幕被滚动。终端100的用户可以通过终端100的倾斜使显示在图2的阴影区域中的屏幕被滚动并且被显示在图2的白色区域中。换句话说,终端100的用户可以通过终端100的倾斜使显示在抓住终端100的手的拇指不能触及的区域中的屏幕被滚动并且显示在拇指能够触及的区域中。
进一步,如果按键110的按下被再次检测到或者按键110的松开按下被再次检测到,则控制器140可以使屏幕不再进一步被滚动。换句话说,是否滚动屏幕可以取决于按键110的按下状态或松开按下状态的检测而被切换。例如,无论何时按键110的松开按下被检测到,是否滚动屏幕可以被切换。进一步,在另一实施例中,如果按键110的按下被检测到,则屏幕可以被切换,而如果按键110的松开按下被检测到,则屏幕可以不被滚动。
再次参照图12,关于触摸屏120中某一点的触摸输入可以被接收到(S330)。终端100的用户可以使用抓住终端100的手的拇指关于触摸屏120中的某一点进行触摸输入。触摸输入可以包括触摸事件和触摸松开事件。
接下来,操作可以关于进行触摸输入的点执行(S340)。例如,如果触摸事件和触摸松开事件关于进行触摸输入的点被输入,则控制器140可以关于进行触摸输入的点执行选择或运行。取决于显示在进行触摸输入的点处的对象的类型,控制器140将运行什么操作可以不同。
图14图示根据示例实施例的第五实施例的用于操作终端100的方法的过程的流程图,而图15至图17是解释根据示例实施例的第五实施例的用于操作终端100的方法的平面图。
参照图14,依照根据示例实施例的第五实施例的用于操作终端100的方法,按键110的按下或松开按下可以首先被检测到(S400)。取决于实施例,下列步骤可以在按键110的按下被检测到时或者在按键110的按下被执行之后按键110的松开按下被检测到时执行。由于根据示例实施例的第五实施例的按键110的类型、位置和显示方法与根据上述第一实施例的相同,因此将省略其详细描述。
终端100的用户可以使用抓住终端100的手的拇指按下按键110。例如,参照图15,按键110可以显示在抓住终端的用户手的拇指能够触及的区域中。用户可以触摸显示在触摸屏120上的按键110,并且然后松开触摸。触摸屏120可以检测触摸事件和触摸松开事件的发生,并且终端100可以检测按键110的按下或松开按下。
再次参照图14,用于显示被显示在触摸屏120上的屏幕的一部分的窗口可以被显示(S410)。参照图16,控制器140可以产生新的窗口129并且将所产生的窗口129显示在触摸屏120上。如图16中所示,窗口129的边界可以被显示或者可以不被显示。
显示窗口129的区域的至少一部分可以包括在图2的白色区域中。换句话说,显示窗口129的区域的至少一部分可以包括在抓住终端100的用户手的拇指能够触及的区域中。参照图16,窗口129可以被布置在触摸屏120的上部区域中。窗口129可以被布置为使得抓住终端100的用户手的拇指能够触及窗口129的下部分。
除非窗口129被显示在触摸屏120上,否则窗口129可以显示待显示的屏幕的一部分。除非窗口129被显示在触摸屏120上,否则窗口129可以显示与待显示的屏幕的特定区域相对应的屏幕。例如,除非窗口129被显示,否则窗口129可以显示与待显示屏幕的、布置窗口129的区域相对应的屏幕。参照图16,除非窗口129被显示,否则窗口129可以显示待显示屏幕中的与触摸屏120的上区域相对应的屏幕。
除非窗口129被显示,否则待显示屏幕中的与图2的阴影区域相对应的屏幕的至少一部分可以被显示在窗口129上。换句话说,除非窗口129被显示,否则待显示屏幕中的与抓住终端的用户手的拇指能够触及的区域相对应的屏幕的至少一部分可以被显示。
例如,与图16中所示,按键110可以被显示在布置窗口129的区域内部。在另一示例中,即使窗口129被显示,按键110也可以在窗口129被显示之前被显示在布置按键110的位置中,例如按键110可以保留在左下角,如图15中。
进一步,如果按键110的按下被再次检测到或者按键110的松开按下被再次检测到,则控制器140可以使窗口129不被显示。换句话说,是否显示窗口129可以取决于按键110的按下状态或松开按下状态的检测而被切换。相应地,是否显示窗口129可以被切换。例如,无论按键110的松开按下何时被检测到,是否显示窗口129可以被切换。进一步,在另一实施例中,如果按键110的按下被检测到,则窗口129被显示,而如果按键110的松开按下被检测到,则窗口129可以不被显示。
再次参照图14,从布置窗口129的区域中的第一点到触摸屏120中的第二点的拖动可以被接收到(S420)。具体地,终端100的用户可以使用抓住终端100的手的拇指触摸布置窗口129的区域中的第一点。换句话说,用户可以关于第一点产生触摸事件,并且终端100可以检测触摸事件。进一步,用户可以移动拇指到触摸屏120中的第二点,而不从触摸屏120拿走拇指。进一步,用户可以在第二点处从触摸屏120拿走拇指。换句话说,用户可以关于第二点产生触摸松开事件,并且终端100可以检测触摸松开事件。通过这个,终端100可以接收从布置窗口129的区域中的第一点到触摸屏120中的第二点的拖动。例如,参照图16,用户可以使用抓住终端100的手的拇指输入从布置窗口129的区域中的点到下侧的拖动。
再次参照图14,窗口129可以被移动并且被显示(S430)。窗口129的移动方向和移动距离可以与所接收拖动的方向和距离相对应。例如,假设第一点的坐标为(x1,y1),并且第二点的坐标为(x2,y2)。窗口129可以关于x轴沿整数距离(x2-x1)以及关于y轴沿整数距离(y2-y1)移动。
例如,参照图15至图17,窗口129可以在输入拖动之前从布置窗口129的位置移动到待显示的下侧,即从图16中触摸屏120的顶部移动到图17中触摸屏120的底部。通过这个,显示在触摸屏120的整个区域上的屏幕的、与抓住终端100的用户手的拇指不能触及的区域相对应的屏幕的至少一部分可以被移动并且被显示在抓住终端100的用户手的拇指能够触及的区域中。
再次参照图14,关于布置所移动窗口129的区域中的第三点的触摸输入可以被接收到(S440)。终端100的用户可以使用抓住终端100的手的拇指关于布置所移动窗口129的区域中的第三点进行触摸输入。触摸输入可以包括触摸事件和触摸松开事件。通过这个,触摸输入可以在窗口129被显示之前关于与抓住终端100的用户手的拇指不能触及的区域相对应的屏幕的至少一部分进行。
接下来,操作可以关于进行触摸输入的点执行(S450)。例如,如果触摸事件和触摸松开事件关于进行触摸输入的点输入,则控制器140可以关于进行触摸输入的点执行选择或运行。取决于显示在进行触摸输入的点处的对象的类型,控制器140将运行什么操作可以不同。通过这个,操作可以在窗口129被显示之前关于与抓住终端100的用户手的拇指不能触及的区域相对应的屏幕的至少一部分执行。
如上所述,根据实施例,用户可以更容易地操作终端100。例如,用户可以通过在终端100的触摸屏120的特定区域内的操作而操作与触摸屏120的整个区域相对应的屏幕,该特定区域小于触摸屏120的整个区域。进一步,触摸屏120的特定区域可以通过用户的来自握住终端100的同一只手的拇指而触及。换句话说,终端100的用户能够从特定区域并且通过与来自抓住终端100的手同一只手的用户拇指操作整个触摸屏120的屏幕,包括来自握住终端100的同一只手的用户拇指不能触及的屏幕区域。
相比之下,当用户操作包括作为输入设备和输出设备的大触摸屏的传统移动终端时,用户不能通过仅仅使用抓住移动终端的用户手的拇指来操作触摸屏的整个区域。也就是说,当用户的手抓住移动终端时,抓握手的拇指物理地不能触及大触摸屏的进一步区域。
这里已公开了示例实施例,并且尽管采用了特定术语,但这些术语用于仅仅从通用和描述性意义上进行解释并且不是为了限制的目的。在一些示例中,对于与提交本申请的领域相同领域的普通技术人员来说将明显是,与特定实施例有关描述的特征、特性和/或元素可以单个使用,或者与其他实施例有关描述的特征、特性和/或元素结合使用,除非另外特别指出。相应地,本领域技术人员将理解,可以在形式和细节方面进行各种改变,只要不背离所附权利要求中提出的示例实施例的精神和范围。

Claims (26)

1.一种终端包括:
按键;
被配置为从外部接收触摸输入并且显示显示屏的触摸屏;以及
被配置为根据所述按键的状态和所接收的触摸输入控制所述触摸屏的显示屏的控制器,所述按键的状态为被按下或松开按下,
其中,如果所述按键的按下或松开按下被检测到,则所述控制器被配置为在所述触摸屏的显示屏上显示具有比所述显示屏的尺寸小的尺寸的操作区域,并且
其中,如果所述触摸输入在所述操作区域内的第一点处,则所述控制器被配置为运行与响应于在与所述第一点相对应的第二点处的触摸输入而运行的操作相同的操作,所述第二点在所述触摸屏的显示屏的整个区域内。
2.根据权利要求1所述的终端,其中所述第一点在所述操作区域内的相对位置与所述第二点在所述触摸屏的显示屏的整个区域内的相对位置相同。
3.根据权利要求1所述的终端,其中:
所述操作区域的边界和所述触摸屏的边界是矩形的,并且
如果所述操作区域的左下角的坐标为(x1,y1),所述操作区域的右上角的坐标为(x1’,y1’),所述第一点的坐标为(a1,b1),所述触摸屏的左下角的坐标为(x2,y2),所述触摸屏的右上角的坐标为(x2’,y2’),并且所述第二点的坐标为(a2,b2),则(x1’-x1)与(a1-x1)之比和(x2’-x2)与(a2-x2)之比相同,并且(y1’-y1)与(b1-y1)之比与(y2’-y2)与(b2-y2)之比相同。
4.根据权利要求1所述的终端,其中:
如果所述按键的按下被检测到,则所述控制器被配置为显示所述操作区域,并且
如果所述按键的松开按下被检测到,则所述控制器不显示所述操作区域。
5.根据权利要求1所述的终端,其中所述控制器被配置为无论所述按键的松开按下何时被检测到,对是否显示所述操作区域进行切换。
6.一种终端包括:
按键;
被配置为从外部接收触摸输入并且显示显示屏的触摸屏;以及
被配置为根据所述按键的状态和所接收的触摸输入控制所述触摸屏的显示屏的控制器,所述按键的状态为按下或松开按下,
其中,如果所述按键的按下或松开按下被检测到,则所述控制器被配置为在所述触摸屏的显示屏上显示具有比所述显示屏的尺寸小的尺寸的操作区域,并且在所述触摸屏的显示屏上显示光标,
如果从所述操作区域中的第一点到所述操作区域中的第二点的拖动被接收到,则所述控制器被配置为移动所述光标到光标位置,并且
如果所述触摸输入在所述操作区域中的第三点处被接收到,则所述控制器被配置为运行与响应所述光标位置处的触摸输入而运行的操作相同的操作。
7.根据权利要求6所述的终端,其中所述控制器被配置为以与所接收拖动的方向相对应的方向沿与所接收拖动的距离相对应的距离移动所述光标。
8.根据权利要求6所述的终端,其中如果所述第一点的坐标为(x1,y1),并且所述第二点的坐标为(x2,y2),则所述控制器被配置为关于x轴沿距离(x2-x1)以及关于y轴沿距离(y2-y1)移动所述光标。
9.一种终端,包括:
按键;
被配置为从外部接收触摸输入并且在触摸屏上显示显示屏的触摸屏;
用于测量姿态信息的姿态传感器;以及
被配置为根据所述按键的状态、所接收的触摸输入和所测量的姿态信息控制所述触摸屏的显示屏的控制器,所述按键的状态为按下或松开按下,
其中所述姿态传感器被配置为,如果所述按键的按下或松开按下被检测到则测量所述终端的姿态信息,并且
其中所述控制器被配置为基于所测量的姿态信息滚动所述触摸屏的显示屏,并且如果所述触摸输入在所述触摸屏中的一点处被接收到,则所述控制器关于进行所述触摸输入的点运行操作。
10.根据权利要求9所述的终端,其中:
所述控制器被配置为利用所测量的姿态信息基于垂直方向探测所述终端的旋转角和旋转方向,并且
所述控制器被配置为基于所探测的旋转角和旋转方向以一速度并且沿一方向滚动所述显示屏。
11.根据权利要求10所述的终端,其中所述控制器被配置为当所探测的旋转角变得更大时以更高的速度滚动所述显示屏。
12.根据权利要求10所述的终端,其中所述控制器被配置为,如果所探测的旋转角小于一角度则不滚动所述显示屏,并且如果所探测的旋转角等于或大于所述一角度则滚动所述显示屏。
13.根据权利要求9所述的终端,其中所述触摸屏为矩形的,并且所述控制器被配置为沿方向从包括在所述触摸屏中的四边中的第一边到面对所述第一边且放置在低于或等于所述第一边的高度处的第二边的矢量、与方向从与所述第一边相邻的两边中的第三边到面对所述第三边且放置在低于或等于所述第三边的高度处的第四边的矢量的矢量和方向滚动所述显示屏。
14.一种终端,包括:
按键;
被配置为从外部接收触摸输入并且显示显示屏的触摸屏;以及
被配置为根据所述按键的状态和所接收的触摸输入控制所述触摸屏的显示屏的控制器,所述按键的状态为按下或松开按下,
其中如果所述按键的按下或松开按下被检测到,则所述控制器被配置为显示用于显示在所述触摸屏上显示的所述显示屏的一部分的窗口,
其中如果从布置所显示窗口的区域中的第一点到所述触摸屏中的第二点的拖动被接收到,则所述控制器被配置为移动所显示的窗口,并且
其中如果所述触摸输入在布置所移动窗口的区域中的第三点处被接收到,则所述控制器被配置为关于进行所述触摸输入的点运行操作。
15.根据权利要求14所述的终端,其中所述窗口被配置为显示与待显示的所述显示屏的一区域相对应的屏幕,除非所述窗口被显示在所述触摸屏上。
16.根据权利要求14所述的终端,其中如果所述第一点的坐标为(x1,y1),并且所述第二点的坐标为(x2,y2),则所述控制器被配置为关于x轴沿距离(x2-x1)以及关于y轴沿距离(y2-y1)移动所述窗口。
17.一种用于操作终端的方法,所述终端包括按键和触摸屏,所述方法包括:
检测所述按键的按下或松开按下;
在所述触摸屏的显示屏上显示具有比所述显示屏的尺寸小的尺寸的操作区域;
在所述操作区域中的第一点处接收触摸输入;并且
运行与响应于在与所述第一点相对应的第二点处的触摸输入而运行的操作相同的操作,所述第二点位于所述触摸屏的显示屏的整个区域内。
18.一种用于操作终端的方法,所述终端包括按键和触摸屏,所述方法包括:
检测所述按键的按下或松开按下;
在所述触摸屏的显示屏上显示具有比所述显示屏的尺寸小的尺寸的操作区域;
在所述触摸屏的显示屏上显示光标;
接收从所述操作区域中的第一点到所述操作区域中的第二点的拖动;
移动所显示的光标到光标位置;
在所述操作区域中的第三点处接收触摸输入;并且
运行与响应于在所述光标位置处的触摸输入而运行的操作相同的操作。
19.一种用于操作终端的方法,所述终端包括按键和触摸屏,所述方法包括:
检测所述按键的按下或松开按下;
测量所述终端的姿态信息;
基于所测量的姿态信息滚动在所述触摸屏上显示的屏幕;
在所述触摸屏上的一点处接收触摸输入;并且
关于进行所述触摸输入的点运行操作。
20.一种用于操作终端的方法,所述终端包括按键和触摸屏,所述方法包括:
检测所述按键的按下或松开按下;
在所述触摸屏上显示用于显示在所述触摸屏上显示的屏幕的一部分的窗口;
接收从布置所述窗口的区域中的第一点到所述触摸屏上的第二点的拖动;
移动所显示的窗口;
在布置所移动窗口的区域中的第三点处接收触摸输入;并且
关于进行所述触摸输入的点运行操作。
21.一种终端,包括:
被配置为从外部接收触摸输入并且显示屏幕的触摸屏;以及
被配置为根据所接收的触摸输入控制在所述触摸屏上显示的所述屏幕的控制器,
其中所述控制器在所述触摸屏上显示光标,
其中如果从所述触摸屏上的第一点到所述触摸屏上的第二点的拖动被接收到,则所述控制器移动所显示的光标,并且如果所述触摸输入在所述触摸屏上的第三点处被接收到,则所述控制器运行与响应于在放置所移动光标的点处的触摸输入而运行的操作相同的操作。
22.根据权利要求21所述的终端,其中如果所述第一点的坐标为(x1,y1),并且所述第二点的坐标为(x2,y2),则所述控制器关于x轴沿距离(x2-x1)移动所述光标,并且关于y轴沿距离(y2-y1)移动所述光标。
23.一种终端,包括:
按键;
被配置为从外部接收触摸输入并且显示屏幕的触摸屏;以及
被配置为根据所接收的触摸输入控制在所述触摸屏上显示的所述屏幕的控制器,
其中如果所述按键的按下或松开按下被检测到,则所述控制器被配置为在所述触摸屏上显示光标并且在所述触摸屏上显示操作支持对象,
其中如果所述操作支持对象的拖动被接收到,则所述控制器被配置为移动所显示的光标,并且如果所述触摸输入在所述操作支持对象上被接收到,则所述控制器被配置为运行与响应于在放置所移动光标的点处的触摸输入而运行的操作相同的操作。
24.根据权利要求23所述的终端,其中:
所述操作支持对象包括第一子对象和第二子对象,并且
如果所述第一子对象的拖动被接收到,则所述控制器移动所显示的光标,并且如果所述触摸输入在所述第二子对象上被接收到,则所述控制器运行与响应于在放置所移动光标的点处的触摸输入而运行的操作相同的操作。
25.一种用于操作终端的方法,所述终端包括按键和触摸屏,所述方法包括:
检测所述按键的按下或松开按下;
在所述触摸屏上显示光标;
在所述触摸屏上显示操作支持对象;
接收所述操作支持对象的拖动;
移动所显示的光标;
在所述操作支持对象上接收触摸输入;并且
运行与响应于在放置所移动光标的点处的触摸输入而运行的操作相同的操作。
26.根据权利要求25所述的用于操作终端的方法,其中:
所述操作支持对象包括第一子对象和第二子对象,
接收所述操作支持对象的拖动包括接收所述第一子对象的拖动,并且
在所述操作支持对象上接收所述触摸输入包括在所述第二子对象上接收所述触摸输入。
CN201310586039.1A 2013-01-02 2013-11-20 终端及用于操作终端的方法 Pending CN103914207A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20130000291 2013-01-02
KR10-2013-0000291 2013-01-02
KR1020130051402A KR20140088487A (ko) 2013-01-02 2013-05-07 단말기 및 그의 조작 방법
KR10-2013-0051402 2013-05-07

Publications (1)

Publication Number Publication Date
CN103914207A true CN103914207A (zh) 2014-07-09

Family

ID=49765277

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310586039.1A Pending CN103914207A (zh) 2013-01-02 2013-11-20 终端及用于操作终端的方法

Country Status (3)

Country Link
US (1) US20140184503A1 (zh)
EP (1) EP2752753A3 (zh)
CN (1) CN103914207A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110147180A (zh) * 2019-05-24 2019-08-20 深圳秋田微电子股份有限公司 触控显示装置、触控显示方法、显示器及终端

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102009279B1 (ko) * 2013-09-13 2019-08-09 엘지전자 주식회사 이동 단말기
KR20150037014A (ko) * 2013-09-30 2015-04-08 삼성전자주식회사 전자장치 및 전자장치의 사용자 인터페이스 제공방법
KR102160105B1 (ko) * 2014-10-15 2020-09-25 삼성전자주식회사 사용자 인터페이스를 제공하는 방법 및 장치
US11079895B2 (en) * 2014-10-15 2021-08-03 Samsung Electronics Co., Ltd. Method and apparatus for providing user interface
US20170024086A1 (en) * 2015-06-23 2017-01-26 Jamdeo Canada Ltd. System and methods for detection and handling of focus elements
CN105117056B (zh) * 2015-08-17 2019-02-01 青岛海信移动通信技术股份有限公司 一种操作触摸屏的方法和设备
JP6512340B2 (ja) * 2018-04-27 2019-05-15 キヤノンマーケティングジャパン株式会社 電子端末、及びその制御方法とプログラム
US11487425B2 (en) * 2019-01-17 2022-11-01 International Business Machines Corporation Single-hand wide-screen smart device management
CN111427505A (zh) 2020-04-09 2020-07-17 Oppo广东移动通信有限公司 页面操作方法、装置、终端及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7663605B2 (en) * 2003-01-08 2010-02-16 Autodesk, Inc. Biomechanical user interface elements for pen-based computers
US9542097B2 (en) * 2010-01-13 2017-01-10 Lenovo (Singapore) Pte. Ltd. Virtual touchpad for a touch device
KR101361214B1 (ko) * 2010-08-17 2014-02-10 주식회사 팬택 터치스크린의 제어영역을 설정하는 인터페이스 장치 및 방법
WO2012077273A1 (ja) * 2010-12-07 2012-06-14 パナソニック株式会社 電子機器
TWI443561B (zh) * 2011-02-15 2014-07-01 Hannstar Display Corp 觸控裝置
JP5397707B2 (ja) * 2011-03-29 2014-01-22 カシオ計算機株式会社 タッチ表示装置及びプログラム
US8866770B2 (en) * 2012-03-19 2014-10-21 Mediatek Inc. Method, device, and computer-readable medium for changing size of touch permissible region of touch screen

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110147180A (zh) * 2019-05-24 2019-08-20 深圳秋田微电子股份有限公司 触控显示装置、触控显示方法、显示器及终端

Also Published As

Publication number Publication date
EP2752753A3 (en) 2016-11-30
US20140184503A1 (en) 2014-07-03
EP2752753A2 (en) 2014-07-09

Similar Documents

Publication Publication Date Title
CN103914207A (zh) 终端及用于操作终端的方法
EP2724215B1 (en) Touch sensor system
CN105683877B (zh) 用于操纵用户界面对象的用户界面
CN101944304B (zh) 地图信息显示装置、地图信息显示方法和程序
EP3629674A1 (en) Mobile terminal and control method therefor
US9459704B2 (en) Method and apparatus for providing one-handed user interface in mobile device having touch screen
KR20140030379A (ko) 단말의 표시 제어 방법 및 그 단말
EP2701052A2 (en) Portable device and guide information provision method thereof
EP3100151B1 (en) Virtual mouse for a touch screen device
KR20130069066A (ko) 디스플레이 장치 및 그 디스플레이 방법
CN104364751A (zh) 电子设备及其控制方法和程序
CN102934067A (zh) 信息处理系统、操作输入装置、信息处理装置、信息处理方法、程序以及信息存储介质
CN101739208A (zh) 提供用户界面的设备和方法
JP2014010719A (ja) 電子機器、制御方法及びプログラム
CN104220978A (zh) 信息处理装置、信息处理方法、程序及信息处理系统
CN108733303A (zh) 便携式终端的触摸输入方法和设备
JP2011210083A (ja) 表示装置
JP2009276819A (ja) ポインティング装置の制御方法およびポインティング装置、並びにコンピュータプログラム
US20120179963A1 (en) Multi-touch electronic device, graphic display interface thereof and object selection method of multi-touch display
CN103109258A (zh) 显示装置、显示方法及其程序、终端装置
KR20110115683A (ko) 터치스크린에서의 한 손 입력방법
JP5461030B2 (ja) 入力装置
JP4389034B2 (ja) 入力装置、入力システム及び入力装置における入力方法
KR20150122021A (ko) 디스플레이 대상의 이동 방향 조절 방법 및 단말기
KR20140088487A (ko) 단말기 및 그의 조작 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20140709

WD01 Invention patent application deemed withdrawn after publication