CN104750305A - 电子设备 - Google Patents
电子设备 Download PDFInfo
- Publication number
- CN104750305A CN104750305A CN201410573485.3A CN201410573485A CN104750305A CN 104750305 A CN104750305 A CN 104750305A CN 201410573485 A CN201410573485 A CN 201410573485A CN 104750305 A CN104750305 A CN 104750305A
- Authority
- CN
- China
- Prior art keywords
- surface touch
- touch sensor
- viewing area
- screen
- touch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
- G04G21/08—Touch switches specially adapted for time-pieces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1643—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/169—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/033—Indexing scheme relating to G06F3/033
- G06F2203/0339—Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
电子设备包括前表面触摸屏、接收用户命令的多个侧表面触摸传感器以及包含用于处理用户命令的处理器的机身,其中,所述机身与前表面触摸屏和侧表面触摸传感器相结合。这里,所述用户命令包括用户触摸所述侧表面触摸传感器的至少之一超过激活时间的操作以及用户移动所述侧表面触摸传感器的至少之一的触摸点的操作。
Description
技术领域
示例实施例通常涉及电子设备。更具体地说,本发明构思的实施例涉及包含触摸屏的电子设备。
背景技术
近来,包含触摸屏的电子设备(例如,诸如手机、智能手机、智能平板(pad)等的移动设备)被广泛使用。此外,对手表形状的移动设备(例如,被称为智能手表)的兴趣增加了,其中,智能手表与移动设备协同工作,或者独立地执行移动设备的功能。然而,不同于诸如手机、智能手机、智能平板等的移动设备,由于用户将手表形状的移动设备戴在手腕上,因此包含在手表形状移动设备中的前表面触摸屏的尺寸受到限制。通常,与包含在诸如手机、智能手机、智能平板等的移动设备中的前表面触摸屏相比,包含在手表形状的移动设备中的前表面触摸屏具有相对较小的尺寸(例如,大约1.3英寸)。因此,当在手表形状的移动设备中使用用户通过在移动设备的前表面触摸屏上触摸和/或拖拽来输入用户命令的传统方法时,不能将所述用户命令准确和精确地输入给移动设备。结果,可能将所述用户命令错误地输入给移动设备。
发明内容
尽管所述电子设备包含具有相对较小尺寸的前表面触摸屏,但是一些示例实施例提供能够允许用户将用户命令准确和精确地输入给所述电子设备的电子设备。
根据一些实例实施例,电子设备可以包括前表面触摸屏、被配置接收用户命令的多个侧表面触摸传感器;以及包含用于处理用户命令的处理器的机身,其中,机身与前表面触摸屏和侧表面触摸传感器相结合。这里,所述用户命令可以包括用户触摸侧表面触摸传感器的至少之一超过激活时间的操作,以及用户移动侧表面触摸传感器的至少之一的触摸点的操作。
在示例实施例中,所述侧表面触摸传感器可以包括相对于机身中心的左侧表面触摸传感器、右侧表面触摸传感器、上侧表面触摸传感器以及下侧表面触摸传感器。
在示例实施例中,所述电子设备可以对应于用户戴在手腕上的手表形状的移动设备。
在示例实施例中,当用户同时触摸左侧表面触摸传感器和右侧表面触摸传感器之一以及上侧表面触摸传感器和下侧表面触摸传感器之一超过激活时间时,可以在前表面触摸屏上显示从左侧表面触摸传感器或右侧表面触摸传感器的第一触摸点延伸的第一指针线和从上侧表面触摸传感器或下侧表面触摸传感器的第二触摸点延伸的第二指针线。此外,可以在前表面触摸屏上的第一指针线和第二指针线的交叉点处显示指针。
在示例实施例中,随着用户移动第一触摸点和第二触摸点,可以在前表面触摸屏上移动指针、第一指针线和第二指针线。此外,在用户移动了第一触摸点和第二触摸点之后,当失效时间消逝时,所述指针、第一指针线和第二指针线可以从前表面触摸屏消失。
在示例实施例中,在将指针、第一指针线和第二指针线显示在前表面触摸屏上的同时,当用户触摸前表面触摸屏时,处理器可以对指针所指的内容执行点击操作。
在示例实施例中,在将指针、第一指针线和第二指针线显示在前表面触摸屏上的同时,当用户触摸前表面触摸屏的第一区域时,处理器可以对所述内容执行第一点击操作,其中,所述第一区域是距所述指针参考距离之内的区域。此外,在将指针、第一指针线和第二指针线显示在前表面触摸屏上的同时,当用户触摸前表面触摸屏的第二区域时,处理器可以执行对所述内容的第二点击操作,其中,所述第二区域是在距所述指针参考距离之外的区域。
在示例实施例中,所述第一点击操作可以对应于计算机鼠标设备的左点击操作,并且所述第二点击操作可以对应于计算机鼠标设备的右点击操作。
在示例实施例中,在用户释放对所述侧表面触摸传感器的触摸之后,当用户在重激活时间内再次触摸所述侧表面触摸传感器时,处理器可以对所述内容执行拖拽操作,并且在将指针、第一指针线和第二指针线显示在前表面触摸屏上的同时,移动第一触摸点和第二触摸点。
在示例实施例中,所述重激活时间可以短于所述激活时间。
在示例实施例中,当用户同时触摸左侧表面触摸传感器和右侧表面触摸传感器超过激活时间时,可以在前表面触摸屏上显示连接在左侧表面触摸传感器的第一触摸点与右侧表面触摸传感器的第二触摸点之间的第一分割线。
在示例实施例中,当用户同时触摸上侧表面触摸传感器和下侧表面触摸传感器超过激活时间时,可以在前表面触摸屏上显示连接在上侧表面触摸传感器的第三触摸点与下侧表面触摸传感器的第四触摸点之间的第二分割线。
在示例实施例中,随着用户移动第一触摸点和第二触摸点,可以在前表面触摸屏上移动第一分割线。此外,随着用户移动第三触摸点和第四触摸点,可以在前表面触摸屏上移动第二分割线。
在示例实施例中,通过第一分割线可以将前表面触摸屏的显示区域划分为上显示区域和下显示区域,并且通过第二分割线可以将前表面触摸屏的显示区域划分为左显示区域和右显示区域。
在示例实施例中,在用户移动了第一触摸点和第二触摸点之后,当失效时间消逝时,第一分割线可以从前表面触摸屏上消失。此外,在用户已经移动了第三触摸点和第四触摸点之后,当失效时间消逝时,第二分割线可以从前表面触摸屏上消失。
在示例实施例中,在将前表面触摸屏的显示区域划分为上显示区域和下显示区域的同时,当用户同时触摸左侧表面触摸传感器和右侧表面触摸传感器超过激活时间时,可以在前表面触摸屏上再次显示第一分割线。此外,随着用户移动第一触摸点和第二触摸点,可以相对地调节上显示区域和下显示区域。
在示例实施例中,在将前表面触摸屏的显示区域划分为左显示区域和右显示区域的同时,当用户同时触摸上侧表面触摸传感器和下侧表面触摸传感器超过激活时间时,可以在前表面触摸屏上再次显示第二分割线。此外,随着用户移动第三触摸点和第四触摸点,可以相对地调节左显示区域和右显示区域。
在示例实施例中,在将前表面触摸屏的显示区域划分为左显示区域、右显示区域、上显示区域和下显示区域的同时,当用户触摸左侧表面触摸传感器、右侧表面触摸传感器、上侧表面触摸传感器或下侧表面触摸传感器超过激活时间时,可以在前表面触摸屏上部分地显示第一分割线或第二分割线。此外,随着用户移动第一触摸点、第二触摸点、第三触摸点或第四触摸点,可以相对地调节左和右显示区域或者上和下显示区域。
在示例实施例中,在将前表面触摸屏的显示区域划分为左显示区域、右显示区域、上显示区域和下显示区域的同时,当用户以交错方式同时触摸左侧表面触摸传感器和右侧表面触摸传感器超过激活时间时,或者当用户以交错方式同时触摸上侧表面触摸传感器和下侧表面触摸传感器超过激活时间时,可以在前表面触摸屏上再次显示第一分割线或第二分割线。此外,随着用户移动第一触摸点、第二触摸点、第三触摸点或第四触摸点,可以围绕第一分割线和第二分割线的交叉点旋转左显示区域、右显示区域、上显示区域和下显示区域。
在示例实施例中,在将前表面触摸屏的显示区域划分为左显示区域、右显示区域、上显示区域和下显示区域的同时,在用户同时触摸左侧表面触摸传感器和右侧表面触摸传感器之一以及上侧表面触摸传感器和下侧表面触摸传感器之一超过激活时间之后,当用户触摸左显示区域、右显示区域、上显示区域和下显示区域之一时,可以确定目标显示区域。此外,随着用户移动第一触摸点、第二触摸点、第三触摸点或第四触摸点,可以放大或缩小所述目标显示区域。
因此,根据示例实施例的电子设备(其中,所述电子设备包括用于接收用户命令的多个侧表面触摸传感器)可以允许用户将用户命令准确和精确地输入给电子设备,因为所述电子设备基于用户触摸侧表面触摸传感器的至少之一超过激活时间的操作和用户拖拽(例如,移动)各个侧表面触摸传感器的触摸点的操作来接收所述用户命令。
附图说明
从结合附图的以下详细描述中,将更清晰地理解说明性、非限制性的示例实施例。
图1是示出根据示例实施例的电子设备的框图。
图2是示出其中将图1的电子设备实现为手表形状的移动设备的示例的图。
图3是示出在图1的电子设备中包含的前表面触摸屏、多个侧表面触摸传感器以及机身的图。
图4是示出在图1的电子设备中执行点击操作的过程的流程图。
图5A至5D是示出在图1的电子设备中执行点击操作的示例的图。
图6是示出在图1的电子设备中将点击操作确定为计算机鼠标设备的右点击操作或左点击操作的示例的图。
图7是示出在图1的电子设备中执行拖拽操作的过程的流程图。
图8A至8D是示出在图1的电子设备中执行拖拽操作的示例的图。
图9是示出在图1的电子设备中执行区域分割操作的过程的流程图。
图10A至10D是示出在图1的电子设备中执行区域分割操作的示例的图。
图11A至11D是示出在图1的电子设备中执行区域分割操作的另一示例的图。
图12是示出在图1的电子设备中部分地执行区域分割操作的过程的流程图。
图13A至13D是示出在图1的电子设备中部分地执行区域分割操作的示例的图。
图14是示出在图1的电子设备中执行区域调节操作的过程的流程图。
图15A至15D是示出在图1的电子设备中执行区域调节操作的示例的图。
图16是示出在图1的电子设备中部分地执行区域调节操作的过程的流程图。
图17A至17D是示出在图1的电子设备中部分地执行区域调节操作的示例的图。
图18是示出在图1的电子设备中执行区域移动操作的过程的流程图。
图19A至19D是示出在图1的电子设备中执行区域移动操作的示例的图。
图20是示出在图1的电子设备中执行区域缩放操作的过程的流程图。
图21A至21E是示出在图1的电子设备中执行区域缩放操作的示例的图。
具体实施方式
此后将参照附图更详细地解释本发明构思的实施例。
图1是示出根据实例实施例的电子设备的框图。图2是示出其中将图1的电子设备实现为手表形状的移动设备的示例的图。图3是示出在图1的电子设备中包含的前表面触摸屏、多个侧表面触摸传感器和机身的图。
参照图1至3,电子设备100可以包括前表面触摸屏120、多个侧表面触摸传感器140以及机身160。前表面触摸屏120和侧表面触摸传感器140可以与机身160相结合。在一些示例实施例中,如图2中所示,电子设备100可以是用户戴在手腕上的手表形状的移动设备(例如,被称为智能手表)。
前表面触摸屏120可以执行显示功能和触摸传感器功能。这里,前表面触摸屏120可以包含用于执行显示功能的显示面板和用于执行触摸传感器功能的触摸传感面板。在一些示例实施例中,前表面触摸屏120可以是柔性触摸屏。当电子设备100对应于与诸如手机、智能手机、智能平板等的移动设备协同工作或者独立地执行移动设备功能的手表形状的移动设备时,因为用户将电子设备100(例如,手表形状的移动设备)戴在手腕上,所以在电子设备100中包含的前表面触摸屏120会具有与包含在诸如手机、智能手机、智能平板等的移动设备中的前表面触摸屏相比相对更小的尺寸(例如,大约1.3英寸)。因此,电子设备100不能依赖于用户通过在前表面触摸屏上触摸和/或拖拽输入用户命令的传统(类似的)方法。就是说,电子设备100可以通过主要使用(或利用)侧表面触摸传感器140来接收所述用户命令。此后,将描述通过使用(或者利用)侧表面触摸传感器140来接收用户命令。然而,本发明构思不排斥电子设备100通过使用(或者利用)前表面触摸屏120来接收用户命令的传统方法。例如,电子设备100可以通过使用(或者利用)前表面触摸屏120以及通过使用(或者利用)侧表面触摸传感器140来接收所述用户命令。
如上所述,包含在电子设备100中的侧表面触摸传感器140可以接收用户命令。例如,如图3中所示,侧表面触摸传感器140可以包括相对于机身160中心的左侧表面触摸传感器140-11、右侧表面触摸传感器140-12、上侧表面触摸传感器140-21和下侧表面触摸传感器140-22。在一些示例实施例中,侧表面触摸传感器140可以包括左侧表面触摸传感器140-11和右侧表面触摸传感器140-12之一,以及上侧表面触摸传感器140-21和下侧表面触摸传感器140-22之一。换句话说,侧表面触摸传感器140可以包括相对于机身160中心的左侧表面触摸传感器140-11、右侧表面触摸传感器140-12、上侧表面触摸传感器140-21和下侧表面触摸传感器140-22中的一个或多个。所述用户命令可以包括用户触摸侧表面触摸传感器140的至少之一超过激活时间(例如,设置或预设的激活时间)的操作,以及用户拖拽(例如,移动)各个侧表面触摸传感器140的触摸点的操作。就是说,通过触摸侧表面触摸传感器140的至少之一超过激活时间(例如,在各个触摸点上的设置或预设的激活时间),并且通过拖拽(例如,移动)各个侧表面触摸传感器140的触摸点,用户可以将所述用户命令输入给电子设备100。这里,所述用户命令可以由包含在机身160中的处理器162来处理。
在示例实施例中,当用户同时触摸左侧表面触摸传感器140-11和右侧表面触摸传感器140-12之一以及上侧表面触摸传感器140-21和下侧表面触摸传感器140-22之一超过所述激活时间时,可以将从左侧表面触摸传感器140-11或右侧表面触摸传感器140-12的第一触摸点延伸的第一指针线,以及从上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的第二触摸点延伸的第二指针线显示在前表面触摸屏120上。这里,可以将指针显示在第一指针线和第二指针线的交叉点上。例如,当用户同时触摸右侧表面触摸传感器140-12和下侧表面触摸传感器140-22超过激活时间时,可以将从右侧表面触摸传感器140-12的第一触摸点延伸的第一指针线和从下侧表面触摸传感器140-22的第二触摸点延伸的第二指针线显示在前表面触摸屏120上。此外,可以将所述指针显示在第一指针线和第二指针线的交叉点处。进一步,第一指针线和第二指针线可以相互垂直。然而,本发明构思不限于以上示例。就是说,用户可以同时触摸右侧表面触摸传感器140-12和上侧表面触摸传感器140-21,用户可以同时触摸左侧表面触摸传感器140-11和下侧表面触摸传感器140-22,或者用户可以同时触摸左侧表面触摸传感器140-11和上侧表面触摸传感器140-21。
如上所述,当用户触摸左侧表面触摸传感器140-11和右侧表面触摸传感器140-12之一以及上侧表面触摸传感器140-21和下侧表面触摸传感器140-22之一超过激活时间时,可以将指针、第一指针线和第二指针线显示在前表面触摸屏120上。随后,随着用户拖拽(例如,移动)左侧表面触摸传感器140-11或右侧表面触摸传感器140-12的第一触摸点和上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的第二触摸点,可以移动从左侧表面触摸传感器140-11或右侧表面触摸传感器140-12的第一触摸点延伸的第一指针线,从上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的第二触摸点延伸的第二指针线,以及在第一指针线和第二指针线的交叉点处显示的指针。因此,在观看在前表面触摸屏120上显示的指针、第一指针线和第二指针线的同时,通过拖拽各个侧表面触摸传感器140的触摸点(例如,通过拖拽左侧表面触摸传感器140-11或右侧表面触摸传感器140-12的第一触摸点,以及上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的第二触摸点),用户可以移动各个侧表面触摸传感器140的触摸点。
在将指针、第一指针线和第二指针线显示在前表面触摸屏120的同时,当用户触摸前表面触摸屏120时,机身160的处理器162可以对指针所指的内容(例如,图标、文本等)执行点击操作。例如,在将指针、第一指针线和第二指针线显示在前表面触摸屏120的同时,当用户触摸前表面触摸屏120的第一区域时,机身160的处理器162可以对所述内容执行第一点击操作,其中,所述第一区域是距指针参考距离(例如,设置或预设的距离)内的区域。另一方面,在将指针、第一指针线和第二指针线显示在前表面触摸屏120上时,当用户触摸前表面触摸屏120的第二区域时,机身160的处理器162可以对所述内容执行第二点击操作,其中,所述第二区域是距指针参考距离(例如,设置或预设的距离)之外的区域。例如,所述第一点击操作可以对应于计算机鼠标设备的左点击操作,并且所述第二点击操作可以对应于计算机鼠标设备的右点击操作。然而,由于这些是示例,可以以各种方式确定执行第一点击操作和第二点击操作的方式,第一点击操作和第二点击操作的功能,等等。例如,第一点击操作可以对应于计算机鼠标设备的右点击操作,并且第二点击操作可以对应于计算机鼠标设备的左点击操作。在一些示例实施例中,在用户已经移动了左侧表面触摸传感器140-11或右侧表面触摸传感器140-12的第一触摸点以及上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的第二触摸点之后,当失效(deactivation)时间(例如,设置或预设的失效时间)消逝时,不会将指针、第一指针线和第二指针线显示在前表面触摸屏120上。换句话说,所述指针、第一指针线和第二指针线会从前表面触摸屏120消失。
在另一示例实施例中,在将指针、第一指针线和第二指针线显示在前表面触摸屏120上的同时,用户可以释放对侧表面触摸传感器140的触摸,并且然后用户在重激活时间(例如,设置或预设的重激活时间)内可以再次触摸左侧表面触摸传感器140-11和右侧表面触摸传感器140-12之一以及上侧表面触摸传感器140-21和下侧表面触摸传感器140-22之一。随后,当用户移动左侧表面触摸传感器140-11或右侧表面触摸传感器140-12的第一触摸点以及上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的第二触摸点时,机身160的处理器162基于左侧表面触摸传感器140-11或右侧表面触摸传感器140-12的第一触摸点的移动距离以及上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的第二触摸点的移动距离可以设置(或确定)拖拽区域。就是说,机身160的处理器162可以对所述内容执行拖拽操作。例如,所述拖拽区域可以是四边形区域,其中,四边形的一侧对应于左侧表面触摸传感器140-11或右侧表面触摸传感器140-12的第一触摸点的移动距离,并且四边形的另一侧对应于上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的第二触摸点的移动距离。在一些示例实施例中,可以将重激活时间(例如,设置或预设的重激活时间)设置为短于激活时间。在其它示例实施例中,可以将重激活时间设置为长于激活时间,或者等于激活时间。
在仍然另一示例实施例中,当用户同时触摸左侧表面触摸传感器140-11和右侧表面触摸传感器140-12超过激活时间时,可以将连接在左侧表面触摸传感器140-11的第一触摸点和右侧表面触摸传感器140-12的第二触摸点之间的第一分割线显示在前表面触摸屏120上。此外,当用户同时触摸上侧表面触摸传感器140-21和下侧表面触摸传感器140-22超过激活时间时,可以将连接在上侧表面触摸传感器140-21的第三触摸点和下侧表面触摸传感器140-22的第四触摸点之间的第二分割线显示在前表面触摸屏120上。随后,随着用户移动左侧表面触摸传感器140-11的第一触摸点和右侧表面触摸传感器140-12的第二触摸点,可以将第一分割线在前表面触摸屏120上移动。类似地,随着用户移动上侧表面触摸传感器140-21的第三触摸点和下侧表面触摸传感器140-22的第四触摸点,可以将第二分割线在前表面触摸屏120上移动。这里,通过第一分割线可以将前表面触摸屏120的显示区域划分为上显示区域和下显示区域,并且通过第二分割线可以将前表面触摸屏120划分为左显示区域和右显示区域。在已经移动了左侧表面触摸传感器140-11的第一触摸点和右侧表面触摸传感器140-12的第二触摸点之后,当失效时间(例如,设置或预设的失效时间)消逝时,在前表面触摸屏120上可以不显示第一分割线。就是说,第一分割线会从前表面触摸屏120消失。类似地,在已经移动了上侧表面触摸传感器140-21的第三触摸点和下侧表面触摸传感器140-22的第四触摸点之后,当所述失效时间消逝时,在前表面触摸屏120上可以不显示第二分割线。就是说,第二分割线会从前表面触摸屏120消失。
仍然在另一示例实施例中,在将前表面触摸屏120的显示区域划分为上显示区域和下显示区域的同时,当用户同时触摸左侧表面触摸传感器140-11和右侧表面触摸传感器140-12超过激活时间(例如,设置或预设激活时间)时,可以在前表面触摸屏120上再次显示第一分割线。随后,随着用户移动左侧表面触摸传感器140-11的第一触摸点和右侧表面触摸传感器140-12的第二触摸点,可以相对地调节上显示区域和下显示区域(例如,可以相对地改变上显示区域的面积和下显示区域的面积)。类似地,在将前表面触摸屏120的显示区域划分为左显示区域和右显示区域的同时,当用户同时触摸上侧表面触摸传感器140-21和下侧表面触摸传感器140-22超过激活时间时,可以在前表面触摸屏120上再次显示第二分割线。随后,随着用户移动上侧表面触摸传感器140-21的第三触摸点和下侧表面触摸传感器140-22的第四触摸点,可以相对地调节左显示区域和右显示区域(例如,可以相对地改变左显示区域的面积和右显示区域的面积)。此外,在将前表面触摸屏120的显示区域划分为左显示区域、右显示区域、上显示区域和下显示区域的同时,当用户触摸左侧表面触摸传感器140-11、右侧表面触摸传感器140-12、上侧表面触摸传感器140-21或下侧表面触摸传感器140-22超过激活时间时,可以在前表面触摸屏120上再次部分地显示第一分割线或第二分割线。随后,随着用户移动左侧表面触摸传感器140-11的第一触摸点、右侧表面触摸传感器140-12的第二触摸点、上侧表面触摸传感器140-21的第三触摸点、或者下侧表面触摸传感器140-22的第四触摸点,可以相对地调节左和右显示区域或者上和下显示区域(例如,可以相对地改变左显示区域的面积和右显示区域的面积,或者可以相对地改变上显示区域的面积和下显示区域的面积)。
仍然在另一示例实施例中,在将前表面触摸屏120的显示区域划分为左显示区域、右显示区域、上显示区域和下显示区域的同时,当用户以交错方式(staggered manner)同时触摸左侧表面触摸传感器140-11和右侧表面触摸传感器140-12超过激活时间(例如,设置或预设激活时间)时,或者当用户以交错方式同时触摸上侧表面触摸传感器140-21和下侧表面触摸传感器140-22超过激活时间时,可以在前表面触摸屏120上再次显示第一分割线和第二分割线。例如,当用户以交错方式同时触摸上侧表面触摸传感器140-21和下侧表面触摸传感器140-22超过激活时间时,可以在前表面触摸屏120上再次显示第一分割线和第二分割线。随后,随着用户移动左侧表面触摸传感器140-11的第一触摸点、右侧表面触摸传感器140-12的第二触摸点、上侧表面触摸传感器140-21的第三触摸点、或者下侧表面触摸传感器140-22的第四触摸点,可以绕着第一分割线和第二分割线的交叉点旋转前表面触摸屏120的被分割显示区域(例如,左显示区域、右显示区域、上显示区域和下显示区域)。
仍然在另一示例实施例中,在将前表面触摸屏120的显示区域划分为左显示区域、右显示区域、上显示区域和下显示区域的同时,当用户同时触摸左侧表面触摸传感器140-11和右侧表面触摸传感器140-12之一以及上侧表面触摸传感器140-21和下侧表面触摸传感器140-22之一超过激活时间(例如,设置或预设的激活时间)时,可以在前表面触摸屏120上再次显示第一分割线和第二分割线。例如,当用户同时触摸右侧表面触摸传感器140-12和下侧表面触摸传感器140-22超过激活时间时,可以在前表面触摸屏120上再次显示第一分割线和第二分割线。随后,用户通过触摸被分割显示区域之一可以确定被分割显示区域(例如,左显示区域、右显示区域、上显示区域和下显示区域)当中的目标显示区域。因此,随着用户移动左侧表面触摸传感器140-11的第一触摸点、右侧表面触摸传感器140-12的第二触摸点、上侧表面触摸传感器140-21的第三触摸点、或者下侧表面触摸传感器140-22的第四触摸点,可以放大或缩小所述目标显示区域。
可以将所述机身与前表面触摸屏120和侧表面触摸传感器140相结合。如上所述,由于前表面触摸屏120包括显示面板和触摸传感面板,机身160可以包括用于控制显示面板和触摸传感面板的至少一个控制器(例如,显示控制器和触摸传感控制器)。这里,所述控制器可以控制前表面触摸屏120的显示功能和触摸传感器功能。此外,机身160可以包含处理通过侧表面触摸传感器140输入的用户命令的处理器162。在一些示例实施例中,机身160可以通过前表面触摸屏120以及侧表面触摸传感器140接收用户命令。处理器162通过执行特定的计算和/或特定的任务可以控制电子设备100的所有操作。例如,处理器162可以是微处理器、中央处理单元(CPU)等。此外,机身160可以进一步包含传感器、内存器件、存储设备、功能设备等。所述传感器可以执行电子设备100的各种传感操作。例如,所述传感器可以包括:陀螺仪传感器,测量旋转角速度;加速度传感器,测量速度和动量;地磁场传感器,充当罗盘;气压计传感器,测量纬度;握持传感器,确定用户是否握持电子设备100;手势接近照明传感器,执行诸如运动识别、接近检测、照明测量等的各种操作;和/或温度-湿度传感器,测量温度和湿度。然而,在电子设备100中包含的传感器种类不限于此。
所述内存器件可以存储用于电子设备100操作的数据。例如,所述内存器件可以包括诸如动态随机访问存储(DRAM)器件、静态随机访问存储(SRAM)器件、移动DRAM器件等的易失性半导体存储器件,和/或诸如可擦除可编程只读存储(EPROM)器件、电可擦除可编程只读存储(EEPROM)器件、快闪存储器件、相变随机访问存储(PRAM)器件、电阻随机访问存储(RRAM)器件、纳米浮栅存储(NFGM)器件、聚合物随机访问存储(PoRAM)器件、磁随机访问存储(MRAM)器件、铁电体随机访问存储(FRAM)器件等的非易失性半导体存储器件。所述存储设备可以包括固态驱动(SSD)设备、硬盘驱动(HDD)设备、CD-ROM设备等。所述功能设备可以执行电子设备100的各种功能。例如,所述功能设备可以包括执行照相功能的照相设备、执行通信功能的通信设备(例如,码分多址(CDMA)模块、长期演进(LTE)模块、射频(RF)模块、超宽带(UWB)模块、无线局域网(WLAN)模块、全球微波互联接入(WIMAX)模块等)、全球定位系统(GPS)设备、麦克风(MIC)设备、扬声器设备等。然而,包含在电子设备100中的功能设备的种类不限于此。
如上所述,电子设备100可以包括用于接收用户命令的侧表面触摸传感器140。这样,电子设备100可以允许用户向电子设备100准确和精确地输入用户命令,因为电子设备100基于用户触摸侧表面触摸传感器140的至少之一超过激活时间的操作以及用户拖拽(例如,移动)各个侧表面触摸传感器140的触摸点的操作来接收用户命令。简言之,电子设备100利用新的用户接口,以便用户可以准确和精确地向电子设备100输入用户命令。尽管以上描述将电子设备100实现为手表形状的移动设备(例如,被称为智能手表),但是电子设备100的种类不限于此。例如,可以将电子设备100实现为手机、智能手机、智能平板、个人数字助手(PDA)、便携式多媒体播放器(PMP)、MP3播放器、平板PC、膝上电脑、数码相机、摄像录像机、游戏控制台等。此外,尽管以上描述了将用户命令输入电子设备100的各种示例实施例,但是在没有实质上脱离本发明构思的新颖示教和特点的情况下,可以以各种方式将用户命令输入到电子设备100。
图4是示出在图1的电子设备中执行点击操作的过程的流程图。图5A至5D是示出在图1的电子设备中执行点击操作的示例的图。图6是示出在图1的电子设备中将点击操作确定为计算机鼠标设备的右点击操作或左点击操作的示例的图。
参照图4至6,其示出在图1的电子设备100中执行点击操作CK。例如,如图5A和5B中所示,当用户同时触摸左侧表面触摸传感器140-11和右侧表面触摸传感器140-12之一以及上侧表面触摸传感器140-21和下侧表面触摸传感器140-22之一超过激活时间(例如,设置或预设的激活时间)时(S120),可以将从左侧表面触摸传感器140-11或右侧表面触摸传感器140-12的第一触摸点延伸的第一指针线122-1和从上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的第二触摸点延伸的第二指针线122-2显示在前表面触摸屏120上。这里,可以将指针121显示在第一指针线122-1和第二指针线122-2的交叉点处。就是说,当用户同时触摸左侧表面触摸传感器140-11和右侧表面触摸传感器140-12之一以及上侧表面触摸传感器140-21和下侧表面触摸传感器140-22之一超过激活时间时,可以将指针121、第一指针线122-1和第二指针线122-2显示在前表面触摸屏120上。例如,图5A和5B中示出,当用户同时触摸右侧表面触摸传感器140-12和下侧表面触摸传感器140-22超过激活时间时,将从右侧表面触摸传感器140-12的第一触摸点延伸的第一指针线122-1和从下侧表面触摸传感器140-22的第二触摸点延伸的第二指针线122-2显示在前表面触摸屏120上。此外示出,当用户同时触摸右侧表面触摸传感器140-12和下侧表面触摸传感器140-22超过激活时间时,将指针121显示在第一指针线122-1和第二指针线122-2的交叉点上。
随后,如图5C中所示,当用户拖拽(例如,移动)左侧表面触摸传感器140-11或右侧表面触摸传感器140-12的第一触摸点和上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的第二触摸点时(S140),可以在前表面触摸屏120上移动指针121、第一指针线122-1和第二指针线122-2。这里,可以沿拖拽方向移动指针121、第一指针线122-1和第二指针线122-2。就是说,通过移动左侧表面触摸传感器140-11或右侧表面触摸传感器140-12的第一触摸点和上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的第二触摸点,用户可以移动从左侧表面触摸传感器140-11或右侧表面触摸传感器140-12的第一触摸点延伸的第一指针线122-1和从上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的第二触摸点延伸的第二指针线122-2。结果,可以在前表面触摸屏120上移动在第一指针线122-1和第二指针线122-2的交叉点上显示的指针121。简言之,通过在观察在前表面触摸屏120上显示的指针121、第一指针线122-1和第二指针线122-2的同时拖拽各个侧表面触摸传感器140的触摸点,用户可以将指针121放置在前表面触摸屏120的所期望位置。例如,图5C中示出,随着移动右侧表面触摸传感器140-12的第一触摸点和下侧表面触摸传感器140-22的第二触摸点,移动指针121、第一指针线122-1和第二指针线122-2。
接下来,如图5D中所示,在将指针121、第一指针线122-1和第二指针线122-2显示在前表面触摸屏120上的同时,当用户触摸前表面触摸屏120时,机身160的处理器162可以对指针121所指的内容(例如,图标、文本等)执行点击操作CK(S160)。这里,如图6中所示,当用户触摸前表面触摸屏120的第一区域IR时,机身160的处理器162可以对所述内容执行第一点击操作,其中,所述第一区域IR是距指针121参考距离(例如,设置或预设距离)之内的区域。另一方面,如图6中所示,当用户触摸前表面触摸屏120的第二区域OR时,机身160的处理器162可以对所述内容执行第二点击操作,其中,所述第二区域是距指针121参考距离之外的区域。例如,所述第一点击操作可以对应于计算机鼠标设备的左点击操作,并且第二点击操作可以对应于计算机鼠标设备的右点击操作。然而,由于这些是示例,可以以各种方式确定执行第一点击操作和第二点击操作的方式,第一点击操作和第二点击操作的功能,等等。例如,所述第一点击操作可以对应于计算机鼠标设备的右点击操作,并且所述第二点击操作可以对应于计算机鼠标设备的左点击操作。在一些示例实施例中,在用户已经移动左侧表面触摸传感器140-11或右侧表面触摸传感器140-12的第一触摸点和上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的第二触摸点之后,当失效时间(例如,设置或预设的时间)消逝时,指针121、第一指针线122-1和第二指针线122-2可以从前表面触摸屏120消失。结果,可以完成用于所述点击操作CK的指针移动操作。
图7是示出在图1的电子设备中执行拖拽操作的过程的流程图。图8A至8D是示出在图1的电子设备中执行拖拽操作的示例的图。
参照图7至8D,其示出在图1的电子设备中执行拖拽操作。例如,如图8A和8B中所示,随着用户移动在前表面触摸屏120上显示的指针121、第一指针线122-1和第二指针线122-2,可以确定所述拖拽操作的起点DS(S220)。随后,如图8B和8C中所示,用户可以释放对侧表面触摸传感器140的触摸(S240),然后,用户在重激活时间(例如,设置或预设的重激活时间)内可以再次触摸左侧表面触摸传感器140-11和右侧表面触摸传感器140-12之一以及上侧表面触摸传感器140-21和下侧表面触摸传感器140-22之一(S260)。接下来,如图8D中所示,当用户移动左侧表面触摸传感器140-11或右侧表面触摸传感器140-12的第一触摸点和上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的第二触摸点时(S280),基于左侧表面触摸传感器140-11或右侧表面触摸传感器140-12的第一触摸点的移动距离和上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的第二触摸点的移动距离可以设置(或确定)拖拽区域123。就是说,通过移动左侧表面触摸传感器140-11或右侧表面触摸传感器140-12的第一触摸点和上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的第二触摸点可以执行所述拖拽操作。例如,图8D中示出,通过移动右侧表面触摸传感器140-12的第一触摸点和下侧表面触摸传感器140-22的第二触摸点执行所述拖拽操作。
图9是示出在图1的电子设备中执行区域分割操作的过程的流程图。图10A至10D是示出在图1的电子设备中执行区域分割操作的示例的图。图11A至11D是示出在图1的电子设备中执行区域分割操作的另一示例的图。
参照图9至11D,其示出在图1的电子设备中执行区域分割操作。如图10A和10B中所示,当用户同时触摸左侧表面触摸传感器140-11和右侧表面触摸传感器140-12超过激活时间(例如,设置或预设的激活时间)时(S320),可以将连接在左侧表面触摸传感器140-11的第一触摸点和右侧表面触摸传感器140-12的第二触摸点之间的第一分割线124显示在前表面触摸屏120上。随后,如图10C中所示,随着用户移动左侧表面触摸传感器140-11的第一触摸点和右侧表面触摸传感器140-12的第二触摸点(S340),可以在前表面触摸屏120上移动第一分割线124。接下来,如图10D中所示,当用户释放对左侧表面触摸传感器140-11和右侧表面触摸传感器140-12的触摸时(S360),通过第一分割线124可以将前表面触摸屏120的显示区域划分为上显示区域和下显示区域。在一些示例实施例中,在已经移动了左侧表面触摸传感器140-11的第一触摸点和右侧表面触摸传感器140-12的第二触摸点之后,当失效时间(例如,设置或预设失效时间)消逝时,第一分割线124可以在前表面触摸屏120上消失。
类似地,如图11A和11B中所示,当用户同时触摸上侧表面触摸传感器140-21和下侧表面触摸传感器140-22超过激活时间时(S320),可以将连接在上侧表面触摸传感器140-21的第三触摸点和下侧表面触摸传感器140-22的第四触摸点之间的第二分割线125显示在前表面触摸屏120上。随后,如图11C中所示,随着用户移动上侧表面触摸传感器140-21的第三触摸点和下侧表面触摸传感器140-22的第四触摸点(S340),可以在前表面触摸屏120上移动第二分割线125。接下来,如图11D中所示,当用户释放对上侧表面触摸传感器140-21和下侧表面触摸传感器140-22的触摸时(S360),通过第二分割线125可以将前表面触摸屏120的显示区域划分为左显示区域和右显示区域。在一些示例实施例中,在已经移动了上侧表面触摸传感器140-21的第三触摸点和下侧表面触摸传感器140-22的第四触摸点之后,当失效时间消逝时,第二分割线125可以在前表面触摸屏120上消失。
图12示出在图1的电子设备中部分地执行区域分割操作的过程的流程图。图13A至13D是示出在图1的电子设备中部分地执行区域分割操作的示例的图。
参照图12至13D,其示出在图1的电子设备中部分地执行区域分割操作。例如,如图13A和13B中所示,在将前表面触摸屏120的显示区域划分为上显示区域和下显示区域的同时,当用户触摸上侧表面触摸传感器140-21或下侧表面触摸传感器140-22超过激活时间(例如,设置或预设的激活时间)时(S420),可以在前表面触摸屏120的上显示区域或下显示区域上显示部分分割线126。例如,图13A和13B中示出,当用户触摸上侧表面触摸传感器140-21超过激活时间时,在前表面触摸屏120的上显示区域上显示部分分割线126。随后,如图13C中所示,随着用户移动上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的触摸点(S440),可以移动部分分割线126,并且因此可以将上显示区域或下显示区域划分为左显示区域和右显示区域。例如,图13C中示出,通过部分分割线126将上显示区域划分为左显示区域和右显示区域。接下来,如图13D中所示,当用户释放对上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的触摸时(S460),可以完成对上显示区域或下显示区域的所述区域分割操作。然而,本发明构思不限于此。例如,可以将左显示区域(或右显示区域)划分为上显示区域和下显示区域。此外,可以同时将上和下显示区域(或者左和右显示区域)划分为左和右显示区域(或者上和下显示区域)。
图14是示出在图1的电子设备中执行区域调节操作的过程的流程图。图15A至15D是示出在图1的电子设备中执行区域调节操作的示例的图。
参照图14至15D,其示出在图1的电子设备中执行区域调节操作。例如,如图15A和15B中所示,在将前表面触摸屏120的显示区域划分为上显示区域、下显示区域、左显示区域和右显示区域的同时,当用户同时触摸上侧表面触摸传感器140-21和下侧表面触摸传感器140-22超过激活时间(例如,设置或预设的激活时间)时(S520),可以在前表面触摸屏120上再次显示垂直分割线127(例如,左区域-右区域分割线)。随后,如图15C中所示,随着用户移动上侧表面触摸传感器140-21的触摸点和下侧表面触摸传感器140-22的触摸点(S540),可以相对地调节所述左显示区域和右显示区域(例如,可以相对地改变左显示区域的面积和右显示区域的面积)。接下来,如图15D中所示,当用户释放对上侧表面触摸传感器140-21和下侧表面触摸传感器140-22的触摸时(S560),可以完成对左显示区域和右显示区域的所述区域调节操作。类似地,在将前表面触摸屏120的显示区域划分为上显示区域、下显示区域、左显示区域和右显示区域的同时,当用户同时触摸左侧表面触摸传感器140-11和右侧表面触摸传感器140-12超过激活时间时,可以在前表面触摸屏120上再次显示水平分割线127(例如,上区域-下区域分割线)。随后,随着用户移动左侧表面触摸传感器140-11的触摸点和右侧表面触摸传感器140-12的触摸点,可以相对地调节上显示区域和下显示区域(例如,可以相对地改变上显示区域的面积和下显示区域的面积)。接下来,当用户释放对左侧表面触摸传感器140-11和右侧表面触摸传感器140-12的触摸时,可以完成对上显示区域和下显示区域的所述区域调节操作。
图16是示出在图1的电子设备中部分地执行区域调节操作的过程的流程图。图17A至17D是示出在图1的电子设备中部分地执行区域调节操作的示例的图。
参照图16至17D,其示出在图1的电子设备中部分地执行所述区域调节操作。例如,如图17A和17B中所示,在将前表面触摸屏120的显示区域划分为上显示区域、下显示区域、左显示区域和右显示区域的同时,当用户触摸左侧表面触摸传感器140-11、右侧表面触摸传感器140-12、上侧表面触摸传感器140-21或下侧表面触摸传感器140-22超过激活时间(例如,设置或预设的激活时间)时(S620),可以在前表面触摸屏120上显示部分分割线128。例如,图17A和17B中示出,当用户触摸上侧表面触摸传感器140-21超过激活时间时,在前表面触摸屏120的上显示区域中显示部分分割线128。随后,如图17C中所示,随着用户移动左侧表面触摸传感器140-11、右侧表面触摸传感器140-12、上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的触摸点(S640),可以对前表面触摸屏120的每个显示区域(例如,上显示区域、下显示区域、左显示区域或右显示区域)执行区域调节操作。例如,图17C中示出相对地调节上显示区域的左和右显示区域(例如,相对地改变上显示区域的左显示区域的面积和上显示区域的右显示区域的面积)。接下来,如图17D中所示,当用户释放对左侧表面触摸传感器140-11、右侧表面触摸传感器140-12、上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的触摸时(S660),可以完成对每个显示区域(例如,上显示区域、下显示区域、左显示区域或右显示区域)的区域调节操作。
图18是示出在图1的电子设备中执行区域移动操作的过程的流程图。图19A至19D是示出在图1的电子设备中执行区域移动操作的示例的图。
参照图18至19D,其示出在图1的电子设备中执行的区域移动操作。例如,如图19A和19B中所示,在将前表面触摸屏120的显示区域划分为左显示区域、右显示区域、上显示区域和下显示区域的同时,当用户以交错方式同时触摸左侧表面触摸传感器140-11和右侧表面触摸传感器140-12超过激活时间(例如,设置或预设的激活时间)时(S720),或者当用户以交错方式同时触摸上侧表面触摸传感器140-21和下侧表面触摸传感器140-22超过激活时间时(S720),可以在前表面触摸屏120上再次显示第一分割线129-1和第二分割线129-2。如图19A和19B中所示,前表面触摸屏120的显示区域可以包括被第一分割线129-1和第二分割线129-2划分的第一至第四显示区域FA、SA、TA和PA。例如,在图19A和19B中示出用户以交错方式同时触摸左侧表面触摸传感器140-11和右侧表面触摸传感器140-12超过激活时间。随后,如图19C中所示,随着用户移动左侧表面触摸传感器140-11的触摸点和右侧表面触摸传感器140-12的触摸点(S740),或者随着用户移动上侧表面触摸传感器140-21的触摸点和下侧表面触摸传感器140-22的触摸点(S740),可以绕第一分割线129-1和第二分割线129-2的交叉点旋转前表面触摸屏120的第一至第四显示区域FA、SA、TA和PA。例如,图19C中示出用户移动左侧表面触摸传感器140-11的触摸点和右侧表面触摸传感器140-12的触摸点。接下来,如图19D中所示,当用户释放对侧表面触摸传感器140的触摸时(S760),可以完成对第一至第四显示区域FA、SA、TA和PA的区域移动操作。
图20是示出在图1的电子设备中执行区域缩放操作的过程的流程图。图21A至21E是示出在图1的电子设备中执行区域缩放操作的示例的图。
参照图20至21E,其示出在图1的电子设备中执行区域缩放操作。例如,如图21A中所示,在将前表面触摸屏120的显示区域划分为左显示区域、右显示区域、上显示区域和下显示区域的同时,当用户同时触摸左侧表面触摸传感器140-11和右侧表面触摸传感器140-12之一以及上侧表面触摸传感器140-21和下侧表面触摸传感器140-22之一超过激活时间(例如,设置或预设的激活时间)时(S820),可以在前表面触摸屏120上再次显示第一分割线129-1和第二分割线129-2。例如,图21A中示出用户同时触摸右侧表面触摸传感器140-12和下侧表面触摸传感器140-22超过激活时间。随后,如图21B中所示,当用户触摸被分割显示区域之一(例如,目标显示区域MA)时,可以确定被分割显示区域(例如,左显示区域、右显示区域、上显示区域和下显示区域)当中的目标显示区域MA。接下来,如图21C和21D中所示,随着用户移动左侧表面触摸传感器140-11、右侧表面触摸传感器140-12、上侧表面触摸传感器140-21或下侧表面触摸传感器140-22的触摸点(S860),可以放大或缩小所述的目标显示区域MA。例如,图21C和21D中示出用户移动右侧表面触摸传感器140-12的触摸点。然后,如图21E中所示,当用户同时触摸左侧表面触摸传感器140-11和右侧表面触摸传感器140-12之一以及上侧表面触摸传感器140-21和下侧表面触摸传感器140-22之一超过失效时间(例如,设置或预设的失效时间)时(S880),可以完成对目标显示区域MA的区域缩放操作。
可以将本发明构思应用于包含触摸屏的任何电子设备(例如,手表形状的移动设备)。例如,可以将本发明构思应用于手机、智能手机、智能平板、个人数字助手(PDA)、便携式多媒体播放器(PMP)、MP3播放器、平板PC、膝上电脑、数码相机、摄像录像机、游戏控制台等等。
以上的示例实施例是说明性的,不应当理解为对其的限制。虽然已经描述了几个示例实施例,本领域技术人员将容易理解,在实质上不脱离本发明构思的新颖示教和特点的情况下,示例实施例中的许多修改是可能的。因此,意图将所有这些修改都包含在如权利要求书及其等价物中所定义的本发明构思的范围之内。因此,将理解,上述的各种示例实施例是说明性的,并且不应当被理解为限定于所包含的特定示例实施例,并且意图将所包含示例实施例的修改以及其它示例实施例包含在所附权利要求书及其等价物的范围之内。
Claims (20)
1.一种电子设备,包含:
前表面触摸屏;
多个侧表面触摸传感器,被配置接收用户命令;以及
机身,包含用于处理用户命令的处理器,所述机身与前表面触摸屏和侧表面触摸传感器相结合,
其中,所述用户命令包括:
用户触摸所述侧表面触摸传感器的至少之一超过激活时间的操作;以及
用户移动所述侧表面触摸传感器的至少之一的触摸点的操作。
2.如权利要求1所述的设备,其中,所述侧表面触摸传感器包括相对于机身中心的左侧表面触摸传感器、右侧表面触摸传感器、上侧表面触摸传感器以及下侧表面触摸传感器。
3.如权利要求2所述的设备,其中,所述电子设备对应于用户戴在手腕上的手表形状的移动设备。
4.如权利要求2所述的设备,其中,当用户同时触摸左侧表面触摸传感器和右侧表面触摸传感器之一以及上侧表面触摸传感器和下侧表面触摸传感器之一超过激活时间时,在前表面触摸屏上显示从左侧表面触摸传感器或右侧表面触摸传感器的第一触摸点延伸的第一指针线以及从上侧表面触摸传感器或下侧表面触摸传感器的第二触摸点延伸的第二指针线,并且
其中,在前表面触摸屏的第一指针线和第二指针线的交叉点处显示指针。
5.如权利要求4所述的设备,其中,随着用户移动所述第一触摸点和所述第二触摸点,在前表面触摸屏上移动所述指针、第一指针线和第二指针线。
6.如权利要求5所述的设备,其中,在用户已经移动第一触摸点和第二触摸点之后,当失效时间消逝时,所述指针、第一指针线和第二指针线从前表面触摸屏消失。
7.如权利要求5所述的设备,其中,在将指针、第一指针线和第二指针线显示在前表面触摸屏上的同时,当用户触摸前表面触摸屏时,配置处理器对指针所指的内容执行点击操作。
8.如权利要求7所述的设备,其中,在将指针、第一指针线和第二指针线显示在前表面触摸屏上的同时,当用户触摸前表面触摸屏的第一区域时,配置所述处理器执行对所述内容的第一点击操作,所述第一区域是距所述指针参考距离之内的区域,以及
其中,在将指针、第一指针线和第二指针线显示在前表面触摸屏上的同时,当用户触摸前表面触摸屏的第二区域时,配置处理器执行对所述内容的第二点击操作,所述第二区域是在距所述指针参考距离之外的区域。
9.如权利要求8所述的设备,其中,所述第一点击操作对应于计算机鼠标设备的左点击操作,并且所述第二点击操作对应于计算机鼠标设备的右点击操作。
10.如权利要求5所述的设备,其中,在用户释放对所述侧表面触摸传感器的触摸之后,当用户在重激活时间内再次触摸侧表面触摸传感器时,配置处理器对所述内容执行拖拽操作,并且将指针、第一指针线和第二指针线显示在前表面触摸屏上的同时,移动第一触摸点和第二触摸点。
11.如权利要求10所述的设备,其中,将所述重激活时间设置为短于所述激活时间。
12.如权利要求2所述的设备,其中,当用户同时触摸左侧表面触摸传感器和右侧表面触摸传感器超过激活时间时,在前表面触摸屏上显示连接在左侧表面触摸传感器的第一触摸点与右侧表面触摸传感器的第二触摸点之间的第一分割线,以及
其中,当用户同时触摸上侧表面触摸传感器和下侧表面触摸传感器超过激活时间时,在前表面触摸屏上显示连接在上侧表面触摸传感器的第三触摸点与下侧表面触摸传感器的第四触摸点之间的第二分割线。
13.如权利要求12所述的设备,其中,随着用户移动第一触摸点和第二触摸点,在前表面触摸屏上移动第一分割线,并且随着用户移动第三触摸点和第四触摸点,在前表面触摸屏上移动第二分割线。
14.如权利要求13所述的设备,其中,通过第一分割线将前表面触摸屏的显示区域划分为上显示区域和下显示区域,并且通过第二分割线将前表面触摸屏划分为左显示区域和右显示区域。
15.如权利要求14所述的设备,其中,在用户移动了第一触摸点和第二触摸点之后,当失效时间消逝时,所述第一分割线从前表面触摸屏上消失,以及
其中,在用户已经移动了第三触摸点和第四触摸点之后,当失效时间消逝时,所述第二分割线从前表面触摸屏上消失。
16.如权利要求14所述的设备,其中,在将前表面触摸屏的显示区域划分为上显示区域和下显示区域的同时,当用户同时触摸左侧表面触摸传感器和右侧表面触摸传感器超过激活时间时,在前表面触摸屏上再次显示第一分割线,以及
其中,随着用户移动第一触摸点和第二触摸点,相对地调节上显示区域和下显示区域。
17.如权利要求14所述的设备,其中,在将前表面触摸屏的显示区域划分为左显示区域和右显示区域的同时,当用户同时触摸上侧表面触摸传感器和下侧表面触摸传感器超过激活时间时,在前表面触摸屏上再次显示第二分割线,以及
其中,随着用户移动第三触摸点和第四触摸点,相对地调节左显示区域和右显示区域。
18.如权利要求14所述的设备,其中,在将前表面触摸屏的显示区域划分为左显示区域、右显示区域、上显示区域和下显示区域的同时,当用户触摸左侧表面触摸传感器、右侧表面触摸传感器、上侧表面触摸传感器或下侧表面触摸传感器超过激活时间时,在前表面触摸屏上再次部分地显示所述第一分割线或第二分割线,以及
其中,随着用户移动所述第一触摸点、第二触摸点、第三触摸点或第四触摸点,相对地调节左和右显示区域或者上和下显示区域。
19.如权利要求14所述的设备,其中,在将前表面触摸屏的显示区域划分为左显示区域、右显示区域、上显示区域和下显示区域的同时,当用户以交错方式同时触摸左侧表面触摸传感器和右侧表面触摸传感器超过激活时间时,或者当用户以交错方式同时触摸上侧表面触摸传感器和下侧表面触摸传感器超过激活时间时,在前表面触摸屏上再次显示所述第一分割线或第二分割线,以及
其中,随着用户移动所述第一触摸点、第二触摸点、第三触摸点或第四触摸点,围绕第一分割线和第二分割线的交叉点旋转左显示区域、右显示区域、上显示区域和下显示区域。
20.如权利要求14所述的设备,其中,在将前表面触摸屏的显示区域划分为左显示区域、右显示区域、上显示区域和下显示区域的同时,在用户同时触摸左侧表面触摸传感器和右侧表面触摸传感器之一以及上侧表面触摸传感器和下侧表面触摸传感器之一超过激活时间之后,当用户触摸左显示区域、右显示区域、上显示区域和下显示区域之一时,确定目标显示区域,以及
其中,随着用户移动所述第一触摸点、第二触摸点、第三触摸点或第四触摸点,放大或缩小所述目标显示区域。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2013-0164933 | 2013-12-27 | ||
KR1020130164933A KR102189451B1 (ko) | 2013-12-27 | 2013-12-27 | 전자 기기 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104750305A true CN104750305A (zh) | 2015-07-01 |
Family
ID=51625802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410573485.3A Pending CN104750305A (zh) | 2013-12-27 | 2014-10-23 | 电子设备 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9959035B2 (zh) |
EP (1) | EP2889747A1 (zh) |
JP (1) | JP2015127957A (zh) |
KR (1) | KR102189451B1 (zh) |
CN (1) | CN104750305A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105159512A (zh) * | 2015-09-09 | 2015-12-16 | 业成光电(深圳)有限公司 | 改良式环形穿戴式触控显示装置 |
CN107132755A (zh) * | 2016-02-26 | 2017-09-05 | 华为技术有限公司 | 一种手表 |
CN108351616A (zh) * | 2016-01-14 | 2018-07-31 | 华为技术有限公司 | 电子设备和操作这种电子设备的方法 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150098115A (ko) * | 2014-02-19 | 2015-08-27 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
CN104267889B (zh) * | 2014-09-15 | 2019-03-29 | 联想(北京)有限公司 | 一种控制方法和电子设备 |
KR20170007966A (ko) * | 2015-07-13 | 2017-01-23 | 한국과학기술원 | 측면 터치 조합을 이용한 스마트 디바이스 조작 방법 및 장치 |
US10574430B2 (en) * | 2015-10-29 | 2020-02-25 | Nippon Telegraph And Telephone Corporation | Relay transmission system, relay transmission method, and relay transmission device |
CN108700958B (zh) | 2016-03-01 | 2021-08-10 | 麦克赛尔株式会社 | 可穿戴信息终端 |
JP6928127B2 (ja) * | 2016-03-01 | 2021-09-01 | マクセル株式会社 | ウェアラブル情報端末 |
CN107544624B (zh) * | 2016-06-29 | 2021-08-20 | 华为技术有限公司 | 一种智能穿戴产品 |
CN106292262A (zh) * | 2016-07-29 | 2017-01-04 | 努比亚技术有限公司 | 一种内容编辑方法及智能手表 |
CN107037956A (zh) * | 2016-11-01 | 2017-08-11 | 华为机器有限公司 | 一种终端及其切换应用的方法 |
US10318130B2 (en) | 2016-12-12 | 2019-06-11 | Google Llc | Controlling window using touch-sensitive edge |
KR102330999B1 (ko) * | 2017-08-01 | 2021-11-25 | 삼성전자 주식회사 | 전자 장치 및 이의 제어 방법 |
JP7173075B2 (ja) | 2020-03-23 | 2022-11-16 | カシオ計算機株式会社 | 電子機器、電子機器制御方法、電子機器制御プログラム |
TWI794875B (zh) * | 2021-07-09 | 2023-03-01 | 華碩電腦股份有限公司 | 電子裝置及操作控制方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007200002A (ja) * | 2006-01-26 | 2007-08-09 | Brother Ind Ltd | 表示装置および表示制御プログラム |
JP2010231653A (ja) * | 2009-03-27 | 2010-10-14 | Softbank Mobile Corp | 表示装置、表示方法、およびプログラム |
CN101887343A (zh) * | 2009-05-11 | 2010-11-17 | 索尼公司 | 信息处理设备和信息处理方法 |
US20110105187A1 (en) * | 2009-10-30 | 2011-05-05 | Cellco Partnership D/B/A Verizon Wireless | Flexible home page layout for mobile devices |
JP2011120090A (ja) * | 2009-12-04 | 2011-06-16 | Nec Corp | 携帯端末、携帯端末の操作方法、及び携帯端末の操作プログラム |
US20120054671A1 (en) * | 2010-08-30 | 2012-03-01 | Vmware, Inc. | Multi-touch interface gestures for keyboard and/or mouse inputs |
Family Cites Families (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2175148C (en) * | 1996-04-26 | 2002-06-11 | Robert Cecco | User interface control for creating split panes in a single window |
JP3785902B2 (ja) * | 2000-07-11 | 2006-06-14 | インターナショナル・ビジネス・マシーンズ・コーポレーション | デバイス、デバイスの制御方法、ポインタの移動方法 |
JP5039911B2 (ja) * | 2000-10-11 | 2012-10-03 | インターナショナル・ビジネス・マシーンズ・コーポレーション | データ処理装置、入出力装置、タッチパネルの制御方法、記憶媒体及びプログラム伝送装置 |
JP2003296015A (ja) | 2002-01-30 | 2003-10-17 | Casio Comput Co Ltd | 電子機器 |
US20060020903A1 (en) * | 2004-07-26 | 2006-01-26 | Shih-Yang Wang | Window split system and method |
US9423995B2 (en) | 2007-05-23 | 2016-08-23 | Google Technology Holdings LLC | Method and apparatus for re-sizing an active area of a flexible display |
KR100938158B1 (ko) | 2007-10-18 | 2010-01-21 | 주식회사 현대오토넷 | 터치 스크롤 기능을 가지는 내비게이션 장치 및 그 동작방법 |
EP2225628B1 (en) * | 2007-12-20 | 2018-05-30 | Myriad France | Method and system for moving a cursor and selecting objects on a touchscreen using a finger pointer |
KR101447752B1 (ko) | 2008-03-25 | 2014-10-06 | 삼성전자주식회사 | 터치스크린에서 화면 분할과 화면 표시장치 및 방법 |
WO2010007813A1 (ja) * | 2008-07-16 | 2010-01-21 | 株式会社ソニー・コンピュータエンタテインメント | 携帯型画像表示装置、その制御方法及び情報記憶媒体 |
KR101292719B1 (ko) | 2008-09-03 | 2013-08-01 | 에스케이플래닛 주식회사 | 측면 터치 인터페이스 장치 및 방법 |
US8780054B2 (en) * | 2008-09-26 | 2014-07-15 | Lg Electronics Inc. | Mobile terminal and control method thereof |
US8547347B2 (en) * | 2008-09-26 | 2013-10-01 | Htc Corporation | Method for generating multiple windows frames, electronic device thereof, and computer program product using the method |
KR20100042833A (ko) | 2008-10-17 | 2010-04-27 | 삼성전자주식회사 | 측면 터치 스크린을 갖는 휴대 단말기 |
KR20100058250A (ko) | 2008-11-24 | 2010-06-03 | 한데이비드 | 모바일 디바이스의 사용자 인터페이스 |
US8446376B2 (en) * | 2009-01-13 | 2013-05-21 | Microsoft Corporation | Visual response to touch inputs |
KR101601268B1 (ko) | 2009-05-08 | 2016-03-08 | 엘지전자 주식회사 | 휴대용 단말기 및 그 사용자 인터페이스 제어 방법 |
US8907897B2 (en) | 2009-06-16 | 2014-12-09 | Intel Corporation | Optical capacitive thumb control with pressure sensor |
KR101611866B1 (ko) | 2009-06-25 | 2016-04-26 | 엘지전자 주식회사 | 케이스에 장착된 터치 센서를 이용한 이동 단말기 및 그 제어 방법 |
US20110035701A1 (en) * | 2009-08-10 | 2011-02-10 | Williams Harel M | Focal point zoom |
KR20110058171A (ko) * | 2009-11-25 | 2011-06-01 | 심상정 | 터치 키패드를 이용한 가상건반 모델 |
JP2011059820A (ja) | 2009-09-07 | 2011-03-24 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
US20110087963A1 (en) | 2009-10-09 | 2011-04-14 | At&T Mobility Ii Llc | User Interface Control with Edge Finger and Motion Sensing |
KR101592033B1 (ko) | 2009-11-06 | 2016-02-04 | 엘지전자 주식회사 | 이동 단말기 및 그 화면 분할 방법 |
US8638306B2 (en) * | 2009-11-06 | 2014-01-28 | Bose Corporation | Touch-based user interface corner conductive pad |
US8441460B2 (en) | 2009-11-24 | 2013-05-14 | Mediatek Inc. | Apparatus and method for providing side touch panel as part of man-machine interface (MMI) |
DE102009058145A1 (de) * | 2009-12-12 | 2011-06-16 | Volkswagen Ag | Bedienverfahren für eine Anzeigevorrichtung eines Fahrzeugs |
KR101688134B1 (ko) | 2009-12-16 | 2016-12-20 | 엘지전자 주식회사 | 사이드 터치 입력 수단을 구비한 이동단말기 및 그의 기능 수행 방법 |
KR101626621B1 (ko) * | 2009-12-30 | 2016-06-01 | 엘지전자 주식회사 | 원형 디스플레이부를 구비한 이동 통신 단말기의 데이터 제어 방법 및 이를 적용한 이동 통신 단말기 |
TW201122992A (en) | 2009-12-31 | 2011-07-01 | Askey Computer Corp | Cursor touch-control handheld electronic device |
EP2393000B1 (en) | 2010-06-04 | 2019-08-07 | Lg Electronics Inc. | Mobile terminal capable of providing multiplayer game and method of controlling operation of the mobile terminal |
KR101689711B1 (ko) | 2010-07-14 | 2016-12-26 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
EP2397769B1 (en) * | 2010-06-19 | 2016-05-18 | Electrolux Home Products Corporation N.V. | Oven with a control panel |
KR101688940B1 (ko) | 2010-07-23 | 2017-01-02 | 엘지전자 주식회사 | 이동단말기 및 그의 다중 작업 관리 방법 |
KR101769818B1 (ko) | 2010-12-23 | 2017-08-21 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
US8839156B2 (en) * | 2011-02-03 | 2014-09-16 | Disney Enterprises, Inc. | Pointer tool for touch screens |
JP2012174247A (ja) | 2011-02-24 | 2012-09-10 | Kyocera Corp | 携帯電子機器、接触操作制御方法および接触操作制御プログラム |
EP2508972B1 (en) | 2011-04-05 | 2017-10-18 | 2236008 Ontario Inc. | Portable electronic device and method of controlling same |
KR20120135977A (ko) | 2011-06-08 | 2012-12-18 | 삼성전자주식회사 | 터치 스크린을 구비한 이동통신 단말기에서 문자 입력 장치 및 방법 |
KR20130005733A (ko) | 2011-07-07 | 2013-01-16 | 삼성전자주식회사 | 터치 내비게이션 기능을 운용하는 방법 및 이를 지원하는 모바일 단말기 |
KR101873734B1 (ko) | 2011-07-19 | 2018-07-03 | 엘지전자 주식회사 | 이동 단말기 및 이것의 디스플레이 제어 방법 |
US20130057472A1 (en) * | 2011-09-07 | 2013-03-07 | Logitech Europe S.A. | Method and system for a wireless control device |
KR101326994B1 (ko) | 2011-10-05 | 2013-11-13 | 기아자동차주식회사 | 이동단말기의 화면출력 최적화를 위한 컨텐츠 제어 방법 및 그 시스템 |
US20130100044A1 (en) * | 2011-10-24 | 2013-04-25 | Motorola Mobility, Inc. | Method for Detecting Wake Conditions of a Portable Electronic Device |
KR101373337B1 (ko) | 2011-10-26 | 2014-03-10 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
KR20130053735A (ko) | 2011-11-16 | 2013-05-24 | 조영진 | 측면 터치 인터페이스 제공방법 및 이를 이용한 멀티미디어 기기 |
KR20130059123A (ko) | 2011-11-28 | 2013-06-05 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어 방법 |
KR102024587B1 (ko) * | 2012-02-02 | 2019-09-24 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
US20150135145A1 (en) * | 2012-06-15 | 2015-05-14 | Nikon Corporation | Electronic device |
US20140078086A1 (en) * | 2012-09-20 | 2014-03-20 | Marvell World Trade Ltd. | Augmented touch control for hand-held devices |
JP5874625B2 (ja) * | 2012-12-20 | 2016-03-02 | カシオ計算機株式会社 | 入力装置、入力操作方法及び制御プログラム並びに電子機器 |
US10599250B2 (en) * | 2013-05-06 | 2020-03-24 | Qeexo, Co. | Using finger touch types to interact with electronic devices |
-
2013
- 2013-12-27 KR KR1020130164933A patent/KR102189451B1/ko active IP Right Grant
-
2014
- 2014-06-19 US US14/309,852 patent/US9959035B2/en active Active
- 2014-09-18 EP EP14185298.8A patent/EP2889747A1/en not_active Withdrawn
- 2014-10-23 CN CN201410573485.3A patent/CN104750305A/zh active Pending
- 2014-12-17 JP JP2014255252A patent/JP2015127957A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007200002A (ja) * | 2006-01-26 | 2007-08-09 | Brother Ind Ltd | 表示装置および表示制御プログラム |
JP2010231653A (ja) * | 2009-03-27 | 2010-10-14 | Softbank Mobile Corp | 表示装置、表示方法、およびプログラム |
CN101887343A (zh) * | 2009-05-11 | 2010-11-17 | 索尼公司 | 信息处理设备和信息处理方法 |
US20110105187A1 (en) * | 2009-10-30 | 2011-05-05 | Cellco Partnership D/B/A Verizon Wireless | Flexible home page layout for mobile devices |
JP2011120090A (ja) * | 2009-12-04 | 2011-06-16 | Nec Corp | 携帯端末、携帯端末の操作方法、及び携帯端末の操作プログラム |
US20120054671A1 (en) * | 2010-08-30 | 2012-03-01 | Vmware, Inc. | Multi-touch interface gestures for keyboard and/or mouse inputs |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105159512A (zh) * | 2015-09-09 | 2015-12-16 | 业成光电(深圳)有限公司 | 改良式环形穿戴式触控显示装置 |
CN105159512B (zh) * | 2015-09-09 | 2018-05-08 | 业成光电(深圳)有限公司 | 改良式环形穿戴式触控显示装置 |
CN108351616A (zh) * | 2016-01-14 | 2018-07-31 | 华为技术有限公司 | 电子设备和操作这种电子设备的方法 |
CN108351616B (zh) * | 2016-01-14 | 2020-07-24 | 华为技术有限公司 | 电子设备和操作这种电子设备的方法 |
US11281167B2 (en) | 2016-01-14 | 2022-03-22 | Huawei Technologies Co., Ltd. | Electronic device and a method of operating such an electronic device |
CN107132755A (zh) * | 2016-02-26 | 2017-09-05 | 华为技术有限公司 | 一种手表 |
CN107132755B (zh) * | 2016-02-26 | 2020-10-16 | 华为技术有限公司 | 一种手表 |
Also Published As
Publication number | Publication date |
---|---|
US20150186030A1 (en) | 2015-07-02 |
JP2015127957A (ja) | 2015-07-09 |
EP2889747A1 (en) | 2015-07-01 |
US9959035B2 (en) | 2018-05-01 |
KR20150076568A (ko) | 2015-07-07 |
KR102189451B1 (ko) | 2020-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104750305A (zh) | 电子设备 | |
KR102007651B1 (ko) | 터치스크린 키보드를 구성하는 방법, 장치 및 이를 수행하는 프로그램을 저장하는 컴퓨터로 읽을 수 있는 저장 매체 | |
EP3041201B1 (en) | User terminal device and control method thereof | |
KR102120930B1 (ko) | 포터블 디바이스의 사용자 입력 방법 및 상기 사용자 입력 방법이 수행되는 포터블 디바이스 | |
KR102255143B1 (ko) | 벤디드 디스플레이를 구비한 휴대 단말기의 제어 방법 및 장치 | |
JP2018055718A (ja) | 手姿勢制御を伴う入力デバイス | |
EP2690544B1 (en) | User terminal apparatus and control method thereof | |
EP2829965A1 (en) | Electronic device and method of operating the same | |
US10579248B2 (en) | Method and device for displaying image by using scroll bar | |
JP6470112B2 (ja) | 移動装置操作端末、移動装置操作方法及び移動装置操作プログラム | |
US9372561B2 (en) | Electronic device, method of operating the same, and computer-readable medium that stores a program | |
US20200341601A1 (en) | Method and apparatus for setting parameter | |
US9727131B2 (en) | User input method for use in portable device using virtual input area | |
KR20140106996A (ko) | 햅틱을 제공하는 방법 및 장치 | |
TWI566167B (zh) | 電子裝置以及使用者介面顯示方法 | |
ES2880737T3 (es) | Método mejorado para seleccionar un elemento de una Interfaz Gráfica de Usuario | |
EP2767887A1 (en) | Electronic device, method of operating the same, and computer-readable medium including a program | |
WO2015071947A1 (ja) | 表示処理装置、表示処理方法、及び表示処理プログラム | |
US20220043517A1 (en) | Multi-modal touchpad | |
TWI512592B (zh) | 電子裝置及其用戶界面顯示方法 | |
KR101606570B1 (ko) | 3차원 공간의 회전을 통한 스테이지 설계 게임 시스템 및 그의 제어 방법 | |
EP2796979B1 (en) | Method and apparatus for adjusting a graphical object according to operator preference |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20150701 |
|
WD01 | Invention patent application deemed withdrawn after publication |