CN105579945A - 数字设备及其控制方法 - Google Patents

数字设备及其控制方法 Download PDF

Info

Publication number
CN105579945A
CN105579945A CN201480053426.1A CN201480053426A CN105579945A CN 105579945 A CN105579945 A CN 105579945A CN 201480053426 A CN201480053426 A CN 201480053426A CN 105579945 A CN105579945 A CN 105579945A
Authority
CN
China
Prior art keywords
touch
sensor unit
distance
touch sensor
effective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480053426.1A
Other languages
English (en)
Other versions
CN105579945B (zh
Inventor
金志桓
朴时和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN105579945A publication Critical patent/CN105579945A/zh
Application granted granted Critical
Publication of CN105579945B publication Critical patent/CN105579945B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

公开了一种双侧触摸识别数字设备。该数字设备包括显示视觉对象的显示单元、感测在设备的前侧上的触摸输入的前侧触摸传感器单元、感测在设备的后侧上的触摸输入的后侧触摸传感器单元以及控制显示单元和前侧与后侧触摸传感器单元的处理器。处理器获取在前侧或后侧触摸传感器单元上的第一参考位置和第二触摸位置,获取第一参考位置和第二触摸位置之间的距离,并确定第一参考位置和第二触摸位置之间的距离是否在有效识别距离内。对于后侧触摸传感器单元的有效识别距离长于对于前侧触摸传感器单元的有效识别距离。

Description

数字设备及其控制方法
技术领域
本发明涉及一种数字设备,并且更特别地,涉及一种双侧触摸感应数字设备。
背景技术
随着技术的发展,触摸感应数字设备如智能电话、平板PC等的使用正在逐渐增加。此外,近年来,可以使用前侧触摸以及后侧触摸控制设备的操作的双侧触摸感应数字设备的使用逐渐增加。
发明内容
技术问题
但是,关于这种双侧触摸感应数字设备,与允许用户直接观察触摸手势的前侧触摸不同的是,使用后侧触摸的设备的控制操作可能引起触摸误差。
问题解决方案
因此,本公开涉及基本上消除了由于现有技术的限制和缺点导致的一个或更多个问题的数字设备及其控制方法。
本发明的目标是提供一种数字设备,其中用于识别有效前侧触摸的有效识别距离和用于识别有效后侧触摸的有效识别距离被彼此不同地设定,以校正在触摸该设备的后侧时遇到的触摸误差。
本公开的其它优点、目标以及特征将部分在下面的描述中阐述,并且部分将在审查下文时对于本领域的普通技术人员变得显而易见,或者可以从本公开的实践中获知。通过在所撰写的说明书及其权利要求书以及附图中特别指出的结构可以实现并获得本公开的目标和其它优点。
为了实现这些目标和其它优点,并且根据本公开的目的,如这里所体现和广泛描述的,根据一个实施例的一种数字设备包括:显示单元,该显示单元被配置成显示至少一个视觉对象;前侧触摸传感器单元,该前侧触摸传感器单元被配置成感测在数字设备的前侧上的触摸输入;后侧触摸传感器单元,该后侧触摸传感器单元被配置成感测在数字设备的后侧上的触摸输入;和处理器,该处理器被配置成控制显示单元、前侧触摸传感器单元和后侧触摸传感器单元,其中,处理器进一步被配置成:获取在前侧触摸传感器单元或后侧触摸传感器单元上的第一参考位置和第二触摸位置,获取第一参考位置和第二触摸位置之间的距离,并且确定第一参考位置和第二触摸位置之间的距离是否在有效识别距离内,其中,相对于后侧触摸传感器单元的有效识别距离长于相对于前侧触摸传感器单元的有效识别距离。
此外,根据另一个实施例的数字设备包括:显示单元,该显示单元被配置成显示视觉对象;前侧触摸传感器单元,该前侧触摸传感器单元被配置成感测在数字设备的前侧上的触摸输入;后侧触摸传感器单元,该后侧触摸传感器单元被配置成感测在数字设备的后侧上的触摸输入;和处理器,该处理器被配置成控制显示单元、前侧触摸传感器单元和后侧触摸传感器单元,其中,处理器进一步被配置成:将经由前侧触摸传感器单元或后侧触摸传感器单元中的一个触摸传感器单元获取的第一触摸和第二触摸,根据第一触摸和第二触摸的位置和时间,识别为单个双触摸手势或识别为单独的触摸输入,其中,如果第一触摸和第二触摸的位置之间的距离在有效识别距离内,并且第一触摸和第二触摸之间的时间间隔在有效识别时间间隔内,则将第一触摸和第二触摸识别为单个双触摸手势,其中相对于后侧触摸传感器单元的有效识别距离长于相对于前侧触摸传感器单元的有效识别距离。
此外,根据又一实施例的数字设备的控制方法包括:获取在前侧触摸传感器单元或后侧触摸传感器单元上的第一参考位置和第二触摸位置;获取第一参考位置和第二触摸位置之间的距离;并且确定第一参考位置和第二触摸位置之间的距离是否在有效识别距离内,其中相对于后侧触摸传感器单元的有效识别距离长于相对于前侧触摸传感器单元的有效识别距离。
应当理解,本公开的上面的一般描述和下面的详细描述都是示例性和解释性的,并且旨在提供对如所要求保护的公开的进一步解释。
发明的有益效果
如从上面的描述明显看出,根据实施例,显示设备可将相对于后侧触摸传感器单元的有效识别距离设定成长于相对于前侧触摸传感器单元的有效识别距离,从而校正由对设备的后侧的双触摸引起的触摸误差。此外,可以校正在使用后侧触摸对显示在设备的前侧的视觉对象进行控制操作时引起的触摸误差。
此外,当输入后侧触摸以选择在设备的前侧显示的多个视觉对象中的一个时,显示设备可以向用户提供视觉反馈,从而校正在使用后侧触摸对多个视觉对象进行控制操作时引起的触摸误差。
附图说明
包括附图以提供对本公开的进一步理解并且将其并入并构成本申请的一部分,附图图示出本公开的实施例,并且与描述一起用于解释本公开的原理。在附图中:
图1是示出根据本说明书的一个实施例的数字设备的框图;
图2a至2c是示出根据本说明书的一个实施例的数字设备的视图;
图3a和3b是示出根据本说明书的另一个实施例的数字设备的视图;
图4是示出根据本说明书的一个实施例的被配置成识别在设备的前侧或后侧上的两次触摸输入的数字设备的视图;
图5a和5b是示出根据本说明书的一个实施例的被配置成识别对单个视觉对象的触摸输入的数字设备的视图;
图6a至6c是示出根据本说明书的一个实施例的被配置成识别对多个视觉对象中任意一个的触摸输入的数字设备的视图;
图7是示出根据本说明书的一个实施例的数字设备的控制方法的流程图;
图8是示出根据本说明书的一个实施例的当第一参考位置是第一触摸位置时的数字设备的控制方法的流程图;和
图9是示出根据本说明书的一个实施例的当第一参考位置是视觉对象位置时的数字设备的控制方法的流程图。
具体实施方式
虽然在以下描述中使用的术语在考虑根据实施例获取的功能的同时尽可能多地从当前广泛使用的通用术语中选择,但是这些术语可以基于本领域技术人员的意图、习惯、新技术的出现等由其它术语替换。另外,在特定情况下,可以使用由申请人任意选择的术语。在这种情况下,这些术语的含义可以在本公开的相应的描述部分中进行描述。因此,应当注意,这里使用的术语应基于它们的实际含义和本说明书的全部内容进行解释,而不是简单地基于术语的名称来解释。
此外,尽管在此将参照附图详细和附图中描述的内容来详细描述实施例,但是应该理解的是,本公开不受实施例限制或约束。
本发明涉及数字设备。在本公开中,数字设备是指能够进行图像显示和双侧触摸识别的电子设备。例如,该数字设备可以是智能电话、智能平板、个人数字助理(PDA)、膝上型计算机、平板PC、智能台或头戴式显示器(HMD)。
图1是示出根据本说明书的一个实施例的数字设备的框图。
参照图1,数字设备100可包括显示单元110、前侧触摸传感器单元120、后侧触摸传感器单元130和处理器140。
显示单元110可以在显示屏幕上显示图像。更具体地,显示单元110可以根据处理器140的控制指令在显示屏幕上显示图像。
在一个实施例中,显示单元110可以是包括在数字设备100的前侧或后侧处的单个显示屏幕的单侧显示单元。在另一个实施例中,显示单元110可以是包括在数字设备100的前侧和后侧处的多个显示屏幕的双侧显示单元。在另一个实施例中,显示单元110可以是包括可弯曲显示屏幕的柔性显示单元。在又一个实施例中,显示单元110可以是包括可折叠显示屏幕的可折叠显示单元。
在本公开中,显示单元110可以在显示屏幕上显示至少一个视觉对象。在本公开中,视觉对象是视觉感知对象,并且是指需要用户触摸输入以执行相应的应用或功能的对象。也就是说,当识别出对视觉对象的用户触摸输入时,数字设备100可以执行与触摸输入被识别处的视觉对象相对应的应用或功能。
接下来,前侧触摸传感器单元120和后侧触摸传感器单元130中每个都可以检测在数字设备100的前侧和后侧上的用户触摸输入。更具体地,前侧触摸传感器单元120和后侧触摸传感器单元130中每个都可以使用单独安装到数字设备100的前侧触摸传感器和后侧触摸传感器来检测在数字设备100的前侧和后侧上的用户触摸输入,并且将检测结果发送给处理器140。前侧触摸传感器单元120和后侧触摸传感器单元130可以是使用安装到数字设备100的单个触摸传感器的单个触摸传感器单元。在下面的描述中,前侧触摸传感器单元可被简称为前侧传感器单元,并且后侧触摸传感器单元可被简称为后侧传感器单元。
处理器140可以执行各种应用,并处理设备100的内部数据。另外,处理器140可以控制数字设备100的上述各个单元以及发送/接收单元之间的数据。
在本公开中,处理器140可在前侧触摸传感器单元120或后侧触摸传感器单元130之中的单个传感器单元上获取第一参考位置和第二触摸位置。在此,第一参考位置可以是第一触摸位置或视觉对象位置。此外,处理器140可获取第一参考位置和第二触摸位置之间的距离。然后,处理器140可确定第一参考位置和第二触摸位置之间的距离是否在有效识别距离内。下面将参照附图进行处理器140的更详细的描述。
在作为根据一个实施例的数字设备100的框图的图1中,分开示出的块在逻辑上区分该设备的元件。因此,上述设备的元件可以基于设备设计而安装为单个芯片或多个芯片。此外,图1的数字设备100对应于一个实施例,并且不要求在图1中示出的所有元件实施本公开的实施例。在下文中,将详细描述本公开的实施例所需的元件及其操作。
图2a至2c是示出根据本说明书的一个实施例的数字设备的视图。
更具体地,图2a示出了被配置成识别在其前侧和后侧上的触摸输入的数字设备,图2b示出了包括被配置成识别在其前侧和后侧上的触摸输入的单侧显示单元的数字设备,并且图2c示出了包括被配置成识别在其前侧和后侧上的触摸输入的双侧显示单元的数字设备。
参照图2a,数字设备100可以使用在设备100的前侧处设置的显示单元110显示视觉对象11。此外,数字设备100可以使用前侧或后侧触摸传感器单元识别在设备100的前侧或后侧上的触摸输入。
参照图2b,数字设备100可以使用前侧显示单元110显示视觉对象11。此外,数字设备100可以在后侧触摸识别区域内与在其前侧显示的视觉对象11相对应地设置触摸区域12。如此,如果识别出对在前侧处显示的视觉对象11的触摸输入,以及如果识别出对在后侧设置的触摸区域12的触摸输入,则数字设备100可以执行与视觉对象11相对应的应用或功能。
参照图2c,数字设备100可以使用前侧显示单元110-1显示第一视觉对象11-1。此外,数字设备100可以使用后侧显示单元110-2显示与第一视觉对象11-1相对应的第二视觉对象11-2。这里,第一视觉对象11-1和第二视觉对象11-2可以对应于相同的应用或功能。也就是说,如果识别出对第一视觉对象11-1的用户触摸输入或者如果识别出对第二视觉对象11-2的用户触摸输入,则数字设备100可以执行相同的应用或功能。在一个实施例中,仅当经由传感器单元检测到用户注视时,后侧显示单元110-2才可以显示与第一视觉对象11-1相对应的第二视觉对象11-2。
图3a和3b是示出根据本说明书的另一个实施例的数字设备的视图。
更具体地,图3a示出了包括被配置成识别在其前侧和后侧上的用户触摸输入的柔性或可折叠显示单元的数字设备,并且图3b示出了包括柔性或可折叠显示单元的数字设备的展开状态。
参照图3a和3b中,数字设备100可以使用前侧显示单元110-1显示第一视觉对象11-1。此外,数字设备100可以使用后侧显示单元110-2显示与第一视觉对象11-1相对应的第二视觉对象11-2。这里,前侧显示单元110-1和后侧显示单元110-2可以彼此连接,以构成单个柔性或可折叠显示单元。如上所述,第一视觉对象11-1和第二视觉对象11-2可以对应于相同的应用或功能。也就是说,如果识别出对第一视觉对象11-1的触摸输入或者如果识别出对第二视觉对象11-2的触摸输入,则数字设备100可以执行相同的应用或功能。图4是示出根据本说明书的一个实施例的被配置成在设备的前侧或后侧上识别两次触摸输入的数字设备的视图。也就是说,图4示出了其中第一参考位置是第一触摸位置的实施例。
在下文中,将基于处理器的操作详细描述本实施例。
参照图4,如果感测到在前侧触摸传感器单元上的第一触摸输入和第二触摸输入或者在后侧触摸传感器单元上的第一触摸输入和第二触摸输入,则处理器可以利用感测到的结果获取第一触摸位置和第二触摸位置。在此,第一触摸位置可以是从第一触摸输入识别的触摸坐标,并且第二触摸位置可以是从第二触摸输入识别的触摸坐标。
而且,如果感测到在前侧触摸传感器单元上的第一触摸输入和第二触摸输入或者在后侧触摸传感器单元上的第一触摸输入和第二触摸输入,则处理器可以利用感测到的结果另外获取第一触摸面积和第二触摸面积,并且可以确定第一触摸面积和第二触摸面积中的每一个是否是面积阈值或以上。在这种情况下,相对于后侧触摸传感器单元的面积阈值可被设定成大于相对于前侧触摸传感器单元的面积阈值。此外,如果第一触摸面积和第二触摸面积中每一个是面积阈值或以上,则处理器可以将第一触摸输入和第二触摸输入中的每一个识别为有效触摸输入。
此外,该处理器可以获取第一触摸位置和第二触摸位置之间的距离21或31,并确定在第一触摸位置和第二触摸位置之间的所获取的距离21或31是否在有效识别距离22或32内。在以下描述中,在第一触摸位置和第二触摸位置之间的距离21或31可以被称为双触摸距离。
在此,有效识别距离是指将两次触摸识别为单个有效双触摸手势所需的最大距离。也就是说,如果双触摸距离在有效识别距离内,则处理器可以将两次触摸识别为单个有效双触摸手势。有效识别距离可以在制造数字设备时设定,或者可以由用户设定。在这种情况下,如图4示例性示出,相对于后侧触摸传感器单元的有效识别距离32可以被设定成长于相对于前侧触摸传感器单元的有效识别距离22。以这种方式,能够校正当保持用户注视设备的前侧的同时用户触摸该设备的后侧时引起的触摸误差。虽然图4示出基于第一触摸位置来确定双触摸距离是否在有效识别距离内,但可以基于第二触摸位置来确定双触摸距离是否在有效识别距离内。
如果双触摸距离在有效识别距离内,则处理器可以将第一触摸和第二触摸识别为单个双触摸手势,将第一触摸识别为第一触摸位置并将第二触摸识别为第二触摸位置。此外,如果双触摸距离在有效识别距离之外,则处理器可以将第一触摸和第二触摸识别为单独的触摸输入。
如果第一触摸和第二触摸被识别为单个双触摸手势,则处理器可以提供视觉反馈、音频反馈或触觉反馈中的至少一个反馈。在一个示例中,处理器可以使用显示单元提供文本消息例如“双触摸手势识别”作为视觉反馈,并且用户可以在视觉上感知该视觉反馈。在另一个示例中,处理器可使用扬声器单元提供音频消息例如“双触摸手势识别”作为音频反馈,并且用户可以可听地感知该音频反馈。在又一个示例中,处理器可使用微振动致动器提供微振动作为触觉反馈,并且用户可经由触觉感知来感知该触觉反馈。
总之,如在图4的左侧部分示例性示出的,如果相对于前侧触摸传感器单元的双触摸距离21在有效识别距离22内,则处理器可将设备的前侧上的两次触摸识别为有效双触摸手势,并提供反馈给用户。或者,如在图4的右侧部分示例性示出的,如果相对于后侧触摸传感器单元的双触摸距离31在有效识别距离32内,则处理器可以将在该设备的后侧上的两次触摸识别为有效双触摸手势,并提供反馈给用户。在这种情况下,数字设备可以将相对于后侧触摸传感器单元的有效识别距离32设定成长于相对于前侧触摸传感器单元的有效识别距离22,从而校正当用户触摸设备的后侧时所引起的触摸误差。
此外,如果双触摸距离在有效识别距离内,则处理器可进一步获取第一触摸和第二触摸之间的时间间隔,并确定所获取的时间间隔是否在有效识别时间间隔内。在以下的描述中,第一触摸和第二触摸之间的时间间隔可以被称为触摸时间间隔。
在此,有效识别时间间隔是指在有效识别距离内将两次触摸识别为单个有效双触摸手势所需要的最大时间间隔。有效识别时间间隔可以在制造数字设备时设定,或者可以由用户设定。在这种情况下,相对于后侧触摸传感器单元的有效识别时间间隔可以被设定成等于相对于前侧触摸传感器单元的有效识别时间间隔。可替代地,相对于后侧触摸传感器单元的有效识别时间间隔可以被设定成长于或短于相对于前侧触摸传感器单元的有效识别时间间隔。
如果触摸时间间隔在有效识别时间间隔内,则处理器可以将有效识别距离内的两次触摸识别为单个有效双触摸手势。如果触摸时间间隔在有效识别时间间隔之外,则处理器可将有效识别距离内的两次触摸识别为单独的触摸输入。
图5a和5b是示出根据本说明书的一个实施例的被配置成识别对视觉对象的触摸输入的数字设备的视图。即,图5a和5b示出其中第一参考位置是视觉对象位置的实施例。
更具体地,图5a示出了被配置成如果视觉对象是执行图标则识别对视觉对象的触摸输入的数字设备,并且图5b示出了被配置成如果视觉对象是状态窗口则识别对视觉对象的触摸输入的数字设备。
在下文中,将基于处理器的操作详细描述本实施例。
参照图5a,处理器可使用显示单元110显示视觉对象11。在此,视觉对象可以是执行图标。
处理器可以获取在前侧触摸传感器单元或后侧触摸传感器单元上的视觉对象位置。在一个实施例中,处理器可以在感测到在前侧触摸传感器单元上的触摸输入或在后侧触摸传感器单元上的触摸输入之后获取视觉对象位置。在另一个实施例中,处理器可以在感测到前侧触摸传感器单元上的触摸输入或在后侧触摸传感器单元上的触摸输入之前获取视觉对象位置。
如果感测到在前侧触摸传感器单元上的触摸输入或在后侧触摸传感器单元上的触摸输入,则处理器可利用感测到的结果从触摸输入获取触摸位置。这里,触摸位置可以是从触摸输入识别的触摸坐标。
另外,如果感测到在前侧触摸传感器单元上的触摸输入或在后侧触摸传感器单元上的触摸输入,则处理器可以从触摸输入另外获取触摸面积,并确定触摸面积是否是面积阈值或以上。在这种情况下,相对于后侧触摸传感器单元的面积阈值可被设定成大于相对于前侧触摸传感器单元的面积阈值。此外,如果触摸面积是面积阈值或以上时,则处理器可以将触摸输入识别为有效触摸输入。
处理器可获取视觉对象位置和触摸位置之间的距离41或51,并确定所获取的距离41或51是否在有效识别距离42或52内。在下面的描述中,视觉对象位置与触摸位置之间的距离41或51可以被称为单触摸距离。
在此,有效识别距离可以指将触摸识别为对视觉对象的触摸输入所需的最大距离,该触摸也被识别为触摸位置。也就是说,如果单触摸距离在有效识别距离内,则处理器可将触摸识别为对视觉对象的触摸输入,该触摸被识别为触摸位置。有效识别距离可以在制造数字设备时设定,或者可以由用户设定。在这种情况下,如图5a示例性示出,相对于后侧触摸传感器单元的有效识别距离52可以被设定为长于相对于前侧触摸传感器单元的有效识别距离42。以这种方式,数字设备可以校正当保持用户注视设备的前侧的同时用户触摸该设备的后侧引起的触摸误差。
如果单触摸距离在有效识别距离内,则处理器可将触摸识别为对视觉对象的触摸输入,触摸也被识别为触摸位置。
此外,处理器可以执行对应于视觉对象的应用或功能。换句话说,处理器可以执行对应于执行图标的应用或功能。
总之,如在图5a的左侧部分示例性示出的,如果相对于前侧触摸传感器单元的单触摸距离41在有效识别距离42内,则处理器可将在前侧上的触摸识别为对执行图标的触摸输入。或者,如在图5a的右侧部分示例性示出的,如果相对于后侧触摸传感器单元的单触摸距离51在有效识别距离52内,则处理器可以将在后侧上的触摸识别为对执行图标的触摸输入。数字设备可以执行与该执行图标相对应的应用或功能。在这种情况下,数字设备可以将相对于后侧触摸传感器单元的有效识别距离52设定成长于相对于前侧触摸传感器单元的有效识别距离42,从而校正当用户触摸设备的后侧时所引起的触摸误差。虽然图5a示出基于视觉对象位置来确定单触摸距离是否在有效识别距离内,但可以基于触摸位置来确定单触摸距离是否在有效识别距离内。
参照图5b,处理器可以使用显示单元显示视觉对象11。这里,视觉对象可以是状态窗口。
如果经由前侧触摸传感器单元或后侧触摸传感器单元感测到触摸输入,则处理器可以使用感测到的结果从触摸输入获取触摸位置。
处理器可以获取视觉对象位置与触摸位置之间的距离41或51,并确定视觉对象位置与触摸位置之间的所获取的距离41或51是否在有效识别距离42或52内。如图5b的左上和左下部示例性示出的,视觉对象位置和触摸位置之间的距离41或51可以是状态窗口和触摸位置之间的竖直距离,并且有效识别距离42或52可以是状态窗口和所示虚线之间的竖直距离。如上所述,视觉对象位置与触摸位置之间的距离41或51可以被称为单触摸距离,并且有效识别距离可以具有与在图5a中定义的相同的含义。
在图5b的左上部分示例性示出的,如果相对于前侧触摸传感器单元的单触摸距离41在有效识别距离42内,或者在图5b的左下部分示例性示出的,如果相对于后侧触摸传感器单元的单触摸距离51在有效识别距离52内,则处理器可以将前侧处或后侧处的触摸识别为对状态窗口的触摸输入。在这种情况下,如在图5b示例性示出,数字设备可以即相对于后侧触摸传感器单元的有效识别距离52设定成长于相对于前侧触摸传感器单元的有效识别距离42,从而校正当用户触摸设备的后侧时引起的触摸误差。
如果输入向下拖动状态窗口的触摸手势,如在图5b的右上/下部分示例性示出的,则数字设备可显示通知60。
图6a至6c是示出根据本说明书的一个实施例的被配置成识别对多个视觉对象中任意一个的触摸输入的数字设备的视图。即,图6a至6c示出其中第一参考位置是视觉对象位置的实施例。
在下文中,将基于处理器的操作详细描述本实施例。
参照图6a,处理器可以经由显示单元显示多个视觉对象11-1和11-2。在此,视觉对象可以是执行图标。在以下描述中,为方便起见,虽然该多个视觉对象将被描述为包括第一视觉对象11-1和第二视觉对象11-2,但多个视觉对象可以包括三个或更多个视觉对象。
处理器可以经由前侧触摸传感器单元或后侧触摸传感器单元获取第一视觉对象位置和第二视觉对象位置。在一个实施例中,处理器可在感测到在前侧触摸传感器单元或后侧触摸传感器单元上的触摸输入之后获取第一视觉对象位置和第二视觉对象位置。在另一个实施例中,处理器可以在感测到在前侧触摸传感器单元或后侧触摸传感器单元上的触摸输入之前获取第一视觉对象位置和第二视觉对象位置。
如果使用前侧触摸传感器单元或后侧触摸传感器单元感测到触摸输入,则处理器可以利用感测到的结果从触摸输入获取触摸位置。
此外,如果使用前侧触摸传感器单元或后侧触摸传感器单元感测到触摸输入,则处理器可以利用感测到的结果从触摸输入另外获取触摸面积,并确定触摸面积是否是面积阈值或以上。在这种情况下,相对于后侧触摸传感器单元的面积阈值可被设定成大于相对于前侧触摸传感器单元的面积阈值。此外,如果触摸识别面积是面积阈值或以上,则处理器可以将触摸输入识别为有效触摸输入。
处理器可获取第一视觉对象位置和触摸位置之间的距离41-1或51-1,并且确定所获取的第一视觉对象位置和第一触摸位置之间的距离41-1或51-1是否在第一有效识别距离42-1或52-1内。此外,处理器可以获取第二视觉对象位置与触摸位置之间的距离41-2或51-2,并且确定所获取的第二视觉对象位置和触摸位置之间的距离41-2或51-2是否在第二有效识别距离42-2或52-2内。在以下的描述中,第一视觉对象位置和触摸位置之间的距离41-1或51-1可被称为第一单触摸距离,并且第二视觉对象位置与触摸位置之间的距离41-2或51-2可以被称为第二单触摸距离。此外,第一单触摸距离和第二单触摸距离可以被简单地称为单触摸距离。
在这里,第一和第二有效识别距离中的每个可以指将触摸识别为对第一或第二视觉对象的触摸输入所需的最大单触摸距离,该触摸也被识别为触摸位置。在这种情况下,第一和第二有效识别距离可以被设定成相同的有效识别距离。有效识别距离可以在制造数字设备时设定,或者可以由用户设定。
在这种情况下,数字设备可以考虑每个视觉对象位置来设定相对于前侧或后侧触摸传感器单元的第一和第二有效识别距离。例如,数字设备可以考虑每个视觉对象位置设定第一有效识别距离和第二有效识别距离,使得被识别为对各个视觉对象的触摸输入的区域不彼此重叠。也就是说,数字设备可以将第一和第二有效识别距离设定成,当如图6a的左侧部分中示例性所示各个视觉对象彼此远离时长于当如图6b示例性所示各个视觉对象彼此靠近时。此外,数字设备可以将有效识别距离设定成,当如图6a示例性所示显示多个视觉对象时短于当如图5a示例性所示显示单个视觉对象时。以这种方式,识别为对各个视觉对象的触摸输入的区域可以不彼此重叠。此外,数字设备可将相对于后侧触摸传感器单元的第一和第二有效识别距离设定成长于相对于前侧触摸传感器单元的第一和第二有效识别距离。以这种方式,能够校正当在保持用户注视设备的前侧的同时用户触摸该设备的后侧引起的触摸误差。
如果存在其单触摸距离在有效识别距离内的视觉对象,则处理器可以将从触摸位置识别的触摸识别为对相应的视觉对象的触摸输入。例如,如在图6a中示例性所示,如果第一单触摸距离41-1在第一有效识别距离42-1内并且第二单触摸距离41-2在第二有效识别距离42-2内,则存在其单触摸距离在有效识别距离内的第一视觉对象11-1。因此,处理器可以将触摸识别为对第一视觉对象11-1的触摸输入,该触摸被识别为触摸位置。
而且,可以存在多个视觉对象,其每个的单触摸距离都在有效识别距离内。这将在下文参照图6b详细描述。
处理器可以执行与在识别出触摸输入处的视觉对象相对应的应用或功能。
在下文中,将参照图6b描述存在多个视觉对象,其每个的单触摸距离都在有效识别距离内的情况。
如图6b的左侧部分示例性示出,可以存在多个视觉对象11-1和11-2,相对于第一触摸的单触摸距离在有效识别距离内。也就是说,假定在第一视觉对象位置与第一触摸位置之间的距离在第一有效识别距离内,并且第二视觉对象位置与第二触摸位置之间的距离在第二有效识别距离内。
在这种情况下,如图6b的中央部分示例性示出,处理器可以经由显示单元提供视觉反馈。也就是说,处理器可提供视觉反馈来将第一触摸识别为对单个视觉对象的触摸输入。在这种情况下,处理器可以提供文本消息和显示第一视觉对象11-1和第二视觉对象11-2的改变位置的视觉反馈。例如,处理器可以经由显示单元提供文本消息“重新触摸要执行的视觉对象”,和显示第一视觉对象11-1和第二视觉对象11-2的改变位置的视觉反馈,以清楚地辨别各个对象。以这种方式,用户可以在视觉上感知到文本消息和视觉反馈,并准确地重新触摸要执行的视觉对象。此外,除了提供视觉反馈之外,处理器还可以将第一有效识别距离和第二有效识别距离重新设定得更长。
如在图6b的右侧部分示例性所示,如果识别出对要执行的第二视觉对象11-2的第二触摸输入,则处理器可以执行与识别出第二触摸处的第二视觉对象11-2相对应的应用或功能。
图6c示出了根据一个实施例的被配置成如果视觉对象包括回收站图标则识别对视觉对象的触摸输入的数字设备。
如在图6c中示例性示出的,第一视觉对象11-1可以是要删除的执行图标,并且第二视觉对象11-2可以是具有用于删除其它图标的回收站功能的回收站图标。
在这种情况下,如果第一视觉对象11-1被用户触摸输入拖动到第二视觉对象11-2的位置,则处理器可确定第二视觉对象位置和最后触摸位置之间的距离是否在有效识别距离内。这里,为了删除执行图标,用户可以经由长按触摸手势来选择第一视觉对象11-1,并且经由拖动触摸手势将选择的第一视觉对象11-1移动到第二视觉对象11-2的位置。
此外,如果第二视觉对象位置和最终触摸位置之间的距离在有效识别距离内,则处理器可以将触摸识别为对第二视觉对象11-2的触摸输入,该触摸也被识别为最终触摸位置。
处理器可以通过执行与第二视觉对象11-2相对应的图标删除功能来删除拖动到第二视觉对象11-2的第一视觉对象11-1。在这种情况下,数字设备可以将相对于后侧触摸传感器单元的有效识别距离设定成长于相对于前侧触摸传感器单元的有效识别距离较长,从而校正用户触摸设备的后侧时引起的触摸误差。
图7是示出根据本说明书的一个实施例的数字设备的控制方法的流程图。
参照图7,数字设备可以获取在前侧触摸传感器单元或后侧触摸传感器单元上的第一参考位置和第二位置(S710)。在一个实施例中,第一参考位置可以是第一触摸位置。这将在下文参照图8进行详细描述。在另一个实施例中,第一参考位置可以是视觉对象位置。这将在下文参照图9进行详细描述。
接下来,数字设备可以获取第一参考位置和第二触摸位置之间的距离(S720)。
接下来,数字设备可确定第一参考位置和第二触摸位置之间的距离是否在有效识别距离内(S730)。在这种情况下,如以上参照图4至6c所述,数字设备可将相对于后侧触摸传感器单元的有效识别距离设定成长于相对于前侧触摸传感器单元的有效识别距离。以这种方式,数字设备可以校正当保持用户注视设备的前侧的同时用户触摸该设备的后侧引起的触摸误差。
图8是示出根据本说明书的一个实施例的当第一参考位置是第一触摸位置时的数字设备的控制方法的流程图。
参照图8,数字设备可以获取在前侧触摸传感器单元或后侧触摸传感器单元上的第一触摸位置和第二触摸位置(S810)。在这种情况下,数字设备可以使用图4的上述方法来获取第一触摸位置和第二触摸位置。
接下来,数字设备可以获取第一触摸位置和第二触摸位置之间的距离(S820)。
接下来,数字设备可确定第一触摸位置和第二触摸位置之间的距离是否在有效识别距离内(S830)。这里,如上面参照图4所述,有效识别距离是指将两次触摸识别为单个有效双触摸手势所需的最大距离。有效识别距离可以在制造数字设备时设定,或者可以由用户设定。在这种情况下,数字设备可以将相对于后侧触摸传感器单元的有效识别距离设定成长于相对于前侧触摸传感器单元的有效识别距离。由此,可以校正当在保持用户注视设备的前侧的同时用户触摸该设备的后侧引起的触摸误差。
接下来,如果第一触摸位置和第二触摸位置之间的距离在有效识别距离内时,则数字设备可以将第一触摸和第二触摸识别为单个双触摸手势,第一触摸被识别为第一触摸位置并且第二触摸被识别为第二触摸位置(S840)。此外,如果在第一触摸位置和第二触摸位置之间的距离在有效识别距离之外,则数字设备可以将第一触摸和第二触摸识别为单独的触摸输入(S850)。
接下来,如果第一触摸和第二触摸被识别为单个双触摸手势,如上面参照图4所述,则处理器可以提供视觉反馈、音频反馈或触觉反馈中的至少一个。
此外,如果第一触摸位置和第二触摸位置之间的距离在有效识别距离内,如以上参照图4所述,则数字设备可另外获取第一触摸和第二触摸之间的时间间隔,并确定所获取的第一触摸和第二触摸之间的时间间隔是否在有效识别时间间隔内。此外,如果第一触摸和第二触摸之间的时间间隔在有效识别时间间隔内,则数字设备可以将第一触摸和第二触摸识别为单个双触摸手势。此外,如果第一触摸和第二触摸之间的时间间隔在有效识别时间间隔之外,则即使当第一触摸位置和第二触摸位置之间的距离在有效识别距离内,数字设备也可以将第一触摸和第二触摸识别为单独的触摸输入。在这种情况下,数字设备可以将相对于后侧触摸传感器单元的有效识别时间间隔设定成等于相对于前侧触摸传感器单元的有效识别时间间隔。
图9是示出根据本说明书的一个实施例的当第一参考位置是视觉对象位置时的数字设备的控制方法的流程图。
参照图9,数字设备可以获取在前侧触摸传感器单元或后侧触摸传感器单元上的视觉对象位置和第二触摸位置(S910)。这里,视觉对象可以是执行图标或状态窗口。在这种情况下,数字设备可以使用以上参照图5a至6c所述的方法获取视觉对象位置和第二触摸位置。
接下来,数字设备可以获取视觉对象位置和第二触摸位置之间的距离(S920)。
接下来,数字设备可以确定视觉对象位置和第二触摸位置之间的距离是否在有效识别距离内(S930)。这里,如上面参照图5a至6c所述,有效识别距离是指将触摸识别为对视觉对象的触摸输入所需的最大距离,该触摸也被识别为触摸位置。有效识别距离可以在制造数字设备时设定,或者可以由用户设定。在这种情况下,数字设备可以将相对于后侧触摸传感器单元的有效识别距离设定成长于相对于前侧触摸传感器单元的有效识别距离。由此,可以校正当在保持用户注视设备的前侧的同时用户触摸该设备的后侧引起的触摸误差。
接下来,如果视觉对象位置和第二触摸位置之间的距离在有效识别距离内,则数字设备可以将触摸识别为对视觉对象的触摸输入(S940),该触摸也被识别为触摸位置。在这种情况下,数字设备可以使用以上如参照图5a至6c所述的方法将触摸识别为对视觉对象的触摸输入。
接下来,如果用户触摸被识别为对视觉对象的触摸输入,则数字设备可以执行与视觉对象相对应的应用或功能。在这种情况下,数字设备可以执行与如上参照图5a至6c所述的视觉对象相对应的应用或功能。
尽管为了方便已经单独描述了各个附图,但在各个附图中描述的实施例可以被组合以实现新颖的实施例。此外,根据本领域技术人员的需要设计其中记录有用于执行上述实施例的程序的计算机可读记录介质,在本公开的范围之内。
此外,数字设备及其控制方法并不限于上述实施例的构造和方法,并且实施例中的全部或部分可被选择性地组合以实现各种修改。
此外,根据本公开的数字设备及其控制方法可以被实现为可在处理器可读记录介质上写入,并从而通过在网络设备中提供的处理器读取的代码。处理器可读记录介质可以是其中数据以处理器可读方式存储的任何类型的记录设备。处理器可读记录介质的示例可以包括ROM、RAM、CD-ROM、磁带、软盘和光学数据存储设备。此外,处理器可读记录介质包括载波(例如,因特网上的数据传输)。此外,处理器可读记录介质可以分布在连接至网络的多个计算机系统上,以便在其上写入处理器可读代码并且从其以分散的方式执行。
虽然以上已经示出并描述了优选实施例,但将是显而易见的是,本公开不限于上述具体实施例,并且在不偏离所附权利要求书的主旨的情况下,可以由本领域的技术人员做出各种修改和变型。因此,意在表明修改和变型不应被理解为独立于本公开的技术精神或前景。
此外,本公开描述了设备发明和方法发明两者,并且两个发明的描述可以根据需要互补地应用。
发明的模式
已经以实施发明的最佳实施方式描述了各种实施例。
对于本领域技术人员将是显而易见的是,在不偏离发明的精神和范围的情况下,可以在本发明中做出各种修改和变型。因此,意在表明本发明覆盖落在所附权利要求及其等同物的范围之内的本发明的修改和变型。
工业应用性
如上所述,本发明全部或部分适用于电子设备。

Claims (20)

1.一种数字设备,包括:
显示单元,所述显示单元被配置成显示至少一个视觉对象;
前侧触摸传感器单元,所述前侧触摸传感器单元被配置成感测在所述数字设备的前侧上的触摸输入;
后侧触摸传感器单元,所述后侧触摸传感器单元被配置成感测在所述数字设备的后侧上的触摸输入;和
处理器,所述处理器被配置成控制所述显示单元、所述前侧触摸传感器单元和所述后侧触摸传感器单元,
其中,所述处理器进一步被配置成:
获取在所述前侧触摸传感器单元或所述后侧触摸传感器单元上的第一参考位置和第二触摸位置,
获取所述第一参考位置和所述第二触摸位置之间的距离,并且
确定所述第一参考位置和所述第二触摸位置之间的距离是否在有效识别距离内,
其中,相对于所述后侧触摸传感器单元的有效识别距离长于相对于所述前侧触摸传感器单元的有效识别距离。
2.根据权利要求1所述的数字设备,其中,所述第一参考位置是第一触摸位置,
其中,所述处理器进一步被配置成:
如果所述第一参考位置和所述第二触摸位置之间的距离在所述有效识别距离内,则将所述第一触摸和所述第二触摸识别为单个双触摸手势,所述第一触摸被识别为第一触摸位置并且所述第二触摸被识别为第二触摸位置,并且
如果所述第一参考位置和所述第二触摸位置之间的距离在所述有效识别距离外,则将所述第一触摸和所述第二触摸识别为单独的触摸输入。
3.根据权利要求2所述的数字设备,其中,所述处理器进一步被配置成:
如果所述第一参考位置和所述第二触摸位置之间的距离在所述有效识别距离内,则获取所述第一触摸和所述第二触摸之间的时间间隔,并确定所述时间间隔是否在有效识别时间间隔内,并且
当所述时间间隔在所述有效识别时间间隔内时将所述第一触摸和所述第二触摸识别为单个双触摸手势,或者当所述时间间隔在所述有效识别时间间隔之外时将所述第一触摸和所述第二触摸识别为单独的触摸输入。
4.根据权利要求3所述的数字设备,其中,相对于所述后侧触摸传感器单元的有效识别时间间隔等于相对于所述前侧触摸传感器单元的有效识别时间间隔。
5.根据权利要求1所述的数字设备,其中,所述第一参考位置是第一视觉对象的位置,并且
其中,如果所述第一参考位置和所述第二触摸位置之间的距离在所述第一视觉对象的第一有效识别距离内,则所述处理器进一步被配置成将所述第二触摸识别为对所述第一视觉对象的触摸输入,将所述第二触摸识别为所述第二触摸位置。
6.根据权利要求5所述的数字设备,其中,所述处理器进一步被配置成:
获取在所述前侧触摸传感器单元或所述后侧触摸传感器单元上的第二参考位置,所述第二参考位置是第二视觉对象的位置,
获取所述第二参考位置和所述第二触摸位置之间的距离,
确定所述第二参考位置和所述第二触摸位置之间的距离是否在所述第二视觉对象的第二有效识别距离内,并且
如果所述第二参考位置和所述第二触摸位置之间的距离在所述第二有效识别距离内,则将所述第二触摸识别为对所述第二视觉对象的触摸输入。
7.根据权利要求6所述的数字设备,其中,所述第一有效识别距离和所述第二有效识别距离彼此相等。
8.根据权利要求6所述的数字设备,其中,所述处理器进一步被配置成基于所述第一视觉对象和所述第二视觉对象的位置来设定所述第一有效识别距离和所述第二有效识别距离。
9.根据权利要求6所述的数字设备,其中,如果所述第一参考位置和所述第二触摸位置之间的距离在所述第一有效识别距离内,并且所述第二参考位置和所述第二触摸位置之间的距离在所述第二有效识别距离内,则所述处理器进一步被配置成提供用于将所述第二触摸识别为对所述第一视觉对象和所述第二视觉对象中的一个视觉对象的触摸输入的视觉反馈。
10.根据权利要求1所述的数字设备,其中,所述处理器进一步被配置成:
从在所述前侧触摸传感器单元或所述后侧触摸传感器单元上的触摸输入获取触摸面积,并且
确定所述触摸面积是否是面积阈值,
其中,相对于所述后侧触摸传感器单元的面积阈值大于相对于所述前侧触摸传感器单元的面积阈值。
11.根据权利要求10所述的数字设备,其中,所述处理器进一步被配置成当所述触摸面积是所述面积阈值或以上时将所述触摸输入识别为有效触摸。
12.根据权利要求1所述的数字设备,其中,所述前侧触摸传感器单元和所述后侧触摸传感器单元由单个传感器单元构成。
13.一种数字设备的控制方法,所述控制方法包括:
获取在前侧触摸传感器单元或后侧触摸传感器单元上的第一参考位置和第二触摸的位置;
获取所述第一参考位置和所述第二触摸位置之间的距离;并且
确定所述第一参考位置和所述第二触摸位置之间的距离是否在有效识别距离内,
其中相对于所述后侧触摸传感器单元的有效识别距离长于相对于所述前侧触摸传感器单元的有效识别距离。
14.根据权利要求13所述的控制方法,其中,所述第一参考位置是第一触摸位置,所述方法进一步包括:
如果所述第一参考位置和所述第二触摸位置之间的距离在所述有效识别距离内,则将第一触摸和第二触摸识别为单个双触摸手势,所述第一触摸被识别为所述第一触摸位置并且所述第二触摸被识别为所述第二触摸位置,并且
如果所述第一参考位置和所述第二触摸位置之间的距离在所述有效识别距离之外,则将所述第一触摸和所述第二触摸识别为单独的触摸输入。
15.根据权利要求14所述的控制方法,进一步包括:
如果所述第一参考位置和所述第二触摸位置之间的距离在所述有效识别距离内,则获取所述第一触摸和所述第二触摸之间的时间间隔,并确定所述时间间隔是否在有效识别时间间隔内,
如果所述时间间隔在所述有效识别时间间隔内,则将所述第一触摸和所述第二触摸识别为单个双触摸手势,并且
如果所述时间间隔在所述有效识别时间间隔之外,则将所述第一触摸和所述第二触摸识别为单独的触摸输入。
16.根据权利要求15所述的控制方法,其中,相对于所述后侧触摸传感器单元的有效识别时间间隔等于相对于所述前侧触摸传感器单元的有效识别时间间隔。
17.根据权利要求13所述的控制方法,其中,所述第一参考位置是视觉对象的位置,所述控制方法进一步包括:
如果所述第一参考位置和所述第二触摸位置之间的距离在所述有效识别距离内,则将第二触摸识别为对所述视觉对象的触摸输入,所述第二触摸被识别为所述第二触摸位置。
18.一种数字设备,包括:
显示单元,所述显示单元被配置成显示视觉对象;
前侧触摸传感器单元,所述前侧触摸传感器单元被配置成感测在所述数字设备的前侧上的触摸输入;
后侧触摸传感器单元,所述后侧触摸传感器单元被配置成感测在所述数字设备的后侧上的触摸输入;和
处理器,所述处理器被配置成控制所述显示单元、所述前侧触摸传感器单元和所述后侧触摸传感器单元,
其中,所述处理器进一步被配置成:
将经由所述前侧触摸传感器单元或所述后侧触摸传感器单元中的一个触摸传感器单元获取的第一触摸和第二触摸,根据所述第一触摸和所述第二触摸的位置和时间,识别为单个双触摸手势或单独的触摸输入,
其中,如果所述第一触摸和所述第二触摸的位置之间的距离在有效识别距离内,并且所述第一触摸和所述第二触摸之间的时间间隔在有效识别时间间隔内,则将所述第一触摸和所述第二触摸识别为所述单个双触摸手势,
其中,相对于所述后侧触摸传感器单元的有效识别距离长于相对于所述前侧触摸传感器单元的有效识别距离。
19.根据权利要求18所述的数字设备,其中,相对于所述后侧触摸传感器单元的有效识别时间间隔等于相对于所述前侧触摸传感器单元的有效识别时间间隔。
20.根据权利要求18所述的数字设备,其中,所述前侧触摸传感器单元和所述后侧触摸传感器单元由单个传感器单元构成。
CN201480053426.1A 2013-09-30 2014-02-20 数字设备及其控制方法 Expired - Fee Related CN105579945B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR1020130116199A KR102165445B1 (ko) 2013-09-30 2013-09-30 디지털 디바이스 및 그 제어 방법
KR10-2013-0116199 2013-09-30
US14/168,455 US9927914B2 (en) 2013-09-30 2014-01-30 Digital device and control method thereof
US14/168,455 2014-01-30
PCT/KR2014/001362 WO2015046683A1 (en) 2013-09-30 2014-02-20 Digital device and control method thereof

Publications (2)

Publication Number Publication Date
CN105579945A true CN105579945A (zh) 2016-05-11
CN105579945B CN105579945B (zh) 2019-07-05

Family

ID=52739677

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480053426.1A Expired - Fee Related CN105579945B (zh) 2013-09-30 2014-02-20 数字设备及其控制方法

Country Status (5)

Country Link
US (1) US9927914B2 (zh)
EP (1) EP3053015B1 (zh)
KR (1) KR102165445B1 (zh)
CN (1) CN105579945B (zh)
WO (1) WO2015046683A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101459552B1 (ko) * 2013-06-19 2014-11-07 주식회사 케이티 디바이스의 레이아웃 영역에 객체를 표시하는 방법 및 디바이스
US10089786B2 (en) * 2013-08-19 2018-10-02 Qualcomm Incorporated Automatic customization of graphical user interface for optical see-through head mounted display with user interaction tracking
US20160026281A1 (en) * 2014-07-25 2016-01-28 Hannstar Display (Nanjing) Corporation Shadeless touch hand-held electronic device and computer-executed method
JP2018028804A (ja) * 2016-08-18 2018-02-22 株式会社デンソーテン 入力制御装置、入力制御方法、入力制御プログラムおよび入力制御システム
US10908720B2 (en) * 2018-05-21 2021-02-02 Yungu (Gu'an) Technology Co., Ltd. Display device
WO2023132643A1 (en) * 2022-01-05 2023-07-13 Samsung Electronics Co., Ltd. Method and electronic device for providing control functionality of display

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100164904A1 (en) * 2008-12-30 2010-07-01 Su Myeon Kim Control signal input device and method using dual touch sensor
EP2302488A2 (en) * 2008-05-22 2011-03-30 Melfas, Inc. Method and apparatus for sensing multi-touch inputs
US20110157053A1 (en) * 2009-12-31 2011-06-30 Sony Computer Entertainment Europe Limited Device and method of control
CN102681760A (zh) * 2011-01-05 2012-09-19 索尼公司 信息处理设备、信息处理方法和计算机程序

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101520689B1 (ko) * 2008-10-22 2015-05-21 엘지전자 주식회사 이동 단말기 및 이를 이용한 화면 스크롤 방법
KR101544364B1 (ko) * 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
US8493364B2 (en) * 2009-04-30 2013-07-23 Motorola Mobility Llc Dual sided transparent display module and portable electronic device incorporating the same
EP2341418A1 (en) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Device and method of control
KR101667586B1 (ko) * 2010-07-12 2016-10-19 엘지전자 주식회사 이동단말기 및 그 제어방법
JP5529700B2 (ja) * 2010-09-27 2014-06-25 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、その制御方法、及びプログラム
US9092135B2 (en) * 2010-11-01 2015-07-28 Sony Computer Entertainment Inc. Control of virtual object using device touch interface functionality

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2302488A2 (en) * 2008-05-22 2011-03-30 Melfas, Inc. Method and apparatus for sensing multi-touch inputs
US20100164904A1 (en) * 2008-12-30 2010-07-01 Su Myeon Kim Control signal input device and method using dual touch sensor
US20110157053A1 (en) * 2009-12-31 2011-06-30 Sony Computer Entertainment Europe Limited Device and method of control
CN102681760A (zh) * 2011-01-05 2012-09-19 索尼公司 信息处理设备、信息处理方法和计算机程序

Also Published As

Publication number Publication date
KR20150037026A (ko) 2015-04-08
WO2015046683A1 (en) 2015-04-02
CN105579945B (zh) 2019-07-05
EP3053015A4 (en) 2017-06-14
EP3053015A1 (en) 2016-08-10
KR102165445B1 (ko) 2020-10-14
US20150091877A1 (en) 2015-04-02
EP3053015B1 (en) 2019-06-12
US9927914B2 (en) 2018-03-27

Similar Documents

Publication Publication Date Title
US9547391B2 (en) Method for processing input and electronic device thereof
KR102269598B1 (ko) 배경화면의 내용에 대응하여 객체를 배열하는 방법 및 장치
EP3028123B1 (en) Electronic device and method of recognizing input in electronic device
US10627987B2 (en) Method for launching a second application using a first application icon in an electronic device
US9280276B2 (en) Method for controlling electronic device with touch screen and electronic device thereof
CN105579945A (zh) 数字设备及其控制方法
US20160062533A1 (en) Method of disambiguating water from a finger touch on a touch sensor panel
KR101654335B1 (ko) 터치스크린의 베젤을 이용한 제스처 명령 방법 및 그 단말
US9423883B2 (en) Electronic apparatus and method for determining validity of touch key input used for the electronic apparatus
CN107765944A (zh) 一种屏幕触控方法、终端设备及计算机可读介质
US20150185923A1 (en) Method for processing input and electronic device thereof
US10430071B2 (en) Operation of a computing device functionality based on a determination of input means
EP2728456B1 (en) Method and apparatus for controlling virtual screen
AU2017203910A1 (en) Glove touch detection
US10488988B2 (en) Electronic device and method of preventing unintentional touch
EP2677413B1 (en) Method for improving touch recognition and electronic device thereof
EP3427139B1 (en) Electronic device and input processing method thereof
CN114168029A (zh) 显示方法、装置、设备及介质
JP5782420B2 (ja) ユーザインタフェース装置、ユーザインタフェース方法及びプログラム
EP2799970A1 (en) Touch screen panel display and touch key input system
US9886741B2 (en) Method and apparatus for displaying images in touchscreen-based devices
TW201941028A (zh) 可攜式電子裝置及解鎖方法
US9524051B2 (en) Method and terminal for inputting multiple events
US10521108B2 (en) Electronic apparatus for detecting touch, method of controlling the same, and display apparatus including touch controller
EP3210101B1 (en) Hit-test to determine enablement of direct manipulations in response to user actions

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190705

CF01 Termination of patent right due to non-payment of annual fee