CN101887343B - 信息处理设备和信息处理方法 - Google Patents
信息处理设备和信息处理方法 Download PDFInfo
- Publication number
- CN101887343B CN101887343B CN2010101691189A CN201010169118A CN101887343B CN 101887343 B CN101887343 B CN 101887343B CN 2010101691189 A CN2010101691189 A CN 2010101691189A CN 201010169118 A CN201010169118 A CN 201010169118A CN 101887343 B CN101887343 B CN 101887343B
- Authority
- CN
- China
- Prior art keywords
- contact
- gesture operation
- touch sensor
- static touch
- mobile terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/033—Indexing scheme relating to G06F3/033
- G06F2203/0339—Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Abstract
本发明公开了一种信息处理设备和信息处理方法。所述信息处理设备包括:显示装置,用于显示图像;检测装置,被布置在除布置有所述显示装置的另一区域之外区域中,用于检测所述区域中的静态接触或动态接触;以及控制装置,用于基于所述检测装置检测到静态接触或动态接触的两个或更多个区域中的静态接触和动态接触的组合、或动态接触的组合来识别手势操作内容,并控制与所述手势操作内容相对应的处理的进行。
Description
技术领域
本发明涉及信息处理设备和信息处理方法,更具体地说,涉及能够在不依赖于触摸板的情况下实现手势操作的信息处理设备和信息处理方法。
背景技术
近年来,如以iPhone(苹果公司的注册商标)为代表的、其用户可以通过使用多种触摸方法进行对触摸板的手势操作的信息处理设备已被广泛使用。在这种信息处理设备中,进行与用户的手势操作相对应的预定处理(下文中称为交互处理)(例如,参见JP-A-5-100809)。
发明内容
然而,为了实现多触摸型的手势操作,触摸板的屏幕的面积可能需要等于或大于预定面积。例如,对于具有特有的形状并具有小面积的屏幕的信息处理设备(如手表型的信息处理设备),难以在触摸板上实现多触摸型的手势操作。换句话说,为了在触摸板上实现手势操作,可能存在一些对触摸板的屏幕的面积或信息处理设备的形状的限制。
因此,需要在不依赖于触摸板的情况下实现手势操作。
根据本发明的实施例,提供了一种信息处理设备,包括:显示装置,用于显示图像;检测装置,被布置在除布置有所述显示装置的另一区域之外的区域中,用于检测所述区域中的静态接触或动态接触;以及控制装置,用于基于所述检测装置检测到静态接触或动态接触的两个或更多个区域中的静态接触和动态接触的组合、或动态接触的组合来识别手势操作内容,并控制与所述手势操作内容相对应的处理的进行。
在上述信息处理设备中,可以包括被布置在不同区域中的多个所述检测装置。
另外,所述控制装置可以从布置有所述检测装置的区域中识别检测到静态接触或动态接触的面积,并基于所述面积在对所述手势操作内容的识别进行的控制的允许进行与禁止进行之间进行切换。
另外,所述控制装置可以被配置成:在所述面积等于或大于阈值的情况下,假定由所述检测装置检测到的静态接触或动态接触是为了使用者抓握所述信息处理设备的目的,并进行控制以禁止所述手势操作内容的识别的进行,并且在所述面积小于所述阈值的情况下,假定由所述检测装置检测到的静态接触或动态接触是为了使用者的预定操作的目的,并进行控制以允许针对所述预定操作的手势操作内容的识别的进行。
另外,所述检测装置可以具有:输出由接触导致的静电电容的改变的静电传感器;以及与所述静电传感器相组合并具有可变的形状的导电材料。
根据本发明的另一实施例,提供了一种与上述信息处理设备相对应的信息处理方法。
在根据本发明实施例的信息处理设备和信息处理方法中,显示图像;检测除显示所述图像的另一区域之外的区域中的静态接触或动态接触;基于检测到静态接触或动态接触的两个或更多个区域中的静态接触和动态接触的组合、或动态接触的组合来识别操作内容,并控制进行与所述操作内容相对应的处理。
如上所述,根据本发明的实施例,可以在不依赖于触摸板的情况下实现手势操作。
附图说明
图1是示出作为根据本发明实施例的信息处理设备的移动终端设备的外部配置示例的立体图。
图2是例示在静电触摸板中使用的用于触摸板的静电触摸传感器的检测技术的图。
图3A和图3B是例示对移动终端设备的侧面的手势操作以及与该手势操作相对应的交互处理的示例的图。
图4是示出图1中所示的移动终端设备的内部配置示例的框图。
图5是例示顺应侧面手势操作的交互处理的示例的流程图。
图6A和图6B是例示错误手势操作检测防止处理的图。
图7A和图7B是例示错误手势操作检测防止处理的图。
图8A至图8F是例示移动终端设备的交互处理的具体示例的图。
图9A至图9F是例示移动终端设备的交互处理的具体示例的图。
图10A和图10B表示作为根据本发明实施例的信息处理设备的移动终端设备的外部配置示例,是示出与图1的示例不同的另一示例的图。
图11是作为根据本发明实施例的信息处理设备的移动终端设备的外部配置示例,是示出与图1以及图10A和图10B的示例不同的另一示例的图。
具体实施方式
下文中,将参照附图描述本发明的实施例。根据本发明实施例的信息处理设备的外部配置示例
图1是示出作为根据本发明实施例的信息处理设备的移动终端设备的外部配置示例的立体图。
在移动终端设备11的预定面上布置有静电触摸板22。通过在显示单元22-D(图4中所示,后面将描述)上堆叠用于触摸板的静电触摸传感器22-S(图4中所示,后面将描述)来构成静电触摸板22。当使用者的手指等与静电触摸板22的显示单元22-D的屏幕相接触时,以用于触摸板的静电触摸传感器22-S的静电电容的改变的形式检测该接触。然后,CPU23(图4中所示,后面将描述)识别由用于触摸板的静电触摸传感器22-S检测的手指的接触位置的坐标的转变(时间转变)等。然后,基于识别的结果来检测手势操作。下面将参照图2及其后的图对手势操作及其检测技术的具体示例进行描述。
下文中,在构成移动终端设备11的各面中,布置有显示单元22-D的面被称为前面,其法线垂直于所述前面的法线的面被称为侧面。在图1中所示的示例中,存在四个作为侧面的面。下文中,使用静电触摸板22(显示单元22-D)的默认屏幕显示的方向作为基准,将布置在关于所述前面的上侧、下侧、右侧和左侧上的各侧面称为上面、下面、右面和左面。
在移动终端设备11中,布置有布置在上面上的侧面静电触摸传感器21-1和布置在下面上的侧面静电触摸传感器21-2。另外,在移动终端设备11中,布置有布置在右面上的侧面静电触摸传感器21-3和布置在左面上的侧面静电触摸传感器21-4。
下文中,在不需要单独地区分侧面静电触摸传感器21-1至21-4的情况下,将这些侧面静电触摸传感器统称为侧面静电触摸传感器21。
当使用者的手指等与移动终端设备11的侧面相接触时,以静电触摸传感器21的静电电容的改变的形式检测到该接触。然后,CPU 23(图4中所示,后面将描述)识别由侧面静电触摸传感器21检测的手指的接触位置的坐标的转变(时间转变)等。基于识别的结果来检测手势操作。下面将参照图2及其后的图对手势操作及其检测技术的具体示例进行描述。使用静电触摸传感器来检测接触
图2是例示在静电触摸板22中使用的用于触摸板的静电触摸传感器22-S的检测技术的图。
由在显示单元22-D中以矩阵形式(例如,10×7)布置的静电传感器的组合构成用于触摸板的静电触摸传感器22-S。静电传感器具有根据静电电容的改变而不断地改变的静电电容值。因此,在接触物(例如,手指)接近静电传感器或与其相接触的情况下,静电传感器的静电电容值增加。后面将描述的CPU 23不断地监视静电传感器的静电电容值。当增加量的改变超过阈值时,CPU 23确定存在接近静电触摸板22或与其相接触的手指等的“接触”。换句话说,CPU 23基于确定存在“接触”的静电传感器的布置位置来检测手指等的接触位置的坐标。换句话说,CPU 23可以同时地监视构成用于触摸板的静电触摸传感器22-S的所有静电传感器的静电电容值。CPU 23同时地监视所有静电传感器的静电电容值的改变,并进行插值(interpolation),由此CPU 23可以检测接近静电触摸板22或与其相接触的手指等的位置、该手指的形状等。
例如,在图2中所例示的示例中,在静电触摸板22中,黑色显示区域表示手指f未接近或未与其相接触的区域,该区域的静电电容未改变。另外,白色显示区域表示手指f接近或与其相接触的区域,该区域的静电电容增加。在这种情况下,CPU 23可以识别白色区域的坐标作为手指f的位置,并检测白色区域的形状作为手指f的形状。
在这里的描述中,接触不仅包括静态接触(仅与特定区域的接触),还包括动态接触(由在绘出预定轨迹的同时移动的诸如手指f的接触物进行的接触)。例如,静电触摸板22上的手指等也是接触的一种形式。下文中,接触不仅包括完全接触,还包括接近。
另外,CPU 23可以通过以时间序列的方式检测手指等的接触位置来 识别手指等在静电触摸板22上的轨迹。另外,CPU 23可以通过检测与该轨迹相对应的手势操作来进行与该手势操作相对应的交互处理。
到现在为止,已经描述了在静电触摸板22中使用的用于触摸板的静电触摸传感器22-S的检测技术。这种检测技术对于侧面静电触摸传感器21来说是相同的。
换句话说,CPU 23可以通过监视侧面静电触摸传感器21的静电电容的改变来检测对移动终端设备11的侧面的手势操作,从而进行与该手势操作相对应的交互处理。
交互的示例
图3A和图3B是例示对移动终端设备11的侧面的手势操作以及与该手势操作相对应的交互处理的示例的图。
例如,假设静电触摸板22的显示状态是图3A中所呈示的显示状态,即,包含一个对象(狗)的静止屏幕以默认显示方向显示在静电触摸板22上的状态。如上所述的默认显示方向是这样的方向:图像被显示成使得布置有侧面静电触摸传感器21-1的上面位于上侧。另外,假设在该状态中使用者的手指f1与移动终端设备11的上面(布置有侧面静电触摸传感器21-1的面)的中心附近的位置(即,图3A中由圆圈表示的位置)相接触。另外,假设使用者的手指f2与移动终端设备11的右面(布置有侧面静电触摸传感器21-3的面)的上侧附近的位置(即,图3A中由圆圈表示的位置)相接触。
这里,假设使用者进行将手指f2从图3A中所呈示的状态移动到图3B中所呈示的状态的手势操作。换句话说,假设使用者在保持手指f1的状态的情况下仅用与侧面静电触摸传感器21-3相接触的手指f2沿图3B中由箭头表示的向下方向进行描迹操作。
描迹操作是手势操作之一,其表示以下操作:使用者将手指与预定区域相接触,然后在保持该手指的接触的同时以预定区域为起点将该手指沿预定方向移动(拖动)预定距离。
在进行这种针对右面的向下描迹操作时,如图3B中所呈示的那样,作为交互处理进行将静电触摸板22的显示方向改变到描迹操作的方向的处理。换句话说,进行关于默认显示方向(图3A中的显示方向)将显示向右侧旋转90度的处理。
如上所述,使用者可以通过进行对移动终端设备11的侧面的手势操 作来进行对移动终端设备11的交互处理。另外,下面将参照图8A至图8F以及图9A至图9F对手势操作和交互处理的其它示例进行描述。
接下来,将参照图4对进行上述交互处理的移动终端设备11的配置示例进行描述。
移动终端设备的配置示例
图4是示出图1中所示的移动终端设备11的内部配置示例的框图。
移动终端设备11被配置成除了上述侧面静电触摸传感器21和静电触摸板22以外还包括CPU(中央处理单元)23、非易失性存储器24、RAM(随机存取存储器)25以及驱动器26。
如上所述,静电触摸板22由用于触摸板的静电触摸传感器22-S和显示单元22-D构成。
CPU 23控制移动终端设备11的全部操作。因此,侧面静电触摸传感器21、静电触摸板22、非易失性存储器24、RAM 25以及驱动器26连接到CPU 23。
例如,CPU 23根据对移动终端设备11的侧面的手势操作来进行交互处理。换句话说,CPU 23产生监视侧面静电触摸传感器21-1至21-4的静电电容的改变的线程(下文中称为静电电容监视线程)。然后,CPU 23基于静电电容监视线程的监视结果来确定使用者的手指f是否与侧面(侧面静电触摸传感器21)相接触。然后,当确定手指与侧面相接触时,CPU23检测预定的手势操作并进行与其相对应的交互处理。下文中,由CPU 23进行的这一系列处理被称为顺应侧面手势操作的交互处理。将参照图5及其后的图对顺应侧面手势操作的交互处理进行详细描述。
非易失性存储器24存储各种类型的信息。例如,即使当电源的状态转变成“关”状态,要存储的信息等也存储在非易失性存储器24中。
当CPU 23进行各种处理时,RAM 25临时地存储程序和可能需要作为工作区的数据。
驱动器26对诸如磁盘、光盘、磁光盘或半导体存储器的可移动介质27进行驱动。
顺应侧面手势操作的交互处理
图5是例示具有上述配置的移动终端设备11的顺应侧面手势操作的交互处理的示例的流程图。
在步骤S11中,CPU 23获取侧面静电触摸传感器21的静电电容,并以任意分辨率对静电电容进行插值。换句话说,在顺应侧面手势操作的交互处理的起始时间点,CPU 23产生如上所述的静电电容监视线程。CPU23通过静电电容监视线程来获取侧面静电触摸传感器21的静电电容,计算所获取的静电电容与产生所述线程时的静电电容之间的差,并以任意分辨率进行插值。
在步骤S12中,CPU 23确定是否存在接触面积等于或大于阈值(例如,侧面静电触摸传感器21的面积的30%)的侧面静电触摸传感器21。
在四个侧面静电触摸传感器21-1至21-4中存在一个或更多个接触面积等于或大于阈值的侧面静电触摸传感器21的情况下,在步骤S12中确定为“是”,处理进行到步骤S13。
在步骤S13中,CPU 23从手势操作对象中排除接触面积等于或大于阈值的侧面静电触摸传感器21。换句话说,虽然后面将参照图6A和图6B以及图7A和图7B对其细节进行描述,但是假设接触面积等于或大于阈值的侧面静电触摸传感器21与使用者的手指或手掌相接触以抓握布置有侧面静电触摸传感器21的侧面。这样,CPU 23禁止从该侧面静电触摸传感器21检测手势操作。因此,处理进行到步骤S14。
另一方面,在不存在手指接触面积等于或大于阈值的侧面静电触摸传感器21的情况下,不存在禁止从中检测手势操作的侧面静电触摸传感器21。因此,在步骤S12中确定为“否”。然后,不进行步骤S13的处理,处理进行到步骤S14。
在步骤S14中,CPU 23确定是否检测到手势操作。
在从未禁止从中检测手势操作的所有侧面静电触摸传感器21中未检测到手势操作的情况下,在步骤S14中确定为“否”。然后,处理返回到步骤S11,并重复其后的处理。换句话说,重复步骤S11至S14的循环处理,直到检测到手势操作为止。
其后,在从未禁止从中检测手势操作的侧面静电触摸传感器21中的至少一个检测到手势操作的情况下,在步骤S14中确定为“是”,处理进行到步骤S15。
在步骤S15中,CPU 23进行与手势操作相对应的交互处理。
在步骤S16中,CPU 23确定是否已指示处理完成。
在未指示处理完成的情况下,在步骤S16中确定为“否”,并且处理返回到步骤S11。然后,重复其后的处理。
另一方面,在已指示处理完成的情况下,在步骤S11中确定为“是”,顺应侧面手势操作的交互处理完成。
手势操作错误检测的防止
下文中,对顺应侧面手势操作的交互处理中的步骤S12和S13的处理进行详细描述。
在本实施例的移动终端设备11的侧面上布置有侧面静电触摸传感器21。这样,在移动终端设备11的侧面被抓握使得通过使用者的手指、手掌等进行手势操作的情况下,手指、手掌等与用于抓握的侧面静电触摸传感器21相接触。即使在这种情况下,CPU 23也检测到接触。然而,在这种接触被错误地检测为预定手势操作的情况下,进行错误的交互处理。
因此,为了避免这种错误检测,针对顺应侧面手势操作的交互处理进行步骤S12和S13的处理。下文中,将步骤S12和S13的处理称为错误手势操作检测防止处理。
图6A和图6B以及图7A和图7B是例示错误手势操作检测防止处理的图。
例如,假设从图6A中所示的侧面静电触摸传感器21-3的区域T(灰色的椭圆形区域T)中检测到接触。从中检测到持续预定时间或更长的接触的区域T与在步骤S12和S13中所描述的接触区域相对应。
这样,在区域T的接触面积等于或大于阈值的情况下,可以假定与侧面静电触摸传感器21-3的接触不是用于手势操作的接触,而是用于抓握移动终端设备11的接触。换句话说,如图6B所示,假设以下状态:使用者的右手与布置有侧面静电触摸传感器21-3的右面均匀接触,以用右手抓握移动终端设备11。换句话说,假设使用者对与右面不同的侧面进行手势操作或其预备操作的状态。可以任意地设定接触面积的阈值。例如,可以将该阈值设定成侧面静电触摸传感器21的面积的30%。
在这种情况下,在图5中所呈示的步骤S12的处理中确定为“是”。因此,在步骤S13的处理中,从在后一级的步骤S14的处理中的手势操作的检测对象中排除侧面静电触摸传感器21-3。换句话说,即使在使用者用与抓握手指不同的手指等对侧面静电触摸传感器21-3进行手势操作的情况下,该手势操作也无效。
同时,假设例如从图7A中所示的侧面静电触摸传感器21-3的区域T1、T2和T3(灰色的圆形区域T1、T2和T3)中检测到接触。在区域T1、T2和T3中的每个中,接触持续预定时间或更长的区域与在步骤S12和S13中所描述的接触区域相对应。
这样,在区域T1、T2和T3中的所有接触区域分别小于阈值的情况下,可以假定与侧面静电触摸传感器21-3的接触是用于抓握移动终端设备11的接触。换句话说,可以假定与侧面静电触摸传感器21-3的接触是用于手势操作或其预备接触的接触。换句话说,可以假设以下状态:使用者将左手的手掌与左面相接触以用左手抓握移动终端设备11,如图7B所示。换句话说,可以假设以下状态:使用者对与左面不同的侧面进行手势操作或其预备操作。换句话说,假设布置有侧面静电触摸传感器21-3的右面是可以作为使用者的手势操作的对象的侧面。重点在于,作为假设,确定与区域T1、T2和T3的接触是用于手势操作的接触还是用于抓握移动终端设备11的辅助接触。
在这种情况下,即,在布置在包括右面的所有侧面上的每个侧面静电触摸传感器21的接触区域均小于阈值的情况下,在图5中所示的步骤S12的处理中确定为“否”。然后,不进行步骤S13的处理,处理进行到步骤S14。因此,侧面静电触摸传感器21-3变为步骤S14的处理中的手势操作检测对象。换句话说,在使用者对侧面静电触摸传感器21-3进行手势操作的情况下,该手势操作有效。
如上所述,移动终端设备11进行错误手势操作检测防止处理。因此,例如,即使在使用者用一只手同时地进行对移动终端设备11的抓握操作以及手势操作的情况下,也可以防止手势操作错误检测。结果,使用者可以仅用一只手进行对移动终端设备11的侧面的手势操作。
接下来,将参照图8A至图8F和图9A至图9F对顺应侧面手势操作的交互处理的步骤S15中进行的交互处理的具体示例进行描述。
交互处理的具体示例
图8A至图8F和图9A至图9F是例示移动终端设备11的交互处理的具体示例的图。
在图8A至图8F的示例中,使用者对移动终端设备11的彼此面对的两个侧面进行手势操作。
图8A和图8B表示沿同一方向对移动终端设备11的右面和左面同时 地进行描迹操作的手势操作。
在图8A的示例中,作为手势操作,进行对移动终端设备11的右面和左面的向下的描迹操作。换句话说,使用者用与侧面静电触摸传感器21-3和21-4相接触的手指f2和f1进行同时向下的描迹操作。结果,CPU23进行以下交互处理。与对静电触摸板22进行普通滚动操作的情况相比,CPU 23高速地将显示图像移动到下侧。
在图8B的示例中,作为手势操作,进行对移动终端设备11的右面和左面的向上的描迹操作。换句话说,使用者用与侧面静电触摸传感器21-3和21-4相接触的手指f2和f1进行同时向上的描迹操作。结果,CPU23进行以下交互处理。与对静电触摸板22进行普通滚动操作的情况相比,CPU 23高速地将显示图像移动到上侧。
在图8A和图8B的示例中,可以考虑难以获取功能可视性(affordance)的情况。在这种情况下,通过减少在显示单元22-D等中显示的对象以显示鸟眼图,可以将根据手势操作的显示图像的移动速度的增加进行视觉上的呈示。
图8C和图8D表示以下手势操作:当在移动终端设备11的左面上的预定位置处于接触状态的同时,向上或向下地进行针对右面的描迹操作。
在图8C的示例中,作为手势操作,当在移动终端设备11的左面上的预定位置处于接触状态的同时,针对右面进行向上的描迹操作。换句话说,使用者在允许侧面静电触摸传感器21-4上的预定位置与手指f1相接触的同时用与侧面静电触摸传感器21-3相接触的手指f2进行向上的描迹操作。结果,CPU 23进行以下交互处理。与对静电触摸板22进行普通滚动操作的情况相类似,CPU 23将显示图像移动到上侧。
在图8D的示例中,作为手势操作,当在移动终端设备11的左面上的预定位置处于接触状态的同时,针对右面进行向下的描迹操作。换句话说,使用者在允许侧面静电触摸传感器21-4上的预定位置与手指f1相接触的同时用与侧面静电触摸传感器21-3相接触的手指f2进行向下的描迹操作。结果,CPU 23进行以下交互处理。与对静电触摸板22进行普通滚动操作的情况相类似,CPU 23将显示图像移动到下侧。
允许左面与手指f1相接触以针对右面进行向上的描迹操作的原因是要避免仅滚动右面的情况下的错误操作。
图8E和图8F表示以下手势操作:沿相反的方向对移动终端设备11 的左面和右面同时地进行描迹操作。
在图8E的示例中,作为手势操作,沿相反的方向进行对移动终端设备11的右面和左面的描迹操作。换句话说,使用者用与侧面静电触摸传感器21-3相接触的手指f2进行向上的描迹操作,同时用与侧面静电触摸传感器21-4相接触的手指f1进行向下的描迹操作。结果,CPU 23进行以下交互处理。CPU 23放大或缩小显示图像。
在图8F的示例中,作为手势操作,沿相反的方向进行对移动终端设备11的右面和左面的描迹操作。换句话说,使用者用与侧面静电触摸传感器21-3相接触的手指f2进行向下的描迹操作,同时用与侧面静电触摸传感器21-4相接触的手指f1进行向上的描迹操作。结果,CPU 23进行以下交互处理。CPU 23缩小或放大显示图像。
在图8A至图8F的示例中,描述了对作为位于移动终端设备11的彼此面对的两个侧面上的侧面静电触摸传感器21的位于左面和右面上的侧面静电触摸传感器21-3和21-4进行的手势操作。然而,可以使用位于作为移动终端设备11的彼此面对的两个侧面的上面和下面上的侧面静电触摸传感器21-1和21-2。在使用上面和下面的情况下,当进行向右的描迹操作时,与进行普通向右滚动操作的情况相类似,显示图像被移动到右侧。另外,在进行向左的描迹操作的情况下,与进行普通向左滚动操作的情况相类似,显示图像被移动到左侧。
在图9A至图9F所示的示例中,对位于移动终端设备11的彼此相邻的两个侧面上的侧面静电触摸传感器21-1和21-3进行手势操作。
图9A和图9B表示以下手势操作:其中,在移动终端设备11的上面上的预定位置处于接触状态的同时,针对右面进行向上或向下的描迹操作。
在图9A的示例中,作为手势操作,当在移动终端设备11的上面上的预定位置处于接触状态的同时针对右面进行向上的描迹操作。换句话说,使用者在允许手指f1与侧面静电触摸传感器21-1上的预定位置相接触的同时用与侧面静电触摸传感器21-3相接触的手指f2进行向上的描迹操作。结果,CPU 23进行以下交互处理。CPU 23沿向上的描迹操作的方向旋转显示图像。在这种情况下,进行以下处理:关于默认显示方向将显示图像向左侧旋转90度,在所述默认显示方向上,图像被显示成使得布置有侧面静电触摸传感器21-1的上面位于上侧。
在图9B的示例中,作为手势操作,当在移动终端设备11的上面上的预定位置处于接触状态的同时针对右面进行向下的描迹操作。换句话说,使用者在允许手指f1与侧面静电触摸传感器21-1上的预定位置相接触的同时用与侧面静电触摸传感器21-3相接触的手指f2进行向下的描迹操作。结果,CPU 23进行以下交互处理。CPU 23沿描迹操作的方向旋转显示图像。在这种情况下,进行以下处理:关于默认显示方向将显示图像向右侧旋转90度。
图9C和图9D表示以下手势操作:沿移动终端设备11的上面和右面彼此接近或彼此远离的方向同时地进行描迹操作。
在图9C的示例中,作为手势操作,呈示以下手势操作:沿使得与移动终端设备11的上面和右面相接触的手指f1和f2彼此接近的方向同时地进行描迹操作。换句话说,使用者用与侧面静电触摸传感器21-3相接触的手指f2进行向上的描迹操作,同时用与侧面静电触摸传感器21-1相接触的手指f1进行向右的描迹操作。结果,CPU 23进行以下交互处理。CPU23将显示图像移动到右上侧,直到手指f1或f2不与侧面静电触摸传感器21相接触为止。
在图9D的示例中,作为手势操作,呈示以下手势操作:沿使得与移动终端设备11的上面和右面相接触的手指f1和f2彼此远离的方向同时地进行描迹操作。换句话说,使用者用与侧面静电触摸传感器21-3相接触的手指f2进行向下的描迹操作,同时用与侧面静电触摸传感器21-1相接触的手指f1进行向左的描迹操作。结果,CPU 23进行以下交互处理。CPU23将显示图像移动到左下侧,直到手指f1或f2不与侧面静电触摸传感器21相接触为止。
图9E和图9F表示以下手势操作:从移动终端设备11的上面或右面到其右面或上面连续地进行描迹操作。
在图9E的示例中,作为手势操作,用与移动终端设备11的上面相接触的手指f进行到右面的连续的描迹操作。换句话说,使用者用与侧面静电触摸传感器21-1相接触的手指f进行向右的描迹操作,然后立即对侧面静电触摸传感器21-3进行向下的描迹操作。结果,CPU 23进行以下交互处理。CPU 23将显示从当前页的图像显示移动到下一页或前一页的图像显示。
在图9F的示例中,作为手势操作,用与移动终端设备11的右面相接 触的手指f进行到上面的连续的描迹操作。换句话说,使用者用与侧面静电触摸传感器21-3相接触的手指f进行向上的描迹操作,然后立即对侧面静电触摸传感器21-1进行向左的描迹操作。结果,CPU 23进行以下交互处理。CPU 23将显示从当前页的图像显示移动到下一页或前一页的图像显示。
另外,在图9E和图9F的示例中,存在以下情况:位于两个相邻侧面上的侧面静电触摸传感器21不是一个连续的触摸传感器。在这种情况下,例如,可以如下进行交互处理。在从一个侧面到与其相邻的另一侧面进行描迹操作的情况下,当在从对所述一个侧面的描迹操作起的预定时间内进行对所述另一侧面的描迹操作时,可以认为所述描迹操作是连续的描迹操作。在这种情况下,进行交互处理。
在图9A至图9F的示例中,已描述了对作为位于移动终端设备11的两个相邻的侧面上的侧面静电触摸传感器21的布置在上面和右面上的侧面静电触摸传感器21-1和21-3的手势操作。然而,并不对所要使用的侧面进行具体的限制,只要所述侧面是移动终端设备11的两个相邻的侧面即可。
如上所述,通过将多个侧面静电触摸传感器21布置在移动终端设备11的侧面上,即使对于难以获取静电触摸板22的预定面积或形状的移动终端设备11而言,也可以进行手势操作。
另外,通过将侧面静电触摸传感器21布置在移动终端设备11的侧面上,可以自由地改变移动终端设备11的每个侧面的形状。下文中,将参照图10A和图10B对移动终端设备11的侧面的形状进行描述。
在移动终端设备11中,采用侧面静电触摸传感器21和用于触摸板的静电触摸传感器22-S。
然而,用于触摸板的静电触摸传感器22-S堆叠在显示单元22-D上,并且构成静电触摸板22。因此,为了不干扰显示单元22-D中的显示,可能需要采用透明的静电触摸传感器作为用于触摸板的静电触摸传感器22-S。
换句话说,由于移动终端设备11的侧面上布置有侧面静电触摸传感器21,因此不需要特别地采用透明的静电触摸传感器。因此,通过将侧面静电触摸传感器21与可以自由地改变形状的导电材料组合在一起,可以自由地形成移动终端设备11的侧面的形状。 根据本发明实施例的信息处理设备的另一外部配置示例
例如,图10A和图10B表示根据本发明另一实施例的作为信息处理设备的移动终端设备的外部配置示例。图10A和图10B是示出与图1的示例不同的另一示例的图。
如图10A所示,例如,移动终端设备12具有弯曲形状的侧面,并且具有以下配置:在其中心布置有直角平行六面体的主体部分42。在主体部分42的前面上布置有静电触摸板22。
在移动终端设备12的主体部分42中,布置有布置在上面上的侧面静电触摸传感器21-a和布置在下面上的侧面静电触摸传感器21-b。另外,在移动终端设备12的主体部分42中,布置有布置在右面上的侧面静电触摸传感器21-c和布置在左面上的侧面静电触摸传感器21-d。
在移动终端设备12的侧面上,布置有沿侧面(弯曲面)具有弯曲形状、由铝形成的导电材料41-a至41-d。
另外,导电材料41-a至41-d与侧面静电触摸传感器21-a至21-d相组合。
下文中,在不需要单独地区分侧面静电触摸传感器21-a至21-d的情况下,将这些侧面静电触摸传感器统称为侧面静电触摸传感器21。相似的是,在不需要单独地区分导电材料41a至41d的情况下,将这些导电材料统称为导电材料41。
具体来说,例如,如图10B所示,由铝等制成的导电材料41与侧面静电触摸传感器21相组合。侧面静电触摸传感器21甚至可以通过导电材料41检测由手指等的接触导致的静电电容的改变。因此,可以自由地改变与侧面静电触摸传感器21相组合的导电材料41的形状。换句话说,由于可以将导电材料41的形状调整为根据本发明实施例的信息处理设备的侧面的形状,因此根据实施例的信息处理设备的侧面可以形成为任意形状。在图10A和图10B所示的示例中,移动终端设备12的侧面的形状是弯曲面。因此,导电材料41具有与该弯曲面相对应的弯曲形状。
另外,如图10B所示,导电材料41被划分成与构成侧面静电触摸传感器21的静电传感器的数量相对应的多个部分。在经划分的导电材料41之间,布置有非导电材料43。换句话说,由手指等与导电材料41的接触导致的静电电容的改变在导电材料41内均匀地传播。这样,在不通过非导电材料43对导电材料41之间的空间进行定界的情况下,难以通过使用 侧面静电触摸传感器21精确地检测静电电容的改变。因此,通过与构成侧面静电触摸传感器21的静电传感器的数量相一致的非导电材料43对导电材料41进行定界。因此,静电电容的改变仅传播到侧面静电触摸传感器21的与手指等接触的导电材料41的接触面上的位置相对应的区域(负责该区域的静电传感器)。
为了容易理解本发明的实施例,如上描述了这样的情况:一组多个静电传感器被配置成侧面静电触摸传感器21,并且导电材料41与侧面静电触摸传感器21相组合。然而,侧面静电触摸传感器21可以由多个静电传感器和与所述静电传感器相组合的导电材料41构成。
此外,根据本发明实施例的信息处理设备并不限于上述示例,而可以具有各种形式。
例如,在上述示例中,假定对移动终端设备11和12的侧面进行在除静电触摸板22之外的位置进行的手势操作。因此,将侧面静电触摸传感器21布置在侧面上。然而,用于手势操作的除静电触摸板22之外(如描述为“除静电触摸板22之外”那样)的位置可以是不同于静电触摸板22的任何位置。换句话说,根据本发明实施例的信息处理设备可以具有以下配置:在不同于静电触摸板22的可以进行手势操作的位置布置静电触摸传感器。
例如,图11是作为根据本发明实施例的信息处理设备的移动终端设备的外部配置示例。图11是示出与图1以及图10A和图10B的示例不同的另一示例的图。
在图11的示例中,在位于移动终端设备13的前面上、除布置有静电触摸板22的区域之外的区域中布置有静电触摸传感器51-1至51-4。
另外,作为检测手势操作的传感器,在上述示例中使用静电触摸传感器。更详细地描述,在根据本发明实施例的信息处理设备中,触摸板或显示单元不是必要元件。换句话说,本发明可以适用于具有可以进行手势操作的区域的信息处理设备。例如,本发明还可以适用于耳机。其原因在于,在耳机的放置耳朵的部分中,可以进行手势操作。
可以通过硬件或软件来进行上述系列处理。在通过软件来进行这一系列处理的情况下,将构成软件的程序安装到计算机中。这里,计算机包括内建在专用硬件中的计算机以及可以通过安装各种程序来进行各种功能的计算机(例如,通用个人计算机等)。
例如,可以通过控制图4中所示的移动终端设备11的计算机来进行这一系列处理。
在图4中,CPU 23例如通过将存储在非易失性存储器24中的程序加载到RAM 25中并执行该程序来进行上述系列处理。
例如,由CPU 23执行的程序可以通过被记录在作为包介质等的可移动介质27上来提供。另外,可以通过有线或无线传输介质(例如,局域网、互联网或数字卫星广播)来提供程序。
可以通过将可移动介质27加载到驱动器26中来将程序安装到非易失性存储器24中。
另外,由计算机执行的程序可以是按上述顺序以时间序列的方式进行处理的程序、彼此并行地进行处理的程序、或在必要的时间(例如,调用处理时的时间)进行处理的程序。
本申请包含与在2009年5月11日提交日本专利局的日本优先权专利申请JP 2009-114196中所公开的主题相关的主题,通过引用将其全部内容合并于此。
本领域技术人员应当理解,可以根据设计要求及其它因素而想到各种修改、组合、子组合及变更,只要它们在所附权利要求或其等同物的范围内即可。
Claims (6)
1.一种信息处理设备,包括:
显示装置,用于显示图像;
检测装置,被布置在除布置有所述显示装置的另一区域之外的区域中,用于检测所述区域中的静态接触或动态接触;以及
控制装置,用于基于所述检测装置检测到静态接触或动态接触的两个或更多个区域中的静态接触和动态接触的组合、或动态接触的组合来识别手势操作内容,并控制与所述手势操作内容相对应的处理的进行。
2.根据权利要求1所述的信息处理设备,其中包括布置在不同区域中的多个所述检测装置。
3.根据权利要求1所述的信息处理设备,其中所述控制装置从布置有所述检测装置的区域中识别检测到静态接触或动态接触的接触区域的面积,并基于所述面积在对所述手势操作内容的识别进行的控制的允许进行与禁止进行之间切换。
4.根据权利要求3所述的信息处理设备,
其中,在所述面积等于或大于阈值的情况下,所述控制装置假定由所述检测装置检测到的静态接触或动态接触是为了使用者抓握所述信息处理设备的目的,并进行控制以禁止所述手势操作内容的识别的进行,并且
其中,在所述面积小于所述阈值的情况下,所述控制装置假定由所述检测装置检测到的静态接触或动态接触是为了使用者的预定操作的目的,并进行控制以允许针对所述预定操作的手势操作内容的识别的进行。
5.根据权利要求1所述的信息处理设备,其中所述检测装置具有:输出由接触导致的静电电容的改变的静电传感器;以及与所述静电传感器相组合并具有可变的形状的导电材料。
6.一种信息处理方法,包括以下步骤:
通过使用信息处理设备,基于检测装置检测到静态接触或动态接触的两个或更多个区域中的静态接触和动态接触的组合、或动态接触的组合来识别手势操作内容,并控制与所述手势操作内容相对应的处理的进行,所述信息处理设备包括:显示装置,用于显示图像;所述检测装置,被布置在除布置有所述显示装置的另一区域之外的区域中,用于检测所述区域中的静态接触或动态接触。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009114196A JP2010262557A (ja) | 2009-05-11 | 2009-05-11 | 情報処理装置および方法 |
JP2009-114196 | 2009-05-11 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101887343A CN101887343A (zh) | 2010-11-17 |
CN101887343B true CN101887343B (zh) | 2013-11-20 |
Family
ID=43063102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010101691189A Active CN101887343B (zh) | 2009-05-11 | 2010-04-28 | 信息处理设备和信息处理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20100287470A1 (zh) |
JP (1) | JP2010262557A (zh) |
CN (1) | CN101887343B (zh) |
Families Citing this family (78)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011145829A (ja) * | 2010-01-13 | 2011-07-28 | Buffalo Inc | 操作入力装置 |
US20120016641A1 (en) | 2010-07-13 | 2012-01-19 | Giuseppe Raffa | Efficient gesture processing |
TW201220152A (en) * | 2010-11-11 | 2012-05-16 | Wistron Corp | Touch control device and touch control method with multi-touch function |
JP2012128668A (ja) * | 2010-12-15 | 2012-07-05 | Nikon Corp | 電子機器 |
JP5614275B2 (ja) * | 2010-12-21 | 2014-10-29 | ソニー株式会社 | 画像表示制御装置および画像表示制御方法 |
JP2012145867A (ja) * | 2011-01-14 | 2012-08-02 | Nikon Corp | 電子機器 |
JP2012174247A (ja) * | 2011-02-24 | 2012-09-10 | Kyocera Corp | 携帯電子機器、接触操作制御方法および接触操作制御プログラム |
JP5806822B2 (ja) * | 2011-02-24 | 2015-11-10 | 京セラ株式会社 | 携帯電子機器、接触操作制御方法および接触操作制御プログラム |
JP5665601B2 (ja) * | 2011-02-24 | 2015-02-04 | 京セラ株式会社 | 電子機器、接触操作制御プログラムおよび接触操作制御方法 |
JP2012194810A (ja) * | 2011-03-16 | 2012-10-11 | Kyocera Corp | 携帯電子機器、接触操作制御方法および接触操作制御プログラム |
JP5793337B2 (ja) * | 2011-04-28 | 2015-10-14 | Kii株式会社 | コンピューティングデバイス、コンテンツの表示方法及びプログラム |
JP2012243204A (ja) * | 2011-05-23 | 2012-12-10 | Nikon Corp | 電子機器及び画像表示方法 |
JP5894380B2 (ja) * | 2011-06-15 | 2016-03-30 | 株式会社スクウェア・エニックス | ビデオゲーム処理装置、およびビデオゲーム処理プログラム |
US9477320B2 (en) * | 2011-08-16 | 2016-10-25 | Argotext, Inc. | Input device |
US9092094B1 (en) | 2011-09-22 | 2015-07-28 | Amazon Technologies, Inc. | Optical edge touch sensor |
EP2575006B1 (en) | 2011-09-27 | 2018-06-13 | Elo Touch Solutions, Inc. | Touch and non touch based interaction of a user with a device |
JP5766083B2 (ja) * | 2011-09-28 | 2015-08-19 | 京セラ株式会社 | 携帯電子機器 |
EP2761406A4 (en) * | 2011-09-30 | 2015-05-13 | Intel Corp | DETECTION OF SEGMENTATION OF GESTURE DATA IN MOBILE DEVICES |
US20130271419A1 (en) * | 2011-09-30 | 2013-10-17 | Sangita Sharma | Transforming mobile device sensor interaction to represent user intent and perception |
JP2014531686A (ja) | 2011-09-30 | 2014-11-27 | インテル コーポレイション | コンピューティングデバイスにおけるエッジ親指センサを使用し且つ促進するためのメカニズム |
JP6896370B2 (ja) * | 2011-09-30 | 2021-06-30 | インテル コーポレイション | 意図的でないタッチセンサへの接触を排除するモバイルデバイス |
US9259904B2 (en) | 2011-10-20 | 2016-02-16 | Apple Inc. | Opaque thin film passivation |
US9207810B1 (en) * | 2011-11-15 | 2015-12-08 | Amazon Technologies, Inc. | Fiber-optic touch sensor |
JP5879986B2 (ja) * | 2011-12-05 | 2016-03-08 | 株式会社ニコン | 電子機器 |
US9990119B2 (en) * | 2011-12-15 | 2018-06-05 | Blackberry Limited | Apparatus and method pertaining to display orientation |
JP5102412B1 (ja) | 2011-12-27 | 2012-12-19 | パナソニック株式会社 | 情報端末、情報端末の制御方法、及び、プログラム |
CN103207743A (zh) | 2012-01-16 | 2013-07-17 | 联想(北京)有限公司 | 便携式设备及其显示处理方法 |
CN103257807A (zh) * | 2012-02-17 | 2013-08-21 | 林卓毅 | 移动通讯装置的状态切换方法及可携式电子装置 |
CN105404465A (zh) | 2012-02-29 | 2016-03-16 | 中兴通讯股份有限公司 | 一种触摸操作的处理方法及移动终端 |
CN103324329B (zh) * | 2012-03-23 | 2016-07-06 | 联想(北京)有限公司 | 一种触摸控制方法和装置 |
CN102760005B (zh) | 2012-03-26 | 2017-03-01 | 联想(北京)有限公司 | 一种控制电子设备的方法及装置 |
FR2990020B1 (fr) * | 2012-04-25 | 2014-05-16 | Fogale Nanotech | Dispositif de detection capacitive avec arrangement de pistes de liaison, et procede mettant en oeuvre un tel dispositif. |
JP2013232026A (ja) * | 2012-04-27 | 2013-11-14 | Sharp Corp | 携帯情報端末 |
JP2013238955A (ja) * | 2012-05-14 | 2013-11-28 | Sharp Corp | 携帯情報端末 |
JP2014002442A (ja) * | 2012-06-15 | 2014-01-09 | Nec Casio Mobile Communications Ltd | 情報処理装置、入力受付方法及びプログラム |
JP5923394B2 (ja) * | 2012-06-20 | 2016-05-24 | 株式会社Nttドコモ | 認識装置、認識方法及び認識システム |
JP5872979B2 (ja) * | 2012-08-02 | 2016-03-01 | シャープ株式会社 | 携帯情報表示装置および拡大表示方法 |
JP5878850B2 (ja) * | 2012-09-06 | 2016-03-08 | シャープ株式会社 | 携帯情報装置、携帯情報装置用プログラム、携帯情報装置用プログラムを記憶した記録媒体、および、携帯情報装置の操作方法 |
JP5347096B1 (ja) * | 2012-09-13 | 2013-11-20 | 株式会社ワンダーフューチャーコーポレーション | タッチパネルの製造方法及びタッチパネル、並びにタッチパネルと表示装置を具備する入出力一体型装置 |
JP2014071833A (ja) * | 2012-10-01 | 2014-04-21 | Toshiba Corp | 電子機器、表示変更方法、及び表示変更プログラム |
KR20140070745A (ko) * | 2012-11-26 | 2014-06-11 | 삼성전자주식회사 | 디스플레이 장치 및 이의 구동 방법 |
JP2014115321A (ja) * | 2012-12-06 | 2014-06-26 | Nippon Electric Glass Co Ltd | 表示装置 |
JP6179412B2 (ja) * | 2013-01-31 | 2017-08-16 | 株式会社Jvcケンウッド | 入力表示装置 |
KR102044157B1 (ko) * | 2013-02-06 | 2019-11-14 | 삼성디스플레이 주식회사 | 전자 기기, 이의 동작 방법 및 프로그램을 기록한 컴퓨터로 판독 가능한 매체 |
JP6121517B2 (ja) * | 2013-02-21 | 2017-04-26 | 京セラ株式会社 | 装置 |
JP2014191560A (ja) * | 2013-03-27 | 2014-10-06 | Sony Corp | 入力装置、入力方法、及び記録媒体 |
JP2015005182A (ja) * | 2013-06-21 | 2015-01-08 | カシオ計算機株式会社 | 入力装置、入力方法及びプログラム並びに電子機器 |
JP5470489B2 (ja) * | 2013-06-24 | 2014-04-16 | 株式会社ワンダーフューチャーコーポレーション | タッチパネル、タッチパネルの製造方法、及びタッチパネル一体型表示装置 |
US20150077392A1 (en) * | 2013-09-17 | 2015-03-19 | Huawei Technologies Co., Ltd. | Terminal, and terminal control method and apparatus |
US9471150B1 (en) * | 2013-09-27 | 2016-10-18 | Emc Corporation | Optimized gestures for zoom functionality on touch-based device |
JP2015069540A (ja) * | 2013-09-30 | 2015-04-13 | アルプス電気株式会社 | 情報機器端末および情報機器端末のデータ保存方法 |
KR102742283B1 (ko) * | 2013-11-29 | 2024-12-16 | 가부시키가이샤 한도오따이 에네루기 켄큐쇼 | 데이터 처리 장치 및 이의 구동 방법 |
KR102189451B1 (ko) * | 2013-12-27 | 2020-12-14 | 삼성디스플레이 주식회사 | 전자 기기 |
JP5739554B2 (ja) * | 2014-01-29 | 2015-06-24 | 株式会社ワンダーフューチャーコーポレーション | タッチパネル、タッチパネルの製造方法、及びタッチパネル一体型表示装置 |
WO2015159774A1 (ja) * | 2014-04-14 | 2015-10-22 | シャープ株式会社 | 入力装置、入力装置の制御方法 |
WO2016027779A1 (ja) * | 2014-08-22 | 2016-02-25 | シャープ株式会社 | タッチパネル装置 |
CN104267889B (zh) * | 2014-09-15 | 2019-03-29 | 联想(北京)有限公司 | 一种控制方法和电子设备 |
US10345967B2 (en) * | 2014-09-17 | 2019-07-09 | Red Hat, Inc. | User interface for a device |
US9681765B2 (en) * | 2014-09-30 | 2017-06-20 | Pamela Ann Cignarella | Interactive children's table dishes |
EP3201751A1 (en) * | 2014-09-30 | 2017-08-09 | PCMS Holdings, Inc. | Mobile device and method for interpreting gestures without obstructing the screen |
WO2016056516A1 (ja) * | 2014-10-10 | 2016-04-14 | シャープ株式会社 | 表示装置 |
JP2016115208A (ja) * | 2014-12-16 | 2016-06-23 | シャープ株式会社 | 入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム |
US9563319B2 (en) | 2014-12-18 | 2017-02-07 | Synaptics Incorporated | Capacitive sensing without a baseline |
KR20160099399A (ko) | 2015-02-12 | 2016-08-22 | 엘지전자 주식회사 | 와치 타입 단말기 |
CN104898975B (zh) * | 2015-05-29 | 2018-12-07 | 努比亚技术有限公司 | 移动终端控制方法及移动终端 |
CN104866207A (zh) * | 2015-06-09 | 2015-08-26 | 努比亚技术有限公司 | 一种获取应用程序辅助信息的方法及装置 |
CN105159559A (zh) * | 2015-08-28 | 2015-12-16 | 小米科技有限责任公司 | 移动终端控制的方法及移动终端 |
CN105353964A (zh) * | 2015-11-27 | 2016-02-24 | 广东欧珀移动通信有限公司 | 输入控制方法、装置和终端设备 |
CN105446627B (zh) * | 2015-12-09 | 2019-02-15 | Oppo广东移动通信有限公司 | 文本信息的编辑方法、装置和终端设备 |
JP6400622B2 (ja) * | 2016-03-23 | 2018-10-03 | インテル コーポレイション | コンピューティングデバイスにおけるエッジ親指センサを使用し且つ促進するためのメカニズム |
JP7317784B2 (ja) * | 2016-03-30 | 2023-07-31 | インテル コーポレイション | 意図的でないタッチセンサへの接触を排除するモバイルデバイス |
US10429974B2 (en) | 2016-09-23 | 2019-10-01 | Apple Inc. | Touch sensor panel with top and/or bottom shielding |
JP2018055484A (ja) * | 2016-09-29 | 2018-04-05 | レノボ・シンガポール・プライベート・リミテッド | 情報処理装置、その表示制御方法、及びコンピュータが実行可能なプログラム |
EP3586216A4 (en) * | 2017-02-27 | 2020-12-30 | Bálint, Géza | INTELLIGENT DEVICE EQUIPPED WITH A DISPLAY DEVICE WHICH ALLOWS SIMULTANEOUS MULTIFUNCTIONAL HANDLING OF DISPLAYED INFORMATION AND / OR DATA |
US10013081B1 (en) | 2017-04-04 | 2018-07-03 | Google Llc | Electronic circuit and method to account for strain gauge variation |
US10514797B2 (en) * | 2017-04-18 | 2019-12-24 | Google Llc | Force-sensitive user input interface for an electronic device |
US10635255B2 (en) * | 2017-04-18 | 2020-04-28 | Google Llc | Electronic device response to force-sensitive interface |
KR102707432B1 (ko) * | 2019-03-15 | 2024-09-19 | 삼성디스플레이 주식회사 | 표시 장치 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1912819A (zh) * | 2005-08-12 | 2007-02-14 | 乐金电子(中国)研究开发中心有限公司 | 设置有触摸屏的终端的触摸输入识别方法及其终端 |
CN101133385A (zh) * | 2005-03-04 | 2008-02-27 | 苹果公司 | 带有多个触感器件的手持电子设备 |
CN101308421A (zh) * | 2007-05-15 | 2008-11-19 | 宏达国际电子股份有限公司 | 无阻碍触控操作的电子装置 |
CN101377711A (zh) * | 2007-08-28 | 2009-03-04 | Lg电子株式会社 | 移动终端 |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5973676A (en) * | 1993-06-30 | 1999-10-26 | Kabushiki Kaisha Toshiba | Input apparatus suitable for portable electronic device |
US7800592B2 (en) * | 2005-03-04 | 2010-09-21 | Apple Inc. | Hand held electronic device with multiple touch sensing devices |
EP1717680A3 (en) * | 1998-01-26 | 2010-03-24 | Apple Inc. | Method and apparatus for integrating manual input |
JP4084582B2 (ja) * | 2001-04-27 | 2008-04-30 | 俊司 加藤 | タッチ式キー入力装置 |
WO2003098421A1 (en) * | 2002-05-16 | 2003-11-27 | Sony Corporation | Inputting method and inputting apparatus |
US7656393B2 (en) * | 2005-03-04 | 2010-02-02 | Apple Inc. | Electronic device having display and surrounding touch sensitive bezel for user interface and control |
US11275405B2 (en) * | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
US20040119751A1 (en) * | 2002-08-07 | 2004-06-24 | Minolta Co., Ltd. | Data input device, image processing device, data input method and computer readable recording medium on which data input program is recorded |
US8373660B2 (en) * | 2003-07-14 | 2013-02-12 | Matt Pallakoff | System and method for a portable multimedia client |
US7231231B2 (en) * | 2003-10-14 | 2007-06-12 | Nokia Corporation | Method and apparatus for locking a mobile telephone touch screen |
JP4903371B2 (ja) * | 2004-07-29 | 2012-03-28 | 任天堂株式会社 | タッチパネルを用いたゲーム装置およびゲームプログラム |
US9727082B2 (en) * | 2005-04-26 | 2017-08-08 | Apple Inc. | Back-side interface for hand-held devices |
KR100668341B1 (ko) * | 2005-06-29 | 2007-01-12 | 삼성전자주식회사 | 사용자의 파지 형태를 이용한 휴대용 단말기의 기능 입력방법 및 장치. |
US20070291008A1 (en) * | 2006-06-16 | 2007-12-20 | Daniel Wigdor | Inverted direct touch sensitive input devices |
US20090213081A1 (en) * | 2007-01-10 | 2009-08-27 | Case Jr Charlie W | Portable Electronic Device Touchpad Input Controller |
DE102007016408A1 (de) * | 2007-03-26 | 2008-10-02 | Ident Technology Ag | Mobiles Kommunikationsgerät und Eingabeeinrichtung hierfür |
WO2008138046A1 (en) * | 2007-05-11 | 2008-11-20 | Rpo Pty Limited | Double touch inputs |
WO2009031214A1 (ja) * | 2007-09-05 | 2009-03-12 | Panasonic Corporation | 携帯端末装置、及び表示制御方法 |
KR101234968B1 (ko) * | 2007-11-19 | 2013-02-20 | 서크 코퍼레이션 | 디스플레이와 결합되며, 근접 및 터치 감지 성능을 가진 터치패드 |
US8432372B2 (en) * | 2007-11-30 | 2013-04-30 | Microsoft Corporation | User input using proximity sensing |
US8154523B2 (en) * | 2007-12-13 | 2012-04-10 | Eastman Kodak Company | Electronic device, display and touch-sensitive user interface |
ATE467305T1 (de) * | 2007-12-21 | 2010-05-15 | Ericsson Telefon Ab L M | Tragbare elektronische vorrichtung und verfahren zur steuerung einer benutzerschnittstelle davon |
US8395584B2 (en) * | 2007-12-31 | 2013-03-12 | Sony Corporation | Mobile terminals including multiple user interfaces on different faces thereof configured to be used in tandem and related methods of operation |
US20090166098A1 (en) * | 2007-12-31 | 2009-07-02 | Apple Inc. | Non-visual control of multi-touch device |
US20090195959A1 (en) * | 2008-01-31 | 2009-08-06 | Research In Motion Limited | Electronic device and method for controlling same |
WO2010007813A1 (ja) * | 2008-07-16 | 2010-01-21 | 株式会社ソニー・コンピュータエンタテインメント | 携帯型画像表示装置、その制御方法及び情報記憶媒体 |
US9218116B2 (en) * | 2008-07-25 | 2015-12-22 | Hrvoje Benko | Touch interaction with a curved display |
US20100053111A1 (en) * | 2008-09-04 | 2010-03-04 | Sony Ericsson Mobile Communications Ab | Multi-touch control for touch sensitive display |
US8441450B2 (en) * | 2008-09-30 | 2013-05-14 | Apple Inc. | Movable track pad with added functionality |
US8508475B2 (en) * | 2008-10-24 | 2013-08-13 | Microsoft Corporation | User interface elements positioned for display |
US8368658B2 (en) * | 2008-12-02 | 2013-02-05 | At&T Mobility Ii Llc | Automatic soft key adaptation with left-right hand edge sensing |
US20100138680A1 (en) * | 2008-12-02 | 2010-06-03 | At&T Mobility Ii Llc | Automatic display and voice command activation with hand edge sensing |
US8294047B2 (en) * | 2008-12-08 | 2012-10-23 | Apple Inc. | Selective input signal rejection and modification |
US20100153313A1 (en) * | 2008-12-15 | 2010-06-17 | Symbol Technologies, Inc. | Interface adaptation system |
US20100277420A1 (en) * | 2009-04-30 | 2010-11-04 | Motorola, Inc. | Hand Held Electronic Device and Method of Performing a Dual Sided Gesture |
US20110216015A1 (en) * | 2010-03-05 | 2011-09-08 | Mckesson Financial Holdings Limited | Apparatus and method for directing operation of a software application via a touch-sensitive surface divided into regions associated with respective functions |
US8941600B2 (en) * | 2010-03-05 | 2015-01-27 | Mckesson Financial Holdings | Apparatus for providing touch feedback for user input to a touch sensitive surface |
US20120032891A1 (en) * | 2010-08-03 | 2012-02-09 | Nima Parivar | Device, Method, and Graphical User Interface with Enhanced Touch Targeting |
US20130300668A1 (en) * | 2012-01-17 | 2013-11-14 | Microsoft Corporation | Grip-Based Device Adaptations |
US9104313B2 (en) * | 2012-09-14 | 2015-08-11 | Cellco Partnership | Automatic adjustment of selectable function presentation on electronic device display |
-
2009
- 2009-05-11 JP JP2009114196A patent/JP2010262557A/ja not_active Withdrawn
-
2010
- 2010-04-28 CN CN2010101691189A patent/CN101887343B/zh active Active
- 2010-05-03 US US12/772,746 patent/US20100287470A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101133385A (zh) * | 2005-03-04 | 2008-02-27 | 苹果公司 | 带有多个触感器件的手持电子设备 |
CN1912819A (zh) * | 2005-08-12 | 2007-02-14 | 乐金电子(中国)研究开发中心有限公司 | 设置有触摸屏的终端的触摸输入识别方法及其终端 |
CN101308421A (zh) * | 2007-05-15 | 2008-11-19 | 宏达国际电子股份有限公司 | 无阻碍触控操作的电子装置 |
CN101377711A (zh) * | 2007-08-28 | 2009-03-04 | Lg电子株式会社 | 移动终端 |
Also Published As
Publication number | Publication date |
---|---|
JP2010262557A (ja) | 2010-11-18 |
CN101887343A (zh) | 2010-11-17 |
US20100287470A1 (en) | 2010-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101887343B (zh) | 信息处理设备和信息处理方法 | |
CN105718192B (zh) | 移动终端及其触摸输入方法 | |
CN105045437B (zh) | 一种触控感测电极、触控感测方法及设备 | |
US8446380B2 (en) | Method and device for resistive multi-point touch | |
US20180356935A1 (en) | Touch point positioning method and apparatus, and terminal device | |
US9552095B2 (en) | Touch screen controller and method for controlling thereof | |
US10599302B2 (en) | Method for performing content flipping operation on touchscreen and terminal | |
CN103097996B (zh) | 运动控制触屏方法和装置 | |
JP5554517B2 (ja) | タッチパネルの位置検出方法及びタッチパネル装置 | |
CN107741824B (zh) | 对可重定位触摸表面上的姿态朝向的检测 | |
EP3731072B1 (en) | Coarse scan and targeted active mode scan for touch | |
US10275103B2 (en) | Identifying multiple users on a large scale projected capacitive touchscreen | |
CN105094487A (zh) | 触摸屏及其控制方法、控制装置、触摸显示装置 | |
US11726606B2 (en) | Touch detection method, driver and touch display device | |
CN105739886A (zh) | 一种视频播放方法及移动终端 | |
JP4904410B2 (ja) | タッチパネル装置 | |
US9323380B2 (en) | Electronic device with touch-sensitive display and three-dimensional gesture-detection | |
CN102650915B (zh) | 一种数字式触摸屏及其触摸定位方法 | |
US9733777B2 (en) | Touch sensing device and method for driving the same | |
CN103197794B (zh) | 一种触摸检测方法及装置 | |
CN102681702B (zh) | 控制方法、控制装置以及电子设备 | |
TW201543301A (zh) | 觸碰感測器系統與分段觸碰資料之方法 | |
US20140267055A1 (en) | Electronic device including touch-sensitive keyboard and method of controlling same | |
JP6265154B2 (ja) | 入力装置および入力方法 | |
WO2014112996A1 (en) | Electronic device with touch-sensitive display and gesture-detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |