CN103309605A - 信息处理装置和信息处理方法 - Google Patents
信息处理装置和信息处理方法 Download PDFInfo
- Publication number
- CN103309605A CN103309605A CN2013100619464A CN201310061946A CN103309605A CN 103309605 A CN103309605 A CN 103309605A CN 2013100619464 A CN2013100619464 A CN 2013100619464A CN 201310061946 A CN201310061946 A CN 201310061946A CN 103309605 A CN103309605 A CN 103309605A
- Authority
- CN
- China
- Prior art keywords
- touch area
- touch
- event
- signal conditioning
- incoming event
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 17
- 238000003672 processing method Methods 0.000 title claims abstract description 9
- 238000000605 extraction Methods 0.000 claims abstract description 53
- 230000008859 change Effects 0.000 claims abstract description 26
- 230000003750 conditioning effect Effects 0.000 claims description 66
- 239000000284 extract Substances 0.000 abstract description 9
- 238000010586 diagram Methods 0.000 description 63
- 238000012545 processing Methods 0.000 description 22
- 238000000034 method Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 238000012360 testing method Methods 0.000 description 12
- 230000007704 transition Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 230000005484 gravity Effects 0.000 description 4
- 230000008447 perception Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 239000011435 rock Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 239000002421 finishing Substances 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
提供有一种信息处理装置和信息处理方法,所述信息处理装置包括:提取部,该提取部从由触摸面板所检测到的多个触摸位置中提取均满足预定的区域提取条件的第一触摸区域和第二触摸区域;以及识别部,该识别部基于第一触摸区域与第二触摸区域之间的距离的变化来识别输入事件。
Description
技术领域
本公开内容涉及信息处理装置和信息处理方法。
背景技术
近年来,在大量设备例如智能手机、平板终端和游戏设备中已经使用了触摸面板。触摸面板在一个屏幕上实现了显示和输入的两个功能。
为了进一步简化通过这种触摸面板的操作,在触摸面板上定义了与触摸或者触摸手势对应的各种输入事件。例如,定义了与触摸对应的输入事件例如触摸的开始、触摸的移动或者触摸的结束,以及与触摸手势对应的输入事件例如拖动、轻击、压入或者压出。另外,不限于这些常见的输入事件,已经提出了用于进一步简化操作的输入事件。
例如,在JP2011-238125A中公开了一种技术,该技术识别与当触摸到触摸面板时手的侧表面移动的触摸手势对应的输入事件,并且根据该输入事件来选择和移动对象。
发明内容
但是,当应用输入事件来操作本领域中的大尺寸的触摸面板时,对于用户来说产生了大的负担。例如,为了在宽范围内操作对象,可能需要用户身体的大动作。
因此,期望能使用户以较小的负担来对大尺寸的触摸面板进行操作。
根据本公开内容的实施方式,提供有包括下述提取部和下述识别部的信息处理装置,该提取部从多个由触摸面板所检测到的触摸位置中提取出第一触摸区域和第二触摸区域,每个触摸区域都满足预定的区域提取条件,该识别部基于第一触摸区域与第二触摸区域之间的距离的变化来识别输入事件。
另外,根据本公开内容的实施方式,提供有下述信息处理方法,该信息处理方法包括:从多个由触摸面板所检测到的触摸位置中提取出第一触摸区域和第二触摸区域,该第一触摸区域和第二触摸区域均满足预定的区域提取条件;基于第一触摸区域与第二触摸区域之间的距离的变化来识别输入事件。
根据本公开内容的实施方式的上述信息处理装置和信息处理方法,对于用户来说可以以较小的负担来对大尺寸的触摸面板进行操作。
附图说明
图1是示出根据本公开内容的实施方式的信息处理装置的外观示例的概要视图;
图2是示出根据本公开内容的实施方式的信息处理装置的硬件配置示例的框图;
图3是示出根据本公开内容的实施方式的信息处理装置的功能配置示例的框图;
图4A是用于描述检测触摸位置的第一示例的说明图;
图4B是用于描述检测触摸位置的第二示例的说明图;
图5是用于描述提取触摸区域的示例的说明图;
图6是用于描述在触摸区域中所包括的触摸位置的密度的示例的说明图;
图7A是用于描述识别GATHER事件的示例的说明图;
图7B是用于描述识别SPLIT事件的示例的说明图;
图8是用于描述基于触摸区域之间的距离的变化量来识别输入事件的示例的说明图;
图9A是用于描述基于两个触摸区域之间的相对移动方向来识别输入事件的示例的说明图;
图9B是用于描述基于两个触摸区域的移动方向来识别输入事件的示例的说明图;
图10是用于描述识别其他输入事件的示例的说明图;
图11A是用于描述由GATHER事件引起的针对要被操作的对象的显示变化的示例的说明图;
图11B是用于描述由GATHER事件引起的针对要被操作的对象的显示变化的另一个示例的说明图;
图12A是用于描述由SPLIT事件引起的针对要被操作的对象的显示变化的第一示例的说明图;
图12B是用于描述由SPLIT事件引起的针对要被操作的对象的显示变化的第二示例的说明图;
图12C是用于描述由SPLIT事件引起的针对要被操作的对象的显示变化的第三示例的说明图;
图13A是用于描述由GRAB事件引起的针对要被操作的对象的显示变化的示例的说明图;
图13B是用于描述由SHAKE事件引起的针对要被操作的对象的显示变化的示例的说明图;
图13C是用于描述由CUT事件引起的针对要被操作的对象的显示变化的示例的说明图;
图13D是用于描述由CIRCLE事件引起的针对要被操作的对象的显示变化的示例的说明图;
图13E是用于描述由WIPE事件引起的针对要被操作的对象的显示变化的示例的说明图;
图13F是用于描述由FADE事件引起的针对要被操作的对象的显示变化的示例的说明图;
图14A是用于描述信息处理装置中的操作示例的第一说明图;
图14B是用于描述信息处理装置中的操作示例的第二说明图;
图14C是用于描述信息处理装置中的操作示例的第三说明图;
图14D是用于描述信息处理装置中的操作示例的第四说明图;
图14E是用于描述信息处理装置中的操作示例的第五说明图;
图14F是用于描述信息处理装置中的操作示例的第六说明图;
图15是示出了根据本公开内容的实施方式的信息处理的示意流程示例的流程图;
图16是示出了触摸区域提取处理的示例的流程图;
图17是示出了GATHER/SPLIT识别处理的示例的流程图;以及
图18是示出了GATHER/SPLIT控制处理的示例的流程图。
具体实施方式
在下文中,将参照附图描述本公开内容的优选实施方式。注意,在本说明书和附图中,使用相同附图标记来表示具有基本相同功能和结构的结构元素,并且省略对这些结构元素的重复说明。
注意,将按以下顺序给出描述。
1.信息处理装置的外观
2.信息处理装置的配置
2.1.硬件配置
2.2.功能配置
3.操作示例
4.处理流程
5.总结
<1.信息处理装置的外观>
首先,将参照图1来描述根据本公开内容的实施方式的信息处理装置100的外观。图1是示出了根据本实施方式的信息处理装置100的外观示例的概要视图。参照图1,示出了信息处理装置100。信息处理装置100包括触摸面板20。另外,信息处理装置100例如是大尺寸的触摸面板。也就是说,触摸面板20是与用户手41相比较而言显著更大的大尺寸触摸面板。
用户可以通过用手41触摸该触摸面板20来对触摸面板20上所显示的对象进行操作。但是,在对象分散在大尺寸触摸面板20的大范围中的情况下,当用户试图只使用一个手对这些对象进行操作时,可能需要用户身体的大动作。结果,对用户产生了大的负担。
根据本实施方式的信息处理装置100,对于用户来说可以以较小的负担来对大尺寸触摸面板20进行操作。在下文中,将在<2.信息处理装置的配置>、<3.操作示例>和<4.处理流程>中描述这些具体内容。
<2.信息处理装置的配置>
接下来,将参照图2至图13F来描述根据本公开内容的一个实施方式的信息处理装置100的配置。
<2.1硬件配置>
首先,将参照图2来描述根据本实施方式的信息处理装置100的硬件配置示例。图2是示出了根据本实施方式的信息处理装置100的硬件配置示例的框图。参照图2,信息处理装置100包括:触摸面板20、总线30、CPU(中央处理单元)31、ROM(只读存储器)33、RAM(随机存取存储器)35和存储器件37。
触摸面板20包括触摸检测表面21和显示表面23。触摸检测表面21检测在触摸面板20上的触摸位置。更具体地,例如,当用户触摸该触摸面板20时,触摸检测表面21感知该触摸、根据该触摸的位置来生成电信号,然后将该电信号转换成触摸位置的信息。触摸检测表面21是能够检测多个触摸位置的多点触摸兼容触摸检测表面。另外,例如能够根据任意的触摸检测系统例如静电电容系统、电阻膜系统或者光学系统来形成触摸检测表面21。
显示表面23显示来自信息处理装置100的输出图像。显示表面23例如可以通过使用液晶、有机EL(有机发光二极管:OLED)、CRT(阴极射线管)等来实现。
总线30与触摸检测表面21、显示表面23、CPU31、ROM33、RAM35和存储器件37互相连接。
CPU31控制信息处理装置100的整个操作。ROM33存储用于对由CPU31所执行的软件进行配置的程序和数据。当执行CPU31的处理时RAM35临时地存储程序和数据。
存储器件37不仅存储用于对由CPU31所执行的软件进行配置的程序和数据,也存储要被临时或者永久地存储的其他数据。存储器件37例如可以是磁性记录介质例如硬盘,或者存储器件37可以是非易失性存储器例如EEPROM(电可擦除可编程只读存储器)、闪存、MRAM(磁阻随机存取存储器)、FeRAM(铁电随机存取存储器)或者PRAM(相变随机存取存储器)。
<2.2功能配置>
接下来,将参照图3至图13F来描述根据本实施方式的信息处理装置100的功能配置的示例。图3是示出了根据本实施方式的信息处理装置100的功能配置示例的框图。参照图3,信息处理装置100包括:触摸检测部110、触摸区域提取部120、事件识别部130、控制部140、存储部150和显示部160。
(触摸检测部110)
触摸检测部110检测触摸面板20上的触摸位置。也就是说,触摸检测部110具有与触摸检测表面21对应的功能。该触摸位置例如是触摸面板20中的一组坐标。在用户在多个位置进行触摸的情况下,触摸检测部110检测多个触摸位置。在下文中,将参照图4A和4B来更具体地描述触摸位置的检测。
首先,图4A是用于描述检测触摸位置的第一示例的说明图。参照图4A,在上区中示出了部分触摸面板20和用户的手41。这里,用户正在用其手41的一个手指触摸该触摸面板20。另一方面,在下区中以坐标示出了部分触摸面板20,并且示出了根据使用用户的手41的一个手指的触摸所检测到的触摸位置43a。以此方式,触摸检测部110例如根据使用用户的手41的一个手指的触摸来检测一个触摸位置43a。
另外,图4B是用于描述检测触摸位置的第二示例的说明图。参照图4B,在上区中示出了部分触摸面板20和用户的手41。这里,用户正在使用其手41的侧表面触摸该触摸面板20。另一方面,在下区中以坐标示出了部分触摸面板20,并且示出了根据使用用户的手41的侧表面的触摸所检测到的触摸位置43b。以此方式,触摸检测部110例如根据使用用户手41的侧表面的触摸来检测多个聚集的触摸位置43b。
触摸检测部110按照时间序列将所检测到的触摸位置43输出到触摸区域提取部120和事件识别部130。
(触摸区域提取部120)
触摸区域提取部120从多个由触摸面板20所检测到的触摸位置中提取出满足预定的区域提取条件的触摸区域。更具体地,例如,在触摸检测部110已经检测到多个触摸位置的情况下,触摸区域提取部120根据预定的分组条件,将所检测到的多个触摸位置分组到一个或者更多个触摸位置组中。这里,分组条件例如可以是下述条件:属于每个组的任意对的触摸位置之间的距离不超过预定的条件。而且,触摸区域提取部120针对每个触摸位置组来判断包括该触摸位置组的区域是否满足区域提取条件,并且将满足区域提取条件的区域提取为触摸区域。在下文中,将更具体地描述区域提取条件。
上述区域提取条件例如包括针对要被提取的触摸区域的尺寸的条件(在下文中被称为“尺寸条件”)。更具体地,例如,该尺寸条件是针对要被提取的触摸区域的面积的条件。作为示例,该尺寸条件是触摸区域的面积等于或者大于第一尺寸阈值且小于第二尺寸阈值。这里,触摸区域的面积例如是在该触摸区域中所包括的像素数量。与触摸区域的面积作比较的第一尺寸阈值和第二尺寸阈值例如可以基于用户的手的标准尺寸来预定。在下文中,将参照图5来更具体地描述在区域提取条件是尺寸条件的情况下对触摸区域的提取。
图5是用于描述提取触摸区域的示例的说明图。参照图5,与图4B类似,以坐标示出了部分触摸面板20。另外,与图4B类似,示出了在用户使用其手41的侧表面来触摸该触摸面板20的情况下已经检测出的触摸位置43b。在此情况下,触摸区域提取部120首先指定满足上述分组条件的多个触摸位置43即触摸位置组,还指定包括该触摸位置组的区域45。这里,尺寸条件是具有如下像素数量的触摸区域的面积,该像素数量等于或者大于第一尺寸阈值且小于第二尺寸阈值。在此情况下,包括该触摸位置组的区域45包括等于或者大于第一尺寸阈值且小于第二尺寸阈值的像素,并且触摸区域提取部120判断区域45是否满足尺寸条件。结果,触摸区域提取部120将满足尺寸条件的区域45提取为触摸区域。
根据这样的尺寸条件,可以通过简单操作来将使用用户手41的特定部位的触摸与使用用户手41的其他部位的触摸进行区分。例如,可以将使用用户手41的侧表面的触摸与使用用户手41的除了侧表面的其他部位(例如,手指或者手掌)的触摸进行区分。
注意,尺寸条件可以仅是触摸区域的面积等于或者大于第一尺寸阈值。另外,尺寸条件可以是针对触摸区域的长度的条件,而不是针对触摸区域的面积的条件。作为示例,尺寸条件可以是在触摸区域中的各个坐标中的两个最远坐标之间的距离等于或者大于预定的阈值。另外,尺寸条件可以是针对触摸区域的面积的条件与针对触摸区域的长度的条件之间的组合。
另外,上述区域提取条件可以包括针对要被提取的触摸区域的形状的条件(在下文中被称为“形状条件”)。更具体地,例如,该形状条件是与触摸区域相似的预备的区域图案。作为示例,该区域图案是通过使用用户的手41的特定部位(例如,侧表面)进行触摸作为样本而获取的区域。针对许多用户的手41获取该区域图案。触摸区域提取部120将包括触摸位置组的区域45与每个区域图案进行比较。然后,在包括触摸位置组的区域45与区域图案中的一个图案相似的情况下,触摸区域提取部120判断该包括触摸位置组的区域45是否满足形状条件。在区域提取条件是形状条件的情况下,例如在该情况中,触摸区域提取部120将满足形状条件的区域45提取为触摸区域。
对于这样的形状条件,可以将用户手41的特定部位的触摸与用户手41的其他部位的触摸进行细微的区分。例如,不仅可以将使用用户手41的侧表面的触摸与使用用户手41的除了侧表面的其他部位(例如,手指或者手掌)的触摸进行区分,而且可以将使用右手的侧表面的触摸与使用左手的侧表面的触摸进行区别。因此,可以明白其正面对的是用户的哪只手。
另外,上述区域提取条件可以包括针对在要被提取的触摸区域中所包括的触摸位置的密度的条件(在下文中被称为“密度条件”)。更具体地,例如,该密度条件是触摸区域的触摸位置数量与触摸区域的面积的比率,其等于或者大于密度阈值。该密度条件例如与尺寸条件或者形状条件组合使用。也就是说,密度条件连同尺寸条件或者形状条件被包括在区域提取条件中。将参照图6更具体地描述通过尺寸条件和密度条件来提取触摸区域。
图6是用于描述在触摸区域中所包括的触摸位置的密度的示例的说明图。参照图6,在上区中示出了部分触摸面板20和用户的手41。这里,用户正在使用其手41的五个手指来触摸该触摸面板20。另一方面,在下区中以坐标示出了部分触摸面板20,并且示出了根据用户手41的五个手指的触摸所检测到的触摸位置43。以此方式,触摸检测部110例如根据用户手41的五个手指的触摸来检测出6个触摸位置43。这里,在该六个触摸位置43满足上述分组条件的情况下,触摸区域提取部120将该六个触摸位置43分组为触摸位置组。然后,触摸区域提取部120判断包括此触摸位置组的区域45是否满足尺寸条件和密度条件。这里,例如,区域45包括的像素等于或者大于第一尺寸阈值且小于第二尺寸阈值,并且触摸区域提取部120判断区域45满足尺寸条件。另一方面,区域45例如具有触摸位置的数量(6)与面积的低比率,并且该比率小于上述密度阈值。因此,触摸区域提取部120判断出区域45不满足密度条件,并且不将区域45提取为触摸区域。
另一方面,还是参照图5,区域45例如具有触摸位置的数量(15)与面积的高比率,并且该比率等于或者大于上述密度阈值。因此,触摸区域提取部120判断出区域45满足密度条件,并且将区域45提取为触摸区域。
根据这样的密度条件,可以将用户手41的特定部位的触摸与用户手41的其他部位的触摸进行细微的区分。例如,如上所述,可以将用户手41的侧表面的触摸与用户手41的多个手指的触摸进行区分。
至此,描述了通过区域提取条件来提取触摸区域。根据这样的提取,当已经有使用用户手41的特定部位(例如,侧表面)的触摸时,可以了解使用此特定部位所触摸的区域。也就是说,如上所述,可以通过使用用户手41的特定部位(例如,侧表面)的触摸来定义输入事件。作为示例,因为在将置于桌上的物体进行聚拢的情况下使用用户手41的侧表面,例如,如果能够使用用户手41的侧表面来进行触摸面板20的操作,则可以更直观地进行该操作。另外,因为对于用户手41的侧表面来说有诸如朝向手掌或者手背的方向,所以如果限定了基于这些方向的输入事件,则可以实现考虑到用户手的侧表面的方向的操作,和在其中需要区分右手和左手的操作。
(事件识别部130)
事件识别部130识别与由触摸面板20所检测到的触摸位置对应的输入事件。具体地,在提取了各自满足区域提取条件的第一触摸区域和第二触摸区域的情况下,事件识别部130基于该第一触摸区域和该第二触摸区域之间的距离变化来识别输入事件。在下文中将更详细地描述这一点。
–GATHER事件/SPLIT事件
首先,例如,在第一触摸区域与第二触摸区域之间的距离变得更小的情况下,事件识别部130识别出第一输入事件(在下文中称为“GATHER事件”)。另外,例如,在第一触摸区域与第二触摸区域之间的距离变得更大的情况下,事件识别部130识别出第二输入事件(在下文中称为“SPLIT事件”)。将参照图7A和图7B来更具体地描述这些输入事件。
首先,图7A是用于描述识别GATHER(聚拢)事件的示例的说明图。参照图7A,在上区中示出了连同用户左手41a和用户右手41b的部分触摸面板20。当触摸该触摸面板20时,用户沿着彼此互相接近的方向移动其左手41a和右手41b的特定部位(即,侧表面)。在此情况下,因为所提取的第一触摸区域47a和第二触摸区域47b以与用户的左手41a和右手41b的移动相似的方式沿着彼此互相接近的方向移动,所以第一触摸区域47a与第二触摸区域47b之间的距离变得更小。因此,事件识别部130识别出与用户的左手41a和右手41b的这样的触摸手势对应的GATHER事件。
另外,图7B是用于描述识别SPLIT(分开)事件的示例的说明图。参照图7B,在上区中示出了连同用户左手41a和用户右手41b的部分触摸面板20。当触摸该触摸面板20时,用户沿着彼此互相分离的方向移动其左手41a和右手41b的特定部位(即,侧表面)。在此情况下,因为所提取的第一触摸区域47a和第二触摸区域47b以与用户的左手41a和右手41b的移动相似的方式沿着彼此互相分离的方向移动,所以第一触摸区域47a与第二触摸区域47b之间的距离变得更大。因此,事件识别部130识别出与用户的左手41a和右手41b的这样的触摸手势对应的SPLIT事件。
识别了例如如上所述的GATHER事件和SPLIT事件。更具体地描述该处理,例如,事件识别部130基于第一触摸区域与第二触摸区域之间的距离的变化量来识别输入事件(即,GATHER事件或者SPLIT事件)。在下文中,将参照图8来更具体地描述这一点。
图8是用于描述基于触摸区域之间的距离的变化量来识别输入事件的示例的说明图。参照图8,示出了触摸面板20。例如,当提取出第一触摸区域47a和第二触摸区域47b时,事件识别部130确定针对该第一触摸区域47a的代表点Pa0和针对该第二触摸区域47b的代表点Pb0。作为示例,事件识别部130将触摸区域47的重心确定为这些触摸区域47的代表点。接下来,事件识别部130计算第一触摸区域47a的代表点Pa0与第二触摸区域47b的代表点Pb0之间的初始距离D0。之后,当连续地提取第一触摸区域47a和第二触摸区域47b时,事件识别部130追踪该第一触摸区域47a的代表点Pak与该第二触摸区域47b的代表点Pbk之间的距离Dk。然后,事件识别部130计算所计算距离Dk与初始距离D0之间的差(Dk-D0)作为距离的改变量。这里,在该差变得等于或者小于预定的负的阈值的情况下,事件识别部130将GATHER事件识别为输入事件。另外,在该差变得等于或者大于预定的正的阈值的情况下,事件识别部130将SPLIT事件识别为输入事件。注意,上述代表点不限于触摸区域47的重心,而可以是其他坐标(例如,触摸区域47的外心)。
通过使用这样的距离的变化量,可以通过简单的操作来判断两个触摸区域之间的距离是变得更大还是变得更小。
注意,事件识别部130可以基于第一触摸区域与第二触摸区域之间的相对移动方向来识别输入事件(即,GATHER事件或者SPLIT事件)。在下文中,将参照图9A来更具体地描述这一点。
图9A是用于描述基于两个触摸区域之间的相对移动方向来识别输入事件的示例的说明图。参照图9A,在上区中示出了触摸面板20。这里,与图8类似,当提取出第一触摸区域47a和第二触摸区域47b时,事件识别部130确定针对第一触摸区域47a的代表点Pa0和针对第二触摸区域47b的代表点Pb0。然后,事件识别部130计算从代表点Pa0到代表点Pb0的向量R0作为第二触摸区域47b到第一触摸区域47a的相对位置。另外,事件识别部130例如确定针对在经过预定的时段之后所提取的第一触摸区域47a的代表点Pa1,并且确定针对在经过预定的时段之后所提取的第二触摸区域47b的代表点Pb1。然后,事件识别部130计算从代表点Pa1到代表点Pb1的向量R1作为第二触摸区域47b到第一触摸区域47a的相对位置。
接下来,在图9A的下区中显示了在第一触摸区域47a的代表点Pa作为原点的情况下的第二触摸区域47b的位置,即向量R0和向量R1。这里,事件识别部130计算沿着与向量R0同一方向的单位向量R0/|R0|与向量R1之间的内积。然后,事件识别部130将该内积与向量R0的大小|R0|进行比较。这里,如果该内积小于|R0|,则事件识别部130判断出第一触摸区域与第二触摸区域之间的相对移动方向是它们彼此接近的方向。另外,如果该内积大于|R0|,则事件识别部130判断出上述相对移动方向是它们彼此分离的方向。然后,在该相对移动方向是第一触摸区域与第二触摸区域彼此接近的方向的情况下,事件识别部130识别出GATHER事件,并且在该相对移动方向是第一触摸区域与第二触摸区域彼此分离的方向的情况下,事件识别部130识别出SPLIT事件。
通过使用这样的相对移动方向,可以判断两个触摸区域之间的距离是变得更小了还是变得更大了。
另外,事件识别部130可以基于第一触摸区域的移动方向和第二触摸区域的移动方向来识别输入事件(即,GATHER事件或者SPLIT事件)。在下文中将参照图9B来更详细地描述这一点。
图9B是用于描述基于两个触摸区域的移动方向来识别输入事件的示例的说明图。参照图9B,示出了触摸面板20。这里,与图9A类似,由事件识别部130确定针对第一触摸区域47a的代表点Pa0和代表点Pa1以及针对第二触摸区域47b的代表点Pb0和代表点Pb1。然后,事件识别部130计算由从代表点Pa0到代表点Pa1的方向与从代表点Pa0到代表点Pb0的方向所形成的角θa作为第一触摸区域47a的移动方向。另外,事件识别部130计算由从代表点Pb0到代表点Pb1的方向与从代表点Pb0到代表点Pa0的方向所形成的角θb作为第二触摸区域47b的移动方向。这里,如果角θa和角θb都在0°至α(例如,0°至15°)的范围内,则事件识别部130识别出GATHER事件。另外,如果角θa和角θb都在180°-α至180°(例如,165°至180°)的范围内,则事件识别部130识别出SPLIT事件。
通过使用这样的移动方向,可以判断两个触摸区域之间的距离是否变得更小或者变得更大。另外,因为可以判断出两个触摸区域是如何移动的而不仅仅是判断出距离,所以可以更严格地定义用于识别输入事件(GATHER事件和SPLIT事件)的条件。
至此,描述了GATHER事件和SPLIT事件的识别。此外,事件识别部130除了这些输入事件外还可以识别出其他输入事件。在下文中,将参照图10来更具体地描述这一点。
–其他输入事件
图10是用于描述识别其他输入事件的示例的说明图。在下文中,将描述六个输入事件示例的每个输入事件示例。
参照图10,首先在五个触摸位置43移动以使得彼此互相接近的情况下,事件识别部130可以识别GRAB(抓取)事件作为第三输入事件。更具体地,例如,当检测到五个触摸位置43时,事件识别部130计算五个触摸位置43的重心,计算该重心与该五个触摸位置43的每个触摸位置之间的距离,并且计算所计算的五个距离的总和作为初始值。然后,当连续地检测到该五个触摸位置43时,事件识别部130追踪该五个距离的总和,并且计算该总和与初始值之间的差(总和-初始值)。这里,在该差等于或者小于预定的负的阈值的情况下,事件识别部130识别出GRAB事件。该GRAB事件例如对应于如下触摸手势:其中在触摸触摸面板20时用户手41的五个手指移动从而会聚。注意,可以使用该五个触摸位置43的外接圆的半径或者直径来替代该距离的总和。
另外,在所有五个触摸位置43通过改变方向来移动的情况下,事件识别部130可以识别出作为第四输入事件的SHAKE(晃动)事件。更具体地,例如,当连续地检测到五个触摸位置43时,事件识别部130追踪该五个触摸位置43的移动方向是否已经改变。该移动方向例如是从前一触摸位置到最新触摸位置的方向。另外,移动方向的改变是由最新移动方向(从前一触摸位置到最新触摸位置的方向)与前一移动方向(从在前一触摸位置之前的触摸位置到前一触摸位置的方向)所形成的角。在由此所形成的角超过预定的阈值的情形下,事件识别部130判断出移动方向已经改变。在两次判断出该移动方向变化的情况下,事件识别部130识别出SHAKE事件。该SHAKE事件例如与当触摸该触摸面板20时用户手41的五个手指移动以晃动的触摸手势对应。
另外,在三个触摸位置中的两个触摸位置是固定的而另外一个触摸位置沿着一个方向移动的情况下,事件识别部130可以识别出作为第五输入事件的CUT(切割)事件。更具体地,例如,当连续地检测到三个触摸位置43时,事件识别部130判断触摸位置中的两个触摸位置是否不变化,并且判断另外一个触摸位置的移动的开始和结束。然后,在连续地判断出这两个触摸位置不变化,以及判断出另外一个触摸位置的结束时,事件识别部130识别出CUT事件。该CUT事件例如与当触摸该触摸面板20时一个手的两个手指固定而当触摸该触摸面板20时另一个手的一个手指沿着一个方向移动的触摸手势对应。
另外,在一个触摸位置近似圆形地移动的情形下,事件识别部130可以识别出作为第六输入事件的CIRCLE(画圈)事件。更具体地,例如,当连续地检测到触摸位置43时,事件识别部130判断最新的触摸位置43是否匹配当触摸开始时的触摸位置43。然后,在最新的触摸位置43匹配当触摸开始时的触摸位置43的情况下,事件识别部130判断从当触摸开始时的触摸位置43到最新的触摸位置43的触摸位置43的轨迹是否是近似的圆形。然后,在判断出该轨迹是近似的圆形的情况下,事件识别部130识别出CIRCLE事件。该CIRCLE事件例如与当触摸该触摸面板20时通过画圈来移动一个手指的触摸手势对应。
另外,在一个触摸区域47沿着一个方向移动的情况下,事件识别部130可以识别作为第七输入事件的WIPE(扫过)事件。更具体地,例如,当连续地检测到该一个触摸区域47时,事件识别部130将该一个触摸区域47的代表点确定为初始代表点。之后,当连续地提取出该一个触摸区域47时,事件识别部130追踪该触摸区域47的代表点,并且计算从该代表点到初始代表点之间的距离。在该距离变得等于或者大于预定的阈值的情况下,事件识别部130识别出WIPE事件。该WIPE事件例如与当触摸该触摸面板20时用户手41的特定部位(例如,侧表面)沿着一个方向移动的触摸手势对应。
另外,在提取出手掌区域49的情况下,事件识别部130可以识别出作为第八输入事件的FADE(渐变)事件。更具体地,例如当触摸区域提取部120提取了手掌区域49时,事件识别部130识别出FADE事件。在此情况下,除了用于上述触摸区域47的区域提取条件外,准备了用于手掌区域49的区域提取条件(例如形状条件或者尺寸条件)。该FADE事件例如与用户手41的手掌触摸该触摸面板20的触摸手势对应。
至此,描述了其他输入事件的示例。注意图10中的触摸位置43是示例。例如,触摸位置43可以被替换为触摸位置组。
(控制部140)
控制部140控制信息处理装置100的所有操作,并且向信息处理装置100的用户提供应用功能。控制部140包括显示控制部141和数据编辑部143。
(显示控制部141)
显示控制部141确定显示部160中的显示内容,并且在显示部160上显示与该显示内容对应的输出图像。例如,显示控制部141根据所识别的输入事件来改变在触摸面板20上所显示的对象的显示。具体地,显示控制部141根据基于第一触摸区域与第二触摸区域之间的距离变化所识别的输入事件(例如,GATHER事件或者SPLIT事件),来改变在第一触摸区域与第二触摸区域之间所显示的要被操作的对象的显示。
例如,在识别出GATHER事件的情况下,显示控制部141在更窄的范围中重新放置要被操作的对象。也就是说,显示控制部141重新放置要被操作的多个对象——该多个对象是在识别出GATHER事件之前所显示的要被操作的部分或者全部的对象——以使得在识别出GATHER事件之后将它们置于更窄的范围内。在下文中,将参照图11A更具体地描述这一点。
图11A是用于描述由GATHER事件引起的针对要被操作的对象的显示变化的示例的说明图。参照图11A,示出了部分触摸面板20。另外,在时刻T1处,在该部分触摸面板20上显示了三个对象50a、50b和50c。这里,首先提取了第一触摸区域47a和第二触摸区域47b。接下来,在时刻T2处,第一触摸区域47a与第二触摸区域47b之间的距离变得更小,并且GATHER事件被识别为输入事件。然后,例如,诸如在模式A中,显示控制部141根据第一触摸区域47a和第二触摸区域47b的位置变化来改变该三个对象50a、50b和50c的位置以使得它们变得彼此更近。或者,诸如在模式B中,显示控制部141改变该三个对象50a、50b和50c的位置以使得该三个对象50a、50b和50c在第一触摸区域47a与第二触摸区域47b之间的范围内重叠。
另外,例如,在识别出GATHER事件的情况下,显示控制部141将要被操作的多个对象转变为要被操作的一个对象。也就是说,显示控制部141将要被操作的多个对象——该多个对象是在识别出GATHER事件之前所显示的要被操作的部分或者全部的对象——转变成在识别GATHER事件之后要被操作的一个对象。在下文中,将参照图11B来更具体地描述这一点。
图11B是用于描述由GATHER事件引起的针对要被操作的对象的显示变化的另一个示例的说明图。参照图11B,与图11A相似,在时刻T1处,在该部分触摸面板20上显示了三个对象50a、50b和50c,并且提取了第一触摸区域47a和第二触摸区域47b。接下来,在时刻T2处,第一触摸区域47a与第二触摸区域47b之间的距离变得更小,并且GATHER事件被识别为输入事件。然后,例如,显示控制部141将该三个对象50a、50b和50c转变为一个新的对象50d。
根据如上所述的由GATHER事件引起的显示变化,例如用户可以通过直观的触摸手势例如使用双手将对象50聚拢起来,而使分散在触摸面板20中的大范围内的对象50结合起来。这里,因为用户使用双手,所以可以以较小的负担来对大尺寸触摸面板的大范围中所放置的对象进行操作,并且可以无需用户身体的大动作。
另外,例如,在识别出SPLIT事件的情况下,显示控制部141在更宽范围内重新放置要被操作的多个对象。也就是说,显示控制部141重新放置要被操作的多个对象——该多个对象是在识别出SPLIT事件之前所显示的要被操作的部分或者全部的对象——以使得在识别出SPLIT事件之后将它们分散到更大的范围内。在下文中,将参照图12A更具体地描述这一点。
首先,图12A是用于描述由SPLIT事件引起的针对要被操作的对象的显示变化的第一示例的说明图。参照图12A,示出了部分触摸面板20。另外,在时刻T1处,在该部分触摸面板20上显示了三个对象50a、50b和50c。这里,首先提取了第一触摸区域47a和第二触摸区域47b。接下来,在时刻T2处,第一触摸区域47a与第二触摸区域47b之间的距离变得更大,并且SPLIT事件被识别为输入事件。然后,显示控制部141根据第一触摸区域47a和第二触摸区域47b的位置变化来改变该三个对象50a、50b和50c的位置以使得它们变得彼此更加远离。
另外,例如,在识别出SPLIT事件的情况下,显示控制部141将要被操作的一个对象变换为要被操作的多个对象。也就是说,显示控制部141将要被操作的一个对象——该一个对象是在识别出SPLIT事件之前所显示的要被操作的部分或者全部的对象——变换成在识别出SPLIT事件之后要被操作的多个对象。在下文中,将参照图12B来更具体地描述这一点。
另外,图12B是用于描述由SPLIT事件引起的针对要被操作的对象的显示变化的第二示例的说明图。参照图12B,显示了部分触摸面板20。另外,在时刻T1处,在该部分触摸面板20上显示了一个对象50d。这里,首先提取了第一触摸区域47a和第二触摸区域47b。接下来,在时刻T2处,第一触摸区域47a与第二触摸区域47b之间的距离变得更大,并且SPLIT事件被识别为输入事件。然后,显示控制部141将该一个对象50d变换为三个新的对象50a、50b和50c。
另外,例如,在识别出SPLIT事件的情况下,显示控制部141可以排列在识别出SPLIT事件之前所显示的要被操作的多个对象。也就是说,在识别出SPLIT事件后,显示控制部141排列要被操作的多个对象——该多个对象是在识别出SPLIT事件之前所显示的要被操作的部分或者全部的对象,在下文中,将参照图12C来更具体地描述这一点。
另外,图12C是用于描述由SPLIT事件引起的针对要被操作的对象的显示变化的第三示例的说明图。参照图12C,与图12A类似,在时刻T1处,在部分触摸面板20上显示了三个对象50a、50b和50c,并且提取了第一触摸区域47a和第二触摸区域47b。接下来,在时刻T2处,第一触摸区域47a与第二触摸区域47b之间的距离变得更大,并且SPLIT事件被识别为输入事件。然后,显示控制部141排列该三个对象50a、50b和50c。
根据这样的由SPLIT事件引起的显示变化,例如,用户可以通过直观的触摸手势例如使用双手展开对象50来在大范围中配置在触摸面板20中被结合的对象50,或者可以布置无序放置的对象50。结果,对于用户来说观察对象50变得更容易。这里,因为用户使用双手,所以可以以较小的负担来对大尺寸触摸面板的大范围中所配置或者布置的对象进行操作,并且可以无需用户身体的大动作。
注意,虽然针对在第一触摸区域47a与第二触摸区域47b之间显示的所有对象50是要被操作的对象的情况描述了图11A至图12C,然而本实施方式不限于此。例如,在第一触摸区域47a与第二触摸区域47b之间显示的部分对象可以是要被操作的对象。另外,可以针对要被操作的对象的每个类型来改变显示。例如,在识别出SPLIT事件的情况下,显示控制部141可以分离地设置与相片对应的要被操作的对象和与活动图像对应的要被操作的对象。
(数据编辑部143)
数据编辑部143进行数据的编辑。例如,数据编辑部143根据所识别的输入事件,对与对象对应的数据进行合并或者分割。具体地,数据编辑部143根据基于第一触摸区域与第二触摸区域之间的距离变化所识别的输入事件(例如,GATHER事件或者SPLIT事件),将与在第一数据区域与第二数据区域之间所显示的要被操作的对象对应的数据进行合并或者分割。
例如,在识别出GATHER事件的情况下,数据编辑部143将与在识别出GATHER事件之前所显示的要被操作的多个对象对应的数据进行合并。作为示例,该数据是活动图像。例如,在图11B中所示的在时刻T1处的三个对象50a、50b和50c的每个可以与活动图像对应。然后,当在时刻T2处识别了GATHER事件时,数据编辑部143将与该三个对象50a、50b和50c对应的三个活动图像进行合并。在此情况下,例如如图11B所示,该三个对象50a、50b和50c被变换为一个对象50d,并且该对象50d对应于被合并之后的活动图像。
另外,例如在识别出SPLIT事件的情况下,数据编辑部143将与在识别出SPLIT事件之前所显示的要被操作的一个对象对应的数据进行分割。作为示例,该数据是活动图像。例如,在图12B中所示的在时刻T1处的该一个对象50d可以与活动图像对应。然后,当在时刻T2处识别出SPLIT事件时,数据编辑部143将与对象50d对应的活动图像分割成三个活动图像。在此情况下,例如如图12B所示,该一个对象50d被变换成3个对象50a、50b和50c,并且该三个对象50a、50b和50c与被分割之后的三个活动图像对应。注意,例如可以根据对被分割之前的活动图像的景物识别的结果来确定被分割之后的活动图像的数量和分割位置。另外,如后续描述的图13E和图13F所示,可以在对象50a、50b和50c之间显示与图像之间的景物过渡期间的视觉表现(过渡)对应的对象。
通过这样的由GATHER事件引起的数据合并或者由SPLIT事件引起的数据分割,用户可以通过直观的触摸手势例如使用双手聚拢对象50或者使用双手展开对象50来容易地编辑数据。例如,可以容易地编辑相片或者活动图像。
至此,已经针对GATHER事件和SPLIT事件描述了显示控制部141的操作和数据编辑部143的操作。根据输入事件例如GATHER事件或者SPLIT事件,用户可以通过直观的触摸手势例如使用双手的特定部位(例如,侧表面)聚拢对象50或者使用双手展开对象50,来进行操作。这里,因为用户使用双手,所以可以以较小的负担来对大尺寸触摸面板进行操作,并且可以无需用户身体的大动作。例如,即使用于操作的对象分散在大尺寸屏幕的大范围中,也可以通过展开双手来指定操作目标,并且此后用户可以使用本说明书不可少的手势来进行各种操作。
在下文中,将参照图13A至图13F,针对除了GATHER事件或者SPLIT事件之外的六个输入事件来描述显示控制部141的操作和数据编辑部143的操作。
(针对其他输入事件的显示控制和数据编辑)
图13A是用于描述由GRAB事件引起的针对要被操作的对象的显示变化的示例的说明图。参照图13A,识别了参照图10所述的GRAB事件。在此情况下,显示控制部141对通过被五个触摸位置43包围来显示的对象50m进行变更,从而示出已经被删除的状态。然后,数据编辑部143删除与对象50m对应的数据。
另外,图13B是用于描述由SHAKE事件引起的针对要被操作的对象的显示变化的示例的说明图。参照图13B,识别了参照图10所述的SHAKE事件。在此情况下,显示控制部141对在五个触摸位置43中的至少一个触摸位置43中被显示的对象50m进行变更,从而示出操作之前的原始状态。例如,显示控制部141对示出已经被修整的状态的对象50m进行变更,从而示出被修整前的状态。然后,数据编辑部143将与对象50m对应的数据(例如,被修整后的相片)恢复(即,进行所谓的撤销操作)为被修整之前的数据(例如,被修整之前的相片)。
另外,图13C是用于描述由CUT事件引起的针对要被操作的对象的显示变化的示例的说明图。参照图13C,识别了参照图10所述的CUT事件。在此情况下,显示控制部141对在两个固定触摸位置中显示并且在沿着一个方向移动的触摸位置中被横切的对象50m进行变更,从而示出已经被修整的状态。然后,数据编辑部143修整与对象50m对应的数据(例如,相片)。
另外,图13D是用于描述由CIRCLE事件引起的针对要被操作的对象的显示变化的示例的说明图。参照图13D,识别了参照图10所述的CIRCLE事件。在此情况下,有与活动帧对应的对象50m,并且显示控制部141对显示该活动对象的第一帧的对象50m进行变更,从而显示该活动图像的第二帧(例如,在第一帧之后出现的帧)。然后,数据编辑部143获得在其中该第二帧被选中的状态,从而编辑该活动图像。
另外,图13E是用于描述由WIPE事件引起的针对要被操作的对象的操作示例的说明图。参照图13E,在部分触摸面板20上显示了与各个活动图像对应的三个对象50a、50b和50c。另外,在这三个对象50a、50b和50c之间显示与在图像之间的景物过渡期间的视觉效果(在下文中被称为“过渡”)对应的对象50i和50j。这里,通过触摸检测出触摸位置43,并且以此方式,其变成了在其中选择了与过渡对应的对象50i的状态。然后,识别了参照图10所述的WIPE事件。在此情况下,数据编辑部143将与对象50i对应的过渡设置成沿着触摸区域47移动向的方向的扫过渡。
另外,图13F是用于描述由FADE事件引起的针对要被操作的对象的操作示例的说明图。参照图13F,与图13E类似,在触摸面板20上显示了与各个活动图像对应的三个对象50a、50b和50c,以及与在活动图像之间的过渡对应的对象50i和50j。另外,与图13E类似,其变成了在其中选择了与过渡对应的对象50i的状态。然后,识别参照图10所述的FADE事件。在此情况下,数据编辑部143将与对象50i对应的过渡设置成淡入过渡或者淡出过渡。
(存储部150)
存储部150存储在信息处理装置100中要被临时地或者永久地保持的信息。例如,存储部150存储在显示部160上所显示的对象50的图像。另外,存储部150存储与该对象50对应的数据(例如相片或者活动图像)。
(显示部160)
显示部160根据由显示控制部141进行的控制来显示输出图像。也就是说,显示控制部160具有与显示表面23对应的功能。
<3.操作示例>
接下来,将参照图14A至图14F来描述信息处理装置100中的操作示例。图14A至图14F是用于描述信息处理装置100中的操作示例的说明图。在本操作示例中,将对活动图像的切分实施为对活动图像的编辑。
首先,参照图14A,在时刻T1处,在触摸面板20上显示与活动图像A至F对应的六个对象50a至50f。另外,显示了用于编辑活动图像的开始标签53和结束标签55。在本操作示例中,在下文中实施对活动图像F的切分。
接下来,在时刻T2处识别了SPLIT事件,在该SPLIT事件中对象50f成为要被操作的对象。因此,在触摸面板20中,对象50f被变换成六个对象50g至50l。另外,与对象50f对应的活动图像F被分成六个活动图像F1至F6。这里,该六个对象50g至50l与被分之后的这六个活动图像F1至F6对应。
接下来,参照图14B,在时刻T3处检测到触摸位置43,并且因此,其变成了在其中选择了对象50h和活动图像F2的状态。
接下来,在时刻T4处识别了CIRCLE事件。因此,对显示活动图像F2的第一帧的对象50h进行变更,以使得显示出该活动图像F2的第二帧。该变更的对象50h在这里由F2X表示。另外,其变成在其中选择了活动图像F2的第二帧的状态。
接下来,参照图14C,在时刻T5处,开始标签53被拖到对象50h上。然后,活动图像F2的该第二帧被确定为用于对活动图像F进行编辑的开始点。
接下来,在时刻T6处识别了CUT事件,在该CUT事件中对象50h成为目标。因此,对活动图像的切分被确定为用于编辑的内容。这里,对活动图像F进行切分的开始点是已经被确定为编辑开始点的活动图像F2的第二帧。
接下来,参照图14D,在时刻T7处,再次显示对象50h至对象50l。然后,检测到触摸位置43,且结果其变成了在其中选择了对象50k和活动图像F5的状态。
接下来,在时刻T8处识别CIRCLE事件。因此,对显示活动图像F5的第一帧的对象50k进行变更,以使得显示出该活动图像F5的第二帧。被这样变更的对象50k在这里表示为F5X。另外,其变成在其中选择了活动图像F5的该第二帧的状态。
接下来,参照图14E,在时刻T9处,结束标签55被拖到对象50k上。然后,活动图像F5的该第二帧被确定为对活动图像F进行编辑的结束点。也就是说,活动图像F5的该第二帧被确定为对活动图像F进行切分的结束点。
接下来,在时刻T10处,再次显示对象50h至对象50k。
然后,参照图14F,在时刻T11处识别GATHER事件,在该GATHER事件中对象50h至对象50k成为要被操作的对象。因此,在触摸面板20中,该四个对象50h至50k被变换成一个对象50z。另外,与该四个对象50h至50k对应的活动对象F2至F5被合并变成一个活动图像Z。这里,被合并的活动图像F2是活动图像F2的第二帧和后续帧部分,而被合并的活动图像F5是活动图像F5的在第二帧之前的部分。也就是说,活动图像Z是在活动图像F中从活动图像F2的第二帧到恰在活动图像F5的第二帧之前的部分的活动图像。
至此,已经描述了图像处理装置100的操作示例。例如,实施了这样的对活动图像的切分。
<4.处理流程>
接下来,将参照图15至图18来描述根据本实施方式的信息处理示例。图15是示出了根据本实施方式的信息处理的示意性流程示例的流程图。
首先,在步骤S201中,触摸检测部110检测在触摸面板20中的触摸位置。接下来,在步骤S300中,触摸区域提取部120执行在后面描述的触摸区域提取处理。然后,在步骤S203中,事件识别部130判断是否已经提取出两个触摸区域。如果已经提取出两个触摸区域,则处理进行到步骤S400。否则,处理进行到步骤S207。
在步骤S400中,事件识别部130执行在后面描述的GATHER/SPLIT识别处理。接下来,在步骤S205中,控制部140判断是否已经识别出GATHER事件或者SPLIT事件。如果已经识别出GATHER事件或者SPLIT事件,则处理进行到步骤S500。否则,处理进行到步骤S207。
在步骤S500中,控制部140执行在后面描述的GATHER/SPLIT控制处理。然后,处理返回到步骤S201。
在步骤S207中,事件识别部130识别除了GATHER事件或者SPLIT事件外的其他输入事件。然后,在步骤S209中,控制部140判断是否已经识别了其他输入事件。如果已经识别了其他输入事件,则处理进行到步骤S211。否则,处理返回到步骤S201。
在步骤S211中,控制部140根据所识别的输入事件来执行处理。然后,处理返回到步骤S201。
(触摸区域提取处理300)
接下来,将描述触摸区域提取处理S300的示例。图16是示出了触摸区域提取处理300的示例的流程图。该示例是在区域提取条件是尺寸条件的情况下的示例。
首先,在步骤S301中,触摸区域提取部120判断是否已经检测出多个触摸位置。如果已经检测出多个触摸位置,则处理进行到步骤S303。否则,处理结束。
在步骤S303中,触摸区域提取部120根据预定的分组条件将多个触摸位置分组到一个或者更多个触摸位置组中。在步骤S305中,触摸区域提取部120判断是否存在触摸位置组。如果存在触摸位置组,则处理进行到步骤S307。否则,处理结束。
在步骤S307中,触摸区域提取部120选择还未对其进行区域提取条件的判断的触摸位置组。接下来,在步骤S309中,触摸区域提取部120计算包括所选择的触摸位置组的区域的面积。然后,在步骤S311中,触摸区域提取部120判断所计算的面积是否等于或者大于阈值Tmin且小于阈值Tmax。如果该面积等于或者大于阈值Tmin且小于阈值Tmax,则处理进行到步骤S313。否则,处理进行到步骤S315。
在步骤S313中,触摸区域提取部120判断出包括所选择的触摸位置组的区域满足区域提取条件。也就是说,触摸区域提取部120将包括所选择的触摸位置组的区域提取为触摸区域。
在步骤S315中,触摸区域提取部120判断是否针对所有的触摸位置组都完成了对区域提取条件的判断。如果针对所有的触摸位置组都完成了该判断,则处理结束。否则,处理返回到步骤S307。
(GATHER/SPLIT识别处理S400)
接下来,将描述GATHER/SPLIT识别处理S400的示例。图17是示出了GATHER/SPLIT识别处理的示例的流程图。该示例是下述情况中的示例:基于触摸区域间的距离的变化量而识别出GATHER事件或者SPLIT事件。
首先,在步骤S401中,事件识别部130确定所提取的第一触摸区域的代表点。另外,在步骤S403中,事件识别部130确定所提取的第二触摸区域的代表点。然后,在步骤S405中,事件识别部130判断是否在前一次也提取了这两个触摸区域。如果在前一次也提取了这两个触摸区域,则处理进行到步骤S409。否则,处理进行到步骤S407。
在步骤S407中,事件识别部130计算两个所确定的代表点之间的距离作为初始距离D0。然后,处理结束。
在步骤S409中,事件识别部130计算两个所确定的代表点之间的距离Dk。接下来,在步骤S411中,事件识别部130计算所计算的距离Dk与初始距离D0之间的差(Dk-D0)作为距离的变化量。然后,在步骤S413中,事件识别部130判断距离的变化量(Dk-D0)是否等于或者小于负的阈值TG。如果距离的变化量(Dk-D0)等于或者小于负的阈值TG,则处理进行到步骤S417。否则,处理进行到步骤S415
在步骤S415中,事件识别部130将GATHER事件识别为输入事件。然后,处理结束。
在步骤S417中,事件识别部130判断距离的变化量(Dk-D0)是否等于或者大于正的阈值TS。如果距离的变化量(Dk-D0)等于或者大于正的阈值TS,则处理进行到步骤S419。否则,处理结束。
在步骤S419中,事件识别部130将SPLIT事件识别为输入事件。然后,处理结束。
(GATHER/SPLIT控制处理S500)
接下来,将描述GATHER/SPLIT控制处理S500的示例。图18是示出了GATHER/SPLIT控制处理示例的流程图。
首先,在步骤S501中,显示控制部141指定在第一触摸区域与第二触摸区域之间显示的要被操作的对象。然后,在步骤S503中,显示控制部141判断是否有要被操作的对象。如果有要被操作的对象,则处理进行到步骤S505。否则,处理结束。
在步骤S505中,显示控制部141判断所识别的输入事件是否是GATHER事件。如果所识别的输入事件是GATHER事件,则处理进行到步骤S507。否则,也就是说,如果所识别的输入事件是SPLIT事件,则处理进行到步骤S511。
在步骤S507中,数据编辑部143根据GATHER事件来执行对数据的编辑。例如,数据编辑部143将与在识别GATHER事件之前所显示的多个对象对应的数据进行合并。
在步骤S509中,显示控制部141根据GATHER事件来执行显示控制。例如,如参照图11A所描述的那样,显示控制部141可以在更窄的范围内重新放置要被操作的对象,或者如参照图11B所描述的那样,显示控制部141可以将要被操作的多个对象变换成要被操作的一个对象。然后,处理结束。
在步骤S511中,数据编辑部143根据SPLIT事件来执行对数据的编辑。例如,数据编辑部143将与在识别SPLIT事件之前所显示的对象对应的数据进行分割。
在步骤S513中,显示控制部141根据SPLIT事件执行显示控制。例如,如参照图12A所描述的那样,显示控制部141可以在更宽的范围内重新放置要被操作的多个对象,或者如参照图12B所描述的那样,显示控制部141可以将要被操作的一个对象变换为要被操作的多个对象。或者,如参照图12C所描述的那样,显示控制部141可以排列在识别SPLIT事件之前所显示的要被操作的多个对象。然后,处理结束。
<5.总结>
至此,通过使用图1至图18已经描述了根据本公开内容的实施方式的信息处理装置100。根据本实施方式,基于两个触摸区域之间的距离变化来识别输入事件(GATHER事件或者SPLIT事件)。以此方式,用户可以通过直观的触摸手势来进行操作,例如使用双手的特定部位(例如,侧表面)将在触摸面板20上所显示的对象50聚拢起来,或者使用双手将对象50展开。这里,因为用户使用双手,所以以较小的负担来对大尺寸触摸面板进行操作,并且无需用户身体的大动作。例如,即使用于操作的对象被分散在大尺寸屏幕的大范围中,通过展开双手指定操作对象,并且此后用户可以使用本说明书不可少的手势来进行各种操作。
例如,在识别出GATHER事件的情况下,要被操作的对象被置于更窄的范围中。以此方式,用户可以通过直观的触摸手势例如使用双手将对象50聚拢起来,而使分散在触摸面板20内的大范围中的对象50结合。另外,在识别出SPLIT事件的情况下,要被操作的对象被置于更宽的范围,或者排列要被操作的对象。以此方式,用户可以通过直观的触摸手势例如使用双手展开对象50,而在大范围内布置触摸面板20中被结合的对象50,或者可以布置无序放置的对象50。结果,对用户来说观察对象50变得更容易。
另外,例如,在识别出GATHER事件的情况下,与要被操作的多个对象对应的数据被合并。另外,例如,在识别出SPLIT事件的情况下,与要被操作的一个对象对应的数据被分割。在这些情况下,用户可以通过直观的触摸手势例如使用双手将对象50聚拢起来或者使用双手将对象50展开来容易地编辑数据。
本领域的技术人员应该理解的是,根据设计要求和其他因素,可以出现各种修改、组合、子组合及替换,只要其在所附权利要求或者权利要求的等同方案的范围内。
例如,尽管已描述了触摸面板是感知用户手的触摸(接触)的接触类型的情况,但是本公开内容的触摸面板不限于此。例如,触摸面板可以是感知用户手的邻近状态的邻近类型。另外,在此情况下,所检测到的触摸位置可以是在触摸面板上的手邻近的位置。
另外,尽管已经描述了根据使用手的侧表面的触摸来提取触摸区域的情况,但是本公开内容的触摸区域的提取不限于此。例如,可以根据手的其他部位例如指肚、手掌或者手背的触摸来提取触摸区域。另外,可以根据除了用户手的触摸之外的其他触摸来提取触摸区域。
另外,根据本公开内容的技术不限于大尺寸显示设备,而是可以由各种类型的设备来实施。例如,根据本公开内容的技术可以由例如直接或者间接地连接至触摸面板而不是内置到触摸面板中的个人计算机或者服务器设备的设备来实施。在此情况下,该设备可以不包括上述触摸检测部和显示部。另外,根据本公开内容的技术可以由例如直接或者间接地与对触摸面板进行显示控制和数据编辑的控制装置连接的个人计算机或者服务器设备的设备来实施。在此情况下,该设备可以不包括上述控制部和存储部。另外,根据本公开内容的技术可以与大尺寸触摸面板之外的触摸面板相关地实施。例如,根据本公开内容的技术可以由包括相对小尺寸的触摸面板的设备例如智能手机、平板终端或者电子书终端来实施。
另外,本公开内容的实施方式的信息处理中的处理步骤可以无需根据流程图中所描述的顺序以时间序列来执行。例如,即使按照与流程图所描述的顺序不同的顺序来执行处理步骤,也可以并行地执行信息处理中的处理步骤。
另外,可以在内置于信息处理装置中的CPU、ROM、RAM等硬件中生成用于表现与上述信息处理装置的每个配置等同功能的计算机程序。另外,可以提供存储该计算机程序的存储介质。
而且,本技术也可以被如下配置。
(1)一种信息处理装置,包括:
提取部,所述提取部分从由触摸面板所检测到的多个触摸位置中提取均满足预定的区域提取条件的第一触摸区域和第二触摸区域;以及
识别部,所述识别部基于所述第一触摸区域与所述第二触摸区域之间的距离的变化来识别输入事件。
(2)根据(1)所述的信息处理装置,
其中,在所述第一触摸区域与所述第二触摸区域之间的所述距离变小的情况下,所述识别部识别出第一输入事件。
(3)根据(1)或(2)所述的信息处理装置,
其中,在所述第一触摸区域与所述第二触摸区域之间的所述距离变大的情况下,所述识别部识别出第二输入事件。
(4)根据(1)至(3)中任一项所述的信息处理装置,
其中,所述识别部基于所述第一触摸区域与所述第二触摸区域之间的所述距离的变化量来识别所述输入事件。
(5)根据(1)至(3)中任一项所述的信息处理装置,
其中,所述识别部基于所述第一触摸区域与所述第二触摸区域之间的相对移动方向来识别所述输入事件。
(6)根据(1)至(3)中任一项所述的信息处理装置,
其中,所述识别部基于所述第一触摸区域的移动方向和所述第二触摸区域的移动方向来识别所述输入事件。
(7)根据(1)至(6)中任一项所述的信息处理装置,还包括:
控制部,所述控制部根据被识别的所述输入事件,改变在所述第一触摸区域与所述第二触摸区域之间所显示的要被操作的对象的显示。
(8)根据(7)所述的信息处理装置,
其中,在所述第一触摸区域与所述第二触摸区域之间的所述距离变小的情况下,所述识别部识别出第一输入事件,以及
其中,在识别出所述第一输入事件的情况下,所述控制部在更窄的范围中重新放置要被操作的对象。
(9)根据(7)所述的信息处理装置,
其中,在所述第一触摸区域与所述第二触摸区域之间的所述距离变小的情况下,所述识别部识别出第一输入事件,以及
其中,在识别出所述第一输入事件的情况下,所述控制部将与在识别出所述第一输入事件之前所显示的要被操作的多个对象相对应的数据进行合并。
(10)根据(9)所述的信息处理装置,
其中,所述数据是活动图像。
(11)根据(7)所述的信息处理装置,
其中,在所述第一触摸区域与所述第二触摸区域之间的所述距离变得更大的情况下,所述识别部识别出第二输入事件,以及
其中,在识别出所述第二输入事件的情况下,所述控制部在更宽的范围中重新放置要被操作的多个对象。
(12)根据(7)所述的信息处理装置,
其中,在所述第一触摸区域与所述第二触摸区域之间的所述距离变得更大的情况下,所述识别部识别出第二输入事件,以及
其中,在识别出所述第二输入事件的情况下,所述控制部排列在识别出所述第二输入事件之前所显示的要被操作的多个对象。
(13)根据(7)所述的信息处理装置,
其中,在所述第一触摸区域与所述第二触摸区域之间的所述距离变大的情况下,所述识别部识别出第二输入事件,以及
其中,在识别出所述第二输入事件的情况下,所述控制部将与在识别出所述第二输入事件之前所显示的要被操作的一个对象对应的数据进行分割。
(14)根据(13)所述的信息处理装置,
其中,所述数据是活动图像。
(15)根据(1)至(14)中任一项所述的信息处理装置,
其中,所述区域提取条件包括针对要被提取的触摸区域的尺寸的条件。
(16)根据(1)至(14)中任一项所述的信息处理装置,
其中,所述区域提取条件包括针对要被提取的触摸区域的形状的条件。
(17)根据(1)至(14)中任一项所述的信息处理装置,
其中,所述区域提取条件包括针对在要被提取的触摸区域中所包括的触摸位置的密度的条件。
(18)一种信息处理方法,包括:
从由触摸面板所检测到的多个触摸位置中提取均满足预定的区域提取条件的第一触摸区域和第二触摸区域;以及
基于所述第一触摸区域与所述第二触摸区域之间的距离的变化来识别输入事件。
本公开内容包含与2012年3月6日在日本专利局提交的日本优先权专利申请JP2012-049079的公开相关的主题内容,其全部内容通过引用合并到本文中。
Claims (19)
1.一种信息处理装置,包括:
提取部,所述提取部分从由触摸面板所检测到的多个触摸位置中提取均满足预定的区域提取条件的第一触摸区域和第二触摸区域;以及
识别部,所述识别部基于所述第一触摸区域与所述第二触摸区域之间的距离的变化来识别输入事件。
2.根据权利要求1所述的信息处理装置,
其中,在所述第一触摸区域与所述第二触摸区域之间的所述距离变小的情况下,所述识别部识别出第一输入事件。
3.根据权利要求1所述的信息处理装置,
其中,在所述第一触摸区域与所述第二触摸区域之间的所述距离变大的情况下,所述识别部识别出第二输入事件。
4.根据权利要求1所述的信息处理装置,
其中,所述识别部基于所述第一触摸区域与所述第二触摸区域之间的所述距离的变化量来识别所述输入事件。
5.根据权利要求1所述的信息处理装置,
其中,所述识别部基于所述第一触摸区域与所述第二触摸区域之间的相对移动方向来识别所述输入事件。
6.根据权利要求1所述的信息处理装置,
其中,所述识别部基于所述第一触摸区域的移动方向和所述第二触摸区域的移动方向来识别所述输入事件。
7.根据权利要求1所述的信息处理装置,还包括:
控制部,所述控制部根据被识别的所述输入事件,改变在所述第一触摸区域与所述第二触摸区域之间所显示的要被操作的对象的显示。
8.根据权利要求7所述的信息处理装置,
其中所述控制部针对要操作的对象的每个类型分离地改变要操作的对象的显示。
9.根据权利要求7所述的信息处理装置,
其中,在所述第一触摸区域与所述第二触摸区域之间的所述距离变小的情况下,所述识别部识别出第一输入事件,以及
其中,在识别出所述第一输入事件的情况下,所述控制部在更窄的范围中重新放置要被操作的对象。
10.根据权利要求7所述的信息处理装置,
其中,在所述第一触摸区域与所述第二触摸区域之间的所述距离变小的情况下,所述识别部识别出第一输入事件,以及
其中,在识别出所述第一输入事件的情况下,所述控制部将与在识别出所述第一输入事件之前所显示的要被操作的多个对象相对应的数据进行合并。
11.根据权利要求10所述的信息处理装置,
其中,所述数据是活动图像。
12.根据权利要求7所述的信息处理装置,
其中,在所述第一触摸区域与所述第二触摸区域之间的所述距离变大的情况下,所述识别部识别出第二输入事件,以及
其中,在识别出所述第二输入事件的情况下,所述控制部在更宽的范围中重新放置要被操作的多个对象。
13.根据权利要求7所述的信息处理装置,
其中,在所述第一触摸区域与所述第二触摸区域之间的所述距离变大的情况下,所述识别部识别出第二输入事件,以及
其中,在识别出所述第二输入事件的情况下,所述控制部排列在识别出所述第二输入事件之前所显示的要被操作的多个对象。
14.根据权利要求7所述的信息处理装置,
其中,在所述第一触摸区域与所述第二触摸区域之间的所述距离变大的情况下,所述识别部识别出第二输入事件,以及
其中,在识别出所述第二输入事件的情况下,所述控制部将与在识别出所述第二输入事件之前所显示的要被操作的一个对象对应的数据进行分割。
15.根据权利要求14所述的信息处理装置,
其中,所述数据是活动图像。
16.根据权利要求1所述的信息处理装置,
其中,所述区域提取条件包括针对要被提取的触摸区域的尺寸的条件。
17.根据权利要求1所述的信息处理装置,
其中,所述区域提取条件包括针对要被提取的触摸区域的形状的条件。
18.根据权利要求1所述的信息处理装置,
其中,所述区域提取条件包括针对在要被提取的触摸区域中所包括的触摸位置的密度的条件。
19.一种信息处理方法,包括:
从由触摸面板所检测到的多个触摸位置中提取均满足预定的区域提取条件的第一触摸区域和第二触摸区域;以及
基于所述第一触摸区域与所述第二触摸区域之间的距离的变化来识别输入事件。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012-049079 | 2012-03-06 | ||
JP2012049079A JP5978660B2 (ja) | 2012-03-06 | 2012-03-06 | 情報処理装置及び情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103309605A true CN103309605A (zh) | 2013-09-18 |
CN103309605B CN103309605B (zh) | 2019-07-19 |
Family
ID=49113652
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310061946.4A Expired - Fee Related CN103309605B (zh) | 2012-03-06 | 2013-02-27 | 信息处理装置和信息处理方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20130234957A1 (zh) |
JP (1) | JP5978660B2 (zh) |
CN (1) | CN103309605B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104461357A (zh) * | 2014-11-28 | 2015-03-25 | 上海斐讯数据通信技术有限公司 | 一种信息条目处理方法及移动终端 |
CN104808895A (zh) * | 2015-03-30 | 2015-07-29 | 深圳市金立通信设备有限公司 | 一种图标整理方法 |
CN104808894A (zh) * | 2015-03-30 | 2015-07-29 | 深圳市金立通信设备有限公司 | 一种终端 |
CN105511675A (zh) * | 2015-11-20 | 2016-04-20 | 努比亚技术有限公司 | 触摸控制方法、用户设备、输入处理方法、移动终端及智能终端 |
CN106168864A (zh) * | 2015-05-18 | 2016-11-30 | 佳能株式会社 | 显示控制装置以及显示控制方法 |
CN107885671A (zh) * | 2016-09-30 | 2018-04-06 | 华为技术有限公司 | 一种非易失性内存的持久化方法和计算设备 |
TWI641986B (zh) * | 2014-06-01 | 2018-11-21 | 美商英特爾公司 | 用於判定使用者之數目與他們相對於一裝置之個別位置的方法、電子裝置及電腦可讀媒體 |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102341814A (zh) * | 2009-01-05 | 2012-02-01 | 智能技术无限责任公司 | 姿势识别方法和采用姿势识别方法的交互式输入系统 |
JP5629722B2 (ja) * | 2012-04-11 | 2014-11-26 | 京セラドキュメントソリューションズ株式会社 | 表示入力装置及びこれを備えた画像形成装置 |
JP5634442B2 (ja) * | 2012-06-26 | 2014-12-03 | 京セラドキュメントソリューションズ株式会社 | 表示入力装置および画像形成装置 |
US9342162B2 (en) * | 2013-01-29 | 2016-05-17 | Lg Electronics Inc. | Mobile terminal and controlling method thereof |
JP5776725B2 (ja) * | 2013-05-14 | 2015-09-09 | コニカミノルタ株式会社 | 画像処理連携システム、携帯端末装置、画像処理連携方法及び画像処理連携プログラム |
TWI533179B (zh) * | 2013-10-25 | 2016-05-11 | 緯創資通股份有限公司 | 光學觸控系統、觸控偵測方法及電腦程式產品 |
TWI502474B (zh) * | 2013-11-28 | 2015-10-01 | Acer Inc | 使用者介面的操作方法與電子裝置 |
RU2016135018A (ru) * | 2014-01-28 | 2018-03-02 | Хуавей Дивайс (Дунгуань) Ко., Лтд | Способ обработки устройства терминала и устройство терминала |
JPWO2015181680A1 (ja) * | 2014-05-30 | 2017-04-20 | 株式会社半導体エネルギー研究所 | 情報処理装置 |
JP6344083B2 (ja) * | 2014-06-20 | 2018-06-20 | カシオ計算機株式会社 | マルチタッチシステム、タッチ座標ペア決定方法及びタッチ座標ペア決定プログラム |
JP6255321B2 (ja) * | 2014-08-20 | 2017-12-27 | アルプス電気株式会社 | 情報処理装置とその指先操作識別方法並びにプログラム |
US9665769B2 (en) * | 2015-08-18 | 2017-05-30 | International Business Machines Corporation | Handwriting recognition with natural user input on multitouch surfaces |
JP5993511B1 (ja) * | 2015-10-15 | 2016-09-14 | 株式会社東海理化電機製作所 | 操作装置 |
CN108369451B (zh) * | 2015-12-18 | 2021-10-29 | 索尼公司 | 信息处理装置、信息处理方法及计算机可读存储介质 |
WO2017168850A1 (ja) * | 2016-03-30 | 2017-10-05 | 京セラドキュメントソリューションズ株式会社 | 表示制御装置 |
JP6024848B1 (ja) | 2016-05-06 | 2016-11-16 | 富士ゼロックス株式会社 | 情報処理装置及びプログラム |
CN106909296A (zh) * | 2016-06-07 | 2017-06-30 | 阿里巴巴集团控股有限公司 | 数据的提取方法、装置及终端设备 |
CN105867829B (zh) * | 2016-06-15 | 2019-05-17 | 维沃移动通信有限公司 | 一种控制终端显示界面切换的方法及终端 |
KR102647885B1 (ko) * | 2016-10-10 | 2024-03-15 | 삼성전자주식회사 | 전자 장치와 그 제어 방법 및 디스플레이 장치 |
DE112017005980T5 (de) * | 2016-11-25 | 2019-08-08 | Sony Corporation | Anzeigesteuervorrichtung, anzeigesteuerverfahren und computerprogramm |
JP7103782B2 (ja) * | 2017-12-05 | 2022-07-20 | アルプスアルパイン株式会社 | 入力装置および入力制御装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101583924A (zh) * | 2007-01-03 | 2009-11-18 | 苹果公司 | 多点触摸输入辨别 |
US20100031202A1 (en) * | 2008-08-04 | 2010-02-04 | Microsoft Corporation | User-defined gesture set for surface computing |
US20100083111A1 (en) * | 2008-10-01 | 2010-04-01 | Microsoft Corporation | Manipulation of objects on multi-touch user interface |
US7877707B2 (en) * | 2007-01-06 | 2011-01-25 | Apple Inc. | Detecting and interpreting real-world and security gestures on touch and hover sensitive devices |
US20110043473A1 (en) * | 2009-08-24 | 2011-02-24 | Semiconductor Energy Laboratory Co., Ltd. | Touch sensor and method for driving the same and display device |
CN102171634A (zh) * | 2008-10-06 | 2011-08-31 | 三星电子株式会社 | 使用多触摸来管理列表的方法和设备 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050052427A1 (en) * | 2003-09-10 | 2005-03-10 | Wu Michael Chi Hung | Hand gesture interaction with touch surface |
JP2005301693A (ja) * | 2004-04-12 | 2005-10-27 | Japan Science & Technology Agency | 動画編集システム |
US7743348B2 (en) * | 2004-06-30 | 2010-06-22 | Microsoft Corporation | Using physical objects to adjust attributes of an interactive display application |
JP4903371B2 (ja) * | 2004-07-29 | 2012-03-28 | 任天堂株式会社 | タッチパネルを用いたゲーム装置およびゲームプログラム |
US20070046643A1 (en) * | 2004-08-06 | 2007-03-01 | Hillis W Daniel | State-Based Approach to Gesture Identification |
JP2007128497A (ja) * | 2005-10-05 | 2007-05-24 | Sony Corp | 表示装置および表示方法 |
US7643011B2 (en) * | 2007-01-03 | 2010-01-05 | Apple Inc. | Noise detection in multi-touch sensors |
JP5161690B2 (ja) * | 2008-07-31 | 2013-03-13 | キヤノン株式会社 | 情報処理装置及びその制御方法 |
JP4766101B2 (ja) * | 2008-11-10 | 2011-09-07 | ソニー株式会社 | 触行動認識装置及び触行動認識方法、情報処理装置、並びにコンピューター・プログラム |
KR101568129B1 (ko) * | 2008-11-20 | 2015-11-11 | 삼성전자주식회사 | 터치 스크린을 구비한 휴대 단말기 및 그 휴대 단말기에서 태그 정보 표시 방법 |
US8219937B2 (en) * | 2009-02-09 | 2012-07-10 | Microsoft Corporation | Manipulation of graphical elements on graphical user interface via multi-touch gestures |
JP5377143B2 (ja) * | 2009-07-29 | 2013-12-25 | 京セラ株式会社 | 携帯電子機器 |
US8587532B2 (en) * | 2009-12-18 | 2013-11-19 | Intel Corporation | Multi-feature interactive touch user interface |
KR101058612B1 (ko) * | 2009-12-28 | 2011-08-22 | 박원주 | 멀티터치가 가능한 터치스크린을 이용한 화상의 색 보정 방법 |
US8717317B2 (en) * | 2010-02-22 | 2014-05-06 | Canon Kabushiki Kaisha | Display control device and method for controlling display on touch panel, and storage medium |
JP5534857B2 (ja) * | 2010-02-22 | 2014-07-02 | キヤノン株式会社 | 表示制御装置及び表示制御装置の制御方法 |
US20110296333A1 (en) * | 2010-05-25 | 2011-12-01 | Bateman Steven S | User interaction gestures with virtual keyboard |
US9092089B2 (en) * | 2010-09-15 | 2015-07-28 | Advanced Silicon Sa | Method for detecting an arbitrary number of touches from a multi-touch device |
WO2012162411A1 (en) * | 2011-05-23 | 2012-11-29 | Haworth, Inc. | Digital whiteboard collaboration apparatuses, methods and systems |
US8913019B2 (en) * | 2011-07-14 | 2014-12-16 | Microsoft Corporation | Multi-finger detection and component resolution |
-
2012
- 2012-03-06 JP JP2012049079A patent/JP5978660B2/ja not_active Expired - Fee Related
-
2013
- 2013-02-27 US US13/778,904 patent/US20130234957A1/en not_active Abandoned
- 2013-02-27 CN CN201310061946.4A patent/CN103309605B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101583924A (zh) * | 2007-01-03 | 2009-11-18 | 苹果公司 | 多点触摸输入辨别 |
US7877707B2 (en) * | 2007-01-06 | 2011-01-25 | Apple Inc. | Detecting and interpreting real-world and security gestures on touch and hover sensitive devices |
US20100031202A1 (en) * | 2008-08-04 | 2010-02-04 | Microsoft Corporation | User-defined gesture set for surface computing |
US20100083111A1 (en) * | 2008-10-01 | 2010-04-01 | Microsoft Corporation | Manipulation of objects on multi-touch user interface |
CN102171634A (zh) * | 2008-10-06 | 2011-08-31 | 三星电子株式会社 | 使用多触摸来管理列表的方法和设备 |
US20110043473A1 (en) * | 2009-08-24 | 2011-02-24 | Semiconductor Energy Laboratory Co., Ltd. | Touch sensor and method for driving the same and display device |
Non-Patent Citations (1)
Title |
---|
腾讯数码: "方便移动图标和管理iPad桌面", 《HTTP://DIGI.TECH.QQ.COM/A/20111011/000746.HTM》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI641986B (zh) * | 2014-06-01 | 2018-11-21 | 美商英特爾公司 | 用於判定使用者之數目與他們相對於一裝置之個別位置的方法、電子裝置及電腦可讀媒體 |
CN104461357A (zh) * | 2014-11-28 | 2015-03-25 | 上海斐讯数据通信技术有限公司 | 一种信息条目处理方法及移动终端 |
CN104808895A (zh) * | 2015-03-30 | 2015-07-29 | 深圳市金立通信设备有限公司 | 一种图标整理方法 |
CN104808894A (zh) * | 2015-03-30 | 2015-07-29 | 深圳市金立通信设备有限公司 | 一种终端 |
CN106168864A (zh) * | 2015-05-18 | 2016-11-30 | 佳能株式会社 | 显示控制装置以及显示控制方法 |
US10296130B2 (en) | 2015-05-18 | 2019-05-21 | Canon Kabushiki Kaisha | Display control apparatus, display control method, and storage medium storing related program |
CN105511675A (zh) * | 2015-11-20 | 2016-04-20 | 努比亚技术有限公司 | 触摸控制方法、用户设备、输入处理方法、移动终端及智能终端 |
CN107885671A (zh) * | 2016-09-30 | 2018-04-06 | 华为技术有限公司 | 一种非易失性内存的持久化方法和计算设备 |
CN110088740A (zh) * | 2016-09-30 | 2019-08-02 | 华为技术有限公司 | 一种非易失性内存的持久化方法和计算设备 |
US10976956B2 (en) | 2016-09-30 | 2021-04-13 | Huawei Technologies Co., Ltd. | Non-volatile memory persistence method and computing device |
CN107885671B (zh) * | 2016-09-30 | 2021-09-14 | 华为技术有限公司 | 一种非易失性内存的持久化方法和计算设备 |
CN110088740B (zh) * | 2016-09-30 | 2021-10-19 | 华为技术有限公司 | 一种非易失性内存的持久化方法和计算设备 |
Also Published As
Publication number | Publication date |
---|---|
JP5978660B2 (ja) | 2016-08-24 |
CN103309605B (zh) | 2019-07-19 |
JP2013186540A (ja) | 2013-09-19 |
US20130234957A1 (en) | 2013-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103309605A (zh) | 信息处理装置和信息处理方法 | |
CN101727180B (zh) | 操纵虚拟对象的设备和方法 | |
KR102028119B1 (ko) | 애플리케이션을 디스플레이하는 방법 및 그 전자 장치 | |
US10359905B2 (en) | Collaboration with 3D data visualizations | |
US20130125069A1 (en) | System and Method for Interactive Labeling of a Collection of Images | |
US20180335925A1 (en) | 3d visualization | |
US20100005427A1 (en) | Systems and Methods of Touchless Interaction | |
CN103870535A (zh) | 信息搜索方法和装置 | |
WO2017172425A1 (en) | Contextual ink annotation in a mapping interface | |
US20130283214A1 (en) | Apparatus and method for providing user interface for recognizing gesture | |
US20150154444A1 (en) | Electronic device and method | |
RU2472220C2 (ru) | Устройство отображения и машиночитаемый носитель | |
US20130169563A1 (en) | Storage medium storing information processing program, information processing apparatus, information processing method, and information processing system | |
US20150054784A1 (en) | Method and apparatus for executing application using multiple input tools on touchscreen device | |
US20140184538A1 (en) | Display apparatus, display method, and display program | |
KR20150021975A (ko) | 전자 디바이스용 입력 방법 및 입력 디바이스, 이러한 방법을 수행하는 명령이 저장되어 있는 비일시적 컴퓨터 판독 가능 저장 매체 | |
US20170285904A1 (en) | Direct data transfer electronic device and method | |
CN103793178A (zh) | 一种移动设备触摸屏中矢量图形编辑方法 | |
CN103034440A (zh) | 一种识别手势指令的方法及装置 | |
EP3482285B1 (en) | Shake event detection system | |
CN104615311B (zh) | 一种触摸屏定位方法、装置及触屏设备 | |
CN103198107A (zh) | 一种查找应用程序的方法、装置及终端 | |
WO2008004624A1 (fr) | Dispositif, procédé et programme de traitement d'entrées manuscrites | |
CN102799273A (zh) | 交互控制系统及其交互控制方法 | |
JP2016095716A (ja) | 情報処理装置、情報処理方法、ならびに、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190719 |