CN102033648A - 信息处理设备、信息处理方法以及信息处理程序 - Google Patents

信息处理设备、信息处理方法以及信息处理程序 Download PDF

Info

Publication number
CN102033648A
CN102033648A CN2010102926957A CN201010292695A CN102033648A CN 102033648 A CN102033648 A CN 102033648A CN 2010102926957 A CN2010102926957 A CN 2010102926957A CN 201010292695 A CN201010292695 A CN 201010292695A CN 102033648 A CN102033648 A CN 102033648A
Authority
CN
China
Prior art keywords
touch
cpu
screen
display screen
web page
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2010102926957A
Other languages
English (en)
Other versions
CN102033648B (zh
Inventor
西部满
久永贤司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN102033648A publication Critical patent/CN102033648A/zh
Application granted granted Critical
Publication of CN102033648B publication Critical patent/CN102033648B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明公开了一种信息处理设备、信息处理方法以及信息处理程序,其中,一种用于控制显示屏的设备包括:触敏板,其生成表示第一时间与第二时间之间的单个连续触摸激活的一组位置的位置信号;以及耦合到所述板的处理器。所述处理器被配置成:处理信号,以检测所述一组位置的第一和第二特征;并且生成输出信号,该输出信号使得显示屏启动与所述第一和第二特征对应的第一和第二操作。

Description

信息处理设备、信息处理方法以及信息处理程序
相关申请的交叉引用
本申请包含与2009年10月2日向日本专利局提交的日本优先权专利申请JP 2009-230745中公开的主题内容相关的主题内容,在此通过引用将其全文合并于此。
技术领域
本发明涉及一种信息处理设备、信息处理方法以及信息处理程序。例如,本发明的实施例适合被应用到响应于在触摸屏上进行的操作输入来执行处理的信息处理设备。
背景技术
至今,包括触摸屏的信息处理设备得到了广泛使用。在该类信息处理设备中,通过利用诸如轻击、拖动以及滑动(flicking)的操作在触摸屏上进行输入来实现更直观的输入操作。术语“拖动”意味例如在保持手指在触摸屏上触摸的同时移动手指的操作,并且术语“滑动”意味例如在触摸屏的表面上滑动手指的操作。
作为一个示例,提出当在触摸屏上执行拖动时滚动图像的信息处理设备。
作为另一示例,提出当在触摸屏上执行扩大(pinch-out)和缩小(pinch-in)手指间隔时分别放大和缩小图像的信息处理设备(参见例如日本未审查的专利申请公布第2008-299474号(第24、25以及34页))。术语“扩大手指间隔”意味两根手指触摸在触摸板上并且加宽两根手指之间的间隔的操作,并且术语“缩小手指间隔”意味两根手指触摸在触摸板上并且缩窄两根手指之间的间隔的操作。
因此,在这些提出的信息处理设备中,当从在触摸屏上进行的操作输入识别出与预定类型处理(例如,图像的滚动)对应的手势操作时,执行该预定类型处理。
然而,在上述信息处理设备中,因为操作输入与手势操作以一对一的关系关联,因此利用一个操作输入仅执行一类处理,例如,使得拖动被识别为与滚动对应的手势操作。这里使用的表述“一个操作输入”表示通过手指触摸在触摸屏上并然后从触摸屏释放手指的操作手势提供的输入。
考虑到上述问题,期望提出可以实现更多种多样的操作系统的信息处理设备、信息处理方法以及信息处理程序。
发明内容
与一个实施例一致,公开了一种用于控制显示屏的设备。该设备可包括触敏(touch-sensitive)板,其生成表示第一时间与第二时间之间的单个连续触摸激活的一组位置的位置信号。该设备还可包括耦合到该板的处理器,处理器被配置成处理信号以检测所述一组位置的第一和第二特征,并且生成输出信号,其使得显示屏启动与第一和第二特征对应的第一和第二操作。
附图说明
图1是表示实施例概要的信息处理设备的功能框图。
图2示出了根据实施例的便携式终端的外观。
图3是示出根据实施例的便携式终端的硬件配置的框图。
图4是说明滚动操作和放大/缩小操作的图示。
图5是说明运动矢量的检测的图示。
图6是说明拖动中的折返运动的图示。
图7是说明运动弯曲程度的变化的示例的图。
图8是示出用于手势操作识别的处理过程的流程图。
图9是说明显示区的设置的图示。
图10是说明另一实施例中暂时缩放因子与最终缩放因子之间的关系的图。
具体实施方式
以下将描述本发明的实施例。以下面顺序进行描述:
1.实施例
2.其它实施例
<1.实施例>
[1-1.实施例的概要]
首先描述实施例的概要。在描述概要之后,将描述实施例的细节。
在图1中,附图标记1表示信息处理设备。信息处理设备1包括检测单元2,其用于检测每预定时间在显示屏上进行的操作输入的运动(移动)量(即,操作输入的第一特征)和运动弯曲(屈曲)的程度(即,操作输入的第二特征)。信息处理设备1还包括识别单元3,其用于基于运动量识别是否执行了与显示屏上显示的图像的滚动对应的手势操作(即,第一操作),并且用于基于弯曲的程度识别是否执行了与图像的放大或缩小对应的手势操作(即,第二操作)。
另外,信息处理设备1包括控制单元4,其用于当识别单元3识别执行了与图像的滚动对应的手势操作和与图像的放大或缩小对应的手势操作时,执行图像的滚动和图像的放大或缩小。
利用上述配置,信息处理设备1可以响应于一个操作输入来执行多类处理,诸如图像的滚动和图像的放大或缩小。
以下将详细描述具有上述配置的信息处理设备1的具体示例。
[1-2.便携式终端的外观]
现在参照图2描述作为信息处理设备1的具体示例的便携式终端100的外观。
在便携式终端100中,第一外壳101和第二外壳102通过以铰链形式的耦合构件103A和103B耦合,例如,以在相互离开的方向上或在相互接近的方向上可旋转。此外,第一外壳101和第二外壳102相互电连接。
第一外壳101和第二外壳102均基本呈平整矩形的形状,其具有如由一只手可抓住的尺寸。
具有矩形形状的第一触摸屏(即,触敏板)104被布置在第一外壳101的正面101A的中心。具有与第一触摸屏104的形状和尺寸类似的形状和尺寸的第二触摸屏(即,触敏板)105被布置在第二外壳102的正面102A的中心。
第一触摸屏104和第二触摸屏105均是适合于利用用户的手指(或笔)的触摸操作(即,触摸激活)的显示装置。用户以如下状态利用便携式终端100:例如,第一触摸屏104用作上部屏,并且第二触摸屏105用作下部屏。
各种硬件按钮被布置在第二触摸屏105的两侧上。
[1-3.便携式终端的硬件配置]
现在参照图3描述便携式终端100的硬件配置。在便携式终端100中,CPU(中央处理单元)120、ROM(只读存储器)121以及RAM(随机存取存储器)122经由主机总线123互连。“CPU”是中央处理单元的首字母缩略词。“ROM”是只读存储器的首字母缩略词。“RAM”是随机存取存储器的首字母缩略词。
在便携式终端100中,CPU 120执行各种处理,CPU 120将写在ROM121等中的各种程序加载到RAM 122中,并且执行这些程序。
主机总线123经由桥124连接到外部总线125。此外,外部总线125经由接口126连接到操作单元127、第一液晶板104A、第一触摸板104B、第二液晶板105A以及第二触摸板105B。另外,外部总线125经由接口126连接到存储单元128、驱动器129、连接端口130以及无线通信单元131。
CPU 120根据经由接口126、外部总线125以及主机总线123相继从第一触摸板104B、第二触摸板105B以及操作单元127发送的输入信号来控制各个单元。
第一触摸板104B是与第一液晶板104A协同构成第一触摸屏104的装置。另外,第二触摸板105B是与第二液晶板105A协同构成第二触摸屏105的装置。
当手指触摸第一触摸板104B上的任意位置时,第一触摸板104B检测第一触摸板104B被触摸的位置(即,触摸位置)的坐标,然后将表示触摸位置的坐标的输入信号(即,位置信号)发送到CPU 120。
当根据从第一触摸板104B发送的输入信号得出触摸位置的坐标时,CPU 120将获得的坐标转换成第一液晶板104A的屏幕上的坐标,由此识别在第一液晶板104A的屏幕上触摸哪个位置。
此外,CPU 120将根据每特定时间发送的每个输入信号得出的触摸位置的坐标相继转换成第一液晶板104A的屏幕上的坐标(即,第一时间与第二时间之间的单个连续触摸激活的一组位置),由此识别如何移动了触摸位置(即,触摸位置的轨迹)。
基于如上所述识别出的触摸位置和其轨迹,CPU 120确定在第一液晶板104A的屏幕上的哪个位置进行了什么触摸操作。
类似地,第二触摸板105B向CPU 120发送表示检测到的触摸位置的坐标的输入信号。CPU 120根据输入信号确定在第二液晶板105A的屏幕上的哪个位置进行了什么触摸操作。
操作单元127是包括各种硬件按钮等的装置。操作单元127向CPU120发送与这些硬件按钮的操作对应的输入信号。基于从操作单元127发送的输入信号,CPU 120确定操作了哪一个硬件按钮。
CPU 120经由连接端口130、以装置到装置(device-to-device)连接的方式连接到邻近的外部装置OC,用于与外部装置OC的直接通信。
此外,CPU 120通过无线通信单元131、经由访问点连接到因特网NT,用于与因特网NT上的服务器和其它装置的通信。
当CPU 120根据用户的操作、作为经由连接端口130或无线通信单元131与其它装置通信的结果而获得例如内容数据(诸如动态图像数据和音乐数据)时,例如,CPU 120将获得的数据存储在存储单元128中。另外,当可拆卸记录介质RW(诸如光盘或闪存)被插入在驱动器129中时,CPU 120根据用户的操作将内容数据存储在可拆卸记录介质RW中。
[1-4.网络浏览器屏幕]
便携式终端100具有网络浏览器功能,其用于浏览因特网上的服务器提供的网页。以下将描述网络浏览器功能提供的网络浏览器屏幕和在网络浏览器屏幕上进行的输入操作。
利用网络浏览器程序的执行,CPU 120经由无线通信单元131与因特网上的任意服务器通信,并且从相关服务器获得网页的数据。此外,CPU120在第一触摸屏104上显示例如网络浏览器屏幕,其用于基于获得的网页的数据显示网页图像。
在网络浏览器屏幕上,取决于网页图像的尺寸,显示全部或部分网页图像。另外,当CPU 120通过执行网络浏览器程序最初显示网络浏览器屏幕时,例如,CPU 120将网页图像的缩放因子设置为基准值(即,×1)。
当在第一触摸屏104上执行拖动或滑动时,CPU 120识别执行了与网页图像的滚动对应的手势操作(也被称为“滚动操作”)。然后,CPU 120响应于滚动操作来滚动网页图像。
此外,如图4所示,当CPU 120识别在第一触摸屏104上拖动期间,在画出一个或多个圆的同时移动手指时,CPU 120识别这样的运动表示与网页图像的放大或缩小对应的手势操作连同滚动操作。与网页图像的放大对应的手势操作被称为“放大操作”,并且与网页图像的缩小对应的手势操作被称为“缩小操作”。此外,放大操作和缩小操作共同被称为“放大/缩小操作”。
在以上情况下,CPU 120不但响应于滚动操作来滚动网页图像,而且响应于放大/缩小操作来放大或缩小网页图像。更具体地,当手指顺时针画圆时,例如,CPU 120识别执行了放大操作,然后,以被设置到当前手指触摸的位置为中心来放大网页图像。另一方面,当手指逆时针画圆时,例如,CPU 120识别执行了缩小操作,然后,以被设置到当前手指触摸的位置为中心来缩小网页图像。
以下将详细描述识别在便携式终端100中的第一触摸屏104上执行的手势操作(诸如滚动操作和放大/缩小操作)的处理。
当在第一触摸屏104上执行通过一根手指进行的触摸操作时,CPU120根据每特定时间(例如,若干毫秒)从第一触摸屏104发送的输入信号得出屏幕上触摸位置的坐标。
基于每特定时间触摸位置的屏幕坐标,CPU 120检测每特定时间触摸位置的运动量。当识别出每特定时间触摸位置的运动量不小于预定值时,CPU 120识别这样的运动表示在第一触摸屏104上进行的拖动或滑动,并且识别执行了滚动操作。顺便提及,CPU 120基于触摸位置的运动速度等,确定进行了拖动和滑动的哪一个。然后,CPU 120根据例如每预定时间触摸位置的运动的量、方向以及速度,滚动网页图像。
此外,基于每特定时间触摸位置的屏幕坐标,CPU 120检测每特定时间沿其移动触摸位置的轨迹的弯曲程度(也被称为“运动弯曲的程度”)。CPU 120基于运动弯曲的程度,识别放大/缩小操作。
更具体地,假设如图5所示,作为示例,CPU 120根据每特定时间相继从第一触摸屏104发送的输入信号来顺序得出触摸位置的三个屏幕坐标A、B以及C。如果当前(即,此次)获得了屏幕坐标C,那么上次获得了屏幕坐标B,并且上次之前获得了屏幕坐标A。
在这种情况下,CPU 120基于当前获得的屏幕坐标C和上次获得的屏幕坐标B,检测从屏幕坐标B开始并且在屏幕坐标C处结束的运动矢量v1。运动矢量v1表示从上次到当前时间的触摸位置的运动的量和方向。
此外,CPU 120基于上次获得的屏幕坐标B和上次之前获得的屏幕坐标A,确定从屏幕坐标A开始并且在屏幕坐标B处结束的运动矢量v2。运动矢量v2表示从上次之前到上次的触摸位置的运动的量和方向。
通过使用如上所述获得的这两个运动矢量v1和v2,CPU 120利用下面公式(1)计算每特定时间触摸位置的运动的方向的变化(也被称为“运动方向变化”)f(v1,v2):
f ( v 1 , v 2 ) = | v 1 &times; v 2 | | v 1 | &CenterDot; | v 2 | . . . ( 1 )
在|v1|=0或|v2|=0的情况下,CPU 120计算f(v1,v2)=0。
此外,当顺时针改变触摸位置的运动方向时,运动方向变化f(v1,v2)取例如正值,并且当逆时针改变触摸位置的运动方向时,它取例如负值。
通过使用运动方向变化f(v1,v2),CPU 120利用下面公式(2)计算每特定时间运动弯曲的程度R(n):
R(n)=R(n-1)×α+f(v1,v2)×(1-α)    ...(2)
R(n-1)表示在前运动弯曲的程度。CPU 120计算每当根据从第一触摸屏104发送的输入信号得出触摸位置的屏幕坐标时的运动弯曲的程度R(n)。因此,术语“在前运动弯曲的程度”意味当上次获得了触摸位置的屏幕坐标时算出的运动弯曲的程度的值。
此外,α和(1-α)分别表示用于向R(n-1)和f(v1,v2)施加权重的权重系数。因此,在便携式终端100中,考虑在前运动弯曲的程度R(n-1)来计算当前运动弯曲的程度R(n)。因此,在便携式终端100中,随着在画圆的同时继续拖动,运动弯曲的程度R(n)的绝对值增加。
当在如图6所示的拖动期间手指的运动方向突然在某个时间点折返时,运动方向变化f(v1,v2)的绝对值突然在该时间点增加。然而,在便携式终端100中,由于考虑在前运动弯曲的程度R(n-1)和运动方向变化f(v1,v2)一起来计算当前运动弯曲的程度R(n),因此即使在上述情况下运动弯曲的程度R(n)的绝对值也不突然增加。
为此,在便携式终端100中,当画圆的同时继续拖动时的运动弯曲的程度R(n)的绝对值大于当拖动突然折返时的运动弯曲的程度R(n)的绝对值。结果,便携式终端100可以基于当前运动弯曲的程度R(n)的绝对值,区分在画圆的同时继续拖动的情况和拖动突然折返的情况。
这里,运动方向变化f(v1,v2)当顺时针移动触摸位置时取正值,并且当逆时针移动触摸位置时取负值。因此,当运动弯曲的程度R(n)取正值时,这意味顺时针移动触摸位置,并且当运动弯曲的程度R(n)取负值时,这意味逆时针移动触摸位置。
考虑到上述点,当运动弯曲的程度R(n)取正值时,CPU 120确定运动弯曲的程度R(n)是否不小于预定正值(也被称为“放大开始值”)。如果CPU 120确定运动弯曲的程度R(n)不小于放大开始值,那么CPU 120识别开始了放大操作。
另一方面,当运动弯曲的程度R(n)取负值时,CPU 120确定运动弯曲的程度R(n)是否不大于预定负值(也被称为“缩小开始值”)。如果CPU120确定运动弯曲的程度R(n)不大于缩小开始值,那么CPU 120识别开始了缩小操作。
放大开始值和缩小开始值被设置成具有如下这样的绝对值:当拖动突然折返时,不识别放大/缩小操作,并且仅当画圆的同时继续拖动时,识别放大/缩小操作。
当CPU 120基于运动弯曲的程度R(n)而识别开始了放大/缩小操作时,CPU 120通过使用运动弯曲的程度R(n)、利用下面公式(3)来计算网页图像的缩放因子的变化率ΔS(也被称为“缩放因子变化率”):
ΔS=β×R(n)    ...(3)
在公式(3)中,β是用于将运动弯曲的程度R(n)转换成缩放因子变化率ΔS的系数。如果运动弯曲的程度R(n)是正值,那么缩放因子变化率ΔS取正值,并且如果运动弯曲的程度R(n)是负值,那么缩放因子变化率ΔS取负值。
在以这样的方式计算缩放因子变化率ΔS之后,CPU 120将从缩放因子变化率ΔS与网页图像的当前缩放因子相加得到的值设置作为新缩放因子,然后根据新缩放因子显示网页图像。结果,放大或缩小在网络浏览器屏幕上显示的网页图像。
在便携式终端100中,如从公式(3)看到的那样,随着运动弯曲的程度R(n)取更大值,缩放因子变化率ΔS增加。因此,在便携式终端100中,当画圆的同时继续拖动时,随着拖动运动速度(即,画圆速度)相对更高,网页图像的放大因子或缩小因子的变化率增加。
因此,在便携式终端100中,可以利用用户通过手指快速地画圆,增加网页图像的放大因子或缩小因子的变化率,并且可以利用用户通过手指缓慢地画圆,减小放大因子或缩小因子的变化率。
当运动弯曲的程度R(n)小于放大开始值或大于缩小开始值从而CPU120仅识别滚动操作而不识别放大/缩小操作的开始时,CPU 120仅执行网页图像的滚动。
在保持手指在第一触摸屏104上触摸的同时,CPU 120继续获得每特定时间触摸位置的屏幕坐标,并且继续检测每特定时间触摸位置的运动量和运动弯曲的程度R(n)。此外,CPU 120根据触摸位置的运动量滚动网页图像,并且同时,根据运动弯曲的程度R(n),放大或缩小网页图像。
图7是示出每特定时间运动弯曲的程度R(n)的变化的一个示例的图。在图7的图中,垂直轴表示运动弯曲的程度R(n),并且水平轴表示时间。
如从图7的图看到的那样,在时间t1处,运动弯曲的程度R(n)不小于放大开始值U1。因此,CPU 120识别在时间t1处开始了放大操作。然后,如上所述,CPU 120根据运动弯曲的程度R(n)来改变网页图像的缩放因子,从而放大网页图像。
在识别开始了放大操作之后,CPU 120根据运动弯曲的程度R(n)继续改变网页图像的缩放因子,直到运动弯曲的程度R(n)变得小于预定正值(也被称为“放大结束值”)U2。
因此,在便携式终端100中,当以在第一触摸屏104上顺时针画圆的方式连续移动手指的同时,连续放大网页图像。
放大结束值U2被设置为小于放大开始值U1。因此,在便携式终端100中,一旦识别了放大操作,则与放大操作的识别之前的状态相比,运动弯曲的程度R(n)的更小值也被识别为表示放大操作。
当运动弯曲的程度R(n)变得小于放大结束值U2时(即,在图7中的时间t2之后),CPU 120识别结束了放大操作。然后,CPU 120停止网页图像的缩放因子的改变并且保持网页图像的缩放因子不变。因此,在便携式终端100中,在第一触摸屏104上顺时针画圆的操作结束时,停止网页图像的放大。
类似地,在识别开始了缩小操作之后,CPU 120根据运动弯曲的程度R(n)继续改变网页图像的缩放因子,直到运动弯曲的程度R(n)变得大于(即,它的绝对值变得小于)预定负值(也被称为“缩小结束值”)。
因此,在便携式终端100中,当以在第一触摸屏104上逆时针画圆的方式连续移动手指的同时,连续缩小网页图像。
缩小结束值被设置为大于缩小开始值(即,前者的绝对值被设置为小于后者的绝对值)。因此,在便携式终端100中,一旦识别出缩小操作,则与缩小操作的识别之前的状态相比,运动弯曲的程度R(n)的更小绝对值也被识别为表示缩小操作。
当运动弯曲的程度R(n)变得大于缩小结束值时(即,当前者的绝对值变得小于后者的绝对值时),CPU 120识别结束了缩小操作。然后,CPU120停止网页图像的缩小,并且保持网页图像的缩放因子不变。因此,在便携式终端100中,在第一触摸屏104上逆时针画圆的操作结束时,停止网页图像的缩小。
在便携式终端100中,如上所述,当在第一触摸屏104上画圆的同时执行拖动时,滚动操作和放大/缩小操作均被识别,于是滚动并放大或缩小网页图像。
这里,假设CPU 120识别执行了在放大/缩小操作之后的、利用保持手指在第一触摸屏104上触摸来将手指停留在一个位置预定时间的操作(这样的操作也被称为“放大/缩小操作之后的长推操作”)。实际上,此时,如果每特定时间触摸位置的运动量不大于预定值,那么即使手指不精确地停留在一个位置,CPU 120也确定手指基本停留在一个位置。
在以上情况下,CPU 120识别用户执行了用于选择与当前触摸位置(即,进行长推操作的位置)对应的显示屏上的位置的手势操作,然后执行被设置为与所选位置对应的处理。例如,当链接目标被设置在与当前触摸位置匹配的网页图像上的位置时,CPU 120识别选择了链接目标,然后经由无线通信单元131访问链接目标处的页面。
因此,在便携式终端100中,例如,仅仅执行一次拖动的用户可以无缝地执行在任意方向上滚动网页、在任意位置放大图像、以及此外选择该位置的操作。
注意,便携式终端100中的第一触摸屏104和CPU 120表示执行“实施例的概要”的上述信息处理设备1中的检测单元2的功能的硬件。另外,便携式终端100中的CPU 120表示执行“实施例的概要”的上述信息处理设备1中的识别单元3和控制单元4的功能的硬件。
[1-5.用于手势操作识别的处理过程]
如上所述,便携式终端100识别在第一触摸屏104上进行的手势操作,诸如滚动操作和放大/缩小操作。以下将参照图8描述当识别出在第一触摸屏104上进行的手势操作时便携式终端100执行的处理过程RT1(也被称为“用于手势操作识别的处理过程RT1”)
用于手势操作识别的处理过程RT1是CPU 120根据写在ROM 121或存储单元128中的程序执行的处理过程。
在第一触摸屏104上显示网络浏览器屏幕之后,例如,CPU 120开始用于手势操作识别的处理过程RT1,并且转移到步骤SP1。
在步骤SP1中,CPU 120基于从第一触摸屏104发送的输入信号,确定手指是否触摸在第一触摸屏104上。
如果在步骤SP1中获得“否”的确定结果,那么CPU 120返回到步骤SP1,并且等待在第一触摸屏104上的手指的触摸。
另一方面,如果在步骤SP1中获得“是”的确定结果,那么这意味在第一触摸屏104上显示的网络浏览器屏幕上进行了操作输入。在这样的情况下,CPU 120转移到下一个步骤SP2。
在步骤SP2中,CPU 120根据从第一触摸屏104发送的输入信号得出触摸位置的屏幕坐标。此外,CPU 120基于每特定时间触摸位置的运动量,确定在第一触摸屏104上执行了拖动还是滑动。
如果在步骤SP2中获得“是”的确定结果,那么CPU 120识别执行了滚动操作,然后转移到下一个步骤SP3。
在步骤SP3中,CPU 120根据滚动操作来滚动网页图像,然后转移到下一个步骤SP4。
在步骤SP4中,CPU 120基于此次获得的触摸位置的屏幕坐标和上次获得的触摸位置的屏幕坐标,计算从一个周期在前触摸位置延伸到当前触摸位置的运动矢量v1。此外,CPU 120基于上次获得的触摸位置的屏幕坐标和上次之前获得的触摸位置的屏幕坐标,计算从两个周期在前触摸位置延伸到一个周期在前触摸位置的运动矢量v2。CPU 120然后转移到下一个步骤SP5。
在步骤SP5中,CPU 120通过使用运动矢量v1和v2、利用上述公式(1)和(2)来计算运动弯曲的程度R(n),然后转移到下一个步骤SP6。
在步骤SP6中,CPU 120确定当前是否正继续放大/缩小操作。表述“当前正继续放大/缩小操作”意味如下状态:其中,在基于直到上次获得的运动弯曲的程度R(n)识别了放大/缩小操作的开始之后,还依然没有识别放大/缩小操作的结束。
如果当前没有正继续放大/缩小操作并且在步骤SP6中获得“否”的确定结果,那么CPU 120转移到下一个步骤SP7。
在步骤SP7中,CPU 120确定运动弯曲的程度R(n)是否不小于放大开始值或不大于缩小开始值。
如果在步骤SP7中获得“是”的确定结果,那么CPU 120识别开始了放大/缩小操作,然后转移到下一个步骤SP9。
另一方面,如果当前正继续放大/缩小操作并且在步骤SP6中获得“是”的确定结果,那么CPU 120转移到下一个步骤SP8。
在步骤SP8中,CPU 120确定运动弯曲的程度R(n)是否不小于放大结束值或不大于缩小结束值。
如果在步骤SP8中获得“是”的确定结果,那么CPU 120识别正继续放大/缩小操作,然后转移到下一个步骤SP9。
在步骤SP9中,CPU 120通过使用运动弯曲的程度R(n)、利用上述公式(3)来计算缩放因子变化率ΔS,然后转移到下一个步骤SP10。
在步骤SP10中,CPU 120设置被放大/缩小的网页图像中的显示区,从而以当前触摸位置为中心来放大或缩小网页图像。术语“显示区”意味在第一触摸屏104上显示的网页图像的区域。
更具体地,CPU 120通过计算表示例如显示区的左上角处的位置的坐标Px和Py(也被称为“显示区坐标Px和Py”)来设置显示区。例如,如图9所示,显示区坐标Px和Py被表示为在如下条件下的X-Y平面上的坐标:网页图像的左上角是原点,在左右方向上延伸的轴是X轴,以及在上下方向上延伸的轴是Y轴。
这里假设当前显示区坐标是Px(org)和Py(org),通过下面公式(4)和(5)来表示以当前触摸位置作为中心放大或缩小的网页图像中的显示区坐标Px和Py。
在下面公式(4)和(5)中,假设表示当前触摸位置的坐标是Tx和Ty。还假设Tx和Ty被表示为在如下条件下的X-Y平面上的坐标:第一触摸屏104的显示屏的左上角(即,显示区的左上角)是原点,在左右方向上延伸的轴是X轴,以及在上下方向上延伸的轴是Y轴。此外,在下面公式(4)和(5)中假设网页图像的当前缩放因子是S(org),并且从缩放因子变化率ΔS与S(org)相加得到的值是新缩放因子S。
Px = ( Px ( Org ) + Tx ) &times; S S ( Org ) - Tx . . . ( 4 )
Py = ( Py ( Org ) + Ty ) &times; S S ( Org ) - Ty . . . ( 5 )
当以当前触摸位置作为中心来放大或缩小图像时,CPU 120利用公式(4)和(5)计算网页图像中的显示区坐标Px和Py。在设置当以当前触摸位置作为中心来放大或缩小图像时的网页图像中的显示区之后,如上所述,CPU 120转移到下一个步骤SP11。
在步骤SP11中,CPU 120将显示区的位置与以新缩放因子S放大或缩小了的网页图像上的算出的显示区坐标Px和Py对准。CPU 120以这样的方式、以当前触摸位置作为中心来放大或缩小网页图像,然后转移到下一个步骤SP12。
同时,如果运动弯曲的程度R(n)小于放大开始值并大于缩小开始值、并且在步骤SP7中获得“否”的确定结果,那么这意味没有执行放大/缩小操作。在这样的情况下,CPU 120转移到下一个步骤SP12,而不执行步骤SP9到SP11。
另外,如果运动弯曲的程度R(n)小于放大结束值并大于缩小结束值、并且在步骤SP8中获得“否”的确定结果,那么这意味没有执行放大/缩小操作。在这样的情况下,CPU 120识别结束了放大/缩小操作,然后转移到下一个步骤SP12,而不执行步骤SP9到SP11。
如果在步骤SP2中获得“否”的确定结果,那么这意味没有执行滚动操作和放大/缩小操作。在这样的情况下,CPU 120转移到下一个步骤SP12,而不执行步骤SP3到SP11。
在步骤SP12中,CPU 120基于获得的触摸位置的屏幕坐标,确定是否执行了放大/缩小操作之后的长推操作。
如果在步骤SP12中获得“是”的确定结果,那么CPU 120转移到下一个步骤SP13。
在步骤SP13中,CPU 120识别用户选择了与当前触摸位置匹配的显示屏上的位置。因此,CPU 120执行被设置为与显示屏上的当前触摸位置对应的处理,然后返回到步骤SP1。
另一方面,如果在步骤SP12中获得“否”的确定结果,那么CPU 120返回到步骤SP1,而不执行步骤SP13。
根据上述用于手势操作识别的处理过程RT1,CPU 120识别在第一触摸屏104上进行的手势操作。CPU 120继续执行用于手势操作识别的处理过程RT1,直到关闭网络浏览器屏幕的显示。
[1-6.工作操作和优点]
利用上述配置,当执行网络浏览器程序时,便携式终端100在第一触摸屏104上显示网络浏览器屏幕,以显示网页图像。
现在,当在第一触摸屏104上执行触摸操作时,便携式终端100将触摸操作识别为在网络浏览器屏幕上(即,在显示屏上)进行的操作输入,并且检测每预定时间触摸位置的运动量和运动弯曲的程度R(n)。
便携式终端100基于检测到的运动量,识别是否执行了滚动操作,并且此外,基于检测到的运动弯曲的程度R(n),识别是否执行了放大/缩小操作。
当便携式终端100识别仅执行了滚动操作时,它根据检测到的触摸位置的运动量来执行仅滚动网页图像的处理。
另一方面,当便携式终端100识别执行了滚动操作和放大/缩小操作时,它不但执行网页图像的滚动,而且执行网页图像的放大或缩小。此时,便携式终端100根据检测到的触摸位置的运动量来滚动网页图像,并且根据检测到的运动弯曲的程度R(n)来放大或缩小网页图像。
因此,便携式终端100可以响应于一个操作输入来执行仅网页图像的滚动、以及网页图像的滚动及网页图像的放大或缩小。
此外,由于可以利用使用一根手指的触摸操作来实现滚动操作和放大/缩小操作,因此便携式终端100不需要适合于多点触摸(multi-touching)的触摸屏。另外,便携式终端100不需要用于执行放大/缩小操作的硬件键。
因此,与采用适合于多点触摸的触摸屏或用于执行放大/缩小操作的硬件键的情况相比,可以简化便携式终端100的配置。
在便携式终端100中,当每预定时间检测运动弯曲的程度R(n)时,还考虑上次检测到的运动弯曲的程度R(n)的值。
因此,当以整体考虑基本画出圆时,即使当用户画出例如变形的圆并且触摸位置的轨迹暂时接近线性直线时,便携式终端100也可以识别放大/缩小操作。
另外,当保持手指在第一触摸屏104上触摸的同时,便携式终端100继续检测每预定时间运动弯曲的程度R(n),并且根据检测到的运动弯曲的程度R(n)来放大或缩小网页图像。
因此,当以在第一触摸屏104上画圆的方式连续移动手指的同时,便携式终端100可以继续放大或缩小网页图像。因此,在便携式终端100中,可以通过用户调整在第一触摸屏104上画圆的次数来细微地调整网页图像的放大因子或缩小因子。
利用上述配置,当检测到在显示屏上进行的操作输入时,便携式终端100从检测到的操作输入识别多个手势操作(诸如滚动操作和放大/缩小操作),并且执行与识别出的多个手势操作对应的多类处理。
结果,便携式终端100可以响应于一个操作输入来执行多类处理,诸如网页图像的滚动和网页图像的放大或缩小。
<2.其它实施例>
[另一实施例1]
在上述实施例中,CPU 120基于运动方向变化f(v1,v2)和在前运动弯曲的程度R(n-1),计算当前运动弯曲的程度R(n)。
然而,实施例不限于上述实施例。当计算当前运动弯曲的程度R(n)时,除运动方向变化f(v1,v2)和在前运动弯曲的程度R(n-1)之外,CPU 120还可考虑运动矢量的大小。
在这样的情况下,如在下面条件公式(6)中表示的那样,如果从运动矢量v1的大小与运动矢量v2的大小相乘得到的|v1|·|v2|的值不小于预定值D,那么CPU 120将通过使用上述公式(1)算出的运动方向变化f(v1,v2)取整到“0”:
f(v1,v2)=f(v1,v2)(|v1|·|v2|<D)
f(v1,v2)=0(|v1|·|v2|≥D)    ...(6)
根据这样算出的运动方向变化f(v1,v2),CPU 120通过使用上述公式(2)来计算运动弯曲的程度R(n)。
预定值D被设置为如下这样的值:其使得实现对通过拖动在显示屏上画出小圆(例如,具有落入显示屏内的尺寸的圆)的情况与在显示屏上画出大圆(例如,具有不落入显示屏内的尺寸的圆)的情况之间进行区分。利用该设置,当画出小圆时,便携式终端100可以识别放大/缩小操作,但是当画出大圆时,它不识别放大/缩小操作。因此,在便携式终端100中,即使当用户将仅执行滚动操作时拖动是有些弯曲的并且画出圆弧,例如,也不识别放大/缩小操作。
在开始了放大/缩小操作之后,预定值D可被改变成比开始了放大/缩小操作之前的值更大的值。利用这样的修改,在开始了放大/缩小操作之后,即使当手指的运动量相对大于开始了放大/缩小操作之前的量时,便携式终端100也识别放大/缩小操作。
替选地,可设计CPU 120,以便当运动矢量的大小不小于预定值时,即,当每特定时间手指的运动量不小于预定值时,不识别放大/缩小操作。
[2-2.又一实施例2]
在上述实施例中,当连续执行放大/缩小操作时,CPU 120连续放大或缩小网页图像。
然而,实施例不限于上述实施例。当网页图像的缩放因子达到预定值时,CPU 120可暂时保持网页图像的缩放因子固定,而不是连续放大或缩小网页图像。
更具体地,当CPU 120根据运动弯曲的程度R(n)来计算缩放因子变化率ΔS时,CPU 120将从缩放因子变化率ΔS与网页图像的当前缩放因子相加得到的值设置为暂时缩放因子Sk。此外,CPU 120根据暂时缩放因子Sk获得最终缩放因子S,并且根据最终缩放因子S显示网页图像。
图10是示出暂时缩放因子Sk与最终缩放因子S之间的关系的图。根据示出的图,当暂时缩放因子Sk在从“0.9”到“1.1”的范围内时,例如,最终缩放因子S被固定地设置为“1”。
以另一方式阐述,即使当连续执行放大/缩小操作并且改变暂时缩放因子Sk时,如果暂时缩放因子Sk在从“0.9”到“1.1”的范围内,那么网页图像的缩放因子也保持固定为1(即,基准缩放因子)。
因此,在便携式终端100中,当用户连续执行放大/缩小操作时,连续放大或缩小网页图像,但是当网页图像的缩放因子达到基准缩放因子时,它被暂时固定为基准缩放因子。
因此,当用户执行放大/缩小操作时,便携式终端100可以容易地将网页图像的缩放因子返回到基准缩放因子。
网页图像的暂时固定缩放因子不限于基准缩放因子(即,×1),并且它可以是其它各个缩放因子之一。例如,当在图像中设置预定块时,可设置缩放因子使得正好在整个屏幕上显示相关块。作为替选,可设置缩放因子使得正好在整个屏幕上显示由例如光标选择的图像。
[2-3.又一实施例3]
在上述实施例中,当CPU 120识别出滚动操作和放大/缩小操作时,CPU 120执行与滚动操作对应的处理和与放大/缩小操作对应的处理。
然而,实施例不限于上述实施例。当CPU 120识别出滚动操作和放大/缩小操作时,它可执行与滚动操作和放大/缩小操作之一对应的处理。
例如,当CPU 120识别出滚动操作和放大/缩小操作时,它可执行与放大/缩小操作对应的网页图像的放大或缩小,而不执行与滚动操作对应的滚动网页图像。
在这样的情况下,当CPU 120检测到在第一触摸屏104上执行的拖动时,它识别滚动操作并且此外确定是否执行放大/缩小操作。
当CPU 120仅识别出滚动操作时,它执行网页图像的滚动。当CPU120识别出滚动操作和放大/缩小操作时,它执行网页图像的放大或缩小。
结果,便携式终端100可以单独执行网页图像的滚动和网页图像的放大或缩小。
另外,便携式终端100可以利用用户仅执行一个拖动操作来无缝地执行在任意方向上滚动网页图像和在任意位置放大或缩小网页图像的操作。
以另一方式阐述,当从在显示屏上进行的操作输入识别出多个手势操作(诸如滚动操作和放大/缩小操作)时,便携式终端100需要执行与多个手势操作对应的多类处理的至少一个。
因此,便携式终端100不但适合于如在上述实施例中响应于一个操作输入来执行多类处理的操作系统,而且适合于如在又一实施例3中响应于一个操作输入来执行一类处理的操作系统。因此,便携式终端100可以实现更多种多样的操作系统。
[2-4.又一实施例4]
在上述实施例中,当CPU 120识别出滚动操作和放大/缩小操作时,CPU 120执行网页图像的滚动和网页图像的放大或缩小。
然而,实施例不限于上述实施例。取决于在放大/缩小操作中画出的圆的尺寸,CPU 120可选择性地执行网页图像的滚动和网页图像的放大或缩小两者,或者仅执行网页图像的放大或缩小。
在这样的情况下,CPU 120根据每特定时间从第一触摸屏104相继发送的输入信号得出三个触摸位置的屏幕坐标,并且确定这三个触摸位置是否位于直线上。如果三个触摸位置不位于直线上,那么CPU 120检测通过三个触摸位置的圆的半径,由此检测通过在显示屏上进行的拖动画出的圆的半径。
如果检测到的圆的半径小于预定值,那么CPU 120执行网页图像的滚动和网页图像的放大或缩小。另一方面,如果检测到的圆的半径不小于预定值,那么CPU 120仅执行网页图像的放大或缩小。随着触摸位置被移动通过的距离增加,检测到的圆的半径增加,并且网页图像被滚动通过的距离也增加。因此,预定值被设置为如下这样的值:当执行网页图像的滚动和网页图像的放大或缩小时,其不使得网页图像难以查看。
因此,当CPU 120识别执行了滚动操作和放大/缩小操作时,如果检测到的圆的半径不小于预定值,那么它仅执行网页图像的放大或缩小,而不滚动网页图像。
结果,CPU 120可以防止网页图像被过度地滚动,因此可以防止网页图像变得难以查看。
另外,当CPU 120识别执行了滚动操作和放大/缩小操作时,如果检测到的圆的半径小于预定值,那么它执行网页图像的滚动和网页图像的放大或缩小。
结果,当利用网页图像的滚动网页图像没有变得难以查看时,CPU120可以响应于一个拖动操作来执行网页图像的滚动和网页图像的放大或缩小。
替选地,当CPU 120识别出滚动操作和放大/缩小操作时,如果每特定时间触摸位置的运动的距离很小,那么它可执行网页图像的滚动和网页图像的放大或缩小。另一方面,当CPU 120识别出滚动操作和放大/缩小操作时,如果每特定时间触摸位置的运动的距离很大,那么它可仅执行网页图像的放大或缩小。
[2-5.又一实施例5]
在上述实施例中,CPU 120在第一触摸屏104上显示网络浏览器屏幕,以显示网页图像。
然而,实施例不限于上述实施例。CPU 120可以以分割的方式在第一触摸屏104和第二触摸屏105上显示网络浏览器屏幕。
在这样的情况下,当在第二触摸屏105上执行放大/缩小操作时,例如,CPU 120可仅放大或缩小在第二触摸屏105上显示的网页图像部分。
以另一方式阐述,当以被分割成多个显示屏的方式显示网页图像时,CPU 120可仅放大或缩小在执行了放大/缩小操作的显示屏上显示的网页图像部分。
结果,便携式终端100使得用户能够以多个不同缩放因子确认网页图像。
替选地,当在第一触摸屏104上执行放大/缩小操作时,例如,CPU 120可放大或缩小在第一触摸屏104和第二触摸屏105上显示的网页图像的全部。
[2-6.又一实施例6]
在上述实施例中,在正继续放大/缩小操作的同时,当运动弯曲的程度R(n)变得不大于放大结束值或不小于缩小结束值时,CPU 120使网页图像的放大或缩小结束。
然而,实施例不限于上述实施例。在正继续放大/缩小操作的同时,当运动弯曲的程度R(n)的变化率(即,在图6的图中示出的R(n)的梯度)变得不大于预定值时,CPU 120可使网页图像的放大或缩小结束。
替选地,CPU 120可根据运动弯曲的程度R(n)的值和运动弯曲的程度R(n)的变化率来使网页图像的放大或缩小结束。
[2-7.又一实施例7]
在上述实施例中,第一触摸屏104和第二触摸屏105每特定时间将输入信号发送到CPU 120。
然而,实施例不限于上述实施例。第一触摸屏104和第二触摸屏105可无规律地将输入信号发送到CPU 120。在这样的情况下,CPU 120可基于根据输入信号得出的触摸位置的屏幕坐标和基于获得相关输入信号的时间,计算运动矢量,以便表示每特定时间触摸位置的运动的量和方向。
[2-8.又一实施例8]
在上述实施例中,当执行放大/缩小操作时,CPU 120以当前触摸位置作为中心来放大或缩小网页图像。
然而,实施例不限于上述实施例。当执行放大/缩小操作时,CPU 120可估计在放大/缩小操作中画出的圆的中心,并且可将估计的中心设置为围绕其放大或缩小网页图像的中心。在这样的情况下,CPU 120例如通过从放大/缩小操作期间的触摸位置的轨迹获得任意三个点并且通过确定通过这三个触摸位置的圆,估计在放大/缩小操作中画出的圆的中心。
[2-9.又一实施例9]
在上述实施例中,CPU 120从在显示屏上进行的操作输入识别滚动操作和放大/缩小操作,然后执行与识别出的手势操作对应的处理。
然而,实施例不限于上述实施例。只要CPU 120从在显示屏上进行的操作输入识别至少一个或多个手势操作,那么CPU 120可另外识别其它各种手势操作,并且可执行与识别出的手势操作对应的处理。
例如,CPU 120针对在显示屏上进行的操作输入,检测每预定时间的运动量和运动弯曲的程度。在该情形下,CPU 120不但可基于运动量而识别滚动操作,而且可例如基于运动弯曲的程度,识别与显示屏的亮度或音量的调整和显示屏的旋转对应的其它手势操作。
另外,在上述实施例中,当在第一触摸屏104上执行滚动操作和/或放大/缩小操作时,CPU 120滚动和/或放大/缩小在第一触摸屏104上显示的网页图像。
然而,实施例不限于上述实施例。CPU 120可在第一触摸屏104上显示其它各种图像,并且可根据滚动操作和/或放大/缩小操作来滚动和/或放大/缩小显示的图像。作为替选,CPU 120可根据在第二触摸屏105上执行的滚动操作和/或放大/缩小操作,滚动和/或放大/缩小在第二触摸屏105上显示的图像。
[2-10.又一实施例10]
在上述实施例中,用作检测单元2的第一触摸屏104和用作检测单元2、用作识别单元3以及用作控制单元4的CPU 120被布置在便携式终端100中,便携式终端100是信息处理设备1的示例。
然而,实施例不限于上述实施例。只要便携式终端100具有相同功能,那么可通过使用其它各种适当硬件或软件部件来构成便携式终端100的上述单元。
例如,检测单元不限于第一触摸屏104,并且还可使用诸如鼠标、模拟摇杆或立体声传感器的、用于识别用户的手势的另一单元,只要它具有检测在显示屏上进行的操作输入的功能即可。
虽然在上述实施例中布置由液晶板和触摸板构成的显示屏,但是替代地可布置具有触摸板功能的液晶显示器。虽然第一触摸屏104和第二触摸屏105被布置在便携式终端100中,但是屏幕布局不限于上述实施例,并且替代地可布置仅一个显示屏或三个或更多显示屏。
在上述实施例中,本发明被应用到便携式终端100。然而,应用形式不限于便携式终端。本发明可以是或者可以被应用到其它各类信息处理设备,例如,蜂窝电话和PDA(个人数字助理),只要在信息处理设备中检测显示屏上的操作输入即可。
[2-11.又一实施例11]
在上述实施例中,用于执行各类处理的程序被写在便携式终端100的ROM 121或存储单元128中。
然而,实施例不限于上述实施例。这些程序可被记录在诸如存储卡的存储介质上,并且便携式终端100中的CPU 120可从存储介质读取程序并且执行它们。此外,可布置闪存以替代ROM 121,并且从存储介质读取的程序可被安装在闪存中。
[2-12.又一实施例12]
本发明不限于上述实施例和其它实施例。换句话说,还可以以将上述实施例与一个或多个其它实施例的部分或全部组合的形式、或以从上述实施例和其它实施例部分提取的形式实践本发明。例如,另一实施例1和又一实施例2可被相互组合。
本领域的技术人员应该理解,在所附权利要求或其等同方案的范围内,根据设计需要和其它因素,可进行各种修改、组合、子组合以及变更。

Claims (21)

1.一种用于控制显示屏的设备,包括:
触敏板,其生成表示第一时间与第二时间之间的单个连续触摸激活的一组位置的位置信号;以及
处理器,其耦合到所述板,所述处理器被配置成:
处理所述信号,以检测所述一组位置的第一和第二特征;并且
生成输出信号,所述输出信号使得显示屏启动与所述第一和第二特征对应的第一和第二操作。
2.根据权利要求1所述的设备,其中,所述第一操作包括滚动操作。
3.根据权利要求1所述的设备,其中,所述第一特征包括所述第一时间处的位置与所述第二时间处的位置之间的距离。
4.根据权利要求3所述的设备,其中,所述处理器进一步被配置成:
对所述距离和预定值进行比较;并且
基于所述比较,确定是否启动所述第一操作。
5.根据权利要求3所述的设备,其中,所述处理器进一步被配置成:
确定越过所述距离的激活的速度;并且
基于所述速度,确定是否启动所述第一操作。
6.根据权利要求1所述的设备,其中,所述第二操作包括缩放操作。
7.根据权利要求1所述的设备,其中,所述第二特征包括所述第一时间处的位置与所述第二时间处的位置之间的弯曲。
8.根据权利要求7所述的设备,其中:
当所述弯曲是顺时针时,所述第二操作包括放大操作;并且
当所述弯曲是逆时针时,所述第二操作包括缩小操作。
9.根据权利要求7所述的设备,其中,所述第二操作包括聚焦在所述弯曲的中心的缩放操作。
10.根据权利要求7所述的设备,其中,所述处理器进一步被配置成基于所述第一时间处的运动矢量与所述第二时间处的运动矢量之间的方向的变化,计算所述弯曲。
11.根据权利要求10所述的设备,其中,所述第二特征还包括所述第一时间处的所述运动矢量的大小和所述第二时间处的所述运动矢量的大小。
12.根据权利要求6所述的设备,其中,所述处理器进一步被配置成:
确定缩放因子;并且
当达到所述缩放因子的预定值时,暂停所述缩放操作。
13.根据权利要求1所述的设备,其中:
所述显示屏包括所述设备的第一显示屏;并且
所述设备还包括第二显示屏。
14.根据权利要求13所述的设备,其中,所述第一显示屏包括所述触敏板。
15.根据权利要求13所述的设备,其中,所述第二显示屏包括所述触敏板。
16.一种用于控制显示屏的方法,包括:
检测从第一时间到第二时间在触摸板上的单个连续触摸激活的一组位置;
基于所述一组位置的第一特征,启动显示屏上的第一操作;以及
基于所述一组位置的第二特征,启动所述显示屏上的第二操作。
17.根据权利要求16所述的方法,其中,启动所述第一和第二操作包括顺序启动所述第一和第二操作。
18.根据权利要求16所述的方法,其中,启动所述第一和第二操作包括同时启动所述第一和第二操作。
19.根据权利要求16所述的方法,其中,检测所述一组位置包括检测在与所述显示屏一致的触摸板上的所述一组位置。
20.根据权利要求16所述的方法,其中,检测所述一组位置包括检测在与所述显示屏不一致的触摸屏上的所述一组位置。
21.一种存储一组指令的非临时性计算机可读介质,当所述一组指令由处理器执行时,其执行一种方法,所述方法包括:
检测从第一时间到第二时间在触摸板上的单个连续触摸激活的一组位置;
基于所述一组位置的第一特征,启动显示屏上的第一操作;以及
基于所述一组位置的第二特征,启动所述显示屏上的第二操作。
CN201010292695.7A 2009-10-02 2010-09-25 信息处理设备、信息处理方法以及信息处理程序 Expired - Fee Related CN102033648B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-230745 2009-10-02
JP2009230745A JP5413111B2 (ja) 2009-10-02 2009-10-02 表示制御装置、表示制御方法及び表示制御プログラム

Publications (2)

Publication Number Publication Date
CN102033648A true CN102033648A (zh) 2011-04-27
CN102033648B CN102033648B (zh) 2017-04-12

Family

ID=43243674

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201010292695.7A Expired - Fee Related CN102033648B (zh) 2009-10-02 2010-09-25 信息处理设备、信息处理方法以及信息处理程序

Country Status (5)

Country Link
US (1) US8847978B2 (zh)
EP (1) EP2309370A3 (zh)
JP (1) JP5413111B2 (zh)
CN (1) CN102033648B (zh)
RU (1) RU2010139528A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103677558A (zh) * 2012-08-29 2014-03-26 三星电子株式会社 用于在电子装置中控制缩放功能的方法和设备
CN104049862A (zh) * 2013-03-15 2014-09-17 三星电子株式会社 用于控制显示功能的方法及其电子装置
CN104969152A (zh) * 2013-01-31 2015-10-07 惠普发展公司,有限责任合伙企业 具有图形表示的触摸手势调节的电子设备
CN105183214A (zh) * 2015-08-04 2015-12-23 网易(杭州)网络有限公司 触控操作识别和响应方法、装置及游戏操控方法、装置
CN106055948A (zh) * 2012-03-23 2016-10-26 原相科技股份有限公司 使用者辨识系统及辨识使用者的方法
CN106648217A (zh) * 2015-10-29 2017-05-10 佳能株式会社 信息处理设备及触摸屏的操作管理方法
CN110262741A (zh) * 2013-12-31 2019-09-20 深圳迈瑞生物医疗电子股份有限公司 医疗设备及其数字图像的分辨率调整方法、装置

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5834512B2 (ja) * 2011-06-13 2015-12-24 カシオ計算機株式会社 情報表示装置及びプログラム
KR101794000B1 (ko) * 2011-06-13 2017-11-06 삼성전자주식회사 터치 스크린을 구비하는 기기에서 스크롤 장치 및 방법
JP5318924B2 (ja) * 2011-08-22 2013-10-16 楽天株式会社 画像表示装置、画像表示方法、画像表示プログラム、及びそのプログラムを記録するコンピュータ読み取り可能な記録媒体
TWI475471B (zh) * 2011-09-19 2015-03-01 Acer Inc 利用觸控螢幕輔助視訊壓縮的方法及監控系統
TW201316240A (zh) * 2011-10-06 2013-04-16 Rich Ip Technology Inc 利用圖形用戶介面影像之觸碰處理方法及系統
JP5451944B2 (ja) 2011-10-07 2014-03-26 パナソニック株式会社 撮影装置及び撮影方法
US9785343B2 (en) * 2011-12-01 2017-10-10 Sony Mobile Communications Inc. Terminal device, image display method, and storage medium
US9230393B1 (en) 2011-12-08 2016-01-05 Google Inc. Method and system for advancing through a sequence of items using a touch-sensitive component
US9146666B2 (en) * 2012-06-21 2015-09-29 Sharp Laboratories Of America, Inc. Touch sensor navigation
JP2014010777A (ja) * 2012-07-02 2014-01-20 Fujitsu Ltd 表示プログラム、表示方法、及び情報処理装置
US10222975B2 (en) 2012-08-27 2019-03-05 Apple Inc. Single contact scaling gesture
TWI573052B (zh) * 2013-02-01 2017-03-01 Can react to the CPU command of the touch display driver circuit
US9778784B2 (en) * 2013-03-14 2017-10-03 Rich IP Technology Inc. Touch display driving circuit capable of responding to CPU commands
US10416867B2 (en) * 2013-06-19 2019-09-17 Sony Corporation Display control apparatus and display control method
JP5948294B2 (ja) * 2013-09-25 2016-07-06 京セラドキュメントソリューションズ株式会社 タッチパネル装置、及びこれを備えた画像形成装置
JP6081338B2 (ja) * 2013-10-02 2017-02-15 レノボ・シンガポール・プライベート・リミテッド ポインティング・スティックを含む入力装置、携帯式コンピュータおよび動作方法
US9665204B2 (en) * 2013-10-04 2017-05-30 Microchip Technology Incorporated Continuous circle gesture detection for a sensor system
CN104199602B (zh) * 2014-08-26 2018-11-09 联想(北京)有限公司 一种信息处理方法及电子设备
US10691317B2 (en) 2014-10-24 2020-06-23 Flow Labs, Inc. Target-directed movement in a user interface
US20180088785A1 (en) * 2015-02-26 2018-03-29 Flow Labs, Inc. Navigating a set of selectable items in a user interface
JP5873592B1 (ja) * 2015-06-15 2016-03-01 株式会社コロプラ 3点スライド操作を判定するためのユーザ・インタフェース・プログラム
US10025492B2 (en) * 2016-02-08 2018-07-17 Microsoft Technology Licensing, Llc Pointing detection
CN110032326A (zh) * 2019-03-29 2019-07-19 网易(杭州)网络有限公司 移动终端显示画面的控制方法、装置、设备和存储介质
JP6853559B1 (ja) 2019-12-25 2021-03-31 株式会社クラップハンズ 操作入力プログラム及び操作入力方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101042300A (zh) * 2006-03-24 2007-09-26 株式会社电装 画面显示装置、画面显示方法及其控制程序
CN101162420A (zh) * 2007-11-29 2008-04-16 天津津科电子系统工程有限公司 基于触摸屏的旋转式连续变速浏览与检索方法
CN101236472A (zh) * 2007-02-01 2008-08-06 英华达(南京)科技有限公司 用以缩放显示影像的方法
CN201174727Y (zh) * 2008-04-02 2008-12-31 嘉兴淳祥电子科技有限公司 复合多功能触摸按键

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0661620B1 (en) * 1993-12-30 2001-03-21 Xerox Corporation Apparatus and method for executing multiple concatenated command gestures in a gesture based input system
JPH1185398A (ja) * 1997-09-11 1999-03-30 Kenwood Corp タッチパネルディスプレー用コマンド入力装置
GB0420367D0 (en) * 2004-09-14 2004-10-13 Ibm Method and system for scaled exponential smoothing
US7456849B2 (en) * 2005-04-15 2008-11-25 Microsoft Corporation System and method for zooming an object through spiral interaction
US20080268901A1 (en) * 2007-03-05 2008-10-30 Ivan Miramontes Slider twister phone
JP4560062B2 (ja) * 2007-03-29 2010-10-13 株式会社東芝 筆跡判定装置、方法およびプログラム
JP2008299474A (ja) 2007-05-30 2008-12-11 Sony Corp 表示制御装置および方法、表示装置、撮像装置、並びに、プログラム
US8681104B2 (en) * 2007-06-13 2014-03-25 Apple Inc. Pinch-throw and translation gestures
TWI374658B (en) * 2007-09-29 2012-10-11 Htc Corp Image process method
WO2009044770A1 (ja) * 2007-10-02 2009-04-09 Access Co., Ltd. 端末装置、リンク選択方法および表示プログラム
EP2065795A1 (en) * 2007-11-30 2009-06-03 Koninklijke KPN N.V. Auto zoom display system and method
JP2009140368A (ja) 2007-12-07 2009-06-25 Sony Corp 入力装置、表示装置、入力方法、表示方法及びプログラム
US20100097322A1 (en) * 2008-10-16 2010-04-22 Motorola, Inc. Apparatus and method for switching touch screen operation
JP5093080B2 (ja) * 2008-12-05 2012-12-05 富士通モバイルコミュニケーションズ株式会社 携帯端末
US20110035700A1 (en) * 2009-08-05 2011-02-10 Brian Meaney Multi-Operation User Interface Tool

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101042300A (zh) * 2006-03-24 2007-09-26 株式会社电装 画面显示装置、画面显示方法及其控制程序
CN101236472A (zh) * 2007-02-01 2008-08-06 英华达(南京)科技有限公司 用以缩放显示影像的方法
CN101162420A (zh) * 2007-11-29 2008-04-16 天津津科电子系统工程有限公司 基于触摸屏的旋转式连续变速浏览与检索方法
CN201174727Y (zh) * 2008-04-02 2008-12-31 嘉兴淳祥电子科技有限公司 复合多功能触摸按键

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106055948A (zh) * 2012-03-23 2016-10-26 原相科技股份有限公司 使用者辨识系统及辨识使用者的方法
CN106055948B (zh) * 2012-03-23 2019-11-08 原相科技股份有限公司 使用者辨识系统及辨识使用者的方法
CN103677558A (zh) * 2012-08-29 2014-03-26 三星电子株式会社 用于在电子装置中控制缩放功能的方法和设备
CN104969152A (zh) * 2013-01-31 2015-10-07 惠普发展公司,有限责任合伙企业 具有图形表示的触摸手势调节的电子设备
CN104969152B (zh) * 2013-01-31 2018-05-18 惠普发展公司,有限责任合伙企业 具有图形表示的触摸手势调节的电子设备
CN104049862A (zh) * 2013-03-15 2014-09-17 三星电子株式会社 用于控制显示功能的方法及其电子装置
CN104049862B (zh) * 2013-03-15 2019-04-26 三星电子株式会社 用于控制显示功能的方法及其电子装置
CN110262741A (zh) * 2013-12-31 2019-09-20 深圳迈瑞生物医疗电子股份有限公司 医疗设备及其数字图像的分辨率调整方法、装置
CN110262741B (zh) * 2013-12-31 2022-06-07 深圳迈瑞生物医疗电子股份有限公司 医疗设备及其数字图像的分辨率调整方法、装置
CN105183214A (zh) * 2015-08-04 2015-12-23 网易(杭州)网络有限公司 触控操作识别和响应方法、装置及游戏操控方法、装置
CN105183214B (zh) * 2015-08-04 2017-12-19 网易(杭州)网络有限公司 触控操作识别和响应方法、装置及游戏操控方法、装置
CN106648217B (zh) * 2015-10-29 2020-07-24 佳能株式会社 信息处理设备及触摸屏的操作管理方法
US11042239B2 (en) 2015-10-29 2021-06-22 Canon Kabushiki Kaisha Information processing device and operation management method for a curved touch panel
CN106648217A (zh) * 2015-10-29 2017-05-10 佳能株式会社 信息处理设备及触摸屏的操作管理方法

Also Published As

Publication number Publication date
EP2309370A3 (en) 2014-07-02
EP2309370A2 (en) 2011-04-13
JP2011081440A (ja) 2011-04-21
US8847978B2 (en) 2014-09-30
RU2010139528A (ru) 2012-03-27
JP5413111B2 (ja) 2014-02-12
US20110080430A1 (en) 2011-04-07
CN102033648B (zh) 2017-04-12

Similar Documents

Publication Publication Date Title
CN102033648A (zh) 信息处理设备、信息处理方法以及信息处理程序
EP4138368B1 (en) User terminal device and control method thereof
US11740764B2 (en) Method and system for providing information based on context, and computer-readable recording medium thereof
US20190095014A1 (en) System and method of page sharing by a device
US9298341B2 (en) Apparatus and method for switching split view in portable terminal
JP6177669B2 (ja) 画像表示装置およびプログラム
CN103097996A (zh) 运动控制触屏方法和装置
CN103246389A (zh) 操作多点触摸面板的方法和支持该方法的终端
CN104272240A (zh) 用于修改在用户界面上的虚拟键盘的系统和方法
CN103838506A (zh) 电子设备及其页面导航方法
CN101963858A (zh) 使用触控装置控制荧幕上光标的定位方法
KR20120016729A (ko) 터치스크린의 제어영역을 설정하는 인터페이스 장치 및 방법
JP2009541875A (ja) 接触感知ディスプレイ上でのジェスチャの速度に応答するブラウジング
CN103168282A (zh) 用于控制基于运动的用户接口的设备和方法
CN101196794A (zh) 滚动方法和设备
JP4045550B2 (ja) 画像表示制御装置及び画像表示制御プログラム
US20150346919A1 (en) Device, Method, and Graphical User Interface for Navigating a Content Hierarchy
CN107111435A (zh) 一种页面滑动方法、装置及用户终端
KR20140055880A (ko) 가상 화면 제어 방법 및 장치
CN102439554B (zh) 用于基于触摸输入执行选择的方法和装置
CN103870179A (zh) 便携终端中触摸屏控制方法及装置
CN108319411A (zh) 一种图表局部放大的方法、装置及电子设备
KR101961907B1 (ko) 사용자 터치 유지 시간에 기초한 이동단말기의 컨텐츠 제공 방법
CN103207747A (zh) 一种信息处理方法及装置
US10019423B2 (en) Method and apparatus for creating electronic document in mobile terminal

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170412

Termination date: 20210925