CN102402327A - 信息处理器、信息处理方法以及计算机程序 - Google Patents

信息处理器、信息处理方法以及计算机程序 Download PDF

Info

Publication number
CN102402327A
CN102402327A CN2011102599216A CN201110259921A CN102402327A CN 102402327 A CN102402327 A CN 102402327A CN 2011102599216 A CN2011102599216 A CN 2011102599216A CN 201110259921 A CN201110259921 A CN 201110259921A CN 102402327 A CN102402327 A CN 102402327A
Authority
CN
China
Prior art keywords
translational speed
finger
display device
manipulator
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011102599216A
Other languages
English (en)
Other versions
CN102402327B (zh
Inventor
笠原俊一
山本一幸
金野律子
成田智也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to CN201610049390.0A priority Critical patent/CN105739764B/zh
Publication of CN102402327A publication Critical patent/CN102402327A/zh
Application granted granted Critical
Publication of CN102402327B publication Critical patent/CN102402327B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

提供了信息处理器、信息处理方法以及计算机程序。信息处理设备包括:检测器,用于检测在关于显示装置的垂直方向上的操纵体的移动;以及处理器,用于基于检测器的输出而确定操纵体的移动速度,并基于所确定的移动速度而确定要执行的处理。

Description

信息处理器、信息处理方法以及计算机程序
对相关申请的交叉引用
本申请根据35U.S.C.§119要求2010年9月7日递交到日本专利局的日本专利申请JP 2010-199638的优先权,其全部内容通过引用合并于此。
技术领域
本公开涉及信息处理器、信息处理方法以及计算机程序。更具体地,本公开涉及用于对GUI执行操纵控制处理的信息处理器、信息处理方法以及计算机程序。
背景技术
由于触摸板可实现直观且易于使用的用户界面(在下文中也简称为“UI”),因此,迄今为止,触摸板已被用于运输设施的票务装置、银行的ATM等等。近年来,触摸板已涉及检测由用户进行的操作,因而已涉及实现与通过使用现有按钮进行的其它操纵不同的、对设备的操纵。因此,近年来,触摸板经常用于诸如移动电话和游戏设备的便携设备。例如,JP-T-2010-506302公开了一种设备,该设备基于对象在位于设备的输入区域附近的出现而在用户接触到触摸板等的输入区域之前就启动触觉反馈,由此在设备上产生触觉效果。
发明内容
然而,利用现有的触摸板,仅从用户的手指接触触摸板的状态中获得可由触摸板检测的、关于用户的手指的信息。为此,可能在用户的手指接触到触摸板以前都无法操纵设备。另外,在用户用他/她的手指接触到触摸板以前,用户都不能识别通过使手指接触到触摸板而执行的是何种处理。
另外,利用现有的触摸板,只能检测触摸到触摸板的手指的状态。因此,当利用该触摸板实现操纵时,难以测量手指多快地接触到该触摸板。同样,也难以测量手指多快地离开该触摸板。即,迄今为止,只能检测手指是否接触到触摸板。这样,存在的限制是,需要通过实现可根据这种检测结果来确定的输入操纵,以对设备进行操纵。
为解决上述问题而提出了本公开,因此,期望提供能够对触摸板中的输入操纵赋予多样性的新颖且改进的信息处理器、信息处理方法以及计算机程序。
根据一个示例性示例,本公开涉及一种信息处理设备,包括:检测器,用于检测在关于显示装置的垂直方向上的操纵体的移动;以及处理器,用于基于检测器的输出而确定操纵体的移动速度,并基于所确定的移动速度而确定要执行的处理。
根据另一示例性示例,本公开涉及一种由信息处理设备执行的信息处理方法,该方法包括:通过该信息处理设备的检测器,检测在关于显示装置的垂直方向上的操纵体的移动;通过该信息处理设备的处理器,基于检测器的输出而确定操纵体的移动速度;以及通过该处理器,基于所确定的移动速度而确定要执行的处理。
根据另一示例性示例,本公开涉及一种包括计算机程序指令的非瞬时计算机可读介质,这些计算机程序指令在被信息处理设备执行时使得该信息处理设备执行信息处理方法,该信息处理方法包括:检测在关于显示装置的垂直方向上的操纵体的移动;基于该检测的输出而确定操纵体的移动速度;以及基于所确定的移动速度而确定要执行的处理。
如在上文中所述,根据本公开,可提供能够对触摸板中的输入操纵赋予多样性的信息处理器、信息处理方法以及计算机程序。
附图说明
图1是示出根据本公开第一实施例的信息处理器的硬件配置的框图;
图2是示出根据本公开第一实施例的信息处理器的硬件结构的说明性透视图;
图3是示出当对象的变形量根据手指的移动速度而改变时对象的显示表达的改变的说明图;
图4是示出第一实施例的信息处理器的功能和配置的框图;
图5是说明用于根据手指的接近状态以及测量时间来获取关于手指的移动速度的信息的处理的说明图;
图6是说明用于根据手指的接近状态以及测量时间来获取关于手指的移动速度的信息的处理的说明图;
图7是说明用于根据显示表面与手指之间的接近距离来获取关于手指的移动速度的信息的处理的说明图;
图8是说明用于在不能检测手指在垂直于显示表面的方向上的移动速度时,获取关于手指的移动速度的信息的处理的说明图;
图9是说明用于在不能检测手指在垂直于显示表面的方向上的移动速度时,获取关于手指的移动速度的信息的处理的说明图;
图10是说明由第一实施例的信息处理器执行的、根据本公开第二实施例的信息处理方法中的对象操纵控制处理的流程图;
图11是说明作为实现轻击操作时GUI的显示表达的改变示例的、用于在画面的向后方向上移动对象的显示表达改变操纵的说明图;
图12是说明如下示例的说明图:在该示例中,当在对象分别与预定功能相关联的情况下选择了相同对象时,根据手指的移动速度而改变用于实现与该对象相关联的功能的处理;
图13是说明如下示例的说明图:在该示例中,执行与手指的移动速度相对应并利用除对象以外的显示区域的处理;
图14是说明通过利用除对象以外的显示区域而将层画面改变为另一层画面的另一示例的说明图;
图15是说明通过利用除对象以外的显示区域而将层画面改变为另一层画面的又一示例的说明图;
图16是说明如下示例的说明图:在该示例中,当在对象分别与预定功能相关联的情况下选择了相同对象时,根据手指的移动速度而实现不同的功能;
图17是说明在第一实施例的信息处理器中执行的接触位置校正处理的说明图;
图18是说明在第一实施例的信息处理器中执行的接触位置校正处理的流程图;
图19是说明如下处理的示例的说明图:该处理用于根据位置信息获取关于用户用他/她的手指轻击显示表面的方向的信息,并根据轻击方向来确定要执行的处理;
图20是说明如下处理的另一示例的说明图:该处理用于根据位置信息获取关于用户用他/她的手指轻击显示表面的方向的信息,并根据轻击方向来确定要执行的处理;
图21是说明如下处理的示例的说明图:该处理用于通过利用手指从显示表面释放时手指的移动速度,来改变对象的选择阶段中的显示表达;
图22是说明如下处理的另一示例的说明图:该处理用于通过利用手指从显示表面释放时手指的移动速度,来改变对象的选择阶段中的显示表达;
图23是说明如下处理的又一示例的说明图:该处理用于通过利用手指从显示表面释放时手指的移动速度,来改变对象的选择阶段中的显示表达;以及
图24是说明如下处理的再一示例的说明图:该处理用于通过利用手指从显示表面释放时手指的移动速度,来改变对象的选择阶段中的显示表达。
具体实施方式
在下文中将参考附图描述本公开的实施例。注意,在描述和附图中,分别利用相同的附图标记来标示基本上具有相同的功能和配置的结构元件,并且为简明起见,在这里省略了对这些结构元件的重复描述。
注意,下面将按照以下顺序进行描述:
1.信息处理器的概述;
2.信息处理器的功能和配置;
3.使用移动速度信息的对象操纵控制处理;以及
4.变型。
1.信息处理器的概述
硬件配置
首先,将参考图1和图2描述根据本公开第一实施例的信息处理器的硬件配置。注意,图1是示出根据本公开第一实施例的信息处理器100的硬件配置的框图。图2是示出根据本公开第一实施例的信息处理器100的硬件结构的说明性透视图。
第一实施例的信息处理器100是包括检测部分的设备。在这种情况下,检测部分可检测显示装置的显示表面上的操纵体的接触位置,也可检测显示装置的显示表面与位于显示表面上方的操纵体之间的接近距离。与设备的功能无关,将各种设备,如包括小显示装置的设备(诸如个人数字助理或智能电话)假设为信息处理器100。此外,下面讨论的示例性实施例将操纵体示出为用户的手指。然而,操纵体也可以是用于向上述设备输入操作的任意装置,诸如笔、指示笔(stylus)或任意其它类似地配置的输入工具。
如图1所示,第一实施例的信息处理器100包括CPU 101、随机存取存储器(RAM)102、非易失性存储器103、显示装置104以及接近触摸传感器105。
CPU 101实现算术运算处理单元和控制器的功能,并根据各种程序控制信息处理器100的总体操作。另外,CPU 101也可以是微处理器。RAM102中临时存储CPU 101在CPU 101的执行中使用的程序,以及在CPU101的执行中适当地改变的参数等。CPU 101、RAM 102、非易失性存储器103、显示装置104以及接近触摸传感器105通过由CPU总线等组成的主机总线而彼此连接。非易失性存储器103中存储CPU 101使用的程序、算术运算参数等。例如,可将只读存储器(ROM)、快闪存储器等用作非易失性存储器103。
显示装置104是用于输出信息的输出装置的示例。例如,可将液晶显示(LCD)装置、有机发光二极管(OLED)装置等用作显示装置104。接近触摸传感器105是用户用来输入信息的输入装置的示例。此外,接近触摸传感器105由输入部、输入控制电路等组成,其中通过输入部来输入信息。在这种情况下,输入控制电路根据用户进行的输入操纵来产生输入信号,并将这样产生的输入信号输出至CPU 101。
如图2所示,在第一实施例的信息处理器100中,接近触摸传感器105是通过被层压在显示装置104的显示表面上而设置的。因此,当用户将他/她的手指等移动得更接近显示装置104的显示表面时,可由接近触摸传感器105检测显示表面与手指之间的距离。到信息处理器的操纵信息的输入
在这种信息处理器100中,当用户将操纵体(诸如他/她的手指)移动得更接近显示装置104的显示表面时,由接近触摸传感器105检测显示表面与操纵体之间的接近距离。信息处理器100根据该接近距离,改变显示装置104上显示的信息的显示形式。在这种情况下,第一实施例的信息处理器100获取手指多快地接触到接近触摸传感器105或者多快地离开接近触摸传感器105,以作为移动速度信息。此外,第一实施例的信息处理器100根据移动速度信息而对输入操纵赋予附加信息。因此,可以对通过使用接近触摸传感器105而进行的输入操纵赋予多样性。
例如,如图3所示,假定显示装置104上显示按钮201的GUI。当接近触摸传感器105检测到手指已接触到显示装置104的显示表面时,信息处理器100以按钮201被手指的下按力压扁的方式来改变显示表达。在这种情况下,信息处理器100以如下方式改变显示表达:当手指的移动速度低于预定速度时,按钮201的压扁量(即变形量)变小,而当手指的移动速度等于或高于预定速度时,按钮201的压扁量变大。以此方式,当手指接触到显示表面时,除了按钮201被压扁这一改变以外,还根据手指的移动速度来改变按钮201的压扁量,由此使得可能对输入操纵赋予多样性。
由于根据附加信息改变GUI的显示表达,因此用户可识别信息处理器100所识别的输入操纵。因此,通过对用户本身进行的操纵输入的反馈,增强了可操作性。另外,以执行与输入操纵相对应的处理的方式来改变手指的移动速度,由此可选择要执行的处理。在下文中,将关于信息处理器100中的功能、配置以及处理进行描述,其中,信息处理器100可获取关于手指相对于显示表面的移动速度的信息,可根据移动速度改变GUI的显示表达,并可选择要执行的处理。
2.信息处理器的功能和配置
首先,将参考图4至图9描述第一实施例的信息处理器100的功能和配置。注意,图4是示出第一实施例的信息处理器100的功能和配置的框图。图5和图6分别是说明用于根据手指的接近状态以及测量时间来获取关于手指的移动速度的信息的处理的说明图。图7是说明用于根据显示表面与手指之间的接近距离来获取关于手指的移动速度的信息的处理的说明图。另外,图8和图9分别是说明用于在不能在垂直于显示表面的方向上检测到手指的移动速度时,获取关于手指的移动速度的信息的处理的说明图。
如图4所示,第一实施例的信息处理器100包括输入显示部分110、位置信息获取部分120、移动速度获取部分130、处理确定部分140、执行处理部分150、显示改变部分160以及设定存储部分170。
输入显示部分110是用于在其上显示信息并用于输入信息的功能部分,并且包括检测部分112和显示部分114。检测部分112对应于图1所示的接近触摸传感器115。例如,可将静电触摸板等用作检测部分112。在这种情况下,检测部分112检测根据显示部分114的显示表面与操纵体之间的接近距离而改变的静电电容的值。
当操纵体以预定距离接近显示部分114的显示表面或比预定距离更接近显示部分114的显示表面时,检测部分112检测到的静电电容的值增加。随着操纵体更加接近显示部分114的显示表面,这样检测到的静电电容的值进一步增加。另外,当操纵体接触到显示部分114的显示表面时,检测部分112检测到的静电电容的值变为最大值。稍后将描述的位置信息获取部分120可根据检测部分112检测到的静电电容的这个值,获取操纵体相对于显示部分114的显示表面的位置信息。检测部分112将这样检测到的静电电容的值作为检测结果输出到位置信息获取部分120。
显示部分114是用于在其上显示信息的输出装置,其对应于图1所示的显示装置104。例如,在显示部分114上显示GUI对象、与GUI对象相关联的内容的实质等。另外,当对象的显示形式被显示改变部分160改变为另一显示形式时,根据由显示改变部分160通知显示部分114的、关于对象的显示改变信息,将完成了显示形式改变后的对象显示在显示部分114上。
位置信息获取部分120根据从检测部分112输入到位置信息获取部分120的检测结果,获取代表操纵体与显示部分114的显示表面之间的位置关系的位置信息。如上所述,随着检测部分112检测到的静电电容值变大,操纵体与显示部分114的显示表面彼此接近。于是,当操纵体接触到显示部分114的显示表面时,检测部分112检测到的静电电容的值变为最大值。在稍后将描述的设定存储部分170中,预先存储关于静电电容的值与接近距离(或接近检测区域)之间的对应关系的信息。位置信息获取部分120根据从检测部分112输入到位置信息获取部分120的静电电容的值,通过参考设定存储部分170,获取关于手指在垂直于显示表面的方向上(在z轴方向上)的位置的信息。
另外,位置信息获取部分120根据从检测部分112输入到位置信息获取部分120的检测结果,指定操纵体在显示部分114的显示表面上(即在xy平面上)的位置。例如,假定位置信息获取部分120由静电传感器基底组成,在该静电传感器基底中形成用于检测x坐标和y坐标的静电检测网格。此时,检测部分112可根据与操纵体的接触相对应的、每个网格中的静电电容的值的改变,指定操纵体在静电传感器基底(即在显示表面上)上的位置。例如,可将静电电容的值最大的坐标位置指定为手指最接近显示部分114的显示表面的位置的坐标。或者,可将检测到等于或大于预定值的静电电容的值的那个区域的重心位置指定为手指最接近显示部分114的显示表面的位置的坐标。
以此方式,位置信息获取部分120可获取操纵体相对于显示部分114的显示表面的位置信息。将这样获取的操纵体的位置信息从位置信息获取部分120输出至移动速度获取部分130和处理确定部分140中的每一个。
移动速度获取部分130获取代表手指相对于显示部分114的显示表面的移动速度的移动速度信息。可根据检测部分112的可获取的信息来确定获取移动速度信息的方法。这里,将参考图5至图9来描述获取移动速度信息的方法。
移动速度信息的获取
首先,当不能根据从检测部分112获取的检测结果,来获取显示部分114的显示表面与在垂直于显示部分114的显示表面的方向上的手指之间的距离时,移动速度获取部分130测量直到被检测到预定接近状态的手指接触到显示表面为止的时间段,由此可获取手指的测量速度。这里,假定当手指位于距显示表面以接近检测距离d的位置时,获得预定接近状态。例如,如图5所示,当将手指移动到更接近显示表面并用手指实现轻击操作时,可通过使用直到手指接触到显示表面的时间(接触检测时间ttouch)与检测到接近状态的时间(接近状态检测时间thover)之间的差以及接近检测距离d,根据公式(1)来获取手指的移动速度Vtap
Vtap=d/(thover-ttouch)                       ...(1)
同样,如图6所示,当实现用于使手指离开显示表面的操作时,可通过使用释放手指的接近状态的时间(接近状态释放检测时间thoverRelease)与释放手指相对于显示表面的接触状态的时间(接触释放检测时间thover)之间的差以及接近检测距离d,根据公式(2)来获取手指的移动速度Vrelease
Vrelease=d/(thoverRelease-trelease)             ...(2)
另外,当可根据检测部分112获取的检测结果,来获取显示部分114的显示表面与在垂直于显示部分114的显示表面的方向上的手指之间的距离时,如图7所示,移动速度获取部分130可通过实现关于接近距离Z(t)的时间微分来获取手指的移动速度V(t)。即,可通过公式(3)表达移动速度V(t):
V(t)=dZ(t)/dt                                      ...(3)
然而,当未能检测到手指在与显示表面垂直的方向上的移动速度时,可以获取手指在xy平面上的移动向量,并可以将通过使用该移动向量而获取的速度向量作为手指在垂直方向上的移动速度。例如,如图8所示,当将手指移动到更接近显示表面以实现轻击操纵时,获取作为x方向上的移动距离x(t)的时间微分值的Vx(t)以及作为y方向上的移动距离y(t)的时间微分值的Vy(t)。另外,获取根据手指在xy平面上的移动向量而计算的移动向量,以作为VZ(t)。此外,在如图9所示的用于使手指离开显示表面的操作的情况下,同样,可获取根据手指在xy平面上的移动向量而计算的移动向量,以作为VZ(t)。
注意,根据检测部分112检测到的静电电容值的量值,可确定是手指接触到显示表面还是使手指离开显示表面。
以此方式,移动速度获取部分130获取代表手指相对于显示部分114的显示表面的移动速度的移动速度信息,并将这样获取的移动速度信息输出至处理确定部分140。
返回到图4,处理确定部分140根据手指的位置信息及移动速度信息,确定显示部分114上显示的对象的显示形式、与对象相关联的处理(功能)的执行等。处理确定部分140指定将对象显示在与手指的位置信息相对应的位置,并根据移动速度信息来确定与对象相关联的处理以及对象的显示表达的改变。在这种情况下,将移动速度信息用作附加信息。于是,处理确定部分140可根据手指的移动速度来改变显示表达,并可根据移动速度信息来选择要执行的处理。处理确定部分140将所确定的处理的内容输出至执行处理部分150或显示改变部分160中的至少一个。
执行处理部分150根据处理确定部分140所确定的处理的内容,执行与对象相关联的处理。由执行处理部分150实现与操纵输入相对应的功能。
显示改变部分160根据处理确定部分140所确定的处理的内容,改变显示部分114上显示的显示信息。例如,显示改变部分160生成用于对象的显示形状的改变或用于所显示的对象的改变的图像,并将关于该图像的信息输出至显示部分114。
设定存储部分170计算操纵体与显示表面之间的接近距离,并生成操纵体在显示表面上的位置信息。除此之外,设定存储部分170中将在用于改变对象的显示形式的处理期间使用的信息存储为设定信息。例如,设定存储部分170中存储关于静电电容的值与接近距离之间的对应关系的信息。位置信息获取部分120可通过参考该对应关系,获取与从检测部分112输入至位置信息获取部分120的静电电容的值相对应的位置的信息。另外,在设定存储部分170中存储与用户对对象实现的操纵输入相对应的处理的内容。设定存储部分170中存储的设定信息可以是预先存储的,也可以由用户来设定。
注意,第一实施例的信息处理器100可以包括存储器等,该存储器等用于在其中临时存储用于改变对象的显示形式的处理等所必需的信息。
3.使用移动速度信息的对象操纵控制处理
由于包括上述功能,因此第一实施例的信息处理器100可获取手指相对于显示表面的位置的信息以及手指相对于显示表面的移动速度的信息。信息处理器100通过使用这些信息,控制显示部分114上显示的对象操纵的信息,由此使得可对输入到信息处理器100的操纵赋予多样性。在下文中,将参考图10,描述由第一实施例的信息处理器100执行的、根据本公开第二实施例的信息处理方法中的对象操纵控制处理。这里,图10是说明由第一实施例的信息处理器执行的、根据本公开第二实施例的信息处理方法中的对象操纵控制处理的流程图。
当手指移动到更接近于或接触到显示部分114的显示表面并因而由检测部分112检测到静电电容值的改变时,信息处理器100的位置信息获取部分120获取手指相对于显示部分114的显示表面的位置的信息(S100)。例如,如上所述,当位置信息获取部分120由静电传感器基底组成而该静电传感器基底上形成用于检测x坐标和y坐标的静电检测网格时,位置信息获取部分120可将具有最大的静电电容值的坐标位置或者检测到等于或大于预定值的静电电容值的那个区域的重心位置,确定为手指最接近显示表面的位置在xy平面上的坐标。
另外,位置信息获取部分120还获取在垂直于显示表面的方向上(z方向上)的位置的信息。取决于检测部分112可检测到的信息,手指在z方向上的位置的信息是不同的。例如,当检测部分112可获取从显示表面到手指的接近距离时,接近距离给出了z方向上的位置信息。另外,当检测部分112可检测到手指位于显示表面与距显示表面以接近检测距离d的位置之间的区域(接近检测区域)中时,z方向上的位置信息变成关于手指是否存在于接近检测区域中以及手指是否接触显示表面的信息。
注意,即使当检测部分112未能获取手指在z方向上的位置的信息时,也可执行图10所示的对象操纵控制处理。因此,在步骤S100,仅需要能够至少获取手指在xy平面上的位置。位置信息获取部分120将这样获取的位置信息输出至移动速度获取部分130和处理确定部分140中的每一个。
接下来,移动速度获取部分130根据从位置信息获取部分120输入到移动速度获取部分130的位置信息,获取代表手指的移动速度的移动速度信息(S110)。这里,移动速度信息仅需至少包含在显示表面的垂直方向上,即在z方向上的测量速度的信息。另外,只有当处理确定部分140执行的确定处理需要手指在x方向上的测量速度和在y方向上的测量速度时,才需要获取手指在x方向上的测量速度和在y方向上的测量速度。可以通过使用步骤S100中获取的位置信息来获取手指在z方向上的移动速度。在这种情况下,如上所述,移动速度获取部分130适当地实现这样的方法:通过使用该方法,根据位置信息中包含的信息可获取z方向上的移动速度,由此获取移动速度信息。移动速度获取部分130将这样获取的移动速度信息输出至处理确定部分140。
另外,处理确定部分140根据手指的位置信息及移动速度信息二者,确定用户进行的操纵输入所要执行的处理(S120)。在步骤S120,除了关于手指的基本运动(诸如轻击操作和滚动运动)的信息之外,还将关于手指的移动速度的信息用作附加信息,由此确定用户进行的操纵输入所要执行的处理的内容(S130、S140)。
例如,如图3所示,当显示装置104上显示按钮201的GUI并且用户用他/她的手指接触显示有按钮201的位置时,将按钮201的显示表达改变为按钮201被压扁了的显示表达。此时,处理确定部分140通过参考设定存储部分170,确定手指的移动速度是否高于(大于)预定速度(阈值)(S120)。另外,当在步骤S120确定手指的移动速度高于预定速度(是)时,处理确定部分140将这种情况与手指的移动速度等于或低于预定速度的情况相比较,由此增加按钮201的压扁量(S130:第一处理)。另一方面,当在步骤S120确定手指的移动速度等于或低于预定速度(否)时,以如下方式改变显示表达:以预先设置的按钮201的参考压扁量来压扁按钮201(S140:第二处理)。
以此方式,处理确定部分140可根据手指的移动速度来确定按钮201的压扁量,并可根据手指的移动速度改变GUI的显示表达。处理确定部分140将这样确定的处理的内容输出至执行处理部分150或显示改变部分160中的至少一个(S150)。由于在图3的情况下,根据手指的移动速度将按钮201的显示表达改变为另一显示表达,因此处理的内容至少输出至显示改变部分160。显示改变部分160以如下方式改变GUI:以处理确定部分140中所确定的按钮201的压扁量来压扁按钮;并且将关于这样改变的GUI的信息输出至显示部分114。以此方式,用户可以可视地识别取决于手指的不同移动速度的操纵输入。
注意,当按钮201与对应于手指的不同移动速度的不同处理相关联时,将处理确定部分140所确定的处理的内容输出至执行处理部分150。执行处理部分150根据处理内容,执行与按钮201相关联的处理。因此,用户也可通过改变手指的移动速度来选择要执行的处理。
到目前为止,已关于由第一实施例的信息处理器100执行的、根据本公开第二实施例的信息处理方法中使用移动速度信息的对象操纵控制处理而进行了描述。根据本公开第二实施例,当根据从检测部分112获取的检测结果而检测到用户用他/她的手指实现了轻击显示表面的操作时,处理确定部分140根据实现轻击操作时手指的移动速度来确定要执行的处理的内容。因此,可对触摸板中的输入操纵赋予多样性。
4.变型
由第一实施例的信息处理器100执行的、第二实施例的信息处理方法中的对象操纵控制处理,也可应用于除图3所示的GUI显示表达改变的情况以外的情况。在下文中,将依次描述由第一实施例的信息处理器100执行的、第二实施例的信息处理方法中的对象操纵控制处理的应用示例。注意,在以下描述中,除特别提到的情况以外,手指的移动速度均意味着手指在垂直于显示部分114的显示表面的方向上(即在z方向上)的移动速度。
GUI的表达改变:在向后方向上沉没的显示
图11是说明作为实现轻击操作时GUI的显示表达的改变示例的、用于在画面的向后方向上移动对象的显示表达改变处理的说明图。在这种情况下,当对显示表面实现轻击操作的手指的移动速度高于预定速度时,可以在画面的向后方向上移动对象。如图11所示,假定在显示部分114上显示由多个对象组成的对象群组202。在未接收到操纵输入的状态下,对象群组202中的多个对象被布置在与显示部分114的显示表面平行的相同表面上。
例如,假定对对象群组202中的多个对象中的对象202a实现了轻击操作。处理确定部分140根据从获取部分120获取的位置信息,检测期望对对象202a实现的操纵。另外,处理确定部分140通过利用上述的第二实施例的信息处理方法,从移动速度获取部分130获取关于实现轻击操作的手指的移动速度的信息。当确定手指的移动速度等于或低于预定速度时,不改变对象202a的显示表达。另一方面,当确定手指的移动速度高于预定速度时,处理确定部分140确定以如下方式改变显示表达:手指期望接触的对象202a被手指移动力处理为沉没到画面的后方。假定在设定存储部分170中存储关于要改变的处理内容的信息。
处理确定部分140将所确定的处理内容输出至显示改变部分160。显示改变部分160根据处理内容,以如下方式改变显示信息:显示部分114上显示的对象202a沉没到画面的后方。另外,显示改变部分160使得显示部分114上显示在显示信息的改变完成之后的对象。以此方式,如图11所示,改变了对象202a的显示表达。以此方式,根据实现轻击操作的手指的移动速度来改变对象的显示表达,由此用户可以可视地识别实现了何种操纵输入。另外,当对象与预定处理相关联时,也可根据期望用来选择对象的手指的移动速度,改变要执行的处理。因此,可根据实现轻击操作的手指的移动速度来选择要执行的处理。
与手指的移动速度相对应的处理的执行(功能执行确认)
当在对象与预定功能相关联的情况下选择相同对象时,也可根据手指的移动速度而改变用于实现与该对象相关联的功能的处理。在图12所示的示例中,通过用手指轻击期望对象而实现与所涉及的对象相关联的功能。例如,用手指轻击对象群组202中的对象202a,在显示部分114上显示对象203。
当处理确定部分140根据由位置信息获取部分120获取的位置信息而检测到已经用手指轻击了对象202a时,处理确定部分140确定手指的移动速度是否高于预定速度,其中关于手指的移动速度的信息是由移动速度获取部分130获取的。此外,当确定手指的移动速度等于或低于预定速度时,处理确定部分140不是使显示部分114改变对象202a的显示表达,而是确认与对象202a相关联的功能的实现是正确的还是错误的。例如,关于该功能的实现是正确的还是错误的,可以以弹出显示、声音等的形式来实现。此外,当用户允许实现该功能时,实现该功能,并在显示部分114上显示对象203。
另一方面,当确定手指的移动速度高于预定速度时,处理确定部分140使显示改变部分160以对象202a沉没到画面的后方的方式来改变对象202a的显示表达。此外,处理确定部分140直接实现与对象202a相关联的功能并通过使用显示改变部分160而使显示部分114上显示对象203,而不由用户确认该功能的执行是正确的还是错误的。
以此方式,可根据期望用来选择对象的手指的移动速度,确定用于实现与对象相关联的功能的处理。例如,当期望直接实现该功能而不显示用于由用户确认该功能的实现是正确的还是错误的消息时,用户仅需要快速移动他/她的手指来实现轻击操作。
与手指的移动速度相对应的处理的执行(利用除对象以外的显示区域)
在对象与预定功能相关联的情况下,通常,即使当用户用手指触摸了除对象以外的显示区域时,也根本不发生反应。利用第一实施例的信息处理器100,当通过利用能够获取关于手指的移动速度的信息的功能,检测到以高于预定速度的速度在除对象以外的显示区域中实现了轻击操作时,层画面也可从显示部分114上当前显示的层画面改变为下一层画面。
例如,如图13所示,假定在第一层画面210上显示由对象202a等组成的对象群组202。对象分别与预定功能相关联,并且用手指轻击期望对象,由此可实现与期望对象相关联的功能。另一方面,即使当以等于或低于预定速度的速度在除对象以外的显示区域中实现轻击操作时,也不实现某种功能,并且显示部分114的显示内容也根本不改变。
然而,当以高于预定速度的速度在除对象以外的显示区域中实现轻击操作时,例如,如图13所示,层画面从显示对象群组202的第一层画面210改变为显示有对象群组204的第二层画面。参考图13,以如下方式改变层画面:第一层画面210被移动为稍微落入画面的后方,由此显示第二层画面220。
以此方式,当轻击显示区域的手指的移动速度高于预定速度时,通过利用除对象以外的显示区域,实现了实现层画面改变操纵的功能。用户可直观地实现层画面改变操纵。另外,只有在手指的移动速度高于预定速度的情况下,才实现层画面改变功能。因此,即使当期望用手指轻击对象时却错误地用手指轻击除对象以外的显示区域,在手指的移动速度等于或低于预定速度的情况下,也并不实现层画面改变功能,因而可防止造成误操作。
图14和图15示出了其它示例,在每个示例中,通过利用除对象以外的显示区域来将层画面改变为另一层画面。分别在图14和图15所示示例中的每一个中,当用手指轻击除对象以外的显示区域时,旋转层画面210。在这种情况下,以如下方式改变层画面:当层画面210被旋转180°时,显示第二层画面220。
例如,如图14所示,在除对象以外的显示区域中设置输入区域205a和205b,在输入区域205a和205b中的每一个中接收用于实现层画面改变的操纵输入。例如,输入区域205a和205b可以分别设置在显示区域的两端。当用户以高于预定速度的移动速度来移动他/她的手指以对输入区域205a实现轻击操作时,以层画面210被手指的下按力旋转的方式,在顺时针方向上旋转层画面210。另外,以如下方式改变层画面:当第一层画面210被旋转了180°时,例如显示第二层画面220A,其中在第二层画面220A中显示对象204A。
另外,如图15所示,当用户以高于预定速度的移动速度来移动他/她的手指以实现对输入区域205b的轻击操作时,以层画面210被手指的下按力旋转的方式,在逆时针方向上旋转层画面210。另外,以如下方式改变层画面:当第一层画面210被旋转了180°时,显示第二层画面220B,其中在第二层画面220B中显示对象204B。
以此方式,以显示对象的层画面被旋转的方式而改变层画面,由此用户可直观地实现层画面改变操纵,并可接收画面中的改变而不会感到不舒服的感觉。注意,即使当在除对象以外的显示区域中的除输入区域205a和205b以外的区域中实现轻击操作时,也不会实现某种功能,并且显示部分114的显示内容也根本不改变。同样,即使当以等于或低于预定速度的移动速度在该区域中实现轻击操作时,也不会实现某种功能,并且显示部分114的显示内容也根本不改变。因此,可防止造成误操作。
与手指的移动速度相对应的处理的执行(不同功能的实现)
利用第一实施例的信息处理器100,当在对象分别与预定功能相关联的情况下选择了相同对象时,可根据手指的移动速度而实现不同的功能。例如,如图16所示,假定在显示部分114上显示由多个对象组成的对象群组202。用手指轻击期望对象,由此实现与期望对象相关联的功能。此时,一个对象与多个功能相关联,其中根据轻击所涉及的对象的手指的移动速度而分别实现这些功能。
例如,如图16所示,当以等于或低于预定速度的移动速度用手指轻击对象202a(正常轻击)时,处理确定部分140使得执行与对象202a相关联的正常功能。另一方面,当以高于预定速度的移动速度用手指轻击对象202a(快速轻击)时,处理确定部分140使得对象群组202展开为列表,以便显示所涉及的对象202a中包含的所有对象。以此方式,改变轻击相同对象的手指的移动速度,由此可分配不同的操纵,因而可增强可操作性。
例如,当根据日期和内容而对诸如照片和图像的内容进行分组时,示出了以群组的典型内容作为对象的对象群组202。另外,当以等于或低于预定速度的移动速度来针对组成对象群组202的各对象中的任意一个实现正常轻击时,选择这些典型内容。另一方面,当以高于预定速度的移动速度来针对组成对象群组202的各对象中的任意一个实现轻击操作时,以列表的形式显示由与这些典型内容属于相同群组的内容所组成的对象群组204。以此方式,当对象按层级排列时,改变轻击对象的手指的移动速度,由此可改变要显示的层级,并也可实现期望内容。
接触位置校正处理
如上所述,第一实施例的信息处理器100根据轻击对象的手指的移动速度,改变GUI的显示表达以及要执行的处理。此时,当手指的移动速度太高时,显示表面上用户并未打算用他/她的手指轻击的对象被确定为被轻击的可能性变大,因而恐怕导致误操作。为了处理这种情况,利用第一实施例的信息处理器100,也可以根据手指的移动速度来校正手指接触对象的位置。在下文中,将参考图17和图18描述根据手指的移动速度来执行接触位置校正处理。这里,图17是说明在第一实施例的信息处理器100中执行的接触位置校正处理的说明图。此外,图18是说明在第一实施例的信息处理器100中执行的接触位置校正处理的流程图。
如图17所示,假定在显示部分114上显示被划分为多个区域的对象206。用户将他/她的手指移动到更接近对象206,由此可聚焦与他/她的手指被移动到的更接近的位置相对应的区域。在图17中,聚焦对象206的区域206a。当从这种状态开始时,用户将他/她的手指移动到显示部分114的显示表面上,以使得他/她的手指接触到对象206的一部分,根据手指的移动速度来校正所选择的对象206的区域。
当手指的移动速度高于预定速度时,使用手指的选择操纵的精确度减小,容易选择不同于期望位置的位置。于是,利用第一实施例的信息处理器100,假定当实现轻击操作的手指的移动速度等于或低于预定速度时,选择位于手指所接触的位置的聚焦区域。在图17中,选择手指所接触的区域206b。另一方面,假定当实现轻击操作的手指的移动速度高于预定速度时,不选择位于手指所接触的位置的区域,而是选择恰在手指的接触之前所聚焦的区域。即,不认为选择了手指所接触的区域206b,而是认为选择了恰在手指的接触之前所聚焦的区域206a。
更具体地,信息处理器100的处理确定部分140根据由位置信息获取部分120获取的位置信息,确定手指是否位于接近检测区域中(S200)。当在S200中确定手指未位于接近检测区域中(否)时,重复执行步骤S200中的处理。另一方面,当在S200中确定手指位于接近检测区域中(是)时,处理确定部分140使显示改变部分160聚焦与手指的位置相对应的对象206的区域(S210)。
此后,处理确定部分140确定手指是否已接触到显示部分114的显示表面(S220)。当在步骤S220中确定手指未接触到显示表面(否)时,重复执行从S200至S220的三项处理。另一方面,当在步骤S220中确定手指已接触到显示表面(是)时,处理确定部分140确定手指的测量速度是否高于预定速度(阈值)(S230),其中关于手指的测量速度的信息是由移动速度获取部分130获取的。另外,当在步骤S230中确定手指的测量速度高于预定速度(是)时,如图17右上部分所示,认为选择了恰在手指的接触之前所聚焦的区域(S240)。即,把要选择的区域从与手指接触到的位置相对应的区域校正为恰在手指的接触之前所聚焦的区域,并且实现与所涉及的区域相关联的功能。这里,当能检测从显示表面到手指的接近距离时,恰在手指的接触之前所聚焦的区域意味着与恰在手指的接触之前检测到的位置相对应的区域;而当未能检测到接近距离时,恰在手指的接触之前所聚焦的区域意味着与手指已进入接近检测区域时手指的位置相对应的区域。
另一方面,当在步骤S230中确定手指的移动速度等于或低于预定速度(否)时,如图17右下部分所示,选择与手指接触到的位置相对应的区域(S250)。因此,当对尺寸比手指尺寸小得多的GUI实现操纵时,用户用他/她的手指缓慢轻击对象,由此可精确地选择期望区域。与轻击的方向相对应的处理的执行
第一实施例的信息处理器100可通过使用位置信息获取部分120,获取手指相对于显示部分114的显示表面的位置的信息。然后,可以根据位置信息获取关于用手指轻击显示表面的方向的信息,并且可以根据用手指轻击显示表面的方向而确定要执行的处理。
例如,如图19所示,假定在显示部分114上显示由成堆状的对象207a、207b、...组成的对象群组207。为了确认与组成对象群组207的对象207a、207b、...的接触的目的,必需展开对象群组207。然而,在这种情况下,可根据用于操纵对象群组207的手指的轻击方向而改变如何展开对象群组207。
例如,当用户用他/她的手指轻击对象群组207、同时倾斜地移动他/她的手指时,对要滑动的成堆状的对象207a、207b、...而言,对象群组207被展开为沿着手指的移动方向而彼此紧靠地堆积的成堆状的对象207a、207b、...(滑动展开)。另外,当通过轻击操作而从这样展开的对象群组207中选择一个对象(例如对象207d)时,执行与对象207d相关联的处理。
另一方面,当用户通过在近似垂直于显示部分114的显示表面的方向上移动他/她的手指来用他/她的手指轻击对象群组207时,以列表的形式来显示组成对象群组207的对象207a、207b、...,使得所有的对象207a、207b、...都可被用户看见。另外,当通过与滑动展开的情况相类似的轻击操作来从以列表形式显示的对象群组207中选择一个对象(例如对象207d)时,执行与对象207d相关联的处理。
以此方式,根据用户轻击对象群组207的手指的移动方向而改变如何展开对象群组207,由此可展开对象群组207而不会给用户带来不舒服的感觉。
另外,当通过如图19所示的滑动展开来展开的对象群组207被进一步与多个对象关联时,可以根据轻击位于较高层级的对象的手指的移动方向,来滑动展开位于较低层级的对象。假定如图20的状态(A)所示,以一条线展开由多个对象208a、208b、...组成的对象群组208。此时,当用户用他/她的手指轻击对象208a、同时倾斜地移动他/她的手指时,如图20的状态(B)所示,沿着手指的移动方向来展开相对于对象208a而处于较低层级的对象a1、a2和a3。因此,可展开对象群组208而不会给用户带来不舒服的感觉。
与手指的移动速度相对应的对象选择
与获取用手指轻击显示表面时手指的移动速度的信息的情况相类似,第一实施例的信息处理器100也可获取手指从显示部分114的显示表面释放时手指的移动速度的信息。通过利用手指从显示部分114的显示表面释放时手指的移动速度,可改变期望对象的选择阶段中的显示表达,因而可以以视觉上易于了解的表达向用户通知期望对象的选择状态。
例如,考虑如下:当在从显示表面释放手指的阶段中手指的移动速度高于预定速度时,将对象没定为处于选择状态下。如图21所示,假定在显示部分114上显示由多个对象209a组成的对象群组209。用户以高于预定速度的速度来从显示部分114的显示表面释放他/她的手指,由此使得可整体地选择对象群组209。即,当手指的移动速度等于或低于预定速度时,不将对象群组209设定为处于选择状态下。如图21所示,在处理确定部分140使显示改变部分160表达使对象群组209浮动以便跟随手指的释放操作的状态之后,处理确定部分140使显示改变部分160显示如下状态:在经过预定时间之后,浮动的对象群组209返回到初始的稳定状态。
另一方面,当手指的移动速度高于预定速度时,如图22所示,处理确定部分140使显示改变部分160表达使对象群组209随着手指的释放操作而浮动的状态。另外,即使当手指离开了接近检测区域或者在对象群组209的显示状态改变后经过了预定时间时,也原样保留对象群组209的浮动表达。通过采用以象征形式表达“风”或“风压”的方式,可以以易于理解的方式可视地通知用户对象群组209被保持在选择状态下。
另外,与图21和图22的示例相反,当从显示表面释放手指时手指的移动速度等于或低于预定速度时,可以将对象群组209设定为处于选择状态下。在这种情况下,以象征形式表达“勾起(fishing)”。即,当手指的移动速度等于或低于预定速度时,如图23所示,处理确定部分140使得显示改变部分160以对象群组209随着手指的释放操作而浮动的方式来实现表达。另外,当手指从显示表面释放时,也如此表达对象群组209,以便浮动离开稳定状态下的位置并浮动离开显示表面。以此方式,以浮动状态表达对象群组209,由此可示出对象群组209被保持在选择状态下。
另一方面,当手指的移动速度高于预定速度时,如图24所示,处理确定部分140使显示改变部分160以对象群组209随着手指的释放操作而浮动的方式来实现表达。此后,处理确定部分140使显示改变部分160以如下方式实现显示:在经过预定时间之后,浮动的对象群组209返回到初始的稳定状态。以此方式,将对象群组209设定为处于选择状态下,因而可以以易于理解的方式可视地通知用户对象群组209被保持在选择状态下。
注意,在图21至图24的示例中,为了释放对象群组209的选择状态的目的,例如仅必需实现用于使手指接触到被保持在选择状态下的对象群组209的操纵输入操作。
到目前为止,已关于由第一实施例的信息处理器100执行的第二实施例的、使用关于手指的移动速度的附加信息的信息处理方法而进行了描述。除了正常输入操纵之外,还可获取手指的移动速度,由此可根据手指的移动速度来改变GUI的显示表达。因此,可以以易于理解的方式,使用户识别信息处理器100所识别的输入操纵。因此,由用户本身进行的操纵输入操作的反馈增强了可操作性。另外,改变手指的移动速度,以便执行与输入操纵相对应的处理,这导致可选择要执行的处理。
尽管到目前为止已参考附图详细描述了本公开的优选实施例,然而本公开决不限于此。显然,本公开所属技术领域的普通技术人员可想出所附权利要求中描述的技术构思的范畴之内的各种改变和变型,并且应理解,各种改变和变型自然属于本公开的技术范围。
例如,尽管在上述实施例中,确定手指的移动速度是否高于一个关于速度的阈值(预定速度),并且根据确定结果来确定要执行的处理,然而本公开决不限于此。例如,可以设置多个阈值,并且可相对于阈值中的每一个,根据手指的移动速度的量值来确定要执行的处理。

Claims (20)

1.一种信息处理设备,包括:
检测器,被配置为检测在关于显示装置的垂直方向上的操纵体的移动;以及
处理器,被配置为基于所述检测器的输出而确定所述操纵体的移动速度,并基于所确定的移动速度而确定要执行的处理。
2.如权利要求1所述的信息处理设备,其中,所述检测器被配置为:检测所述显示装置的表面与所述操纵体之间的距离以及所述操纵体在所述显示装置的表面上的接触位置。
3.如权利要求1所述的信息处理设备,其中,所述检测器为静电触摸板,所述静电触摸板被配置为检测基于所述操纵体与所述显示装置的表面之间的距离的静电电容的值。
4.如权利要求3所述的信息处理设备,其中,所述处理器被配置为:通过将所述静电触摸板检测到的静电电容的值与所存储的、与相应距离信息相关联的静电电容值进行比较,确定所述显示装置的表面与所述操纵体之间的距离。
5.如权利要求2所述的信息处理设备,其中,所述处理器被配置为:基于第一时间与第二时间之间的差来确定所述移动速度,其中,所述第一时间对应于所述检测器检测到所述操纵体位于距所述显示装置的表面预定距离处的时间,而所述第二时间对应于所述检测器检测到所述操纵体接触到所述显示装置的表面的时间。
6.如权利要求2所述的信息处理设备,其中,所述处理器被配置为:基于第一时间与第二时间之间的差来确定所述移动速度,其中,所述第一时间对应于所述检测器检测到所述操纵体接触到所述显示装置的表面的时间,而所述第二时间对应于所述检测器检测到所述操纵体位于距所述显示装置的表面预定距离处的时间。
7.如权利要求1所述的信息处理设备,其中,所述处理器被配置为:基于所确定的移动速度,控制所述显示装置改变所述显示装置上显示的图像的形式或形状。
8.如权利要求1所述的信息处理设备,其中,所述处理器被配置为:基于所确定的移动速度,控制所述显示装置改变所述显示装置上显示的图像的垂直深度。
9.如权利要求1所述的信息处理设备,其中,所述处理器被配置为:以与所确定的移动速度相对应的线性关系,控制所述显示装置改变所述显示装置上显示的图像的形式或形状。
10.如权利要求1所述的信息处理设备,其中,所述处理器被配置为:将所确定的移动速度与预定阈值相比较。
11.如权利要求10所述的信息处理设备,其中,所述处理器被配置为:当所述移动速度大于所述阈值时,执行第一处理,而当所述移动速度小于所述阈值时,执行第二处理。
12.如权利要求10所述的信息处理设备,其中,所述处理器被配置为:当所述移动速度大于所述阈值时,执行对应于所选择的对象的处理,而当所述移动速度小于所述阈值时,显示与对应于所选择的对象的处理有关的信息。
13.如权利要求10所述的信息处理设备,其中,所述处理器被配置为:当所述移动速度大于所述阈值时,控制所述显示装置在显示屏之间进行切换,而当所述移动速度小于所述阈值时,控制所述显示装置不在显示之间进行切换。
14.如权利要求10所述的信息处理设备,其中,所述处理器被配置为:当所述移动速度小于所述阈值时,执行对应于所选择的对象的处理,而当所述移动速度大于所述阈值时,控制所述显示装置显示关于所选择的对象的更详细的信息。
15.如权利要求10所述的信息处理设备,其中,在已在所述显示装置上选择第一对象且检测到的移动与对所述显示装置上显示的第二对象的选择相对应之后,所述处理器被配置为:当所述移动速度小于所述阈值时,执行对应于所述第二对象的处理,而当所述移动速度大于所述阈值时,执行对应于所述第一对象的处理。
16.如权利要求10所述的信息处理设备,其中,所述处理器被配置为:当所述移动速度大于所述阈值时,控制所述显示装置表明所选择的对象被置于被选择的状态下,而当所述移动速度小于所述阈值时,确定不将所选择的对象置于被选择的状态下。
17.如权利要求10所述的信息处理设备,其中,所述处理器被配置为:当所述移动速度小于所述阈值时,控制所述显示装置表明所选择的对象被置于被选择的状态下,而当所述移动速度大于所述阈值时,确定不将所选择的对象置于被选择的状态下。
18.如权利要求1所述的信息处理设备,其中,所述检测器被配置为检测在关于所述显示装置的倾斜方向上的操纵体的移动,并且所述处理器被配置为基于检测到的所述操纵体的移动是处于关于所述显示装置的垂直方向上还是处于关于所述显示装置的倾斜方向上而确定要执行的处理。
19.一种由信息处理设备执行的信息处理方法,所述方法包括:
通过所述信息处理设备的检测器,检测在关于显示装置的垂直方向上的操纵体的移动;
通过所述信息处理设备的处理器,基于所述检测器的输出而确定所述操纵体的移动速度;以及
通过所述处理器,基于所确定的移动速度而确定要执行的处理。
20.一种包括计算机程序指令的非瞬时计算机可读介质,所述计算机程序指令在被信息处理设备执行时使得该信息处理设备进行信息处理方法,所述信息处理方法包括:
检测在关于显示装置的垂直方向上的操纵体的移动;
基于所述检测的输出而确定所述操纵体的移动速度;以及
基于所确定的移动速度而确定要执行的处理。
CN201110259921.6A 2010-09-07 2011-08-31 信息处理器、信息处理方法 Expired - Fee Related CN102402327B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610049390.0A CN105739764B (zh) 2010-09-07 2011-08-31 信息处理器、信息处理方法以及计算机程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010199638A JP5768347B2 (ja) 2010-09-07 2010-09-07 情報処理装置、情報処理方法およびコンピュータプログラム
JP2010-199638 2010-09-07

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201610049390.0A Division CN105739764B (zh) 2010-09-07 2011-08-31 信息处理器、信息处理方法以及计算机程序

Publications (2)

Publication Number Publication Date
CN102402327A true CN102402327A (zh) 2012-04-04
CN102402327B CN102402327B (zh) 2016-01-27

Family

ID=45770347

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201110259921.6A Expired - Fee Related CN102402327B (zh) 2010-09-07 2011-08-31 信息处理器、信息处理方法
CN201610049390.0A Expired - Fee Related CN105739764B (zh) 2010-09-07 2011-08-31 信息处理器、信息处理方法以及计算机程序

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201610049390.0A Expired - Fee Related CN105739764B (zh) 2010-09-07 2011-08-31 信息处理器、信息处理方法以及计算机程序

Country Status (3)

Country Link
US (5) US8736575B2 (zh)
JP (1) JP5768347B2 (zh)
CN (2) CN102402327B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103513924A (zh) * 2012-06-27 2014-01-15 佳能株式会社 电子设备及其控制方法
CN105843429A (zh) * 2015-01-14 2016-08-10 深圳市华星光电技术有限公司 悬浮触控方法
CN106468980A (zh) * 2015-08-17 2017-03-01 宏碁股份有限公司 触控装置及其触控检测方法
CN114153332A (zh) * 2021-12-17 2022-03-08 北京集创北方科技股份有限公司 触控设备的控制方法及其控制装置
CN114153332B (zh) * 2021-12-17 2024-10-29 北京集创北方科技股份有限公司 触控设备的控制方法及其控制装置

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5649169B2 (ja) 2010-11-22 2015-01-07 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation タッチパネルにおけるドラッグ操作でオブジェクトを移動させる方法、装置及びコンピュータプログラム
US10684768B2 (en) * 2011-10-14 2020-06-16 Autodesk, Inc. Enhanced target selection for a touch-based input enabled user interface
EP2842020A4 (en) * 2012-04-27 2016-10-12 Alsentis Llc APPARATUS AND METHOD FOR DETERMINING STIMULUS, INCLUDING TOUCH INPUT AND PEN INPUT
JP5959344B2 (ja) * 2012-07-09 2016-08-02 株式会社Nttドコモ 情報処理装置
US9430066B2 (en) * 2012-10-17 2016-08-30 Perceptive Pixel, Inc. Input classification for multi-touch systems
JP5966869B2 (ja) * 2012-11-05 2016-08-10 富士通株式会社 接触状態検出装置、方法及びプログラム
JP6087608B2 (ja) * 2012-12-10 2017-03-01 キヤノン株式会社 携帯可能な装置、携帯可能な装置を制御する方法およびプログラム
US10289203B1 (en) * 2013-03-04 2019-05-14 Amazon Technologies, Inc. Detection of an input object on or near a surface
WO2014166044A1 (en) * 2013-04-08 2014-10-16 Thomson Licensing Method and device for user input
WO2014171026A1 (ja) * 2013-04-15 2014-10-23 株式会社日立製作所 タッチパネル式操作盤及びその制御方法
JP6097670B2 (ja) * 2013-10-24 2017-03-15 アルプス電気株式会社 表示入力装置
JP6034281B2 (ja) 2013-12-18 2016-11-30 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation オブジェクト選択方法、装置及びコンピュータ・プログラム
CN105589594B (zh) * 2014-11-06 2019-12-31 天马微电子股份有限公司 电子装置和电子装置的操作控制方法
JP6120898B2 (ja) * 2015-03-27 2017-04-26 京セラ株式会社 電子機器および電子機器の制御方法
JP2016206749A (ja) * 2015-04-16 2016-12-08 シャープ株式会社 タッチ入力装置、前記タッチ入力装置を備えた画像形成装置およびタッチ入力方法
US9658704B2 (en) 2015-06-10 2017-05-23 Apple Inc. Devices and methods for manipulating user interfaces with a stylus
JP2017111462A (ja) * 2015-11-27 2017-06-22 京セラ株式会社 触感呈示装置及び触感呈示方法
CN107765974B (zh) * 2016-08-17 2021-11-12 中兴通讯股份有限公司 一种滑动控件的移动方法和装置
US10891044B1 (en) * 2016-10-25 2021-01-12 Twitter, Inc. Automatic positioning of content items in a scrolling display for optimal viewing of the items
US10402020B1 (en) * 2016-11-15 2019-09-03 Google Llc Detecting twist input with an interactive cord
CN106896987B (zh) * 2017-02-27 2019-06-25 网易(杭州)网络有限公司 实现界面元素跟随的方法及装置
JP7351153B2 (ja) * 2019-09-11 2023-09-27 コニカミノルタ株式会社 入力装置、画像形成装置、入力装置の制御方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101430624A (zh) * 2007-11-09 2009-05-13 索尼株式会社 输入装置、输入装置的控制方法和程序
CN101552818A (zh) * 2008-04-04 2009-10-07 Lg电子株式会社 使用接近传感器的移动终端及其控制方法
US20100103139A1 (en) * 2008-10-23 2010-04-29 At&T Intellectual Property I, L.P. Tracking approaching or hovering objects for user-interfaces
US20100107099A1 (en) * 2008-10-27 2010-04-29 Verizon Data Services, Llc Proximity interface apparatuses, systems, and methods

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970049359A (ko) * 1995-12-26 1997-07-29 베일리 웨인 피 감지 패널에 대한 물체의 상대 속도에 의한 접촉 감지 방법 및 그 장치
JPH11259202A (ja) * 1998-03-12 1999-09-24 Honda Motor Co Ltd 習熟度判定手段を有する対話型コンピュータ・システム
JP2004258766A (ja) * 2003-02-24 2004-09-16 Nippon Telegr & Teleph Corp <Ntt> 自己画像表示を用いたインタフェースにおけるメニュー表示方法、装置、プログラム
US20060209037A1 (en) * 2004-03-15 2006-09-21 David Wang Method and system for providing haptic effects
JP4649933B2 (ja) * 2004-09-30 2011-03-16 マツダ株式会社 車両用情報表示装置
US8018579B1 (en) * 2005-10-21 2011-09-13 Apple Inc. Three-dimensional imaging and display system
US7890863B2 (en) 2006-10-04 2011-02-15 Immersion Corporation Haptic effects with proximity sensing
US11325029B2 (en) * 2007-09-14 2022-05-10 National Institute Of Advanced Industrial Science And Technology Virtual reality environment generating apparatus and controller apparatus
JP2009217465A (ja) * 2008-03-10 2009-09-24 Sharp Corp 入力装置、入力操作受付方法およびそのプログラム
JP4752887B2 (ja) * 2008-09-12 2011-08-17 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
JP5098994B2 (ja) * 2008-12-19 2012-12-12 富士通モバイルコミュニケーションズ株式会社 入力装置
US8866497B2 (en) * 2009-03-25 2014-10-21 Alsentis, Llc Apparatus and method for determining a touch input
JP5446624B2 (ja) * 2009-09-07 2014-03-19 ソニー株式会社 情報表示装置、情報表示方法及びプログラム
WO2011052484A1 (ja) * 2009-10-30 2011-05-05 株式会社エスシーエー 生体への情報伝達装置
US8232990B2 (en) * 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
US8508347B2 (en) * 2010-06-24 2013-08-13 Nokia Corporation Apparatus and method for proximity based input
US8890818B2 (en) * 2010-09-22 2014-11-18 Nokia Corporation Apparatus and method for proximity based input
US9442942B2 (en) * 2011-10-20 2016-09-13 Nokia Technologies Oy Method, apparatus and computer program product for dynamic and visual object search interface
US9910499B2 (en) * 2013-01-11 2018-03-06 Samsung Electronics Co., Ltd. System and method for detecting three dimensional gestures to initiate and complete the transfer of application data between networked devices

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101430624A (zh) * 2007-11-09 2009-05-13 索尼株式会社 输入装置、输入装置的控制方法和程序
CN101552818A (zh) * 2008-04-04 2009-10-07 Lg电子株式会社 使用接近传感器的移动终端及其控制方法
US20100103139A1 (en) * 2008-10-23 2010-04-29 At&T Intellectual Property I, L.P. Tracking approaching or hovering objects for user-interfaces
US20100107099A1 (en) * 2008-10-27 2010-04-29 Verizon Data Services, Llc Proximity interface apparatuses, systems, and methods

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103513924A (zh) * 2012-06-27 2014-01-15 佳能株式会社 电子设备及其控制方法
US9606718B2 (en) 2012-06-27 2017-03-28 Canon Kabushiki Kaisha Electronic apparatus and control method thereof
CN103513924B (zh) * 2012-06-27 2017-10-27 佳能株式会社 电子设备及其控制方法
CN105843429A (zh) * 2015-01-14 2016-08-10 深圳市华星光电技术有限公司 悬浮触控方法
CN106468980A (zh) * 2015-08-17 2017-03-01 宏碁股份有限公司 触控装置及其触控检测方法
CN114153332A (zh) * 2021-12-17 2022-03-08 北京集创北方科技股份有限公司 触控设备的控制方法及其控制装置
CN114153332B (zh) * 2021-12-17 2024-10-29 北京集创北方科技股份有限公司 触控设备的控制方法及其控制装置

Also Published As

Publication number Publication date
US8952931B2 (en) 2015-02-10
JP2012058882A (ja) 2012-03-22
US20120056850A1 (en) 2012-03-08
US8736575B2 (en) 2014-05-27
CN105739764B (zh) 2018-11-16
US20150123927A1 (en) 2015-05-07
US20140232687A1 (en) 2014-08-21
US9671897B2 (en) 2017-06-06
JP5768347B2 (ja) 2015-08-26
US20170235417A1 (en) 2017-08-17
US10503316B1 (en) 2019-12-10
US10296134B2 (en) 2019-05-21
CN102402327B (zh) 2016-01-27
CN105739764A (zh) 2016-07-06

Similar Documents

Publication Publication Date Title
CN102402327B (zh) 信息处理器、信息处理方法
AU2018282404B2 (en) Touch-sensitive button
CN202433855U (zh) 信息处理装置
CN102436338B (zh) 信息处理设备和信息处理方法
CN107231814B (zh) 检测错误边界触摸输入的方法和设备
CN107741824B (zh) 对可重定位触摸表面上的姿态朝向的检测
US20150035781A1 (en) Electronic device
EP2891961A2 (en) Input apparatus
US20100302177A1 (en) Method and apparatus for providing user interface based on contact position and intensity of contact force on touch screen
US20100123678A1 (en) Touch input device and method of acquiring contact location and intensity of force using the same
CN106662978A (zh) 用于改善设备的单手操作的用户界面
JPWO2010073329A1 (ja) コンピュータプログラム、入力装置及び入力方法
JPWO2007007682A1 (ja) タッチパネル表示装置および携帯機器
CN102073447A (zh) 信息处理设备和信息处理方法
US20170139479A1 (en) Tactile sensation control system and tactile sensation control method
JP2011034169A (ja) 情報入力装置および情報入力方法
JP2014006748A (ja) 電子機器、機器及び方法
US20080158187A1 (en) Touch control input system for use in electronic apparatuses and signal generation method thereof
JP2005234958A (ja) タッチパネル装置
JP2013033457A (ja) 電子機器
JP6065064B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP6659109B2 (ja) 電子機器、その制御方法、およびプログラム、並びに記憶媒体
CN102402282B (zh) 信息处理装置和信息处理方法
JP6834808B2 (ja) 表示装置及び入力制御方法
US20210200399A1 (en) Display apparatus and display control program

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160127