CN103543921B - 信息处理设备和信息处理方法 - Google Patents
信息处理设备和信息处理方法 Download PDFInfo
- Publication number
- CN103543921B CN103543921B CN201310119710.1A CN201310119710A CN103543921B CN 103543921 B CN103543921 B CN 103543921B CN 201310119710 A CN201310119710 A CN 201310119710A CN 103543921 B CN103543921 B CN 103543921B
- Authority
- CN
- China
- Prior art keywords
- display area
- operation body
- display
- coefficient
- position indicated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供了信息处理设备和信息处理方法。一种信息处理设备包括对象显示单元、对象识别单元和对象移动单元。对象显示单元在操作显示器的显示区域内显示至少一个对象。操作显示器包括显示图像的显示区域,并且在显示区域内输出关于由操作体指示的位置的信息。对象识别单元根据输出信息来识别由操作体指示的对象。当在识别出对象的状态下在显示区域上移动由操作体指示的位置时,对象移动单元在显示区域上将识别出的对象移动与由操作体指示的位置的移动距离和与对象相关联且在至少一个方向上预先设置的系数相对应的距离。
Description
技术领域
本发明涉及信息处理设备和信息处理方法。
背景技术
包括平板式信息终端装置的平板型装置通常采用被优化来用于具有触摸面板的显示器上的手指操作的操作系统(OS)。在这样的OS中,被识别为“(图像等的)尺寸放大-减小”的操作“扩大-缩小”提供直观的用户友好性。相比之下,可在触摸面板上使用基于利用键盘和/或鼠标的操作的OS。这样的OS用于满足如下的需求:该需求平衡相关技术中的软件资产的利用与由于省略机械部件而带来的移动性和高耐用性。在一些OS中,鼠标所特有的操作(例如,通过右击显示菜单、利用鼠标轮滚动等)与特定手指操作(序列)相关联,以不妨碍相关技术中的软件资产的利用。
日本未审查专利申请公布第2008-181248号公开了这样一种技术:当用户界面(UI)对象将被拖到的位置在视口之外时,在视口外围附近移动鼠标光标引起了滚动。在日本未审查专利申请公布第2008-181248号中所述的技术中,改变鼠标光标与外围的距离以选择不同的滚动速度。日本未审查专利申请公布第2010-049453号提出了一种响应于打开菜单的操作来将具有较高过去使用频率的菜单项布置在指针附近的机构。日本未审查专利申请公布第2010-282244号提出了一种控制光标以使得光标位于要操作的对象上的机构。
发明内容
本发明的目的在于提供一种当用户在显示图像的显示区域内移动由操作体指示的位置时能够减小移动距离的技术。
根据本发明的第一方面,提供了一种信息处理设备,包括:对象显示单元、对象识别单元和对象移动单元。对象显示单元在操作显示器的显示区域内显示至少一个对象。操作显示器包括显示图像的显示区域,并且在显示区域内输出关于由操作体指示的位置的信息。对象识别单元根据从操作显示器输出的信息来识别由操作体指示的对象。当在对象识别单元识别出对象的状态下在显示区域上移动由操作体指示的位置时,对象移动单元在显示区域上将对象识别单元识别出的对象移动与由操作体指示的位置的移动距离和与对象相关联且在至少一个方向上预先设置的系数相对应的距离。
根据本发明的第二方面,在信息处理设备中,操作显示器输出关于由与显示区域接触的操作体指示的位置的信息。当操作体在与显示区域接触的同时在显示区域上移动时,对象移动单元在显示区域上将由对象识别单元识别出的对象移动与由操作体指示的位置的移动距离和与对象相关联且在至少一个方向上预先设置的系数相对应的距离。
根据本发明的第三方面,信息处理设备还包括系数存储器,该系数存储器存储与针对每种对象类型而预先设置的、与对象在至少一个方向上的移动距离有关的系数。对象识别单元根据从操作显示器输出的信息来识别由操作体指示的对象和对象的类型。当在对象识别单元识别出对象的状态下在显示区域上移动由操作体指示的位置时,对象移动单元在显示区域上将对象识别单元识别出的对象移动与由操作体指示的位置的移动距离和与所识别出的对象的类型相关联的系数相对应的距离。
根据本发明的第四方面,在信息处理设备中,为划分对象而得到的每个区域来设置系数。
根据本发明的第五方面,信息处理设备还包括系数设置单元,该系数设置单元根据从操作显示器基于用户进行的操作的内容而输出的信息来设置系数的值。
根据本发明的第六方面,在信息处理设备中,对象识别单元根据从第二操作体输出的信息来识别通过操作显示器和用户操作的操作体和第二操作体所指示的对象。当在显示区域上移动由用户操作的第二操作体所指示的位置时,对象移动单元在显示区域上将对象识别单元识别出的对象移动与位置的移动距离相对应的距离。
根据本发明的第七方面,提供了一种信息处理方法,包括:在操作显示器的显示区域内显示至少一个对象,该操作显示器包括显示图像的显示区域并且在显示区域内输出关于由操作体指示的位置的信息;根据从操作显示器输出的信息来识别由操作体指示的对象;以及当在识别出对象的状态下在显示区域上移动由操作体指示的位置时,在显示区域上将所识别的对象移动与由操作体指示的位置的移动距离和与对象相关联且在至少一个方向上预先设置的系数相对应的距离。
根据本发明的第一和第七方面,当基于由操作体指示的位置的移动距离来移动由操作体识别出的对象时,可以基于与所识别出的对象相对应的系数来移动对象。
根据本发明的第二方面,当基于在操作体(包括用户的手指)在触摸面板(显示区域)上的滑动操作中将操作体在与显示区域接触的同时进行移动时的移动距离来移动由操作体识别出的对象时,可以基于根据所识别出的对象的系数来移动对象。
根据本发明的第三方面,可以以适合于对象的类型的移动速度来移动对象。
根据本发明的第四方面,可以以适合于操作体相对于对象的相对位置关系的移动速度来移动对象。
根据本发明的第五方面,用户可以设置对象的移动速度。
根据本发明的第六方面,与移动量不随着操作体的类型而变化的情况相比,可以实现对触摸面板(显示区域)的操作和使用另一操作体的操作这两者的用户友好性。
附图说明
将基于以下附图详细描述本发明的示例性实施例,其中:
图1是示出根据本发明的示例性实施例的信息处理设备的配置示例的框图;
图2示出移动距离系数存储区域中所存储的移动距离系数的内容的示例;
图3是示出根据示例性实施例的信息处理设备的功能配置示例的框图;
图4是示出由信息处理设备执行的处理的流程图;
图5是用于描述对象移动处理的内容的示例的图;
图6是用于描述对象移动处理的内容的另一示例的图;
图7是用于描述对象移动处理的内容的另一示例的图;
图8是用于描述根据变型的对象移动处理的内容的示例的图;
图9是用于描述根据变型的对象移动处理的内容的示例的图;
图10是用于描述根据变型的对象移动处理的内容的示例的图;
图11是用于描述在相关技术中的设备内由用户进行的操作的内容的图;以及
图12是用于描述在相关技术中的设备内由用户进行的操作的内容的另一图。
具体实施方式
配置
图1是示出根据本发明的示例性实施例的信息处理设备100的配置示例的框图。信息处理设备100设置有触摸面板。信息处理设备100例如是智能手机或平板式计算机。如图1所示,信息处理设备100中的每个部件连接到总线11。经由总线11在各部件之间交换数据。参照图1,控制单元12包括处理器121(诸如,中央处理单元(CPU))、只读存储器(ROM)122和随机存取存储器(RAM)123。控制单元12根据存储在ROM122或存储单元13中的计算机程序来控制信息处理设备100。存储单元13是诸如硬盘的存储装置。包括与信息处理设备100的控制有关的程序的各种程序存储在存储单元13中。操作显示单元14包括起到触摸面板的作用的显示区域141,诸如液晶显示器。诸如表示字符的图像和表示菜单列表的图像的各种图像显示在显示区域141内。信息处理设备100的用户通过操作体(operator)(诸如,笔或用户的手指)触摸显示区域141,以执行各种操作。操作显示单元14输出与接触显示区域141的操作体的位置相对应的信息。通信单元15是以有线方式或无线地与另一设备进行通信的接口。
存储单元13包括移动距离系数存储区域131。在以下所述的对象移动处理中所使用的系数(下文中,被称为“移动距离系数”)存储在移动距离系数存储区域131中。
图2示出移动距离系数存储区域131中的存储内容的示例。项目“操作对象类型”、“水平系数”和“垂直系数”彼此相关联地存储在图2所示的表格中。在这种项目当中,表示操作显示单元14的显示区域141内所显示的图像(下文中称为“对象”)的类型(诸如,菜单、图标、窗口等)的信息存储在项目“操作对象类型”中。相对于屏幕的方位的水平方向(下文中,称为“x轴方向”)上的移动距离系数存储在项目“水平系数”中。相对于屏幕的方位的屏幕的垂直方向(下文中,称为“y轴方向”)上的移动距离系数存储在项目“垂直系数”中。
图3是示出信息处理设备100的功能配置示例的框图。参照图3,显示控制单元1、操作识别单元2和对象识别单元3通过读出存储在ROM122或存储单元13中的计算机程序以执行读出的计算机程序的控制单元12来实现。图3中的箭头表示数据流。显示控制单元1在操作显示单元14的显示区域141内显示各种图像。显示控制单元1包括对象显示部4。对象显示部4在操作显示单元14的显示区域141内显示一个或多个图像(对象)。
操作识别单元2根据从操作显示单元14输出的信息来识别用户进行的操作。对象识别单元3根据从操作显示单元14输出的信息和显示区域141内的显示内容来识别通过操作体指示的对象和对象的类型。例如以如下方式执行对象识别处理。具体地,对象识别单元3获取利用OS(诸如,Linux(注册商标))的窗口管理功能(例如,X窗口系统)来显示的窗口列表,并且利用从触摸面板装置获取的关于触摸位置的信息来扫描窗口列表以识别被触摸的窗口。对象识别单元3获取关于根据窗口的名称、窗口类型属性等扫描到的对象的信息。
当操作体在与显示区域141接触的同时在显示区域141上移动时,显示控制单元1中的对象移动部5在显示区域141上将对象识别单元3识别出的对象移动与操作体的移动距离和与对象相关联的移动距离系数相对应的距离。在本示例性实施例中,对象移动部5将所识别出的对象移动如下的距离:该距离通过将操作体的移动距离乘以x轴方向和y轴方向上的对应移动距离系数而得到。本示例性实施例中的“对象的移动”包括利用滚动条对对象(诸如,窗口)执行的滚动操作。
操作
图4是示出由信息处理设备100执行的处理的流程图。响应于操作体在操作显示单元14的显示区域141上的触摸而执行图4所示的处理。参照图4,控制单元12通过上述操作识别单元2和对象识别单元3来执行处理。具体地,在步骤S1中,控制单元12根据从操作显示单元14输出的信息,来识别由操作体指示的显示区域141上的位置并识别操作体指示的对象。在步骤S2中,控制单元12确定对象是否存在于由操作体指示(操作体按压)的位置处。如果控制单元12确定对象不存在于由操作体指示的位置处(步骤S2中为否),则图4中的处理终止。如果控制单元12确定对象存在于由操作体指示的位置处(步骤S2中为是),则处理进行到步骤S3及随后的步骤。
在步骤S3中,控制单元12参考存储在移动距离系数存储区域131中的表格来识别与由操作体指示的对象相对应的移动距离系数。在本示例性实施例中,控制单元12识别由操作体指示的对象的类型并识别与所识别出的类型相对应的“水平系数”和“垂直系数”。具体地,例如,当对象的类型是“下拉菜单窗口”时,控制单元12将“水平系数”识别为“-2”并将“垂直系数”识别为“0”。
在步骤S4中,控制单元12确定操作体(手指)是否与显示区域141分离。如果控制单元12确定操作体与显示区域141分离(步骤S4中为是),则图4的处理终止。如果控制单元12确定操作体未与显示区域141分离(步骤S4中为否),则在步骤S5中,控制单元12存储操作体(手指)的当前位置。控制单元12重复从步骤S5到步骤S10的处理直到操作体与显示区域141分离(步骤S4中为否)为止,以更新显示区域141的显示。具体地,在步骤S6中,控制单元12获取操作体在显示区域141上的当前位置。在步骤S7中,控制单元12计算在步骤S5中所识别出的位置与当前位置之间的差,即,由操作体指示的位置的移动距离。在本示例性实施例中,控制单元12计算操作体在相对于屏幕的方位的屏幕的水平方向和垂直方向上的移动距离。
在步骤S8中,控制单元12基于步骤S7中的计算结果确定是否移动了操作体。在本示例性实施例中,如果步骤S7中的计算结果等于零,则确定未移动操作体,而如果步骤S7中的计算结果不等于零,则确定移动了操作体。如果控制单元12确定未移动操作体(步骤S8中为否),则处理返回到步骤S4。如果控制单元12确定移动了操作体(步骤S8中为是),则在步骤S9中,控制单元12将在步骤S7中所计算出的操作体的移动距离乘以在步骤S3中所识别出的屏幕的水平方向和垂直方向上的移动距离系数,以识别对象在水平方向上的移动距离和对象在垂直方向上的移动距离。在步骤S10中,控制单元12将对象移动在步骤S9中所计算出的移动距离。具体地,在本示例性实施例中,控制单元12根据以下等式计算对象在移动后的位置Xnew和Ynew:
Xnew=Xnow+h×Δx
Ynew=Ynow+v×Δy
其中,Xnow和Ynow表示对象在移动前的位置,Δx和Δy表示操作体(手指)的移动距离,以及h和v表示移动距离系数。
现在将参照图5和图7具体描述如何移动对象。图5是用于描述由控制单元12执行的对象移动处理的示例的图。在图5所示的示例中,表示了如下情况:通过用户的手指200(操作体)指示下拉菜单窗口,并且用户的手指在与显示区域141接触的同时在由箭头A1表示的方向上移动。在图5所示的示例中,控制单元12计算通过手指200指示的位置的移动距离,并且将所计算出的移动距离乘以与下拉菜单窗口的类型相对应的移动距离系数以计算对象的移动量。具体地,例如,当移动距离系数具有图2所示的内容(即,x轴方向上的移动距离系数等于“-2”以及y轴方向上的移动距离系数等于“0”)时,控制单元12在与手指200在x轴方向上的移动方向相反的方向(由图5中的箭头A3表示的方向)上将对象301移动了手指200的移动量的两倍的量。
图6是用于描述由控制单元12执行的对象移动处理的另一示例的图。在图6所示的示例中,表示了如下情况:通过用户的手指200(操作体)指示表示诸如文档数据或文件夹之类的对象的图像(下文中,称为“图标”)302,并且用户的手指200在与显示区域141接触的同时在平行于x轴方向的方向(由箭头A11表示的方向)上移动。例如,当与图标302的类型相对应的x轴方向上的移动距离系数等于“5”时,控制单元12在操作体沿着x轴移动的方向(由箭头A12表示的方向)上将图标302移动了手指200的移动量的五倍的移动量。
在图6所示的屏幕中,控制单元12(对象移动部5)显示表示对象的移动内容的图形(图6中的箭头A12)。表示对象的移动内容的图像不限于表示箭头的图像,并且可以是其他图像。表示对象的移动内容的图像足以使得用户能够从视觉上识别对象的移动内容,诸如移动轨迹。替选地,如果操作体(手指)的位置与显示了对象的位置之间的距离超过预定阈值,则控制单元12可显示表示对象的移动内容的图像。
图7是用于描述由控制单元12执行的对象移动处理的另一示例的图。在图7所示的示例中,表示了如下情况:通过用户的手指200(操作体)指示表示诸如文档数据或文件夹之类的对象的图标303,并且用户的手指200在与显示区域141接触的同时在由箭头A21表示的方向上移动。例如,当与图标303的类型相对应的在x轴方向上的移动距离系数等于“6”以及与图标303的类型相对应的在y轴方向上的移动距离系数等于“1”时,控制单元12在x轴方向上将图标303移动了通过操作体指示的位置的移动距离的六倍的移动量,并且在y轴方向上将图标303移动了与通过操作体指示的位置的移动距离相等的移动量。在图7所示的屏幕中,控制单元12显示表示对象的移动内容的图形(图7中的箭头A22)。表示对象的移动内容的图形不限于表示箭头的图像,并且可以是其他图像。
需要将手指移动比鼠标的移动距离更长的距离,以便执行对基于鼠标操作且使用许多菜单的相关技术中的软件的触摸操作。具体地,如图11所示,当选择菜单M1并进一步选择子菜单M2和M3时,需要将手指在与显示区域141接触的同时沿着箭头A41、A42和A43移动。在这种情况下,存在难以在如箭头A42所示的x轴方向上笔直移动手指的情况。例如,存在手指的移动方向以由箭头A45所示的方式切换的情况。另外,为了从菜单中重新选择菜单项目,需要将手指移动更长的距离,如图12中的箭头A44所示。如上所述,可能难以在手指与显示区域141接触的同时移动更长的距离时执行该操作。具体地,例如,由于通常捕捉到将右手的食指向左或向上滑动的操作(具有大摩擦力),因此难以执行该操作(参照图12)。相比之下,在本示例性实施例中,在需要与显示区域141接触的手指在显示器上沿特定方向笔直地移动更长距离的用户界面(UI)上,将移动距离系数设置为适当值使得移动距离减小以利于该操作。
变型
尽管依照一些特定示例和实施例来描述本发明,但是显而易见的是,本发明不限于这些特定示例和实施例,并且在不背离本发明的精神和范围的情况下,许多改变和变型对于本领域技术人员是显而易见的。以下变型可相互组合。
(1)在上述示例性实施例中,针对每种对象类型而将移动距离系数存储在存储单元13的移动距离系数存储区域131中,并且控制单元12识别由操作体指示的对象的类型,并通过使用与所识别的类型相对应的移动距离系数来识别对象的移动距离。然而,信息处理设备的配置不限于上述配置,并且可以不针对每种对象类型来存储移动距离系数。具体地,控制单元12可以根据预定系数来计算对象的移动距离,而与对象的类型无关。
(2)在上述示例性实施例中,尽管针对x轴方向和y轴方向这两个方向来预先设置移动距离系数,但是设置移动距离系数的模式不限于上述模式。例如,可针对x轴方向、y轴方向和z轴方向这三个方向来设置移动距离系数。替选地,可以针对一个方向而不是多个方向来设置移动距离系数。
尽管在上述示例性实施例中针对x轴方向和与x轴方向正交的y轴方向这两个方向来预先设置移动距离系数,但是这两个方向可以不是相互正交的。可在具有其他关系的多个方向上设置移动距离系数。
尽管在上述示例性实施例中描述了如图2所示的针对类型“下拉菜单窗口”和“右击菜单”而将“垂直系数”的值设置为零的情况,但是移动距离系数的值不限于零,并且移动距离系数可具有不同的值。
(3)在上述示例性实施例中,可以针对在信息处理设备100上运行的每个应用来设置各移动距离系数。在该情况下,控制单元12可以在未设置移动距离系数的应用中使用由用户通过操作显示单元14指定的移动距离系数。
(4)在上述示例性实施例中,可以根据操作体在对象中的位置来改变移动距离系数。具体地,可以针对通过划分对象而得到的每个区域来设置移动距离系数。现在将参照图8至图10描述在该情况下的具体示例。在该变型中,具有“下拉菜单窗口”类型的对象在x轴方向上的两端处的、每一个均具有对象的整个宽度的四分之一的宽度的区域(下文中称为“两端区域”)以及剩余的中心区域具有不同的移动距离系数。具体地,对于中心区域,可以将“2”设置为“水平系数”以及可以将“0”设置为“垂直系数”,以及对于两端区域,可以将“0”设置为“水平系数”以及将“0”设置为“垂直系数”。在该情况下,由于水平系数和垂直系数在两端区域内都具有为零的值,因此,对象在操作体位于两端区域内时不移动。当操作体指示(触摸)对象时,控制单元12确定操作体是位于两端区域内还是中心区域内,并且通过使用与各个区域相对应的移动距离系数来计算对象的移动距离。
在图8至图10所示的示例中,当用户沿平行于x轴方向的方向(由箭头A51所示的方向)移动手指200时,直到手指200超过线L1才移动对象304。当手指200超过线L1时,对象304开始在与手指的移动方向相反的方向(由图9中的箭头A52表示的方向)上移动。然后,当手指在由箭头A51表示的方向上移动并到达线L2时,对象304停止滑动(移动)。在本示例中,由于紧接在选择子菜单项目之前(在手指达到线L2时)停止对象的移动,因此用户容易执行选择。
(5)在上述示例性实施例中,用户可以设置移动距离系数的值。在这种情况下,响应于用户利用操作显示单元14进行的操作,操作显示单元14输出与用户进行的操作的内容相对应的信息,并且控制单元12根据从操作显示单元14输出的信息来设置移动距离系数的值。
(6)在上述示例性实施例中,控制单元12可以动态地改变移动距离系数的值。具体地,控制单元12可以根据对象的移动量来改变移动距离系数的值。例如,如果对象的移动量超过预定阈值,则控制单元12可以减少移动距离系数的绝对值。移动距离系数随着对象的移动量增大而减小(即,降低移动速度)允许用户在对象移动到大致位置之后容易地执行例如小幅移动操作。作为改变移动距离系数的模式,例如,可以将对象的移动量与移动距离系数的值相关联的表格预先存储在存储单元13中,并且控制单元12可以参考该表格以识别移动距离系数的值。
在其他模式下,控制单元12可以根据对象的显示大小来改变移动距离系数。例如,当图标大时,控制单元12可以增大移动距离系数的绝对值。移动距离系数的绝对值随着对象的显示大小增大而增大以及移动距离系数的绝对值随着对象的显示大小减小而减小允许用户容易执行对小对象的小幅移动操作。
在其他模式下,控制单元12可以根据操作显示单元14的显示区域141的大小或显示对象的屏幕的大小来改变移动距离系数的值。具体地,例如,移动距离系数的绝对值可以随着显示区域141的物理尺寸的增大而增大,并且移动距离系数的绝对值可以随着显示区域141的物理尺寸的减小而减小。在其他模式下,控制单元12可以根据要移动的对象与显示区域141内所显示的另一对象之间的位置关系来改变移动距离系数的值。具体地,例如,如果正被移动的对象与显示区域141内所显示的另一对象之间的距离小于或等于预定阈值,则控制单元12可减小移动距离系数的绝对值。
(7)在上述示例性实施例中,当鼠标或触摸板(第二操作体)用于进行操作时,可以执行控制以使得不通过使用移动距离系数来移动对象(即,以相关技术中的方式将对象移动与光标的移动量相对应的量)。具体地,控制单元12可以根据从用户操作的鼠标或触摸板(第二操作体)输出的信息来识别由第二操作体指示的对象,以在由第二操作体指示的位置在显示区域141上移动时将所识别出的对象移动该位置的移动距离。即,当由第二操作体指示的位置在显示区域141上移动时,控制单元12可以将对象移动与由第二操作体指示的位置的移动距离相对应的距离,而不使用对象的移动距离系数。相比之下,当操作体在与操作显示单元14接触的同时移动时,控制单元12可以将对象移动与由操作体指示的位置的移动距离和移动距离系数相对应的距离,如在上述示例性实施例中一样。控制单元12以上述方式基于操作体的类型来切换移动距离系数的使用,以使得操作体和第二操作体实现用户友好性。
不限制地使用控制单元12基于操作体的类型而切换移动距离系数的使用的方法,并且控制单元12可以基于操作体的类型来切换要使用的移动距离系数。在这种情况下,尽管针对每种对象类型来存储移动距离系数,但是可以针对每种操作体类型来提供移动距离系数。控制单元12可以通过使用将每个对象的移动距离系数与每个操作体的移动距离系数相乘而得到的值来计算对象的移动距离。
(8)尽管在上述示例性实施例中,控制单元12将操作体的移动距离与移动距离系数相乘以计算对象的移动距离,但是计算对象的移动距离的模式不限于此。例如,控制单元12可以使用操作体的移动距离的平方值与移动距离系数相乘的结果作为对象的移动量。在其他模式下,例如,可以预先设置对象移动处理中的最大值,而如果操作体的移动距离与移动距离系数相乘的结果超过预定阈值,则可以使用阈值作为对象的移动距离。控制单元12足以将对象移动与操作体的移动距离和对象的移动距离系数相对应的距离。
(9)尽管在上述示例性实施例中,使操作体(例如,手指)与操作显示单元14的显示区域141接触以识别在显示区域141上指示的位置,但是识别用户在显示区域141上指示的位置的模式不限于此。用传感器足以识别在显示区域141上指示的位置。当在用户指示对象的状态(对象识别单元3识别对象的状态)下在显示区域141上移动由操作体指示的位置时,可以在显示区域141上将所识别的对象移动与移动距离系数相对应的距离。具体地,例如,检测用户的眼球(操作体)的运动的传感器可以设置在信息处理设备100中。在这种情况下,控制单元12可以通过根据来自传感器的检测结果来识别用户的视线的方向而识别所指示的位置。此外,在该模式下,将用户指示的对象移动与移动距离系数对应的距离减少了在显示区域141上移动由用户指示的位置的操作的量。
(10)尽管在上述示例性实施例中使用单个信息处理设备100,但是经由通信单元连接的两个以上的设备可以共享根据示例性实施例的信息处理设备100的功能,并且包括多个设备的系统可以实现根据示例性实施例的信息处理设备100。例如,可以配置第一计算机设备经由通信单元连接到第二计算机设备的系统。在这种情况下,第一计算机设备设置有触摸面板。第二计算机设备通过上述对象移动处理来识别要将对象移动达到的位置,并且将用于更新触摸面板上的显示内容的数据输出到第一计算机设备。
(11)可以在将上述ROM122或存储单元13中所存储的程序存储在计算机可读记录介质的状态下提供这些程序,计算机可读介质可以是诸如磁性记录介质(磁带、磁盘(硬盘驱动器(HDD))、软盘(FD)等)、光学记录介质(光盘等)、磁光记录介质或半导体存储器。替选地,可以经由诸如因特网的通信线路将程序下载到信息处理设备100中。
为了图示和描述而提供了本发明的示例性实施例的上述描述。不旨在穷尽本发明或将本发明限制为所公开的精确形式。显然地,许多变型和变化对于本领域技术人员而言是显而易见的。选择并描述这些实施例是为了更好地说明本发明的原理及其实际应用,从而使得本领域的其他技术人员能够理解本发明的各种实施例和适合于所预期的特别使用的各种变型。本发明的范围由所附权利要求及其等同方案来限定。
Claims (7)
1.一种信息处理设备,包括:
对象显示单元,其在操作显示器的显示区域内显示至少一个对象,所述操作显示器包括显示图像的显示区域并且在所述显示区域内输出关于由操作体指示的位置的信息;
对象识别单元,其根据从所述操作显示器输出的信息来识别由所述操作体指示的对象;
对象移动单元,当在所述对象识别单元识别出所述对象的状态下在所述显示区域上移动由所述操作体指示的位置时,所述对象移动单元在所述显示区域上将所述对象识别单元识别出的所述对象移动与由所述操作体指示的位置的移动距离和与所述对象相关联且在至少一个方向上预先设置的系数相对应的距离;以及
系数存储器,其存储与针对每种对象类型而预先设置的、与所述对象在至少一个方向上的移动距离有关的系数,
其中,为通过划分所述对象而得到的每个区域设置所述系数。
2.根据权利要求1所述的信息处理设备,
其中,所述操作显示器输出关于由与所述显示区域接触的所述操作体指示的位置的信息,并且
其中,当所述操作体在与所述显示区域接触的同时在所述显示区域上移动时,所述对象移动单元在所述显示区域上将由所述对象识别单元识别出的所述对象移动与由所述操作体指示的位置的移动距离和与所述对象相关联且在至少一个方向上预先设置的系数相对应的距离。
3.根据权利要求1所述的信息处理设备,
其中,所述对象识别单元根据从所述操作显示器输出的信息来识别由所述操作体指示的对象的区域,并且
其中,当在所述对象识别单元识别出所述对象的区域的状态下在所述显示区域上移动由所述操作体指示的位置时,所述对象移动单元在所述显示区域上将所述对象识别单元识别出的所述对象移动与由所述操作体指示的位置的移动距离和与所识别出的所述对象的区域相关联的系数相对应的距离。
4.根据权利要求2所述的信息处理设备,
其中,所述对象识别单元根据从所述操作显示器输出的信息来识别由所述操作体指示的对象的区域,并且
其中,当在所述对象识别单元识别出所述对象的区域的状态下在所述显示区域上移动由所述操作体指示的位置时,所述对象移动单元在所述显示区域上将所述对象识别单元识别出的所述对象移动与由所述操作体指示的位置的移动距离和与所识别出的所述对象的区域相关联的系数相对应的距离。
5.根据权利要求1所述的信息处理设备,还包括:
系数设置单元,根据从所述操作显示器基于用户进行的操作的内容而输出的信息来设置所述系数的值。
6.根据权利要求1所述的信息处理设备,
其中,所述对象识别单元根据从第二操作体输出的信息来识别通过所述操作显示器和用户操作的所述操作体和所述第二操作体所指示的对象,并且
其中,当在所述显示区域上移动由所述用户操作的所述第二操作体所指示的位置时,所述对象移动单元在所述显示区域上将所述对象识别单元识别出的对象移动与所述位置的移动距离相对应的距离。
7.一种信息处理方法,包括:
在操作显示器的显示区域内显示至少一个对象,所述操作显示器包括显示图像的所述显示区域并且在所述显示区域内输出关于由操作体指示的位置的信息;
根据从所述操作显示器输出的信息来识别由所述操作体指示的对象;
当在识别出所述对象的状态下在所述显示区域上移动由所述操作体指示的位置时,在所述显示区域上将所识别的对象移动与由所述操作体指示的位置的移动距离和与所述对象相关联且在至少一个方向上预先设置的系数相对应的距离;以及
存储与针对每种对象类型而预先设置的、与所述对象在至少一个方向上的移动距离有关的系数,
其中,为通过划分所述对象而得到的每个区域设置所述系数。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012155388A JP6106973B2 (ja) | 2012-07-11 | 2012-07-11 | 情報処理装置及びプログラム |
JP2012-155388 | 2012-07-11 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103543921A CN103543921A (zh) | 2014-01-29 |
CN103543921B true CN103543921B (zh) | 2021-09-21 |
Family
ID=49915115
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310119710.1A Active CN103543921B (zh) | 2012-07-11 | 2013-04-08 | 信息处理设备和信息处理方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20140019897A1 (zh) |
JP (1) | JP6106973B2 (zh) |
CN (1) | CN103543921B (zh) |
AU (1) | AU2013200698B2 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104965654B (zh) * | 2015-06-15 | 2019-03-15 | 广东小天才科技有限公司 | 一种头像调整的方法和系统 |
JP2020181447A (ja) * | 2019-04-26 | 2020-11-05 | キヤノン株式会社 | 電子機器及びその制御方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6128014A (en) * | 1997-01-10 | 2000-10-03 | Tokyo University Of Agriculture And Technology | Human interactive type display system |
TW201120731A (en) * | 2009-12-07 | 2011-06-16 | Htc Corp | Method, electronic device and computer program product for controlling list scroll |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5874943A (en) * | 1993-03-24 | 1999-02-23 | International Business Machines Corporation | Feedback of object size during direct manipulation |
US5825308A (en) * | 1996-11-26 | 1998-10-20 | Immersion Human Interface Corporation | Force feedback interface having isotonic and isometric functionality |
JPH09152933A (ja) * | 1995-11-30 | 1997-06-10 | Alpine Electron Inc | メディア画像移動方法 |
US6219032B1 (en) * | 1995-12-01 | 2001-04-17 | Immersion Corporation | Method for providing force feedback to a user of an interface device based on interactions of a controlled cursor with graphical elements in a graphical user interface |
JPH09282094A (ja) * | 1996-04-12 | 1997-10-31 | Canon Inc | マンマシン・インターフェース装置及びポインティング・デバイス |
JP4045550B2 (ja) * | 2004-06-28 | 2008-02-13 | 富士フイルム株式会社 | 画像表示制御装置及び画像表示制御プログラム |
US20070064004A1 (en) * | 2005-09-21 | 2007-03-22 | Hewlett-Packard Development Company, L.P. | Moving a graphic element |
US7752566B1 (en) * | 2005-10-28 | 2010-07-06 | Adobe Systems Incorporated | Transparent overlays for predictive interface drag and drop |
KR100856222B1 (ko) * | 2007-01-04 | 2008-09-03 | 삼성전자주식회사 | 이동 단말기의 데이터 스크롤링 장치 및 방법 |
US8904306B1 (en) * | 2008-06-12 | 2014-12-02 | Sprint Communications Company L.P. | Variable speed scrolling |
US8839155B2 (en) * | 2009-03-16 | 2014-09-16 | Apple Inc. | Accelerated scrolling for a multifunction device |
US8572513B2 (en) * | 2009-03-16 | 2013-10-29 | Apple Inc. | Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate |
KR101553629B1 (ko) * | 2009-05-06 | 2015-09-17 | 삼성전자주식회사 | 인터페이스 제공 방법 |
JP2012150558A (ja) * | 2011-01-17 | 2012-08-09 | Canon Inc | 表示制御装置及びその制御方法 |
US9201467B2 (en) * | 2011-01-26 | 2015-12-01 | Sony Corporation | Portable terminal having user interface function, display method, and computer program |
-
2012
- 2012-07-11 JP JP2012155388A patent/JP6106973B2/ja not_active Expired - Fee Related
-
2013
- 2013-01-11 US US13/739,833 patent/US20140019897A1/en not_active Abandoned
- 2013-02-11 AU AU2013200698A patent/AU2013200698B2/en active Active
- 2013-04-08 CN CN201310119710.1A patent/CN103543921B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6128014A (en) * | 1997-01-10 | 2000-10-03 | Tokyo University Of Agriculture And Technology | Human interactive type display system |
TW201120731A (en) * | 2009-12-07 | 2011-06-16 | Htc Corp | Method, electronic device and computer program product for controlling list scroll |
Also Published As
Publication number | Publication date |
---|---|
CN103543921A (zh) | 2014-01-29 |
US20140019897A1 (en) | 2014-01-16 |
JP2014016927A (ja) | 2014-01-30 |
AU2013200698A1 (en) | 2014-01-30 |
AU2013200698B2 (en) | 2014-07-31 |
JP6106973B2 (ja) | 2017-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9671893B2 (en) | Information processing device having touch screen with varying sensitivity regions | |
JP5728008B2 (ja) | 情報入力装置、情報入力方法及びプログラム | |
US8633906B2 (en) | Operation control apparatus, operation control method, and computer program | |
US8976140B2 (en) | Touch input processor, information processor, and touch input control method | |
US20090289902A1 (en) | Proximity sensor device and method with subregion based swipethrough data entry | |
US10007382B2 (en) | Information processing apparatus and information processing method | |
JP5664147B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US9733707B2 (en) | Touch screen display user interface and method for improving touch interface utility on the same employing a rules-based masking system | |
US20130067397A1 (en) | Control area for a touch screen | |
EP2416233A1 (en) | Information processing apparatus, information processing method, and computer program | |
US20090288889A1 (en) | Proximity sensor device and method with swipethrough data entry | |
KR20100109488A (ko) | 유저인터페이스장치 및 휴대단말장치 | |
US20130111397A1 (en) | Recording medium storing information processing program, information processing device, information processing system, and information processing method | |
US20140033098A1 (en) | Electronic apparatus, display method and display program | |
US20170131882A1 (en) | Information processing apparatus, information processing method, and computer program product | |
US20140298275A1 (en) | Method for recognizing input gestures | |
US9436373B2 (en) | Method, apparatus, and computer program for scrolling a document on a touch panel | |
CN103543921B (zh) | 信息处理设备和信息处理方法 | |
JP6034281B2 (ja) | オブジェクト選択方法、装置及びコンピュータ・プログラム | |
JP2010204781A (ja) | 入力装置 | |
JP5705393B1 (ja) | ユーザ入力の操作性を向上させる方法 | |
EP3433713B1 (en) | Selecting first digital input behavior based on presence of a second, concurrent, input | |
JP6119291B2 (ja) | 表示装置、電子機器、表示方法及びプログラム | |
US11893229B2 (en) | Portable electronic device and one-hand touch operation method thereof | |
KR20170050910A (ko) | 터치 스크린에서 터치 제어 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: Tokyo, Japan Applicant after: Fuji film business innovation Co.,Ltd. Address before: Tokyo, Japan Applicant before: Fuji Xerox Co.,Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |