CN104246681B - 信息处理装置、信息处理方法和程序 - Google Patents

信息处理装置、信息处理方法和程序 Download PDF

Info

Publication number
CN104246681B
CN104246681B CN201380015134.4A CN201380015134A CN104246681B CN 104246681 B CN104246681 B CN 104246681B CN 201380015134 A CN201380015134 A CN 201380015134A CN 104246681 B CN104246681 B CN 104246681B
Authority
CN
China
Prior art keywords
operating body
image
display
long side
side direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201380015134.4A
Other languages
English (en)
Other versions
CN104246681A (zh
Inventor
成田智也
山本幸
山本一幸
山野郁男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN104246681A publication Critical patent/CN104246681A/zh
Application granted granted Critical
Publication of CN104246681B publication Critical patent/CN104246681B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Abstract

提供了一种能够在考虑到操作的方向的情况下更直观地操作的新颖的、改进的信息处理装置,信息处理方法和程序。该信息处理装置包括:操作体方向检测部分,配置为检测操作体的长边方向;和操作方向确定部分,配置为向以所述操作体的长边方向为基准的方向分配命令。

Description

信息处理装置、信息处理方法和程序
技术领域
本公开涉及一种信息处理装置、信息处理方法和程序。
背景技术
最近,在具有触控板的信息处理装置中,公开了一种能够高精度地执行操作体(诸如手指)的位置指定的技术。例如,专利文献1公开了一种技术,其中多个导体被形成为具有岛的形状,并且当接收到用户操作时,相关的导体弹性地变形以便执行操作检测。
另外,因为可以如上所述高精度地执行操作体的位置指定,产生了更直观的触控板操作方法。
例如,专利文献2公开了一种说明触摸位置和触控板相对于操作体的接触面积,并且根据该接触面积在另一个屏幕上放大和显示在该触摸位置处显示的图像的技术。
另外,例如,专利文献3公开了通过说明操作体和显示部分之间的触摸点的位置和不同于该触摸点的相邻点的位置,检测扭转操作体的活动,因此改善可操作性的技术。
参考文献列表
专利文献
专利文献1:JP2011-221677A
专利文献2:JP2011-141753A
专利文献3:JP2010-33158A
发明内容
技术问题
然而,专利文献2的技术不考虑操作体接触触控板时的方向。
另外,专利文献3的技术考虑操作体的方向的改变,但是不在后续操作中使用检测到的操作体的方向,并且缺少直观特征。
因此,已经鉴于上述情况形成了本技术,并且旨在提供能够考虑到操作体的方向进行更直观的操作的杰出的和改善的信息处理装置、信息处理方法和程序。
技术解决方案
根据本公开的实施例,提供了一种信息处理装置,包括:操作体方向检测部分,配置为检测操作体的长边方向;和操作方向确定部分,配置为向以所述操作体的长边方向为基准的方向分配命令。
根据本公开的另一个实施例,提供了一种信息处理方法,包括:检测操作体的长边方向;和向以所述操作体的长边方向为基准的方向分配命令。
根据本公开的另一个实施例,提供了一种用于使得计算机执行以下功能的程序:检测操作体的长边方向的操作体方向检测功能;和向以所述操作体的长边方向为基准的方向分配命令的操作方向确定功能。
发明的有益效果
如上所述,根据本公开提供了使得能够考虑到操作体的方向进行更直观的操作的杰出的和改善的信息处理装置、信息处理方法和程序。
附图说明
[图1]图1是用于描述根据本公开的第一实施例的信息处理装置的基本配置的解释图。
[图2]图2是用于描述根据相同实施例的操作检测方法的解释图。
[图3]图3是用于描述根据相同实施例的操作体形状指定方法的解释图。
[图4]图4是用于描述根据相同实施例的基础操作方法的解释图。
[图5]图5是用于描述操作方向的例子的解释图。
[图6]图6是用于描述操作方向的例子的解释图。
[图7]图7是用于描述屏幕的区域分割的例子的解释图。
[图8]图8是用于描述屏幕的区域分割的例子的解释图。
[图9]图9是用于描述根据相同实施例的信息处理方法的处理流程的解释图。
[图10]图10是用于描述根据相同实施例的信息处理方法的处理流程的解释图。
[图11]图11是用于描述根据相同实施例的第一修改的操作的解释图。
[图12]图12是用于描述根据相同实施例的第一修改的屏幕切换的解释图。
[图13]图13是用于描述根据相同实施例的第一修改的屏幕切换的解释图。
[图14]图14是用于描述根据相同实施例的第一修改的操作方向的解释图。
[图15]图15是用于描述相同实施例的第二修改的解释图。
[图16]图16是用于描述相同实施例的第二修改的解释图。
[图17]图17是用于描述相同实施例的第三修改的解释图。
[图18]图18是用于描述相同实施例的第四修改的解释图。
[图19]图19是用于描述相同实施例的应用例子的解释图。
[图20]图20是用于描述相同实施例的应用例子的解释图。
[图21]图21是用于描述相同实施例的应用例子的解释图。
[图22]图22是用于描述相同实施例的应用例子的解释图。
[图23]图23是用于描述相同实施例的应用例子的解释图。
[图24]图24是用于描述相同实施例的应用例子的解释图。
[图25]图25是用于描述相同实施例的应用例子的解释图。
[图26]图26是用于描述相同实施例的应用例子的解释图。
[图27]图27是用于描述相同实施例的应用例子的解释图。
[图28]图28是用于描述相同实施例的应用例子的解释图。
[图29]图29是用于描述相同实施例的应用例子的解释图。
[图30]图30是用于描述相同实施例的应用例子的解释图。
[图31]图31是用于描述相同实施例的应用例子的解释图。
[图32]图32是用于描述相同实施例的应用例子的解释图。
[图33]图33是用于描述相同实施例的应用例子的解释图。
具体实施方案
以下,将参考所附附图详细描述本发明的优选实施例。注意,在本说明书和附图中,具有大体相同的功能和结构的元件被以相同的参考符号表示,并且忽略重复的解释。
附带地,将以下面的顺序给出描述。
1:概述
2:基本配置(单指粗划)
2-1:总体配置(图1到3)
2-2:单指粗划的基本操作(图4)
2-3:单指粗划中的操作方向的例子(图5和6)
2-4:屏幕的区域分割的例子(图7和8)
2-5:处理流程(图9和10)
3:第一修改(双指粗划)
3-1:双指粗划的基本操作(图11)
3-2:双指粗划中的屏幕切换(图12和13)
3-3双指粗划中的操作方向的例子(图14)
4:第二修改(1.5手指粗划;图15和16)
5:第三修改(单指扭转粗划;图17)
6:第四修改(1.5手指扭转粗划;图18)
7:应用例子
7-1:应用切换的应用例子(图19到22)
7-2模式切换的应用例子(图23和24)
7-3参数值设置的应用例子(图25到28)
7-4:页移动操作的应用例子(图29和30)
7-5:附加信息提供的应用例子(图31和32)
7-6:游戏的应用例子(图33)
8.总结
<1:概述>
除了围绕触控板的一个点执行的以指尖等等进行的正常操作之外,本公开涉及通过手指腹等等执行的触控板的操作,以及对操作方向的检测。在当前公开中,通过不仅以指尖而且以指腹触摸触控板的大的面积进行的操作方法将被称为粗划。
下面,首先,将描述以一个操作体(手指或者触摸笔等等)执行粗划的单指粗划模式和检测正常操作的正常模式的最基本的切换方法,以及单指粗划的内容。接着,将描述以两个操作体执行的粗划、与正常操作结合的粗划、或者不同于单指粗划的通过操作体的运动执行操作的粗划作为修改。
此外,将描述应用例子,其中粗划操作被用于各种设备的各种功能。
<2:基本配置(单指粗划)>
下面,将描述单指粗划模式和正常模式的切换方法和单指粗划的内容,该切换方法是本公开的最基本的配置。单指粗划指以一个手指,不仅是以指尖,触摸触控板的大的面积,并且当该手指在垂直于该手指的水平方向上移动时,切换屏幕或者功能的操作方法。
<2-1:总体配置(图1到3)>
以下,参考图1到3描述根据本实施例的信息处理装置的总体配置。图1是用于描述根据本实施例的信息处理装置的基本配置的解释图。
图1所示的总体配置是一个例子,并且可以修改、增加或者去除某些组件。下面,将主要描述包括内嵌式触控板的信息处理装置,其中触控板功能被结合在液晶面板内。
如图1所示,信息处理装置10主要包括操作检测部分102、操作体位置/形状指定部分104、模式切换部分110、正常模式执行部分112和粗划模式执行部分114。
另外操作体位置/形状指定部分104包括操作区域指定部分106和长宽比计算部分108。粗划模式执行部分114包括操作体方向检测部分116、操作方向确定部分118、显示控制部分119和显示部分120。
在通过信息处理装置10的用户执行操作的情况下,首先,操作检测部分102检测有关的操作。在该触控板上,用户以手指或者触摸笔等等执行操作。
例如,比如嵌入式触控板内的导体,操作检测部分102包括获得能够区分用户的手指与触控板接触的状态、用户的手指处于接近的状态和用户的手指与触控板分离的状态的信息的传感器。
在本公开中,用户在显示部分120的屏幕上进行的操作可以分为接触和无接触,并且还可以分为接近和不接近。然而,下面,将主要描述通过接触执行用户操作的情况。
操作检测部分102检测用户的手指的触摸。在将被检测的对象中,包括用户旨在执行正常操作而以指尖触摸的情况,和用户旨在执行粗划而在大面积内触摸(包括指腹)的情况。
在用户在显示部分120的屏幕上执行操作的情况下,来自操作检测部分102的信号被输入到操作体位置/形状指定部分104。
当指示用户在显示部分120的屏幕上执行操作的信号被从操作检测部分102输入时,操作体位置/形状指定部分104指定该操作体(诸如手指)的形状。通过指定该形状,旨在区分正常触摸和用于执行粗划的触摸。
图2是用于描述操作检测方法的解释图。图2(a)示出了正常触摸。另外,图2(b)示出了旨在粗划的触摸。
图2(a)的TA指示在用户以手H1按正常方法触摸信息处理装置10的情况下的接触区域。图2(b)的TB指示在用户旨在执行粗划以手H2触摸信息处理装置10的情况下的接触区域。
如图2(a)的接触区域TA和图2(b)的接触区域TB中所示,正常方法中的触摸的情况和旨在粗划的触摸的情况在接触区域的形状方面不同。在旨在粗划的触摸的情况下,与正常触摸的情况相比,接触区域的形状是长边长的形状,因此指腹也触摸显示部分120的屏幕。
另外,认为接触区域的面积与正常情况相比也将增加,但是正常触摸的情况和旨在粗划的触摸的情况中的每一种情况下的接触区域的面积在不同用户之间具有非常大的差异。
此外,用户正常触摸的情况下和用户旨在粗划的触摸的情况下的接触区域的面积的差或者比值在不同用户之间也具有非常大的差异。
因此,在本实施例中,在接触区域的形状方面,关注接触区域的长宽比,但是不排除通过关注接触区域的面积指定接触区域的形状。
下面,将参考图3详细描述操作体位置/形状指定部分104。图3是用于描述根据相同实施例的操作体形状指定方法的解释图。图3(a)示出了正常触摸。另外,图3(b)示出了旨在粗划的触摸。
与图3(a)所示的正常触摸的情况相比,在图3(b)所示的旨在粗划的触摸的情况下,当以矩形包围接触区域时,长边方向上的长度和横向方向上的长度的比值是大的。
鉴于上面所述的差异,可以通过以矩形围绕特定的接触区域,并且使用该矩形的长宽比的差异区分正常触摸和旨在粗划的触摸。
操作体位置/形状指定部分104的操作区域指定部分106首先指定操作体接触显示部分120的屏幕处的接触区域。
检测接触区域的方法的例子包括测量显示部分120的每一部分的压力的方法。
此外,操作区域指定部分106以最佳地围绕该接触部分的形状的矩形围绕指定的接触部分,并且测量该矩形在长边方向上的长度和该矩形在横向方向上的方向。此处,最佳地围绕该接触部分的形状的矩形是,例如,外切该接触部分的矩形。
另外,操作区域指定部分106指定围绕该接触部分的矩形的位置和方向,并且将关于该位置和方向的信息输出给粗划模式执行部分114。
操作区域指定部分106测量的该矩形在长边方向上的长度h和该矩形在横向方向上的长度w被输入到长宽比计算部分108。长宽比计算部分108计算长边方向上的输入长度h和横向方向上的输入长度w的比值,作为围绕该接触部分的矩形的长宽比。
由长宽比计算部分108计算的该矩形的长宽比被输入到模式切换部分110。模式切换部分110根据围绕该接触部分的矩形的长宽比的范围选择正常模式和粗划模式中的一个。
例如,当围绕该接触部分的矩形的长宽比大于或等于预定阈值TH时,模式切换部分110选择粗划模式,并且当小于预定阈值TH时,模式切换部分110选择正常模式。
阈值TH可以根据用户的手指的形状和操作方法恰当地改变。
在模式切换部分110选择正常模式的情况下,正常模式执行部分112执行正常模式。在正常模式下,用户以指尖等等执行精细操作,并且正常模式执行部分112根据用户的操作执行各种应用。
在模式切换部分110选择粗划模式的情况下,粗划模式执行部分114执行粗划模式。
由操作体位置/形状指定部分104指定的围绕该接触部分的矩形的位置和方向的信息被输入到粗划模式执行部分114的操作体方向检测部分116。
当操作体接触显示部分120的屏幕时,操作体方向检测部分116基于围绕该接触部分的矩形的输入位置和方向检测操作体的方向。例如,操作体方向检测部分116检测该矩形的长边方向作为操作体的方向。
由操作体方向检测部分116检测的操作体的方向被输入到操作方向确定部分118。操作方向确定部分118根据检测的操作体的方向确定用户可以移动操作体的一个方向或者多个方向。操作方向确定部分118确定,例如,垂直于检测的操作体的方向的方向作为操作方向。
例如,在操作体方向检测部分116检测该接触部分的长边方向作为操作体的方向的情况下,操作方向确定部分118确定该接触部分的横向方向作为操作方向。
另外,操作方向确定部分118包括针对用户可以移动操作体的每一个方向分配与相关方向对应的命令的功能。
因为根据用户的意图确定接触显示部分120的屏幕的操作体的方向,通过如上所述根据操作体的方向确定用户可以移动操作体的方向,实现更直观的操作。
粗划模式执行部分114可以基于操作体的位置的改变指定操作体的运动,由操作体位置/形状指定部分104的操作区域指定部分106指定操作体的位置的改变。
然而,如上所述,在粗划模式中,由操作方向确定部分118确定用户可以移动操作体的方向。因此,当操作体的运动被以向量表示时,基于通过使用由操作方向确定部分118确定的方向的分量执行下面的处理的假设给出描述。
然而,除了下面的处理之外,不排除通过使用与由操作体方向确定部分118确定的方向不同的运动执行其它处理。
指示操作体的方向的信息被从操作体方向检测部分116输入到显示控制部分119。此外,指示操作方向的信息被从操作方向确定部分118输入到显示控制部分119。此外,操作体的位置信息被从操作体位置/形状指定部分104输入到显示控制部分119。
显示控制部分119基于该输入信息执行显示部分120的显示控制。对于关于用户操作的显示控制和命令分配方法的细节的例子,参考下面的部分2。
至此,已经参考图1到3描述了根据本实施例的信息处理装置10的基本配置。
附带地,即使当以模式切换部分110选择正常模式和粗划模式中的一个时,可以通过用户接触操作体的后续方法执行从正常模式到粗划模式的切换或者从粗划模式到正常模式的切换。
[2-2:单指粗划的基本操作(图4)]
下面,将参考图4描述单指粗划模式的基本操作。单指粗划是由粗划模式执行部分114执行的粗划中的最基本的一种。
图4是用于描述粗划模式中的基础操作方法的解释图。在图4中,示出了从(a)到(c)的屏幕显示转变。
图4的R1指示围绕由用户操作的操作体和显示部分120的屏幕之间的接触区域,以便最佳地包括该接触区域的矩形(以下,简称为矩形)。该矩形可被显示在显示部分120上,并且可被仅用于处理,而不被显示。
如上所述,操作体的方向不限于矩形的长边方向,但是在下面,基于该矩形的长边方向是操作体的假设给出描述。
另外,在用户使得操作体接触显示部分120的屏幕的情况下,将参考图4(a)描述首先由信息处理10执行的处理。
显示控制部分119在显示部分120的该矩形的位置显示光标C1。显示控制部分119这样显示光标C1,使得光标C1长边方向与该矩形的长边方向重合。
另外,显示控制部分119显示对应于操作方向确定部分118确定的方向和用户可以移动操作体的方向(以下称为操作方向)的箭头A1_R和箭头A1_L。
例如,矩形的横向方向是操作方向,显示控制部分119在光标C1一侧显示箭头A1_L,并且在光标C1的另一侧显示箭头A1_R。
如上所述,通过显示对应于用户可以移动操作体的方向的箭头等等,并且将用户诱导到操作体的移动方向,可以给用户提供更平滑的操作感觉。
此外,显示控制部分119以操作体的长边方向作为基准(边界),在两侧执行不同的屏幕显示。这对应于不同的命令或者应用。例如,在用户执行该操作之前,显示控制部分119在显示部分120上显示图4的PIC1的屏幕。
然后,如图4(a)所示,当用户旨在粗划接触显示部分120的屏幕时,显示控制部分119以光标C1的长边方向为基准,在左侧和右侧显示不同的图像PIC1和PIC2。
例如,图像PIC1是在开始各种应用之前在待机时显示的主页图像等等,并且图像PIC2是与考虑的特定应用或功能相关联的图像。
在这种情况下,当显示主页图像PIC1时,用户可以通过旨在粗划的触摸调用与图像PIC2相关联的应用,并且根据本实施例的技术可被作为快捷功能应用。
当用户旨在粗划接触显示部分120的屏幕时,如上所述执行图4(a)所示的屏幕显示。
接着,考虑用户在使得操作体接触显示部分120的屏幕的同时移动操作体的情况。图4(b)是用于描述用户在图4(a)所示的状态下进一步在纸面上向左侧移动操作体的情况的解释图。
当用户在纸面上向左侧移动操作体时,操作体位置/形状指定部分104根据该运动指定操作体的位置和方向,并且粗划模式执行部分114确定操作方向,并且执行显示控制。
当用户移动操作体时,显示控制部分119跟随显示的光标C1的位置或者显示的箭头A1_R或者A1_L的位置。另外,当光标C1移动时,还以光标C1的位置作为边界,改变显示部分120的屏幕分割的边界位置。
如图4(a)所示,旨在执行粗划的用户使得操作体在所希望的位置接触。然后,可以通过将操作体移动到所希望的位置,改变显示所显示的图像PIC1的屏幕和显示图像PIC2的屏幕中的每一个在整个显示部分120内的面积比。
接着,作为用户打算进行的动作,存在对图像PIC1的选择或者对图像PIC2的选择。附带地,当选择每一个图像时,信息处理10可以执行该应用的启动,或者与每一个图像相联系的功能的执行。
例如,当用户使得操作体接触显示部分120的屏幕,并且使得操作体离开时,可以通过操作体的位置或者接触显示部分120的屏幕的操作体在分离前一刻的移动方向,确定用户打算选择以光标C1的位置作为边界的两个图像之间的哪一个。
例如,考虑显示部分120的屏幕被沿着操作体的长边方向分为两个区域。一个区域被称为第一区域,并且另一个区域被称为第二区域。
在图4中,第一区域和第二区域中的一个是左区域,并且另一个是右区域。
例如,如图4(c)所示,如果操作体在用户分离操作体的前一刻所接触的显示部分120的位置是显示部分120的左区域,可以确定选择了显示在光标C1的右侧上的图像PIC2。在这种情况下,显示控制部分119在显示部分120的整个屏幕上显示图像PIC2。
在另一方面,如果操作体在用户分离操作体的前一刻所接触的显示部分120的位置是显示部分120的右区域,可以确定选择了显示在光标C1的左侧上的图像PIC1。在这种情况下,显示控制部分119在显示部分120的整个屏幕上显示图像PIC1。
另外,除了操作体在用户分离操作体的前一刻所接触的位置之外,显示控制部分119可以考虑操作体的移动方向,切换在显示部分120上显示的图像。
例如,在检测到用户从显示部分120的左侧向右侧移动操作体,并且在该运动之后,检测到用户在右区域分离操作体的情况下,可以确定选择了显示在左区域上的图像。在这种情况下,显示控制部分119在显示部分120的整个屏幕上显示所选择的图像。
在另一方面,在检测到用户从显示部分120的左侧向右侧移动操作体的情况下,如果用户在左区域中分离操作体,确定用户中途停止了执行切换图像的操作,并且显示在右区域显示的图像。
如上所述,通过根据操作体的方向和分离前一刻操作体的位置,切换在显示部分120上显示的图像,可以流畅地执行反映用户的意图的直观的操作。
至此,已经参考图4描述了单指粗划模式的基本操作。
[2-3:单指粗划的操作方向的例子(图5和6)]
在上面对基本操作的描述中,参考图4描述了显示部分120的长边方向与操作体的横向方向一致的情况,但是根据本实施例的技术的范围不限于此。
操作体位置/形状指定部分104指定操作体的位置和形状,并且粗划模式执行部分114的相应部分根据操作体的位置和形状执行显示控制等。
下面,将与参考图5和6的显示例子一起描述操作体的接触方向与图4的情况不同的情况。图5和6是用于描述操作方向的例子的解释图。
例如,如图5所示,在用户使得操作体接触,从而显示部分120的长边方向与操作体的横向方向一致的情况下,显示光标C1,使得光标C1在显示部分120的长边方向上穿过操作体的位置。另外,以光标C1的位置为边界,显示控制部分119在一侧显示箭头A1_U,并且在另一侧显示箭头A1_D。
此外,以光标C1的位置为边界,显示控制部分119显示图像PIC1和图像PIC2。
用户可以通过在显示部分120的横向方向上移动操作体切换屏幕。
另外,如图6所示,可以使得操作体在显示部分120的长边方向或者横向方向之外的方向上接触显示部分120的屏幕。
如上所述,可以根据操作体的接触方向改变屏幕显示方法。另外,在使得操作体接触的同时,可以根据操作体的接触方向显示不同图像。
例如,在图像PIC1被显示在显示部分120上的情况下,当检测到操作体在显示部分120的长边方向上的接触时,除了图像PIC1之外,显示控制部分119显示图像PIC2。
在另一方面,在图像PIC1被显示在显示部分120上的情况下,当检测到操作体在显示部分120的横向方向上的接触时,除了图像PIC1之外,显示控制部分119显示图像PIC3。
如上所述,通过关联操作体的多个接触方向,可以在保持直观的操作感觉的同时,实现更多操作的变化。
至此,参考图5和6描述了操作方向的例子。
[2-4:屏幕的区域分割的例子(图7和8)]
已经给出了根据操作体在用户从显示部分120的屏幕分离操作体的前一刻的位置,确定用户选择哪一个图像的方法的描述(换言之,是否选择了与该图像相关联的功能或者应用)。
在那时,当显示部分120被划分为两个区域时,确定操作体的位置属于哪个区域。上面的描述已经给出了显示部分120的屏幕被沿着操作体的长边方向分成两个区域的情况。
在这种情况下,如图7所示,显示部分120被穿过显示部分120的中心分成两个区域(第一区域RF和第二区域LF)。
另外,除了如上所述分割屏幕的区域的方法之外,可能存在参考操作体的位置更加相对地分割屏幕的区域的方法。
例如,如图8所示,根据矩形R1的长边方向上的穿过用户使得操作体接触显示部分120的开始位置的线,显示部分120的屏幕可被划分为两个区域(第一区域RF和第二区域LF)。
[2-5:处理流程(图9和10)]
下面,将参考图9到10描述根据本实施例的由信息处理装置10执行的处理流程。图9和10是用于描述由信息处理装置10执行的处理流程的解释图。图10是用于描述图9的处理步骤S110的细节的流程图。
如图9所示,首先,操作检测部分102确定信息处理装置10的操作是否已被用户执行(S102)。
在未检测到用户执行信息处理装置10的操作的情况下,处理流程等待,直到检测到为止。
在检测到用户执行信息处理装置10的操作的情况下,操作区域指定部分106指定操作区域(S104)。该操作区域对应于当用户通过使得操作体接触显示部分120的屏幕而执行该操作时,操作体和显示部分120之间的接触区域。
操作区域指定部分106首先指定该操作区域,并且然后以最佳包括该操作区域的矩形围绕指定的操作区域。此外,还指定相关矩形在长边方向的长度和相关矩形在横向方向上的长度。操作区域指定部分106测量该矩形在长边方向上的长度h和该矩形在横向方向上的长度w。
随后,长宽比计算部分108计算操作区域指定部分106测量的长边方向上的长度h和横向方向上的长度w的比值,作为该矩形的长宽比(S106)。
随后,模式切换部分110基于该矩形的长宽比,执行正常模式和粗划模式的切换。
例如,模式切换部分110确定该矩形的长宽比是否大于或等于预定阈值(S108)。
在该矩形的长宽比大于或等于预定阈值的情况下,模式切换部分110选择粗划模式。粗划模式执行部分114执行粗划模式(S110)。
在另一方面,在该矩形的长宽比小于预定阈值的情况下,模式切换部分110选择正常模式。正常模式执行部分112执行正常模式(S112)。
在执行粗划模式或者正常模式,并且完成了由用户进行的一系列操作以及信息处理装置10基于该相关操作的操作的情况下,信息处理装置10等待来自用户的下一个操作。
在执行等待来自用户的操作的情况下,信息处理装置10再次执行从处理步骤S102的操作检测开始的一系列处理。在另一方面,在在预定的时间内未执行来自用户的操作的情况下,信息处理装置10结束一系列处理(S114)。
至此,已经参考图9描述了以信息处理装置10执行的处理的整个流程。下面,将参考图10描述在图9的步骤S110由粗划模式执行部分114执行的处理的细节。
如图10所示,首先,粗划模式执行部分114的操作体方向检测部分116检测操作体的方向(S1102)。例如,操作体方向检测部分116检测围绕该操作体的矩形的长边方向,作为操作体的方向。
随后,操作方向确定部分118确定用户可以移动操作体的方向(S1104)。例如,操作方向确定部分118确定垂直于操作体的方向的方向作为操作方向。
随后,当粗划模式执行部分114检测到操作体的运动时(S1106),显示控制部分119根据检测到的运动,执行显示部分120的显示控制。例如,显示控制部分119在操作体的位置沿着操作体的长边方向显示光标C1,显示指示操作方向的箭头A1_R和A1_L,以光标C1的位置作为边界分割屏幕,并且在相应的屏幕上显示不同的图像。然后,信息处理装置10结束一系列处理(S1108)。
至此,已经参考图10描述了在图9的步骤S110由粗划模式执行部分114执行的处理的细节。
附带地,上面的处理流程是由信息处理装置10执行的处理流程的例子,并且某些处理步骤的顺序可被改变或者忽略。
<3:第一修改(双指粗划)>
至此,已经描述了以一个操作体执行的单指粗划。下面,将描述关于以两个操作体执行的双指粗划的第一修改。双指粗划模式是这样的模式,其中单指粗划模式的技术(其是与单指粗划相关联的技术)被与两个操作体相关联。
[3-1:双指粗划的基本操作(图11)]
下面首先参考图11描述由用户执行的双指粗划的基本操作,以及根据用户的操作由信息处理装置10执行的双指粗划模式。图11是用于描述本修改的操作的解释图。
如图11(a)所示,当用户以作为执行旨在执行粗划的操作的一个操作体的第一操作体(例如,一只手的手指等等)接触显示部分120的屏幕时,首先执行单指粗划模式。
附带地,在图11(a),R1指示对应于第一操作体的矩形。矩形R1可被实际地显示在显示部分120上,或者可以不被显示。
如上所述,在用户操作第一操作体,并且信息处理装置10的粗划模式执行部分114执行粗划模式的同时,在用户进一步以不同于第一操作体的第二操作体接触显示部分120的屏幕的情况下,启动双指粗划模式的执行。
操作体位置/形状指定部分104以类似于第一操作体的位置和形状的指定的方式,执行第二操作体的位置和形状的指定。粗划模式执行部分114通过使用操作体位置/形状指定部分104的指定结果执行双指粗划模式。
图11(b)示出了在双指粗划模式的执行过程中,由用户观看到的图像。在图11中,在单指粗划模式的执行过程中,第二操作体接触显示部分120,使得第一操作体的长边方向与第二操作体的长边方向重合。
在图11(b)中,R2指示对应于第二操作体的矩形。矩形R2可被实际地显示在显示部分120上,或者可以不被显示。
显示控制部分119在显示部分120的矩形R2的位置显示对应于第二操作体的光标C2。显示控制部分119显示光标C2,使得光标C2长边方向与该矩形的横向方向一致。
如上所述,在双指粗划模式中,以两个操作体(第一操作体和第二操作体)显示两个光标C1和C2。显示部分120的屏幕被以两个光标C1和C2分成三个区域。
因此,在双指粗划模式的执行过程中,除了单指粗划模式的执行过程中的图像PIC1和PIC2之外,显示控制部分119显示第三图像PIC3。
在被划分为三个区域的显示部分120的屏幕区域上分别显示三个图像PIC1、PIC2和PIC3的情况下,可以相对于在屏幕区域上显示哪些图像和图像被显示在哪些屏幕区域上,考虑六个模式。
然而,当考虑在显示图像PIC1和PIC2的状态下,用户执行附加操作以便显示图像PIC3时,如果在双指粗划模式的执行过程中被附加地显示的图像PIC3被显示在光标C1和C2之间的区域内,则用户容易理解和进行操作。
因此,下面将主要描述在双指粗划模式的执行过程中被附加地显示的图像PIC3被显示在光标C1和C2之间的区域内的情况。在这种情况下,当从用户处观看时,如图11(b)所示,与一个新的不同的应用或功能相关联的图像PIC3被插入最初显示在显示部分120的屏幕上的图像PIC1和PIC2之间。
当用户移动第一操作体或者第二操作体时(粗划),光标C1和C2跟随操作体移动。另外,显示相应图像的相应屏幕与整个显示部分120的面积比根据光标C1和C2的运动而改变。
至此,已经参考图11描述了用户执行的双指粗划的基本操作,以及信息处理装置10根据用户的操作执行的双指粗划模式。
[3-2:双指粗划中的屏幕切换(图12和13)]
下面,假设如上所述执行双指粗划模式,将描述由用户执行的切换到所希望的屏幕的方法。
当执行双指粗划模式时,图像PIC1、PIC2和PIC3被以两个光标C1和C2的位置作为边界,显示在相应的屏幕内。
首先,将参考图12描述用户选择显示在显示部分120的屏幕内的两侧区域上的图像之一的情况。图12(a)的例子对应于用户选择图像PIC1或者图像PIC2的情况。
用户移动第一操作体或第二操作体或这两者,使得第一操作体和第二操作体彼此接近。在这种情况下,显示在显示部分120的屏幕的中心区域内的图像(在图12(a)的例子中,图像PIC3)的显示区域根据该运动而变窄。
如上所述,在用户移动操作体,使得预定图像(在图12(a)的例子中,图像PIC3)的显示区域变窄的情况下,认为无意选择该图像。换言之,认为选择该图像之外的图像(在图12(a)的例子中,图像PIC1和PIC2)。
另外,当第一操作体和第二操作体被置于一个预定距离内的非常接近的程度时,如果难以将这两个操作体置于该预定距离内的非常接近的程度,区分这两个操作体的需要被减小了。
因此,在双指粗划模式中,在第一操作体和第二操作体之间的距离DIS小于预定阈值的情况下,粗划模式执行部分114从双指粗划模式切换到单指粗划模式。
图12(b)示出了从双指粗划模式切换到单指粗划模式之后的屏幕显示例子。
即,在切换到单指粗划模式之后,显示控制部分119显示一个光标C1,或者以光标C1为边界的两个图像,或指示用户可以移动操作体的方向的箭头A1_R和A1_L。
此处,考虑在从双指粗划模式切换到单指粗划模式时两个操作体全部接触显示部分120的情况。
在这种情况下,例如,考虑信息处理装置10检测接触显示部分120的两个操作体中的哪一个作为执行单指粗划模式的操作体。
在上面的方式中,用户可以在两个接触操作体中的一个接触显示部分120的状态下执行单指粗划。结果,可以流畅地从双指粗划模式切换到单指粗划模式。
在切换到单指粗划模式之后,用户可以执行单指粗划,以便进一步选择在显示部分120上显示的图像中的一个。
例如,在图12(b),用户可以在整个屏幕上显示图像PIC1和PIC2中的图像PIC1,或在整个屏幕上显示图像PIC2。
至此,已经参考图12描述了用户选择显示在显示部分120的屏幕内的两侧区域上的图像中的一个的情况。
接着,将参考图13描述用户选择在光标C1和C2之间显示的图像(例如,图12的图像PIC3)的情况。
在这种情况下,用户移动第一操作体或第二操作体或这两者,使得第一操作体和第二操作体彼此远离。
结果,在第一操作体和第二操作体之间的距离DIS大于或等于该预定阈值的情况下,粗划模式执行部分114确定选择了在第一操作体和第二操作体之间显示的图像(在图13(a)中,图像PIC3)。在这种情况下,粗划模式执行部分114的显示控制部分119在显示部分120的整个屏幕上显示被显示在第一操作体和第二操作体之间的图像。
至此,已经参考图13描述了用户选择被显示在光标C1和C2之间的图像的情况。
[3-3:双指粗划中的操作方向的例子(图14)]
如上所述,在单指粗划中,可以根据用户接触操作体的方向执行显示控制。另外,在双指粗划中,可以根据用户接触两个操作体(第一操作体和第二操作体)的方向执行显示控制。
例如,考虑用户通过使得两个操作体接触显示部分120,从而第二操作体垂直于第一操作体执行双指粗划的情况。在这种情况下,第一操作体的长边方向与第二操作体的横向方向一致。
下面,将根据图14简要地描述第一操作体和第二操作体具有垂直位置关系的情况的双指粗划模式。图14是用于描述本修改中的操作方向的例子的解释图。
如图14(a)所示,当用户在显示部分120上接触第一操作体时执行单指粗划模式。
在这种状态下,用户在垂直于第一操作体的方向上接触第二操作体。操作体位置/形状指定部分104指定第一操作体和第二操作体的位置和形状。粗划模式执行部分114显示控制部分119基于指定的位置和形状,执行显示部分120的显示控制。
图14(b)是双指粗划模式中的显示部分120的屏幕显示例子。在第一操作体的长边方向和第二操作体具有垂直位置关系的情况下,如图14(b)所示,对应于第一操作体的光标C1和对应于第二操作体的光标C2也具有垂直位置关系。
因此,显示控制部分119优选地显示从单指粗划模式的执行开始被连续地显示的光标C1。当执行双指粗划时,显示控制部分119显示光标C2,从而对被以光标C1分割的屏幕区域进行进一步的子分割,并且以光标C2作为边界显示图像PIC2和PIC3。
例如,如图14(b)所示,可以在单指粗划模式中被分割的区域中的被第二操作体接触的区域内执行双指粗划的分割。
<4:第二修改(1.5手指粗划;图15和16)>
至此,已经描述了以一个操作体执行的单指粗划和以两个操作体执行的双指粗划。下面,将参考图15和16描述关于1.5指粗划的第二修改。图15和16示出了根据本修改的屏幕显示例子。
在1.5指粗划中,以两个操作体执行操作。然而,不同于双指粗划,以一个操作体执行单指粗划,并且以另一个操作体执行正常操作。
作为与单指粗划相关联的技术,1.5指粗划模式的技术是单指粗划模式的技术的应用。
如图15(a)所示,用户以一个操作体(第一操作体)执行单指粗划,并且粗划模式执行部分114执行单指粗划模式。
在单指粗划中,显示对应于操作体的方向的光标C1,显示部分120的屏幕被以光标C1的位置作为边界分割,并且分别在分割的屏幕上显示图像PIC1和PIC2。
在这种状态下,用户以第二操作体执行正常操作。如图15(b)所示,用户在被在单指粗划模式中划分的显示部分120的屏幕中的一个屏幕上以第二操作体执行正常操作。
当接触第二操作体时,粗划模式执行部分114执行从单指粗划到1.5指粗划模式的切换。
图15(b)示出了用户以第二操作体在图15(a)中显示图像PIC2的屏幕上执行操作的情况的屏幕显示例子。
图15(b)所示的例子是第一操作体的操作方向垂直于第二操作体的操作方向的情况的屏幕显示例子。
另外,在图16所示的例子中,在(a)中示出了单指粗划模式的执行过程中的屏幕显示例子,并且在(b)中示出了在1.5指粗划模式的执行过程中的屏幕显示例子。
然而,示出了1.5指粗划模式的执行过程中的屏幕显示例子。然而,在图16中,示出了第一操作体的操作方向与第二操作体的操作方向一致的情况的屏幕显示例子。
至此,已经参考图15和16描述了本实施例的第二修改。
<5:第三修改(单指扭转粗划;图17)>
下面,将参考图17描述关于单指粗划的第三修改。图17示出了根据本修改的屏幕显示例子。
在单指扭转粗划中,通过在显示部分120上广泛地接触一个操作体执行操作。然而,不同于通过在显示部分120的屏幕上平行地移动操作体执行操作的单指粗划,通过在显示部分120的屏幕上扭转操作体执行单指扭转粗划。
作为与单指粗划相关联的技术,单指扭转粗划模式的技术是单指粗划模式的技术的应用。
同样,当该操作体在单指粗划模式的执行过程中扭转超过预定值时,粗划模式执行部分114可以执行单指扭转粗划模式。
如图17(a)所示,即使在单指扭转粗划模式中,类似于单指粗划模式的情况,显示控制部分119根据在显示部分120上接触操作体的方向显示光标C1。
同样,显示控制部分119在以光标的位置作为边界分割的显示部分120的屏幕上显示图像。同样,显示控制部分119显示指示操作体可被扭转的方向的箭头A1。
当用户执行扭转粗划时,即,当用户扭转接触显示部分120的操作体时,如图17(b)所示,显示控制部分119逐渐地显示新图像(图像PIC3或者图像PIC4)。
通过如上所述逐渐地显示图像,可以通过如同用户展开扇子的直观运动,显示与所希望的功能等等相关联的图像。
在聚焦于与被显示的图像中的最后显示的图像相关联的功能等等的同时,信息处理装置10等待,直到用户选择该功能。
显示控制部分119给正被选择的图像分配不同于其它图像的颜色,例如,类似于图17(b)的图像PIC4,以便指示聚焦于被显示的图像中的最后显示的图像(换言之,与该图像相关联的预定功能),并且允许用户确认该图像。
作为强调聚焦图像的方法,除了给正被选择的图像分配不同于其它图像的颜色之外,可以给正被选择的图像之外的其它图像分配不同的透明度,或以粗线围绕正被选择的图像。
当用户在聚焦于某个图像的状态下将操作体从显示部分120分离时,信息处理装置10识别出用户选择了与该图像相关联的功能等等,并且执行有关的功能等等。
在另一方面,当用户在图17(b)所示的这种状态下进一步扭转操作体时,显示控制部分119显示与图17(c)所示的另一个功能相关联的图像PIC5,并且将焦点给予该图像。
当用户返回操作体的扭转并且从显示部分120分离操作体时,取消聚焦。
至此,已经参考图17描述了本实施例的第三修改。
<6:第四修改(1.5指扭转粗划;图18)>
下面,将参考图18描述关于1.5指扭转粗划的第四修改。图18示出了根据本修改的屏幕显示例子。
在1.5指扭转粗划中,以两个操作体执行操作。然而,不同于双指粗划或者1.5指粗划,以一个操作体(第一操作体)执行单指扭转粗划,并且以另一个操作体(第二操作体)执行正常操作。
作为与单指扭转粗划相关联的技术,1.5指扭转粗划模式的技术是单指粗划模式的技术的应用。
如图18所示,在以第一操作体执行单指扭转粗划模式的同时,除了以第一操作体显示的图像之外,1.5指扭转粗划模式可以用第二操作体进一步打开另一个图像(在图18的例子中,图像PIC5),并且通过轻敲选择该图像。
如上所述,1.5指扭转粗划,其是单指扭转粗划和正常操作的组合,可以用具有较少步骤的直观操作,选择和执行许多种功能。
至此,已经参考图18描述了本实施例的第四修改。
<7:应用例子>
各种粗划的技术可被应用于各种信息处理装置10。同样,粗划使得可以考虑可由用户执行的信息处理装置10的各种操作。下面,作为应用例子,将描述某些例子。
[7-1:应用切换的应用例子(图19到22)]
下面,将参考图19到22描述一个应用例子,其中关于基本配置和修改的技术被用于与该应用相关联的屏幕的切换。图19到22是用于描述本实施例的应用例子的解释图。
(图19)
图19示出了在具有导航功能的装置11中,切换与用于显示详细地图的应用相关联的图像PIC1和与用于显示宽区域地图的应用相关联的图像PIC2的例子。
作为与用于显示详细地图的应用相关联的图像PIC1,在图19中示出了显示该详细地图的一部分的图像。
同样,类似地,作为与用于显示宽区域地图的应用相关联的图像PIC2,在图19中示出了显示该宽区域地图的一部分的图像。
例如,在用户开车的同时,如果用户以与开车的手相对的手执行粗划,可以流畅地执行详细地图和宽区域地图之间的切换。
同样,除了具有导航功能的装置11中的地图切换之外,可以在操作体的另一侧上显示被显示在该操作体的一侧上的图像的放大或者缩小的图像。
(图20)
图20示出了在具有导航功能的装置11中,切换与用于执行导航的应用相关联的图像PIC1和与用于再现音乐的应用相关联的图像PIC2的例子。
例如,用户通常在整个屏幕上显示地图,并且在观看地图的同时开车。另外,可以考虑用户在执行用于执行导航的应用的同时,通过执行用于再现音乐的应用听音乐的情况。
在用户执行用于再现音乐,例如,选择、再现或者停止音乐的应用的操作的情况下,可以通过简单的操作诸如粗划,执行屏幕切换。
(图21)
本实施例的技术还可以被用于显示设备12诸如电视的屏幕切换。当在显示设备12中,在用户难以直接接触设备的屏幕的情况下,例如,如图21所示,通过在设备中安装照相机CA,可以通过目标识别检测用户的操作。
由于目标识别,显示控制部分119识别操作体诸如用户的手臂ARM,并且在以该操作体指示的屏幕上的位置处显示光标C1。例如,显示控制部分119以图像PIC1显示电视节目,并且以图像PIC2显示不同于图像PIC1的电视节目。
结果,用户可以在观看某个电视节目的同时暂时显示另一个电视节目,并且可以切换显示在显示部分120上的电视节目。
(图22)
另外,在诸如电视的显示设备12中,显示控制部分119可以在以光标C1划分的屏幕上显示活动图像诸如电视节目,并且在另一个屏幕上显示关于节目指南的信息。
至此,已经参考图19到22描述了关于基本配置和修改的技术被用于与应用相关联的屏幕的切换的应用例子。
[7-2:模式切换的应用例子(图23和24)]
下面,将参考图23和24描述关于基本配置和修改的技术被用于模式切换的应用例子。图23和24是用于描述本实施例的应用例子的解释图。
(图23)
例如,在具有多个拍摄模式的成像装置中,使用粗划可以通过具有较少操作步骤的直观操作执行模式切换。
例如,如图23所示,由用户执行正常拍摄模式MD1和夜间拍摄模式MD2之间的切换。
(图24)
另外,例如,在该成像装置中,可以执行拍摄模式MD1和再现模式MD2之间的切换。
通过使用关于粗划的技术,用户可以立即切换用于拍摄被摄体的拍摄模式和用于允许用户确认以前拍摄的图像的再现模式。
结果,例如,在执行再现模式以便确认以前拍摄的图像的同时,当用户想要拍摄被摄体时,该用户可以通过立即切换到拍摄模式拍摄被摄体,而不会遗漏一个快门机会。
至此,已经参考图23和24描述了关于基本配置和修改的技术被用于模式切换的应用例子。
[7-3参数值设置的应用例子(图25到28)]
下面,将参考图25到28描述关于基本配置和修改的技术被用于参数值设置的应用例子。
(图25)
图25示出了以成像装置执行拍摄的用户通过在预览屏幕上执行粗划执行缩放调整的例子。例如,当用户执行旨在粗划的触摸时,如图25(a)所示,显示控制部分119在拍摄的图像PIC1上重叠和显示指示用户可以移动操作体的方向的箭头A1_U或者A1_D。
另外,例如,显示控制部分119执行文本显示W_U,文本显示W_U指示与在以一侧的箭头A1_U指示的方向上移动操作体的情况相关联的成像装置的操作(例如,缩放)。另外,例如,显示控制部分119执行文本显示W_D,文本显示W_D指示与在以另一侧的箭头A1_D指示的方向上移动操作体的情况相关联的成像装置的操作(例如,广角)。
图25(b)示出了用户在以图25(a)中的箭头A1_U指示的方向上移动操作体,并且因此显示缩放的拍摄图像PIC1的情况。
另外,图25(c)示出了用户在图25(a)中的箭头A1_D指示的方向上移动操作体,并且因此显示宽的拍摄图像PIC2的情况。
用户可以执行粗划,而不从显示在预览屏幕上的拍摄图像PIC1上移动视线,并且可以防止因为花费长时间调整缩放而遗漏快门机会。
附带地,除了应用于成像装置的预览屏幕之外,缩放调整功能还可以被用于各种装置中的显示控制。另外,取代指示成像装置的操作的文本显示,可以显示图标等等。
(图26)
如图26所示的例子,显示设备12等等可被配置为执行音量控制。在图26(a)中,以显示设备12的照相机CA捕捉用户举在显示设备12前面的手臂ARM的方式执行目标识别。
例如,当用户从图26(a)所示的手臂ARM的位置移动到图26(b)所示的手臂ARM的位置时,显示设备12根据该运动增加音量。
(图27和28)
如图27所示的例子,当在成像装置中调整参数值诸如快门速度时,还可以应用关于本实施例的技术。例如,在如图27(a)所示启动粗划模式之后,如图27(b)所示,用户在增加快门速度的方向上移动操作体。
附带地,考虑如图27所示显示当前设置的参数值。在图27的例子中,在如图27(a)所示快门速度为1/50的情况下,如果用户执行用于增加快门速度的粗划,如图27(b)所示,快门速度被调整为1/100。
另外,在各种信息处理装置10中,考虑当可以设置多个参数时,给不同参数分配不同操作体的移动方向。用户在与将被调整的参数相关联的预定方向上在显示部分120上接触操作体,并且在该预定方向上移动操作体。
例如,如图27所示,当成像装置检测到操作体在显示部分120的横向方向上的接触,并且检测到操作体在显示部分120的长边方向上的运动时,成像装置调整快门速度。在另一方面,如图28所示,当检测到操作体在显示部分120的长边方向上的接触,并且检测到操作体在显示部分120的横向方向上的运动时,调整ISO感光度。
至此,已经参考图25到28描述了关于基本配置和修改的技术被用于参数切换的应用例子。
[7-4:页移动操作的应用例子(图29和30)]
下面,将参考图29和30描述关于基本配置和修改的技术被用于页移动操作的应用例子。
(图29)
例如,如图29所示,根据本实施例的技术还可以被用于屏幕诸如web浏览器等等上的页移动操作。例如,在显示与某个页相关联的图像PIC2的情况下,在用户启动粗划的情况下,如图29(a)所示,显示控制部分119在操作体的横向方向的一个方向上显示箭头A1_L,在另一个方向上显示箭头A1_R,并且表明操作体的横向方向上的运动是可能的。
另外,考虑显示控制部分119在操作体的一侧上显示与操作(例如“前一页”)相关联的文本显示W_L,并且在操作体的另一侧上显示与操作(例如“下一页”)相关联的文本显示W_R。
例如,如图29(b)所示,当用户在显示与操作(诸如“前一页”)相关联的文本显示W_L的方向上移动操作体时,显示控制部分119显示在图像PIC2的浏览之前以前浏览的图像PIC1,以及当前显示的图像PIC2。用户可以通过粗划执行图像PIC1和PIC2的切换。
另外,如图29(c)所示,当用户在显示与操作(诸如“前一页”)相关联的文本显示W_L的方向上移动操作体时,显示控制部分119显示在图像PIC2的浏览之前以前浏览的图像PIC3,以及当前显示的图像PIC2。用户可以通过粗划执行图像PIC2和PIC3的切换。
(图30)
另外,可以应用于阅读器13等等的页切换。例如,当显示与某个页相关联的图像PIC1时,可以实现当用户执行粗划时,切换到与下一页相关联的图像PIC2的用户界面。
根据上面的配置,用户可以在确认与某个页相关联的图像的同时,移动到与前一页或者下一页相关联的图像。
至此,已经参考图29和30描述了关于基本配置和修改的技术被用于页移动操作的应用例子。
[7-5:附加信息提供的应用例子(图31和32)]
当显示某个图像PIC1时,通过使用根据本实施例的技术,关于图像PIC1的信息可被作为图像PIC2附加地显示。
例如,图31的阅读器13的例子示出了显示关于电子图书的标题或者作者的信息的图像PIC2,以及显示电子图书的主体的图像PIC1。
另外,例如,在图32的显示设备12的例子中,附加信息被与电视节目的图像PIC1一起作为图像PIC2显示。例如,如图32所示,当用户在观看烹调节目的同时需要关于在烹调节目中获得的烹调材料的附加信息时,用户可以通过移动手臂ARM操作显示设备12,并且获得附加信息。
[7-6:游戏的应用例子(图33)]
根据本实施例的技术还可以被用于游戏。例如,如图33所示,考虑当执行粗划时,改变被在屏幕上逐渐显示的人物的表情。
在图33的例子中,人物从图33(a)到图33(c)逐渐地微笑。
上面已经参考附图描述了本发明的优选实施例,当然,虽然本发明不限于上面的例子。本领域的技术人员可以发现在所附权利要求的范围内的各种改变和修改,并且应当理解,它们本质上在本发明的技术范围内。
<8.概述>
最后,简要地概述本实施例的技术思想。在下面描述的技术思想可被应用于各种信息处理装置,诸如PC、移动电话、便携式游戏机、移动信息终端、信息装置和汽车导航系统。
例如,以下面的(1)表示的信息处理装置使得能够考虑到操作体的方向进行更直观的操作。
操作体的长边方向可以取任意的方向,并且可被确定在用户所希望的方向上。根据下面(1)表示的信息处理装置,更具体地,可以基于反映用户的意图的操作体的方向执行操作。
(1)
一种信息处理装置,包括:
操作体方向检测部分,配置为检测操作体的长边方向;和
操作方向确定部分,配置为向以所述操作体的长边方向为基准的方向分配命令。
(2)
根据(1)所述的信息处理装置,
其中所述操作方向确定部分向以所述操作体的长边方向为基准的多个方向分别分配不同命令。
(3)
根据(1)或者(2)所述的信息处理装置,还包括:
显示控制部分,配置为显示指示所述操作体的长边方向的第一显示对象。
(4)
根据(3)所述的信息处理装置,
其中所述显示控制部分显示第二显示对象,所述第二显示对象指示以所述操作体的长边方向为基准的方向。
(5)
根据(3)或者(4)所述的信息处理装置,
其中所述显示控制部分以所述操作体的位置为基准,并且以沿着所述操作体的长边方向为边界划分并且显示屏幕区域。
(6)
根据(5)所述的信息处理装置,
其中所述显示控制部分根据所述操作体的位置和运动中的任意一个或两者,调整各所述屏幕区域相对于整个屏幕的比例。
(7)
根据(1)到(6)中任意一个所述的信息处理装置,还包括:
长宽比计算部分,配置为计算所述操作体的操作区域的长宽比,
其中基于所述区域的长宽比计算所述操作体的长边方向。
(8)
根据(1)到(7)中任意一个所述的信息处理装置,
其中所述操作体方向检测部分检测多个操作体中的每一个的长边方向,和
其中所述操作方向确定部分向以各所述操作体的长边方向为基准的方向分配命令。
(9)
根据(7)所述的信息处理装置,
其中所述长宽比计算部分计算与所述多个操作体中的每一个对应的区域的长宽比,
其中所述操作体方向检测部分检测所述操作体中的所述操作区域的长宽比在预定范围内的操作体的长边方向,和
其中所述操作方向确定部分向以所述操作体的长边方向为基准的方向分配命令。
(10)
根据(1)到(9)中任意一个所述的信息处理装置,还包括:
操作检测部分,配置为检测与所述操作体接触或者接近的操作体的位置。
(11)
一种信息处理方法,包括:
检测操作体的长边方向;和
向以所述操作体的长边方向为基准的方向分配命令。
(12)
一种用于使得计算机执行以下功能的程序:
检测操作体的长边方向的操作体方向检测功能;和
向以所述操作体的长边方向为基准的方向分配命令的操作方向确定功能。
(备注)
操作体位置/形状指定部分104是操作体形状说明部分的例子。另外,显示部分120上显示的箭头是第二显示对象的例子。另外,显示部分120上显示的光标是第一显示对象的例子。
参考符号列表
10 信息处理装置
102 操作检测部分
104 操作体位置/形状说明部分
116 操作体方向检测部分
118 操作方向确定部分
119 显示控制部分

Claims (8)

1.一种信息处理装置,包括:
操作体方向检测部分,配置为检测第一操作体的长边方向;
操作方向确定部分,配置为向以所述第一操作体的长边方向为基准的方向分配第一命令;以及
显示控制部分,配置为显示指示所述第一操作体的长边方向的第一显示对象,以及指示以所述第一操作体的长边方向为基准的方向的第二显示对象,并诱导用户到第一操作体的移动方向,
在所述第一操作体与显示器在第一位置处接触时显示与第一命令相关的第一图像和第二图像,其中第一图像被显示在第一屏幕区域内,第二图像被显示在第二屏幕区域内,所述第一屏幕区域通过显示器内的边界与第二屏幕区域分离,其中以所述第一操作体在第一位置的位置为基准,并且以沿着所述第一操作体的长边方向为所述边界,以及
在所述第一操作体与显示器分离时执行操作,其中所述操作基于当在所述第一操作体与显示器在第一位置接触后所述第一操作体开始从显示器分离时所述第一操作体在显示器上的位置,
其中,当所述第一操作体在不与显示器分离的情况下从第一位置移动到与第一位置不同的第二位置,并且在第二位置处与显示器分离时,所述操作是对第一命令的激活或对第二命令的激活;以及
其中,所述显示控制部分还被配置为:
在第二操作体与显示器在第三位置处接触时显示不同于第一图像和第二图像的第三图像,其中第三图像被显示在第三屏幕区域内,第三屏幕区域通过显示器内的多个边界与第一屏幕区域和第二屏幕区域分离,并且其中第三屏幕区域的位置和面积基于所述第二操作体在显示屏上的长边方向的定向;
其中所述第一图像、所述第二图像和所述第三图像与不同的应用相关联。
2.根据权利要求1所述的信息处理装置,
其中所述操作方向确定部分向以所述第一操作体的长边方向为基准的多个方向分别分配不同命令。
3.根据权利要求1所述的信息处理装置,
其中所述显示控制部分根据所述第一操作体的位置和运动中的任意一个或两者,调整各所述屏幕区域相对于整个屏幕的比例。
4.根据权利要求1所述的信息处理装置,还包括:
长宽比计算部分,配置为计算所述第一操作体的操作区域的长宽比,
其中基于所述区域的长宽比计算所述第一操作体的长边方向。
5.根据权利要求1所述的信息处理装置,
其中所述操作体方向检测部分检测多个操作体中的每一个的长边方向,以及
其中所述操作方向确定部分向以各所述操作体的长边方向为基准的方向分配命令。
6.根据权利要求4所述的信息处理装置,
其中所述长宽比计算部分计算与所述多个操作体中的每一个对应的区域的长宽比,
其中所述操作体方向检测部分检测所述第一操作体中的所述操作区域的长宽比在预定范围内的操作体的长边方向,以及
其中所述操作方向确定部分向以所述第一操作体的长边方向为基准的方向分配命令。
7.根据权利要求1所述的信息处理装置,还包括:
操作检测部分,配置为检测与所述第一操作体接触或者接近的操作体的位置。
8.一种信息处理方法,包括:
检测第一操作体的长边方向;
向以所述第一操作体的长边方向为基准的方向分配第一命令;以及
显示指示所述第一操作体的长边方向的第一显示对象,以及指示以所述第一操作体的长边方向为基准的方向的第二显示对象,以诱导用户到第一操作体的移动方向,
在所述第一操作体与显示器在第一位置处接触时显示与第一命令相关的第一图像和第二图像,其中第一图像被显示在第一屏幕区域内,第一屏幕区域通过显示器内的边界与第二屏幕区域分离,其中以所述第一操作体在第一位置的位置为基准,并且以沿着所述第一操作体的长边方向为所述边界,以及
在所述第一操作体与显示器分离时执行操作,其中所述操作基于当在所述第一操作体与显示器在第一位置接触后所述第一操作体开始从显示器分离时所述第一操作体在显示器上的位置,以及
其中,当所述第一操作体在不与显示器分离的情况下从第一位置移动到与第一位置不同的第二位置,并且在第二位置处与显示器分离时,所述操作是对第一命令的激活或对第二命令的激活;以及
在第二操作体与显示器在第三位置处接触时显示不同于第一图像和第二图像的第三图像,其中第三图像被显示在第三屏幕区域内,第三屏幕区域通过显示器内的多个边界与第一屏幕区域和第二屏幕区域分离,并且其中第三屏幕区域的位置和面积基于所述第二操作体在显示屏上的长边方向的定向;
其中所述第一图像、所述第二图像和所述第三图像与不同的应用相关联。
CN201380015134.4A 2012-03-28 2013-01-11 信息处理装置、信息处理方法和程序 Active CN104246681B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012074213 2012-03-28
JP2012-074213 2012-03-28
PCT/JP2013/050419 WO2013145804A1 (ja) 2012-03-28 2013-01-11 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
CN104246681A CN104246681A (zh) 2014-12-24
CN104246681B true CN104246681B (zh) 2018-07-31

Family

ID=49259090

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380015134.4A Active CN104246681B (zh) 2012-03-28 2013-01-11 信息处理装置、信息处理方法和程序

Country Status (7)

Country Link
US (1) US9582096B2 (zh)
EP (1) EP2837997A4 (zh)
JP (1) JP6036807B2 (zh)
KR (1) KR20140148381A (zh)
CN (1) CN104246681B (zh)
BR (1) BR112014023286A8 (zh)
WO (1) WO2013145804A1 (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2013259613B2 (en) 2012-05-09 2016-07-21 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
EP2741201A3 (en) 2012-12-06 2017-05-17 Samsung Electronics Co., Ltd Display device and method of controlling the same
CN103513817B (zh) * 2013-04-26 2017-02-08 展讯通信(上海)有限公司 一种触控设备及控制其配置操作模式的方法、装置
KR20140141305A (ko) * 2013-05-31 2014-12-10 삼성전기주식회사 화면분할이 가능한 이동통신단말기 및 그 제어방법
CN105283356B (zh) * 2013-06-12 2017-12-12 本田技研工业株式会社 应用程序控制方法以及信息终端
KR102210999B1 (ko) 2013-08-22 2021-02-03 삼성전자주식회사 디스플레이 장치의 애플리케이션 실행 방법 및 그 디스플레이 장치
JP5840722B2 (ja) * 2014-04-10 2016-01-06 ヤフー株式会社 情報表示装置、情報表示方法および情報表示プログラム
KR102264220B1 (ko) * 2014-09-02 2021-06-14 삼성전자주식회사 전자 장치 및 전자 장치의 디스플레이 방법
JP6467827B2 (ja) * 2014-09-02 2019-02-13 カシオ計算機株式会社 撮像装置、画像処理装置、表示制御装置、画像補正方法及びプログラム
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
JP6309926B2 (ja) * 2015-09-16 2018-04-11 本田技研工業株式会社 アプリケーション制御のプログラム、方法、装置、及び記録媒体
KR102461584B1 (ko) * 2015-11-20 2022-11-02 삼성전자주식회사 입력 처리 방법 및 장치
JP7130988B2 (ja) * 2018-03-02 2022-09-06 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
US20220374009A1 (en) * 2021-05-21 2022-11-24 Ideaforge Technology Pvt. Ltd. System and method for displaying elements of an application in split-screen view

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101004657A (zh) * 2006-01-19 2007-07-25 宏达国际电子股份有限公司 直觉式荧幕控制器
CN101739201A (zh) * 2008-11-14 2010-06-16 Lg电子株式会社 用于显示图像数据的无线通信终端和方法
CN102341776A (zh) * 2009-03-09 2012-02-01 索尼公司 信息处理设备、信息处理方法和信息处理程序

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9164654B2 (en) * 2002-12-10 2015-10-20 Neonode Inc. User interface for mobile computer unit
JP4700539B2 (ja) * 2006-03-22 2011-06-15 パナソニック株式会社 表示装置
US7552402B2 (en) 2006-06-22 2009-06-23 Microsoft Corporation Interface orientation using shadows
KR100831721B1 (ko) * 2006-12-29 2008-05-22 엘지전자 주식회사 휴대단말기의 디스플레이 장치 및 방법
JP4609543B2 (ja) 2008-07-25 2011-01-12 ソニー株式会社 情報処理装置及び情報処理方法
JP4683110B2 (ja) 2008-10-17 2011-05-11 ソニー株式会社 表示装置、表示方法及びプログラム
EP2196891A3 (en) 2008-11-25 2013-06-26 Samsung Electronics Co., Ltd. Device and method for providing a user interface
US8368658B2 (en) * 2008-12-02 2013-02-05 At&T Mobility Ii Llc Automatic soft key adaptation with left-right hand edge sensing
JP2010250610A (ja) 2009-04-16 2010-11-04 Sony Corp 情報処理装置、傾き検出方法及び傾き検出プログラム
JP2011014044A (ja) * 2009-07-03 2011-01-20 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
JP2011141753A (ja) 2010-01-07 2011-07-21 Sony Corp 表示制御装置、表示制御方法及び表示制御プログラム
JP5356272B2 (ja) 2010-02-05 2013-12-04 パナソニック株式会社 座標入力装置、座標入力方法、座標入力プログラム、及び携帯端末
US20110252357A1 (en) * 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Concurrently Open Software Applications
JP2011221677A (ja) 2010-04-07 2011-11-04 Sony Corp 電子機器及び操作検知方法
US20120032891A1 (en) * 2010-08-03 2012-02-09 Nima Parivar Device, Method, and Graphical User Interface with Enhanced Touch Targeting
KR101813028B1 (ko) * 2010-12-17 2017-12-28 엘지전자 주식회사 이동 단말기 및 그 디스플레이 제어 방법
KR101718893B1 (ko) * 2010-12-24 2017-04-05 삼성전자주식회사 터치 인터페이스 제공 방법 및 장치
US10042546B2 (en) * 2011-01-07 2018-08-07 Qualcomm Incorporated Systems and methods to present multiple frames on a touch screen

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101004657A (zh) * 2006-01-19 2007-07-25 宏达国际电子股份有限公司 直觉式荧幕控制器
CN101739201A (zh) * 2008-11-14 2010-06-16 Lg电子株式会社 用于显示图像数据的无线通信终端和方法
CN102341776A (zh) * 2009-03-09 2012-02-01 索尼公司 信息处理设备、信息处理方法和信息处理程序

Also Published As

Publication number Publication date
JPWO2013145804A1 (ja) 2015-12-10
EP2837997A1 (en) 2015-02-18
JP6036807B2 (ja) 2016-11-30
WO2013145804A1 (ja) 2013-10-03
BR112014023286A2 (zh) 2017-06-20
KR20140148381A (ko) 2014-12-31
BR112014023286A8 (pt) 2017-07-25
EP2837997A4 (en) 2016-04-20
US20150015520A1 (en) 2015-01-15
US9582096B2 (en) 2017-02-28
CN104246681A (zh) 2014-12-24

Similar Documents

Publication Publication Date Title
CN104246681B (zh) 信息处理装置、信息处理方法和程序
US9753567B2 (en) Electronic medium display device that performs page turning in response to user operation pressing screen, page turning method, and program
US8976140B2 (en) Touch input processor, information processor, and touch input control method
US9357134B2 (en) Electronic apparatus, image sensing apparatus, control method and storage medium
US10282022B2 (en) Control method and control device for working mode of touch screen
US20140189566A1 (en) Method and an apparatus for processing at least two screens
EP3121697A1 (en) Mode-based graphical user interfaces for touch sensitive input devices
CN102830893B (zh) 屏幕显示控制方法及系统
KR20130099186A (ko) 표시 장치, 유저 인터페이스 방법, 및 프로그램
EP2191358A1 (en) Method for providing gui and multimedia device using the same
WO2006020304A2 (en) Mode-based graphical user interfaces for touch sensitive input devices
EP2846243B1 (en) Graphical user interface providing virtual super-zoom functionality
US20130002714A1 (en) Display control apparatus and method for controlling display
JP2015176108A (ja) 表示装置、制御方法及びプログラム
KR101294201B1 (ko) 휴대형 장치 및 그 조작 방법
US10983686B2 (en) Display control apparatus equipped with touch panel, control method therefor, and storage medium storing control program therefor
TWI462034B (zh) 觸控式電子裝置及其數位資訊選取方法
WO2017070926A1 (en) Touch device
TW201346704A (zh) 切換顯示介面之方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant