CN101968695A - 信息处理设备、显示方法和显示程序 - Google Patents
信息处理设备、显示方法和显示程序 Download PDFInfo
- Publication number
- CN101968695A CN101968695A CN2010102338917A CN201010233891A CN101968695A CN 101968695 A CN101968695 A CN 101968695A CN 2010102338917 A CN2010102338917 A CN 2010102338917A CN 201010233891 A CN201010233891 A CN 201010233891A CN 101968695 A CN101968695 A CN 101968695A
- Authority
- CN
- China
- Prior art keywords
- cpu
- image
- screen
- touch
- zone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
- Position Input By Displaying (AREA)
Abstract
本发明公开了信息处理设备、显示方法和显示程序。该信息处理设备包括检测点选物体在显示部件的显示屏上的接触位置的位置检测部件,检测显示屏上被点选物体隐藏的区域的区域检测部件,以及控制部件,该控制部件在接触位置被位置检测部件检测到时,在由区域检测部件检测到的区域外面显示与接触位置相关联的信息。
Description
技术领域
本发明涉及适于应用于例如具有触摸屏的信息处理设备的信息处理设备、显示方法和显示程序。
背景技术
近年来,一种具有触摸屏并且允许用户通过接触显示部件的显示屏来输入信息的信息处理设备正变得广泛可用。
作为一种这样的信息处理设备,例如,已经提出了一种使得用户能够通过触摸被显示在显示屏上的图标来选择该图标的信息处理设备(例如,参见日本未审查专利申请特开2009-10775号公报)。该信息处理设备被配置为根据所选择的图标来执行处理,例如根据所选择的图标来显示菜单。
发明内容
当在上述信息处理设备中显示屏被用诸如手指之类的点选物体触摸时,显示屏的一部分被点选物体隐藏。因此,在例如信息响应于在显示屏上的接触而被显示的情况中,如果该信息被点选物体隐藏,则用户不能看到该信息,使得用户难以操作。
需要提供使得能够进一步改进触摸屏的操作性的信息处理设备、显示方法和显示程序。
根据本发明一个实施例的一种信息处理设备包括检测点选物体在显示部件的显示屏上的接触位置的位置检测部件,检测显示屏上被点选物体隐藏的区域的区域检测部件,以及控制部件,该控制部件在接触位置被位置检测部件检测到时,在由区域检测部件检测到的区域外面显示与接触位置相关联的信息。
根据本发明一个实施例,与接触位置相关联的信息可以以信息不被点选物体隐藏的方式被显示,从而使得用户可以可靠地看到信息,而不论用户如何用点选物体接触显示屏。因此,可以实现能够进一步提高触摸屏的操作性的信息处理设备、显示方法和显示程序。
附图说明
图1是示出第一实施例的概述的功能框图;
图2A和图2B是示出DSC(数字相机)的外部配置的示意图;
图3是示出DSC(数字静止相机)的硬件的框图;
图4A和图4B是用于说明对触摸屏上被手指隐藏的区域的检测的示意图;
图5是用于说明根据第一实施例的图像列表画面的示意图;
图6是用于说明根据第一实施例的地图画面的示意图;
图7是示出根据第一实施例的图像菜单显示过程的流程图;
图8A至图8D是用于说明根据第一实施例的图像列表画面的示意图;
图9是示出根据第一实施例的拍摄位置改正过程的流程图;
图10是用于说明根据第一实施例的地图画面的示意图;
图11是用于说明根据第一实施例的地图画面的示意图;
图12是用于说明根据第一实施例的地图画面的示意图;
图13A和图13B是用于说明根据第一实施例的地图画面的示意图;
图14是示出第二实施例的概述的功能框图;
图15是示出根据第二实施例的地图显示模式操作过程的流程图;
图16A和图16B是用于说明右手操作的示意图;
图17A和图17B是用于说明左手操作的示意图;
图18A和图18B是用于说明根据第二实施例的地图画面的示意图;
图19是示出根据第二实施例的轻敲操作过程的流程图;
图20A和图20B是用于说明根据第二实施例的图像列表画面的示意图;
图21是示出根据第二实施例的拖放操作过程的流程图;
图22A和图22B是用于说明根据第二实施例的图像列表画面的示意图;
图23是示出根据第二实施例的3D地图图像操作过程的流程图;
图24A和图24B是用于说明根据第二实施例的3D地图画面的示意图;以及
图25A和图25B是用于说明根据另一实施例的图像列表画面的示意图。
具体实施方式
以下,将描述用于实施本发明的最佳实施方式(以下,称为实施例)。将按照以下顺序进行描述:
1.第一实施例
2.第二实施例
3.其它实施例
<1.第一实施例>
[1-1.第一实施例的概述]
首先,将描述第一实施例的概述。在描述该概述之后,描述将进行到该实施例的具体示例。
在图1中,标号1表示信息处理设备。信息处理设备1具有检测点选物体在显示部件2的显示屏上的接触位置的位置检测部件3。信息处理设备1还具有检测显示部件2的显示屏上被点选物体隐藏的区域的区域检测部件4。
此外,信息处理设备1还具有控制部件5,其被配置为当接触位置被位置检测部件3检测到时在由区域检测部件4检测到的区域外面显示与接触位置相关联的信息。
根据该配置,信息处理设备1可以以信息不被点选物体隐藏的方式来显示与接触位置相关联的信息,从而使得用户可以可靠地观看信息,而不论用户如何用点选物体接触显示屏。
以下将详细描述如上所述地配置的信息处理设备1的具体示例。
[1-2.DSC(数字静止相机)的外部配置]
接着,参考图2A和图2B,将描述表示上述信息处理设备1的具体示例的数字静止相机(以下,称为DSC)100的外部配置。
DSC 100具有大小可被握在手中的基本上为扁平的长方形形状的外壳101。在外壳101的前表面101A的上部提供取像透镜102、AF(自动对焦)照明系统103和闪光灯104。AF照明系统103兼作自拍定时灯(self-timer lamp)。
此外,可以上下滑动的透镜盖105被附接到前表面101A。向下滑动透镜盖105使得取像透镜102、AF照明系统103和闪光灯104被曝光,而向上滑动透镜盖105使得这些组件被遮盖以进行保护。
应当注意,DSC 100还被配置为通过向下滑动透镜盖105而被自动接通。
在外壳101的上表面101B上提供快门按钮106、回放按钮107和电源按钮108。此外,在外壳101的后表面101C上提供触摸屏109。
回放按钮107是用于将DSC 100的操作模式切换成在触摸屏109上显示所摄图像的回放模式的硬件按键。触摸屏109是允许用用户的手指进行触摸操作的显示装置。
在向下滑动透镜盖105或按下电源按钮108之后,DSC 100接通并以拍摄模式激活。
然后,DSC 100在触摸屏109上显示经由取像透镜102取得的图像作为监控图像。然后,DSC 100在快门按钮106被按下时记录图像。
DSC 100在回放按钮107被按下时变成回放模式。然后,DSC 100例如在触摸屏109上显示所记录的图像之一。然后,DSC 100根据触摸屏109上的触摸操作来切换要显示的图像。
[1-3.DSC(数字静止相机)的硬件配置]
接着,参考图3,将描述DSC 100的硬件配置。在DSC 100,CPU110被配置为通过将被写入ROM 111的程序加载到RAM 112中并且执行该程序来执行各种处理,以及根据来自触摸屏109和操作部件113的信号控制各个部件。顺便提及,术语CPU是中央处理单元的缩写。此外,术语ROM是只读存储器的缩写,并且术语RAM是随机存取存储器的缩写。
触摸屏109是光学传感器型触摸屏。多个像素集例如以矩阵形式被布置在触摸屏109的显示屏上。每个像素集包括作为显示部件109A分别对应于红色显示、绿色显示和蓝色显示的发光装置以及光学传感器109B。
光学传感器109B接收从外部入射到触摸屏109的显示屏上的光,并且每预定时间间隔生成与接收到的光的光强以及其在光学传感器109B的触摸屏109上的位置相对应的信号。光学传感器109B被配置为将该信号发送给CPU 110。
例如,假定如图4A中所示,用户的手指与触摸屏109的显示屏接触。在该情况中,认为指尖与触摸屏109的显示屏接触,并且除了指尖以外的部分不与显示屏接触而是与显示屏接近。
此时,在触摸屏109的显示屏上与用户的手指接触的区域中,显示屏上入射的光被用户手指遮挡,所以,被光学传感器109B接收到的光的光强变小。
在触摸屏109的显示屏上与用户的手指接近的区域中,用户的手指投射出阴影。因此,光学传感器109B接收到的光的光强变得有些小但是比与手指接触的区域中的光强大。
另一方面,在触摸屏109的显示屏上既不与用户的手指接触也不与其接近的区域,入射到显示屏上的光未被遮挡。因此,光学传感器109B接收到的光的光强大于与手指接触或与其接近的区域中的光强。
鉴于此,如图4B中所示,CPU 110检测由光学传感器109B接收到的光的光强小于预定阈值(这将被称为第一阈值)的区域,并且将该区域识别为与手指接触的区域Ra。
然后,CPU 110检测与手指接触的区域Ra的重心作为触摸屏109的显示屏的坐标,并且识别该坐标作为被用户的手指接触的位置Rap(即,接触位置)。
通过基于每预定时间间隔从光学传感器109B发送的信号来顺次识别接触位置Rap,CPU 110识别出接触位置Rap如何移动(即,接触位置Rap的轨迹)。
然后,基于以这种方式识别的接触位置Rap及其轨迹,CPU 110被配置为判断在屏幕上的哪个位置进行了哪种触摸操作。
并且,CPU 110检测被光学传感器109B接收到的光的光强小于比第一阈值大的预定阈值(这也将被称为第二阈值)并且大于第一阈值的区域,并且识别出该区域作为与手指接近的区域Rb。
然后,CPU 110识别出与手指接触的区域Ra和与手指接近的区域Rb中的每一个作为被用户的手指隐藏的区域,并且在该区域外面显示与接触位置Rap相关联的信息。即,CPU 110被配置为以使得与接触位置Rap相关联的信息不被手指隐藏的方式来显示该信息。
关于触摸屏109上在被手指隐藏的区域外面显示与接触位置Rap相关联的信息的处理,稍后将参考图像菜单显示过程和拍摄位置改正过程来进行详细描述。
操作部件113(图3)是包括上述快门按钮106、回放按钮107和电源按钮108的装置。操作部件113将与这各个按钮上的操作相对应的信号发送给CPU 110。
基于从操作部件113发送的信号,CPU 110确定快门按钮106、回放按钮107和电源按钮108中的哪一个已被操作。
实际上,CPU 110在操作部件113的电源按钮108被按下而接通之后或在通过触摸屏109上的触摸操作而被指示将操作模式切换成拍摄模式之后,以拍摄模式操作。
此时,CPU 110控制电机驱动器114来驱动执行器115,从而从DSC110的外壳101对包括上述取像透镜102、AF照明系统103等的透镜部件116曝光。通过驱动执行器115,CPU 110还调节透镜部件116的孔径,改变光学变焦的变焦比,或移动镜头。
此时,CPU 110控制定时生成器(TG)117来向由CCD(电荷耦合装置)等组成的成像装置118提供定时信号。通过基于该定时信号进行操作,成像装置118将经由透镜部件116捕获的来自对象的光转换成电信号(即,执行光电转换),并且将该电信号发送给模拟信号处理部件119。
在CPU 110的控制下,模拟信号处理部件119对该电信号施加模拟信号处理(例如,放大)来获得模拟图像信号,并且将该模拟图像信号发送给模拟/数字转换部件(这将被称为A/D转换部件)120。
在CPU 110的控制下,A/D转换部件120对所发送的模拟图像信号执行模拟/数字转换(A/D转换)来获得数字图像信号,并且将该数字图像信号发送给数字信号处理部件121。
在CPU 110的控制下,数字信号处理部件121对从A/D转换部件120发送的数字图像信号施加数字信号处理(例如噪声去除),并且之后将所产生的信号发送给触摸屏109的显示部件109A。结果,对象的图像被显示为触摸屏109上的监控图像。以这种方式,DSC 100让摄影师检查对象。
此时,在CPU 110的控制下,数字信号处理部件121生成按钮、图标等的图形信号,并且将这些图形信号叠加到数字图像信号上。结果,按钮、图标等和监控图像一起被显示在触摸屏109上。
现在,假定操作部件113的快门按钮106被按下。然后,CPU 110响应于该操作记录图像。
此时,在CPU 110的控制下,数字信号处理部件121以诸如JPEG之类的压缩/解压缩格式压缩从A/D转换部件120发送的数字图像信号来生成压缩后的图像数据,并且将压缩后的图像数据发送给CPU 110。顺便提及,术语JPEG是联合图像专家组的缩写。
此时,在CPU 110的控制下,数字信号处理部件121还生成通过基于该数字图像信号来收缩图像所获得的缩略图像数据,并且将该缩略图像数据发送给CPU 110。
在CPU 110的控制下,GPS模块122从多个GPS卫星接收信号,并且基于这些信号来测量DSC 100的当前位置(纬度、经度等)。然后,GPS模块122将该当前位置,即,指示拍摄时的位置的拍摄位置信息,发送给CPU 110。
CPU 110还从诸如定时器之类的定时部件(未示出)获得当前的日期和时间(即,拍摄的日期和时间)。
然后,CPU 110通过向已被发送的压缩图像添加缩略图像数据、拍摄位置信息、拍摄的日期和时间等来生成图像文件。
然后,CPU 110将该图像文件记录到记录装置123上。以这种方式,CPU 110记录图像。
顺便提及,记录装置123例如是具有约几吉比特至几十吉比特的容量的非易失性存储器。记录装置123可以是预先被建立在DSC 100中的记录介质,或者可以是能被插入DSC 100以及从其移除的记录介质,例如存储卡。
DSC 100还具有与记录装置123分离的EEPROM(电可擦除可编程ROM)124。CPU 110被配置为将即使在电源被关断之后仍然要保留的信息(例如用户设置的各种信息)保存在EEPROM 124上。作为存储这样的信息的记录介质,例如,可以使用闪存来替代EEPROM 124。
另一方面,当操作部件113的电源按钮108被按下时,或当其通过触摸屏109上的触摸操作被指示将操作模式切换成回放模式时,CPU 110以回放模式进行操作。
DSC 100具有以下模式作为回放模式的类型:逐个显示图像的正常显示模式;显示多个图像的列表的列表显示模式;以及在与拍摄位置相对应的地图图像上显示图像的地图显示模式。
当正常显示模式经由触摸屏109被选择时,CPU 110读出被记录在记录装置123上的图像文件之一(例如,具有最近拍摄日期和时间的图像文件)。然后,CPU 110从该图像文件提取压缩后的图像数据并且将压缩后的图像数据发送给数字信号处理部件121。
在CPU 110的控制下,数字信号处理部件121解压缩被发送的压缩后的图像数据来获得原来的压缩前的数字图像信号,并且将该数字图像信号发送给显示部件109A。结果,所回放的图像被显示在触摸屏109上。
当图像列表显示模式经由触摸屏109被选择时,CPU 110读出被记录在记录装置123上的多个图像文件(例如,按照最近的拍摄日期和时间排序的多个图像文件)。然后,CPU 110从这些图像文件提取缩略图像数据,并且将缩略图像数据发送到数字信号处理部件121。
在CPU 110的控制下,数字信号处理部件121基于所发送的缩略图像数据来生成用作图像列表画面的画面显示信号,并且将画面显示信号发送给显示部件109A。结果,如图5中所示,以矩阵形式布置基于缩略图像数据的缩略图像Tp(Tp1,Tp2,...,Tpn)的图像列表画面Ig被显示在触摸屏109上。
当地图显示模式经由触摸屏109被选择时,CPU 110读出被记录在记录装置123上的图像文件(例如,具有最近拍摄日期和时间的图像文件)。
然后,CPU 110从该图像文件提取缩略图像数据,并且将缩略图像数据发送给数字信号处理部件121。在此同时,CPU 110从该图像文件提取拍摄位置信息,从记录装置123读取包括拍摄位置的临近范围的地图图像数据,并且将地图图像数据发送给数字信号处理部件121。
在CPU 110的控制下,数字信号处理部件121基于所发送的缩略图像数据和地图图像数据来生成用作地图画面的画面显示信号,并且将该画面显示信号发送给显示部件109A。
结果,如图6中所示,地图画面Mg被显示在触摸屏109上。在地图画面Mg上,基于缩略图像数据的缩略图像Tp基于地图图像数据被布置在地图图像Mp上与拍摄位置相对应的位置。
在CPU 110的控制下,数字信号处理部件121还生成按钮、图标等的图形信号并且将这些图形信号叠加在数字图像信号上。结果,在触摸屏109上,按钮、图标等被显示在图像列表画面Ig或地图画面Mg上。
以这种方式,CPU 110回放图像。
应当注意,DSC 100的触摸屏109是与上述信息处理设备1的显示部件2相对应的硬件。并且,DSC 100的CPU 110是与上述信息处理设备1的控制部件5相对应的硬件。此外,DSC 100的触摸屏109和CPU 110是与上述信息处理设备1的位置检测部件3和区域检测部件4相对应的硬件。在DSC 100中,触摸屏109和CPU 110相互协作来执行与信息处理设备1的位置检测部件3和区域检测部件4等同的功能。
[1-4.图像菜单显示过程]
当为图像列表显示模式时,DSC 100被配置为显示可以根据诸如删除、编辑和转移之类的用户操作对图像执行的各种处理的菜单。以下,将参考图7中所示的流程图来描述用于显示可以对图像执行的各种处理的菜单的操作过程(以下,将称为图像菜单显示过程)。
顺便提及,该图像菜单显示过程RT1是由DSC 100的CPU 110根据被写入程序ROM 111的程序执行的过程。
当图像列表显示模式经由触摸屏109被选择时,CPU 110启动该图像菜单显示过程RT1,并且转移到步骤SP1。
在步骤SP1中,CPU 110在触摸屏109上显示图像列表画面Ig(图5),其显示如上所述的多个图像的缩略图像Tp的列表,并且转移到下一步骤SP2。
在步骤SP2中,CPU 110判断接触任意缩略图像Tp上的点并且按下该点预定的时间或更长的操作(即,缩略图像Tp上的长按压操作)是否已被执行。
应当注意,在如上所述经由触摸屏109识别出接触位置Rap在任意缩略图像Tp上未被移动达预定时间或更长,则CPU 110认为缩略图像Tp上的长按压操作已被执行。
如果由于长按压操作还未在任意缩略图像Tp上被执行而在步骤SP2得到否定结果,则CPU 110再次返回步骤SP2,并且在任意缩略图像Tp上的长按压操作被执行之前,一直等待。
另一方面,如果由于长按压操作在任意缩略图像Tp上被执行而在步骤SP2得到肯定结果,则CPU 110认为由该任意缩略图像Tp指示的图像已被选择,并且转移到以下步骤SP3。
在步骤SP3中,CPU 110如上所述经由触摸屏109检测触摸屏109上被手指隐藏的区域,并且转移到步骤SP4。
在步骤SP4中,如图8A至图8C所示,CPU 110在图像列表画面Ig上显示指示能对图像执行的各种处理的菜单的图像菜单图标Gm。
具体而言,图像菜单图标Gm例如以被垂直拉长弹出形式被显示。该图像菜单图标Gm包括按照下述顺序从上面开始以水平行提供的删除菜单图标Gm1、编辑菜单图标Gm2和转移菜单图标Gm3。删除菜单图标Gm1指示删除所选择的图像,编辑菜单图标Gm2指示编辑所选择的图像,以及转移菜单图标Gm3指示将所选择的图像转移到外部设备。
此时,CPU 110被配置为要么在被执行长按压操作的缩略图像Tp的右侧要么在左侧的位置、以不与触摸屏109上被手指隐藏的区域覆盖的方式来显示图像菜单图标。
例如,当手指如图8A所示从右下侧接触缩略图像Tp,则缩略图像Tp的右下部分和缩略图像Tp的右下侧是被手指隐藏的区域。此时,如果图像菜单图标Gm被显示在缩略图像Tp的右侧以与缩略图像Tp邻近,则图像菜单按钮Gm位于该区域内的部分被手指隐藏。
在该情况中,CPU 110在缩略图像Tp未与被手指隐藏的区域交叠的左侧的位置处与缩略图像Tp相邻地显示图像菜单图标Gm。
另一方面,当手指如图8B中所示从左下侧接触缩略图像Tp时,缩略图像Tp的左下部分和缩略图像Tp的左下侧是被手指隐藏的区域。此时,如果图像菜单图标Gm被显示在缩略图像Tp的左侧以与缩略图像Tp相邻,则图像菜单图标Gm位于该区域内的部分被手指隐藏。
在该情况中,CPU 110在缩略图像Tp未与被手指隐藏的区域交叠的右侧的位置处,与缩略图像Tp相邻地显示图像菜单图标Gm。
以这种方式,CPU 110在触摸屏109上未被手指隐藏的区域的外面显示图像菜单按钮Gm,并且转移到下一步骤SP5(图7)。
在步骤SP5中,CPU 110判断删除菜单图标Gm1、编辑菜单图标Gm2和转移菜单图标Gm3中的任一个是否已被选择。具体地,当手指在接触触摸屏109的同时被移动到这些图像菜单图标Gm中任一个上的位置并且之后手指被放开时,手指放开的位置处的图像菜单图标Gm被识别为已被选择。
如果在步骤SP5中得到肯定结果,则CPU 110转移到下一步骤SP6。
在步骤SP6中,关于所选择的图像,CPU 110执行与所选择的图像菜单图标Gm相对应的处理。
例如,如图8C中所示,当删除菜单图标Gm1被选择时,CPU 110从记录装置123删除与所选择的图像相对应的图像文件。与此同时,如图8D中所示,CPU 110删除对所选择的图像的缩略图像Tp的显示。
当编辑菜单图标Gm2被选择时,CPU 110显示用于编辑所选择的图像的编辑画面(未示出)。该编辑画面使得用户能够改变图像的饱和度来生成单色的或黑色的图像,或生成亮度或辉度已被改变的图像。
当转移菜单图标Gm3被选择时,CPU 110例如经由DSC 100的USB(通用串行总线)端子(未示出)来将所选择的图像转移到USB设备(例如打印机)。
在以这种方式关于所选择的图像执行与所选择的图像菜单图标Gm相对应的处理之后,CPU 110结束图像菜单显示过程RT1(图7)。
另一方面,如果由于删除菜单图标Gm1、编辑菜单图标Gm2和转移菜单图标Gm3中没有一个被选择而在步骤SP5中获得否定结果,则CPU110转移到步骤SP7。
在步骤SP7中,CPU 110判断手指是否已经从触摸屏109被放开。
如果在步骤SP7中得到否定结果,则CPU 110返回步骤SP5。然后,CPU 110再次判断删除菜单图标Gm1、编辑菜单图标Gm2和转移菜单图标Gm3中的任一个是否已被选择。
另一方面,如果在步骤SP7中得到肯定结果,则CPU 110认为图像已被取消选择,并且使得该图像菜单图标Gm不可见并且返回步骤SP2。然后,CPU 110在缩略图Tp上的长按压操作被执行之前一直等待。
通过上述图像菜单显示过程RT1,DSC 100被配置为显示每个图像菜单图标Gm,并且根据图像菜单图标Gm上的触摸操作来在图像上执行各种处理。
[1-5.拍摄位置改正过程]
可以设想到这样的情况,其中,在拍摄图像时,DSC 100的GPS模块122由于障碍物、噪声等的影响而测得错误的拍摄位置。因此,DSC 1被配置为使得当为地图显示模式时,图像的拍摄位置可以根据用户操作被改正。以下,将参考图9中所示的流程图来描述改正图像的拍摄位置的处理的操作过程(这将被称为拍摄位置改正过程)。
顺便提及,该拍摄位置改正过程RT2也是DSC 100的CPU 110根据被写入程序ROM 111中的程序所执行的过程。
当地图显示模式经由触摸屏109被选择时,CPU 110启动拍摄位置改正过程RT2,并且转移到步骤SP101。
在步骤SP101中,CPU 110在触摸屏109上显示地图画面Mg(图6)并且转移到下一步骤SP102,其中,图像的缩略图像Tp被布置在地图图像Mp上与上述拍摄位置相对应的位置处。
在步骤SP102中,CPU 110判断用手指接触缩略图像Tp上的一点并且在保持手指接触的同时移动手指的操作(即,缩略图像Tp上的拖放操作)是否已被启动。
具体而言,CPU 110在经由触摸屏109识别出缩略图像Tp上的接触位置Rap已被移动预定距离或更长之后,判断缩略图像Tp上的拖放操作是否已被开始。
如果由于缩略图像Tp上的拖放操作还未被开始而在步骤SP102中得到否定结果,则CPU 110再次返回步骤SP102,并且在缩略图像Tp上的拖放操作被执行之前,一直等待。
另一方面,如果由于缩略图像Tp上的拖放操作已被开始而在步骤SP102中得到肯定结果,则CPU 110转移到下一步骤SP103。
在步骤SP103中,CPU 110如上所述经由触摸屏109检测触摸屏109上被手指隐藏的区域并且转移到步骤SP104。
在步骤SP104中,CPU 110在与缩略图像Tp相邻并且在触摸屏109上被手指隐藏的区域外部的位置处显示拍摄位置图标Si。
该拍摄位置图标Si指示用作新的拍摄位置的位置,并且被配置为在缩略图像Tp上的拖放操作期间与缩略图像Tp一起移动。
在缩略图像Tp上的拖放操作被执行的同时,缩略图像Tp被手指隐藏,使得用户难以检查地图图像Mp上缩略图像Tp所位于的位置。因此,通过在拖放操作期间显示与缩略图像Tp相邻的拍摄位置图标Si,用户被通知哪个位置大约会被选作新的拍摄位置。
例如,如图10中所示,当缩略图像Tp左下部分和缩略图像Tp的左下侧是被手指隐藏的区域时,拍摄位置图标Si例如被显示在缩略图像Tp的右下角附近。
然后,CPU 110根据缩略图像Tp上的拖放操作移动缩略图像Tp。与此同时,CPU 110以使得拍摄位置图标Si一直出现在缩略图像Tp的右下角附近的方式移动拍摄位置图标Si。即,CPU 110根据缩略图像Tp的移动来移动拍摄位置图标Si使得其相对于缩略图像Tp的位置不变。
现在,假定手指关于触摸屏109的倾斜在缩略图像Tp上的拖放操作期间已经改变,使得例如如图11中所示,缩略图像Tp的右下部分和缩略图像Tp的右下侧变成被手指隐藏的区域。此时,如果拍摄位置图标Si仍然显示在缩略图像Tp的右下角附近,则拍摄位置图标Si被手指隐藏。
当CPU 110已被移动的拍摄位置图标Si的显示位置位于如上所述被手指隐藏的区域内时,CPU 110将拍摄位置图标Si的显示位置移动到被手指隐藏的区域外面的位置,例如,左下角附近。
并且,假定在缩略图像Tp的拖放操作期间,缩略图像Tp已经如图12中所示移动到地图画面Mg的右端。
此时,如果拍摄位置图标Si仍然显示在缩略图像Tp的右下角附近的位置处,则该位置位于地图画面Mg的外面,所以,拍摄位置图标Si不再能被显示。
当CPU 110判定已被移动的拍摄位置图标Si的显示位置如上所述位于地图画面Mg的外面时,CPU 110将拍摄位置图标Si的显示位置移动到地图画面Mg的里面并且在被手指隐藏的区域外面的位置,例如,在左上角附近。
以这种方式,CPU 110一直在与缩略图像Tp相邻并且在被手指隐藏的触摸屏109上的区域外面的位置处显示拍摄位置图标Si。然后,CPU110移动到下一步骤SP105(图9)。
在步骤SP105中,CPU 110判断用户的手指是否以及从触摸屏109放开。
如果由于用户的手指还未从触摸屏109放开而在步骤SP105中得到否定结果,则这意味着缩略图像Tp上的拖放操作正在继续。此时,CPU 110再次返回步骤SP105,并且在用户的手指从触摸屏109放开之前一直在待机中等待。
另一方面,如果由于用户的手指已经从触摸屏109放开而在步骤SP105中得到肯定结果,则这意味着,缩略图像Tp上的拖放操作已经结束。此时,CPU 110转移到步骤SP106。
在步骤SP106中,CPU 110将由缩略图像Tp指示的图像的拍摄位置改正为当用户的手指从触摸屏109放开时地图图像Mp上该拍摄位置图标Si所位于的位置。即,CPU 110利用指示改正后的拍摄位置的拍摄位置信息来更新被写入图像文件的元数据中的拍摄位置信息。
例如,假定当缩略图像Tp如图13A中所示被移动时,用户的手指从触摸屏109放开。CPU 110此时将由缩略图像Tp指示的图像的拍摄位置改正为拍摄位置图标Si的位置。
此时,如图13B中所示,CPU 110在地图图像Mp上与改正后的拍摄位置相对应的位置处显示缩略图像Tp,并且使得拍摄位置图标Si不可见。
CPU 110以这种方式改正图像的拍摄位置,并且结束拍摄位置改正过程RT2。
[1-6.根据第一实施例的操作和效果]
根据上述配置,基于入射到触摸屏109的显示屏上的光的光强,DSC100的CPU 110检测用户的手指接触显示屏或与其接近的区域。然后,CPU 110检测出该区域作为显示屏上被手指隐藏的区域。
然后,当为图像列表显示模式时,在经由触摸屏109识别出缩略图像Tp上的长按压操作之后,CPU 110在显示屏上被手指隐藏的区域外面显示图像菜单图标Gm。
当为地图显示模式时,在经由触摸屏109识别出缩略图像Tp上的拖放操作之后,CPU 110在显示屏上被手指隐藏的区域外面显示拍摄位置图标Si。
即,CPU 110被配置为根据操作模式,在显示屏上被手指隐藏的区域外面显示与接触位置Rap相关联的信息(在该情况中,为缩略图像Tp上的一点)。
因此,DSC 100可以以信息不被手指隐藏的方式显示与接触位置Rap相关联的信息,从而使得用户可以可靠地观看信息而不论用户如何用手指接触显示屏。
当在地图显示模式中,用手指接触缩略图像Tp上的一点并且在保持手指接触的同时移动手指的操作(即,拖放操作)被执行时,CPU 110根据接触位置Rap的移动来移动缩略图像Tp。
与此同时,CPU 110以使得其相对于缩略图像Tp的位置不变的方式移动拍摄位置图标Si。即,CPU 110以使得其相对于接触位置Rap的位置不变的方式移动拍摄位置图标Si。
当CPU 110判定已被移动的拍摄位置图标Si的显示位置位于触摸屏109的显示屏外面时,CPU 110将拍摄位置图标Si的显示位置移动到在显示屏内并且在被手指隐藏的区域外面的位置。
以这种方式,DSC 100可以以不论缩略图像Tp被移动到哪儿,拍摄位置图标Si都不被手指隐藏的方式来显示拍摄位置图标Si,从而使得用户可以可靠地观看拍摄位置图标Si。
根据上述配置,DSC 100被配置为在触摸屏109的显示屏上被手指隐藏的区域外面显示与接触位置Rap相关联的信息。
因此,DSC 100以使得信息不被手指隐藏的方式来显示与接触位置Rap相关联的信息,从而使得用户可以可靠地观看信息,而不论用户如何用手指接触显示屏。以这种方式,DSC 100使得其可以用触摸屏109提高可操作性。
<2.第二实施例>
[2-1.第二实施例的概述]
首先,将描述第二实施例。在描述第二实施例的概述之后,将继续描述该实施例的具体示例。
在与图1中的部件相对应的部件用相同标号表示的图14中,标号50表示根据第二实施例的信息处理设备。信息处理设备50具有与上述第一实施例相同的位置检测部件3和区域检测部件4。
信息处理设备50还具有基于区域检测部件4检测到的区域关于显示屏的倾斜,来判断点选物体是用户的右手还是用户的左手的判断部件51。
此外,信息处理设备50具有控制部件52,其被配置为当接触位置被位置检测部件3检测到时,在由区域检测部件4检测到的区域外面显示接触位置。控制部件52还被配置为根据判断部件51关于点选物体是用户的右手还是用户的左手进行的判断的结果来改变要被显示的信息。
以下将详细描述DSC 100来作为如上所述地配置的信息处理设备50的一个具体示例。由于DSC 100的硬件配置与根据第一实施例(图3)的硬件配置相同,在这方面参考第一实施例。
在第二实施例中,DSC 100的CPU 110是与信息处理设备50的判断部件51和控制部件52相对应的硬件。并且,触摸屏109和CPU 110是与信息处理设备50的位置检测部件3和区域检测部件4相对应的硬件。
[2-2.地图显示模式操作过程]
根据第二实施例的DSC 100被配置为当为地图显示模式时用户是用右手还是用左手操作触摸屏109来改变要显示的图标的类型。以下,将参考图15中所示的流程图来描述在该地图显示模式中的操作的情况中的操作过程(以下,将称为地图显示模式操作过程)。
顺便提及,该地图显示模式操作过程RT3是由DSC 100的CPU 110根据被写入程序ROM 111的程序执行的过程。
当地图显示模式经由触摸屏109被选择时,CPU 110开始该地图显示模式操作过程RT3,并且转移到步骤SP201。
在步骤SP201中,CPU 110在触摸屏109上显示与在上述第一实施例中相同的地图画面Mg(图6),并且转移到下一步骤SP202。
在步骤SP202中,CPU 110判断缩略图像Tp上的一点是否已被用手指触摸。
如果由于缩略图像Tp上的一点还未被手指触摸而在该步骤SP202中得到否定结果,则CPU 110再次返回步骤SP202。然后,CPU 110在缩略图像Tp上的一点被触摸之前在待机中一直等待。
另一方面,如果由于缩略图像Tp上的一点被手指触摸而在该步骤SP202中得到肯定结果,则CPU 110转移到下一步骤SP203。
在步骤SP203中,CPU 110以和上述第一实施例中相同的方式经由触摸屏109来检测触摸屏109上被手指隐藏的区域,并且转移到步骤SP204。
在步骤SP204中,CPU 110判断基于触摸屏109上被手指隐藏的区域关于显示屏的倾斜来判断用户是用右手还是用左手操作触摸屏109。
例如,如图16A中所示,假定用户的手指正从右下侧接触触摸屏109,即用户正用右手操作触摸屏109。此时,如图16B中所示,CPU 110检测与手指接触的区域Ra和与手指接近的区域Rb中的每个区域作为被用户的手指隐藏的区域。
CPU 110通过检测与手指接触的区域Ra和与手指接近的区域Rb来检测接触位置Rap,并且还检测与手指接近的区域Rb的重心Rbp作为触摸屏109的显示屏上的坐标。
由于与手指接触的区域Ra的位置朝向指尖,因此可以认为接触位置Rap其重心的位置朝向指尖。另一方面,由于与手指接近的区域Rb从指尖延伸到指根,所以认为其重心Rbp大约位于手指中间并且相对接触位置Rap位于手指根侧。即,认为接触位置Rap与重心Rbp之间的位置关系指示指尖与指根之间的位置关系。
当用户正在用右手操作时,认为指根相对于触摸屏109的显示屏位于指尖的右侧,并且手指朝向指尖往左倾斜。因此,当CPU 110识别出重心Rbp位于接触位置Rap的右侧并且因此被手指隐藏的区域相对于显示屏往左倾斜时,CPU 110判定用户正用右手操作。
另一方面,如图17A中所示,假定用户的手指从左下侧接触触摸屏109,即,用户正用左手操作触摸屏109。在该情况中,认为指根相对于触摸屏109的显示屏位于指尖的左侧,并且手指朝向指尖往右倾斜。因此,当CPU 110识别出重心Rbp位于接触位置Rap的左侧并且因此被手指隐藏的区域相对于显示屏往右倾斜(如图17B中所示)时,CPU 110判定用户正用左手操作。
如果在步骤SP204(图15)中判定用户正在用右手操作触摸屏109,则CPU 110转移到步骤SP205。
在步骤SP205中,如图18A中所示,CPU 110在触摸屏109上被手指隐藏区域外面并且与缩略图像Tp相邻的位置处显示与第一实施例中相同的拍摄位置图标Si。然后,CPU 110转移到步骤SP206。
在步骤SP206中,CPU 110执行与上述拍摄位置改正过程RT2(图10)的步骤SP105和SP106中相同的处理。即,CPU 110根据缩略图像Tp上的拖放操作来移动缩略图像Tp和拍摄位置图标Si,并且在手指放开时将图像的拍摄位置移动到地图图像Mp上拍摄位置图标Si所位于的位置处。然后,CPU 110结束地图显示模式操作过程RT3。
另一方面,如果在步骤S204中判定用户正用左手操作触摸屏109,则CPU 110转移到步骤SP207。
在步骤SP207中,如图18B中所示,CPU 110在触摸屏109上被手指隐藏的区域外面并且与缩略图像Tp相邻的位置处显示与第一实施例中相同的图像菜单图标Gm。然后,CPU 110转移到步骤SP208。
在步骤SP208中,CPU 110执行与上述图像菜单显示过程RT1(图7)的步骤SP5至SP7中相同的处理。即,CPU 110相对于由所触摸的缩略图像Tp指示的图像执行与所选择的图像菜单图标Gm相对应的处理。然后,CPU 110结束地图显示模式操作过程RT3。
通过上述地图显示模式操作过程RT3,DSC 100在根据用户是用右手还是用左手操作触摸屏109来在这些图标之间切换的同时显示拍摄位置图标Si或图像菜单图标Gm。
即,DSC 100使得通过仅仅将执行触摸操作的手改为右手或左手就允许两种图标被显示。
应当注意,在地图显示模式中,针对拍摄位置图标Si和图像菜单图标Gm的每一个预先设置利用频率(用户使用的推定可能性)。
假定当为地图显示模式时,改正拍摄位置的功能是具有比对图像执行各种处理的功能更高用户使用频率的功能。因此,DSC 100将拍摄位置图标Si设置为比图像菜单图标Gm具有更高利用频率。
并且,DSC 100将用户的主要使用的手默认地设置为右手。
由于这样的设置,在利用是主要使用的手的右手进行操作的情况中,CPU 110被配置为显示具有更改利用频率的拍摄位置图标Si。另一方面,在利用不是主要使用的手的左手进行操作的情况中,CPU 110被配置为显示具有较低利用频率的图像菜单图标Gm。
以这种方式,DSC 100仅通过使得用户利用更容易操作的主要使用的手来执行触摸操作,就使得用户看到具有更高利用频率的图标。
[2-3.轻敲操作过程]
当为图像列表显示模式时,DSC 100被配置为基于缩略图像Tp上的轻敲操作(用手指触摸并且之后立即放开手指的操作)是用用户的右手还是左手完成的来改变要被执行的处理。以下,将参考图19来描述缩略图像Tp上的轻敲操作(这将被称为轻敲操作过程)。
顺便提及,该轻敲操作过程RT4是由DSC 100的CPU 110根据被写入程序ROM 111的程序来执行的。
当图像列表显示模式经由触摸屏109被选择时,CPU 110在触摸屏109上显示图像列表画面Ig(图5),开始该轻敲操作过程RT4,并且转移到步骤SP301。
在步骤SP301中,CPU 110经由触摸屏109判断任意缩略图像Tp上的轻敲操作是否已被执行。
具体而言,当CPU 110经由触摸屏109识别出缩略图像Tp上的一点已被用手指触摸并且该手指在预定时间内放开时,CPU 110判定缩略图像Tp上的轻敲操作已被执行。
如果由于在任意缩略图像Tp上都未被执行轻敲操作而在该步骤SP301中得到否定结果,则CPU 110再次返回步骤SP301,并且在缩略图像Tp上被执行轻敲操作之前一直等待。
另一方面,如果由于在任意缩略图像Tp上已被执行轻敲操作而在该步骤SP301中得到肯定结果,则CPU 110识别出由该任意缩略图像Tp指示的图像已被选择,并且转移到下一步骤SP302。
在步骤SP302中,CPU 110以与上述第一实施例中相同的方式经由触摸屏109检测触摸屏109上被手指隐藏的区域,并且转移到步骤SP303。
在步骤SP303中,如在上述地图显示模式操作过程RT3中一样,CPU110判断用户是用右手还是左手操作触摸屏109的。
如果在该步骤S303中判定用户正在用右手操作触摸屏109,则CPU110转移到步骤SP304。
在步骤SP304中,如图20A中所示,CPU 110在触摸屏109的整个显示屏上显示由被轻敲的缩略图像Tp指示的图像P,并且结束轻敲操作过程RT4。
另一方面,如果在步骤SP303中判定用户正在用左手操作触摸屏109,则CPU 110转移到步骤SP304。
在步骤SP305中,CPU 110在与被轻敲的缩略图像Tp相邻并且在触摸屏109上被手指隐藏的区域外面的位置显示图像菜单图标Gm,并且转移到下一步骤SP306。
例如,如图20B中所示,假定CPU 110识别出缩略图像Tp的左下部分和缩略图像Tp的左下侧作为被手指隐藏的区域。
此时,CPU 110在位于缩略图像Tp的上侧上与缩略图像Tp相邻并且未被手指隐藏的的位置处显示图像菜单图标Gm。应当注意,图像菜单图标Gm包括在水平行中提供的删除菜单图标Gm1、编辑菜单图标Gm2和转移菜单图标Gm3。
在步骤SP306中,CPU 110执行与上述图像菜单显示过程RT1(图7)的步骤SP5至SP7中相同的处理。即,CPU 110相对于由被轻敲的缩略图像Tp指示的图像执行与所选择的图像菜单图标Gm相对应的处理。然后,CPU 110结束轻敲操作过程RT4。
通过上述轻敲操作过程RT4,当为图像列表显示模式时,DSC 100被配置为基于缩略图像Tp上的轻敲操作是用右手还是用左手完成的来改变要被执行的处理。
即,当在图像列表显示模式中执行轻敲操作时,DSC 100仅通过将执行轻敲操作的手改为右手或左手,就可以允许两种不同的命令被输入。
在图像列表显示模式中,针对显示图像菜单图标Gm的处理和在整个显示屏上显示图像的处理中的每个处理预先设置利用频率。
假定当为图像列表显示模式时,在整个显示屏上显示图像的功能是以比对图像执行各种处理的功能更高用户利用频率的功能。因此,DSC 100将在整个显示屏上显示图像的处理设置为具有比显示图像菜单图标Gm的处理更高的利用频率。
并且,DSC 100将用户主要使用的手默认地设置为右手。
由于这样的设置,在利用是主要使用的手的右手进行的轻敲操作的情况中,CPU 110被配置为执行在整个显示屏上显示图像的处理,这是具有较高利用频率的处理。另一方面,在利用不是主要使用的手的左手进行的轻敲操作的情况中,CPU 110被配置为执行显示图像菜单图标Gm的处理,这是具有较低利用频率的处理。
以这种方式,当为列表显示模式时,DSC 100仅通过使得用于利用更容易操作的主要使用的手来执行轻敲操作,就允许用户输入针对具有更高利用频率的处理的命令。
[2-4.拖放操作过程]
此外,当为图像列表显示模式时,DSC 100被配置为基于缩略图像Tp上的拖放操作是利用用户的右手还是左手完成的来改变要被执行的处理。以下,将参考图21中的流程图来描述在该缩略图像Tp上的拖放操作的情况中的操作过程(这也将被称为拖放操作过程)。
顺便提及,该拖放操作过程RT5是由DSC 100的CPU 110根据被写入程序ROM 111的程序执行的过程。
当图像列表显示模式经由触摸屏109被选择时,CPU 110在触摸屏109上显示图像列表画面Ig(图5),开始该拖放操作过程RT5,并且转移到步骤SP401。
在步骤SP401中,CPU 110经由触摸屏109判断任意缩略图像Tp上的拖放操作是否已被开始。
如果由于任意缩略图像Tp还未被执行拖放操作而在步骤SP401中得到否定结果,则CPU 110再次返回步骤SP401。然后,CPU 110在任意缩略图像Tp上的拖放操作被开始之前一直等待。
另一方面,如果由于任意缩略图像Tp上的拖放操作已被开始而在步骤SP401中得到肯定结果,则CPU 110转移到下一步骤SP402。
在步骤SP402中,CPU 110以与上述第一实施例中相同的方式经由触摸屏109检测到触摸屏109上被手指隐藏的区域,并且转移到步骤SP403。
在步骤SP403中,与上述地图显示模式操作过程RT3中一样,CPU110判断用户是用右手还是左手操作触摸屏109。
如果在该步骤S403中判定用户正用右手操作触摸屏109,则CPU 110转移到步骤SP404。
在步骤SP404中,如图22A中所示,CPU 110根据缩略图像Tp上的拖放操作来滚动整个图像列表画面Ig,并转移到下一步骤SP405。
在步骤SP405中,CPU 110判断用户的手指是否已从触摸屏109上放开。
如果在步骤SP405中得到否定结果,则这意味着缩略图像Tp上的拖放操作正在继续。此时,CPU 110返回步骤SP404,并且根据缩略图像Tp上的拖放操作继续滚动图像列表画面Ig。
另一方面,如果在步骤SP405中得到肯定结果,则这意味着缩略图像Tp上的拖放操作已经结束。此时,CPU 110结束图像列表画面Ig的滚动并且结束拖放操作过程RT5。
另一方面,如果在步骤SP403中判定用户正在用左手操作触摸屏109,则CPU 110转移到步骤SP406。
在步骤SP406中,如图22B中所示,CPU 110根据缩略图像Tp上的拖放操作使得仅缩略图像Tp被拖放(即,在图像列表画面Ig上移动),并且转移到下一步骤SP407。
在步骤SP407中,CPU 110判断用户的手指是否已从触摸屏109放开。
如果在步骤SP407中得到否定的结果,则这意味着缩略图像Tp上的拖放操作正在继续。此时,CPU 110返回步骤SP406,并且根据缩略图像Tp上的拖放操作继续缩略图像Tp的拖放。
另一方面,如果在步骤SP407中得到肯定的结果,则这意味着缩略图像Tp上的拖放操作已经结束。此时,CPU 110将缩略图像Tp的显示位置固定于手指放开的位置,相应地移动其它缩略图像Tp的显示位置,并且结束拖放操作过程RT5。
通过上述拖放操作过程RT5,当为图像列表显示模式时,DSC 100被配置为基于缩略图像Tp上的拖放操作使用右手还是左手完成的来改变要被执行的处理。
即,当在图像列表显示模式中执行拖放操作时,DSC 100仅通过将执行拖放操作的手改为右手或左手就允许两种命令被输入。
在图像列表显示模式中,针对拖放缩略图像Tp的处理和滚动图像列表画面Ig的处理中的每个处理预先设置利用频率。
假定当为图像列表显示模式时,滚动图像列表画面Ig的功能是具有比拖放缩略图像Tp的功能更高用户利用频率的功能。因此,DSC 100将滚动图像列表画面Ig的处理设置为具有比拖放缩略图像Tp的处理具有更高的利用频率。
并且,DSC 100将用户主要使用的手默认地设置为右手。
由于这样的设置,在用是主要使用的手的右手进行拖放操作的情况中,CPU 110被配置为执行滚动图像列表画面Ig的处理,这是具有较高利用频率的处理。另一方面,在用不是主要使用的手的左手进行拖放操作的情况中,CPU 110被配置为执行拖放缩略图像Tp的处理,这是具有较低利用频率的处理。
以这种方式,当为列表显示模式时,DSC 100仅通过使得用于利用更容易操作的主要使用的手来执行拖放操作就允许用户输入针对具有较高利用频率处理的命令。
[2-5.3D地图图像操作过程]
此外,DSC 100除了具有拍摄模式和回放模式以外还具有用于显示3D地图图像的3D地图显示模式作为操作模式。当为3D地图显示模式时,DSC 100被配置为基于3D地图图像上的拖放操作是用用户的右手还是左手完成的来改变要被执行的处理。以下,将参考图23中所示的流程图来描述3D地图图像上的拖放操作的情况中的操作过程(这也将被称为3D地图图像操作过程)。
顺便提及,该3D地图图像操作过程RT6是由DSC 100的CPU 110根据被写入程序ROM 111的程序执行的过程。
当3D地图显示模式经由触摸屏109被选择时,CPU 110开始该3D地图图像操作过程RT6,并且转移到步骤SP501。
在步骤SP501中,CPU 110经由GPS模块122获得指示DSC 100的当前位置的当前位置信息,并且基于当前位置信息来从记录装置123读取包括当前位置的邻近范围的3D地图图像数据。
然后,CPU 110经由数字信号处理部件121基于3D地图图像数据生成图24A和图24B中所示的3D地图画面Dg,在触摸屏109上显示3D地图画面Dg,并且转移到下一步骤SP502。在3D地图画面Dg上,基于3D地图图像数据的3D地图图像Dp例如以从正上方俯视的3D图的状态显示。
在步骤SP502中,CPU 110经由触摸屏109判断3D地图图像Dp上的拖放操作是否已被开始。
如果由于3D地图图像Dp上还未被执行拖放操作而在步骤SP502中得到否定结果,则CPU 110再次返回步骤SP502。然后,CPU 110在3D地图图像Dp上的拖放操作被开始之前一直等待。
另一方面,如果由于3D地图图像Dp上的拖放操作已被开始而在步骤SP502中得到肯定结果,则CPU 110转移到下一步骤SP503。
在步骤SP503中,CPU 110以与上述第一实施例中相同的方式经由触摸屏109检测触摸屏109上被手指隐藏的区域,并且转移到步骤SP504。
在步骤SP504中,如在上述地图显示模式操作过程RT3中一样,CPU110判断用户是用右手还是左手操作触摸屏109。
如果在该步骤S504中判定用户在用右手操作触摸屏109,则CPU 110转移到步骤SP505。
在步骤SP505中,如图24A中所示,CPU 110根据3D地图图像Dp上的拖放操作来滚动3D地图图像,并且转移到下一步骤SP506。
在步骤SP506中,CPU 110判断用户的手指是否已从触摸屏109放开。
如果在步骤SP506中得到否定结果,这意味着3D地图图像Dp上的拖放操作正在继续。此时,CPU 110返回步骤SP505,并且根据3D地图图像Dp上的拖放操作继续滚动3D地图图像Dp。
另一方面,如果在步骤SP506中得到肯定结果,则这意味着3D地图图像Dp上的拖放操作已经结束。此时,CPU 110结束3D地图图像Dp的滚动并且结束3D地图图像操作过程RT6。
另一方面,如果在步骤SP504中判定用户是用左手操作触摸屏109,则CPU 110转移到步骤SP507。
在步骤SP507中,如图24B中所示,CPU 110根据3D地图图像Dp上的拖放操作来改变3D地图图像Dp的俯瞰角度,并且转移到下一步骤SP508。
在步骤SP508中,CPU 110判断用户的手指是否已从触摸屏109放开。
如果在步骤SP508中得到否定结果,这意味着3D地图图像Dp上的拖放操作正在继续。此时,CPU 110返回步骤SP507,并且根据3D地图图像Dp上的拖放操作继续改变3D地图图像Dp的鸟瞰角度。
另一方面,如果在步骤SP508中得到肯定结果,这意味着3D地图图像Dp上的拖放操作已经结束。此时,CPU 110通过将3D地图图像Dp固定为手指放开时的俯瞰角度来显示3D地图图像Dp,并且结束3D地图图像操作过程RT6。
通过上述3D地图图像操作过程RT6,DSC 100被配置为基于3D地图图像上的拖放操作是用右手还是左手完成的来改变要被执行的处理。
即,当以3D地图图像显示模式执行拖放操作时,DSC 100仅通过将执行拖放操作的手改为右手或左手就允许两种不同命令被输入。
在3D地图图像显示模式中,针对改变3D地图图像Dp的俯瞰角度的处理和滚动3D地图图像Dp的处理中的每个处理预先设置利用频率。
假定当为3D地图图像显示模式时,滚动3D地图图像Dp的功能是具有比改变3D地图图像Dp的俯瞰角度的功能更高用户利用频率的功能。因此,DSC 100将滚动3D地图图像Dp的处理设置为比改变3D地图图像Dp的俯瞰角度的处理具有更高的利用频率。
并且,DSC 100将用户主要使用的手默认地设置为右手。
由于这样的设置,在用是主要使用的手的右手进行拖放操作的情况中,CPU 110被配置为执行滚动3D地图图像Dp的处理,这是具有较高利用频率的处理。另一方面,在利用不是主要使用的手的左手进行拖放操作的情况中,CPU 110被配置为执行改变3D地图图像Dp的俯瞰角度的处理,这是具有较低利用频率的处理。
以这种方式,当为3D地图图像显示模式时,DSC 100仅通过使得用户利用更容易操作的主要使用的手来执行拖放操作就使得用户可以输入针对具有较高利用频率的处理的命令。
[2-6.根据第二实施例的操作和效果]
根据上述配置,当在DSC 100的地图显示模式中时,拍摄位置图标Si和图像菜单图标Gm与缩略图像Tp上的一点相关联,作为当该点被触摸时要被显示的图标。
当为地图显示模式时,在识别出缩略图像Tp已被触摸之后,DSC 100的CPU 110识别出触摸屏109的显示屏上被手指隐藏的区域相对于显示屏的倾斜。CPU 110基于所识别出的倾斜来判断接触触摸屏109的点选物体是用户的右手还是左手。
如果判定点选物体是用户的右手,则CPU 110在触摸屏109上被手指隐藏的区域外面显示与缩略图像Tp上的点(即,接触位置Rap)相关联的拍摄位置图标Si。
另一方面,如果判定点选物体是用户的左手,则CPU 110在触摸屏109上被手指隐藏的区域外面显示与缩略图像Tp上的点(即,接触位置Rap)相关联的图像菜单图标Gm。
即,当为地图显示模式时,CPU 110被配置为根据接触触摸屏109的点选物体是用户的右手还是用户的左手来改变要被显示的图标的种类。
因此,DSC 100仅通过将执行单个轻敲操作的手改为右手或左手就允许两种图标被显示,而不会使得用户执行轻敲操作多次。以这种方式,DSC 100使得两种图标通过容易和直观的操作被显示。
并且,在地图显示模式中,针对与缩略图像Tp上的点相关联的拍摄位置图标Si和图像菜单图标Gm中的每一个来预先设置利用频率。如上所述,在该情况中,拍摄位置图标Si被设置为具有比图像菜单图标Gm更高的利用频率。
然后,如果判定点选物体是被预先设置为用户主要使用的手的右手时,CPU 110显示与接触位置Rap相关联的图标中具有较高利用频率的图标(即,拍摄位置图标Si)。
因此,DSC 100仅通过使得用户用更容易操作的主要使用的手来执行操作就允许用户观看具有较高利用频率的图标。即,DSC 100使得操作性进一步提高。
当在DSC 100的列表显示模式中时,缩略图像Tp上的轻敲操作与在整个显示屏上显示由缩略图像Tp指示的图像的处理和显示图像菜单图标Gm的处理相关联
在识别出缩略图像Tp上的轻敲操作已被执行之后,CPU 110判断已执行轻敲操作的点选物体是用户的右手还是左手。
如果判定点选物体是右手,则CPU 110执行在整个显示屏上显示由缩略图像Tp指示的图像的处理,这是与轻敲操作相关联的处理。
另一方面,如果判定点选物体是左手,则CPU 110执行显示图像菜单图标Gm的处理,这是与轻敲操作相关联的处理。
即,CPU 110被配置为根据用户使用右手还是左手操作触摸屏109来改变要被执行的处理。
因此,DSC 100仅通过将执行单个操作的手改为右手或左手就允许两种命令被输入,而不使用户执行操作多次。以这种方式,DSC 100允许两种命令通过容易和直观的操作被输入。
在列表显示模式中,针对在整个显示屏上显示由缩略图像Tp指示的图像的处理和显示图像菜单图标Gm的处理中的每一个预先设置利用频率,这些处理与缩略图像Tp上的轻敲操作相关联。如上所述,在该情况中,在整个显示屏上显示图像的处理被设置为比显示图像菜单图标Gm具有更高的利用频率。
然后,如果判定点选物体是被预先设置为用户主要使用的手的右手,则CPU 110被配置为执行与轻敲操作相关联的处理中具有较高利用频率的处理(即,在整个显示屏上显示图像的处理)。
因此,DSC 100仅通过使得用户用更容易操作的主要使用的手来执行操作就使得用户可以输入针对具有较高利用频率的处理的命令。即,DSC100使得操作性进一步提高。
除了以上所述,根据第二实施例的DSC 100提供与第一实施例相同的效果。
<3.其它实施例>
[3-1.另一实施例1]
在上述第一实施例中,在识别出缩略图像Tp已被触摸之后,CPU 110被配置为以预定的布置显示删除菜单图标Gm1、编辑菜单图标Gm2和转移菜单图标Gm3。
本发明不限于此。可替换地,如果多条信息与上述接触位置Rap相关联,则CPU 110可以基于针对每条信息设置的诸如利用频率或推荐索引之类的优先级来确定各条信息在显示屏上的布置。
例如,假定删除菜单图标Gm1和转移菜单图标Gm3由于被用户频繁使用而被设置高优先级。并且假定编辑菜单图标Gm2由于相比于这些图标不那么频繁地被用户使用而被设置低优先级。
当缩略图像Tp被执行长按压操作时,CPU 110通过将具有较高优先级的图标(即,删除菜单图标Gm1和转移菜单图标Gm3)放在被手指隐藏的区域外并邻近接触位置Rap来显示这些图标。另一方面,CPU 110通过将具有较低优先级的图标(即,编辑菜单图标Gm2)放在被手指隐藏的区域外并且比上述图标离接触位置Tap更远来显示图标。
例如,如图25A中所示,假定在图像列表画面Ig上,缩略图像Tp的右下部分和缩略图像Tp的右下侧是被手指隐藏的区域。
在该情况中,删除菜单图标Gm1和转移菜单图标Gm3被显示在缩略图像Tp的上侧或左侧上的位置(即,邻近接触位置Rap),这些位置位于被手指隐藏的区域外面。此外,CPU 110在缩略图像Tp的成对角的左上侧上的位置(即,比上侧和下侧更加远离接触位置Rap)上显示编辑菜单图标Gm2,该位置位于被手指隐藏的区域的外面。
另一方面,如图25B中所示,假定在图像列表画面Ig上,缩略图像Tp的左下部分和缩略图像Tp的左下侧是被手指隐藏的区域。
在该情况中,删除菜单图标Gm1和转移菜单图标Gm3被显示在缩略图像Tp的上侧和右侧上的位置处(即,邻近接触位置Rap),这些位置位于被手指隐藏的区域外面。此外,CPU 110在缩略图像Tp的成对角的右上侧上的位置(即,比上侧和下侧更加远离接触位置Rap)上显示编辑菜单图标Gm2,该位置位于被手指隐藏的区域的外面。
即,CPU 110将这三种图像菜单图标Gm以被设置较高优先级的图标被放得与接触位置Rap更接近这样的方式放在触摸屏109上被手指隐藏的区域外面。
以这种方式,DSC 100可以在用户的指尖附近显示对于该用户具有较高优先级的图标,从而便利用户选择图标时的操作。
此外,如在上述第一和第二实施例中一样,DSC 100以不被手指隐藏的方式显示图像菜单图标Gm,从而使得用户可以可靠地观看图像菜单图标Gm。
[3-2.另一实施例2]
上述第二实施例针对用户主要使用的手被默认地设置为右手的情况。
本发明不限于此。可替换地,用户主要使用的手可以根据用户的输入被预先设置。
例如,假定CPU 110基于用户的输入将用户主要使用的手设置为左手。在该情况中,当为地图显示模式时,如果判定缩略图像Tp上的触摸操作已被用被设置为主要使用的手的左手完成,则CPU 110显示拍摄位置图标Si,这是具有较高利用频率的图标。
此外,当为列表显示模式时,如果判定缩略图像Tp上的拖放操作已被用被设置为主要使用的手的左手完成,则CPU 110执行图像列表画面Ig的滚动,这是具有较高利用频率的处理。
[3-3.另一实施例3]
此外,上述第一实施例针对这样的情况,其中,当为列表显示模式时,CPU 110被配置为响应于缩略图像Tp上的长按压操作,在触摸屏109上被手指隐藏的区域外面显示图像菜单图标Gm。
本发明不限于此。可替换地,CPU 110可以响应于缩略图像Tp上的长按压操作,例如在该区域外面显示由缩略图像Tp指示的图像(例如,同一人的照片)。
在该情况中,如果存在多个这样有关的图像,则CPU 110可以在该区域外面显示这多个图像。
本发明不限于此。可替换地,响应于缩略图像Tp上的长按压操作,CPU 110可以通过将缩略图像Tp移动到区域的外面来显示缩略图像Tp。
即,CPU 110可以在该区域外面显示其它各种单条或多条信息,只要这样的信息与接触位置Rap相关联以至响应于接触位置Rap上的接触而被显示。
[3-4.另一实施例4]
此外,上述第一实施例针对这样的情况,其中,图像菜单图标Gm被显示在位于与被长按压的缩略图像Tp的相邻右侧或左侧并且在触摸屏109上被手指隐藏的区域外面的位置处。
本发明不限于此。可替换地,CPU 110可以在与接触位置Rap相对应并且在触摸屏109上被手指隐藏的区域外面的位置处显示图像菜单图标Gm。
例如,假定接触的缩略图像Tp的右下侧是被手指隐藏的区域,并且缩略图像Tp位于触摸屏109的显示屏的上端附近。此时,CPU 110在缩略图像Tp的成对角的左下侧上的位置处显示图像菜单图标Gm,该位置位于被手指隐藏的区域外面并且没有落到显示屏的上端。
本发明不限于此。可替换地,CPU 110可以在任意其它不同位置显示图像菜单图标Gm,只要这样的位置位于触摸屏109上被手指隐藏的区域的外面即可。
[3-5.另一实施例5]
此外,在上述第一和第二实施例中,CPU 110被配置为检测用户的手指与触摸屏109的显示屏接触的区域和用户的手指与显示屏接近的区域中的每一个,作为触摸屏109上被手指隐藏的区域。
本发明不限于此。可替换地,CPU 110可以检测用户的手指与触摸屏109的显示屏接触的区域或用户的手指与显示屏接近的区域中的任一者作为显示屏上被手指隐藏的区域。
[3-6.另一实施例6]
此外,上述实施例针对使用光学传感器型触摸屏109的情况。本发明不限于此。可替换地,可以使用任意其它类型的触摸屏,例如电容型或电阻膜型触摸屏,只要这样的触摸屏能够检测显示屏上被点选物体隐藏的区域。
此外,上述实施例针对用户的手指被用作用来操作触摸屏109的点选物体的情况。本发明不限于此。可替换地,可以使用各种点选物体,例如铅笔、棒和专用触摸钢笔。
在该情况中,在上述地图显示模式操作过程RT3的步骤SP204中,CPU 110判断用来接触触摸屏109的点选物体是用用户的右手操作的物体还是用左手操作的物体。
[3-7.另一实施例7]
此外,在上述实施例中,用作信息处理设备的DSC 100设有用作位置近场部件和区域检测部件的触摸屏109。此外,DSC 100设有用作位置检测部件、区域检测部件、控制部件和判断部件的CPU 110。
本发明不限于此。可替换地,上述DSC 100的各个功能部件可以由各种其它硬件或软件配置,只要它们具有相同的功能即可。
此外,在上述实施例中,本发明适用于DSC 100。本发明不限于此。可替换地,本发明可以或能够适用于各种其它类型的设备,例如,数码摄像机、个人计算机或便携式电话,只要这样的设备具有允许触摸操作的显示装置即可。例如,本发明可以适用于显示地图图像的导航设备。
[3-8.另一实施例8]
此外,在上述实施例中,用于执行各种处理的程序被预先写入DSC100的程序ROM 111中。
本发明不限于此。可替换地,该程序例如可以预先被记录在诸如存储卡之类的记录介质上,并且DSC 100的CPU 110可以通过从记录介质中读取程序来执行该程序。此外,从记录介质读取的程序可以被安装到EEPROM 124中。
[3-9.另一实施例9]
此外,本发明不限于上述第一和第二实施例以及其它实施例。即,本发明的范围包括通过以任意方式组合上述第一和第二实施例以及其它实施例中的部分或全部获得的实施例,或通过部分地提取这些实施例获得的实施例。
本申请包含与2009年7月27日于日本专利局提交的日本在先专利申请JP 2009-174430中所公开的主题有关的主题,该申请的全部内容通过引用结合于此。
本领域技术人员应当理解,根据设计要求和其它因素可以进行各种修改、组合、子组合和更改,只要它们在所附权利要求及其等同物的范围内即可。
Claims (8)
1.一种信息处理设备,包括:
位置检测部件,所述位置检测部件检测点选物体在显示部件的显示屏上的接触位置;
区域检测部件,所述区域检测部件检测所述显示屏上被所述点选物体隐藏的区域;以及
控制部件,所述控制部件在所述接触位置被所述位置检测部件检测到时,在由所述区域检测部件检测到的区域外面显示与所述接触位置相关联的信息。
2.根据权利要求1所述的信息处理设备,还包括:
判断部件,所述判断部件基于由所述区域检测部件检测到的区域相对于所述显示屏的倾斜,判断所述点选物体是用户的右手还是用所述右手操作的物体,或者是所述用户的左手还是用所述左手操作的物体,
其中所述控制部件根据所述判断部件的判断结果来改变要被显示的信息。
3.根据权利要求2所述的信息处理设备,其中:
针对每条所述信息设置利用频率;以及
如果所述判断部件判定所述点选物体是预先设置的所述用户的主要使用的手或利用所述主要使用的手操作的物体,则所述控制部件显示具有较高利用频率的信息。
4.根据权利要求1所述的信息处理设备,其中当在显示所述信息之后,在保持所述点选物体与所述显示屏接触的同时所述接触位置被移动时,所述控制部件以所述信息的显示位置相对于所述接触位置的相对位置不变的方式,根据所述接触位置的移动来移动所述信息的显示位置,并且如果判定移动后的所述信息的显示位置在所述显示屏的外面,则所述控制部件将所述信息的显示位置移动到在所述显示屏内并且在所述区域外的位置。
5.根据权利要求1所述的信息处理设备,其中:
多条信息与所述接触位置相关联;以及
所述控制部件基于针对所述多条信息中的每一条信息设置的优先级来确定所述多条信息在所述显示屏上的布置。
6.根据权利要求1所述的信息处理设备,其中所述区域检测部件检测所述显示屏上与所述点选物体相接触的区域和在所述显示屏上与所述点选物体相接近的区域中的至少一个区域来作为在所述显示屏上被所述点选物体隐藏的区域。
7.一种显示方法,包括以下步骤:
通过信息处理设备的位置检测部件,检测点选物体在显示部件的显示屏上的接触位置;
通过所述信息处理设备的区域检测部件,检测所述显示屏上被所述点选物体隐藏的区域;以及
通过所述信息处理设备的控制部件,在所述接触位置被检测到时,在所检测到的区域外面显示与所述接触位置相关联的信息。
8.一种显示程序,用于使得信息处理设备执行以下步骤:
通过信息处理设备的位置检测部件,检测点选物体在显示部件的显示屏上的接触位置;
通过所述信息处理设备的区域检测部件,检测所述显示屏上被所述点选物体隐藏的区域;以及
通过所述信息处理设备的控制部件,在所述接触位置被检测到时,在所检测到的区域外面显示与所述接触位置相关联的信息。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009-174430 | 2009-07-27 | ||
JP2009174430A JP2011028560A (ja) | 2009-07-27 | 2009-07-27 | 情報処理装置、表示方法及び表示プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101968695A true CN101968695A (zh) | 2011-02-09 |
CN101968695B CN101968695B (zh) | 2013-04-24 |
Family
ID=43007356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010102338917A Expired - Fee Related CN101968695B (zh) | 2009-07-27 | 2010-07-20 | 信息处理设备、显示方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9001051B2 (zh) |
EP (1) | EP2280339B1 (zh) |
JP (1) | JP2011028560A (zh) |
CN (1) | CN101968695B (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102855085A (zh) * | 2012-08-28 | 2013-01-02 | 广东欧珀移动通信有限公司 | 一种电子终端的文件操作方法 |
CN103037155A (zh) * | 2011-09-30 | 2013-04-10 | 三星电子株式会社 | 数字拍摄设备及其控制方法 |
CN103389877A (zh) * | 2013-07-24 | 2013-11-13 | Tcl通讯(宁波)有限公司 | 一种基于触摸屏的手指倾斜识别方法、系统及移动终端 |
CN104737107A (zh) * | 2012-10-17 | 2015-06-24 | 夏普株式会社 | 触摸面板式输入装置、其控制方法以及程序 |
CN104881229A (zh) * | 2014-02-12 | 2015-09-02 | 威斯通全球技术公司 | 基于检测到的取向来提供标注 |
CN104956306A (zh) * | 2012-10-11 | 2015-09-30 | 微软技术许可有限责任公司 | 在图形用户界面内的对象放置 |
US9529440B2 (en) | 1999-01-25 | 2016-12-27 | Apple Inc. | Disambiguation of multitouch gesture recognition for 3D interaction |
CN106325544A (zh) * | 2016-08-30 | 2017-01-11 | 广东小天才科技有限公司 | 一种终端的应用程序启动方法和装置 |
CN103793131B (zh) * | 2012-10-26 | 2017-08-25 | 柯尼卡美能达株式会社 | 数据处理装置以及设定方法 |
CN107450768A (zh) * | 2016-06-01 | 2017-12-08 | 佳能株式会社 | 电子装置及其控制方法和存储介质 |
CN107920165A (zh) * | 2017-11-16 | 2018-04-17 | 宁波萨瑞通讯有限公司 | 一种日程删除方法及系统 |
CN108399044A (zh) * | 2017-02-06 | 2018-08-14 | 大众汽车有限公司 | 用户界面、运输工具和用于区分用户的方法 |
CN109388762A (zh) * | 2013-06-03 | 2019-02-26 | 华为终端(东莞)有限公司 | 应用分享的方法和装置 |
CN109952610A (zh) * | 2016-11-07 | 2019-06-28 | 斯纳普公司 | 图像修改器的选择性识别和排序 |
CN110035224A (zh) * | 2017-12-22 | 2019-07-19 | 佳能株式会社 | 电子装置及其控制方法和存储介质 |
CN110362226A (zh) * | 2014-03-17 | 2019-10-22 | 谷歌有限责任公司 | 使用触摸屏设备确定用户利手和定向 |
JP2021060991A (ja) * | 2019-10-09 | 2021-04-15 | フラミー インコーポレイテッド | 動的デジタルコンテンツの表示方法、グラフィカルユーザインターフェース及びそのシステム |
Families Citing this family (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5471124B2 (ja) * | 2009-07-29 | 2014-04-16 | ソニー株式会社 | 画像検索装置、画像検索方法及び画像検索プログラム |
US8593418B2 (en) * | 2010-08-08 | 2013-11-26 | Qualcomm Incorporated | Method and system for adjusting display content |
JP5598232B2 (ja) * | 2010-10-04 | 2014-10-01 | ソニー株式会社 | 情報処理装置、情報処理システムおよび情報処理方法 |
US9026359B2 (en) * | 2010-11-01 | 2015-05-05 | Nokia Corporation | Visually representing a three-dimensional environment |
JP5614275B2 (ja) * | 2010-12-21 | 2014-10-29 | ソニー株式会社 | 画像表示制御装置および画像表示制御方法 |
JP5741187B2 (ja) * | 2011-04-26 | 2015-07-01 | 富士ゼロックス株式会社 | 画像表示装置およびプログラム |
US9470922B2 (en) | 2011-05-16 | 2016-10-18 | Panasonic Intellectual Property Corporation Of America | Display device, display control method and display control program, and input device, input assistance method and program |
JP5594847B2 (ja) * | 2011-05-19 | 2014-09-24 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置、情報処理装置の制御方法、プログラム及び情報記憶媒体 |
JP5298161B2 (ja) * | 2011-06-13 | 2013-09-25 | シャープ株式会社 | 操作装置及び画像形成装置 |
JP5360140B2 (ja) * | 2011-06-17 | 2013-12-04 | コニカミノルタ株式会社 | 情報閲覧装置及び制御プログラム並びに制御方法 |
JP5853450B2 (ja) * | 2011-07-08 | 2016-02-09 | コニカミノルタ株式会社 | 情報処理装置、その制御方法、および、表示制御プログラム |
JP2013047945A (ja) * | 2011-07-27 | 2013-03-07 | Kyocera Corp | 電子機器、制御方法および制御プログラム |
DE112011105626B4 (de) * | 2011-09-15 | 2017-11-02 | Mitsubishi Electric Corp. | Leiterprogramm-Erschaffungsvorrichtung |
JPWO2013047023A1 (ja) | 2011-09-26 | 2015-03-26 | Necカシオモバイルコミュニケーションズ株式会社 | 表示装置、表示方法およびプログラム |
EP2784640A4 (en) * | 2011-11-21 | 2015-10-21 | Nikon Corp | DISPLAY DEVICE AND DISPLAY CONTROL PROGRAM |
US9823837B2 (en) * | 2011-11-29 | 2017-11-21 | Panasonic Intellectual Property Management Co., Ltd. | Display control device, display control method, and display control program |
KR101866272B1 (ko) * | 2011-12-15 | 2018-06-12 | 삼성전자주식회사 | 그립 센서를 이용한 사용자 기반의 휴대용 단말기의 장치 및 방법 |
CN107197141B (zh) * | 2011-12-16 | 2020-11-03 | 奥林巴斯株式会社 | 拍摄装置及其拍摄方法、存储能够由计算机来处理的追踪程序的存储介质 |
JP5896757B2 (ja) | 2012-01-20 | 2016-03-30 | キヤノン株式会社 | 情報処理装置、その制御方法、およびプログラム |
JP5932354B2 (ja) | 2012-01-20 | 2016-06-08 | キヤノン株式会社 | 情報処理装置、その制御方法、およびプログラム |
JP6000553B2 (ja) * | 2012-01-24 | 2016-09-28 | キヤノン株式会社 | 情報処理装置及びその制御方法 |
US10289660B2 (en) * | 2012-02-15 | 2019-05-14 | Apple Inc. | Device, method, and graphical user interface for sharing a content object in a document |
EP2662665A1 (en) * | 2012-05-08 | 2013-11-13 | BlackBerry Limited | System and method for displaying supplementary information associated with a graphic object on a display of an electronic device |
US20130300764A1 (en) * | 2012-05-08 | 2013-11-14 | Research In Motion Limited | System and method for displaying supplementary information associated with a graphic object on a display of an electronic device |
WO2013175250A1 (en) * | 2012-05-22 | 2013-11-28 | Sony Mobile Communications Ab | Electronic device with dynamic positioning of user interface element |
JP5972082B2 (ja) * | 2012-07-11 | 2016-08-17 | シャープ株式会社 | 情報処理装置、表示方法、およびプログラム |
KR102073601B1 (ko) * | 2012-07-25 | 2020-02-06 | 삼성전자주식회사 | 사용자 단말 장치 및 그의 제어 방법 |
JP2014035623A (ja) * | 2012-08-08 | 2014-02-24 | Sharp Corp | 操作入力装置、操作入力方法、操作入力プログラム及び電子機器 |
JP5927090B2 (ja) * | 2012-09-18 | 2016-05-25 | シャープ株式会社 | 情報処理装置、表示方法、およびプログラム |
KR101990036B1 (ko) | 2012-10-31 | 2019-06-17 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어 방법 |
WO2014112419A1 (ja) * | 2013-01-16 | 2014-07-24 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US20140282269A1 (en) * | 2013-03-13 | 2014-09-18 | Amazon Technologies, Inc. | Non-occluded display for hover interactions |
KR101995283B1 (ko) * | 2013-03-14 | 2019-07-02 | 삼성전자 주식회사 | 휴대 단말기의 앱 제공 방법 및 시스템 |
US9817548B2 (en) * | 2013-05-20 | 2017-11-14 | Citrix Systems, Inc. | Providing enhanced user interfaces |
US9109921B1 (en) * | 2013-06-19 | 2015-08-18 | Amazon Technologies, Inc. | Contextual based navigation element |
USD757091S1 (en) * | 2013-12-31 | 2016-05-24 | Beijing Qihoo Technology Co. Ltd | Display screen with animated graphical user interface |
US9262012B2 (en) * | 2014-01-03 | 2016-02-16 | Microsoft Corporation | Hover angle |
JP6233040B2 (ja) | 2014-01-17 | 2017-11-22 | 富士通株式会社 | 入力装置,表示制御方法,プログラム及び集積回路装置 |
US10503392B2 (en) * | 2015-06-25 | 2019-12-10 | Oath Inc. | User interface adjustment methods and systems |
JP6112160B2 (ja) * | 2015-08-20 | 2017-04-12 | コニカミノルタ株式会社 | データ処理装置、設定方法および設定プログラム |
JP6269692B2 (ja) * | 2016-01-26 | 2018-01-31 | 株式会社ニコン | 表示装置、電子機器、およびプログラム |
WO2017154119A1 (ja) * | 2016-03-08 | 2017-09-14 | 富士通株式会社 | 表示制御装置、表示制御方法および表示制御プログラム |
KR102557116B1 (ko) * | 2016-10-19 | 2023-07-20 | 엘지전자 주식회사 | 이동 단말기 |
JP6756579B2 (ja) * | 2016-10-26 | 2020-09-16 | 株式会社半導体エネルギー研究所 | 表示装置 |
JP6763283B2 (ja) * | 2016-11-18 | 2020-09-30 | セイコーエプソン株式会社 | 電子機器 |
US10289300B2 (en) * | 2016-12-28 | 2019-05-14 | Amazon Technologies, Inc. | Feedback animation for touch-based interactions |
US10409480B2 (en) | 2016-12-28 | 2019-09-10 | Amazon Technologies, Inc. | Interruption and resumption of feedback animation for touch-based interactions |
JP2018109813A (ja) * | 2016-12-28 | 2018-07-12 | 富士ゼロックス株式会社 | 表示装置、画像形成装置及びプログラム |
US10922743B1 (en) | 2017-01-04 | 2021-02-16 | Amazon Technologies, Inc. | Adaptive performance of actions associated with custom user interface controls |
US10521854B1 (en) | 2017-01-04 | 2019-12-31 | Amazon Technologies, Inc. | Selection and display of custom user interface controls |
US10318071B2 (en) * | 2017-03-23 | 2019-06-11 | Intel Corporation | Method and apparatus for a blob angle orientation recognition in a touch device |
JP7073670B2 (ja) | 2017-10-27 | 2022-05-24 | 富士フイルムビジネスイノベーション株式会社 | 文書処理装置及び文書処理プログラム |
JP7118656B2 (ja) * | 2018-02-08 | 2022-08-16 | キヤノン株式会社 | 情報処理装置、その制御方法、及びプログラム |
JP6857154B2 (ja) * | 2018-04-10 | 2021-04-14 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法 |
JP2020071500A (ja) * | 2018-10-29 | 2020-05-07 | セイコーエプソン株式会社 | 表示方法および表示装置 |
CN110716680B (zh) * | 2019-10-09 | 2021-05-07 | 广州视源电子科技股份有限公司 | 智能交互平板的控制方法和装置 |
CN115087953A (zh) * | 2020-02-27 | 2022-09-20 | 富士胶片株式会社 | 控制装置以及控制程序 |
JP2022182801A (ja) * | 2021-05-28 | 2022-12-08 | 京セラドキュメントソリューションズ株式会社 | 表示装置及び画像形成装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1717648A (zh) * | 2002-11-29 | 2006-01-04 | 皇家飞利浦电子股份有限公司 | 具有触摸区域的移动表示的用户界面 |
CN1846248A (zh) * | 2003-07-09 | 2006-10-11 | 怀尔德西德有限公司 | 共享输入键方法及设备 |
WO2009080653A1 (en) * | 2007-12-20 | 2009-07-02 | Purple Labs | Method and system for moving a cursor and selecting objects on a touchscreen using a finger pointer |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06187077A (ja) * | 1992-11-09 | 1994-07-08 | Soichiro Nara | 日本語入力方法およびキーボード配列 |
KR20070006477A (ko) * | 2005-07-08 | 2007-01-11 | 삼성전자주식회사 | 가변적 메뉴 배열 방법 및 이를 이용한 디스플레이 장치 |
EP1983402A4 (en) * | 2006-02-03 | 2013-06-26 | Panasonic Corp | INPUT DEVICE AND ITS METHOD |
JP2008052062A (ja) * | 2006-08-24 | 2008-03-06 | Ricoh Co Ltd | 表示装置、表示装置の表示方法、プログラム及び記録媒体 |
JP2009010775A (ja) | 2007-06-28 | 2009-01-15 | Sony Corp | 画像表示装置、撮像装置、画像表示方法、プログラム |
US20090167702A1 (en) * | 2008-01-02 | 2009-07-02 | Nokia Corporation | Pointing device detection |
JP4982430B2 (ja) * | 2008-05-27 | 2012-07-25 | 株式会社エヌ・ティ・ティ・ドコモ | 文字入力装置及び文字入力方法 |
JP5471124B2 (ja) * | 2009-07-29 | 2014-04-16 | ソニー株式会社 | 画像検索装置、画像検索方法及び画像検索プログラム |
-
2009
- 2009-07-27 JP JP2009174430A patent/JP2011028560A/ja active Pending
-
2010
- 2010-06-30 EP EP10167948.8A patent/EP2280339B1/en active Active
- 2010-07-20 CN CN2010102338917A patent/CN101968695B/zh not_active Expired - Fee Related
- 2010-07-20 US US12/839,511 patent/US9001051B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1717648A (zh) * | 2002-11-29 | 2006-01-04 | 皇家飞利浦电子股份有限公司 | 具有触摸区域的移动表示的用户界面 |
CN1846248A (zh) * | 2003-07-09 | 2006-10-11 | 怀尔德西德有限公司 | 共享输入键方法及设备 |
WO2009080653A1 (en) * | 2007-12-20 | 2009-07-02 | Purple Labs | Method and system for moving a cursor and selecting objects on a touchscreen using a finger pointer |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9529440B2 (en) | 1999-01-25 | 2016-12-27 | Apple Inc. | Disambiguation of multitouch gesture recognition for 3D interaction |
US10782873B2 (en) | 1999-01-25 | 2020-09-22 | Apple Inc. | Disambiguation of multitouch gesture recognition for 3D interaction |
CN103037155A (zh) * | 2011-09-30 | 2013-04-10 | 三星电子株式会社 | 数字拍摄设备及其控制方法 |
US11422694B2 (en) | 2012-07-15 | 2022-08-23 | Apple Inc. | Disambiguation of multitouch gesture recognition for 3D interaction |
CN102855085A (zh) * | 2012-08-28 | 2013-01-02 | 广东欧珀移动通信有限公司 | 一种电子终端的文件操作方法 |
CN104956306A (zh) * | 2012-10-11 | 2015-09-30 | 微软技术许可有限责任公司 | 在图形用户界面内的对象放置 |
CN104737107B (zh) * | 2012-10-17 | 2017-05-31 | 夏普株式会社 | 触摸面板式输入装置、其控制方法 |
CN104737107A (zh) * | 2012-10-17 | 2015-06-24 | 夏普株式会社 | 触摸面板式输入装置、其控制方法以及程序 |
CN103793131B (zh) * | 2012-10-26 | 2017-08-25 | 柯尼卡美能达株式会社 | 数据处理装置以及设定方法 |
US11509708B2 (en) | 2013-06-03 | 2022-11-22 | Huawei Device Co., Ltd. | Application sharing method and apparatus |
CN109388762A (zh) * | 2013-06-03 | 2019-02-26 | 华为终端(东莞)有限公司 | 应用分享的方法和装置 |
CN109388762B (zh) * | 2013-06-03 | 2022-04-29 | 华为终端有限公司 | 应用分享的方法和装置 |
CN103389877A (zh) * | 2013-07-24 | 2013-11-13 | Tcl通讯(宁波)有限公司 | 一种基于触摸屏的手指倾斜识别方法、系统及移动终端 |
CN104881229A (zh) * | 2014-02-12 | 2015-09-02 | 威斯通全球技术公司 | 基于检测到的取向来提供标注 |
CN110362226A (zh) * | 2014-03-17 | 2019-10-22 | 谷歌有限责任公司 | 使用触摸屏设备确定用户利手和定向 |
CN107450768B (zh) * | 2016-06-01 | 2021-05-11 | 佳能株式会社 | 电子装置及其控制方法和存储介质 |
CN107450768A (zh) * | 2016-06-01 | 2017-12-08 | 佳能株式会社 | 电子装置及其控制方法和存储介质 |
CN106325544A (zh) * | 2016-08-30 | 2017-01-11 | 广东小天才科技有限公司 | 一种终端的应用程序启动方法和装置 |
CN109952610A (zh) * | 2016-11-07 | 2019-06-28 | 斯纳普公司 | 图像修改器的选择性识别和排序 |
CN109952610B (zh) * | 2016-11-07 | 2021-01-08 | 斯纳普公司 | 图像修改器的选择性识别和排序 |
US11233952B2 (en) | 2016-11-07 | 2022-01-25 | Snap Inc. | Selective identification and order of image modifiers |
US11750767B2 (en) | 2016-11-07 | 2023-09-05 | Snap Inc. | Selective identification and order of image modifiers |
CN108399044B (zh) * | 2017-02-06 | 2022-01-18 | 大众汽车有限公司 | 用户界面、运输工具和用于区分用户的方法 |
CN108399044A (zh) * | 2017-02-06 | 2018-08-14 | 大众汽车有限公司 | 用户界面、运输工具和用于区分用户的方法 |
CN107920165A (zh) * | 2017-11-16 | 2018-04-17 | 宁波萨瑞通讯有限公司 | 一种日程删除方法及系统 |
CN110035224B (zh) * | 2017-12-22 | 2021-09-28 | 佳能株式会社 | 电子装置及其控制方法和存储介质 |
CN110035224A (zh) * | 2017-12-22 | 2019-07-19 | 佳能株式会社 | 电子装置及其控制方法和存储介质 |
JP2021060991A (ja) * | 2019-10-09 | 2021-04-15 | フラミー インコーポレイテッド | 動的デジタルコンテンツの表示方法、グラフィカルユーザインターフェース及びそのシステム |
Also Published As
Publication number | Publication date |
---|---|
CN101968695B (zh) | 2013-04-24 |
EP2280339A1 (en) | 2011-02-02 |
US20110018827A1 (en) | 2011-01-27 |
JP2011028560A (ja) | 2011-02-10 |
US9001051B2 (en) | 2015-04-07 |
EP2280339B1 (en) | 2019-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101968695B (zh) | 信息处理设备、显示方法 | |
JP5652652B2 (ja) | 表示制御装置および方法 | |
JP5268595B2 (ja) | 画像処理装置、画像表示方法及び画像表示プログラム | |
JP4752900B2 (ja) | 画像処理装置、画像表示方法および画像表示プログラム | |
JP4735995B2 (ja) | 画像処理装置、画像表示方法および画像表示プログラム | |
JP5401962B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
KR20120113714A (ko) | 정보 처리 장치, 표시 방법 및 프로그램 | |
CN102023799A (zh) | 信息处理装置、显示方法和程序 | |
US11122207B2 (en) | Electronic apparatus, method for controlling the same, computer readable nonvolatile recording medium | |
JP4709106B2 (ja) | 表示制御装置及びその制御方法 | |
US11122204B2 (en) | Image capturing control apparatus, control method, and storage medium | |
JP5733956B2 (ja) | 撮像装置及びその制御方法、動画記録装置並びにその制御方法、プログラム、並びに記憶媒体 | |
US11112907B2 (en) | Electronic device and method for controlling same | |
JP5777446B2 (ja) | 表示制御装置及びその制御方法 | |
JP6393296B2 (ja) | 撮像装置及びその制御方法、撮像制御装置、プログラム、並びに記憶媒体 | |
JP2021060790A (ja) | 電子機器及びその制御方法 | |
CN112312008B (zh) | 电子装置、电子装置的控制方法及存储介质 | |
US11152035B2 (en) | Image processing device and method of controlling the same | |
JP7171252B2 (ja) | 撮像制御装置、及び、撮像制御装置の制御方法 | |
JP7254454B2 (ja) | 撮像制御装置、及び、撮像制御装置の制御方法 | |
JP6827860B2 (ja) | 電子機器およびその制御方法 | |
JP6789839B2 (ja) | 表示制御装置およびその制御方法、プログラム、記憶媒体 | |
JP7034601B2 (ja) | 撮像制御装置およびその制御方法 | |
KR20120133981A (ko) | 디스플레이 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20130424 Termination date: 20210720 |
|
CF01 | Termination of patent right due to non-payment of annual fee |