CN110109609A - 显示控制设备和方法,以及图像显示设备 - Google Patents

显示控制设备和方法,以及图像显示设备 Download PDF

Info

Publication number
CN110109609A
CN110109609A CN201910542007.9A CN201910542007A CN110109609A CN 110109609 A CN110109609 A CN 110109609A CN 201910542007 A CN201910542007 A CN 201910542007A CN 110109609 A CN110109609 A CN 110109609A
Authority
CN
China
Prior art keywords
image
display
example embodiment
controller
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910542007.9A
Other languages
English (en)
Other versions
CN110109609B (zh
Inventor
一之渡靖
三岛悠
高木友史
青岛雄三
冈部雄生
久本千夏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Publication of CN110109609A publication Critical patent/CN110109609A/zh
Application granted granted Critical
Publication of CN110109609B publication Critical patent/CN110109609B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Abstract

本申请公开了显示控制设备和方法以及图像显示设备,其中显示控制设备包括控制器。当在包括具有其上提供了触摸板的表面的显示区域的显示器上显示多个图像时,响应于经由所述触摸板执行的用于指定至少一个图像并且使所述多个图像中的至少两个图像相互更接近的接近操作,所述控制器相互叠加并显示执行所述接近操作所针对的各接近图像。

Description

显示控制设备和方法,以及图像显示设备
本申请是基于申请日为2013年5月9日、申请号为201310170049.7、发明创造名称为“显示控制设备和方法,以及图像显示设备”的中国专利申请的分案申请。
技术领域
本发明涉及一种显示控制设备和方法,以及一种图像显示设备。
背景技术
日本未审查专利申请公开第2008-134721号公开了一种文档管理体处理设备,该设备包括显示处理器、目标区域接受单元、操作接受单元和编辑单元。显示处理器执行处理以在屏幕上显示代表包括一组按顺序排列的一项或多项文档信息的文档管理体的代表性图像。目标区域接受单元从用户接受包括两个代表性图像的目标区域的指定。操作接受单元在指定了目标区域的状态下从用户接受某些操作输入。响应于对特定操作输入的接受,编辑单元从与目标区域中包括的一个代表性图像相关的文档管理体排除特定文档信息,并将所排除的特定文档信息加入到与另一个代表性图像相关的文档管理体。
另外,日本未审查专利申请公开第2008-27243号公开了一种管理文档数据的文档管理设备。该文档管理设备包括存储器、文档合并单元和缩略图生成器。存储器存储多项文档数据。文档合并单元合并存储在存储器中的多项文档数据,并生成合并文档。缩略图生成器生成由文档合并单元生成的合并文档的缩略图图像。缩略图生成器将用于区分被合并为合并文档的多项文档数据的注释加入到缩略图图像。
此外,日本未审查专利申请公开第2009-3579号公开了一种图像选择设备,该设备包括存储图像数据的存储器、显示多个图像的显示单元和检测在其中直接执行输入的显示单元的显示区域的检测器。该图像选择设备还包括读取单元、显示控制器、图像数据指定单元、图像选择单元、选择信息存储器和判定单元。读取单元读取存储在存储器中的图像数据。显示控制器在显示单元上显示与读取单元读取的图像数据相对应的图像。图像数据指定单元指定与在检测器检测到的显示区域中显示的图像相对应的图像数据。图像选择单元选择或者取消选择图像数据指定单元指定的多项图像数据。选择信息存储器针对各项图像数据存储选择信息,该选择信息表示图像选择单元是否选择选择读取单元读取的图像数据、以及是选择还是取消选择读取单元读取的图像数据的选择信息。判定单元判定是选择还是取消选择在图像数据指定单元指定的多项数据图像当中首先检测到的第一图像数据。当判定单元判定取消选择第一图像数据时,图像选择单元选择由图像数据指定单元指定的多项图像数据中的每一个。当判定单元判定选择第一图像数据时,图像选择单元取消选择由图像数据指定单元指定的多项图像数据的每一个。
发明内容
本发明的一个目的是提供一种能够响应于直观操作来将多个显示图像组在一起的显示控制设备和方法以及一种图像显示设备。
根据本发明的第一方面,提供了一种包括控制器的显示控制设备。当在包括具有其上提供了触摸板的表面的显示区域的显示器上显示多个图像时,响应于经由所述触摸板执行的用于指定至少一个图像并且使所述多个图像中的至少两个图像相互更接近的接近操作,所述控制器相互叠加并显示执行所述接近操作所针对的各接近图像。
根据本发明的第二方面,当所述接近图像之间存在其他图像时,相互叠加并显示所述接近图像和这个其他图像。
根据本发明的第三方面,当所述接近图像之间存在其他图像时,所述控制器执行控制以通过使一个所述接近图像向另一个所述接近图像的显示位置移动来叠加并显示所述接近图像,并且在已显示被移动的所述接近图像的显示位置处显示与被移动的所述接近图像的移动方向的相对侧最接近的图像。
根据本发明的第四方面,响应于经由所述触摸板执行的通过使所述多个图像中的单个图像更接近另一个图像的接近操作,在显示所述单个图像的区域内叠加并显示该另一个图像。
根据本发明的第五方面,在所述接近操作之前,响应于在预定时间或更长时间内持续地指定至少一个图像的长按操作,相互叠加并显示各所述接近图像。
根据本发明的第六方面,响应于持续执行的所述接近操作,在持续执行所述接近操作期间相互叠加并显示各所述接近图像。
根据本发明的第七方面,当相互叠加并显示各所述接近图像时,响应于经由所述触摸板执行的用于指定各所述接近图像的指定操作,将已被相互叠加并显示的各所述接近图像进行分别地显示而不相互叠加。
根据本发明的第八方面,一种图像显示设备包括根据本方明第一至第七方面中任一方面的显示控制设备,和由所述显示控制设备控制的显示器。
根据本发明的第九方面,提供了一种显示控制方法,包括:当在包括具有其上提供了触摸板的表面的显示区域的显示器上显示多个图像时,响应于经由所述触摸板执行的用于指定至少一个图像并且使所述多个图像中的至少两个图像相互更接近的接近操作,相互叠加并显示执行所述接近操作所针对的接近图像。
根据本发明的第一、第八和第九方面,与不应用本发明的这些方面的情况相比,可以响应于更直观的操作来将多个显示图像组在一起。
根据本发明的第二方面,与没有叠加并显示接近图像之间的图像的情况相比,可以响应于更简单的操作来将多个显示图像组在一起。
根据本发明的第三方面,可以响应于容易的操作来将大的区域内显示的多个图像组在一起。
根据本发明的第四方面,可以在由用户操作的图像的显示位置处将其他图像组在一起。
根据本发明的第五方面,可以防止错误地检测到用于将图像组在一起的操作。
根据本发明的第六方面,可以响应于简单操作来连续地将多个显示图像组在一起。
根据本发明的第七方面,根据本发明的该方面,可以响应于简单操作来将根据本发明的上述各方面被显示为组的多个图像进行分别显示。
附图说明
基于下列附图,将对本发明的示例实施例进行详细说明,其中:
图1是示出了根据示例实施例的智能手机的外观的立体图;
图2是示出了根据示例实施例的智能手机的配置的框图;
图3A是示出了根据示例实施例的文件信息的示例配置的示意图;
图3B是示出了根据示例实施例的文件信息的示例配置的示意图;
图4是示出了根据第一示例实施例的显示控制处理程序的处理的流程的流程图;
图5是示出了根据第一示例实施例的菜单屏幕的示例配置的正视图;
图6是示出了根据第一示例实施例的图像列表屏幕的示例配置的正视图;
图7A是示出了根据第一示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图7B是示出了根据第一示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图7C是示出了根据第一示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图7D是示出了根据第一示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图7E是示出了根据第一示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图8是示出了根据第二示例实施例的显示控制处理程序的处理的流程的流程图;
图9A是示出了根据第二示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图9B是示出了根据第二示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图9C是示出了根据第二示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图9D是示出了根据第二示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图9E是示出了根据第二示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图10A是示出了根据第三示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图10B是示出了根据第三示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图10C是示出了根据第三示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图11是示出了根据第四示例实施例的显示控制处理程序的处理的流程的流程图;
图12A是示出了根据第四示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图12B是示出了根据第四示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图12C是示出了根据第四示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图12D是示出了根据第四示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图12E是示出了根据第四示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图13是示出了根据第五示例实施例的显示控制处理程序的处理的流程的流程图;
图14是示出了根据第六示例实施例的显示控制处理程序的处理的流程的流程图;
图15A是示出了根据第六示例实施例的图像列表屏幕的示例配置的正视图;
图15B是示出了根据第六示例实施例的图像列表屏幕的示例配置的正视图;
图16A是示出了根据第六示例实施例的图像列表屏幕的主要部分的示例配置的正视图;
图16B是示出了根据第六示例实施例的图像列表屏幕的主要部分的示例配置的正视图;以及
图16C是示出了根据第六示例实施例的图像列表屏幕的主要部分的示例配置的正视图。
具体实施方式
以下,将参考附图对本发明的示例实施例进行详细说明。应注意,在下面的第一至第六示例实施例中,将以示例的方式对其中示例实施例应用于智能手机的情况进行说明。然而,示例实施例不限于这种情形,示例实施例适用于具有触摸板显示器的其他装置,比如其他的移动电话、个人数字助理(PDA)和便携式游戏机。
根据示例实施例的智能手机向用户展示了多个菜单项以促使用户选择期望的菜单项,从而启动与所选择的菜单项相对应的应用程序或软件。然而,根据示例实施例的智能手机不限于这种智能手机。即,根据示例实施例的智能手机可以响应于用于启动应用程序或软件的指示,基于指示中的应用程序或软件来启动将要在后面进行说明的列表显示功能。可替代地,根据示例实施例的智能手机可以响应于统一资源定位器(URL)的指定,通过使用由网络浏览功能启动的应用程序或软件来启动将要在后面进行说明的列表显示功能。
第一示例实施例
如图1所示,根据第一示例实施例的智能手机10包括板状外壳12。在外壳12的一面上,智能手机10包括显示输入单元14,该显示输入单元14包括相互集成的作为显示器的显示板14A和配置为触摸板的操作板14B。外壳12还包括扬声器16、话筒18、操作单元20和相机单元22。应注意外壳12的形状不限于板状,而且外壳12可以采用包括例如折叠结构或滑动结构的配置。
如图2所示,智能手机10包括上述的显示输入单元14、操作单元20和相机单元22,以及无线通信单元24、会话单元26、存储器28、外部输入/输出单元30、电源单元36和控制器38,作为主要元件。应注意智能手机10具有经由移动通信网络执行与基站装置的移动无线通信的无线通信功能作为主要功能。
无线通信单元24配置为响应于来自控制器38的指示来执行与移动通信网络中包含的基站装置的无线通信。通过使用无线通信,无线通信单元24向外部装置发送和从外部装置接收包括音频数据和图像数据的各类文件数据、e-mail数据等,并从外部装置接收网络数据、流数据等。
显示输入单元14是所谓的触摸板显示器,在控制器38的控制下,显示输入单元14通过显示图像(静止图像和移动图像)、字符信息等将信息视觉地传达给用户,并检测响应于所显示信息而执行的用户操作。如上所述,根据第一示例实施例的显示输入单元14包括显示板14A和操作板14B。
这里,显示板14A使用液晶显示器(LCD)、有机电激发光显示器(Organic Electro-luminesence Display,OELD)等作为显示装置。操作板14B是这样的装置,该装置层叠在显示板14A上使得在显示板14A的显示面上显示的图像可被视觉地识别,并且检测由用户手指或触摸笔操作的一个或多个坐标。响应于通过使用用户手指或触摸笔操作该装置,该装置输出响应于对控制器38的操作而生成的检测信号。接着,基于接收到的检测信号,控制器38检测显示板14A上的操作位置(坐标)。
虽然显示板14A的显示区域的大小可以和显示板14A的大小完全一致,但是这两个大小可以不必相互一致。操作板14B采用的位置检测方法包括矩阵切换(matrix switch)法、电阻膜法、表面声波法、红外线法、电磁感应法、静电电容法等,其中的任一种方法都是可采用的。
会话单元26包括上述的扬声器16和话筒18。会话单元26将通过话筒18输入的用户的声音转换成控制器38可以处理的音频数据,并将音频数据输出至控制器38。会话单元26还对无线通信单元24或外部输入/输出单元30接收的音频数据进行解码,并从扬声器16输出作为已解码的音频数据的声音。如图1所示,例如,扬声器16安装在与提供显示输入单元14的面相同的面上,话筒18安装在外壳12的正面。
操作单元20接受来自用户的指令。例如,如图1所示,操作单元20安装在智能手机10的外壳12的侧面上。操作单元20是按钮开关,当用手指等按压时该按钮开关接通,而且当手指从开关释放时,该按钮开关由于弹簧等的弹力而进入断开状态。
存储器28存储由控制器38执行的控制程序、控制数据、应用软件、将通信伙伴的名称与电话号码等对应起来的地址数据,以及发送和接收的电子邮件数据。存储器28还存储通过网络浏览下载的网络数据和下载的内容数据。另外,存储器28临时存储流数据等。
这里,根据第一示例实施例的存储器28包括智能手机10中包括的内部存储器28A和具有可拆卸地连接到智能手机10的外部存储器插槽的外部存储器28B。使用闪存式存储介质等来实现配置存储器28的内部存储器28A和外部存储器28B。可替代地,存储介质可以是硬盘式、微型多媒体卡、或卡片式存储器(比如microSD(注册商标)存储器)。可替代地,存储器可以是诸如随机存取存储器(RAM)或只读存储器(ROM)之类的存储介质。
外部输入/输出单元30起到与连接至智能手机10的外部装置的接口的作用。根据第一示例实施例的外部输入/输出单元30根据预定的通信标准等直接或间接地连接至其他外部装置。通信标准等例如是通用串行总线(USB)、电气与电子工程师协会(IEEE)1394等,或网络(比如因特网、无线局域网(LAN)、或蓝牙(注册商标))。可替代地,通信标准等可以是射频识别(RFID)或红外数据协会(IrDA)(注册商标)。另外,通信标准等可以是超宽带(UWB)(注册商标)或Zigbee(注册商标)。
这里,连接至根据第一示例实施例的智能手机10的外部装置例如是有线/无线的头带式耳机、有线/无线的外部充电器、有线/无线的数据端口、经由卡插槽连接的存储卡等。外部装置可以是订户识别模块(subscriber identity module,SIM)卡、用户识别模块(user identity module,UIM)卡、或经由音视频输入/输出(I/O)端子连接的外部音视频装置。可替代地,外部装置可以是无线连接的外部音视频装置、有线/无线连接的智能手机、有线/无线连接的个人计算机、有线/无线连接的PDA、或耳机。根据第一示例实施例的外部输入/输出单元30将从这些外部装置发送的数据传送至包括在智能手机10中的元件,并将智能手机10中的数据发送至外部装置。
电源单元36配置为响应于来自控制器38的指示将电池(未示出)中蓄积的电能提供给智能手机10的各单元。
另外,控制器38包括微处理器。控制器38配置为按照存储在存储器28中的控制程序和控制数据进行操作,并集中地控制智能手机10的各单元。为了经由无线通信单元24执行音频通信或数据通信,控制器38还具有控制通信系统的各单元的移动通信控制功能、和应用处理功能。
这里,通过控制器38按照存储在存储器28中的应用软件进行操作来实现应用处理功能。应用处理功能例如包括控制外部输入/输出单元30并执行与面向智能手机10的装置之间的数据通信的红外线通信功能、发送和接收电子邮件的电子邮件功能、和浏览网页的网络浏览功能。
另外,控制器38具有基于诸如接收到的数据或下载的流数据之类的图像数据(静止图像和移动图像数据)在显示输入单元14上显示视频的图像处理功能。应注意这里所述的图像处理功能是控制器38对图像数据进行解码、对已解码的图像数据施加图像处理、并在显示输入单元14上显示图像的功能。
而且,控制器38执行显示板14A上各种信息的显示控制以及检测经由操作单元20、操作板14B等执行的用户操作的操作检测控制。
通过执行上述显示控制,控制器38显示以软件方式表示的操作单元(比如用于启动应用软件的图标或滚动条)或用于撰写电子邮件的窗口。应注意这里所述的滚动条是用于接受指令以便对太大而与显示板14A的显示区域不相适应的图像的显示部分进行移动的、以软件方式表示的操作单元。
通过执行上述操作检测控制,控制器38检测经由操作单元20执行的用户操作、或者接受经由操作板14B对图标执行的操作或在窗口的输入栏中输入的字符串。
另外,控制器38检测在操作板14B上执行的手势操作,并根据检测到的手势操作执行预设功能。应注意这里所述的手势操作不是传统的单纯的触摸操作,而是用手指等呈现同时指定多个位置的轨迹、或者通过结合这些操作为多个位置中的至少一个呈现轨迹的操作。
相机单元22是使用诸如互补金属氧化物半导体(CMOS)或电荷耦合器件(CCD)之类的成像元件拍摄图像的数码相机。在控制器38的控制下,相机单元22将通过拍摄图像而获得的图像数据转换为按照诸如联合图像专家组(JPEG)之类的预定标准压缩的图像数据。相机单元22还将转换后的图像数据记录在存储器28中,或者经由外部输入/输出单元30、无线通信单元24等将图像数据输出至外部装置。在图1所示的智能手机10中,相机22安装在与安装显示输入单元14的面相同的面上。然而,安装相机单元22的位置不限于该位置。相机单元22可以安装在显示输入单元14的背面,或者可以安装多个相机单元22。当安装了多个相机单元22时,要用来拍摄图像的相机单元22被从一个相机单元切换到另一个相机单元并使用单个相机单元22来拍摄图像,或者同时使用多个相机单元22来拍摄图像。
这里,根据第一示例实施例的相机单元22用于智能手机10的各种功能。例如,在显示板14A上显示采用相机单元22获得的图像,或者采用相机单元22获得的图像被用作操作板14B上的操作输入。
另外,相机单元22将通过话筒18获得的音频信息(可以由控制器38等将其从音频信息转换为文本信息)等添加到静止图像数据或移动图像数据。相机单元22将添加了音频信息的图像数据记录在存储器28中,或者经由外部输入/输出单元30或无线通信单元24将添加了音频信息的图像数据输出至外部装置。
顺便地说,当图像数据存储在内部存储器28A和外部存储器28B的至少之一中、并且响应于用户操作而给出显示图像数据列表的指示时,根据第一示例实施例的智能手机10控制显示板14A以显示列表。在第一示例实施例中,将通过用诸如相机单元22之类的图像拍摄单元拍摄图像而获得的图像数据应用为上述的图像数据。
智能手机10具有叠加显示功能,用于响应于经由操作板14B对列表中显示的图像执行的预定用户操作而相互叠加并显示多个图像。
因此,根据第一示例实施例的智能手机10在存储器28中存储了用于管理包括上述图像数据的电子文件(以下也可简称为“文件”)在以列表显示时的序列的顺序和叠加状态的文件信息。
例如,如图3A所示,根据第一示例实施例的文件信息40是这样的信息,其中,针对各文件,将表示序列的顺序的序列顺序信息、表示文件名称的文件名称信息、表示摄影者的摄影者信息、和表示叠加状态的叠加状态信息相互关联。如图3A所示,在第一示例实施例中,当没有叠加相应的图像时,表示“未叠加”的信息被存储为叠加状态信息;当叠加了相应的图像时,表示一组相互叠加的图像的组名的信息被存储为叠加状态信息。
基于文件信息40,根据第一示例实施例的智能手机10将包括在相同组中的文件显示为幻灯片放映,或者基于各组显示文件的列表。
在显示列表时,当相互叠加并显示多个图像时,或当通过使用叠加显示功能取消叠加显示时,根据第一示例实施例的智能手机10更新文件信息40。即,当例如相互叠加文件B1至BN的图像并将文件B1至BN的图像显示为组E时,如以示例的方式在图3B中所示的那样,智能手机10将关于文件B1至BN的图像的叠加状态信息从“未叠加”改变为“组E”。
根据第一示例实施例的智能手机10显示由上述图像数据表示的图像的列表。然而,智能手机10不限于此示例。可替代地,可以显示代表存储在存储器28中的文档文件、音频文件、应用程序等的图标的图像列表。
接下来,参考图4,将对根据第一示例实施例的智能手机10的操作进行说明。图4是示出了响应于经由操作板14B或操作单元20输入的执行指令而由智能手机10的控制器38执行的显示控制处理程序的处理的流程的流程图。预先将该程序存储在内部存储器28A的预定区域中。
在图4的步骤S101中,控制器38执行控制以在显示板14A上显示作为屏幕转换的起始点的菜单屏幕。
如图5所示,根据第一示例实施例的菜单屏幕42包括用于接受启动邮件功能的指令的邮件按钮44a和用于接受启动网络浏览功能的指令的网络按钮44b。菜单屏幕42还包括用于接受启动相机功能的指令的相机按钮44c和用于接受启动上述列表显示功能的指令的图像列表按钮44d。菜单屏幕42还包括诸如用于接受启动会话功能的指令的会话按钮44e和用于接受启动各种设置功能的指令的设置按钮44f之类的菜单按钮。
在菜单屏幕42上,用户通过触摸与待启动功能相对应的菜单按钮的顶部来选择一个菜单项。响应于此,控制器38启动与所选择的菜单按钮相对应的功能。
在步骤S103中,处理等待用户选择一个菜单按钮。在步骤S105中,判定用户所选择的菜单按钮是否是图像列表按钮44d。当步骤S105中的判定是否定时,处理进行至步骤S107,执行与所选择的菜单按钮相对应的功能,并终止显示控制处理程序。相反,如果步骤S105中的判定是肯定时,处理进行至步骤S109。
在步骤S109中,控制器38执行控制以在显示板14A上显示图像列表屏幕,该图像列表屏幕显示由存储在存储器28中的文件表示的图像的列表。
如图6所示,根据第一示例实施例的图像列表屏幕46是显示板14A的显示区域,将该显示区域划分为沿预定方向(第一示例实施例中图6的正视图中的垂直方向)划分的多个划分区域48。进一步将划分区域48划分为显示图像50的图像显示区域48A和显示与图像显示区域48A中显示的图像50相对应的显示属性的属性显示区域48B。
根据预定属性将列表中显示的图像50分配至划分区域48,并在划分区域48中显示列表中显示的图像50。在第一示例实施例中,将对应图像50的摄影者应用为属性,根据摄影者(图6所示示例中的A至D)将图像50分配至划分区域48。另外,沿与上述预定方向相交的方向(第一示例实施例中图6的正视图中的水平方向;以下还可称为“排列方向”)来排列并在划分区域48中显示根据属性分配的各图像50。此时,沿排列方向按照序列顺序信息表示的顺序在各图像显示区域48A中显示各图像50。
在步骤S111中,控制器38进入待机直到对操作板14B和操作单元20之一执行了输入操作。在步骤S113,判定输入操作是否是给出终止显示控制处理程序的指示的输入操作。在根据第一示例实施例的智能手机10中,当按压位于智能手机10的正视图中左侧的操作单元20时,终止当时正在执行的处理。
当步骤S113中的判定是否定时,处理进行至步骤S115,并判定输入操作是否是选择图像的输入操作。此时,当经由操作板14B指定了任意图像50时,控制器38判定输入操作是选择图像的输入操作。当步骤S115中的判定是否定时,处理进行至步骤S117,执行根据输入操作的处理,并终止显示控制处理程序。
相反,当步骤S115中的判定是肯定时,处理进行至步骤S119,并判定用户在该时间点在操作板14B上指定的位置(以下还可称为“指定位置”)是否移动。此时,当指定位置从步骤S111中的处理中检测到的指定位置移动了预定距离(比如3mm)或更多时,控制器38判定指定位置移动。
当步骤S119中的判定是否定时,处理进行至步骤S135。相反,当步骤S119中的判定是肯定时,处理进行至步骤S121,并且控制器38执行控制以根据指定位置的移动的量来移动在指定位置处显示的图像(以下还可称为“指定图像”)。
例如,如图7A所示,假设用户在图像B1的显示区域中指定位置(指定位置54),并且指定位置54沿显示图像B2的方向移动。在这种情况下,控制器38根据指定位置54的移动来移动图像B1的显示位置。应注意,在第一示例实施例中,根据指定位置54沿排列方向的移动量,沿排列方向移动图像B1的显示位置。
在步骤S123中,判定指定图像是否接近另一个图像(第一示例实施例中相同划分区域48中包括的另一个图像)。此时,当响应于步骤S121中指定图像的移动,指定图像与被接近图像之间的距离变得短于预定距离(比如3mm)以上时,控制器38判定指定图像接近另一个图像(以下还可称为“被接近图像(approached image”)。
当步骤S123中的判定是肯定时,处理进行至步骤S125,并且沿朝向指定图像的方向将被接近图像移动预定距离(比如3mm)。此时,当存在多个被接近图像时,各被接近图像依次分别被移动预定距离。
即,用户指定在操作板14B上显示的图像,并执行使该图像接近另一个图像的接近操作,从而给出相互叠加并显示这些图像的指示。响应于检测到步骤S123中的处理执行了接近操作的事实,控制器38执行控制以通过执行步骤S125中的处理将各图像移动并聚集至一处,并相互叠加和显示各图像。在第一示例实施例中,减少显示板14A上显示的多个图像中的至少两个图像之间的距离的操作被称为接近操作。另外,在第一示例实施例中,其间的距离通过操作而被减小的指定图像和被接近图像统称为“接近图像(approachingimages)”。
例如,如图7B所示,当控制器38使图像B1接近图B2至B5时,如图7C所示,控制器38使图像B2至B5…一个接一个地沿朝向图像B1的方向(与第一示例实施例中的排列方向相反的方向)移动。
在步骤S127中,判定在步骤S125中已使其相互接近的图像之间的距离是否变为预定阈值或更小。该阈值是用于判定相互叠加并显示指定图像和被接近图像的预定阈值。将表示该阈值的信息预先存储在内部存储器28A中。
当步骤S127中的判定是否定时,处理进行至步骤S131。相反,当步骤S127中的判定是肯定时,处理进行至步骤S129,并且控制器38执行控制以在指定图像上方叠加已被步骤S127中的处理判定与指定图像之间的距离为阈值或更小的被接近图像,并将这些图像显示为图像堆叠。在步骤S129中,控制器38更新叠加状态信息使得指定图像和被接近图像属于相同组。
例如,如图7D所示,控制器38沿朝向B1的方向移动B2,并且当图像B1和图像B2之间的距离变为阈值或更小时,控制器38执行控制以相互叠加图像B1和B2并将图像B1和B2显示为图像堆叠56。此时,可以将图像B1或者图像B2显示在另一个的上面。然而,在将作为指定图像的图像B1显示在图像B2的上面时,对用户而言识别指定图像变得很清楚,因此这也是优选的。图像B1和B2可以彼此完全重叠地显示,或者可以稍微偏移地相互叠加并显示,这使用户能够看出多个图像被相互叠加。
在图7A至7E所示的示例中,例如,如图3B所示,控制器38在文件信息40中更新叠加状态信息使得图像B1和B2属于相同组,即,组E。
在步骤S131中,判定用户对操作板14B的触摸是否释放,从而判定是否取消了步骤S111中检测到的输入操作。当步骤S131中的判定是肯定时,处理进行至步骤S132,控制器38对在显示板14A上显示的各图像50的位置进行排列,并且处理返回至步骤S111。当排列各图像50的位置时,控制器38执行控制以在这样的位置显示图像50:各图像50在这些位置处是等距的,并且不改变包括例如图像堆叠56的图像50的序列的顺序。
例如,如图7E所示,假定在图像B2至BN被叠加并显示在图像B1上方的这点处取消输入操作。在这种情况下,控制器38执行控制以在图像B1上方叠加并显示图像B2至BN。对于在取消输入操作时被显示但未被叠加在图像B1上方的图像BN+1和图像BN+2,控制器38执行控制以按照原样显示图像BN+1和图像BN+2,而不在图像B1上方叠加图像BN+1和图像BN+2。此时,控制器38等距地显示包括叠加在图像B1上方的图像B2至BN在内的图像堆叠56、图像BN+1和图像BN+2。相应地,当用户继续在触摸板14B上执行触摸操作时,聚集图像的处理继续,并且聚集图像的处理在停止触摸操作的时刻停止。
相反,当步骤S131中的判定是否定时,处理进行至步骤S133,并且判定是否存在还没有被聚集的被接近图像。
当步骤S133中的判定是肯定时,处理返回至步骤S125。相反,当步骤S133中的判定是否定时,处理返回至步骤S131。
相反,当步骤S123中的判定是否定时,处理进行至步骤S135,并且,同步骤S131中的处理中一样,判定是否取消了输入操作。当步骤S135中的判定是否定时,处理返回至步骤S119。相反,当步骤S135中的判定是肯定时,处理进行至步骤S136,并且控制器38执行控制以使指定图像返回到步骤S121中的移动之前的位置(原始位置),并且处理返回至步骤S111。
相反,当步骤S113中的判定是肯定时,处理进行至步骤S137,并且处理器38控制显示板14A以停止显示图像列表屏幕46,并且终止显示控制处理程序。
在第一示例实施例中,沿排列方向排列图像50。然而,第一示例实施例不限于这种情况。例如,可以以矩阵排列或者可以随机排列图像50。在这些情况下,当执行使指定图像接近另一个图像的接近操作时,智能手机10可以执行控制以相互叠加和显示指定图像、被接近图像、和在连接指定图像和被接近图像的直线上和该直线的延长线上存在的图像。
在第一示例实施例中,响应于指定位置的移动,根据指定位置的移动来移动指定图像。然而,第一示例实施例不限于这种情况。即,当步骤S119中的判定是肯定时,可以执行步骤S125中的处理而不执行步骤S121和S123中的处理。在这种情况下,响应于指定位置的移动,根据该指定位置的移动而接近指定图像的图像作为被接近图像。
第二示例实施例
根据上述第一示例实施例的智能手机10执行控制以当用户指定的指定图像接近另一个图像时,在指定图像上方叠加并显示被接近图像。相反,根据第二示例实施例的智能手机10在使通过用户操作指定的至少两个指定图像相互接近时,相互叠加并显示相互接近的两个指定图像和这些指定图像之间存在的(多个)图像。
由于根据第二示例实施例的智能手机10的配置与根据第一示例实施例的智能手机10的配置相同或相似,因此这里将略去对其的说明。
接着,参考图8,将对根据第二示例实施例的智能手机10的操作进行说明。图8是示出了响应于经由操作板14B或操作单元20输入的执行指令,由智能手机10的控制器38执行的根据第二示例实施例的显示控制处理程序的处理的流程的流程图。预先将该程序存储在内部存储器28A的预定区域中。
首先,在步骤S101至步骤S113中,执行与第一示例实施例的步骤S101至S113中相同的处理。当步骤S113中的判定是肯定时,处理进行至步骤S137。在步骤S137,执行与第一示例实施例的步骤S137中相同的处理,并终止显示控制处理程序。
相反,当步骤S113中的判定是否定时,处理进行至步骤S201。
在步骤S201中,判定输入操作是否是选择多个图像的输入操作。当步骤S201中的判定是否定时,处理进行至步骤S117,执行根据输入操作的处理,并且终止显示控制处理程序。
当步骤S201中的判定是肯定时,处理进行至步骤S119。在步骤S119和S121中,执行与第一示例实施例的步骤S119至S121中相同的处理。
在第二示例实施例中,例如,如图9A所示,假定选择了两个图像B1和B3。在第二示例实施例中,将对执行选择两个图像的输入操作的情况进行说明。然而,第二示例实施例不限于这种情况,而且第二示例实施例适用于执行选择三个或更多图像的输入操作的情况。另外,将各个所选择的图像描述为指定图像。
在步骤S203中,判定指定图像中的至少两个图像是否相互变得更近。在第二示例实施例中,例如,如图9B所示,描述了图像B3的显示位置沿朝向图像B1的位置的方向移动,并且图像B1和B3相互变得更近。当在步骤S201中选择三个或更多图像时,如果所选择图像中的至少两个图像相互变得更近,则在步骤S203中判定为各图像相互变得更近。
当步骤S203中的判定是否定时,处理进行至步骤S135。相反,当步骤S203中的判定是肯定时,处理进行至步骤S205,并且处理器38提取响应于指定位置的移动而相互变得更近的指定图像(以下还可称为“指定接近图像”)之间存在的图像。例如,如图9B所示,控制器38提取作为指定接近图像的图像B1和B3之间存在的图像B2。
在步骤S207中,移动指定接近图像和(多个)提取图像。此时,控制器38向着相同的预定位置移动指定接近图像和(多个)提取图像。例如,如图9C所示,为了在相同位置(第二示例实施例中图像B1的位置)叠加作为指定接近图像的图像B1和B3和作为提取图像的图B2,向着图像B1的位置移动图像B2和B3。如图9D所示,当沿着朝向图像B1的方向移动图像B2和B3时,控制器38执行控制以叠加和显示图像B1和B2。另外,控制器38还沿着朝向图像B1和B2的方向移动图像B3,并且如图9E所示,控制器38执行控制以在图像B1和B2上方叠加并显示图像B3。
在步骤S129中,执行与第一示例实施例的步骤S129中相同的处理。在步骤S132中,执行与第一示例实施例的步骤S132中相同的处理。在步骤S135和S136中,执行与第一示例实施例的步骤S135和S136中相同的处理,
在第二示例实施例中,已对选择两个图像B1和B3的示例进行了说明。然而,第二示例实施例不限于该示例。即,当执行选择三个或更多图像的输入操作时,而且当这三个或更多图像相互变得更近时,控制器38执行控制以相互叠加并显示这三个或更多图像。在这种情况下,可以在这三个或更多图像的中心位置处叠加并显示这三个或更多图像。可替代地,可以在这三个或更多图像之一的位置处叠加并显示其他图像。
在第二示例实施例中,当选择了多个图像,并且这些图像响应于多个指定位置中的一个指定位置的移动而相互变得更近时,相互叠加并显示指定接近图像和位于指定图像之间的(多个)图像。然而,第二示例实施例不限于这种情况。即,当选择并指定图像时,以及当指定与指定图像不同的区域中的位置,并且执行使与指定图像不同的区域中的指定位置移动至更接近指定图像的接近操作时,可以相互叠加并显示指定图像和位于指定图像与指定位置之间的(多个)图像。
在第二示例实施例中,响应于指定位置的移动,根据指定位置的移动来移动指定图像。然而,第二示例实施例不限于这种情况。即,当步骤S119中的判定是肯定时,可以执行步骤S205中的处理,而不执行步骤S121和S203中的处理。在这种情况下,响应于指定位置的移动,根据指定位置的移动而接近指定图像的图像作为被接近图像。
当在步骤S207中移动被接近图像和提取图像时,可以与被接近图像和提取图像同时地移动在被接近图像和提取图像的移动方向的另一侧上存在的图像。
另外,在第二示例实施例中,在步骤S129中相互叠加和显示各指定图像和(多个)提取图像。然而,第二示例实施例不限于这种情况。即,在步骤S129中可以仅相互叠加和显示各指定图像。
第三示例实施例
第三示例实施例是这样的示例实施例,其中将第二示例实施例应用于当以矩阵显示多个图像时,由用户操作指定多行或多列上的图像的情况。即,当使在多行或多列上指定的多个指定图像相互接近时,根据第三示例实施例的智能手机10按照与各图像相对应的序列的顺序相互叠加并显示各接近图像和各接近图像之间存在的(多个)图像。
由于根据第三示例实施例的智能手机10的配置与根据第一和第二示例实施例的智能手机10的配置相同或相似,因此这里将略去对其的说明。
例如,如图10A所示,当以矩阵排列多个图像50时,按照序列信息表示的顺序来排列各图像50。例如,在第一行上排列图像B1至B4,并在第二行上排列图像B5至B8。在第三示例实施例中,控制器38执行控制以按照逐行的顺序来排列各图像50并在显示板14A上显示各图像。
在第三示例实施例中,执行与第二示例实施例的显示控制处理程序相同的程序。此时,在第三示例实施例中,例如,如图10A所示,对选择了图像B1和B7并且沿着朝向图像B1的方向移动图像B7进行了说明。
在第二示例实施例中,在步骤S205中提取的图像是指定接近图像和各指定接近图像之间存在的(多个)图像。在第三示例实施例中,在步骤S205中提取的图像是指定接近图像和各指定接近图像之间按照序列的顺序存在的(多个)图像。
即,例如,如图10B所示,当由用户操作选择图像B1和B7时,提取图像B1和B7以及图像B1和B7之间按照序列的顺序存在的图像B2至B6。在步骤S207,例如,如图10B所示,控制器38使图像B2至B7向图像B1存在的位置移动。此时,沿与排列方向相反的方向移动并在图像B1上方叠加图像B2至B7是优选的。
在步骤S129,例如,如图10C所示,控制器38执行控制以显示包括作为指定图像的图像B1和B7以及在图像B1和B7之间存在的图像B2至B6在内的图像堆叠56,其中相互叠加了图像B1至B7。
在第三示例实施例中,在两个指定图像之间按照序列顺序信息表示的序列的顺序存在的(多个)图像作为提取图像。然而,第三示例实施例不限于这种情况。即,例如,可以与各项图像信息相关联地存储表示图像拍摄日期的信息,并且两个指定图像之间按照图像拍摄日期的顺序存在的(多个)图像可以作为提取图像。
在第三示例实施例中,当选择了多个图像,并且这些图像响应于多个指定位置当中的一个指定位置的移动而变得相互更近时,相互叠加并显示指定接近图像和按照序列的顺序位于各指定图像之间的(多个)图像。然而,第三示例实施例不限于这种情况。即,当选择并指定了图像,以及当指定了与指定图像不同的区域中的位置,并且执行将与指定图像不同的区域中的指定位置移动至更接近指定图像的接近操作时,可以相互叠加并显示该指定图像和位于该指定图像与指定位置之间的(多个)图像。
第四示例实施例
根据第二示例实施例的智能手机10执行控制以当使通过用户操作指定的多个指定图像中的至少两个相互接近时,相互叠加并显示接近图像和这些图像之间存在的(多个)图像。相反,第四示例实施例是这样的示例实施例,其中将第二示例实施例应用于当连续地选择由用户操作指定的多个指定图像之一时,另一个所选择的图像变成取消选择,然后再选择又一个图像的情况。即,当多个指定图像的至少之一正被选择时,根据第四示例实施例的智能手机10相互叠加并显示被使得接近所选择图像的指定图像和在指定图像与所选择图像之间存在的(多个)图像。
由于根据第四示例实施例的智能手机10的配置与根据第一至第三示例实施例的智能手机10的配置相同或相似,因此这里将略去对其的说明。
接着,参考图11,将对根据第四示例实施例的智能手机10的操作进行说明。图11是示出了响应于经由操作板14B或操作单元20输入的执行指令而由智能手机10的控制器38执行的根据第四示例实施例的显示控制处理程序的处理的流程的流程图。预先将该程序存储在内部存储器28A的预定区域中。
首先,在步骤S101至步骤S129中,执行与第一示例实施例的步骤S101至S129中相同的处理。
例如,如图12A所示,对选择了图像B1和B3而且沿朝向图像B1的方向移动图像B3进行了说明。如图12B所示,当图像B3沿朝向图像B1的方向移动时,控制器38执行控制以相互叠加并显示图像B1至B3。此时,响应于图像B2和B3的移动,沿朝向图像B1的方向移动位于图像B2和B3的移动方向的相反侧的图像(比如图像B4等)。在第四示例实施例中,将最靠近图像B1至B3的图像B4移动到已显示图像B3的位置,并在该位置显示图像B4。然而,第四示例实施例不限于这种情况。即,可以移动位于图像B1至B3的相反侧的任意图像。
在步骤S301,判定是否取消了输入操作。此时,当所有在步骤S201中被判定为被选择的指定图像变成未指定时,控制器38判定取消了输入操作。当步骤S301中的判定是肯定时,处理进行至步骤S132,接着返回至步骤S111。
相反,当步骤S301中的判定是否定时,处理进行至步骤S303,并判定是否至少一个被选择的图像变成取消选择。此时,当步骤S201中被判定为被选择的任意指定图像变成未指定时,控制器38判定至少一个被选择的图像变成取消选择。
当步骤S303中的判定是否定时,处理返回至步骤S301。相反,当步骤S303中的判定是肯定时,处理进行至步骤S305,并判定是否选择了在当前阶段未被选择的任意图像。
例如,如图12B所示,假设当连续地选择图像B1时被选择的图像B3变成取消选择,如图12C所示,进一步选择图像B5,并且图像B5沿朝向包括图像B1至B3的图像堆叠56的方向移动。在这种情况下,如图12D所示,控制器38沿朝向图像堆叠56的方向移动被选择的图像B5和在图像堆叠56与图像B5之间存在的图像B4,并且如图12E所示,控制器38相互叠加并显示图像B1至B5。当连续地选择至少一个图像时,用户重复地选择和取消选择另一个图像,从而相互叠加并显示包括未在显示板14A上显示的那些图像的图像,这使用户能够逐一地检查图像。
相反,当步骤S305中的判定是否定时,处理返回至步骤S301。当步骤S305中的判定是肯定时,处理返回至步骤S119。
在第四示例实施例中,在步骤S119中指定位置移动的时刻聚集图像。然而,第四示例实施例不限于这种情况。即,在步骤S207中的处理之前,可以执行步骤S303中的处理以判定是否至少一个被选择的图像变成取消选择。当判定至少一个被选择的图像变成了取消选择时,处理可以进行至步骤S207中的处理。在这种情况下,当步骤S301中的判定是否定时,处理进行至步骤S305,而不执行步骤S303中的处理。
第五示例实施例
根据第一示例实施例的智能手机10执行控制以当由用户操作指定的指定图像接近另一个图像时,在指定图像上叠加并显示被接近图像。相反,根据第五示例实施例的智能手机10在由用户操作执行的长按所指定的多个指定图像中的至少两个相互接近时,相互叠加并显示指定接近图像和这些指定图像之间存在的(多个)图像。
由于根据第五示例实施例的智能手机10的配置与根据第一示例实施例的智能手机10的配置相同或相似,因此这里将略去对其的说明。
接着,参考图13,将对根据第五示例实施例的智能手机10的操作进行说明。图13是示出了响应于经由操作板14B或操作单元20输入的执行指令而由智能手机10的控制器38执行的显示控制处理程序的处理的流程的流程图。预先将该程序存储在内部存储器28A的预定区域中。
首先,在步骤S101至步骤S117中,执行与第一示例实施例的步骤S101至S117中相同的处理。
在步骤401中,判定当图像正被选择时是否执行了长按。此时,当不改变指定位置并且以预定时间(比如2秒)或更长时间持续地选择图像时,判定执行了长按。当步骤S401中的判定是否定时,处理进行至步骤S117,执行与第一示例实施例的步骤S117中相同的处理,并且终止显示控制处理程序。
相反,当步骤S401中的判定是肯定时,处理进行至步骤S119。在步骤S119至S137中,执行与第一示例实施例的步骤S119至S137中相同的处理。
第六示例实施例
根据第五示例实施例的智能手机10执行控制以当通过用户操作使多个图像中的至少两个相互接近时,在指定图像上叠加并显示被接近图像。相反,当用户操作指定了图像堆叠56时,根据第六示例实施例的智能手机10显示包括在所指定图像堆叠56中的图像或者取消图像堆叠56的叠加显示。
由于根据第六示例实施例的智能手机10的配置与根据第一至第五示例实施例的智能手机10的配置相同或相似,因此这里将略去对其的说明。
接着,参考图14,将对根据第六示例实施例的智能手机10的操作进行说明。图14是示出了响应于经由操作板14B或操作单元20输入的执行指令而由智能手机10的控制器38执行的显示控制处理程序的处理的流程的流程图。预先将该程序存储在内部存储器28A的预定区域中。
首先,在步骤S101至步骤S113中,执行与第一示例实施例的步骤S101至S113中相同的处理。
当步骤S113中的判定是否定时,处理进行至步骤S501,并判定是否选择了图像堆叠56。此时,当经由操作板14B指定图像堆叠56时,判定选择了图像堆叠56。当步骤S501中的判定是否定时,处理进行至步骤S117。
相反,当步骤S501中的判定是肯定时,处理进行至步骤S503,并判定选择图像堆叠56的操作是否是预定的第一操作。该第一操作是在触摸板14B上例如在预定阈值时间或更短时间内持续地触摸与图像堆叠56相对应的位置的操作。
当步骤S503中的判定是肯定时,处理进行至步骤S505,并显示包括在所选择的图像堆叠56中的图像的列表。
例如,如图15A所示,假定由用户操作选择了包括被相互叠加并显示的图像B1至B5的图像堆叠56。在这种情况下,如图15B所示,在显示板14A的显示区域中显示包括在图像堆叠56中的图像B1至B5和用于返回至图像列表屏幕46的返回按钮58。
在步骤S507,判定是否选择了返回按钮58,从而判定是否给出指示以终止逐组地显示列表。控制器38进入待机状态直到给出该终止指示。当步骤S507中的判定是肯定时,处理返回至步骤S109。
相反,当步骤S503中的判定是否定时,处理进行至步骤S509,并且控制器38执行控制以取消所选择的图像堆叠56的叠加显示并分别地显示图像堆叠56中包括的已相互叠加并显示的各图像。在步骤S509中,控制器38更新叠加状态信息以取消图像堆叠56中包括的图像的叠加状态,并且处理返回至步骤S111。
例如,如图16A所示,假定选择了包括被相互叠加并显示的图像B1至B5的图像堆叠56,并且执行了连续地触摸操作板14B的相同位置两次的双触摸操作。在这种情况下,如图16B所示,控制器38执行控制以按照图像B5、图像B4等依次类推的顺序取消叠加显示,并如图16C所示,在显示板14A上分别地显示图像B1至B5。
已经出于例示和说明的目的提供了对本发明示例性实施例的前述说明。该描述并非穷尽性的或者将本发明限制为所公开的精确形式。显然,许多修改和变型对于本领域技术人员来说是显而易见的。这些实施例的选择和描述是为了对本发明的原理及其实际应用进行最佳的阐述,以使得本领域的其他技术人员能够理解本发明的各种实施例以及适用于具体应用场合的各种变型。本发明的范围应当由所附权利要求及其等价物限定。

Claims (5)

1.一种显示控制设备,包括:
显示器,其包括触摸板,所述显示器配置为至少显示第一图像和第二图像;
控制器,其配置为响应于经由所述触摸板执行的手势操作,将所述第一图像叠加在所述第二图像上,所述手势操作使得所述第一图像从第一位置朝向所述第二图像移动,同时所述第二图像保持在所述显示器上的第二位置处,
其中,当在所述第一图像和所述第二图像之间存在第三图像时,所述控制器控制以通过将所述第一图像和所述第三图像移动至所述第二图像的所述第二位置来叠加并显示所述第一图像、所述第三图像和所述第二图像,
其中,所述控制器还配置为响应于所述第一图像和所述第二图像之间的距离小于或等于预定阈值,在所述显示器上显示叠加的所述第一图像和所述第二图像,并且其中,所述控制器还配置为响应于所述第三图像和所述第二图像之间的距离小于或等于预定阈值,在所述显示器上显示叠加的所述第三图像和所述第二图像。
2.根据权利要求1所述的显示控制设备,其中,所述手势操作包括触摸输入,所述触摸输入包括在所述触摸板上所述第二图像的所述第二位置处的第一触摸和在所述触摸板上的第二触摸,所述第二触摸朝向所述第二位置处的所述第一触摸移动。
3.根据权利要求1所述的显示控制设备,其中,在所述手势操作之前,响应于在预定时间或更长时间内持续地触摸所述第一图像和所述第二图像中的至少一个的长按操作,相互叠加并显示所述第一图像和所述第二图像。
4.根据权利要求1所述的显示控制设备,其中,响应于持续地执行的手势操作,在持续地执行所述手势操作期间相互叠加所述第一图像、所述第三图像和所述第二图像。
5.根据权利要求1所述的显示控制设备,其中,当相互叠加并显示所述第一图像、所述第三图像和所述第二图像时,响应于经由所述触摸板执行的用于触摸叠加的所述第一图像、所述第三图像和所述第二图像的触摸操作,将相互叠加并显示的所述第一图像、所述第三图像和所述第二图像分别地显示而不相互叠加。
CN201910542007.9A 2012-09-28 2013-05-09 显示控制设备和方法,以及图像显示设备 Active CN110109609B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012-218671 2012-09-28
JP2012218671A JP5977132B2 (ja) 2012-09-28 2012-09-28 表示制御装置、画像表示装置、およびプログラム
CN201310170049.7A CN103713816A (zh) 2012-09-28 2013-05-09 显示控制设备和方法,以及图像显示设备

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201310170049.7A Division CN103713816A (zh) 2012-09-28 2013-05-09 显示控制设备和方法,以及图像显示设备

Publications (2)

Publication Number Publication Date
CN110109609A true CN110109609A (zh) 2019-08-09
CN110109609B CN110109609B (zh) 2023-03-31

Family

ID=50384682

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201310170049.7A Pending CN103713816A (zh) 2012-09-28 2013-05-09 显示控制设备和方法,以及图像显示设备
CN201910542007.9A Active CN110109609B (zh) 2012-09-28 2013-05-09 显示控制设备和方法,以及图像显示设备

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201310170049.7A Pending CN103713816A (zh) 2012-09-28 2013-05-09 显示控制设备和方法,以及图像显示设备

Country Status (3)

Country Link
US (1) US9128600B2 (zh)
JP (1) JP5977132B2 (zh)
CN (2) CN103713816A (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102063915B1 (ko) * 2013-03-14 2020-01-08 삼성전자주식회사 사용자 기기 및 그 동작 방법
KR102145190B1 (ko) * 2013-11-06 2020-08-19 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
EP3096215B1 (en) * 2014-01-15 2020-02-05 Yulong Computer Telecommunication Scientific (Shenzhen) Co. Ltd. Terminal operation apparatus and terminal operation method
WO2015147709A1 (en) * 2014-03-26 2015-10-01 Telefonaktiebolaget L M Ericsson (Publ) Selecting an adjacent file on a display of an electronic device
JP6296919B2 (ja) * 2014-06-30 2018-03-20 株式会社東芝 情報処理装置及びグループ化実行/解除方法
USD797139S1 (en) * 2014-10-10 2017-09-12 Travelport, Lp Display screen or portion thereof with transitional graphical user interface
KR20190136452A (ko) * 2018-05-30 2019-12-10 삼성에스디에스 주식회사 콘텐츠 스케줄링 장치 및 방법

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101017498A (zh) * 2006-02-10 2007-08-15 三星电子株式会社 合并数据对象的方法和设备
US20080108392A1 (en) * 2006-11-03 2008-05-08 Samsung Electronics Co., Ltd Method and apparatus for displaying a plurality of images in mobile terminal
US20100216448A1 (en) * 2009-02-26 2010-08-26 Samsung Electronics Co., Ltd. User interface for supporting call function and portable device using the same
US20110018821A1 (en) * 2009-04-14 2011-01-27 Sony Corporation Information processing apparatus, information processing method and program
CN102171634A (zh) * 2008-10-06 2011-08-31 三星电子株式会社 使用多触摸来管理列表的方法和设备
CN102239465A (zh) * 2008-12-04 2011-11-09 三菱电机株式会社 显示输入装置
CN102541432A (zh) * 2010-11-05 2012-07-04 Lg电子株式会社 移动终端及其控制方法和移动终端的图像显示方法
CN102591562A (zh) * 2010-12-06 2012-07-18 三星电子株式会社 显示设备和提供该显示设备的用户界面的方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5784061A (en) * 1996-06-26 1998-07-21 Xerox Corporation Method and apparatus for collapsing and expanding selected regions on a work space of a computer controlled display system
JP2004265314A (ja) * 2003-03-04 2004-09-24 Canon Inc データ処理装置
JP4961875B2 (ja) 2006-07-21 2012-06-27 富士ゼロックス株式会社 文書管理装置、文書管理方法およびプログラム
JP2008097175A (ja) * 2006-10-10 2008-04-24 Fuji Xerox Co Ltd 電子ファイル検索装置
JP5162886B2 (ja) 2006-11-27 2013-03-13 富士ゼロックス株式会社 文書管理体処理装置及び文書管理体処理プログラム
JP4867812B2 (ja) 2007-06-19 2012-02-01 ブラザー工業株式会社 画像選択装置および画像選択プログラム
KR20090036877A (ko) * 2007-10-10 2009-04-15 삼성전자주식회사 다중 프로젝션 윈도우 환경에서 기준자 기반으로오브젝트를 관리하는 방법 및 그 시스템
JP5147541B2 (ja) 2008-05-22 2013-02-20 株式会社Pfu 情報キオスク端末
JP5268595B2 (ja) * 2008-11-28 2013-08-21 ソニー株式会社 画像処理装置、画像表示方法及び画像表示プログラム
JP2010256969A (ja) * 2009-04-21 2010-11-11 Sharp Corp ユーザインターフェイス装置、およびユーザインターフェイス装置の制御方法
JP2011192126A (ja) * 2010-03-16 2011-09-29 Denso It Laboratory Inc 表示制御装置及び表示制御方法
KR101095851B1 (ko) * 2010-11-10 2011-12-21 채상우 터치스크린장치 및 그 제어방법
US20120226979A1 (en) * 2011-03-04 2012-09-06 Leica Camera Ag Navigation of a Graphical User Interface Using Multi-Dimensional Menus and Modes

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101017498A (zh) * 2006-02-10 2007-08-15 三星电子株式会社 合并数据对象的方法和设备
US20080108392A1 (en) * 2006-11-03 2008-05-08 Samsung Electronics Co., Ltd Method and apparatus for displaying a plurality of images in mobile terminal
CN102171634A (zh) * 2008-10-06 2011-08-31 三星电子株式会社 使用多触摸来管理列表的方法和设备
CN102239465A (zh) * 2008-12-04 2011-11-09 三菱电机株式会社 显示输入装置
US20100216448A1 (en) * 2009-02-26 2010-08-26 Samsung Electronics Co., Ltd. User interface for supporting call function and portable device using the same
US20110018821A1 (en) * 2009-04-14 2011-01-27 Sony Corporation Information processing apparatus, information processing method and program
CN102541432A (zh) * 2010-11-05 2012-07-04 Lg电子株式会社 移动终端及其控制方法和移动终端的图像显示方法
CN102591562A (zh) * 2010-12-06 2012-07-18 三星电子株式会社 显示设备和提供该显示设备的用户界面的方法

Also Published As

Publication number Publication date
US20140092038A1 (en) 2014-04-03
JP5977132B2 (ja) 2016-08-24
JP2014071763A (ja) 2014-04-21
CN103713816A (zh) 2014-04-09
US9128600B2 (en) 2015-09-08
CN110109609B (zh) 2023-03-31

Similar Documents

Publication Publication Date Title
CN103713827B (zh) 显示控制设备和方法、及图像显示设备
CN110109609A (zh) 显示控制设备和方法,以及图像显示设备
CN105912163B (zh) 实体按键组件、终端、触控响应方法及装置
RU2654145C2 (ru) Способ и устройство поиска информации и компьютерно-читаемый носитель записи для этого
CN103716452B (zh) 显示控制设备和方法以及图像显示设备
KR102105961B1 (ko) 이동단말기 및 그 제어방법
KR102165818B1 (ko) 입력 영상을 이용한 사용자 인터페이스 제어 방법, 장치 및 기록매체
CN109814972A (zh) 界面显示方法及终端
CN108958867A (zh) 一种应用的任务操作方法及装置
CN105389113B (zh) 基于手势的应用控制方法、装置及终端
KR20180133743A (ko) 이동 단말기 및 그 제어 방법
CN103475754A (zh) 基于智能手表的个人信息交换装置及方法
KR20170071347A (ko) 이동단말기 및 그 제어방법
CN109683802A (zh) 一种图标移动方法及终端
US9633225B2 (en) Portable terminal and method for controlling provision of data
CN110266942A (zh) 图片的合成方法及相关产品
CN105847675A (zh) 一种照相机模式切换方法、装置及移动设备
CN105468194B (zh) 触控响应方法及装置
CN114647623A (zh) 文件夹处理方法、智能终端及存储介质
JP6429814B2 (ja) 表示制御装置、画像表示装置、およびプログラム
KR20200045459A (ko) 이동단말기 및 그 제어방법
JP6410900B2 (ja) 表示制御装置、画像表示装置、およびプログラム
CN116700573B (zh) 一种替换应用卡片的方法及终端设备
EP4290349A1 (en) Method for replacing application card, and terminal device
KR20140035081A (ko) 휴대단말기의 메뉴 제어방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Tokyo, Japan

Applicant after: Fuji film business innovation Co.,Ltd.

Address before: Tokyo, Japan

Applicant before: Fuji Xerox Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant