CN102346640B - 信息处理设备和显示控制方法 - Google Patents

信息处理设备和显示控制方法 Download PDF

Info

Publication number
CN102346640B
CN102346640B CN201110217351.4A CN201110217351A CN102346640B CN 102346640 B CN102346640 B CN 102346640B CN 201110217351 A CN201110217351 A CN 201110217351A CN 102346640 B CN102346640 B CN 102346640B
Authority
CN
China
Prior art keywords
cursor
dragging
cpu110
elasticity dough
dough
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201110217351.4A
Other languages
English (en)
Other versions
CN102346640A (zh
Inventor
宫崎丽子
梨子田辰志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ai Holding Co ltd
Z Intermediate Global Corp
Original Assignee
SRAM LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SRAM LLC filed Critical SRAM LLC
Priority to CN201610247920.2A priority Critical patent/CN105930031A/zh
Publication of CN102346640A publication Critical patent/CN102346640A/zh
Application granted granted Critical
Publication of CN102346640B publication Critical patent/CN102346640B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本发明公开了一种信息处理设备和显示控制方法,其中该信息处理设备包括:操作单元;以及控制单元,当通过操作单元执行拖动时,执行与拖动对应的处理并且在显示单元上显示光标,该光标在与拖动的起点相关的第一点和与拖动的终点相关的第二点之间弹性延长,并且光标的尺寸和形状中的至少一个在位于拖动的起点侧的一个端部与位于拖动的终点侧的另一端部不同,其中,当拖动结束时,控制单元还执行与如下相对应的处理:通过在显示单元上显示光标的延长部分收缩回到与拖动的起点相关的第一点的动画效果,对弹性延长的光标进行变换。

Description

信息处理设备和显示控制方法
技术领域
本公开内容涉及一种信息处理设备、显示控制方法以及显示控制程序,并且更具体地,涉及一种能够例如通过诸如拖动的直观操作执行输入操作的信息处理设备。
背景技术
近年来,已开始广泛使用具有各种操作装置的信息处理设备。例如,在具有触摸屏的信息处理设备中,可以通过画面上的触摸操作(触摸、轻击、拖动、轻拂(flicking)等)执行直观操作。
作为这样的信息处理设备,例如,已提出了能够响应于拖动改变显示在画面上的地图的比例的导航设备(例如,参见日本未审查专利申请公布第2002-328040号)。
发明内容
根据现有技术的许多信息处理设备根据拖动的方向和长度执行处理。例如,根据拖动的起点和终点的位置、起点和终点之间的距离、从起点到终点的方向等执行处理。
这里,当执行拖动同时允许用户识别拖动的起点和终点的位置、起点和终点之间的距离以及从起点到终点的方向时,认为可以显著地改进操作性。
期望提供一种能够进一步改进通过拖动执行输入操作时的操作性的信息处理设备、显示控制方法以及显示控制程序。
根据本公开内容的实施例,提供了一种信息处理设备,包括:操作单元;以及控制单元,当通过操作单元执行拖动时,执行与拖动对应的处理,并且在显示单元上显示光标,该光标在与拖动的起点相关的第一点和与拖动的终点相关的第二点之间弹性延长,并且该光标的尺寸和形状中的至少一个在位于拖动的起点侧的一个端部与位于拖动的终点侧的另一端部不同,其中,当拖动结束时,控制单元还执行与如下相对应的处理:通过在显示单元上显示光标的延长部分收缩回到与拖动的起点相关的第一点的动画效果,对弹性延长的光标进行变换,控制单元响应于拖动显示光标,并且当新改变处理时改变所显示的光标的颜色。
因此,由于光标从拖动的起点延长到终点,因此用户可以识别拖动的起点和终点之间的距离。此外,由于光标的尺寸或形状中的至少一个在位于拖动的起点侧的一个端部与位于拖动的终点侧的另一端部不同,因此用户可以区分光标中拖动的起点侧与拖动的终点侧。结果,用户可以识别从拖动的起点到终点的方向以及起点和终点的位置。根据本公开内容的实施例,用户可以执行拖动,同时识别拖动的起点和终点的位置、起点和终点之间的距离以及从起点到终点的方向。
根据本公开内容的实施例,可以执行拖动,同时允许用户识别拖动的起点和终点的位置、起点和终点之间的距离以及从起点到终点的方向。因此,可以实现能够进一步改进通过拖动执行输入操作时的操作性的信息处理设备、显示控制方法以及显示控制程序。
附图说明
图1是示出根据实施例的信息处理设备的功能配置的概况的框图。
图2是示出便携式终端的外观的示意图。
图3是示出便携式终端的硬件配置的框图。
图4是示出弹性面团光标(elasticdough-cursor)的显示的示意图。
图5A和5B是示出弹性面团光标的形状的示意图。
图6是示出再现速度的控制(1)的示意图。
图7A至7C是示出再现速度的控制(2)的示意图。
图8是示出再现速度的控制(3)的示意图。
图9是示出编辑模式中的再现速度的控制的示意图。
图10A至10C是示出滚动速度的控制的示意图。
图11A和11B是示出参数的调整速度的控制的示意图。
图12是示出视频再现画面的配置的示意图。
图13是示出在视频再现应用程序中利用弹性面团光标执行的输入操作(1)的示例的示意图。
图14是示出在视频再现应用程序中利用弹性面团光标执行的输入操作(2)的示例的示意图。
图15是示出曲目选择画面的配置的示意图。
图16是示出在音乐再现应用程序中利用弹性面团光标执行的输入操作的示例的示意图。
图17是示出静止图像再现画面的配置的示意图。
图18是示出在静止图像再现应用程序中利用弹性面团光标执行的输入操作(1)的示例的示意图。
图19是示出在静止图像再现应用程序中利用弹性面团光标执行的输入操作(2)的示例的示意图。
图20是示出输入操作处理序列(1)的流程图。
图21是示出输入操作处理序列(2)的流程图。
图22是示出输入操作处理序列(3)的流程图。
图23是示出输入操作处理序列(4)的流程图。
图24是示出输入操作处理序列(5)的流程图。
图25是示出地图图像的配置的示意图。
图26是示出在地图显示应用程序中利用弹性面团光标执行的输入操作的示例的示意图。
图27是示出根据不同实施例的、在静止图像再现应用程序中利用弹性面团光标执行的输入操作的示例的示意图。
图28是示出根据不同实施例的弹性面团光标的显示(1)的示意图。
图29是示出根据不同实施例的弹性面团光标的显示(2)的示意图。
图30A和30B是示出根据不同实施例的弹性面团光标的显示(3)的示意图。
图31A和31B是示出根据不同实施例的弹性面团光标的显示(4)的示意图。
图32是示出根据不同实施例的、在地图显示应用程序中利用弹性面团光标执行的输入操作(1)的示例的示意图。
图33是示出根据不同实施例的、在地图显示应用程序中利用弹性面团光标执行的输入操作(2)的示例的示意图。
具体实施方式
在下文中,将描述本公开内容的优选实施例(下文中称作实施例)。
将按以下顺序进行描述。
1.实施例的概况
2.第一实施例
3.第二实施例
4.其它实施例
1.实施例的概况
首先,将描述实施例的概况。在描述了实施例的概况之后,将依次描述第一实施例、第二实施例以及其它实施例。
在图1中,附图标记1表示信息处理设备。信息处理设备1包括操作单元2。信息处理设备1还包括:控制单元4,当通过操作单元2执行拖动时,控制单元4执行与拖动对应的处理,并且在显示单元3上显示光标,该光标从拖动的起点延长到拖动的终点,并且该光标的尺寸和形状中的至少一个在位于拖动的起点侧的一个端部与位于拖动的终点侧的另一端部不同。
因此,由于光标从拖动的起点延长到终点,因此用户可以识别拖动的起点和终点之间的距离。此外,由于光标的尺寸或形状中的至少一个在位于拖动的起点侧的一个端部与位于拖动的终点侧的另一端部不同,因此用户可以区分光标中拖动的起点侧与拖动的终点侧。结果,用户可以识别从拖动的起点到终点的方向以及起点和终点的位置。因此,在信息处理设备1中,用户可以执行拖动,同时识别拖动的起点和终点的位置、起点和终点之间的距离以及从起点到终点的方向。
更具体地,控制单元4可显示具有从一个端部到另一端部变粗的形状的光标。
控制单元4可显示具有连接第一圆与第二圆的形状的光标,该第一圆以拖动的起点作为中心,该第二圆大于第一圆并且以拖动的终点作为中心。
控制单元4还可使光标随着光标越长而变细。在该情况下,控制单元4还可使光标随着光标越长而变细,以使得光标的显示面积保持恒定。
控制单元4还可响应于拖动显示光标,并且当新改变处理时改变光标的颜色。
控制单元4还可响应于拖动显示光标,并且响应于从显示的光标的一个端部到显示的光标的另一端部的方向和光标的长度中的至少一个的改变,改变光标的颜色。
控制单元4还可响应于光标的长度的改变而改变光标的透明度。
当拖动结束时,控制单元4还可收缩并消除光标。在该情况下,当拖动结束时,控制单元4可收缩光标,显示弹起弹性部分的动画效果并且消除光标。
以下将详细描述具有上述配置的信息处理设备1的具体示例。
2.第一实施例
2.1便携式终端的外观配置
接下来,将描述第一实施例。首先将描述便携式终端100的外观配置作为以上参照图2描述的信息处理设备1的具体示例。
便携式终端100具有机壳101,机壳101具有用一只手握住的尺寸的基本上平坦的矩形形状。
矩形触摸屏102安装在机壳101的前表面101A的中间。触摸屏102包括液晶面板和薄型的、覆盖液晶面板的显示表面的透明触摸面板。例如,触摸面板是静电电容式触摸面板。
便携式终端100被配置为接收用手指(可以使用触摸笔等)在触摸屏102上执行的触摸操作作为用户的输入操作。
操作按钮103也安装在便携式终端100的机壳101的前表面101A上在触摸屏102附近。
便携式终端100的矩形触摸屏102被配置成在垂直长方向(也称作垂直方向)和水平长方向(也称作水平方向)上使用。
2-2.便携式终端的硬件配置
接下来,将参照图3描述便携式终端100的硬件配置。在便携式终端100中,CPU110将存储在非易失性存储器111中的程序展开并读取到RAM112中,根据该程序执行各种处理并且控制各个单元。中央处理单元被缩写为CPU,并且随机存取存储器被缩写为RAM。
触摸屏102包括作为显示各种信息的显示装置的液晶面板102A和作为接收输入操作的输入操作装置的触摸面板102B。
触摸面板102B检测当用手指触摸触摸面板102B上的任意位置时所触摸的位置(即,触摸位置)的坐标。触摸面板102B将表示触摸位置的坐标的输入信号传送到CPU110。
触摸面板102B被配置成在诸如拖动的触摸操作继续的同时,在恒定的时间间隔将表示触摸位置的坐标的输入信号传送到CPU110。
当CPU110从自触摸面板102B传送的输入信号获取触摸位置的坐标时,CPU110将触摸位置的坐标转换为液晶面板102A的画面坐标,以识别在液晶面板102A的画面上触摸的位置。即,CPU110识别画面上的触摸位置。
另外,CPU110将从在恒定时间间隔传送的输入信号获取的触摸位置的坐标顺序转换为液晶面板102A的画面坐标,以识别触摸位置是如何移动的(即,触摸位置的轨迹)。
CPU110基于所识别的触摸位置和触摸位置的轨迹指定在屏幕上执行的触摸操作,接收该触摸操作作为输入操作,并且根据该输入操作执行处理。
CPU110被配置成接收诸如触摸、轻击、拖动以及轻拂的触摸操作作为输入操作。
当CPU110识别按下操作按钮103的按压操作时,CPU110接收按压操作作为用户的输入操作,并且根据该输入操作执行处理。
例如,假设当作为图像文件存储在非易失性存储器111中的图像的缩略图列表被显示在触摸屏102上时,用户轻击期望的缩略图。
CPU110接收该触摸操作作为再现图像的输入操作,并由此从非易失性存储器111读取与所轻击的缩略图对应的图像文件。
这里,当相应的图像文件是静止图像文件时,CPU110从静止图像文件提取静止图像数据。CPU110通过对静止图像数据执行预定再现处理(诸如解码处理和数字模拟转换处理)来获得静止图像信号,并且在触摸屏102的液晶面板102A上显示结果。
另一方面,当相应的图像文件是视频文件时,CPU110从视频文件分离视频数据和音频数据。然后,CPU110通过对视频数据执行预定再现处理(诸如解码处理和数字模拟转换处理)来获得视频信号,并且在触摸屏102的液晶面板102A上显示结果。另外,CPU110通过对音频数据执行预定再现处理(诸如解码处理、数字模拟转换处理以及放大处理)来获得音频信号,并且从耳机端子(未示出)输出结果。
因此,便携式终端100被配置成再现用户指定的图像。
例如,假设当作为音乐文件存储在非易失性存储器111中的音乐(曲目)标题的列表显示在触摸屏102上时,用户轻击期望的标题。
CPU110接收该触摸操作作为再现音乐的输入操作,并且从非易失性存储器111读取与所轻击的标题对应的音乐文件。
CPU110从音乐文件提取音频数据。然后,CPU110通过对该音频数据执行预定再现处理(诸如解码处理、数字模拟转换处理以及放大处理)来获得音频信号,并且将结果输出到耳机端子(未示出)。
因此,便携式终端100被配置成再现用户指定的音乐。
此时,CPU110从所读取的音乐文件提取相关联的信息(诸如唱片套图像、曲目标题、专辑标题以及艺术家名),并且在触摸屏102的液晶面板102A上显示该相关联的信息。
因此,便携式终端100被配置为再现用户指定的音乐并且显示关于该音乐的信息。
在便携式终端100中,CPU100管理音乐文件,以便具有如下层级结构:其中,基于关于每个音乐文件的相关联的信息,专辑标题被设置为较高等级,而曲目标题被设置为较低等级。
例如,假设当用于启动网络浏览器的图标显示在触摸屏102上时,用户轻击该图标。
CPU110接收该触摸操作作为用于启动网络浏览器的输入操作,并且通过从非易失性存储器111读取网络浏览器的程序并执行该程序来启动网络浏览器。
这里,CPU110在触摸屏102的液晶面板102A上显示网络浏览器的画面,并且经由网络接口113从网络上的服务器接收关于网页的页面数据。然后,CPU110在网络浏览器的画面上显示基于页面数据的页面图像。
因此,便携式终端100被配置为启动网络浏览器并且显示网页。
此外,便携式终端100安装有能够仅利用作为触摸操作之一的拖动执行各种输入操作的用户界面。
具体地,在便携式终端100中,各种输入操作可以与关于拖动的起点和终点的位置、从起点到终点的方向以及起点与终点之间的距离的信息(在下文中也称作拖动信息)匹配。
这里,拖动的起点指的是拖动开始时的触摸位置(即,初始触摸位置)。拖动的终点指的是拖动开始后的当前触摸位置。即,在拖动期间,起点是固定的,而终点随着手指的移动而移动。在下文中,拖动的起点和终点的位置被称为起点/终点位置,从拖动的起点到终点的方向被称为起点/终点方向,并且拖动的起点和终点之间的距离被称为起点/终点距离。
当实际执行拖动时,CPU110从拖动获得关于起点/终点位置、起点/终点方向、起点/终点距离等的拖动信息,并且接收与该拖动信息匹配的输入操作。
因此,便携式终端100被配置为通过仅利用拖动改变起点/终点位置、起点/终点方向、起点/终点距离等来执行各种输入操作。
为了使用用户界面实现良好的操作性,优选的是,用户可以容易地识别拖动的起点/终点位置、起点/终点方向以及起点/终点距离。
如图4所示,便携式终端100被配置成当执行拖动时,在触摸屏102上显示视觉上表示起点/终点位置、起点/终点方向以及起点/终点距离的光标Cs。
光标Cs像弹性面团(日语饭团)一样从拖动的起点延长到终点,并且利用拖动的终点的移动改变其方向(光标延长的方向)及其长度以跟随拖动。另外,该光标Cs以下被称作弹性面团光标Cs,在于光标Cs像弹性面团一样响应于拖动而延伸和收缩。
通过显示弹性面团光标Cs,便携式终端100可以允许用户容易地识别拖动的起点/终点位置、起点/终点方向以及起点/终点距离。
以下将更详细地描述弹性面团光标Cs和利用弹性面团光标Cs执行的输入操作。
在实施例的概况中描述的信息处理设备1的操作单元2的具体硬件示例是上述便携式终端100的触摸面板102B。信息处理设备1的显示单元3的具体硬件示例是便携式终端100的液晶面板102A。信息处理设备1的控制单元4的具体硬件示例是便携式终端100的CPU110。
2-3.利用弹性面团光标执行的输入操作
2-3-1.基本操作
如图5A所示,当用户用他的或她的手指触摸触摸屏102时,CPU110在触摸屏102上显示具有以触摸位置Tp作为其中心的圆形形状的弹性面团光标Cs。
此后,如图5B所示,当用户继续拖动且不移开他的或她的手指时,CPU110将弹性面团光标Cs从拖动的起点D1(即,初始触摸位置Tp)延长到终点D2(当前触摸位置)。
然后,便携式终端100可以允许用户识别该触摸操作被接收为拖动,并且可以执行拖动,以使得用户具有用他的或她的手指直接延长弹性面团光标Cs的感觉。
当弹性面团光标Cs以此方式从拖动的起点D1延长到终点D2时,允许用户识别拖动的起点D1和终点D2之间的距离(起点/终点距离)。
在下文中,假设弹性面团光标Cs中与拖动的起点D1对应的位置是弹性面团光标Cs的起点C1,而弹性面团光标Cs中与拖动的终点D2对应的位置是弹性面团光标Cs的终点C2。即,弹性面团光标Cs被配置为从与拖动的起点D1对应的起点C1延长到与拖动的终点D2对应的终点C2。
弹性面团光标Cs具有从起点C1到终点C2变粗的形状。即,靠近起点C1的弹性面团光标Cs的形状最细,而靠近终点C2的弹性面团光标Cs的形状最粗。
通过显示具有这样形状的弹性面团光标Cs,用户可以在弹性面团光标Cs中区分起点D1与终点D2。结果,用户可以识别从拖动的起点D1到终点D2的方向(即,起点/终点方向)。此外,用户可以识别拖动的起点D1和终点D2的位置(即,起点/终点位置)。
在拖动期间,与拖动的起点D1对应的弹性面团光标Cs的起点C1是固定的,而与拖动的终点D2对应的弹性面团光标Cs的终点C2移动并且跟随手指的移动。因此,便携式终端100可以执行拖动,同时允许用户识别拖动的起点/终点距离、起点/终点方向以及起点/终点位置。
在弹性面团光标Cs中,起点C1的端部是以起点C1为中心的、半径为r1的半圆。以此方式,用户可以识别半圆的中心是拖动的起点D1的位置。因此,用户可以更清楚地识别拖动的起点D1的位置。
类似地,在弹性面团光标Cs中,终点C2的端部是以终点C2为中心的、半径为r2的半圆。以此方式,用户可以识别半圆的中心是拖动的终点D2的位置。因此,用户也可以更清楚地识别拖动的终点D2的位置。
终点C2处的半径r2被设置为大于起点C1处的半径r1,以使得弹性面团光标Cs从起点C1到终点C2逐渐变粗。因此,弹性面团光标Cs具有如下形状:以起点C1为中心的、半径为r1的圆连接到以终点C2为中心的、半径为r2(其大于半径r1)的圆。
另外,CPU110以半透明方式显示弹性面团光标Cs,以使得可以透过弹性面团光标Cs查看背景图像。
当用户从触摸屏102移开他的或她的手指并且由此拖动结束时,CPU110向弹性面团光标Cs的起点C1收缩弹性面团光标Cs的终点C2,直到弹性面团光标Cs变为圆形形状为止,然后消除画面上的弹性面团光标Cs。
CPU110根据弹性面团光标Cs的起点C1和终点C2的位置、从起点C1到终点C2的方向、起点C1与终点C2之间的距离等,接收各种输入操作。
在下文中,假设从弹性面团光标Cs的起点C1到终点C2的方向是弹性面团光标Cs的方向,并且弹性面团光标Cs的起点C1与终点C2之间的距离是弹性面团光标Cs的长度。
例如,CPU110响应于利用弹性面团光标Cs执行的输入操作,控制视频的再现速度。
实际上,CPU110以正常速度在前进方向上再现视频,并且例如,如图6所示,在相对于水平触摸屏102的水平长方向上显示视频。
例如,假设在画面的水平方向上执行拖动。然后,CPU110响应于拖动,在画面上显示从拖动的起点水平延长到终点的弹性面团光标Cs。
如图7A所示,当弹性面团光标Cs的方向是右方向时,CPU110将再现速度的符号设置为“+”(即,再现方向是前进方向),并且以快于正常速度的速度在前进方向上再现视频(即,执行快进)。另一方面,当弹性面团光标Cs的方向是左方向时,CPU110将再现速度的符号设置为“-”(即,再现是后退方向),并且以快于正常速度的速度在后退方向上再现视频(即,执行倒带)。
如图8的部分A所示,随着弹性面团光标Cs的长度越长,CPU110将再现速度的值设置为越大的值。在图8中示出的图之后,假设当弹性面团光标Cs的方向为右(或者上)方向时,弹性面团光标Cs的长度的符号被设置为“+”,而当弹性面团光标Cs的方向为左(或者下)方向时,弹性面团光标Cs的长度的符号被设置为“-”。
因此,便携式终端100允许用户使用弹性面团光标Cs查看拖动的起点/终点方向和起点/终点距离,并且可以通过利用弹性面团光标Cs执行的输入操作,执行快进或倒带从而以期望的再现速度显示视频。
此后,当用户从触摸屏102移开他的或她的手指并且由此拖动结束时,CPU110收缩弹性面团光标Cs并且从画面消除弹性面团光标Cs。同时,CPU110再次以正常速度在前进方向上再现视频。
如图7B和图8的部分B所示,可响应于利用弹性面团光标Cs执行的输入操作,分开提供缓慢再现视频的再现模式(即,在前进方向上以慢于正常速度的速度再现视频)。
在该情况下,当弹性面团光标Cs的方向是右方向时,如在参照图7A和图8的部分A描述的情况下那样,CPU110在前进方向上以快于正常速度的速度再现视频(即,执行快进)。此时,随着弹性面团光标Cs的长度越长,CPU110将再现速度的值设置得越大。
另一方面,当弹性面团光标Cs的方向是左方向并且弹性面团光标Cs的长度小于预定值时,CPU110在前进方向上以慢于正常速度的速度再现视频(执行慢速再现)。此时,随着弹性面团光标Cs的长度越长,CPU110将再现速度的值设置得越小(即,将慢速再现的再现速度设置得越慢)。
当弹性面团光标Cs的方向是左方向并且弹性面团光标Cs的长度等于或大于预定值时,CPU110在后退方向上以快于正常速度的速度再现视频(即,执行倒带)。此时,随着弹性面团光标Cs的长度越长,CPU110将再现速度的值设置得越大(即,将倒带的再现速度设置得越快)。
此外,如图7C和图8的部分C所示,除了视频的慢速再现以外,可响应于利用弹性面团光标Cs执行的输入操作,分开提供在后退方向上缓慢再现视频的再现模式(即,以慢于正常速度的速度在后退方向上再现视频)。
在该情况下,当弹性面团光标Cs的方向是右方向时,如在参照图7A和图8的部分A描述的情况下那样,CPU110以快于正常速度的速度在前进方向上再现视频(即,执行快进)。此时,随着弹性面团光标Cs的长度越长,CPU110将再现速度的值设置得越大。
另一方面,当弹性面团光标Cs的方向是左方向并且弹性面团光标Cs的长度小于预定第一值时,如在参照图7B和图8的部分B描述的情况下那样,CPU110以慢于正常速度的速度在前进方向上再现视频(执行慢速再现)。此时,随着弹性面团光标Cs的长度越长,CPU110将再现速度的值设置得越小。
当弹性面团光标Cs的方向是左方向并且弹性面团光标Cs的长度等于或大于预定第一值并小于预定第二值时,CPU110以慢于正常速度的速度在后退方向上再现视频(执行慢速后退再现)。此时,随着弹性面团光标Cs的长度越长,CPU110将再现速度的值设置得越大(即,设置再现速度快于慢速后退再现的再现速度)。
另外,当弹性面团光标Cs的方向是左方向并且弹性面团光标Cs的长度等于或大于预定第二值时,CPU110以快于正常速度的速度在后退方向上再现视频。此时,随着弹性面团光标Cs的长度越长,CPU110将再现速度的值设置得越大(即,设置再现速度快于倒带的再现速度)。
本公开内容的实施例不限于这些再现模式,而是可分开提供编辑视频的编辑模式。
在编辑模式的情况下,CPU110在未执行拖动的状态下,将再现速度设置为“0”(即,以暂停状态显示视频)。
这里,当执行拖动并且弹性面团光标Cs的方向是右方向时,如图9所示,CPU110将再现速度的符号设置为“+”(即,将再现方向设置为前进方向),并且随着弹性面团光标Cs的长度越长而从再现速度“0”逐渐增加再现速度的值。
另一方面,当弹性面团光标Cs的方向是左方向时,CPU110将再现速度的符号设置为“-”(即,将后退方向设置为再现方向),并且随着弹性面团光标Cs的长度越长而从再现速度“0”逐渐增加再现速度的值。
此时,与再现速度在前进方向或后退方向上快于正常速度的情况相比,当再现速度在前进方向或后退方向上慢于正常速度时,CPU110减慢再现速度相对于弹性面团光标Cs的长度减慢的增加程度或减小程度。
因此,在编辑模式下,在视频的慢速再现或慢速后退再现期间,可以更细微地调整再现速度。
此后,当用户从触摸屏102移开他的或她的手指并且拖动结束时,CPU110收缩弹性面团光标Cs并且从画面消除弹性面团光标Cs。同时,CPU110再次将视频的再现速度设置为“0”(即,以暂停状态显示视频)。
因此,CPU110被配置为响应于利用弹性面团光标Cs执行的输入操作,控制视频的再现速度。
例如,CPU110响应于利用弹性面团光标Cs执行的输入操作,控制各种列表或图像的滚动速度。
具体地,CPU110根据弹性面团光标Cs的方向控制滚动速度的符号(即,滚动方向),并且根据弹性面团光标Cs的长度控制滚动速度的值。
例如,如图10A所示,假设音乐(曲目)的标题垂直布置成行的列表(也被称为曲目列表)在垂直方向上显示在触摸屏102上。
这里,当在画面的垂直方向上执行拖动时,CPU110响应于拖动,在画面上显示从拖动的起点垂直延长到终点的弹性面团光标Cs。
当弹性面团光标Cs的方向是向上方向时,CPU110将滚动速度的符号设置为“+”,并且将从上侧到下侧滚动曲目列表的方向设置为滚动方向。另一方面,当弹性面团光标Cs的方向是向下方向时,CPU110将滚动速度的符号设置为“-”,并且将从下侧到上侧滚动曲目列表的方向设置为滚动方向。
如图10C所示,随着弹性面团光标Cs的长度越长,CPU110将滚动速度的值设置得越大。
例如,如图10B所示,假设多个静止图像水平布置成行的列表在水平方向上显示在触摸屏102上。
这里,当在画面的水平方向上执行拖动时,CPU110响应于拖动,在画面上显示从拖动的起点水平延长到终点的弹性面团光标Cs。
当弹性面团光标Cs的方向是右方向时,CPU110将滚动速度的符号设置为“+”,并且将从右侧到左侧滚动静止图像的方向设置为滚动方向。另一方面,当弹性面团光标Cs的方向是左方向时,CPU110将滚动速度的符号设置为“-”,并且将从左侧到右侧滚动静止图像的方向设置为滚动方向。
如图10C所示,随着弹性面团光标Cs的长度越长,CPU110将滚动速度的值设置得越大。
因此,便携式终端100可以通过利用弹性面团光标Cs执行的输入操作,以期望的速度在期望的方向上滚动各种列表、图像等,同时向用户示出拖动的起点/终点方向和起点/终点距离。
当拖动结束时,CPU110使弹性面团光标Cs的终点接近弹性面团光标Cs的起点,将延长的弹性面团光标Cs收缩至弹性面团光标Cs的圆形形状,从画面消除弹性面团光标Cs,然后结束滚动。
此外,例如,CPU110响应于利用弹性面团光标Cs执行的输入操作,控制各种参数(音量、图像的缩放率、亮度以及饱和度等)的调整速度。
具体地,CPU110根据弹性面团光标Cs的方向控制参数的调整速度的符号(即,调整方向),并且根据弹性面团光标Cs的长度控制调整速度的值。
例如,如图11A所示,假设具有水平长形状的视频显示在水平长的触摸屏102上。
这里,当在画面的垂直方向上执行拖动时,CPU110响应于拖动在画面上显示从拖动的起点垂直延长到终点的弹性面团光标Cs。
当弹性面团光标Cs的方向是向上方向时,CPU110将音量的调整速度的符号设置为“+”,并且将调整方向设置为音量调大方向。另一方面,当弹性面团光标Cs的方向是向下方向时,CPU110将音量的调整速度的符号设置为“-”,并且将调整方向设置为音量调低方向。
如图11B所示,随着此时的弹性面团光标Cs的长度越长,CPU110将音量的调整速度的值设置得越大。
当拖动结束时,CPU110收缩弹性面团光标Cs,从画面消除弹性面团光标Cs,然后结束音量的调整。此后,维持紧挨在拖动结束之前设置的音量。
因此,便携式终端100可以通过利用弹性面团光标Cs执行的输入操作以期望的调整速度增大或减小音量,调整作为属于视频的音频参数的音量,同时利用弹性面团光标Cs向用户示出拖动的起点/终点方向和起点/终点距离。
因此,当执行拖动时,便携式终端100显示表示拖动的起点/终点位置、起点/终点方向以及起点/终点距离的弹性面团光标Cs,并且根据弹性面团光标Cs的方向和长度接收各种输入操作。
2-3-2.各种应用程序的输入操作的示例
接下来,将更详细地描述在上述利用弹性面团光标Cs执行的输入操作中,安装在便携式终端100中的应用程序(也称为应用程序(app))中的输入操作的示例。
各种应用程序可以安装在便携式终端100中。这里,例如,假设安装了用于再现音乐的应用程序、用于再现静止图像的应用程序以及用于再现视频的应用程序。
这里,首先将详细描述在用于再现视频的应用程序(也称为视频再现应用程序)中利用弹性面团光标Cs执行的输入操作。
当用于操作视频再现应用程序的图标显示在触摸屏102上并且在该状态下轻击该图标时,CPU110接收该触摸操作作为操作视频再现应用程序的输入操作。
然后,CPU110通过从非易失性存储器111读取视频再现应用程序的程序并且执行该程序,操作视频再现应用程序。
当操作了视频再现应用程序时,CPU110在触摸屏102上显示作为视频文件存储在非易失性存储器111中的视频的缩略图的列表。
此外,当从该列表轻击缩略图之一时,CPU110接收该触摸操作作为再现视频的输入操作。
然后,CPU110从与轻击的缩略图对应的视频文件获取视频。
此时,CPU110在触摸屏102上显示图12中示出的视频再现画面200。视频再现画面200是水平长的画面,并且在假设在水平方向上使用视频再现画面200的情况下,视频再现画面200显示在水平长的触摸屏102的整个表面上。
视频被显示为几乎充满视频再现画面200。在视频再现画面200上,从画面的左端延伸到右端的条201被显示为与靠近画面的上端的视频重叠。在条201中,画面的左端侧的一端表示视频的开始,而画面的右端侧的另一端表示视频的结束。视频的当前再现位置以沿条201移动的指针202来表示。在下文中,条201被称为再现条201。
视频再现画面200被水平划分为左端区域200A、中间区域200B以及右端区域200C。这里,例如,左端区域200A和右端区域200C分别均具有大约整个画面的1/6尺寸,并且中间区域200B具有大约整个画面的剩余4/6尺寸。以下将描述左端区域200A、中间区域200B以及右端区域200C的作用。
CPU110在视频再现画面200上顺序显示从引导章节开始以正常速度在前进方向上再现的视频。在下文中,以正常速度在前进方向上的再现被称为正常再现。
一个视频以预定单位(例如,每个场景)来分割。这里,每个单位的部分视频被称为章节。即,一个视频由多个章节构成。
这里,视频的再现可以被配置为在视频再现画面200上通过水平方向上的拖动来控制。
图13包括13A、13B、13C以及13D。实际上,如图13的13A所示,假设在画面的水平方向上执行拖动。然后,CPU110响应于拖动,在画面上显示从拖动的起点水平延长到终点的弹性面团光标Cs。弹性面团光标Cs继续被显示直到用户从触摸屏102移开他的或她的手指并且拖动结束为止。
当CPU110识别正显示的弹性面团光标Cs的方向为水平方向时,CPU110确定弹性面团光标Cs的终点(拖动的终点)是否在画面的中间区域200B内。当弹性面团光标Cs的终点在中间区域200B内时,CPU110根据弹性面团光标Cs的方向和长度来控制正显示在画面上的视频(即,章节)的再现速度(再现方向和再现速度的值)。
具体地,当正显示的弹性面团光标Cs的方向为右方向时,CPU110将再现速度的符号设置为“+”并且将前进方向设置为再现方向。另一方面,当正显示的弹性面团光标Cs的方向为左方向时,CPU110将再现速度的符号设置为“-”并且将后退方向设置为再现方向。此外,随着弹性面团光标Cs的长度越长,CPU110将再现速度的值设置得越大。
结果,例如,当弹性面团光标Cs通过在画面的向右侧的拖动而延长较长到右侧时,在前进方向上快速再现(即,快进)显示在视频再现画面200上的视频
另一方面,当弹性面团光标Cs通过在画面的向左侧的拖动而延长较长到左侧时,在后退方向上慢速地再现(即,向后倒带)显示在视频再现画面200上的视频。
当在画面的水平方向上执行拖动,并且然后用户在没有从触摸屏102移开他的或她的手指的情况下没有移动他的或她的手指时,弹性面团光标Cs继续被显示且弹性面团光标Cs的方向和长度没有任何改变,并且维持此时的再现速度(再现方向和再现速度的值)。
因此,可以通过利用弹性面团光标Cs执行的输入操作以期望的再现速度在期望的再现方向上再现视频,同时通过弹性面团光标Cs在视频再现画面200上向用户示出拖动的起点/终点方向和起点/终点距离。
虽然没有描述属于视频的音频的描述,但是也以与视频相同的方式,通过拖动来控制音频。
例如,如图13的13B所示,假设拖动继续,并且由此弹性面团光标Cs的终点到达画面的中间区域200B之外的位置(即,到达左端区域200A或右端区域200C)。
然后,CPU110将视频再现画面200的显示内容从章节转换为章节的列表(也称为章节列表)。
章节列表指的是如下列表:其中,分别从章节提取的代表静止图像(也成为章节图像)按再现时间顺序、按时间布置成一个水平行。
这里,由于章节列表是分别从章节提取的代表章节图像的列表,因此章节列表可以说是相对于章节更高等级的信息。
即,CPU110将视频再现画面200的显示内容从章节转换为章节列表,该章节列表是相对于章节更高等级的信息。
具体地,如图13的13C所示,CPU110缩小正显示的章节,并且在视频再现画面200上显示章节列表的包括紧挨在转换之前再现的章节的章节图像Cp(N)的部分。
实际上,在图13的13C中,章节图像Cp(N)显示在视频再现画面200的中间,紧挨的在前章节图像Cp(N-1)的部分显示在章节图像Cp(N)的左侧,并且随后的章节图像Cp(N+1)的部分显示在章节图像Cp(N)的右侧。
因此,当视频再现画面200的显示内容从章节转换为章节列表时,章节列表显示在视频再现画面200上,以使得紧挨在转换之前再现的章节的章节图像Cp(N)位于画面的中间。
以此方式,显示内容可以在视频再现画面200上无缝地从章节转换为章节列表,而不会给用户带来不舒服的感觉。
此时,弹性面团光标Cs继续被显示在视频再现画面200上而与显示内容的转换无关,直到用户从触摸屏102移开他的或她的手指并且由此拖动结束为止。
即,在视频再现画面200上,显示从中间区域200B的内部水平延长到除中间区域200B之外的区域(即,左端区域200A或右端区域200C)的弹性面团光标Cs。
这里,CPU110根据弹性面团光标Cs的方向和长度控制正显示在画面上的章节列表的滚动速度(滚动方向和滚动速度的值),并且滚动章节列表。
具体地,当正显示的弹性面团光标Cs的方向是右方向时,CPU110将左方向(即,向左移动章节图像Cp的方向)设置为章节列表的滚动方向。另一方面,当正显示的弹性面团光标Cs的方向是左方向时,CPU110将右方向(即,向右移动章节图像Cp的方向)设置为章节列表的滚动方向。此外,随着弹性面团光标Cs的长度越长,CPU110将滚动速度的值设置得越大。
结果,例如,当弹性面团光标Cs通过在画面的右方向上的拖动而延长较长到右侧时,正显示在视频再现画面200上的章节列表快速向左滚动。
另一方面,当弹性面团光标Cs通过在画面的左方向上的拖动而延长较短到左侧时,正显示在视频再现画面200上的章节列表缓慢向右滚动。
此外,当用户在画面的水平方向上执行拖动并且然后在不从触摸屏102移开他的或她的手指的情况下不移动他的或她的手指时,弹性面团光标Cs继续被显示且弹性面团光标Cs的方向和长度没有改变,并且维持此时的滚动速度(滚动方向和滚动速度的值)。
因此,当弹性面团光标Cs的终点到达左端区域200A或右端区域200C内时,显示内容在视频再现画面200上从章节转换为章节列表。
因此,可以通过利用弹性面团光标Cs执行的输入操作以期望的滚动速度滚动章节列表,同时通过弹性面团光标Cs在视频再现画面200上向用户示出拖动的起点/终点方向和起点/终点距离。
以此方式,用户可以通过视频再现画面200容易地从章节列表检索期望章节的章节图像Cp。
这里,假设当任意章节图像Cp显示在视频再现画面200的中间时,拖动结束(即,用户从触摸屏102移开他的或她的手指)。
然后,如图13的13D所示,CPU110使弹性面团光标Cs的终点接近弹性面团光标Cs的起点,将在水平方向上延长的弹性面团光标Cs收缩至圆形形状,然后从画面消除弹性面团光标Cs。
此时,CPU110将视频再现画面200的显示内容从章节列表转换为作为较低等级的信息的章节。
具体地,CPU110放大正显示的章节列表,并且从引导章节开始正常再现与紧挨在转换之前显示在中间的章节图像Cp对应的章节,以显示视频再现画面200。
当显示内容从章节列表转换为章节时,章节开始从与紧挨在转换之前显示在画面的中间的章节图像Cp对应的章节开始被再现。
以此方式,显示内容可以在视频再现画面200上无缝地从章节列表转换为章节,而不会对用户带来不舒服的感觉。另外,从章节检索到章节再现的一系列处理可以仅通过单一的拖动来简单地执行。
此外,假设拖动在转换到章节列表之后在不移开手指的情况下继续,并且弹性面团光标Cs的终点从除中间区域200B之外的区域返回到中间区域200B。
即使在该情况下,在当前显示的内容是章节列表时,CPU110继续根据弹性面团光标Cs的方向和长度来控制章节列表的滚动速度。
如上所述,在视频再现应用程序中,水平方向的弹性面团光标Cs响应于水平方向上的拖动而显示在视频再现画面200上。在视频再现应用程序中,当正显示的弹性面团光标Cs的终点在中间区域200B内时,根据弹性面团光标Cs的方向(左或右)和长度来设置章节的再现方向和再现速度的值。
因此,在视频再现应用程序中,可以仅通过利用弹性面团光标Cs执行的输入操作自由地设置章节的再现方向和再现速度的值,以再现章节。
在视频再现应用程序中,当弹性面团光标Cs的终点响应于拖动而到达左端区域200A或右端区域200C内时,显示内容从章节转换为作为较高等级的信息的章节列表。
此时,在视频再现应用程序中,根据弹性面团光标Cs的方向和长度来设置章节列表的滚动方向和滚动速度的值。
此后,在视频再现应用程序中,当拖动结束时,显示内容再次从章节列表转换为作为较低等级的信息的章节,并且再现从引导章节开始。
因此,在视频再现应用程序中,可以在水平方向的拖动中仅通过利用弹性面团光标Cs执行的输入操作,新切换章节和章节列表或者以期望的滚动速度滚动章节列表。
另外,可以通过垂直方向上的拖动在视频再现画面200上调整作为属于视频的音频的参数的音量。
图14包括14A和14B。实际上,如图14的14A和14B所示,假设在画面的垂直方向上执行拖动。然后,CPU110响应于拖动在画面上显示从拖动的起点垂直延长到终点的弹性面团光标Cs。
这里,当CPU110识别正显示的弹性面团光标Cs的方向是垂直方向时,CPU110根据此时的弹性面团光标Cs的方向和长度,控制音量的调整速度(调整方向和调整速度的值)以增大或减小音量。
具体地,当正显示的弹性面团光标Cs的方向是向上方向时,CPU110将音量的调整速度的符号设置为“+”并且将音量的调整方向设置为音量调大方向。另一方面,当正显示的弹性面团光标Cs的方向是向下方向时,CPU110将音量的调整速度的符号设置为“-”并且将音量的调整方向设置为音量调低方向。此外,随着弹性面团光标Cs的长度越长,CPU110将音量的调整速度的值设置得越大。
结果,例如,当弹性面团光标Cs通过在画面的向上方向上的拖动而向上延长较长时,音量立刻增大。
例如,当弹性面团光标Cs通过在画面的向下方向上的拖动而向下延长较短时,音量缓慢减小。
当用户在没有从触摸屏102移开他的或他的手指的、画面的垂直方向上的拖动之后没有移动他的或他的手指时,弹性面团光标Cs继续被显示且其方向和长度没有任何改变,并且维持此时的调整速度(调整方向和调整速度的值)。
因此,可以根据拖动的方向和长度以期望的调整速度来调整音量,同时使得用户能够根据视频再现画面200上的弹性面团光标Cs识别拖动的方向和长度。
此外,CPU110在画面的预定位置(例如,中下侧)显示表示当前音量的音量条Bm。因此,用户可以调整音量,同时查看音量条Bm并确认当前音量。
此后,当拖动结束时,CPU110使弹性面团光标Cs的终点接近弹性面团光标Cs的起点,将在垂直方向上延长的弹性面团光标Cs收缩至圆形形状,从画面消除弹性面团光标Cs,然后结束音量的调整。此后,维持紧挨在拖动结束之前的音量。
在视频再现应用程序中,如上所述,垂直方向的弹性面团光标Cs响应于垂直方向上的拖动而显示在视频再现画面200上。在视频再现应用程序中,根据正显示的弹性面团光标Cs的方向(向上或向下)和长度来设置音量的调整方向和调整速度的值。
因此,在视频再现应用程序中,可以调整音量,同时可以在垂直方向上的拖动中仅通过利用弹性面团光标Cs执行的输入操作自由地转变调整方向和调整速度的值。
在视频再现应用程序中,即使当画面上的任意部分执行拖动时,也可以调整音量,只要拖动是在垂直方向上执行的即可。例如,用户可以在查看视频的同时,通过在视频的不重要的部分执行拖动来调整音量。
例如,当用户仅听视频的声音时,用户可以在不观看画面的情况下通过盲触摸操作来容易地调整音量。
接下来,将详细描述在再现音乐(曲目)的应用程序(在下文中称为音乐再现应用程序)中利用弹性面团光标Cs执行的输入操作。
当用于操作音乐再现应用程序的图标显示在触摸屏102上并且在该状态下轻击该图标时,CPU110接收该触摸操作作为操作音乐再现应用程序的输入操作。
然后,CPU110通过从非易失性存储器111读取音乐再现应用程序的程序并且执行该程序来操作音乐再现应用程序。
当操作音乐再现应用程序时,CPU110在触摸屏102上显示图15中示出的曲目选择画面210。
曲目选择画面210是垂直长画面,并且在假设在垂直方向上使用曲目选择画面210的情况下,曲目选择画面210显示在垂直长触摸屏102的整个表面上。
曲目选择画面210被垂直划分为三个区域:上端区域210A、中间区域210B以及下端区域210C。这里,例如,上端区域210A和下端区域210C分别均具有大约整个画面的尺寸的1/6,而中间区域210B具有大约整个画面的尺寸的剩余4/6。以下将描述上端区域210A、中间区域210B以及下端区域210C的作用。
CPU110在曲目选择画面210上显示曲目列表。曲目列表是作为音乐文件存储在非易失性存储器111中的曲目(音乐)的标题基于例如所包含的专辑的标题和曲目编号而垂直布置成行的列表。
具体地,曲目列表是曲目根据按照标题顺序布置的各个专辑被分组并且按照曲目编号顺序布置的列表。
在曲目列表中,除了曲目的标题之外,在各专辑的引导曲目的标题之前(画面的上侧)插入专辑的标题。
即,诸如专辑1的标题、专辑1的曲目1的标题、...、曲目5的标题、专辑2的标题、专辑2的曲目1的标题等的标题可以布置在曲目列表中。
曲目列表的至少部分显示在曲目选择画面210上。实际上,图15示出了包括在曲目列表的标题当中的五个曲目的标题显示在曲目选择画面210上的示例。
这里,可以通过垂直方向上的拖动在曲目选择画面210上控制曲目列表的滚动速度(滚动方向和滚动速度的值)。
图16包括6A、16B、16C以及16D。实际上,如图16的16A所示,假设在画面的垂直方向上执行拖动。然后,CPU110响应于拖动而在画面上显示从拖动的起点垂直延长到终点的弹性面团光标Cs。弹性面团光标Cs继续被显示,直到用户从触摸屏102移开他的或她的手指并且拖动结束为止。
当CPU110识别正显示的弹性面团光标Cs的方向为垂直方向时,CPU110确定弹性面团光标Cs的终点(拖动的终点)是否在画面的中间区域210B内。当弹性面团光标Cs的终点在中间区域210B内时,CPU110根据弹性面团光标Cs的方向和长度来控制曲目列表的滚动速度以滚动曲目列表。
具体地,当正显示的弹性面团光标Cs的方向为向上方向时,CPU110将向上方向(即,标题向下移动的方向)设置为曲目列表的滚动方向。另一方面,当正显示的弹性面团光标Cs的方向为向下方向时,CPU110将向下方向(即,标题向上移动的方向)设置为曲目列表的滚动方向。此外,随着弹性面团光标Cs的长度越长,CPU110将滚动速度的值设置得越大。
结果,例如,当弹性面团光标Cs通过在画面的向上侧的拖动而向上延长较长时,在向下方向上快速滚动显示在曲目选择画面210上的曲目列表。
另一方面,当弹性面团光标Cs通过在画面的向下侧的拖动而向下延长较短时,在向上方向上缓慢滚动显示在曲目选择画面210上的曲目列表。
当拖动是在画面的垂直方向上执行的且然后用户在没有从触摸屏102移开他的或她的手指的情况下没有移动他的或她的手指时,弹性面团光标Cs继续被显示且不改变弹性面团光标Cs的方向和长度,并且维持此时的滚动速度(滚动方向和滚动速度的值)。
因此,可以通过利用弹性面团光标Cs执行的输入操作以期望的滚动速度来滚动曲目列表,同时通过弹性面团光标Cs在曲目选择画面210上对用户示出拖动的起点/终点方向和起点/终点距离。
以此方式,用户可以容易地从曲目列表检索期望曲目的标题。
此外,如图16的16B所示,随着弹性面团光标Cs的终点更接近上端区域210A或下端区域210C,CPU110仅逐渐减小包括在曲目列表中的标题当中的曲目标题的显示尺寸。
以此方式,通过随着曲目标题的显示尺寸的逐渐减小而收缩蛇腹(bellows),逐渐缩窄包括在曲目列表中的专辑标题之间的显示间距。
此外,假设弹性面团光标Cs的终点到达上端区域210A或下端区域210C内。然后,如图16的16C所示,CPU110最终从画面消除曲目的标题,并且将显示内容转换为仅布置曲目列表的专辑标题的列表。该列表也被称为专辑列表。
由于专辑列表是作为曲目标题的较高等级的专辑标题的列表,因此专辑是相对于曲目列表更高等级的信息。
即,CPU110将曲目选择画面210的显示内容从曲目列表转换为作为曲目列表的较高等级的信息的专辑列表。
因此,通过仅逐渐减小包括在曲目列表中的标题当中的曲目标题的显示尺寸并且最终从画面消除曲目标题,将画面的显示内容从曲目列表转换为专辑列表。
以此方式,可以在曲目选择画面210上将显示内容从曲目列表无缝地转换为专辑列表,而不会给用户带来不舒服的感觉。
此时,弹性面团光标Cs继续被显示在曲目选择画面210上而与显示内容的转换无关,直到拖动结束为止。
即,在该曲目选择画面210上,显示从中间区域210B垂直延长到除中间区域210B之外的区域(即,上端区域210A或下端区域210C)的弹性面团光标Cs。
这里,在正显示的弹性面团光标Cs的长度超过预定阈值时,CPU110根据弹性面团光标Cs的方向和长度来控制正显示在画面上的专辑列表的滚动速度以滚动专辑列表。
具体地,当正显示的弹性面团光标Cs的方向为向上方向时,CPU110将向上方向(即,标题向下滚动的方向)设置为专辑列表的滚动方向。另一方面,当正显示的弹性面团光标Cs的方向为向下方向时,CPU110将向下方向(即,标题向上滚动的方向)设置为专辑列表的滚动方向。此外,随着弹性面团光标Cs的长度越长,CPU110将滚动速度的值设置得越大。
结果,例如,当弹性面团光标Cs通过画面的向上方向上的拖动而向上延长较长时,向下快速滚动正显示在曲目选择画面210上的专辑列表。
例如,当弹性面团光标Cs通过画面的向下方向上的拖动而向下延长较短时,向上缓慢滚动正显示在曲目选择画面210上的专辑列表。
此外,当用户在画面的垂直方向上执行拖动且然后在不从触摸屏102移开他的或她的手指的情况下不移动他的或她的手指时,弹性面团光标Cs继续被显示且弹性面团光标Cs的方向和长度没有改变,并且维持此时的滚动速度(滚动方向和滚动速度的值)。
因此,可以通过利用弹性面团光标Cs执行的输入操作以期望的滚动速度滚动专辑列表,同时通过弹性面团光标Cs在曲目选择画面210上对用户示出拖动的起点/终点方向和起点/终点距离。
以此方式,用户可以容易地从专辑列表检索期望专辑的标题。
这里,如图16的16D所示,假设拖动进一步继续并且拖动的终点变得更接近拖动的起点,使得弹性面团光标Cs的长度收缩至等于或小于预定阈值的值。
然后,CPU110将曲目选择画面210的显示内容从专辑列表转换为作为较低等级的信息的曲目列表。
具体地,通过在包括在专辑列表中的专辑标题和专辑标题之间插入和显示曲目标题,将显示内容从专辑列表转换为曲目列表。此外,例如,假设曲目标题的显示尺寸与紧挨在从曲目列表转换为专辑列表之前的显示尺寸相同。
随着弹性面团光标Cs的长度越短,CPU110在逐渐增加曲目标题的显示尺寸的同时将显示尺寸恢复为曲目标题的原始尺寸。
以此方式,通过随着曲目标题的显示尺寸的逐渐增加而增加蛇腹,逐渐扩大包括在曲目列表中的专辑标题之间的显示间距。
通过在包括在专辑列表中的专辑标题之间插入曲目标题并且将显示尺寸逐渐恢复为原始尺寸,将显示内容从曲目列表转换为专辑列表。
以此方式,可以在曲目选择画面210上将显示内容从专辑列表无缝地转换为曲目列表,而不会给用户带来不舒服的感觉。
因此,用户可以仅通过在垂直方向上执行拖动,平滑地执行从专辑检索到曲目检索的操作。
此后,假设拖动结束(即,用户从触摸屏102移开他的或她的手指)。
然后,CPU110使弹性面团光标Cs的终点接近弹性面团光标Cs的起点,将在垂直方向上延长的弹性面团光标Cs收缩至弹性面团光标Cs的圆形形状,然后从画面消除弹性面团光标Cs。
此外,CPU110将包括在曲目列表中的曲目标题的显示尺寸恢复为其原始尺寸。当在拖动结束时的状态下显示专辑列表时,CPU110通过将曲目标题插入专辑列表中而将显示内容转换为曲目列表。
这里,假设轻击正显示在曲目选择画面210上的曲目标题之一以选择该曲目。
然后,CPU110从与轻击的曲目的标题对应的音乐文件获得该曲目的声音,并且从耳机端子(未示出)输出该声音。
如上所述,在音乐再现应用程序中,垂直方向的弹性面团光标Cs响应于垂直方向上的拖动而显示在曲目选择画面210上。此外,在音乐再现应用程序中,当弹性面团光标Cs的终点在中间区域210B内时,根据弹性面团光标Cs的方向(向上或向下方向)和长度来设置曲目列表的滚动方向和滚动速度的值。
在音乐再现应用程序中,当弹性面团光标Cs的终点响应于拖动到达中间区域210B之外并且到达上端区域210A或下端区域210C内时,显示内容从曲目列表转换为作为较高等级的信息的专辑列表。
此时,在音乐再现应用程序中,根据弹性面团光标Cs的方向和长度来设置专辑列表的滚动方向和滚动速度的值。
此后,在音乐再现应用程序中,当弹性面团光标Cs的长度等于或小于预定阈值时,显示内容再次从专辑列表转换为作为较低等级的信息的曲目列表。
因此,在音乐再现应用程序中,可以仅通过利用弹性面团光标Cs执行的输入操作,新切换曲目列表和专辑列表,或者以期望的滚动速度来滚动曲目列表和专辑列表。
因此,用户可以容易地执行从专辑检索到曲目检索的操作。
接下来,将详细描述在再现静止图像的应用程序(也称为静止图像再现应用程序)中利用弹性面团光标Cs执行的输入操作。
当用于操作静止图像再现应用程序的图标显示在触摸屏102上并且在此状态下轻击该图标时,CPU110接收该触摸操作作为操作静止图像再现应用程序的输入操作。
然后,CPU110通过从非易失性存储器111读取静止图像再现应用程序的程序并且执行该程序来操作静止图像再现应用程序。
当操作静止图像再现应用程序时,CPU110在触摸屏102上显示作为静止图像文件存储在非易失性存储器111中的静止图像的缩略图的列表。
此外,当从列表轻击缩略图之一时,CPU110接收触摸操作作为再现静止图像的输入操作。
然后,CPU110从与所轻击的缩略图对应的静止图像文件获取静止图像。
此时,CPU110在触摸屏102上显示图17中示出的静止图像再现画面220。静止图像再现画面220是水平长的画面,并且在假设在水平方向上使用静止图像再现画面220的情况下,静止图像再现画面220显示在水平长的触摸屏102的整个表面上。
静止图像被显示为几乎充满静止图像再现画面220。调色板221的上部显示在静止图像再现画面220的下端。调色板221被配置成通过触摸调色板221的上端部并且在画面的向上方向上执行拖动而被抽出并显示在静止图像再现画面220上。调色板221是用于调整作为静止图像的参数的亮度和饱和度的调色板(也被称为亮度饱和度调色板)。将详细描述调色板221。
在静止图像再现画面220上,可以在正显示的静止图像上利用垂直方向上的拖动,控制作为静止图像的参数的缩放率(放大率/缩小率)的调整速度(调整方向和调整速度的值)。
图18包括18A、18B以及18C。实际上,如图18的18A所示,假设静止图像的任意部分继续被触摸预定时间。执行了等于或长于预定时间的时间的触摸被称为长按,而执行了短于预定时间的时间的触摸被称为短按。
如图18的18B所示,CPU110显示圆形形状的、中心在长按静止图像的位置的弹性面团光标Cs,并且将该位置设置为缩放中心。另外,该位置是弹性面团光标Cs的起点。
例如,此时正显示的弹性面团光标Cs的尺寸被设置为略大于触摸的手指。
此外,如图18的18C所示,假设在不移开长按画面的手指的情况下,在画面的垂直方向上执行拖动。
然后,CPU110响应于拖动,将弹性面团光标Cs从拖动的起点(即,最初长按的位置)垂直延长到终点。
这里,当CPU110识别弹性面团光标Cs的方向是垂直方向时,CPU110将弹性面团光标Cs的起点设置为缩放中心,并且通过响应于弹性面团光标Cs的方向和长度控制静止图像的缩放率(放大率/缩小率)的调整速度来增大或减小缩放率。
具体地,当正显示的弹性面团光标Cs的方向是向上方向时,CPU110将缩放率的调整方向设置为放大(放大)方向(即,缩放率从100%增大的方向)。另一方面,当正显示的弹性面团光标Cs的方向是向下方向时,CPU110将缩放率的调整方向设置为缩小(缩小)方向(即,缩放率从100%减小的方向)。此外,随着弹性面团光标Cs的长度越长,CPU110将缩放率(放大率/缩小率)的调整速度的值设置得越大。
结果,例如,当弹性面团光标Cs通过在画面的向上方向上的拖动而在画面的向上方向上延长较长时,静止图像的放大率立刻增加。因此,使用弹性面团光标Cs的起点作为中心,立刻放大正显示在静止图像再现画面220上的静止图像。
例如,当弹性面团光标Cs通过在画面的向下方向上执行的拖动而向下延长较短时,静止图像的缩小率缓慢地减小。因此,使用弹性面团光标Cs的起点作为中心,缓慢地减小正显示在静止图像再现画面220上的静止图像。
当在画面的垂直方向上执行拖动且然后用户在没有从触摸屏102移开他的或她的手指的情况下没有移动他的或她的手指时,弹性面团光标Cs继续被显示且不改变弹性面团光标Cs的方向和长度,并且维持此时的调整速度(调整方向和调整速度的值)。
因此,通过利用弹性面团光标Cs执行的输入操作,可以以期望的调整速度来调整静止图像的缩放率,同时通过弹性面团光标Cs在静止图像再现画面220上向用户示出拖动的起点/终点方向和起点/终点距离。
此外,可以仅通过从长按开始的拖动,在静止图像再现画面220上无缝地执行从缩放中心设置到缩放率调整的一系列操作。
因此,用户可以容易地且迅速地在静止图像再现画面220上查看整个静止图像或者查看静止图像的具有期望尺寸的期望部分。
此后,当拖动结束时,CPU110使弹性面团光标Cs的终点接近弹性面团光标Cs的起点,将在垂直方向上延长的弹性面团光标Cs收缩至圆形形状,从画面消除弹性面团光标Cs,然后结束缩放率的调整。此时,重新设置缩放中心。此后,维持紧挨在拖动结束之前的缩放率。
可以通过从短按开始在任意方向上执行拖动(也可以是通过执行轻拂)而不是执行长按,在静止图像再现画面220上滚动正显示的静止图像。
实际上,假设从短按开始在任意方向上执行拖动(或轻拂)。然后,CPU110通过根据拖动的方向和长度(或者轻拂的方向和速度)控制静止图像的滚动来滚动静止图像。
具体地,CPU110将静止图像仅滚动如下距离(或者与轻拂的速度对应的距离):其与在拖动(或轻拂)方向相反的方向上的拖动的长度对应。
因此,在静止图像再现画面220上,可以使用长按将利用拖动执行的输入操作新改变为缩放率的调整或滚动。
当可以在静止图像再现画面220上长按静止图像的任意部分时,尺寸略大于在该部分的位置执行长按的手指的弹性面团光标Cs被显示。因此,由于长按的部分可以被设置为缩放中心,因此用户可以容易地认识如下事实:通过拖动执行的输入操作完全被改变为缩放率的调整。
另一方面,假设触摸正显示在静止图像再现画面220的下端的亮度饱和度调色板221的上端部分,并且在画面的向上方向上执行轻拂(也可以执行拖动)。
图19包括19A、19B、19C、19D以及19E。然后,如图19的19A所示,CPU110响应于轻拂从静止图像再现画面220的下端向上抽出亮度饱和度调色板221。
亮度饱和度调色板221的水平宽度与静止图像再现画面220的水平宽度相同。例如,亮度饱和度调色板221显现为覆盖静止图像再现画面220的下端至上端(即,整个画面)。
此外,亮度饱和度调色板221被划分成两个区域:用于调整亮度的左区域221L和用于调整饱和度的右区域221R。左区域221L也被称为亮度设置区域,并且右区域221R也被称为饱和度设置区域。
亮度设置区域221L和饱和度设置区域221R在除外框之外的部分均是透明的,并且可以穿过亮度设置区域221L和饱和度设置区域221R看见显示在静止图像再现画面220上的静止图像。
词“亮度”被配置为显示在亮度设置区域221L中,并且词“饱和度”被配置为显示在饱和度设置区域221R中。
在亮度饱和度调色板221中,可以通过起点在亮度设置区域221L内的垂直拖动来调整静止图像的亮度,并且可以通过起点在饱和度设置区域221R内的垂直拖动来调整静止图像的饱和度。
实际上,如图19的19B和19C所示,假设触摸亮度设置区域221L的内部,并且在画面的垂直方向上执行拖动。然后,CPU110响应于拖动在画面上显示从拖动的起点垂直延长到终点的弹性面团光标Cs。
这里,当CPU110识别正显示的弹性面团光标Cs的方向是垂直方向时,CPU110根据弹性面团光标Cs的方向和长度来控制正显示的静止图像的亮度的调整速度(调整方向和调整速度的值)。
具体地,当正显示的弹性面团光标Cs的方向是向上方向时,CPU110设置亮度的调整方向以增加亮度。另一方面,当正显示的弹性面团光标Cs的方向是向下方向时,CPU110设置亮度的调整方向以减小亮度。此外,随着弹性面团光标Cs的长度越长,CPU110将亮度的调整速度的值设置得越大。
结果,例如,当弹性面团光标Cs通过在画面的向上方向上的拖动而向上延长较长时,立刻增加正显示的静止图像的亮度。
例如,当弹性面团光标Cs通过在画面的向下方向上的拖动而向下延长较短时,缓慢地减小正显示的静止图像的亮度。
当用户在不从触摸屏102移开他的或她的手指的、画面的垂直方向上的拖动之后,没有移动他的或她的手指时,弹性面团光标Cs继续被显示且其方向和长度没有任何改变,并且维持此时的调整速度(调整方向和调整速度的值)。
另一方面,如图19的19D和19E所示,假设触摸饱和度设置区域221R的内部,并且在画面的垂直方向上执行拖动。然后,CPU110响应于拖动在画面上显示从拖动的起点垂直延长到终点的弹性面团光标Cs。
这里,当CPU110识别正显示的弹性面团光标Cs的方向是垂直方向时,CPU110根据此时的弹性面团光标Cs的方向和长度,控制正显示的静止图像的饱和度的调整速度。
具体地,当正显示的弹性面团光标Cs的方向是向上方向时,CPU110设置饱和度的调整方向以增加饱和度。另一方面,当正显示的弹性面团光标Cs的方向是向下方向时,CPU110设置饱和度的调整方向以减小饱和度。此外,随着弹性面团光标Cs的长度越长,CPU110将饱和度的调整速度的值设置得越大。
结果,例如,当弹性面团光标Cs通过画面的向上方向上的拖动而向上延长较长时,正显示的静止图像的饱和度立刻增加。
例如,当弹性面团光标Cs通过画面的向下方向上的拖动而向下延长较短时,正显示的静止图像的饱和度缓慢减小。
当用户在没有从触摸屏102移开他的或她的手指、垂直方向上的拖动之后没有移动他的或她的手指时,弹性面团光标Cs继续被显示且其方向和长度没有任何改变,并且维持此时的调整速度。
因此,可以通过利用弹性面团光标Cs执行的输入操作以期望的调整速度调整亮度或饱和度,同时通过弹性面团光标Cs在亮度饱和度调色板221上向用户示出拖动的起点/终点方向和起点/终点距离。
由于亮度饱和度调色板221在除外框之外的部分是透明的,因此用户可以在查看显示在亮度饱和度调色板221下的静止图像的同时,调整亮度或饱和度。
此后,当拖动结束时,CPU110使弹性面团光标Cs的终点接近弹性面团光标Cs的起点,将在垂直方向上延长的弹性面团光标Cs收缩至弹性面团光标Cs的圆形形状,从画面消除弹性面团光标Cs,然后结束亮度或饱和度的调整。此后,维持紧挨在拖动结束之前的亮度或饱和度。
当如上所述在静止图像再现应用程序中长按正显示在静止图像再现画面220上的静止图像的任意部分时,具有圆形形状的弹性面团光标Cs显示在长按的位置。此外,在静止图像应用程序中,长按的位置被设置为缩放中心,并且通过拖动执行的输入操作从静止图像的滚动改变为缩放率的调整。
在静止图像再现应用程序中,弹性面团光标Cs响应于垂直方向上的拖动而垂直延长,并且根据弹性面团光标Cs的方向(向上或向下)和长度来设置静止图像的缩放率的调整方向和调整速度的值。
在静止图像再现应用程序中,当在没有长按的情况下执行拖动(轻拂)时,响应于拖动来滚动正显示在静止图像再现画面220上的静止图像。
因此,在静止图像再现应用程序中,通过长按可以将通过拖动执行的输入操作新改变为缩放率的调整或滚动。因此,可以仅通过拖动来进行缩放率的调整或静止图像的滚动。
在静止图像再现应用程序中,当使用亮度饱和度调色板221的内部作为起点在垂直方向上执行拖动时,响应于该拖动显示垂直弹性面团光标Cs。
在静止图像再现应用程序中,当拖动的起点在亮度饱和度调色板221的亮度设置区域221L内时,根据弹性面团光标Cs的方向和长度来设置静止图像的亮度的调整方向和调整速度的值。
在静止图像再现应用程序中,当拖动的起点在亮度饱和度调色板221的饱和度设置区域221R内时,根据弹性面团光标Cs的方向和长度来设置静止图像的饱和度的调整方向和调整速度的值。
在静止图像再现应用程序中,根据亮度饱和度调色板221内的拖动的起点的位置,通过拖动执行的输入操作可以新改变为静止图像的亮度的调整或静止图像的饱和度的调整。
在静止图像再现应用程序中,可以仅通过在垂直方向上的拖动中利用弹性面团光标Cs执行的输入操作,调整静止图像的亮度或饱和度,同时自由地转变调整方向和调整速度的值。
如上所述,便携式终端100可以仅通过拖动中利用弹性面团光标Cs执行的输入操作,容易地再现视频,改变显示内容,滚动各种列表,调整各种参数等。
2-4.输入操作处理序列
接下来,将描述由便携式终端100响应于利用弹性面团光标Cs执行的输入操作而执行的具体序列(称为输入操作处理序列)。
2-4-1.视频再现应用程序的输入操作处理序列
将参照图20中示出的流程图,描述当由视频再现应用程序执行章节再现、章节和章节列表之间的改变以及章节列表的滚动时的输入操作处理序列。
图20中示出的输入操作处理序列RT1是由便携式终端100的CPU110根据存储在非易失性存储器111中的视频再现应用程序的程序执行的处理序列。
当CPU110操作视频再现应用程序并且轻击所列出的视频的缩略图之一时,CPU110开始输入操作处理序列RT1。然后,处理进行到步骤SP1。在步骤SP1中,CPU110基于从触摸面板102B输入的信号确定是否在触摸面板102B上执行了触摸操作。
当获得否定结果时,CPU110允许处理进行到步骤SP2,以正常速度在前进方向上再现与轻击的缩略图对应的视频(即,执行正常再现),然后将处理返回到步骤SP1。
另一方面,当在上述步骤SP1中获得肯定结果时,CPU110允许处理进行到步骤SP3。在步骤SP3中,CPU110响应于该触摸操作适当地显示弹性面团光标Cs,并且确定触摸操作是否是画面的水平方向上的拖动。
当在步骤SP3中获得否定结果时,CPU110再次将处理返回到步骤SP1。另一方面,当在步骤SP3中获得肯定结果时,CPU110允许处理进行到步骤SP4。
在步骤SP4中,CPU110确定当前显示内容是否是章节。当在步骤SP4中获得肯定结果时,CPU110允许处理进行到步骤SP5。
在步骤SP5中,CPU110确定正显示的弹性面团光标Cs的终点(即,拖动的终点)是否在左端区域200A或右端区域200C内。
当获得否定结果时,否定结果表示当前显示内容是章节,并且由此弹性面团光标Cs的终点在除左端区域200A之外的区域内或除右端区域200C之外的区域内(即,在中间区域200B中)。
此时,CPU110允许处理进行到步骤SP6,根据正显示的弹性面团光标Cs的方向和长度控制章节的再现速度,然后再次将处理返回到步骤SP1。
另一方面,当在上述步骤SP5中获得肯定结果时,肯定结果表示当前显示内容是章节,并且弹性面团光标Cs的终点在左端区域200A或右端区域200C内(即,在除中间区域200B之外的区域中)。
此时,CPU110允许处理进行到步骤SP7,将显示内容从章节转换为作为较高等级的信息的章节列表,然后再次将处理返回到步骤SP1。
另一方面,当在上述步骤SP4中获得否定结果时,否定结果表示当前显示内容是章节列表。
此时,CPU110允许处理进行到步骤SP8,根据正显示的弹性面团光标Cs的方向和长度控制章节列表的滚动速度,并且再次将处理返回到步骤SP1。
根据该输入操作处理序列RT1,CPU110响应于拖动中利用弹性面团光标Cs执行的输入操作,执行章节再现、章节和章节列表之间的改变以及章节列表的滚动。
随后,将参照图21中示出的流程图描述当通过视频再现应用程序调整音量时的输入操作处理序列。
图21中示出的输入操作处理序列RT2是由便携式终端100的CPU110根据存储在非易失性存储器111中的视频再现应用程序的程序执行的处理序列。
当CPU110操作视频再现应用程序并且轻击所列出的视频的缩略图之一时,CPU110开始输入操作处理序列RT2。然后,处理进行到步骤SP10。在步骤SP10中,CPU110基于从触摸面板102B输入的信号确定是否在触摸面板102B上执行了触摸操作。
在步骤SP10中,CPU110等待直至获得肯定结果。当CPU110获得肯定结果时,CPU110允许处理进行到步骤SP11。
在步骤SP11中,CPU110响应于触摸操作适当地显示弹性面团光标Cs,并且确定触摸操作是否是画面的垂直方向上的拖动。
当在步骤SP11中获得否定结果时,CPU110再次将处理返回到步骤SP10。另一方面,当在步骤SP11中获得肯定结果时,CPU110允许处理进行到步骤SP12。
在步骤SP12中,CPU110确定此时正显示的弹性面团光标Cs的方向是否是向上方向(即,拖动的终点位于拖动的起点之上)。
当在步骤SP12中获得肯定结果时,肯定结果表示弹性面团光标Cs的方向是向上方向(即,拖动的终点位于拖动的起点之上)。
此时,CPU110允许处理进行到步骤SP13,以与此时正显示的弹性面团光标Cs的方向(向上方向)和长度对应的调整速度增加音量,然后将处理返回到步骤SP10。
另一方面,当在上述步骤SP12中获得否定结果时,否定结果表示弹性面团光标Cs的方向是向下方向(即,拖动的终点位于拖动的起点之下)。
此时,CPU110允许处理进行到步骤SP14,以与正显示的弹性面团光标Cs的方向(向下)和长度对应的调整速度减小音量,然后再次将处理返回到步骤SP10。
根据输入操作处理序列RT2,CPU110响应于在拖动中利用弹性面团光标Cs执行的输入操作,执行音量的调整。
2-4-2.音乐再现应用程序的输入操作处理序列
接下来,将参照图22中示出的流程图描述当由音乐再现应用程序执行曲目列表和专辑列表之间的改变以及曲目列表和专辑列表的滚动时的输入操作处理序列。
图22中示出的输入操作处理序列RT3是由便携式终端100的CPU110根据存储在非易失性存储器111中的音乐再现应用程序的程序执行的处理序列。
当CPU110操作音乐再现应用程序时,CPU110开始输入操作处理序列RT3。然后,处理进行到步骤SP20。在步骤SP20中,CPU110基于从触摸面板102B输入的信号确定是否在触摸面板102B上执行了触摸操作。
当在步骤SP20中获得否定结果时,CPU110允许处理进行到步骤SP21,在曲目选择画面210上显示曲目列表,然后再次将处理返回到步骤SP20。
另一方面,当在上述步骤SP20中获得肯定结果时,CPU110允许处理进行到步骤SP22。在步骤SP22中,CPU110响应于触摸操作适当地显示弹性面团光标Cs,并且确定触摸操作是否是画面的垂直方向上的拖动。
当在步骤SP22中获得否定结果时,CPU110再次将处理返回到步骤SP20。另一方面,当在步骤SP22中获得肯定结果时,CPU110允许处理进行到步骤SP23。
在步骤SP23中,CPU110确定当前显示内容是否是曲目列表。当在步骤SP23中获得肯定结果时,CPU110允许处理进行到步骤SP24。
在步骤SP24中,CPU110确定正显示的弹性面团光标Cs的终点(即,拖动的终点)是否在上端区域210A或下端区域210C内。
当在步骤SP24中获得否定结果时,否定结果表示当前显示内容是曲目列表,并且弹性面团光标Cs的终点不在上端区域210A和下端区域210C内,而是在中间区域210B内。
此时,CPU110允许处理进行到步骤SP25,根据正显示的弹性面团光标Cs的方向和长度控制曲目列表的滚动速度,然后再次将处理返回到步骤SP20。
另一方面,当在上述步骤SP24中获得肯定结果时,肯定结果表示当前显示内容是曲目列表,并且弹性面团光标Cs的终点在上端区域210A或下端区域210C(即,除中间区域210B之外的区域)内。
此时,CPU110允许处理进行到步骤SP26,将显示内容从曲目列表转换为作为较高等级的信息的专辑列表,然后再次将处理返回到步骤SP20。
另一方面,当在上述步骤SP23中获得否定结果时,否定结果表示当前显示内容是专辑列表。
此时,CPU110允许处理进行到步骤SP27,并且确定正显示的弹性面团光标Cs的长度是否超过预定阈值。
当在步骤SP27中获得肯定结果时,肯定结果表示当前显示内容是专辑列表并且弹性面团光标Cs的长度超过预定阈值。
此时,CPU110允许处理进行到步骤SP28,根据弹性面团光标Cs的方向和长度控制专辑列表的滚动速度,然后再次将处理返回到步骤SP20。
另一方面,当在上述步骤SP27中获得否定结果时,否定结果表示当前显示内容是专辑列表并且弹性面团光标Cs的长度等于或小于预定阈值。
此时,CPU110允许处理进行到步骤SP29,将显示内容从专辑列表转换为作为较低等级的信息的曲目列表,然后再次将处理返回到步骤SP20。
根据该输入操作处理序列RT3,CPU110响应于在拖动中利用弹性面团光标Cs执行的输入操作,执行显示内容的改变以及曲目列表和专辑列表的滚动。
2-4-3.静止图像再现应用程序的输入操作处理序列
接下来,将参照图23中示出的流程图描述当由静止图像再现应用程序执行作为静止图像的参数的缩放率的调整时的输入操作处理序列。
图23中示出的输入操作处理序列RT4是由便携式终端100的CPU110根据存储在非易失性存储器111中的静止图像再现应用程序的程序执行的处理序列。
当CPU110操作静止图像再现应用程序并且轻击所列出的静止图像的缩略图之一时,CPU110开始输入操作处理序列RT4。然后,处理进行到步骤SP30。在步骤SP30中,CPU110基于从触摸面板102B输入的信号确定是否在触摸面板102B上执行了触摸操作。
在步骤SP30中,CPU110等待直至获得肯定结果。当CPU110获得肯定结果时,CPU110允许处理进行到步骤SP31。
在步骤SP31中,CPU110基于从触摸面板102B输入的信号确定该触摸操作是否是在正显示的静止图像上的初始长按。这里,初始长按指的是在用户用他的或她的手指触摸触摸面板102B并且从触摸面板102B移开他的或她的手指的一系列触摸操作期间,在最初触摸的位置处的长按。
当在步骤SP31中获得肯定结果时,CPU110允许处理进行到步骤SP32。在步骤SP32中,CPU110在长按的位置显示弹性面团光标Cs,将长按的位置设置为缩放中心,然后将处理返回到步骤SP30。
另一方面,当在上述步骤SP31中获得否定结果时,CPU110允许处理进行到步骤SP33。在步骤SP33中,CPU110基于从触摸面板102B输入的信号确定触摸操作是否是拖动。
当在步骤SP33中获得否定结果时,CPU110再次将处理返回到步骤SP30。另一方面,当在步骤SP33中获得肯定结果时,CPU110允许处理进行到步骤SP34。
在步骤SP34中,CPU110确定缩放中心的设置是否已经结束。
当在步骤SP34中获得肯定结果时,肯定结果表示缩放中心的设置结束,即,当前执行的拖动是从长按开始的拖动。
此时,CPU110允许处理进行到步骤SP35,并且确定正显示的弹性面团光标Cs的方向是否是向上方向(即,拖动的终点位于拖动的起点之上)。
当在步骤SP35中获得肯定结果时,肯定结果表示弹性面团光标Cs的方向是向上方向(即,拖动的终点位于拖动的起点之上)。
此时,CPU110允许处理进行到步骤SP36。在步骤SP36中,CPU110通过使用被设置为缩放中心的位置作为中心,以与正显示的弹性面团光标Cs的方向(向上方向)和长度对应的调整速度来增加(放大)静止图像的放大率,然后再次将处理返回到步骤SP30。
另一方面,当在上述步骤SP35中获得否定结果时,否定结果表示弹性面团光标Cs的方向是向下方向(即,拖动的终点位于拖动的起点之下)。
此时,CPU110允许处理进行到步骤SP37。在步骤SP37中,CPU110通过使用被设置为缩放中心的位置作为中心,以与正显示的弹性面团光标Cs的方向(向下方向)和长度对应的调整速度来减小(缩小)静止图像的缩小率,然后再次将处理返回到步骤SP30。
另一方面,当在上述步骤SP34中获得否定结果时,否定结果表示缩放中心未被设置,即,当前执行的拖动时从短按开始的拖动(或轻拂)。
此时,CPU110允许处理进行到步骤SP38,并且根据拖动的方向和长度(或轻拂的方向和长度)来滚动静止图像。然后,处理返回到步骤SP30。
根据该输入操作处理序列RT4,CPU110响应于在拖动中利用弹性面团光标Cs执行的输入操作,执行作为静止图像的参数的缩放率的调整。
接下来,将参照图24中示出的流程图描述当由静止图像再现应用程序执行亮度和饱和度的调整时的输入操作处理序列。
图24中示出的输入操作处理序列RT5是由便携式终端100的CPU110根据存储在非易失性存储器111中的静止图像再现应用程序的程序执行的处理序列。
当CPU110抽出并在静止图像再现画面220上显示亮度饱和度调色板221时,CPU110开始输入操作处理序列RT5。然后,处理进行到步骤SP40。在步骤SP40中,CPU110基于从触摸面板102B输入的信号确定是否在触摸面板102B上执行了触摸操作。
在步骤SP40中,CPU110等待直至获得肯定结果。当CPU110获得肯定结果时,CPU110允许处理进行到步骤SP41。
在步骤SP41中,CPU110确定触摸操作是否是初始触摸。这里,初始触摸指的是在用户用他的或她的手指触摸触摸面板102B并且从触摸面板102B移开他的或她的手指的一系列触摸操作期间,在最初触摸的位置处的触摸。
当在步骤SP41中获得否定结果时,CPU110再次将处理返回到步骤SP40。另一方面,当在步骤SP41中获得肯定结果时,CPU110允许处理进行到步骤SP42。
在步骤SP42中,CPU110确定最初触摸的位置是否在亮度设置区域221L内。
当在步骤SP42中获得肯定结果时,肯定结果表示最初触摸的位置在亮度设置区域221L内。此时,CPU110允许处理进行到步骤SP43。
在步骤SP43中,CPU110在触摸的位置显示弹性面团光标Cs,将亮度设置为调整目标,然后再次将处理返回到步骤SP40。
另一方面,当在步骤SP42中获得否定结果时,否定结果表示最初触摸的位置不在亮度设置区域221L内。
此时,CPU110允许处理进行到步骤SP44,并且确定最初触摸的位置是否在饱和度设置区域221R内。
当在步骤SP44中获得否定结果时,否定结果表示最初触摸的位置不在亮度设置区域221L和饱和度设置区域221R内。此时,CPU110再次将处理返回到步骤SP40。
另一方面,当在步骤SP44中获得肯定结果时,肯定结果表示最初触摸的位置在饱和度设置区域221R内。此时,CPU110允许处理进行到步骤SP45。
在步骤SP45中,CPU110在触摸的位置显示弹性面团光标Cs,将饱和度设置为调整目标,然后再次将处理返回到步骤SP40。
另一方面,当在步骤SP41中获得否定结果时,否定结果表示触摸操作不是初始触摸。
此时,CPU110允许处理进行到步骤SP46,并且确定该触摸操作是否是垂直方向上的拖动。
当在步骤SP46中获得否定结果时,否定结果表示触摸操作不是初始触摸也不是拖动。此时,CPU110再次将处理返回到步骤SP40。
另一方面,当在上述步骤SP46中获得肯定结果时,肯定结果表示触摸操作是垂直方向上的拖动。此时,CPU110允许处理进行到步骤SP47。
在步骤SP47中,CPU110确定调整目标的设置是否结束。
当在步骤SP47中获得否定结果时,否定结果表示未设置调整目标,即,当前执行的拖动是从朝向亮度设置区域221L和饱和度设置区域221R的外部执行的触摸开始的拖动。此时,CPU110再次将处理返回到步骤SP40。
另一方面,当在上述步骤SP47中获得肯定结果时,肯定结果表示调整目标的设置已经结束,即,当前执行的拖动是从在亮度设置区域221L或饱和度设置区域221R内执行的触摸开始的拖动。
此时,CPU110允许处理进行到步骤SP48,并且确定正显示的弹性面团光标Cs的方向是否是向上方向(即,拖动的终点位于拖动的起点之上)。
当在步骤SP48中获得肯定结果时,肯定结果表示弹性面团光标Cs的方向是向上方向(即,拖动的终点位于拖动的起点之上)。
此时,CPU110允许处理进行到步骤SP49,以与正显示的弹性面团光标Cs的方向(向上方向)和长度对应的调整速度增加调整目标(亮度或饱和度)的值,然后再次将处理返回到步骤SP40。
另一方面,当在上述步骤SP48中获得否定结果时,否定结果表示弹性面团光标Cs的方向是向下方向(即,拖动的终点位于拖动的起点之下)。
此时,CPU110允许处理进行到步骤SP50,以与正显示的弹性面团光标Cs的方向(向下方向)和长度对应的调整速度减小调整目标(亮度或饱和度)的值,然后再次将处理返回到步骤SP40。
根据输入操作处理序列RT5,CPU110响应于在拖动中利用弹性面团光标Cs执行的输入操作,执行作为静止图像的参数的亮度和饱和度的调整。
2-5.第一实施例的操作和优点
在上述配置中,当在触摸屏102上执行拖动时,便携式终端100的CPU110显示从拖动的起点延长到终点并且具有从拖动的起点侧到终点侧变粗的形状的弹性面团光标Cs。
由于弹性面团光标Cs从拖动的起点延长到终点,因此用户可以在便携式终端100中识别拖动的起点和终点之间的距离(起点/终点距离)。
此外,由于弹性面团光标Cs具有从拖动的起点侧到终点侧变粗的形状,因此拖动的起点侧的弹性面团光标Cs的一个端部的尺寸不同于在拖动的终点侧的弹性面团光标Cs的另一端部的尺寸。
因此,在便携式终端100中,用户可以在弹性面团光标Cs中区分拖动的起点侧与拖动的终点侧。结果,在便携式终端100中,用户可以识别拖动的起点和终点的位置(起点/终点位置)以及从拖动的起点到终点的方向(起点/终点方向)。
因此,在便携式终端100中,用户可以执行拖动,同时识别拖动的起点和终点的位置、拖动的起点和终点之间的距离以及从拖动的起点到终点的方向。
取代弹性面团光标Cs,例如,可以认为一个光标显示在拖动的起点和终点的每个中。然而,在该情况下,由于两个光标是分开显示的,因此用户难以理解两个光标之间的关系。因此,难以向用户示出如下事实:两个光标分别表示拖动的起点和终点的位置。
当显示两个光标时,用户可能无法直观地确定设备是准确地将手指的移动识别为拖动还是将两个部分错误地识别为轻击。
因此,在根据本公开内容的实施例的便携式终端100中,配置成显示从拖动的起点延长到终点的一个弹性面团光标Cs。
因此,在便携式终端100中,用户可以通过弹性面团光标Cs容易地识别拖动的起点和终点的位置。此外,手指的移动被准确地识别为拖动的事实可以被反馈给用户。
在根据本公开内容的实施例的便携式终端100中,利用弹性面团光标Cs的长度使得拖动的起点和终点之间的距离可视化。因此,与上述显示两个光标的情况相比,用户可以更清楚地识别拖动的起点和终点之间的距离。
此外,在根据本公开内容的实施例的便携式终端100中,利用弹性面团光标Cs的形状使得从拖动的起点到终点的方向可视化。因此,与上述显示两个光标的情况相比,用户可以更清楚地识别从拖动的起点到终点的方向。
根据上述配置,便携式终端100在触摸屏102上显示从拖动的起点延长到终点并且具有从拖动的起点侧到其终点侧变粗的形状的弹性面团光标Cs。因此,在便携式终端100中,用户可以执行拖动,同时识别拖动的起点和终点的位置、拖动的起点和终点之间的距离以及从拖动的起点到终点的方向。因此,可以进一步改进以拖动执行输入操作时的操作性。
3.第二实施例
接下来,将描述第二实施例。在第二实施例中,在便携式终端100中,显示地图的应用程序(也称为地图显示应用程序)被安装作为与利用弹性面团光标Cs执行的输入操作对应的应用程序。
便携式终端100的硬件配置和利用弹性面团光标Cs执行的输入操作的基本操作与第一实施例相同,因此将参考第一实施例进行描述。在下文中,将描述在地图显示应用程序中利用弹性面团光标Cs执行的输入操作。
3-1.地图显示应用程序中的输入操作的示例
当用于操作地图显示应用程序的图标显示在触摸屏102上并且在此状态下轻击该图标时,便携式终端100的CPU110接收该触摸操作作为操作地图显示应用程序的输入操作。
然后,CPU110通过从非易失性存储器111读取地图显示应用程序的程序并且执行该程序来操作地图显示应用程序。
当CPU110操作地图显示应用程序时,CPU110在触摸屏102上显示图25中示出的地图画面230。地图画面230是垂直长画面,并且在假设在垂直方向上使用地图画面230的情况下,地图画面230显示在触摸屏102的整个表面上。
地图画面230被划分为两个区域:中间区域230A,其是以画面的中间作为中心的矩形区域;以及外部区域230B,其是包围中间区域230A的外部的区域。这里,例如,假设中间区域230A的垂直长度和水平长度分别均是地图画面的垂直长度和水平长度的大约80%。表示中间区域230A的框Fr1(图26包括26A、26B以及26C,参见图26的26A)显示在地图画面230上。
CPU110从非易失性存储器110读取任意地点(例如,为用户预先设置的地点)的地图信息数据,并且基于该地图信息数据在地图画面230上显示地图图像。此外,地图图像的至少部分被显示在地图画面230上。
在地图画面230上,可以通过拖动控制地图图像的滚动。
实际上,如图26的26A所示,假设在画面的右上方向上执行拖动。然后,CPU110确定拖动的终点是否在画面的中间区域230A内。
当拖动的终点在中间区域230A内时,CPU110将正常滚动模式设置为滚动模式,并且根据拖动的方向和长度控制地图图像的滚动。即,CPU110通过一般拖动控制滚动。
具体地,CPU110在与拖动相同的方向上将地图图像仅滚动与拖动的长度对应的距离。由于在图26的26A中拖动的方向是画面的右上方向,因此CPU110仅在画面的右上方向上将地图图像滚动与拖动的长度对应的距离。
如图26的26B所示,假设拖动的终点到达中间区域230A之外(即,在外部区域230B内)。
然后,CPU110将滚动模式转换为弹性面团滚动模式,以从画面消除框Fr1,并且在画面上显示从拖动的起点延长到终点的弹性面团光标Cs。弹性面团光标Cs被显示直到用户从触摸屏102移开他的或她的手指且拖动结束为止。
当CPU110显示弹性面团光标Cs时,CPU110根据弹性面团光标Cs的方向和长度控制地图图像的滚动。
具体地,CPU110将与弹性面团光标Cs的方向相同的方向设置为地图图像的滚动方向。此外,随着弹性面团光标Cs的长度越长,CPU110将滚动速度的值设置得越大。
结果,当弹性面团光标Cs通过在画面的右上方向上的拖动而向右上延长较长时,如图26的26B所示,在右上方向上快速滚动显示在地图画面230上的地图图像。
当用户在该拖动之后在没有从触摸屏102移开他的或她的手指情况下没有移动他的或她的手指时,弹性面团光标Cs继续被显示且弹性面团光标Cs的方向和长度没有任何改变,并且维持滚动速度(滚动方向和滚动速度的值)。
此外,假设拖动继续且在拖动之后没有移开手指,然后弹性面团光标Cs的终点(拖动的终点)从除中间区域230A之外的区域再次返回到中间区域230A,如图26的26C所示。
在该情况下,CPU110继续弹性面团滚动模式,并且继续根据弹性面团光标Cs的方向和长度控制地图图像的滚动速度。即,在转换到弹性面团滚动模式之后,CPU110继续弹性面团滚动模式而与拖动的终点的位置无关,直到用户移开他的或她的手指且拖动结束为止。
此后,当拖动结束时,CPU110结束地图图像的滚动,将延长的弹性面团光标Cs收缩至弹性面团光标Cs的圆形形状,从画面消除弹性面团光标Cs,然后再次显示框Fr1。
当在地图显示应用程序中执行拖动时,如上所述,设置正常滚动模式并且通过一般拖动执行滚动控制,直到拖动的终点到达中间区域230A之外为止。
另一方面,在地图显示应用程序中,当拖动的终点到达中间区域230A之外时,正常滚动模式被转换为弹性面团滚动模式,并且根据弹性面团光标Cs的方向和长度来控制地图图像的滚动方向和滚动速度的值。
因此,在地图显示应用程序中,用户仅执行允许拖动的终点到达中间区域230A之外的简单操作,以使得一般拖动的滚动控制被转换为利用弹性面团光标Cs执行的滚动速度的控制。
因此,用户可以通过仅执行拖动,容易地选择一般拖动的滚动控制和利用弹性面团光标Cs执行的滚动速度的控制。
4.其它实施例
4-1.其它实施例1
在上述第一实施例中,在视频再现应用程序中,章节的再现速度的控制、章节和章节列表之间的改变(等级之间的改变)以及音量的调整速度的控制被配置为通过利用弹性面团光标Cs执行的输入操作来执行。
然而,本公开内容的实施例不限于此。相反,在另一应用程序中,各种内容的再现速度的控制、等级之间的改变以及各种参数的调整速度的控制可通过利用弹性面团光标Cs执行的输入操作来执行。
例如,在音乐再现应用程序中,音乐(曲目)的再现速度的控制可通过利用弹性面团光标Cs执行的输入操作来执行。
在该情况下,例如,当从曲目列表选择曲目时,CPU110显示关于该曲目的信息(曲目的标题、唱片套图像等)并且正常再现该曲目。
此后,当在画面的水平方向上执行拖动时,CPU110响应于该拖动在水平方向上显示弹性面团光标Cs,并且根据弹性面团光标Cs的方向(左方向或右方向)和长度设置曲目的再现方向和再现速度的值。
此时,当弹性面团光标Cs的终点进入设置在画面的右端和左端的预定区域时,画面的显示内容可从关于曲目的信息转换为更高等级的曲目列表,以新改变等级。
因此,在音乐再现应用程序中,如在视频再现应用程序中一样,可以执行音乐(曲目)的再现速度的控制以及从关于曲目的信息到更高等级的曲目列表的改变。
在上述第一实施例中,在音乐再现应用程序中,通过利用弹性面团光标Cs执行的输入操作来控制曲目列表的滚动速度。
然而,本公开内容的实施例不限于此。在另一应用程序中,可通过利用弹性面团光标Cs执行的输入操作来控制各种显示(图像、文本、列表等)的滚动速度。
例如,在网络浏览器中,可以通过利用弹性面团光标Cs执行的输入操作来控制页面图像的滚动速度。
在该情况下,例如,当页面图像显示在网络浏览器的画面上并且在该状态下在画面的垂直方向上执行拖动时,CPU110响应于拖动在垂直方向上显示弹性面团光标Cs。然后,CPU110根据弹性面团光标Cs的方向(向上或向下方向)和长度来设置页面图像的滚动方向和滚动速度的值。
滚动方向不限于一维方向(垂直方向或水平方向)。然而,可在二维方向上滚动在显示范围中的上、下、右以及左方向上延伸的整个显示(诸如地图、照片或者放大的文档)。
在一些情况下,与在滚动速度的控制下连续滚动显示时相比,一些显示在以给定单位间隔间歇地滚动显示时更容易在视觉上确认。
例如,当在滚动缩略图列表的状态下显示一张缩略图并且等待几秒钟时,滚动该缩略图并显示随后的缩略图的间歇滚动改进了对于一个缩略图接一个缩略图的可视性。
在该情况下,不是根据弹性面团光标Cs的长度来设置滚动速度的值,而是可设置滚动之间的等待时间。
以此方式,可以利用弹性面团光标Cs的方向和速度来控制间歇滚动的滚动方向和等待时间。
连续滚动或间歇滚动可由用户来设置。替选地,CPU110可基于为每种显示设置的设置信息而自动设置连续滚动或间歇滚动。
作为间歇滚动有效的其它示例,显示是文档或文档加上图。
实际上,当显示是文档时,例如,有时以行单位、语句单位或者包括检索到的词串的页面单位来执行间歇滚动。
当显示是文档加上图时,例如,有时以包括该图的页面单位来执行间歇滚动。
此外,本公开内容的实施例不限于应用程序。相反,在诸如OS的各种软件中,可通过利用弹性面团光标Cs执行的输入操作来执行显示的滚动速度的控制、等级之间的改变、各种参数的调整速度的控制以及等待时间的控制。这里,OS是操作系统的缩写。
例如,在OS中,可通过利用弹性面团光标Cs执行的输入操作来控制文件夹列表或文件列表的滚动速度。此外,等级可以从文件新切换为文件夹。例如,还可控制画面的分辨率的调整速度。例如,还可以控制图像的幻灯片放映的等待时间。
4-2.其它实施例2
在上述第一实施例中,在静止图像再现应用程序中,当静止图像的任意部分持续被触摸预定时间(即,可以执行长按)时,弹性面团光标Cs被配置为显示在触摸位置。
然而,本公开内容的实施例不限于此。图27包括27A、27B以及27C。相反,当轻击(触摸手指并移开)静止图像的任意部分时,如图27的27A所示,可在该位置显示弹性面团光标Cs。
具体地,当轻击静止图像的任意部分时,CPU110在轻击的位置显示具有以轻击的位置为中心的圆形形状的弹性面团光标Cs,并且将轻击的位置设置为缩放中心。轻击的位置成为弹性面团光标Cs的起点。
此后,假设当触摸具有圆形形状的弹性面团光标Cs并且在画面的垂直方向上执行拖动。然后,响应于拖动,CPU110在从弹性面团光标Cs的起点开始的拖动的方向上延长弹性面团光标Cs,以使得弹性面团光标Cs的长度与拖动的起点和终点之间的距离相同。
然后,CPU110根据此时的弹性面团光标Cs的方向和长度,控制静止图像的缩放率(放大率/缩小率)的调整速度。
在该情况下,圆形弹性面团光标Cs不一定被触摸。相反,即使当触摸并拖动除弹性面团光标Cs之外的部分时,也可如在触摸并拖动弹性面团光标Cs的情况下一样,控制缩放率的调整速度。
实际上,如图27的27B和27C所示,假设当显示圆形弹性面团光标Cs时,触摸除弹性面团光标Cs之外的部分并且在画面的垂直方向上执行拖动。在该情况下,响应于拖动,CPU110在与从弹性面团光标Cs的起点开始的拖动的方向平行的方向上延长弹性面团光标Cs,以使得弹性面团光标Cs的长度与拖动的起点和终点之间的距离相同。
结果,如在触摸并拖动弹性面团光标Cs的情况下一样,弹性面团光标Cs延长。
然后,CPU110根据此时的弹性面团光标Cs的方向和长度,控制静止图像的缩放率(放大率/缩小率)的调整速度。
结果,缩放率的调整速度变得与当触摸弹性面团光标Cs时的调整速度相同。
因此,在精确地触摸弹性面团光标Cs之后不执行拖动。因此,可以改进操作性。特别地,当触摸屏102较小并且正显示的弹性面团光标Cs较小时,这更有效。
此后,当拖动结束时,CPU110将弹性面团光标Cs收缩至圆形形状,并且暂停缩放率的调整。当再次执行轻击时,从画面消除弹性面团光标Cs,重新设置缩放中心,并且缩放率的调整结束。与轻击一样,可响应于各种操作(诸如双击(连续两次轻击))显示弹性面团光标Cs。此外,本公开内容的实施例不限于此。相反,可在触摸位置移动了等于或大于预定阈值的距离时显示弹性面团光标Cs,并且CPU110确定该触摸操作是拖动。可针对各个应用程序来修改显示弹性面团光标Cs的方法。
4-3.其它实施例3
在上述第一实施例中,例如,在音乐再现应用程序中,通过利用弹性面团光标Cs执行的输入操作,新切换关于两个等级曲目列表和专辑列表的信息。
然而,本公开内容的实施例不限于此。可通过利用弹性面团光标Cs执行的输入操作来改变关于三个或更多等级的信息。
例如,假设音乐文件是以三级结构来管理的:最高等级的艺术家名、中间等级的专辑标题以及最低等级的曲目标题。
在该情况下,例如,CPU110首先在曲目选择画面200上显示作为最低等级的信息的曲目列表。这里,假设弹性面团光标Cs的终点通过画面的垂直方向上的拖动而从中间区域210B到达上端区域210A或下端区域210C。然后,CPU110将显示内容从曲目列表转换为作为高出一个等级的等级的信息的专辑列表。
此后,假设拖动继续并且弹性面团光标Cs的长度减小到等于或小于预定阈值的值。然后,CPU110将显示内容从专辑列表转换为作为降低了一个等级的等级的信息的曲目列表。
假设在完成到专辑列表的改变之后,拖动继续以使得弹性面团光标Cs的终点返回到中间区域210B并且再次到达上端区域210A或下端区域210C内。然后,CPU110将显示内容从专辑列表转换为作为高出一个等级的等级的信息的艺术家列表。
此后,假设拖动继续以使得弹性面团光标Cs的长度减小到等于或小于预定阈值的值。然后,CPU110将显示内容从艺术家列表转换为作为降低了一个等级的等级的信息的专辑列表。
当拖动结束时,CPU110将显示内容转换为作为最低等级的信息的曲目列表,而与当前显示内容无关。
此外,本公开内容的实施例不限于此。相反,在各种应用程序中,当弹性面团光标Cs的终点到达在画面中设置的预定区域内时,可依次新改变多个层级的信息。
在上述第一实施例中,在视频再现应用程序中,等级的信息从章节新改变为章节列表。然而,本公开内容的实施例不限于此。例如,章节可从章节新改变为随后的章节。
即,假设CPU110允许弹性面团光标Cs的终点通过在画面的水平方向上的拖动而从中间区域200B到达右端区域200C。然后,CPU110将显示内容改变为当前显示章节的随后章节。
另一方面,假设弹性面团光标Cs的终点通过画面的水平方向上的拖动而从中间区域200B到达左端区域200A内。然后,CPU110将显示内容改变为紧挨在当前显示章节之前的章节。
此后,当拖动结束时,CPU110将此时正显示的章节的再现返回到正常再现。
然而,本公开内容的实施例不限于此。在各种应用程序中,当弹性面团光标Cs的终点到达在画面中设置的预定区域内时,可依次新改变要显示的信息。
该区域的位置和尺寸不受限制。然而,在视频再现应用程序中,在通过在水平方向上延长弹性面团光标Cs来控制章节的再现速度时,区域的位置优选地在位于弹性面团光标Cs的延长线上的右端或左端。
在音乐再现应用程序中,在通过在垂直方向上延长弹性面团光标Cs来控制列表的滚动时,区域的位置优选地在上端或下端。
4-4.其它实施例4
在上述第一实施例中,当触摸正显示在静止图像再现画面220的下端的亮度饱和度调色板221的上端部分并且在画面的上部方向上执行轻拂时,亮度饱和度调色板221被配置为在画面上被抽出。
然而,本公开内容的实施例不限于此。相反,当在静止图像再现画面220上显示单独菜单等并且在菜单中选择亮度饱和度设置时,亮度饱和度调色板221可被配置为显示在画面上。
在上述第一实施例中,亮度饱和度调色板221被配置为显示在整个画面的位置并且具有整个画面的尺寸。
然而,本公开内容的实施例不限于此。例如,亮度饱和度调色板221可显示在画面的下半部或上半部的位置并且具有画面的下半部或上半部的尺寸,或者可显示在中间部分的位置并且具有中间部分的尺寸,该中间部分包括将画面等分成上部和下部的中心线。
此时,当拖动的起点是未被亮度饱和度调色板221覆盖的部分时,可响应于拖动而滚动正显示在画面上的静止图像。
在该情况下,CPU110响应于拖动(或轻拂)的方向和长度来控制静止图像的滚动。
以此方式,当拖动的起点在亮度饱和度调色板221内时,可调整亮度和饱和度。当拖动的起点在除亮度饱和度调色板221之外的静止图像上时,可滚动静止图像。以此方式,可取决于拖动的位置而改变要执行的处理。
在上述第一实施例中,显示包括用于调整亮度的亮度设置区域221L和用于调整饱和度的饱和度设置区域221R的亮度饱和度调色板221。
然而,本公开内容的实施例不限于此。例如,可显示包括用于增加亮度的亮度增加区域和用于减小亮度的亮度减小区域的亮度调色板(未示出)。
在该情况下,当从作为起点的亮度增加区域的内部开始在垂直方向上执行拖动时,CPU110显示垂直方向的弹性面团光标Cs,并且利用与弹性面团光标Cs的长度对应的调整速度的值来逐渐增加亮度。
当从作为起点的亮度减小区域的内部开始在垂直方向上执行拖动时,CPU110显示垂直方向的弹性面团光标Cs,并且利用与弹性面团光标Cs的长度对应的调整速度的值来逐渐减小亮度。
此外,本公开内容的实施例的不限于亮度或饱和度。相反,可设置与关于图像质量的各种参数(诸如明度或锐度)对应的区域,并且可取决于初始触摸位置位于的区域而改变可通过拖动调整的参数。
4-5.其它实施例5
在上述第一和第二实施例中,被配置为使用包括触摸屏102的便携式终端100作为操作装置。
然而,本公开内容的实施例不限于此,而是可应用于包括各种操作装置的信息处理设备。
具体地,本公开内容的实施例可应用于包括可操作拖动的操作装置(诸如,鼠标、附接有按钮的触摸板、附接有按钮的操纵杆、可推动工作的模拟棒或者摄像装置)的信息处理设备。
实际上,当利用例如鼠标执行拖动时,CPU110在画面上显示随着鼠标的移动而移动的指针。此后,用户通过将指针移动到期望的位置并且点击鼠标的按钮来指定拖动的起点。这里,CPU110显示弹性面团光标Cs。然后,用户通过利用点击的按钮操作鼠标并且移动拖动的终点(即,弹性面团光标Cs的终点)来执行拖动。
当利用例如附接有按钮的触摸板执行拖动时,CPU110显示响应于在画面上利用触摸板执行的触摸操作而移动的指针。此后,用户通过将指针移动到期望的位置并且按下触摸板的按钮来指定拖动的起点。这里,CPU110显示弹性面团光标Cs。然后,用户通过利用按下的按钮移动触摸位置并且移动拖动的终点(即,弹性面团光标Cs的终点)来执行拖动。
当利用例如操纵杆执行拖动时,CPU110在画面上显示响应于操纵杆的倾斜而移动的指针。此后,用户通过将指针移动到期望的位置并且按下操纵杆的按钮来指定拖动的起点。这里,CPU110显示弹性面团光标Cs。然后,用户通过利用按下的按钮倾斜触摸位置并且移动拖动的终点(即,弹性面团光标Cs的终点)来执行拖动。
当利用例如模拟棒执行拖动时,CPU110在画面上显示响应于模拟棒的倾斜而移动的指针。此后,用户通过将指针移动到期望的位置并且推进模拟棒来指定拖动的起点。这里,CPU110显示弹性面团光标Cs。然后,用户通过利用推进的模拟棒倾斜触摸位置并且移动拖动的终点(即,弹性面团光标Cs的终点)来执行拖动。
当利用例如摄像装置执行拖动时,CPU110基于摄像装置拍摄的图像而识别手指的运动,并且在画面上显示响应于手指的运动而移动的指针。此后,用户通过将指针移动到期望的位置并且执行预定手势(例如,利用手指画圈的手势)来指定拖动的起点。这里,CPU110显示弹性面团光标Cs。然后,用户通过进一步移动手指并且移动拖动的终点(即,弹性面团光标Cs的终点)来执行拖动。
上述操作仅是示例。换言之,可执行指定拖动的起点和终点的操作。
在包括这些操作装置以及触摸屏102的信息处理设备中,可分开设置操作装置和显示装置,或者操作装置可连接到外部显示装置。
4-6.其它实施例6
在上述第一实施例中,弹性面团光标Cs被配置为响应于拖动而被显示。
这里,可在画面上显示弹性面团光标Cs和表示当前响应于利用弹性面团光标Cs执行的输入操作而执行的处理的处理信息两者。
例如,当响应于利用弹性面团光标Cs执行的输入操作而以任意再现速度再现视频时,CPU110在画面上显示表示此时的再现方向的词,诸如“快进”或“倒带”。替选地,可显示直接表示再现方向和再现速度的值的数字(诸如“2.0x”或者“-1.5x”),或者可显示间接表示再现方向和再现速度的符号(诸如“>>”或“<<<”)。
因此,用户可以容易地确认当前响应于利用弹性面团光标Cs执行的输入操作而执行的处理。
当再现速度的值达到最大值时,弹性面团光标Cs不会延长超过最大值。此时,可以以闪烁方式显示弹性面团光标Cs,或者可以以闪烁方式显示表示再现方向和再现速度的值的信息(“2.0x”、“>>”等)。
即,可改变弹性面团光标Cs或表示再现速度的值的信息的显示形式,以使得用户可以知道再现速度的值达到最大值。
4-7.其它实施例7
在上述第一实施例中,在音乐再现应用程序中,CPU110被配置为在转换为专辑列表之后从专辑列表返回到曲目列表,以使得弹性面团光标Cs的长度等于或小于预定阈值。
这里,该操作可被应用于视频再现应用程序。即,在视频再现应用程序中,在转换为章节列表之后,当弹性面团光标Cs的长度等于或小于预定阈值时,CPU110可从章节列表返回到章节。
4-8.其它实施例8
在上述第一实施例中,视频的再现方向和再现速度的值被配置为根据弹性面团光标Cs的方向和长度而被控制。
然而,本公开内容的实施例不限于此。再现方向可以是固定的,并且可仅根据弹性面团光标Cs的长度来仅控制视频的再现速度的值,而与弹性面团光标Cs的方向无关。
替选地,视频的再现速度的值可以是固定的,并且可仅根据弹性面团光标Cs的方向来仅控制视频的再现方向,而与弹性面团光标Cs的长度无关。
替选地,曲目列表的滚动方向可以是固定的,并且可仅更具弹性面团光标Cs的长度来仅控制曲目列表的滚动速度的值,而与弹性面团光标Cs的方向无关。
替选地,曲目列表的滚动速度的值可以是固定的,并且可仅根据弹性面团光标Cs的方向来仅控制曲目列表的滚动方向,而与弹性面团光标Cs的长度无关。
替选地,音量的调整速度的值可以是固定的,并且可仅根据弹性面团光标Cs的方向来仅控制音量的调整方向,而与弹性面团光标Cs的长度无关。
不仅可通过利用弹性面团光标Cs执行的输入操作来执行内容的再现、显示内容的改变、列表的滚动以及参数的调整,还可执行其它各种处理。
4-9.其它实施例9
在上述第一和第二实施例中,便携式终端100被配置为包括触摸屏102,触摸屏102包括液晶面板102A和静电电容式触摸面板102B。
然而,本公开内容的实施例不限于此。取代触摸屏102,便携式终端100可包括具有触摸面板功能的液晶显示器。
此外,各种显示器(诸如EL(电致发光)显示器)也可用作液晶面板102A。
4-10.其它实施例10
在上述第一和第二实施例中,弹性面团光标Cs被配置为具有从起点C1到终点C2变粗的形状。
然而,本公开内容的实施例不限于此。相反,弹性面团光标Cs的形状可以是各种各样的,只要尺寸和形状中的至少一个在作为拖动起点的一个端部与作为拖动终点的另一端部不同即可。此外,弹性面团光标Cs的尺寸可以是各种各样的。
例如,如图28所示,可利用所谓的泪滴式形状来显示弹性面团光标Cs,该泪滴式形状从作为顶点的起点C1到终点C2变粗,并且终点C2的端部是圆的。
例如,如图29所示,弹性面团光标Cs可被显示为具有如下形状:其中,起点C1的端部具有半径为r1的圆,终点C2的端部具有半径为r2(其中r2>r1)的圆,并且这两个圆通过细长的杆形线彼此连接。
例如,CPU110可显示具有从终点C2到起点C1变粗的形状来取代从起点C1到终点C2变粗的形状的弹性面团光标Cs。
4-11.其它实施例11
在上述第一和第二实施例中,CPU110被配置为显示具有如下形状的弹性面团光标Cs:其中,以起点作为中心的、半径为r1的圆连接到以终点作为中心的、半径为r2的圆。
然而,本公开内容的实施例不限于此。相反,CPU110可显示弹性面团光标Cs,以使得随着弹性面团光标Cs的长度越长,弹性面团光标Cs的宽度(在该情况下,半径r1和半径r2)越细。
在该情况下,弹性面团光标Cs可随着弹性面团光标Cs越长而变细,以使得即使当弹性面团光标Cs的长度变化时,弹性面团光标Cs的显示面积也是恒定的。因此,如图30A所示,当弹性面团光标Cs相对短时,弹性面团光标Cs整体变粗。如图30B所示,当弹性面团光标Cs较长时,弹性面团光标Cs整体变细。甚至在该情况下,CPU110也通常设置半径r2大于半径r1,以使得弹性面团光标Cs被显示为具有从起点C1到终点C2变粗的形状。
因此,由于弹性面团光标Cs的占据面积相对于画面通常保持恒定,因此可以防止如下情形:随着弹性面团光标Cs越长,弹性面团光标Cs的占据面积越大,因此扩大了画面上被弹性面团光标Cs遮掩的部分。
因此,可以将弹性面团光标Cs的最小尺寸(即,紧挨在拖动开始之后的尺寸)设置得较大,以使得被弹性面团光标Cs遮掩的部分不会显著扩大。
4-12.其它实施例12
在上述第一和第二实施例中,CPU110被配置为以半透明方式来显示弹性面团光标Cs,以使得可以透明地查看弹性面团光标Cs的背景图像。
然而,本公开内容的实施例不限于此。相反,CPU110可根据弹性面团光标Cs的长度的改变而改变弹性面团光标Cs的透明度。
例如,如图31A所示,随着弹性面团光标Cs的长度越短,弹性面团光标Cs的透明度可变得越低。如图31B所示,随着弹性面团光标Cs的长度越长,弹性面团光标Cs的透明度可变得越高。
因此,即使当弹性面团光标Cs较长时,也可以防止弹性面团光标Cs的背景图像较少被看到。另外,当弹性面团光标Cs较短时,可以防止弹性面团光标Cs本身较少被看到。
例如,当弹性面团光标Cs的长度短于预定值时,CPU110可增加弹性面团光标Cs的透明度。当弹性面团光标Cs的长度超过预定值时,CPU110可降低弹性面团光标Cs的透明度。
然而,本公开内容的实施例不限于此。相反,CPU110可响应于弹性面团光标Cs的长度的改变而改变弹性面团光标Cs的颜色。
在该情况下,例如,在视频再现应用程序中,如上所述,根据弹性面团光标Cs的长度来设置视频的再现速度的值。这里,CPU110响应于弹性面团光标Cs的长度的改变而改变再现速度的值,并且还改变弹性面团光标Cs的颜色。
因此,在便携式终端100中,用户可以通过弹性面团光标Cs的颜色的改变来识别视频的再现速度值的改变。
例如,当一个光标分别显示在拖动的起点和终点的每个处来取代弹性面团光标Cs时,如果该光标没有被显示为大于手指,则终点处的光标完全被手指遮掩。因此,用户可能无法识别光标的颜色。然而,相反,当光标被显示为大于手指时,难以查看光标的背景图像。
因此,在根据本公开内容的实施例的便携式终端100中,如上所述,弹性面团光标Cs被显示为从拖动的起点延长到终点。因此,即使当弹性面团光标Cs不被显示为大于手指时,也会出现未被手指遮掩的部分。因此,根据本公开内容的实施例的便携式终端100被配置为使得用户可以查看弹性面团光标Cs的未被他的或她的手指遮掩的部分,并且由此可以识别弹性面团光标Cs的颜色的改变等。
然而,本公开内容的实施例不限于此。CPU110可仅利用线条而不对整个弹性面团光标Cs着色来显示弹性面团光标Cs的轮廓。另外,CPU110可在弹性面团光标Cs的起点和终点的位置显示标记(例如,圆形形状或“×”形状)。因此,用户可以更清楚地识别弹性面团光标Cs的起点和终点的位置。
然而,本公开内容的实施例不限于此。CPU110可根据弹性面团光标Cs的背景图像的颜色来设置弹性面团光标Cs的颜色(填充颜色或轮廓颜色)。在该情况下,例如,CPU110将主要包括在弹性面团光标Cs的背景图像中的颜色的互补颜色设置为弹性面团光标Cs的颜色。因此,便携式终端100可以将弹性面团光标Cs设置为不被隐藏在图像中,因此可以容易地查看弹性面团光标Cs。
然而,本公开内容的实施例不限于此。CPU110可响应于弹性面团光标Cs的方向的改变而改变弹性面团光标Cs的颜色。
在该情况下,例如,在视频再现应用程序中,如上所述,根据弹性面团光标Cs的方向来设置音量的调整方向。这里,当弹性面团光标Cs的方向从向上方向改变为向下方向或者从向下方向改变为向上方向时,CPU110改变弹性面团光标Cs的颜色。
因此,在便携式终端100中,用户可以由于弹性面团光标Cs的颜色的改变而在视觉上识别音量的调整方向的改变。
例如,在视频再现应用程序中,如上所述,当弹性面团光标Cs的方向是水平方向时,控制视频的再现速度。当弹性面团光标Cs的方向是垂直方向时,控制调整速度。这里,当弹性面团光标Cs的方向从垂直方向改变为水平方向或者从水平方向改变为垂直方向时,CPU110改变弹性面团光标Cs的颜色。
因此,由于弹性面团光标Cs的颜色改变,用户可以在视觉上识别利用弹性面团光标Cs执行的输入操作从再现速度的控制改变为音量的调整速度的控制,或者从音量的调整速度的控制改变为再现速度的控制。
然而,本公开内容的实施例不限于此。相反,CPU110可响应于对利用弹性面团光标Cs执行的输入操作进行响应而执行的处理的改变,改变弹性面团光标Cs的颜色。
在该情况下,例如,在视频再现应用程序中,如上所述,当弹性面团光标Cs的终点到达画面的中间区域200B之外时,显示内容从章节转换为章节列表。此时,CPU110将响应于利用弹性面团光标Cs执行的输入操作而执行的处理从章节的再现速度的控制改变为章节列表的滚动速度的控制,并且还改变弹性面团光标Cs的颜色。
因此,在便携式终端100中,用户可以由于弹性面团光标Cs的颜色的改变,在视觉上识别响应于利用弹性面团光标Cs执行的输入操作而执行的处理的改变。
4-13.其它实施例13
在上述第一实施例中,当拖动结束时,被配置为CPU110使弹性面团光标Cs的终点接近其起点,将延长的弹性面团光标Cs收缩至圆形形状,然后从画面消除弹性面团光标Cs。
然而,本公开内容的实施例不限于此。相反,CPU110可将弹性面团光标Cs从终点收缩至起点,显示弹起弹性部分的动画效果(例如,重复振荡几次),并且从画面消除弹性面团光标Cs。
然而,本公开内容的实施例不限于此。相反,当拖动结束时,CPU110可从画面消除弹性面团光标Cs而不用收缩弹性面团光标Cs。
4-14.其它实施例14
在上述第二实施例中,在地图显示应用程序中,被配置为当拖动的终点到达中间区域230A之外时,模式转换为弹性面团滚动模式,并且通过利用弹性面团光标Cs执行的输入操作来控制地图图像的滚动速度。
然而,本公开内容的实施例不限于此。相反,在地图再现应用程序中,当在没有拖动的终点的位置的情况下执行拖动时,通常可设置弹性面团滚动模式,并且可通过利用弹性面团光标Cs执行的输入操作来控制地图图像的滚动速度。
在该情况下,当执行拖动时,如图32所示,CPU110响应于拖动显示弹性面团光标Cs。然后,CPU110将与正显示的弹性面团光标Cs的方向相同的方向设置为地图图像的滚动方向,并且随着弹性面团光标Cs的长度越长,将滚动速度的值设置得越大。
然而,本公开内容的实施例不限于此。可取决于拖动的起点是否在画面的预定区域内,新改变正常滚动模式和弹性面团滚动模式。
图33包括33A、33B以及33C。在该情况下,如图33的33A所示,例如,作为尺寸略突出手指的矩形区域的中间区域230C被设置在地图画面230的中间。当操作地图再现应用程序时,CPU110在地图画面230上显示地图图像,并且显示表示中间区域230C的框Fr2。
当执行拖动时,CPU110确定拖动的起点是否在画面的中间区域230C内。
当拖动的起点在中间区域230C之外时,如图33的33B所示,CPU110将正常滚动模式设置为滚动模式,并且从画面消除框Fr2。
然后,CPU110根据拖动的方向和长度控制地图图像的滚动。具体地,CPU110在与拖动的方向相反的方向上将地图图像滚动与拖动长度对应的距离。
另一方面,当拖动的起点在中间区域230C内时,如图33的33C所示,CPU110将弹性面团滚动模式设置为滚动模式。此时,CPU110从画面消除框Fr2,并且在画面上显示从拖动的起点延长到终点的弹性面团光标Cs。
当显示弹性面团光标Cs时,CPU110根据弹性面团光标Cs的方向和长度来控制地图图像的滚动。
具体地,CPU110将与正显示的弹性面团光标Cs的方向相反的方向设置为地图图像的滚动方向。此外,随着弹性面团光标Cs的长度越长,CPU110将滚动速度的值设置得越大。
当拖动结束时,CPU110结束地图图像的滚动。当显示弹性面团光标Cs时,CPU110从画面消除弹性面团光标Cs并且再次显示框Fr2。
因此,当拖动的起点在中间区域230C之外时,CPU110通过一般拖动执行滚动控制。相反,当拖动的起点在中间区域230C内时,CPU110控制利用弹性面团光标Cs执行的滚动速度。
因此,在便携式终端100中,用户可以执行改变拖动的起点的简单操作,以选择通过一般拖动执行的滚动控制或者利用弹性面团光标Cs执行的滚动速度的控制。
4-15.其它实施例15
在上述第一实施例中,在音乐再现应用程序中,曲目列表的滚动方向被设置为与弹性面团光标Cs的方向相反。
然而,本公开内容的实施例不限于此。相反,在音乐再现应用程序中,曲目列表的滚动方向可被设置为与弹性面团光标Cs的方向相同。
然而,本公开内容的实施例不限于此。相反,在另一应用程序中,滚动方向可被设置为与弹性面团光标Cs的方向相同。替选地,滚动方向可被设置为与弹性面团光标Cs的方向相反。换言之,可适当地取决于各种应用程序而适当地确定滚动方向被设置为与弹性面团光标Cs的方向相同还是与弹性面团光标Cs的方向相反。
4-16.其它实施例16
在上述第一和第二实施例中,作为信息处理设备的便携式终端100被配置为包括作为操作单元和显示单元的触摸屏102和作为控制单元的CPU110。
然而,本公开内容的实施例不限于此。上述便携式终端100的各个功能单元(操作单元、显示单元以及控制单元)可由各种不同的硬件单元来配置,只要提供相同的功能即可。
4-17.其它实施例17
在上述第一和第二实施例中,用于执行各种处理的程序存储在便携式终端100的非易失性存储器111中。
然而,本公开内容的实施例不限于此。例如,便携式终端100可设置有用于存储介质(诸如存储卡)的槽,并且CPU110从插入槽中的存储介质读取程序以执行程序。此外,CPU110可将从存储介质读取的程序安装在非易失性存储器111中。此外,CPU110可经由网络接口113从网络上的设备下载程序并且将下载的程序安装在非易失性存储器111中。
4-18.其它实施例18
本公开内容的实施例不限于上述第一和第二实施例以及其它实施例。即,上述第一和第二实施例以及其它实施例的部分或全部可被任意组合,或者其部分可在本公开内容的范围内来提取。
本公开内容包含与2010年7月13日向日本专利局提交的日本优先权专利申请JP2010-172893中公开的主题内容相关的主题内容,在此通过引用将其全部内容合并于此。
本领域技术人员应理解,在所附权利要求或其等同方案的范围内,取决于设计要求和其它因素,可进行各种修改、组合、子组合和变更。

Claims (9)

1.一种信息处理设备,包括:
操作单元;以及
控制单元,当通过所述操作单元执行拖动时,执行与所述拖动对应的处理并且在显示单元上显示光标,所述光标在与所述拖动的起点相关的第一点和与所述拖动的终点相关的第二点之间弹性延长,并且所述光标的尺寸和形状中的至少一个在位于所述拖动的起点侧的一个端部与位于所述拖动的终点侧的另一端部不同,
其中,所述控制单元响应于所述拖动显示所述光标,并且当新改变所述处理时改变所显示的光标的颜色,
当所述拖动结束时,所述控制单元还执行与如下相对应的处理:通过在所述显示单元上显示所述光标的延长部分收缩回到与所述拖动的起点相关的第一点的动画效果,对弹性延长的光标进行变换。
2.根据权利要求1所述的信息处理设备,其中,所述控制单元显示具有从所述一个端部到所述另一端部变粗的形状的光标。
3.根据权利要求2所述的信息处理设备,其中,所述控制单元使所述光标随着所述光标越长而变细。
4.根据权利要求3所述的信息处理设备,其中,所述控制单元使所述光标随着所述光标越长而变细,以使得所述光标的显示面积保持恒定。
5.根据权利要求1所述的信息处理设备,其中,所述控制单元显示具有连接第一圆与第二圆的形状的光标,其中,所述第一圆以所述拖动的起点作为中心,所述第二圆大于所述第一圆并且以所述拖动的终点作为中心。
6.根据权利要求1所述的信息处理设备,其中,所述控制单元响应于所述拖动显示所述光标,并且响应于从所显示的光标的一个端部到所显示的光标的另一端部的方向和所述光标的长度中的至少一个的改变,改变所述光标的颜色。
7.根据权利要求1所述的信息处理设备,其中,所述控制单元响应于所述光标的长度的改变而改变所述光标的透明度。
8.根据权利要求1所述的信息处理设备,其中,当所述拖动结束时,所述控制单元收缩所述光标,显示弹起弹性部分的动画效果,然后消除所述光标。
9.一种显示控制方法,包括:
当通过操作单元执行拖动时,执行与所述拖动对应的处理,并且在显示单元上显示光标,所述光标在与所述拖动的起点相关的第一点和与所述拖动的终点相关的第二点之间弹性延长,并且所述光标的尺寸和形状中的至少一个在位于所述拖动的起点侧的一个端部与位于所述拖动的终点侧的另一端部不同,
其中,响应于所述拖动显示所述光标,并且当新改变所述处理时改变所述光标的颜色,
当所述拖动结束时,通过在所述显示单元上显示所述光标的延长部分收缩回到与所述拖动的起点相关的第一点的动画效果,对弹性延长的光标进行变换。
CN201110217351.4A 2010-07-30 2011-07-22 信息处理设备和显示控制方法 Active CN102346640B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610247920.2A CN105930031A (zh) 2010-07-30 2011-07-22 信息处理设备、显示控制方法以及显示控制程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010172893A JP5552947B2 (ja) 2010-07-30 2010-07-30 情報処理装置、表示制御方法及び表示制御プログラム
JP2010-172893 2010-07-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201610247920.2A Division CN105930031A (zh) 2010-07-30 2011-07-22 信息处理设备、显示控制方法以及显示控制程序

Publications (2)

Publication Number Publication Date
CN102346640A CN102346640A (zh) 2012-02-08
CN102346640B true CN102346640B (zh) 2016-05-18

Family

ID=44838256

Family Applications (3)

Application Number Title Priority Date Filing Date
CN2011202700908U Expired - Lifetime CN202433883U (zh) 2010-07-30 2011-07-22 信息处理设备
CN201610247920.2A Pending CN105930031A (zh) 2010-07-30 2011-07-22 信息处理设备、显示控制方法以及显示控制程序
CN201110217351.4A Active CN102346640B (zh) 2010-07-30 2011-07-22 信息处理设备和显示控制方法

Family Applications Before (2)

Application Number Title Priority Date Filing Date
CN2011202700908U Expired - Lifetime CN202433883U (zh) 2010-07-30 2011-07-22 信息处理设备
CN201610247920.2A Pending CN105930031A (zh) 2010-07-30 2011-07-22 信息处理设备、显示控制方法以及显示控制程序

Country Status (4)

Country Link
US (2) US9465531B2 (zh)
EP (1) EP2413228A3 (zh)
JP (1) JP5552947B2 (zh)
CN (3) CN202433883U (zh)

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5552947B2 (ja) * 2010-07-30 2014-07-16 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
US20130042208A1 (en) * 2011-08-10 2013-02-14 International Business Machines Coporation Cursor for enhanced interaction with user interface controls
US8884928B1 (en) * 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays
JP5816571B2 (ja) * 2012-02-21 2015-11-18 京セラ株式会社 携帯端末、撮影キー制御プログラムおよび撮影キー制御方法
JP6024193B2 (ja) * 2012-05-15 2016-11-09 富士ゼロックス株式会社 画像表示装置及びプログラム
CN102768617B (zh) * 2012-06-29 2016-12-28 惠州Tcl移动通信有限公司 手持式电子设备及基于触摸屏的列表项编辑的方法
US9268424B2 (en) 2012-07-18 2016-02-23 Sony Corporation Mobile client device, operation method, recording medium, and operation system
KR20140028272A (ko) * 2012-08-28 2014-03-10 삼성전자주식회사 달력을 디스플레이하기 위한 방법 및 그 전자 장치
JP6025473B2 (ja) * 2012-09-14 2016-11-16 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
US9229632B2 (en) 2012-10-29 2016-01-05 Facebook, Inc. Animation sequence associated with image
CN104756484B (zh) 2012-11-01 2018-02-23 索尼公司 信息处理设备、重放状态控制方法及计算机可读记录介质
US9245312B2 (en) 2012-11-14 2016-01-26 Facebook, Inc. Image panning and zooming effect
US9218188B2 (en) 2012-11-14 2015-12-22 Facebook, Inc. Animation sequence associated with feedback user-interface element
US9081410B2 (en) 2012-11-14 2015-07-14 Facebook, Inc. Loading content on electronic device
US9507757B2 (en) 2012-11-14 2016-11-29 Facebook, Inc. Generating multiple versions of a content item for multiple platforms
US9547416B2 (en) 2012-11-14 2017-01-17 Facebook, Inc. Image presentation
US9507483B2 (en) 2012-11-14 2016-11-29 Facebook, Inc. Photographs with location or time information
US9684935B2 (en) 2012-11-14 2017-06-20 Facebook, Inc. Content composer for third-party applications
US9607289B2 (en) 2012-11-14 2017-03-28 Facebook, Inc. Content type filter
US9547627B2 (en) 2012-11-14 2017-01-17 Facebook, Inc. Comment presentation
US9235321B2 (en) 2012-11-14 2016-01-12 Facebook, Inc. Animation sequence associated with content item
US9696898B2 (en) 2012-11-14 2017-07-04 Facebook, Inc. Scrolling through a series of content items
US9606695B2 (en) 2012-11-14 2017-03-28 Facebook, Inc. Event notification
US9606717B2 (en) 2012-11-14 2017-03-28 Facebook, Inc. Content composer
JP5817708B2 (ja) * 2012-11-22 2015-11-18 コニカミノルタ株式会社 画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラム
JP6041708B2 (ja) * 2013-03-04 2016-12-14 三菱電機株式会社 車載用情報表示制御装置、車載用情報表示装置および情報表示制御方法
CN105103567A (zh) * 2013-03-08 2015-11-25 汤姆逊许可公司 使用手势用于拍摄效果的方法和装置
US20140298267A1 (en) * 2013-04-02 2014-10-02 Microsoft Corporation Navigation of list items on portable electronic devices
CN103345354B (zh) * 2013-06-27 2017-07-18 深圳Tcl工业研究院有限公司 一种图形界面焦点形状处理的方法及系统
JP2015026257A (ja) * 2013-07-26 2015-02-05 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
KR20150024588A (ko) * 2013-08-27 2015-03-09 (주)스피치이노베이션컨설팅그룹 콘텐츠 제공 방법 및 이를 이용한 디지털 디바이스
JPWO2015072150A1 (ja) * 2013-11-15 2017-03-16 パナソニックIpマネジメント株式会社 情報表示装置及び情報表示方法
CN104679485A (zh) * 2013-11-28 2015-06-03 阿里巴巴集团控股有限公司 页面元素的控制方法及装置
EP3128408A4 (en) * 2014-04-04 2018-02-28 Colopl Inc. User interface program and game program
JP5995909B2 (ja) * 2014-05-26 2016-09-21 株式会社コロプラ ユーザインターフェースプログラム
JP6390213B2 (ja) * 2014-06-30 2018-09-19 ブラザー工業株式会社 表示制御装置、表示制御方法及び表示制御プログラム
JP6449647B2 (ja) * 2014-12-26 2019-01-09 株式会社バンダイナムコエンターテインメント 入力処理装置及びプログラム
CN104780409B (zh) * 2015-03-20 2018-05-01 广东欧珀移动通信有限公司 一种终端遥控方法及终端遥控系统
KR101656518B1 (ko) * 2015-05-14 2016-09-09 이상백 탄력 버튼을 제공하는 사용자 단말기, 그를 이용한 특정 기능 실행 방법 및 사용자 인터페이스
JP6470111B2 (ja) * 2015-05-28 2019-02-13 株式会社コロプラ メッセージ送信機能を備えたゲームプログラム、メッセージ送信方法及びメッセージ送信機能付きコンピュータ端末
JP5938501B1 (ja) * 2015-07-21 2016-06-22 株式会社コロプラ コンピュータプログラム及びタッチ操作によりゲームを進行するゲームプログラム
JP5968510B1 (ja) * 2015-08-13 2016-08-10 株式会社コロプラ インタフェース・プログラム及びコンピュータ
JP5981617B1 (ja) * 2015-08-20 2016-08-31 株式会社コロプラ ユーザ・インタフェース画像表示のためのコンピュータ・プログラムおよびコンピュータ実装方法
JP5941202B1 (ja) * 2015-08-20 2016-06-29 株式会社コロプラ インタフェース・プログラム及びコンピュータ
JP5941207B1 (ja) * 2015-09-10 2016-06-29 株式会社コロプラ ユーザ・インタフェース・プログラムおよびコンピュータ実装方法
TWI628569B (zh) * 2015-09-30 2018-07-01 蘋果公司 具有適應性輸入列之鍵盤
JP5993513B1 (ja) * 2015-11-25 2016-09-14 株式会社コロプラ 野球ゲームプログラム、ゲームプログラム及びコンピュータ
US10293253B2 (en) 2015-11-27 2019-05-21 Gree, Inc. Program, game control method, and information processing apparatus
US10219040B2 (en) 2015-12-28 2019-02-26 The Directv Group, Inc. Video frame bookmarking user interface component
US10359847B2 (en) * 2015-12-28 2019-07-23 The Directv Group, Inc. Advertisement viewing bypass prevention user interface component
US11023115B2 (en) 2015-12-28 2021-06-01 The Directv Group, Inc. Circular video player controls
JP6000482B1 (ja) * 2016-02-08 2016-09-28 株式会社コロプラ ユーザ・インタフェース画像表示方法およびプログラム
US10397632B2 (en) 2016-02-16 2019-08-27 Google Llc Touch gesture control of video playback
EP3418873A4 (en) * 2016-02-18 2019-01-16 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6097427B1 (ja) * 2016-02-29 2017-03-15 株式会社コロプラ ゲームプログラム
JP6262283B2 (ja) * 2016-05-17 2018-01-17 株式会社コロプラ 仮想空間を提供する方法、プログラム、および記録媒体
TWI729030B (zh) * 2016-08-29 2021-06-01 日商半導體能源研究所股份有限公司 顯示裝置及控制程式
JP6724172B2 (ja) * 2017-01-17 2020-07-15 アルプスアルパイン株式会社 座標入力装置
US10699746B2 (en) * 2017-05-02 2020-06-30 Microsoft Technology Licensing, Llc Control video playback speed based on user interaction
US11928483B2 (en) * 2017-05-16 2024-03-12 Apple Inc. Devices, methods, and graphical user interfaces for seamless transition of user interface behaviors
JP1617939S (zh) 2017-10-17 2018-11-12
JP1617940S (zh) 2017-10-17 2018-11-12
USD852221S1 (en) * 2017-11-07 2019-06-25 Microsoft Corporation Display screen with animated graphical user interface
JP6508658B2 (ja) * 2017-12-14 2019-05-08 株式会社コナミデジタルエンタテインメント ゲーム制御装置、ゲームシステム及びプログラム
US11641439B2 (en) * 2018-10-29 2023-05-02 Henry M. Pena Real time video special effects system and method
CN112198997A (zh) * 2019-07-08 2021-01-08 兰州大学 一种光标
CN113055611B (zh) * 2019-12-26 2022-09-02 北京字节跳动网络技术有限公司 图像处理方法及装置
CN115700444A (zh) * 2021-07-26 2023-02-07 荣耀终端有限公司 光标显示方法及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101727230A (zh) * 2008-10-17 2010-06-09 中国移动通信集团公司 一种触摸屏光标控制方法、装置和移动通信终端
CN202433883U (zh) * 2010-07-30 2012-09-12 索尼公司 信息处理设备

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU8932191A (en) * 1990-11-30 1992-06-25 Cambridge Animation Systems Limited Image synthesis and processing
US5347589A (en) * 1991-10-28 1994-09-13 Meeks Associates, Inc. System and method for displaying handwriting parameters for handwriting verification
US5434956A (en) * 1992-11-04 1995-07-18 Hewlett-Packard Company Method and apparatus for printing an image in a specified positional relationship with a preprinted registration mark
US6290848B1 (en) 1997-04-16 2001-09-18 Pur Water Purification Products, Inc. Filter cartridge for gravity-fed water treatment devices
US7760187B2 (en) * 2004-07-30 2010-07-20 Apple Inc. Visual expander
US7469381B2 (en) * 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US6677965B1 (en) * 2000-07-13 2004-01-13 International Business Machines Corporation Rubber band graphical user interface control
US20060129933A1 (en) * 2000-12-19 2006-06-15 Sparkpoint Software, Inc. System and method for multimedia authoring and playback
JP2002328040A (ja) 2001-05-01 2002-11-15 Sony Corp ナビゲーション装置、情報表示装置、画像の縮尺変更方法、記憶媒体、プログラム
JP4215549B2 (ja) * 2003-04-02 2009-01-28 富士通株式会社 タッチパネル・モードとポインティング・デバイス・モードで動作する情報処理装置
US7656406B1 (en) * 2003-10-28 2010-02-02 Adobe Systems Incorporated Representing and animating paint strokes
US7511703B2 (en) * 2004-06-28 2009-03-31 Microsoft Corporation Using size and shape of a physical object to manipulate output in an interactive display application
JP4210936B2 (ja) * 2004-07-08 2009-01-21 ソニー株式会社 情報処理装置及びこれに用いるプログラム
US20060041847A1 (en) * 2004-08-23 2006-02-23 Wai-Lin Maw Paged graphical user interface
JP2006099178A (ja) * 2004-09-28 2006-04-13 Matsushita Electric Ind Co Ltd タッチパネル装置及びタッチパネル入力方法
US7489306B2 (en) * 2004-12-22 2009-02-10 Microsoft Corporation Touch screen accuracy
US7499027B2 (en) * 2005-04-29 2009-03-03 Microsoft Corporation Using a light pointer for input on an interactive display surface
JP2006314349A (ja) * 2005-05-10 2006-11-24 Nintendo Co Ltd ゲームプログラムおよびゲーム装置
US7728818B2 (en) * 2005-09-30 2010-06-01 Nokia Corporation Method, device computer program and graphical user interface for user input of an electronic device
DE102005047650A1 (de) 2005-10-05 2007-04-12 Volkswagen Ag Eingabevorrichtung für ein Kraftfahrzeug
JP2007233339A (ja) * 2006-01-31 2007-09-13 Canon Inc 情報処理方法、情報処理装置、プログラム及び記憶媒体
KR20070113018A (ko) * 2006-05-24 2007-11-28 엘지전자 주식회사 터치스크린 장치 및 그 실행방법
KR20070113022A (ko) * 2006-05-24 2007-11-28 엘지전자 주식회사 사용자 입력에 반응하는 터치스크린 장치 및 이의 작동방법
US20090213086A1 (en) * 2006-04-19 2009-08-27 Ji Suk Chae Touch screen device and operating method thereof
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
JP4982505B2 (ja) * 2007-01-25 2012-07-25 シャープ株式会社 マルチウィンドウ管理装置及びプログラム、記憶媒体、並びに情報処理装置
US7697002B2 (en) * 2007-01-25 2010-04-13 Ricoh Co. Ltd. Varying hand-drawn line width for display
JP4764364B2 (ja) * 2007-02-23 2011-08-31 キヤノン株式会社 情報処理装置、サーバ装置、システム、情報処理方法、制御方法、表示制御方法、プログラム
TW200839577A (en) * 2007-03-16 2008-10-01 Behavior Tech Computer Corp Computer cursor control method and apparatus thereof
WO2009126143A1 (en) * 2008-04-08 2009-10-15 Hewlett-Packard Development Company, L.P. Systems and methods for launching a user application on a computing device
US20090284532A1 (en) * 2008-05-16 2009-11-19 Apple Inc. Cursor motion blurring
KR101477743B1 (ko) * 2008-06-16 2014-12-31 삼성전자 주식회사 단말 및 그의 기능 수행 방법
KR101498623B1 (ko) * 2008-06-25 2015-03-04 엘지전자 주식회사 휴대 단말기 및 그 제어방법
KR101517967B1 (ko) * 2008-07-07 2015-05-06 엘지전자 주식회사 휴대 단말기 및 그 제어방법
US20100083122A1 (en) * 2008-10-01 2010-04-01 International Business Machines Corporation Systems, methods and computer products for controlling multiple machines using a seamless user-interface to a multi-display
FR2939921B1 (fr) * 2008-12-16 2011-01-14 Thales Sa Procedes de gestion d'un parametre affiche dans un objet graphique interactif
KR101597553B1 (ko) * 2009-05-25 2016-02-25 엘지전자 주식회사 기능 실행 방법 및 그 장치
KR101387270B1 (ko) * 2009-07-14 2014-04-18 주식회사 팬택 터치 궤적에 따라 메뉴 정보를 표시하는 이동 단말기
US20110055753A1 (en) * 2009-08-31 2011-03-03 Horodezky Samuel J User interface methods providing searching functionality
KR101691823B1 (ko) * 2009-09-09 2017-01-02 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
TW201117064A (en) * 2009-11-05 2011-05-16 Wistron Corp Method of testing a cursor of a pointing device shown on a display device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101727230A (zh) * 2008-10-17 2010-06-09 中国移动通信集团公司 一种触摸屏光标控制方法、装置和移动通信终端
CN202433883U (zh) * 2010-07-30 2012-09-12 索尼公司 信息处理设备

Also Published As

Publication number Publication date
CN202433883U (zh) 2012-09-12
EP2413228A2 (en) 2012-02-01
US20120030636A1 (en) 2012-02-02
CN102346640A (zh) 2012-02-08
JP2012033060A (ja) 2012-02-16
US20160334982A1 (en) 2016-11-17
EP2413228A3 (en) 2015-12-02
US9465531B2 (en) 2016-10-11
US10156974B2 (en) 2018-12-18
JP5552947B2 (ja) 2014-07-16
CN105930031A (zh) 2016-09-07

Similar Documents

Publication Publication Date Title
CN102346640B (zh) 信息处理设备和显示控制方法
CN102346639B (zh) 信息处理设备和信息处理方法
CN102346638B (zh) 信息处理装置和信息处理方法
US11573984B2 (en) Information processing device, information processing method, and program
US8756525B2 (en) Method and program for displaying information and information processing apparatus
EP2413227B1 (en) Information processing device, information processing method, and information processing program
WO2014162659A1 (ja) 表示制御装置、表示制御方法および表示制御プログラム
CN103164152A (zh) 用于编辑视频的装置、方法和图形用户接口
CN102763066A (zh) 用于导航经过一范围的值的装置、方法和图形用户接口
AU2021202982B2 (en) Method for displaying graphical user interface based on gesture, and electronic device
KR20160053462A (ko) 단말장치 및 그 제어 방법
JP5742378B2 (ja) 情報処理装置、プレイリスト生成方法及びプレイリスト生成プログラム
KR102179431B1 (ko) 음향 출력 장치 및 그 제어 방법
JP2010237722A (ja) フォトアルバムコントローラ
KR20180032906A (ko) 전자 장치 및 이의 제어 방법
US20140304311A1 (en) Method and apparatus for processing file in portable terminal
EP2562633B1 (en) Device, method and graphical user interface for navigating and previewing content items

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20151009

Address after: Tokyo, Japan

Applicant after: LINE Corp.

Address before: Tokyo, Japan

Applicant before: Sony Corp.

C14 Grant of patent or utility model
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: Tokyo

Patentee after: AI Holding Co.,Ltd.

Address before: Tokyo, Japan

Patentee before: LINE Corp.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220121

Address after: Tokyo

Patentee after: LINE Corp.

Address before: Tokyo

Patentee before: AI Holding Co.,Ltd.