CN103176703A - 信息处理装置、信息处理方法和程序 - Google Patents

信息处理装置、信息处理方法和程序 Download PDF

Info

Publication number
CN103176703A
CN103176703A CN2012102607912A CN201210260791A CN103176703A CN 103176703 A CN103176703 A CN 103176703A CN 2012102607912 A CN2012102607912 A CN 2012102607912A CN 201210260791 A CN201210260791 A CN 201210260791A CN 103176703 A CN103176703 A CN 103176703A
Authority
CN
China
Prior art keywords
list
item
user
sub
demonstration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012102607912A
Other languages
English (en)
Other versions
CN103176703B (zh
Inventor
村田雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to CN201810194597.6A priority Critical patent/CN108334262B/zh
Publication of CN103176703A publication Critical patent/CN103176703A/zh
Application granted granted Critical
Publication of CN103176703B publication Critical patent/CN103176703B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Telephone Function (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明提供了一种信息处理装置、信息处理方法和程序。所述信息处理装置包括显示控制单元,显示控制单元被配置为显示包括分别具有列表项目的第一列表和第二列表的多个列表,并且响应于用户操作执行将作为所述第一列表的子列表的所述第二列表的列表项目结合到所述第一列表的显示。

Description

信息处理装置、信息处理方法和程序
技术领域
本公开涉及一种信息处理装置、信息处理方法和程序。
背景技术
近年来,已知在可以被用户操作的显示画面上显示多个缩略图并且允许用户选择各个缩略图的UI(用户界面)。
例如,已知从在构成运动图像数据的场景中的每隔预定时间间隔的场景创建和显示缩略图的UI。这样的UI可以通过使得用户选择给定的缩略图来从由用户想要的场景再生运动图像数据。
注意,在UI上显示的缩略图的数量根据从运动图像数据取出的场景的时间间隔来增加或减少。因此,当用户执行增加缩略图的数量的操作时,例如,UI显示更短时间间隔的场景的缩略图。作为增加或减少缩略图的数量的用户操作,已知下面的技术。
例如,在JP 2011-003977A中公开的显示装置当对运动图像数据的缩略图执行张开操作时显示更短时间间隔的缩略图。因此,用户可以容易地查看每一个场景的细节。
发明内容
然而,当在UI上显示的列表项目比如缩略图或图标的数量响应于用户操作而增加时,用户难以预先知道要向列表增加何种列表项目。
因此,期望提供一种信息处理装置、信息处理方法和程序,它们是新颖和改进的,并且允许用户预先识别要向列表增加的列表项目。
根据本公开的一个实施例,提供了一种信息处理装置,包括显示控制单元,所述显示控制单元被配置为显示包括分别具有列表项目的第一列表和第二列表的多个列表,并且响应于用户操作执行将作为所述第一列表的子列表的所述第二列表的列表项目结合到所述第一列表的显示。
根据本发明的另一个实施例,提供了一种信息处理方法,包括:显示多个列表,该多个列表包括第一列表和第二列表,所述第一列表和所述第二列表分别具有列表项目;并且,响应于用户操作执行将作为所述第一列表的子列表的所述第二列表的列表项目结合到所述第一列表的显示。
根据本发明的又一个实施例,提供了一种使得计算机执行以下处理的程序,所述处理包括:显示多个列表,该多个列表包括第一列表和第二列表,所述第一列表和所述第二列表分别具有列表项目;并且,响应于用户操作执行将作为所述第一列表的子列表的所述第二列表的列表项目结合到所述第一列表的显示。
如上所述,根据本公开,通过显示要结合到第一列表的第二列表并且响应于用户操作而执行将所述第二列表结合到所述第一列表的显示,变得可以允许用户在完成所述结合前预先识别要增加的列表项目。
如上所述,根据本公开,可以允许用户预先识别要向列表增加的列表项目。
附图说明
图1是图示本公开的一个实施例的概要的图;
图2是示出根据该实施例的信息处理装置的配置的配置框图;
图3是示出根据该实施例的多个列表的示例性显示的图;
图4是图示根据该实施例的结合多个列表的动画的画面转换图;
图5是图示根据该实施例的张开操作的图;
图6是图示根据该实施例的当与张开操作相结合地结合列表时的动画的画面转换图;
图7是图示根据该实施例的另一个张开操作的图;
图8是图示根据该实施例的捏合操作的图;
图9是图示根据该实施例的当与捏合操作相结合地分离列表时的动画的画面转换图;
图10是图示根据该实施例的拖动操作的图;
图11是图示根据该实施例的当与拖动操作相结合地结合列表时的动画的画面转换图;
图12是图示根据该实施例的放大按钮和缩小按钮的图;
图13是示出根据该实施例的滑动条的图;
图14是示出根据该实施例的其中竖直地布置多个列表的示例性显示的图;
图15是示出根据该实施例的其中多个列表重叠的示例性显示的图;
图16是示出根据该实施例的其上显示分别包括多个缩略图的多个列表的画面的图;
图17是示出当结合图16中所示的多个列表时获得的结果的图;
图18是示出当分离图16中所示的多个列表时获得的结果的图;
图19是示出根据该实施例的显示基于与音乐数据相关的信息创建的多个列表的画面的图;
图20是示出当结合图19中所示的多个列表时获得的结果的图;
图21是示出当图19中所示的两个子列表结合到目标列表时获得的结果的图;
图22是示出根据该实施例的显示目标列表的画面的图;
图23是图示根据该实施例的当与张开操作相结合地结合列表时的动画的画面转换图;
图24是示出根据该实施例的列表显示单个列表的画面的图;
图25是示出根据该实施例的当正在结合列表时的动画的画面的图;
图26是示出根据该实施例的当完成列表的结合时的画面的图;
图27是示出根据该实施例的根据张开/捏合操作的移动量或移动速度而结合/分离列表的显示控制处理的流程图;
图28是示例性地示出根据该实施例的捏合/张开操作的移动量和移动速度的计算的表格;以及
图29是图示当与张开操作相结合地结合列表时改变动画的示例的画面转换图。
具体实施方式
以下,将参照附图详细描述本公开的优选实施例。注意,在本说明书和附图中,使用相同的参考标号来表示具有基本上相同的功能和结构的结构元件,并且省略对这些结构元件的重复说明。
注意,按下面的顺序来进行描述。
1.本公开的实施例
1-1.概要
1-2.基本配置
2.多个列表的结合/分离
2-1.多个列表的结合
2-2.列表的分离
2-3.用户操作
2-4.多个列表的其他示例性显示
2-5.显示的信息的改变
3.单个列表的列表项目的结合/分离
3-1.单个列表的列表项目的结合
3-2.列表项目的分离
3-3.列表显示
4.操作处理
5.结论
可以以在上面的“1.本公开的实施例”至“4.操作处理”中所述的各种形式来执行在此所述的根据本公开的技术。另外,根据本公开的一个实施例的信息处理装置10包括(A)显示控制单元(GPU 112),其显示分别包括列表项目的多个列表,并且响应于用户操作执行将作为第一列表的子列表的第二列表的列表项目结合到第一列表的显示。
<1.本公开的实施例>
[1-1.概要]
图1是图示本公开的一个实施例的概要的图。如图1中所示,根据该实施例的信息处理装置10包括显示器15和与显示器15集成的触摸面板16。
信息处理装置10在显示器15上显示列表,每一个列表具有列表项目21。例如,信息处理装置10显示分别具有列表项目21的目标列表23和多个子列表25,如图1中所示。子列表25显示比目标列表23更详细的信息。在该实施例中,将目标列表23显示为要由用户操作的列表。然而,子列表25也可以由用户操作。
当用户已经执行某个操作时或当应用的内部状态已经改变时,信息处理装置10改变显示列表的方法。更具体地,信息处理装置10执行显示控制,以使得响应于触摸面板16检测的用户操作来结合/分离列表。当结合列表时,信息处理装置10通过例如将子列表25逐渐地移动得更接近目标列表23来将子列表25结合到目标列表23。同时,当分离列表时,信息处理装置10通过例如逐渐地从目标列表23分离地布置列表项目21来创建新的子列表25。
当结合/分离显示器15上显示的列表时,信息处理装置10执行逐渐地改变显示画面上的每一个列表项目的控制。因此,用户能够在列表的结合/分离完成前预先查看要结合到目标列表23的列表项目或要从目标列表23分离的列表项目21。另外,用户还能够在查看要结合/分离的列表项目21的同时在结合/分离完成前取消结合/分离的显示控制。
子列表25是目标列表23的辅助列表。因此,如上所述,子列表25已经在其中布置了呈现比目标列表23更详细的信息的列表项目21。因此,当结合列表时,由目标列表23呈现的信息变得更详细。在下面的[2-5.显示的信息的改变]中详细描述了通过列表的结合/分离在每一个列表的显示的信息中的改变。
以上已经描述了根据本公开的一个实施例的信息处理装置10的概要。接下来,将参照图2来描述根据该实施例的信息处理装置10的配置。
[1-2.基本配置]
图2是示出根据该实施例的信息处理装置10的配置的配置框图。如图2中所示,信息处理装置10包括控制单元11、RAM(随机存取存储器)12、存储介质13、显示处理单元14、显示器15、触摸面板16、操作单元17和通信单元18。
控制单元11用作算术处理单元和控制单元,并且控制信息处理装置10的每一个部件。更具体地,如图2中所示,根据该实施例的控制单元11包括CPU(中央处理单元)111和GPU(图形处理单元)112。
CPU111根据各种程序来控制信息处理装置10的每一个部件。另外,CPU 111也可以是微处理器。
GPU 112是显示控制单元,该显示控制单元生成要在显示器15上显示的图像或响应于用户操作来改变显示画面。更具体地,GPU 112执行显示控制,以使得在显示器15上显示多个列表,每一个列表中布置了列表项目21。另外,GPU 112响应于用户操作来执行显示控制,以使得作为第一列表的子列表的第二列表的列表项目21结合到第一列表。
替代地,GPU 112可以执行显示控制,以使得在显示器15上显示单个列表,该单个列表中布置了列表项目21。在该情况下,GPU 112可以执行显示控制以使得响应于用户操作在列表中逐渐出现新的列表项目。
同时,GPU 112还可以执行显示控制以使得响应于用户操作从第一列表逐渐地分离列表项目21,并且,通过布置分离的列表项目21来创建新的列表。
GPU 112响应于由触摸面板16检测的用户操作来执行这样的结合/分离列表的显示控制。例如,当检测到张开/捏合操作时,GPU 112执行显示控制,以使得根据在触摸触摸面板16的两个手指之间的距离的改变来结合/分离列表。替代地,GPU 112可以执行显示控制,以使得根据触摸触摸面板16的手指的移动量或移动速度来结合/分离列表。注意,将在<2.多个列表的结合/分离>至<4.操作处理>中详细描述响应于用户操作而执行的GPU 112的显示控制。
RAM(随机存取存储器)12暂时存储在控制单元11的运行中使用的程序和在运行期间适当地改变的参数等。
存储介质13存储由控制单元11使用的程序和操作参数等。存储介质13还存储诸如运动图像数据和音乐文件的内容。
注意,存储介质13可以例如是:非易失性存储器,比如快闪ROM(或快闪存储器)、EEPROM(电子可擦除可编程只读存储器)或EPROM(可擦除可编程ROM);磁盘,比如硬盘或盘形磁体;光盘,比如CD(致密盘)、DVD-R(可记录的数字多功能盘)或BD(Blu-Ray Disc(蓝光盘,注册商标));或者,比如MO(磁光)盘的存储介质。
显示处理单元14使得显示器15根据GPU 112的显示控制来输出从GPU 112输出的图像数据。
显示器15是显示装置,其输出从显示处理单元14输入的显示画面。该显示器15可以例如是显示装置,比如液晶显示器(LCD)或有机EL(电致发光)显示器。另外,根据该实施例的显示器15例如显示包括列表项目21的列表。
触摸面板16是检测画面上的用户操作的检测单元。例如,触摸面板16检测输入物体比如触摸画面的手指的位置(操作位置),并且根据操作位置随时间的改变检测用户操作。触摸面板16检测的用户操作的示例包括张开、捏合、拖动、轻拂、轻击和双击。与显示器15一体地设置触摸面板16。另外,触摸面板16向控制单元11输出所检测的用户操作。虽然在该实施例中将触摸面板16给出为检测单元的示例,但是根据本公开的信息处理装置10不限于此。例如,信息处理装置10可以使用检测非接触状态的用户操作的检测单元,比如接近传感器。
操作单元17接收用户的操作指令,并且向控制单元11输出关于操作的信息。该操作单元17可以是物理结构比如按钮或开关。
通信单元18是与通信终端进行通信的模块。具体地,通信单元18包括:接收单元,其从通信终端接收数据;以及,发送单元,其向通信终端发送数据。另外,通信单元18可以经由短距离无线通信比如Wi-Fi或蓝牙来发送和接收数据。
以上已经详细描述了根据该实施例的信息处理装置10的配置。接下来,将参照具体示例具体描述信息处理装置10的GPU 112执行的显示控制。
<2.多个列表的结合/分离>
GPU 112如上所述显示多个列表,并且响应于用户操作将子列表25结合到目标列表23或将列表项目21从目标列表23分离,由此增加/减少所显示的列表项目21的数量(列表项目的数量)。以下,将参照附图依序描述多个列表的结合和列表的分离。
[2-1.多个列表的结合]
图3是示出多个列表的示例性显示的图。如图3中所示,GPU 112执行控制以使得在显示器15上显示画面31,画面31显示分别包括列表项目21的目标列表23和多个子列表25。
如图3中所示,以比在目标列表23之上显示的子列表25a的列表项目21大的尺寸来显示目标列表23的列表项目21。另外,以比在子列表25a之上显示的子列表25b的列表项目21大的尺寸来显示子列表25a的列表项目21。
当如上所述显示多个列表时,如果检测到指示列表的结合的用户操作,则GPU 112执行显示控制,以使得子列表25的列表项目21逐渐地移动得更接近目标列表23,从而结合到目标列表23。例如,使用诸如图4中所示的动画来执行列表的结合。
图4是图示多个列表的结合的动画的画面转换图。如图4中的画面33中所示,GPU 112显示目标列表23和子列表25。当检测到指示列表的结合的用户操作时,GPU 112执行显示控制以使得如画面35中所示结合列表。
具体地,如画面35中所示,GPU 112加宽目标列表23的每一个列表项目之间的空间,并且将子列表25a的每一个列表项目移向目标列表23的每一个列表项目之间的空间。如上所述,当要结合到目标列表23的列表项目逐渐地向目标列表23移动时,用户能够在结合完成前查看要通过结合增加的列表项目。另外,在该情况下,GPU 112逐渐地将子列表25b的位置降低一层,并且如画面35中所示调整子列表25b的列表项目的尺寸。
然后,如画面37中所示,GPU 112调整子列表25a的列表项目的尺寸和位置以使得它们变得均匀,并且结束结合。与结合前的目标列表23相比,结合后获得的目标列表23x具有增大的信息量。
另外,在图4中所示的示例中,当GPU 112已经结合了子列表25a时,剩余的子列表的每一个被显示在低一层的位置处。因此,新的子列表25c如画面37中所示出现。
如上所述,当根据该实施例的GPU 112在画面上显示多个列表并且响应于用户操作移动要增加的列表的每个列表项目21时,用户变得可以在结合完成前预先查看要通过结合增加的列表项目21。另外,虽然GPU 112显示在各个层细化的子列表25,但是当达到细化极限时,所显示的子列表25的数量变为零。因此,用户能够直观地了解目标列表23的细化不再可能。
以上已经描述了多个列表的结合。虽然上述示例示出其中子列表25a结合到目标列表23的情况,但是根据本公开的多个列表的结合不限于此。例如,在多层处的子列表比如子列表25a和子列表25b可以结合到目标列表23。
[2-2.列表的分离]
接下来,将描述列表的分离。GPU 112首先响应于用户操作从目标列表23分离预定数量的列表项目,由此减小目标列表23的信息量。然后,GPU1 12通过布置从目标列表23分离的列表项目21来创建新的子列表25,由此完成列表的分离。
GPU 112可以以与在图4中的画面33至画面37中所示的结合列表的动画的顺序相反的顺序来执行这样的分离列表的动画。具体地,GPU 112执行显示控制,以使得要从目标列表23分离的列表项目21逐渐地在尺寸上变小,并且从目标列表23移开。然后,GPU 112通过布置所分离的列表项目21来创建新的子列表25。
如上所述,当根据该实施例的GPU 112逐渐地改变要从目标列表23分离的列表项目21的显示时,用户能够预先查看要通过分离减少的列表项目21。
以上已经描述了列表的分离。注意,可以在一个或多个层处布置要在从目标列表23分离后新创建的各个子列表25。
[2-3.用户操作]
与各种用户操作相结合地执行上述的列表的结合/分离。用户操作的示例包括张开操作、捏合操作、拖动操作、轻拂操作、轻击/双击操作和按钮/条操作。以下,将参照附图依序描述GPU 112响应于每一个检测的用户操作而执行的列表的结合/分离。
(张开操作)
当检测到张开操作时,GPU 112根据张开操作来结合列表。注意,张开操作指的是当使用两个手指触摸画面上的两点时加宽在两个手指之间的间隙的触摸操作。以下,将参照图5和6来进行具体描述。
图5是图示用户的张开操作的图。如图5中的画面39中所示,当检测到对目标列表23的张开操作时,GPU 112结合列表。
图6是图示当与张开操作相结合地结合列表时的动画的画面转换图。如图6中的画面41中所示,在触摸列表项目A2和列表项目A3的情况下,执行加宽在触摸位置之间的间隙d1的操作(张开操作)。GPU 112根据用户的触摸位置来移动列表项目A2和列表项目A3的显示位置。
接下来,如在画面43中所示,当在触摸位置之间的间隙d2超过阈值时,子列表25a的列表项目B2自动地移动并且被插入在列表项目A2和列表项目A3之间的空间中。此时,子列表25a的其他列表项目比如列表项目B1和列表项目B3类似地被插入在目标列表23的每一个列表项目之间的空间内。注意,当检测到将执行张开操作的两个手指的触摸位置之间的间隙变窄的操作时,GPU 112执行显示控制以使得取消列表的结合,并且将列表项目B2等恢复到它们的初始显示位置。
然后,如在图6中的画面45中所示,GPU 112将插入在列表项目A2和列表项目A3之间的空间内的列表项目B2放大为与目标列表23的每一个列表项目的尺寸类似的尺寸,从而完成列表的结合。
如上所述,GPU 112根据张开操作将画面上显示的子列表25结合到目标列表23,由此增大目标列表23的信息量。当在画面上显示要结合的子列表25时,用户能够预先查看要结合到目标列表23的子列表25的列表项目21。
另外,用户还能够在查看通过结合增加的信息的同时在列表的结合完成前取消列表的结合。
虽然图6中所示的示例图示了其中结合单个子列表25的视图,但是根据该实施例的通过张开操作的列表的结合不限于此,并且GPU 112可以根据张开操作的幅度来在多层执行结合。例如,当在触摸位置之间的间隙d2超过列表项目B2的宽度的两倍时,GPU 112执行在两层处的结合。即,GPU 112执行显示控制,以使得子列表25a和子列表25b结合到目标列表23。
另外,虽然上述实施例描述了检测使用两个手指触摸目标列表23的两个列表项目并且加宽手指之间的间隙的张开操作,但是根据该实施例的张开操作的位置不限于此。不论在画面上的哪个位置检测到张开操作,GPU 112都根据触摸位置之间的间隙d的宽度和在触摸画面的情况下加宽间隙d的移动来结合列表。
将参照图7来描述张开操作的检测位置的应用的示例。图7是图示用户的另一个张开操作的图。如图7中的画面47中所示,用户执行在给定位置、例如在单个列表项目上加宽在两个手指之间的间隙的张开操作。然后,GPU 112根据在两个手指之间的加宽的间隙d5的距离来结合列表。
(捏合操作)
当检测到捏合操作时,GPU 112根据捏合操作来分离列表。注意,捏合操作指的是当使用两个手指触摸画面上的两点时将两个手指之间的间隙变窄的触摸操作。以下,将参照图8和9具体进行描述。
图8是图示用户的捏合操作的图。如图8中的画面49中所示,当检测到在目标列表23上的捏合操作时,GPU 112分离列表。
图9是图示当与捏合操作相结合地分离列表时的动画的画面转换图。如图9中的画面51中所示,在触摸列表项目A2和列表项目A4的情况下,执行使触摸位置之间的间隙d3变窄的操作(捏合操作)。GPU 112移动列表项目A2和列表项目A4的显示位置,以使得它们根据用户的触摸位置移动得彼此更接近。另外,GPU 112显示列表项目A3,以使得列表项目A3根据捏合操作逐渐地收缩。
接下来,如在画面53中所示,当在触摸位置之间的间隙d4超过阈值时,GPU 112执行显示控制以使得列表项目A3从目标列表23移开并且与其分离。此时,目标列表23的其他列表项目,例如布置在目标列表23中的每隔一个列表项目,比如列表项目A1和列表项目A5,自动地移动从而被分离。注意,当检测到加宽在执行捏合操作的两个手指的触摸位置之间的间隙的操作时,GPU 112执行显示控制以使得取消列表的分离,并且将列表项目A3等恢复到它们的初始显示位置。
然后,如图9中的画面55中所示,GPU 112通过布置从目标列表23分离的列表项目A1、A3和A5来创建新的子列表25x。另外,如在画面55中所示,GPU 112调整其列表项目的数量已经通过列表的分离而减少的目标列表23x的每一个列表项目的显示位置。
如上所述,GPU 112根据捏合操作从在画面上显示的目标列表23分离预定数量的列表项目,并且通过布置预定数量的分离的列表项目来创建新的子列表25x。
当从目标列表23分离的列表项目逐渐收缩时,用户能够在分离完成前预先查看要分离哪些列表项目。
另外,用户还能够在查看通过分离被减少的目标列表23的信息的同时在列表的分离完成前取消列表的分离。
虽然在图9中所示的示例图示了其中创建一个或更多个新的子列表25x的视图,但是根据该实施例的通过捏合操作的列表的分离不限于此,并且GPU 112可以根据捏合操作来新创建多个子列表25。例如,如果当触摸位置之间的间隙d3是列表项目的宽度的两倍时执行捏合操作,则GPU 112新创建两个子列表25。
另外,虽然上述实施例描述了当使用两个手指触摸目标列表23的两个列表项目的同时将手指之间的间隙变窄的捏合操作,但是根据该实施例的捏合操作的位置不限于此。不论在画面上的哪个位置检测到捏合操作,GPU 112都根据在触摸位置之间的间隙d的宽度和在触摸画面的情况下将间隙d变窄的移动来分离列表。
(拖动操作)
接下来,将描述GPU 112根据拖动操作结合/分离列表的情况。注意,拖动操作指的是在使用手指触摸画面上的一个点的同时移动手指的触摸操作。以下,参照图10和11来描述与拖动操作相结合地执行的列表的结合。
图10是图示用户的拖动操作的图。如在图10中的画面57中所示,当检测到将子列表25a的列表项目B2向目标列表23移动的拖动操作时,GPU 112结合列表。
图11是图示当与拖动操作相结合地结合列表时的动画的画面转换图。如图11中的画面61中所示,GPU 112根据拖动操作在向下的方向上移动列表项目B2,并且还在向下的方向上移动操作目标子列表25a的其他列表项目B1和B3。另外,GPU 112执行显示控制以使得当列表项目B2移动得更接近目标列表23时,在目标列表23的每一个列表项目之间的空间加宽。
接下来,如图11中的画面63中所示,用户将列表项目B2拖动到目标列表23的每一个列表项目之间的加宽的空间,然后将触摸的手指抬起离开画面。
在此,GPU 112可以接受列表的结合的取消,直到列表项目B2被拖动到在目标列表23中的预定位置。例如,当检测到在触摸状态中在向上方向上移回列表项目B2的拖动操作时,GPU1 12执行显示控制以使得将每一个列表项目的位置恢复到初始位置。
然后,如图11中的画面65中所示,GPU 112放大被拖动到目标列表23中的位置的列表项目B2,以使得列表项目B2的尺寸变得类似于目标列表23的每一个列表项目的尺寸,从而完成列表的结合。
如上所述,GPU 112根据拖动操作来将画面上显示的子列表25结合到目标列表23,并且增大目标列表23的信息量。当在画面上显示要结合的子列表25时,用户能够预先查看要结合到目标列表23的子列表25的列表项目21。
另外,用户还能够在查看通过结合增加的信息的同时在列表的结合完成前取消列表的结合。
以上已经描述了通过拖动操作的列表的结合。接下来,将描述通过拖动操作的列表的分离。
当检测到在向上方向上拖动目标列表23的列表项目的操作时,GPU112分离列表。作为当分离列表时的动画,例如,当在向上方向上拖动列表项目A2时,GPU 112显示列表项目A2以使得它逐渐地变小。另外,GPU 112同时显示要从目标列表23分离的其他列表项目A,以使得在向上方向上移动它们的同时它们逐渐地变小。
另外,GPU 112布置其列表项目的数量已经通过列表的分离减少的目标列表23的剩余的列表项目的每一个,以使得在每一个列表项目之间的空间变窄。
另外,GPU 112通过布置从目标列表23分离的列表项目来创建新的子列表,以使得它们在目标列表23之上排列,由此完成列表的分离。
以上已经描述了通过拖动操作的列表的结合/分离。通过经由拖动操作移动单个列表项目来执行这样的列表的结合/分离。然而,也可以通过轻拂操作而不是拖动操作来移动单个列表项目。以下,将描述与轻拂操作相结合地执行的列表的结合/分离。
(轻拂操作)
轻拂操作指的是在使用手指触摸画面上的一个点的同时轻轻地将手指在一个方向上扫过的触摸操作。GPU 112通过轻拂操作来结合/分离列表。
当通过轻拂操作来结合列表时的动画大体类似于参照图11所述的当通过拖动操作来结合列表时的动画。例如,当检测到使用手指触摸子列表25的列表项目B2并且在向下方向上扫过手指的操作时,GPU 112在向下方向上移动子列表25a的每一个列表项目。另外,GPU112执行显示控制以使得在目标列表23的每一个列表项目之间的空间加宽。
然后,子列表25a的每一个列表项目移动到目标列表23的每一个列表项目之间的加宽的空间。GPU 112将子列表25a的移动的列表项目的每一个放大为与目标列表23的每一个列表项目的尺寸类似的尺寸,由此完成列表的结合。
注意,当GPU 112根据用户的轻拂速度移动列表项目B2时,可能存在下述情况:其中,取决于轻拂速度列表项目B2可能未达到目标列表23中的点。在这样的情况下,GPU 112可以执行显示控制,以使得每一个列表项目的显示位置恢复到初始位置。
以上已经描述了通过轻拂操作的列表的结合。接下来,将描述通过轻拂操作的列表的分离。
当检测到在向上方向上轻拂目标列表23的列表项目的操作时,GPU112分离列表。作为当分离列表时的动画,例如当在向上方向上轻拂列表项目A2时,GPU 112在逐渐以较小的尺寸来显示列表项目A2的同时在向上方向上移动列表项目A2。同时,GPU 112还在向上方向上移动从目标列表23分离的其他列表项目A的同时以较小的尺寸来显示它们。
GPU 112布置其列表项目的数量已经通过列表的分离减少的目标列表23的剩余列表项目的每一个,以使得在每一个列表项目之间的空间变窄。
然后,GPU 112通过在目标列表23之上排列从目标列表23分离的列表项目来创建新的子列表,由此完成列表的分离。
(轻击/双击操作)
另外,GPU 112可以与轻击/双击操作相结合地结合/分离列表。例如,子列表25a的被轻击/双击的列表项目的每一个移动到图4中所示的目标列表23的每一个列表项目之间的空间,由此完成列表的结合。
同时,当对目标列表23执行轻击/双击操作时,GPU 112从目标列表23分离预定数量的列表项目,由此减少目标列表23的信息量。然后,GPU112通过布置从目标列表23分离的列表项目来创建新的子列表,由此完成列表的分离。
(按钮/条操作)
GPU 112还可以响应于对按钮或条的用户操作来结合/分离列表。以下,将参照图12和13来具体进行描述。
图12是示出了放大按钮27和缩小按钮28的图。当检测到在图12中所示的放大按钮27上的用户操作时,GPU 112从目标列表23分离预定数量的列表项目,并且通过布置分离的列表项目来创建新的子列表25,由此完成列表的分离。
同时,当检测到在图12中所示的缩小按钮28上的用户操作时,GPU112将子列表25的每一个列表项目移动到目标列表23的每一个列表项目之间的空间,并且调整每一个移动的列表项目的尺寸,由此完成列表的结合。
图13是示出滑动条29的图。当检测到在“-”方向上移动在图13中所示的滑动条29的旋钮的用户操作时,GPU 112从目标列表23分离预定数量的列表项目。然后,GPU 112通过布置分离的列表项目来创建新的子列表25,由此完成列表的分离。
同时,当检测到在“+”方向上移动在图13中所示的滑动条29的旋钮的用户操作时,GPU 112将子列表25的每一个列表项目移动到目标列表23的每一个列表项目之间的空间,并且调整每一个移动的列表项目的尺寸,由此完成列表的结合。
注意,当滑动条29的旋钮移动得更接近“减”符号时,GPU 112减少通过列表项目的结合/分离改变的目标列表23的信息量,并且当滑动条29的旋钮移动得更接近“加”符号时,GPU 112增大目标列表23的信息量(提高细化层级)。
已经详细描述了与用户操作相结合地执行的多个列表的结合/分离。接下来,将描述用于显示这样的多个列表的另一种方法。
[2-4.多个列表的其他示例性显示]
在图1中所示的示例中,GPU 112以逐步的方式在竖直方向上显示多个列表,其中每一个列表具有在水平方向上布置的列表项目21。然而,根据该实施例的显示多个列表的方法不限于图1中所示的示例。以下,将参考图14和15来描述显示多个列表的另一个示例。
图14是示出其中竖直地布置多个列表的示例性显示的图。如图14中所示,GPU 112以逐步的方式在水平方向上布置多个列表,其中每一个列表具有竖直方向上布置的列表项目21。在该情况下,当检测到在目标列表23上的张开/捏合操作时,例如,GPU 112结合/分离列表。
图15是示出其中多个列表重叠的示例性显示的图。如在图15中的画面69中所示,GPU 112显示目标列表23以使得它与子列表25重叠。用户能够查看在目标列表23的每一个列表项目之间的子列表25的每一个列表项目。
当检测到以这种方式显示的目标列表23上的张开操作时,GPU 112根据在图15中的画面71中所示的张开操作来在水平方向上移动目标列表23的每一个列表项目。同时,GPU 112还执行控制以使得子列表25的每一个列表项目逐渐地被放大,由此显示目标列表23x,其中子列表25结合到目标列表23x。
[2-5.显示的信息的改变]
接下来,将描述如何通过列表的结合/分离来改变显示的列表的信息。如上所述,当结合列表时,目标列表23的列表项目的数量增加,并且当分离列表时,目标列表23的列表项目的数量减少。以下将参照具体示例来详细描述根据列表项目的数量(信息量)的改变在显示的目标列表23的信息上的这样的改变。
(第一示例:信息的粒度)
作为第一示例,当目标列表23的列表项目的数量增加时,信息的粒度变细,并且当目标列表23的列表项目的数量减少时,信息的粒度变粗。将参照图16至图18来具体描述信息的粒度。图16至18示例性地图示了从每隔预定时间段的运动图像数据的场景创建的作为列表项目的缩略图。
图16是显示多个列表的画面72的图,每一个列表包括多个缩略图。如图16中所示,目标列表73是其中布置了每隔一分钟的运动图像数据的场景的列表。
另外,如图16中所示,子列表75a是其中布置了场景的列表,每一个场景要被插入在每隔一分钟的目标列表73的场景之间。例如,子列表75a包括其中布置的:4:30的缩略图,其要被插在目标列表73的4:00的缩略图和5:00的缩略图之间;5:30的缩略图,其要被插在目标列表73的5:00的缩略图和6:00的缩略图之间;以及6:30的缩略图,其要被插在目标列表73的6:00的缩略图和7:00的缩略图之间;等等。
另外,如图16中所示,子列表75b是其中布置了场景的列表,其中每两个要被插在子列表75a中布置的场景之间。例如,布置了要在子列表75a的4:30的缩略图和5:30的缩略图之间插入的4:45和5:15的缩略图。
然后,当检测到指示结合图16中所示的多个列表的用户操作时,GPU112将子列表75a结合到目标列表73,由此,目标列表73的列表项目的数量增加。将参照图17来描述其中图16中所示的目标列表73的列表项目的数量增加的情况。
图17是示出当结合图16中所示的多个列表时获得的结果的图。通过将在图16中所示的子列表75a结合到目标列表73来获得图17中所示的目标列表73x。通过列表的结合,目标列表73x的列表项目的数量增加,以使得布置每隔30秒的缩略图。如上所述,当通过列表的结合增加列表项目的数量时,信息的粒度变细。
图18是示出当分离图16中所示的多个列表时获得的结果的图。通过从图16中所示的目标列表73分离列表来获得图18中所示的目标列表73y。另外,图18中所示的子列表75x是通过布置从图16中所示的目标列表73分离的列表项目来新创建的子列表。通过列表的分离,目标列表73y的列表项目的数量减少,以使得布置每隔两分钟的列表项目。如上所述,当通过列表的分离来减少列表项目的数量时,信息的粒度变粗。
(第二示例:信息的类型)
作为第二示例,当目标列表73的列表项目的数量增加时,信息的类型增加,并且,当目标列表73的列表项目的数量减少时,信息的类型减少。将参照图19至21来具体描述信息的类型。图19至21示例性地图示与音乐数据相关的信息的类型作为列表项目。
图19是示出显示基于与音乐数据相关的信息创建的多个列表的画面81的图。如图19中所示,目标列表83是其中布置了音乐专辑的封面图像的列表。
子列表85a是其中布置了在每一个音乐专辑上的各首音乐的名称的列表的列表。另外,子列表85b是其中布置了每一首音乐的歌词的列表。
当检测到指示图19中所示的多个列表的结合的用户操作时,GPU 112将子列表85a结合到目标列表83,由此,目标列表83的列表项目的数量增加。将参照图20来描述图19中所示的目标列表83的列表项目的数量增加的情况。
图20是示出当结合图19中所示的多个列表时获得的结果的图。通过将图19中所示的子列表85a结合到目标列表83获得图20中所示的目标列表83x。通过列表的结合,目标列表83x的列表项目的数量增加,并且,布置音乐封面的图像和各首音乐的列表。如上所述,当通过列表的结合来增加列表项目的数量时,信息的类型增加。
注意,如图20中所示,GPU 112可以改变用于在目标列表83x中的每一个相关信息(列表项目)的背景。
图21是示出当图19中所示的两个子列表85结合到目标列表时获得的结果的图。通过将图19中所示的子列表85a和子列表85b结合到目标列表83获得图21中所示的目标列表83y。通过列表的结合,目标列表83y的列表项目的数量增加,并且布置音乐封面的图像、各首音乐的列表和每一首音乐的歌词。如上所述,当通过列表的结合来增加列表项目的数量时,信息的类型增加。
注意,在图21中所示的示例中,对于目标列表83y中的每一个相关信息(列表项目)也可以改变背景。另外,如图21中所示,GPU 112也可以将子列表85a和子列表85b的每一个结合到目标列表83,而不改变子列表85a和子列表85b的每一个列表项目的显示尺寸。
信息的类型不限于与作为图19和21的示例给出的音乐数据相关的信息的类型。例如,可以根据运动图像数据的每一个场景的热情程度来以逐步的方式对信息的类型进行分类。具体地,控制单元11预先分析运动图像数据,并且GPU1 12通过布置具有最高热情程度的场景的缩略图来创建第一列表。然后,GPU 112通过结合来向第一列表增加具有其次最高热情程度的场景。
在与多个列表的结合/分离相关联的显示信息中的上述改变对于<3.单个列表的列表项目的结合/分离>也成立。
<3.单个列表的列表项目的结合/分离>
如上所述,根据该实施例的GPU 112也可以响应于用户操作来显示单个列表,并且结合/分离该列表的列表项目。GPU 112响应于指示列表的结合的用户操作来增加所显示的单个列表的列表项目的数量。
另外,GPU 112响应于指示列表的分离的用户操作来减少所显示的单个列表的列表项目的数量,并且通过布置从单个列表分离的列表项目来创建新的子列表。
在此,指示单个列表的列表项目的结合/分离的用户操作的示例包括在[2-3.用户操作]中所述的张开/捏合操作、轻击/双击操作和按钮/条操作。对于下面描述的单个列表的列表项目的结合/分离的具体控制,将示例性地描述其中将张开/捏合操作检测为用户操作的情况。
[3-1.单个列表的列表项目的结合]
GPU 112响应于指示列表的结合的用户操作使得新的列表项目逐渐地出现在列表中,由此增加列表项目的数量。以下,将参照图22和23来描述单个列表的列表项目的结合。
图22是示出显示目标列表93的画面91的图。如图22中所示,检测张开操作:使用两个手指触摸目标列表93的列表项目A2和A3,并且在触摸画面的情况下加宽在两个触摸位置之间的间隙。然后,GPU 112根据张开操作来结合目标列表93的列表项目。
图23是图示当与张开操作相结合地结合列表项目时的动画的画面转换图。如图23中的画面95中所示,执行在触摸列表项目A2和列表项目A3的情况下增大在两个触摸位置之间的间隙的操作(张开操作)。GPU 112根据用户的触摸位置来移动列表项目A2和列表项目A3的显示位置。
接下来,如画面97和画面99中所示,新的列表项目逐渐地出现在通过张开操作加宽的目标列表93的每一个列表项目之间的空间中。
然后,GPU 112放大使得出现在目标列表93的每一个列表项目之间的列表项目,以使得列表项目的尺寸变得类似于目标列表93的每一个列表项目的尺寸,由此完成列表项目的结合。
注意,GPU 112可以当检测到将执行张开操作的两个手指的触摸位置之间的间隙变窄的操作时取消列表项目的结合,并且隐藏新的列表项目。
如上所述,当GPU 112根据张开操作使得新的列表项目逐渐地出现在目标列表93中时,用户能够预先查看要结合到目标列表93的列表项目。
另外,用户还能够在查看通过结合增加的信息的同时在完成列表项目的结合前取消列表项目的结合。
[3-2.列表项目的分离]
GPU 112可以根据捏合操作来使得单个显示的目标列表的预定数量的列表项目逐渐地消失,从而分离列表项目。当目标列表中的列表项目逐渐地消失时,用户能够预先查看要从目标列表分离的列表项目。
另外,GPU 112可以当检测到加宽执行捏合操作的两个手指的触摸位置之间的间隙的操作时,取消列表项目的分离,并且使得已经消失一次的列表项目再一次出现。
[3-3.列表显示]
上述示例已经描述了通过单个列表的列表项目的结合/分离来增加/减少列表项目的数量。在此,当通过结合列表项目来增加列表项目的数量时,从画面排除一些列表项目。
在此,根据该实施例的GPU 112可以当通过列表项目的结合而增加或减少目标列表的列表项目的数量时,放大/收缩列表项目的显示尺寸,由此执行在画面内显示所有列表项目的列表显示。当GPU 112执行列表显示时,用户能够在画面内查看通过列表项目的结合而增加的所有列表项目。将参照图24至26来描述GPU 112的列表显示。在图24至26中,以网格列表的形式将从每隔预定时间段的运动图像数据的场景创建的缩略图显示为列表项目。
图24是列表显示单个列表的画面201的图。如图24中的画面201中所示,GPU 112布置每隔两分钟的运动图像数据的所有缩略图。将参照图25和26来描述当响应于用户操作结合列表项目时的动画。
图25是示出显示当正在结合列表项目时的动画的画面203的图。如图25中所示,GPU 112收缩每一个缩略图,并且使得新的缩略图逐渐地出现在每一个缩略图之间。
图26是示出当完成列表项目的结合时的画面205的图。如图26中的画面205中所示,即使当通过列表项目的结合来增加列表项目的数量时,GPU 112也在单个画面上显示所有的缩略图。
以上已经描述了显示单个列表作为上述列表显示的示例的情况。然而,GPU 112还可以控制当结合多个列表时的列表显示。
<4.操作处理>
接下来,将描述当根据该实施例的GPU 112根据张开/捏合操作的移动量或移动速度来执行上述结合/分离列表的显示控制时执行的操作处理。虽然图6和9图示了其中GPU 112分别根据执行张开/捏合操作的两个手指之间的间隙d来执行结合/分离列表的显示控制的示例,但是该实施例不限于此。例如,GPU 112还可以根据例如执行触摸操作的手指的移动量或手指的移动速度来结合/分离列表。以下,将参照图27来描述当GPU 112根据捏合/张开操作的移动量或移动速度来结合/分离列表时执行的操作处理。
图27是示出根据张开/捏合操作的移动量或移动速度结合/分离列表的显示控制处理的流程图。如图27中所示,当触摸面板16在步骤S102中检测到两个触摸时,触摸面板16在下一步骤S104中进一步基于两个触摸的操作位置的移动来检测捏合/张开操作。触摸面板16在检测到捏合/张开操作时向控制单元11输出检测结果。
接下来,在步骤S106中,控制单元的GPU 112根据由触摸面板16检测的张开/捏合操作来开始在显示器15上显示的结合/分离列表的动画。例如,GPU 112根据捏合/张开操作来移动触摸的列表项目。
接下来,在步骤S108中,当触摸面板16检测到触摸两个点的操作时,处理进行到步骤S110。接下来,在步骤S110中,GPU 112确定捏合/张开操作的移动量是否大于阈值。例如,如图28中所示计算在此使用的捏合/张开操作的移动量。
图28是示例性地示出捏合/张开操作的移动量和移动速度的计算的表格。如图28中所示,每一个捏合/张开操作的移动量是在捏合/张开操作中列表项目从初始状态的移动的距离的和。
替代地,每一个捏合/张开操作的移动量可以是捏合/张开操作的两个触摸位置的每一个的移动的距离的和。
在上述步骤S110中,如果捏合/张开操作的移动量超过阈值,则处理进行到步骤S112。接下来,在步骤S112中,GPU 112结合/分离列表。注意,如果在步骤S110中移动量超过第一阈值,则在步骤S112中执行在一层的列表的结合/分离。例如,结合单个子列表,或者通过分离来创建单个子列表。
接下来,处理进行到步骤S108,并且,进一步继续捏合/张开操作。然后,如果在步骤S110中移动量超过第二阈值,则GPU 112执行在另一层的列表的结合/分离。例如,GPU 112再结合一个子列表,或通过分离来再创建一个子列表。如上所述,GPU 112根据捏合/张开操作来执行在多层的列表的结合/分离。
接下来,再一次参考步骤S108,将描述不再检测到两个触摸的情况。在该情况下,处理进行到步骤S114,并且GPU 112在步骤S114中确定捏合/张开操作的速度是否超过阈值。在此使用的捏合/张开操作的速度例如是在图28中所示的捏合/张开操作中的每一个列表项目的移动速度的和。
如果在上述步骤S114中捏合/张开操作的移动速度超过阈值,则处理进行到步骤S116。接下来,在步骤S116中,GPU 112执行列表的结合/分离。注意,如果在步骤S114中移动速度超过第一阈值,则在步骤S116中执行在一层处的列表的结合/分离。例如,结合单个子列表,或者通过分离来创建单个子列表。
接下来,处理返回到步骤S114,并且如果移动速度仍然不是零,则GPU 112再一次在步骤S116中执行在另一层的列表的结合/分离。例如,GPU 112再结合一个子列表,或者通过分离再创建一个子列表。如上所述,GPU 112根据按照张开/捏合操作移动的列表项目的速度来执行在多层的列表的结合/分离。
同时,如果该速度在步骤S114中未超过阈值,则处理进行到步骤S118。在步骤S118中,GPU 112确定捏合/张开操作的移动量是否超过阈值。如果移动量超过阈值,则处理进行到步骤S120。
接下来,在步骤S120中,GPU 112执行列表的结合/分离。注意,GPU112还可以具有多个阈值,并且可以根据张开/捏合操作的移动量已经超过哪个阈值来控制列表的结合/分离的层。例如,如果张开/捏合操作的移动量超过阈值a,则GPU 112结合子列表或通过分离来创建子列表。同时,如果张开/捏合操作的移动量超过阈值b,则GPU 112结合两个子列表或通过分离来创建两个子列表。
接下来,在步骤S122中,GPU 112结束结合/分离列表的动画。
<5.结论>
如上所述,按照根据该实施例的信息处理装置10,用户能够通过在画面上显示多个列表来在结合完成前预先查看要结合到目标列表23的子列表25的列表项目。
另外,按照根据该实施例的信息处理装置10,即使当在画面上显示单个列表时,如果响应于用户操作使得新的列表项目逐渐地出现在列表中,则用户也能够在结合完成前预先查看要增加的列表项目。
另外,当要从目标列表23分离的列表项目根据用户操作而逐渐地改变时,用户能够预先查看要通过列表项目的分离从目标列表23去除的列表项目。
此外,用户还能够在查看通过结合或分离列表的动画而增加或减少的列表项目的同时在列表的结合或分离的完成前取消它。
另外,当通过列表项目的结合增加列表项目的数量时,GPU 112可以通过控制所有的列表项目以使得它们被显示在画面内,来在保证列表的列表属性的同时显示更详细的信息。
虽然已经参照附图详细描述了本公开的优选实施例,但是本公开不限于此。对于本领域内的技术人员而言,显然可以进行各种修改或变型,只要它们在所附的权利要求或其等同内容的技术范围内。应当明白,这样的修改或变型也在本公开的技术范围内。
例如,虽然已经参照图6描述了在上述[2-3.用户操作]中与张开操作相结合地结合列表时的动画,但是当结合列表时的动画不限于图6中所示的示例。例如,可以基本上在与列表项目向目标列表23的移动的开始时刻的同时逐渐地放大要结合的子列表25a的每一个列表项目,并且,可以基本上在与在目标列表23的每一个列表项目之间插入列表项目的结束的同时结束列表项目的放大。图29示出了改变当如上所述与张开操作相结合地结合列表时的动画的示例。如图29中的画面44中所示,当触摸位置之间的间隙d2超过阈值时,子列表25b的列表项目B2在被逐渐放大的同时移动。然后,如在画面46中所示,列表项目的放大基本上在与当在列表项目A2和列表项目A3之间插入列表项目的同时结束。
虽然在上述实施例中依序显示目标列表23、子列表25a和子列表25b,但是可以根据用户操作来切换每一个列表或移动所有列表。
另外,虽然通过比如智能电话或便携音频播放器的移动终端来实现图1中所示的信息处理装置10,但是根据本公开的信息处理装置10不限于此。例如,信息处理装置10可以实现个人计算机(PC),并且可以在PC的GUI画面上显示响应于用户操作而结合或分离列表的动画。
还可以创建用于施加与根据上述实施例的信息处理装置10的每一个配置等同的功能的计算机程序。另外,还提供了其上记录有计算机程序的记录介质。记录介质的示例包括磁盘、光盘、磁光盘和快闪存储器。另外,例如,可以通过网络分发上述计算机程序,而不使用记录介质。
本技术也可以如下配置。
(1)一种信息处理装置,包括显示控制单元,所述显示控制单元被配置为显示包括分别具有列表项目的第一列表和第二列表的多个列表,并且响应于用户操作执行将作为所述第一列表的子列表的所述第二列表的列表项目结合到所述第一列表的显示。
(2)根据(1)所述的信息处理装置,其中,所述显示控制单元被配置为响应于用户操作来执行从所述第一列表分离预定数量的列表项目的显示,并且显示包括所述预定数量的所述分离的列表项目的新的子列表。
(3)根据(1)或(2)所述的信息处理装置,还包括检测单元,所述检测单元被配置为检测用户操作,
其中,所述显示控制单元被配置为当所述检测单元检测到所述用户加宽在多个操作位置之间的距离的操作时执行将所述第二列表结合到所述第一列表的显示。
(4)根据(1)或(2)所述的信息处理装置,还包括检测单元,所述检测单元被配置为检测用户操作,
其中,所述显示控制单元被配置为当所述检测单元检测到所述用户使多个操作位置之间的距离变窄的操作时执行从所述第一列表分离所述列表项目以创建新的子列表的显示。
(5)根据(1)至(4)的任何一项所述的信息处理装置,其中,所述显示控制单元被配置为当所述第二列表的所述列表项目通过所述用户的拖动操作被移动到所述第一列表内时,执行将所述第二列表结合到所述第一列表的显示。
(6)根据(1)至(5)的任何一项所述的信息处理装置,其中,所述显示控制单元被配置为根据所述操作位置的移动量或移动速度来改变要结合的子列表的数量或要新创建的子列表的数量。
(7)根据(1)至(6)的任何一项所述的信息处理装置,其中,当所述第二列表结合到所述第一列表时并且所述第一列表的所述列表项目的数量增加时,由所述第一列表显示的信息变得更详细。
(8)根据(1)至(7)的任何一项所述的信息处理装置,其中,以比所述第一列表的所述列表项目小的尺寸来显示所述第二列表的所述列表项目。
(9)根据(8)所述的信息处理装置,其中,所述显示控制单元被配置为通过在放大所述第二列表的所述列表项目的同时移动所述第二列表的所述列表项目来执行将所述第二列表的所述列表项目结合到所述第一列表的显示。
(10)根据(8)所述的信息处理装置,其中,所述显示控制单元被配置为通过在将所述第二列表的所述列表项目移动到所述第一列表后放大所述第二列表的所述列表项目来执行将所述第二列表的所述列表项目结合到所述第一列表的显示。
(11)根据(1)至(8)的任何一项所述的信息处理装置,其中,所述显示控制单元被配置为通过移动所述第二列表的所述列表项目而不改变所述第二列表的所述列表项目的尺寸来执行将所述第二列表的所述列表项目结合到所述第一列表的显示。
(12)根据(4)所述的信息处理装置,其中,所述显示控制单元被配置为响应于所述用户使所述多个操作位置之间的距离变窄的操作来执行收缩所述第一列表的预定数量的列表项目以使得所述收缩的列表项目从所述第一列表移开并且从所述第一列表分离的显示,并且还通过布置从所述第一列表分离的所述列表项目来显示新的子列表。
(13)一种信息处理方法,包括:
显示包括分别具有列表项目的第一列表和第二列表的多个列表;以及
响应于用户操作执行将作为所述第一列表的子列表的所述第二列表的列表项目结合到所述第一列表的显示。
(14)一种程序,用于使得计算机执行下述处理:
显示包括分别具有列表项目的第一列表和第二列表的多个列表;以及
响应于用户操作执行将作为所述第一列表的子列表的所述第二列表的列表项目结合到所述第一列表的显示。
(15)根据(14)所述的程序,使得计算机还执行下述处理:响应于用户操作来执行从所述第一列表分离预定数量的列表项目的显示,以及执行包括所述预定数量的分离的列表项目的新的子列表的显示。
(16)根据(14)或(15)所述的程序,使得计算机还执行下述处理:
检测用户操作;以及
当所述检测处理检测到所述用户加宽多个操作位置之间的距离的操作时执行将所述第二列表结合到所述第一列表的显示。
(17)根据(14)或(15)所述的程序,使得计算机还执行下述处理:
检测用户操作;以及
当所述检测处理检测到所述用户使多个操作位置之间的距离变窄的操作时执行从所述第一列表分离所述列表项目以建立新的子列表的显示。
(18)根据(14)至(17)的任何一项所述的程序,使得计算机还当所述第二列表的所述列表项目通过所述用户的拖动操作被移动到所述第一列表中时执行将所述第二列表结合到所述第一列表的显示。
(19)根据(14)至(18)的任何一项所述的程序,使得计算机还根据所述操作位置的移动量或移动速度来执行改变要结合的子列表的数量或要新建立的子列表的数量的处理。
(20)根据(14)至(19)的任何一项所述的程序,使得计算机还执行处理以使得当所述第二列表结合到所述第一列表时并且所述第一列表的所述列表项目的数量增加时,由所述第一列表显示的信息变得更详细。
本公开包含与在2011年8月1日提交于日本专利局的日本在先专利申请JP 2011-168262中公开的主题相关的主题,其整体内容通过引用合并于此。

Claims (20)

1.一种信息处理装置,包括显示控制单元,所述显示控制单元被配置为显示包括分别具有列表项目的第一列表和第二列表的多个列表,并且响应于用户操作执行将作为所述第一列表的子列表的所述第二列表的列表项目结合到所述第一列表的显示。
2.根据权利要求1所述的信息处理装置,其中,所述显示控制单元被配置为响应于用户操作来执行从所述第一列表中分离预定数量的列表项目的显示,并且显示包括所述预定数量的分离的列表项目的新的子列表。
3.根据权利要求1所述的信息处理装置,还包括检测单元,所述检测单元被配置为检测用户操作,
其中,所述显示控制单元被配置为当所述检测单元检测到所述用户加宽在多个操作位置之间的距离的操作时执行将所述第二列表结合到所述第一列表的显示。
4.根据权利要求1所述的信息处理装置,还包括检测单元,所述检测单元被配置为检测用户操作,
其中,所述显示控制单元被配置为当所述检测单元检测到所述用户使多个操作位置之间的距离变窄的操作时执行从所述第一列表分离所述列表项目以建立新的子列表的显示。
5.根据权利要求1所述的信息处理装置,其中,所述显示控制单元被配置为当所述第二列表的所述列表项目通过所述用户的拖动操作被移动到所述第一列表中时,执行将所述第二列表结合到所述第一列表的显示。
6.根据权利要求1所述的信息处理装置,其中,所述显示控制单元被配置为根据所述操作位置的移动量或移动速度来改变要结合的子列表的数量或要新建立的子列表的数量。
7.根据权利要求1所述的信息处理装置,其中,当所述第二列表结合到所述第一列表时并且所述第一列表的所述列表项目的数量增加时,由所述第一列表显示的信息变得更详细。
8.根据权利要求1所述的信息处理装置,其中,以比所述第一列表的所述列表项目小的尺寸来显示所述第二列表的所述列表项目。
9.根据权利要求8所述的信息处理装置,其中,所述显示控制单元被配置为通过在放大所述第二列表的所述列表项目的同时移动所述第二列表的所述列表项目来执行将所述第二列表的所述列表项目结合到所述第一列表的显示。
10.根据权利要求8所述的信息处理装置,其中,所述显示控制单元被配置为通过在将所述第二列表的所述列表项目移动到所述第一列表后放大所述第二列表的所述列表项目来执行将所述第二列表的所述列表项目结合到所述第一列表的显示。
11.根据权利要求1所述的信息处理装置,其中,所述显示控制单元被配置为通过移动所述第二列表的所述列表项目而不改变所述第二列表的所述列表项目的尺寸来执行将所述第二列表的所述列表项目结合到所述第一列表的显示。
12.根据权利要求4所述的信息处理装置,其中,所述显示控制单元被配置为响应于所述用户使所述多个操作位置之间的距离变窄的操作来执行收缩所述第一列表的预定数量的列表项目以使得所述收缩的列表项目从所述第一列表移开并且从所述第一列表分离的显示,并且还通过布置从所述第一列表分离的所述列表项目来显示新的子列表。
13.一种信息处理方法,包括:
显示包括分别具有列表项目的第一列表和第二列表的多个列表;以及
响应于用户操作执行将作为所述第一列表的子列表的所述第二列表的列表项目结合到所述第一列表的显示。
14.一种程序,用于使得计算机执行下述处理:
显示包括分别具有列表项目的第一列表和第二列表的多个列表;以及
响应于用户操作执行将作为所述第一列表的子列表的所述第二列表的列表项目结合到所述第一列表的显示。
15.根据权利要求14所述的程序,使得计算机还执行下述处理:响应于用户操作来执行从所述第一列表分离预定数量的列表项目的显示,以及执行包括所述预定数量的分离的列表项目的新的子列表的显示。
16.根据权利要求14所述的程序,使得计算机还执行下述处理:
检测用户操作;以及
当所述检测处理检测到所述用户加宽多个操作位置之间的距离的操作时执行将所述第二列表结合到所述第一列表的显示。
17.根据权利要求14所述的程序,使得计算机还执行下述处理:
检测用户操作;以及
当所述检测处理检测到所述用户使多个操作位置之间的距离变窄的操作时执行从所述第一列表分离所述列表项目以建立新的子列表的显示。
18.根据权利要求14所述的程序,使得计算机还当所述第二列表的所述列表项目通过所述用户的拖动操作被移动到所述第一列表中时执行将所述第二列表结合到所述第一列表的显示。
19.根据权利要求14所述的程序,使得计算机还根据所述操作位置的移动量或移动速度来执行改变要结合的子列表的数量或要新建立的子列表的数量的处理。
20.根据权利要求14所述的程序,使得计算机还执行处理以使得当所述第二列表结合到所述第一列表时并且所述第一列表的所述列表项目的数量增加时,由所述第一列表显示的信息变得更详细。
CN201210260791.2A 2011-08-01 2012-07-25 信息处理装置、信息处理方法和程序 Active CN103176703B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810194597.6A CN108334262B (zh) 2011-08-01 2012-07-25 信息处理装置、信息处理方法和计算机可读存储介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011168262A JP2013033330A (ja) 2011-08-01 2011-08-01 情報処理装置、情報処理方法およびプログラム
JP2011-168262 2011-08-01

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201810194597.6A Division CN108334262B (zh) 2011-08-01 2012-07-25 信息处理装置、信息处理方法和计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN103176703A true CN103176703A (zh) 2013-06-26
CN103176703B CN103176703B (zh) 2018-04-13

Family

ID=46717711

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201210260791.2A Active CN103176703B (zh) 2011-08-01 2012-07-25 信息处理装置、信息处理方法和程序
CN201810194597.6A Active CN108334262B (zh) 2011-08-01 2012-07-25 信息处理装置、信息处理方法和计算机可读存储介质

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201810194597.6A Active CN108334262B (zh) 2011-08-01 2012-07-25 信息处理装置、信息处理方法和计算机可读存储介质

Country Status (4)

Country Link
US (4) US20130036387A1 (zh)
EP (1) EP2555104A3 (zh)
JP (1) JP2013033330A (zh)
CN (2) CN103176703B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103399691A (zh) * 2013-08-07 2013-11-20 浙江宇天科技股份有限公司 一种加载显示数据方法及装置
CN104506725A (zh) * 2014-12-19 2015-04-08 广东欧珀移动通信有限公司 一种通话记录查看方法和装置

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8232973B2 (en) 2008-01-09 2012-07-31 Apple Inc. Method, device, and graphical user interface providing word recommendations for text input
JP2013033330A (ja) * 2011-08-01 2013-02-14 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2014038560A (ja) * 2012-08-20 2014-02-27 Canon Inc 情報処理装置、情報処理方法及びプログラム
USD773488S1 (en) * 2012-09-04 2016-12-06 Huawei Technologies Co., Ltd. Display screen with graphical user interface for viewing and installing applications in an electronic mall
KR102148809B1 (ko) * 2013-04-22 2020-08-27 삼성전자주식회사 단축 아이콘 윈도우 표시 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
USD771084S1 (en) * 2013-06-05 2016-11-08 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphic user interface
USD760254S1 (en) * 2013-06-05 2016-06-28 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphic user interface
USD757739S1 (en) * 2013-06-05 2016-05-31 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphic user interface
USD749090S1 (en) * 2013-06-05 2016-02-09 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphic user interface
US20160320959A1 (en) * 2014-01-15 2016-11-03 Yulong Computer Telecommunication Scientific (Shenzhen) Co., Ltd. Terminal Operation Apparatus and Terminal Operation Method
US9959026B2 (en) * 2014-01-28 2018-05-01 Adobe Systems Incorporated Spread-to-duplicate and pinch-to-delete gestures
KR101713287B1 (ko) * 2014-02-28 2017-03-07 염광윤 터치스크린을 이용한 컨텐츠 편집방법
KR102177607B1 (ko) * 2014-05-16 2020-11-11 엘지전자 주식회사 이동 단말기 및 이의 제어방법
USD749114S1 (en) * 2014-05-21 2016-02-09 Sharp Kabushiki Kaisha Display of mobile information terminal with transitional graphical user interface
US10204096B2 (en) * 2014-05-30 2019-02-12 Apple Inc. Device, method, and graphical user interface for a predictive keyboard
USD779513S1 (en) * 2014-07-07 2017-02-21 Microsoft Corporation Display screen with graphical user interface
KR102314109B1 (ko) * 2015-01-05 2021-10-18 삼성전자주식회사 디스플레이 장치 및 디스플레이 방법
CN105843594A (zh) * 2015-01-13 2016-08-10 阿里巴巴集团控股有限公司 移动终端应用程序页面的展现方法和装置
USD803230S1 (en) 2015-02-20 2017-11-21 Google Inc. Portion of a display panel with a graphical user interface
USD789392S1 (en) * 2015-02-20 2017-06-13 Google Inc. Portion of a display panel with a graphical user interface
DE112016001451T5 (de) * 2015-03-27 2017-12-21 Google Inc. Techniken für das Anzeigen von Layouts und Übergangslayouts von Sätzen von Inhaltselementen in Reaktion auf Touch-Eingaben von Benutzern
JP6514061B2 (ja) * 2015-07-28 2019-05-15 京セラ株式会社 電子機器
EP3518812B1 (en) * 2016-09-28 2023-11-22 Biolase, Inc. Laser control gui system
US10831332B2 (en) * 2017-02-23 2020-11-10 The Florida International University Board Of Trustees User interface element for building interior previewing and navigation
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces
US11416136B2 (en) 2020-09-14 2022-08-16 Apple Inc. User interfaces for assigning and responding to user inputs

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5519606A (en) * 1992-01-21 1996-05-21 Starfish Software, Inc. System and methods for appointment reconciliation
JP3166455B2 (ja) * 1993-10-25 2001-05-14 ヤマハ株式会社 演奏データ作成装置
US5850538A (en) * 1997-04-23 1998-12-15 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Priority queues for computer simulations
US6693869B1 (en) * 1999-03-31 2004-02-17 Microsoft Corporation Locating information on an optical media disc to maximize the rate of transfer
US6421072B1 (en) * 1999-06-03 2002-07-16 International Business Machines Corporation Displaying a complex tree structure among multiple windows
US6816174B2 (en) * 2000-12-18 2004-11-09 International Business Machines Corporation Method and apparatus for variable density scroll area
JP3773426B2 (ja) * 2001-07-18 2006-05-10 株式会社日立製作所 データマイニングにおける前処理方法及び前処理システム
JP4817556B2 (ja) * 2001-09-14 2011-11-16 キヤノン株式会社 情報処理装置、情報処理装置における文書処理方法およびプログラム
EP1351121A3 (en) * 2002-03-26 2009-10-21 Polymatech Co., Ltd. Input Device
US20040064441A1 (en) * 2002-09-27 2004-04-01 Tow Daniel S. Systems and methods for providing structured query language optimization
US20050047629A1 (en) * 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
US7418670B2 (en) * 2003-10-03 2008-08-26 Microsoft Corporation Hierarchical in-place menus
EP1591876A1 (en) * 2004-04-30 2005-11-02 Matsushita Electric Industrial Co., Ltd. Method of sorting elements in a list of a graphical user interface
US7603362B2 (en) * 2004-08-20 2009-10-13 Microsoft Corporation Ordered list management
US20060242122A1 (en) * 2005-04-22 2006-10-26 Microsoft Corporation Systems, methods, and user interfaces for storing, searching, navigating, and retrieving electronic information
JP4437548B2 (ja) * 2005-12-09 2010-03-24 ソニー株式会社 音楽コンテンツ表示装置、音楽コンテンツ表示方法及び音楽コンテンツ表示プログラム
US8683362B2 (en) * 2008-05-23 2014-03-25 Qualcomm Incorporated Card metaphor for activities in a computing device
US9507778B2 (en) * 2006-05-19 2016-11-29 Yahoo! Inc. Summarization of media object collections
US20080040665A1 (en) * 2006-07-06 2008-02-14 Carsten Waldeck Method and system for displaying, locating and browsing data files
JP2008046353A (ja) * 2006-08-16 2008-02-28 Sony Corp テーブル表示方法、情報処理装置およびテーブル表示用プログラム
JP2008112217A (ja) * 2006-10-27 2008-05-15 Star Micronics Co Ltd Cam装置と同期設定方法
JP2008134866A (ja) * 2006-11-29 2008-06-12 Sony Corp コンテンツ閲覧方法、コンテンツ閲覧装置およびコンテンツ閲覧プログラム
AU2006252191B2 (en) * 2006-12-21 2009-03-26 Canon Kabushiki Kaisha Scrolling Interface
US20080294274A1 (en) * 2007-05-22 2008-11-27 Honeywell International Inc. Special purpose controller interface with breadcrumb navigation support
US8681104B2 (en) * 2007-06-13 2014-03-25 Apple Inc. Pinch-throw and translation gestures
US8255793B2 (en) * 2008-01-08 2012-08-28 Yahoo! Inc. Automatic visual segmentation of webpages
KR101320919B1 (ko) * 2008-01-29 2013-10-21 삼성전자주식회사 분할 화면을 통한 gui 제공방법 및 이를 적용한멀티미디어 기기
JP4171770B1 (ja) * 2008-04-24 2008-10-29 任天堂株式会社 オブジェクト表示順変更プログラム及び装置
JP4666012B2 (ja) * 2008-06-20 2011-04-06 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP5324143B2 (ja) * 2008-07-01 2013-10-23 キヤノン株式会社 表示制御装置、及び表示制御方法
US8279241B2 (en) * 2008-09-09 2012-10-02 Microsoft Corporation Zooming graphical user interface
KR101586627B1 (ko) * 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
US8610673B2 (en) * 2008-12-03 2013-12-17 Microsoft Corporation Manipulation of list on a multi-touch display
US20100162179A1 (en) * 2008-12-19 2010-06-24 Nokia Corporation Method and Apparatus for Adding or Deleting at Least One Item Based at Least in Part on a Movement
JP5461030B2 (ja) * 2009-03-02 2014-04-02 アルパイン株式会社 入力装置
KR20100115547A (ko) * 2009-04-20 2010-10-28 에스케이 텔레콤주식회사 컨텐츠 주밍 방법과 그를 위한 터치 스크린 단말기 및 컴퓨터로 읽을 수 있는 기록매체
US8669945B2 (en) * 2009-05-07 2014-03-11 Microsoft Corporation Changing of list views on mobile device
JP5206587B2 (ja) * 2009-05-26 2013-06-12 ソニー株式会社 編集装置、編集方法及び編集プログラム
US8294710B2 (en) * 2009-06-02 2012-10-23 Microsoft Corporation Extensible map with pluggable modes
JP5493490B2 (ja) * 2009-06-16 2014-05-14 ソニー株式会社 表示制御装置、表示制御方法及び表示制御プログラム
JP4952747B2 (ja) * 2009-06-26 2012-06-13 ソニー株式会社 コンテンツ処理装置、コンテンツ処理方法およびコンテンツ処理プログラム
EP2480957B1 (en) * 2009-09-22 2017-08-09 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US20110087999A1 (en) * 2009-09-30 2011-04-14 International Business Machines Corporation Set definition in data processing systems
JP2011168262A (ja) 2010-02-19 2011-09-01 Isao Yuasa パテ面出しツール
CN101819500A (zh) * 2010-03-08 2010-09-01 广东欧珀移动通信有限公司 一种手持设备列表行显浏览调整方法
US8957920B2 (en) * 2010-06-25 2015-02-17 Microsoft Corporation Alternative semantics for zoom operations in a zoomable scene
KR102033599B1 (ko) * 2010-12-28 2019-10-17 삼성전자주식회사 페이지간 오브젝트 이동 방법 및 인터페이스 장치
US9946429B2 (en) * 2011-06-17 2018-04-17 Microsoft Technology Licensing, Llc Hierarchical, zoomable presentations of media sets
JP5849502B2 (ja) * 2011-08-01 2016-01-27 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2013033330A (ja) * 2011-08-01 2013-02-14 Sony Corp 情報処理装置、情報処理方法およびプログラム
US20130067420A1 (en) * 2011-09-09 2013-03-14 Theresa B. Pittappilly Semantic Zoom Gestures
EP2584443A1 (en) * 2011-10-17 2013-04-24 Research In Motion Limited User Interface for electronic device
US8650502B2 (en) * 2011-11-23 2014-02-11 International Business Machines Corporation Method for precise navigation of data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103399691A (zh) * 2013-08-07 2013-11-20 浙江宇天科技股份有限公司 一种加载显示数据方法及装置
CN104506725A (zh) * 2014-12-19 2015-04-08 广东欧珀移动通信有限公司 一种通话记录查看方法和装置

Also Published As

Publication number Publication date
US20130036387A1 (en) 2013-02-07
EP2555104A2 (en) 2013-02-06
US20210286512A1 (en) 2021-09-16
US20170371536A1 (en) 2017-12-28
CN108334262B (zh) 2021-10-29
EP2555104A3 (en) 2016-01-27
CN108334262A (zh) 2018-07-27
JP2013033330A (ja) 2013-02-14
US11042287B2 (en) 2021-06-22
CN103176703B (zh) 2018-04-13
US20230418463A1 (en) 2023-12-28

Similar Documents

Publication Publication Date Title
CN103176703A (zh) 信息处理装置、信息处理方法和程序
US10768806B2 (en) Information processing device, information processing method, and program for displaying list items and changing hierarchical level of display
AU2007101053A4 (en) Multimedia communication device with touch screen responsive to gestures for controlling, manipulating, and editing of media files
EP2306285B1 (en) Touch event model
JP5485220B2 (ja) 表示装置、ユーザインタフェース方法及びプログラム
US20120030628A1 (en) Touch-sensitive device and touch-based folder control method thereof
US9804766B2 (en) Electronic device and method of displaying playlist thereof
CN103543945B (zh) 用于通过各种类型的手势显示键盘的系统和方法
CN103336646A (zh) 用于移动装置中的内容视图显示的方法和设备
US20130100051A1 (en) Input control device, input control method, and input control program for controlling display target upon receiving input on display screen of display device
US9891812B2 (en) Gesture-based selection and manipulation method
CN104704454B (zh) 用于处理多点输入的终端和方法
KR20140078629A (ko) 인플레이스 방식으로 값을 편집하는 사용자 인터페이스
KR102161061B1 (ko) 복수의 페이지 표시 방법 및 이를 위한 단말
CN103294392A (zh) 用于在移动装置中编辑内容视图的方法和设备
CN105183741A (zh) 用户界面和图像块的语义缩放的调节方法
JP6172251B2 (ja) 情報処理装置、情報処理方法およびプログラム
AU2017279639B2 (en) Touch event model
KR20110020647A (ko) Ui 제공방법 및 이를 적용한 멀티미디어 기기

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant