CN101770341A - 用于在电子设备中的对象之间的导航的方法和设备 - Google Patents

用于在电子设备中的对象之间的导航的方法和设备 Download PDF

Info

Publication number
CN101770341A
CN101770341A CN201010001532A CN201010001532A CN101770341A CN 101770341 A CN101770341 A CN 101770341A CN 201010001532 A CN201010001532 A CN 201010001532A CN 201010001532 A CN201010001532 A CN 201010001532A CN 101770341 A CN101770341 A CN 101770341A
Authority
CN
China
Prior art keywords
area
navigation
control
incident
gui
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201010001532A
Other languages
English (en)
Inventor
申承祐
韩明焕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN101770341A publication Critical patent/CN101770341A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Abstract

一种用于在电子设备中的对象之间导航的方法和设备。一种使用划分为输出区域和控制区域的触摸屏进行对象导航的设备和方法利用输出区域和控制区域之间的有机交互。第一区域是用于显示对象的输出区域,用于显示图形用户界面(GUI)的第二区域是用于控制对象的导航的控制区域。当用于导航的事件在第一区域和第二区域之一中发生时,将根据导航的变化信息提供给第一区域和第二区域二者,从而可无任何阻碍图像而操作触摸屏。

Description

用于在电子设备中的对象之间的导航的方法和设备
技术领域
本发明总体涉及控制具有显示单元的电子设备。更具体地讲,本发明涉及通过功能上划分的显示区域之间的交互来控制对象之间的导航的方法,以及支持该方法的电子设备和系统。
背景技术
伴随多样化用户界面(UI)和使用该UI的多样化功能的发展,通信技术的最近的快速发展已导致便携式终端的功能的大量增加。
最近,这种改进和发展包括最近出现的这种便携式终端,即,具有代替一般键区的触摸屏或具有触摸屏和键区的组合。
如上所述的触摸屏能够使用户控制便携式终端的各种功能,并允许装置的更紧凑设计。安装有触摸屏的便携式终端提供各种对象并允许通过触摸屏幕的不同方式(例如,“轻敲”、“拖拽”、“轻弹”和“拖放”事件)在对象之间导航,仅举一些不同方式,以通过不同触摸种类来操作装置的功能。
同时,在传统便携式终端中控制对象的导航中,通过用户经手指或触控笔(stylus)按压屏幕的特定部分直接输入事件,用户引起出现事件。在直接事件输入期间,手指或触控笔可隐藏所述对象,这种现象可干扰用户对对象导航引起的对变化的直观识别。
此外,由于安装有触摸屏的便携式终端允许仅通过简单事件输入来进行导航操作,所以在提供各种等级便利性以及提高用户兴趣方面存在限制。此外,不仅如上所述的便携式终端,具有基于触摸的输入单元的大尺寸显示装置也具有相同问题。而且,即使在通过单独的指针装置输入的情况下,光标或表示指针位置的事物可掩盖对象。因此,本领域中需要提供不遮挡屏幕的一部分的导航系统。
发明内容
本发明提供了一种用于通过功能上划分地显示区域之间的交互来控制对象之间导航的方法,和用于根据所述方法执行更能的电子设备和系统。
此外,本发明提供了一种具有划分为输出区域和控制区域的显示单元的显示区域并通过输出区域和控制区域之间的有机交互来进行操作的的电子设备及其控制方法。
此外,本发明提供了一种用于对象导航的方法和设备,所述设备采用划分为输出区域和控制区域的触摸屏并利用输出区域和控制区域之间的有机交互。
此外,本发明提供了一种便携式终端,包括显示对象的第一区域和显示用于控制对象操作的GUI对象的第二区域。
此外,本发明提供了一种显示装置,所述显示装置具有划分为输出区域和控制区域的显示区域。显示区域通过输出区域和控制区域之间的有机交互来控制对象显示和对象操作。
此外,本发明提供了一种采用划分为输出区域和控制区域的触摸屏的用户界面。响应于在输出区域和控制区域中的任一个的对象导航输入的发生,本发明提供关于输出区域和控制区域的二者中的导航引起的变化的信息。
根据本发明示例性方面,一种对象导航控制系统优选地包括:第一区域,显示对象;第二区域,显示用于控制对象导航的图形用户接口(GUI)。
当在第一区域和第二区域之一中发生用于导航的事件时,优选地在第一区域和第二区域二者中提供基于导航的变化信息。
根据本发明的另一示例性方面,电子设备优选地包括触摸屏和控制单元,所述触摸屏包括输出区域和控制区域;其中,所述输出区域用于输出/显示对象,控制区域用于显示控制对象导航的图形用户界面(GUI),控制单元通过输出区域和控制区域之间的导航来处理对象导航。
根据本发明的示例性方面,当在输出区域和控制区域之一中发生用于导航的事件时,控制单元提供根据输出区域和控制区域二者中的导航的变化信息。
根据本发明的另一示例性方面,控制对象导航的方法优选地包括:检测输出区域和控制区域之一中的事件;响应于所述事件,控制在输出区域中提供的对象的导航和在控制区域中提供的变化项目的移动。
输出区域包括用于显示对象的区域,控制区域包括用于控制显示对象的导航的图形用户界面(GUI)。控制区域通过GUI显示与根据事件转换的对象相应的每个索引符号,并通过变化项目显示GUI的每个索引符号的位置变化。
当在输出区域中显示的特定对象位于控制区域时,执行特定对象。
根据本发明的另一示例性方面,显示装置包括:显示单元,显示输出区域和控制区域;用户输入单元,输入用于控制输出区域或控制区域的事件;控制单元,响应于所述事件在输出区域中显示对象并在控制区域中显示用于控制对象的图形用户界面。
根据本发明的另一示例性方面,控制显示装置的方法优选地包括:确定是否输入了用于控制在控制区域中显示的图形用户界面的事件;响应于所述事件,变化在输出区域中显示的对象。
根据本发明的另一示例性方面,控制显示装置的方法优选地包括:确定是否输入了用于控制在输出区域中的对象的事件入;响应于所述事件,变化在控制区域中显示的图形用户界面。
附图说明
通过以下结合附图进行的详细描述,本发明的目的、特点和优点将变得更清楚,其中:
图1示出根据本发明示例性实施例的设置具有触摸屏的便携式终端的一种方式的具体实例;
图2是示出根据本发明示例性实施例的便携式终端中对象导航控制的方法的流程图;
图3是示出根据本发明示例性实施例的当在输出区域中执行对象导航时的示例性显示屏幕的示图;
图4是示出根据本发明示例性实施例的当在控制区域中执行对象导航时的示例性屏幕的示图;
图5是示出根据本发明示例性实施例的用于通过输出区域和控制区域之间的交互来执行特定应用的示例性屏幕的示图;
图6是示出根据本发明示例性实施例的通过对象输出区域执行选择的对象和对象导航的处理的示图;
图7示出根据本发明的另一示例性实施例的通过控制区域的对象导航和执行选择的对象的处理;
图8示出根据本发明第一示例性实施例的用于通过输出区域和控制区域之间的交互来控制对象导航的示例性屏幕;
图9示出根据本发明另一示例性实施例的用于通过输出区域和控制区域之间的交互来控制对象导航的示例性屏幕;
图10是示意性示出根据本发明的便携式终端的示例性结构的框图。
具体实施方式
以下,参照附图对本发明示例性实施例进行详细描述。贯穿附图中相同标号用于表示相同或相似部分。可省略在此合并的已知功能和结构的详细描述,以避免本领域普通技术人员混淆本发明主题的理解。
本发明提供了通过输出区域和控制区域之间的交互来控制电子设备,其中,从电子设备的显示区域划分所述输出区域和所述控制区域。以下描述中采用便携式终端作为电子设备的代表性示例。然而,本发明的方法、设备和系统不限于用于便携式终端,本发明可应用具有任意种类的允许用户手势(gesture)的输入和输出的输入单元和输出单元的各种电子设备,根据以下描述的示例性实施例解释所述电子设备。例如,本发明的电子设备可包括便携式终端(例如,移动通信终端、PDA(个人数字助理)、便携式游戏终端、数字广播播放器和智能手机)、显示装置(例如,TV(电视机)、LFD(大屏幕显示器)、DS(数字标牌)和媒体柱(media pole)),仅举几个可能性。即,可应用本发明的电子设备包括所有信息通信设备、多媒体设备及其应用设备。此外,本发明的输入单元包括触摸板、触摸屏、运动传感器、语音识别传感器、遥控器和指针设备。
因此,虽然以下描述的本发明的示例性实施例使用作为代表性示例的便携式终端论述了方法、设备和系统,但是本发明不限于便携式终端及其操作方法,并且本发明不仅可应用到便携式终端,还可应用到包括显示器的各种电子设备。
本发明提供用于在便携式终端的触摸屏中进行对象导航的方案。在以下本发明示例性实施例中,对象指的是根据执行应用显示的各种类型的项目。换言之,对象指的是根据执行应用而激活的用户界面(UI)提供的各种类型的项目。例如,对象可包括诸如专辑、音乐文件、照片文件和文本消息的项目。可以以图标、文本或图像提供这种项目。本发明实施例提出用于多媒体项目的导航的盘用户界面,并作为代表性示例论述了在盘用户界面中的多媒体项目之间的导航。
根据本发明示例性实施例,触摸屏被划分为用于输出对象的对象输出区域(以下,称为“输出区域”)和用于控制在输出区域上显示的对象的对象控制区域(以下,称为“控制区域”)。特别是,控制区域显示用于控制对象的操作的图形用户界面(GUI)对象,所述GUI对象可根据执行应用而具有不同形状。
根据如上所述的本发明示例性实施例,由于可以通过从触摸屏划分的输出区域和控制区域之间的交互来执行对象导航,因此,本发明可直观地提供导航引起的信息变化,并可根据导航确保用户的视觉区域。
如上所述,本发明示例性实施例提出包括显示对象(例如,多媒体项目)的第一区域和显示用于控制对象的操作的GUI对象的第二区域的便携式终端。此外,本发明提出这种方案,即,独立地控制第一区域和第二区域,通过相应的对象执行导航以及在便携式终端中有机地改变对象。
以下,参照附图对根据本发明示例性实施例的安装有触摸屏的便携式终端进行描述。然而,应该注意的是,本发明的便携式终端不限于以下描述,并基于以下描述的示例可将本发明应用到各种附加示例。
图1示出根据本发明示例性实施例的具有触摸屏的便携式终端的示例。
现在参照图1中示出的示例,便携式终端优选地包括划分为输出区域200和对象控制区域300的触摸屏100,其中,所述输出区域200用于显示对象150,所述对象控制区域300用于控制显示在输出区域200上的对象150。控制区域300提供用于控制对象150的操作的GUI对象。将参照附图对在控制区域300中的GUI对象进行更加详细地描述。在此,在图1的触摸屏100的输出区域中示出的对象150是与多媒体项目相应的对象的示例。
此外,在根据本发明的示例性便携式终端中,控制区域300可扩展到由标号350指定的部分。标号350指定的部分包括触摸垫部分。即,根据本发明,触摸屏100可被划分为输出区域200和控制区域300,可通过在触摸屏100和与触摸屏100相邻的触摸垫之间的有机组合来扩展控制区域300。
从控制区域300扩展的扩展控制区域350包括GUI区域310和PUI区域330。GUI区域310与控制区域300相应,其中,所述GUI区域310是在触摸屏100的与PUI区域330对称的区域,PUI区域330与触摸垫相应。将触摸屏100的GUI区域310和触摸垫的PUI区域330设置为相互邻近并有机地相互连接。在图1中示出的示例中,触摸垫设置在触摸屏100的低端之下并与触摸屏100的低端相邻。
同时,根据本发明的示例性实施例,为描述目的提供了输出区域200和控制区域300之间的区分,并且输出区域200不仅显示各种形状的对象150还允许用户的输入事件。此外,虽然控制区域300被描述为用于输入控制对象150的事件的区域,但是本领域普通技术人员应该理解和认识,控制区域300可显示各种形状的GUI对象。
即,输出区域200与用于输出对象150的区域相应,用户可通过在输出区域200中的输入事件来直观地控制对象150的移动。此外,为了防止事件的输入隐藏相应的对象150,用户可使用控制区域300来控制对象150的移动。此时,可根据使用控制区域300的输入事件来控制显示在输出区域200中的对象150的导航。
控制区域300还与通过GUI对象表示的区域相应,所述GUI对象用于控制在输出区域200中存在的对象150。当用户利用直接控制输出区域200的对象150时,控制区域300的GUI对象根据直接控制而变化。输出区域200和控制区域300通过相互交互来进行操作。换言之,当在输出区域200和控制区域300中的一个中发生输入时,在另一区域中发生输出。
将显示在控制区域300中的GUI对象提供为根据执行应用而适应性地变化的虚拟项目。即,不将GUI对象固定为特定类型。通过在GUI对象中产生输入事件,用户可控制在输出区域200中的对象150的导航。以下,将参照附图对GUI对象和使用其的对象导航的示例进行描述。
同时,触摸垫优选地与这种物理介质相应,即,所述物理介质通过用户与便携式终端之间的交互处理用户输入。特别是,触摸垫包括用于控制对象操作的控制区域。
本发明的便携式终端不限于如上参照图1描述的形状,并包括具有被划分为输出区域200和控制区域300的触摸屏100的所有类型的便携式终端。在此提供的示例不表示或暗示输出区域的大小对控制区域的大小的任何比率。此外,本领域普通技术人员应理解和认识,根据本发明的便携式终端不限于任何特定类型的这种便携式终端,即,所述每个便携式终端具有被划分为输出区域200和控制区域300的触摸屏100,并具有通过触摸屏100的GUI区域与触摸垫的PUI区域之间的有机结合形成的扩展控制区域350。
参照图1进行的如上描述,本发明提出了具有包括显示对象150的第一区域和显示用于控制对象的GUI对象的第二区域的触摸屏的便携式终端,和用于在便携式终端中控制对象的导航的方法。
在本发明示例性实施例中,提供给第一区域的对象沿在第一区域中发生的用户输入事件前进的方向移动,并通过第二区域的GUI对象提供关于对象的变化信息。此外,根据在第二区域的GUI对象中发生的用户输入事件的进行程度来移动第一区域的对象。例如,关于手势,当在第一区域中发生“轻弹”事件时,对象显示沿轻弹事件前进方向移动,同时将其它虚拟项目提供为第二区域的GUI对象。
以下,将描述用于在如上所述的包括输出区域和控制区域的移动终端中控制对象导航的方法。应该注意的是,本发明不限于以下描述的示例性实施例,并基于至少以下示例性实施例,本发明可应用到各种其它应用。
图2是示出根据本发明示例性实施例的在便携式终端中对象导航控制的方法的流程图。
现在将参照图1和图2,便携式终端首先根据用户请求执行应用(步骤201),并根据应用显示屏幕数据(步骤203)。在此,屏幕数据包括根据执行的应用而提供的特定项目的对象。例如,屏幕数据可包括,例如,图1中示出的多媒体项目的对象150。
然后,便携式终端可检测用户的控制输入(步骤205)。可在便携式终端的触摸屏或触摸垫中发生控制输入。在图2的流程的示例性操作中,在触摸屏中发生控制输入,并且便携式终端检测控制输入。控制输入与用户的输入事件相应。所述输入事件可以是各种类型的触摸输入,包括“轻敲”事件、“掠过”事件、“轻弹”事件和“拖放”事件。
仍参照图2,当便携式终端检测到通过触摸屏的用户的控制输入时,便携式终端确定控制输入是在控制区域300中发生的输入(步骤211),还是在输出区域200中发生的输入(步骤221)。
结果,当确定控制输入是在控制区域300中发生的输入时(步骤211),便携式终端基于在控制区域中发生的输入事件在输出区域中控制对象导航,并控制控制区域的GUI对象的变化项目(步骤213)。在此,在步骤213中的输入事件可以是掠过事件或轻弹事件的识别,并基于掠过事件的前进方向控制导航和变化项目。此后,便携式终端检查是否已完成输入事件(步骤215),并继续执行与步骤213相应的操作直到完成输入事件。
当完成输入事件的输入时(步骤215),即,当释放输入事件时,便携式终端显示释放时间点的信息(步骤241)。即,便携式终端显示根据输入事件的在输出区域中的导航的对象,以及在控制区域的GUI对象中变化的变化项目。此后,便携式终端执行相应的操作(步骤243)。例如,便携式终端可继续执行如上所述的通过输入事件的对象导航或执行诸如当前提供的对象的执行或再现的操作。
然而,当确定控制输入是在输出区域200中发生的输入时(步骤221),便携式终端基于在输出区域中发生的输入事件控制在输出区域中的对象导航,并控制控制区域的GUI对象的变化项目(步骤223)。在此,在步骤223中的输入事件可以是掠过事件或轻弹事件,并基于掠过事件或轻弹事件的输入方向控制导航和变化项目。此后,便携式终端检查是否已完成了输入事件(步骤225),并可继续执行与步骤223相应的操作直到完成输入事件。此后,便携式终端可执行与对应于与步骤241至243相关的上述描述的操作。
当确定控制输入既不是控制区域中的输入也不是输出区域中的输入时(步骤211和221),便携式终端根据在触摸屏100上发生的用户的输入事件执行相应的操作(步骤231)。例如,当发生与特定对象相关的轻敲事件时,根据本发明,可以执行与相应的对象链接的应用,进入子菜单或响应于命令对象的再现的输入事件而再现对象。
上述描述论述了根据本发明示例性实施例的在便携式终端中通过输出区域与控制区域之间的交互来控制对象导航的方法的示例性操作。以下,基于屏幕的示例性示图,将更详细的描述参照图1和图2的上述操作的示例。应该注意的是,当前主张要求保护的发明不限于屏幕的示例性示图,并且基于以下描述的示例性实施例可应用到各种实施例。
图3是示出根据本发明示例性实施例的当在输出区域中执行对象导航时的示例性屏幕的示图。
在图3中示出的屏幕与在本发明的触摸屏100的输出区域200中执行对象导航的示例性屏幕相应,并显示了与输出区域200相关的控制区域300的变化信息。
图3基于这种假设,即,输入事件是轻敲事件以及提供的对象包括多媒体项目。如图3所示,可将多媒体项目显示为与一般紧凑盘(CD)形状相似的项目,所述项目例如可具有特定艺术家的专辑的形状/显示。
仍参照图3,首先,用户可在对象输出区域200上提供的对象中的对象151上产生输入事件(即,轻弹事件),其中,当前激活所述对象151并且可由用户控制所述对象151。在图3中,对象151是艺术家A的专辑A。
然后,对象151沿用户的轻弹事件前进方向(例如,左向)移动,并移动到由标号152指定的对象位于的区域,然后被失活。此外,由标号153指定的对象被移动到对象151位于的区域,然后失活(deactive)。此时,可将失活状态的新对象154提供到对象153位于的区域。根据轻弹事件导航和激活的对象153可以是,例如,艺术家B的专辑B。
如上所述,用户可在对象输出区域200上直接控制期望的对象151的导航。在此,当直接控制对象输出区域200时,与输出区域200一起操作控制区域300。
换言之,当在对象输出区域200中根据轻弹事件执行对象之间的导航或变化时,便携式终端通过更新在控制区域300的GUI对象400上提供的变化项目450来提供导航引起的变化信息。GUI对象400与虚拟项目相应,并且可根据执行应用采用不同形状。在图3中,通过字母表提供GUI对象400,并在字母表上提供根据导航的变化信息。
在图3中,GUI对象400显示与多媒体项目对象相应的每个索引符号或通过变化项目450显示索引符号之间的位置变化。在图3中,索引符号可以与每个多媒体项目对象的第一字母相应,从而根据每个对象的第一字母对索引进行字母化。
例如,假设专辑A的文件名是“AAA”以及专辑B的文件名是“BBB”,当专辑A位于激活区域时,变化项目450位于控制区域300的GUI对象400中的字母“A”上。另外,当专辑B位于激活区域时,变化项目450位于控制区域300的GUI对象400中的字母“B”上。
如上所述设置的变化项目450提供变化信息。如图3所示,变化项目450可以是指示在输出区域200中激活的对象的位置的标记项目。变化项目450是用于指示激活对象的位置的项目,并且可通过使用如图3所示的特定类型的项目、颜色项目、块效果项目凹雕(intaglio)项目等来提供变化项目450。
如上面参照图3的所述,根据在输出区域200中的轻弹事件输入,将输出区域200的对象从专辑A的对象导航到专辑B的对象,将在控制区域300的GUI对象400上提供的变化项目450从字母A的位置移动到字母B的位置。
图4是示出根据本发明示例性实施例的当在控制区域中执行对象导航时的示例性屏幕的示图。
图4中示出的屏幕与这种屏幕相应,即,在该屏幕执行由本发明的触摸屏100中的控制区域300执行对象输出区域200中的对象的导航并显示控制区域300的变化信息。
图4示出基于这种假设的示例,即,输入事件包括掠过事件并且提供的对象是多媒体项目。在此,虽然图4示出通过掠过事件的顺序导航控制,但是例如还可通过轻敲事件进行控制。例如,通过在控制区域300的GUI对象400的特定字母上发生的轻敲事件,本发明允许直观移动到具有与特定字母相同的第一字母的对象,并允许显示所述对象。
首先,用户可在控制区域300中提供的GUI对象400上执行掠过事件发生。GUI对象400可包括与上面参照图3描述的字母表相应的虚拟项目。
然后,便携式终端根据由用户执行的掠过事件的进行程度处理在输出区域200上显示的对象的导航。作为示例,以下将描述在与对象151相应的在控制区域300的GUI对象400的字幕A上提供变化项目450的情况。
参照图4,首先,如果用户在GUI对象400上的字母A处开始掠过事件并在字母C处终止掠过事件,则从与字母A相应的对象开始通过与字母B相应的对象到与字幕C相应的对象顺序地执行对象转换动或导航。另外,将在掠过事件完成的时间点与字母C相应的对象提供给激活区域。
即,如果用户在GUI对象400上的字母A处开始掠过事件并在字母C处终止掠过事件,则根据掠过事件将对象153和对象154顺序地提供给当前激活的对象151的中心位置(在这种情况)。此外,可将在失活状态中的新对象155提供给专辑C的对象154先前位于的区域。因此,例如,通过掠过事件来导航和最终激活的对象154可以是艺术家C的专辑C。
如上所述,可根据控制区域300的掠过事件来执行输出区域200的对象之间的转换。此外,通过控制区域300的变化项目450和GUI对象400来提供导航引起的变化信息。GUI对象400与虚拟项目相应,并且可根据执行应用以不同形状提供GUI对象400。在图4中,通过按字母顺序划分的列表提供了GUI对象400,并且将根据导航的变化信息提供在字母表上。
可如上所述设置的变化项目450提供变化信息。变化项目450可包括指示输出区域200中激活的对象的位置的标记项目,并且可通过使用如图3所示的特定类型的项目、颜色项目、块效果项目、凹雕项目等来提供变化项目450。
如参照图4进行的上述描述,根据在控制区域300中的掠过事件输入,将输出区域200的对象从专辑A的对象导航至专辑C的对象,在GUI对象400上提供的变化项目450从字母A的位置移动到字母C的位置。
根据如上所述的本发明,可通过控制区域300的控制来执行在控制区域300中的对象的导航。因此,可以通过控制区域300仔细搜索按在相应类型(category)中的特定顺序(例如,字母顺序)排列的对象。例如,可以快速地仔细搜索按子母顺序排列的专辑名称。
图5是示出根据本发明示例性实施例的用于通过输出区域和控制区域之间的交互来执行特定应用的示例性屏幕的示图。
现在参照图5,可通过根据对象输出区域200中的导航将激活的特定对象150移动到控制区域300的输入事件,用户执行诸如对象150的执行或再现的操作。图5是基于输入事件是拖放事件的假设。
如图5所示,通过拖放事件将对象150从对象输出区域200移动到控制区域300。然后,在识别从对象输出区域200至控制区域300的对象150的拖放的同时,便携式终端可执行与对象150相应的应用。
在图5示出的示例中,当便携式终端已识别了对象150已别进行拖放到控制区域300时,便携式终端执行用于对象150的再现的音乐再现功能的应用,并通过应用再现与对象150相关的音乐。例如,便携式终端再现记录在艺术家B的专辑B中的音乐文件。
此时,在控制区域300上提供的GUI对象400在变化为与执行应用相应的新的虚拟项目之后,提供该GUI对象400。即,如图5所示,GUI对象400优选地包括与提供的音乐文件的再现相关的虚拟项目(
Figure G2010100015329D00111
||,
Figure G2010100015329D00112
)。此外,在对象输出区域200中提供的对象在变化为与执行应用相应的新对象之后,提供该对象。即,如图5所示,显示包括诸如与音乐文件的再现相关的图形量化器、处理条、音乐文件的名称和歌词的对象的屏幕数据。
此时,如图5所示,当由用户选择的对象150从输出区域200移动到控制区域300时,便携式终端可向用户提供反馈(例如,语音和视觉效果)以增强真实性。
如图1至图5所示,根据本发明的便携式终端提供盘用户界面(DUI),从而可以容易地和快速地在盘用户界面中的输出区域200与控制区域300之间的交互来执行对象导航并执行选择的对象。
以下,将参照图6和图7的直观示图描述上面参照图1至图5论述的操作。
图6是示出根据本发明示例性实施例的通过对象输出区域执行选择的对象和对象导航的处理的示图。
现在参照图6,标号610指示在本发明的列表示图模式中的屏幕。例如,由标号610指定的屏幕与提供存储在便携式终端中的专辑内容的列表的示例性屏幕相应。然后,当发生用户执行的用于从列表示图模式转换到图像示图模式的轻敲事件时,如由标号620指定的屏幕所示,在将模式从列表示图模式变化到图像示图模式之后,便携式终端提供专辑内容。图像示图模式与如上所述的本发明提出的盘用户界面相应。可通过由标号615指定的轻敲点输入轻敲事件,所述轻敲点用于在列表示图模式与图像示图模式之间转换。
此外,当用于将模式从屏幕620所示的图像示图模式转换到列表示图模式的模式转换的用户轻敲事件发生时,在将模式变化到屏幕610所示的列表示图模式之后,便携式终端可提供屏幕。可通过由标号625指定的轻敲点输入轻敲事件,所述轻敲点用于在列表示图模式与图像示图模式之间转换。
然后,在屏幕620所示的图像示图模式中,用户可通过在当前输出区域200中激活的用于专辑内容的导航的对象来输入输入事件。假设输入事件是输入到对象输出区域200的轻弹事件。
所以,便携式终端基于轻弹事件的前进方向控制对象导航。例如,如果轻弹事件沿在屏幕620上显示的专辑A的对象向左前进,则如屏幕630所示,便携式终端将专辑A的对象向左移动,然后激活专辑B的对象,并在激活位置提供专辑B的对象。此时,在从专辑A的对象至专辑B的对象的转换期间,如示出的那样便携式终端可提供与从专辑A到专辑B的实际盘变化看起来相似的直观屏幕。
此外,便携式终端在与专辑B的对象相应的字母的位置显示变化项目450,其中,所述专辑B的对象是作为对象转换的结果而当前位于激活区域中的对象。即,响应于通过用户轻弹事件的对象转换,便携式终端适应性地变化字母B上显示的变化项目450,并将其提供为控制区域300的GUI对象400而提供所述字母B。
然后,当如屏幕620或630所示特定对象位于激活位置并在激活位置中被激活时,用户可进行命令,例如,特定对象的执行或再现。
例如,如由标号630指定的屏幕所示,用于可通过输入事件将当前激活的专辑B对象从输出区域200移动到控制区域300。在此,假设输入事件,例如,是拖放事件。
所以,响应于通过用户的拖放事件,便携式终端将专辑B对象从输出区域200拖放到控制区域300。然后,识别在控制区域300中的专辑B对象的放的同时,如由标号640指定的屏幕所示,便携式终端执行专辑B对象。参照图6的上述示例性描述与这种情况相应,即,便携式终端执行与专辑内容的再现相关的应用并通过应用执行包括在专辑B对象中音乐文件的再现。
图7示出根据本发明的另一示例性实施例的通过控制区域的对象导航和执行选择的对象的处理。
现在将参照图7,标号710指示在本发明的列表示图模式中的屏幕。例如,由标号710指定的屏幕与提供存储在便携式终端中的专辑内容的列表的示例性屏幕相应。然后,当发生由用户执行的用于从列表示图模式移动到图像示图模式的轻敲事件时,如由标号720指定的屏幕所示,在将模式从列表示图模式变化到图像示图模式之后,便携式终端提供专辑内容。图像示图模式与如上所述的本发明提出的盘用户界面相应。可通过由标号715指定的轻敲点输入轻敲事件,所述轻敲点用于在列表示图模式与图像示图模式之间转换。
此外,当用于将模式从屏幕720所示的图像示图模式转换到列表示图模式的用户轻敲事件发生时,在将模式变化到屏幕710所示的列表示图模式之后,便携式终端可提供屏幕。可通过由标号725指定的轻敲点输入轻敲事件,所述轻敲点用于在列表示图模式与图像示图模式之间转换。
然后,在屏幕720所示的图像示图模式中,用户可在控制区域320中输入用于专辑内容的导航的输入事件。在此,输入事件可包括,例如,输入到对象输出区域200的轻敲事件或掠过事件。图7是基于输入事件包括掠过事件的假设。
所以,根据本发明,便携式终端基于掠过事件的进行程度控制对象导航。例如,如由标号720指定的屏幕所示,用户可在控制区域300的开始轻敲点处,即,在GUI对象400上的字母A的位置,开始掠过事件。掠过事件的开始可以与用户触摸的步骤相应。此后,用户可从字母A的位置向字母Z的位置进行掠过事件。掠过事件的进行可以与用户触摸之后的移动的步骤相应。然后,根据掠过事件的进行,如由标号730指定的屏幕所示,便携式终端顺序地变化和显示在输出区域200的激活区域上的对象。
此外,便携式终端在与专辑B的对象相应的字母的位置上显示变化项目450,其中,所述专辑B的对象是作为对象转换的结果而当前位于激活区域中的对象。即,响应于通过用户的掠过事件的对象转换,便携式终端适应性地变化在字母B上显示的变化项目450,并将其提供为控制区域300的GUI对象400而提供所述字母B。
当如屏幕720或730所示,特定对象位于激活位置并在激活位置中被激活时,用户可进行命令,例如,特定对象的执行或再现。
例如,如由标号730指定的屏幕所示,用户可通过输入事件将当前激活的专辑B对象从输出区域200移动到控制区域300。在此,假设输入事件是,例如,用户执行的拖放事件。
所以,响应于拖放事件,便携式终端将专辑B对象从输出区域200拖放到控制区域300。然后,在识别在控制区域300中的专辑B对象的放下的同时,如由标号740指定的屏幕所示,便携式终端执行专辑B对象。参照图7的上述描述与这种情况相应,即,便携式终端执行与专辑内容的再现相关的应用并通过应用执行包括在专辑B对象中的音乐文件的再现。
此外,用户可通过在控制区域300中的字母中的特定轻敲点上执行轻敲事件来直接移动到期望的对象。例如,当用户在分配给字母F的轻敲点上进行轻敲事件时,响应于该轻敲事件,便携式终端可立即在输出区域200的激活区域上提供专辑F的对象。此时,在转换到专辑F的对象期间,便携式终端可提供与实际盘变化相似的直观屏幕。例如,通过直观界面,便携式终端可在激活区域上顺序地从当前对象至最终对象的显示对象,其中,所述最终对象是专辑F的对象。
同时,如由标号750指定的屏幕所示,用户可搜索在激活区域上提供的特定对象的详细信息。例如,用户可产生与分配给控制区域300的字母F的轻敲点的“长按压”相应的输入事件。然后,响应于该输入事件,便携式终端可将与字母F相应的对象提供给激活区域并直观地提供对象的详细信息。例如,如果与字母F相应的对象被称为专辑F对象,则便携式终端通过信息提供区域755适应性地提供包括在专辑F对象中的音乐文件的信息(名称等)。
即,专辑F对象包括名称为A的音乐文件、名称为B的音乐文件、名称为C的音乐文件和名称为D的音乐文件,则便携式终端在释放输入事件的时间点,通过信息提供区域755顺序地显示从名称A至名称D的音乐文件的详细信息。即,便携式终端从A到D顺序地显示名称以进行可能的选择。
此外,当提供如上所述的搜索特定对象的功能时,便携式终端可提供在激活区域中旋转特定对象的效果。即,便携式终端可提供直观信息的视觉屏幕,其中,所述直观信息报告当前正在执行专辑F对象的搜索。
图8示出根据本发明示例性实施例的用于通过输出区域和控制区域之间的交互来控制对象导航的示例性屏幕。
图8示出根据本发明的另一种列表示图模式。例如,图8中示出的屏幕与提供如参照图6和图7所述的专辑内容的块列表的示例性屏幕相应,其中,所述专辑内容存储在便携式终端中。从图8可以看出,图8的输出区域200不包括激活区域。
因此,用户可通过在输出区域200中的块列表在专辑内容(例如,专辑A至专辑I的内容)中的特定对象上输入轻敲事件。然后,便携式终端,例如,通过使用高亮显示、不同颜色、亮度、变化大小、闪烁等来以一种方式显示发生轻敲事件的特定对象以使得该特定对象与其它对象(通常视觉地)相区分,并在GUI对象450上显示与特定对象相应的变化项目450。
例如,如由标号810指定的屏幕所示,当用户在专辑E对象上执行轻敲事件时,便携式终端高亮显示专辑E对象并在字母E的位置(即,与专辑E对象相应的GUI对象400)上显示变化项目450。
然后,用户可进行从包括A至I专辑的类型至包括不同专辑内容的先前或下一类型的类型转换。换言之,如果用户在对象输出区域200中引起轻弹事件,则便携式终端可从当前类型转换到下一或先前类型,并且可提供包括新专辑对象的另一块。
作为示例,如屏幕810和屏幕820所示,当用户在输出区域200中执行左向轻弹事件时,便携式终端响应于轻弹事件,示下一类型的专辑内容(例如,专辑J至专辑R的内容)。此外,在类型转换之后,便携式终端可在分配给最高轻敲事件点的对象上提供高亮显示,并在控制区域300中的GUI对象450中的与高亮显示的对象相应的字母(字母J)上显示变化项目450。
此外,用户可使用控制区域300的GUI对象400执行导航。例如,如屏幕820和830所示,用户可在控制区域300中的GUI对象400中的字母J的位置处开始掠过事件。掠过事件的开始与用户触摸的步骤相应。下面,用户可从字母J的位置向字母Z的位置按半圆形进行掠过事件,并且可在字母Q的位置处释放掠过事件。掠过事件的进行可以与用户触摸之后的移动步骤相应。
然后,响应于掠过事件,从输出区域200的专辑J对象至专辑Q对象顺序地高亮显示对象的同时,便携式终端通过将专辑Q对象识别为最终选择的对象来如屏幕830所示的高亮显示专辑Q对象,其中,在所述专辑Q对象上释放掠过事件。此外,便携式终端在控制区域300的GUI对象400的字母Q的位置上显示变化项目450。
然后,如参照图6和图7所述,用户可进行命令,例如,特定对象的执行或再现。
例如,由标号810至830指定的屏幕所示,用户可通过输入事件将特定对象从输出区域200移动至控制区域300。在此,假设输入事件,例如,是拖放事件。
所以,响应于拖放事件,便携式终端将特定对象从输出区域200拖放到控制区域300。然后,在识别控制区域300中的特定对象的放下的同时,便携式终端执行特定对象。参照图8进行的上述描述与这种情况相应,即,便携式终端执行与专辑内容的再现相关的应用并通过应用执行特定对象所包括的音乐文件的再现。
同时,本领域普通技术人员理解和认识,可通过输出区域200中的轻弹事件或控制区域300的GUI对象400上的掠过事件来执行图8中的类型转换。例如,在屏幕810中,用户可在控制区域300的开始轻敲点(即,GUI对象400的字母A位置)开始掠过事件,并如屏幕830所示在掠过事件进行到字母Q的位置之后释放掠过事件。然后,响应于掠过事件,便携式终端执行如屏幕810所示的从专辑A对象至专辑I对象的顺序导航,转换类型,然后,执行顺序导航至专辑Q对象。
图9示出根据本发明另一示例性实施例的用于通过输出区域和控制区域之间的交互来控制对象导航的示例性屏幕。
图9示出根据本发明的另一种列表示图模式。例如,图9中示出的屏幕与提供便携式终端所存储的文本消息的列表的示例性屏幕相应。从图9可以看出,图9的输出区域不包括激活区域,通过数字项目提供GUI对象400。
因此,用户可在从以列表提供在输出区域200中的文本消息项目(例如,1号至6号项目号的消息)中的特定对象上输入轻敲事件。然后,便携式终端以这种方式显示发生轻敲事件的特定对象,即,例如通过使用高亮显示等允许将特定对象从与其它对象相区分并在与特定对象相应的GUI对象400上显示变化项目450。
例如,如由标号910和920指定的屏幕所示,当用户在输出区域200所提供的对象中的6号项目上进行轻敲事件时,便携式终端高亮显示6号项目并在6号的位置(即,与6号项目相应的GUI对象400)上显示变化项目450。
然后,用户进行从包括1号项目至6号项目的消息的类型至包括不同消息项目的先前或下一类型的类型转换。换言之,如果用户在对象输出区域200中引起轻弹事件,则便携式终端可根据轻弹事件的前进方向从当前类型转换到下一或先前类型并提供包括新对象的另一列表。
作为示例,如屏幕920和930所示,当用户在输出区域200中执行左向轻弹事件时,便携式终端响应于轻弹事件显示下一类型的对象(例如,7号项目至12号项目的消息)。此外,类型转换之后,便携式终端可在另一GUI对象400上显示变化项目450。
此外,用户可使用控制区域300的GUI对象400执行导航。例如,如屏幕920和930所示,用户可在控制区域300中的GUI对象400中的1号的位置处开始掠过事件。此后,用户可从1号的位置至30号的位置以半圆形进行掠过事件,并且可在10号的位置处释放掠过事件。
然后,响应于掠过事件,便携式终端顺序地高亮显示输出区域200的1号对象至10号对象中的对象的同时显示对象,然后通过将释放掠过事件处的10号对象识别为最终选择的对象,来如屏幕930所示高亮显示10号对象。此外,便携式终端在控制区域300的GUI对象400的10号的位置上显示变化项目450。
然后,如参照图6和图7的描述,用户可进行命令,例如,特定对象的执行或再现。
例如,如由标号910和至940指定的屏幕所示,用户可通过输入事件来将特定对象从输出区域200移动到控制区域300。这里,假设输入事件包括,例如,拖放事件。
所以,响应于拖放事件,便携式终端将特定对象从输出区域200拖放到控制区域300。然后,识别在控制区域300中的特定对象的放下的同时,便携式终端执行特定对象。参照图9的上述描述与这种情况相应,即,便携式终端执行与接收的文本消息的执行相关的应用并通过该应用显示特定对象的内容或提供本文消息书写屏幕。
即,如图9的情况所示,根据用户设置,本发明渲染,可以使用控制区域300来指定执行应用。例如,通过指定识别应用的文本消息,根据上述处理可以显示文本消息的内容。此外,根据上述处理,通过指定回复应用,可以显示文本消息书写屏幕,其中,所述文本消息书写屏幕允许书写对接受文本消息的回复文本消息。
同时,无需说明,可通过在输出区域200中的轻弹事件或在控制区域300的GUI对象400上的掠过事件来执行图9中的类型转换。
此外,用户可通过在控制区域300中的数字中的特定轻敲点上进行轻敲事件来直接移动到期望的对象。例如,当用户在屏幕910至930中的分配有27号的轻敲点上进行轻敲事件时,便携式终端可响应于该轻敲事件,立即在输出区域200中提供包括27号项目的对象的类型。
参照图1至图9进行的上述示例性描述论述了根据本发明实施例的通过触摸屏的输出区域和控制区域之间的交互来控制对象导航的方法以及根据该方法的示例性屏幕。以下,论述参照图1至图9的上述描述而执行本发明的操作的便携式终端。需要注意的是,本发明不限于以下描述的便携式终端,可应用到基于便携式终端的各种修改。
虽然本发明不限于移动通信终端,但是以下描述基于这种假设,即,以下描述的便携式终端包括移动通信终端。
根据本发明的便携式终端可包括基于相应于各种通信系统的通信协议操作的所有移动通信终端、所有信息通信装置和包括便携式多媒体播放器(PMP)、数字广播播放器、数字个人助理(PDA)、便携式游戏终端和智能手机的多媒体装置,及其应用装置。以下,将参照图10描述根据本发明的便携式终端的总体结构。
图10是示意性示出根据本发明的便携式终端的结构的框图。作为示例,图10中示出的便携式终端优选是移动通信终端。然而,本发明的便携式终端不限于移动通信终端。
参照图10,根据本发明的便携式终端优选地包括射频(RF)单元1010、音频处理单元1020、输入单元1030、触摸屏100、存储单元1050、控制单元1060。此外,触摸屏100包括输出区域200和控制区域300,输入单元1030包括触摸垫1040。
RF单元1010执行便携式终端的通信。RF单元1010与可支持移动通信网络建立通信信道,并执行通信,例如,语音通信、视频电话通信和数据通信。RF单元1010包括用于将上转换和放大输出信号的频率的RF发送器单元和用于低噪声放大输入信号并下转换输入信号的频率的RF接收器单元。可根据本发明的便携式终端的种类,省略RF单元1010。
音频处理单元1020优选地连接到麦克风和扬声器,并将从麦克风输入的模拟语音信号转换为数据并将转换的数据输出到控制单元1060,并通过麦克风输出从控制单元1060输入的语音信号。即,音频处理单元1020将从麦克风输入的模拟语音信号转换为数字语音信号或将从控制单元1060输入的数字语音信号转换为模拟语音信号。音频处理单元1020可根据用户的选择再现各种音频分量(例如,通过MP3文件的再现产生的音频信号)。可根据本发明的便携式终端的种类省略音频处理单元1020的语音信号处理功能。
输入单元1030接收各种文本消息并将与各种功能的设置和便携式终端的功能控制相关的输入信号发送到控制单元1060。输入单元1030根据用户的动作来产生输入信号,并可包括输入装置,例如,键区或触摸垫。根据本示例性实施例,输入单元1030包括触摸垫1040,并可接收用户的输入事件。
触摸垫1040可包括用于通过用户与便携式终端之间的交互来处理用户输入的物理介质。特别是,触摸垫1040包括用于如参照图1至图9描述的输入用户输入事件的触摸区域。在检测触摸区域中的输入事件的同时,触摸垫1040将输入事件发送到控制单元1060。然后,控制单元1060响应于输入事件处理对象导航。根据本发明,输入单元1030可仅包括触摸点1040。
触摸屏100与同时执行输入功能和显示功能二者的输入/输出装置相应。根据用户的键操作和功能设置,触摸屏100显示在便携式终端的操作期间发生的屏幕数据并显示状态信息。即,触摸屏100可显示与便携式终端的状态和操作相关的各种屏幕数据。触摸屏100视觉地显示从控制单元1060输出的颜色信息和各种信号。此外,触摸屏100接收用户的输入事件。特别地,触摸屏100根据执行应用接收用于功能控制的轻敲事件、轻弹事件、掠过事件和拖放事件。触摸屏100根据如上所述的输入事件产生信号,并将产生的信号发送到控制单元1060。
特别地,根据本发明示例性实施例,触摸屏100包括输出区域200和控制区域300。输出区域200显示如参照图1至图9描述的对象。此外,输出区域200接收用于如上所述的对象导航的输入事件。
为了控制在输出区域200上提供的对象的导航,输出区域200与分配的区域相应。输出区域200显示用于控制在输出区域200上提供的对象的操作的GUI对象。将GUI对象提供为根据执行应用而变化的各种形式的虚拟项目。例如,可将GUI对象提供为字母形式或数字形式的虚拟项目。此外,输出区域200显示响应于输出区域200的对象导航而变化的变化项目。另外,控制区域300通过GUI对象接收用户的输入事件。
根据本发明示例性实施例,输入单元1030的触摸垫1040和触摸屏100设置为相互邻近,从而将触摸垫1040的触摸区域和触摸屏100的控制区域300有机地相互组合。
存储单元1050可包括只读存储器(ROM)和随机存取存储器(RAM)。存储单元1050可存储便携式终端产生和使用的各种数据。所述数据包括根据在便携式终端中执行应用而发生的数据和可由便携式终端产生或可从外部(例如,基站、对方便携式终端和个人计算机)接收之后存储的所有类型的数据。特别地,数据可优选地包括在便携式终端中提供的用户界面、根据便携式终端的使用的各种设置信息、用于每个执行应用的GUI对象集合和变化项目。此外,存储单元1050可包括在用于临时地存储在应用的执行期间发生的数据的至少一个缓冲器。
控制单元1060优选地执行便携式终端的一般功能,并控制便携式终端内的块之间的信号流动。控制单元1060控制诸如RF单元1010、音频处理单元1020、输入单元1030、触摸屏1040和存储单元1050的元件之间的信号流动。
特别地,控制单元1060通过触摸屏100的输出区域200与控制区域300之间的交互来控制对象导航。即,当在输出区域200和控制区域300之一中检测到用户的输入事件时,控制单元1060响应于输入事件处理通过输出区域提供的对象的导航。此外,响应于输入事件,控制单元1060处理在控制区域300中提供的GUI对象上的变化项目的位置转换。
执行控制操作的控制单元1060可控制如参照图1至图10所述的本发明的一般操作。可通过软件来实现控制单元1060的功能控制以执行本发明的操作。
此外,控制单元1060可包括用于便携式终端的移动通信服务的基带模块。此外,可在控制单元1060和RF单元1010中的每一个中安装基带模块,或者基带模块可独立于控制单元1060和RF单元1010。
为了便于描述,图10仅示出便携式终端的示意性构造。然而,本发明的便携式终端不限于示出的构造。
所以,本发明的便携式终端可包括以上没有提及的元件,该元件包括用于通过拍摄对象来获取图像数据的相机模块、能够接收数字广播的数字广播接收模块、用于近距离通信的近距离通信模块(NFC)和通过与互联网络的通信执行互联网功能的互联网通信模块。虽然,由于数字装置之间的集中的趋势引起以上没有提及元件的各种修改,所以不可能列举以上没有提及的所有元件,但是本发明的便携式终端还可包括上述元件的等同物。此外,无需说明的是,可省略一些上述元件,或可由本发明的便携式终端中的其它元件来代替上述元件,这对本领域技术人员来说是显然的。
如上所述,可将本发明应用到便携式终端,但不限于便携式终端。即,可将本发明应用到包括允许用户输入的输入单元的所有类型的电子设备。输入单元可包括所有类型的输入装置,诸如,用于通过识别用户运动来产生手势输入信号的运动传感器、用于根据特定对象(手指、触控笔等)的接触和移动来产生手势输入信号的触摸垫或触摸屏和用于通过识别用户的语音来产生手势输入信号的语音输入传感器。
此外,电子设备与安装有这种输入单元的设备相应,并包括便携式终端(PDA、移动通信终端、便携式游戏终端、PMP等)和显示装置(例如,TV、LFD(大屏幕显示器)、DS(数字标牌)和媒体柱等)。电子设备的显示单元可包括各种显示装置,诸如液晶显示器(LCD)、等离子显示面板(PDP)和有机发光二极管(OLED)。
此外,当将本发明实施在显示装置中时,可将输入单元实现为集成到显示装置或实现为独立装置的触摸垫或触摸屏。在此,独立装置指的是安装有陀螺传感器、加速度传感器、IRLED、图像传感器、触摸垫或触摸屏的装置,并且可识别运动或指针操作。例如,可将独立装置实现为遥控器。遥控器可包括用于识别用户的按钮输入的键区,或者可包括陀螺传感器、加速度传感器、IRLED、图像传感器、触摸垫或触摸屏,从而可以识别运动或指针操作并通过有线或无线通信将其控制信号提供给电子设备,从而使电子设备根据控制信号识别手势。
如上所述的根据本发明的电子设备可包括如上所述的本发明的便携式终端的相同元件,并可以与便携式终端相同方式操作。例如,本发明的显示装置包括显示输出区域和控制区域的显示单元、用于输入控制输入区域或控制区域的事件的用户输入单元和用于响应于所述事件而在输出区域中显示对象并显示用于控制在控制区域中的对象的GUI的控制单元。此外,显示装置的输出区域位于控制区域之上。
此外,所述显示装置的控制方法包括:确定是否输入了用于控制在控制区域中显示的GUI的事件;响应于所述事件,变化在显示区域中显示的对象。此外,所述控制方法包括:确定是否输入了用于控制在输出区域中显示的对象的事件;响应于所述事件,变化在控制区域中显示的图形用户界面。
根据本发明提出的便携式终端中的对象导航的方法和设备,将触摸屏划分为用于在其间交互的输出区域和控制区域,从而可以根据导航来提高用户便利性,并通过各种类型的导航控制来引起和提高用户兴趣。
此外,根据本发明,通过在本发明的触摸屏中的输出区域和控制区域之间交互来控制对象导航,从而可以在导航期间确保用户视觉区域并提供用户便利性。
另外,当在输出区域和控制区域之一中发生用于对象导航的输入时,在两个区域中提供根据导航的变化信息,从而使用户直观地识别根据导航的对象的变化信息。此外,本发明提供与在控制区域中的执行的应用相应的适当GUI对象,从而通过使用GUI对象来实现对象之间的快速导航。结果,用户可执行期望对象的快速搜索。
此外,在本发明中,从显示区域划分的输出区域和控制区域之间的交互可提供直观的用户界面。
可以以软件或软件或计算机代码以外的形式实现根据本发明的上述方法实现,所述软件或计算机代码可被存储在记录介质(例如,CD ROM、RAM、软盘、硬盘或磁光盘)或通过网络下载,从而可在通用计算机、或特殊处理器或在可编程或专用硬件(例如,ASIC或FPGA)中的软件来执行在此描述的方法。如本领域中理解的,计算机、处理器或可编程硬件包括可存储或接收软件或计算机代码的存储器部件(例如,RAM、ROM、闪存等),当计算机、处理器或硬件访问或执行所述软件或计算机代码时,所述软件或计算机代码实现在此描述的处理方法。
虽然,在此详细描述了本发明示例性实施例,但是应该可以清楚的理解在此描述的基本发明构思的各种变化和修改,所述各种变化和修改对本领域技术人员是清楚的,并且所述各种变化和修改仍落入权利要求限定的本发明示例性实施例的精神和范围内,这对本领域技术人员来说是显然的。

Claims (15)

1.一种对象导航控制系统,包括:
第一区域(200),显示对象(150);
第二区域(300),显示用于控制对象导航的图形用户接口GUI(310,400)。
2.如权利要求1所述的对象导航控制系统,其特征在于,当在第一区域(200)和第二区域(300)之一中发生用于导航的事件时,在第一区域(200)和第二区域(300)二者中提供根据导航的变化信息(450)。
3.如权利要求2所述的对象导航控制系统,其特征在于,第一区域(200)通过将被转换的对象提供变化项目(450),第二区域(300)通过在GUI(310,400)上显示的变化项目的位置变化来提供变化信息(450)。
4.如权利要求3所述的对象导航控制系统,其特征在于,第二区域(300)通过GUI(310,400)显示与根据事件而转换的对象(151,153)相应的每个索引符号,并通过变化项目来显示GUI(310,400)的每个索引符号的位置变化。
5.如权利要求1所述的对象导航控制系统,其特征在于,变化信息包括标记在第二区域(300)中激活的对象的位置的指示的项目,当在第一区域(200)中显示的特定对象(153)位于第二区域(300)时,执行特定对象(153)。
6.一种电子设备,包括:
显示单元(100),显示输出区域(200)和控制区域(300);
输入单元(1030),输入用于控制输出区域(200)或控制区域(300)的事件;
控制单元(1060),响应于事件在输出区域(200)中显示对象,并在控制区域(300)中显示用于控制对象(150)的图形用户界面GUI(310,400)。
7.如权利要求6所述的电子设备,其特征在于,当在输出区域(200)和控制区域(300)之一中发生用于导航的事件时,控制单元(1060)在输出区域(200)和控制区域(300)二者中提供根据导航的变化信息(450)。
8.如权利要求7所述的电子设备,其特征在于,控制单元通过显示在输出区域上的对象(151,152,153)之间的直接转换提供变化信息(450),并通过在GUI(310,400)上显示的变化项目的位置变化来提供变化信息。
9.如权利要求8所述的电子设备,其特征在于,控制区域(300)通过GUI(310,400)显示与根据事件的对象转换相应的每个索引符号,并通过变化项目显示GUI(310,400)的每个索引符号的位置变化。
10.如权利要求8所述的电子设备,其特征在于,输出区域(200)位于控制区域(300)之上,并且当在输出区域显示的特定对象位于控制区域时,在控制单元(1060)的控制下执行特定对象。
11.一种控制对象导航的方法,所述方法包括:
检测输出区域(200)和控制区域(300)之一中的事件;
响应于所述事件,控制在输出区域(200)中提供的对象(150)的导航和在控制区域(300)中提供的变化项目(450)的移动。
12.如权利要求11所述的方法,其中,输出区域(200)包括用于显示对象的区域,控制区域(300)包括用于控制显示对象的导航的图形用户界面GUI(310,400)。
13.如权利要求12所述的方法,其特征在于,所述控制在输出区域(200)中提供的对象的导航和在控制区域(300)中提供的变化项目的移动的步骤包括,响应于在输出区域中发生的事件,控制在输出区域中显示的对象的导航和在GUI上显示的变化项目的位置变化。
14.如权利要求13所述的方法,其特征在于,所述控制在输出区域(200)中提供的对象的导航和在控制区域(300)中提供的变化项目(450)的移动的步骤包括,响应于在控制区域(300)中发生的事件,控制在输出区域(200)中显示的对象的导航和在GUI(213,223)上显示的变化项目的位置变化。
15.如权利要求14所述的方法,其特征在于,所述控制在输出区域(200)中提供的对象的导航和在控制区域(300)中提供的变化项目(450)的移动的步骤包括:
通过GUI(203)显示与根据事件而转换的对象相应的每个索引符号;
通过变化项目(213,223)显示GUI的每个索引符号的位置变化;
当在输出区域中显示的特定对象位于控制区域时,执行特定对象(231,243)。
CN201010001532A 2009-01-06 2010-01-06 用于在电子设备中的对象之间的导航的方法和设备 Pending CN101770341A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2009-0000874 2009-01-06
KR1020090000874A KR20100081577A (ko) 2009-01-06 2009-01-06 휴대단말에서 오브젝트의 내비게이션 방법 및 장치

Publications (1)

Publication Number Publication Date
CN101770341A true CN101770341A (zh) 2010-07-07

Family

ID=41629552

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201010001532A Pending CN101770341A (zh) 2009-01-06 2010-01-06 用于在电子设备中的对象之间的导航的方法和设备

Country Status (4)

Country Link
US (1) US20100174987A1 (zh)
EP (1) EP2204721A3 (zh)
KR (1) KR20100081577A (zh)
CN (1) CN101770341A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103197844A (zh) * 2013-03-12 2013-07-10 广东欧珀移动通信有限公司 分区滑动实现快速标记列表项的方法及终端
CN105051705A (zh) * 2012-11-09 2015-11-11 微软技术许可有限责任公司 便携式设备及其控制方法

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9207717B2 (en) 2010-10-01 2015-12-08 Z124 Dragging an application to a screen using the application manager
US10289199B2 (en) * 2008-09-29 2019-05-14 Apple Inc. Haptic feedback system
US9600070B2 (en) * 2008-12-22 2017-03-21 Apple Inc. User interface having changeable topography
KR101686913B1 (ko) * 2009-08-13 2016-12-16 삼성전자주식회사 전자기기에서 이벤트 서비스 제공 방법 및 장치
GB201015720D0 (en) * 2010-09-20 2010-10-27 Gammons Richard Findability of data elements
JP5628625B2 (ja) * 2010-10-14 2014-11-19 京セラ株式会社 電子機器、画面制御方法および画面制御プログラム
US9589272B2 (en) * 2011-08-19 2017-03-07 Flipp Corporation System, method, and device for organizing and presenting digital flyers
US20130080932A1 (en) 2011-09-27 2013-03-28 Sanjiv Sirpal Secondary single screen mode activation through user interface toggle
JP6123155B2 (ja) * 2012-02-08 2017-05-10 ソニー株式会社 再生装置および再生方法、並びにプログラム
US20140281991A1 (en) * 2013-03-18 2014-09-18 Avermedia Technologies, Inc. User interface, control system, and operation method of control system
KR102158209B1 (ko) 2013-07-26 2020-09-22 엘지전자 주식회사 전자기기
USD704673S1 (en) * 2014-01-25 2014-05-13 Dinesh Agarwal Curved split-screen cellphone
CN105204796B (zh) * 2014-06-17 2019-01-15 联想(北京)有限公司 一种信息处理方法及电子设备
USD816678S1 (en) 2014-07-03 2018-05-01 Verizon Patent And Licensing Inc. Display panel or screen with graphical user interface
USD828364S1 (en) * 2014-07-03 2018-09-11 Verizon Patent And Licensing Inc. Display panel for a graphical user interface with flip notification
US10120529B2 (en) 2014-07-08 2018-11-06 Verizon Patent And Licensing Inc. Touch-activated and expandable visual navigation of a mobile device via a graphic selection element
KR102207208B1 (ko) 2014-07-31 2021-01-25 삼성전자주식회사 음악 정보 시각화 방법 및 장치
KR20160038413A (ko) * 2014-09-30 2016-04-07 삼성전자주식회사 콘텐츠 탐색 장치 및 콘텐츠 탐색 방법
CN106354418B (zh) * 2016-11-16 2019-07-09 腾讯科技(深圳)有限公司 一种基于触摸屏的操控方法和装置
JP1633445S (zh) * 2018-09-06 2019-06-10
USD921692S1 (en) * 2019-02-18 2021-06-08 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
WO2022014740A1 (ko) * 2020-07-15 2022-01-20 엘지전자 주식회사 이동 단말기 및 그 제어 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070155434A1 (en) * 2006-01-05 2007-07-05 Jobs Steven P Telephone Interface for a Portable Communication Device
CN101052939A (zh) * 2004-07-30 2007-10-10 苹果电脑有限公司 用于触敏输入设备的基于模式的图形用户接口
CN101226442A (zh) * 2007-01-20 2008-07-23 Lg电子株式会社 控制移动终端中的显示
CN101309311A (zh) * 2007-05-17 2008-11-19 三星电子株式会社 双向滑动式移动通信终端及其提供图形化用户界面的方法
CN101336407A (zh) * 2005-12-08 2008-12-31 苹果公司 响应于在索引符号的列表上移动接触点的列表滚动

Family Cites Families (115)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69129364T2 (de) * 1991-02-01 1998-10-22 Philips Electronics Nv Vorrichtung zur interaktiven Behandlung von Objekten
US5564112A (en) * 1993-10-14 1996-10-08 Xerox Corporation System and method for generating place holders to temporarily suspend execution of a selected command
JP3280559B2 (ja) * 1996-02-20 2002-05-13 シャープ株式会社 ジョグダイアルの模擬入力装置
US5883612A (en) * 1996-10-24 1999-03-16 Motorola, Inc. Method for positioning a vibrating alert adjacent to a selected alert in selective call device
US6211921B1 (en) * 1996-12-20 2001-04-03 Philips Electronics North America Corporation User interface for television
JP3304290B2 (ja) * 1997-06-26 2002-07-22 シャープ株式会社 ペン入力装置及びペン入力方法及びペン入力制御プログラムを記録したコンピュータ読み取り可能な記録媒体
US5940076A (en) * 1997-12-01 1999-08-17 Motorola, Inc. Graphical user interface for an electronic device and method therefor
US6037937A (en) * 1997-12-04 2000-03-14 Nortel Networks Corporation Navigation tool for graphical user interface
US6011542A (en) * 1998-02-13 2000-01-04 Sony Corporation Graphical text entry wheel
FR2776415A1 (fr) * 1998-03-20 1999-09-24 Philips Consumer Communication Appareil electronique comportant un ecran et procede pour afficher des graphismes
US6448987B1 (en) * 1998-04-03 2002-09-10 Intertainer, Inc. Graphic user interface for a digital content delivery system using circular menus
US6314573B1 (en) * 1998-05-29 2001-11-06 Diva Systems Corporation Method and apparatus for providing subscription-on-demand services for an interactive information distribution system
US6678891B1 (en) * 1998-11-19 2004-01-13 Prasara Technologies, Inc. Navigational user interface for interactive television
TW546583B (en) * 1999-05-13 2003-08-11 Sony Corp Information processing method and apparatus and medium
US7286115B2 (en) * 2000-05-26 2007-10-23 Tegic Communications, Inc. Directional input system with automatic correction
US7764272B1 (en) * 1999-08-26 2010-07-27 Fractal Edge Limited Methods and devices for selecting items such as data files
GB9920327D0 (en) * 1999-08-28 1999-11-03 Koninkl Philips Electronics Nv Menu display for a graphical user interface
EP1081583A3 (en) * 1999-08-31 2005-07-06 Sony Corporation Menu display system
US7254785B2 (en) * 2000-02-17 2007-08-07 George Reed Selection interface system
JP4325075B2 (ja) * 2000-04-21 2009-09-02 ソニー株式会社 データオブジェクト管理装置
KR100363619B1 (ko) * 2000-04-21 2002-12-05 배동훈 나선형 도우넛 형태를 갖는 컨텐츠 구조 및 컨텐츠디스플레이 시스템
US7249325B1 (en) * 2000-05-11 2007-07-24 Palmsource, Inc. Automatically centered scrolling in a tab-based user interface
JP2002082745A (ja) * 2000-09-07 2002-03-22 Sony Corp 情報処理装置及び方法、並びにプログラム格納媒体
US7667123B2 (en) * 2000-10-13 2010-02-23 Phillips Mark E System and method for musical playlist selection in a portable audio device
US6967642B2 (en) * 2001-01-31 2005-11-22 Microsoft Corporation Input device with pattern and tactile feedback for computer input and control
US20050134578A1 (en) * 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
JP4701564B2 (ja) * 2001-08-31 2011-06-15 ソニー株式会社 メニュー表示装置及びメニューの表示方法
US7093201B2 (en) * 2001-09-06 2006-08-15 Danger, Inc. Loop menu navigation apparatus and method
US7036090B1 (en) * 2001-09-24 2006-04-25 Digeo, Inc. Concentric polygonal menus for a graphical user interface
US7345671B2 (en) * 2001-10-22 2008-03-18 Apple Inc. Method and apparatus for use of rotational user inputs
US7665043B2 (en) * 2001-12-28 2010-02-16 Palm, Inc. Menu navigation and operation feature for a handheld computer
JP3834039B2 (ja) * 2002-01-22 2006-10-18 富士通株式会社 メニュー項目選択装置及び方法
US7333092B2 (en) * 2002-02-25 2008-02-19 Apple Computer, Inc. Touch pad for handheld device
US7111788B2 (en) * 2002-04-22 2006-09-26 Nokia Corporation System and method for navigating applications using a graphical user interface
TWI238348B (en) * 2002-05-13 2005-08-21 Kyocera Corp Portable information terminal, display control device, display control method, and recording media
EP1505484B1 (en) * 2002-05-16 2012-08-15 Sony Corporation Inputting method and inputting apparatus
US7656393B2 (en) * 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
JP2004164618A (ja) * 2002-10-14 2004-06-10 Oce Technol Bv 携帯端末における選択メカニズム
US7663605B2 (en) * 2003-01-08 2010-02-16 Autodesk, Inc. Biomechanical user interface elements for pen-based computers
JP4043965B2 (ja) * 2003-02-05 2008-02-06 カルソニックカンセイ株式会社 リスト表示装置
GB2400289A (en) * 2003-04-04 2004-10-06 Autodesk Canada Inc Selecting functions in a Context-Sensitive Menu
US20040221243A1 (en) * 2003-04-30 2004-11-04 Twerdahl Timothy D Radial menu interface for handheld computing device
US7661075B2 (en) * 2003-05-21 2010-02-09 Nokia Corporation User interface display for set-top box device
US20040253989A1 (en) * 2003-06-12 2004-12-16 Tupler Amy M. Radio communication device having a navigational wheel
CN100379592C (zh) * 2003-07-30 2008-04-09 阿斯莫有限公司 致动装置
EP1510911A3 (en) * 2003-08-28 2006-03-22 Sony Corporation Information processing apparatus, information processing method, information processing program and storage medium containing information processing program
US8068186B2 (en) * 2003-10-15 2011-11-29 3M Innovative Properties Company Patterned conductor touch screen having improved optics
EP1536315A1 (en) * 2003-11-27 2005-06-01 Sony NetServices GmbH Information retrieval device
US20050132305A1 (en) * 2003-12-12 2005-06-16 Guichard Robert D. Electronic information access systems, methods for creation and related commercial models
US7404146B2 (en) * 2004-05-27 2008-07-22 Agere Systems Inc. Input device for portable handset
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
US8381135B2 (en) * 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US8028250B2 (en) * 2004-08-31 2011-09-27 Microsoft Corporation User interface having a carousel view for representing structured data
TWI329263B (en) * 2004-09-24 2010-08-21 Hon Hai Prec Ind Co Ltd A device and method for processing information
US20060095865A1 (en) * 2004-11-04 2006-05-04 Rostom Mohamed A Dynamic graphical user interface for a desktop environment
WO2006094130A2 (en) * 2005-03-02 2006-09-08 Edward Edwards Interactive educational device
US7685530B2 (en) * 2005-06-10 2010-03-23 T-Mobile Usa, Inc. Preferred contact group centric interface
KR20060133389A (ko) * 2005-06-20 2006-12-26 엘지전자 주식회사 이동 단말기의 데이터 처리 장치 및 그 방법
TW200701050A (en) * 2005-06-27 2007-01-01 Compal Electronics Inc A user interface with figures mapping to the keys, for allowing the user to select and control a portable electronic device
US7487147B2 (en) * 2005-07-13 2009-02-03 Sony Computer Entertainment Inc. Predictive user interface
KR101183115B1 (ko) * 2005-07-18 2012-09-20 삼성전자주식회사 터치 스크린 방식의 사용자 인터페이스 제공 방법 및 장치,그 장치를 포함하는 전자 기기
KR100732166B1 (ko) * 2005-09-02 2007-06-27 엘지전자 주식회사 컨텐츠 검색 기능을 갖는 이동통신단말기 및 이를 이용한방법
US7992102B1 (en) * 2007-08-03 2011-08-02 Incandescent Inc. Graphical user interface with circumferentially displayed search results
KR100841310B1 (ko) * 2005-09-12 2008-06-25 엘지전자 주식회사 이동통신단말기
CN1940834B (zh) * 2005-09-30 2014-10-29 鸿富锦精密工业(深圳)有限公司 环式菜单显示装置及其显示控制方法
JP5142510B2 (ja) * 2005-11-25 2013-02-13 オセ−テクノロジーズ ビーブイ グラフィカルユーザインターフェース提供方法及びシステム
KR101181766B1 (ko) * 2005-12-23 2012-09-12 엘지전자 주식회사 이동통신 단말기에서의 메뉴 표시 방법, 및 그 방법을구현하기 위한 이동통신 단말기
KR100792295B1 (ko) * 2005-12-29 2008-01-07 삼성전자주식회사 컨텐츠 네비게이션 방법 및 그 컨텐츠 네비게이션 장치
US20070152983A1 (en) * 2005-12-30 2007-07-05 Apple Computer, Inc. Touch pad with symbols based on mode
US7596761B2 (en) * 2006-01-05 2009-09-29 Apple Inc. Application user interface with navigation bar showing current and prior application contexts
US7574672B2 (en) * 2006-01-05 2009-08-11 Apple Inc. Text entry interface for a portable communication device
CN101390140A (zh) * 2006-02-27 2009-03-18 株式会社纳维泰 地图显示系统、poi检索条件的输入方法及poi向导显示方法以及终端装置
US7506275B2 (en) * 2006-02-28 2009-03-17 Microsoft Corporation User interface navigation
US9395905B2 (en) * 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
WO2007116633A1 (ja) * 2006-04-07 2007-10-18 Panasonic Corporation 入力装置及びそれを備えた携帯端末
US20090278806A1 (en) * 2008-05-06 2009-11-12 Matias Gonzalo Duarte Extended touch-sensitive control area for electronic device
US20070263014A1 (en) * 2006-05-09 2007-11-15 Nokia Corporation Multi-function key with scrolling in electronic devices
US7996788B2 (en) * 2006-05-18 2011-08-09 International Apparel Group, Llc System and method for navigating a dynamic collection of information
EP1860534A1 (en) * 2006-05-22 2007-11-28 LG Electronics Inc. Mobile terminal and menu display method thereof
KR100897806B1 (ko) * 2006-05-23 2009-05-15 엘지전자 주식회사 아이템 선택 방법 및 이를 위한 단말기
US8375326B2 (en) * 2006-05-30 2013-02-12 Dell Products Lp. Contextual-based and overlaid user interface elements
US7533349B2 (en) * 2006-06-09 2009-05-12 Microsoft Corporation Dragging and dropping objects between local and remote modules
US9360967B2 (en) * 2006-07-06 2016-06-07 Apple Inc. Mutual capacitance touch sensing device
US7805682B1 (en) * 2006-08-03 2010-09-28 Sonos, Inc. Method and apparatus for editing a playlist
US7930650B2 (en) * 2006-09-11 2011-04-19 Apple Inc. User interface with menu abstractions and content abstractions
US7984377B2 (en) * 2006-09-11 2011-07-19 Apple Inc. Cascaded display of video media
US8564543B2 (en) * 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
US20080086699A1 (en) * 2006-10-09 2008-04-10 Mika Antikainen Fast input component
US7667148B2 (en) * 2006-10-13 2010-02-23 Apple Inc. Method, device, and graphical user interface for dialing with a click wheel
US7779363B2 (en) * 2006-12-05 2010-08-17 International Business Machines Corporation Enabling user control over selectable functions of a running existing application
KR101345341B1 (ko) * 2006-12-13 2013-12-27 삼성전자 주식회사 파일 전송을 위한 사용자 인터페이스를 제공하는 장치 및방법
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US8689132B2 (en) * 2007-01-07 2014-04-01 Apple Inc. Portable electronic device, method, and graphical user interface for displaying electronic documents and lists
KR101426718B1 (ko) * 2007-02-15 2014-08-05 삼성전자주식회사 휴대단말기에서 터치 이벤트에 따른 정보 표시 장치 및방법
KR101450584B1 (ko) * 2007-02-22 2014-10-14 삼성전자주식회사 단말의 화면 표시 방법
US8650505B2 (en) * 2007-02-28 2014-02-11 Rpx Corporation Multi-state unified pie user interface
US7580883B2 (en) * 2007-03-29 2009-08-25 Trading Technologies International, Inc. System and method for chart based order entry
EP1976242B1 (en) * 2007-03-30 2016-08-24 Microsoft Technology Licensing, LLC Method for controlling mobile communication device equipped with touch screen, communication device and method of executing functions thereof
EP2017707B1 (en) * 2007-07-06 2017-04-12 Dassault Systèmes Widget of graphical user interface and method for navigating amongst related objects
KR20090005680A (ko) * 2007-07-09 2009-01-14 삼성전자주식회사 원통형 입체 형상의 메뉴를 제공하기 위한 gui 제공방법및 이를 적용한 멀티미디어 기기
US11126321B2 (en) * 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
US20090058801A1 (en) * 2007-09-04 2009-03-05 Apple Inc. Fluid motion user interface control
JP4758408B2 (ja) * 2007-10-18 2011-08-31 シャープ株式会社 選択候補表示方法、選択候補表示装置および入出力装置
US8615720B2 (en) * 2007-11-28 2013-12-24 Blackberry Limited Handheld electronic device and associated method employing a graphical user interface to output on a display virtually stacked groups of selectable objects
US8416198B2 (en) * 2007-12-03 2013-04-09 Apple Inc. Multi-dimensional scroll wheel
JP4697551B2 (ja) * 2007-12-21 2011-06-08 ソニー株式会社 通信装置、入力制御方法及び入力制御プログラム
KR101470543B1 (ko) * 2008-02-15 2014-12-08 엘지전자 주식회사 터치스크린을 구비하는 휴대 단말기 및 그 동작 제어방법
US8127240B2 (en) * 2008-04-09 2012-02-28 International Business Machines Corporation Seamless drag and drop operation with multiple event handlers
US20100058240A1 (en) * 2008-08-26 2010-03-04 Apple Inc. Dynamic Control of List Navigation Based on List Item Properties
JP2010060325A (ja) * 2008-09-01 2010-03-18 Honda Motor Co Ltd 車両用ナビゲーション装置
US20100073303A1 (en) * 2008-09-24 2010-03-25 Compal Electronics, Inc. Method of operating a user interface
US7853712B2 (en) * 2008-09-29 2010-12-14 Eloy Technology, Llc Activity indicators in a media sharing system
JP5228755B2 (ja) * 2008-09-29 2013-07-03 富士通株式会社 携帯端末装置、表示制御方法および表示制御プログラム
US9176747B2 (en) * 2009-02-17 2015-11-03 Sandisk Il Ltd. User-application interface
TWI408565B (zh) * 2009-08-04 2013-09-11 Htc Corp 行程規劃方法、裝置及所使用之電腦程式產品

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101052939A (zh) * 2004-07-30 2007-10-10 苹果电脑有限公司 用于触敏输入设备的基于模式的图形用户接口
CN101336407A (zh) * 2005-12-08 2008-12-31 苹果公司 响应于在索引符号的列表上移动接触点的列表滚动
US20070155434A1 (en) * 2006-01-05 2007-07-05 Jobs Steven P Telephone Interface for a Portable Communication Device
CN101226442A (zh) * 2007-01-20 2008-07-23 Lg电子株式会社 控制移动终端中的显示
CN101309311A (zh) * 2007-05-17 2008-11-19 三星电子株式会社 双向滑动式移动通信终端及其提供图形化用户界面的方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105051705A (zh) * 2012-11-09 2015-11-11 微软技术许可有限责任公司 便携式设备及其控制方法
CN105051705B (zh) * 2012-11-09 2017-12-26 微软技术许可有限责任公司 便携式设备及其控制方法
CN103197844A (zh) * 2013-03-12 2013-07-10 广东欧珀移动通信有限公司 分区滑动实现快速标记列表项的方法及终端

Also Published As

Publication number Publication date
EP2204721A2 (en) 2010-07-07
KR20100081577A (ko) 2010-07-15
EP2204721A3 (en) 2014-05-21
US20100174987A1 (en) 2010-07-08

Similar Documents

Publication Publication Date Title
CN101770341A (zh) 用于在电子设备中的对象之间的导航的方法和设备
KR101921203B1 (ko) 녹음 기능이 연동된 메모 기능 운용 방법 및 장치
CN103415833B (zh) 表面化屏幕外可视对象
US20190205004A1 (en) Mobile terminal and method of operating the same
CN108139778A (zh) 便携式设备和便携式设备的屏幕显示方法
CN102782631A (zh) 具有多个触摸屏幕的移动终端的屏幕控制方法和设备
CN101794606B (zh) 播放多媒体项的设备和方法
CN101256463B (zh) 通过触摸式输入设备输入信息
EP3139257A1 (en) Inputting information through touch input device
US20100318905A1 (en) Method for displaying menu screen in electronic devicing having touch screen
US20100164893A1 (en) Apparatus and method for controlling particular operation of electronic device using different touch zones
CN104765584A (zh) 用户终端装置及其控制方法
CN103049166A (zh) 用于在触摸敏感设备中提供搜索功能的方法和装置
CN101766022A (zh) 输入用户命令的方法以及使用该方法的视频设备和输入设备
CN103164157A (zh) 在便携式终端中用于提供多点触摸交互的方法和设备
EP3739858B1 (en) Portable device and method for the multiple recording of data
CN102859479A (zh) 提供图形用户接口的方法和适应于该方法的移动装置
JP2012123475A (ja) 情報処理装置及び表示方法
JP2012242847A (ja) 表示装置、ユーザインタフェース方法及びプログラム
CN102203704A (zh) 通过触摸和动作产生控制命令的接口设备、包括该接口设备的接口系统以及使用该接口设备的接口方法
CN101789250A (zh) 调整多媒体项的特性的设备和方法
CN102783040A (zh) 用于在移动装置中显示屏幕的方法和系统
KR101882554B1 (ko) 정보를 표시하고 전자 기기를 조작하기 위한 방법 및 장치
US20100214246A1 (en) Apparatus and method for controlling operations of an electronic device
JP2014203455A (ja) 電子装置、及び電子装置のプレイリストの表示方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C05 Deemed withdrawal (patent law before 1993)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20100707