CN101727179B - 对象执行方法和设备 - Google Patents

对象执行方法和设备 Download PDF

Info

Publication number
CN101727179B
CN101727179B CN200910174901.1A CN200910174901A CN101727179B CN 101727179 B CN101727179 B CN 101727179B CN 200910174901 A CN200910174901 A CN 200910174901A CN 101727179 B CN101727179 B CN 101727179B
Authority
CN
China
Prior art keywords
pressure value
input
control module
reference pressure
equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN200910174901.1A
Other languages
English (en)
Other versions
CN101727179A (zh
Inventor
郑汉哲
权五载
申昌范
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN101727179A publication Critical patent/CN101727179A/zh
Application granted granted Critical
Publication of CN101727179B publication Critical patent/CN101727179B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供一种对象执行方法和设备,用于利用指示对象属性的触觉反馈,基于输入压级来执行对象。一种对象执行设备可包括显示单元、输入单元和控制单元。显示单元可显示至少一个对象。输入单元可检测对所述对象的选择和/或为执行对象而输入的压级。控制单元可检查为选择的对象预设的参考压值。参考压值可指示对象的属性信息。控制单元可将输入的压级的输入压值与参考压值进行比较,并可基于比较结果来确定是否执行对象。包括振动产生器的输入单元可产生被映射到参考压值的振动。

Description

对象执行方法和设备
技术领域
本发明的示例性实施例涉及一种对象执行机制,涉及一种利用指示对象属性的触觉反馈,基于输入压级来执行对象的对象执行方法和设备。
背景技术
通常,可执行应用程序的电子装置(例如,个人计算机和移动通信终端)设置有至少一个输入装置和显示器,用于用户在观看各种任务和对象的视觉表示的同时搜索并执行任务。随着技术的发展和用户需求的改变,基于文本的视觉表示已经被图形图像和图标取代。
对象(例如,包含多媒体数据(包括文本、音频以及静止和运动图像)的文件和文件夹)和表示对象的图标与提供关于对象的创建的细节的属性信息存储在一起。例如,文件的属性信息可包括:创建时间、文件格式、文件名称和重放时间。所述属性可在用户选择相应的文件、文件夹或图标时被可视化地提供给用户。假设在特定应用运行在计算机上,同时涉及该应用的文件被显示的计算环境中,由用户(例如,在将鼠标指针置于文件上,然后点击鼠标的右键)输入的一系列命令可促使计算机显示关于选择的文件的属性信息(即,文件大小、文件名称和文件的创建时间)。如果选择的文件被执行,则可通过通常用于各种文件的行为(例如,点击鼠标的左键)来输入执行命令。在所述传统的文件执行方法中,用户可通过点击鼠标的右键来输入属性信息请求命令或者通过点击鼠标的左键来输入执行命令,以不考虑文件的属性信息来执行选择的文件。也就是说,传统文件执行方法会受限于在没有视觉表示的情况下提供所选择的文件的属性信息。此外,由于使用相同的输入行为来执行所有的文件格式,所以用户对所执行文件的属性的识别会受到限制。因此,需要开发一种用于以不同于传统感觉形式(例如,方法)的其它感觉形式向用户提供所选择的对象的属性信息,并根据属性信息利用不同的输入行为来执行选择的对象的方法。
发明内容
本发明的示例性实施例涉及一种对象执行方法和设备,其用于根据对象的属性信息,利用不同的输入行为来执行对象。
本发明的其它特征将在以下的描述中阐述,一部分通过所述描述而变得清楚,或者可通过实施本发明而了解。
本发明的示例性实施例公开一种对象执行设备,包括:显示单元、输入单元和控制单元。显示单元显示至少一个对象。输入单元检测对所述至少一个对象之一的选择。控制单元确定与选择的对象相关并指示该对象的属性信息的参考压值。控制单元将参考压值与相应于为了执行所选择的对象而输入的压级的输入压值进行比较。控制单元基于比较的结果来确定是否执行所述对象。
本发明的示例性实施例还公开一种对象执行方法。所述对象执行方法包括:检测对象的选择,确定与所述对象相关的参考压值。参考压值指示对象的属性信息。所述方法还包括:如果为了执行对象而输入压力,则将参考压值与相应于输入压力的输入压值进行比较。所述方法还包括:如果输入压值大于参考压值,则执行所述对象。
应理解:上述总体描述以及以下详细描述均是示例性和解释性的,为的是对所保护的发明提供进一步的解释。
附图说明
引入附图来进一步理解本发明,所述附图被并入以构成说明书的一部分,附图示出本发明的示例性实施例,与描述一起用于解释本发明的原理。
图1是根据本发明示例性实施例的对象执行设备。
图2是示出根据本发明示例性实施例通过主机装置与输入装置的交互作用来执行对象的示例性情况的示图。
图3是示出根据本发明示例性实施例通过主机装置与输入装置的交互作用来执行对象的示例性情况的示图。
图4是示出根据本发明示例性实施例的对象执行方法的流程图。
图5是根据本发明示例性实施例的具有集成输入装置的对象执行设备。
图6是示出根据本发明示例性实施例的对象执行设备执行对象的示例性情况的示图。
具体实施方式
以下将参照附图来更加全面地描述本发明,在附图中,示出本发明的示例性实施例。然而,可按照许多不同的方式来实现本发明,并且本发明不应被解释为受限于这里阐述的示例性实施例。而是提供这些示例性实施例,以使得所述公开完整,并将本发明的范围充分地传达给本领域的技术人员。在附图中,为了清楚起见,可夸大层和区域的大小与相对大小。附图中的相同标号指示相同的部件。
这里,参照附图来描述以下过程:向用户提供与对象(例如,文件和文件夹和/或链接到文件和文件夹的图标)的属性信息映射的表示信息(例如,压值信息),并响应于执行命令输入(例如,压力输入)来执行对象。为了简化解释,假设与属性信息映射的表示信息是压值信息,压值信息将振动反馈回用户。
在解释本发明的示例性实施例之前,将定义用于以下描述的有关术语。
“对象”可指示数据、函数、包括数据和/或函数的文件、文件夹、以及表示数据、函数、文件或文件夹之一的图标。
“属性”可指示描述对象或与对象相关的元数据。例如,属性可以是创建时间、文件格式、文件名称或优先级。对象可具有属性信息。可根据由涉及特定应用的对象共享的属性信息来设置对象的压值。
可利用集成的输入装置(或者,在某些情况下,利用分离的输入装置)来实现根据本发明示例性实施例的对象执行设备。输入装置可用于输入用于执行对象的命令。参照图1来描述对象执行设备。
图1是根据本发明示例性实施例的对象执行设备。
参照图1,对象执行设备可包括:主机装置100,具有应用和执行对象;输入装置101,用于响应于用户的操作而产生用于选择和执行对象的命令。输入装置101可将命令发送到主机装置100。主机装置100可包括:控制单元100、显示单元120和存储单元130。输入装置101可包括:输入控制单元140、压力感测单元150和振动产生单元160。应理解:还可将各种其它功能块包括在主机装置100和输入装置101中,主机装置100和输入装置101并不受限于上述部件。例如,如果主机装置100和输入装置101通过无线电链路而彼此连接,则主机装置100和输入装置100均还可包括无线电通信单元。主机装置100和输入装置101可分别是计算机和鼠标,或者分别是互联网协议电视(IPTV)和遥控器。主机装置100可以是台式计算机、膝上型计算机、IPTV、移动终端、智能电话以及总体上可存储和执行对象的任何适合的装置。
控制单元110可控制主机装置100的整个操作。控制单元110可设置属性特有的压值,用于自动地(或在某些情况下,根据用户输入)执行对象。控制单元110可在从输入单元101接收到对象选择命令时检查为对象设置的压值,并可将与所述压值相应的振动值发送到输入装置101。控制单元110还可响应于压值大于预设压值的触摸输入来执行选择的对象。
控制单元110可包括属性信息分析器112和压值转换器114。属性信息分析器112可参考为了所选择的对象设置的参考压值,并可确定输入压值是否大于参考压值。压值转换器114可确定与为了所选择的对象设置的压值对应的参考压值,并可将参考压值转换为振动值,用于产生指示所选择的对象的属性信息的振动。
显示单元120可显示主机装置100的操作状态、应用窗口和用户输入状态。应用窗口可呈现在主机100上运行应用的同时所产生的视觉数据。用户输入状态可与指针一起显示。可利用液晶显示器(LCD)板或总体上任何适合的显示装置来实现显示单元120。显示单元120可包括:LCD控制器、用于缓冲视频数据的存储器、LCD装置。
存储单元130可包括程序存储器和数据存储器。程序存储器可存储在主机装置100上运行的应用程序。数据存储器可缓冲在应用运行的同时产生的数据,并且可存储从外部装置下载以及由应用产生的数据。数据存储器可存储对象特有的属性信息、与属性信息相应的压值、与压值相应的振动值。
输入控制单元140控制输入装置101的操作,并将与用户通过输入感测单元150输入的压力相应的信号发送到主机装置100的控制单元110,并基于从控制单元110接收的振动值来控制由振动产生单元产生振动。压力感测单元150可包括传感器,诸如作为示例的力传感器,用于感测由用户输入的压力。振动产生器160可包括致动器,诸如作为示例的振动电动机,用于产生反馈(例如,振动)。
以下,将参照图2和图3来描述用于执行对象的主机装置100和输入装置101的操作。
图2是示出根据本发明示例性实施例通过主机装置和输入装置的交互作用来执行对象的示例性情况的示图。如图2所示,应用屏幕201可显示通过显示单元120提供的多个对象。鼠标202可相应于图1的输入装置101。
参照图2,多个对象211、212、213、214和215被显示在“资源管理器(explorer)”应用屏幕201中。对象211可以是电影文件夹(或电影文件夹图标),包含具有较低优先级的电影文件。对象211可被映射到为“1”的压值221,其被指定为用于指示较低优先级别的属性信息。分别与对象211、212、213、214和215相应的压值221、222、223、224和225被显示在图2中,以帮助解释本发明的示例性实施例,但是它们也可不显示在应用屏幕201中。对象212可以是音乐文件夹(或音乐文件夹图标),包含具有较低优先级的音乐文件。对象212可被映射到为“1”的压值222。在示例性应用屏幕201中,鼠标指针230可位于音乐文件夹212。用户可对指针230进行导向,并通过操纵鼠标202在应用屏幕201中选择对象(例如,音乐文件夹212)。可按照不同于其它对象的方式来显示选择的对象。例如,当音乐文件夹212被选择时,音乐文件夹212可浮于其它未选择对象211、213、214和215之上。
对象213可以是财政文件夹(或财政文件夹图标),包含具有较高优先级的财政数据和/或文件。对象213可被映射到为“3”的较高压值223。对象214可以是日程文件夹(或日程文件夹图标),包含具有中等优先级的日程数据和/或文件。对象214可被映射到为“2”的压值225。对象215可以是旅行文件夹(或旅行文件夹图标),包含具有较低优先级的旅行相关数据和/或文件。对象215可被映射到为“1”的压值。显示在“资源管理器”应用屏幕201中的对象可具有属性信息,包括创建时间、文件格式、文件大小、内容和优先级。尽管如上所述,对象可按照属性中的优先级来分类,并且优先级别可被映射到相应的压值,但是可按照具有映射到压值的级别的各种其它属性来将对象进行分类。例如,当对象是多媒体文件夹时,包含在多媒体文件夹中的多媒体数据可按照重放时间或文件大小来分类。重放时间或文件大小的值可被映射到相应的压值。此外,尽管已经描述了三个优先级别(即,较低优先级别、中等优先级别、较高优先级别)并将它们映射到各个压值1、2、3,但是可按照各种方式来指定优先级别。例如,在某些情况下,可使用5个优先级别并将它们指定到各个压值。通常,可使用任何适当数量的优先级别以及各个压值。可自动地(或者,在某些情况下,根据用户配置手动地)将优先级别映射到压值指定。
如图2所示,当通过将指针230置于音乐文件夹212上来选择音乐文件夹212时,控制单元110(更具体地说,控制单元110的属性信息分析器112)可检查为音乐文件夹212指定的压值。在属性信息分析器112检查参考压值之后,压值转换器114可将压值“1”转换为“弱振动”值。转换的“弱振动”值可被发送到输入装置101的输入控制单元140。响应于接收到的“弱振动”值,输入控制单元140可指示振动产生单元160产生弱振动(例如,鼠标轻微振动)。如上所述,可按照三个级别(例如,弱、中等、强)来产生振动以指示属性信息的值。可根据输入装置101(例如,鼠标)的振动电动机,按照不同的方式来表示振动级别。例如,可由在预定持续期间(例如,0.1秒、1秒、3秒)以相同的电压级施加的各个电压(例如,0.5V、1V和2V)来定义弱振动、中等振动和强振动。因此,还可按照振动时间的持续期间来定义弱振动、中等振动和强振动。使用这种基于振动级别的触觉反馈,用户可获取所选择的对象的属性信息。
在图2的应用屏幕201中,电影文件夹211、音乐文件夹222和旅行文件夹215分别具有比财政文件夹213的压值“3”和日程文件夹214的压值“2”低的压值“1”。因此,可响应于较低的压力输入来执行分配到压值“1”的对象,而分配到压值3的对象会需要相对较高的压力输入来执行。可通过压力感测单元150中的力传感器来预设与压级相应的压值。如果基于压力输入持续时间来确定输入命令,则可响应于将预定级别的压力保持预定时间段来执行目标对象。例如,当用户尝试通过“拖放”行为将包含在日程文件夹214中的文件移动到旅行文件夹215时,必须在拖放处理期间保持大于日程文件夹214的压级,以便成功地移动文件。如果压级变得低于日程文件夹214的压值,则可取消从日程文件夹214到旅行文件夹215的文件转移。
图3是示出根据本发明示例性实施例通过主机装置与输入装置之间的交互作用来执行对象的示例性情况的示图。
当音乐文件夹212被选择时,可显示具有菜单项目(诸如作为示例的“美国流行音乐”、“韩国流行音乐”)的音乐菜单屏幕301。如果用户将指针导向“韩国流行音乐”项目上并在指针置于“韩国流行音乐”项目上的同时通过输入装置302输入删除命令,则控制单元110可指示显示单元120显示弹出式对话窗口310,该弹出式对话窗口310具有“是”按钮311、“否”按钮312以及确认请求消息。在弹出式对话窗口310中,对象“是”按钮311可具有高于对象“否”按钮312的优先级,因此,“是”按钮311可被分配压值3,“否”按钮312可被分配压值1。为了执行被分配压值3的对象(例如,“是”按钮),必须将比用于执行被分配压值1的对象(例如,“否”按钮)所需的压级大的压级施加到鼠标302。可配置鼠标302,从而当指针被置于对象(例如,“是”按钮311或“否”按钮312)上时,可产生与所述对象的压值相应的振动,以向用户提供属性信息的反馈。例如,可基于确定的压值来振动鼠标302。如果通过鼠标302输入比所选择的对象的压值大的压级,则控制单元110可执行对象。可考虑到鼠标302的力传感器来设置压级。
以下,将参照图4来描述使用振动来提供属性信息并响应于满足由指示信息指示的压值的压级来执行对象的对象执行方法。
图4是示出根据本发明示例性实施例的对象执行方法的流程图。
参照图4,图1的主机装置100的控制单元110可执行特定应用,并可将具有多个对象的相应应用屏幕201显示在显示单元120上(405)。可响应于通过输入装置101输入的用户命令来执行所述应用。接下来,控制单元110可监视为了选择对象而通过输入装置101输入的用户命令。例如,控制单元110可确定指针是否被置于对象上(410)。如果指针被置于对象上,则控制单元110可检查分配给所选择的对象的参考压值(415)。如果没有对象被选择,则控制单元110可返回并进行步骤405。
在步骤415检查分配给所选择的对象的参考压值之后,控制单元110可确定是否通过输入装置101输入了压级(420)。压力感测单元150感测由用户输入的压力,控制单元110将参考压值与相应于为了执行选择的对象而输入的压级的输入压值进行比较。如果与输入的压级相应的输入压值大于参考压值,则控制单元110可认为压级被输入,否则,控制单元110可认为压级没有被输入。如果通过输入装置101输入了压级,则控制单元110可进行到步骤440。如果压级没有被输入,则控制单元110可进行到步骤425。在步骤425,控制单元110的压值转换器114将所选择的对象的参考压值转换为相应的振动值(425),并可将振动值发送到输入装置101,从而输入装置101可产生与振动值相应的振动(430)。接下来,控制单元110可确定是否通过输入装置101输入的用于对指针进行导向的导航命令(435)。如果导航命令被输入,则控制单元110可根据导航命令来移动指针,控制单元110可返回并进行到步骤410。如果导航命令没有被输入,则可终止对象执行方法。
返回到步骤420,如果通过输入装置101输入了压级,则控制单元110可检查输入压值(440)。可通过压值转换器114基于从输入装置101接收的压值来计算输入压值。接下来,属性信息分析器112可确定输入压值是否等于或大于所选择的对象的参考压值(445)。如果输入压值等于或大于所选择的对象的参考压值,则控制单元110可执行所选择的对象(450)。如果主机装置被配置为响应于要求将预定级别的压级保持预定时间段的基于持续时间的命令(例如,拖放命令)来执行特定功能,则控制单元110还可确定压级是否保持了预定持续时间。如果在步骤445,输入压值小于所选择的对象的参考压值,则处理可继续到步骤435。
参照图5来描述根据本发明示例性实施例的利用集成输入装置实现的对象执行设备。
图5是根据本发明示例性实施例的具有集成输入装置的对象执行设备。
参照图5,对象执行装置500可包括:触摸屏510、控制单元520、振动产生单元530和存储单元540。触摸屏510可包括显示单元512和输入单元514。触摸屏510可集成显示和输入功能,并且可响应于显示屏上的触摸而产生输入信号。触摸屏510可检测在显示单元512上发生的至少一个触摸事件。显示单元512可显示对象执行设备500的操作状态,以及当应用在对象执行装置500上运行的同时产生的视觉数据。可利用LCD或任何总体上适合的显示装置来实现显示单元512。在某些情况下,显示单元512可设置有LCD控制器、用于缓冲视频数据的视频存储器和/或LCD装置。可在显示单元512上实现输入单元514以响应于显示单元512上的触摸事件来产生输入信号。输入单元514可包括触摸传感器(未示出)和/或信号转换器(未示出)。触摸传感器可通过检测物理量(例如,电阻或电容)的改变来感测触摸事件。信号转换器可将检测的物理量的改变转换为数字信号。信号转换器可确定通过物理量的改变感测到的触摸是点击事件还是拖动事件,并可计算检测到触摸事件的点的坐标。输入单元514还可将通过压力传感器516输入的压级输出到控制单元520。可利用传感器(诸如作为示例的力传感器,用于检测由用户输入的压级)来实现压力传感器516。
控制单元520可控制对象执行设备的整个操作。控制单元520可自动地或根据用户输入设置用于执行对象的特定属性压值。控制器520可在对象选择命令被输入时检查为对象设置的参考压值,并可将与参考压值相应的振动值发送到振动产生单元530。控制单元520可包括属性信息分析器522和压值转换器524。属性信息分析器522可参照为选择的对象设置的参考压值,并可检查输入压值是否大于参考压值。如果输入压值大于参考压值,则压值转换器524可确定与输入压值相应的参考压值,并可将参考压值转换为振动值,以产生指示所选择的对象的属性信息的振动。
可利用振动电动机(诸如作为示例的致动器)来实现振动产生器530,振动产生器530可在控制单元520的控制下产生与振动值相应的振动。存储单元540可包括程序存储器和数据存储器。程序存储器可存储在对象执行设备中运行的应用程序。数据存储器可缓冲在应用运行的同时产生的数据,并且可存储从外部装置下载的数据以及由对象执行设备中运行的应用程序产生的数据。数据存储器可存储对象特定属性信息,分配给该属性信息的压值以及与压值相应的振动值。
尽管对象执行设备500可包括图5中执行对象所需的必要功能块,但是对象执行设备500还可包括其它功能块。例如,对象执行设备500可以是通信终端、个人数字助理(PDA)、智能电话以及任何其它适合的具有集成输入单元的装置。
图6是示出根据本发明示例性实施例的对象执行设备执行对象的示例性情况的示图。在图6中,应用屏幕601可显示多个对象。可通过对象执行设备500的显示单元512来提供应用屏幕601。
参照图6,可将多个对象611、612和613显示在“资源管理器”应用屏幕601中。对象611可以是包含具有较低优先级的电影文件的电影文件夹(或电影文件夹图标)。可将对象611映射到为了指示属性信息的低优先级别而指定的为“1”的压值621。应理解:尽管对象611、612和613分别与相应的压值621、622和623一起显示在图6中以帮助解释本发明的示例性实施例,但是压值621、622和623也可不显示在应用屏幕601上。对象612可以是包含具有较低优先级的音乐文件的音乐文件夹(或音乐文件夹图标)。可将对象612映射到为“1”的较低压值622。在某些情况下,用户的手指可触摸一部分音乐文件夹622以选择音乐文件夹622。因此,可通过触摸显示单元512上显示的对象被放置的位置来选择所述对象。可按照不同于其它对象的方式来显示选择的对象。例如,当音乐文件夹612被选择时,音乐文件夹612可浮于其它未选择对象611和613之上。对象613可以是财政文件夹(或财政文件夹图标),包含具有较高优先级的财政数据和/或文件。对象613可被映射到为“3”的较高压值623。利用“资源管理器”应用显示的对象具有属性信息,包括例如创建时间、文件格式、文件大小、内容和/或优先级。尽管如上所述,对象可按照属性中的优先级来分类,并且优先级别可被映射到相应的压值,但是可按照具有映射到压值的级别的各种其它属性来将对象进行分类。例如,当对象是多媒体文件夹时,包含在多媒体文件夹中的多媒体数据可按照重放时间或文件大小来分类。重放时间或文件大小的值可被映射到相应的压值。此外,尽管已经描述了三个优先级别(例如,较低优先级别、中等优先级别、较高优先级别)并将它们映射到各个压值1、2、3,但是可按照各种方式来指定优先级别。例如,在某些情况下,可使用5个优先级别并将它们指定到各个压值。通常,可使用任何适当数量的优先级别以及各个压值。可自动地将优先级别映射到压值指定,或者根据用户配置手动地将优先级别映射到压值指定。
如图6所示,当通过触摸音乐文件夹612被放置在触摸屏510中的位置而选择音乐文件夹612时,控制单元520(更具体地说,属性信息分析器522)可检查为音乐文件夹612指定的参考压值(=1)。在属性信息分析器522检查参考压值之后,压值转换器524可将为音乐文件夹的属性指定的压值“1”转换为“弱振动”值。转换的“弱振动”值可被发送到振动产生器530。响应于“弱振动”值,振动产生单元530可产生弱振动。可按照与属性信息的值相应的三个不同级别(例如,弱、中等、强)来产生振动,并可根据振动电动机,按照不同的方式来表示振动级别。例如,可分别由各个电压(0.5V、1V和2V)来定义弱振动、中等振动和强振动,并可以相同的电压级别将所述弱振动、中等振动和强振动应用预定时间段(例如,0.1秒、1秒和3秒)。在一些情况下,可按照振动时间的持续时间来定义弱振动、中等振动和强振动。通过使用所述基于振动级别的触觉反馈,用户可获取所选择的对象的属性信息。
在图6的应用屏幕601中,电影文件夹611和音乐文件夹612可被分配比财政文件夹613的压值“3”低的压值“1”。因此,可响应于较低的压力输入来执行被分配压值1的对象,而被分配压值3的对象会需要相对较高的压力输入以被执行。可通过压力传感器516的力传感器来预设与压级相应的压值。可通过输入单元514的压力传感器来测量由用户输入的压级。如果基于压力输入持续时间来确定输入命令,则可响应于将预定级别的压力保持预定时间段来执行目标对象。由于用于图6的对象执行设备的对象执行操作与图4的相同,因此,可省略对图6设备的对象执行方法的详细描述。
如上所述,本发明的示例性实施例公开一种用于使用触觉和视觉反馈向设备的用户提供直观有效的用户接口的对象执行方法和设备。这里所述的对象执行方法和设备还可使用户在不观看屏幕的情况下通过不同的触觉反馈来检查所选择的对象的属性信息。所述对象执行方法和设备还可提供一种以新颖的触觉形态操作的输入/输出接口,其中,以不同的触觉反馈来输出信息,并以不同的物理量(例如,压级)来输入信息,从而提高用户的满意度。由于基于对象特有的压级来确定用于执行对象的命令输入,所以本发明的对象执行方法和设备可减少对象的误操作可能性。
本领域的技术人员应清楚:在不脱离本发明的精神和范围的情况下,可进行各种变型和改变。因此,本发明旨在覆盖落入权利要求及其等同物范围内的改进和变型。

Claims (14)

1.一种对象执行方法,包括:
检测对象的选择;
确定与所述对象相关的参考压值,参考压值指示对象的属性信息;
如果为了执行对象而输入压力,则将参考压值与相应于输入压力的输入压值进行比较;如果输入压值大于参考压值,则执行所述对象;
检测第二对象上输入的第二压力;
将第二参考压值与相应于第二输入压力的输入压值进行比较;
如果第二输入压值大于第二参考压值,则执行第二对象。
2.如权利要求1所述的方法,还包括:产生与参考压值相应的振动。
3.如权利要求1所述的方法,其中,属性信息包括以下项中的至少一个:对象的大小、对象的优先级、包含在对象中的文件数量和对象的执行时间。
4.如权利要求1所述的方法,还包括:
确定在对象被拖动的同时,是否以大于参考压值的压力来保持输入压值;以及
如果在对象被拖动的同时没有以大于参考压值的压力来保持输入压值,则取消对象的执行。
5.一种对象执行设备,包括:
显示单元,用于显示至少一个对象;
输入单元,用于检测对所述至少一个对象之一的选择;以及
控制单元,用于确定与选择的对象相关并指示该对象的属性信息的参考压值,将参考压值与相应于为了执行所选择的对象而输入的压级的输入压值进行比较,基于比较的结果来确定是否执行所述对象,
其中,控制单元被进一步配置为用于检测第二对象上输入的第二压力,将第二参考压值与相应于第二输入压力的输入压值进行比较,并且如果第二输入压值大于第二参考压值,则用于执行第二对象。
6.如权利要求5所述的设备,其中,当输入压值大于参考压值时,控制单元执行对象。
7.如权利要求5所述的设备,其中,输入单元包括振动产生器,用于产生与参考压值相应的振动。
8.如权利要求5所述的设备,其中,属性信息包括以下项中的至少一个:对象的大小、对象的优先级、包含在对象中的文件数量和对象的执行时间。
9.如权利要求5所述的设备,其中,对象执行设备包括主机装置,主机装置包括显示单元和控制单元。
10.如权利要求9所述的设备,其中,主机装置包括:电视、计算机和支持双向通信的移动终端之一,其中,输入单元包括鼠标和遥控器之一。
11.如权利要求5所述的设备,其中,显示单元、控制单元和输入单元被集成为具有触摸屏的终端。
12.如权利要求5所述的设备,其中,控制单元监视通过输入单元进行的用户命令的输入,确定指针是否被置于显示在显示单元中的所述至少一个对象之一上,并确定所述至少一个对象之一被选择。
13.如权利要求6所述的设备,其中,控制单元确定在对象被拖动的同时,是否以大于参考压值的压力来保持输入压值,如果在对象被拖动的同时没有以大于参考压值的压力来保持输入压值,则控制单元取消对象的执行。
14.如权利要求5所述的设备,还包括:存储单元,用于存储所述至少一个对象的属性信息、指示属性信息的属性的参考压值、与参考压值相应的振动值。
CN200910174901.1A 2008-10-30 2009-10-29 对象执行方法和设备 Active CN101727179B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020080106935A KR101569176B1 (ko) 2008-10-30 2008-10-30 오브젝트 실행 방법 및 장치
KR10-2008-0106935 2008-10-30

Publications (2)

Publication Number Publication Date
CN101727179A CN101727179A (zh) 2010-06-09
CN101727179B true CN101727179B (zh) 2014-07-16

Family

ID=41478967

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200910174901.1A Active CN101727179B (zh) 2008-10-30 2009-10-29 对象执行方法和设备

Country Status (4)

Country Link
US (3) US9405367B2 (zh)
EP (1) EP2182421B1 (zh)
KR (1) KR101569176B1 (zh)
CN (1) CN101727179B (zh)

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4600548B2 (ja) * 2008-08-27 2010-12-15 ソニー株式会社 再生装置、再生方法、およびプログラム
US9235588B1 (en) * 2010-12-29 2016-01-12 Symantec Corporation Systems and methods for protecting deduplicated data
US8952987B2 (en) * 2011-05-19 2015-02-10 Qualcomm Incorporated User interface elements augmented with force detection
WO2013001779A1 (ja) * 2011-06-27 2013-01-03 京セラ株式会社 携帯電子機器
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
KR101189633B1 (ko) * 2011-08-22 2012-10-10 성균관대학교산학협력단 손가락 움직임에 따른 포인터 제어명령어 인식 방법 및 손가락 움직임에 따라 포인터를 제어하는 모바일 단말
US9069460B2 (en) * 2011-09-12 2015-06-30 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
CA2782786A1 (en) * 2011-10-17 2013-04-17 Research In Motion Limited Electronic device interface
US8942414B2 (en) * 2011-10-25 2015-01-27 Samsung Electronics Co., Ltd Method and apparatus for making personalized contents
JP5957875B2 (ja) * 2011-12-26 2016-07-27 ソニー株式会社 ヘッドマウントディスプレイ
JP6243356B2 (ja) 2012-02-06 2017-12-06 ホットヘッド ゲームズ インコーポレイテッド カードのボックス及びパックの仮想的な開封
US8684820B2 (en) 2012-02-06 2014-04-01 Hothead Games, Inc. Virtual competitive group management systems and methods
CN102750811B (zh) * 2012-03-09 2015-01-28 张伟明 一种防止误操作的遥控部件、智能系统及方法
US9146655B2 (en) 2012-04-06 2015-09-29 Samsung Electronics Co., Ltd. Method and device for executing object on display
US9377937B2 (en) * 2012-04-06 2016-06-28 Samsung Electronics Co., Ltd. Method and device for executing object on display
WO2013151322A1 (en) * 2012-04-06 2013-10-10 Samsung Electronics Co., Ltd. Method and device for executing object on display
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
KR101956082B1 (ko) 2012-05-09 2019-03-11 애플 인크. 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
CN104471521B (zh) 2012-05-09 2018-10-23 苹果公司 用于针对改变用户界面对象的激活状态来提供反馈的设备、方法和图形用户界面
US9459781B2 (en) 2012-05-09 2016-10-04 Apple Inc. Context-specific user interfaces for displaying animated sequences
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
DE202013012233U1 (de) 2012-05-09 2016-01-18 Apple Inc. Vorrichtung und grafische Benutzerschnittstelle zum Anzeigen zusätzlicher Informationen in Antwort auf einen Benutzerkontakt
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
KR101823288B1 (ko) 2012-05-09 2018-01-29 애플 인크. 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
DE112013002387T5 (de) 2012-05-09 2015-02-12 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bereitstellung taktiler Rückkopplung für Operationen in einer Benutzerschnittstelle
WO2013169882A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving and dropping a user interface object
IL221862A (en) * 2012-09-10 2015-03-31 Elbit Systems Ltd Attacking a physical touch event on optical touch screens
AU2013368441B2 (en) 2012-12-29 2016-04-14 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
JP6158947B2 (ja) 2012-12-29 2017-07-05 アップル インコーポレイテッド タッチ入力からディスプレイ出力への関係間を遷移するためのデバイス、方法及びグラフィカルユーザインタフェース
CN107832003B (zh) 2012-12-29 2021-01-22 苹果公司 用于放大内容的方法和设备、电子设备和介质
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
KR102301592B1 (ko) * 2012-12-29 2021-09-10 애플 인크. 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
WO2014105277A2 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
CN104216548B (zh) * 2013-06-04 2020-06-23 联想(北京)有限公司 触控反馈方法、装置及电子设备
EP3144780A1 (en) 2013-06-11 2017-03-22 Immersion Corporation Systems and methods for pressure-based haptic effects
EP3161603B1 (en) 2014-06-27 2019-10-16 Apple Inc. Manipulation of calendar application in device with touch screen
CN104391783A (zh) * 2014-07-24 2015-03-04 贵阳朗玛信息技术股份有限公司 一种软件调试方法及装置
US9635069B2 (en) * 2014-08-06 2017-04-25 Verizon Patent And Licensing Inc. User feedback systems and methods
KR102373337B1 (ko) 2014-09-02 2022-03-11 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
EP3189406B1 (en) 2014-09-02 2022-09-07 Apple Inc. Phone user interface
US10055121B2 (en) * 2015-03-07 2018-08-21 Apple Inc. Activity based thresholds and feedbacks
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
CN105159547B (zh) * 2015-08-27 2018-03-02 广东欧珀移动通信有限公司 一种人机交互方法及用户终端
US10664151B2 (en) * 2015-12-03 2020-05-26 International Business Machines Corporation Adaptive electronic event reminder
CN105892880A (zh) * 2015-12-11 2016-08-24 乐视网信息技术(北京)股份有限公司 一种歌曲播放进度控制方法及装置
CN105653168B (zh) * 2015-12-28 2021-12-24 联想(北京)有限公司 电子设备及其控制方法
CN105892664B (zh) * 2016-03-31 2021-05-18 联想(北京)有限公司 一种信息处理方法及电子设备
CN105930050B (zh) * 2016-04-13 2018-01-26 腾讯科技(深圳)有限公司 行为确定方法及装置
US9919213B2 (en) 2016-05-03 2018-03-20 Hothead Games Inc. Zoom controls for virtual environment user interfaces
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
DK179489B1 (en) 2016-06-12 2019-01-04 Apple Inc. Devices, methods and graphical user interfaces for providing haptic feedback
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
US10010791B2 (en) 2016-06-28 2018-07-03 Hothead Games Inc. Systems and methods for customized camera views and customizable objects in virtualized environments
US10004991B2 (en) 2016-06-28 2018-06-26 Hothead Games Inc. Systems and methods for customized camera views in virtualized environments
JP2018036959A (ja) * 2016-09-01 2018-03-08 株式会社デンソーテン 制御装置、入力装置、入力システム、表示装置および制御方法
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
US20180200623A1 (en) * 2017-01-19 2018-07-19 Machine Zone, Inc. System and method for controlling game play using fingerprint recognition
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
US11023037B2 (en) * 2019-01-17 2021-06-01 Joseph J. Boudeman Advanced communication method and apparatus

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0566293B1 (en) * 1992-04-15 2003-07-16 Xerox Corporation Graphical drawing and editing systems and methods therefor
US5675329A (en) * 1996-05-09 1997-10-07 International Business Machines Corporation Method of obtaining a second function from keys on a keyboard using pressure differentiation
US6002395A (en) * 1996-10-31 1999-12-14 Ncr Corporation System and method for building, testing and integrating a graphical touch user interface
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US7614008B2 (en) * 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US6243080B1 (en) 1998-07-14 2001-06-05 Ericsson Inc. Touch-sensitive panel with selector
EP1003188A3 (en) 1998-11-19 2001-04-25 Key Tronic Corporation Ergonomic computer keyboard
GB2344905A (en) 1998-12-17 2000-06-21 Canon Kk Hand held electronic device with back entry touch pad
US6331852B1 (en) * 1999-01-08 2001-12-18 Ati International Srl Method and apparatus for providing a three dimensional object on live video
US7134095B1 (en) * 1999-10-20 2006-11-07 Gateway, Inc. Simulated three-dimensional navigational menu system
US6466198B1 (en) * 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
US6822635B2 (en) * 2000-01-19 2004-11-23 Immersion Corporation Haptic interface for laptop computers and other portable devices
US6707942B1 (en) * 2000-03-01 2004-03-16 Palm Source, Inc. Method and apparatus for using pressure information for improved computer controlled handwriting recognition, data entry and user authentication
US6825861B2 (en) * 2001-01-08 2004-11-30 Apple Computer, Inc. Three state icons for operation
US6967642B2 (en) * 2001-01-31 2005-11-22 Microsoft Corporation Input device with pattern and tactile feedback for computer input and control
US7216305B1 (en) * 2001-02-15 2007-05-08 Denny Jaeger Storage/display/action object for onscreen use
US7012595B2 (en) 2001-03-30 2006-03-14 Koninklijke Philips Electronics N.V. Handheld electronic device with touch pad
GB2381499A (en) 2001-10-30 2003-05-07 Electrotextiles Co Ltd :Detecting a degree of manual interaction with a manually operable key
CN1582465B (zh) * 2001-11-01 2013-07-24 伊梅森公司 输入设备以及包含该输入设备的移动电话
US6824069B2 (en) * 2002-01-30 2004-11-30 Howard B. Rosen Programmable thermostat system employing a touch screen unit for intuitive interactive interface with a user
US7456823B2 (en) * 2002-06-14 2008-11-25 Sony Corporation User interface apparatus and portable information apparatus
JP4115198B2 (ja) * 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
JP3867664B2 (ja) 2002-12-12 2007-01-10 ソニー株式会社 入力装置、携帯型情報処理装置、リモートコントロール装置、および入力装置における圧電アクチュエータ駆動制御方法
KR100536621B1 (ko) 2003-10-21 2005-12-14 한국과학기술원 촉감과 역감을 전달하는 마우스 인터페이스 장치
US8164573B2 (en) * 2003-11-26 2012-04-24 Immersion Corporation Systems and methods for adaptive interpretation of input from a touch-sensitive input device
US7394459B2 (en) * 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
JP2005332063A (ja) 2004-05-18 2005-12-02 Sony Corp 触覚機能付き入力装置、情報入力方法及び電子機器
US7519223B2 (en) * 2004-06-28 2009-04-14 Microsoft Corporation Recognizing gestures and using gestures for interacting with software applications
US7511703B2 (en) * 2004-06-28 2009-03-31 Microsoft Corporation Using size and shape of a physical object to manipulate output in an interactive display application
KR100608589B1 (ko) * 2004-07-24 2006-08-03 삼성전자주식회사 3차원 모션 그래픽 사용자 인터페이스 및 이를 제공하는방법 및 장치
JP4134008B2 (ja) * 2004-11-19 2008-08-13 任天堂株式会社 画像処理装置および画像処理プログラム
US7847789B2 (en) 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
US7619616B2 (en) * 2004-12-21 2009-11-17 Microsoft Corporation Pressure sensitive controls
US7629966B2 (en) * 2004-12-21 2009-12-08 Microsoft Corporation Hard tap
JP2006345209A (ja) * 2005-06-08 2006-12-21 Sony Corp 入力装置、情報処理装置、情報処理方法、及びプログラム
US7676767B2 (en) * 2005-06-15 2010-03-09 Microsoft Corporation Peel back user interface to show hidden functions
US8578290B2 (en) * 2005-08-18 2013-11-05 Microsoft Corporation Docking and undocking user interface objects
KR100719850B1 (ko) 2005-08-24 2007-05-18 엘지전자 주식회사 진동세기 조절기능이 구비된 이동통신 단말기 및 그동작방법
US7509588B2 (en) * 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US8068605B2 (en) 2006-03-07 2011-11-29 Sony Ericsson Mobile Communications Ab Programmable keypad
US8402382B2 (en) * 2006-04-21 2013-03-19 Google Inc. System for organizing and visualizing display objects
JP2008033739A (ja) * 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
US8120584B2 (en) * 2006-12-21 2012-02-21 Cypress Semiconductor Corporation Feedback mechanism for user detection of reference location on a sensing device
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
WO2008095132A2 (en) * 2007-01-31 2008-08-07 Perceptive Pixel, Inc. Methods of interfacing with multi-point input devices and multi-point input systems employing interfacing techniques
JP2008305174A (ja) * 2007-06-07 2008-12-18 Sony Corp 情報処理装置、情報処理方法、プログラム
US7952498B2 (en) * 2007-06-29 2011-05-31 Verizon Patent And Licensing Inc. Haptic computer interface
US11126321B2 (en) * 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
US20090135142A1 (en) * 2007-11-27 2009-05-28 Motorola, Inc. Data entry device and method
US20090140986A1 (en) * 2007-11-30 2009-06-04 Nokia Corporation Method, apparatus and computer program product for transferring files between devices via drag and drop
US20090140989A1 (en) 2007-12-04 2009-06-04 Nokia Corporation User interface
US9513704B2 (en) * 2008-03-12 2016-12-06 Immersion Corporation Haptically enabled user interface
US8526767B2 (en) * 2008-05-01 2013-09-03 Atmel Corporation Gesture recognition
US20100031202A1 (en) * 2008-08-04 2010-02-04 Microsoft Corporation User-defined gesture set for surface computing
US8516397B2 (en) * 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods

Also Published As

Publication number Publication date
US20190391661A1 (en) 2019-12-26
CN101727179A (zh) 2010-06-09
US10996758B2 (en) 2021-05-04
US20160334873A1 (en) 2016-11-17
KR101569176B1 (ko) 2015-11-20
US10409373B2 (en) 2019-09-10
KR20100047981A (ko) 2010-05-11
EP2182421A1 (en) 2010-05-05
US9405367B2 (en) 2016-08-02
US20100114974A1 (en) 2010-05-06
EP2182421B1 (en) 2014-01-08

Similar Documents

Publication Publication Date Title
CN101727179B (zh) 对象执行方法和设备
US11797606B2 (en) User interfaces for a podcast browsing and playback application
CN108369456B (zh) 用于触摸输入设备的触觉反馈
US8600967B2 (en) Automatic organization of browsing histories
US20120249461A1 (en) Dedicated user interface controller for feedback responses
US9348501B2 (en) Touch modes
EP2662762B1 (en) Document manager and browser
US20120192108A1 (en) Gesture-based menu controls
US20090289913A1 (en) Terminal having touchscreen and method for searching data thereof
US20160062625A1 (en) Computing device and method for classifying and displaying icons
CN108182032A (zh) 用于对值进行就地编辑的用户界面
US20150346919A1 (en) Device, Method, and Graphical User Interface for Navigating a Content Hierarchy
US9747004B2 (en) Web content navigation using tab switching
CN105786326A (zh) 显示装置及其控制方法
EP4006699A1 (en) Haptic effect on a touch input surface
US20130162568A1 (en) Setting vibration portions in pieces of electronic data that are displayable on a display device
US20130227463A1 (en) Electronic device including touch-sensitive display and method of controlling same
KR101722207B1 (ko) 오브젝트 실행 방법 및 장치
CN104346077A (zh) 应用程序触发方法和装置
KR101869261B1 (ko) 오브젝트 실행 방법 및 장치
EP2711804A1 (en) Method for providing a gesture-based user interface
EP2631755A1 (en) Electronic device including touch-sensitive display and method of controlling same
KR20150033196A (ko) 콘텐츠를 검색하는 방법 및 그 장치.
JP5479876B2 (ja) タッチセンサを有する装置、データ記憶方法及びデータ記憶プログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant