CN102741789B - 触感提供装置和用于提供触感的方法 - Google Patents

触感提供装置和用于提供触感的方法 Download PDF

Info

Publication number
CN102741789B
CN102741789B CN201180007610.9A CN201180007610A CN102741789B CN 102741789 B CN102741789 B CN 102741789B CN 201180007610 A CN201180007610 A CN 201180007610A CN 102741789 B CN102741789 B CN 102741789B
Authority
CN
China
Prior art keywords
touch
sense
user interface
definition file
application
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201180007610.9A
Other languages
English (en)
Other versions
CN102741789A (zh
Inventor
木下健太
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Publication of CN102741789A publication Critical patent/CN102741789A/zh
Application granted granted Critical
Publication of CN102741789B publication Critical patent/CN102741789B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • G06F3/04142Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position the force sensing means being located peripherally, e.g. disposed at the corners or at the side of a touch sensing plate

Abstract

提供了触感提供装置和用于提供触感的方法,通过采用配置用户界面的现有应用响应于输入来提供触感以改善操作感觉。触感提供装置(1)包括触摸传感器(40)、振动触摸面的触感提供单元(50)、显示单元(30)、存储单元(70)以及控制单元(10),存储单元(70)存储用户界面的定义文件,该定义文件包括关于与包含在用户界面中的对象对应的待提供触感的信息,控制单元(10)通过分析定义文件来设置定义文件中所定义的用户界面,当检测到对用于执行预定操作的对象的输入时,控制单元(10)控制触感提供单元(50)向按压对象提供与该对象对应的触感。

Description

触感提供装置和用于提供触感的方法
相关申请的交叉引用
本申请要求于2010年1月27日提交的第2010-15980号日本专利申请的优先权和益处,该申请的全部内容通过引用并入本文。
技术领域
本发明涉及基于对触摸传感器的按压操作来提供触感的装置以及通过该装置提供触感的方法。
背景技术
近年来,诸如移动电话和游戏机的移动终端采用具有诸如触摸板、触摸开关等的触摸传感器的输入装置,来作为检测用户的接触操作的输入装置,诸如操作单元、开关等。除了移动终端之外,这些具有触摸传感器的输入装置还广泛地用于诸如计算器和售票机的信息设备,诸如微波炉、电视、照明设备的家用电器,工业设备(FA设备)等。
已知存在多种类型的触摸传感器,例如,电阻膜型、电容型、光学型等。然而,这些类型的触摸传感器接受通过手指或手写笔进行的接触操作,而且与按钮开关不同,即便触摸传感器自身被触摸,也没有物理移位。
因此,操作者不能获得对触摸传感器的接触操作的反馈。在进行接触操作而没有操作感觉时,操作者无从知晓接触操作是否被终端适当地检测到。因此,在使用这种终端时,操作者可能在相同位置重复进行接触操作,这会给操作者带来压力。
为了防止这种不必要的重复接触操作,已知的装置是例如在终端适当地识别接触操作时产生声音。还存在已知的装置在与检测到接触操作的位置对应的位置处,通过例如改变显示单元上所描绘的诸如输入按钮的用户界面的输入对象(在下文中,简单地称为“对象”)的颜色来改变显示状态。这些装置允许操作者听觉或视觉确认终端是否适当地检测到接触操作。
然而,这种听觉反馈难以在嘈杂的环境中得到确认,并且当所使用的设备处于静音模式下时这种听觉反馈是不适用的。此外,在使用这种视觉反馈时,如果在显示单元上显示的对象较小,则尤其在操作者用手指进行接触操作的情况下,操作者可能因为对象的视图被手指阻挡而不能确认显示状态的改变。
因此,提出了一种既不依赖于听觉也不依赖于视觉而是通过当触摸传感器检测到接触时,使触摸传感器振动的反馈方法(例如,参见专利文献1、2)。
相关技术文献
专利文献
专利文献1:第2003-288158号日本专利公告
专利文献2:第2008-130055号日本专利公告
发明内容
技术问题
以上专利文献1和2中公开的装置能够在检测到对触摸传感器的接触时在操作者的指尖处提供触感。因此,在使用该装置时,操作者可以通过触感来识别该装置是否适当地检测到对触摸传感器的接触操作。
然而,为了在检测到接触时提供触感,这种触感提供装置需要将在预定条件下进行提供触感的操作初步并入应用软件(在下文中,简单地称为“应用”)。也就是说,以上装置可通过使用被开发用来产生振动的应用在预定条件下提供触感。然而,当目前使用不支持产生振动的应用时,以上装置不能适当地提供触感。
因此,为了通过上述装置在预定条件下适当地提供触感,必须研发新的应用或者通过添加提供触感等的操作来修改现有应用。
例如,需要向应用添加以下操作,即在与触感提供装置的显示单元上所图形描绘的诸如按键或按钮的对象对应的位置处检测到对触感传感器的接触之后提供预定触感。还需要在除显示单元上图形描绘的诸如按键或按钮的对象的位置之外的别处检测到对触感传感器的接触时,阻止触感提供装置提供触感。
通过如上所述控制触感的提供,在通过利用触摸传感器和GUI(Graphical UserInterface,图形用户界面)的用户界面检测到接触时,触感提供装置可通过在操作者的指尖等处的振动提供触感。也就是说,触感提供装置通过提供触感可向操作者通知操作者对图形描绘的诸如按键或按钮的对象的接触被检测到。另外,触感提供装置可避免在除图形描绘的诸如按键或按钮的对象的位置之外的别处检测到接触时提供反馈。
对于这种控制,触感提供装置通常需要与这样的应用相结合,该应用管理在存在对触感传感器的接触时GUI的状态,即显示于显示单元上的诸如按键或按钮的对象的状态。
以下对用于提供触感的、假定的触感提供装置的操作进行描述。
图11是示出假定的触感提供装置的示意性配置的框图。如图11所示,触感提供装置100包括控制单元110、应用执行单元120、显示单元130、触感传感器140、触感提供单元150以及存储单元160。控制单元110包括显示控制单元112和触感控制单元114。存储单元160包括应用存储区162。
控制单元110控制包括每个功能单元在内的整个触感提供装置100。应用执行单元120从存储单元160的应用存储区162获得各种应用,并基于应用执行操作。在以下的描述中,假设应用执行单元120所执行的应用初步包括(合并)了当触摸传感器140在与显示在显示单元130上的对象对应的位置处检测到接触时提供预定触感的操作。
显示单元130通过使用液晶显示器、有机EL显示器等构成,并显示用于向操作者表示接触位置的、图形描绘的按键或按钮的对象。触摸传感器140通常设置在显示单元130的前面,以检测操作者的手指等在与显示单元130上所显示的对象的位置对应的、触摸传感器140的触摸面上进行的接触操作。另外,触摸传感器140通过控制单元110将触摸面上检测到的接触位置通知给应用执行单元120。触感提供单元150通过利用小型偏心马达、压电元件等构成,并且通过使触摸传感器140的触摸面振动将触感提供给进行接触操作的、诸如操作者的手指等的接触对象。
控制单元110的显示控制单元112基于应用执行单元120所供给的显示数据控制显示器以在显示单元130上显示对象等的图像,而且还改变图像的显示状态。触感提供单元114基于应用执行单元120的指示控制触感提供单元150,以在预定条件下提供以一定的振动图形进行的振动。
图12示意性地示出了触感提供装置100基于对接触的检测提供触感的操作的示例的流程图。
在检测到对触摸传感器140的触摸面的接触的时间点,触感提供装置100开始控制触感提供的操作。当该操作开始时,首先触摸传感器140将触摸面上的接触位置通知给应用执行单元120(步骤S100)。在被通知了接触位置之后,应用执行单元120确定该接触位置是否与显示单元130上的诸如按键或按钮的对象的图像对应(步骤S102)。在步骤S102中,当接触位置与显示单元130上的诸如按键或按钮的对象的图像不对应时,应用执行单元120结束操作,并且不发布与显示和触感有关的指示。在这种情况下,不提供触感。
另一方面,当接触位置与诸如按键或按钮的对象的图像对应时,应用执行单元120向显示控制单元112供给用于显示输入被检测到的通知的显示数据。这里,输入被检测到的通知是例如通过短暂突出显示诸如按键或按钮的对象或者显示该按键或按钮被按压来允许操作者视觉确认的显示。在从应用执行单元120接收到显示数据之后,显示控制单元112基于该显示数据改变显示单元130上的图像(步骤S104)。
随后,为了通知操作者输入被检测到,应用执行单元120指示触感控制单元114提供预定触感。这里,预定触感是操作者可通过触觉感知的反馈,例如触摸传感器140的触摸面的瞬时振动。在接收到如上所述的提供触感的指示之后,触感控制单元114基于指示控制触感提供单元150提供以预定振动图形的振动。因此,触感提供单元150通过以预定振动图形进行振动将触感提供给接触触感传感器140的触摸面的接触对象(步骤S106)。因此,通过采用触感传感器和GUI的用户界面,触感提供装置100可以仅在检测到对表示接触位置的对象的输入时将触感提供给操作者。
根据触感提供装置100,如上所述,在应用支持提供触感的操作时进行以上操作没有困难。也就是说,在使用其中初步合并有提供触感的操作的应用时,可以通过以上操作适当地提供预定触感。
然而,在使用目前不支持提供触感的操作的应用时,触感提供装置100在对象的显示基于接触操作而改变时可能不能适当地提供触感。因此,为使触感提供装置100利用迄今已开发出的各种应用资源,每个应用均需调整为包括在预定条件下提供触感的操作。由于对每种应用均需进行添加操作的这种调整,所以预计会产生庞大的工作量及成本。此外,为使每个对象提供不同的触感,需要向各个对象添加提供不同触感的操作,这极大地增加了工作量和成本。
在这种情况下,期望未来供应商可无需研发用于触感提供装置的应用,并延迟采用触摸传感器和GUI的平台的普及。
然而,在以上专利文献1和2中公开的技术仅在触摸传感器检测到接触时响应于接触使触摸传感器振动。因此,当将支持提供触感的应用应用于专利文献1和2中公开的装置时,这些装置通过使用目前的应用可能不能根据需要适当地提供触感。尤其在使用具有图形描绘于触摸传感器上的例如机械按钮开关(按压式按键开关)的按键开关的装置时,在手指等轻轻接触(触摸)触摸传感器时提供触感。由于该装置会对操作者对触摸传感器的按压(推压)操作之前的轻接触作出响应并提供与所描绘的图像(按钮)的响应不同的响应,所以可能触发错误操作。
此外,由于根据以上专利文献的装置在操作者并未有意推压(即,操作者没有施加作用力)图形描绘的按钮开关时响应于触摸传感器被推压前的轻触摸(接触)而提供触感,所以操作者会有奇怪的感觉。例如,电阻膜型触摸传感器在上部传导膜接触到下部传导膜时提供触感,而电容型触摸传感器在检测到接触的电信号时提供触感。
此外,传统触感提供装置在采用基于初步合并有通过触摸传感器提供触感的操作的应用的用户界面时,在检测到输入时不会提供机械按钮开关的操作感觉。也就是说,传统触感提供装置所提供的触感仅通过简单地振动主体向操作者通知接触被检测到。因此,传统触感提供装置所提供的触感不会向操作者提供与操作机械按钮开关时获得的操作感觉类似的逼真的操作感觉。
然而,采用触摸传感器和GUI的用户界面通常显示图形描绘的机械按钮开关的对象。因此,当检测到对这种对象的输入时,优选从操作者的操作感觉的角度提供与机械按钮开关的触感类似的逼真触感。在检测到对所显示对象的输入之后提供点击实际按键或按钮时所获得的反馈可以改善操作者的操作感觉。
在操作机械按钮开关时,操作者在该开关上施加某一按压力,因而开关被按压下并提供例如金属弹片开关的推压触感(在下文中,称为点击感觉)。而且,在操作机械按钮开关时,操作者在将被按压下的开关释放的过程中减少按压力,因而操作者可获得金属弹片开关等恢复至其原始未按压状态的触感(在下文中,称为释放感觉)。此外,当操作者非常轻地触摸(接触)机械按钮开关时,不提供点击感觉,因而也不提供释放感觉。采用触感传感器和GUI的传统触感提供装置不能提供以上描述的机械按钮开关的点击感觉和释放感觉。
另外,当机械按钮开关被按压下时,基于开关机构的不同物理结构等可获得各种触感。例如,在按压时获得的触感的强度可以基于按钮的尺寸不同,或者基于按压按钮的冲程的强度可获得不同的触感。传统的用于提供触感的装置不能对供每个对象提供不同的触感,即适用于每个对象的触感。为了使这些不同的触感实体化,如上所述需要通过添加用于对每个对象提供不同的触感的操作来修改应用,这需要庞大的工作量及成本。
因此,考虑到以上问题,本发明的目的是提供一种触感提供装置,其通过采用配置用户界面的现有应用响应于输入来提供触感,从而改善操作者的操作感觉,以及通过该触感提供装置提供触感的方法。
解决问题的技术方案
为了实现以上目的,根据本发明的第一方面的触感提供装置包括:
触摸传感器;
触感提供单元,配置为振动所述触摸传感器的触摸面;
显示单元;
存储单元,配置为存储在所述显示单元上所显示的用户界面的定义文件,所述定义文件包括与包含在所述用户界面中的用户界面对象对应的、所述触感提供单元将要提供的触感有关的信息;以及
控制单元,配置为通过分析所述定义文件来设置所述定义文件中所定义的用户界面,当检测到对用于执行预定操作的、对所述用户界面对象的输入时,所述控制单元控制所述触感提供单元,以便将与所述用户界面对象对应的触感提供给按压所述触摸面的按压对象。
本发明的第二方面是根据第一方面的触感提供装置,其还包括负荷检测单元,所述负荷检测单元配置为检测所述触摸传感器的所述触摸面上的压力负荷,其中
在检测到用于执行所述预定操作的、对所述用户界面对象进行的输入并且所述负荷检测单元检测到满足用于提供触感的标准负荷的压力负荷时,所述控制单元控制所述触感提供单元,以便向所述按压对象提供所述触感。
为了实现以上目的,根据本发明的第三方面的触感提供装置包括:
应用软件,配置为在被激活时供给定义触感的用户界面定义文件的识别信息;以及
控制单元,配置为基于所述应用软件所供给的所述识别信息从存储单元获得所述用户界面定义文件,并且根据所述用户界面定义文件为用户界面设置所述触感。
为了实现以上目的,根据本发明的第四方面的触感提供装置包括:
应用软件,配置为在被激活时供给定义触感的用户界面定义文件;
以及
控制单元,配置为将所述应用软件所供给的所述用户界面定义文件存储在存储单元中,并且根据从所述存储单元获得的所述用户界面定义文件为用户界面设置所述触感。
为了实现以上目的,根据本发明的第五方面的用于提供触感的方法包括以下步骤:
从被激活的应用软件接收定义触感的用户界面定义文件的识别信息;
基于所述识别信息从存储单元获得所述用户界面定义文件;以及
根据所述用户界面定义文件为用户界面设置所述触感。
为了实现以上目的,根据本发明的第六方面的用于提供触感的方法包括以下步骤:
从被激活的应用软件接收定义触感的用户界面定义文件;
将所述用户界面定义文件存储在存储单元中;以及
根据从所述存储单元获得的所述用户界面定义文件为用户界面设置所述触感。
有益效果
根据本发明,通过使用初步并入支持响应于输入来提供触感的操作的应用,可以在预定条件下提供与每个对象对应的适当触感。因此,本发明能够利用现有应用并通过使用这种应用提供具有良好操作性的用户界面。另外根据本发明,当检测到对触摸传感器的按压操作时,可以提供与机械按钮开关的触感类似的触感。因此,本发明可改善操作者的操作感觉。
附图说明
图1是示出根据本发明的实施方式的触感提供装置的示意性配置的框图;
图2是示出图1中所示的触感提供装置的示例性实现结构的视图;
图3是示出本发明的用户界面定义文件的内容的概念性视图;
图4是示出图1中所示的触感提供装置的显示单元上所显示的用户界面的示例的视图;
图5是示出对响应于图1中所示的触感提供装置所使用的用户界面的各个对象进行的操作提供的触感进行设置的示例的视图。
图6是示出在本发明的实施方式中使用的用户界面定义文件的示例的视图;
图7是示出图1中所示的触感提供装置产生用户界面的操作的流程图;
图8是示出图1中所示的触感提供装置提供点击感觉的操作的流程图;
图9是示出图1中所示的触感提供装置提供释放感觉的操作的流程图;
图10是示出图1中所示的触感提供装置提供滑动感觉的操作的流程图;
图11是示出假定的触感提供装置的示意性配置的框图;以及
图12是示出假定的触感提供装置的操作的流程图。
具体实施方式
将参照附图描述本发明的实施方式。
根据本发明,显示在显示单元上的用户界面的定义文件定义当检测到对用户界面的每个对象的输入时将要提供的触感。而且根据本发明,不响应于对触摸传感器的轻轻接触(触摸)而提供触感,而是响应于操作者对触摸传感器有意进行的按压(推压)操作而提供触感。
图1是示出根据本发明的实施方式的触感提供装置的示意性配置的框图。
如图1所示,触感提供装置1包括控制单元10、应用执行单元20、显示单元30、触摸传感器40、触感提供单元50、负荷检测单元60以及存储单元70。控制单元10包括显示控制单元12、触感控制单元14以及用户界面控制单元16。存储单元70包括应用存储区72、用户界面定义文件存储区74以及用户界面资源存储区76。应该注意,在附图及以下描述中“用户界面”将被简称为“UI”。
控制单元10控制包括每个功能单元的整个触感提供装置1。应用执行单元20从存储单元70的应用存储区72获取各种应用,并基于应用执行操作。根据本实施方式,应用执行单元20执行最初不支持提供触感的应用。
显示单元30显示图形描绘的按钮开关(按压式按键开关)的对象。按钮开关是如可以被实际压下的输入按钮或按键(在下文中,简单称为“按键等”)的机械按键。根据本实施方式,显示单元30显示图形描绘的按钮开关的对象。显示单元30例如可以通过液晶显示板、有机EL显示面板等构成。
触摸传感器40通常设置在显示单元30的前面,以检测操作者手指等(按压对象)在触摸传感器40的触摸面上的相应位置处对显示在显示单元30上的对象的按压操作(接触)。在检测到对触摸面的接触之后,触摸传感器40通过输入控制单元将检测到的接触位置通知给应用执行单元20。触摸传感器40可以包括诸如电阻膜型、电容型、光学型的已知类型。
触感提供单元50通过利用压电振动器等构成,并且使触摸传感器40的触摸面振动。通过在触摸传感器40的触摸面上产生振动,触感提供单元50向按压触摸面的按压对象提供触感。按压触摸面的按压对象例如为操作者的手指或手写笔。负荷检测单元60检测触摸传感器40的触摸面上的压力负荷,负荷检测单元60可包括对负荷线性地作出反应的元件,例如应变计传感器、压电元件等。而且,负荷检测单元60将检测到的、触摸传感器40的触摸面上的压力负荷通知触感控制单元14。
基于应用执行单元20通过UI控制单元16所提供的显示数据,控制单元10的显示控制单元12控制显示器,从而例如在显示单元30上显示对象的图像或者改变该图像。当在触感控制单元14正检测用于执行预定操作的、对对象的输入且负荷检测单元60检测到的压力负荷满足用于提供触感的标准负荷时,触感控制单元14控制触感提供单元50产生在预定条件下以预定图形进行的振动。
UI控制单元16向应用执行单元20通知关于触摸传感器40上的接触位置的信息。当触摸传感器40上的接触位置与用于开始预定操作的对象对应时,UI控制单元16还从应用执行单元20接收用于表示输入被检测到的、对象的显示数据。另外,当触摸传感器40上的接触位置与用于开始预定操作的对象对应并且UI定义文件定义了与该对象对应的触感时,UI控制单元16根据该定义设置待提供给触感控制单元14的触感。
存储单元70的应用存储区72存储包括程序数据的各种应用以实现各种功能。UI定义文件存储区74存储UI定义文件,UI定义文件定义全体UI的生成规则的序列。UI资源存储区76存储UI资源,例如被用于生成UI的图像数据、字体数据以及文本数据。当实际生成UI时,存储在UI资源存储区76中的图像数据和文本数据显示在显示单元30上。
图2示出了图1中所示的触感提供装置1的示例性实现结构;图2(A)是主截面的横截面图,图2(B)是主截面的平面视图。显示单元30被容纳在壳体61中。触摸传感器40通过由弹性件制成的绝缘装置62设置在显示单元30上。在根据本实施方式的触感提供装置1中,显示单元30和触摸传感器40在平面视图中的形状为矩形。而且,在触感提供装置1中,触摸传感器40通过设置在显示单元30的显示区域A外的四个角处的绝缘装置62被支承在显示单元30上,如图2(B)中的链式双划线所示。
此外,壳体61设有上盖63,上盖63覆盖显示单元30的显示区域外的、触摸传感器40的表面区域。由弹性件制成的绝缘装置64设置在上盖63与触摸传感器40之间。图2中所示的触摸传感器40例如可包括具有触摸面40a并通过利用透明膜或玻璃构成的表面部件、以及由玻璃或丙烯醛基构成的背面部件。触摸传感器40被设计使得当触摸面40a被向下按压时,被按压的部分相对于按压力略微弯曲(绷紧)或者结构本身略微弯曲。
在触摸传感器40的表面上接近由上盖63覆盖的每个侧面的位置处设有、附接有或以其它方式配置有检测在触摸传感器40上所施加的负荷(按压力)的应变计传感器51。此外,在触摸传感器40的背面上接近于两个相对侧中的每一侧设有、附接有或以其它方式配置有使触摸传感器40振动的压电振动器52。也就是说,图2中所示的触感提供装置1具有图1中所示的包括四个应变计传感器51的负荷检测单元60,以及包括两个压电振动器52的触感提供单元50。触感提供单元50使触摸传感器40振动,以使得触摸面40a振动。应该注意,图2(B)中省略了图2(A)中所示的壳体61、上盖63和绝缘装置64。
接下来,将描述存储在UI定义文件存储区74中的UI定义文件。
存储单元70的UI定义文件存储区74存储UI定义文件,UI定义文件定义执行存储在应用存储区72中的每个应用所必需的UI的规范和操作。在使用UI时,相同的UI或不同的UI均可用于不同的应用。这里,为方便起见,UI定义文件存储区74存储与各个应用对应的UI定义文件。
例如,当触感提供装置1被用作移动电话的输入装置时,与配置操作者对移动电话进行输入操作中使用的UI的应用对应的移动电话操作输入UI定义文件被存储在UI定义文件存储单元74中。类似地,例如,当触感提供装置1被用作银行的ATM(自动取款机)的输入装置时,与配置对ATM进行输入操作中使用的UI的应用对应的ATM操作输入UI定义文件被存储在UI定义文件存储单元74中。
根据本实施方式,根据基于XML的UIML(用户界面标记语言,User InterfaceMarkup Language)形式的语言被用作描述UI定义文件的语言的示例。类似于UIML,近来已引入基于XML(可扩展标记语言,Extensible Markup Language)的UI。通过使用具有标准化描述方法的XML文件来描述UI便于再利用程序码,并且能够将UI移植(port)为另一模式。因此,相同的UI可用于通过不同制造商制造的不同型号的终端,例如通过使用独立于每个终端的UI。
这种基于XML的UI的典型示例有TAT(http://www.tat.se/)开发的UIFoundation、Acrodea,Inc.(http://www.acrodea.co.jp/)开发的VIVID UI、高通公司(Qualcomm Incorporated)(http://www.qualcomm.co.jp/)开发的UI One等。
图3是示出UI定义文件的内容的概念性视图。如图3所示,触感提供装置1的存储单元70的UI定义文件存储区74存储UI定义文件,UI定义文件定义用于生成全体UI的规则序列。虽然图3中存储有六个UI定义文件(1)至(6),但是UI定义文件存储区74可基于将要使用的UI来存储容量范围内的任意数量的UI定义文件。
另外,如图3所示,每个UI定义文件包括多个对象定义信息。虽然图3中的UI定义文件(2)包括六个UI对象定义信息,但是实际包含在UI定义文件(2)中的对象定义信息的数量与包含在基于UI定义文件(2)所配置的UI中的对象的数量对应。
如附图所示,包含在UI定义文件中的每个对象定义信息包括关于与对象定义信息所定义的对象有关的各种属性的信息。以下是包含在对象定义信息中的典型信息的示例:
(1)关于组件(对象)的类型的信息:指定对象的类型的信息,例如对象是否具有如按钮或按键那样检测用户操作的功能、如文本框显示信息的功能或者在显示单元30上简单地显示图像的功能;
(2)用于对象的资源信息:定义用于在显示单元30上显示诸如按键或按钮的UI组件的对象的图像和文本的信息;
(3)用于布置UI对象的位置信息:指定对象在显示单元30上的预定UI显示区中的位置的信息;
(4)关于对象的显示尺寸的信息:指定待显示在显示单元30的UI显示区中的对象尺寸的信息;
(5)关于对象操作条件的信息(动作信息):定义当检测到对对象的输入时(即,当检测到在与显示单元30上所显示的对象对应的位置处对触摸传感器40的接触时)应用的操作的信息(例如,对于移动电话输入操作应用定义当对移动电话操作UI的对象“端”进行的输入事件发生时断开呼叫的指示);以及
(6)启用或禁用对象的信息:指定是否在UI显示区中显示对象或者是否激活对象的信息。
根据本实施方式,如以上(5)关于对象操作条件的信息(动作信息),定义了用于执行与每个对象对应的预定应用功能的动作信息和关于与每个对象对应的预定触感的信息。
图4至图6是示出上述关于对象操作条件的信息的具体实施例的视图。参照这些附图,以下将描述根据本实施方式的触感提供装置1对触感的设置。
图4是示出当触感提供装置1被用作视频播放器的远程控制器的输入装置时UI的示例的视图,该UI包括用于执行在显示单元30上显示的操作的对象。当触感提供装置1用作视频播放器的远程控制器UI时,从存储在应用存储区72中的应用中选择视频播放器的远程控制器UI的应用并将其激活。以下将描述此时进行的操作。这里,将描述提供与图4中所示的视频播放器的远程控制器UI中所包含的每个对象对应的触感的操作。
图4是示出视频播放器的远程控制器UI的示例的视图,其包括:
(a)电源开关对象:用于打开或关闭视频播放器;
(b)文本框对象:用于显示各种信息;
(c)倒带按钮对象:用于将视频带倒带;
(d)快进按钮对象:用于将视频带快进;
(e)频道选择对象:用于向上和向下选择频道;
(f)音量控制对象:用于调低和调高音量;以及
(g)数字按键对象:用于输入数字和选择频道。
如上所述,设置了包含在图4所示的UI中的对象的任务(功能),并且将这些功能的操作初步定义为上述(5)关于对象操作条件的信息(动作信息)。通过适当定义的动作信息,当检测到对(a)电源开关对象的输入时,远程控制器例如可通过红外线等发送打开或关闭为外部装置的、视频播放器的电源的信号。
图5是示出与包含在图4所示的UI中的各个对象对应的触感表格的示例的视图。
在图5中,将包含在图4所示的UI中的一些对象按类型分类,并且放置在竖直方向的行中。这种分类在UI定义文件中被定义为(1)关于组件(对象)的类型的信息。在图5所示的示例中,HapButton1(按钮1)被分配为(a)电源按钮对象,而HapButton2(按钮2)被分配为(c)倒带按钮对象和(d)快进按钮对象。HapTextBox(文本框)被分配为(b)文本框对象,并根据是否显示文本而不同。虽然仅为图5中的对象(a)至(d)设置了触感,但是也可以以类似方式为以上对象(e)至(g)设置触感。
在图5的水平方向的行中显示了为每种类型的对象设置的触感。“h:按压(h:pressed)”(点击感觉)表示当相应类型的对象被按压时所提供的点击感觉的类型。“h:释放(h:released)”(释放感觉)表示当相应类型的对象被解除时所提供的释放感觉类型。“h:滑动(h:slided)”(滑动感觉)表示当相应类型的对象被按压然后检测到对该对象进行的滑动输入时所提供的滑动感觉的类型。这些类型的触感被定义为UI定义文件中的(5)关于对象操作条件的信息(动作信息)。“h:按压”、“h:释放”以及“h:滑动”所有这些类型均涉及操作系统(OS)中相同或相似事件。
根据本实施方式,如上所述,当检测到对对象的输入时,可以不是简单地提供点击感觉、释放感觉或滑动感觉,而是为每个对象设置不同的点击感觉、释放感觉以及滑动感觉。当触感提供单元50通过利用压电振动器构成时,这些不同的触感例如可以通过调整压电振动器的振动频率或周期、压电振动器的输出电压或者用于激活压电振动器所需的压力负荷来生成。
在图5中,以模拟词描述当检测到对每个对象的输入时所提供的触感作为示例。例如,当检测到对HapButton1(按钮1)的“电源按钮”的按压操作时,提供C1类型(Type_C1)的“胶状”点击感觉。应该注意,“胶状”点击感觉是比“点击”感觉更柔的感觉的模拟描述。在解除按压输入的过程中该对象还提供R1类型(Type_R1)的“点击”感觉。此外,当在按压输入的检测之后检测到滑动输入时,该对象提供S2类型(Type_S2)的“粗糙”滑动感觉。
另外,当检测到按压输入时,被分类为HapTextBox(文本框)的对象提供C3类型(Type_C3)的“哔哔(beep)”点击感觉。由于释放感觉不是为该对象设置的,所以在解除按压输入的过程中不提供释放感觉。此外,当在检测到按压输入之后检测到滑动输入时,显示文本的对象提供S2类型的“粗糙”滑动感觉。另一方面,当在检测到按压输入之后检测到滑动输入时,没有显示文本的对象提供S1类型(Type_S1)的“柔滑(sleek)”滑动感觉。
图6是以XML(UIML)形式示出描述以上提及的触感的示例的视图。在图6的示例中,在参照图4和图5描述的对象中,为分类为HapButton1(按钮1)的(a)电源按钮对象设置触感。在图6中的项目“style(样式)”中,规定了对象的形状(位置、尺寸以及所使用的图像数据)。通过用于定义上述UI的XML(UIML)的形式,检测到对对象的输入时进行的操作可以在项目“behavior(行为)”中规定。这里,将要提供的触感的定义添加作为当检测到对对象的输入时所进行的操作。
在图6的项目(1)中,指出要提供触感的对象。这里,指定了被分类为HapButton1(按钮1)的(a)电源按钮对象。另外,在图6的项目(2)中,规定了为执行规定操作(这里,提供触感)将要满足的条件。这里,规定了在负荷检测单元60检测到的压力负荷达到1.5N时提供触感。此外,在项目(3)和(4)中,定义了触感提供单元50所提供的触感。在图6中,C1类型的“胶状”点击感觉被定义为项目(3)中的点击感觉,而C2类型的“粗糙”滑动感觉被定义为项目(4)中的点击感觉。
如上所述,可以为每个对象设置各种点击感觉、释放感觉以及滑动感觉。该设置被存储在UI定义文件存储区74中的UI定义文件内。也就是说,存储单元70存储UI定义文件,该UI定义文件包括与对应于包含在待显示于显示单元30上的UI中的各个对象的、将由触感提供单元50提供的触感有关的信息。在改变将使用的UI时,通过获得另一UI定义文件,可以为每个UI中不同的每个对象设置适当的触感。在这种设置中,可以使用针对各个对象的默认值。
如上所述,在定义待提供的触感时,可以将操作者的按压输入的压力负荷设置为关于对象操作条件的信息,以便当检测到预定压力负荷时提供触感。因此,触感提供装置1可基于操作者的压力设置各种操作,例如,当检测到满足预定标准的压力负荷时提供点击感觉,然后在维持满足预定压力负荷的压力负荷时提供滑动感觉。
接下来,将描述根据本实施方式的触感提供装置1的操作。首先,将描述触感提供装置1通过激活预定应用生成UI并使UI为使用作准备的操作。
图7是示出触感提供装置1生成UI的操作的流程图。这里,UI生成操作是分析UI定义文件,并基于分析的结果在显示单元30上显示UI。
图7中所示的UI生成操作在应用执行单元20获得并激活存储在应用存储区72中的应用时开始。当使用UI的应用被激活时,UI控制单元16从UI定义文件存储区74中指定并获得该应用所使用的UI定义文件。此时,基于被指定的UI定义文件的UI为一个DOM文档(或DOM节点)的形式。当控制单元10和应用20均可对存储单元70进行访问时,应用执行单元20向控制单元10提供用于识别UI定义文件的信息。否则,当控制单元10和应用20均不能访问存储单元70时,应用执行单元20向控制单元10供给UI定义文件,然后该UI定义文件被存储在控制单元10可访问的存储单元(未示出)中以待获取。
当UI生成操作开始时,UI控制单元16首先分析与显示有关的DOM文档(步骤S11)。在该分析中,UI控制单元16分析例如以UIML形式所描述的UI定义文件中的具有结构标记或样式标记的属性。接下来,UI控制单元16分析与操作有关的DOM文档(步骤S12)。在该分析中,UI控制单元16分析以UIML形式所描述的UI定义文件中的具有行为标记的属性。根据本实施方式,在步骤S12中,当UI包括提供触感的对象时,为该对象设置触感。
接下来,UI控制单元16进行转换过程,将包含在DOM文档中的表达转换为依赖于每个终端的描述(步骤S13)。另外,UI控制单元16基于步骤S13中的转换过程的结果选择待使用对象的资源并设置每个属性(性质)(步骤S14)。此时必需的对象的资源从UI资源存储区76获得。接下来,UI控制单元16对包含在每个对象中的UI进行标示过程(步骤S15)。从而UI生成操作结束并且UI可以显示在显示单元30上。
因此,在执行使用UI的应用的同时,触感提供装置1可基于UI定义文件在显示单元30上显示UI。也就是说,触感提供装置1的UI控制单元16通过分析UI定义文件来设置UI定义文件中所定义的用户界面。例如,当触感提供装置1激活用于视频播放器的远程控制器UI的应用时,图4中所示的UI就显示在显示单元30上。
接下来,将描述在UI显示在显示单元30上之后,触感提供装置1基于操作者的按压操作提供触感的操作。
在触摸传感器40正检测到操作者接触显示单元30上所显示的对象的图像的情况下,当负荷检测单元60检测到的压力负荷满足预定标准负荷时,根据本实施方式的触感提供装置1提供触感。在这种情况下,当负荷检测单元60检测到的压力负荷满足预定标准负荷时,基于确定操作者不是无意地(错误操作等)接触而是有意地按压(推压)触摸传感器来提供触感。
图8是示出根据本实施方式的触感提供装置1的操作的流程图。当触感提供装置1进行该操作时,假设通过上述UI生成操作显示单元30初步显示例如按键等对象的图像,以允许检测操作者的手指或手写笔的按压操作。此时,应用执行单元20通过UI控制单元16将包含在GUI中各个对象的显示数据提供给显示控制单元12。接下来,基于应用执行单元20所提供的对象的显示数据,显示控制单元12控制显示单元30显示对象的描绘图像。以下对用于生成由触感提供装置1激活的应用使用的UI的UI定义文件如上所述为各个对象定义触感的情况进行描述。为了在与显示单元30上所显示的对象的图像对应的位置处检测到对触摸传感器40的接触时通知操作者检测到接触,该应用以某种方式改变对象的图像。然而,根据本实施方式,这种图像的改变不是必须的。
当以上描述的准备完成时,根据本实施方式的触感提供装置1开始操作。当触感提供装置1开始操作时,首先,UI控制单元16监控操作者的手指等对触摸传感器40的触摸面的接触(步骤S31)。当在步骤S31中检测到对触摸传感器40的触摸面的接触时,UI控制单元16将接触位置通知给应用执行单元20(步骤S32)。
在被通知触摸传感器40上的接触位置之后,应用执行单元20确定该接触位置是否与当前所使用的GUI中例如按键等对象的图像对应(步骤S33)。当接触位置与对象的图像对应时,应用执行单元20通过UI控制单元16依照基于应用的设置将用于改变对象图像的显示数据供给到显示控制单元12。在接收到显示数据之后,显示控制单元12控制显示单元30改变正在显示的对象的图像(步骤S34)。也就是说,当检测到对例如按键等对象的接触时,触感提供装置1改变正显示的对象的图像。在改变正显示的对象的图像时,优选指示该对象被选择或者改变该对象的颜色或亮度,以使得操作者可以视觉地确认对按键等的接触(触摸)。对对象的图像进行这种改变可依照基于应用的设置以各种方式进行。
在步骤S33中,由于接触位置与对象的图像对应,当在步骤S34中改变了对象的显示时(即,当检测到对例如按键等对象的接触时),触感控制单元14前进至步骤S35。在步骤S35中,触感控制单元14确定负荷检测单元60检测到的压力负荷是否增加了触摸传感器40的触摸面上的压力并满足预定标准。负荷检测单元60例如检测来自四个应变计传感器51的平均输出值的负荷。这里,优选的是,基于操作者的平常按压操作的压力负荷,将预定标准负荷设置在例如1.5N(牛顿)处,而后可重设。考虑到操作者有意进行的按压操作的压力负荷(例如,按压操作中的压力的平均值等),将预定标准设置为避免极小的值。这是为了防止将操作者无意的轻接触视为进行按压(推压)操作,而向操作者提供以下描述的真实触感。
当在步骤S15中压力负荷满足预定标准负荷时,触感控制单元14控制触感提供单元50在触摸传感器40的触摸面上产生预定振动,以便提供触感(步骤S36)。也就是说,在对用于执行预定操作的对象的输入正被检测到的情况下,当负荷检测单元60检测到满足用于提供触感的标准负荷的压力负荷时,触感控制单元14控制触感提供单元50以提供触感。因此,触感提供单元50将触感提供给按压触摸传感器40的触摸面的按压对象。如参照图5和图6所描述的,此时所提供的触感基于UI定义文件中关于对象操作条件的信息(动作信息)而设置。
根据本实施方式,以上描述的点击感觉可以提供作为在步骤36中由触感提供单元50提供给按压对象的触感。为了向操作者提供逼真的点击感觉,触感提供装置1在刺激压感的同时刺激操作者的触感。也就是说,触感提供装置1刺激压感直至施加到触摸传感器40的压力负荷满足提供触感的标准(例如,1.5N),而当压力负荷满足该标准时,通过用预定驱动信号驱动压电元件52来刺激触感,以使触摸面40a振动。因此,触感提供装置1可向操作者提供与向下按压例如按钮开关(按压式按键开关)的按键开关时所获得的点击感觉类似的点击感觉。因此,通过图形描绘于触摸传感器上的按钮开关的对象,操作者可以在感觉与操作实际按钮开关时获得的点击感觉类似的逼真点击感觉的情况下进行输入操作。因此,操作者将不会有奇怪的感觉。此外,由于操作者可以在感知“已按压”触摸传感器40的同时进行按压操作,所以可防止因仅敲击而导致的错误输入。
以上描述的提供点击感觉的驱动信号,即刺激触感的某一频率、周期(波长)、波形以及振动振幅,可以根据待提供的点击感觉适当地设置。例如为了提供移动终端所采用的金属弹片开关表现的点击感觉,触感提供单元50被驱动信号(例如频率为170Hz的正弦波)驱动一个周期。触感提供单元50被上述驱动信号驱动,以使得触摸面40a在满足预定标准负荷的压力负荷下振动大约15μm。因此,可以向操作者提供与向下按压实际按键时所获得的点击感觉类似的逼真点击感觉。
另一方面,当在步骤S35中压力负荷不满足预定标准负荷时,触感控制单元14确定当触摸传感器40的触摸面上的压力减少时负荷检测单元60检测到的压力负荷是否变为零(步骤S37)。当在步骤S37中负荷检测单元60检测到的压力负荷不为零时,意味着操作者没有解除(释放)对触摸传感器40的操作。因此,触感控制单元14返回步骤S35,并继续进行操作。另一方面,当在步骤S37中负荷检测单元60检测到的压力负荷为零时,可以认为操作者已解除(释放)对触摸传感器40的操作。因此,触感控制单元14结束图8中所示的操作。在步骤S37中,作为确定负荷检测单元60检测到的压力负荷是否为零的替代,可以确定是否仍检测到对触摸传感器40的接触。
在步骤S33中,当接触位置与对象的图像不对应时,应用执行单元20结束图8所示的操作。也就是说,当没有检测到对例如按键等的对象的输入时,或者当对例如按键等的对象之外的别处进行了输入时,应用执行单元20结束图8所示的操作而不改变对象的显示。此外,在这种情况下,UI控制单元16结束操作而不指示触感控制单元14提供触感。因此,当检测到对除例如按键等对象之外的别处的接触时,触感提供装置1不提供触感,因而操作者可识别对对象的输入没有被检测到。
根据本实施方式,如上所述,当检测到对用于执行预定操作的对象的输入并检测到满足预定标准负荷的压力负荷时,提供UI定义文件中所定义的触感。因此,当被激活的应用不支持提供触感的操作时,通过使用定义为各个对象触感的UI定义文件,触感提供装置1可响应于对对象的按压操作而适当地提供触感。因此,根据本实施方式的触感提供装置1,当检测到对对象的输入时,可以提供与该对象对应的触感,并且可通过将用于UI定义文件的设置添加到其上来采用配置UI的现有应用。此外,根据本实施方式的触感提供装置1,响应于对例如按键等的对象的按压(推压)操作,向操作者提供逼真的点击感觉,以使操作者可以确认对对象的输入被适当地识别。
以下对在触感提供装置1正检测到操作者的接触的情况下检测到满足标准负荷的压力负荷时提供点击感觉之后,提供释放感觉的操作进行描述。
在对机械按钮开关进行按压操作的情况下,当对该开关的压力减少时,提供金属弹片开关恢复至其原始状态的触感(在下文中,称为释放感觉)。由于根据本实施方式的触感提供装置1可以响应于按压操作提供逼真的点击感觉,所以为了提供一系列自然的操作感觉,优选的是触感提供装置1可在触摸传感器上的压力被解除(释放)时提供逼真的释放感觉。
图9是示出根据本实施方式的触感提供装置1的操作的流程图。图9所示的操作在参照图8所描述的提供点击感觉的操作(步骤S36)之后开始。当该操作开始时,触感控制单元14确定操作者对触摸传感器40的操作的压力负荷是否减少并且负荷检测单元60检测到的等于或高于预定标准负荷的压力负荷是否变为预定标准负荷以下(步骤S51)。这里,“等于或高于预定标准负荷的压力负荷变为预定标准负荷以下”是在释放过程中压力从超过(或等于)预定标准负荷的状态到下降到(或低于)预定标准负荷的状态的压力负荷的改变。
当在步骤S51中确定了等于或高于预定标准负荷的压力负荷变为预定标准负荷以下时,应用执行单元20通过UI控制单元16依照基于应用的设置,将用于改变对象的图像的显示数据供给到显示控制单元12。在接收到显示数据之后,显示控制单元12控制显示单元30改变正显示的对象的图像(步骤S52)。也就是说,当压力从例如按键等对象释放时,显示控制单元12改变正显示的对象的图像。在改变正显示的对象的图像时,选定的对象恢复至未选定状态,或者例如可以改变该对象的颜色或亮度,以使得操作者可以视觉确认对按键等的操作被释放。
在步骤S52中改变对象的显示之后,触感控制单元14控制触感提供单元50以提供UI定义文件中定义的释放感觉(步骤S53)。
这里,虽然用于提供释放感觉的标准负荷可以与以上提及的用于提供点击感觉的标准负荷相同,但是优选的是将用于提供释放感觉的标准负荷设置为低至在按压时用于提供点击感觉的标准负荷的50-80%。因此,当连续按压相同位置(对象)时(即,当重复轻叩按键时),按压和解除压力的定时与提供触感的定时良好地同步,从而在没有奇怪感觉的情况下提供逼真的点击感觉。也就是说,将释放时用于提供触感的标准负荷设置为小于按压时用于提供触感的标准负荷使得触感没有奇怪感觉。在这种情况下,将在释放时用于触感的标准负荷设置为在按压时用于提供触感的标准负荷的大约50%或50%以上能够明显地改善连续按压操作时的可操作性。另外,将在释放时用于触感的标准负荷设置为在按压时用于提供触感的标准负荷的大约80%或80%以下,能够处理连续按压操作时在维持状态下的微小负荷改变。
因此,可以提供更逼真的点击感觉,例如按压时的点击感觉“Cli”和释放时的点击感觉“Ck”。用于点击感觉的同一驱动信号当然也可用于释放感觉。然而,根据本实施方式,如参照图5所描述的那样,可以设置与点击感觉不同的释放感觉。
以下对当在UI定义文件中为对象设置“滑动感觉”时触感提供装置1的操作进行描述。
根据本实施方式,当触感提供装置1提供了触感时,除了以上描述的点击感觉和释放感觉之外,可以为对象设置例如参照图5所描述的滑动感觉。例如,对于操作者不太可能进行滑动操作的小尺寸对象来说,设置点击感觉和释放感觉可能就足够。然而,对于大尺寸的对象来说,为操作者的滑动操作提供滑动感觉使得操作者无需查看该对象就可识别对象。
另外,例如图5所示的文本框可以设置为不辨认操作者的按压输入(在这种情况下,优选地,不设置点击感觉和释放感觉)。在这种情况下,例如,可以在文本框中显示文本时提供“粗糙的”滑动感觉,而在文本框中没有显示文本时可提供“柔滑的”滑动感觉。因此,操作者无需实际查看对象就可容易并可靠地确定文本框中是否显示了文本。可以考虑设置各种应用,例如当对象中显示预定警告时提供不同的滑动感觉。
图10是示出根据本实施方式的触感提供装置1提供滑动感觉的操作的流程图。以与图9所示的提供释放感觉的操作相同的方式,图10所示的操作在参照图8所描述的提供点击感觉的操作(步骤S36)之后开始。在图10中,步骤S71至S73中的过程与参照图9所描述的提供释放感觉的那些过程(步骤S51至S53)类似,因而省略对其的描述。
在提供滑动感觉的操作中,当在步骤S71中负荷检测单元60检测到的等于或高于预定标准的压力负荷变为预定标准以下时,触感控制单元14前进至步骤S74。在步骤S74中,UI控制单元16确定触摸传感器40的触摸面上(通过按压)的接触位置是否移动。
当在步骤S74中确定了接触位置移动时,可认为进行了滑动操作。在这种情况下,触感控制单元14控制触感提供单元50以在触摸传感器40的触摸面上产生预定振动,以便提供UI定义文件中定义的滑动感觉(步骤S75)。另一方面,当在步骤S74中确定了接触位置没有移动时,可以认为没有进行滑动操作,因而触感控制单元14跳过步骤S75转至步骤S76。
在步骤S76中,应用执行单元20确定触摸传感器40的触摸面上的接触位置是否移动到对其的输入被检测到的对象的图像之外。当在步骤S76中确定了接触位置仍在该对象上时,触感控制单元14返回至步骤S71并继续进行该步骤及其之后的过程。另一方面,当在步骤S76中确定了接触位置移动到对象之外时,触感控制单元14返回至步骤S72并继续进行当检测到接触释放时进行的过程(步骤S72和步骤S73)。
如上所述,根据本实施方式的触感提供装置1可以在UI定义文件中针对各个对象设置响应于操作待提供的触感。因此,触感提供装置1可以通过利用现有应用在预定条件下提供与每个对象对应的适当触感。根据本发明,由于用于控制UI生成的UI控制单元基于UI定义文件来设置实现各个应用之间具有差异的触感,所以消除了对考虑应用设计中的特殊控制的需求。此外,根据本实施方式的触感提供装置1可响应于对对象的输入提供包括点击感觉和释放感觉的各种触感。因此,根据本实施方式的触感提供装置1可利用现有应用并提供与操作实际按钮开关时获得的感觉类似的逼真的操作感觉。
应该理解,本发明不限于以上实施方式,而可以以各种方式进行修改或改变。在以上实施方式中,例如,控制单元10包括显示控制单元12、触感控制单元14以及UI控制单元16。然而,根据本发明的触感提供装置不限于这种配置,而可以根据设计中的需求以各种方式来配置。例如,一个功能单元可同时用作另一功能单元,以便省略后一功能单元,或者一个功能单元可被分成多个功能单元。
以上提及的根据本实施方式的负荷检测单元可以依照触感传感器所采用的接触检测方法来配置。例如,如果在使用电容型的情况下可基于依照接触区域的电阻改变通过输出信号的改变来检测负荷,那么负荷检测单元可无需利用应变计传感器构成。或者,如果在使用电容型的情况下可基于电容的改变通过输出信号的改变来检测负荷,那么负荷检测单元也可无需利用应变计传感器构成。
触感提供单元可以由任意数量的压电振动器、设在触摸传感器的整个表面上的透明压电元件或者在一个驱动信号周期中旋转360度的偏心马达(如果可能振动以提供触感的话)构成。此外,如果负荷检测单元和触感提供单元均通过利用压电元件构成,那么这两个单元可以共享压电元件。
根据以上提及的本实施方式,触摸传感器以交叠的方式设置在显示单元上。然而,根据本发明的触感提供装置不限于这种配置,触摸传感器和显示单元可以彼此空间隔开地设置。
本发明有效地适用于其中触摸传感器用作用于打开/关闭操作的触摸开关的输入装置。
此外,当基于压电元件的输出检测到的压力负荷满足用于提供触感的标准负荷时,根据本发明的触感提供装置驱动压电元件。这里,“当基于压电元件的输出检测到的压力负荷满足用于提供触感的标准时”可以表示“当检测到的压力负荷达到提供触感的标准值时”、“当检测到的压力负荷超过提供触感的标准值时”或“当基于压电元件的输出检测到用于提供触感的标准值时”。
此外,根据以上提及的实施方式的“显示单元”和“触摸传感器”可以通过集成装置构成,例如具有二者功能的公共衬底等。具有显示单元和触摸传感器的功能的这种集成装置可以具有以下配置,例如其中多个光电转换元件(例如光电二极管)顺序地混合在以阵列图案布置在液晶面板中的像素电极组中。这种集成装置可以在液晶面板的结构中显示图像,还可以通过附近的光电转换元件接收与面板表面上的所需位置接触的笔尖所反射的、液晶显示器的背光来检测触摸位置。
参考标号列表
1 触感提供装置
10 控制单元
12 显示控制单元
14 触感控制单元
16 UI控制单元
20 应用执行单元
30 显示单元
40 触摸传感器
40 a触摸面
50 触感提供单元
52 压电振动器
60 负荷检测单元
61 外壳
62 绝缘装置
63 上盖
64 绝缘装置
70 存储单元
72 应用存储区
74 UI定义文件存储区
76 UI资源存储区

Claims (4)

1.触感提供装置,包括:
应用执行单元,用于执行不支持提供触感的应用,并配置为在激活所述应用时向用户界面供给用户界面定义文件的识别信息,其中所述用户界面定义文件包括与所述用户界面中包含的用户界面对象对应的、待提供的触感有关的信息并且被存储在存储单元中;以及
控制单元,配置为基于所述应用所供给的所述识别信息从所述存储单元获得所述用户界面定义文件,并且根据所述用户界面定义文件为所述用户界面设置所述触感。
2.触感提供装置,包括:
应用执行单元,用于执行不支持提供触感的应用,并配置为在激活所述应用时向用户界面供给用户界面定义文件,其中所述用户界面定义文件包括与所述用户界面中包含的用户界面对象对应的、待提供的触感有关的信息;以及
控制单元,配置为将所述应用所供给的所述用户界面定义文件存储在存储单元中,并且根据从所述存储单元获得的所述用户界面定义文件为所述用户界面设置所述触感。
3.用于提供触感的方法,包括以下步骤:
从被激活的应用接收用户界面定义文件的识别信息,其中所述应用不支持提供触感,所述用户界面定义文件包括与用户界面中包含的用户界面对象对应的、待提供的触感有关的信息;
将所述用户界面定义文件存储在存储单元中;
基于所述识别信息从所述存储单元获得所述用户界面定义文件;以及
根据所述用户界面定义文件为所述用户界面设置所述触感。
4.用于提供触感的方法,包括以下步骤:
从被激活的应用接收用户界面定义文件,其中所述应用不支持提供触感,所述用户界面定义文件包括与用户界面中包含的用户界面对象对应的、待提供的触感有关的信息;
将所述用户界面定义文件存储在存储单元中;以及
根据从所述存储单元获得的所述用户界面定义文件为所述用户界面设置所述触感。
CN201180007610.9A 2010-01-27 2011-01-21 触感提供装置和用于提供触感的方法 Active CN102741789B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010-015980 2010-01-27
JP2010015980A JP5635274B2 (ja) 2010-01-27 2010-01-27 触感呈示装置および触感呈示方法
PCT/JP2011/000332 WO2011093045A1 (ja) 2010-01-27 2011-01-21 触感呈示装置および触感呈示方法

Publications (2)

Publication Number Publication Date
CN102741789A CN102741789A (zh) 2012-10-17
CN102741789B true CN102741789B (zh) 2016-12-07

Family

ID=44319044

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180007610.9A Active CN102741789B (zh) 2010-01-27 2011-01-21 触感提供装置和用于提供触感的方法

Country Status (4)

Country Link
US (1) US10627903B2 (zh)
JP (1) JP5635274B2 (zh)
CN (1) CN102741789B (zh)
WO (1) WO2011093045A1 (zh)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7808479B1 (en) 2003-09-02 2010-10-05 Apple Inc. Ambidextrous mouse
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US7656393B2 (en) 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
KR101257964B1 (ko) * 2005-03-04 2013-04-30 애플 인크. 다기능 휴대용 장치
JP5635274B2 (ja) 2010-01-27 2014-12-03 京セラ株式会社 触感呈示装置および触感呈示方法
US20130076686A1 (en) * 2010-05-27 2013-03-28 Kyocera Corporation Tactile sensation providing apparatus
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US9448629B2 (en) 2011-09-27 2016-09-20 Kyocera Corporation Multi-mode tactile sensation providing device
CN105260049B (zh) 2012-05-09 2018-10-23 苹果公司 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169853A1 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
JP6002836B2 (ja) 2012-05-09 2016-10-05 アップル インコーポレイテッド ジェスチャに応答して表示状態間を遷移するためのデバイス、方法、及びグラフィカルユーザインタフェース
EP3264252B1 (en) 2012-05-09 2019-11-27 Apple Inc. Device, method, and graphical user interface for performing an operation in accordance with a selected mode of operation
CN106201316B (zh) 2012-05-09 2020-09-29 苹果公司 用于选择用户界面对象的设备、方法和图形用户界面
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
JP6182207B2 (ja) 2012-05-09 2017-08-16 アップル インコーポレイテッド ユーザインタフェースオブジェクトのアクティブ化状態を変更するためのフィードバックを提供するためのデバイス、方法、及びグラフィカルユーザインタフェース
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
US9891709B2 (en) * 2012-05-16 2018-02-13 Immersion Corporation Systems and methods for content- and context specific haptic effects using predefined haptic effects
JP5962756B2 (ja) * 2012-06-11 2016-08-03 富士通株式会社 電子機器及び振動提供方法
US20140002376A1 (en) * 2012-06-29 2014-01-02 Immersion Corporation Method and apparatus for providing shortcut touch gestures with haptic feedback
US8896524B2 (en) * 2012-08-24 2014-11-25 Immersion Corporation Context-dependent haptic confirmation system
JP2014056337A (ja) * 2012-09-11 2014-03-27 Tokai Rika Co Ltd 触覚提示装置
US8947216B2 (en) 2012-11-02 2015-02-03 Immersion Corporation Encoding dynamic haptic effects
US9898084B2 (en) 2012-12-10 2018-02-20 Immersion Corporation Enhanced dynamic haptic effects
KR102000253B1 (ko) 2012-12-29 2019-07-16 애플 인크. 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
KR102001332B1 (ko) 2012-12-29 2019-07-17 애플 인크. 콘텐츠를 스크롤할지 선택할지 결정하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
EP3435220B1 (en) 2012-12-29 2020-09-16 Apple Inc. Device, method and graphical user interface for transitioning between touch input to display output relationships
EP2939095B1 (en) 2012-12-29 2018-10-03 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
US9041647B2 (en) * 2013-03-15 2015-05-26 Immersion Corporation User interface device provided with surface haptic sensations
WO2014201151A1 (en) * 2013-06-11 2014-12-18 Immersion Corporation Systems and methods for pressure-based haptic effects
US8856748B1 (en) 2013-09-17 2014-10-07 Xamarin Inc. Mobile application testing platform
US9053435B2 (en) * 2013-09-17 2015-06-09 Xamarin Inc. Generating application models based on discovery based machine learning
US8881111B1 (en) 2013-09-17 2014-11-04 Xamarin Inc. Testing user interface responsiveness for mobile applications
US9665206B1 (en) 2013-09-18 2017-05-30 Apple Inc. Dynamic user interface adaptable to multiple input tools
JP2015118605A (ja) * 2013-12-19 2015-06-25 キヤノン株式会社 触感制御装置、制御方法及びプログラム
US20150271228A1 (en) * 2014-03-19 2015-09-24 Cory Lam System and Method for Delivering Adaptively Multi-Media Content Through a Network
CN115756154A (zh) 2014-09-02 2023-03-07 苹果公司 用于可变触觉输出的语义框架
JP6429886B2 (ja) * 2014-09-09 2018-11-28 三菱電機株式会社 触感制御システムおよび触感制御方法
JP6258513B2 (ja) * 2014-09-09 2018-01-10 三菱電機株式会社 触感制御システムおよび触感制御方法
DE102015200036A1 (de) * 2015-01-05 2016-07-07 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung in einem Kraftfahrzeug zur Eingabe von Daten mit zwei Eingabearten und haptischer Rückkopplung
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
JP6386952B2 (ja) * 2015-03-18 2018-09-05 アルプス電気株式会社 電子機器及び振動制御方法
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
DK201670737A1 (en) 2016-06-12 2018-01-22 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
JP2018005274A (ja) * 2016-06-27 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9870033B1 (en) * 2016-08-30 2018-01-16 Apple Inc. Sensor assemblies for electronic devices
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
DK201670728A1 (en) * 2016-09-06 2018-03-19 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button
WO2018189784A1 (ja) * 2017-04-10 2018-10-18 三菱電機株式会社 ユーザインタフェース装置
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
KR101995817B1 (ko) * 2017-07-18 2019-07-03 주식회사 하이딥 터치 입력 장치 제조 방법 및 터치 입력 장치
CN107203273B (zh) * 2017-07-20 2020-07-03 京东方科技集团股份有限公司 触控基板及驱动方法、显示面板及驱动方法
KR102353487B1 (ko) * 2017-08-10 2022-01-20 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US10573136B2 (en) * 2017-08-31 2020-02-25 Microsoft Technology Licensing, Llc Calibrating a vibrational output device
DE102017218120A1 (de) * 2017-10-11 2019-04-11 Robert Bosch Gmbh Verfahren zur Bereitstellung einer haptischen Rückmeldung an einen Bediener einer berührungssensitiven Anzeigeeinrichtung
US10871829B2 (en) * 2017-12-05 2020-12-22 Tactai, Inc. Touch enabling process, haptic accessory, and core haptic engine to enable creation and delivery of tactile-enabled experiences with virtual objects
US11550397B1 (en) * 2019-10-10 2023-01-10 Meta Platforms, Inc. Systems and methods for simulating a sensation of expending effort in a virtual environment
CN111782083A (zh) * 2020-06-30 2020-10-16 北京小米移动软件有限公司 内容输入方法、装置、触控输入设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001296941A (ja) * 2000-04-13 2001-10-26 Fuji Xerox Co Ltd 情報処理装置
CN101544232A (zh) * 2008-03-28 2009-09-30 电装国际美国公司 驾驶员信息中心系统的触觉跟踪遥控
CN101620510A (zh) * 2008-07-01 2010-01-06 索尼株式会社 信息处理设备和信息处理设备中的振动控制方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7127679B2 (en) * 2001-06-29 2006-10-24 Softrek, Inc. Method for generating and navigating a plurality of menus using a database and a menu template
JP2003288158A (ja) 2002-01-28 2003-10-10 Sony Corp タクタイル・フィードバック機能を持つ携帯型機器
TWI234115B (en) 2002-04-03 2005-06-11 Htc Corp Method and device of setting threshold pressure for touch panel
CN104656900A (zh) * 2006-09-13 2015-05-27 意美森公司 用于游戏厅游戏触觉的系统和方法
JP2008130055A (ja) 2006-11-27 2008-06-05 Sony Corp タッチパネルディスプレイ装置および駆動方法並びに電子機器
US8065624B2 (en) 2007-06-28 2011-11-22 Panasonic Corporation Virtual keypad systems and methods
US8004501B2 (en) 2008-01-21 2011-08-23 Sony Computer Entertainment America Llc Hand-held device with touchscreen and digital tactile pixels
US8174503B2 (en) * 2008-05-17 2012-05-08 David H. Cain Touch-based authentication of a mobile device through user generated pattern creation
US8884884B2 (en) * 2008-11-12 2014-11-11 Immersion Corporation Haptic effect generation with an eccentric rotating mass actuator
US8378979B2 (en) * 2009-01-27 2013-02-19 Amazon Technologies, Inc. Electronic device with haptic feedback
TW201039209A (en) 2009-04-27 2010-11-01 Compal Electronics Inc Method for operating electronic device using touch pad
US8390594B2 (en) * 2009-08-18 2013-03-05 Immersion Corporation Haptic feedback using composite piezoelectric actuator
JP5635274B2 (ja) 2010-01-27 2014-12-03 京セラ株式会社 触感呈示装置および触感呈示方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001296941A (ja) * 2000-04-13 2001-10-26 Fuji Xerox Co Ltd 情報処理装置
CN101544232A (zh) * 2008-03-28 2009-09-30 电装国际美国公司 驾驶员信息中心系统的触觉跟踪遥控
CN101620510A (zh) * 2008-07-01 2010-01-06 索尼株式会社 信息处理设备和信息处理设备中的振动控制方法

Also Published As

Publication number Publication date
JP2011154559A (ja) 2011-08-11
WO2011093045A1 (ja) 2011-08-04
CN102741789A (zh) 2012-10-17
JP5635274B2 (ja) 2014-12-03
US10627903B2 (en) 2020-04-21
US20120299859A1 (en) 2012-11-29

Similar Documents

Publication Publication Date Title
CN102741789B (zh) 触感提供装置和用于提供触感的方法
EP2821906B1 (en) Method for processing touch operation and mobile terminal
CN206178562U (zh) 电子设备和信息处理装置
CN101779188B (zh) 用于提供用户界面的系统和方法
RU2506630C2 (ru) Визуализация обучающих анимаций на дисплее интерфейса пользователя
Harada et al. Characteristics of elderly user behavior on mobile multi-touch devices
CN101427202B (zh) 一种提高文字输入速度的处理方法和装置
JP5543615B2 (ja) 電子機器
US20080273015A1 (en) Dual function touch screen module for portable device and opeating method therefor
CN102541444A (zh) 信息处理装置、图标选择方法和程序
CN101573673A (zh) 用于手持设备的背侧接口
JP5555612B2 (ja) 触感呈示装置
CN103959206A (zh) 用于动态适应虚拟键盘的方法和装置
KR20030097820A (ko) 두 개 이상의 디스플레이들을 구비한 장치들 상에디스플레이된 조화 이미지들
EP3190482A1 (en) Electronic device, character input module and method for selecting characters thereof
US20090267900A1 (en) Operation method of user interface and computer readable medium and portable device
Prescher et al. Touching graphical applications: bimanual tactile interaction on the HyperBraille pin-matrix display
EP1990707A1 (en) Dual function touch screen module for portable device and operating method therefor
US20120173973A1 (en) User interface device, image forming apparatus, user interface control method, and computer program product
JP5766398B2 (ja) 触感呈示装置
JP5243379B2 (ja) 入力装置
JP5587759B2 (ja) 触感呈示装置、当該装置に用いるプログラムおよび触感呈示方法
JP2012216144A (ja) 電子機器
JPWO2011077687A1 (ja) 触感呈示装置および触感呈示装置の制御方法
TWI537809B (zh) 觸感顯示裝置以及觸感顯示方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant