CN101616213B - 针对移动通信终端提供触感效果 - Google Patents

针对移动通信终端提供触感效果 Download PDF

Info

Publication number
CN101616213B
CN101616213B CN200910004283.6A CN200910004283A CN101616213B CN 101616213 B CN101616213 B CN 101616213B CN 200910004283 A CN200910004283 A CN 200910004283A CN 101616213 B CN101616213 B CN 101616213B
Authority
CN
China
Prior art keywords
sense
touch
mobile terminal
district
touch effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN200910004283.6A
Other languages
English (en)
Other versions
CN101616213A (zh
Inventor
尹周炳
金钟焕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN101616213A publication Critical patent/CN101616213A/zh
Application granted granted Critical
Publication of CN101616213B publication Critical patent/CN101616213B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

针对移动通信终端提供触感效果。提供了一种移动终端和控制该移动终端的方法。该方法包括:在触摸屏上显示至少一个对象,该对象被划分成多个触感区;接收针对该对象的任何一个触感区的触摸信号;以及输出用于控制触感模块根据接收到的触摸信号以产生触感效果的控制信号。因此,用户可以根据触摸感觉容易地确定已经触摸了该对象的哪个触感区。

Description

针对移动通信终端提供触感效果
技术领域
本发明涉及移动终端和控制该移动终端的方法,该移动终端根据移动终端显示的信息内容或移动终端的设置状态来提供各种触感效果。
背景技术
本申请要求2008年6月25日在韩国知识产权局提交的韩国专利申请10-2008-0060358的优先权,这里并入其全部内容。
移动终端是可以为用户提供各种服务(例如,话音呼叫服务、视频呼叫服务、信息输入/输出服务以及数据储存服务)的便携式设备。随着移动终端提供的服务类型多样化,越来越多移动终端已经配备有各种复杂的功能(例如,捕捉照片或动态图片、播放音乐文件或动态图像文件、提供游戏程序、接收广播节目以及提供无线互联网服务),并由此演进成多媒体播放器。
已经开发了使用户能够容易搜索并选择期望的功能的各种用户接口(UI)环境。此外,由于将移动终端考虑为能够表达用户个性的个性化物品的增长趋势,对移动终端的各种设计需求(诸如,双面液晶显示器(LCD)或全触摸屏)不断增长。
在诸如移动通信终端的有限显示设备中,对在不损害移动终端的移动性和便携性的情况下为移动终端的UI设备(例如,显示设备或键盘)分配足够空间存在限制。此外,常规移动终端仅使用有限的UI空间或简单的音效来提供操作状态信息或对用户命令进行响应。
因此,对于利用有效并且易用的用户接口来控制移动终端的操作的系统和方法存在需求。
发明内容
根据一个实施方式,提供了一种当检测到特定输入或输出时产生触感效果的移动终端。该移动终端的用户可以配置产生触感效果的方式。例如,如果通过振动机制来产生触感效果,则用户可以设置当向移动终端提供特定输入时或者当移动终端产生特定输出时要产生的振动的级别。因此,以这样的方式来监测移动终端的输入和输出,即,例如当检测到包括特定词语或特定输出(例如,具有特定明暗度或移动级别的动态图片的回放)的消息时,产生与检测到的输入或输出相关联的特定触感效果。用户可以根据输入和输出的不同级别或类型设置不同级别或类型的触感效果。
在一个实施方式中,移动终端包括输入机制和输出机制,其中输入机制具有这样的表面,即,该表面被虚拟划分成至少两个分离区,其中这两个分离区以这样的方式提供触觉,即,第一区提供第一触觉而第二区提供第二触觉,其中用户响应于对第一区和第二区的触摸来识别第一触觉和第二触觉的区别,其中这种触觉上的所述区别使得用户能够检测到移动终端的功能的改变或移动终端产生的输出。
在一个实施方式中,提供了一种移动终端和控制移动终端的方法,该移动终端将对象(例如,用于控制移动终端的操作的图标或图像)划分成一个或更多个触感区,并针对触感区提供不同的触感效果。一种控制移动终端的方法包括:在触摸屏上显示至少一个对象,该对象被划分成多个触感区;接收针对该对象的任何一个触感区的触摸信号;以及输出用于控制触感模块以产生触感效果的控制信号。
在一个实施方式中,一种移动终端包括:触摸屏,该触摸屏被配置为显示至少一个对象,所述对象被划分成多个触感区;触感模块,该触感模块被配置为产生触感效果;以及控制器,该控制器接收针对该对象的任何一个触感区的触摸信号,并控制触感模块产生与针对其接收触摸信号的触感区相对应的触感效果。
根据另一方面,提供了一种方法,该方法包括在触摸屏上显示至少一个对象,所述对象被划分成多个触感区。该方法包括接收针对对象的任何一个触感区的触摸信号;以及输出用于控制触感模块以产生触感效果的控制信号。
通过参照附图详细描述本发明的优选实施方式,将使得本发明上面和其他的特征与优点更加显见。
附图说明
图1例示了根据一个示例性实施方式的移动终端的框图;
图2例示了图1中示出的移动终端的正面立体图;
图3例示了图1中示出的移动终端的背面立体图;
图4例示了根据一个示例性实施方式的控制移动终端的方法的流程图;
图5例示了根据另一示例性实施方式的控制移动终端的方法的流程图;
图6例示了根据另一示例性实施方式的控制移动终端的方法的流程图;
图7例示了根据另一示例性实施方式的控制移动终端的方法的流程图;
图8例示了根据另一示例性实施方式的控制移动终端的方法的流程图;
图9例示了根据另一示例性实施方式的控制移动终端的方法的流程图;
图10例示了根据另一示例性实施方式的控制移动终端的方法的流程图;
图11例示了用于说明接近传感器的操作的图;
图12到14例示了用于说明接近区和触感区的图;
图15到24例示了用于说明如何根据图1中示出的移动终端的显示单元显示的画面图像中的改变来产生触感效果的图;
图25到31例示了用于说明在播放动态图像文件期间如何产生并储存触感效果的图;
图32到42例示了用于说明如何根据图1中示出的移动终端的显示模块的屏幕上显示的信息内容来产生触感效果的图;以及
图43到50例示了用于说明如何针对不同对象区产生不同触感效果的图。
具体实施方式
这里使用的术语“移动终端”可以指移动电话、智能电话、膝上型笔记本计算机、数字广播接收器、个人数字助理(PDA)、便携式多媒体播放器(PMP)或导航设备。图1例示了根据本发明的一个实施方式的移动终端100的框图。参照图1,移动终端100可以包括无线通信单元110、音频/视频(A/V)输入单元120、用产输入单元130、检测单元140、输出单元150、存储器160、接口单元170、控制器180以及电源单元190。无线通信单元110、A/V输入单元120、用户输入单元130、检测(sensing)单元140、输出单元150、存储器160、接口单元170、控制器180以及电源单元190中的两个或更多个可以被合并成单个单元,或者无线通信单元110、A/V输入单元120、用户输入单元130、检测单元140、输出单元150、存储器160、接口单元170、控制器180以及电源单元190中的一些可以被划分成两个或更多个更小的单元。
无线通信单元110可以包括广播接收模块111、移动通信模块113、无线互联网模块115、短距离通信模块117、全球定位系统(GPS)模块119。广播接收模块111通过广播信道从外部广播管理服务器接收广播信号和/或广播相关信息。广播信道的示例包括卫星信道和地面信道。广播管理服务器可以是这样的服务器,即生成广播信号和/或广播相关信息并传输生成的广播信号和/或生成的广播相关信息,或者是这样的服务器,即接收并接着传输先前生成的广播信号和/或先前生成的广播相关信息。
广播相关信息的示例包括广播信道信息、广播节目信息以及广播服务提供商信息。广播信号的示例包括电视广播信号、收音广播信号、数据广播信号,或者数据广播信号与电视广播信号或收音广播信号中的任一个的组合。可以通过移动通信网络将广播相关信息提供给移动终端100。在这种情况下,可以由移动通信模块113而不是由广播接收模块111接收广播相关信息。广播相关信息可以具有各种形式,例如,数字多媒体广播(DMB:digital multimedia broadcasting)的电子节目指南(EPG)、手持数字视频广播(DVB-H:digital video broadcast-handheld)的电子业务指南(ESG)等。
广播接收模块111可以使用各种广播系统(例如,地面数字多媒体广播(DMB-T:digital multimedia broadcasting-terrestrial)、卫星数字多媒体广播(DMB-S:digital multimedia broadcasting-satellite)、仅媒体前向链路(MediaFLO:Media Forward Link Only)、手持数字视频广播(DVB-H:digital video broadcast-handheld)、综合业务地面数字广播(ISDB-T:integrated services digital broadcasting-terrestrial))来接收广播信号。此外,广播接收模块111可以被配置为适合于这里阐述的广播系统以外的几乎所有类型的广播系统。广播接收模块111接收到的广播信号和/或广播相关信息可以被储存在存储器160中。
移动通信模块113通过移动通信网络将无线信号发送到基站、外部终端以及服务器中的至少一个,或者从其中的至少一个接收无线信号。根据移动终端100是发送/接收话音呼叫信号、视频呼叫信号还是文本/多媒体消息,无线信号可以包括各种类型的数据。移动通信模块113可以是用于无线接入互联网的模块。移动通信模块113可以被嵌入在移动终端100内,或者可以被安装在外部设备中。短距离通信模块117可以是用于短距离通信的模块。短距离通信模块117可以使用诸如蓝牙、射频识别(RFID)、红外数据联盟(IrDA:Infrared data association)、超宽带(UWB)、ZigBee的各种短距离通信技术。
GPS模块119可以从多个GPS卫星接收位置信息。A/V输入单元120可以被用来接收音频或视频信号。A/V输入单元120可以包括相机模块121和麦克风模块123。相机模块121在视频呼叫模式或图像捕捉模式期间处理各种图像帧(例如,由图像传感器捕捉的静态图像或动态图像)。相机模块121处理的图像帧可以由显示模块151显示。可以将相机模块121处理的图像帧储存在存储器160中,或者可以通过无线通信单元110将该处理后的图像帧发送到移动终端100的外部。移动终端100可以包括两个或更多个相机模块121。
麦克风模块123在呼叫模式、记录模式或话音识别模式期间使用麦克风来接收外部声音信号,并将该声音信号转换成电子声音数据。在呼叫模式下,移动通信模块113可以将电子声音数据转换成易于发送给移动通信基站的数据,并接着输出通过该转换所获得的数据。麦克风模块123可以使用各种噪音去除算法来去除在接收外部声音信号期间可能产生的噪音。用户输入单元130基于用来控制移动终端100的操作的用户输入产生键输入数据。用户输入单元130可以被实现为键盘、薄膜开关、触摸板(静压式或恒电式(constant electricity))、滚轮(jog wheel)、拨动开关(jog switch)等。具体来说,如果用户输入单元130被实现为触摸板并与显示模块151一同形成相互(mutual)层结构,则输入单元130和显示模块151可以被总称为触摸屏。
检测单元140确定移动终端100的当前状态,例如移动终端是打开还是闭合、移动终端100的位置以及移动终端100是否与用户接触,并且生成用来控制移动终端100的操作的检测信号。例如,当移动终端100是滑盖式移动电话时,检测单元140可以确定移动电话100是打开还是闭合。此外,检测单元140可以确定:移动终端100是否由电源单元190供电,以及接口单元170是否与外部设备连接。
检测单元140可以包括接近传感器141。接近传感器141可以在和实体没有任何机械接触的情况下,确定是否存在位于附近并且正在靠近移动终端100的实体。更具体地说,接近传感器141可以通过检测交变磁场的变化或静态电容的变化速率来检测位于附近并且正在靠近的实体。检测单元140可以包括两个或更多个接近传感器141。输出单元150可以输出音频信号、视频信号以及告警信号。输出单元150可以包括显示模块151、音频输出模块153、告警模块155以及引入触感技术的触感模块157。
触感技术是指通过向用户施加力、振动和/或运动的触摸感觉来与用户以进行交互的技术。这种机械仿真可以被用来帮助创建虚拟对象(例如,计算环境中存在的对象)、用来控制这种虚拟对象,并用来增强对机器和设备(例如,移动终端)的控制。例如,触感技术使得可以通过允许创建精细控制的触感虚拟对象来详细研究人类的触摸感觉如何工作。这些对象可以被用来系统地探查人类的触感能力。
显示模块151可以显示移动终端100处理的各种信息。例如,如果移动终端100处于呼叫模式,则显示模块151可以显示用于发起或接收呼叫的用户接口(UI)或图形用户接口(GUI)。如果移动终端100处于视频呼叫模式或图像捕捉模式,则显示模块151可以显示用于捕捉或接收图像的UI或GUI。如上所述,如果显示模块151和用户输入单元130形成相互层结构并因此被实现为触摸屏,则显示模块151不仅可以被用作输出设备,还可以被用作输入设备。显示模块151可以包括液晶显示器(LCD)、薄膜晶体管(TFT)-LCD、有机发光二极管(OLED)、柔性显示器以及三维(3D)显示器中的至少一种。移动终端100可以包括两个或更多个显示模块151。例如,移动终端100可以包括外部显示模块(未示出)和内部显示模块(未示出)。
音频输出模块153可以在呼叫接收模式、呼叫模式、记录模式、话音识别模式或广播接收模式期间输出由无线通信单元110接收到的音频数据,或者可以输出存储器160中存在的音频数据。此外,音频输出模块153可以输出与移动终端100的功能(例如,接收呼叫或消息)相关联的各种声音信号。音频输出模块153可以包括扬声器和蜂鸣器。
告警模块155可以输出指示移动终端100中的事件发生的告警信号。这些事件的示例包括接收到呼叫信号、接收到消息以及接收到键信号。告警模块155输出的告警信号的示例包括音频信号、视频信号以及振动信号。一旦接收到呼叫信号或消息,告警模块155就可以输出信号。此外,告警模块155可以接收键信号,并且可以输出作为键信号的反馈的信号。一旦告警单元输出信号,用户便可以识别到事件已经发生。用于向用户通知事件的发生的信号可以由显示模块151或音频输出模块153输出。
触感模块157可以提供能够被用户感知的各种触感效果(例如,振动)。如果触感模块157产生振动作为触感效果,则触感模块157产生的振动的强度和模式可以以各种方式改变。触感模块157可以合成不同的振动效果并且可以输出合成后的结果。或者,触感模块157可以依次输出不同的振动效果。
触感模块157可以提供振动以外的各种触感效果,例如使用垂直移动以接触皮肤表面的针脚阵列获得的触感效果、经由注入孔或吸入孔注入或吸入空气而获得的触感效果、向皮肤表面提供刺激而获得的触感效果、通过与电极接触而获得的触感效果、使用静电力获得的触感效果,以及通过使用能够吸收热或产生热的设备来实现热或冷的感觉而获得的触感效果。触感模块157可以被配置为使用户能够利用手指或手臂的运动感觉来识别触感效果。移动终端100可以包括两个或更多个触感模块157。
存储器160可以储存操作控制器180所需的各种程序。此外,存储器160可以临时储存例如电话簿、消息、静态图像或动态图像的各种数据。存储器160可以包括以下存储介质中的至少一种:闪存型储存介质、硬盘型储存介质、多媒体卡微型储存介质、卡式存储器(例如,安全数码(SD)或极限数码(XD)存储器)、随机存取存储器(RAM)以及只读存储器(ROM)。移动终端100可以操作在互联网上执行存储器160的功能的网络储存器。
接口单元170可以与能够连接到移动终端100的外部设备接口连接。接口单元170可以是有线/无线耳机、外部电池充电器、有线/无线数据端口、卡槽(例如,用于存储卡的卡槽)或订户识别模块(SIM)/用户识别模块(UIM)卡、音频输入/输出(I/O)终端、视频I/O终端或者耳机(earphone)。接口单元170可以从外部设备接收数据,或者可以由外部设备供电。接口单元170可以将外部设备提供的数据发送给移动终端100中的其他组件,或者可以将移动终端100中的其他组件提供的数据发送给外部设备。
如果移动终端100连接到外部源(external cradle),则可以通过接口单元170从该外部源向移动终端供电,并且可以通过接口单元170从该外部源向移动终端发送各种命令信号。控制器180可以控制移动终端100的一般操作。例如,控制器180可以执行关于发起/接收话音呼叫、发送/接收数据或发起/接收视频呼叫的各种控制操作。控制器180可以包括播放多媒体数据的多媒体播放模块181。多媒体播放模块181可以被实现为硬件设备,并且可以被安装在控制器180内。或者,可以将多媒体播放模块181实现为软件程序。
供电单元190由外部电源或内部电源供电,并且为移动终端100中的其他组件供电。移动终端100可以包括有线/无线通信系统和基于卫星的通信系统。移动终端100可以被配置为能够在将数据按帧或分组进行传输的通信系统中工作。下文中将参照图2和图3详细描述移动终端100的外型。为了方便,假设移动终端100是滑盖式移动电话。然而,本发明并不限于滑盖式移动电话。相反,本发明可以应用于滑盖式移动电话以外的各种移动电话。
图2例示了图1中示出的移动电话100的正面立体图。参照图2,移动终端100包括第一机体100A和配置为能够沿第一机体100A的至少一个方向滑动的第二机体100B。当第一机体100A与第二机体100B重叠时,移动终端100被确定为闭合。当第一机体100A曝露第二机体100B的至少一部分时,移动终端100被确定为打开。当移动终端100闭合时,移动终端100一般在待机模式下工作,并且用户可以手动释放该待机模式。当移动终端100打开时,移动终端100一般在呼叫模式下工作,并且可以被用户手动或者在经过预定时间量后被自动置为待机模式。
第一机体100A可以包括形成第一机体100A的外型的第一前壳体100A-1和第一后壳体100A-2。在第一前壳体100A-1和第一后壳体100A-2之间的空闲空间内可以安装各种电子产品。在第一前壳体100A-1和第一后壳体100A-2之间可以附加地设置至少一个中间壳体。第一前壳体100A-1和第一后壳体100A-2可以通过注模而由合成树脂形成。或者,第一前壳体100A-1和第一后壳体100A-2可以由诸如不锈钢(STS)或钛(Ti)的金属形成。显示模块151、第一音频输出模块153a、第一相机121a和第一用户输入模块130a可以被设置在第一机体100A中(并且具体来说,被设置在第一前壳体100A-1中)。
显示模块151可以包括从视觉上呈现信息的LCD或OLED。因为触摸板被配置为与显示模块151重叠并由此实现层结构,所以显示模块151可以用作触摸屏。因此,用户可以简单地通过触摸显示模块151来向显示模块151输入信息。第一音频输出模块153a可以被实现为听筒(receiver)或扬声器。第一相机121a可以被配置为捕捉用户的静态图像或动态图像。第二机体100B可以包括形成第二机体100B的外型的第二前壳体100B-1和第二后壳体100B-2。
第二用户输入模块130b可以设置在第二机体100B的前部,并且具体来说,被设置在第二前壳体100B-1的前部。第三用户输入模块130c和第四用户输入模块130d、麦克风123以及接口单元170可以被设置在第二前壳体100B-1或第二后壳体100B-2中。第一到第四用户输入模块130a到130d可以被总称为用户输入单元130。用户输入单元130可以采用能够为用户提供触觉反馈的各种操纵方法。例如,用户输入单元130可以被实现为一旦被用户推动或触摸就接收命令或信息的薄膜开关或触摸板。或者,用户输入单元130可以被实现为轮(wheel)、滚轮(jog dial)或操纵杆。
第一用户输入模块130a可以使用户能够输入诸如“开始”、“结束”以及“滚动”的命令。第二用户输入模块130b可以使用户能够输入数字、字符或符号。第三用户输入模块130c和第四用户输入模块130d可以用作激活移动终端100的特定功能的热键。麦克风123可以被配置为能够接收用户的话音或其他声音。接口单元170可以用作使移动终端100能够与外部设备交换数据的路径。例如,接口单元170可以是用于以有线或无线方式将耳机连接到移动终端100的连接终端、用于短距离通信的端口,或用于为移动终端100供电的供电端子。
接口单元170可以是SIM或UIM,或者可以是用于外置型卡(例如,用于储存数据的存储卡)的卡槽。供电单元190可以被插入在第二后壳体100B-2中。供电单元190可以是可充电电池,并且可以按能够与第二机体100B附接或分离的方式耦接到第二机体100B上。图3例示了图2中示出的移动终端100的背面立体图。参照图3,第五用户输入模块130e和第二相机121b可以被设置在第二机体100B的第二后壳体100B-2的后部。第五用户输入模块130e可以是轮式的。此外,第六用户输入模块130f可以被设置在第二机体100B的侧边上。第二相机121b可以具有与图2中示出的第一相机121a不同的拍照方向。此外,第二相机121b的像素数可以与第一相机121a的像素数不同。
例如,第一相机121a可以被用来在视频呼叫期间捕捉用户的脸部图像,并接着迅速地发送捕捉到的图像。因此,低像素的相机模块可以被用作第一相机121a。第二相机121b可以被用来捕捉普通目标的图像。鉴于第二相机121b捕捉到的图像一般不需要传输,高像素相机模块可以被用作第二相机121b。相机闪光灯125和反射镜126可以被设置在第二相机121b的附近。相机闪光灯125在第二相机121b捕捉目标的图像时照射该目标。用户可以面向反射镜126而进行自拍。可以在第二后壳体100B-2中附加地提供第二声音输出模块(未示出)。第二声音输出模块可以与第一音频输出模块153a一起实现立体声功能。还可以在扬声器电话模式期间使用第二声音输出模块。
用于接收广播信号的天线(未示出)可以被设置在第二后壳体100B-2的一侧。可以按能够从第二机体100B-2中拉出的方式安装该天线。滑动模块100C可以被设置在第一机体100A的第一后壳体100A-2上。滑动模块100C可以接合第一机体100A和第二机体100B,以使得第一机体100A可以沿第二机体100B进行滑动。滑动模块100C可以被第二前壳体100B-1部分曝露。尽管第二相机121b在图3中被例示为设置在第二机体100B上,但是本发明并不限于此。
天线、第二相机121b以及相机闪光灯125中的至少一个例如可以被安装在第一机体100A(并且具体来说,被安装在第一机体100A的第一后壳体100A-2上)上。在这种情况下,无论天线、第二相机121b以及相机闪光灯125中的哪一个被安装在第一后壳体100A-2上,当移动终端100闭合时都可以受到第二机体100B保护。第一相机121a可以设计为能够旋转,并由此覆盖第二相机121a的拍照方向。在这种情况下,第二相机121b是可选设备。
图4例示了根据本发明的一个示例性实施方式的控制移动终端的方法的流程图。参照图4,移动终端100可以响应于用户命令被置于触感模式(例如,振动输出模式)(S200)。可以通过默认设置或用户设置将移动终端100置于触感模式。此外,可以提供用于将移动终端置于触感模式或将移动终端从触感模式释放的附加菜单。
此后,控制器180可以将与用户选择的菜单或操作相对应的第一画面显示在显示模块151的画面上(S202)。此后,控制器180可以确定第一画面是否已经改变(S204)。如果检测到第一画面已改变,则控制器180可以输出与第一画面的改变相对应的控制信号(S206)。控制器180输出的控制信号可以是用于控制触感模块157生成与第一画面的改变相对应的触感效果的信号。
第一画面可以根据移动终端100的操作状态的改变而变化。第一画面的改变的示例包括在第一画面上出现新图标或已有图标从第一画面上消失、第一画面上显示的图标形状的改变、第一画面比例(scale)的改变、第一画面的旋转以及第一画面上显示的图像的形状改变。控制器180输出的控制信号可以被发送给触感模块157。触感模块157可以生成与控制器180输出的控制信号相对应的触感效果(S224)。
如果在第一画面上显示弹出式窗口(S208),则控制器180可以输出与该弹出式画面相对应的控制信号(S210),并且响应于该控制信号,触感模块157可以产生与该弹出式窗口的显示相对应的触感效果(S224)。如果显示模块151在控制器180的控制下显示与预定操作相对应的第二画面,而不是第一画面(S212),则控制器180可以输出与第二画面相对应的控制信号(S214),并且触感模块157可以在控制器180的控制下产生与该第二画面的显示相对应的触感效果(S224)。
如果检测到显示模块151当前正显示的画面亮度改变(S216),则控制器180可以输出与画面亮度改变相对应的控制信号(S218),并且触感模块157可以在控制器180的控制下产生与该画面的亮度改变相对应的触感效果。如果检测到声音或音量改变(S220),则控制器180可以输出与该声音改变或该音量改变相对应的控制信号(S222),并且触感模块157可以在控制器180的控制下产生与该声音改变或该音量改变相对应的触感效果。
触感模块157还可以根据使用用于设置亮度或音量的菜单设置的亮度值或音量来产生触感效果。例如,随着显示模块151当前正显示的画面亮度增加,触感模块157产生的振动强度可以逐渐增加。另一方面,随着显示模块151当前正显示的画面亮度降低,触感模块157产生的振动强度可以逐渐降低。触感模块157可以被配置为一检测到移动终端100的操作状态的改变就产生触感效果。
操作S204到S224可以被重复执行,直到移动终端释放触感模式(S226)。在本示例性实施方式中,可以针对移动终端100的操作状态的不同类型的改变(例如,画面中的改变或弹出式画面中的改变)来产生不同的触感效果。因此,用户可以使用触摸感觉来识别移动终端100的操作状态的改变。图5例示了根据另一示例性实施方式控制移动终端的方法的流程图。下文中将参照图5详细描述一旦检测到动态图像画面中的变化就产生触感效果的示例。
参照图5,如果响应于用户命令调用用于播放多媒体文件的菜单并且选择要播放的动态图像文件,则控制器180可以将用于播放选择的动态图像文件的动态图像画面显示在显示模块151的画面上(S250)。如果选择触感模式(S252),则控制器180可以检测动态图像画面中的改变(S254)。动态图像画面中的改变的示例包括先前帧与当前帧之间的动态图像画面的重大改变,和先前帧与当前帧之间的动态图像画面中预定对象的重大改变。用户可以确定动态图像画面中触感模块157应该做出响应的改变的类型。
控制器180可以输出与动态图像画面中的改变相对应的控制信号(S256)。接着,响应于控制器180输出的控制信号,触感模块157可以产生与动态图像画面中的改变相对应的触感效果(S260)。可以重复执行操作S250到S260,直到选择的动态图像文件的播放被终止(S262)。以这种方式,可以通过在播放动态图像文件期间将移动终端100设置在触感模式,来在检测到动态图像画面中的改变时产生各种触感效果。
图6例示了根据另一示例性实施方式控制移动终端的方法的流程图。下文将参照图6详细描述针对动态图像画面产生用户期望的触感效果。参照图6,如果响应于用户命令调用用于播放多媒体文件的菜单并且选择要播放的动态图像文件,则控制器180可以将用于播放所选择的动态图像文件的动态图像画面显示在触摸屏(即,显示模块151的画面)上(S300)。
如果响应于触摸输入而选择振动输入模式(S302),则控制器180可以将用于输入振动信号的振动输入菜单显示在显示模块151的画面上(S304)。如果从振动输入菜单接收到针对动态图像画面的振动数据(例如,振动的强度和模式)(S306),则控制器180可以将振动数据关联到选择的动态图像文件,并且可以储存关联到选择的动态图像文件的振动数据(S308)。控制器180还可以储存用于将振动数据和选择的动态图像文件进行同步的同步数据。
可以重复执行操作S300到S308,直到移动终端100释放振动输入模式(S310)。如果移动终端100释放振动输入模式,则控制器180可以确定用户是否希望终止动态图像文件的播放(S312)。如果用户不希望终止动态图像文件的播放,则该方法返回到操作S300。在本示例性实施方式中,可以预先储存关于用户选择的动态图像文件的振动数据。因此,在动态图像文件的播放期间,可以根据振动数据来产生振动。在本示例性实施方式中,可以按触感效果的方式产生振动。然而,本发明并不限于此。即,在播放动态图像文件期间可以产生振动方式以外的各种触感效果。
图7例示了根据另一示例性实施方式控制移动终端的方法的流程图。下文中将参照图7详细描述响应于触摸键的输入而产生触感效果(具体来说,振动效果)。参照图7,如果响应于用户命令而选择用于发起呼叫、发送消息或者搜索电话号码或文件的字符输入模式(S350),则控制器180可以在触摸屏(即,显示模块151的屏幕)上显示字符输入窗口,(S352)。此后,控制器180可以确定是否已经通过触摸输入将字符或字符串输入到字符输入窗口中(S354)。
如果字符或字符串已被输入到字符输入窗口中,则控制器180可以将输入的字符或输入的字符串显示在显示模块151的屏幕上的预定区域内(S356)。然而,控制器180可以根据应用的类型执行将输入的字符或输入的字符串显示在显示模块151的屏幕上以外的操作。控制器180可以分析输入的字符或输入的字符串,并基于分析的结果输出与该输入的字符或输入的字符串相对应的控制信号。
在一个实施方式中,触感模块157可以在控制器180的控制下产生与输入的字符或输入的字符串相对应的触感效果(S358)。即,触感模块157可以根据输入的字符的结构或输入的字符串中各字符的结构来输出各种类型的振动。用户可以预先确定要针对输入的字符或输入的字符串输出的振动的强度和模式。如果选择字符输入模式以外的操作模式(S360),则控制器180可以控制将该移动终端100设置在该操作模式(S362)。如果没有选择其他操作模式,则该方法返回到操作S354。
以这种方式,可以根据输入的字符的结构或输入的字符串中各字符的结构来输出各种类型的振动。因此,用户可以基于触感模块157输出的振动强度和模式容易地鉴别输入的字符或输入的字符串。为此,输入的字符或输入的字符串中的各字符可以被划分成字首辅音(initialconsonant)、中元音(medial vowel)以及尾端辅音(final consonant)。接着,可以根据输入的字符的结构或输入的字符串中各字符的结构来输出三种类型的振动(即,对应于字首辅音的振动、对应于中元音的振动以及对应于尾端辅音的振动)。
如果输入字符串“test”,则可以根据字符串“test”中各字符的结构依次输出对应于字首辅音的第一振动、对应于中元音的第二振动以及对应于尾端辅音的第三振动。或者,第一、第二以及第三振动可以被综合,并且可以根据字符串“test”中各字符的结构来输出综合后的结果。或者,输入的字符或输入的字符串中的各字符可以被划分成一个或更多个元音和一个或更多个辅音,并且可以根据输入的字符的结构和字符串中各字符的结构来输出两种类型的振动(即,对应于元音的振动和对应于辅音的振动)。
例如,如果输入字符串“test2”,则可以根据字符串“test2”中各字符串的结构依次输出与辅音“t”、“s”以及“t”相对应的第四振动和与元音“e”相对应的第五振动。或者,第四和第五振动可以被综合,并且可以根据字符串“test2”中各字符的结构来输出综合后的结果。
在一个实施方式中,可以针对不同音节、不同语素、话语的不同部分或输入字符串中的不同词语来输出不同类型的振动。如果输入的字符串包括一个或更多个数字,则还可以输出与各数字相对应的振动。如果输入的字符串包括诸如“^^”的表情符号、诸如“我正在开会”的常用语,或者诸如“☆”或的特殊字符,则还可以输出与这些表情符号、常用语或者特殊字符相对应的振动。此外,可以针对不同类型的字符输入模式(例如,韩语输入模式、英语输入模式、数字输入模式、键盘输入模式以及斜体输入模式)输出不同类型的振动。在本示例性实施方式中,振动被提供为触感效果。然而,本发明并不限于此。即,本发明可以被应用于不同于振动的各种触感效果。
图8例示了根据另一示例性实施方式控制移动终端的方法的流程图。参照图8,如果接收到诸如话音呼叫或视频呼叫的呼叫(S400),则控制器180可以将主叫方信息显示在显示模块151的屏幕上,并且可以控制触感模块157分析该主叫方信息并由此基于分析的结果产生诸如振动的触感效果(S402)。此后,如果用户选择连接该呼叫,则控制器180可以控制要执行的呼叫(S408)。
如果检测到主叫方或被叫方的话音或音量中的变化,则控制器180可以控制触感模块157以产生与检测到的话音或音量变化相对应的触感效果(S410)。如果在与主叫方或被叫方的呼叫期间接收到与预定义的词语相对应的话音信号(S412),则控制器180可以控制触感模块157以产生与该预定义的词语相对应的触感效果(S414)。如果在与主叫方或被叫方的呼叫期间接收到包括预定词语的消息(S416),则控制器180还可以控制触感模块157以产生与该预定词语相对应的触感效果(S418)。如果在与主叫方或被叫方的呼叫期间被请求另一呼叫,则控制器180可以控制触感模块157分析主叫方信息,并由此产生与该请求的呼叫相对应的触感效果。此外,如果在与主叫方或被叫方的呼叫期间发生预定义的事件,则控制器180可以控制触感模块157以产生对应于该预定义的事件的触感效果。
可以重复执行操作S404到S418,直到用户选择终止呼叫(S420)。以这种方式,用户可以通过使用触摸感觉容易地鉴别在与主叫方或被叫方的呼叫期间发生的事件。图9例示了根据另一示例性实施方式控制移动终端的方法的流程图。参照图9,如果选择了菜单,则控制器180可以将选择的菜单的多个菜单项显示在显示模块151的屏幕(例如,触摸屏)上(S450)。如果用户触摸并由此选择这些菜单项中的一个(S452),则控制器180可以控制触感模块157产生与被选择的菜单项相对应的触感效果(S454)。例如,如果用户的手指靠近这些菜单项中的一个,则控制器180可以控制触感模块157产生与被靠近的菜单项相对应的触感效果。
如果被选择的菜单项被再次触摸,则控制器180可以控制执行与被选择的菜单项相对应的应用(S458)。另一方面,如果触摸了该选择的菜单项以外的菜单项,则控制器180可以控制触感模块157产生与被触摸的菜单项相对应的触感效果。或者,如果这些菜单项中的一个被触摸超过预定义的时间量,则控制器180可以控制执行与被触摸的菜单项相对应的应用。以这种方式,可以针对不同的菜单项产生不同的触感效果。因此,用户可以通过使用触摸感觉来容易地确定已经触摸或靠近了哪个菜单项。
图10例示了根据另一示例性实施方式的控制移动终端的方法的流程图。参照图10,控制器180可以将与用户选择的菜单或操作相对应的操作画面显示在显示模块151的屏幕上(S500)。此后,控制器180可以确定操作画面上显示的多个对象中的任意一个是否已经被用户触摸或靠近(S502)。这些对象的示例包括用于控制移动终端100的操作的菜单图标、控制图标、触摸键或图像。各对象可以被划分成一个或更多个触感区,并且控制器180可以控制触感模块157针对各对象的不同触感区提供不同的触感效果。
如果一个对象被触摸或靠近,则控制器180可以确定已经触摸或靠近了该被触摸或靠近的对象的哪个触感区,并且可以控制触感模块157产生与被触摸或靠近的对象的被触摸或靠近的触感区相对应的触感效果(S504)。被触摸或靠近的对象可以以与其他对象不同的方式被显示,以能够容易地识别。如果被触摸或靠近的对象被再次触摸并因此被选择,则控制器180可以控制执行与被选择的对象相对应的操作(S508)。操作S502到S508可以被重复执行,直到选择了另一操作模式(S510)。如果选择了另一操作模式(S510),则控制器180可以控制将移动终端100设置在被选择的操作模式(S512)。
图11例示了用于说明图1中示出的接近传感器141的操作的图。参照图11,如果对象(例如,用户的手指)位于显示模块151附近并正靠近显示模块151,则接近传感器141可以检测到用户的手指并且可以输出接近信号。接近传感器141可以根据到用户的手指的距离输出不同的接近信号。例如,当用户的手指位于位置D3时由接近传感器141输出的接近信号与当用户的手指位于位置D2或D1时由接近传感器141输出的接近信号不同。可以设置一个以上的具有不同检测范围的接近传感器141。在这种情况下,可以通过对接近传感器141分别输出的多个接近信号进行比较来确定用户的手指到移动终端100的接近程度。
另选的是,可以在显示模块151中的不同区处设置一个以上的接近传感器141。在这种情况下,可以通过确定哪个接近传感器141输出接近信号来确定显示模块151的哪部分被用户的手指触摸或靠近和/或用户的手指是否在显示模块151的接近范围内移动。因此,控制器180可以根据用户的手指到显示模块151的接近程度和用户的手指触摸或靠近显示模块151的位置来执行各种操作控制操作。
图12A到12D例示了用于说明从中输出接近信号的接近区和针对其产生触感效果的触感区的图。更具体地说,图12A例示了圆形对象的图。圆形对象的示例包括用于控制移动终端100的操作的菜单图标、控制图标、触摸键以及各项。参照图12A(a),圆形对象可以被划分成在该圆形对象中间的第一对象区A和环绕第一对象区A的第二对象区B。在这种情况中,触感模块157可以被配置为针对第一对象区A和第二对象区B产生不同类型的触感效果(即,具有不同强度或不同模式的触感效果)。例如,如果第二对象区B被触摸,则触感模块157可以输出第一振动。另一方面,如果第一对象区A被触摸,则触感模块157可以输出具有比第一振动更高强度的第二振动。
接近区和触感区可以都被设置在一个对象内。在这种情况下,接近区的面积可以与触感区的面积不同。即,触感区的面积可以小于接近区的面积,反之,接近区的面积也可以小于触感区的面积。例如,参照图12A(a),可以将整个对象指定为接近区,而仅将第一对象区A指定为触感区。或者,如图12A(b)中所示,对象可以被划分成三个对象区(即,第一对象区A、第二对象区B以及第三对象区C)。又或者,对象可以被划分成N个对象区,并且触感模块157可以被配置为针对N个对象区产生不同类型的触感效果。即使在对象被划分成三个或更多个对象区的情况中,也可以根据移动终端100的使用环境以各种方式设置触感区和接近区。
可以以圆形以外的各种形状来描绘对象。例如,如图12B所示,对象可以被描绘成矩形。如图12A所示,对象可以被划分成多个同心对象区。或者,可以以不同于同心方式的各种方式划分对象。例如,如图12C和12D所示,对象可以被划分成多个水平对象区、多个垂直对象区、多个扇形对象区或它们的组合。图13例示了用于说明如何针对不同对象区设置不同触感效果的图。参照图13,用户可以决定如何将对象划分成多个对象区,并且可以选择针对各对象区产生的触感效果。
接近区的面积可以根据离显示模块151的距离而改变。即,参照图14A(a),接近区的面积可以根据离显示模块151的距离,从C到B并从B到A逐渐减小。或者,接近区的面积可以根据离显示模块151的距离逐渐增加。然而,如图14A(b)的标示符H所示的,可以不管与显示模块151的距离是多少,都始终保持触感区的面积不变。又或者,参照图14B(a),可以不管与显示模块151的距离是多少,都始终保持接近区的面积不变。在这种情况下,如图14B(b)的标示符H所示,触感区的面积可以被设置为小于接近区的面积。
图15到44例示了用于说明图4到10中示出的方法的图。为了方便,假设移动终端100产生振动作为触感效果。然而,本发明并不限于此。即,移动终端100可以产生不同于振动的各种触感效果。图15到24例示了用于说明如何根据显示模块151显示的画面图像中的改变产生触感效果的图。更具体地说,图15例示了用于说明如何根据显示有多个指示符图标的指示符区中的改变来产生触感效果的图。参照图15(a),可以显示多个指示符图标,这些指示符图标指示接收到的信号强度、电池的剩余电量、当前的时间信息以及移动终端100的各种状态(例如,移动终端100是否正在接收或发起话音呼叫、是否设置了告警功能或叫醒功能,以及是否存在未查看的新消息)。
指示符图标可以根据移动终端100的设置或操作状态而出现在显示模块151的画面上,或者从该画面上消失。可以根据显示有指示符图标的指示符区中的改变来产生触感效果。例如,如图15(b)和15(c)所示,可以根据经过的时间产生触感效果,或者如图15(d)和15(e)所示,可以根据指示电池剩余电量的水平条(level bar)中的改变而产生触感效果。此外,如图15(f)到15(h)所示,只要新的指示符图标出现在指示符区中或者只要已有指示符图标从指示符区中消失,就可以产生触感效果。
有时需要根据指示符图标的类型或状态来输出多个振动效果或多个非振动触感效果。为此,参照图16,可以按优先级的顺序依次产生振动效果或非振动触感效果。图17例示了文件传输画面600的图。参照图17,如果用户选择传输文件,则可以显示文件传输画面600。文件传输画面600包括指示已经完成了文件传输的多少的进度条603。可以根据进度条603的改变或者图像或动画图像的改变来产生触感效果。针对不同类型的图像或动画图像可以产生不同的触感效果。
图18例示了用于说明如何针对不同类型的操作、不同的图像改变速度或不同的图像改变比率来产生具有不同模式或不同强度的不同触感效果的图。参照图18,可以针对各期望的项设置振动的强度和模式。图19例示了用于说明如何根据操作中的进度产生触感效果的图。如图19(a)所示,如果用户从发送文件的画面620中选择发送文件,则如图19(b)中所示,可以显示文件传输画面630。此后,可以根据传输文件的进度产生触感效果。
更具体地说,操作执行画面的结构可以针对移动终端100的各种操作状态(例如,在操作开始处、在操作的中期、在操作结束处、在操作开始处发生错误时、在操作期间发生错误时,或者在操作结束处发生错误时)以各种方式改变。可以根据操作执行画面的结构中的改变而产生触感效果,并且触感效果的类型可以根据操作的类型、动画图像的类型或者操作的进度比率而变化。
图20例示了各种弹出式画面的图。参照图20,当显示模块151的画面上的按钮或预定位置被触摸时,可以显示包括菜单或多个图标的弹出式画面641、643或645,并且可以产生与弹出式画面641、643或645相对应的触感效果。在这种情况下,触感效果的类型可以根据显示模块151显示的弹出式画面的数量、各弹出式画面与整个画面的相对位置、弹出式画面的类型以及各弹出式画面的面积与整个画面的面积的比而变化。
图21例示了用于说明画面图像的旋转的图。如图21(a)所示,如果当显示画面图像650时移动终端100旋转90°,则如图21(b)所示,可以显示通过将画面图像650旋转90°而获得的画面图像660,并且可以产生指示画面图像650的旋转的触感效果。图22例示了用于说明画面图像的放大与缩小的图。如图22(b)所示,如果当显示画面图像673时用户选择放大或缩小当前画面图像,则如图22(c)或22(a)中所示,可以显示画面图像673的放大画面图像675或缩小画面图像671,并且可以产生与画面图像673的放大或缩小相对应的触感效果。这种情况下,触感效果的类型可以根据画面图像673的放大或缩小的比率或速度而变化。
图23例示了空闲化身(avatar)画面680的图。参照图23,如果从用于布置空闲画面的菜单选择化身模式,则可以显示空闲化身画面680。如果发生诸如发起/接收呼叫或发送/接收消息的通信事件,则可以在空闲化身画面680上显示表示参与该通信事件的参加方的多个化身图像,并且这些化身图像的形状可以根据通信事件的进度改变。此外,参与通信事件的参加方的状态、日期信息、时间信息以及简单的文本消息也可以被显示在空闲化身画面680上。可以针对电话簿中登记的不同组指定不同的化身图像。
如果空闲化身画面680上显示的化身图像的任何一个被触摸,都可以改变空闲化身画面680的结构。在这种情况下,可以产生与空闲化身画面680的结构的改变相对应的触感效果。触感效果的类型可以根据空闲化身画面680上显示的哪个化身图像已经被触摸和该被触摸的化身图像的哪个部分被触摸而变化。
图24例示了音乐文件播放画面690的图。参照图24,通过使用音乐文件播放画面690,可以根据话音/声音、音调、频率或幅度中的改变来产生触感效果。例如,可以在音乐文件播放画面690上显示表示声音在各频带中的改变的均衡器。该均衡器可以包括分别表示多个频带的多个条,并且均衡器的每个条的大小可以根据声音在对应频带中的改变而变化。可以根据均衡器的各个条的大小的改变而产生触感效果。振动的模式和强度可以根据均衡器的各个条的大小的改变速率而变化。
图25到31例示了用于说明如何在再现动态图像文件期间产生并储存触感效果的图。更具体地说,图25例示了动态图像再现画面700的图。参照图25,可以针对动态图像再现画面700中的各种改变而产生各种触感效果。例如,假设图26(a)和26(b)中示出的帧是先前帧,而图26(c)中示出的帧是当前帧,则可以根据先前帧和当前帧之间的图像改变比率来产生具有不同模式和/或不同强度的各种振动效果。为此,可以选择预先储存的多个先前帧中的一个,并且可以对选择的先前帧与当前帧进行比较。
可以按对象的大小来识别一帧中包括的多个对象。因此,可以产生与这些对象中改变最大的对象相对应的触感效果。图27示出如何针对不同的图像改变比率或针对具有不同大小的对象设置不同的振动效果或不同的非振动触感效果。参照图27,用户可以针对不同的图像改变比率或针对具有不同大小的对象来设置不同的触感效果。
图28例示了用于说明如何使用动态图像画面710来设置触感效果的图。参照图28,如果用户选择再现动态图像文件,则可以显示动态图像画面710。动态图像画面710可以包括用于设置诸如振动的触感效果的图标713。如果用户选择图标713,则用户可以针对如图26所示的动态图像文件的各期望帧设置触感效果。
如果用户针对动态图像文件设置振动效果,则可以与同步信息一起储存与振动效果相对应的振动数据,以与动态图像文件同步。参照图28,如果动态图像文件为“Dance.avi”,则可以将振动数据储存为“Dance.vib”。即,可以将振动数据储存为和动态图像文件共用相同文件名而具有和动态图像文件不同的扩展名的文件。因此,如果存在具有和动态图像文件相同文件名的振动数据文件,则可以与该振动数据文件一起再现动态图像文件。另一方面,如果不存在具有和动态图像文件相同文件名的振动数据文件,则可以仅再现该动态图像文件。本示例性实施方式不仅可以应用于动态图像文件,还可以应用于音乐文件。
如图30所示,如果在动态图像画面720的下部显示多个数字图标或菜单图标,则可以根据选择这些数字图标或菜单图标中的哪一个来按各种方式产生振动。更具体地说,参照图31,可以使用动态图像画面720来设置各种振动效果,以使得振动的模式和强度可以根据已经选择了动态图像画面720上显示的多个图标中的哪一个和以哪种方式触摸(即,所选择的图标是被触摸较短时间还是较长时间,和所选择的图标是被轻轻触摸还是被强有力地触摸)所选择的图标而变化。
图32到42例示了用于说明如何根据显示模块151的画面上显示的信息内容来产生触感效果的图。更具体地说,图32例示了字符输入窗口820的图。参照图32,在显示模块151的画面800上可以显示字符输入窗口820和显示窗口810。字符输入窗口820可以包括在呼叫模式期间用于将数字输入到画面800的多个触摸键。显示窗口810可以通过字符输入窗口820显示多个数字输入。
针对映射到字符输入窗口820的各触摸键的不同字符可以产生不同的触感效果。如果使用字符输入窗口820来输入字符,则可以考虑输入的字符的结构来产生触感效果。更具体地说,如果响应于针对字符输入窗口820的各触摸键的触摸输入来输出振动,则可以针对映射到字符输入窗口820的各触摸键的不同字符来指定不同的振动效果。以这种方式,用户能够在不需要查看移动终端100的画面的情况下,基于移动终端100输出的振动的模式和强度来识别他/她自己输入的字符。
图34例示了呼叫接收画面830的图。参照图34,如果发出了对呼叫连接的请求,则可以显示呼叫接收画面830。在这种情况下,可以对关于已经发出请求的主叫方的主叫方信息进行分析,并且可以产生对应于该主叫方的触感效果。此外,如果在与该主叫方的呼叫期间接收到另一呼叫或消息,则可以对与接收到的呼叫或接收到的消息相对应的主叫方信息进行分析。如果接收到的呼叫或消息与电话簿中登记的多个电话号码中的任何一个相关联,则可以产生与接收到的呼叫或消息的主叫方相对应的触感效果。另一方面,如果接收到的呼叫或消息未与登记的电话号码中的任何一个相关联,则可以产生与接收到的呼叫或消息的电话号码相对应的触感效果。
图35例示了消息接收画面840的图。参照图35,如果在呼叫期间接收到消息,则可以根据接收到的消息来解析预定词语,并且可以产生与解析出的词语相对应的触感效果。用户可以预先选择预定义的词语。如果以振动方式产生触感效果,则用户可以设置并改变要针对预定义词语产生的振动的强度和模式。
如果接收到消息,则可以对接收到的消息的内容进行分析。如果分析结果指示接收到的消息包括针对其产生触感效果的预定义的词语,则可以产生对应于该预定义的词语的触感效果。用户可以预先选择预定义的词语,并且用户可以设置该触感效果的模式和强度。
与主叫方或被叫方的呼叫期间,可以对主叫方或被叫方的话语进行分析。如果主叫方或被叫方的话语包括预定义的词语,则可以产生对应于该预定义的词语的触感效果。用户可以预先选择预定义的词语。如果将主叫方或被叫方的话音储存在数据库中,则可以产生与主叫方或被叫方的话音相对应的触感效果。此外,如果在与主叫方或被叫方的呼叫期间检测到主叫方或被叫方的话音或音量中的改变,则可以产生与该话音改变或音量改变相对应的触感效果。
图36例示了包括多个菜单图标的画面图像860的图。参照图36,如果用户触摸或靠近并由此选择了一个菜单图标,则可以对被选择的菜单图标的名称进行分析,并且可以产生与该被选择的菜单图标的名称相对应的触感效果。例如,如果用户选择菜单图标“setting(设置)”,则可以依次输出与字母“s”、“e”、“t”、“t”、“i”、“n”以及“g”分别对应的触感效果(例如,振动效果)。或者,用户可以预先针对词语“setting”设置触感效果。在这种情况下,可以产生与词语“setting”相对应的触感效果。
为了进入与被选择的菜单图标相对应的菜单,则可以触摸被选择的菜单图标。在这种情况下,可以产生与该菜单相对应的触感效果。如果在产生与被选择的菜单图标相对应的触感效果期间选择该被选择的菜单图标以外的菜单图标,则可以终止产生与先前选择的菜单图标的相对应的触感效果,并且可以产生与新选择的菜单图标相对应的触感效果。以这种方式,用户可以基于移动终端100产生的触感效果而容易地识别他/她自己选择的菜单图标。
图37例示了电话簿列表画面860的图。参照图37,如果用户触摸并由此选择电话簿列表画面860上显示的多个项中的一项,则可以对与被选择的项相对应的人名进行分析,并且可以根据分析结果产生触感效果。如果用户通过将字符或字符串输入到电话簿列表画面860中来在电话簿内查找某人,则可以对输入的字符或输入的字符串进行分析,并且可以产生与该输入的字符或输入的字符串相对应的触感效果。
图38例示了当选择电话簿列表画面中的一项时显示的画面图像870的图。参照图38,如果选择电话簿列表画面中的一项时,则可以对与被选择的项相对应的组信息串进行分析,并且可以根据分析结果产生触感效果。或者,可以产生与组信息以外的各种信息相对应的触感效果。例如,可以产生与电话簿中储存的电话号码或备忘录相对应的触感效果,或者可以产生指示是登记的图像还是化身的触感效果。
图39例示了消息列表画面880的图。参照图39,如果用户选择查看接收到的消息或发送的消息的列表,则可以显示消息列表画面880。如果用户触摸消息列表画面880上显示的多个项中的一项,则可以对与被选择的项相对应的消息890进行解析。如果解析结果指示消息890包括预定义的词语,则可以产生与该预定义的词语相对应的触感效果。
如果消息具有所附文件,则可以产生与所附文件的类型相对应的触感效果。即,例如,可以根据所附文件的扩展名将其分类成音乐文件、游戏文件或动态图像文件,并且可以产生与所附文件的类型相对应的触感效果。以这种方式,可以针对所附文件的不同类型产生不同的触感效果。
例如,如果消息具有附加到其上的游戏文件,则可以产生对应于游戏文件的触感效果。如果还未针对游戏文件指定触感效果,则可以产生与字母“g”、“a”、“m”以及“e”串相对应的触感效果。如果消息具有附加于其上的图像文件或音乐文件,则可以以上述方式产生触感效果。
图40例示了短距离通信连接画面910的图。参照图40,如果移动终端100在通信设备的短距离范围内并且由此可以使用诸如蓝牙的短距离通信方法与该通信设备通信,则可以显示短距离通信连接画面910。在这种情况下,可以产生与该通信设备相对应的触感效果,或者指示已经在移动终端100和该通信设备之间建立短距离通信信道的触感效果。
如果移动终端100通过短距离通信从通信设备接收到文件,则可以产生与接收到的文件的类型相对应的触感效果。即,例如,可以将接收到的文件分类成图像文件、音乐文件或游戏文件,并且可以产生与接收到的文件的类型相对应的触感效果。例如,如果接收到的文件为图像文件,则可以产生对应于图像文件的触感效果。如果还未针对图像文件指定触感效果,则可以产生与字母“i”、“m”、“a”、“g”以及“e”的串相对应的触感效果。以这种方式,用户可以在不需要打开接收到的文件的情况下,基于移动终端100产生的触感效果而容易地识别接收到的文件的类型。
图41例示了文档察看器画面920的图。参照图38,如果触摸并由此选择了文档察看器画面920上显示的文档中包括的预定词语,则可以对选择的词语进行分析,并且可以产生与该选择的词语相对应的触感效果。即,如果在词汇表(wordbook)、用户的字典或最近搜索列表数据库中登记了该被选择的词语,则可以产生与被选择的词语相对应的触感效果。如果在产生与被选择的词语相对应的触感效果期间再次触摸该被选择的词语,则可以显示词汇表或字典画面。
图42例示了网页画面930的图。参照图42,如果网页画面930上显示的统一资源定位符(URL)被触摸,则可以产生与URL的字符图案相对应的振动效果或非振动触感效果。如果在产生与URL的字符图案相对应的触感效果期间再次触摸该URL或者触摸该URL超过预定的时间量,则可以显示与该URL相对应的网页。
如果执行网页浏览器并且触摸与登记为收藏(Favorite)的URL相对应的链接,则可以对该URL的字符图案进行分析,并且可以产生与该URL的字符图案相对应的触感效果。在这种情况下,如果在产生与该URL的字符图案相对应的触感效果期间再次触摸该URL,则可以显示与被触摸的链接相对应的网页。
图43到50例示了用于说明如何针对不同对象区产生不同触感效果的图。更具体地说,图43例示了用于说明如何针对触摸键盘输入窗口中显示的触摸键的不同对象区产生不同触感效果的图。参照图43,在对象1和对象2分别对应于键盘输入窗口中显示的软键1和软键2的情况下,当触摸或靠近对象1和对象2的每一个的中央部分时产生的触感效果的强度可以高于当触摸或靠近对象1和对象2的每一个的边界部分时产生的触感效果的强度。当触摸或靠近对象1和对象2之间的区域时,可以不产生触感效果。以这种方式,用户可以通过利用触摸感觉容易地识别对象1和对象2之间的边界。
如图43所示,可以将对象1和对象2的每一个划分成两个触感区。或者,对象1和对象2的每个对象可以被划分成两个或更多个触感区。图44例示了用于说明如何针对菜单图标的不同对象区产生不同触感效果的图。参照图44,如果触摸或靠近菜单图标的中央部分,则可以产生较强的触感效果。另一方面,如果触摸或靠近菜单图标的边界部分,则可以产生较弱的触感效果。即,可以针对各对象中的不同触感区产生不同的触感效果。和图43的示例性实施方式类似,在图44的示例性实施方式中,当触摸或靠近一对相邻对象之间的区域时,可以不产生触感效果。因此,用户可以通过利用触摸感觉来容易地识别一对相邻对象之间的边界。
图45例示了轮型控制图标的图。参照图45,轮型控制图标可以被用来调整音量或亮度。更具体地说,可以通过触摸并拖动的方式来旋转该轮型控制图标。接着,可以通过轮型控制图标的旋转量来分级调整音量或亮度。在这种情况下,可以根据轮型控制图标的旋转量来产生触感效果。
图46例示了音量控制画面940的图。参照图46,如果触摸并拖动音量控制画面940上显示的音量控制图标943,则可以依照拖动音量控制图标943的量来调整音量。在这种情况下,可以根据音量控制图标943被拖动的量来产生触感效果。音量控制图标943可以被划分成多个触感区。触感效果的强度可以与音量成比例地增加。
图47例示了用于调整显示模块151的亮度的亮度控制画面950的图。参照图47,如果触摸并拖动亮度控制画面950上显示的亮度控制图标953,则可以依照亮度控制图标953被拖动的量来调整显示模块151的亮度。在这种情况下,如果触摸或靠近亮度控制图标953的用于增加显示模块151的亮度的部分,则可以产生强触感效果。另一方面,如果触摸或靠近亮度控制图标953的用于降低显示模块151的亮度的部分,则可以产生弱触感效果。也可以在用户改变屏幕图像的颜色的情况下产生触感效果。在这种情况下,可以针对不同的颜色或阴影产生不同的触感效果。例如,针对浅色产生的触感效果可以比针对深色产生的触感效果弱。
图48例示了图像旋转画面960的图。参照图48,可以针对0°(961)、90°(963)以及180°(965)的不同图像旋转角产生不同的触感效果。例如,针对0°图像旋转角产生的触感效果可以最弱,而针对180°图像旋转角产生的触感效果可以最强。或者,针对0°图像旋转角产生的触感效果可以最强,而针对180°图像旋转角产生的触感效果可以最弱。
图49例示了频道选择画面970的图。参照图49,用户可以从频道选择画面970中选择分别代表多个频道的多个图标971中的一个,以收看播放节目或收听广播。在这种情况下,可以产生触感效果。当用户触摸图标971中的每一个的边界部分时产生的触感效果可以比当触摸图标971的每一个的中央部分时产生的触感效果弱。此外,当触摸图标971之间的区域时,可以不产生触感效果。因此,用户可以通过使用触摸感觉来容易地识别图标971之间的边界。本示例性实施方式可以被直接应用于用来调整音量的图标973。
图50例示了曲调演奏画面980的图。参照图50,可以在曲调演奏画面980上显示包括多个钢琴键的键盘。当触摸各钢琴键的边界部分时产生的触感效果可以与触摸各钢琴键的中央部分时产生的触感效果不同。尽管在图50中将曲调演奏画面980显示为键盘演奏画面,但是本发明并不限于此。即,本发明可以被直接应用于与键盘演奏画面不同的各种乐器演奏画面。
如果在曲调演奏画面980上设置有音量控制图标987,则可以根据音量产生触感效果。
此外,如果在曲调演奏画面980上显示列表,则可以针对列表中的不同项产生不同的触感效果。在这种情况下,针对列表中最上部的项产生的触感效果可以最弱,而针对列表中最下部的项产生的触感效果可以最强。或者,针对列表中最上部的项产生的触感效果可以最强,而针对列表中最下部的项产生的触感效果可以最弱。
在多察看器画面的情况中,可以针对多察看器画面上显示的不同图像产生不同的触感效果。在这种情况下,当多察看器画面上显示的各图像的边界部分被触摸时产生的触感效果可以与当多察看器画面上显示的各图像的中央部分被触摸时产生的触感效果不同。此外,当多察看器画面上显示的图像之间的区域被触摸时,可以不产生触感效果。因此,用户可以通过利用触摸感觉来容易地识别多察看器画面上显示的图像之间的边界。本示例性实施方式可以被直接应用于音乐播放画面,并且具体来说,可以用来进行要播放的片段的选择或音量的控制。
根据本发明的移动终端和根据本发明的控制移动终端的方法并不限于这里阐述的示例性实施方式。因此,这里阐述的示例性实施方式的变型和组合可以落入本发明的范围内。本发明可以被实现为在计算机可读记录介质上写入的计算机可读代码。计算机可读记录介质可以是以计算机可读方式储存数据的任何类型的记录设备。该计算机可读记录介质的示例包括ROM、RAM、CD-ROM、磁带、软盘、光数据储存器以及载波(例如,通过互联网进行的数据传输)。计算机可读记录介质可以分布在连接到网络的多个计算机系统上,从而以分散的方式对计算机可读记录介质写入计算机可读代码并且在其中被执行。本领域的普通技术人员可以容易地构造实现本发明需要的功能程序、代码以及代码段。
如上所述,根据本发明,可以针对对象(例如,用于控制移动终端的操作的菜单图标、控制图标、触摸键以及图像)的不同触感区产生具有不同强度和/或不同模式的不同触感效果。因此,用户可以通过利用触摸感觉而不是视觉来容易地确定是否已经触摸或靠近对象。因此,可以容易地控制移动终端的操作。
尽管已经参照本发明的示例性实施方式具体示出并描述了本发明,但是本领域普通技术人员应该理解,可以在不偏离所附权利要求所限定的本发明的精神和范围的情况下,在形式和细节上对本发明进行各种改变。

Claims (18)

1.一种控制移动终端的方法,该方法包括以下步骤: 
在触摸屏上显示至少一个对象,所述对象被划分成多个触感区; 
接收针对所述对象的任何一个所述触感区的触摸信号,其中通过对所述对象的触感区拖动或旋转的量来调节由所述对象控制的参数,所述参数是音量、亮度、颜色和旋转角度中的一个; 
输出用于控制触感模块根据接收到的所述触摸信号来产生触感效果的控制信号,其中所产生的触感效果的强度与由所述对象控制的所述参数呈比例地改变;以及 
使得所述触感模块能够响应于所述控制信号来产生与针对其接收所述触摸信号的所述触感区相对应的触感效果, 
如果所述对象被选择,则执行与所述对象相对应的预定操作,输出用于在所述预定操作期间控制所述触感模块来产生与所述预定操作相对应的触感效果的控制信号,并且使得所述触感模块根据所述控制信号来生成与所述预定操作相对应的触感效果。 
2.根据权利要求1所述的方法,其中所述对象包括与所述移动终端的操作的控制相关联的菜单图标、控制图标、触摸键以及图像。 
3.根据权利要求1所述的方法,该方法还包括以与其他对象不同的方式显示所述对象,以使得相对于其他对象容易地识别所述对象。 
4.根据权利要求1所述的方法,该方法还包括:如果接收到针对所述触摸屏中的除针对所述对象之外的触摸信号,则终止产生所述触感效果。 
5.根据权利要求1所述的方法,其中所述触感效果为振动。 
6.根据权利要求1所述的方法,该方法还包括将与所述触感效果相对应的图像显示在所述触摸屏上。 
7.根据权利要求1所述的方法,该方法还包括提供用于设置所述触感区的菜单。 
8.根据权利要求1所述的方法,该方法还包括: 
提供用于针对各所述触感区设置触感效果的类型、强度以及模式中的至少一项的菜单。 
9.根据权利要求1所述的方法,该方法还包括:如果接近传感器产生指示存在靠近任何一个所述触感区的实体的接近信号,则输出控制信号,该控制信号用于控制所述触感模块响应于所述接近信号来产生与所述实体靠近的所述触感区相对应的触感效果。 
10.一种移动终端,该移动终端包括: 
触摸屏,该触摸屏被配置为显示至少一个对象,所述对象被划分成多个触感区; 
触感模块,该触感模块被配置为产生触感效果;以及 
控制器,该控制器接收针对所述对象的任何一个所述触感区的触摸信号,并控制所述触感模块来产生与针对其接收所述触摸信号的所述触感区相对应的触感效果,其中通过对所述对象的触感区拖动或旋转的量来调节由所述对象控制的参数,并且所产生的触感效果的强度与由所述对象控制的所述参数呈比例地改变,所述参数是音量、亮度、颜色和旋转角度中的一个, 
所述控制器还被配置为:如果所述对象被选择,则执行与所述对象相对应的预定操作,并在所述预定操作期间控制所述触感模块来产生与所述预定操作相对应的触感效果。 
11.根据权利要求10所述的移动终端,其中所述对象包括与所述移动终端的操作的控制相关联的菜单图标、控制图标、触摸键以及图像。 
12.根据权利要求10所述的移动终端,其中所述控制器以与其他对象不同的方式显示所述对象,从而容易地识别所述对象。 
13.根据权利要求10所述的移动终端,其中,如果接收到针对所述触摸屏中的除针对所述对象之外的触摸信号,则所述控制器终止产生所述触感效果。 
14.根据权利要求10所述的移动终端,其中所述触感效果为振动。 
15.根据权利要求10所述的移动终端,其中所述控制器将与所述触感效果相对应的图像显示在所述触摸屏上。 
16.根据权利要求10所述的移动终端,其中所述控制器将用于设置所述触感区的菜单显示在所述触摸屏上。 
17.根据权利要求10所述的移动终端,其中所述控制器将用于针对各所述触感区设置触感效果的类型、强度以及模式中的至少一项的菜单显示在所述触摸屏上。 
18.根据权利要求10所述的移动终端,该移动终端还包括: 
接近传感器,所述接近传感器被配置为确定是否存在靠近任何一个所述触感区的实体,并产生接近信号,该接近信号指示所述实体所靠近的触感区以及所述实体与所述实体所靠近的触感区之间的接近度, 
其中所述控制器控制所述触感模块以响应于所述接近信号产生与所述实体所靠近的触感区相对应的触感效果。 
CN200910004283.6A 2008-06-25 2009-02-24 针对移动通信终端提供触感效果 Expired - Fee Related CN101616213B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020080060358 2008-06-25
KR10-2008-0060358 2008-06-25
KR1020080060358A KR101498622B1 (ko) 2008-06-25 2008-06-25 촉각 효과를 제공하는 휴대 단말기 및 그 제어방법

Publications (2)

Publication Number Publication Date
CN101616213A CN101616213A (zh) 2009-12-30
CN101616213B true CN101616213B (zh) 2015-01-07

Family

ID=41139025

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200910004283.6A Expired - Fee Related CN101616213B (zh) 2008-06-25 2009-02-24 针对移动通信终端提供触感效果

Country Status (4)

Country Link
US (1) US8207832B2 (zh)
EP (1) EP2138928B1 (zh)
KR (1) KR101498622B1 (zh)
CN (1) CN101616213B (zh)

Families Citing this family (113)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101443341B1 (ko) * 2008-06-30 2014-11-03 엘지전자 주식회사 휴대 단말기 및 그 동작제어 방법
KR101529723B1 (ko) * 2008-07-09 2015-06-19 삼성전자주식회사 체감 효과를 제공하기 위한 영상 재생 장치 및 방법
JP4600548B2 (ja) 2008-08-27 2010-12-15 ソニー株式会社 再生装置、再生方法、およびプログラム
US9696803B2 (en) 2009-03-12 2017-07-04 Immersion Corporation Systems and methods for friction displays and additional haptic effects
US10564721B2 (en) 2009-03-12 2020-02-18 Immersion Corporation Systems and methods for using multiple actuators to realize textures
KR101553842B1 (ko) * 2009-04-21 2015-09-17 엘지전자 주식회사 멀티 햅틱 효과를 제공하는 휴대 단말기 및 그 제어방법
TW201101137A (en) * 2009-06-29 2011-01-01 J Touch Corp Touch panel with matrix type tactile feedback
JP5563250B2 (ja) * 2009-06-30 2014-07-30 株式会社ジャパンディスプレイ 立体画像表示装置
JP5330934B2 (ja) * 2009-08-27 2013-10-30 京セラ株式会社 携帯電子機器及び携帯電子機器の表示方法
US9417694B2 (en) * 2009-10-30 2016-08-16 Immersion Corporation System and method for haptic display of data transfers
KR101644303B1 (ko) * 2009-12-01 2016-08-01 삼성전자주식회사 휴대용 단말기에서 햅틱 기능을 제공하기 위한 장치 및 방법
KR101657963B1 (ko) * 2009-12-08 2016-10-04 삼성전자 주식회사 단말기의 터치 면적 변화율에 따른 운용 방법 및 장치
KR100990833B1 (ko) * 2010-01-28 2010-11-04 김준 터치 장치 제어방법, 이를 이용하는 터치 장치
KR101640043B1 (ko) * 2010-04-14 2016-07-15 삼성전자주식회사 가상 세계 처리 장치 및 방법
EP2561424B1 (en) 2010-04-23 2019-02-20 Immersion Corporation Systems and methods for providing haptic effects
US9733705B2 (en) 2010-04-26 2017-08-15 Nokia Technologies Oy Apparatus, method, computer program and user interface
US9791928B2 (en) 2010-04-26 2017-10-17 Nokia Technologies Oy Apparatus, method, computer program and user interface
US9715275B2 (en) * 2010-04-26 2017-07-25 Nokia Technologies Oy Apparatus, method, computer program and user interface
JP2011248400A (ja) * 2010-05-21 2011-12-08 Toshiba Corp 情報処理装置および入力方法
KR20120007686A (ko) * 2010-07-15 2012-01-25 삼성전자주식회사 터치 디바이스에서 기능 제어 방법 및 장치
CN101909104B (zh) * 2010-08-10 2014-11-05 华为终端有限公司 信息处理方法和用户设备
US9535561B2 (en) 2010-08-24 2017-01-03 Lg Electronics Inc. Method for controlling content-sharing, and portable terminal and content-sharing system using same
US9691300B2 (en) * 2010-09-21 2017-06-27 Sony Corporation Text-to-touch techniques
US20130135212A1 (en) * 2010-09-28 2013-05-30 Sandie Ning Ning Cheng Haptic keyboard for a touch-enabled display
JP5652652B2 (ja) * 2010-12-27 2015-01-14 ソニー株式会社 表示制御装置および方法
KR101838696B1 (ko) * 2011-01-24 2018-04-26 삼성전자주식회사 터치스크린 기반 웹브라이저 환경에서 링크 개체 선택 방법 및 장치
US8717151B2 (en) * 2011-05-13 2014-05-06 Qualcomm Incorporated Devices and methods for presenting information to a user on a tactile output surface of a mobile device
KR101113731B1 (ko) * 2011-06-03 2012-02-27 (주)이미지스테크놀로지 디스플레이 특정 영역의 변화를 분석하여 햅틱 이펙트를 생성하는 방법
US9723293B1 (en) * 2011-06-21 2017-08-01 Amazon Technologies, Inc. Identifying projection surfaces in augmented reality environments
TWI431516B (zh) * 2011-06-21 2014-03-21 Quanta Comp Inc 觸覺回饋方法及其電子裝置
US20130016042A1 (en) * 2011-07-12 2013-01-17 Ville Makinen Haptic device with touch gesture interface
KR101121785B1 (ko) * 2011-10-05 2012-03-09 (주)이미지스테크놀로지 소리 음량의 변화를 이용하여 햅틱 효과를 생성하는 방법
JP5565399B2 (ja) * 2011-10-24 2014-08-06 ヤマハ株式会社 電子音響信号発生装置およびその制御方法を実現するためのプログラム
KR20130058300A (ko) * 2011-11-25 2013-06-04 엘지전자 주식회사 전자 기기
US20130227411A1 (en) * 2011-12-07 2013-08-29 Qualcomm Incorporated Sensation enhanced messaging
JP6243356B2 (ja) 2012-02-06 2017-12-06 ホットヘッド ゲームズ インコーポレイテッド カードのボックス及びパックの仮想的な開封
JP2015511834A (ja) 2012-02-06 2015-04-23 ホットヘッド ゲームズ インコーポレイテッド 仮想競争グループ管理システム及び方法
US8493354B1 (en) 2012-08-23 2013-07-23 Immersion Corporation Interactivity model for shared feedback on mobile devices
GB201205765D0 (en) * 2012-03-30 2012-05-16 Hiwave Technologies Uk Ltd Touch and haptics device
USD731525S1 (en) * 2012-04-05 2015-06-09 Welch Allyn, Inc. Patient monitoring device with graphical user interface
KR101413286B1 (ko) * 2012-05-02 2014-07-01 주식회사 팬택 전자 장치 및 이를 위한 잠금 해제 장치와 방법
US8570296B2 (en) * 2012-05-16 2013-10-29 Immersion Corporation System and method for display of multiple data channels on a single haptic display
US20130318437A1 (en) * 2012-05-22 2013-11-28 Samsung Electronics Co., Ltd. Method for providing ui and portable apparatus applying the same
KR20130142301A (ko) 2012-06-19 2013-12-30 삼성전자주식회사 단말기의 메뉴환경 설정 장치 및 방법
US9373302B2 (en) 2012-08-10 2016-06-21 Blackberry Limited Stacked device position identification
JP6071372B2 (ja) 2012-09-21 2017-02-01 キヤノン株式会社 電子機器及び電子機器の制御方法
EP2901257A4 (en) * 2012-09-28 2016-06-22 Nokia Technologies Oy DEVICE FOR DISPLAYING ANIMATED IMAGES IN COMBINATION WITH A TOUCH OUTPUT
US9196134B2 (en) * 2012-10-31 2015-11-24 Immersion Corporation Method and apparatus for simulating surface features on a user interface with haptic effects
KR102108061B1 (ko) * 2012-11-27 2020-05-08 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
US8947387B2 (en) * 2012-12-13 2015-02-03 Immersion Corporation System and method for identifying users and selecting a haptic response
US9046926B2 (en) 2012-12-17 2015-06-02 International Business Machines Corporation System and method of dynamically generating a frequency pattern to realize the sense of touch in a computing device
CN103902081B (zh) * 2012-12-27 2018-04-27 联想(北京)有限公司 触感反馈的方法及电子设备
US20160139671A1 (en) * 2013-01-15 2016-05-19 Samsung Electronics Co., Ltd. Method for providing haptic effect in electronic device, machine-readable storage medium, and electronic device
KR102035305B1 (ko) * 2013-01-15 2019-11-18 삼성전자주식회사 휴대 단말에서 햅틱 효과를 제공하는 방법 및 기계로 읽을 수 있는 저장 매체 및 휴대 단말
CN103076883A (zh) * 2013-01-29 2013-05-01 清华大学 一种用于av设备的控制设备
KR20140097902A (ko) * 2013-01-30 2014-08-07 삼성전자주식회사 햅틱 패턴을 생성하는 휴대 단말 및 방법
KR20140099760A (ko) * 2013-02-04 2014-08-13 삼성전자주식회사 단말기의 화면 제어 방법 및 장치
CN103984532B (zh) * 2013-02-07 2016-06-22 腾讯科技(深圳)有限公司 一种移动终端功能设置键的位置设置方法和装置
KR101439127B1 (ko) * 2013-02-08 2014-09-12 건국대학교 산학협력단 자기 자극을 이용하여 체성감각을 제공하는 햅틱 장치 및 이를 이용한 방법
KR101470329B1 (ko) * 2013-02-18 2014-12-09 (주)마이크로텍시스템 햅틱 게임 구현 방법 및 이를 위한 컴퓨터로 판독가능한 기록매체
US9098984B2 (en) * 2013-03-14 2015-08-04 Immersion Corporation Haptic effects broadcasting during a group event
EP2976694B1 (en) * 2013-03-20 2019-10-09 Nokia Technologies Oy A touch display device with tactile feedback
DE102013006174A1 (de) * 2013-04-10 2014-10-16 Audi Ag Verfahren zum Betreiben eines Bediensystems eines Kraftwagens und Bediensystem für einen Kraftwagen
JP6157215B2 (ja) * 2013-05-23 2017-07-05 キヤノン株式会社 表示制御装置及びその制御方法
US9710147B2 (en) * 2013-05-29 2017-07-18 Lg Electronics Inc. Mobile terminal and controlling method thereof
CN104216548B (zh) * 2013-06-04 2020-06-23 联想(北京)有限公司 触控反馈方法、装置及电子设备
KR102086507B1 (ko) * 2013-07-02 2020-03-09 엘지전자 주식회사 이동 단말기
CN104423421A (zh) * 2013-08-19 2015-03-18 联想(北京)有限公司 一种信息处理方法以及电子设备
KR102201730B1 (ko) 2013-09-02 2021-01-12 엘지전자 주식회사 택타일 피드백을 발생하는 디스플레이 디바이스 및 그 제어 방법
KR102201731B1 (ko) * 2013-09-26 2021-01-12 엘지전자 주식회사 택타일 피드백을 발생하는 디스플레이 디바이스 및 그 제어 방법
US9244532B2 (en) 2013-12-31 2016-01-26 Immersion Corporation Systems and methods for controlling multiple displays with single controller and haptic enabled user interface
US20150193196A1 (en) * 2014-01-06 2015-07-09 Alpine Electronics of Silicon Valley, Inc. Intensity-based music analysis, organization, and user interface for audio reproduction devices
KR20150118813A (ko) * 2014-04-15 2015-10-23 삼성전자주식회사 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치
US11625145B2 (en) 2014-04-28 2023-04-11 Ford Global Technologies, Llc Automotive touchscreen with simulated texture for the visually impaired
US9829979B2 (en) * 2014-04-28 2017-11-28 Ford Global Technologies, Llc Automotive touchscreen controls with simulated texture for haptic feedback
US10579252B2 (en) 2014-04-28 2020-03-03 Ford Global Technologies, Llc Automotive touchscreen with simulated texture for the visually impaired
CN104035561B (zh) * 2014-06-11 2018-03-23 京东方科技集团股份有限公司 触觉反馈系统、方法和触摸显示装置
KR102096146B1 (ko) 2014-09-02 2020-04-28 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
KR102073222B1 (ko) * 2014-12-18 2020-02-04 한국과학기술원 사용자 단말 및 이의 햅틱 서비스 제공 방법
CN106155275A (zh) * 2015-03-25 2016-11-23 联想(北京)有限公司 信息处理方法及电子设备
CN104869204B (zh) * 2015-06-14 2017-08-25 吉林大学 一种盲人触觉再现智能触屏终端和拨号方法
KR101630430B1 (ko) * 2015-06-29 2016-06-13 박동현 햅틱 패턴을 이용한 시각 장애인용 문자 표시 방법
US9571891B2 (en) * 2015-06-30 2017-02-14 Brooke Curtis PALMER System and apparatus enabling conversation between audience and broadcast or live-streamed media
JP2017111462A (ja) * 2015-11-27 2017-06-22 京セラ株式会社 触感呈示装置及び触感呈示方法
US9990078B2 (en) 2015-12-11 2018-06-05 Immersion Corporation Systems and methods for position-based haptic effects
US9919213B2 (en) 2016-05-03 2018-03-20 Hothead Games Inc. Zoom controls for virtual environment user interfaces
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
DK201670737A1 (en) 2016-06-12 2018-01-22 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback
CN107526488A (zh) * 2016-06-21 2017-12-29 天脉聚源(北京)科技有限公司 一种在微信网页中实现css显示效果的方法和系统
US10004991B2 (en) 2016-06-28 2018-06-26 Hothead Games Inc. Systems and methods for customized camera views in virtualized environments
US10010791B2 (en) 2016-06-28 2018-07-03 Hothead Games Inc. Systems and methods for customized camera views and customizable objects in virtualized environments
USD818002S1 (en) * 2016-07-22 2018-05-15 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional icon
DK201670728A1 (en) 2016-09-06 2018-03-19 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
JP6804909B2 (ja) * 2016-09-15 2020-12-23 東芝テック株式会社 音声認識装置、音声認識方法及び音声認識プログラム
US9853675B1 (en) * 2016-11-14 2017-12-26 Ying Hai Chen Multisensory phone case
US10078370B2 (en) * 2016-11-23 2018-09-18 Immersion Corporation Devices and methods for modifying haptic effects
US10255825B2 (en) 2017-04-17 2019-04-09 Facebook, Inc. Calibration of haptic device using sensor harness
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
KR102419425B1 (ko) * 2017-06-07 2022-07-12 삼성전자 주식회사 진동 패턴 생성 방법 및 그 장치
WO2019020184A1 (en) * 2017-07-27 2019-01-31 Telefonaktiebolaget Lm Ericsson (Publ) IMPROVED PERCEPTION OF HAPTIC OBJECTS
USD857032S1 (en) 2017-09-10 2019-08-20 Apple Inc. Electronic device with graphical user interface
US10955922B2 (en) * 2017-11-29 2021-03-23 International Business Machines Corporation Simulating tactile information for haptic technology
CN109327603A (zh) * 2018-08-16 2019-02-12 奇酷互联网络科技(深圳)有限公司 移动终端和应用管理的方法、装置
CN109451146B (zh) * 2018-10-15 2021-07-27 维沃移动通信有限公司 一种振动处理方法及终端
USD901536S1 (en) * 2019-01-31 2020-11-10 Salesforce.Com, Inc. Display screen or portion thereof with animated graphical user interface
USD916891S1 (en) * 2019-01-31 2021-04-20 Salesforce.Com, Inc. Display screen or portion thereof with animated graphical user interface
CN110209281B (zh) * 2019-06-06 2022-03-15 瑞典爱立信有限公司 对运动信号进行处理的方法、电子设备和介质
CN111596847A (zh) * 2020-05-06 2020-08-28 五八有限公司 一种点击反馈方法、装置、电子设备及存储介质
CN113762667B (zh) * 2020-08-13 2024-07-19 北京京东振世信息技术有限公司 一种车辆调度方法和装置
CN112083827A (zh) * 2020-08-21 2020-12-15 欧菲微电子技术有限公司 触控组件控制方法、装置、触控组件以及终端
US20240329740A1 (en) * 2023-03-28 2024-10-03 Sensel, Inc. Simulation of a physical interface utilizing touch tracking, force sensing, and haptic feedback

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1548549A2 (en) * 2003-12-26 2005-06-29 Alpine Electronics, Inc. Input control apparatus and method for responding to input
CN1666169A (zh) * 2002-05-16 2005-09-07 索尼株式会社 输入方法和输入装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2422265A1 (en) * 2003-03-14 2004-09-14 Handshake Interactive Technologies Inc. A method and system for providing haptic effects
JP2008033739A (ja) * 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
DE102007016408A1 (de) * 2007-03-26 2008-10-02 Ident Technology Ag Mobiles Kommunikationsgerät und Eingabeeinrichtung hierfür
US8373549B2 (en) * 2007-12-31 2013-02-12 Apple Inc. Tactile feedback in an electronic device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1666169A (zh) * 2002-05-16 2005-09-07 索尼株式会社 输入方法和输入装置
EP1548549A2 (en) * 2003-12-26 2005-06-29 Alpine Electronics, Inc. Input control apparatus and method for responding to input

Also Published As

Publication number Publication date
KR101498622B1 (ko) 2015-03-04
US20090322498A1 (en) 2009-12-31
CN101616213A (zh) 2009-12-30
US8207832B2 (en) 2012-06-26
EP2138928A2 (en) 2009-12-30
KR20100000742A (ko) 2010-01-06
EP2138928A3 (en) 2010-03-17
EP2138928B1 (en) 2013-05-01

Similar Documents

Publication Publication Date Title
CN101616213B (zh) 针对移动通信终端提供触感效果
CN101616214B (zh) 针对移动通信终端提供触感效果
CN101620507B (zh) 使用接近传感器的移动终端以及控制该移动终端的方法
EP2141574B1 (en) Mobile terminal using proximity sensor and method of controlling the mobile terminal
CN104049885B (zh) 移动终端和控制移动终端的方法
CN101621566B (zh) 分辨由移动终端检测到的输入信号
CN107666638B (zh) 一种估计录音延迟的方法及终端设备
CN111050203B (zh) 一种视频处理方法、装置、视频处理设备及存储介质
CN111031386B (zh) 基于语音合成的视频配音方法、装置、计算机设备及介质
CN105511775A (zh) 移动终端
CN111291200B (zh) 多媒体资源展示方法、装置、计算机设备及存储介质
CN108475204A (zh) 自动设置壁纸的方法、终端设备和图形用户界面
US20140377721A1 (en) Synchronous presentation of content with a braille translation
CN110493635B (zh) 视频播放方法、装置及终端
CN109471524A (zh) 一种控制马达振动的方法及移动终端
CN112131473A (zh) 信息推荐方法、装置、设备及存储介质
CN108710521B (zh) 一种便签生成方法和终端设备
KR20140105340A (ko) 휴대 단말기의 멀티 태스킹 운용 방법 및 장치
CN117436418A (zh) 指定类型文本的生成方法、装置、设备及存储介质
CN114845152A (zh) 播放控件的显示方法、装置、电子设备及存储介质
CN113885994A (zh) 显示方法、装置和电子设备
KR101469777B1 (ko) 촉각적 효과를 제공하는 휴대 단말기 및 그 제어방법
WO2024113679A1 (zh) 多媒体资源处理方法、装置和设备
KR20130057868A (ko) 휴대 단말기 및 그 동작방법
CN114817796A (zh) 信息内容的评论方法、装置、设备及可读存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150107

Termination date: 20190224