CN105577913B - 移动终端及其控制方法 - Google Patents

移动终端及其控制方法 Download PDF

Info

Publication number
CN105577913B
CN105577913B CN201510574473.7A CN201510574473A CN105577913B CN 105577913 B CN105577913 B CN 105577913B CN 201510574473 A CN201510574473 A CN 201510574473A CN 105577913 B CN105577913 B CN 105577913B
Authority
CN
China
Prior art keywords
touch input
touch
mobile terminal
screen information
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201510574473.7A
Other languages
English (en)
Other versions
CN105577913A (zh
Inventor
金美荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN105577913A publication Critical patent/CN105577913A/zh
Application granted granted Critical
Publication of CN105577913B publication Critical patent/CN105577913B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Abstract

移动终端及其控制方法。一种移动终端,该移动终端包括:终端机身,其包括第一侧和第二侧;显示器,其设置在第一侧并且被构造成显示信息;第一触摸传感器,其被构造成接收触摸输入并且设置在第一侧;第二触摸传感器,其被构造成接收触摸输入并且设置在第二侧;以及控制器,其被构造成使显示器显示第一画面信息,并且当经由第一触摸传感器接收到第一触摸输入并且经由第二触摸传感器接收到对应的第二触摸输入时,使显示器显示第一画面信息和辅助图像,其中,辅助图像与第一画面信息的与第一触摸输入的位置相对应的所选择的区域有关。

Description

移动终端及其控制方法
技术领域
本说明书涉及移动终端,更具体地,涉及能够接收双表面触摸输入的移动终端。
背景技术
终端基于移动性可以大致分类为移动终端或静止终端。移动终端可以进一步分类为手持终端或车载终端。
响应于对多样化的功能的越来越多的需求,终端以具有多种功能的多媒体播放器的形式实现,这些功能诸如拍摄摄影对象作为静止图像或运动图像,再现数字音频和视频压缩文件、玩游戏、接收广播等。此外,为了支持和改进移动终端的功能,考虑了对移动终端的结构和软件修改。
随着通过显示单元提供给用户的视觉信息变得多样化,用户可通过对显示单元应用触摸输入来控制视觉信息。然而,缺陷在于用户被要求通过多次重复地应用不同类型的触摸输入利用视觉信息来获得或控制他或她期望的视觉信息。
发明内容
因此,详细描述的一个方面是提供通过使用双表面触摸传感器而能够以简单方式控制视觉信息的移动终端。
为了实现这些和其它优点,并且根据本说明书的目的,如这里所具体实施和广泛描述的,提供一种移动终端,该移动终端包括:终端机身,包括第一侧和第二侧;显示器,设置在所述第一侧并且被构造成显示信息;第一触摸传感器,被构造成接收触摸输入并且被设置在所述第一侧;第二触摸传感器,被构造成接收触摸输入并且被设置在所述第二侧;以及控制器,被构造成使所述显示器显示第一画面信息以及利用所述第一画面信息的辅助图像,所述辅助图像与所述第一画面信息的被选择的区域有关,其中,所选择的区域包括所述显示器上的与经由所述第一触摸传感器接收到的第一触摸输入和经由所述第二触摸传感器接收到的第二触摸输入的位置向彼此虚拟延伸时所述第一触摸输入和所述第二触摸输入的交叠相对应的区域。
在实施方式中,所述控制器还被构造成使在所述第一触摸传感器和所述第二触摸传感器感测到触摸输入的同时,所述显示器继续显示所述第一画面信息。
在实施方式中,响应于附加的控制命令,所述显示单元可以显示第二画面信息。此外,当所述第一触摸输入和所述第二触摸输入被解除时,所述显示单元可以恢复所述画面信息。因而,可以向用户提供新的信息,并且接着可以提供初始画面信息。
在实施方式中,所述显示单元可以显示多个功能区域,每个功能区域都对应于与所选择的区域关联的功能,以执行与所选择的区域关联的功能。因而,用户可以控制与所选择的区域关联的功能。
在本发明中,在输出画面信息的同时,可以通过区分单表面触摸输入和双表面触摸输入来控制所述画面信息。此外,无需改变画面信息,基于双表面触摸输入,可以输出与所述画面信息的一部分有关的图像。因而,用户可以仅选择画面信息的一部分,并且可以利用图像中包括的信息或者基于施加于输出的图像的附加触摸输入执行附加功能。
因此,基于各种类型的触摸输入,用户可以利用画面信息中包括的各种内容。
从下文给出的详细描述本申请的进一步应用范围将变得更明显。然而,应理解详细描述和具体示例,尽管指示本发明的优选实施方式,但是仅仅是通过例示给出,因为本发明的实质和范围内的各种修改和变化从此详细描述中将对于本领域技术人员变得明显。
附图说明
附图被包括进来以提供对本发明的进一步理解,并结合到本申请中且构成本申请的一部分,这些附图例示了示例性实施方式,并与说明书一起用于解释本发明的原理。
在附图中:
图1A是根据本公开的移动终端的框图;
图1B和图1C是例示根据本发明的从不同视点观察的移动终端的示例的概念图;
图2A是例示由第一触摸传感器和第二触摸传感器组成的触摸感测单元的概念图;
图2B是例示根据本公开的实施方式的移动终端的另一个示例的概念图;
图3A是例示根据本公开的实施方式的移动终端的控制方法的流程图;
图3B(a)、图3B(b)、图3B(c)和图3B(d)是例示图3A的控制方法的概念图;
图4A(a)、图4A(b)图4A(c)、图4A(d)、图4B(a)、图4B(b)、图4B (c)、图4C(a)、图4C(b)和图4C(c)是例示移动终端的用于输出图像的控制方法的概念图;
图5A(a)、图5A(b)、图5A(c)、图5B(a)、图5B(b)、图5B(c)、图5B (d)、图5C(a)、图5C(b)、图5C(c)、图5C(d)、图5D(a)、图5D(b)和图 5D(c)是例示根据本公开的另一个实施方式的移动终端的根据触摸输入的解除而输出图像的控制方法的概念图;
图6A(a)、图6A(b)、图6A(c)、图6A(d)、图6B(a)、图6B(b)、图6B (c)、图6B(d)、图6C(a)、图6C(b)和图6C(c)是例示根据本公开的另一个实施方式的移动终端的用于输出画面信息的控制方法的概念图;
图7A(a)、图7A(b)、图7A(c)、图7B(a)、图7B(b)、图7B(c)、图7C (a)、图7C(b)和图7C(c)是例示根据本公开的另一个实施方式的移动终端的用于输出图像的控制方法的概念图;
图8(a)和图8(b)是例示根据本公开的实施方式的移动终端的用于执行与所选择的信息有关的各种功能的控制方法的概念图;
图9A(a)、图9A(b)、图9A(c)、图9B(a)和图9B(b)是例示根据本公开的实施方式的移动终端的用于改变图像的控制方法的概念图;
图10A(a)、图10A(b)、图10B(a)和图10B(b)是例示根据本公开的实施方式的移动终端的用于将所选择的区域形成为图像的控制方法的概念图;
图11A(a)、图11A(b)、图11A(c)、图11B(a)、图11B(b)和图11B(c) 是例示根据本公开的实施方式的移动终端的用于基于双表面触摸输入来输出画面信息的控制方法的概念图;
图12A(a)、图12A(b)、图12A(c)、图12B(a)、图12B(b)、图12C(a)、图12C(b)、图12D(a)和图12D(b)是例示根据另一个实施方式的移动终端的用于基于双表面触摸输入来输出画面信息的控制方法的概念图;
图13A(a)、图13A(b)、图13B(a)和图13B(b)是例示根据本公开的实施方式的移动终端的用于基于双表面触摸输入来输出立体图像的控制方法的概念图;
图14A(a)、图14A(b)、图14B(a)和图14B(b)是例示根据本公开的实施方式的移动终端的用于基于双表面触摸输入来输出画面信息的控制方法的概念图;以及
图15A(a)、图15A(b)、图15A(c)、图15B(a)和图15B(b)是例示根据本公开的另一个实施方式的移动终端的用于基于双表面触摸输入来输出包括链接信息在内的画面信息的控制方法的概念图。
具体实施方式
下面将参照附图根据此处公开的示例性实施方式给出详细描述。为了参照附图简要描述,相同或者等同部件可以被提供相同或类似的附图标记,并且将不重复其描述。具体地,例如“模块”和“单元”的后缀可以用于指代元件或部件。使用这种后缀是仅仅用于帮助说明书的描述,并且后缀自身不给出任何特殊含义或功能。在本公开中,为了简洁起见,对于本领域技术人员来说已知的技术一般已经被省略。附图用于帮助容易理解本发明的各个技术特征并且应理解的此处呈现的实施方式不被附图限制。因此,本公开应被构建成除了在附图中具体阐述的还扩展到任何另选、等同和替代。
本说明书中的终端可包括诸如便携式电话、智能电话、笔记本计算机、数字广播终端、个人数字助理(PDA)、便携式多媒体播放器(PMP)、导航系统、石板PC、平板PC、超极本、可穿戴装置(例如,智能手表)、眼镜型终端(例如,智能眼镜)、头戴式显示器(HMD)等的移动终端。
然而,对本领域技术人员明显地,除了用于移动性的特定配置以外,本发明还可适用于诸如数字TV、台式计算机和数字标牌(digital signage)的固定终端。
现在参照图1A-1C,其中图1A是示出根据本公开的移动终端的框图,图1B和图1C是从不同方向看的移动终端的一个示例的概念图。
移动终端100被示出为具有诸如无线通信单元110、输入单元120、感测单元140、输出单元150、接口单元160、存储器170、控制器180和电源单元190的组件。应当理解,不要求实现图1A所示的所有组件,可另选地实现更多或更少的组件。
现在参照图1A,移动终端100被示出为具有无线通信单元110,该无线通信单元110配置有多个通常实现的组件。例如,无线通信单元110通常包括允许移动终端 100与无线通信系统或者移动终端所在的网络之间的无线通信的一个或更多个组件。
无线通信单元110通常包括允许通信(例如,移动终端100与无线通信系统之间的无线通信、移动终端100与另一移动终端之间的通信、移动终端100与外部服务器之间的通信)的一个或更多个模块。另外,无线通信单元110通常包括将移动终端 100连接到一个或更多个网络的一个或更多个模块。为了方便这些通信,无线通信单元110包括广播接收模块111、移动通信模块112、无线互联网模块113、短距离通信模块114和位置信息模块115中的一个或更多个。
输入单元120包括用于获得图像或视频的相机121、麦克风122(是用于输入音频信号的一种音频输入装置)以及用于使得用户能够输入信息的用户输入单元123 (例如,触摸键、按键、机械键、软键等)。数据(例如,音频、视频、图像等)通过输入单元120来获得,并且可由控制器180根据装置参数、用户命令及其组合来分析和处理。
感测单元140通常利用被配置为感测移动终端的内部信息、移动终端的周围环境、用户信息等的一个或更多个传感器来实现。例如,在图1A中,感测单元140被示出为具有接近传感器141和照明传感器142。如果需要,感测单元140可另选地或另外地包括其它类型的传感器或装置,例如触摸传感器、加速度传感器、磁传感器、重力传感器、陀螺仪传感器、运动传感器、RGB传感器、红外(IR)传感器、手指扫描传感器、超声传感器、光学传感器(例如,相机121)、麦克风122、电池电量计、环境传感器(例如,气压计、湿度计、温度计、辐射检测传感器、热传感器、气体传感器等)和化学传感器(例如,电子鼻、保健传感器、生物测量传感器等)等。移动终端100可被配置为利用从感测单元140获得的信息,具体地讲,从感测单元140的一个或更多个传感器获得的信息,及其组合。
输出单元150通常被配置为输出各种类型的信息,例如音频、视频、触觉输出等。输出单元150被示出为具有显示单元151、音频输出模块152、触觉模块153和光学输出模块154。
显示单元151可具有与触摸传感器的中间层结构或集成结构,以便方便触摸屏。触摸屏可在移动终端100与用户之间提供输出接口,并且用作在移动终端100与用户之间提供输入接口的用户输入单元123。
接口单元160用作与可连接到移动终端100的各种类型的外部装置的接口。例如,接口单元160可包括任何有线或无线端口、外部电源端口、有线或无线数据端口、存储卡端口、用于连接具有标识模块的装置的端口、音频输入/输出(I/O)端口、视频 I/O端口、耳机端口等。在一些情况下,移动终端100可响应于外部装置连接到接口单元160而执行与连接的外部装置关联的各种控制功能。
存储器170通常被实现为存储用于支持移动终端100的各种功能或特征的数据。例如,存储器170可被配置为存储在移动终端100中执行的应用程序、用于移动终端 100的操作的数据或指令等。这些应用程序中的一些应用程序可经由无线通信从外部服务器下载。其它应用程序可在制造或出厂时安装在移动终端100内,针对移动终端 100的基本功能(例如,接电话、打电话、接收消息、发送消息等),通常是这种情况。常见的是应用程序被存储在存储器170中,被安装在移动终端100中,并由控制器180执行以执行移动终端100的操作(或功能)。
除了与应用程序关联的操作以外,控制器180通常还用于控制移动终端100的总体操作。控制器180可通过对由图1A所示的各种组件输入或输出的信号、数据、信息等进行处理、或者激活存储在存储器170中的应用程序,来提供或处理适合于用户的信息或功能。例如,控制器180根据存储在存储器170中的应用程序的执行来控制图1A至图1C所示的一些或全部组件。
电源单元190可被配置为接收外部电力或提供内部电力,以便供应对包括在移动终端100中的元件和组件进行操作所需的适当电力。电源单元190可包括电池,所述电池可被配置为嵌入终端主体中,或者被配置为可从终端主体拆卸。
以上部件中的至少一些可以按照协作方式操作,以实现根据稍后要说明的各个实施方式的眼镜型终端的操作或控制方法。通过驱动在存储器170中存储的至少一个应用程序,眼镜型终端的控制方法或操作可以在眼镜型终端上实现。
仍参照图1A,附图中描绘的各个部件将更详细描述。对于无线通信单元110,广播接收模块111被构造成经由广播频道从外部广播管理实体接收广播信号和/或与广播相关的信息。广播频道可以包括卫星频道、地面频道或两者。在一些实施方式中,可以利用两个或更多个广播接收模块111来帮助同时接收两个或更多个广播频道,或支持在广播频道之间切换。
移动通信模块112可以发送和/或接收无线信号到和从一个或更多个网络实体。网络示例的通常示例包括基站、外部移动终端、服务器等。这些网络示例形成移动通信网络的一部分,移动通信网络根据用于移动通信(例如,全球移动通信系统(GSM)、码分多址(CDMA)、CDMA2000(码分多址2000)、EV-DO(增强型语音-数据优化或增强的语音-数据仅)、宽带CDMA(WCDMA)、高全球系统速下行链路分组接入 (HSDPA)、HSUPA(高速上行链路分组接入)、长期演进(LTE)、LTE-A(长期演进-高级)、等)的技术标准或通信方法构造。
经由移动通信模块112发送和/或接收的无线信号的示例包括音频呼叫信号、视频(电话)呼叫信号、或用于支持文字和多媒体消息的通信的各种格式的数据。
无线互联网模块113被构造成帮助无线互联网接入。该模块可以内置或者外置地耦合到移动终端100。无线互联网模块113可以根据无线互联网技术经由通信网络发送和/或接收无线信号。
这些无线互联网接入的示例包括无线LAN(WLAN)、无线保真(Wi-Fi)、Wi-Fi 直连、数字现场网络联盟(DLNA)、无线宽频带(Wibro)、全球微波互联接入 (WiMAX)、高速下行分组接入(HSDPA)、长期演进(LTE)等。无线互联网模块 113可以根据这些无线互联网技术中的一个或更多个和其它互联网技术来发送/接收数据。
在一些实施方式中,当根据(例如)Wibro、HSDPA、HSUPA、GSM、CDMA、 WCDMA、LET、LTE-A等实现无线互联网接入时,作为移动通信网络的一部分,无线互联网模块113执行这种无线互联网接入。因此,互联网模块113可与移动通信模块112协作或用作移动通信模块112。
短距离通信模块114被配置为方便短距离通信。用于实现这种短距离通信的合适的技术包括BLUETOOTHTM、射频识别(RFID)、红外数据协会(IrDA)、超宽带 (UWB)、ZigBee、近场通信(NFC)、无线保真(Wi-Fi)、Wi-Fi直连、无线USB(无线通用串行总线)等。短距离通信模块114通常经由无线局域网支持移动终端100与无线通信系统之间的无线通信、移动终端100与另一移动终端100之间的通信或者移动终端与另一移动终端100(或外部服务器)所在的网络之间的通信。无线局域网的一个示例是无线个域网。
在一些实施方式中,另一移动终端(可类似于移动终端100来配置)可以是可与移动终端100交换数据(或者与移动终端100协作)的可穿戴装置(例如,智能手表、智能眼镜或头戴式显示器(HMD))。短距离通信模块114可感测或识别可穿戴装置,并允许可穿戴装置与移动终端100之间的通信。另外,当所感测到的可穿戴装置是被验证与移动终端100进行通信的装置时,例如,控制器180可经由短距离通信模块 114将在移动终端100中处理的数据发送给可穿戴装置。因此,可穿戴装置的用户可在可穿戴装置上使用在移动终端100中处理的数据。例如,当在移动终端100中接到电话时,用户可利用可穿戴装置来回电话。另外,当在移动终端100中接收到消息时,用户可利用可穿戴装置来查看所接收到的消息。
位置信息模块115通常被配置为检测、计算、推导或者标识移动终端的位置。例如,位置信息模块115包括全球定位系统(GPS)模块、Wi-Fi模块或这二者。如果需要,位置信息模块115可另选地或另外地与无线通信单元110的任何其它模块一起工作,以获得与移动终端的位置有关的数据。
例如,当移动终端使用GPS模块时,可利用从GPS卫星发送的信号来获取移动终端的位置。又如,当移动终端使用Wi-Fi模块时,可基于与无线接入点(AP)有关的信息来获取移动终端的位置,所述无线接入点(AP)向Wi-Fi模块发送无线信号或从Wi-Fi模块接收无线信号。
输入单元120可被配置为允许向移动终端120的各种类型的输入。这种输入的示例包括音频、图像、视频、数据和用户输入。图像和视频输入常常利用一个或更多个相机121来获得。这些相机121可对在视频或图像拍摄模式下通过图像传感器获得的静止画面或视频的图像帧进行处理。经处理的图像帧可被显示在显示单元151上或存储在存储器170中。在一些情况下,相机121可按照矩阵配置布置,以使得具有各种角度或焦点的多个图像能够被输入至移动终端100。又如,相机121可按照立体布置方式来设置,以获取用于实现立体图像的左图像和右图像。
麦克风122通常被实现为允许向移动终端100输入音频。可根据移动终端100 中执行的功能来按照各种方式处理音频输入。如果需要,麦克风122可包括各种噪声去除算法以去除在接收外部音频的过程中生成的不期望的噪声。
用户输入单元123是允许用户输入的组件。这种用户输入可使得控制器180能够控制移动终端100的操作。用户输入单元123可包括机械输入元件(例如,位于移动终端100的正面和/或背面或侧面的键、按钮、薄膜开关、滚轮、触合式开关等)或者触敏输入装置等中的一个或更多个。例如,触敏输入装置可以是通过软件处理显示在触摸屏上的虚拟键或软键、或者设置在移动终端上的触摸屏以外的位置处的触摸键。另一方面,虚拟键或视觉键可按照各种形状(例如,图形、文本、图标、视频或其组合)显示在触摸屏上。
用户输入单元123可将由感测单元140以及由上述机械输入装置和触摸型输入装置感测到的信息识别为来自用户的输入信息。因此,控制器180可以对应于感测到的信息来控制移动终端100的操作。
感测单元140通常被配置为感测移动终端的内部信息、移动终端的周围环境信息、用户信息等中的一个或更多个。控制器180通常与感测单元140协作以基于感测单元140所提供的感测来控制移动终端100的操作或者执行与安装在移动终端中的应用程序关联的数据处理、功能或操作。可利用各种传感器中的任何传感器来实现感测单元140,现在将更详细地描述其中一些传感器。还可设置照明传感器142。
接近传感器141可包括在没有机械接触的情况下,利用电磁场、红外线来感测是否存在靠近表面的物体或者位于表面附近的物体的传感器。接近传感器141可布置在移动终端被触摸屏覆盖的内侧区域处或触摸屏附近。
例如,接近传感器141可包括透射型光电传感器、直接反射型光电传感器、反射镜反射型光电传感器、高频振荡接近传感器、电容型接近传感器、磁型接近传感器、红外线接近传感器等中的任何传感器。当触摸屏被实现为电容型接近传感器时,接近传感器141可通过电磁场响应于导电物体的靠近而发生的变化来感测指点器相对于触摸屏的接近。在这种情况下,触摸屏(触摸传感器)也可被归类为接近传感器。
本文中常常将提及术语“接近触摸”以表示指点器被设置成在没有接触触摸屏的情况下接近触摸屏的情景。本文中常常将提及术语“接触触摸”以表示指点器与触摸屏进行实际接触的情景。对于与指点器相对于触摸屏的接近触摸对应的位置,这种位置将对应于指点器垂直于触摸屏的位置。接近传感器141可感测接近触摸以及接近触摸模式(例如,距离、方向、速度、时间、位置、移动状态等)。
通常,控制器180对与接近传感器141所感测的接近触摸和接近触摸模式对应的数据进行处理,并在触摸屏上输出视觉信息。另外,控制器180可根据对触摸屏上的点的触摸是接近触摸还是接触触摸来控制移动终端100执行不同的操作或处理不同的数据。
触摸传感器可利用各种触摸方法中的任何触摸方法来感测施加到触摸屏(例如,显示单元151)的触摸。这些触摸方法的示例包括电阻型、电容型、红外型和磁场型等。
例如,触摸传感器可被配置为将施加到显示单元151的特定部分的压力的变化或者在显示单元151的特定部分处发生的电容的变化转换为电输入信号。触摸传感器还可被配置为不仅感测触摸位置和触摸面积,而且感测触摸压力和/或触摸电容。通常使用触摸物体来对触摸传感器施加触摸输入。典型的触摸物体的示例包括手指、触摸笔、手写笔、指点器等。
当触摸传感器感测到触摸输入时,可将对应信号发送给触摸控制器。触摸控制器可对接收到的信号进行处理,然后将对应数据发送给控制器180。因此,控制器180 可感测显示单元151上的哪一区域被触摸。这里,触摸控制器可以是独立于控制器 180的组件、控制器180及其组合。
在一些实施方式中,控制器180可根据对触摸屏或者除触摸屏以外设置的触摸键进行触摸的触摸物体的类型来执行相同或不同的控制。例如,根据提供触摸输入的物体是执行相同的控制还是不同的控制可基于移动终端100的当前操作状态或者当前执行的应用程序来决定。
触摸传感器和接近传感器可单独实现或者组合实现,以感测各种类型的触摸。这些触摸包括短(或轻敲)触摸、长触摸、多触摸、拖曳触摸、轻拂触摸、缩小触摸、放大触摸、轻扫触摸、悬停触摸等。
如果需要,可实现超声传感器以利用超声波来识别与触摸物体有关的位置信息。例如,控制器180可基于由照明传感器和多个超声传感器感测的信息来计算波生成源的位置。由于光远比超声波快,光到达光学传感器的时间远比超声波到达超声传感器的时间短。可利用这一事实来计算波生成源的位置。例如,可基于光作为基准信号利用相对于超声波到达传感器的时间的时间差来计算波生成源的位置。
相机121通常包括至少一个相机传感器(CCD、CMOS等)、光电传感器(或图像传感器)和激光传感器。
利用激光传感器实现相机121可允许检测物理对象相对于3D立体图像的触摸。光电传感器可被层合在显示装置上或者与显示装置交叠。光电传感器可被配置为对接近触摸屏的物理对象的移动进行扫描。更详细地,光电传感器可包括成行和列的光电二极管和晶体管,以利用根据施加的光的量而变化的电信号来对光电传感器处接收的内容进行扫描。即,光电传感器可根据光的变化来计算物理对象的坐标,从而获得物理对象的位置信息。
显示单元151通常被配置为输出在移动终端100中处理的信息。例如,显示单元151可显示在移动终端100处执行的应用程序的执行画面信息或者响应于执行画面信息的用户界面(UI)和图形用户界面(GUI)信息。
在一些实施方式中,显示单元151可被实现为用于显示立体图像的立体显示单元。典型的立体显示单元可采用诸如立体方案(眼镜方案)、自动立体方案(无眼镜方案)、投影方案(全息方案)等的立体显示方案。
音频输出模块152通常被配置为输出音频数据。这些音频数据可从多种不同的源中的任何源获得,使得所述音频数据可从无线通信单元110接收或者可存储在存储器 170中。所述音频数据可在诸如信号接收模式、呼叫模式、录制模式、语音识别模式、广播接收模式等的模式下输出。音频输出模块152可提供与移动终端100所执行的特定功能有关的可听输出(例如,呼叫信号接收音、消息接收音等)。音频输出模块152 还可被实现为受话器、扬声器、蜂鸣器等。
触觉模块153可被配置为产生用户感觉、感知或者体验的各种触觉效果。由触觉模块153产生的触觉效果的典型示例是振动。由触觉模块153产生的振动的强度、模式等可通过用户选择或控制器的设定来控制。例如,触觉模块153可按照组合方式或顺序方式输出不同的振动。
除了振动以外,触觉模块153可产生各种其它触觉效果,包括诸如插针排列向接触皮肤垂直移动、通过喷射孔或抽吸开口的空气的喷射力或抽吸力、对皮肤的触摸、电极的接触、静电力等的刺激效果、利用能够吸热或发热的元件再现冷和热的感觉的效果等。
除了通过直接接触传递触觉效果以外,触觉模块153还可被实现为使得用户能够通过诸如用户的手指或手臂的肌肉觉来感觉到触觉效果。可根据移动终端100的特定配置设置两个或更多个触觉模块153。
光学输出模块154可输出用于利用光源的光指示事件的发生的信号。移动终端100中发生的事件的示例可包括消息接收、呼叫信号接收、未接呼叫、警报、日程提醒、电子邮件接收、通过应用的信息接收等。
由光学输出模块154输出的信号可被实现为使得移动终端发射单色光或多种颜色的光。例如,随着移动终端感测到用户已查看所发生的事件,信号输出可被终止。
接口单元160用作将与移动终端100连接的外部装置的接口。例如,接口单元 160可接收从外部装置发送来的数据,接收电力以输送给移动终端100内的元件和组件,或者将移动终端100的内部数据发送给这种外部装置。接口单元160可包括有线或无线头戴式耳机端口、外部电源端口、有线或无线数据端口、存储卡端口、用于连接具有标识模块的装置的端口、音频输入/输出(I/O)端口、视频I/O端口、耳机端口等。
所述标识模块可以是存储用于验证移动终端100的使用权限的各种信息的芯片,并且可包括用户标识模块(UIM)、订户标识模块(SIM)、全球订户标识模块(USIM) 等。另外,具有标识模块的装置(本文中也称作“标识装置”)可采取智能卡的形式。因此,标识装置可经由接口单元160与终端100连接。
当移动终端100与外部托架连接时,接口单元160可用作使得能够将来自托架的电力供应给移动终端100的通道,或者可用作使得能够用来将由用户从托架输入的各种命令信号输送给移动终端的通道。从托架输入的各种命令信号或电力可用作用于识别出移动终端被正确安装在托架上的信号。
存储器170可存储用于支持控制器180的操作的程序,并存储输入/输出数据(例如,电话簿、消息、静止图像、视频等)。存储器170可存储与响应于触摸屏上的触摸输入而输出的各种模式的振动和音频有关的数据。
存储器170可包括一种或更多种类型的存储介质,包括闪存、硬盘、固态盘、硅磁盘、微型多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机存取存储器 (RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器、磁盘、光盘等。移动终端100还可与在诸如互联网的网络上执行存储器170的存储功能的网络存储装置有关地操作。
控制器180通常可控制移动终端100的总体操作。例如,当移动终端的状态满足预设条件时,控制器180可设定或解除用于限制用户相对于应用输入控制命令的锁定状态。
控制器180还可执行与语音呼叫、数据通信、视频呼叫等关联的控制和处理,或者执行模式识别处理以将触摸屏上进行的手写输入或绘画输入分别识别为字符或图像。另外,控制器180可控制那些组件中的一个或其组合,以便实现本文公开的各种示例性实施方式。
电源单元190接收外部电力或提供内部电力,并供应对包括在移动终端100中的各个元件和组件进行操作所需的适当电力。电源单元190可包括电池,该电池通常是可再充电的或者以可拆卸的方式联结到终端主体以便于充电。
电源单元190可包括连接端口。该连接端口可被配置为接口单元160的一个示例,用于供应电力以对电池进行再充电的外部充电器可电连接到该连接端口。
又如,电源单元190可被配置为以无线方式对电池进行充电,而不使用连接端口。在此示例中,电源单元190可利用基于磁感应的电感联结方法或基于电磁共振的磁共振联结方法中的至少一种来接收从外部无线电力发射器输送的电力。
本文所述的各种实施方式可利用(例如)软件、硬件或其任何组合在计算机可读介质、机器可读介质或类似介质中实现。
图2A是例示由第一触摸传感器151a和第二触摸传感器151b组成的触摸感测单元的概念图。
参照图2A,移动终端100具有前表面和后表面,并且显示单元151可以形成为朝向前表面。第一触摸传感器151a可以以与显示单元151一体或交叠的方式形成。第二触摸传感器151b可以形成在移动终端的后表面上。也就是说,第一触摸传感器 151a和第二触摸传感器151b可以形成在移动终端100的相反的表面上。
第一触摸传感器151a和第二触摸传感器151b可以彼此电耦接,使得感测到的触摸输入被控制器180接收。然而,本发明并不限于此。第一触摸传感器151a和第二触摸传感器151b可以独立地形成,并且可以实现响应于由第一触摸传感器151a和第二触摸传感器151b感测到的触摸输入来形成控制信号的独立的控制器。
图2B是例示根据本发明的实施方式的移动终端的另一个示例的概念图。
如图所示,显示单元251被构造成可因为外力而变形。所述变形可以包括弯曲、折弯、折叠、扭曲、翻滚等或其组合。可变形的显示单元251还可以称为“柔性显示单元”或“可折弯的显示单元”。在一些实现方式中,柔性显示单元251可以包括一般的柔性显示器、电子纸(还称为e纸(e-paper)等或其组合。总体上,移动终端200 可以包括参照图1A到图1C描述的移动终端100的特征或类似特征。
移动终端200的柔性显示单元通常被形成为重量轻、不脆弱的显示器,所述显示单元仍然呈现传统平板显示器的特征,但是按照先前提到的方式制造在可变形的柔性基板上。
术语e纸可以用于指代采用一般的墨水的特性的显示器技术,并且在使用反射光方面不同于传统的平板显示器。e纸通常被理解为使用扭曲球或经由使用胶囊的电泳来改变所显示的信息。
在柔性显示单元251不变形的状态下(例如,在具有无穷大的曲率半径的情况下 -称为第一状态),柔性显示单元251的显示区域包括总体上平坦的表面。在柔性显示单元251由于外力而从第一状态变形时(例如,具有有限的曲率半径的状态-称为第二状态),显示区域可以变为弯曲表面或折弯表面。如图所示,在第二状态下显示的信息可以是在弯曲表面上输出的视觉信息。该视觉信息可被实现为使得以矩阵构造排列的每个单位像素(子像素)的光发射被独立地控制。单位像素表示用于表示一个颜色的基本单元。
根据一个另选实施方式,柔性显示单元251的第一状态可以是弯曲状态(例如,从上到下或从左到右弯曲的状态)而不是平坦状态。在此实施方式中,当外力被施加于柔性显示单元251时,柔性显示单元251可以转换到第二状态,使得柔性显示单元变形为平坦状态(或较不弯曲的状态)或成更加弯曲的状态。
如果需要,柔性显示单元251可以使用触摸传感器结合显示器来实现柔性触摸屏。当在柔性触摸屏处接收到触摸时,控制器180可以执行与该触摸输入相对应的特定控制。总体上,柔性触摸屏被构造成在第一状态或第二状态中时感测触摸和其它输入。
在实施方式中,移动终端200可被构造成包括变形传感器,该传感器感测柔性显示单元200的变形。变形传感器可以被包括在感测单元140中。
变形传感器可以位于柔性显示单元251中或壳体201中以感测与柔性显示单元251的变形有关的信息。与柔性显示单元251的变形有关的这些信息的示例可包括变形方向、变形程度、变形位置、变形时间量、变形的柔性显示单元251恢复的加速度速率等的信息。其它可能性包括响应于柔性显示单元的弯曲而可被感测到的或在柔性显示单元251转换成或存在于第一状态或第二状态的同时感测到的大多数任意类型的信息。
在一些实施方式中,控制器180或移动终端中的其它部件可以改变在柔性显示单元251上显示的信息,或基于与柔性显示单元251的变形有关的信息来产生用于控制移动终端200的功能的控制信号。这些信息可以由变形传感器感测到。
返回参照图2B,移动终端200被示出为具有用于容纳柔性显示单元251的壳体201。考虑到柔性显示单元251的特性,壳体201可以与柔性显示单元251一起变形。应理解的是,显示单元可以包括如上讨论的显示单元的各个实施方式,包括但不限于显示单元151和显示单元251。
考虑到柔性显示单元251的特性,位于移动终端200中的电池(在本附图中未示出)也可以与柔性显示单元261协作地变形。一个实施方式可以实现使用叠置电池单元的叠置或折叠方法。
柔性显示单元251的变形不限于由外力导致。例如,各个实施方式的柔性显示单元251可以通过用户命令、应用命令等从第一状态变形成第二状态。
下文中将参照附图更加详细地说明关于这种移动终端的控制方法的实施方式。
图3A是例示根据本发明的实施方式的移动终端的控制方法的流程图,并且图3B(a)、图3B(b)、图3B(c)和图3B(d)是例示图3A的控制方法的概念图。
相对于被构造成输出画面信息S201。画面信息可以对应于包括预设图像的主画面页面、应用的执行画面、媒体文件的播放画面、接收触摸输入的多个图形图像等,并且将理解的是,画面信息不限于这些示例。例如,画面信息可以对应于地图应用的地图画面。
画面信息可以对应于连续的视觉数据的一部分。也就是说,当触摸输入(诸如连续触摸和拖动触摸(也称为拖拽触摸))被施加于第一触摸传感器151a时,可以输出视觉数据的另一部分。显示单元可基于触摸输入的方向输出连续的视觉数据的另一部分。触摸输入可对应于拖拽输入、触摸轻抚输入等。控制器180可以基于仅被施加于第二触摸传感器的触摸输入来改变输出到显示单元的视觉数据的一个区域。
例如,当以第一位置为中心的地图画面被输出到显示单元时,如果连续的触摸输入被施加到第一触摸传感器或第二触摸传感器,则基于该连续触摸输入的方向,可以显示以与第一位置不同的第二位置为中心的地图。
然而,当触摸输入被施加于第一触摸传感器和第二触摸传感器这两者时,即使触摸感测单元感测到连续的触摸输入,画面信息也可以不改变。也就是说,如果触摸输入被施加于第一触摸传感器和第二触摸传感器这两者,则控制器180忽略施加于显示单元的触摸输入。
参照图3A,在感测到经由第一触摸传感器的第一触摸输入和经由第二触摸传感器的第二触摸输入(S202)之后,控制器180可以基于第一触摸输入和第二触摸输入来选择画面信息的一个区域,例如,在203示出。更具体地,当第一触摸输入的位置和第二触摸输入的相应位置关于每个表面彼此交叠时,控制器180可以选择画面信息的与交叠位置相对应的区域。为了讨论的目的,如果经由第一触摸传感器感测到的第一触摸输入和经由第二触摸传感器感测到的第二触摸输入虚拟地向彼此延伸,当第一触摸输入和第二触摸输入在每个相应表面上的位置和/或触摸区域则交叉时,可以说第一触摸输入和第二触摸输入彼此交叠。
所选择的区域的范围或大小可由用户设定。该范围对应于显示单元上的选择的区域,所述区域可以基于第一触摸输入和第二触摸输入而延伸。例如,控制器180可以选择通过基于用户的设定将显示单元划分为四块而获得的区域。存储器170可以存储包括在所选择的区域中的画面信息的数据。
参照图3B(c),当诸如连续触摸输入的触摸输入被施加于第一触摸传感器和第二触摸传感器时,可以连续输出画面信息300。
然而,如果第一触摸输入的区域与第二触摸输入的对应区域交叠,则显示单元可以输出指示该交叠位置的指示符。然而,本发明并不限于此。也就是说,控制器180 可以控制显示单元使得所选择的区域显示在交叠位置上。
基于第一触摸输入和第二触摸输入,控制器180还可以控制显示单元以将图3B(d)所示的与交叠区域有关的辅助图像410与画面信息300一起输出,例如图3A 的S204。
例如,当经由交叠的第一触摸输入和第二触摸输入中的每一个施加连续的触摸输入(例如拖拽触摸输入)时,辅助图像410可以显示在显示单元上。参照图3B(d),辅助图像410可以对应于画面信息300的形成为具有预设大小的一部分。画面信息 300的一部分可被辅助图像410遮挡,或辅助图像410可以以半透明方式显示。
当第一触摸输入和第二触摸输入被施加于与显示单元的特定区域相对应的区域时,可以显示辅助图像410。例如,特定区域可以对应于显示单元的预设的边缘区域。在一个实施方式中,当第一触摸输入和第二触摸输入在显示单元上移动时,辅助图像 410可被显示到显示单元上的被施加了第一触摸输入和第二触摸输入的特定区域。
辅助图像410可以对应于画面信息300的一部分或与其有关,或可以对应于通过放大画面信息300的一部分而获得的图像。此外,辅助图像410可以包括与包括在所选择的区域中的画面信息有关的视觉数据。例如,当地图被显示时,视觉数据可以包括诸如距离的位置信息和关于所选择的区域中包括的建筑或兴趣点的信息。
在特定实施方式中,施加于显示单元的两个表面的双表面触摸输入与施加于前表面或后表面的触摸输入区分开。基于双表面触摸输入,画面信息的区域的图像可以选择性地输出。因而,用户可以被提供关于画面信息的一部分的附加信息。
图4A(a)到图4C(c)是例示图像的输出状态下显示单元的控制方法的实施方式的概念图。
参照图4A(a)到图4A(d),在一个实施方式中,显示单元基于第一触摸输入和第二触摸输入将辅助图像410与画面信息300一起输出。可以在施加第一触摸输入和第二触摸输入的同时显示辅助图像410。参照图4A(b),如果第二触摸输入被维持,则控制器180控制显示单元在第一触摸输入被解除之后继续输出辅助图像410。
参照图4A(c)和图4A(d),在第二触摸输入被维持的同时,可以基于由第一触摸传感器感测到的附加触摸输入改变辅助图像410改变(在初始触摸输入被解除后)。
在一个实施方式中,在第二触摸输入被维持的同时,当拖拽触摸输入被施加时,辅助图像410可以改变为另一个辅助图像410’。例如,当辅助图像410对应于地图的以第一位置为中心的区域时,改变后的辅助图像410’可以是以地图上的另一个位置为中心的地图。从以第一位置为中心到以第二位置为中心的位置改变由附加的触摸输入确定。在第二触摸输入被维持的同时,改变后的辅助图像410’可以与画面信息300 一起显示。
因而,在画面信息被输出的同时,用户可以将辅助图像改变为另一个辅助图像,而改变后的辅助图像包括关于辅助图像的附加或增强信息。这样,当辅助图像410 对应于地图的放大部分时,基于触摸输入,可以通过放大的方式向用户提供地图的各种视图。
参照图4B(a)到图4B(c)所示的另选实施方式,如所讨论的,控制器180可以控制显示单元基于第一触摸输入和第二触摸输入将辅助图像410与画面信息300 一起输出。如果在施加于辅助图像410的第一触摸输入被维持的同时第二触摸输入被解除,辅助图像410可以连续显示。
参照图4B(b)和图4B(c),在第一触摸输入被维持的同时,如果经由第二触摸传感器接收到附加的触摸输入(在初始的第二触摸输入被解除之后),画面信息300 可以改变成另一视图或另一图像。如图4B(b)所示,如果在第一触摸输入被维持的同时,第二触摸传感器感测到诸如拖拽输入的附加输入,则基于该附加触摸输入,画面信息300的视图可以改变成如在300’处示出的另一个视图或画面,如图4B(c)所示。
例如,当画面信息300对应于以第一位置为中心的地图时,地图的另一个视图300’可以被以地图上的不同于第一位置的第二位置为中心输出。
现在参照图4C(a)到图4C(c)所示的实施方式,当第一触摸传感器和第二触摸传感器感测到附加触摸输入时,控制器180可以控制显示单元改变在辅助图像410 中显示的信息。附加的触摸输入可以对应于在第一触摸输入和第二触摸输入被维持的同时在辅助图像410的区域上的不同位置施加的第一触摸输入和第二触摸输入,如图 4C(b)所示。不同方向可以对应于彼此相反的方向,或彼此交叉的方向。另选地,附加的触摸输入可以通过改变第一触摸输入的位置和第二触摸输入的位置之间的距离来进行。
在一个实施方式中,当辅助图像410对应于地图上的区域时,可以显示辅助信息420,辅助信息420包括与所显示的位置相对应的信息,诸如包括文本的视觉信息。文本可以包括与所显示的位置有关的信息,诸如包括在辅助图像410中的位置的地址、建筑名称、商店名称、商店的电话号码等,如图4C(c)所示。
现在参照图5A(a)到图5A(c),当第一触摸输入和第二触摸输入被解除时,控制器可以控制显示单元不再显示辅助图像410。也就是说,当第一触摸传感器和第二触摸传感器不再感测到触摸输入时,控制器180控制显示单元仅输出画面信息300,如图5A(c)所示。因而,辅助图像410可以仅在第一触摸输入和第二触摸输入被维持时被提供给用户。
参照图5B(a)、图5B(b)和图5B(c),控制器180可以被构造成基于第一触摸输入和第二触摸输入来选择画面信息300的一个区域,并且即使当第一触摸输入和第二触摸输入在画面信息300上移动时也继续输出画面信息。在显示图5B(a)中的画面信息300的同时,在图5B的(b)中控制器180基于第一触摸输入和第二触摸输入选择区域,并且在图5B的(c)中输出与所选择的区域有关的辅助图像410。此外,在第二触摸输入被维持或连续施加的同时,控制器180可以控制显示单元将辅助图像410与画面信息300一起连续输出。一旦没有接收到进一步触摸输入,就可以停止显示辅助图形,如图5B(c)所示。
参照图5C(a)、图5C(d),在一些实施方式中,当第一触摸输入和第二触摸输入被解除并且经过预设的时间量时,不再显示辅助图像410。
参照图5C(b)和图5C(c),在一些实施方式中,如果在第一触摸输入和第二触摸输入被初始地解除之后第一触摸输入和第二触摸输入被重新施加,并且输入在辅助图像410仍被显示时被重新施加,则可以继续显示辅助图像410。也就是说,如果在第一触摸输入和第二触摸输入被解除之后的预设时间量内第一触摸输入和第二触摸输入被重新施加,则辅助图像410可以与画面信息300一起继续输出。
在其他实施方式中,如果在第一触摸输入和第二触摸输入被解除之后在预设时间量内第一触摸输入和第二触摸输入中的至少一个被重新施加于第二图像410,则控制器180可以控制显示单元继续将辅助图像410与画面信息300一起输出。
尽管未示出,在一些实施方式中,在第一触摸输入和/或第二触摸输入被初始地解除之后,在第一触摸输入和/或第二触摸输入被重新施加之后,当辅助图像410被输出时,基于第一触摸输入或第二触摸输入,可以改变辅助图像410或画面信息300。
参照图5D(a)和图5D(b),在一些实施方式中,如果在画面信息300被显示的同时第一触摸输入和第二触摸输入被施加,则控制器180可以控制显示单元输出与通过第一触摸输入和第二触摸输入选择的区域相对应的相关信息510(例如,所显示的描述“动物医院”)。如果第一触摸输入和第二触摸输入一起移动,则显示单元在与第一触摸输入和第二触摸输入相对应的位置上输出相关信息510。
在一实施方式中,当画面信息300对应于地图时,相关信息510可以对应于地图中包括的指示地图上的具体位置或兴趣点的图形图像或文本。响应于移动第一触摸输入和第二触摸输入,相关信息510可以移动以对应于该移动。当第一触摸输入和第二触摸输入被解除时,如图5D(c)所示,可以显示改变后的画面信息300’,其显示与移动后的相关信息相对应的地图。例如,当文本描述“动物医院”被第一触摸输入和第二触摸输入移动,并且第二触摸输入被解除时,所显示的地图被改变,使得地图上的与动物医院相对应的位置被显示在所显示的文本描述“动物姻缘”的新位置处。因而,可以向用户提供以所选择的位置为中心移动的画面信息。
参照图6A(c)和图6A(d),控制器180基于施加于辅助图像410的触摸输入控制显示单元再次显示原始的画面信息300。例如,响应于对辅助图像410的触摸输入,地图的原始视图可以再次显示在地图300的视图中。
另选地,附加的画面信息310可以基于在辅助图像410的地图的视图中显示的位置来显示。此外,控制器180可以控制显示单元不再显示辅助图像410。例如,响应于对辅助图像410的触摸输入,对应于辅助图像410中包括的位置,可以显示地图的另一部分。
因而,用户可以存储辅助图像410中显示的他或她期望的信息,并且可以使用包括在辅助图像410中的数据观看包括在辅助图像410中的画面信息。
图6B(a)到图6B(d)例示基于触摸输入被施加的位置而激活不同功能的方法。控制器180可基于交叠的第一触摸输入和第二触摸输入来选择画面信息300的区域。
参照图6B(b),显示单元可以被划分为多个功能区域,每个功能区域对应于特定功能。例如,沿着显示器的边缘示出的区域11、12、13、14可对应于四个功能区域。当在各个功能区域11、12、13、14处接收到、终止、发起或检测到第一触摸输入和第二触摸输入时,控制器180可执行不同功能。
参照图6B(b)和图6B(c)所示的实施方式,当第一触摸输入和第二触摸输入在第一功能区域11处被解除时,辅助图像410与画面信息300一起显示,并且控制器还可以执行与功能区域11相对应的第一功能。第一功能可以对应于将所选择的区域中的当前显示的位置设定为用于方向搜索的目的地。可以显示控制窗口,将当前显示的位置指示为目的地。
在另一个示例中,参照图6B(b)和图6B(d),当第一触摸输入和第二触摸输入在第二功能区域12被解除时,控制器180可以将所选择的区域中的当前显示的位置设定为方向搜索的起点。可以显示指示该起点的控制窗口。
基于第一触摸输入和第二触摸输入,用户可以设定搜索的起点并接着设定目的地。也就是说,用户可以基于第一触摸输入和第二触摸输入来选择区域,并且接着通过在预设位置解除第一触摸输入和第二触摸输入来执行与所选择的区域有关的功能。
参照图6C(a)到图6C(c),将讨论基于第一触摸输入和第二触摸输入来改变画面信息300的方法。当交叠的第一触摸输入和第二触摸输入被施加时,控制器180 可以选择与输入相对应的区域并且将所选择的区域的信息存储在存储器中。当第一触摸输入和第二触摸输入被以方向键的形式施加时,指示符可被显示于功能区域11、 12、13、14。方向键可以被显示以指示功能区域的位置、方向、面积或边界。另选地,可以显示文本作为所述指示符。
在一个实施方式中,源自画面信息300的改变后的画面信息300’可以基于被施加第一触摸输入和第二触摸输入的功能区域来显示。例如,当第一触摸输入和第二触摸输入被施加于功能区域11时,改变后的画面信息300’可以对应于画面信息300的下部区域。
在另一个实施方式中,当第一触摸输入和第二触摸输入被施加于与显示单元的右边缘相邻的功能区域12时,延伸到画面信息300的右侧的信息可被显示为改变后的画面信息300’。
尽管未示出,当第一触摸输入和第二触摸输入被施加于功能区域11时,控制器180可以如通过滚动来顺序地输出延伸到画面300的下部区域的信息。
然而,当第一触摸输入和第二触摸输入被解除时,画面信息300可以再次显示,例如,当触摸输入被解除时,滚动的地图视图可以迅速恢复回原始位置。在这种实施方式中,用户可以围绕初始显示的信息滚动或移动,接着简单地通过解除触摸输入而被提供原始或初始视图。
参照图7A(a)到图7A(c),控制器180可以如所讨论的基于第一触摸输入和第二触摸输入来选择画面信息300的区域。在选择时,选择图像411、412、413可以与画面信息300一起显示。选择图像411、412、413可以包括与通过第一触摸输入和第二触摸输入执行的选择有关的不同视图、位置、细节、相关信息等。例如,当画面信息300对应于地图时,选择图像411、412、413可以包括不同的选择的位置。基于多种因素(诸如被选择的顺序、对当前位置的接近、对搜索的相关性等),选择图像 411、412、413可以显示为相同大小,或可以以显示为不同大小,其中,具有区别的显示效果。根据用户设定或基于检测到的上述因素,可以执行各种显示属性。
另外,在另一个实施方式中,可以显示与第一触摸输入和第二触摸输入的选择相对应的图像。当画面信息对应于地图时,控制器180可以将在所选择的图像中描绘的位置设定为用于方向的目的地或沿着方向路径的站点。在一个实施方式中,方向信息可以提供给用户,方向信息将与选择图像411、412、413中所示的位置相对应的多个位置连接起来。方向信息可以被提供,使得方向上的位置的顺序对应于选择图像411、 412、413被显示的顺序。
例如,控制器180可以将选择图像411选择为起点,将选择图像412选择为第一站点,并且将选择图像413选择为最终目的地。接着,控制器180可以控制显示单元以输出包括所确定的路径的画面信息。
此外,基于施加到多个图像中的至少一个图像的触摸输入,控制器180可以改变选择图像411、412、413的输出位置。例如,显示单元可以按照基于触摸输入重排列选择图像413的顺序布置选择图像413、选择图像411和选择图像412。响应于重排列选择图像,控制器180可以重新计算方向信息。因此,在以上示例中,控制器180 可将选择图像413设定为起点,将选择图像411设定为第一站点,并将选择图像412 设定为最终目的地。响应于重排列图像,地图视图还可以改变以示出更新的方向信息。
参照图7B(a)到图7B(c)所示的实施方式,将讨论输出与图像有关的控制窗口的方法。如所讨论的,可以显示对应于基于第一触摸输入和第二触摸输入而选择的不同区域的选择图像411、412、413。选择图像411、412、413可包括不同位置信息。
当显示多个选择图像时,还可以显示第一控制窗口520,第一控制窗口520包括与对应于选择图像的位置有关的信息。第一控制窗口520可以顺序地显示所选择的区域中包括的位置信息的文本。此外,可以包括图形图像以指示用于路线搜索的选项。
尽管未示出,在方向信息被请求或将被请求的配置中,控制器180可以基于施加于第一控制窗口520的触摸输入来改变目的地、起点或中间站点。
参照图7C(a)到图7C(c)的实施方式,将描述执行对应于功能区域的功能的方法。参照图7C(a),显示单元可以包括与显示单元的各个区域或边缘相对应的功能区域11、12、13、14。
参照图7C(a)和图7C(b),基于第一触摸输入和第二触摸输入来选择功能区域,并且可以执行功能。例如,当第一触摸输入和第二触摸输入在功能区域13被解除时,控制器180可以执行用于输出与画面信息的被选择的区域中包括的位置有关的音频信息的功能。
在另一个实施方式中,参照图7C(a)和图7C(c),当第一触摸输入和第二触摸输入被从功能区域14解除时,控制器180可以执行与功能区域14相对应的功能,诸如用于与其他终端或用户共享信息的功能。当第一触摸输入和第二触摸输入在功能区域14被解除时,控制窗口530可以被显示以共享所选择的区域中包括的位置信息。控制窗口530可以包括用于选择用于共享信息的选项的多个图形图像、按钮、或图标。
参照图8(a)和图8(b)的实施方式,将描述执行与所选择的信息有关的各种功能的方法。控制器180基于第一触摸输入和第二触摸输入来选择画面信息上的区域。在一个实施方式中,基于施加于第一触摸传感器或第二触摸传感器的附加的触摸输入,可以显示控制窗口540。在一个实施方式中,当第一触摸输入和第二触摸输入在不同方向上施加时(例如,拇指和食指拧开(twisting apart)或两个手指从彼此移开),控制窗口540被显示。在另一个实施方式中,当第一触摸输入和第二触摸输入之间的距离超过设定值时,控制窗口540被显示。
控制窗口540可以包括与画面信息的选择的区域中包括的信息有关的至少一个功能。例如,当画面信息300对应于地图时,该功能可以是将所选择的区域设定为方向的起点、中间站点或目的地,或该功能可以包括提供所选择的区域的详细信息。在这些实施方式中,基于第一触摸输入和第二触摸输入,用户可以选择画面信息上的区域,并且通过应用附加触摸输入来执行与所选择的区域有关的功能。
图9A(a)至图9B(b)是例示用于改变图像的方法的实施方式的概念图。参照图9A(a)到图9A(c),如上所述,控制器180控制显示单元输出与基于第一触摸输入和第二触摸输入选择的区域有关的辅助图像410。控制器180也可以基于施加于辅助图像410的触摸输入来改变辅助图像的大小。例如,控制器180可以基于施加于辅助图像410的边缘部分的拖拽触摸输入来放大或缩小辅助图像410的大小。
参照图9A(a)和图9A(b),控制器180可以基于施加于辅助图像410的触摸输入来放大辅助图像410的大小以显示放大的图像410a。放大的图像410a可以包括与辅助图像410中包括的位置有关的详细信息。
在另一个实施方式中,参照图9A(a)和图9A(c),控制器180可以基于施加于辅助图像410的触摸输入来扩展辅助图像410以显示扩展的图像410b。扩展的图像410b可以包括画面信息30中所示的区域的位置信息。尽管未示出,在另一个实施方式中,辅助图像410可以基于触摸输入而缩小。当辅助图像410被缩小时,较小的图像可以显示在缩小的图像中,或者视图可以被放大或移动以将位置的相同视图维持在缩小的图像大小内。
参照图9B(a)和图9B(b),控制器180可以基于施加于辅助图像410的触摸输入将辅助图像410移动到显示单元上的另一个区域。因此,用户可以观察到画面信息的被辅助图像410遮挡的区域。在此实施方式中,用户也可以基于施加于辅助图像的触摸输入来改变辅助图像中包括的信息。
图10A(a)到图10B(b)是例示用于将所选择的区域形成为图像的方法的实施方式的概念图。参照图10A(a)和图10A(b),控制器180基于施加于第一触摸传感器和第二触摸传感器的触摸输入的位置来选择画面信息上的区域。基于施加于第一点(P1)和第二点(P2)的触摸输入,控制器180可以选择基于第一点(P1)和第二点(P2)的区域430。例如,区域430可以是以第一点(P1)和第二点(P2)为顶点的矩形区域。
当第二点(P2)由于触摸输入而移动到第三点(P3)时,图像可以改变成由至少第一点(P1)和第三点(P3)限定的改变后的图像431。然而,在一些实施方式中,在改变后的图像431中显示的信息包括在原始图像430中原始显示的信息。因此,改变后的431可以包括原始图像430的放大视图。改变后的图像431可以与第一点(P1) 相邻地显示。
尽管未示出,但是当在第二触摸输入被解除之后第一触摸输入的触摸点移动时,改变后的图像431的显示位置可以移动。
参照图10B(a)和图10B(b),改变后的图像431可以仅在第一触摸输入被维持的同时显示。基于在第一触摸输入被维持的同时施加于改变后的图像431的附加的触摸输入,改变后的图像431’可以被修改或移动。例如,基于诸如拖拽触摸输入的附加输入,改变后的图像431可以被改变成包括画面信息的另一个区域。
图11A(a)到图11B(c)是例示用于基于双表面触摸输入来显示画面信息的方法的实施方式的概念图。参照图11A(a)到图11A(c),如先前讨论的,控制器180 基于施加于第一触摸传感器和第二触摸传感器的第一触摸输入和第二触摸输入来选择画面信息上的区域。当在第一触摸输入和第二触摸输入被维持的同时附加的触摸输入被施加时,可以显示选择的区域的放大或扩大的视图302。如果画面信息300对应于地图,则放大的视图可以包括地图中包括的位置的详细信息。附加的触摸输入可以对应于触摸输入被移动分开的夹出(pinch-out)触摸输入。
参照图11A(b)和图11A(c),当在第一触摸输入和第二触摸输入被维持的同时附加触摸输入被解除时,放大的画面302可以显示为画面信息300。尽管未示出,当附加的触摸输入对应于夹入(pinch-in)触摸输入时,基于所选择的区域,画面信息可以被缩小或减小。此外,当附加的触摸输入被解除时,画面信息300可被再次显示,或者缩小的视图可被显示以代替画面信息300。
在另一个实施方式中,参照图11B(a)到图11B(c),当在第一触摸输入和第二触摸输入被维持的同时附加的触摸输入被施加时,附加信息550可以与画面信息 300一起显示。例如,附加信息550可以包括与画面信息中包括的位置有关的细节。所显示的细节可以包括位置的名称或细节、建筑、道路、商店、电话号码、地址或与所显示的位置有关的任何其它信息。
双表面触摸输入可以包括在不同方向上施加的接续触摸输入。参照图11B(b) 和图11B(c),当在附加信息550被显示的同时双表面触摸输入被施加时,还可以附加地显示辅助信息551。例如,辅助信息551可以包括与位置或附加信息550有关的进一步信息,诸如建筑物的电话号码(在附加信息550中显示了该建筑物名称)、商店的细节(诸如营业时间、顾客评分等)或元数据或社交媒体标签信息。附加信息 550和辅助信息551可以与画面信息300一起显示,并且可以在第一触摸输入和第二触摸输入被维持的同时连续输出。因而,可以向用户提供在画面信息上显示的位置的附加细节和相关信息。
图12A(a)到图12D(b)是例示用于基于触摸输入来显示画面信息的方法的实施方式的概念图。参照图12A(a)到图12A(c),当第一触摸输入和第二触摸输入被施加于画面信息300时,控制器180基于第一触摸输入和第二触摸输入选择画面信息300上的区域。
当维持的触摸输入被施加时,基于附加的触摸输入,可以显示附加的画面信息300’。维持的触摸输入可以是第一触摸输入或第二触摸输入被解除之后第一触摸输入或第二触摸输入中的另一个的继续,然而,在其它实施方式中,维持的触摸输入可以包括第一触摸输入和第二触摸输入之一或两者被解除之后施加的另一个输入,并且还考虑了维持的触摸输入的其它设置。为了方便起见,在以下实施方式中,假定维持的触摸输入是第一触摸输入的继续。
在维持的触摸输入被维持的同时,可以施加附加的触摸输入,所述附加的触摸输入包括拖拽触摸输入。基于附加的触摸输入的方向,可以与画面信息300接续地显示附加画面信息300’。如果画面信息300对应于包括特定位置的地图,则基于第三触摸输入,该地图可被移动成以另一个位置为中心或绕着该特定位置旋转。
参照图12A(b)和图12A(c),当附加的触摸输入被解除时,画面信息300可以再次显示。因而,通过施加附加的触摸输入,可以向用户提供关于期望区域的画面信息,接着返回到初始画面信息。
参照图12B(a)和图12B(b)的实施方式,如果在区域被选择之后附加的触摸输入被施加,则可以接续画面信息而显示附加的画面信息。参照图12B(b),可以显示包括所选择的区域的第一画面区域311,并且可以基于附加的触摸输入而显示包括附加画面信息的第二画面区域312。第一画面区域311和第二画面区域312可以可区分地显示,并且在一些实施方式中,可以显示分隔符313以清楚地限定区分。附加的画面信息可以由用户、附加的触摸输入的方向、附加的触摸输入的位置等确定,使得包括用户期望观看的另一个区域的第二画面可以分屏显示或多画面视图显示。
可以基于显示单元上所选择的区域的输出位置或附加的触摸输入的方向来确定分隔符313及其位置。因而,可以在分开的屏幕上或同步观看画面中向用户同时提供附加的区域以及所选择的区域。
参照图12C(a)和图12C (b),基于附加的触摸输入,可以显示指示所选择的区域的指示符440。在显示原始画面信息300之后,基于在选择包括在不同输出位置的指示符440的区域之后施加的第三触摸输入,可以显示附加的画面信息320。因而,用户可以基于所显示的指示符将所选择区域与附加画面信息比较。尽管未示出,基于附加触摸输入,控制器180可以使得指示符440不再被显示或被重新显示。
参照图12D(a)和图12D(b),当基于第一触摸输入和第二触摸输入选择画面信息300上的区域时,可以显示指示符440。如果在指示符440被显示的同时附加的触摸输入被施加,则指示符440的位置可以移动,并且显示有指示符的位置可以移动到显示器上的另一个位置。如果指示符440基于附加的触摸输入被输出到与显示器的边缘相邻的区域,则显示器可以被分割成区域314、315。区域315包括画面信息300 的包括指示符440的一部分,并且另一个区域314可以基于附加触摸输入而包括接续于画面信息300的附加画面信息。分隔符313可以在区域314和315之间显示。因而,通过在需要时施加附加的触摸输入,在向用户连续地提供原始选择的区域的同时,可以在划分的显示器上向用户提供附加的画面信息。
图13A(a)和图13B(b)是例示用于基于附加的触摸输入来控制立体图像的方法的实施方式的概念图。参照图13A(a)和图13A(b),显示单元可以被构造成显示具有预设深度值的立体图像330。尽管未示出,控制器180基于施加于立体图像330 的一部分的第一触摸输入和第二触摸输入来选择区域420。在选择了区域420之后,基于附加的触摸输入,可以改变区域420的深度。
参照图13B(a)和图13B(b),通过附加触摸输入可以输入附加数据并且存储成与所显示的画面信息相关联。例如,在画面信息340被显示的同时,附加触摸输入可以被接收以输入与画面信息或所选择的区域关联的信息,诸如字母“S”以强调在图像中示出的人具有以S开头的名字。控制器可以被进一步构造成接收附加触摸输入并且确定附加数据以与画面信息关联,诸如通过搜索具有附加触摸输入信息的本地数据、搜索互联网或其它联网数据库等。附加数据430接着被加标签到所选择的区域并且与画面信息关联地存储在存储器中。控制器180控制存储器170将附加数据430 与所述区域一起存储,并且控制显示器将附加数据430输出到与所选择的区域相邻的位置。
图14A(a)到图14B(b)是例示基于附加触摸输入来确定信息的方法的实施方式。参照图14A(a)和图14A(b),在画面信息340被显示的同时,包括画面信息的所选择的区域的子图像440可以被显示在第一触摸输入和第二触摸输入被接收、发起、终止等的位置处。在一个实施方式中,当第一触摸输入和第二触摸输入被解除时,子图像440可以不再显示。然而,在其他实施方式中,子图像可以连续显示、移动或存储在存储器中。子图像440可以包括画面信息340的所选择的区域的放大视图。
参照图14B(a)和图14B(b),控制器180可以被构造成基于施加于子图像440 的附加触摸输入来确定与子图像440关联的元数据信息、标签信息等、或在子图像中描绘的物体或人。例如,控制器可以搜索存储的照片、数据库或联网数据源来识别子图像中的物体或人,接着显示与物体或人关联的信息。触摸输入可以对应于在不同方向上移动的第一触摸输入和第二触摸输入。
此外,控制器180可以进一步被构造成识别与子图像440关联的相关图像422,诸如包括相同的人、相同的元数据或标签的图像或在子图像中显示的物体的不同视图。因而,用户可以通过选择画面信息的一部分来观看图像,基于施加于图像的附加触摸输入被提供与图像或图像的所选择的区域有关的信息。
图15A(a)到图15B(b)是例示基于双表面触摸输入来显示包括链接信息的画面信息的方法的实施方式的概念图。参照图15A(a)到图15A(c),可以显示包括到其他页面或内容的链接的内容的画面信息350,例如,画面信息350可以对应于从服务器接收到的网页。
类似于先前讨论的实施方式,控制器180可以基于第一触摸输入和第二触摸输入来选择内容,并且可以显示对应于该内容的附加图像450。附加图像450可以对应于内容中包括的图像、内容的链接地址等。
如果附加触摸输入被施加于附加图像450,则画面信息350可以改变为与附加图像相关的内容画面450’。尽管未示出,画面信息350可以改变成与由附加触摸输入选择的内容链接的另一个画面。控制器180控制显示单元在改变后的画面上连续输出附加图像450。
参照图15B(a)和图15B(b)的实施方式,可以显示画面信息350。参照图15B (b),基于以交叠方式施加到与内容相对应的位置的第一触摸输入和第二触摸输入,与内容相关的附加图像460可以显示成与画面信息350交叠。
附加图像460可以包括所选择的内容的内容画面,并且被输出成与画面信息350交叠。尽管未示出,基于施加于附加图像460的触摸输入,内容画面可以基于附加触摸输入独立于画面信息350而改变。然而,当附加触摸输入施加于画面信息350时,附加图像460可以不再显示。
可以使用存储了用于由处理器执行以执行此处呈现的各个方法的指令的机器可读介质来实现各个实施方式。可能的机器可读介质的示例包括HDD(硬盘驱动器)、 SSD(固态硬盘)、SSD(硅盘驱动器)、ROM、RAM、CD-ROM、磁带、软盘、光学数据存储装置、此处呈现的其它类型的存储介质和其组合。如果期望,机器可读介质可以以载波的形式实现(例如,通过因特网发送)。处理器可以包括移动终端的控制器180。
由于不背离其特性的情况下当前的特征可以按照多种形式实现,还应理解的是上述实施方式不限于上述描述的任何细节,除非相反地规定,而应在所附的权利要求的范围内宽泛地理解,因而落入权利要求的实质和边界或者这些实质和边界的等同物内的全部变化和修改因此旨在被所附的权利要求包含。

Claims (24)

1.一种移动终端,该移动终端包括:
终端机身,其包括第一侧和第二侧;
显示器,其设置在所述第一侧并且被构造成显示信息;
第一触摸传感器,其被构造成接收第一触摸输入,并且被设置在所述第一侧;
第二触摸传感器,其被构造成接收第二触摸输入,并且被设置在所述第二侧;以及
控制器,其被构造成:
使所述显示器显示第一画面信息;
基于所述第一触摸输入和所述第二触摸输入来选择所述第一画面信息的区域;
将所显示的第一画面信息的多个功能区域中的每一个功能区域指定给要执行的对应特定功能;
当所述第一触摸输入和所述第二触摸输入在所述功能区域中的第一功能区域处被解除时,执行多个功能中的第一功能,其中,所述第一功能与所述第一功能区域相关联;以及
当所述第一触摸输入和所述第二触摸输入在所述功能区域中的所述第一功能区域处被解除时,使所述显示器显示所述第一画面信息和辅助图像,
其中,所述辅助图像与所述第一画面信息的对应于所述第一触摸输入的位置的选择的区域有关,并且
其中,所述控制器还被构造成:
基于施加到所述第一侧和所述第二侧的触摸输入来选择所述第一画面信息当中的与地图对应的多个特定位置;
当施加到所述第一侧和所述第二侧的所述触摸输入从所述多个功能区域中的一个功能区域解除时,显示分别与所选择的多个特定位置对应的多个图像;
将所述多个特定位置设定为用于路线的目的地、路径点或者起点;以及
响应于施加到所述多个图像的附加触摸输入,改变所述路线。
2.根据权利要求1所述的移动终端,其中,所述控制器被构造成在所述第一触摸输入从所述显示器的预设区域解除时,使所述显示器继续显示所述辅助图像。
3.根据权利要求1所述的移动终端,其中,所述选择的区域包括通过所述第一触摸输入在所述第一触摸传感器上的位置和所述第二触摸输入在所述第二触摸传感器上的位置确定的区域。
4.根据权利要求1所述的移动终端,其中,所述辅助图像至少包括与所述选择的区域相关联的视觉信息、文本信息或图形图像。
5.根据权利要求1所述的移动终端,其中,所述控制器还被构造成当经由所述第一触摸传感器或所述第二触摸传感器未接收到触摸输入达阈值时间长度时,使所述显示器停止显示所述辅助图像。
6.根据权利要求1所述的移动终端,其中,所述控制器还被构造成在经由所述第一触摸传感器或所述第二触摸传感器接收到附加触摸输入时,使所述显示器继续显示所述辅助图像。
7.根据权利要求6所述的移动终端,其中,所述附加触摸输入包括在不同方向上移动的所述第一触摸输入和所述第二触摸输入。
8.根据权利要求6所述的移动终端,其中,所述控制器还被构造成使所述显示器:
响应于附加控制命令,显示第二画面信息;以及
响应于在所述辅助图像处接收到的附加触摸输入,重新显示所述第一画面信息。
9.根据权利要求1所述的移动终端,其中,所述控制器还被构造成响应于经由所述第一触摸传感器接收到的附加触摸输入,使所述显示器改变所述辅助图像。
10.根据权利要求9所述的移动终端,其中,所述辅助图像被改变成包括所述辅助图像的放大视图。
11.根据权利要求9所述的移动终端,其中,所述辅助图像被改变成包括与所述选择的区域有关的文本信息。
12.根据权利要求1所述的移动终端,其中,所述控制器还被构造成响应于经由所述第二触摸传感器接收到的附加触摸输入,使所述显示器改变所述第一画面信息。
13.根据权利要求12所述的移动终端,其中,所述控制器还被构造成使所述显示器:
响应于在所述第一触摸输入和所述第二触摸输入被维持的同时接收到附加触摸输入,显示第二画面信息;以及
当所述附加触摸输入被解除时,重新显示所述第一画面信息。
14.根据权利要求13所述的移动终端,其中,所述控制器还被构造成在所述第二画面信息被显示的同时使所述显示器继续显示所述辅助图像。
15.根据权利要求14所述的移动终端,其中,所述多个功能区域包含包括所述第二画面信息的第一区域和包括所述选择的区域的第二区域。
16.根据权利要求1所述的移动终端,其中,所述控制器还被构造成响应于附加触摸输入,使所述显示器改变所述辅助图像的大小。
17.根据权利要求1所述的移动终端,其中,所述控制器还被构造成使所述显示器:
当在所述多个功能区域中的一个功能区域处接收到至少所述第一触摸输入或所述第二触摸输入时,改变所述第一画面信息;以及
当所述第一触摸输入和所述第二触摸输入被解除时,重新显示所述第一画面信息。
18.根据权利要求1所述的移动终端,其中,所述辅助图像对应于控制窗口,所述控制窗口被构造成接收用于执行与所述选择的区域相关联的功能的触摸输入。
19.根据权利要求1所述的移动终端,其中,所述控制器还被构造成使所述显示器:
显示多个图像,每个图像对应于从所述第一画面信息选择的区域;以及
响应于对所述多个图像中的一个图像的附加触摸输入,改变所述多个图像中的所述一个图像的位置。
20.根据权利要求1所述的移动终端,其中,所述控制器还被构造成响应于在所述第一触摸输入和所述第二触摸输入被维持的同时至少经由所述第一触摸传感器或所述第二触摸传感器接收到的附加触摸输入,使所述显示器显示与所述第一画面信息有关的附加信息。
21.一种控制移动终端的方法,所述移动终端包括显示器和终端机身,所述终端机身包括第一侧和第二侧,该方法包括以下步骤:
在所述显示器上显示第一画面信息;
基于经由设置在所述第一侧的第一触摸传感器接收到的第一触摸输入和经由设置在所述第二侧的第二触摸传感器接收到的第二触摸输入,选择所述第一画面信息的区域;
将所显示的第一画面信息的多个功能区域中的每一个功能区域指定给要执行的对应特定功能;
当所述第一触摸输入和所述第二触摸输入在所述功能区域中的第一功能区域处被解除时,执行多个功能中的第一功能,其中,所述第一功能与所述第一功能区域相关联;以及
当所述第一触摸输入和所述第二触摸输入在所述功能区域中的所述第一功能区域处被解除时,显示所述第一画面信息和辅助图像,
其中,所述辅助图像与所述第一画面信息的对应于所述第一触摸输入的位置的选择的区域有关,并且
其中,执行所述多个功能中的所述第一功能的步骤包括以下步骤:
基于施加到所述第一侧和所述第二侧的触摸输入来选择所述第一画面信息当中的与地图对应的多个特定位置;
当施加到所述第一侧和所述第二侧的所述触摸输入从所述多个功能区域中的一个功能区域解除时,显示分别与所选择的多个特定位置对应的多个图像;
将所述多个特定位置设定为用于路线的目的地、路径点或者起点;以及
响应于施加到所述多个图像的附加触摸输入,改变所述路线。
22.根据权利要求21所述的方法,该方法还包括以下步骤:响应于经由所述第一触摸传感器接收到的对所述图像的附加触摸输入,改变所述图像。
23.根据权利要求21所述的方法,该方法还包括以下步骤:在所述第一触摸输入和所述第二触摸输入被维持的同时,当经由所述第二触摸传感器接收到附加触摸输入时,改变所述第一画面信息。
24.根据权利要求21所述的方法,其中,所述选择的区域包括通过所述第一触摸输入在所述第一触摸传感器上的位置和所述第二触摸输入在所述第二触摸传感器上的位置确定的区域。
CN201510574473.7A 2014-10-31 2015-09-10 移动终端及其控制方法 Expired - Fee Related CN105577913B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140150498A KR101667727B1 (ko) 2014-10-31 2014-10-31 이동 단말기 및 이의 제어방법
KR10-2014-0150498 2014-10-31

Publications (2)

Publication Number Publication Date
CN105577913A CN105577913A (zh) 2016-05-11
CN105577913B true CN105577913B (zh) 2020-11-06

Family

ID=53483717

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510574473.7A Expired - Fee Related CN105577913B (zh) 2014-10-31 2015-09-10 移动终端及其控制方法

Country Status (4)

Country Link
US (1) US9946456B2 (zh)
EP (1) EP3029554B1 (zh)
KR (1) KR101667727B1 (zh)
CN (1) CN105577913B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106201252A (zh) * 2016-06-30 2016-12-07 努比亚技术有限公司 一种移动终端的地图显示装置和方法
CN106293390A (zh) * 2016-07-28 2017-01-04 努比亚技术有限公司 基于双屏终端的局部图片提取装置及方法
KR102576654B1 (ko) * 2016-10-18 2023-09-11 삼성전자주식회사 전자 장치 및 그의 제어 방법
US10540055B2 (en) * 2017-02-08 2020-01-21 Google Llc Generating interactive content items based on content displayed on a computing device
CN109144368B (zh) * 2018-08-23 2020-09-15 维沃移动通信有限公司 一种图片的转换方法和终端
CN114690977B (zh) * 2021-04-22 2023-11-21 广州创知科技有限公司 一种基于弹性波的交互唤起方法及装置

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000032099A (ja) 1998-07-10 2000-01-28 Nec Saitama Ltd 背面操作部を有する携帯電話機
JP2000278391A (ja) 1999-03-26 2000-10-06 Nec Saitama Ltd 背面手書き入力機能を有する携帯電話機
JP2001189792A (ja) 1999-12-20 2001-07-10 Motorola Inc 携帯移動通信機器
US20070291008A1 (en) 2006-06-16 2007-12-20 Daniel Wigdor Inverted direct touch sensitive input devices
EP2104024B1 (en) * 2008-03-20 2018-05-02 LG Electronics Inc. Portable terminal capable of sensing proximity touch and method for controlling screen using the same
US20090256809A1 (en) 2008-04-14 2009-10-15 Sony Ericsson Mobile Communications Ab Three-dimensional touch interface
US8130207B2 (en) * 2008-06-18 2012-03-06 Nokia Corporation Apparatus, method and computer program product for manipulating a device using dual side input devices
KR101517082B1 (ko) * 2008-11-10 2015-04-30 엘지전자 주식회사 플렉서블 디스플레이를 이용하는 휴대 단말기 및 그 제어방법
KR101021857B1 (ko) 2008-12-30 2011-03-17 삼성전자주식회사 듀얼 터치 센서를 이용하여 제어 신호를 입력하는 장치 및 방법
KR101544364B1 (ko) 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
KR101563523B1 (ko) * 2009-01-30 2015-10-28 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 사용자 인터페이스 표시 방법
KR100983902B1 (ko) 2009-02-12 2010-09-27 이노디지털 주식회사 사용자 인터페이스 제어 장치 및 방법
US20100277420A1 (en) 2009-04-30 2010-11-04 Motorola, Inc. Hand Held Electronic Device and Method of Performing a Dual Sided Gesture
EP2254032A1 (en) 2009-05-21 2010-11-24 Research In Motion Limited Portable electronic device and method of controlling same
US9367216B2 (en) 2009-05-21 2016-06-14 Sony Interactive Entertainment Inc. Hand-held device with two-finger touch triggered selection and transformation of active elements
US8880338B2 (en) * 2009-06-26 2014-11-04 Kyocera Corporation Portable electronic device, and method for operating portable electronic device
US8497884B2 (en) 2009-07-20 2013-07-30 Motorola Mobility Llc Electronic device and method for manipulating graphic user interface elements
KR101227949B1 (ko) * 2009-09-09 2013-01-31 유인오 입체 터치 감지 장치 및 그 방법
WO2011077448A1 (en) 2009-12-21 2011-06-30 Rohan Pandey Improved touch based electronic device
EP2341418A1 (en) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Device and method of control
EP2341414A1 (en) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Portable electronic device and method of controlling a portable electronic device
KR20110081040A (ko) * 2010-01-06 2011-07-13 삼성전자주식회사 투명 디스플레이를 구비한 휴대단말에서 컨텐츠 운용 방법 및 장치
JP5679891B2 (ja) * 2011-04-26 2015-03-04 京セラ株式会社 携帯電子機器、制御方法および制御プログラム
US8775966B2 (en) 2011-06-29 2014-07-08 Motorola Mobility Llc Electronic device and method with dual mode rear TouchPad
US9594405B2 (en) 2011-10-19 2017-03-14 Facebook, Inc. Composite touch gesture control with touch screen input device and secondary touch input device
KR101496512B1 (ko) 2012-03-08 2015-02-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101397084B1 (ko) 2012-07-02 2014-05-20 엘지전자 주식회사 이동 단말기
JP6271858B2 (ja) * 2012-07-04 2018-01-31 キヤノン株式会社 表示装置及びその制御方法
KR102080741B1 (ko) 2012-08-29 2020-02-24 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
KR102045458B1 (ko) * 2012-12-11 2019-11-15 엘지전자 주식회사 이동 단말기 및 이의제어방법
KR20140080220A (ko) 2012-12-20 2014-06-30 삼성전자주식회사 컨텐츠를 확대하기 위한 방법 및 그 전자 장치
KR101978218B1 (ko) 2013-02-27 2019-05-14 엘지전자 주식회사 양면 디스플레이 유닛을 포함하는 이동 단말기 및 제어 방법
KR102088911B1 (ko) 2013-04-18 2020-03-13 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US20150163410A1 (en) * 2013-12-10 2015-06-11 Semiconductor Energy Laboratory Co., Ltd. Display Device and Electronic Device

Also Published As

Publication number Publication date
EP3029554A1 (en) 2016-06-08
KR20160051080A (ko) 2016-05-11
US9946456B2 (en) 2018-04-17
KR101667727B1 (ko) 2016-10-28
EP3029554B1 (en) 2019-09-18
US20160124468A1 (en) 2016-05-05
CN105577913A (zh) 2016-05-11

Similar Documents

Publication Publication Date Title
US9639177B2 (en) Mobile terminal and method for controlling the same
US10863080B2 (en) Mobile terminal and method for controlling the same
EP3407176B1 (en) Mobile terminal
US10133310B2 (en) Mobile terminal and method for controlling the same
US10044928B2 (en) Mobile terminal and method for controlling the same
US9651989B2 (en) Mobile terminal
US20150378707A1 (en) Mobile terminal and method for controlling the same
EP3413184B1 (en) Mobile terminal and method for controlling the same
CN105577913B (zh) 移动终端及其控制方法
US9774360B2 (en) Mobile terminal and method for controlling the same
US10303328B2 (en) Mobile terminal and method for controlling the same
KR102238531B1 (ko) 이동단말기 및 그 제어방법
EP3096275A1 (en) Mobile terminal and method for controlling the same
US10739877B2 (en) Mobile terminal and method for controlling same
US10904189B2 (en) Terminal and method for displaying previous conversation information while displaying message of current conversation at the terminal
US10645141B2 (en) Mobile terminal and method for controlling the same
US9959034B2 (en) Mobile terminal and method for controlling the same
KR20180017638A (ko) 이동단말기 및 그 제어방법
US20180348927A1 (en) Mobile terminal and method of controlling the same
US10320732B2 (en) Mobile terminal and method for controlling the same
KR102181131B1 (ko) 이동 단말기 및 그 제어방법
KR102127389B1 (ko) 이동 단말기 및 이의 제어 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20201106

Termination date: 20210910

CF01 Termination of patent right due to non-payment of annual fee