CN102346642B - 移动终端和控制移动终端的操作的方法 - Google Patents

移动终端和控制移动终端的操作的方法 Download PDF

Info

Publication number
CN102346642B
CN102346642B CN201110221190.6A CN201110221190A CN102346642B CN 102346642 B CN102346642 B CN 102346642B CN 201110221190 A CN201110221190 A CN 201110221190A CN 102346642 B CN102346642 B CN 102346642B
Authority
CN
China
Prior art keywords
mobile terminal
sensitive areas
touch sensitive
user
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201110221190.6A
Other languages
English (en)
Other versions
CN102346642A (zh
Inventor
金钟焕
池贤镐
金永于
赵善彙
李昊埈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN102346642A publication Critical patent/CN102346642A/zh
Application granted granted Critical
Publication of CN102346642B publication Critical patent/CN102346642B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Abstract

本发明涉及移动终端和控制移动终端的操作的方法,提供了一种移动终端和控制移动终端的操作的方法,根据本发明的实施例,控制移动终端的操作的方法包括:利用左眼图像和右眼图像之间的视差,在移动终端的显示模块上显示立体三维(3D)图像;接收立体3D图像内的触摸输入;确定触摸输入的位置是在第一区域、第二区域还是第三区域内接收的,其中,右眼图像显示在第一区域中,左眼图像显示在第二区域中,并且第三区域是左眼图像和右眼图像的重叠区域;以及根据接收的触摸输入的位置校正显示模块上的触摸感测区域,其中,触摸感测区域接收用于选择立体3D图像的触摸。

Description

移动终端和控制移动终端的操作的方法
相关申请的交叉引用
本申请要求于2010年7月29在韩国知识产权局提交的韩国专利申请No.10-2010-0073611的优先权,其公开通过引用并入这里。
技术领域
本发明涉及移动终端和控制移动终端的操作的方法,并且特别地涉及移动终端和控制移动终端的操作的方法,其中,能够根据用户的主导眼校正用于立体三维(3D)图像的触摸感测区域。
背景技术
移动终端是便携式设备,其能够给用户提供各种服务,诸如,语音通话服务、视频通话服务、信息输入/输出服务、以及数据存储服务。
由于由移动终端提供的服务的类型不同,越来越多的移动终端配备有各种复杂功能,诸如,捕捉照片或运动图片、播放音乐文件或移动图像文件、提供游戏节目、接收广播节目以及提供无线互联网服务,并且因此进化为多媒体播放器。
进行了各种尝试以将这样的复杂功能实现为硬件设备或软件程序。例如,开发了各种用户界面(UI)环境,其中,允许用户容易地搜索和选择想要的功能。另外,由于考虑移动终端作为能够表示个性的个人物品的发展趋势,使得对移动终端的各种设计的要求稳步增长。
同时,立体三维(3D)成像,即组合由相机捕捉的多个图像以创建立体3D图像的技术,最近变得很常见。当被应用于移动终端时,立体3D成像能够允许用户使用移动终端的相机创建立体3D图像,并且在移动终端的显示器上显示各种立体3D图像。立体3D图像可以利用诸如也称为裸眼3D的立体自动显示的各种方法显示在移动终端的显示器上。
人们倾向于根据他们是惯用左眼、惯用右眼还是惯用双眼来触摸立体3D图像的不同部分以选择立体3D图像。从而,需要根据用户的主导眼适当地校正触摸感测区域,即,其中能够感测用于选择立体3D图像的触摸的存在和位置的区域。
发明内容
本发明提供移动终端和控制移动终端的操作的方法,其中,能够根据用户的主导眼校正用于立体三维(3D)图像的触摸感测区域。
根据本发明的一个方面,提供一种控制移动终端的操作的方法,该方法包括:利用左眼图像和右眼图像之间的视差,在显示模块上显示立体3D图像;如果在立体3D图像内检测到触摸,则确定触摸的检测的位置是落入其中显示右眼图像的第一区域内,落入其中显示左眼图像的第二区域内,还是落入是左眼图像和右眼图像的重叠区域的第三区域内;以及根据触摸的检测的位置是落入第一、第二还是第三区域内来校正显示模块上设置的触摸感测区域,触摸感测区域是能够感测用于选择立体3D图像的触摸的区域。
根据本发明的另一方面,提供了一种移动终端,包括:显示模块,配置成利用左眼图像和右眼图像之间的视差在其上显示立体3D图像;以及控制器,配置成当在立体3D图像内检测到触摸时,确定触摸的检测的位置是落入其中显示右眼图像的第一区域内,落入其中显示左眼图像的第二区域内,还是落入是左眼图像和右眼图像的重叠区域的第三区域内;以及根据触摸的检测的位置是落入第一、第二还是第三区域内来校正显示模块上设置的触摸感测区域,触摸感测区域是能够感测用于选择立体3D图像的触摸的区域。
根据本发明的另一方面,提供了一种控制移动终端的操作的方法,该方法包括:将移动终端切换至锁定模式;如果从用户接收到用于使移动终端从锁定状态解除的用户输入,则确定用户是否已经在移动终端中注册;以及如果用户还没有在移动终端中注册,则校正显示模块上设置的触摸感测区域,并且使移动终端从锁定状态解除,触摸感测区域是能够感测用于选择立体3D图像的触摸的区域。
根据本发明的另一方面,提供了一种移动终端,其包括:显示模块,配置成在其上显示操作屏幕;以及控制器,配置成将移动终端切换至锁定模式,其中,控制器配置成如果从用户接收到用于使移动终端从锁定状态解除的用户输入,则确定用户是否已经在移动终端中注册,并且如果用户还没有在移动终端中注册,则校正显示模块上设置的触摸感测区域,并且使移动终端从锁定状态解除,触摸感测区域是能够感测用于选择立体3D图像的触摸的区域。
根据本发明的实施例,控制移动终端的操作的方法包括:利用左眼图像和右眼图像之间的视差,在移动终端的显示模块上显示立体三维(3D)图像;接收立体3D图像内的触摸输入;确定触摸输入的位置是在第一区域、第二区域还是第三区域内接收的,其中,右眼图像显示在第一区域中,左眼图像显示在第二区域中,并且第三区域是左眼图像和右眼图像的重叠区域;以及根据接收的触摸输入的位置校正显示模块上的触摸感测区域,其中,触摸感测区域接收用于选择立体3D图像的触摸。
根据本发明的实施例,移动终端包括:显示模块,配置成利用左眼图像和右眼图像之间的视差,显示立体三维(3D)图像;以及控制器,配置成接收立体3D图像内的触摸输入,以确定触摸输入的位置是在第一区域、第二区域还是在第三区域内接收的,并且根据触摸输入的位置校正显示模块上的触摸感测区域,其中,右眼图像显示在第一区域中,左眼图像显示在第二区域中,并且第三区域是左眼图像和右眼图像的重叠区域,并且其中,触摸感测区域接收用于选择立体3D图像的触摸。
根据本发明的实施例,控制移动终端的操作的方法包括:将移动终端切换至锁定模式;在移动终端的显示模块上,从用户接收用于使移动终端从锁定模式解除的用户输入;如果接收到用于使移动终端从锁定模式解除的用户输入,则确定用户是否已经在移动终端中注册,并且如果用户还没有在移动终端中注册,则校正显示模块上的触摸感测区域,并且使移动终端从锁定状态解除,其中,触摸感测区域接收用于选择立体三维(3D)图像的触摸。
根据本发明的实施例,移动终端包括:显示模块,配置成显示操作屏幕;以及控制器,配置成将移动终端切换至锁定模式,接收用于使移动终端从锁定模式解除的用户输入,如果接收到用于解除移动终端的用户输入,则确定用户是否已经在移动终端中注册,并且如果用户还没有在移动终端中注册,则校正显示模块上的触摸感测区域,并且使移动终端从锁定模式解除,其中,触摸感测区域接收用于选择立体三维(3D)图像的触摸。
附图说明
本发明的以上和其他特征和优点通过参考附图详细地描述其优选实施例而变得更加明显,其中:
图1是根据本发明的示例性实施例的移动终端的框图;
图2是图1中所示的移动终端的正面透视图;
图3是图2中所示的移动终端的背面透视图;
图4是示出根据本发明的示例性实施例的控制移动终端的操作的方法的流程图;
图5是示出根据本发明的另一示例性实施例的控制移动终端的操作的方法的流程图;
图6至图11是示出如何校正触摸感测区域的示例的示意图;
图12至图14是示出与三维(3D)触摸设置模式结合执行的操作的示例的示意图;以及
图15至图18是示出如何为新用户校正触摸感测区域的示例的示意图。
具体实施方式
以下将参考附图详细地描述本发明,其中,示出本发明的示例性实施例。
如这里所使用的,术语“移动终端”可以表示移动电话、智能电话、膝上计算机、数字广播接收器、个人数字助理(PDA)、便携式多媒体播放器(PMP)、相机、导航设备、平板电脑、或者电子书(e-book)阅读器。在本公开中,能够互换地使用术语“模块”和“单元”。
图1是根据本发明的实施例的移动终端100的框图。参考图1,移动终端100可以包括无线通信单元110、音频/视频(A/V)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180以及电源单元190。无线通信单元110、A/V输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180以及电源单元190中的两个或更多可以被合并为单个单元,或者无线通信单元110、A/V输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180以及电源单元190中的一些可以被分为两个或更多更小的单元。
无线通信单元110可以包括广播接收模块111、移动通信模块113、无线互联网模块115、短距离通信模块117和全球定位系统(GPS)模块119。
广播接收模块111可以通过广播信道从外部广播管理服务器接收广播信号和/或广播相关信息。广播信道可以是卫星信道或地面信道。广播管理服务器可以是产生广播信号和/或广播相关信息并且发送产生的广播信号和/或广播相关信息的服务器,或者可以是接收并且然后发送先前产生的广播信号和/或先前产生的广播相关信息的服务器。
广播相关信息可以包括广播信道信息、广播节目信息和/或广播服务提供商信息。广播信号可以是TV广播信号、无线电广播信号、数据广播信号、数据广播信号和TV广播信号的组合或者数据广播信号和无线电广播信号的组合。广播相关信息可以被通过移动通信网络提供给移动终端100。在该情况下,可以通过移动通信模块113而不是广播接收模块111来接收广播相关信息。广播相关信息可以采取各种形式。例如,广播相关信息可以是数字多媒体广播(DMB)的电子节目指南(EPG)或者可以是手持数字视频广播(DVB-H)的电子服务指南(ESG)。
广播接收模块111可以利用诸如地面数字多媒体广播(DMB-T)、卫星数字多媒体广播(DMB-S)、仅媒体前向链路(MediaFLO)、DVB-H和综合业务地面数字广播(ISDB-T)的各种广播系统来接收广播信号。此外,广播接收模块111可以被配置成适用于除本文所阐述的广播系统以外的几乎所有类型的广播系统。由广播接收模块111接收的广播信号和/或广播相关信息可以被存储在存储器160中。
移动通信模块113可以通过移动通信网络将无线信号发送至基站、外部终端以及服务器中的至少一个,或通过移动通信网络从基站、外部终端以及服务器中的至少一个接收无线信号。无线信号可以根据移动终端100是发送/接收语音通话信号、视频通话信号还是文本/多媒体消息而包括各种数据类型。
无线互联网模块115可以是用于无线地访问互联网的模块。无线互联网模块115可以嵌入在移动终端100中或可以安装在外部设备中。无线互联网模块115可以使用诸如无线局域网(WLAN)、无线宽带(WiBro)、全球微波接入互操作性(Wimax)、和高速下行链路分组接入(HSDPA)的各种无线互联网技术。
短距离通信模块117可以是用于短距离通信的模块。短距离通信模块117可以使用诸如蓝牙、射频识别(RFID)、红外数据标准协会(IrDA)、超宽带(UWB)和紫蜂(ZigBee)的各种短距离通信技术。
GPS模块119可以从多个GPS卫星接收位置信息。
A/V输入单元120可以用于接收音频信号或视频信号。A/V输入单元120可以包括相机121和麦克风123。相机121可以在视频通话模式或图像拍摄模式下处理由图像传感器拍摄的诸如静态图像或动态图像的各种图像帧。可以由显示模块151显示由相机121处理的图像帧。
由相机121处理的图像帧可以存储在存储器160中或者可以通过无线通信单元110发送到外部设备。移动终端100可以包括两个或更多相机121。
麦克风123可以在通话模式、记录模式或语音识别模式中利用麦克风接收外部声音信号,并可将声音信号转换成电声音数据。在通话模式中,移动通信模块113可以将电声音数据转换成能够易于发送到移动通信基站的数据,然后可以输出通过转换获得的数据。麦克风123可以使用各种噪声去除算法,以去除在接收外部声音信号的过程中可能产生的噪声。
用户输入单元130可以基于用于控制移动终端100的操作的用户输入来生成键输入数据。用户输入单元130可以实现为键盘、薄膜开关、或者能够通过被用户按压或者触摸来接收命令或者信息的静态压力/电容触摸板。或者,用户输入单元130可以实现为能够通过被旋转来接收命令或者信息的拨动开关、拨盘或者拨轮或者滚轮。再或者,用户输入单元130可以实现为指鼠标。尤其,如果用户输入单元130被实现为触摸板并与显示模块151一起形成交互(mutual)层结构,则可以将用户输入单元130和显示模块151统称为触摸屏。
感测单元140确定移动终端100的当前状态,如移动终端100是打开还是闭合、移动终端100的位置以及移动终端100是否与用户接触,并且可以生成用于控制移动终端100的操作的感测信号。例如,当移动终端100是滑盖式移动电话时,感测单元140可以确定移动装置100是打开还是闭合。此外,感测单元140可以确定移动终端100是否被电源单元190供电,以及接口单元170是否连接到外部设备。
感侧单元140可以包括检测传感器141、压力传感器143和运动传感器145。检测传感器141可以确定是否存在位于附近并且正在接近而没有机械接触的对象。更具体地,检测传感器141可以通过检测交流磁场或者静电容的变化率来检测位于附近并且正在接近的对象。感侧单元140可以包括两个或者更多检测传感器141。
压力传感器143可以确定压力是否被施加到移动终端100上,或者可以测量施加到移动终端100上的压力的级别(如果存在压力的话)。压力传感器143可以安装在移动终端100的需要压力检测的特定部分中。例如,压力传感器143可以安装在显示模块151中。在这种情况下,能够基于由压力传感器143提供的数据区分典型触摸输入和压力触摸输入,其中通过使用比用于产生典型触摸输入更高的压力级产生压力触摸输入。另外,当通过显示模块151接收到压力触摸输入时,能够基于由压力传感器143提供的数据确定当检测到压力触摸输入时施加到显示模块151的压力的级别。
运动传感器145可以使用加速度传感器或者陀螺仪传感器来确定移动终端100的位置和运动。
同时,加速度传感器是一种用于将加速度的变化(vibration)转换成电信号的设备。随着近来微电子机械系统(MEMS)技术的发展,为了从如在用于汽车的气囊系统中执行的检测诸如车辆碰撞的大运动到如在游戏输入设备中执行的检测诸如手的运动的小运动的各种用途,加速度传感器已经广泛在各种产品中。通常,表示两个或更多轴线方向的一个或者更多加速度传感器被合并在单个封装中。存在仅需要一个轴线方向(例如,Z轴方向)的检测的情况。因此,当要求X或Y轴加速度传感器而非Z轴加速度传感器时,X或Y轴加速度传感器可以被安装在额外的基板上,并且额外的基板可以安装在主基板上。
陀螺仪传感器是用于测量角速度的传感器,并且可以确定相对于基准方向的、移动终端100的旋转的相对方向。
输出单元150可以输出音频信号、视频信号和警报信号。输出单元150可以包括显示模块151、音频输出模块153、警报模块155以及触觉模块157。
显示模块151可以显示通过移动终端100处理的各种信息。例如,如果移动终端100处于通话模式,则显示模块151可显示用于发起或接收呼叫的用户界面(UI)或图形用户界面(GUI)。如果移动终端100处于视频通话模式或图像拍摄模式,则显示模块151可以显示用于拍摄或接收图像的UI或GUI。
如果显示模块151和用户输入单元130一起形成层结构并且因此实施为触摸屏,则显示模块151可以用作输出设备和输入设备。如果显示模块151实施为触摸屏,则显示模块151还可以包括触摸屏面板以及触摸屏面板控制器。触摸屏面板是附着到移动终端100的外部的透明面板,并可以连接到移动终端100的内部总线。触摸屏面板持续监测触摸屏面板是否被用户触摸。一旦接收到触摸屏面板的触摸输入,则触摸屏面板将与触摸输入对应的多个信号发送到触摸屏面板控制器。触摸屏面板控制器处理由触摸屏面板发送的信号,并且将处理后的信号发送到控制器180。然后,控制器180基于通过触摸屏面板控制器发送的处理后的信号来确定是否生成触摸输入并且触摸屏面板的哪部分被触摸
显示模块151可以包括电子纸(e-paper)。E-paper是一种反射显示技术,并能够提供如普通墨水在纸上那样高的分辨率、宽视角和优异的可视性。E-paper可以在诸如塑料基板、金属基板或纸基板的各种基板上实施,并且即使在电源关闭以后,也能在其上显示并且保持图像。此外,由于e-paper无需背光组件,因此能够减少移动终端100的功耗。可以通过使用带静电半球旋转球、使用电泳淀积和/或使用微囊来将显示模块151实施为e-paper。
显示模块151可以包括液晶显示器(LCD)、薄膜晶体管(TFT)-LCD、有机发光二极管(OLED)、柔性显示器、三维(3D)显示器中的至少一个。移动终端100可以包括两个或更多显示模块151。例如,移动终端100可以包括外部显示模块(未示出)以及内部显示模块(未示出)。
音频输出模块153可以输出在呼叫接收模式、通话模式、记录模式、语音识别模式或广播接收模式中由无线通信单元110接收的音频数据,或可以输出存在于存储器160中的音频数据。此外,音频输出模块153可以输出与移动终端100的诸如接收呼叫或者消息的功能有关的各种声音信号。音频输出模块153可以包括扬声器和蜂鸣器。
警报模块155可以输出指示移动终端100中事件的发生的警报信号。事件的示例包括接收呼叫信号、接收消息以及接收键信号。通过警报模块155输出的警报信号的示例包括音频信号、视频信号和振动信号。更具体地,警报模块155可以在接收到呼叫信号或消息时输出警报信号。此外,警报模块155可以接收键信号并可以输出警报信号作为对键信号的反馈。因此,用户能够基于通过警报模块155输出的警报信号容易地识别事件的发生。用于提醒用户事件的发生的警报信号不仅可以通过警报模块155输出而且还可以通过显示模块151或者音频输出模块153输出。
触觉模块157可以提供用户能够察觉的各种触觉效果(诸如振动)。如果触觉模块157生成振动作为触觉效果,则通过触觉模块157生成的振动的强度和形式可以以各种方式变化。触觉模块157可以合成不同的振动效果,并可以输出合成后的结果。或者,触觉模块157可以顺序地输出不同的振动效果。
除了振动以外,触觉模块157还可以提供各种触觉效果,诸如使用垂直地移动以接触皮肤表面的针阵列获得的触觉效果、通过经由喷出孔或者吸入孔来喷出或吸入空气的触觉效果、通过对皮肤表面施加刺激获得的效果、通过接触电极获得的效果、通过使用静电力获得的效果以及通过使用能够吸热或产生热的器件实现热或冷的感觉获得的效果。触觉模块157可以被配置成使用户能够利用手指或胳膊的肌觉来识别触觉效果。移动终端100可以包括两个或更多触觉模块157。
存储器160可以存储控制器180的操作所需的各种程序。此外,存储器160可暂时地存储诸如电话本、消息、静态图像或动态图像的各种数据。
存储器160可以包括闪存式存储介质、硬盘式存储介质、多媒体卡微型存储介质、卡式存储器(例如,安全数字(SD)或极限数字(XD)存储器)、随机存取存储器(RAM)以及只读存储器(ROM)中的至少一个。移动终端100可以操作在互联网上执行存储器160的功能的网络存储器。
接口单元170可以与能够连接到移动终端100的外部设备对接。接口单元170可以是有线/无线头戴式耳机,外部电池充电器,有线/无线数据端口,用于例如存储卡、用户识别模块(SIM)卡或用户识别模块(UIM)卡的卡槽,音频输入/输出(I/O)端子,视频I/O端子或耳机。接口单元170可以从外部设备接收数据,或可以由外部设备供电。接口单元170可以将由外围设备提供的数据发送到移动终端100中的其他组件,或可以将由移动终端100中的其他组件提供的数据发送到外部设备。
当移动终端100连接到外部托架时,接口单元170可以提供将电力从外部托架提供给移动终端100的通道,或者将各种信号从外部托架发送到移动终端100的通道。
控制器180可以控制移动终端100的总体操作。例如,控制器180可以进行与发起/接收语音呼叫、发送/接收数据或发起/接收视频呼叫有关的各种控制操作。控制器180可以包括播放多媒体数据的多媒体播放器模块181。多媒体播放器模块181可以实现为硬件设备并可以安装在控制器180中。或者,多媒体播放器模块181可实现为软件程序。
电源单元190可以由外部电源或内部电源供电,并可以向移动终端100中的其他组件供电。
移动终端100可以包括有线/无线通信系统或卫星通信系统,并且因此可以在能够以帧或数据包为单位来发送数据的通信系统中操作。
将在下面参考图2和图3详细地描述移动终端100的外部结构。本发明能够应用于几乎所有类型的移动终端,诸如折叠型、直板型、旋转型和滑动型移动终端的几乎任何类型的移动终端来实施。然而,为了方便,假定移动终端100是装配有全触摸屏的直板型移动终端。
图2是移动终端100的正面透视图,并且图3是移动终端100的背面透视图。参照图2,移动终端100的外部可以由前壳体100-1和后壳体100-2形成。在由前壳体100-1和后壳体100-2形成的空间中可以安装各种电子器件。前壳体100-1和后壳体100-2可以通过注入成型由合成树脂形成。或者,前壳体100-1和后壳体100-2可以由诸如不锈钢(STS)或者钛(Ti)的金属形成
显示模块151、第一音频输出模块153a、第一相机121a、和第一至第三用户输入模块130a至130c可以被布置在移动终端100的主体中,并且尤其是,被布置在前壳体100-1上。第四和第五用户输入模块130d和130e以及麦克风123可以被布置在后壳体100-2的一侧上。
如果触摸板被构造为与显示模块151重叠并且因此形成交互层结构,则显示模块151可以用作触摸屏。因此,用户能够简单地通过触摸显示模块151来将各种信息输入到移动终端100。
第一音频输出模块153a可以实施为接收器或者扬声器。第一相机121a可以被构造为适于拍摄用户的静态或者动态图像。麦克风123可以被构造为正确地接收用户的语音或者其它声音。
第一至第五用户输入模块130a至130e和第六和第七用户输入模块130f和130g可以被统称为用户输入单元130,并且能够采用任何装置作为第一至第七用户输入模块130a至130f,只要它能够以触觉方式操作。例如,用户输入单元130可以被实施为能够根据用户的按压或者触摸操作来接收命令或者信息的薄膜开关或者触摸板;或者可以实施为用于旋转键的滚轮或拨轮或者实施为摇杆。在功能方面,第一至第三用户输入模块130a至130c可以用作用于输入诸如开始、结束和滚动的命令的功能键,第四用户输入模块130d可以用作用于选择用于移动终端100的操作模式的功能键,并且第五用户输入模块130e可以用作用于激活移动终端100的特定功能的热键。
参考图3,两个相机,即第二和第三相机121b和121c可以被额外地布置在后壳体100-2的后面,并且第六和第七用户输入模块130f和130e以及接口单元170可以被布置在第二壳体100-2的一侧上。
第二相机121b可以具有与第一相机121a的图像捕捉方向基本相反的图像捕捉方向,并且可以具有与第一相机121a的分辨率不同的分辨率。另一相机可以额外地安装在第二相机121b附近,并且从而可以用于捕捉立体3D图像。
闪光灯和反射镜可以设置在第二相机121b附近。当通过第二相机121b捕捉主体的图像时,闪光灯可以照亮主体。反射镜可以允许用户当他或她想要通过使用第二相机121b捕捉他或她自己的图像时看到他或她自己。
另一音频输出模块(未示出)可以额外地设置在后壳体100-2上。后壳体100-2上的音频输出模块可以与前壳体100-1上的音频输出模块153一起实现立体声功能。后壳体100-2上的音频输出模块还可以在免提模式中使用。
接口单元170可以用作允许移动终端100通过固定线或者无线地与外部设备交换数据的通道。
除了用于通话通信的天线之外,广播信号接收天线可以设置在前或后壳体100-1或100-2的一侧上。广播信号接收天线可以被安装成能够从前或后壳体100-1或100-2伸出。
电源单元190可以安装在后壳体100-2上,并且可以给移动终端100供电。电源单元190可以是例如能够可拆卸地结合至后壳体100-2以进行充电的可充电蓄电池。
第二相机121b和上述设置在后壳体100-2上的其他元件可以设置在前壳体100-1上。另外,第一相机121a可以被配置成可旋转的,并且从而允许在多个方向上进行图像捕捉。在这种情况下,第二相机121b是可选的。
在本发明的示例性实施例中,可以根据用户的主导眼校正是其中能够感测用于选择立体3D图像的触摸的存在和位置的区域的触摸感测区域。如果用户的右眼是主导眼,则意味着用户是惯用右眼的人,与从左眼接收的视觉信号相比,其更多地依赖从右眼接收的视觉信号。如果用户的左眼是主导眼,则意味着用户是惯用左眼的人,与从右眼接收的视觉信号相比,其更多地依赖从左眼接收的视觉信号。如果用户的左眼和右眼都是主导的,则意味着用户是惯用双眼的。统计表明,约80%的人是惯用右眼的,并且其余是惯用左眼或惯用双眼的。
能够通过下面所述的方式容易地确定他或她是惯用左眼、惯用右眼还是惯用双眼的:用拇指和食指形成三角形,双眼睁开通过三角形观看有一段距离的对象,并且然后在不移动手的情况下闭上一只眼。然后,如果对象仍然可以看到,则睁开的眼是主视的。如果对象看起来消失在手指之后,则闭上的眼是主视的。
3D成像是用于在图像中创建深度的错觉并且从而给观看者提供现实的生动感觉的技术。两眼相互分离约65mm。从而,当给两眼中的每个呈现世界的不同2D图像时,2D图像被投影至两眼的视网膜上,并且大脑使用由于两眼的水平分离而导致的并且是当设计3D显示设备时应考虑的最重要因素之一的双眼像差从2D视网膜图像提取深度。
存在显示3D图像的各种方法,诸如,立体显示方法,其是使用眼镜显示3D图像的方法;自动立体显示方法,其是在不使用眼镜的情况下显示3D图像的方法并且还被称为裸眼3D;以及投影方法,其使用全息摄影术。立体显示方法通常在家庭电视机中使用,并且自动立体显示方法通常在移动终端中使用。
自动立体显示方法的示例包括但不限于柱状透镜显示方法、视差屏障方法和视差照明方法。柱状透镜显示方法包括在显示左眼图像和右眼图像的设备前面使用一片半球形柱状透镜。视差屏障显示方法包括通过视差屏障投影左眼图像和右眼图像。视差照明方法包括将照明板放在LCD后面,以使像素的交错列对左眼和右眼可见。除了在此阐述的那些,使用能够产生三维感觉的多种因素,对各种立体3D成像技术进行了研究。
图4是示出根据本发明的示例性实施例的控制移动终端的操作的方法的流程图。参考图4,如果响应于例如用户命令选择用于校正用于立体3D图像的触摸感测区域的3D触摸设置模式(S200),则控制器180可以使用左眼图像和右眼图像之间的双眼像差在显示模块151上显示立体3D图像(S205)。立体3D图像可以是圆形、十字、触摸键和图标的图像。
此后,如果从显示模块151检测到用于选择立体3D图像的触摸输入(S210),则控制器180可以确定触摸输入的检测的点是落入显示右眼图像的区域(以下称为右眼图像区域),落入显示左眼图像的区域(以下称为左眼图像区域),还是落入左眼图像和右眼图像区域的重叠区域(S215)。此后,控制器180可以基于在操作S215中执行的确定的结果校正触摸感测区域(S220)。
操作S215和S220可以根据用户的主导眼而不同地执行。例如,如果用户的右眼是主导眼,则用户非常可能触摸右眼图像区域。另一方面,如果用户的左眼是主导眼,则用户非常可能触摸左眼图像区域。从而,如果用户在右眼图像区域上触摸,则控制器180可以确定用户的右眼是主导眼,并且从而可以基于右眼图像区域设置新触摸感测区域。如果用户在左眼图像区域上触摸,则控制器180可以确定用户的左眼是主导眼,并且从而可以基于左眼图像区域设置新触摸感测区域。如果用户在右眼图像区域和左眼图像区域的重叠区域上触摸,则控制器180可以确定用户的左眼和右眼都是主视的,并且从而可以基于右眼图像区域和左眼图像区域的重叠区域设置新触摸感测区域。
由于即使在重复校正之后,触摸感测区域的校正的精度也不增加超过特定级别,所以触摸感测区域的校正可以仅执行预定次数(S225)。在触摸感测区域的重复校正期间,可以使用相同立体3D图像或不同立体3D图像,或者可以使用相同立体3D图像,同时改变其位置。如果用户希望不再执行触摸感测区域的校正(S225),则控制器180可以将在操作S220中执行的校正的结果存储在存储器160中(S230)。
当之后需要显示立体3D图像时,可以基于在操作S220中执行的校正的结果设置新触摸感测区域。以此方式,能够根据用户的主导眼有效地校正用于立体3D图像的触摸感测区域。
图5是示出根据本发明的另一示例性实施例的控制移动终端的操作的方法的流程图,并且特别地,示出如何为新用户设置新触摸感测区域。参考图5,当在超过预定量时间内未检测到触摸或键输入时或者当接收到锁定命令时,控制器180可以使移动终端100处于保护模式或锁定模式中(S300)。当处于锁定模式中时,移动终端100不对任何典型触摸或键输入做出响应,直到接收到用于解锁移动终端100的特定用户输入。
此后,如果从用户接收到特定用户输入(S305),则控制器180可以捕捉输入特定用户输入的人的脸的图像,并且可以使用捕捉的图像执行脸识别(S310)。如果在操作S310中执行的脸识别的结果指示输入特定用户输入的人是还没有在移动终端100中注册的新用户,则控制器180可以根据新用户的主导眼执行触摸感测区域的校正(S320)。另一方面,如果在操作S310中执行的脸识别的结果指示输入特定用户输入的人不是新用户而是已经注册的用户,则方法前进至操作S325。
更特别地,可以在独立显示屏幕上执行触摸感测区域的校正,或者可以被执行作为移动终端100的解锁的一部分。例如,用于解锁移动终端100的按钮或图标可以显示为立体3D图像。然后,如果从按钮或图标检测到触摸输入或触摸并拖拽输入,则可以确定输入触摸输入或触摸并拖拽输入的人是还没有在移动终端100中注册的新用户。此后,如果输入触摸输入或触摸并拖拽输入的人被确定为新用户,则可以执行触摸感测区域的校正。
此后,控制器180可以使移动终端100从锁定状态解除(S325)。
以此方式,当解锁移动终端100时,甚至为新用户也能够有效地校正触摸感测区域。
在该示例性实施例中,在移动终端100的解锁期间执行触摸感测区域的校正,但是本发明不限于此。即,也可以当移动终端100加电时、当执行立体3D图像相关应用时、当输入密码时、或者当执行频繁使用的功能时执行触摸感测区域的校正。
在该示例性实施例中,通过脸识别确定输入特定用户输入的人是否是新用户,并且根据脸识别的结果确定是否执行触摸感测区域的校正,但是本发明不限于此。即,假设从一个用户到另一用户,电容的改变量改变了,则基于从特定用户输入导致的电容的改变,确定输入特定用户输入的人是否是新用户。
例如,如果当显示立体3D图像的右眼图像的区域被设置为触摸感测区域时,惯用左眼的人在立体3D图像上重复地触摸,则触摸感测区域的左侧会被重复触摸。可以结合从触摸感测区域检测的每个触摸从触摸感测区域获得电容测量,并且然后可以与注册的电容值进行比较。然后,如果比较的结果指示惯用左眼的人是新用户,则可以基于电容测量的平均值自动地执行触摸感测区域的校正作为后台任务。
通过将当接收到触摸输入时检测的电容值与注册的电容值进行比较来检测新用户还可以当从菜单选择触摸感测区域校正功能时、当移动终端100被加电时、当执行立体3D图像相关应用时、当解锁移动终端100时、以及当输入密码时执行。然后,一旦检测到新用户,就可以执行用于立体3D图像的触摸感测区域的校正。更具体地,可以显示询问新用户是否执行触摸感测区域的校正的弹出菜单。然后,可以仅当新用户选择执行触摸感测区域的校正时执行触摸感测区域的校正。替代地,可以在不了解新用户的情况下通过分析由新用户输入的一个或多个触摸输入的方式执行触摸感测区域的校正作为后台任务。
图6至图11是示出如何校正触摸感测区域的示例的示意图。
图6(a)是示出立体3D图像400的示例的示意图,其基于左眼图像和右眼图像403和405之间的视差而实现。参考图6(a),显示左眼图像403的左眼图像区域和显示右眼图像405的右眼图像区域最初被设置为触摸感测区域。此后,参考图6(b),如果用户在右眼图像区域上触摸作为立体3D图像400上触摸的尝试,则控制器180确定用户的右眼是主导的。然后,参考图6(c),控制器180基于右眼图像区域设置新触摸感测区域407。
类似地,参考图7(a)和图7(b),如果用户在左眼图像区域上触摸作为立体3D图像400上触摸的尝试,则控制器180确定用户的左眼是主导的。然后,参考图7(c),控制器180基于右眼图像区域设置新触摸感测区域409。如果用户同等地主要使用双眼,则控制器180可以基于左眼图像区域和右眼图像区域的重叠区域设置新触摸感测区域。
参考图8(a)和图8(b),可以当用户在2D图像410上触摸时显示2D图像410的立体3D图像415。然后,当用户在立体3D图像415上触摸时,控制器通过将2D图像410的被触摸部分与立体3D图像415的被触摸部分进行比较来确定用户的左眼和右眼中的哪个是主导的。此后,控制器180基于确定的结果校正触摸感测区域。
参考图9,如果当立体3D图像420在特定方向上移动时,在立体3D图像420内检测到触摸423,则控制器180可以基于立体3D图像420内的触摸的检测的位置校正触摸感测区域。替代地,当通过触摸并拖拽将立体3D图像420移动至特定目标位置时,控制器180可以基于立体3D图像420内的触摸并拖拽的检测的位置校正触摸感测区域。
参考图10,如果两个立体3D图像被通过触摸并拖拽433以及触摸并拖拽435移动至特定目标位置,则触摸感测区域的校正可以通过分析两个立体3D图像内的触摸并拖拽433以及触摸并拖拽435的检测的位置来执行。
参考图11(a),当多个立体3D图像被彼此太接近地显示在显示屏幕440上时,用于多个立体3D图像的触摸感测区域可能相互重叠,如附图标记441和443所指示的,从而使得很难选择多个立体3D图像中的每一个。图11(b)示出通过基于用户的主导眼是右眼的假设来校正触摸感测区域而获得的显示屏幕450。参考图11(b),由于触摸感测区域451、453和455不相互重叠,所以能够容易地选择多个立体3D图像中的每一个。
图12至图14是示出与3D触摸设置模式结合的移动终端100的操作的示例的示意图。
参考图12(a)和图12(b),如果从“3D触摸设置”屏幕500选择“调整屏幕坐标”项503,则可以显示“调整屏幕坐标”屏幕510。然后,如果从“调整屏幕坐标”屏幕510选择“确定”项513,则可以显示用于校正触摸感测区域的显示屏幕520,如图12(c)所示。
参考图13(a)至图13(d),被标记为十字的立体3D图像的显示的位置可以从用于校正触摸感测区域的显示屏幕530的中心移动至显示屏幕530的左下侧、右下侧或右上侧。然后,可以相应地移动立体3D图像。此后,如果在立体3D图像内检测到触摸,则可以基于触摸的检测的位置校正用于立体3D图像的触摸感测区域。
参考图14,当触摸感测区域的校正完成时,可以显示示出指示保存触摸感测区域的校正的结果的消息的显示屏幕540。触摸感测区域的校正的结果能够在以后用于显示另外的立体3D图像。
图15至图18是示出如何为新用户校正触摸感测区域的示例的示意图。
参考图15(a)和图15(b),如果当移动终端100被锁定时接收到用于解锁移动终端100的用户输入,则可以使用设置在移动终端100的前面的第一相机121捕捉输入用户输入的人的脸的图像,并且可以显示示出捕捉的图像的显示屏幕610。此后,可以显示用于通过脸识别确定人是否是注册用户的显示屏幕620。脸识别可以通过分析如附图标记623所指示的捕捉的图像中的眼睛的位置来执行,但是本发明不限于此。即,可以基于捕捉的图像中的鼻子或嘴的位置执行脸识别。
参考图16(a),如果人被确定为注册用户,则可以显示显示屏幕630。此后,参考图16(b),移动终端100可以在不要求校正触摸感测区域的情况下自动地解锁,并且可以显示当移动终端100解锁时能够显示的显示屏幕650。
另一方面,参考图17(a),如果人被确定为还没有在移动终端100中注册的新用户,则可以显示用于校正触摸感测区域的显示屏幕640。然后,当触摸感测区域的校正完成时,可以显示显示屏幕650,如图17(b)所示。
可以不仅通过脸识别而且通过当从显示模块151检测到触摸时测量的电容值的分析来执行新用户的检测。替代地,用于解锁移动终端100的“解锁”图标可以显示为立体3D图像。然后,如果“解锁”图标被触摸并且拖拽,则可以通过分析人触摸的“解锁”图标的部分来确定触摸并拖拽“解锁”图标的人是否是还没有注册的新用户。
参考图18,可以将用于输入密码的“输入密码”屏幕700上的数字图标显示为立体3D图像。然后,当用户通过使用数字图标输入密码时,可以分析用户触摸以输入密码的数字图标的部分,并且可以仅当分析的结果指示用户还没有在移动终端100中注册时自动地执行触摸感测区域的校正。也可以当触摸用于执行警报功能或消息发送服务、或者发起、接收或结束通话的图标或触摸键时,或者当触摸菜单或应用程序图标时执行触摸感测区域的校正。
简而言之,可以根据移动终端100的操作有效地执行触摸感测区域的校正而不要求专用于其的菜单或显示屏幕。
根据本发明的移动终端和根据本发明的控制移动终端的操作的方法不限于在此所述的示例性实施例。从而,在此描述的示例性实施例的变化和组合可以落入本发明的范围内。
本发明能够被实现为能够由在移动终端中包括的处理器读取并且能够被写入到计算机可读记录介质的代码。计算机可读记录介质可以是其中以计算机可读的方式存储数据的任何类型的记录设备。计算机可读记录介质的示例包括ROM、RAM、CD-ROM、磁带、软盘、光学数据存储、以及载波(例如通过互联网的数据传输)。计算机可读记录介质能够通过连接到网络的多个计算机系统分发从而计算机可读代码被写入到其中并且以分布式方式从其执行。本领域技术人员能够容易地诠释实现各种实施例所需的功能程序、代码以及代码段。
如上所述,根据本发明,能够根据用户的主导眼是右眼、左眼还是双眼来有效地校正用于立体3D图像的触摸感测区域。从而,能够根据在立体3D图像内检测到的触摸来防止移动终端故障。
虽然已经参考本发明的示例性实施例特别地示出和描述了本发明,但是本领域技术人员将理解,在不偏离如以下权利要求限定的本发明的精神和范围的情况下,能够在此进行形式上和细节上的各种改变。

Claims (12)

1.一种控制移动终端的操作的方法,所述方法包括:
利用左眼图像和右眼图像之间的视差,在所述移动终端的显示模块上显示立体三维图像,其中,所述右眼图像显示在第一区域中,所述左眼图像显示在第二区域中,并且所述左眼图像和所述右眼图像的重叠区域是第三区域;
接收所述立体三维图像内的触摸输入;
确定所述触摸输入在所述第一区域、所述第二区域和所述第三区域三者中的哪一个之内被接收;
根据接收的触摸输入的位置校正所述显示模块上的触摸感测区域,其中,所述触摸感测区域接收用于选择所述立体三维图像的触摸;以及
基于所校正的触摸感测区域设置新触摸感测区域,
其中,如果所述触摸输入的位置是在所述第一区域内接收的,则主导眼被确定为用户的右眼,并且基于所述第一区域设置所述新触摸感测区域,
如果所述触摸输入的位置是在所述第二区域内接收的,则主导眼被确定为用户的左眼,并且基于所述第二区域设置所述新触摸感测区域,以及
如果所述触摸输入的位置是在所述第三区域内接收的,则用户的双眼被确定为是主导的,并且基于所述第三区域设置所述新触摸感测区域。
2.根据权利要求1所述的方法,进一步包括:
在所述移动终端的存储器中存储所述新触摸感测区域。
3.根据权利要求1所述的方法,其中,校正所述触摸感测区域包括在以下情况之一发生时校正所述触摸感测区域:
三维触摸设置模式被执行;
所述移动终端通电;
所述移动终端被解锁;
立体三维图像相关应用被执行;以及
密码被输入。
4.根据权利要求1所述的方法,进一步包括:
在特定方向上移动所述显示模块上的所述立体三维图像的位置。
5.一种移动终端,包括:
用于利用左眼图像和右眼图像之间的视差在所述移动终端的显示模块上显示立体三维图像的装置,其中,所述右眼图像显示在第一区域中,所述左眼图像显示在第二区域中,并且所述左眼图像和所述右眼图像的重叠区域是第三区域;
用于接收所述立体三维图像内的触摸输入的装置;
用于确定所述触摸输入在所述第一区域、所述第二区域和所述第三区域三者中的哪一个之内被接收的装置;
用于根据接收的触摸输入的位置校正所述显示模块上的触摸感测区域的装置,其中,所述触摸感测区域接收用于选择所述立体三维图像的触摸;以及
用于基于所校正的触摸感测区域设置新触摸感测区域的装置,
其中,如果所述触摸输入的位置是在所述第一区域内接收的,则主导眼被确定为用户的右眼,并且基于所述第一区域设置所述新触摸感测区域,如果所述触摸输入的位置是在所述第二区域内接收的,则主导眼被确定为用户的左眼,并且基于所述第二区域设置所述新触摸感测区域,以及如果所述触摸输入的位置是在所述第三区域内接收的,则用户的双眼被确定为是主导的,并且基于所述第三区域设置所述新触摸感测区域。
6.根据权利要求5所述的移动终端,还包括:
用于存储新触摸感测区域的装置。
7.一种控制移动终端的操作的方法,所述方法包括:
把所述移动终端切换至锁定模式;
在所述移动终端的显示模块上显示用于解锁所述移动终端的作为立体三维图像的对象;
从所显示的三维对象接收用于解锁所述移动终端的触摸输入;
确定提供所述触摸输入的用户是否已经在所述移动终端中注册;以及
如果所述用户还没有在所述移动终端中注册,则根据新用户的主导眼校正所述显示模块上的触摸感测区域并且使所述移动终端从所述锁定模式解除,
其中,所述触摸感测区域接收用于选择立体三维(3D)图像的触摸,以及
其中,所述用户已经在所述移动终端中注册的确定是基于结合所述触摸输入获得电容测量与注册的电容值的比较的结果做出的,
其中,所述的校正所述显示模块上的触摸感测区域包括:
利用左眼图像和右眼图像之间的视差,在所述移动终端的显示模块上显示立体三维图像,其中,所述右眼图像显示在第一区域中,所述左眼图像显示在第二区域中,并且所述左眼图像和所述右眼图像的重叠区域是第三区域;
接收所述立体三维图像内的触摸输入;
确定所述触摸输入是在所述第一区域、所述第二区域和所述第三区域三者中的哪一个之内被接收的;
根据接收的触摸输入的位置校正所述显示模块上的触摸感测区域;以及
基于所校正的触摸感测区域设置新触摸感测区域,
其中,如果所述触摸输入的位置是在所述第一区域内接收的,则主导眼被确定为用户的右眼,并且基于所述第一区域设置所述新触摸感测区域,如果所述触摸输入的位置是在所述第二区域内接收的,则主导眼被确定为用户的左眼,并且基于所述第二区域设置所述新触摸感测区域,以及如果所述触摸输入的位置是在所述第三区域内接收的,则用户的双眼被确定为是主导的,并且基于所述第三区域设置所述新触摸感测区域。
8.根据权利要求7所述的方法,进一步包括:
如果用户已经在所述移动终端中注册,则在不校正所述触摸感测区域的情况下使所述移动终端从所述锁定模式解除。
9.根据权利要求7所述的方法,其中,通过对所述移动终端所关联的相机捕捉的用户的脸的图像执行脸识别来进行关于用户已经在所述移动终端中注册的确定。
10.根据权利要求7所述的方法,其中,所述的确定提供所述触摸输入的用户是否已经在所述移动终端中注册的步骤进一步包括:
在所述显示模块上把“解锁”按钮显示为立体三维图像;以及
基于所述“解锁”按钮被触摸的位置确定用户是否已经在所述移动终端中注册。
11.根据权利要求7所述的方法,进一步包括:
在所述显示模块上显示用于选择是否执行所述触摸感测区域的校正的菜单。
12.根据权利要求7所述的方法,其中,校正所述触摸感测区域包括:执行所述触摸感测区域的校正作为后台模式。
CN201110221190.6A 2010-07-29 2011-07-29 移动终端和控制移动终端的操作的方法 Expired - Fee Related CN102346642B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020100073611A KR101709497B1 (ko) 2010-07-29 2010-07-29 휴대 단말기 및 그 동작 제어방법
KR10-2010-0073611 2010-07-29

Publications (2)

Publication Number Publication Date
CN102346642A CN102346642A (zh) 2012-02-08
CN102346642B true CN102346642B (zh) 2015-06-17

Family

ID=44650799

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110221190.6A Expired - Fee Related CN102346642B (zh) 2010-07-29 2011-07-29 移动终端和控制移动终端的操作的方法

Country Status (4)

Country Link
US (1) US8878822B2 (zh)
EP (1) EP2413225B1 (zh)
KR (1) KR101709497B1 (zh)
CN (1) CN102346642B (zh)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8836777B2 (en) 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
US20130057573A1 (en) * 2011-09-02 2013-03-07 DigitalOptics Corporation Europe Limited Smart Display with Dynamic Face-Based User Preference Settings
KR20130008334A (ko) * 2011-07-12 2013-01-22 삼성전자주식회사 입체 영상 표시 제어를 위한 주시각 제어 방법 및 이를 지원하는 단말기
KR101941644B1 (ko) * 2011-07-19 2019-01-23 삼성전자 주식회사 휴대 단말기의 피드백 제공 방법 및 장치
US10489570B2 (en) * 2011-09-09 2019-11-26 Google Llc Preventing computing device from timing out
US20130120398A1 (en) * 2011-11-10 2013-05-16 Psion Inc. Input device and method for an electronic apparatus
US8884928B1 (en) * 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays
KR101872865B1 (ko) * 2012-03-05 2018-08-02 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
US9215448B2 (en) * 2013-01-31 2015-12-15 Here Global B.V. Stereo panoramic images
KR102080183B1 (ko) * 2013-04-18 2020-04-14 삼성전자주식회사 전자 장치 및 전자 장치에서 잠금 해제 방법
JP6202874B2 (ja) * 2013-04-24 2017-09-27 株式会社東芝 電子機器、キャリブレーション方法およびプログラム
CN103268191B (zh) * 2013-06-06 2016-11-23 百度在线网络技术(北京)有限公司 移动终端的解锁方法、装置和移动终端
EP2866165B1 (en) * 2013-10-28 2018-12-05 LG Electronics Inc. -1- Mobile terminal and controlling method thereof
US10083288B2 (en) * 2014-03-25 2018-09-25 Sony Corporation and Sony Mobile Communications, Inc. Electronic device with parallaxing unlock screen and method
TW201545125A (zh) * 2014-05-30 2015-12-01 Utechzone Co Ltd 門禁裝置及其註冊系統與方法
SE539741C2 (en) * 2014-09-30 2017-11-14 Tokon Security Ab Method for providing information from an electronic device to a central server
KR102409903B1 (ko) 2015-12-09 2022-06-16 삼성전자주식회사 사용자 정보를 제공하는 전자 장치 및 방법
CN105718887A (zh) * 2016-01-21 2016-06-29 惠州Tcl移动通信有限公司 基于移动终端摄像头实现动态捕捉人脸摄像的方法及系统
DE102016210288A1 (de) * 2016-06-10 2017-12-14 Volkswagen Aktiengesellschaft Bedienvorrichtung mit Eyetrackereinheit und Verfahren zum Kalibrieren einer Eyetrackereinheit einer Bedienvorrichtung
CN106250276A (zh) * 2016-07-19 2016-12-21 努比亚技术有限公司 一种移动终端及其控制方法
US20180329492A1 (en) * 2017-05-09 2018-11-15 Microsoft Technology Licensing, Llc Parallax correction for touch-screen display
US10748244B2 (en) * 2017-06-09 2020-08-18 Samsung Electronics Co., Ltd. Systems and methods for stereo content detection
US10457118B2 (en) * 2017-10-12 2019-10-29 Ford Global Technologies, Llc Vehicle and vehicle cooling system
JP6904431B2 (ja) * 2017-11-09 2021-07-14 ソニーグループ株式会社 情報処理装置、プログラム及び情報処理方法
KR102476619B1 (ko) * 2018-01-31 2022-12-12 삼성전자주식회사 전자 장치 및 이의 제어 방법
KR20220036679A (ko) * 2020-09-16 2022-03-23 삼성전자주식회사 증강 현실 콘텐츠를 제공하는 전자 장치 및 그의 동작 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1472981A (zh) * 2002-07-04 2004-02-04 ���չ�˾ 具备立体图像显示功能的信息设备
CN1496177A (zh) * 2002-09-17 2004-05-12 ������������ʽ���� 具有二维和三维显示功能的电子设备
CN101404681A (zh) * 2007-10-04 2009-04-08 Lg电子株式会社 用于再现移动终端的视频的装置和方法
US7593000B1 (en) * 2008-05-17 2009-09-22 David H. Chin Touch-based authentication of a mobile device through user generated pattern creation

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69422323T2 (de) * 1993-04-01 2000-06-21 Ibm Dynamische Anpassungseinrichtung für Berührungsanzeigeknöpfe
US6064354A (en) 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US7893920B2 (en) * 2004-05-06 2011-02-22 Alpine Electronics, Inc. Operation input device and method of operation input
JP4274997B2 (ja) 2004-05-06 2009-06-10 アルパイン株式会社 操作入力装置および操作入力方法
JP2008219788A (ja) * 2007-03-07 2008-09-18 Toshiba Corp 立体画像表示装置、方法およびプログラム
KR20090060698A (ko) * 2007-12-10 2009-06-15 한국전자통신연구원 가상 멀티 터치 스크린을 이용한 인터페이스 장치 및 그제어 방법
KR101517967B1 (ko) 2008-07-07 2015-05-06 엘지전자 주식회사 휴대 단말기 및 그 제어방법
JP4657331B2 (ja) * 2008-08-27 2011-03-23 富士フイルム株式会社 3次元表示時における指示位置設定装置および方法並びにプログラム
KR101001609B1 (ko) 2008-12-23 2010-12-17 전자부품연구원 하수를 이용한 수력 발전 시스템의 임펠러 세정 장치 및 방법
JP5117418B2 (ja) * 2009-01-28 2013-01-16 株式会社東芝 情報処理装置及び情報処理方法
CN201392537Y (zh) 2009-03-06 2010-01-27 上海凌锐信息技术有限公司 一种人体电容和笔迹识别相结合的生物识别装置
US8232990B2 (en) * 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1472981A (zh) * 2002-07-04 2004-02-04 ���չ�˾ 具备立体图像显示功能的信息设备
CN1496177A (zh) * 2002-09-17 2004-05-12 ������������ʽ���� 具有二维和三维显示功能的电子设备
CN101404681A (zh) * 2007-10-04 2009-04-08 Lg电子株式会社 用于再现移动终端的视频的装置和方法
US7593000B1 (en) * 2008-05-17 2009-09-22 David H. Chin Touch-based authentication of a mobile device through user generated pattern creation

Also Published As

Publication number Publication date
CN102346642A (zh) 2012-02-08
EP2413225A2 (en) 2012-02-01
US8878822B2 (en) 2014-11-04
KR20120032062A (ko) 2012-04-05
KR101709497B1 (ko) 2017-02-23
EP2413225B1 (en) 2018-12-26
EP2413225A3 (en) 2012-12-19
US20120027267A1 (en) 2012-02-02

Similar Documents

Publication Publication Date Title
CN102346642B (zh) 移动终端和控制移动终端的操作的方法
USRE48677E1 (en) Mobile terminal and control method thereof
CN102445989B (zh) 移动终端及其操作控制方法
KR101708696B1 (ko) 휴대 단말기 및 그 동작 제어방법
CN102479052B (zh) 移动终端及其操作控制方法
CN103914210B (zh) 移动终端以及控制移动终端的操作的方法
KR101729026B1 (ko) 휴대 단말기 및 그 동작 제어방법
KR101252169B1 (ko) 휴대 단말기 및 그 동작 제어방법
KR101735612B1 (ko) 휴대 단말기 및 그 동작 제어방법
CN102411474B (zh) 移动终端及控制移动终端的操作的方法
KR20120048397A (ko) 휴대 단말기 및 그 동작 제어방법
KR20100050318A (ko) 플렉서블 디스플레이를 구비하는 휴대 단말기 및 그 제어방법
EP2432238A2 (en) Mobile terminal and method for controlling operation of the mobile terminal
KR20130085542A (ko) 이동 단말기 및 그 동작 방법
KR20120021986A (ko) 휴대 단말기 및 그 동작 제어방법
KR101694172B1 (ko) 휴대 단말기 및 그 동작 제어방법
KR101685338B1 (ko) 휴대 단말기 및 그 동작 방법
KR20120048396A (ko) 휴대 단말기 및 그 동작 제어방법
KR102018656B1 (ko) 휴대 단말기의 동작 방법
KR20120130496A (ko) 휴대 단말기 및 그 동작방법
KR20130066337A (ko) 휴대 단말기 및 그 동작방법
KR20130059136A (ko) 이동 단말기 및 그 동작 방법
KR20130066338A (ko) 휴대 단말기 및 그 동작방법
KR20130064416A (ko) 이동 단말기 및 그것의 제어 방법
KR20120111755A (ko) 휴대 단말기 및 그 동작 제어방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150617

Termination date: 20190729

CF01 Termination of patent right due to non-payment of annual fee