CN103853329A - 移动终端及其控制方法 - Google Patents

移动终端及其控制方法 Download PDF

Info

Publication number
CN103853329A
CN103853329A CN201310656704.XA CN201310656704A CN103853329A CN 103853329 A CN103853329 A CN 103853329A CN 201310656704 A CN201310656704 A CN 201310656704A CN 103853329 A CN103853329 A CN 103853329A
Authority
CN
China
Prior art keywords
user
mobile terminal
posture
controller
eyes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310656704.XA
Other languages
English (en)
Other versions
CN103853329B (zh
Inventor
金昇希
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of CN103853329A publication Critical patent/CN103853329A/zh
Application granted granted Critical
Publication of CN103853329B publication Critical patent/CN103853329B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/40Circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer

Abstract

本发明涉及一种移动终端及其控制方法,其促进了使用用户的眼睛和姿势控制移动终端并且最小化用于操纵移动终端的用户的触摸输入。本发明包括相机、麦克风、显示单元、以及控制器,该控制器确定显示单元上的由用户的眼睛面向的位置,该控制器如果确定被显示在被确定的位置上的对象,则对该对象执行与经由麦克风识别的语音和经由相机拍摄的姿势中的至少一个相对应的功能。

Description

移动终端及其控制方法
技术领域
本发明涉及一种移动终端,并且更加特别地,涉及一种移动终端及其控制方法。虽然本发明适合于广范围的应用,但是其特别地适合于识别用户的眼睛和姿势并且然后响应于被识别的眼睛和姿势执行控制。
背景技术
移动终端是可以被配置成执行多种功能的装置。这些功能的示例包括:数据和语音通信;经由相机捕捉图像和视频;记录音频;经由扬声器系统播放音乐文件和输出音乐;以及在显示器上显示图像和视频。一些终端包括支持玩游戏的另外功能,而其他终端也被配置为多媒体播放器。近来,移动终端已经被配置成接收广播和多播信号,其允许观看诸如视频和电视节目的内容。
通常,终端能够根据它们的(例如,易于)移动的程度,而被分类为移动终端和固定终端。此外,根据便携方式,能够将移动终端进一步分类为手持终端和车载终端。
为了支持和增加移动终端的功能性正在进行努力。这样的努力包括软件和硬件的改进,以及在形成移动终端的结构组件中的变化和改进。
最近,对研究和开发在使用移动终端的相机识别用户的眼睛的技术做出许多努力。因此,对于响应于用户的眼睛的识别和通过移动终端检测到的用户的姿势更加方便地控制移动终端的方法的需求不断增长。
发明内容
因此,本发明的实施例涉及一种移动终端及其控制方法,其实质上避免由于现有技术的限制和缺点造成的一个或者多个问题。
本发明的一个目的是为了提供一种移动终端及其控制方法,通过其使用用户的眼睛和姿势能够促进移动终端的控制。
本发明的另一目的是为了提供一种移动终端及其控制方法,通过其以最小化用户的触摸输入的方式能够方便地控制移动终端。
在本文的公开以及附图中将阐述本发明的另外的优点、目的和特征。本领域内的技术人员也可以基于本文的公开理解这样的方面。
为了实现这些目的和其它的优点并且根据本发明的用途,如在此实施和广泛地描述的,根据本发明的移动终端可以包括:相机;麦克风;显示单元;以及控制器,该控制器确定显示单元上的由用户的眼睛面向的位置;控制器,如果确定被显示在被确定的位置上的对象,则对对象执行与经由麦克风识别的语音和经由相机拍摄的姿势中的至少一个相对应的功能。
优选地,控制器根据在用户的眼睛被保持在对象上期间的时间以被视觉地可识别的方式显示被显示在位置上的对象。
优选地,如果多个对象被显示在位置上时,则控制器控制多个对象以被相互视觉地可识别的方式显示。
更加优选地,如果从麦克风接收选择多个对象中的至少一个的输入,则控制器对所选择的对象执行功能。
优选地,如果对象被确定,则控制器控制指示符以被显示在显示单元上。在这样的情况下,该指示符指示能够对对象执行与语音和姿势中的至少一个相对应的功能。
优选地,移动终端进一步包括用户输入单元和存储器。在这样的情况下,当不能够对对象执行与语音和姿势中的至少一个相对应的功能时,如果接收到新的语音和新的姿势输入中的至少一个并且对被显示在显示单元上的对象执行与经由用户输入单元接收到的输入相对应的功能,则控制器控制对对象执行的功能以及接收的新的语音或者姿势输入的历史以被彼此相关的方式保存在存储器中。
更加优选地,当对对象能够执行与语音和姿势输入中的至少一个相对应的功能时,控制器显示对对象执行的功能以及接收到的新的语音和新的姿势输入中的至少一个的历史的列表。在这样的情况下,功能和历史被保存在存储器中。
优选地,当能够对对象执行与语音和姿势输入中的至少一个相对应的功能时,控制器确定由用户的眼睛面向的新位置。此外,如果确定除了该对象之外的不同对象被显示在被确定的位置上时,则控制器对该对象和不同的对象执行与语音和姿势中的至少一个相对应的功能。
在本发明的另一方面中,一种根据本发明的控制移动终端的方法可以包括下述步骤:在显示单元上显示对象;确定显示单元上的由用户的眼睛面向的位置;确定被显示在被确定的位置上的对象;以及对对象执行与经由麦克风识别的语音和经由相机拍摄的姿势中的至少一个相对应的功能。
在本发明的又一方面中,根据本发明的记录介质可以包括被加载在其上的软件,软件包括第一命令,该第一命令用于在显示单元上显示对象;第二命令,该第二命令用于确定显示单元上的由用户的眼睛面向的位置;第三命令,该第三命令用于确定被显示在被确定的位置上的对象;以及第四命令,该第四命令用于对对象执行与经由麦克风识别的语音和经由相机拍摄的姿势中的至少一个的功能。
可从本发明获得的效果可以不限于上述效果。本发明所属领域的普通技术人员能够从下文说明中,清楚地理解其他未提及的效果。
应理解,本发明的上述大致说明和以下的详细说明都是示例性的和解释性的,并且旨在提供如所要求保护的本发明的进一步解释。
附图说明
被包括以提供本发明的进一步理解且被包含并构成本申请的一部分的附图图示本发明的一个或多个实施例,并且和说明一起用于解释本发明的原理。当结合附图考虑下文优选实施例的说明,本发明的上述和其他方面、特征和优点将更加显而易见。在附图中:
图1是根据本发明的一个实施例的移动终端的框图;
图2是根据本发明的一个实施例的移动终端的前透视图;
图3是用于根据本发明的一个实施例的通过跟踪用户的瞳孔控制能够识别由用户注视的对象的移动终端的方法的一个示例的图;
图4是用于根据本发明的一个实施例的使用跟踪用户的瞳孔的功能控制移动终端的方法的流程图;
图5是用于通过用户的眼睛识别被显示在根据本发明的一个实施例的移动终端上的对象并且通过语音控制对象的屏幕的一个示例的图;
图6是用于通过用户的眼睛识别被显示在根据本发明的一个实施例的移动终端上的对象并且通过姿势控制对象的屏幕的一个示例的图;
图7是用于根据本发明的一个实施例的选择在用户的眼睛可识别的区域中存在的多个对象中的一个的方法的一个示例的图;
图8是用于根据本发明的一个实施例的用于当用户的眼睛移动时取消通过用户的眼睛选择的对象的选择的屏幕的一个示例的图;
图9是用于根据本发明的一个实施例的用于根据用户的眼睛选择多个对象的屏幕的一个示例的图;
图10是用于根据本发明的一个实施例的在进入姿势模式之后通过用户的眼睛附加地选择对象的一个示例的图;
图11是用于根据本发明的一个实施例的在进入姿势模式之后通过用户的眼睛取消姿势模式的方法的一个示例的图;
图12是用于根据本发明的一个实施例的通过将用户的眼睛移动识别为姿势执行与对象有关的控制的屏幕的一个示例的图;
图13是用于执行与当根据本发明的一个实施例的移动终端识别用户的姿势时显示的文本有关的控制的屏幕的一个示例的图;
图14是用于根据本发明的一个实施例的设置用户的姿势并且与用户的姿势有关的控制操作的方法的流程图;
图15是用于根据本发明的一个实施例的用于设置姿势的方法的一个示例的图;
图16是用于根据本发明的一个实施例的用于在已经保存与被指定的操作相关联的姿势之后在移动终端的姿势模式下执行被指定的操作的方法的一个示例的图;以及
图17是用于根据本发明的一个实施例的用于在执行姿势之后进入的姿势模式下执行操作的方法的一个示例的图。
具体实施方式
在下文详细说明中,参考形成本发明一部分的附图,并且附图通过图示本发明的特定实施例的形式示出。本领域普通技术人员应理解,在不偏离本发明的范围的情况下,可利用其他实施例,并且可做出结构性、电和过程上的改变。只要可能,贯穿附图,将使用相同的附图标记指示相同或类似的部分。
如在此所使用的,对元件使用后缀“模块”、“单元”和“部分”,仅仅是为了便于公开。因此,不向后缀本身赋予重要含义或作用,应理解,“模块”、“单元”和“部分”能够一起使用或互换使用。
本发明实施例的特征可应用于各种终端。这种终端的示例包括移动终端,诸如移动电话、用户设备、智能电话、移动计算机、数字广播终端、个人数字助理、便携式多媒体播放器(PMP)和导航仪。然而,仅作为非限制性示例,关于移动终端100将进一步进行说明,并且应注意,这样的教导可同样应用于其他类型的终端,诸如数字TV、桌上型计算机等等。
图1是根据本发明的实施例的移动终端100的框图。图1示出,根据本发明的实施例的移动终端100包括无线通信单元110、A/V(音频/视频)输入单元120、用户输入单元130、感测单元140、输出单元150、存储器160、接口单元170、控制器180、电源单元190等等。图1示出具有各种组件的移动终端100,但是应理解,不要求实现全部所示组件。可根据各种实施例实现更多或更少的组件。
无线通信单元110通常包括一个或多个允许在移动终端100和移动终端100所位于的无线通信系统或网络之间进行无线通信的组件。例如,无线通信单元110能够包括广播接收模块111、移动通信模块112、无线互联网模块113、短程通信模块114、位置定位模块115等等。
广播接收模块111经由广播频道从外部广播管理服务器接收广播信号和/或广播相关信息。广播频道可包括卫星频道和陆地频道。能够在移动终端100中提供至少两个广播接收模块111,以促进同时接收至少两个广播频道或广播频道切换。
广播管理服务器通常是产生和传送广播信号和/或广播相关信息的服务器,或者是设有先前产生的广播信号和/或广播相关信息,然后将所提供的信号或信息传送至终端的服务器。广播信号可实现为处了其他信号之外的TV广播信号、无线电广播信号和/或数据广播信号。视需要,广播信号还可包括与TV或无线电广播信号组合的广播信号。
广播相关信息包括与广播频道、广播节目或广播服务提供商相关联的信息。此外,能够经由移动通信网络提供广播相关信息。在该情况下,能够由移动通信模块112接收广播相关信息。
广播相关信息能够以各种形式实现。例如,广播相关信息可包括数字多媒体广播(DMB)的电子节目指南(EPG)和手持数字视频广播(DVB-H)的电子服务指南(ESG)。
广播接收模块111可被配置为接收从各种类型的广播系统传送的广播信号。通过非限制性示例,这样的广播系统包括:陆地数字多媒体广播(DMB-T);卫星数字多媒体广播(DMB-S);手持数字视频广播(DVB-H);广播和移动服务融合(DVB-CBMS);开放移动联盟—广播(OMA-BCAST);中国多媒体移动广播(CMMB);移动广播业务管理系统(MBBMS);被称为仅媒体前向链路
Figure BDA0000431600940000072
的数据广播系统;以及陆地集成服务数字广播(ISDB-T)。可选地,能够将广播接收模块111配置为适合于其他广播系统,以及上述数字广播系统。
可将广播接收模块111接收的广播信号和/或广播相关信息存储在诸如存储器160的适当的装置中。
移动通信模块112经由诸如GSM(全球移动通信系统)、CDMA(码分多址)、WCDMA(宽带CDMA)等等的移动网络将无线信号传送至一个或多个网络实体(例如,基站、外部终端、服务器等等)/从一个或多个网络实体接收无线信号。这样的无线信号可代表除了其他的之外的音频、视频和根据文本/多媒体消息收发的数据等。
无线互联网模块113支持用于移动终端100的互联网接入。该模块可整体或外部地耦合至移动终端100。在该情况下,无线互联网技术能够包括WLAN(无线LAN)(Wi-Fi)、Wibro(无线宽带)、Wimax(全球微波接入互通技术)、HSDPA(高速下行链路分组接入)、GSM、CDMA、WCDMA、LTE(长期演进)等等。
通过Wibro、HSDPA、GSM、CDMA、WCDMA、LTE等的无线互联网接入经由移动通信网络来实现。在这方面,被配置为经由无线通信网络执行无线互联网接入的无线互联网模块113可以被理解为一种移动通信模块112。
短程通信模块114促进相对短程通信。实现该模块的适当技术包括NFC(近场通信)、射频识别(RFID)、红外数据协会(IrDA)、超宽带(UWB)、以及通常称为蓝牙和紫蜂(ZigBee)的网络技术,等等。
位置定位模块115识别或以其他方式获得移动终端100的位置。视需要,可通过全球定位系统(GPS)模块实现该模块。
根据当前技术,GPS模块115能够通过计算来自至少三颗卫星的距离信息和精确的时间信息,然后向所计算的信息应用三角测量,基于经度、纬度和高度以及方向(或取向)中的至少一个,来计算当前的三维位置信息。当前,使用三颗卫星计算位置和时间信息,然后使用另一颗卫星修正计算的位置定位和时间信息的误差。此外,GPS模块115还能够通过连续计算实时当前位置来计算速度信息。
参考图1,音频/视频(A/V)输入单元120被配置为向移动终端100提供音频或视频信号输入。如图所示,A/V输入单元120包括相机121和麦克风122。相机121接收和处理在视频呼叫模式或拍摄模式下,由图像传感器获得的静止图片或视频的图像帧。并且能够在显示器151上显示经处理的图像帧。
能够将相机121处理的图像帧存储在存储器160中,或者能够将其经由无线通信单元110向外部传送。可选地,根据使用环境,能够向移动终端100提供至少两个相机121。
在便携式装置处于诸如电话呼叫模式、录音模式和语音识别的特殊模式时,麦克风122接收外部音频信号。该音频信号被处理和转换为电音频数据。在呼叫模式的情形下,经由移动通信模块112将经处理的音频数据转换为可被传送至移动通信基站的格式。麦克风122通常包括配套的噪声去除算法,以去除接收外部音频信号期间产生的噪声。
用户输入单元130响应于相关的一个或多个输入装置的用户操纵而产生输入数据。这样的装置的示例包括提供到移动终端100的前/后/横向侧的按钮136和触摸传感器(恒定压力/静电)137,并且还可包括小键盘、薄膜开关、滚动轮、滚动开关等等(附图中未示出)。
感测单元140提供感测信号,用于使用移动终端的各个方面的状态测量来控制移动终端100的操作。例如,感测单元140可检测移动终端100的开/关状态、移动终端100的组件(例如,显示器和小键盘)的相对定位、移动终端100或移动终端100的组件的位置变化、用户与移动终端100接触的存在或不存在、移动终端100的取向或加速/减速。通过非限制性示例,这样的感测单元140包括陀螺仪传感器、加速传感器和地磁传感器。
作为示例,考虑将移动终端100配置为滑盖式移动终端。在该配置中,感测单元140可感测移动终端的滑动部分是否开启或闭合。其他示例包括感测由电源190提供的电力的存在或不存在、接口单元170和外部装置之间耦合或其他连接的存在或不存在的感测单元140。并且感测单元140能够包括接近传感器141。
输出单元150产生与视觉、听觉、触摸等等的感测有关的输出。并且,输出单元150包括显示器151、音频输出模块152、警告单元153和触觉模块154等等。
显示器151通常被实现为视觉地显示(输出)与移动终端100相关联的信息。例如,如果移动终端在电话呼叫模式下操作,则显示器通常将提供用户界面(UI)或图形用户界面(GUI),其包括与拨打、进行和终止电话呼叫相关联的信息。作为另一示例,如果移动终端100处于视频呼叫模式或拍摄模式中,则显示器151就可另外或可替换地显示与这些模式相关联的图像、UI或GUI。
可使用已知的显示技术实现显示模块151,这些已知的显示技术例如包括液晶显示器(LCD)、薄膜晶体管-液晶显示器(TFT-LCD)、有机发光二极管显示器(OLED)、柔性显示器和三维显示器。移动终端100可包括一个或多个这样的显示器。
上述显示器中的一些能够实现为透明或光透射式,这能够被称为透明显示器。作为透明显示器的代表性示例,存在TOLED(透明OLED)等等。显示器151的后部配置也能够以光透射式实现。在该配置中,用户能够经由终端主体的显示器151占据的区域来观察终端主体后部中的物体。
根据移动终端100的实现配置,能够向移动终端100提供至少两个显示器151。例如,能够以彼此间隔隔开,或者整体建造的方式,将多个显示器布置在移动终端100的单面上。替代地,能够将多个显示器布置在移动终端100的不同面上。
在显示器151和用于检测触摸动作的传感器(下文中称为“触摸传感器”)配置成相互层叠结构(下文中称为“触摸屏”)的情况下,能够使用显示器151作为输入装置以及输出装置。在该情况下,触摸传感器能够被配置为触摸膜、触摸片、触摸板等等。
触摸传感器能够被配置为将向显示器151的特定部分施加的压力或从显示器151的特定部分产生的电容的变化转换为电输入信号。此外,能够配置触摸传感器以检测触摸压力以及触摸位置或尺寸。
如果向触摸传感器进行触摸输入,则对应于该触摸的一个或多个信号就被传递至触摸控制器。触摸控制器处理这一个或多个信号,然后将经处理的一个或多个信号传递至控制器180。因此,控制器180能够了解是否触摸了显示器151的指定部分。
参考图1,能够向由触摸屏包围的或触摸屏周围的移动终端100的内部区域提供接近传感器141。接近传感器是使用电磁场强度或红外线而不进行机械接触来检测接近指定检测表面的物体或者在接近传感器周围存在的物体的存在或不存在。因此,接近传感器具有的耐久性比接触式传感器的耐久性长,具有的用途也比接触式传感器的用途广。
接近传感器能够包括透射光电传感器、直接反射光电传感器、镜面反射光电传感器、射频振荡接近传感器、静电电容接近传感器、磁接近传感器、红外接近传感器等等中的一种。在触摸屏包括静电电容接近传感器的情况下,其被配置为使用根据指示器的接近的电场的变化来检测指示器的接近。在该情况下,能够将触摸屏(触摸传感器)归类为接近传感器。
为了清晰和便于解释,可将使得能够将接近触摸屏的指示器识别为被放置在触摸屏上的动作称为“接近触摸”,并且将使得指示器能够实际接触触摸屏的动作称为“接触触摸”。并且,使用指示器接近接触触摸屏处的位置可意味着当指示器进行接近触摸时垂直对应于触摸屏的指示器的位置。
接近传感器检测接近触摸和接近触摸型式(例如,接近触摸距离、接近触摸持续时间、接近触摸位置、接近触摸转换状态等等)。并且,能够将对应于所检测的接近触摸动作和所检测的接近触摸型式的信息输出至触摸屏。
音频输出模块152以各种模式运行,包括呼叫接收模式、呼叫拨打模式、录音模式、语音识别模式、广播接收模式等等,以输出从无线通信单元110接收的或存储在存储器160中的音频数据。在操作期间,音频输出模块152输出关于具体功能(例如,接收的呼叫、接收的消息等等)的音频。通常使用一个或多个扬声器、蜂鸣器、其他音频发生装置及其组合实现音频输出模块152。
警告单元153输出用于宣布发生了与移动终端100相关联的特定事件的信号。典型事件包括呼叫接收事件、消息接收事件和触摸输入接收事件。警告单元153能够输出用于通过振动宣布事件发生的信号以及视频或音频信号。能够经由显示器151或音频输出单元152输出视频或音频信号。因此,能够将显示器151或音频输出模块152视为警告单元153的一部分。
触觉模块154产生能够由用户感觉的各种触觉效果。振动是由触觉模块154产生的一种代表性触觉效果。由触觉模块154产生的振动强度和型式是可控的。例如,能够以合成在一起的方式输出不同振动,或者能够依次输出不同振动。
触觉模块154能够产生各种触觉效果以及振动。例如,触觉模块154产生下列效果,其包括:归因于相对接触皮肤表面垂直移动的针的布置的效果;归因于空气通过注射/吸入孔的注射/吸入力的效果;归因于在皮肤表面上掠过的效果;归因于接触电极的效果;归因于静电力的效果;归因于使用吸热或放热装置等等表现的热/冷感觉的效果。
触觉模块154能够被实现为使得用户能够通过手指、手臂等等的肌肉感觉来感测触觉效果,以及通过直接接触传递触觉效果。可选地,根据移动终端100的对应配置类型,能够向移动终端100提供至少两个触觉模块154。
存储器单元160通常用于存储各种类型的数据,以支持移动终端100的处理、控制和存储需求。这样的数据的示例包括:用于在移动终端100上操作的应用的程序指令;联系人数据;电话本数据;消息;音频;静止图片(或照片);移动图片等等。并且能够在存储器单元160中存储每种数据的最近使用历史或累计使用频率(例如,每个电话本、每条消息或每个多媒体的使用频率)。此外,能够在存储器单元160中存储在向触摸屏进行触摸输入的情况下输出的振动和/或声音的各种型式的数据。
可使用任何类型适当的易失和非易失存储器或存储装置或其组合实现存储器160,该易失和非易失存储器或存储装置包括:硬盘;随机存取存储器(RAM);静态随机存取存储器(SRAM);电可擦可编程只读存储器(EEPROM);可擦可编程只读存储器(EPROM);可编程只读存储器(PROM);只读存储器(ROM);磁存储器;闪存;磁盘或光盘;多媒体卡微型存储器;卡式存储器(例如,SD存储器、XD存储器等等),或者其他类似的存储器或数据存储装置。并且,移动终端100能够与在互联网上执行存储器160的存储功能的网络存储器关联地操作。
接口单元170通常被实现为将移动终端100和外部装置相耦合。接口单元170从外部装置接收数据,或者被供电,然后接口单元170将数据或电力传递至移动终端100的各个元件,或者使得能够将移动终端100内的数据传递至外部装置。使用有线/无线头戴式收发器端口、外部充电器端口、有线/无线数据端口、存储器卡端口、用于耦合至具有身份模块的装置的端口、音频输入/输出端口、视频输入/输出端口、耳机端口等等来配置接口单元170。
身份模块是用于存储验证移动终端100的使用权限的各种信息的芯片,并且能够包括近场通信(NFC)芯片、用户识别模块(UIM)、订户识别模块(SIM)、全球订户识别模块(USIM)等等。能够将具有身份模块的装置(下文中称为“身份装置”)制造为智能卡。因此,身份装置经由对应的端口可连接到移动终端100。
当将移动终端110连接至外部支架时,接口单元170变为用于从支架向移动终端100供电的通道,或者变为用于将用户从支架输入的各种命令信号传递至移动终端100的通道。从支架输入的各种命令信号或者电力的每一个都能够用作使移动终端100识别到其已经被正确装载在支架中的信号。
控制器180通常控制移动终端100的整体操作。例如,控制器180执行与语音呼叫、数据通信、视频呼叫等相关联的控制和处理。控制器180可包括多媒体模块181,其提供多媒体回放。多媒体模块181可被配置为控制器180的一部分,或者被实现为单独的组件。
此外,控制器180能够执行模式(或图像)识别处理,用于将在触摸屏上执行的书写输入和图片绘画输入分别识别为字符或图像。
电源单元190向移动终端100提供各种组件所需的电力。该电力可以是内部电力、外部电力或其组合。
电池可以包括内置可再充电电池,并且可以是可拆卸地附接至终端主体,以用于充电等等。连接端口可被配置为接口170的一个示例,经由该接口电连接用于给电池充电供应电力的外部充电器。
例如,使用计算机软件、硬件或其一些组合可在计算机可读媒体中实现本文所述的各种实施例。对于硬件实施,可在一个或多个专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理器件(DSPD)、可编程逻辑器件(PLD)、现场可编程逻辑门阵列(FPGA)、处理器、控制器、微控制器、微处理器、设计用于执行本文所述功能的其他电子单元、或其选择性组合中实现本文所述的实施例。也可通过控制器180实现这样的实施例。
对于软件实施,可通过诸如过程和函数的单独的软件模块实现本文所述的实施例,该过程和函数中的每个都执行本文所述的一个或多个函数和操作。能够通过任何适当的编程语言编写的软件应用实现软件代码,并且软件代码可被存储在诸如存储器160的存储器中,并且由诸如控制器180的控制器或处理器来执行。
图2是根据本发明的一个实施例的移动终端的前透视图。
在附图中示出的移动终端100具有直板式终端主体。但是,可以以各种不同的配置实现移动终端100。此类配置的示例包括:折叠式、滑盖式、旋转式、摇摆式以及其组合。为了清楚起见,进一步的公开将主要涉及直板式移动终端100。然而,这样的教导同样适用于其它类型的移动终端。
参考图2,移动终端100包括配置其外部的壳体(外壳、外罩、盖等等)。在本实施例中,壳体能够被划分为前壳体101和后壳体102。各种电/电子部件被装载在前壳体101与后壳体102之间设置的空间中。可选地,至少一个中间壳体能够进一步被另外设置在前壳体101和后壳体102之间。
偶尔地,电子组件能够被安装在后壳体102的表面上。被安装在后壳体102的表面上的电子部件可以包括诸如电池、USIM卡、存储卡等等的可拆卸的部件。这样做时,后壳体102可以进一步包括背侧盖103,该背侧盖103被配置成覆盖后壳体102的表面。特别地,为了用户的方便背侧盖103具有可拆卸的配置。如果从后盖102拆卸背侧盖103,则后壳体102的表面被暴露。
参考图2,如果背侧盖103被附接到后壳体102,则后壳体102的横向侧可以被部分地暴露。如果背侧盖103的尺寸被减少,则后壳体102的后侧可以被部分地暴露。如果后侧盖103覆盖后壳体102的整个后侧,则其可以包括开口103’,该开口103’被配置成外部地暴露相机121’或者音频输出单元152’。
例如,壳体101和102通过合成树脂的注入成型来形成或者能够由诸如不锈钢(STS)、钛(Ti)等的金属物质来形成。
显示器151、音频输出单元152、相机121、用户输入单元130/131以及132、麦克风122、接口180等等能够被设置给终端主体,并且更加具体地,被设置给前壳体101。
显示器151占据前壳体101的主面的大部分。音频输出单元151和相机121被设置到邻近于显示器151的两个端部中的一个的区域,而用户输入单元131和麦克风122被设置到邻近于显示器151的另一个端部的另一区域。用户输入单元132和接口170能够被设置到前壳体101和后壳体102的横向侧。
输入单元130被操纵以接收用于控制终端100的操作的命令。并且,输入单元130能够包括多个操纵单元131和132。操纵单元131和132能够被称为操纵部分并且可以采用使得用户能够通过体验触觉感觉来执行操纵动作的触觉方式的任何机构。
通过第一操纵单元131或者第二操纵单元132输入的内容能够被不同地设置。例如,诸如开始、结束、滚动等等的命令被输入到第一操纵单元131。并且,用于从音频输出单元152输出的声音的音量调整的命令、用于切换到显示器151的触摸识别模式等等的命令能够被输入到第二操纵单元132。
<用户眼睛跟踪>
在根据本发明的一个实施例的移动终端控制方法中,提出一种对由用户的眼睛识别的对象执行与用户的姿势或者语音相对应的功能。为此,参考图3如下地描述确定由用户的眼睛面向的显示单元151上的位置并且然后确定被显示在被确定的位置处的对象的方法。
图3是根据本发明的一个实施例的控制能够通过追踪用户200的瞳孔识别由用户200注视的对象的移动终端100的方法的一个示例的图。在下面参考图3的描述中,假定在存储器160的相机文件夹中的图像被显示在显示单元151上。
参考图3,指示器区域310被显示在显示单元151的顶端部分上。并且,与保存在相机文件夹中的图像文件相对应的多个对象300可以被全屏显示在除了指示器区域310之外的其余区域上。
在这样的情况下,指示器区域310意指示意性地指示移动终端100的各种操作状态的区域。特别地,移动终端100的操作状态包括无线电信号的接收灵敏度、新消息的接收的存在或者不存在、语音识别模式或者姿势模式的激活或者去激活、剩余电池水平等等。
被保存在存储器160中的图像文件可以在显示单元151上以预览的形式被显示为对象300。在这样的情况下,如果存在多个图像文件,则与多个图像文件相对应的多个对象300可以被显示在显示单元151上。
并且,指示其中保存被显示的图像文件的文件夹的指示器302,和用于控制对象的菜单330可以被附加地显示在显示单元151上。例如,当用于显示图像文件的库屏幕被显示时,诸如相机激活、图像文件共享、图像文件删除等等的对象可以被显示在对象控制菜单330上。
这样做时,控制器180激活被设置给移动终端100的前侧的相机121并且然后能够通过经由相机121拍摄的用户200的脸部图像确定由用户脸部的瞳孔面向的区域320。
并且,控制器180能够确定在被显示在显示单元151上的对象当中的位于由用户200注视的区域中的对象304。
其后,控制器180通过监视来自经由相机121拍摄的图像的用户200的瞳孔和面部的移动来监视用户200的眼睛移动。
<眼睛跟踪和姿势模式进入方法>
在下面的描述中,将会参考图4解释控制通过追踪用户200的眼睛选择对象并且接收用户的输入的移动终端100的方法。
图4是根据本发明的一个实施例的使用跟踪用户的瞳孔的功能控制移动终端的方法的流程图。
参考图4,控制器180在显示单元151上显示对象[S400]。这样做时,被显示在显示单元151上的对象可以具有诸如图标、窗口小部件、文本、图像以及其组合的形式。对象可以具有从将被指定的格式的图形图像和文本组合在一起产生的形式。对象可以包括应用程序的执行文件、数据文件、或者包含数据文件的文件夹等等并且可以对应于对它们的快捷键的功能。并且,对象可以具有从修改图形图像和文本产生的形式。
对象可以被显示在背景屏幕、锁定屏幕、呼叫屏幕或者激活应用屏幕上。
随后,控制器180激活相机121[S410]。例如,在多个对象被显示在显示单元151的情况下,控制器180激活相机121并且然后能够拍摄用户200的面部图像。
对于另一实例,控制器180可以响应于热键输入、相机激活对象的选择、姿势输入等等激活相机121。特别地,如果用户200触摸移动终端100的屏幕或者应用输入以取消移动终端100的锁定状态,则控制器180可以激活相机121。
控制器180识别经由相机121拍摄的用户200的面部图像中的瞳孔,确定显示单元151上的由用户200的眼睛面向的位置,并且然后确定被显示在被确定的位置上的对象[S420]。因为瞳孔识别过程或者眼睛跟踪过程对于本领域的技术人员来说是显而易见的事情,所以从本说明书中将省略其详情。
控制器180确定用户200的眼睛是否至少在被指定的持续时间内被保持在显示单元151的在其上显示被确定的对象的位置处[S430]。例如,如果网页被显示在显示单元151上,则控制器180能够确定用户200是否在至少3秒钟期间正在注视在被显示的网页上的对象显示位置。
对于另一实例,如果屏幕被滚动,则用户200的眼睛以跟随被显示在屏幕上的对象的方式移动。如果这样,当屏幕正在被滚动时控制器180跟踪用户200的眼睛。因此,控制器180能够确定至少在被指定的持续时间内用户200的眼睛是否被保持在对象处。
如果至少在被指定的持续时间内用户200的眼睛被保持在被指定的对象处,则控制器180控制用户200的眼睛被保持所在处的对象以被视觉地区别[S440]。特别地,诸如形状变化、颜色变化等等的被指定的视觉效果被给予对象以指示用户200的眼睛是否被保持在对象处。
例如,控制器180可以控制要叠加在用户200的眼睛被保持所在处的对象上的颜色,以便于区别要与其它对象相区别的对象。这样做时,用户200的眼睛被保持所在处的对象被优选地叠加有具有高的视觉区别力的颜色。
对于另一实例,控制器180能够通过仅增加用户200的眼睛被保持所在处的对象的亮度来改进可读性。此外,控制器180能够通过减少用户200没有注视的剩余区域的亮度,来相对地改进眼睛所保持的对象,从而减少电池功率消耗。可替选地,控制器180可以控制用户200的眼睛被保持所在处的区域,以被扩大的方式被显示。
控制器180检测时间作为包括第一间隔、第二间隔等等的多个间隔,在该时间期间用户200的眼睛被保持。如果在其期间用户200的眼睛被保持在对象处的时间对应于第一间隔,则控制器180可以添加对象的第一视觉效果。如果在其期间用户200的眼睛被保持在对象处的时间对应于第二间隔,则控制器180可以添加对象的第二视觉效果。稍后将会参考图5进行描述。
随后,控制器180进入对被确定的对象执行于经由麦克风122识别的语言和经由相机121拍摄的姿势中的至少一个相对应的功能的模式[S450]。
并且,控制器180能够输出效果以指示已经进入对被确定的对象执行于经由麦克风122识别的语音和经由相机121拍摄的姿势中的至少一个相对应的功能的模式。
例如,使用音频输出模块152、报警单元153、触觉模块154等等中的至少一个,控制器180能够指示已经进入对被确定的对象执行与经由麦克风122识别的语音和经由相机121拍摄的姿势中的至少一个相对应的功能的模式。
其后,麦克风122或者相机121接收用户200的语音或者姿势[S460]并且然后对被确定的对象执行与接收到的语音或者姿势相对应的功能[S470]。
例如,麦克风122接收用户200语音并且控制器180能够对被确定的对象执行与接收到的语音相对应的功能。
对于另一示例,如果在经由相机121拍摄的图像中存在诸如用户的手等等的形状,则控制器180可以对被确定的对象执行与形状相对应的功能。
对对象执行的功能可以包括显示与对象有关的信息的功能、删除与对象有关的信息的功能、将信息传送到外部服务器或者另一移动终端100的功能、搜索信息的功能等等,本发明可没有被以上所述限制。
在下面的描述中,参考图5解释经由用户200的语音选择对象并且对所选择的对象执行有关控制的方法。根据下面的描述,通过确定显示单元151上的由用户200的眼睛面向的位置并且确定被显示在被确定的位置处的对象的前述步骤S420确定的对象被假定为由用户200的眼睛识别的对象。
图5是用于由用户200的眼睛识别被显示在根据本发明的一个实施例的移动终端100上的对象300并且由用户200的语音控制对象的屏幕的一个示例的图。
参考图5(a),多个对象300可以被显示在显示单元151上。
响应于在用户200的眼睛被保持的期间的时间,控制器180可以控制由用户200的眼睛识别的对象320以被可识别地显示。例如,如果在用户200开始凝视对象320期间的时间超过1秒钟,则控制器180可以控制对象320以整个对象320或者对象320的一部分被叠加有第一颜色的方式被显示。
这样做时,如果在用户200的眼睛被保持在对象320上期间的时间等于或者大于1秒钟并且小于3秒钟,则其被假定为第一间隔。如果在用户200的眼睛被保持期间的时间对应于第一间隔,则控制器180可以控制第一颜色以被叠加在眼睛所保持的对象320上。
参考图5(b),如果至少在被指定的持续时间内用户200将眼睛保持在对象322上,则控制器180能够进入接收用户200的输入以对对象32执行控制的模式,用户保持眼睛在该对象322上。例如,控制器180可以进入接收用户200的语音命令的模式。
这样做时,控制器180可以控制对象322以被叠加有第二颜色的方式被显示。例如,如果在用户200凝视对象322期间的时间超过3秒钟,则控制器180可以控制对象322以整个对象322或者对象322的一部分被叠加有第二颜色的方式被显示。
如果在用户200的眼睛被保持在对象322上期间的时间等于或者大于3秒钟,则其被假定为第二间隔。如果在用户200的眼睛被保持期间的时间对应于第二间隔,则控制器180可以控制第二颜色以被叠加在眼睛保持的对象322上。
此外,指示用户200的语音输入的接收是可能的指示器510(或者指南文本)和语音识别命令的菜单520可以进一步被显示在显示单元151上。
参考图5(c),控制器180能够经由麦克风122从用户200接收用于控制对象322的输入。例如,用户能够经由麦克风122输入用于从被显示在显示单元151上的菜单520删除颜色叠加对象的语音命令。如果这样,控制器180能够对所选择的对象322执行控制。
同时,虽然除了被显示在菜单520上的命令之外的命令被接收,但是如果接收到的命令匹配被保存在存储器160中的命令,则控制器180可以执行与接收到的命令有关的控制。稍后参考图14将会描述将命令保存在存储器160中的方法。
参考图5(d),如果通过用户200输入语音命令,则控制器180可以执行经由语音识别的命令。例如,如果用于删除对象的命令被输入,则控制器180从存储器160删除与选择的对象相对应的信息并且不能在显示单元151上进一步显示所删除的对象。
并且,指示对对象的控制已经被完成的指示器530可以被显示在显示单元151上。
在下面的描述中,参考图6解释选择对象并且执行与对象有关的控制的方法。
图6是用于由用户200的眼睛识别被显示在根据本发明的一个实施例的移动终端100上的对象并且通过姿势控制对象的屏幕的一个示例的图。
参考图6(a),控制器180可以控制对象322,在至少被指定的持续时间内用户200保持他的眼睛在该对象322上,以从被显示在显示单元151上的多个对象300视觉地可识别的方式被显示。
如果这样,控制器180可以控制窗口610以被显示在显示单元151[图6(b)]上,该窗口610被设置以询问是否进入接收用户200的输入以对眼睛所保持的对象322执行控制的模式,或者经由音频输出模块152使用语音进行同样的询问[图6(c)]。这样做时,语音可识别的命令的列表620可以进一步被显示在显示单元151上。
随后,参考图6(d),控制器180进入从用户200经由经由相机121拍摄的用户的姿势接收用户200的输入的模式(在下文中姿势模式)并且然后能够进一步在显示单元151上显示指示用户200的姿势输入的接收是可能的指示器632(和/或指南文本630)和用于输入用户200的姿势的命令的列表(在附图中未示出)。
在姿势模式下,相机121能够接收用户200的姿势输入。控制器180识别经由相机121拍摄的形状并且然后能够执行与被识别的形状有关的控制。
例如,如果用户200朝着相机121做出拇指向上的手的形状640[图6(e)],则控制器180能够通过识别经由相机121拍摄的手形状640并且然后执行与被识别的手形状有关的控制在对象322上显示信息650[图6(f)]。这样做时,指示与用户200的姿势的识别有关的控制已经被执行的指示符可以进一步被显示在显示单元151上。
因此,经由用户200的眼睛识别被显示在移动终端100上的对象300,并且经由语音输入或者姿势输入能够执行与被识别的对象322有关的控制。
在下面的描述中,在经由用户200的眼睛可识别多个对象的情况下,参考图7解释可识别地显示对象中的每一个的方法。
图7是用于根据本发明的一个实施例的选择在用户眼睛可识别的区域中存在的多个对象中的一个的方法的一个示例的图。
参考图7(a),当在区域710(a)(在下文中被命名第一区域)中识别用户200的眼睛时,控制器180可以控制与第一区域710(a)相邻的多个对象712、714(a)以及716以被相互视觉地可区别的方式被显示。
例如,在第一对象712、第二对象714(a)以及第三对象716中的每一个位于与第一区域相邻的情况下,控制器180可以控制第一对象712、第二对象714(a)以及第三对象716以被分别叠加有红色、绿色以及黄色的方式被显示。并且,控制器180可以控制第一对象712、第二对象714(a)以及第三对象716以分别被设有通过语音识别可选择的数字或者字符的方式被显示。
参考图7(b),如果用户200的眼睛从第一区域710(a)移向第二区域710(b),则控制器180可以控制与第二区域710(b)相邻的多个对象712、714(b)以及716以被相互区别的方式被显示。
特别地,当以被叠加有颜色并且被设有字符的方式可识别地显示与第一区域710(a)相邻的对象712、714(a)以及716时,如果用户200的眼睛从第一区域710(a)移到第二区域710(b),则与第二区域710(b)相邻的对象712、714(b)以及716以被叠加有颜色并且被设有字符的方式被显示。这样做时,因为第一对象712和第三对象716与第一区域710(a)和第二区域710(b)相邻,所以它们在没有改变被叠加的颜色和字符的情况下被显示。并且,给予第二对象714(a)的相同颜色和字符可以被给予第四对象714(b)。
麦克风122或者相机121能够接收用户200的输入以选择以被相互视觉地可识别的方式显示的对象712、714(b)以及716中的一个。例如,用户200能够经由麦克风122通过语音执行选择第三对象716的输入。对于另一实例,用户200能够通过输入手的形状640选择对象,朝着相机121竖立等于对象数目的手的手指。
参考图7(c),控制器180控制要被显示在屏幕上的指示器632,其指示用于从用户200接收用户对所选择的对象执行控制的输入,并且然后能够取消对除了被选择的对象之外的剩下的对象的视觉效果。
特别地,如果用户的眼睛面向对象中的哪一个不是清楚的,则控制器180能够控制位于由用户的眼睛面向的位置处的多个对象,以被相互视觉地可识别的方式显示。通过此,用户200能够容易地选择与用户200面向的区域相邻的多个对象中的一个。
在下面的描述中,参考图8和图9解释在进入姿势模式之前响应于用户200的眼睛的移动选择对象的方法和取消对象的选择的方法。
图8是用于根据本发明的一个实施例的用于当用户200的眼睛移动时取消通过用户200的眼睛选择的对象的选择的屏幕的一个示例的图。并且,图9是用于根据本发明的一个实施例的用于根据用户200的眼睛选择多个对象的屏幕的一个示例的图。
参考图8(a),虽然以被叠加有颜色的方式显示通过用户200的眼睛识别的对象810,但是用户200的眼睛800(a)移出被显示在显示单元151上的屏幕的外部800(b),控制器180可以停止颜色叠加在用户200注视的对象810上。
例如,当对象180被叠加有第一颜色时,如果在用户200的眼睛被保持期间的时间对应于第一间隔,则一旦用户200的眼睛移到屏幕外部800(b)则被叠加的颜色的显示就可以被停止。
参考图8(b),如果用户200的眼睛经由其他的对象812(a)、812(b)、812(c)、以及812(d)移到屏幕外部,则控制器180可以控制位于眼睛经过的路径上的对象812(a)、812(b)、812(c)、以及812(d),以被相互视觉地可识别的方式显示。
例如,虽然第一对象812(a)被注视,但是如果用户200的眼睛从位置A802(a)移到位置B802(b),则只要位于路径上的第二对象812(b)被可识别地显示第一对象812(a)就能够在原始状态下显示。如果用户200的眼睛按顺序移到位置C802(c)和位置D802(d),则第三对象812(c)和第四对象812(d)能够以可顺序地识别的方式被显示。
参考图9(a),在对象910(a)已经被叠加有第一颜色之后,如果用户200的眼睛从900(a)移到900(b),则控制器180可以控制位于移动路径上的其它对象910(b)、910(c)以及910(d),以被叠加有第一颜色的方式显示。
例如,当在用户200的眼睛被保持在第一对象910(a)期间的时间对应于第一间隔时,如果用户200的眼睛按相继顺序移到第二对象910(b)、第三对象910(c)和第四对象910(d),则控制器100可以控制第一对象910(a)、第二对象910(b)、第三对象910(c)以及第四对象910(d),以同时叠加有第一颜色的方式被显示。
参考图9(b),如果在用户200的眼睛被保持在第四对象910(d)期间的时间对应于第二间隔,则控制器180能够进入接收用户200的输入以对在已经保持用户200的眼睛所在的对象执行控制的模式。这样做时,控制器180可以控制第二颜色以叠加在对象910(a)、910(b)、910(c)以及910(d)上,在其上用户200的眼睛已经被保持。
例如,第二颜色被叠加在第一对象910(a)、第二对象910(b)、第三对象910(c)以及第四对象910(d)上并且控制器180能够进入用于接收输入以执行对第一对象910(a)、第二对象910(b)、第三对象910(c)以及第四对象910(d)的控制的语音识别或者姿势模式。
特别地,如果被注视的对象的颜色变成第一颜色,则用户200能够通过注视另一对象选择数个对象。并且,用户200能够命令移动终端100使用姿势或者语音对所选择的对象执行控制。
在下面的描述中,参考图10解释在进入姿势模式之后选择对象的方法和取消姿势模式的方法。
图10是用于根据本发明的一个实施例的在进入姿势模式之后通过用户200的眼睛附加地选择对象的一个示例的图。
参考图10(a),当第一对象101被选择时,如果姿势模式被进入,则用户200能够附加地选择第二对象1012。
在姿势模式下,如果用户200至少在被指定的持续时间内将用户200的眼睛保持在第二对象1012上,则控制器180可以控制用户200的眼睛被保持在其上的对象1012,以被视觉地区别的方式被显示。
例如,如果在第一间隔的时间期间用户注视第二对象1012,则控制器180可以控制第二对象1012以被叠加有第一颜色。如果在第二间隔的时间期间用户200注视第二对象1012,则控制器180控制第二对象1012以被叠加有第二颜色并且能够使用姿势或者语音输入对第一对象1010和第二对象1012执行控制。
图11是用于根据本发明的一个实施例的用于在进入姿势模式之后通过用户200的眼睛取消姿势模式的方法的一个示例的图。
参考图11(a),控制器180能够进入姿势模式以执行与用户200的眼睛被保持在其上的对象110有关的控制。
如果用户200的眼睛移到被显示在显示单元151上的屏幕的外部1112,则控制器180能够取消姿势模式。
参考图11(b),如果姿势模式被取消,则控制器180可以停止通过用户200注视的对象1110的颜色叠加。并且,控制器180能够将指示已经取消姿势模式的文本输出到显示单元151。
虽然通过用户200选择多个对象,但是如果用户200的眼睛移到屏幕外部1112,则姿势模式能够被取消。
此外,在至少在被指定的持续时间内用户200的眼睛被保持在被显示在屏幕上的姿势模式取消图标(在附图中未示出)的情况下,控制器180能够取消姿势模式。
在下面的描述中,参考图12解释在姿势模式下识别用户200的眼睛并且接收姿势输入的方法。
图12是用于根据本发明的一个实施例的用于通过将用户200的眼睛的移动识别为姿势执行对象有关的控制的屏幕的一个示例的图。
参考图12(a),如果对象1210被选择,则控制器180进入姿势模式。在姿势模式已经被进入之后,控制器180将用户200的眼睛的移动确定为姿势并且然后对所选择的对象1210执行与被确定的姿势相对应的功能。这样做时,用户200的眼睛的移动的姿势和要对对象执行的功能可以以相互对应的方式被保存在存储器160中。
例如,如果在右场景(landscape)方向上用户200的眼睛从1200(a)移到1200(b),则控制器180能够对所选择的对象1212执行删除功能,其对应于在右场景方向上移动用户200的眼睛的姿势。并且,参考图12(b),控制器180能够进一步显示指示对象被删除的文本1214。
对于另一实例,参考图12(c),控制器180可以接收在左场景方向上将用户200的眼睛从1200(a)移到1200(c)的姿势的输入。这样做时,即使用户200的眼睛离开显示单元151,相机121能够识别用户200的眼睛。
控制器180能够对所选择的对象1212执行共享功能,其对应于在左场景方向上移动用户200的眼睛的姿势。如果这样,参考图12(d),控制器180可以控制被提供以共享所选择的对象1210的联系人列表1220,以被显示在显示单元151上。
此外,控制器180可以将用户200的眼睛的移动识别为姿势并且然后对所选择的对象执行与各个姿势相对应的功能。在这样的情况下,与各个姿势相对应的功能可能没有受到在上面的描述中所提及的删除和共享功能限制。
在下面的描述中,当电子书被显示在显示单元151上时,参考图13解释通过眼睛的识别选择所选择的文本并且通过用户200的姿势执行与所选择的文本有关的控制的方法。
图13是用于执行与当根据本发明的一个实施例的移动终端100识别用户200的姿势时与被显示的文本有关的控制的屏幕的一个示例的图。
参考图13(a),移动终端100能够显示诸如电子书1300等等的文本有关的内容。这样做时,控制器180也可以与文本有关的内容一起显示执行诸如“放大”、“缩小”、“前一个”、“下一个”、“浏览列表”、“全屏浏览”等等的与电子书1300有关的控制的控制菜单1310。并且控制器180能够显示指示电子书1300的整个页面当中的当前显示的页面的位置的进度条1312。
如果至少在被指定的持续时间内用户200将用户200的眼睛保持在被显示在电子书1300的文本上,则控制器180可以控制用户200的眼睛被保持在其上的文本1302,以视觉地可区别的方式被显示。例如,控制器180控制文本“禁止”1302的颜色以与剩下的文本可识别的方式被改变并且也控制文本“禁止”1302以表示得比剩下的文本粗。
在这样的情况下,控制器180通过声音读取文本1302以通知用户200文本1302被选择。并且,控制器180能够进入姿势模式。
参考图13(b),用户200能够对相机121做出姿势。如果经由相机121识别用户200的姿势,则控制器180能够执行与对象1302有关并且对应于被识别的姿势的控制。
例如,如果与经由相机121识别的用户200的手的形状1320相对应的控制命令包括用于搜索所选择的文本1302的含义的命令,则控制器180能够对存储器160或者外部服务器搜索所选择的文本1302的含义。
如果这样,参考图13(c),控制器180能够经由音频输出模块152将找到的文本1302的含义输出为语音。
在下面的描述中,参考图14解释检测用户200的重复的姿势并且执行与重复的姿势有关的控制的方法。
图14是用于根据本发明的一个实施例的设置用户的姿势和与用户的姿势有关的控制操作的方法的流程图。
参考图14,控制器180检测经由相机121拍摄的用户的姿势[S1400]。
例如,控制器180激活相机121并且然后能够检测经由相机121拍摄的用户的姿势。对于另一实例,控制器180激活感测单元140并且然后能够通过感测单元140的操作检测用户的姿势。对于又一实例,控制器180能够响应于对显示单元的用户的指示器输入的轨迹(trace)、用户的指示器输入的数目、指示器输入的被指定的持续时间、以及其组合中的一个检测姿势。
在已经检测姿势之后,控制器180响应于用户的输入执行被指定的操作[S1410]。如果检测到相同的姿势,则控制器180确定是否在姿势的检测之后通过用户的输入执行相同的操作[S1420]。
例如,用户执行保持并且摇动移动终端的动作,并且然后能够删除被显示在显示单元上的被输入到文本输入窗口的所有文本。可以以被彼此相关的方式将保持和摇动移动终端的姿势和删除被输入到文本输入窗口的所有文本的动作保存在存储器160中。
随后,在保持和摇动移动终端100之后,如果通过用户的输入删除被输入到文本输入窗口的所有文本的动作被重复地执行,则控制器180对于保持和摇动移动终端100的姿势设置删除被输入到文本输入窗口的所有文本的操作[S1430]。
特别地,在姿势已经被检测到之后,如果由用户重复地执行被指定的动作,则控制器180可以以被相互匹配的方式控制检测到的姿势和被指定的动作来以被保存在存储器160中。
因此,如果检测到被保存在存储器160中的姿势,则控制器180执行以被匹配相对应的姿势的方式保存的操作,或者可以控制询问是否执行操作的指示窗口以被显示在显示单元上。
例如,如果用户进行保持和遥控器移动终端的动作,则控制器显示用于询问是否删除被输入到文本输入窗口的所有文本或者能够删除所有的被输入的文本的指示窗口。
检测用户的姿势的步骤S1400可以包括执行通过用户或者控制器执行的第一操作的步骤。在检测姿势之后响应于用户的输入控制器执行被指定的操作的步骤S1410可以包括在执行第一操作之后执行第二操作的步骤。
并且,确定是否在检测姿势之后响应于用户的输入执行相同操作的步骤S1420可以包括确定是否顺序地和重复地执行第一操作和第二操作的步骤。
特别地,在已经执行第一操作[S1400]之后,如果执行第二操作[S1410],则控制器确定是否重复地执行第一操作和第二操作[S1420]。控制器控制第一操作和第二操作以被彼此相关的方式被保存[S1430]。其后,当执行第一操作时,控制器可以询问是否执行第二操作或者可以自动地执行第二操作。
例如,在已经显示通过用户选择的对象的信息之后,如果以被重复超过被指定的次数的方式根据用户的输入重复地执行删除信息显示的对象的操作,控制器可以在要以被彼此相关的方式保存的对象信息显示之后响应于用户的选择和删除操作控制对象信息显示操作。其后,如果用户选择的对象的信息被显示,则控制器询问是否删除信息显示的对象或者可以执行删除信息显示完成的对象的操作。
对于另一实例,当用户使用移动终端读取电子书时,电子书的第一页可以被显示在移动终端的显示单元上。在显示第一页之后被指定的时间已经期满之后,如果用于显示电子书的第二页的输入被接收,控制器可以控制第二页以被显示在显示单元上。
特别地,在显示随机页面之后被指定的期满之后,如果用于显示随机页面的下一个的页面的输入被重复地接收,则控制器可以控制在显示页面之后的被指定的时间的期满的操作和显示页面的下一个页面的操作以被彼此相关的方式保存。如果在显示页面之后被指定的时间期满,则控制器可以询问是否自动地显示当前显示的页面的下一个页面,或者可以自动地执行显示当前显示的页面的下一个的页面的操作。
在下面的描述中,参考图15详细地解释设置用户200的姿势和与用户200的姿势有关的控制操作的方法。
图15是用于根据本发明的一个实施例的用于设置姿势的方法的一个示例的图。
参考图15(a),多个对象1500和用于控制对象的菜单1510可以被显示在显示单元151上。而且,感测单元可以接收以轻敲移动终端100的主体的方式通过用户200执行的姿势。
例如,用户200可以在注视被显示在显示单元151上的对象时连续地轻敲移动终端100的主体两次。
参考图15(b),控制器180可以响应于用户200的输入执行被指定的操作。
例如,控制器180可以接收用于选择被显示在显示单元151上的对象1500中的一个1502的用户200的输入。如果用户200选择用于删除被选择的对象1502的对象1512,则控制器180能够从存储器160删除与相对应的对象1512有关的图像文件。并且,控制器180不能够进一步显示与被删除的文件相对应的对象。
参考图15(c),在已经执行连续地轻敲移动终端100的主体两次的姿势之后,如果重复地执行选择对象1502并且然后删除所选择的对象1502的控制,则控制器180可以显示窗口1520,用于询问是否以使姿势和操作彼此相关的方式将连续地轻敲主体两次的姿势和删除对象1520的操作保存在存储器160中。
特别地,如果检测到姿势并且重复地执行被指定的操作,则控制器180可以控制检测到的姿势和被指定的操作以彼此相关的方式保存。并且,控制器180可以控制彼此相关的被保存的姿势和被指定的操作的列表以被显示在显示单元151上。
更加特别地,移动终端100显示最新保存的姿势和被指定的操作的列表。如果用户200输入最新保存的姿势,则控制器180能够执行与输入的姿势有关的被指定的操作。以下将参考图16详细地进行描述。
图16是用于根据本发明的一个实施例的在已经与被指定的操作相关联地保存姿势之后在移动终端100的姿势模式下执行被指定的操作的方法的一个示例的图。
参考图16(a),当通过用户200的眼睛选择被显示在显示单元151上的对象时,移动终端100进入姿势模式。这样做时,控制器180可以控制指示移动终端10处于姿势模式的指示器以被显示在指示器区域上。
一旦进入姿势模式,控制器180可以一起显示最新保存的姿势和被指定的操作的列表(在附图中未示出)。
虽然移动终端100处于姿势模式,但是移动终端100可以从用户200接收连续地轻敲移动终端100的主体两次的姿势的输入。如果这样,参考图16(b),控制器180能够执行删除所选择的对象的控制。
特别地,以被彼此相关的方式一起保存连续地轻敲移动终端100的主体两次的姿势和删除对象1600(a)的操作。这样做时,在通过用户200的眼睛的识别已经选择对象1600(a)之后,当删除姿势的姿势模式是激活的时,如果接收到连续地轻敲移动终端100的主体两次的姿势,则控制器180执行删除所选择的对象1600(a)的操作。
同时,在已经执行用户200的姿势之后,如果移动终端100进入姿势模式,则可以执行与姿势有关的操作。以下将参考图17详细地进行描述。
图17是用于根据本发明的一个实施例的用于在执行姿势之后进入的姿势模式中执行操作的方法的一个示例的图。
参考图17(a),虽然移动终端100没有进入姿势模式,但是可以接收用户200的姿势。
例如,虽然多个对象被显示在显示单元151上,但是控制器180可以从用户200接收连续地轻敲移动终端100的主体两次的姿势。
参考图17(b),在通过用户200的眼睛的识别已经选择对象1700(a)之后,移动终端100能够进入姿势模式。
在已经进入姿势模式之后,参考图17(c),控制器180能够执行删除所选择的对象1700(a)的控制。
特别地,如果在选择用于在其上执行控制的目标之前接收到姿势,则控制器180能够对在姿势的接收之后选择的对象1700(a)执行与接收到的姿势有关的控制。
因此,本发明提供下述效果和/或优点。
首先,本发明促进使用用户的眼睛和姿势的移动终端的控制。
其次,本发明最小化用于操纵移动终端的用户的触摸输入。
从本发明能够获得的效果可以不受上述效果的限制。并且,在本发明所属的技术领域中的普通技术人员可以从下面的说明清楚地理解其他未提及的效果。
本领域内的技术人员将会明白,在不偏离本发明的精神或范围的情况下,能够将本发明指定为其他形式。
另外,能够将上述方法在程序记录介质上实现为计算机可读代码。计算机可读介质可以包括其中存储了由计算机系统可读的数据的所有种类的记录设备。计算机可读介质可以包括例如ROM、RAM、CD-ROM、磁带、软盘、光学数据存储设备等,并且也包括载波类型实现方式(例如,经由互联网的传输)。而且,计算机可以包括终端的控制器180。
本领域内的技术人员将会明白,在不偏离本发明的精神或范围的情况下,能够在本发明中进行各种修改和变化。因此,意图是本发明涵盖落在所附权利要求和它们的等同物的范围内的本发明的修改和变化。

Claims (20)

1.一种移动终端,包括:
相机,所述相机被配置成识别姿势;
麦克风,所述麦克风被配置成识别语音;
显示单元,所述显示单元被配置成显示第一对象;以及
控制器,所述控制器被配置成确定由用户的眼睛面向的所述显示单元上的第一位置,并且响应于至少经由所述麦克风识别的语音或者经由所述相机识别的姿势对被显示在所述第一位置处的所述第一对象执行第一功能。
2.根据权利要求1所述的移动终端,其中,所述控制器被进一步配置成,在所述用户的眼睛被保持在所述第一对象上的时间期间控制所述显示单元以视觉地可识别的方式显示所述第一对象。
3.根据权利要求1所述的移动终端,其中:
多个对象被显示在所述第一位置处;并且
所述控制器被进一步配置成,控制所述显示单元以显示所述多个对象使得它们是相互视觉地可识别的。
4.根据权利要求3所述的移动终端,其中,所述控制器被进一步配置成,响应于经由所述麦克风识别的语音选择所述多个对象中的一个作为所述第一对象。
5.根据权利要求1所述的移动终端,其中,所述控制器被进一步配置成,控制所述显示单元以显示与所述第一功能相对应的指示符,所述指示符指示对所述第一对象执行所述第一功能。
6.根据权利要求1所述的移动终端,进一步包括:
存储器,所述存储器被配置成存储信息,
其中,所述控制器被进一步配置成:
响应于至少经由所述麦克风识别的新的语音或者经由所述相机识别的新的姿势对所述第一对象执行第二功能;以及
控制所述存储器以存储功能以及相应的语音和姿势输入的历史使得它们彼此相关。
7.根据权利要求6所述的移动终端,其中,所述控制器被进一步配置成,控制所述显示单元以显示被存储的功能以及相应的语音和姿势输入的历史。
8.根据权利要求1所述的移动终端,其中,所述控制器被进一步配置成:
确定由所述用户的眼睛面向的所述显示单元上的第二位置,其中,第二对象被显示在被确定的第二位置处;并且
对所述第一对象和所述第二对象两者执行第二功能。
9.一种控制移动终端的方法,所述方法包括:
确定由用户的眼睛面向的显示单元上的第一位置;
确定被显示在所述第一位置处的第一对象;以及
响应于至少被识别的语音输入或者被识别的姿势输入对所述第一对象执行第一功能。
10.根据权利要求9所述的方法,进一步包括:
在所述用户的眼睛被保持在所述第一对象的时间期间以视觉地可识别的方式显示所述第一对象。
11.根据权利要求9所述的方法,进一步包括:
在所述第一位置处显示多个对象,其中,所述多个对象是相互视觉地可识别的。
12.根据权利要求11所述的方法,进一步包括:
接收经由麦克风的输入以选择所述多个对象中的一个作为所述第一对象。
13.根据权利要求9所述的方法,进一步包括:
在所述显示单元上显示指示对所述第一对象执行所述第一功能的指示符。
14.根据权利要求9所述的方法,进一步包括:
识别至少新的语音输入或者新的姿势输入;
执行与所述至少新的语音输入或者新的姿势输入相对应的第二功能;以及
存储所述第二功能以及与所述第二功能相对应的所述至少新的语音输入或者新的姿势输入使得它们彼此相关。
15.根据权利要求14所述的方法,进一步包括:
显示被存储的功能以及相应的语音和姿势输入的历史。
16.根据权利要求9所述的方法,进一步包括:
确定由所述用户的眼睛面向的所述显示单元上的第二位置;
确定与所述第二位置相对应的第二对象;以及
对所述第一对象和所述第二对象执行第二功能。
17.一种包括命令的记录介质,所述记录介质包括:
第一命令,所述第一命令用于确定在显示单元上的由用户的眼睛面向的第一位置;
第二命令,所述第二命令用于确定在所述第一位置处的被显示在所述显示单元上的第一对象;以及
第三命令,所述第三命令用于响应于至少被识别的语音或者被识别的姿势对所述第一对象执行第一功能。
18.根据权利要求17所述的记录介质,进一步包括:
第四命令,所述第四命令用于在所述用户的眼睛被保持在所述第一对象上的时间期间以视觉地可识别的方式显示所述第一对象。
19.根据权利要求17所述的记录介质,进一步包括:
第四命令,所述第四命令用于在所述第一位置处显示多个对象,其中,所述多个对象是相互视觉地可识别的。
20.根据权利要求17所述的记录介质,进一步包括:
第四命令,所述第四命令用于在所述显示单元上显示指示对所述第一对象执行所述第一功能的指示符。
CN201310656704.XA 2012-12-06 2013-12-06 移动终端及其控制方法 Expired - Fee Related CN103853329B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0141475 2012-12-06
KR1020120141475A KR20140073730A (ko) 2012-12-06 2012-12-06 이동 단말기 및 이동 단말기 제어방법

Publications (2)

Publication Number Publication Date
CN103853329A true CN103853329A (zh) 2014-06-11
CN103853329B CN103853329B (zh) 2018-05-15

Family

ID=49596084

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310656704.XA Expired - Fee Related CN103853329B (zh) 2012-12-06 2013-12-06 移动终端及其控制方法

Country Status (4)

Country Link
US (1) US20140164928A1 (zh)
EP (1) EP2741175A3 (zh)
KR (1) KR20140073730A (zh)
CN (1) CN103853329B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104317392A (zh) * 2014-09-25 2015-01-28 联想(北京)有限公司 一种信息控制方法及电子设备
CN104598138A (zh) * 2014-12-24 2015-05-06 三星电子(中国)研发中心 电子地图控制方法及装置
CN104793750A (zh) * 2015-04-30 2015-07-22 努比亚技术有限公司 输入的方法及装置
CN105204628A (zh) * 2015-09-01 2015-12-30 涂悦 一种基于视觉唤醒的语音控制方法
CN105491235A (zh) * 2015-12-01 2016-04-13 惠州Tcl移动通信有限公司 一种手机基于手势和动作识别的报警方法及其系统
CN105929932A (zh) * 2015-02-27 2016-09-07 联想(新加坡)私人有限公司 基于凝视的通知响应
CN106257355A (zh) * 2015-06-18 2016-12-28 松下电器(美国)知识产权公司 设备控制方法和控制器
WO2017035768A1 (zh) * 2015-09-01 2017-03-09 涂悦 一种基于视觉唤醒的语音控制方法
CN107450722A (zh) * 2017-07-12 2017-12-08 深圳纬目信息技术有限公司 一种带有噪音过滤功能的双重交互控制头戴式显示设备和交互方法
CN109856800A (zh) * 2019-04-09 2019-06-07 北京悉见科技有限公司 分体式ar眼镜的显示控制方法、装置及分体式ar眼镜
US10788902B2 (en) 2016-06-22 2020-09-29 Sony Corporation Information processing device and information processing method

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10353460B2 (en) * 2014-01-29 2019-07-16 Tarek A Shazly Eye and head tracking device
US9645641B2 (en) * 2014-08-01 2017-05-09 Microsoft Technology Licensing, Llc Reflection-based control activation
KR102337682B1 (ko) * 2014-10-01 2021-12-09 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
KR20160086166A (ko) * 2015-01-09 2016-07-19 엘지전자 주식회사 이동단말기 및 그 제어방법
JP6537207B2 (ja) * 2015-04-16 2019-07-03 ホアウェイ・テクノロジーズ・カンパニー・リミテッド アプリケーション記憶空間を表示するための方法および端末
US9921805B2 (en) * 2015-06-17 2018-03-20 Lenovo (Singapore) Pte. Ltd. Multi-modal disambiguation of voice assisted input
EP3335096B1 (en) * 2015-08-15 2022-10-05 Google LLC System and method for biomechanically-based eye signals for interacting with real and virtual objects
KR101808161B1 (ko) * 2016-06-27 2017-12-12 주식회사지앤지커머스 모바일 광고 제공 시스템 및 방법
KR20180071092A (ko) 2016-12-19 2018-06-27 삼성전자주식회사 사용자의 시선 및 입력에 기반하여 제어되는 전자 장치, 모바일 전자 장치 및 디스플레이 장치
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
KR102518404B1 (ko) * 2017-09-29 2023-04-06 삼성전자주식회사 전자 장치 및 그의 시선 정보를 이용한 컨텐트 실행 방법
CN108227936A (zh) * 2018-03-07 2018-06-29 佛山市云米电器科技有限公司 一种具有手势控制功能的语音控制终端及其控制方法
KR102216020B1 (ko) * 2018-11-21 2021-02-17 네이버웹툰 유한회사 시선인식 인터페이스 제공방법 및 이를 위한 사용자 단말
DE102019204542A1 (de) * 2019-04-01 2020-10-01 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Interaktion mit einem Umgebungsobjekt im Umfeld eines Fahrzeugs
US10762716B1 (en) 2019-05-06 2020-09-01 Apple Inc. Devices, methods, and graphical user interfaces for displaying objects in 3D contexts
CN116324703A (zh) * 2020-09-25 2023-06-23 苹果公司 用于与用于移动虚拟环境中的虚拟对象的虚拟控件和/或示能表示交互的方法
KR20230128562A (ko) * 2021-01-20 2023-09-05 애플 인크. 환경 내의 객체들과 상호작용하기 위한 방법
WO2023049140A1 (en) * 2021-09-24 2023-03-30 Apple Inc. Digital assistant for providing handsfree notification management
EP4231269A1 (en) * 2022-02-21 2023-08-23 Infrasoft Technologies Limited Gesture simulated interactive environment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1694043A (zh) * 2004-04-29 2005-11-09 国际商业机器公司 用眼睛凝视和按键按压组合选择和激活对象的系统和方法
CN202306440U (zh) * 2010-12-17 2012-07-04 上海博泰悦臻电子设备制造有限公司 利用手势操作的电子设备及车载设备
CN102749990A (zh) * 2011-04-08 2012-10-24 索尼电脑娱乐公司 通过追踪用户视线和姿态提供反馈的系统和方法
EP2525271A2 (en) * 2011-05-16 2012-11-21 Samsung Electronics Co., Ltd. Method and apparatus for processing input in mobile terminal

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
EP1979802A4 (en) * 2006-02-01 2013-01-09 Tobii Technology Ab CREATING GRAPHIC FEEDBACK IN A COMPUTER SYSTEM
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US8099124B2 (en) * 2007-04-12 2012-01-17 Symbol Technologies, Inc. Method and system for correlating user/device activity with spatial orientation sensors
KR100912511B1 (ko) * 2007-12-03 2009-08-17 한국전자통신연구원 사용자 적응형 제스처 인식 방법 및 그 시스템
KR20120051212A (ko) * 2010-11-12 2012-05-22 엘지전자 주식회사 멀티미디어 장치의 사용자 제스쳐 인식 방법 및 그에 따른 멀티미디어 장치
KR101724000B1 (ko) * 2010-11-22 2017-04-06 삼성전자주식회사 터치스크린 단말기에서 화면 스크롤 방법 및 장치
US8957847B1 (en) * 2010-12-28 2015-02-17 Amazon Technologies, Inc. Low distraction interfaces
CA2847975A1 (en) * 2011-09-07 2013-03-14 Tandemlaunch Technologies Inc. System and method for using eye gaze information to enhance interactions
CN103842941B (zh) * 2011-09-09 2016-12-07 泰利斯航空电子学公司 响应于所感测出的乘客比划动作而执行交通工具娱乐系统的控制
US9182815B2 (en) * 2011-12-07 2015-11-10 Microsoft Technology Licensing, Llc Making static printed content dynamic with virtual data
WO2013168171A1 (en) * 2012-05-10 2013-11-14 Umoove Services Ltd. Method for gesture-based operation control
US9292085B2 (en) * 2012-06-29 2016-03-22 Microsoft Technology Licensing, Llc Configuring an interaction zone within an augmented reality environment
US9007524B2 (en) * 2012-09-25 2015-04-14 Intel Corporation Techniques and apparatus for audio isolation in video processing
US20140146394A1 (en) * 2012-11-28 2014-05-29 Nigel David Tout Peripheral display for a near-eye display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1694043A (zh) * 2004-04-29 2005-11-09 国际商业机器公司 用眼睛凝视和按键按压组合选择和激活对象的系统和方法
CN202306440U (zh) * 2010-12-17 2012-07-04 上海博泰悦臻电子设备制造有限公司 利用手势操作的电子设备及车载设备
CN102749990A (zh) * 2011-04-08 2012-10-24 索尼电脑娱乐公司 通过追踪用户视线和姿态提供反馈的系统和方法
EP2525271A2 (en) * 2011-05-16 2012-11-21 Samsung Electronics Co., Ltd. Method and apparatus for processing input in mobile terminal

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104317392A (zh) * 2014-09-25 2015-01-28 联想(北京)有限公司 一种信息控制方法及电子设备
CN104317392B (zh) * 2014-09-25 2018-02-27 联想(北京)有限公司 一种信息控制方法及电子设备
CN104598138B (zh) * 2014-12-24 2017-10-17 三星电子(中国)研发中心 电子地图控制方法及装置
CN104598138A (zh) * 2014-12-24 2015-05-06 三星电子(中国)研发中心 电子地图控制方法及装置
CN105929932A (zh) * 2015-02-27 2016-09-07 联想(新加坡)私人有限公司 基于凝视的通知响应
CN104793750A (zh) * 2015-04-30 2015-07-22 努比亚技术有限公司 输入的方法及装置
CN106257355A (zh) * 2015-06-18 2016-12-28 松下电器(美国)知识产权公司 设备控制方法和控制器
CN105204628A (zh) * 2015-09-01 2015-12-30 涂悦 一种基于视觉唤醒的语音控制方法
WO2017035768A1 (zh) * 2015-09-01 2017-03-09 涂悦 一种基于视觉唤醒的语音控制方法
CN105491235A (zh) * 2015-12-01 2016-04-13 惠州Tcl移动通信有限公司 一种手机基于手势和动作识别的报警方法及其系统
CN105491235B (zh) * 2015-12-01 2019-11-26 Tcl移动通信科技(宁波)有限公司 一种手机基于手势和动作识别的报警方法及其系统
US10788902B2 (en) 2016-06-22 2020-09-29 Sony Corporation Information processing device and information processing method
CN107450722A (zh) * 2017-07-12 2017-12-08 深圳纬目信息技术有限公司 一种带有噪音过滤功能的双重交互控制头戴式显示设备和交互方法
CN109856800A (zh) * 2019-04-09 2019-06-07 北京悉见科技有限公司 分体式ar眼镜的显示控制方法、装置及分体式ar眼镜
CN109856800B (zh) * 2019-04-09 2021-09-03 中科海微(北京)科技有限公司 分体式ar眼镜的显示控制方法、装置及分体式ar眼镜

Also Published As

Publication number Publication date
KR20140073730A (ko) 2014-06-17
EP2741175A3 (en) 2017-01-25
CN103853329B (zh) 2018-05-15
US20140164928A1 (en) 2014-06-12
EP2741175A2 (en) 2014-06-11

Similar Documents

Publication Publication Date Title
CN103853329A (zh) 移动终端及其控制方法
CN102014149B (zh) 移动终端和用于控制移动终端的操作的方法
KR102131826B1 (ko) 이동 단말기 및 이의 제어 방법
CN105122780B (zh) 电子设备以及用于控制该电子设备的方法
CN103916535A (zh) 移动终端及其控制方法
CN104679402A (zh) 移动终端及其控制方法
CN104717356A (zh) 移动终端及其控制方法
CN103916534A (zh) 移动终端
CN102238761B (zh) 移动终端及其控制方法
CN104813322A (zh) 移动终端及其控制方法
CN104281408A (zh) 移动终端及其控制方法
CN102890605A (zh) 移动设备及其控制方法
CN101924823A (zh) 移动终端和控制移动终端的操作的方法
CN103811005A (zh) 移动终端及其控制方法
KR101997446B1 (ko) 이동 단말기 및 그 제어방법
CN102238280A (zh) 电子设备及其发送信息的方法和控制电子设备的方法
CN105549870A (zh) 移动终端及其控制方法
CN103379223A (zh) 移动终端及其控制方法
CN102957793A (zh) 移动终端及其控制方法
CN104750354A (zh) 电子设备及其控制方法
CN105830351A (zh) 移动终端及其控制方法
KR101882277B1 (ko) 이동 단말기 및 그 제어방법
CN104580686A (zh) 移动终端及其控制方法
CN103389874A (zh) 移动终端及其控制方法
CN104463092A (zh) 移动终端及其控制方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180515

Termination date: 20181206