CN105320275A - 可穿戴设备和操作可穿戴设备的方法 - Google Patents

可穿戴设备和操作可穿戴设备的方法 Download PDF

Info

Publication number
CN105320275A
CN105320275A CN201510458504.2A CN201510458504A CN105320275A CN 105320275 A CN105320275 A CN 105320275A CN 201510458504 A CN201510458504 A CN 201510458504A CN 105320275 A CN105320275 A CN 105320275A
Authority
CN
China
Prior art keywords
wearable device
region
focus
moving direction
item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510458504.2A
Other languages
English (en)
Other versions
CN105320275B (zh
Inventor
辛昊哲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020150047493A external-priority patent/KR102397397B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN105320275A publication Critical patent/CN105320275A/zh
Application granted granted Critical
Publication of CN105320275B publication Critical patent/CN105320275B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Abstract

本公开了可穿戴设备和操作可穿戴设备的方法。可穿戴设备包括:传感器,检测外围对象的移动;显示单元,显示多个项并且在所述多个项中的至少一个上显示焦点;和处理器,其控制所述显示单元移动焦点到与所述外围对象的移动方向相应的位置处的项。

Description

可穿戴设备和操作可穿戴设备的方法
优先权声明
本申请要求于2014年7月30日在韩国知识产权局提交的韩国专利申请No.10-2014-0097613和于2015年4月3日在韩国知识产权局提交的韩国专利申请No.10-2015-0047493的优先权,每一个的内容通过引用合并于此。
技术领域
示范性实施例涉及可穿戴设备和操作可穿戴设备的方法。
背景技术
随着处理器尺寸的减小,移动设备的尺寸也减小了。因此,提出了能够穿戴在用户身体上的可穿戴设备。
用户通过操纵可穿戴设备,诸如通过使用触摸界面,来获得期望信息。操纵的结果显示在可穿戴设备的显示装置上。
可穿戴设备被制造为小型的以便于穿戴。但是,在传统技术中,用户难以方便地操纵这样的可穿戴设备。因此,现有技术中存在对于用户可以方便地操纵小型可穿戴设备的方法的需求。
发明内容
因此,已经做出示范性实施例来处理至少上述问题和/或缺点以及提供至少如下所述的优点。
因此,示范性实施例的一方面是提供一种可穿戴设备和操作可穿戴设备的方法。根据示范性实施例的一方面,一种可穿戴设备包括:传感器,检测外围对象的移动;显示单元,显示多个项并且在所述多个项的至少一个上显示焦点;和处理器,其控制所述显示单元将焦点偏移到与所述外围对象的移动方向相应的位置处的项。
根据示范性实施例的另一方面,一种操作可穿戴设备的方法包括:显示多个项并且在所述移动项的至少一个上显示焦点;检测外围对象的移动;和偏移并且显示焦点于位于与所述外围对象的移动方向相应的位置处的项上。
附图说明
示范性实施例的上述及其他方面、特征和优点将从以下结合附图的实施例的描述中变得更加明显和更加易于理解,附图中:
图1A示出根据实施例的操作可穿戴设备的方法;
图1B示出根据实施例的、操作在可穿戴设备正面包括传感器的可穿戴设备的方法;
图2示出根据实施例的、通过使用在可穿戴设备外围的对象的移动调整可穿戴设备的显示单元的焦点的方法;
图3是根据实施例的、操作可穿戴设备的方法的流程图;
图4示出根据另一实施例的、可穿戴设备通过根据角度确定区域来改变所显示的项的方法;
图5是根据另一实施例的、操作可穿戴设备的方法的流程图;
图6示出根据实施例的、可穿戴设备确定与角度相应的区域并且移动图像的方法;
图7是根据另一实施例的、操作可穿戴设备的方法的流程图;
图8是根据实施例的可穿戴设备的框图;
图9是根据另一实施例的可穿戴设备的框图;
图10示出根据实施例的、可穿戴设备测量对象的移动角度的方法;
图11至图18示出根据实施例的、可穿戴设备设置与焦点的位置相应的区域的方法;
图19示出根据实施例的操作可穿戴设备的方法;
图20至图26示出根据实施例的、可穿戴设备根据用户输入移动焦点的例子;
图27是根据实施例的、可穿戴设备识别对象的手势并且改变屏幕的方法的流程图;
图28示出根据实施例的、可穿戴设备通过识别手势操作的方法;
图29示出根据另一实施例的、可穿戴设备通过识别手势操作的方法;
图30示出根据另一实施例的、可穿戴设备通过识别手势操作的方法;
图31示出根据另一实施例的、可穿戴设备通过识别手势操作的方法;
图32示出根据另一实施例的、可穿戴设备通过识别手势操作的方法;
图33示出根据另一实施例的、可穿戴设备输入文本的方法;
图34是根据另一实施例的、操作可穿戴设备的方法的流程图;
图35至图41示出根据实施例的导航可穿戴设备的方法;
图42和图43示出根据实施例的、可穿戴设备感测手的背面上的触摸并且输入字符的方法;
图44和图45示出根据实施例的、可穿戴设备的触摸传感器的布置;
图46示出根据实施例的字符输入法;
图47示出根据另一实施例的字符输入法;
图48和图49示出根据另一实施例的字符输入法;和
图50至图54示出根据实施例的屏幕旋转方法。
具体实施方式
将参考附图具体描述实施例。在下面的描述中,诸如详细结构和元件的细节仅仅提供用于帮助对实施例的整体理解。因此,对于本领域技术人员来说明显的是,可以进行对这里描述的实施例的各种变化和修改而不脱离本发明构思的范围和精神。另外,众所周知的功能和构造的描述可能出于清楚和简要的目的而略去。虽然像“第一”、“第二”等等这样的术语可以用来描述各种元件,但是这样的元件不必限制于以上术语。上述术语仅仅用于将一个元件与其它元件区分开。
在本说明书中使用的术语仅仅用于描述特定的示范性实施例,并且不旨在本发明构思。单数形式使用的表达包括复数的表达,除非在上下文中它清楚地具有不同的含义。在本说明书中,将理解的是,诸如“包括”或“具有”这样的术语旨在指示存在在本说明书中公开的特征、数字、步骤、动作、元件、部分或其组合,并且不意在排除一个或多个其它特征、数字、步骤、动作、元件、部分或其组合可以存在或可以添加的可能性。
在描述本发明构思的上下文中(特别是后附权利要求的上下文中)使用术语“一”、“一个”和“所述”及类似的指代将被解释为既包括单数形式也包括复数形式。此外,除非在这里另有陈述,否则这里值的范围的叙述仅仅旨在充当单独指代落入范围内的每个分离值的简写方法,并且每个单独的值被合并入说明书就好像这里单独叙述的一样。而且,在这里描述的所有方法的操作可以以任意适当的次序执行,除非在这里另有陈述或者以其它方式通过上下文明确地抵触。本发明构思不局限于描述的操作次序。任意或者所有示例的使用,或者这里提供的示范性语言(例如,“诸如”),仅仅意在更好地阐明本发明构思,而不对本发明构思的范围施加限制,除非另外声明。许多修改和改编对于本领域普通技术人员来说是明显可见的,且不脱离本发明构思的精神和范围。
现在将详细参考实施例,在附图中示出实施例的例子,其中贯穿全文同样的参考标记指代同样的元素。对于此,所给出的实施例可以具有不同的形式并且不应该看作局限于这里所阐述的描述。因此,仅仅参照附图在下面描述实施例以说明本说明书的方面。当在元件列表之前诸如“至少一个”这样的表达,修改整个元件列表而不修改列表中单个元件。
图1A示出根据实施例的操作可穿戴设备100的方法。参照图1A,可穿戴设备100感测对象的移动以将焦点10从一个项偏移到另一项。
该对象可以是在可穿戴设备100的外围中感测到的项,诸如用户的手指。可穿戴设备100的“外围”指示距可穿戴设备100或者距可穿戴设备100的侧面预定距离内的区域。例如,可穿戴设备100的外围可以是穿戴可穿戴设备100的用户的手的背面或者正面。可穿戴设备100的外围可以是在其中对象可以被可穿戴设备100的相机识别的区域。
感测对象的移动指示可穿戴设备100感测外围对象并且测量诸如对象的移动方向、移动角度、移动距离和移动速度这样的参数。
可穿戴设备100包括传感器110和显示单元120。传感器110检测外围对象。显示单元120显示至少一个项和焦点10。
所述至少一个项指示可穿戴设备100的菜单的功能。显示单元120在整个屏幕上显示一个项或者在屏幕上显示两个或多个项。显示单元120可以不同地显示项的大小。例如,显示单元120显示将大于其它项的中心项。
焦点10是指示当前选择的项的标识显示。焦点10可以用这样的方式表达:项的颜色或者其尺寸被改变。可替换地,焦点10可以是显示在项上的图。
图1A示出在所述至少一个项外部的焦点10的例子。在图1A中,6个项(‘媒体控制器’、“电话”、“应用”、“信使”、“电子邮件”、“相册”)显示在可穿戴设备100上。图1A示出在‘信使’项上显示焦点10然后调整焦点10到“电话”项的过程。
可穿戴设备100的传感器110检测对象的移动和对象是否在设置距离内。传感器110测量对象的移动方向、移动角度和移动距离。
在图1A中,可穿戴设备100识别用户的手指和各种对象的移动。例如,可穿戴设备100识别诸如笔这样的项。
可穿戴设备100在显示单元120上显示多个项。可穿戴设备100在多个项中的至少一个上显示焦点10。
可穿戴设备100获得对象的移动角度或者移动方向。当可穿戴设备100测量对象的位置时以及当对象的位置改变时,可穿戴设备100计算对象的移动角度或者移动方向。在图1A中,对象沿45度的方向移动。可穿戴设备100设置距离或者速度范围并且只有当对象的移动距离或者移动速度在设置范围内时才计算对象的移动角度。因此,当对象的移动距离或者移动速度不在设置范围内(例如,移动距离较短或者移动速度较慢)时,可穿戴设备100确定对象的小的移动或者用户不想要进行输入。在这种情况下,可穿戴设备100不偏移焦点10。
可穿戴设备100根据对象的移动方向将焦点10偏移到与对象的移动方向相应的位置处的项,并且确定焦点10的偏移方向。可穿戴设备100将显示在显示单元120上的焦点10沿确定的移动方向偏移到所处的项。在图1A中,对象沿45度方向移动,并且因此可穿戴设备100将焦点10从‘信使’项偏移到‘电话’项。
可穿戴设备100可以由用户穿戴在他或她的身体上,诸如智能手表、智能眼镜或者臂带。
可穿戴设备100包括两个传感器110,其布置在可穿戴设备100可以感测到用户的手势的位置处,所述位置诸如智能手表的侧面,如图1A中所示。在另一例子中,传感器110布置在智能眼镜的正面。
图1B示出根据实施例的、操作在可穿戴设备正面包括传感器110的可穿戴设备100的方法。参照图1B,可穿戴设备100包括传感器110以及包括在正面区域的显示单元120。两个传感器110位于显示单元120的上侧和下侧。
传感器110检测在可穿戴设备100的正面移动的对象,诸如通过感测在传感器110的正面移动的用户的手指,如图1B中所示。
可穿戴设备100获得由传感器110感测的用户的手指的方向并且将焦点10偏移到位于与所获得的方向相应的位置处的项。
图2示出根据实施例的、通过使用可穿戴设备100的外围中的对象的移动调整显示在可穿戴设备100的显示单元上的焦点10的方法。参照图2,可穿戴设备100测量角度并且根据测量的角度确定焦点10的移动方向。
在操作1中,可穿戴设备100测量在可穿戴设备100的外围中的对象的移动角度。例如,在图2中,对象的移动角度是80度,并且对象的移动角度是相对于可穿戴设备100计算的。
在操作2中,可穿戴设备100确定与测量的角度相应的区域。可穿戴设备100可以根据所测量的角度预先设置区域并且确定与测量的角度相应的区域。例如,可穿戴设备100可以设置360度以包括至少两个区域。在图2中,可穿戴设备100设置360度以包括四个区域。80度角度可以在第二区域中。因此,可穿戴设备100确定与测量的角度相应的第二区域。
在操作3中,可穿戴设备100将显示在显示单元上的焦点10沿与所确定的区域相应的方向偏移。在图2中,焦点10从‘信使’项偏移到‘电子邮件’项。
图3是根据实施例的、操作可穿戴设备100的方法的流程图。参照图3,可穿戴设备100检测外围对象并且将焦点10从第一项偏移到第二项。
在操作310中,可穿戴设备100在屏幕的第一项上显示焦点。可穿戴设备100在显示在屏幕上的多个项当中的第一项上显示焦点。
在操作320中,可穿戴设备100通过使用传感器110检测外围对象。
在操作330中,可穿戴设备100通过计算外围对象相对于可穿戴设备100的移动角度获得外围对象的移动方向。
在操作340中,可穿戴设备100根据所确定的方向确定焦点的偏移方向。
在操作350中,可穿戴设备100根据所确定的移动方向偏移焦点到第二项。
可穿戴设备100设置与焦点的可偏移方向相应的区域,映射区域和所获得的方向,并且确定焦点的偏移方向。
焦点的可偏移方向是这样的方向:通过使用项布置方法当前呈现在项上的焦点可以沿该方向偏移。可穿戴设备100确定焦点的可偏移方向,并且将区域设置为多个检测到的方向。对此,可穿戴设备100分别设置包括可移动方向的区域。例如,如果可移动方向朝上侧方向,则可穿戴设备100将从大约-20度到20度的角度设置为与上侧相应的区域。
映射区域和所获得的方向涉及确定可以被标识为角度范围的区域当中哪个区域包括所获得的方向。例如,从大约0度到大约180度可以被设置为第一区域,从大约180度到大约360度的角度可以被设置为第二区域。可穿戴设备100确定与所确定的区域相应的方向。可穿戴设备100确定包括所获得的方向的区域。所述区域可以根据焦点的可移动方向设置,并且因此可穿戴设备100确定与所确定的区域相应的焦点的移动方向。
图4示出根据另所述实施例的、可穿戴设备100通过根据角度确定区域来改变所显示的项的方法。参照图4,可穿戴设备100根据对象的移动角度改变所显示的项。
在操作1中,可穿戴设备100测量对象的移动角度,在图4中移动角度是170度。
在操作2中,可穿戴设备100确定与测量的移动角度相应的区域。可穿戴设备100可以根据所测量的移动角度预先设置区域并且确定包括所测量的移动角度的区域。在图4中,项沿一列排列,并且因此可以根据用户的操纵显示当前项的较上或较下的项。因此,可穿戴设备100将360度一分为二,将上半区域设置为第一区域,将下半区域设置为第二区域。在图4中,所测量的角度170度相应于第二区域。因此,可穿戴设备100确定第二区域为相应于所测量的移动角度。
在图4中,如果项‘相册’被显示,则上半区域可以被设置为中性区域(neutralregion),下半区域可以被设置为第一区域。当对象的移动角度被包括在中性区域中时,可穿戴设备100可以不改变所显示的项。在与中性区域相应的方向中不再有要显示的项,并且因此可穿戴设备100向用户提供反馈以便向用户通知项‘相册’是最终项。
在操作3中,可穿戴设备100改变显示项。可穿戴设备100显示沿与所确定的方向相应的方向部署的项。
例如,项沿一列排列,并且获得包括在第二区域中的角度。因此,可穿戴设备100确定部署在当前显示的项'电话'较下位置中的项‘电子邮件’为接下来将显示的项。
图5是根据另一实施例的、操作可穿戴设备100的方法的流程图。参照图5,可穿戴设备100检测外围对象以根据外围对象的移动方向改变显示的项。
在操作510中,可穿戴设备100在可穿戴设备100的显示单元上显示第一项。
在操作520中,可穿戴设备100通过使用传感器110检测外围对象。
在操作530中,可穿戴设备100通过计算外围对象相对于可穿戴设备100的移动角度获得外围对象的移动方向。
在操作540中,可穿戴设备100根据所获得的方向确定所显示的第二项。可穿戴设备100确定当前显示的项并且根据项的相对位置确定哪一项将被显示。
在操作550中,可穿戴设备100在可穿戴设备100的显示单元上显示所确定的第二项。
可穿戴设备100根据项的布置设置相应区域,以及通过确定包括所获得的方向的区域确定显示的项。
图6示出根据示范性实施例的实施例的、可穿戴设备100确定与角度相应的区域并且移动图像的方法。
在操作1中,可穿戴设备100测量对象移动的角度,诸如图6中的80度。
在操作2中,可穿戴设备100确定与测量的角度相应的区域。可穿戴设备100可以根据角度设置区域并且确定包括所测量的角度的区域。在图6中,80度相应于第二区域。因此,可穿戴设备100确定第二区域为相应于所测量的角度。
在操作3中,可穿戴设备100沿与所确定的区域相应的方向移动图像。在图6中,右边方向相应于第二区域,并且因此图像移动到右边。
根据另一实施例,可穿戴设备100以检测到的物体移动的方式相同的方式移动图像。例如,如果检测到物体,则可穿戴设备100计算对象相对于所检测的对象的位置的移动坐标并且将图像移动所计算的移动坐标。可穿戴设备100将图像的中心移动到通过使用屏幕的中心作为参考点计算的移动坐标。
根据另一实施例,可穿戴设备100测量可穿戴设备100的外围对象的移动角度和距离以移动图像。换句话说,可穿戴设备100以所测量的角度或者与所测量的距离成比例地移动图像。如果检测到可穿戴设备100的外围对象,则可穿戴设备100通过使用检测到的位置作为参考点移动图像。
图7是根据另一实施例的、操作可穿戴设备100的方法的流程图。参照图7,可穿戴设备100检测外围对象以以便根据外围对象的移动方向移动图像。
在操作710中,可穿戴设备100在屏幕上显示图像。
在操作720中,可穿戴设备100通过使用传感器110检测外围对象。
在操作730中,可穿戴设备100获得外围对象的移动方向。可穿戴设备100计算外围对象相对于可穿戴设备100的移动角度。
在操作740中,可穿戴设备100根据所获得的方向确定图像的移动方向。
在操作750中,可穿戴设备100根据所确定的移动方向移动图像。
可穿戴设备100获得外围对象的移动距离并且将图像移动所获得的移动距离。
图8是根据实施例的可穿戴设备100的框图。参照图8,可穿戴设备100包括传感器110、显示单元120、存储器130和处理器140。
传感器110感测预定范围内可穿戴设备100的外围对象。如果传感器110感测到外围对象,则传感器110输出指示已经感测到外围对象的信号到处理器140。传感器110还可以输出指示外围对象的位置的信息。例如,传感器110通过使用传感器110测量并且输出外围对象的坐标作为原点。
传感器110获得可穿戴设备100的外围对象的移动方向。传感器110计算外围对象开始移动的起点的坐标和外围对象停止移动的终点的坐标,并且通过使用传感器110计算外围对象的移动方向以及起点与终点之间的位置关系。
传感器110可以是红外线(IR)传感器、超声传感器或者电磁(EM)波传感器。IR传感器发出红外线,以便当感测到反射的红外线时测量外围对象与IR传感器之间的距离。超声传感器发送超声波,以便当接收到从外围对象反射的超声波时测量外围对象与超声传感器之间的距离。可替换地,超声传感器测量发送的超声波与接收到的超声波的相位变化以测量外围对象与超声传感器之间的距离。EM波传感器测量发送的EM波与接收到的EM波之间的相位变化以测量外围对象与EM波传感器之间的距离。可替换地,EM波传感器分析接收到的EM波的变形形状以测量外围对象与EM波传感器之间的距离。
显示单元120显示从处理器140接收到的图像。图像可以是照片、项或者初始屏幕。
显示单元120在显示在整个屏幕上的多个项中的至少一个上显示焦点。显示单元120根据处理器140的控制在第一项上显示焦点。显示单元120根据处理器140的控制将显示在第一项上的焦点偏移到第二项。
显示单元120改变所显示的项。显示单元120根据处理器140的控制在整个屏幕上显示第一项以及在整个屏幕上显示第二项。
显示单元120移动所显示的图像。当整个图像未显示在显示单元120上时,显示单元120根据处理器140的控制显示一部分图像并且显示移动的图像。
存储器130用于操作可穿戴设备100的数据。例如,存储器130存储用于执行算术运算的程序、图像和数据。
处理器140控制可穿戴设备100的操作。处理器140通过使用从传感器110接收到的数据确定显示在显示单元120上的图像。例如,处理器140从传感器110接收关于对象的移动的数据并且偏移显示在显示单元120上的焦点。处理器140改变显示在显示单元120上的项并且移动图像。
处理器140基于从传感器110接收到的信息获得外围对象的移动方向。处理器140计算外围对象开始移动的起点的坐标和外围对象停止移动的终点的坐标,并且通过使用可穿戴设备100获得外围对象的移动方向以及起点与终点之间的位置关系。
处理器140根据所获得的方向确定焦点的偏移方向。处理器140根据所获得的方向设置区域并且确定焦点的偏移方向。处理器140根据可穿戴设备100的屏幕显示状态设置多个区域。处理器140可以自适应性设置与焦点的可偏移方向相应的区域。处理器140根据屏幕显示状态不同地设置区域。处理器140确定所述区域当中哪个区域包括所获得的方向。处理器140确定与所确定的区域相应的移动方向。
处理器140根据所确定的移动方向改变显示项并且输入字符。
当感测到对象的手势时,处理器140执行与所述手势相应的操作。例如,当处理器140在预定时间内获得对象的至少两个移动方向时,处理器140执行与对象的至少两个移动模式相应的操作。
图9是根据另一实施例的可穿戴设备100的框图。参照图9,可穿戴设备100的处理器140包括方向获取单元141、移动方向确定单元142和控制单元143。
方向获取单元141基于从传感器110接收到的信息获得对象的移动方向。例如,方向获取单元141测量对象与可穿戴设备100的第一和第二传感器之间的距离。方向获取单元141通过使用第一传感器与对象之间的距离、第二传感器与对象之间的距离以及第一传感器与第二传感器之间的距离获得对象的移动方向。可替换地,方向获取单元141通过使用第一传感器与所述对象之间的距离、第二传感器与所述对象之间的距离以及第一传感器与第二传感器之间的距离计算对象的坐标。当计算坐标时,可穿戴设备100的中心可以是原点。
方向获取单元141计算对象开始移动的起点的坐标和对象停止移动的终点的坐标,并且通过使用可穿戴设备100计算对象的移动方向以及起点与终点之间的位置关系。
移动方向确定单元142根据获得的方向确定焦点的偏移方向。移动方向确定单元142根据所述方向设置区域并且确定焦点的偏移方向。
移动方向确定单元142根据可穿戴设备100的屏幕显示状态设置多个区域。移动方向确定单元142自适应性设置与焦点的可偏移方向相应的区域。移动方向确定单元142根据屏幕显示状态不同地设置区域。
控制单元143根据所确定的移动方向偏移焦点到第二项。移动方向确定单元142设置与焦点不偏移的方向相应的中性区域。当对象的移动方向被包括在中性区域中时控制单元143不偏移焦点并且向用户提供适当的反馈。
当对象的移动方向被包括在中性区域中时,移动方向确定单元142基于关于预先存储的对象的移动方向的历史确定焦点的偏移方向。换句话说,移动方向确定单元142通过学习过程将中性区域包括在另一区域中。
例如,当对象的移动方向相应于中性区域并且对象的紧接下来的移动方向相应于与中性区域相邻的第一区域时,移动方向确定单元142将中性区域包括在第一区域中。因此,如果随后测量的对象的移动方向被包括在中性区域中,则移动方向确定单元142确定对象的移动方向为相应于第一区域。
以上描述的学习过程仅仅是一个例子。也就是说,移动方向确定单元142可替换地使用各种规则执行学习过程,并且通过学习过程不同地确定当对象的移动方向被包括在中性区域中时对象的移动方向。
当对象的移动方向被包括在中性区域中时,控制单元143向用户提供反馈。例如,控制单元143驱动震动装置或者部分地修改显示在显示单元120上的图像。
控制单元143并且根据所确定的移动方向改变显示项输入字符。
当感测到对象的手势时,控制单元143执行与所述手势相应的操作。例如,当方向获取单元141在预定时间内获得对象的至少两个移动方向时,控制单元143执行与对象的至少两个移动模式相应的操作。
方向获取单元141、移动方向确定单元142和控制单元143可以是在处理器140中实现的软件模块。处理器140可以在硬件模块中实现,该硬件模块可以处理由方向获取单元141、移动方向确定单元142和控制单元143执行的所有功能。
图10示出根据实施例的、可穿戴设备100测量对象的移动角度的方法。参照图10,可穿戴设备100通过使用两个传感器111和112测量对象的移动角度。
可穿戴设备100测量当对象从起点1010移动到终点1020时对象与可穿戴设备100之间的角度。第一传感器111测量第一传感器111与对象的起点1010和终点1020中的每一个之间的距离。第二传感器112测量第二传感器112与对象的起点1010和终点1020中的每一个之间的距离。
可穿戴设备100通过使用第一传感器111与起点1010之间的距离和第二传感器112与起点1010之间的距离计算起点1010的坐标。可穿戴设备100通过使用第一传感器111与终点1020之间的距离和第二传感器112与终点1020之间的距离计算终点1020的坐标。可穿戴设备100通过使用可穿戴设备100的中心作为原点设置坐标轴,如图10中所示。
可穿戴设备100通过使用起点1010的坐标和终点1020的坐标获得一向量,并且平行移动该向量以使得起点1010处于原点。可穿戴设备100计算由向量和坐标轴形成的相对于坐标轴的角度。
图11至图18示出根据实施例的、可穿戴设备100设置与焦点的位置相应的区域的方法。图11示出当焦点显示在左下项‘信使’上时可穿戴设备100设置相应区域10的方法。
在这种情况下,焦点向右或者向上偏移。因此,可穿戴设备100基于焦点的可偏移方向设置第一至第三区域。第一区域相应于项‘媒体控制器’。第二区域相应于项‘电话’。第三区域相应于项‘电子邮件’。
因为焦点显示在左下项‘信使’上,所以焦点不向右或者向下偏移。因此,可穿戴设备100基于焦点的可偏移方向设置中性区域。例如,可穿戴设备100设置从大约135度到大约315度的角度范围为中性区域。
在图11中,第一区域指示从大约315度到大约30度的角度范围,第二区域指示从大约30度到大约60度角度范围,第三区域指示从大约60度到大约135度的角度范围,中性区域指示从大约135度到大约315度的角度范围。
图12示出当焦点显示在左上项‘媒体控制器’上时可穿戴设备100设置相应区域10的方法。
在这种情况下,焦点向右或者向下偏移。因此,可穿戴设备100基于焦点的可偏移方向设置第一至第三区域。第一区域相应于项‘电话’。第二区域相应于项‘电子邮件’。第三区域相应于项‘信使’。
因为焦点显示在左上项‘媒体控制器’上,所以焦点不向左或者向上偏移。因此,可穿戴设备100基于焦点的可偏移方向设置中性区域。
在图12中,第一区域指示从大约45度到大约120度的角度范围,第二区域指示从大约120度到大约150度的角度范围。第三区域指示从大约150度到大约225度的角度范围。中性区域指示从大约225度到大约45度的角度范围。
图13示出当焦点显示在上面中间项‘电话’上时可穿戴设备100设置相应区域10的方法。
在这种情况下,焦点向右、向左或者向下偏移。因此,可穿戴设备100基于焦点的可偏移方向设置第一至第五区域。第一区域相应于项‘应用’,第二区域相应于项‘相册’,第三区域相应于项‘电子邮件’,第四区域相应于项‘信使’,第五区域相应于项‘媒体控制器’。
因为焦点显示在上方中间项‘电话’上,所以焦点不向上偏移。因此,可穿戴设备100基于焦点的不可偏移方向设置中性区域。
在图13中,第一区域指示从大约45度到大约105度的角度范围,第二区域指示从大约105度到大约160度的角度范围,第三区域指示从大约160度到大约210度的角度范围,第四区域指示从大约210度到大约255度的角度范围,第五区域指示从大约255度到大约315度的角度范围,中性区域指示从大约315度到大约45度的角度范围。
图14示出当焦点显示在下方中间项‘电子邮件’上时可穿戴设备100设置相应区域10的方法。
在这种情况下,焦点向右、向左或者向上偏移。因此,可穿戴设备100基于焦点的可偏移方向设置第一至第五区域。第一区域相应于项‘应用’,第二区域相应于项‘相册’,第三区域相应于项‘信使’,第四区域相应于项‘媒体控制器’。第五区域相应于项‘电话’。
因为焦点显示在下方中间项‘电子邮件’上,所以焦点不向下偏移。因此,可穿戴设备100基于焦点的可偏移方向设置中性区域。
在图14中,第一区域指示从大约30度到大约75度的角度范围,第二区域指示从大约75度135度的角度范围,第三区域指示从大约225度到大约285度的角度范围,第四区域指示从大约285度到大约330度的角度范围,第五区域指示从大约330度到大约30度的角度范围,中性区域指示从大约135度到大约225度的角度范围。
图15示出当焦点显示在中间项‘电子邮件’上并且项以十字形排列时可穿戴设备100设置相应区域10的方法。
在这种情况下,焦点向右、向左或者向下偏移。因此,可穿戴设备100基于焦点的可偏移方向设置第一至第四区域。第一区域相应于项‘电话’,第二区域相应于项‘相册’,第三区域相应于项‘媒体控制器’,第四区域相应于项‘信使’。
在图15中,第一区域指示从大约315度到大约45度的角度范围,第二区域指示从大约45度到大约135度的角度范围,第三区域指示从大约135度到大约225度的角度范围,第四区域指示从大约225度到大约315度的角度范围。
图16示出当焦点显示在中间项‘电子邮件’上并且项以十字形排列时可穿戴设备100设置中性区域10的方法。
在这种情况下,因为没有项存在于对角线方向,所以焦点不沿对角线方向偏移。因此,可穿戴设备100基于焦点的可偏移方向设置中性区域。
在图16中,中性区域设置在第一至第四区域之间。
图17示出当焦点显示在中间项‘电子邮件’上并且项以3x3结构排列时可穿戴设备100设置相应区域10的方法。
在这种情况下,焦点向右、向左、向下或者对角线方向偏移。因此,可穿戴设备100基于焦点的可偏移方向设置第一至第八区域。
在图17中,第一区域指示从大约337.5度到大约22.5度的角度范围,第二区域指示从大约22.5度67.5的角度范围,第三区域指示从大约67.5度到大约112.5度的角度范围,第四区域指示从大约112.5度到大约157.5度的角度范围,第五区域指示从大约157.5度到大约202.5度的角度范围,第六区域指示从大约202.5到大约247.5度的角度范围,第七区域指示从大约247.5度到大约292.5度的角度范围,第八区域指示从大约292.5度到大约337.5度的角度范围。
图18示出当焦点显示在中间项‘电子邮件’的区域10上并且项以3x3结构排列时可穿戴设备100设置中性区域的方法。
在图18中,中性区域设置在第一至第八区域之间。
图19示出根据实施例的操作可穿戴设备100的方法。参照图19,当对象的移动方向被包括在中性区域时可穿戴设备100向用户提供反馈。
在操作1910中,可穿戴设备100在可穿戴设备100的屏幕的第一菜单项上显示焦点。
在操作1920中,可穿戴设备100检测可穿戴设备100的外围对象。
在操作1930中,可穿戴设备100获得外围对象的移动方向。
在操作1940中,可穿戴设备100根据可穿戴设备100的屏幕的显示状态设置多个区域。可穿戴设备100基于项的布置或者焦点的显示位置设置多个区域。
在操作1950中,可穿戴设备100确定多个区域当中哪个区域包括所获得的方向。
在操作1960中,可穿戴设备100确定所获得的方向是否被包括在中性区域中。如果所获得的方向被包括在中性区域中,则执行操作1990,并且如果没有,则执行操作1970。
在操作1970中,可穿戴设备100根据所获得的方向确定焦点的偏移方向。
在操作1980中,可穿戴设备100根据所确定的偏移方向偏移焦点到第二菜单项。
在操作1990中,可穿戴设备100通过驱动震动装置或者部分地修改显示在显示单元120上的图像来向用户提供反馈。
图20至图26示出根据实施例的、可穿戴设备100根据用户输入偏移焦点10的例子。
图20示出根据实施例的、可穿戴设备100基于对象的移动方向偏移焦点10的例子。在图20中,对象的移动角度是15度,并且因此可穿戴设备100将焦点10从项‘信使’偏移到项‘媒体控制器’。
图21示出根据实施例的、可穿戴设备100基于对象的移动方向偏移焦点10的例子。在图21中,对象的移动角度是40度,并且可穿戴设备100将焦点10从‘信使’偏移到‘电话’。
图22示出根据实施例的、可穿戴设备100基于对象的移动方向偏移焦点10的例子。在图22中,对象的移动角度是80度,并且可穿戴设备100将焦点10从‘电话’偏移到‘应用’。
图23示出根据实施例的、可穿戴设备100基于对象的移动方向偏移焦点10的例子。在图23中,对象的移动角度是130度,并且可穿戴设备100将焦点10从‘电话’偏移到‘相册’。
图24示出根据实施例的、可穿戴设备100基于对象的移动方向偏移焦点10的例子。在图24中,对象的移动角度是170度,并且可穿戴设备100将焦点10从‘应用’偏移到‘相册’。
图25示出根据实施例的、可穿戴设备100基于对象的移动方向偏移焦点10的例子。在图25中,对象的移动角度是220度,并且可穿戴设备100将焦点10从‘应用’偏移到‘电子邮件’。
图26示出根据实施例的、可穿戴设备100基于对象的移动方向偏移焦点10的例子。在图26中,对象的移动角度是260度,并且可穿戴设备100将焦点10从‘电子邮件’偏移到‘信使’。
图27是根据实施例的、可穿戴设备100识别对象的手势并且改变屏幕的方法的流程图。
在操作2710中,可穿戴设备100检测可穿戴设备100的外围对象。
在操作2720中,可穿戴设备100识别对象的手势。可穿戴设备100获得图像的移动方向并且确定包括所获得的方向的区域。可穿戴设备100感测对象的至少两个移动。在这种情况下中,可穿戴设备100测量对象的移动方向至少两次。
在操作2730中,可穿戴设备100根据可穿戴设备100的屏幕的显示状态和所识别的手势改变屏幕。可穿戴设备100考虑屏幕的显示状态和手势二者改变屏幕。例如,可穿戴设备100记录当前显示的项和先前显示的项并且根据所识别的手势显示先前显示的项。
当对象在设定时间内沿两个或多个不同的方向移动时,可穿戴设备100执行与两个或多个方向的组合相对应的操作。可穿戴设备100设置至少一个区域并且确定相应于所获得的方向的区域。如果测量到对象的两个或多个移动方向,则可穿戴设备100根据相应区域改变屏幕。例如,可穿戴设备100显示先前的屏幕,显示上级文件夹,取消当前执行的程序,和显示先前的屏幕或者主页屏幕。
图28示出根据实施例的、可穿戴设备100通过识别手势操作的方法。参照图28,可穿戴设备100识别对象左右移动的手势并且执行“后退”功能。
图28示出对象的第一移动方向被包括在第四区域中并且对象的第二移动方向被包括在第二区域中的情况。可穿戴设备100执行与第四区域和第二区域的组合相应的功能。例如,可穿戴设备100通过参照屏幕的显示命令执行“后退”功能。
图29示出根据另一实施例的、可穿戴设备通过识别手势操作的方法。参照图29,可穿戴设备100通过识别手势执行“前进”功能。
图29示出对象的第一移动方向被包括在第二区域中并且对象的第二移动方向被包括在第四区域中的情况。可穿戴设备100执行与第二区域和第四区域的组合相应的功能。例如,可穿戴设备100通过参照屏幕的显示命令执行“前进”功能。
图30示出根据另一实施例的、可穿戴设备通过识别手势操作的方法。参照图30,可穿戴设备100通过识别上下移动的对象的手势来执行“移动至上级文件夹”的功能。
图30示出对象的第一移动方向被包括在第一区域中并且对象的第二移动方向被包括在第三区域中的情况。可穿戴设备100执行与第一区域和第三区域的组合相应的功能。例如,可穿戴设备100通过参照文件夹之间的关系执行“移动至上级文件夹”的功能。
图31示出根据另一实施例的、可穿戴设备通过识别手势操作的方法。参照图31,可穿戴设备100通过识别上下移动的对象的手势来执行“移动至下级文件夹”的功能。
图31示出对象的第一移动方向被包括在第三区域中并且对象的第二移动方向被包括在第一区域中的情况。可穿戴设备100执行与第三区域和第一区域的组合相应的功能。例如,可穿戴设备100通过参照文件夹之间的关系执行“移动至下级文件夹”的功能。
图32示出根据另一实施例的、可穿戴设备通过识别手势操作的方法。参照图32,可穿戴设备100通过识别向右、向左和向右移动的对象的手势来执行“移动至主页屏幕或撤销”的功能。
图32示出对象的第一移动方向被包括在第二区域中、对象的第二移动方向被包括在第四区域中以及对象的第三移动方向被包括在第二区域中的情况。可穿戴设备100执行与第二区域和第四区域的组合相应的功能。例如,可穿戴设备100执行“移动到主页屏幕或者撤销”的功能。
图33示出根据另一实施例的、可穿戴设备100输入字符的方法。参照图33,可穿戴设备100获得外围对象的方向并且输入与所获得的方向相应的字符。
可穿戴设备100检测可穿戴设备100的外围对象并且获得外围对象的移动方向。
可穿戴设备100确定与所获得的方向相应的并且包括所获得的方向的区域。可穿戴设备100根据字符输入系统确定区域的数目。在图33中,例如,可穿戴设备100设置8个区域。
可穿戴设备100确定与所确定的区域相应的字符。可穿戴设备100指定与预先设置的区域相应的字符。例如,在图33中,第一区域相应于第二区域相应于第三区域相应于第四区域相应于第五区域相应于第六区域相应于第七区域相应于第八区域相应于特定字符。
当每个区域相应于两个或多个字符时,可穿戴设备100通过另外检测用户的操作确定两个或多个字符中的一个。例如,可穿戴设备100另外检测用户的轻击操作。如果可穿戴设备100确定对象的移动方向相应于第一区域,则可穿戴设备100输入如果可穿戴设备100另外检测到对象的轻击操作,则可穿戴设备100输入
图34是根据另一实施例的、操作可穿戴设备100的方法的流程图。参照图34,可穿戴设备100获得对象的方向并且输入字符。
在操作3410中,可穿戴设备100检测设定范围内的外围对象。
在操作3420中,可穿戴设备100获得外围对象的移动方向。如果外围对象移动,则可穿戴设备100计算外围对象的移动角度,诸如通过使用当检测到外围对象时外围对象的位置以及当外围对象停止移动时外围对象的位置。
在操作3430中,可穿戴设备100根据所获得的方向确定字符。可穿戴设备100根据每个字符输入系统的方向设置区域,确定设定区域当中哪个区域包括所获得的方向,存储对每个区域映射的字符并且确定哪个字符被映射到所确定的区域。
在操作3440中,可穿戴设备100输入所确定的字符。可穿戴设备100在显示单元120上显示所确定的字符。
图35至图41示出根据实施例的导航可穿戴设备100的方法。参照图35至图41,可穿戴设备100检测用户的手势并且执行相应于手势的操作。
在图35中,可穿戴设备100感测轻击操作并且选择或者运行当前项。显示单元120显示项。如果可穿戴设备100感测到轻击操作,则可穿戴设备100选择当前显示在显示单元120上的项。
在图36中,可穿戴设备100感测双击操作并且在显示单元120上显示选项。例如,可穿戴设备100根据显示单元120上的当前显示状态显示可执行功能。图36示出可穿戴设备100感测双击操作并且在显示单元120上显示“选择全部”和“取消选择全部”的情况。
在图37中,可穿戴设备100感测滑动操作并且旋转显示在显示单元120上的项。可穿戴设备100根据手指滑动的方向确定项的旋转方向。在图37中,可穿戴设备100感测对象向下滑动的操作并且向下移动显示在显示单元120上的项。
在图38中,可穿戴设备100感测两个手指滑动并且旋转显示在显示单元120上的项的操作。可穿戴设备100将两个手指滑动时项的旋转速度提高得比一个手指滑动时更快。
在图39中,可穿戴设备100感测手指的扫动操作并且显示主页屏幕或者执行撤消功能。可穿戴设备100确定手指左右移动超过3次的操作为扫动操作。主页屏幕是诸如可穿戴设备100的初始屏幕这样的基本屏幕。撤消功能是用于撤销最新近执行的功能。
在图40中,可穿戴设备100感测手指向左移动并且移动到前一屏幕的操作。可穿戴设备100在显示当前屏幕之前显示最新近的屏幕。
在图41中,可穿戴设备100感测手指向右移动的操作并且移动到下一屏幕。
图42和图43示出根据实施例的、可穿戴设备100感测用户的手的背面上的触摸并且输入字符的方法。可穿戴设备100的显示单元120几乎总是小于智能电话或者平板计算机的显示单元。因此,当用户触摸可穿戴设备100的显示单元120并且输入字符时,可能会发生打字错误。根据实施例的可穿戴设备100在用户的手背上设置相比较显示单元120来说相对宽的区域,由此准确地识别将由用户输入的字符。
参照图42,可穿戴设备100将用户的手背划分为多个区域。在图42中,例如,可穿戴设备100将手背划分为12个区域。
可穿戴设备100设置穿戴着可穿戴设备100的用户的手背的范围。
可穿戴设备100确定用户触摸多个区域当中的哪个区域。可穿戴设备100通过提供于侧面的传感器来感测用户触摸用户的手背的哪个部分。换句话说,可穿戴设备100确定感测到的用户的手指的位置。例如,可穿戴设备100测量两个传感器与用户的手指之间的距离并且通过使用测量的距离计算感测到用户的手指的位置。
可穿戴设备100确定与用户触摸的区域相应的字符。可穿戴设备100映射设定的区域和字符。图42示出映射到12个区域的字符。例如,第二排和第二列区域被映射到
图43示出输入到可穿戴设备100的字符和用于输入所显示的字符的指南。参照图43,可穿戴设备100通过感测用户触摸和根据触摸的位置输入字符来显示输入到显示单元120的字符。
可穿戴设备100在显示单元120上显示字符输入指南。换句话说,可穿戴设备100显示字符在显示单元120上排列的状态。用户可以通过参照字符输入指南识别触摸位置。
图44和图45示出根据实施例的、可穿戴设备100的触摸传感器150的布置。参照图44,可穿戴设备10包括在可穿戴设备100的正面的左和右(可穿戴设备100的左侧配置中所示)或上和下(可穿戴设备100的右侧配置中所示)边缘位置的触摸传感器150。触摸传感器150被布置为围绕显示单元120。
图46示出根据实施例的字符输入法。参照图46,可穿戴设备100通过使用触摸传感器150输入字符。可穿戴设备100与布置在四边的触摸传感器150并行地显示字符。例如,首辅音布置在可穿戴设备100的最上端,中辅音布置在可穿戴设备100的右侧,末辅音布置在可穿戴设备100的最下端,并且移动显示布置在可穿戴设备100的左侧。可穿戴设备100确定在触摸传感器150中感测到用户触摸的位置并且输入布置在所确定的位置的字符。韩语字符布置在图46中,但是也可以布置诸如英语、日语和西班牙语之类的各种语言的字符。
图47示出根据另一实施例的字符输入法。参照图47,可穿戴设备100通过感测触摸、拖拽和放开操作输入字符。
在操作1中,可穿戴设备100通过触摸传感器150感测触摸操作。如果感测到触摸操作,则可穿戴设备100确定触摸位置并且放大并显示部署在确定位置中的字符。
在操作2中,可穿戴设备100通过触摸传感器150感测拖拽操作。拖拽操作是用户在触摸触摸传感器150的同时移动的情况。如果感测到拖拽操作,则可穿戴设备100根据用户触摸输入的移动放大字符。
在操作3中,可穿戴设备100通过触摸传感器150感测放开操作。放开操作是用户结束触摸输入的情况。例如,接触触摸传感器150的用户手指从触摸传感器150放开。如果感测到放开操作,则可穿戴设备100输入当感测到放开操作时放大的字符并且在显示单元上显示字符。在图47中输入了
图48和图49示出根据另一实施例的字符输入法。参照图48和图49,可穿戴设备100感测至少两个触摸操作并且输入字符。
在操作1中,可穿戴设备100通过触摸传感器150感测触摸操作。
在操作2中,如果感测到触摸操作,则可穿戴设备100确定触摸的位置并且放大并显示邻近于所确定的位置的至少一个字符。例如,可穿戴设备100放大并显示在所确定的位置上显示的字符以及显示在邻近于所确定的位置上的字符。在图49中,当用户触摸触摸传感器150上显示的部分时,可穿戴设备100放大并且显示和邻近于
在操作3中,用户触摸触摸传感器150或者放大的字符。在图49中,用户触摸在之中的
在操作4中,可穿戴设备100确定放大字符当中被用户触摸的字符,输入所确定的字符,并且在显示单元上显示输入字符。
图50至图54示出根据实施例的屏幕旋转方法。参照图50至图54,可穿戴设备100通过使用部署在可穿戴设备100的边缘的触摸传感器150旋转屏幕。
图50和图51示出触摸传感器150部署在可穿戴设备100的上端和下端的情况。可穿戴设备100通过部署在上端和下端的触摸传感器150接收用户触摸,并且根据接收到的触摸的模式旋转屏幕。图50示出可穿戴设备100根据用户输入以顺时针方向旋转图的例子。
图51示出感测图50的用户输入的模式的方法。可穿戴设备100在上端和下端触摸传感器150中感测触摸和拖拽操作。可穿戴设备100确定触摸传感器150感测到的拖拽操作的方向。可穿戴设备100根据由上和下触摸传感器150感测到的拖拽操作的方向,执行设置的操作。例如,当上触摸传感器150感测到的拖拽操作的方向和下触摸传感器150感测到的拖拽操作方向彼此相反时,可穿戴设备100旋转屏幕。
在图51中,上触摸传感器150感测从左到右方向的拖拽操作,下触摸传感器150感测从右到左方向的拖拽操作。可穿戴设备100以顺时针方向旋转屏幕。
在图52中,当上触摸传感器150感测到从右到左方向的拖拽操作,并且下触摸传感器150感测到从左到右方向的拖拽操作时,可穿戴设备100以逆时针方向旋转屏幕。
图53和图54示出触摸传感器150部署在可穿戴设备100的左侧和右侧的情况。可穿戴设备100通过部署在左侧和右侧的触摸传感器153接收用户触摸,并且根据接收到的触摸的模式旋转屏幕。
图53示出可穿戴设备100根据用户输入以顺时针方向旋转图的例子。可穿戴设备100在左和右触摸传感器150中感测触摸和拖拽操作。可穿戴设备100确定触摸传感器150感测到的拖拽操作的方向。可穿戴设备100根据由左和右触摸传感器150感测到的拖拽操作的方向,执行设置的操作。例如,当左触摸传感器150感测到的拖拽操作的方向和右触摸传感器150感测到的拖拽操作方向彼此相反时,可穿戴设备100旋转屏幕。
在图53中,左触摸传感器150感测从下到上方向的拖拽操作,下触摸传感器150感测从上到下方向的拖拽操作。可穿戴设备100以顺时针方向旋转屏幕。
在图54中,当左触摸传感器150感测到从上到下方向的拖拽操作,并且下触摸传感器150感测到从下到上方向的拖拽操作时,可穿戴设备100以逆时针方向旋转屏幕。
如上所述,根据实施例,操作可穿戴设备的方法为用户提供方便的菜单选择方法。
在这里描述的设备可以包含处理器、用于存储和运行程序数据的存储器、诸如硬盘这样的永久性存储装置、用于处理与外部设备通信的通信端口和包括触摸面板、键和按钮等等的用户接口设备。当涉及软件模块或算法时,这些软件模块可以存储为可在处理器或计算机可读媒介上运行的程序指令或者计算机可读代码。计算机可读记录介质的例子包括诸如只读存储器(ROM)、软盘和硬盘这样的磁存储介质以及诸如CD-ROM或者DVD这样的光记录介质。计算机可读记录介质还可以分布在网络耦接计算机系统上以便计算机可读代码以分布式方式存储和运行。该媒介可以由计算机读取、存储在存储器中、并且由处理器运行。
本发明构思可以按照功能块元件和各种处理步骤描述。这些功能块可以通过被配置为执行规定功能的任意数量的硬件与/和软件组件实现。例如,本发明构思可以使用各种集成电路(IC)元件,例如存储元件、处理元件、逻辑元件和查找表等等,它们可以在一个或多个微处理器或者其它控制设备的控制下执行各种功能。类似地,在使用软件编程或者软件组件实现本发明构思的元件时本发明构思可以用诸如C、C++、Java或者汇编程序等等之类的任意编程或者脚本语言,通过用数据结构、对象、程序、例程或者其他程序元件的任意组合实现的各种算法来实现。功能方面可以用在一个或多个处理器上运行的算法中实现。此外,本发明构思能够使用任意数量的用于电子结构、信号处理与/和控制、数据处理等等的传统方法。词语“机制”、“元件”、“装置”和“结构”被广泛地使用并且不局限于机械或物理实施,而是能够包括结合处理器的软件例程等等。
在这里显示和描述的特定实施人是本发明构思的说明性示例,而绝不意在以任意方式限制本发明构思的范围。为了简洁起见,传统的电子设备、控制系统、软件开发以及系统的其它功能方面可能没有详细描述。此外,所给出的各种图中所示的连接线或者连接器是用来表示各种元件之间的功能关系或各种元件之间的物理或者逻辑耦合。应当注意到,在实际器件中可以存在许多替换物或者附加功能关系、物理连接或者逻辑连接。
应当理解,这里描述的示范性实施例应当考虑仅仅是描述性意义而非为了限制。每个实施例内特征或方面的描述应该典型地被认为是对于其它实施例中的其它类似特征或方面可获得的。
虽然已经参照本发明的特定实施例示出并且描述了本发明,但是本领域技术人员将理解的是,在形式和细节上可以在这里进行各种变化而不脱离如所附权利要求及其等效物所定义的本公开的精神和范围。

Claims (16)

1.一种可穿戴设备,包括:
传感器,检测外围对象的移动;
显示单元,显示多个项以及在所述多个项中的至少一个上显示焦点;和
处理器,控制所述显示单元将焦点偏移到位于与所述外围对象的移动方向相应的位置处的项。
2.如权利要求1所述的可穿戴设备,其中,所述处理器还计算外围对象开始移动的起点的坐标以及外围对象停止移动的终点的坐标,并且通过使用所述起点和终点与所述可穿戴设备之间的位置关系获得移动方向。
3.如权利要求1所述的可穿戴设备,其中,所述处理器还预先设置一个或多个区域,确定所述一个或多个区域当中包括所述外围对象的移动方向的区域,以及确定焦点的偏移方向。
4.如权利要求3所述的可穿戴设备,其中,所述处理器还设置所述一个或多个区域之间的中性区域。
5.如权利要求4所述的可穿戴设备,其中,当所述移动方向被包括在所述中性区域中时,所述处理器还控制所述显示单元向用户提供反馈。
6.如权利要求1所述的可穿戴设备,其中,所述处理器还获得外围对象在可穿戴设备的侧面或正面的移动方向。
7.如权利要求1所述的可穿戴设备,其中,所述处理器还根据焦点的当前位置设置与焦点的可偏移方向相应的一个或多个区域,确定所述一个或多个区域当中包括所述外围对象的移动方向的区域,以及确定焦点的偏移方向。
8.如权利要求1所述的可穿戴设备,其中,所述处理器还计算所述外围对象的移动角度以及确定焦点的偏移方向。
9.一种操作可穿戴设备的方法,所述方法包括:
显示多个项以及在所述多个项中的至少一个上显示焦点;
检测外围对象的移动;和
将焦点偏移并且显示在位于与所述外围对象的移动方向相应的位置处的项上。
10.如权利要求9所述的方法,还包括:
计算所述外围对象开始移动的起点的坐标和所述外围对象停止移动的终点的坐标,并且通过使用所述起点和终点与所述可穿戴设备之间的位置关系获得所述移动方向。
11.如权利要求9所述的方法,还包括:
设置一个或多个区域;和
确定所述一个或多个区域当中包括所述外围对象的移动方向的区域,
其中,显示所述多个项包括将焦点偏移并且显示在位于与所确定的区域相应的方向的位置的项上。
12.如权利要求11所述的方法,其中,设置所述一个或多个区域包括设置所述一个或多个区域之间的中性区域。
13.如权利要求12所述的方法,还包括:
当所获得的移动方向被包括在所述中性区域中时向用户提供反馈。
14.如权利要求10所述的方法,其中,所述外围对象的移动方向是在所述可穿戴设备的侧面或正面获得的。
15.如权利要求11所述的方法,其中,设置所述一个或多个区域还包括根据焦点的当前位置设置与焦点的可偏移方向相应的区域。
16.如权利要求9所述的方法,其中,偏移并且显示焦点包括:计算所述外围对象的移动角度,确定焦点的偏移方向,并且根据所确定的偏移方向偏移并且显示焦点。
CN201510458504.2A 2014-07-30 2015-07-30 可穿戴设备和操作可穿戴设备的方法 Active CN105320275B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20140097613 2014-07-30
KR10-2014-0097613 2014-07-30
KR10-2015-0047493 2015-04-03
KR1020150047493A KR102397397B1 (ko) 2014-07-30 2015-04-03 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법

Publications (2)

Publication Number Publication Date
CN105320275A true CN105320275A (zh) 2016-02-10
CN105320275B CN105320275B (zh) 2019-08-16

Family

ID=53758078

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510458504.2A Active CN105320275B (zh) 2014-07-30 2015-07-30 可穿戴设备和操作可穿戴设备的方法

Country Status (4)

Country Link
US (2) US9823751B2 (zh)
EP (1) EP2980677B1 (zh)
CN (1) CN105320275B (zh)
WO (1) WO2016017956A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108139774A (zh) * 2016-07-04 2018-06-08 华为技术有限公司 可穿戴电子设备
WO2018157378A1 (zh) * 2017-03-03 2018-09-07 小天才科技有限公司 一种调整拍照焦点的方法、装置及可穿戴设备
CN109144349A (zh) * 2018-08-07 2019-01-04 西交利物浦大学 一种虚拟、增强或混合现实头显运动方向识别方法及系统
CN110892705A (zh) * 2017-06-29 2020-03-17 林克物流有限公司 通过判断最佳状况来进行拍摄的方法及执行该方法的装置
CN111289029A (zh) * 2018-12-07 2020-06-16 恩德莱斯和豪瑟尔分析仪表两合公司 传感器测量系统和指派传感器测量系统中的传感器的方法
CN112887616A (zh) * 2021-01-27 2021-06-01 维沃移动通信有限公司 拍摄方法和电子设备

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016017956A1 (en) * 2014-07-30 2016-02-04 Samsung Electronics Co., Ltd. Wearable device and method of operating the same
KR102380228B1 (ko) * 2014-11-14 2022-03-30 삼성전자주식회사 디바이스를 제어하는 방법 및 그 디바이스
WO2017064771A1 (ja) * 2015-10-14 2017-04-20 日立マクセル株式会社 入力端末装置および操作入力方法
US11086422B2 (en) * 2016-03-01 2021-08-10 Maxell, Ltd. Wearable information terminal
KR102559030B1 (ko) 2016-03-18 2023-07-25 삼성전자주식회사 터치 패널을 포함하는 전자 장치 및 그 제어 방법
WO2017191626A1 (en) 2016-05-01 2017-11-09 B. G. Negev Technologies And Applications Ltd., At Ben-Gurion University A method for online signature verification using wrist-worn devices

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1940635A (zh) * 2005-09-26 2007-04-04 大学光学科技股份有限公司 具有手机功能的焦距可调整的头戴式显示器
CN101203003A (zh) * 2006-11-03 2008-06-18 捷讯研究有限公司 开关组件和相关的手持电子设备
CN101619976A (zh) * 2008-07-01 2010-01-06 联想(北京)有限公司 一种位置定位检索装置和方法
CN102346637A (zh) * 2010-07-28 2012-02-08 索尼公司 信息处理装置、信息处理方法及计算机程序
US20130335303A1 (en) * 2012-06-14 2013-12-19 Qualcomm Incorporated User interface interaction for transparent head-mounted displays

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU5238100A (en) * 1999-06-09 2000-12-28 Malvern Scientific Solutions Limited Communication system and method
KR20010110615A (ko) 2000-06-07 2001-12-13 이기방 피부의 움직임을 감지하여 작동되는 정보입력장치와 이를이용한 이동정보처리장치와 컴퓨터와 이동통신기기
JP4882540B2 (ja) * 2006-06-23 2012-02-22 富士通株式会社 移動指示装置、入力方法、入力プログラム
US7804488B2 (en) * 2006-11-03 2010-09-28 Research In Motion Limited Method of employing a switch assembly to provide input, and handheld electronic device
TW200921478A (en) * 2007-11-06 2009-05-16 Giga Byte Comm Inc A picture-page scrolling control method of touch panel for hand-held electronic device and device thereof
US8112281B2 (en) * 2007-12-19 2012-02-07 Enbiomedic Accelerometer-based control of wearable audio recorders
GB0801396D0 (en) * 2008-01-25 2008-03-05 Bisutti Giovanni Electronic apparatus
JP5104679B2 (ja) * 2008-09-11 2012-12-19 ブラザー工業株式会社 ヘッドマウントディスプレイ
US8624836B1 (en) 2008-10-24 2014-01-07 Google Inc. Gesture-based small device input
US9591118B2 (en) 2009-01-01 2017-03-07 Intel Corporation Pose to device mapping
US8098141B2 (en) * 2009-02-27 2012-01-17 Nokia Corporation Touch sensitive wearable band apparatus and method
JP5295839B2 (ja) 2009-03-30 2013-09-18 株式会社東芝 情報処理装置、フォーカス移動制御方法及びフォーカス移動制御プログラム
JP4991829B2 (ja) 2009-11-09 2012-08-01 株式会社デンソー 遠隔操作デバイス用表示制御装置
JP5786854B2 (ja) 2010-03-15 2015-09-30 日本電気株式会社 入力装置、入力方法及びプログラム
CN102763057B (zh) 2010-03-15 2016-07-13 日本电气株式会社 输入设备、方法和程序
JP5501992B2 (ja) * 2010-05-28 2014-05-28 パナソニック株式会社 情報端末、画面部品表示方法、プログラム、及び記録媒体
US20110314425A1 (en) * 2010-06-16 2011-12-22 Holy Stone Enterprise Co., Ltd. Air gesture recognition type electronic device operating method
US8593398B2 (en) 2010-06-25 2013-11-26 Nokia Corporation Apparatus and method for proximity based input
EP2635952B1 (en) 2010-11-01 2021-01-06 InterDigital CE Patent Holdings Method and device for detecting gesture inputs
US9011292B2 (en) * 2010-11-01 2015-04-21 Nike, Inc. Wearable device assembly having athletic functionality
EP2455841A3 (en) 2010-11-22 2015-07-15 Samsung Electronics Co., Ltd. Apparatus and method for selecting item using movement of object
US9323339B2 (en) 2011-04-27 2016-04-26 Nec Solution Innovators, Ltd. Input device, input method and recording medium
JP5794526B2 (ja) 2011-08-02 2015-10-14 国立大学法人 奈良先端科学技術大学院大学 インタフェースシステム
US9081177B2 (en) * 2011-10-07 2015-07-14 Google Inc. Wearable computer with nearby object response
US10013053B2 (en) * 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
JP5231663B2 (ja) 2012-02-29 2013-07-10 株式会社デンソー 遠隔操作デバイス用表示制御装置
US9189062B2 (en) 2012-03-07 2015-11-17 Google Technology Holdings LLC Portable electronic device and method for controlling operation thereof based on user motion
US20130254705A1 (en) * 2012-03-20 2013-09-26 Wimm Labs, Inc. Multi-axis user interface for a touch-screen enabled wearable device
KR101974176B1 (ko) * 2012-08-31 2019-04-30 삼성전자주식회사 디스플레이장치와 그 제어방법
KR20140062893A (ko) * 2012-11-15 2014-05-26 삼성전자주식회사 점자를 표현하는 웨어러블 디바이스와 그 제어 방법
US9654426B2 (en) * 2012-11-20 2017-05-16 Dropbox, Inc. System and method for organizing messages
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US9030446B2 (en) * 2012-11-20 2015-05-12 Samsung Electronics Co., Ltd. Placement of optical sensor on wearable electronic device
US9477313B2 (en) 2012-11-20 2016-10-25 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving outward-facing sensor of device
US10185416B2 (en) * 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US20140184384A1 (en) 2012-12-27 2014-07-03 Research Foundation Of The City University Of New York Wearable navigation assistance for the vision-impaired
JP5915552B2 (ja) * 2013-01-23 2016-05-11 ソニー株式会社 ヘッドマウントディスプレイ、表示装置及び入力装置
KR102099358B1 (ko) * 2013-04-22 2020-04-09 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US20160291687A1 (en) * 2013-05-21 2016-10-06 Sony Corporation Display control device, display control method, and recording medium
KR102144763B1 (ko) * 2013-05-22 2020-08-28 삼성전자주식회사 웨어러블 부가 장치를 통한 스케줄 표시 방법 및 장치
GB2517419A (en) * 2013-08-19 2015-02-25 Arm Ip Ltd Wrist worn device
US9400572B2 (en) * 2013-12-02 2016-07-26 Lenovo (Singapore) Pte. Ltd. System and method to assist reaching screen content
JP6201770B2 (ja) * 2014-01-15 2017-09-27 富士通株式会社 ジェスチャui装置、ジェスチャui方法及びプログラム
US20150277715A1 (en) * 2014-04-01 2015-10-01 Microsoft Corporation Content display with contextual zoom focus
EP3138065A4 (en) * 2014-04-30 2018-01-03 Michael Flynn Mobile computing system with user preferred interactive components
KR20150129423A (ko) * 2014-05-12 2015-11-20 삼성전자주식회사 전자 장치 및 전자 장치의 제스처 인식 방법 및 전자 장치
WO2016017956A1 (en) * 2014-07-30 2016-02-04 Samsung Electronics Co., Ltd. Wearable device and method of operating the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1940635A (zh) * 2005-09-26 2007-04-04 大学光学科技股份有限公司 具有手机功能的焦距可调整的头戴式显示器
CN101203003A (zh) * 2006-11-03 2008-06-18 捷讯研究有限公司 开关组件和相关的手持电子设备
CN101619976A (zh) * 2008-07-01 2010-01-06 联想(北京)有限公司 一种位置定位检索装置和方法
CN102346637A (zh) * 2010-07-28 2012-02-08 索尼公司 信息处理装置、信息处理方法及计算机程序
US20130335303A1 (en) * 2012-06-14 2013-12-19 Qualcomm Incorporated User interface interaction for transparent head-mounted displays

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108139774A (zh) * 2016-07-04 2018-06-08 华为技术有限公司 可穿戴电子设备
US10691166B2 (en) 2016-07-04 2020-06-23 Huawei Technologies Co., Ltd. Wearable electronic device having multiple touch sensitive areas outside of viewable display area
CN108139774B (zh) * 2016-07-04 2020-07-21 华为技术有限公司 可穿戴电子设备
WO2018157378A1 (zh) * 2017-03-03 2018-09-07 小天才科技有限公司 一种调整拍照焦点的方法、装置及可穿戴设备
CN110892705A (zh) * 2017-06-29 2020-03-17 林克物流有限公司 通过判断最佳状况来进行拍摄的方法及执行该方法的装置
CN109144349A (zh) * 2018-08-07 2019-01-04 西交利物浦大学 一种虚拟、增强或混合现实头显运动方向识别方法及系统
CN111289029A (zh) * 2018-12-07 2020-06-16 恩德莱斯和豪瑟尔分析仪表两合公司 传感器测量系统和指派传感器测量系统中的传感器的方法
CN112887616A (zh) * 2021-01-27 2021-06-01 维沃移动通信有限公司 拍摄方法和电子设备
CN112887616B (zh) * 2021-01-27 2022-08-26 维沃移动通信有限公司 拍摄方法和拍摄装置

Also Published As

Publication number Publication date
US20180067564A1 (en) 2018-03-08
US9823751B2 (en) 2017-11-21
EP2980677B1 (en) 2022-11-16
US10437346B2 (en) 2019-10-08
WO2016017956A1 (en) 2016-02-04
US20160034041A1 (en) 2016-02-04
CN105320275B (zh) 2019-08-16
EP2980677A1 (en) 2016-02-03

Similar Documents

Publication Publication Date Title
CN105320275A (zh) 可穿戴设备和操作可穿戴设备的方法
US10013143B2 (en) Interfacing with a computing application using a multi-digit sensor
US9747018B2 (en) Apparatus and method for controlling object
EP2840478B1 (en) Method and apparatus for providing user interface for medical diagnostic apparatus
US20110157236A1 (en) Head-mounted display
US10345912B2 (en) Control method, control device, display device and electronic device
CN106062678A (zh) 柔性触敏显示装置及其控制方法
EP3250989A1 (en) Optical proximity sensor and associated user interface
US20140184538A1 (en) Display apparatus, display method, and display program
CN109316740B (zh) 检测手指的电子装置、方法及系统以及非暂态可读取媒体
JP2014139759A (ja) 情報機器及び情報処理方法
TWI537771B (zh) 穿戴式裝置及其操作方法
US10564762B2 (en) Electronic apparatus and control method thereof
KR101535738B1 (ko) 비접촉 동작 제어가 가능한 스마트 디바이스 및 이를 이용한 비접촉 동작 제어 방법
KR20140086805A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록매체
KR101598579B1 (ko) 안내정보를 제공하는 사용자 인터페이스 장치 및 안내정보 제공 방법
EP3059664A1 (en) A method for controlling a device by gestures and a system for controlling a device by gestures
US20150323999A1 (en) Information input device and information input method
JP2018032123A (ja) 操作入力装置
JP2018032122A (ja) 表示操作装置
EP3374847B1 (en) Controlling operation of a 3d tracking device
KR101629737B1 (ko) 문자 입력 장치, 문자 입력 방법, 문자 입력을 위한 컴퓨터 판독가능 기록매체 및 컴퓨터 프로그램
JP2017117166A (ja) 電子機器、プログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant