CN107111446B - 控制设备的方法和系统 - Google Patents

控制设备的方法和系统 Download PDF

Info

Publication number
CN107111446B
CN107111446B CN201580070729.9A CN201580070729A CN107111446B CN 107111446 B CN107111446 B CN 107111446B CN 201580070729 A CN201580070729 A CN 201580070729A CN 107111446 B CN107111446 B CN 107111446B
Authority
CN
China
Prior art keywords
input
hover
application
position information
hovering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201580070729.9A
Other languages
English (en)
Other versions
CN107111446A (zh
Inventor
朱有晟
金要汉
白恩娇
李钟元
郑铉权
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN107111446A publication Critical patent/CN107111446A/zh
Application granted granted Critical
Publication of CN107111446B publication Critical patent/CN107111446B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

一种控制设备的方法,包括:确定由设备所接收的悬浮输入的3维(3D)位置信息;基于应用的操作以及悬浮输入的3D位置信息,选择与由设备所执行的应用的操作有关的多个任务中的至少一个;以及通过根据悬浮输入获得执行输入的分类,实施所选择的至少一个任务。

Description

控制设备的方法和系统
技术领域
根据示例性实施例的方法和装置涉及用于控制设备的方法和系统。
背景技术
由于网络和多媒体技术的发展,设备的用户可以接收来自服务提供服务器的各种服务。而且,随着针对设备进行研究以及网络和多媒体技术的发展,许多设备可以向用户提供各种形式的接口。
因为设备提供各种服务和各种用户接口,所以可以使用各种形式的用户输入来控制设备以接收所期望的服务。因为设备包括各种类型的传感器,所以最近已经引入了通过识别各种形式的输入以提供适合于用户可访问服务的输入接口来控制设备的技术。
发明内容
技术问题
因为设备提供各种服务以及各种用户接口,所以可以使用各种形式的用户输入来控制设备以接收所期望的服务。
问题的解决方案
一种控制设备的方法,包括:确定由设备所接收的悬浮输入的3维(3D)位置信息;基于应用的操作以及悬浮输入的3D位置信息,选择与由设备所执行的应用的操作有关的多个任务中的至少一个;以及通过根据悬浮输入获得执行输入的分类,实施所选择的至少一个任务。
附图说明
根据下面结合附图描述的一个或多个示例性实施例,这些和/或其他方面将变得明显并且更容易领会,附图中:
图1是例示根据示例性实施例的设备控制方法的图;
图2是根据示例性实施例的设备控制方法的流程图;
图3是根据示例性实施例的基于由设备所获得的悬浮输入的3D位置信息的设备控制方法的流程图;
图4是例示根据示例性实施例的基于由设备所获得的悬浮输入的3D位置信息来选择多个任务中的一个的方法的图;
图5a至图5c是例示根据示例性实施例的方法的图,其中,设备基于悬浮输入的3D位置信息,选择多个任务中的一个;
图6a至图6c是例示根据示例性实施例的方法的图,其中,当执行日记应用时,设备基于悬浮输入的类型,选择与日记应用有关的多个任务中的一个;
图7a至图7c是例示根据示例性实施例的方法的图,其中,当执行音乐播放应用时,设备基于悬浮输入的类型,选择与音乐播放应用有关的多个任务中的一个;
图8a至图8c是例示根据示例性实施例的方法的图,其中,当执行绘图板应用时,设备基于悬浮输入的类型,选择与绘图板应用有关的多个任务的一个;
图9a至图9c是例示根据示例性实施例的方法的图,其中,当执行照片文件夹应用时,设备基于悬浮输入的类型,选择与照片文件夹应用有关的多个任务的一个;
图10是根据示例性实施例的设备控制方法的流程图,其中,设备100基于与在执行应用时所输出的对象中的一个相对应的悬浮输入,控制另一个设备;
图11a和图11b是例示根据示例性实施例的设备控制方法的图,其中,设备基于与在执行应用时所输出的对象中的一个相对应的悬浮输入,控制另一个设备;
图12是根据示例性实施例的方法的流程图,其中,设备基于悬浮输入单元的移动以及悬浮输入的3D位置信息,选择多个任务中的至少一个;
图13a和图13b是例示根据示例性实施例的方法的图,其中,设备基于悬浮输入单元的移动以及悬浮输入的3D位置信息,实施多个任务中的至少一个;
图14a和图14b是例示根据示例性实施例的方法的图,其中,设备基于悬浮输入单元的移动模式以及悬浮输入的3D位置信息,实施多个任务中的至少一个;
图15是根据示例性实施例的方法的流程图,其中,设备根据基于悬浮输入的3D位置信息所确定的实施单位来实施任务;
图16a至图16c是例示根据示例性实施例的方法的图,其中,当执行视频播放器应用时,设备根据基于悬浮输入的3D位置信息所确定的实施单位来实施任务;
图17是例示根据示例性实施例的用于控制设备的系统的图;
图18是例示根据示例性实施例的由用于控制设备的系统所实施的设备控制方法的流程图;
图19a和图19b是例示根据示例性实施例的方法的图,其中,用于控制设备的系统控制设备和第二设备;
图20a和图20b是例示根据另一个示例性实施例的方法的图,其中,用于控制设备的系统控制第一设备和第二设备;
图21和图22是例示根据示例性实施例的设备的配置的框图;以及
图23是例示根据示例性实施例的用于控制设备的系统中所包括的设备的配置的框图。
具体实施方式
示例性实施例解决至少上述问题和/或缺点以及上面没有描述的其他缺点。而且,示例性实施例不需克服上面描述的缺点,并且可以不克服上面描述的任何问题。
一个或多个示例性实施例的方面涉及基于由设备所获得的悬浮输入来控制在设备上所显示的对象的系统。
另外的方面将在接下来的描述中部分地阐述,并且将根据该描述而部分地显而易见,或者可以通过一个或多个示例性实施例的实践来学习。
根据示例性实施例的一方面,提供一种控制设备的方法,该方法包括:确定悬浮输入的3维(3D)位置信息;在与由设备所执行的应用的操作以及悬浮输入的3D位置信息相对应的多个任务之中,选择至少一个任务;根据悬浮输入,确定执行输入的分类;根据所确定的执行输入的分类,实施所选择的至少一个任务。
选择至少一个任务可以包括:确定设备与悬浮输入器之间的距离;基于距离,确定悬浮输入的3D位置信息;以及基于根据悬浮输入的3D位置信息所确定的悬浮输入的分类,选择至少一个任务。
选择至少一个任务可以包括:在指示多个任务的一个或多个对象之中,确定与悬浮输入器的位置相对应的对象;以及根据所确定的对象和悬浮输入的3D位置信息,选择至少一个任务。
选择至少一个任务可以包括选择由所确定的对象所指示的至少一个任务,并且其中实施所选择的至少一个任务可以包括:使用悬浮输入的3D位置信息,确定所选择的至少一个任务的乘数;以及使用所确定的乘数,实施所选择的至少一个任务。
多个任务可以根据与由设备所执行的应用的第一操作相对应的第二操作来识别。
选择至少一个任务可以包括:当执行应用时,基于悬浮输入的3D位置信息,在由设备所输出的至少一个对象所指示的多个应用之中,选择至少一个应用。
选择至少一个任务可以包括:接收关于悬浮输入器的移动方向的信息;选择与悬浮输入器的移动方向相对应的至少一个任务;以及基于悬浮输入的3D位置信息,实施所选择的至少一个任务。
选择至少一个任务可以包括:基于悬浮输入器的移动模式,确定悬浮输入的分类;选择与悬浮输入的分类相对应的多个任务中的至少一个;以及基于悬浮输入的3D位置信息,实施所选择的至少一个任务。
确定执行输入的分类可以包括:基于应用的先前存储的数据库,确定悬浮输入是否对应于执行输入;其中,实施所选择的至少一个任务可以包括:当接收到与悬浮输入相对应的执行输入时,实施所选择的至少一个任务。
根据另一个示例性实施例的一方面,提供有一种控制设备的方法,该方法包括:确定包括由第一设备所接收的悬浮输入的3D位置信息的特性信息;将特性信息传送给第二设备;以及在与由第二设备所执行的应用的操作以及特性信息有关的多个任务之中,执行至少一个任务。
悬浮输入的3D位置信息可以基于悬浮输入器与第一设备之间的距离来确定,并且其中,悬浮输入的特性信息还可以包括悬浮输入器的移动信息。
多个任务可以通过实施与由第二设备所执行的应用的第一操作有关的第二操作来识别。
根据另一个示例性实施例的一方面,提供有一种设备,其包括:输入接口,被配置为接收悬浮输入;控制器,被配置为在与由设备所执行的应用的操作以及悬浮输入的3维(3D)位置信息相对应的多个任务之中,选择至少一个任务,并且根据悬浮输入,确定执行输入的分类;以及输出接口,被配置为根据所确定的执行输入的分类,实施所选择的至少一个任务。
控制器还可以被配置为:确定设备与悬浮输入器之间的距离;基于距离,确定悬浮输入的3D位置信息;以及基于根据悬浮输入的3D位置信息所确定的悬浮输入的分类,选择至少一个任务。
控制器还可以被配置为:在指示多个任务的一个或多个对象之中,确定与悬浮输入器的位置相对应的对象;以及输出所确定的对象;其中,可以根据所确定的对象以及悬浮输入的3D位置信息来选择至少一个任务。
控制器还可以被配置为在由所确定的对象所指示的多个任务之中,选择至少一个任务,并且使用悬浮输入的3D位置信息来确定所选择的至少一个任务的乘数,其中,输出接口还可以被配置为根据所确定的乘数来实施所选择的至少一个任务。
多个任务可以根据与由设备所执行的应用的第一操作相对应的第二操作来识别。
当执行应用时,控制器还可以被配置为基于悬浮输入的3D位置信息,在由设备所输出的至少一个对象所指示的多个应用之中,选择至少一个应用。
控制器还可以被配置为:接收关于悬浮输入器的移动方向的信息;选择与悬浮输入器的移动方向相对应的至少一个任务;以及基于悬浮输入的3D位置信息,实施所选择的至少一个任务。
控制器还可以被配置为:基于悬浮输入器的移动模式,确定悬浮输入的分类;选择与悬浮输入的分类相对应的至少一个任务;以及基于悬浮输入的3D位置信息,实施所选择的至少一个任务。
控制器还可以被配置为基于应用的先前存储的数据库来确定悬浮输入是否对应于执行输入,其中,当接收到与悬浮输入相对应的执行输入时,输出接口还可以被配置为实施所选择的至少一个任务。
根据另一个示例性实施例的一方面,提供有一种设备,其包括:第一设备,被配置为确定包括由第一设备所接收的悬浮输入的3维(3D)位置信息的特性信息;以及第二设备,被配置为从第一设备接收特性信息,并且在与所执行的应用的操作以及特性信息有关的多个任务之中,实施至少一个任务。
悬浮输入的3D位置信息可以基于悬浮输入器与第一设备之间的距离来确定,并且其中,悬浮输入的特性信息还可以包括悬浮输入器的移动信息。
多个任务可以根据与由第二设备所执行的应用的第一操作相对应的第二操作来识别。
根据另一个示例性实施例的一方面,提供有一种显示设备,其包括:传感器,被配置为检测用户输入;显示器,被配置为显示至少一个对象;控制器,被配置为实施与最接近于所检测到的用户输入的对象相对应的应用的操作,其中,所实施的操作基于从用户输入到显示器的距离。
响应于应用是音乐播放器以及操作是快进操作,可以以与从用户输入到显示器的距离相对应的速度来实施快进操作。
所实施的操作可以基于用户输入的移动。
现在将详细地参考一个或多个示例性实施例,它们的示例在附图中例示,其中,相同的标号自始至终指代相同的元件。示例性实施例可以具有不同的形式,并且不应当解释为局限于在本文中所陈述的描述。因此,下面通过参考附图来描述示例性实施例,以解释本公开的多个方面。如在本文中所使用的那样,当在元件列表之前时,诸如“中的至少一个”的表述修饰元件的整个列表,而不修饰列表中的单个元件。
将简要地描述在本文中所使用的术语,并且下面将详细地描述示例性实施例。
在本文中所采用的术语可以根据本领域普通技术人员的意图、先例或者新技术的出现而变化。应当理解,在本文中所使用的术语应当被解释为具有与它们在相关领域的背景中的意义一致的意义,并且不应当以理想化或者过于正式的意义的方式来解释,除非明确地陈述。
还应当理解,术语“包含”、“包含有”、“包括”和/或“包括有”当在本文中使用时指示组件的存在,但是不排除一个或多个其他组件的存在或者添加,除非另外指定。另外,在本文中所使用的诸如“单元”或“模块”这样的术语表示用于处理至少一个功能或操作的实体。这些实体可以由硬件、软件或者硬件和软件的组合来实现。
图1是例示根据示例性实施例的设备控制方法的图。
设备100可以在执行应用的同时获得悬浮输入10。遍及本公开,术语“应用”可以指用于实施任务的一系列计算机程序的集合。一个或多个示例性实施例可以包括各种应用。例如,应用可以包括音乐播放器应用、游戏应用、视频播放器应用、地图应用、备忘录应用、日记应用、电话本应用、广播应用、健康援助应用、支付应用以及图片文件夹应用等。然而,应用不局限于这些。
设备100可以获得来自用户的悬浮输入。悬浮输入指示输入方法,该输入方法在设备100的预先确定的距离内定位悬浮输入单元10(例如,电子笔或者手指),改变由设备100所检测到的电容,并且将实施由用户所打算的操作的指令传递给设备100。悬浮输入的类型可以基于设备100与生成悬浮输入的悬浮输入单元10之间的距离来确定。悬浮输入的类型也可以基于悬浮输入单元10的移动模式和移动方向中的至少一个来生成。
例如,设备100可以确定具有第一深度(亦即,设备100与悬浮输入单元10之间的距离)的第一悬浮输入以及具有第二深度(亦即,设备100与悬浮输入单元10之间的距离)的第二悬浮输入,作为不同类型(例如,分类)的悬浮输入。设备100也可以确定第三悬浮输入(例如,当悬浮输入单元10顺时针移动时)和第四悬浮输入(例如,当悬浮输入单元10逆时针移动时),作为不同类型的悬浮输入。设备100也可以确定第五悬浮输入(例如,当悬浮输入单元10以圆形形状移动时)和第六悬浮输入(例如,当悬浮输入单元10以长方形形状移动时),作为不同类型的悬浮输入。
设备100可以在获得悬浮输入时获得关于正在由设备100所执行的应用的元数据。例如,设备100可以获得关于由正在执行的应用所显示的内容的信息以及关于由应用所显示的对象的信息。当执行应用时,内容可以是可以由设备100提供的包括文本、图像和运动图片中的至少一个的多媒体。当执行应用时,对象可以是识别标记,并且可以包括图标等,识别标记被输出以控制应用使得用户可以接收所期望的内容。根据另一个示例,关于应用的元数据可以包括关于在执行应用时可以实施的至少一个任务的信息,以及关于至少一个任务与所获得的用户输入之间的关系的信息等。例如,关于应用的元数据可以包括在执行照片存储应用时删除照片的任务、可以识别编辑照片的任务的识别值、关于与所获得的用户悬浮输入相对应的任务的信息等。
任务可以包括与所执行的应用的操作有关的另一个应用或者可以与所执行的应用的操作相关联地实施的另一个操作。关于这一点,可以根据可以由设备100实施的功能来区分操作。例如,当执行视频播放器应用时,设备100可以实施第一操作和第二操作等,第一操作实施播放视频的功能,并且第二操作实施停止播放视频的功能。
当设备100执行视频播放器应用时,任务可以包括与视频播放器应用有关的视频编辑应用。根据另一个示例,任务可以包括视频停止操作,其可以与正在执行的视频播放器应用的播放视频的操作相关联地实施。
根据用于实施与正在由设备100所执行的应用的操作有关的一个操作的实施单位(例如,乘数),可以识别多个任务。可以根据实施单位来确定操作实施精度。例如,当用户在视频播放器应用中探究特定的帧时,所探究的帧的单位可以根据实施单位而不同。例如,设备100可以探究以十帧单位或者以一帧单位的播放区段。稍后,将参考图15和图16更详细地对此进行描述。
根据示例性实施例的设备100可以获得各种类型的用户输入。例如,设备100可以获得悬浮输入。根据另一个示例,设备100可以获得触摸输入。设备100也可以获得在用户点击悬浮输入单元10的按钮时所生成的信号。
根据示例性实施例的设备100可以以各种类型来实现。例如,在本公开中所描述的设备100可以包括蜂窝式电话、智能电话、膝上型计算机、平板PC、电子书阅读器、数字广播设备、导航系统、MP3播放器以及数字相机等。然而,并不局限于这些。
图2是根据示例性实施例的设备控制方法的流程图。
在操作S210中,设备100可以获得所获得的悬浮输入的3维(3D)位置信息。悬浮输入可以由位于离开设备100预先确定的距离内的悬浮输入单元10来生成。悬浮输入的3D位置信息可以基于设备100与悬浮输入单元10之间的距离来确定。
在操作S220中,设备100可以选择与由设备100所执行的应用的操作以及基于所获得的悬浮输入的3D位置信息的应用的操作有关的多个任务中的至少一个。
设备100可以在获得悬浮输入时获得关于应用的操作的信息。例如,当执行视频播放器应用时,设备100可以获得关于应用是已经播放视频、还是已经停止播放视频的信息。关于另一个示例,在菜单应用的情况下,设备100可以获得关于菜单应用是已经显示关于其他应用的信息、还是由于锁定状态而没有显示关于其他应用的信息的信息。
设备100可以确定悬浮输入的类型。设备100可以基于设备100与悬浮输入单元10之间的距离来确定悬浮输入的类型。然而,这仅仅是示例。设备100可以基于悬浮输入单元10的移动方向和移动模式中的至少一个,来确定由悬浮输入单元10所生成的悬浮输入的类型。设备100可以在获得悬浮输入时,在与应用的操作有关的多个任务之中,确定与所确定的悬浮输入的类型相对应的任务。例如,设备100可以获得具有第一深度(亦即,设备100与悬浮输入单元10之间的距离)的第一悬浮输入,并且当在获得悬浮输入时视频播放器应用播放视频时,设备可以基于视频播放器应用的元数据来选择与第一悬浮输入相对应的、停止播放视频的任务。
在操作S230中,设备100可以根据悬浮输入来获得执行输入的预先设置的类型,并且实施所选择的至少一个任务。
设备100可以在获得悬浮输入之后获得请求实施所选择任务的执行输入。由设备100所执行的应用的元数据可以存储关于与所获得的悬浮输入相对应的执行输入的类型的信息。设备100可以使用应用的元数据来确定所获得的执行输入是否对应于先前所获得的悬浮输入。
当在获得悬浮输入之后的阈值时间单位(例如,预先确定的时间)内没有获得执行输入时,设备100可以确定悬浮输入无效。例如,如果在获得悬浮输入之后的2秒内没有获得执行输入,则设备100可以确定悬浮输入无效。
设备100可以基于所获得的执行输入来实施所选择的至少一个任务。例如,当执行视频播放器应用时,如果选择停止播放视频的任务,并且获得通过向右移动悬浮输入单元10而生成的执行输入,则设备100可以实施停止播放视频的任务。然而,这仅仅是执行输入的示例,并且本公开不局限于此。
图3是根据示例性实施例的、基于由设备100所获得的悬浮输入的3D位置信息的设备控制方法的流程图。
在操作S310中,设备100可以获得关于生成悬浮输入的悬浮输入单元10与设备100之间的距离的信息。根据示例性实施例,设备100可以测量根据所获得的悬浮输入而变化的电容,并且可以获得关于悬浮输入单元10与设备100之间的距离的信息。
在操作S320中,设备100可以基于所获得的关于悬浮输入单元10与设备100之间的距离的信息,来获得悬浮输入的3D位置信息。设备100可以基于预先设置的基准表面,将所获得的关于距离的信息转换成3D位置信息。设备100将所获得的关于距离的信息转换成3D位置信息的方法可以是一般的坐标转换方法等。然而,将所获得的关于距离的信息转换成3D位置信息的方法不局限于坐标转换方法。
在操作S330中,设备100可以基于根据悬浮输入的3D位置信息所确定的悬浮输入的类型,来选择至少一个任务。
设备100可以基于3D位置信息来确定悬浮输入的类型。例如,设备100可以确定具有第一深度(亦即,设备100与悬浮输入单元10之间的距离)的第一悬浮输入以及具有第二深度(亦即,设备100与悬浮输入单元10之间的距离)的第二悬浮输入,作为不同类型的悬浮输入。
设备100可以基于所执行的应用的操作,来选择与所确定的悬浮输入的类型相对应的至少一个任务。设备100可以存储应用的元数据,包括关于所执行的应用中与所确定的悬浮输入的类型相对应的任务的信息。设备100可以使用应用的元数据,选择与所确定的悬浮输入的类型相对应的任务。
在操作S340中,设备100可以根据悬浮输入来获得执行输入的预先设置的类型。设备100可以在获得悬浮输入之后,获得请求实施所选择的任务的执行输入。设备100可以在获得与悬浮输入相对应的执行输入时,实施所选择的至少一个任务(S350)。
图4是例示根据示例性实施例的、基于由设备100所获得的悬浮输入的3D位置信息来选择多个任务中的一个的方法的图。
参考图4,当设备100执行菜单应用时,指示可以由设备100所执行的多个应用的多个对象可以显示在设备100的屏幕上。为了方便描述,下面将描述图标,作为对象的示例。然而,这仅是示例,并且除了图标之外,对象还可以包括指示多个应用的其他各种类型的识别标记。
例如,可以显示指示消息应用的图标、指示联系号码应用的图标、指示呼叫应用的图标等。用户可以通过选择在设备100上所显示的图标,请求设备100执行由图标所指示的应用。
在设备100上所显示的多个图标之中,在设备100上所显示的多个图标可以包括指示多个应用的联合图标420。用户可以选择联合图标420,以执行由联合图标420所指示的多个应用中的至少一个。用户可以通过在与联合图标420相对应的位置处保持悬浮输入单元10来选择联合图标420。
设备100可以确定生成悬浮输入的悬浮输入单元410a、410b或410c是否保持在与联合图标420相对应的位置处。关于这一点,保持指的上针对设备100所实施的达预先确定的时间段的停止操作,其中,悬浮输入在预先确定的距离范围内不接触设备100。关于这一点,关于悬浮输入单元10是否保持在与联合图标420相对应的位置处的信息可以通过确定悬浮输入单元410a、410b或410c的2D位置信息与联合图标420的2D位置信息之间的差异是否小于关于设备100的阈值来确定。当悬浮输入单元410a、410b或410c的2D位置信息与联合图标420的2D位置信息之间的差异小于阈值时,设备100可以确定可以在与联合图标420相对应的位置处获得悬浮输入。
例如,在将设备100的两个侧表面彼此交叉处的点设置为基准点,并且联合图标420在基于基准点的2D平面上的x和y坐标与基于基准点的悬浮输入单元410a、410b或410c的x和y坐标之间的差异小于阈值时,设备100可以确定生成悬浮输入的悬浮输入单元410a、410b或410c保持在与联合单元420相对应的位置处。
设备100可以根据悬浮输入的3D位置信息来选择指示联合图标420的多个应用中的至少一个。关于这一点,可以在获得悬浮输入时,根据设备100与悬浮输入单元410a、410b或410c之间的距离,来确定悬浮输入的3D位置信息。例如,在将设备100的3D位置信息设置为0时,如果在获得悬浮输入时的悬浮输入单元410a位于离开设备100具有距离z的点处,则可以将设备100的3D位置信息设置为z。
根据示例性实施例,当悬浮输入的3D位置信息不同于z(例如z1和z2)时,设备100可以选择不同的应用。例如,由联合图标420所指示的多个应用可以包括照片文件夹应用、相机应用和照片编辑应用。当获得具有z1作为3D位置信息的悬浮输入时,设备100可以选择照片文件夹应用。当获得具有z2作为3D位置信息的悬浮输入时,设备100可以选择相机应用。当获得具有z3作为3D位置信息的悬浮输入时,设备100可以选择照片编辑应用。
如由悬浮输入单元430所例示的那样,执行应用可以通过在离开设备100一定距离上实施操作(例如手势)来启动。然而,本公开不局限于此。
图5a至图5c是例示根据示例性实施例的方法的图,其中,设备100基于悬浮输入的3D位置信息来选择多个任务中的一个。
当获得悬浮输入时,设备100可以选择并实施与由设备100所执行的应用的第一操作有关的多个任务中的至少一个。关于这一点,可以使用实施与由设备100所执行的应用的第一操作有关的第二操作的方法,来识别多个任务。
例如,参考图5a至图5c,当执行视频播放器应用时,构成视频的至少一帧可以输出在设备100的屏幕上。设备100可以在实施播放视频的第一操作的同时,获得在设备100与悬浮输入单元510a之间具有距离z1的第一悬浮输入。基于视频播放器应用的元数据,设备100可以选择与第一悬浮输入相对应的快进视频的操作。例如,用户可以在播放视频的同时,通过将悬浮输入单元510a保持在设备100的屏幕上所输出的进度条上多于预先设置的时间段并在设备100与悬浮输入单元510a之间的距离z1中,来传送第一悬浮输入。
设备100可以在实施播放视频的第一操作的同时,获得在设备100与悬浮输入单元510b之间具有距离z2的第二悬浮输入。基于视频播放器应用的元数据,设备100可以选择与第二悬浮输入相对应的停止播放视频的操作。例如,用户可以在播放视频的同时,通过将悬浮输入单元510b保持在设备100的屏幕上所输出的进度条上多于预先设置的时间段并在设备100与悬浮输入单元510b之间的距离z2中,来传送第二悬浮输入。
设备100可以在实施播放视频的第一操作的同时,获得在设备100与悬浮输入单元510c之间具有距离z3的第三悬浮输入。基于视频播放器应用的元数据,设备100可以选择与第三悬浮输入相对应的倒回视频的操作。例如,用户可以在播放视频的同时,通过将悬浮输入单元510c保持在设备100的屏幕上所输出的进度条上多于预先设置的时间段并在设备100与悬浮输入单元510b之间的距离z2中,来传送第三悬浮输入。
图6a至图6c是例示根据示例性实施例的方法的图,其中,设备100在执行日记应用时基于悬浮输入的类型来选择与日记应用有关的多个任务中的一个。
参考图6a至图6c,当执行日记应用时,设备100的屏幕可以输出与今天的日程有关的内容。设备100可以在实施输出与今天的日程有关的第一页的第一操作的同时,获得请求翻页的第二操作的悬浮输入。例如,用户可以通过在预先设置的时间段之后,在输出第一页的设备100的屏幕的一个侧表面上保持悬浮输入单元610(610a、610b、610c),将请求翻页的第二操作的悬浮输入传送给设备100。
设备100可以选择基于悬浮输入的3D位置信息来实施翻页的第二操作的方法。例如,设备100可以基于3D位置信息来选择翻页的单位。参考图6a,当悬浮输入的3D位置信息为z1时(610a),设备100可以选择基于每天为单位来翻页的第二操作。参考图6b,当悬浮输入的3D位置信息为z2时(610b),设备100可以选择基于每周为单位来翻页的第二操作。参考图6c,当悬浮输入的3D位置信息为z3时(610c),设备100可以选择基于每月为单位来翻页的第二操作。
根据另一个示例性实施例,当基于悬浮输入的3D位置信息来实施翻页的操作时,可以确定所翻动的页的数量。例如,当实施翻页的操作时,设备100可以选择实施第二操作的方法,使得悬浮输入的3D位置信息的值越大,所翻动的页的数量越多。
根据另一个示例性实施例,设备100可以基于生成悬浮输入的悬浮输入单元610(610a、610b、610c)的移动方向,来确定实施翻页的第二操作的方法。设备100可以基于生成悬浮输入的悬浮输入单元610(610a、610b、610c)的移动方向来确定翻动页的方向。例如,当悬浮输入单元610(610a、610b、610c)向右移动时,设备100可以选择翻动到在当前所显示的页之后的页的第二操作。作为另一个示例,当悬浮输入单元610(610a、610b、610c)向左移动时,设备100可以选择翻动到在当前所显示的页之前的页的第二操作。
图7a至图7c是例示根据另一个示例性实施例的方法的图,其中,设备100在执行音乐播放应用时,基于悬浮输入的类型,来选择与音乐播放应用有关的多个任务中的一个。
参考图7a至图7c,当执行音乐播放应用时,当前正在播放的音乐的信息可以显示在设备100的屏幕上。例如,可以将当前正在播放的音乐为专辑A上的第四首歌曲的信息显示在设备100上。设备100可以在实施播放音乐的第一操作的同时,获得请求将当前正在播放的音乐改变成包括在另一个列表中的音乐的第二操作的悬浮输入。例如,用户可以通过在显示关于当前播放的音乐的信息的设备100的屏幕的一个侧表面上保持悬浮输入单元710(710a、710b、710c)多于预先设置的时间段,来传送请求改变当前正在播放的音乐的第二操作的悬浮输入。
设备100可以基于悬浮输入的3D位置信息,选择实施将当前正在播放的音乐改变成包括在另一个列表中的音乐的第二操作的方法。例如,设备100可以基于悬浮输入的3D位置信息,确定包括将要改变的音乐的类别。参考图7a,当悬浮输入的3D位置信息是z1时,设备100可以选择将当前正在播放的音乐改变成专辑A中另一支音乐的第二操作。参考图7b,当悬浮输入的3D位置信息是z2时,设备100可以选择将当前正在播放的音乐改变成包括在另一张专辑中的音乐的第二操作。参考图7c,当悬浮输入的3D位置信息是z3时,设备100可以选择将当前正在播放的音乐改变成包括在在另一个文件夹中所存储的专辑中的音乐的第二操作。
根据另一个示例性实施例,设备100可以基于悬浮输入单元710(710a、710b、710c)的移动方向,来确定改变音乐的第二操作的方向。例如,设备100可以根据悬浮输入单元710(710a、710b、710c)的移动方向,来确定将正在播放的音乐改变成恰好在当前播放的音乐之前还是之后的音乐。例如,当悬浮输入单元710(710a、710b、710c)向右移动时,设备100可以将当前正在播放的歌曲改变成下一首歌曲。当悬浮输入单元710(710a、710b、710c)向左移动时,设备100可以将当前正在播放的音乐改变成当前正在播放的音乐之前的音乐。
图8a至图8c是例示根据另一个示例性实施例的方法的图,其中,设备100在执行绘图板应用时基于悬浮输入10的类型,选择与绘图板应用有关的多个任务中的一个。
设备100可以基于所获得的悬浮输入10的3D位置信息,实施取消由设备100所实施的操作的任务。
参考图8a至图8c,当执行绘图板应用时,当前着色的图像可以输出在设备100的屏幕上。设备100可以在实施对图像着色的第一操作的同时,获得请求取消图像的着色的第二操作的悬浮输入。例如,用户可以通过在显示当前正在由用户着色的图像的设备100的一个侧表面上保持悬浮输入单元810(810a、810b、810c)多于预先设置的时间段,来传送请求取消在设备100上所实施的着色作业的第二操作的悬浮输入。
设备100可以基于悬浮输入的3D位置信息,来确定实施取消所实施的着色作业(例如,绘图应用)的第二操作的方法。例如,设备100可以基于悬浮输入的3D位置信息,来确定所取消的着色作业的范围。例如,参考图8a,当悬浮输入的3D位置信息是z1时(810a),设备100可以选择取消恰好在获得悬浮输入之前所实施的着色作业的第二操作。参考图8b,当悬浮输入的3D位置信息是z2时(810b),设备100可以选择取消恰好在获得悬浮输入之前所实施的着色作业之中的五次的着色作业的第二操作。参考图8c,当悬浮输入的3D位置信息是z3时(810c),设备100可以选择取消所有所实施的着色作业的第二操作。
图9a至图9c是例示根据示例性实施例的方法的图,其中,设备100在执行照片文件夹应用时,基于悬浮输入的类型,选择与照片文件夹应用有关的多个任务中的一个。
参考图9a至图9c,当执行照片文件夹应用时,在与照片文件夹应用有关的存储器中所存储的至少一张照片可以显示在设备100的屏幕上。设备100可以在执行显示照片的第一操作的同时,获得请求选择照片的第二操作的悬浮输入。例如,用户可以通过在显示照片的设备100的一个侧表面上保持悬浮输入单元910(910a、910b、910c)多于预先设置的时间段,将选择照片的第二操作传送给设备100。
设备100可以基于悬浮输入的3D位置信息,选择实施选择照片的第二操作的方法。例如,设备100可以基于悬浮输入的3D位置信息来确定所选择的照片的数量。参考图9a,当悬浮输入的3D位置信息是z1时(910a),设备100可以选择选取与z1相对应的数量的照片的第二操作。参考图9b,当悬浮输入的3D位置信息是z2时(910b),设备100可以选择选取与z2相对应的数量的照片的第二操作。参考图9c,当悬浮输入的3D位置信息是z3时(910c),设备100可以选择选取在与悬浮输入单元910(910a、910b、910c)的位置相对应的位置上所显示的一张照片的第二操作。
设备100可以根据基于悬浮输入的3D位置信息的所获得的执行输入来选择图像。例如,当悬浮输入单元910(910a、910b、910c)停止在特定高度长于预先设置的时间段时,设备100可以确定获得根据所确定的单位来选择图像的执行输入。
根据另一个示例性实施例,设备100可以基于悬浮输入的3D位置信息,基于照片的元数据信息,来确定所选择照片的范围。照片的元数据信息可以包括关于照片捕获日期、照片捕获地点等之中的至少一个的信息。例如,当悬浮输入的3D位置信息是z4时,设备100可以选择在从与悬浮输入单元910的位置相对应的位置处所显示的日期开始的一星期内的日期所捕获的照片。当悬浮输入的3D位置信息是z5时,设备100可以选择在从与悬浮输入单元910的位置相对应的位置处所显示的日期开始的一个月内的日期所捕获的照片。
图10是根据示例性实施例的设备控制方法的流程图,其中,设备100基于与在执行应用时所输出的对象中的一个相对应的悬浮输入10,来控制另一个设备。
在操作S1010中,设备100可以确定所获得的悬浮输入10的3D位置信息。关于这一点,可以基于设备100与悬浮输入单元之间的距离来确定3D位置信息。
在操作S1020中,设备100可以在指示根据应用的操作所输出的多个任务的一个或多个对象之中,确定与悬浮输入单元的位置相对应的对象。关于这一点,对象可以包括指示与应用的操作有关的多个任务的识别标记(例如,图标)。多个任务可以包括与应用的操作有关的多个操作。例如,当视频播放器应用实施播放视频的操作时,多个任务可以包括快进视频的操作、暂停视频的操作、记录视频的操作等。
设备100可以通过使用悬浮输入单元的位置信息,在指示多个任务的一个或多个对象之中,确定与悬浮输入单元的位置相对应的对象。根据示例性实施例,当悬浮输入单元相对于设备100的2D位置信息与由设备100所输出的对象的2D位置信息之间的差异小于阈值时,设备100可以确定在对象的位置处获得悬浮输入10。例如,当设备100的两个侧表面彼此交叉处的点被设置为基准点,并且在基于基准点的2D平面上的对象的x和y坐标与基于基准点的悬浮输入单元的x和y坐标之间的差异小于阈值时,设备100可以确定在对象的位置处获得悬浮输入10。
在操作S1030中,设备100可以基于所确定的对象以及所获得的悬浮输入10的3D位置信息,来选择多个任务中的至少一个。例如,设备100可以基于所确定的对象,选择与由设备100所实施的第一操作有关的多个第二操作的一个。设备100可以基于所获得的悬浮输入10的3D位置信息,来确定实施所选择的第二操作的方法。
在操作S1040中,设备100可以通过获得执行输入,来实施所选择的至少一个任务。设备100可以在获得与悬浮输入10相对应的执行输入时实施所选择的任务。
操作S1040可以对应于上面参考图2所描述的操作S230。
图11a和图11b是例示根据示例性实施例的设备控制方法的图,其中,设备100基于与在执行应用时所输出的对象中的一个相对应的悬浮输入,来控制另一个设备。
参考图11a和图11b,设备100可以执行视频播放器应用。当设备100执行视频播放器应用时,可以在屏幕上显示用于改变指示关于当前播放帧的信息的进度条和播放帧的图标1120和1130。
参考图11a,设备100可以获得在与播放视频有关的多个操作之中与指示倒回视频的第二操作的第一图标1120相对应的第一悬浮输入。用户可以通过在与第一图标1120的位置相对应的位置处保持悬浮输入单元1110a,将第一悬浮输入传送给设备100。设备100可以确定悬浮输入单元1110a的位置是否存在于离开设备100上的第一图标1120的位置、在阈值距离内,并且确定第一悬浮输入是否对应于第一图标1120。
设备100可以基于第一悬浮输入的3D位置信息,来选择实施倒回视频的第二操作的方法。例如,当第一悬浮输入的3D位置信息是a时,设备100可以选择两倍倒回视频的第二操作。当第一悬浮输入的3D位置信息是2a时,设备100可以选择四倍倒回视频的第二操作。
根据另一个示例性实施例,参考图11b,设备100可以获得在与播放视频有关的多个操作之中与指示快进视频的第二操作的第二图标1130相对应的第二悬浮输入。用户可以通过在与第二图标1130的位置相对应的位置处保持悬浮输入单元1110b,将第二悬浮输入传送给设备100。设备100可以确定悬浮输入单元1110b的位置是否存在于离开设备100上的第二图标1130的位置、在阈值距离内,并且确定第二悬浮输入是否对应于第二图标1130。
设备100可以基于第二悬浮输入的3D位置信息,来选择实施快进视频的第二操作的方法。例如,当第一悬浮输入的3D位置信息是a时,设备100可以选择两倍快进视频的第二操作。当第一悬浮输入的3D位置信息是2a时,设备100可以选择四倍快进视频的第二操作。
图12是根据示例性实施例的方法的流程图,其中,设备100基于悬浮输入单元的移动以及悬浮输入的3D位置信息,来选择多个任务的至少一个。
在操作S1210中,设备100可以获得悬浮输入。设备100可以根据在设备100附近的位置处由用户所保持的悬浮输入单元,来检测改变的电容,由此获得悬浮输入。
在操作S1220中,设备100可以基于悬浮输入单元的移动,来确定悬浮输入的类型。设备100可以根据悬浮输入单元的移动方向,来确定悬浮输入的类型。例如,设备100可以识别与悬浮输入单元在第一方向上移动的情况相对应的第一悬浮输入以及与悬浮输入单元在第二方向上移动的情况相对应的第二悬浮输入。
在操作S1230中,设备100可以确定在与应用的操作有关的多个操作之中与悬浮输入的类型相对应的操作。设备100可以通过使用应用的元数据,来确定与所确定的悬浮输入的类型相对应的操作。应用的元数据可以包括关于可以在执行应用时实施的多个操作以及用于实施多个操作中的每个的悬浮输入的类型的信息。
例如,当执行视频播放器应用时,设备可以根据在设备100的屏幕的相反方向上移动的第一悬浮输入,选择快进视频的操作。设备100可以根据在设备100的屏幕的方向上移动的第二悬浮输入,选择倒回视频的操作。
在操作S1240中,设备100可以基于所获得的悬浮输入的3D位置信息,选择实施所选择的操作的方法。
在操作S1250中,设备100可以基于所获得的执行输入,实施所选择的任务。
操作S1250可以对应于上面参考图2所描述的操作S230。
图13a和图13b是例示根据示例性实施例的方法的图,其中,设备100基于悬浮输入单元1310(1310a、1310b)的移动以及悬浮输入的3D位置信息,实施多个任务中的至少一个。
当获得悬浮输入时,设备100可以选择并实施与由设备100所执行的应用的第一操作有关的多个任务中的一个。设备100可以基于悬浮输入单元1310(1310a、1310b)的移动方向来确定与第一操作有关的操作,并且基于悬浮输入单元1310(1310a、1310b)与设备100之间的距离来确定实施所确定的操作的方法,由此选择多个任务中的一个。关于这一点,实施操作的方法可以根据实施操作的方向、实施操作的速度、用以实施操作的实施单位等而不同。
参考图13a和图13b,当执行音乐播放应用时,设备100可以根据由在设备100的屏幕的相反方向上移动的悬浮输入单元1310(1310a、1310b)所生成的第一悬浮输入,选择快进音乐的任务。设备100可以根据由在设备100的屏幕的方向上移动的悬浮输入单元1310所生成的第二悬浮输入,选择倒回音乐的任务。
设备100可以基于所获得的悬浮输入的3D位置信息,确定实施所选择的任务的方法。例如,当第一悬浮输入的位置信息是z1时,设备100可以选择两倍快进音乐的任务。当第一悬浮输入的位置信息是z2时,设备100可以选择四倍快进音乐的任务。当第一悬浮输入的位置信息是z3时,设备100可以选择六倍快进音乐的任务。
根据另一个示例,当第二悬浮输入的位置信息是z4时,设备100可以选择两倍倒回音乐的任务。当第二悬浮输入的位置信息是z5时,设备100可以选择四倍倒回音乐的任务。当第二悬浮输入的位置信息是z3时,设备100可以选择六倍倒回音乐的任务。
图14a和图14b是例示根据示例性实施例的方法的图,其中,设备100基于悬浮输入单元1410的移动模式以及悬浮输入的3D位置信息,实施多个任务中的至少一个。
当获得悬浮输入时,设备100可以选择并实施与由设备100所执行的应用的第一操作有关的多个任务中的一个。设备100可以基于悬浮输入单元1410(1410a、1410b)的移动模式来确定与第一操作有关的操作,并且基于悬浮输入单元1410(1410a、1410b)与设备100之间的距离来确定实施所确定的操作的方法,由此选择多个任务中的一个。关于这一点,实施操作的方法可以根据实施操作的方向、实施操作的速度、用以实施操作的实施单位等而不同。
参考图14a和图14b,当执行视频播放器应用时,设备100可以根据由顺时针移动的悬浮输入单元1410a所生成的第一悬浮输入,选择快进视频的操作。设备100可以根据由逆时针移动的悬浮输入单元1410b所生成的第二悬浮输入,选择倒回视频的操作。
设备100可以基于所获得的悬浮输入的3D位置信息,确定实施所选择的操作的方法。例如,当第一悬浮输入的位置信息是D1时,设备100可以选择两倍快进视频的任务。当第一悬浮输入的位置信息是D2时,设备100可以选择四倍快进视频的任务。当第一悬浮输入的位置信息是D3时,设备100可以选择六倍快进视频的任务。
根据另一个示例,当第二悬浮输入的位置信息是D1时,设备100可以选择两倍倒回视频的任务。当第二悬浮输入的位置信息是D2时,设备100可以选择四倍倒回视频的任务。当第二悬浮输入的位置信息是D3时,设备100可以选择六倍倒回视频的任务。这些仅是示例性的。本公开不局限于这些。
图15是根据示例性实施例的方法的流程图,其中,设备100根据基于悬浮输入的3D位置信息的所确定的实施单位来实施任务。
在操作S1510中,设备100可以获得悬浮输入。设备100可以根据在设备100附近的位置处由用户所保持的悬浮输入单元,来检测改变的电容,由此获得悬浮输入。
在操作S1520中,设备100可以基于悬浮输入单元的移动,确定所获得的悬浮输入的类型。
根据示例性实施例,设备100可以基于悬浮输入单元的移动,确定悬浮输入的类型。设备100可以根据悬浮输入单元的移动模式,确定悬浮输入的类型。关于这一点,模式可以根据悬浮输入单元的移动方向、悬浮输入单元的移动形状、悬浮输入单元的所检测到的时间、悬浮输入单元的移动速度、悬浮输入单元的所检测到的位置等形成。
例如,设备100可以确定所获得的悬浮输入是根据顺时针地绘制圆形的悬浮输入单元所生成的第一悬浮输入。关于另一个示例,设备100可以确定所获得的悬浮输入是根据停止达多于3秒的悬浮输入单元所生成的第二悬浮输入。
根据另一个示例性实施例,设备100可以根据与所检测到的悬浮输入单元的位置相对应的对象,确定悬浮输入的类型。关于这一点,对象可以包括在设备100的屏幕上所显示的、指示与应用的操作有关的多个任务中的每个的识别标记(例如,图标)。
设备100可以通过使用悬浮输入单元的位置信息,在指示多个任务的一个或多个对象之中,确定与悬浮输入单元的位置相对应的对象。设备100可以根据相应对象的类型,确定悬浮输入的类型。例如,当执行视频播放器应用时,设备100可以确定与所检测到的悬浮输入单元的位置相对应的进度条。设备100可以确定所获得的悬浮输入是与进度条相对应的第三悬浮输入。
在操作S1530中,设备100可以基于由设备100所执行的应用,选择与所确定的悬浮输入的类型相对应的任务。
设备100可以在可以实施的多个任务之中选择与所确定的悬浮输入的类型相对应的任务。例如,设备100可以通过使用应用的元数据,选择与所确定的悬浮输入的类型相对应的任务。应用的元数据可以包括所获得的悬浮输入的类型以及关于可以在执行应用时实施的任务的信息。
在操作S1540中,设备100可以基于所获得的悬浮输入的3D位置信息,确定用于实施所选择的任务的实施单位(例如,乘数)。操作实施精度可以根据实施单位来确定。
例如,当用户在视频播放器应用中探究特定帧时,设备100可以基于所获得的悬浮输入的3D位置信息,确定所探究的帧的单位。例如,当在第一深度处检测到悬浮输入单元时,设备100可以将所探究的帧的单位确定为一。当在第二深度处检测到悬浮输入单元时,设备100可以将所探究的帧的单位确定为十。
根据另一个示例,当用户在照片存储应用中显示下一页的照片时,设备100可以基于悬浮输入的3D位置信息,确定所翻动的页的单位。例如,当在第一深度处检测到悬浮输入单元时,设备100可以将所翻动的页的单位确定为一。当在第二深度处检测到悬浮输入单元时,设备100可以将所翻动的页的单位确定为十。
在操作S1550中,设备100可以根据所确定的实施单位,实施所选择的任务。
例如,当执行视频播放器应用时,设备100可以以所确定的十帧单位,探究视频播放区段。当执行照片存储应用时,设备100可以根据所确定的页单位,对所存储的照片进行翻页。
图16a至图16c是例示根据示例性实施例的方法的图,其中,当执行视频播放器应用时,设备100根据基于悬浮输入的3D位置信息所确定的实施单位来实施任务。
参考图16a至图16c,当执行视频播放器应用时,设备100可以在与进度条相对应的位置处检测到悬浮输入单元1610(1610a、1610b、1610c)。设备100可以使用应用的元数据,确定当在与进度条相对应的位置处检测到悬浮输入单元1610(1610a、1610b、1610c)时所生成的悬浮输入的类型。设备100可以使用应用的元数据,选择与所确定的悬浮输入的类型相对应的任务。
例如,当在与进度条相对应的位置处检测到悬浮输入单元1610(1610a、1610b、1610c)时,设备100可以将所生成的悬浮输入确定为第一悬浮输入。设备100可以使用应用的元数据,选择探究与所确定的第一悬浮输入相对应的视频播放区段的任务。
设备100可以根据检测到悬浮输入单元1610的3D位置,确定用以实施所选择的任务的实施单位。
参考图16a,设备100可以在第一深度D1处检测到悬浮输入单元1610a。设备100可以使用作为第一深度D1的3D位置信息,确定用以实施探究视频播放区段的所选择的任务的实施单位。例如,当在第一深度D1处检测到悬浮输入单元1610时,设备100可以将所探究的帧的单位确定为一。
参考图16b,设备100可以在第二深度D2处检测到悬浮输入单元1610b。设备100可以使用作为第二深度D2的3D位置信息,确定用以实施探究视频播放区段的所选择的任务的实施单位。例如,当在第二深度D2处检测到悬浮输入单元1610时,设备100可以将所探究的帧的单位确定为十。
参考图16c,设备100可以在第三深度D3处检测到悬浮输入单元1610c。设备100可以使用作为第三深度D3的3D位置信息,确定用以实施探究视频播放区段的所选择的任务的实施单位。例如,当在第三深度D3处检测到悬浮输入单元1610时,设备100可以将所探究的帧的单位确定为二十。
图17是例示根据示例性实施例的用于控制设备的系统的图。
用于控制设备的系统可以包括第一设备1710和第二设备1720。然而,在图17中所例示的所有元件不是必需的。用于控制设备的系统可以使用比图17中所例示的那些元件更多或者更少的元件来实施。
第一设备1710可以获得包括所获得的悬浮输入的3D位置信息的特性信息。关于这一点,可以基于生成悬浮输入的悬浮输入单元1730与第一设备1710之间的距离,确定悬浮输入的3D位置信息。
当生成悬浮输入的悬浮输入单元1730移动时,特性信息可以包括关于悬浮输入单元1730的移动形状和移动方向中的至少一个的信息。
第一设备1710可以将所获得的特性信息传送给第二设备1720。第二设备1720可以基于所接收到的特性信息,确定由第一设备1710所获得的悬浮输入的类型。例如,第二设备1720可以确定具有第一深度的3D位置信息的第一悬浮输入和具有第二深度的3D位置信息的第二悬浮输入,作为不同的类型。作为不同的类型,第二设备1720可以确定悬浮输入单元1730的移动形状和移动方向中的至少一个不同的悬浮输入。
第二设备1720可以基于所执行的应用的操作,选择与所确定的悬浮输入的类型相对应的至少一个任务。关于这一点,至少一个任务可以包括在与由第二设备1720所执行的应用的操作有关的多个任务中。
当获得执行输入时,第二设备1720可以实施所选择的至少一个任务。第二设备1720可以直接从用户获得执行输入,并且可以接收由第一设备1710从用户所获得的执行输入。
第二设备1720可以预先存储关于与所获得的悬浮输入相对应的执行输入的信息。第二设备1720可以基于先前所存储的信息,确定所获得的执行输入是否对应于所获得的悬浮输入。当所获得的执行输入对应于所获得的悬浮输入时,第二设备1720可以实施所选择的至少一个任务。当第二设备1720实施所选择的至少一个任务时,实施任务的结果可以输出在第二设备1720上。根据另一个示例,当第二设备1720实施所选择的至少一个任务时,实施任务的结果可以输出在第一设备1710上。
图18是例示根据示例性实施例的、由用于控制设备的系统所实施的设备控制方法的流程图。
在操作S1810中,第一设备1720可以确定所获得的悬浮输入的特性信息。第一设备1720可以获得包括所获得的悬浮输入的3D位置信息的特性信息。当生成悬浮输入的悬浮输入单元1730移动时,特性信息可以包括关于悬浮输入单元1730的移动形状和移动方向中的至少一个的信息。
在操作S1820中,第一设备1710可以将所获得的悬浮输入的所确定的特性信息传送给第二设备1720。
在操作S1830中,第二设备1720可以基于应用的操作以及所接收到的悬浮输入的特性信息,实施与由第二设备1720所执行的应用的操作有关的多个任务中的至少一个。第二设备1720基于所执行的应用的操作以及所接收到的悬浮输入的特性信息实施至少一个任务的方法可以对应于上面参考图1至图16所描述的设备100实施至少一个任务的方法。
第二设备1720可以基于应用的设置或者用户输入,将实施至少一个任务的结果输出到第二设备1720或者第一设备1710。
图19a和图19b是例示根据示例性实施例的、用于控制设备的系统控制第一设备1910和第二设备1920的方法的图。
参考图19a和图19b,第二设备1920可以执行音乐播放应用。用户可以将悬浮输入传送给第一设备1910,以控制由第二设备1920所播放的音乐的音量。
例如,用户可以通过在第一设备1910上方保持悬浮输入单元(例如,手指),将悬浮输入传送给第一设备1910。响应于所获得的悬浮输入,第一设备1910可以基于悬浮输入单元与第一设备1910之间的距离来确定特性信息。根据另一个示例,第一设备1910可以基于生成悬浮输入的悬浮输入单元的移动方向和移动形状中的至少一个,确定悬浮输入的特性信息。
参考图19a,第一设备1910可以将具有3D位置信息为z2以及逆时针移动模式的悬浮输入的特性信息传送给第二设备1920。第二设备1920可以基于关于先前所存储的音乐的播放的元数据,选择与具有3D位置信息为z2以及逆时针移动模式的悬浮输入相对应的操作。例如,第二设备1920可以基于悬浮输入的逆时针移动模式,选择调高音乐的音量的操作。第二设备1920可以选择将音量调高到与具有3D位置信息为z2的悬浮输入相对应的级别的操作。
参考图19b,第一设备1910可以将具有3D位置信息为z2以及顺时针移动模式的悬浮输入的特性信息传送给第二设备1920。第二设备1920可以基于关于先前所存储的音乐的播放的元数据,选择与具有3D位置信息为z2以及顺时针移动模式的悬浮输入相对应的操作。例如,第二设备1920可以基于悬浮输入的顺时针移动模式,选择调低音乐的音量的操作。第二设备1920可以选择将音量调低到与具有3D位置信息为z2的悬浮输入相对应的级别的操作。
图20a和图20b是例示根据另一个示例性实施例的、用于控制设备的系统控制第一设备2010和第二设备2020的方法的图。
参考图20a和图20b,第二设备2020可以包括智能眼镜,智能眼镜包括玻璃状显示器。在图20a和图20b中所例示的第二设备2020可以执行向用户提供位置信息的地图应用。用户可以将悬浮输入传送给第一设备2010,以控制第二设备2020收集所输出的地图。
例如,用户可以通过在第一设备2010上保持悬浮输入单元(例如,手指)将悬浮输入传送给第一设备2010。响应于所获得的悬浮输入,第一设备2010可以基于悬浮输入单元与第一设备2010之间的距离来确定特性信息。根据另一个示例,第一设备2010可以基于生成悬浮输入的悬浮输入单元的移动方向和移动形状中的至少一个,确定悬浮输入的特性信息。
参考图20a,第一设备2010可以将具有3D位置信息为z1以及朝向第一设备2010的方向上的移动模式的悬浮输入的特性信息传送给第二设备2020。第二设备2020可以基于先前所存储的地图应用的元数据,选择与具有3D位置信息为z1以及朝向第一设备2010的方向上的移动模式的悬浮输入相对应的操作。例如,第二设备2020可以基于悬浮输入的朝向第一设备2010的方向上的移动模式,选择减小地图的比例的操作。第二设备2020可以选择将地图的比例减小到和与具有3D位置信息为z1的悬浮输入相对应的大小一样大的操作。
第二设备2020可以改变通过所选择的操作所显示的地图的比例并将其传送给第一设备2010。第一设备2010可以接收并输出改变比例的地图。
参考图20b,第一设备2010可以将具有3D位置信息为z6以及与第一设备2010相反的方向上的移动模式的悬浮输入的特性信息传送给第二设备2020。第二设备2020可以基于先前所存储的地图应用的元数据,选择与具有3D位置信息为z6以及与第一设备2010相反的方向上的移动模式的悬浮输入相对应的操作。例如,第二设备2020可以基于悬浮输入的与第一设备2010相反的方向上的移动模式,选择增大地图的比例的操作。第二设备2020可以选择将地图的比例增大到和与具有3D位置信息为z6的悬浮输入相对应的大小一样大的操作。
第二设备2020可以改变通过所选择的操作所显示的地图的比例并将其传送给第一设备2010。第一设备2010可以接收并输出改变比例的地图。
图21和图22是例示根据示例性实施例的设备100的配置的框图。
如图21中所示,根据示例性实施例的设备100可以包括输入单元110(例如,输入接口)、控制单元120(例如,控制器、处理器)以及输出单元130(例如,输出接口)。然而,在图21中所例示的所有元件不是必需的元件。设备100可以使用比图21中所例示的那些元件更多或者更少的元件来实施。
例如,如图22中所示,除了输入单元110(例如,输入接口)、控制单元120以及输出单元130之外,根据示例性实施例的设备100还可以包括感测单元140、通信单元150(例如,通信器)、音频/视频(A/V)输入单元160(例如,A/V输入接口)以及存储器170。
输入单元110是供用户输入用于控制设备100的数据的接口。例如,输入单元110可以包括小键盘、圆顶开关、触摸板(静电电容型、电阻型、IR检测型、表面声波型、积分张力检测型、压电型等)、缓动轮或者缓动开关,但是不局限于此。
输入单元110可以获得各种类型的用户输入。例如,输入单元110可以基于改变由设备100所检测的电容的方法获得来自用户的悬浮输入。输入单元110可以在预先设置的时间段内连续地获得输入。例如,输入单元110可以在获得悬浮输入之后,在预先设置的时间段内,获得与悬浮输入相关联的执行输入。
控制单元120可以控制设备100的总体操作。例如,控制单元120可以通过执行在存储器170中所存储的程序,控制输入单元110、输出单元130、感测单元140、通信单元150以及A/V输入单元160。
控制单元120可以获得所获得的悬浮输入的特性信息。关于这一点,特性信息可以包括生成悬浮输入的悬浮输入单元与设备100之间的距离以及关于悬浮输入单元的移动的信息中的至少一个。控制单元120可以基于应用的操作以及悬浮输入的3D位置信息,选择与由设备100所执行的应用的操作有关的多个任务中的至少一个。
当检测到悬浮输入时,控制单元120可以确定悬浮输入单元与设备100之间的距离,并且基于所确定的距离来获得悬浮输入的3D位置信息。控制单元120可以根据悬浮输入的3D位置信息,确定悬浮输入的类型。控制单元120可以基于所确定的悬浮输入的类型,选择与所执行的应用的操作有关的多个任务中的至少一个。
控制单元120可以获得作为悬浮输入单元的2D位置信息的、关于x坐标和y坐标的信息。控制单元120可以在指示多个任务的一个或多个对象之中,确定与生成悬浮输入的悬浮输入单元的位置相对应的对象,并且根据应用的操作来输出。
根据示例性实施例,当执行应用时,控制单元120可以基于悬浮输入的3D位置信息,选择可以由设备所执行的、指示由该设备所输出的对象中的至少一个的、多个应用中的至少一个。根据另一个示例性实施例,控制单元120可以获得关于生成悬浮输入的悬浮输入单元的移动方向的信息。控制单元120可以选择与悬浮输入单元的移动方向相对应的操作,并且基于悬浮输入的3D位置信息来确定实施所选择的操作的方法。
根据另一个示例性实施例,控制单元120可以基于悬浮输入单元的移动形状,确定所获得的悬浮输入的类型。控制单元120可以选择与所确定的悬浮输入的类型相对应的至少一个操作,并且基于悬浮输入的3D位置信息来确定实施所选择的操作的方法。
控制单元120可以基于应用的先前所存储的数据库,确定从输入单元110所获得的执行输入是否对应于悬浮输入。
输出单元130可以用来输出音频信号、视频信号或者振动信号,并且可以包括显示单元131、声学输出单元132以及振动电机133。
显示单元131可以显示由设备100所处理的信息。显示单元131可以输出通过实施在根据先前所获得的悬浮输入、从输入单元110所获得的执行输入的类型对应于预先设置的类型时所选择的至少一个任务而获得的结果。
显示单元131可以输出与所执行的应用的操作有关的应用或者指示操作的识别标记。例如,识别标记可以包括图标等。
如果显示单元131和触摸板被布置为多个层并且构成触摸屏,则显示单元131可以用作输出设备和输入设备。显示单元131可以包括液晶显示器(LCD)、薄膜晶体管(TFT)LCD、有机发光二极管、柔性显示器、3D显示器以及电泳显示器中的至少一个。而且,根据一个或多个示例性实施例,设备100可以包括两个或多个显示单元131。这里,两个或多个显示单元131可以被布置为经由铰链而面向彼此。
声学输出单元132输出经由通信单元150所接收的或者在存储器170中所存储的音频数据。而且,声学输出单元132输出与由设备100所实施的功能有关的声学信号(例如,呼叫信号接收声音、消息接收声音、通知声音等)。声学输出单元142可以包括扬声器或者蜂鸣器。
振动电机133可以输出振动信号。例如,振动电机133可以输出与音频数据或者视频数据(例如,呼叫信号接收声音、消息接收声音等)的输出相对应的振动信号。而且,当触摸被输入到触摸屏时,振动电机133可以输出振动信号。
感测单元140可以检测设备100的状态或者设备100的外围的状态,并且将所检测到的信息传递到控制单元120。例如,感测单元140可以检测关于回顾内容105的用户的基准操作,并且将所检测到的基准操作传递到控制单元120。
感测单元140可以包括磁性传感器141、加速度传感器142、温度/湿度传感器143、红外线传感器144、陀螺仪传感器145、位置传感器146、大气压传感器147、接近传感器148以及照度传感器149中的至少一个,但是不局限于此。
通信单元150(例如,通信器)可以包括使得能够在设备100与外部设备之间或者在设备100与服务器之间进行通信的一个或多个元件。例如,通信单元150可以包括近程无线通信单元151、移动通信单元152以及广播接收单元153(例如,广播接收器)。
近程无线通信单元151可以包括蓝牙通信单元、蓝牙低能量(BLE)通信单元、近场通信(NFC)单元、WLAN(Wi-Fi)通信单元、Zigbee通信单元、红外数据协会(IrDA)通信单元、Wi-Fi直连(WFD)通信单元、超宽带(UWB)通信单元或者Ant+通信单元。
移动通信单元152(例如,移动通信器)向/从移动通信网络上的站点、外部终端和服务器中的至少一个传送/接收无线信号。关于这一点,无线信号可以包括语音呼叫信号、视频呼叫信号、或者关于文本/多媒体消息的传送/接收的各种类型的数据。
广播接收单元153经由广播信道从外部接收广播信号和/或关于广播的信息。广播信道可以包括卫星信道和地面波信道。根据一个或多个示例性实施例,设备100可以不包括广播接收单元153。
A/V输入单元160是用于输入音频信号或者视频信号的单元,并且可以包括相机161和麦克风162。相机161可以在视频呼叫模式或者图像拾取模式中经由图像传感器获得包括静止图像或者运动图片的图像帧。由图像传感器所捕获的图像由控制单元120或者单独的图像处理单元进行处理。
由相机161所处理的图像帧可以存储在存储器170中,或者经由通信单元160传送给外部。根据一个或多个示例性实施例,设备100可以包括两个或多个相机161。
麦克风162接收外部声学信号,并且将外部声学信号处理成数字语音信号。例如,麦克风162可以从外部设备或者扬声器接收声学信号。麦克风162可以利用各种噪声减少算法,以在外部声学信号的接收期间减少噪声。
存储器170可以存储由控制单元120用于处理数据和控制设备100的组件或者输入/输出数据的程序(例如,多个菜单、分别对应于多个菜单的多个第一层子菜单、分别对应于多个第一层子菜单的多个第二层子菜单等)。
存储器170可以包括至少一种储存介质,包括闪速存储器型储存介质、多媒体卡微型储存介质、卡型存储器(例如,SD存储器、XD存储器)、随机存取存储器(RAM)、静态RAM(SRAM)、只读存储器(ROM)、电可擦除可编程ROM(EEPROM)、可编程ROM(PROM)、磁性存储器、磁盘和光盘。而且,设备100可以利用用作互联网上的存储器170的网络存储器或者云服务器。
在存储器170中所存储的程序可以被分类成多个模块,例如,UI模块171(例如,用户接口)、触摸屏模块172(例如,触摸屏)、通知模块173(例如,事件通知器)等。
UI模块171可以提供针对应用所定制并且连同设备100一起工作的UI或者GUI。触摸屏模块172可以检测触摸屏上的用户的触摸手势,并且将关于触摸手势的信息传送给控制单元120。根据示例性实施例,触摸屏模块172可以识别并分析触摸代码。触摸屏模块172也可以被实施为包括控制器的单独的硬件单元。
各种传感器可以布置在触摸屏的内部或者附近,以检测触摸屏上的触摸或者接近触摸。用于检测触摸屏上的触摸的传感器的示例可以是触觉传感器。触觉传感器指用于检测具有大于或者等于触摸感觉的灵敏度的对象的接触的传感器。触觉传感器可以检测各种信息,诸如接触表面的粗糙度、接触对象的硬度、接触点的温度等。
用于检测触摸屏上的触摸的传感器的另一个示例可以是接近传感器。接近传感器指使用电磁力或者红外线(IR)、在不用机械接触的情况下检测接近于所指定的检测表面的对象或附近对象的存在的传感器。接近传感器的示例包括透射光电传感器、直接反射型光电传感器、镜面反射型光电传感器、高频波发射型接近传感器、静电电容型接近传感器、磁型接近传感器以及IR接近传感器。用户的触摸手势可以包括轻敲、触摸并保持、两次轻敲、拖动、平移、轻弹、拖放和挥扫。
通知模块173可以生成用于通知在设备100处发生的事件的信号。在设备100处发生的事件的示例可以包括呼叫信号的接收、消息的接收、键信号的输入、日程的通知以及用户输入的获取。通知模块173可以经由显示单元131以视频信号的形式、经由声学输出单元132以音频信号的形式、或者经由振动电机133以振动信号的形式,输出通知信号。
图23是例示根据示例性实施例的在用于控制设备的系统中所包括的第一设备1710的配置的框图。
参考图23,根据示例性实施例,第一设备1710可以包括用户输入单元1712(例如,用户输入接口)、信息分析单元1714(例如,信息分析器)以及通信单元1716(例如,通信器)。然而,在图23中所例示的所有元件不是必需的。第一设备1710可以使用比在图23中所例示的那些元件更多或更少的元件来实施。
用户输入单元1712可以获得用户输入。例如,用户输入单元1712可以获得根据由第一设备1710所检测到的电容的改变而生成的悬浮输入。
信息分析单元1714可以确定所获得的悬浮输入的特性信息。信息分析单元1714可以获得包括所获得的悬浮输入的3D位置信息的特性信息。当生成悬浮输入的悬浮输入单元1730移动时,特性信息可以包括悬浮输入单元1730的移动形状和移动方向中的至少一个。
通信单元1716可以将所确定的悬浮输入的特性信息传送给第二设备1720。
一个或多个示例性实施例可以实现为可以由各种计算机部件执行并且可以记录在计算机可读介质上的计算机指令。计算机可读介质可以包括程序命令、数据文件、数据结构或者它们的组合。记录在介质上的程序指令可以针对示例性实施例来设计和构造,或者对于本领域那些技术人员是可用的。计算机可读记录介质的示例包括:磁性介质,诸如硬盘、软盘和磁带;光学介质,诸如压缩盘只读存储器(CD-ROM)和数字多功能盘(DVD);磁光介质,诸如可光读软盘;只读存储器(ROM);随机存取存储器(RAM);以及闪速存储器。介质可以是传送介质,诸如光学或金属线路、波导或者传递程序命令、数据结构等的载波。例如,程序命令可以包括:可以由计算机使用解释器来执行的高级语言代码;以及由编译器制成的机器语言。
在本文中所描述的示例性实施例应当仅在描述性的意义上考虑,而不应当用于限制的目的。每个示例性实施例内的特征或方面的描述应当被视为可用于其他示例性实施例中的其他类似的特征或方面。
虽然已经参考附图描述了一个或多个示例性实施例,但是本领域中的那些普通技术人员应当理解,可以在其中进行形式和细节上的各种改变,而不背离如由权利要求书所定义的精神和范围。

Claims (9)

1.一种控制设备的方法,所述方法包括:
显示包括指示多个应用的多个代表性对象的图标,其中所述多个代表性对象被显示在该图标内;
当悬浮输入器在预定时间段被保持在预定距离内时,获得所述悬浮输入器在显示所述多个代表性对象的图标上的悬浮输入;
基于所述设备与所述悬浮输入器之间的距离来确定所获得的悬浮输入的3维位置信息,其中在所述设备与所述悬浮输入器之间的距离被改变的同时,在所述图标内显示相同的多个代表性对象;
在所述多个应用当中确定与悬浮输入的3维位置信息相对应的应用;以及
响应于通过在所述距离处感测的所述悬浮输入器的预定手势输入,运行所确定的应用。
2.根据权利要求1所述的方法,进一步包括:
当执行应用时,基于悬浮输入的3维位置信息,在由至少一个图标所指示的至少一个任务之中选择一个任务,所述任务包括与所执行的应用的操作有关的另一个应用或者能够与所执行的应用的操作相关联地实施的另一个操作。
3.根据权利要求1所述的方法,进一步包括:
接收关于悬浮输入器的移动方向的信息;以及
确定悬浮输入器的移动方向是否对应于预定手势。
4.根据权利要求1所述的方法,进一步包括:
基于悬浮输入器的移动模式来确定悬浮输入的分类;以及
确定与悬浮输入的分类对应的任务。
5.一种处理悬浮输入的设备,包括:
输入接口,被配置为获得悬浮输入器的悬浮输入;
处理器,被配置为:
显示包括指示多个应用的多个代表性对象的图标,其中所述多个代表性对象被显示在所述图标内,
当所述悬浮输入器在预定时间段被保持在预定距离内时,获得所述悬浮输入器在显示所述多个代表性对象的图标上的悬浮输入,
基于所述设备与所述悬浮输入器之间的距离确定所获得的悬浮输入的3维位置信息,其中在所述设备与所述悬浮输入器之间的距离被改变的同时,在所述图标内显示相同的多个代表性对象,
在所述多个应用当中确定与悬浮输入的3维位置信息相对应的应用,并且
响应于通过在所述距离处感测的所述悬浮输入器的预定手势输入,运行所确定的应用。
6.根据权利要求5所述的设备,其中,当执行应用时,所述处理器还被配置为基于悬浮输入的3维位置信息,在由所述设备输出的至少一个图标所指示的至少一个任务之中选择一个任务,所述任务包括与所述应用的操作有关的另一个应用或者可以与所执行的应用的操作相关联地实施的另一个操作。
7.根据权利要求5所述的设备,其中,所述处理器还被配置为接收关于悬浮输入器的移动方向的信息,并且确定悬浮输入器的移动方向是否对应于预定手势。
8.根据权利要求5所述的设备,其中,所述处理器还被配置为基于悬浮输入器的移动模式确定悬浮输入的分类,并且确定与悬浮输入的分类相对应的任务。
9.一种非临时性计算机可读记录介质,在其上记录有计算机程序,所述计算机程序在由计算机执行时实施根据权利要求1所述的方法。
CN201580070729.9A 2014-12-01 2015-11-30 控制设备的方法和系统 Active CN107111446B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2014-0169971 2014-12-01
KR1020140169971A KR102336445B1 (ko) 2014-12-01 2014-12-01 디바이스를 제어하는 방법, 시스템 및 그 디바이스
PCT/KR2015/012929 WO2016089063A1 (en) 2014-12-01 2015-11-30 Method and system for controlling device

Publications (2)

Publication Number Publication Date
CN107111446A CN107111446A (zh) 2017-08-29
CN107111446B true CN107111446B (zh) 2021-06-18

Family

ID=56079221

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580070729.9A Active CN107111446B (zh) 2014-12-01 2015-11-30 控制设备的方法和系统

Country Status (5)

Country Link
US (2) US10824323B2 (zh)
EP (2) EP3627302A1 (zh)
KR (1) KR102336445B1 (zh)
CN (1) CN107111446B (zh)
WO (1) WO2016089063A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140327701A1 (en) * 2013-05-02 2014-11-06 Funai Electric Co., Ltd. Operation apparatus and information processing system
KR102336445B1 (ko) * 2014-12-01 2021-12-07 삼성전자주식회사 디바이스를 제어하는 방법, 시스템 및 그 디바이스
US10732719B2 (en) * 2016-03-03 2020-08-04 Lenovo (Singapore) Pte. Ltd. Performing actions responsive to hovering over an input surface
KR20170138279A (ko) * 2016-06-07 2017-12-15 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN108009012B (zh) * 2017-12-14 2021-12-14 中南大学 一种基于任务模型的多智能体动态任务分配方法
KR102459727B1 (ko) 2018-07-27 2022-10-27 삼성전자주식회사 전자 펜을 이용하여 동작 모드를 제어하기 위한 방법 및 그 전자 장치
CN110456968A (zh) * 2018-09-30 2019-11-15 网易(杭州)网络有限公司 信息显示方法、装置、存储介质和电子装置
CN112328164B (zh) * 2020-11-11 2022-08-02 维沃移动通信有限公司 操控方法和电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102890605A (zh) * 2011-07-18 2013-01-23 Lg电子株式会社 移动设备及其控制方法
CN103210366A (zh) * 2010-09-22 2013-07-17 诺基亚公司 用于基于邻近的输入的装置和方法
CN103713802A (zh) * 2012-09-28 2014-04-09 三星电子株式会社 用于运行应用的方法和电子装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008111040A2 (en) * 2007-03-14 2008-09-18 Power2B, Inc. Displays and information input devices
US20080084400A1 (en) * 2006-10-10 2008-04-10 Outland Research, Llc Touch-gesture control of video media play on handheld media players
US8665225B2 (en) * 2007-01-07 2014-03-04 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture
US8432365B2 (en) * 2007-08-30 2013-04-30 Lg Electronics Inc. Apparatus and method for providing feedback for three-dimensional touchscreen
KR20110014040A (ko) 2009-08-04 2011-02-10 엘지전자 주식회사 이동 단말기 및 그의 아이콘 충돌 제어방법
JP5325752B2 (ja) * 2009-12-07 2013-10-23 株式会社日立製作所 移動通信端末向けのモジュール及びそれを用いた移動通信端末
US8593398B2 (en) * 2010-06-25 2013-11-26 Nokia Corporation Apparatus and method for proximity based input
US8907929B2 (en) 2010-06-29 2014-12-09 Qualcomm Incorporated Touchless sensing and gesture recognition using continuous wave ultrasound signals
KR20110134810A (ko) 2010-08-26 2011-12-15 백규현 디스플레이 장치를 제어하기 위한 원격 제어 장치 및 원격 제어 방법
JP2012104994A (ja) * 2010-11-09 2012-05-31 Sony Corp 入力装置、入力方法、プログラム及び記録媒体
US20120162225A1 (en) * 2010-12-23 2012-06-28 Google Inc. View dependent techniques to determine user interest in a feature in a 3d application
US20130117717A1 (en) * 2011-11-03 2013-05-09 Shenzhen Super Perfect Optics Limited 3d user interaction system and method
KR101873746B1 (ko) 2011-12-09 2018-07-03 엘지전자 주식회사 이동 단말기 및 그 제어방법
EP2602703B1 (en) 2011-12-09 2018-02-07 LG Electronics Inc. -1- Mobile terminal and controlling method thereof
KR101399660B1 (ko) 2012-06-28 2014-05-27 주식회사 아하정보통신 전자칠판의 바탕화면 클릭 실행 시스템 및 실행 방법
US9063563B1 (en) * 2012-09-25 2015-06-23 Amazon Technologies, Inc. Gesture actions for interface elements
CN102981764B (zh) * 2012-11-19 2018-07-20 北京三星通信技术研究有限公司 触控操作的处理方法及设备
US9081577B2 (en) * 2012-12-28 2015-07-14 Intel Corporation Independent control of processor core retention states
US9323353B1 (en) * 2013-01-15 2016-04-26 American Megatrends, Inc. Capacitance sensing device for detecting a three-dimensional location of an object
CN103984465A (zh) * 2013-02-07 2014-08-13 华为终端有限公司 用户界面上日历内容的显示方法与移动终端
US20140267130A1 (en) * 2013-03-13 2014-09-18 Microsoft Corporation Hover gestures for touch-enabled devices
US20140282269A1 (en) * 2013-03-13 2014-09-18 Amazon Technologies, Inc. Non-occluded display for hover interactions
KR102157270B1 (ko) * 2013-04-26 2020-10-23 삼성전자주식회사 펜을 이용하는 사용자 단말 장치 및 그 제어 방법
US20140347326A1 (en) * 2013-05-21 2014-11-27 Samsung Electronics Co., Ltd. User input using hovering input
US20140351729A1 (en) * 2013-05-21 2014-11-27 Samsung Electronics Co., Ltd. Method of operating application and electronic device implementing the same
JP2015060303A (ja) * 2013-09-17 2015-03-30 船井電機株式会社 情報処理装置
US9916079B2 (en) * 2014-06-05 2018-03-13 Openpeak Llc Method and system for enabling the sharing of information between applications on a computing device
KR102336445B1 (ko) * 2014-12-01 2021-12-07 삼성전자주식회사 디바이스를 제어하는 방법, 시스템 및 그 디바이스

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103210366A (zh) * 2010-09-22 2013-07-17 诺基亚公司 用于基于邻近的输入的装置和方法
CN102890605A (zh) * 2011-07-18 2013-01-23 Lg电子株式会社 移动设备及其控制方法
CN103713802A (zh) * 2012-09-28 2014-04-09 三星电子株式会社 用于运行应用的方法和电子装置

Also Published As

Publication number Publication date
EP3201748A4 (en) 2017-10-25
KR20160065673A (ko) 2016-06-09
US20160154519A1 (en) 2016-06-02
US10824323B2 (en) 2020-11-03
WO2016089063A1 (en) 2016-06-09
KR102336445B1 (ko) 2021-12-07
CN107111446A (zh) 2017-08-29
EP3627302A1 (en) 2020-03-25
EP3201748A1 (en) 2017-08-09
US11513676B2 (en) 2022-11-29
US20210011599A1 (en) 2021-01-14

Similar Documents

Publication Publication Date Title
CN107111446B (zh) 控制设备的方法和系统
US11314804B2 (en) Information search method and device and computer readable recording medium thereof
CN110989917B (zh) 用于播放和管理音频项目的用户界面
US9952681B2 (en) Method and device for switching tasks using fingerprint information
CN107408045B (zh) 控制安装有多个操作系统的设备的方法和该设备
CN112181226B (zh) 用于提供内容的方法和装置
US9015584B2 (en) Mobile device and method for controlling the same
US9262867B2 (en) Mobile terminal and method of operation
EP2584430A1 (en) User interface for electronic device
US8994678B2 (en) Techniques for programmable button on bezel of mobile terminal
KR20110134551A (ko) 이동 단말기 및 그 제어방법
US20200033966A1 (en) Method of controlling device using various input types and device for performing the method
KR20150019370A (ko) 휴대 장치에서 3차원 방식의 페이지 탐색 방법 및 이를 위한 휴대 장치
KR102255087B1 (ko) 객체를 디스플레이하는 전자 장치 및 방법
US20200326786A1 (en) Device and method of controlling device
US20150089414A1 (en) Method and device for displaying content
KR20150032068A (ko) 복수의 애플리케이션 실행 방법 및 이를 위한 디바이스
US10185457B2 (en) Information processing apparatus and a method for controlling the information processing apparatus
KR102306535B1 (ko) 디바이스를 제어하는 방법 및 디바이스
CN111666027A (zh) 在设备上显示对象的方法及其设备
US11797104B2 (en) Electronic device and control method of the same
CN110622119A (zh) 对象插入
KR20220151328A (ko) 전자 장치 및 전자 장치 제어방법
KR20150033196A (ko) 콘텐츠를 검색하는 방법 및 그 장치.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant