CN107003727A - 运行多个应用的电子设备及用于控制电子设备的方法 - Google Patents
运行多个应用的电子设备及用于控制电子设备的方法 Download PDFInfo
- Publication number
- CN107003727A CN107003727A CN201580063573.1A CN201580063573A CN107003727A CN 107003727 A CN107003727 A CN 107003727A CN 201580063573 A CN201580063573 A CN 201580063573A CN 107003727 A CN107003727 A CN 107003727A
- Authority
- CN
- China
- Prior art keywords
- application
- user
- electronic equipment
- input
- task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Multimedia (AREA)
Abstract
提供一种运行多种应用的电子设备及控制该电子设备的方法。所述方法包括:从多个应用当中确定与所获取的用户输入相关的第一应用;以及在所述第一应用中运行对应于所述用户输入的任务。
Description
技术领域
本公开涉及运行多个应用的电子设备及用于控制电子设备的方法。
背景技术
由于各种设备中的中央处理单元(CPU)性能的提高,电子设备能够提供用户可一起运行多个任务的多任务环境。对于多任务,将显示每一个均对应于一个正运行应用的N个窗口。虽然,在单任务环境中,一个任务不能在另一任务的运行过程中运行,但是在多任务环境中,可以运行任务而无需等待其它任务的终止。
为了在显示每一个均与运行的应用对应的多个窗口的电子设备中执行多任务,用户选择用于运行任务的窗口,电子设备运行用户选择的任务。这样的操作被重复进行。因此,用户顺序而不是同时操作在窗口中运行的应用。
发明内容
技术问题
本公开一方面是解决至少上述问题和/或缺点并提供至少下述优点。因此,本公开一方面是提供一种运行多个应用的电子设备及用于控制该电子设备的方法。
技术方案
根据本公开一方面,提供一种控制运行多个应用的电子设备的方法。所述方法包括从多个应用当中确定与所获得的用户输入相关的第一应用,并在第一应用中运行对应于用户输入的任务。
根据本公开另一方面,提供一种电子设备。所述电子设备包括:触摸屏,被配置成显示正运行的多个应用;以及控制器,被配置成从多个应用当中确定与所获得的用户输入相关的第一应用并控制在第一应用中的对应于用户输入的任务的运行。
根据本公开另一方面,提供一种控制运行多个应用的电子设备的方法。所述方法包括在前景中运行第一应用,而在背景中运行第二应用,获取用户输入以及在背景中在第二应用中运行对应于用户输入的任务。
根据本公开另一方面,提供一种电子设备。所述电子设备包括:触摸屏,被配置成显示在前景中运行的第一应用以及显示在背景中运行的第二应用,以及控制器,被配置成获取用户输入并控制在背景中在第二应用中对应于用户输入的任务的运行。
附图说明
从下面结合附图进行的描述中,本公开特定实施例的以上和其它方面、特点和优点将更加清楚,在附图中:
图1是根据本公开实施例的运行多个应用的电子设备的方框图;
图2是图解根据本公开实施例的控制运行多个应用的电子设备的方法的流程图;
图3是图解根据本公开实施例的确定与用户输入相关的第一应用的操作的流程图;
图4是图解根据本公开实施例的基于跟踪用户的眼睛而确定第一应用的操作的流程图;
图5是图解根据本公开实施例的任务处理操作的原理图的图;
图6是图解根据本公开实施例的任务处理操作的示意图;
图7是图解根据本公开实施例的使用由用户选择的应用处理任务的操作的图;
图8是图解根据本公开实施例的通过提供能够进行对第一应用的选择的弹出窗口来处理任务的操作的图;
图9是图解根据本公开实施例的任务处理操作的示意图;
图10是图解根据本公开实施例的任务处理操作的示意图;
图11图解根据本公开实施例的电子设备上显示的屏幕;
图12a和12b是图解根据本公开实施例的通过笔输入处理任务的电子设备的图;
图13a和13b是图解根据本公开实施例的通过跟踪用户的眼睛处理任务的操作的图;
图14是图解根据本公开实施例的通过手势输入处理任务的电子设备的图;
图15是图解根据本公开实施例的通过手势输入处理任务的电子设备的图;
图16是图解根据本公开实施例的控制电子设备的方法的流程图;
图17a和17b是图解根据本公开实施例的为多个应用中各应用提供用户输入和任务栈的操作的图;以及
图18a和18b是图解根据本公开实施例的显示用于指示任务处理的结果的弹出窗口的电子设备的图。
具体实现方式
下文中,参照附图描述本公开实施例。然而,本公开的范围不限于特定实施例,对其的所有更改、等效和/或替代也将包含在本公开的范围和精神内。贯穿附图,相似的参考编号可指示相同或相似的部分、组件和结构。
在本公开中,术语“具有”、“可具有”、“包括”或“可包括”指示特定特征(例如,数目、功能、操作或像部件的组件)的存在,但是并不排除其他特征的存在。
在本公开中,术语“A或B”、“A或/和B的至少之一”或者“A或/和B中的一个或多个”可覆盖所列举项A和B的所有可能组合。例如,“A或B”、“A和B的至少之一”或者“A或B的至少之一”可代表(1)包含至少一个A,(2)包含至少一个B,(3)包含至少一个A和至少一个B的所有情况。
如在此使用的诸如“第一”或“第二”之类的术语可修饰各种组件的名称而与顺序和/或重要性无关,且不限制该组件。这些表达可用于将一个组件与另一个组件区分开。例如,第一用户设备(UE)和第二UE可指示不同UE,而与UE的顺序或UE的相对重要性无关。例如,第一组件可称为第二组件,反之亦然,而不会背离本公开的范围。
这里,当组件(例如,第一组件)被描述为“操作地或通信地耦合”到或者连接到“另一组件”(例如,第二组件)时,该组件可直接或通过任何其他组件(例如,第三组件)与其他组件连接。另一方面,当组件(例如,第一组件)被描述为“直接连接到”或“直接耦合到”其他组件(例如,第二组件)时,则在组件之间没有任何其他组件(例如,第三组件)。
如在此使用的术语“被配置成”按照情况可以例如用术语“适合于”、“具有…的能力”、“被设计成”、“被适配成”、“被使得”或“能够”替代。术语“被配置成”不一定表示在硬件上“被专门设计成”。相反,术语“被配置成”可表示设备能够与另一设备或部分一起执行操作。例如,“被配置成运行A、B和C的处理器”可指用于执行相应操作的专用处理器(例如,嵌入式处理器)或执行相应操作的通用处理器(例如,中央处理单元(CPU)或者应用处理器(AP))。
在此使用的术语仅被提供用于描述特定实施例,而不是用于限制本公开其他实施例的范围。这里,除非上下文中清楚地指示,否则术语的单数形式也包括复数指代。在下面说明和权利要求中使用的包括技术或科学术语的术语和词汇可具有与本领域一般技术人员通常理解的相同的含义。在词典中定义的术语可以被解释为具有与词典中相同或相似的定义或者具有根据相关技术的上下文定义。除非另有定义,术语不应被解释为理想的或过于正式的定义。在本公开中定义的术语不应被解释为排除本公开实施例。
根据本公开实施例,电子设备可以是智能手机、平板电脑(PC)、移动电话机、视频电话机、电子书阅读器、台式PC、笔记本PC、上网本电脑、工作站、服务器、个人数字助理(PDA)、便携式多媒体播放器(PMP)、MPEG-1音频层-3(MP3)播放器、移动医疗设备、相机以及可穿戴设备(例如,智能眼镜、头戴式设备(HMD)、电子衣服、电子手镯、电子项链、电子配饰、电子纹身、智能镜子或者智能手表)中的至少一种。
根据本公开实施例,电子设备可以体现为智能家电。例如,智能家电可以是电视机(TV)、数字多用光盘(DVD)播放器、音频播放器、冰箱、空调、真空吸尘器、烤箱、微波炉、洗衣机、空气过滤器、机顶盒、家庭自动控制板、安全控制板、TV盒、游戏控制台、电子词典、电子钥匙、摄像机和电子相框中的至少一种。
根据本公开其它实施例,电子设备可以体现为医疗设备(例如,诸如血糖仪、心率计、血压计或体温计等之类的便携式医疗仪器、磁共振血管造影(MRA)设备、磁共振影像(MRI)设备、计算机断层扫描(CT)设备、成像设备、超声设备)、导航装置、全球定位系统(GPS)接收机、事件数据记录器(EDR)、飞行数据记录器(FDR)、车载信息娱乐设备、船用电子设备(例如船用导航装置、陀螺罗盘等)、航空电子设备、安全设备、车载头单元、工业或消费者机器人、金融设施中的自动取款机(ATM)、商店中的销售点(POS)设备、物联网(IoT)设备(例如,灯泡、各种传感器、电表或燃气表、喷洒器、火警、恒温器、街灯、烤面包片机、运动用品、热水箱、加热器、或热水壶)等中的至少一种。
根据本公开某些实施例,电子设备可以体现为,例如,家具、建筑物/结构的一部分、电路板、电子签名接收装置、投影机或者各种测量设备(例如水、电、燃气或电磁波测量设备)中的至少一种。根据本公开各种实施例,电子设备可体现为上述设备的一个或两个或多个组合。根据本公开某些实施例,电子设备可以是柔性电子设备。另外,根据本公开实施例的电子设备不限于上述设备,可包括随技术发展而产生的新电子设备。
参考附图,下面将描述根据本公开各种实施例的电子设备。在本公开中,术语“用户”可指使用电子设备的人或设备(例如,人工智能电子设备)。
图1是根据本公开实施例的运行多个应用的电子设备100的方框图。
参照图1,电子设备100包括处理模块110、运行模块120和显示模块130中的至少一部分。处理模块110、运行模块120和显示模块130可通过总线互相连接。总线可包括提供在组件之间的通信(例如,控制消息和/或数据)的电路。
电子设备100可运行多个应用并显示运行的应用。电子设备100可为每一运行的应用显示相应的窗口。电子设备100可运行多个应用并显示在与用户输入相关的第一应用中的对应于用户输入的任务的运行结果。
处理模块110可从电子设备100中运行的多个应用当中确定第一应用为与所获得用户输入相关的应用。电子设备100可获取用于多个应用中的任务运行的用户输入。用户输入可包括通过电子设备100的输入/输出(I/O)接口获取的所有类型的输入中的至少一种,诸如触摸输入、声音输入、手势输入、笔输入等。
I/O接口可向电子设备100的一个或多个其它组件发送从例如用户或者其它外部设备接收的命令或数据。I/O也可向用户或其他外部设备输出从电子设备100的一个或多个其它组件接收的命令或数据。
然而,用户输入可以与电子设备100的前景中正运行的应用支持的输入类型不同。例如,如果电子设备100的前景中正运行的应用支持触摸输入,则用户输入可包括除触摸输入以外的其它输入类型的至少一种。而且,如果电子设备100的前景中正运行的应用支持语音输入,则用户输入可包括除语音输入以外的其它输入类型的至少一种。
运行模块120可在第一应用中运行对应于用户输入的任务。处理模块110可确定第一应用并将用户输入分配给第一应用。因此,运行模块120可在第一应用中在背景中运行对应于用户输入的任务。
例如,运行模块120可在第一应用中在背景中运行对应于用户输入的任务,同时保持前景中正运行的应用的任务。为运行第一应用中的任务,运行任务120可在不执行选择第一应用的过程的情况下运行对应于用户输入的任务。
如果处理模块110不能确定与用户输入相关的应用,显示模块130可显示弹出窗口以用于选择与用户输入相关的第一应用。例如,显示模块130可显示使得能够选择多个应用中的所有应用的弹出窗口或者显示使得能够选择多个应用中的至少一部分的弹出窗口。
例如,显示模块130能够为用户显示各种类型的内容(例如,文本、图标、符号等)。根据本公开实施例,显示模块130可包括液晶显示器(LCD)、发光二极管(LED)显示器、有机LED(OLED)显示器、微机电系统(MEMS)显示器或者电子纸显示器。显示器可包括触摸屏,可通过例如电子笔或用户身体部分接收例如触摸输入、手势输入、接近输入或者靠近输入。
根据本公开实施例,处理模块110可使用存储在电子设备100的存储器中存储的将用户输入映射到多个应用中的每一个中可运行的任务的数据库(DB)确定第一应用。之后将详细描述使用数据库确定第一应用的方法。
根据本公开实施例,处理模块110可通过使用图像识别装置(如电子设备100的摄像机)跟踪用户的眼睛来检测在多个应用当中用户的眼睛指示的应用。处理模块110可基于电子设备100和用户之间的距离通过摄像机获取用户的脸部或眼睛的图像并跟踪用户的眼睛。处理模块110可如上所述跟踪用户的眼睛,或者从附加模块(诸如眼睛跟踪模块)获取跟踪用户眼睛的结果。
如上所述,处理模块110可使用所获取的眼睛跟踪结果检测用户眼睛指示的应用并确定第一应用。例如,当接收到用户输入时,处理模块110可从多个应用中确定用户正注视的应用为第一应用。
而且,处理模块110可在电子设备100的存储器中存储被检测为被用户注视达至少预定时间的应用的检测历史。因此,处理模块110可基于应用的检测历史确定第一应用为多个应用当中的用户注视达至少预定时间最多次数的应用。之后将详细描述通过跟踪用户眼睛而确定第一应用的方法。
根据本公开实施例,处理模块110可基于指示预定应用的附加输入确定第一应用。例如,处理模块110可确定由附加输入所指示的特定应用为第一应用。可在接收到用户输入时获取附加输入。附加输入可根据输入类型预先确定以指示特定应用。附加输入可以是与用户输入相同或不同的输入类型。
例如,语音输入“PLAY(播放)”和语音输入“MUSIC(音乐)”可通过电子设备100的I/O接口被分别获取作为用户输入和附加输入。在这种情况下,处理模块110可在由附加输入“MUSIC”指示的音乐播放应用中运行对应于用户输入“PLAY”的音乐播放运行任务。之后将详细描述使用附加输入确定第一应用的方法。
根据本公开实施例,处理模块110可确定用户在显示模块130上显示的被设计用于选择第一应用的弹出窗口中选择的应用为第一应用。如果处理模块110不能基于用户输入确定第一应用,则处理模块110可根据对应用的用户选择确定第一应用。
处理模块110和/或运行模块120可包括一个或多个CPU、应用处理器(AP)和通信处理器(CP)。处理模块110和/或运行模块例如可执行与电子设备100的至少一个其它组件的控制和/或通信相关的计算或数据处理。处理模块110和/或运行模块120可被称为控制器或者合并控制器作为处理模块110的一部分。
处理模块110和/或运行模块120例如可运行处理与电子设备100的至少一个其他组件相关的命令或数据的程序或应用。程序例如可包括内核、中间件、应用程序接口(API)和/或应用程序(或应用)。内核、中间件和API中的至少一部分可被称为操作系统(OS)。内核可控制或管理在运行其他程序中执行的操作或功能中使用的系统资源(例如,总线、处理模块110、运行模块120或存储器)。而且,内核可提供允许中间件、API或者应用程序访问电子设备101的各个组件的接口,并且从而控制或管理系统资源。中间件例如可作为下述媒介,通过它,内核可与API或应用程序通信以发送和接收数据。而且,对于从应用程序所接收的一个或多个任务请求,例如,中间件可通过对至少一个应用程序分配使用电子设备的系统资源的优先级来执行对一个或多个任务请求的调度或负载平衡。
API是可以控制应用程序在内核或中间件上提供的功能的接口。例如,API可包括用于文件控制、窗口控制、视频处理或问题控制的至少一个接口或功能(例如,命令)。这里,应用也可称为应用程序。
图2是图解根据本公开实施例的控制运行多个应用的电子设备的方法的流程图。
参照图2,在步骤210,运行多个应用的电子设备100确定与获取的用户输入相关的第一应用。电子设备100可显示运行的应用。电子设备100可在针对多任务而运行的多个应用当中确定与所获取的用户输入相关的第一应用。
例如,电子设备100可使用其中在各自应用中运行的任务被映射到用户输入的DB来确定第一应用。电子设备100也可通过跟踪用户的眼睛确定第一应用。电子设备100可通过从用户获取指示特定应用的附加输入或者根据用户选择确定第一应用。将稍后参考图3详细描述确定第一应用的方法。
在步骤220,电子设备100在第一应用中运行对应于用户输入的任务。电子设备100可将用户输入分配给第一应用并运行第一应用中的任务。
以此方式,电子设备100还可运行除正在进行的任务的应用以外的应用中的任务,同时也保持正在进行的任务。通过确定第一应用为与用户输入相关的应用,在没有接收到对第一应用的单独选择的情况下,电子设备100还可在第一应用中运行对应于用户输入的任务。
图3是图解根据本公开实施例的确定与用户输入相关的第一应用的操作的流程图。
参照图3,在步骤310,电子设备100确定电子设备100是否能够使用存储器中存储的具有用户输入被映射到多个应用中运行的任务的DB来确定第一应用。
根据本公开实施例,电子设备100可存储如表1所示的DB,其中在DB中,用户输入被映射到多个应用中可运行的任务。
表1
应用 | 任务 | 用户输入 |
第一应用 | 第一任务 | 第一用户输入 |
第二应用 | 第二任务 | 第二用户输入 |
第三应用 | 第三任务 | 第三用户输入 |
例如,在获得第二用户输入时,电子设备100可确定对应于第二用户输入的应用为第二应用。电子设备100可在所确定的第二应用中运行第二任务。尤其是,随着第二用户输入的接收,即使第一应用正在前景中被运行,电子设备100也可在背景中运行第二任务。
根据本公开另一实施例,如表2所示,DB可具有被映射到电子设备100中可运行的每个任务或每个任务集的用户输入,并被存储。
表2
参照表2,电子设备100可包括下述DB,在DB中,在电子设备100中正被运行的每一应用提供的每一屏幕上的可运行的任务被分类。屏幕可称为应用运行屏幕。例如,第一应用可显示第一屏幕或第二屏幕。虽然相同的应用被运行,但是可根据屏幕存储映射到用户输入的不同任务或任务集。每一任务可存储为映射到至少一个用户输入。例如,第一应用的第二屏幕上运行的第一任务可映射到第四、第五和第六用户输入中的至少一个。
例如,在获取到第一用户输入时,电子设备100可检测到映射到第一用户输入的在第一应用第一屏幕上运行的第一任务。因此,电子设备100可确定第一应用为与第一用户输入相关的应用。
如果附加的应用被运行,则可更新映射到所添加应用中可运行的每一任务的用户输入。而且,为了获取映射到所添加应用中的可运行任务的用户输入,电子设备100可激活相关传感器,以便传感器可以低功耗通过传感器集线器(即,低功率传感器控制器)周期地感测用户输入。
为了提高检测被映射到用户输入的任务的速度,电子设备100可根据正运行的多个应用中显示的屏幕变化实时从整个DB过滤必要数据。例如,如果在应用A中正显示第一屏幕,则电子设备100可过滤除与第一屏幕相关数据以外的其余数据,例如,与第二屏幕相关的数据和与第三屏幕相关的数据。因此,电子设备100可提高检测被映射到用户输入的任务的速度。
根据本公开另一实施例,电子设备100可存储所有被存储应用、任务和用户输入之间的相关性的DB。电子设备100可使用所存储的DB确定与所获取用户输入相关的应用。
电子设备100可使用DB检测被映射到用户输入的任务。如果在单个应用中一个或多个任务被检测到并被运行,则电子设备100可使用DB确定第一应用。
然而,如果在多个应用中多个任务被检测到并被运行,则电子设备100可能不能使用DB确定第一应用。因此,电子设备100可确定是否可能通过使用DB搜索被映射到所获取用户输入的任务来确定第一应用。
根据本公开另一实施例,如果在多个应用中多个检测到任务被运行,则电子设备100可确定与用户输入相关的所有应用并可控制多个应用的每一个运行任务。
根据本公开另一实施例,电子设备100可直接使用DB确定对应于所获取的用户输入的应用。例如,电子设备100可在不执行搜索对应于所获取的用户输入的任务的过程的情况下,直接确定与用户输入相关的应用。
在步骤311,如果有可能使用DB确定第一应用,则电子设备100基于DB和所获取的用户输入确定第一应用。如上所述,电子设备100可使用DB检测被映射到所获取的用户输入的任务。电子设备100可确定运行所检测到的任务的应用为第一应用。
例如,当从用户获取语音输入“STOP(停止)”时,电子设备100可在DB中检测被映射到语音输入“STOP”的任务。如果检测到被映射到语音输入“STOP”的任务并且运行该任务的应用为音乐播放应用,则电子设备100可确定音乐播放应用为第一应用。
根据另一实施例,如果检测到被映射到语音输入“STOP”的任务并且音乐播放应用和媒体播放应用运行该任务,则电子设备100可确定音乐播放音乐和媒体播放应用两者为第一应用。
根据本公开另一实施例,电子设备100可在不搜索被映射到语音输入“STOP”的任务的情况下,确定对应于语音输入“STOP”的应用。电子设备100可确定所确定的应用为第一应用。
在步骤320,如果不能使用DB确定第一应用,则电子设备100跟踪用户的眼睛。电子设备100可通过相机获取用户的脸部或眼睛的图像。电子设备100可基于用户的脸部或眼睛的图像以及电子设备100和用户之间的距离跟踪用户的眼睛。
在步骤330,电子设备100确定电子设备100是否能够基于所跟踪的用户的眼睛确定第一应用。电子设备100可检测所跟踪的用户的眼睛指示的应用。如上所述,电子设备100可确定通过跟踪用户的眼睛所检测到的应用为与所获取的用户输入相关的第一应用。
然而,如果通过跟踪用户的眼睛检测到的应用正被运行,如果用户的眼睛的移动小于预定阈值,或者如果用户注视除电子设备100以外的地方,则尽管执行了用户眼睛跟踪,电子设备100还是有可能不能确定第一应用。因此,电子设备100可跟踪用户的眼睛并确定电子设备100是否能够基于所跟踪的用户的眼睛确定第一应用。
在步骤331,如果有可能基于所跟踪的用户的眼睛确定第一应用,则电子设备100基于所跟踪的用户的眼睛确定第一应用。例如,电子设备100可确定第一应用为多个应用当中的被检测为在获取用户输入的同时用户正注视的应用。而且,为使用所跟踪的用户的眼睛确定第一应用,电子设备100可在电子设备100的存储器中存储被检测为被用户注视达至少预定时间的应用的检测历史。电子设备100可根据应用的检测历史确定第一应用为被检测为被用户注视最多次数的应用。之后将参考图4详细描述基于电子设备100中的检测历史确定第一应用的特定方法。
在步骤340,如果电子设备100不能基于所跟踪的用户的眼睛确定第一应用,则电子设备100在其显示器上显示用于选择第一应用的弹出窗口。为确定多个应用中运行的应用以响应用户输入,电子设备100可通过弹出窗口接收用户选择。为接收用户选择,电子设备100可如上所述显示弹出窗口或通过扬声器输出提示用户选择第一应用的语音。
在步骤350,电子设备100确定通过步骤340显示的弹出窗口选择的应用为第一应用。当电子设备100通过扬声器输出提示用户选择第一应用的语音时,电子设备100可接收指示对第一应用的选择的语音输入并基于所接收的语音输入确定所选择的应用为第一应用。
虽然电子设备100可如上所述顺序执行确定与用户输入相关的第一应用的操作,但是电子设备100也可执行操作而不考虑该顺序。例如,电子设备100可通过首先跟踪用户的眼睛而不是使用DB来确定第一应用。当获取用户输入时,电子设备100可通过提供弹出窗口确定第一应用。
虽然图3中未示出,但是电子设备100可获取指示预定应用的附加输入并确定由附加输入所指示的预定应用为第一应用。之后将详细描述基于电子设备100中的附加输入确定第一应用的方法。
图4是图解根据本公开实施例的基于跟踪用户的眼睛而确定第一应用的操作的流程图。
参照图4,在步骤410,电子设备100通过跟踪用户的眼睛检测用户的眼睛指示的应用。如本文以上所述,电子设备100可基于获取的用户脸部或眼睛的图像以及在电子设备100和用户之间的距离跟踪用户的眼睛。因此,电子设备100可确定用户的眼睛指示的显示器的点并检测在所确定的点上显示的应用。
在步骤420,电子设备100存储被检测到被用户注视达至少预定时间的应用的检测历史。虽然电子设备100可确定在获取用户输入的同时被检测为被用户注视的应用为第一应用,但是非预期的应用可能被确定为第一应用。因此,为更加准确地确定第一应用,电子设备100可存储被检测为被用户注视达至少预定时间的应用的检测历史。
例如,如果用户的眼睛至少预定时间中有七次指向应用A、两次指向应用B以及一次指向应用C,则电子设备100可存储对于每一应用的检测次数作为应用的检测历史。
而且,电子设备100可附加存储正在进行的任务和运行该任务的应用之间的相关性作为应用的检测历史。例如,电子设备100可根据检测时是应用A还是应用B正在运行进行中的任务而分别存储注视检测的次数。因此,电子设备100可在确定第一应用中引入每一应用和任务之间的相关性并使用该相关性。
在步骤430,电子设备100确定被检测到最多次数的应用为第一应用。通过执行根据图4的方法,相比其它示例中电子设备100确定在获取用户输入的同时检测到被用户注视的应用为第一应用,电子设备100可更准确地确定第一应用。
如果进行中的应用为应用A,则电子设备100可基于不考虑应用A的检测次数的检测历史,考虑应用A和其它应用之间的相关性而确定第一应用。
例如,如果应用A被检测到两次(即,如果对应用A达至少预定时间的检测次数为2次),应用B被检测到四次,应用C,应用A中正运行任务,则第一应用可以与应用B被检测到三次,C被检测到一次的场景相同的方式如下被确定。如果进行中的任务正在应用A中运行,则电子设备100可确定被检测到最多次数的应用B为第一应用。虽然检测的总次数大于应用C,但是在进一步考虑应用A和应用B相关性时,电子设备100可确定应用B为与所获取用户输入相关的第一应用。
图5是图解根据本公开实施例的任务处理操作的概念图的图。
如图5(a)所示,电子设备100可同时运行应用A和应用B并在分开的运行窗口显示应用A和应用B。图5(a)图解电子设备100正运行应用A中的任务的情况。
当电子设备100正如图5(a)所示运行应用A中的任务时,电子设备100可获取与应用B相关的用户输入。接着,电子设备100可确定所获取的用户输入与应用B相关,并在应用B中运行对应于用户输入的任务,同时保持运行应用A的任务不中断,如图5(b)所示。
如上所述,电子设备100可在不执行选择应用B的过程的情况下,运行应用B中对应于所获取的用户输入的任务。
图5(c)图解电子设备100运行应用B中对应于用户输入的任务之后的示例。电子设备100保持运行应用A中的任务。以此方式,电子设备100可运行应用B中的任务,同时保持运行任务A。
图6是图解根据本公开实施例的任务处理操作的图。
如图6(a)所示,电子设备100可同时运行应用A、B和C,应用A、B和C可在其中它们被运行的各个窗口显示。
图6(b)图解用户附加运行应用D的示例,电子设备100调用应用D并附加显示用于运行应用D的窗口。图6(b)还图解电子设备100运行所添加应用D中的任务。
在如图6(b)所示电子设备100运行应用D中的任务时,电子设备100可获取与应用A相关的用户输入。在这种情况下,电子设备100可能不能立即从电子设备100中正运行的多个应用中确定哪一应用与所获取用户输入相关。反之,电子设备100可通过执行以上参考图3所述的确定操作确定与用户输入相关的第一应用。
图6(c)是图解电子设备100确定用户输入与应用A相关并运行应用A中对应于用户输入的任务的示例的图。电子设备100可在不执行选择应用A的过程的情况下运行应用A中对应于用户输入的任务。
图6(d)是图解电子设备100运行应用A中对应于用户输入的任务之后、电子设备100保持通过应用D运行的任务的运行的示例的图。以此方式,电子设备100可运行应用A中的任务,而不中断应用D中的任务的运行。
图7是图解根据本公开实施例的处理由用户选择的应用中的任务的操作的图。
如图7(a)所示,电子设备100可运行应用A、B、C和D,并在各自窗口中显示这些应用。入可通过电子设备100获取与应用A、B、C和D中的一个相关的用户输。
如以上参考图5和6所述,如果电子设备100能够确定与用户输入相关的应用A,则电子设备100可运行应用A中对应于用户输入的任务,如图7(c)所示。
然而,如果不能确定与用户输入相关的应用A,则电子设备100可通过扬声器输出用于选择第一应用的语音以便用户可选择第一应用,如图7(b)所示。
如果通过电子设备100输出了用于选择第一应用的语音,则用户可通过提供语音输入在应用A、B、C当中选择第一应用。电子设备100可从用户获取语音输入并基于该语音输入确定第一应用。
例如,图7(b)中,电子设备100可输出提示用户选择应用A、B和C其中之一作为第一应用的语音。当从电子设备100听到语音输出时,用户可向电子设备100提供语音输入“应用A”以选择应用A作为第一应用。电子设备100可基于从用户接收的语音输入确定应用A为第一应用。接着,电子设备100可运行应用A中对应于用户输入的任务,如图7(c)所示。
在图7的示例中,电子设备100从用户接收附加的语音输入。然而,附加的语音输入仅由电子设备100用于确定与用户输入相关的应用,而不是被用于直接选择应用A。因此,在图7中,在保持应用D所运行的任务的同时,电子设备100也可运行应用A中对应于用户输入的任务,而不单独执行选择应用A的过程。
图8是图解根据本公开实施例的通过提供使得能够进行第一应用的选择的弹出窗口来处理任务的操作的图。
参照图8,如果电子设备100能够确定与所获取的用户输入相关的第一应用,则电子设备100可运行应用A中对应于用户输入的任务,如图8(c)所示。
然而,如图7中示例所示,电子设备100可能不能在应用A、B、C和D运行时立即确定与所获取用户输入相关的应用,如图8(a)所示。
当这样的确定不可能时,与图7相比,图8(b)中,电子设备100不是通过扬声器的语音输出,而是显示提示用户选择第一应用的弹出窗口810,以便接收对与用户输入相关的第一应用的选择。
当电子设备100中显示弹出窗口810时,用户可在弹出窗口810中选择第一应用。电子设备100可基于通过弹出窗口810获取的输入确定第一应用。
例如,为选择应用A为第一应用,用户可触摸弹出窗口810中显示的表示应用A的图标。电子设备100可基于表示应用A的图标上的触摸输入确定应用A为第一应用。接着,电子设备100可运行应用A中对应于用户输入的任务,如图8(c)所示。
图8图解电子设备100通过弹出窗口810从用户接收附加触摸输入的示例。然而,如图7所示情形,附加的触摸输入仅由电子设备100用于确定与用户输入相关的应用,而不是用于直接选择应用A。相应地,在图8中,在保持通过应用D所运行任务的同时,电子设备100也可在不执行选择应用A的过程的情况下,运行应用A中对应于用户输入的任务。
图9是图解根据本公开实施例的任务处理操作的图。
虽然电子设备100可如图5至8所示将显示区域分割并在所分割区域分开显示用于运行多个应用的窗口以便窗口彼此不重叠,但是电子设备100也可如此显示用于运行多个应用的窗口以使窗口可以彼此至少部分地重叠。
如图9(a)所示,电子设备100可显示其中应用A、B、C和D正被运行、根据其显示优先级彼此重叠的窗口。用于运行其中正运行正在进行的任务的应用A的窗口可被分配给比任何其他运行窗口高的优先级,并且因而被显示在最前面的位置。在运行应用A中的任务期间,电子设备100可获取与应用D相关的用户输入,电子设备100可从电子设备100中运行的多个应用当中确定与所获取用户输入相关的应用。电子设备100可以以图3所示的确定操作确定与用户输入相关的第一应用。
图9(b)是图解电子设备100确定用户输入与应用D相关并运行应用D中对应于用户输入任务的示例的图。以此方式,电子设备100可不执行用于选择应用D、通过改变应用的显示优先级而在相对于其他应用的最前面位置显示应用D、接着运行任务以便运行应用D中对应于用户输入的任务的过程。
图9(c)是图解电子设备100运行应用D中对应于用户输入的任务之后、电子设备100保持应用A中任务的运行的示例的图。以此方式,电子设备100可运行应用D中的任务,同时保持应用A中运行的任务。
图10是图解根据本公开实施例的任务处理操作的图。
电子设备100可以层叠堆栈显示用于运行多个应用的窗口。如图10(a)所示,电子设备100可显示以层叠堆栈排列的用于运行应用A、B、C和D的窗口。在运行应用A中的任务期间,电子设备100可获取与应用C相关的用户输入,电子设备100可从电子设备100中正运行的多个应用当中确定与所获取用户输入相关的应用。电子设备100可以以图3所示的确定操作确定与用户输入相关的第一应用。
图10(b)是图解电子设备100确定用户输入与应用C相关并运行应用C中对应于用户输入的任务的图。以此方式,电子设备100可不执行用于选择应用C、在相对于其他应用的最前面位置显示应用C并且接着运行任务以便运行应用C中对应于用户输入的任务的过程。
图10(c)是图解电子设备100运行应用C中对应于用户输入的任务之后、电子设备100保持应用A中任务的运行的示例的图。以此方式,电子设备100可运行应用C中的任务,同时保持应用A中任务的运行。
图11图解根据本公开实施例的电子设备上显示的屏幕的图。
图11图解其中用于运行应用A 1110、应用B 1120和应用C 1130的窗口根据其显示优先级而被显示为彼此重叠的示例。应用B 1120可被显示为与应用A 1110部分重叠,应用C1130被显示为被应用A全部重叠。
如果电子设备100获取与应用C 1130相关的用户输入,则电子设备100可确定多个应用当中哪一应用与用户输入相关。电子设备100可运行应用C1130中对应于用户输入的任务,确定用户输入与应用C 1130相关。
如前面参照图9和10所述,电子设备100可不执行用于直接选择应用C1130、在相对于其他应用的最前面位置显示应用C、并且接着运行对应于应用C的任务以便运行应用C的过程。然而,即使应用C 1130被应用A完全重叠并且从而没有显示在电子设备100上,如图11所示,但是电子设备100可运行应用C 1130中对应于用户输入的任务。
图12a和12b是图解根据本公开实施例的通过笔输入处理任务的电子设备的图。
参照图12a,电子设备100可在运行应用A中的任务期间从用户获取笔输入。用户可对电子设备100应用笔输入以运行除应用A以外的应用。
电子设备100可从正运行的多个应用中确定哪一应用与笔输入相关。如果电子设备100确定笔输入与应用D相关,则电子设备100可运行应用D中对应于笔输入的任务,同时保持关于应用A所执行的任务的运行。
用户可与笔输入一起应用指示预定应用的附加输入。电子设备100可确定附加输入所指示的预定应用为第一应用。
例如,如图12b所示,用户可应用笔输入“PLAY”,接着应用附加输入“MUSIC”。“MUSIC”可以是指示音乐播放应用的预定输入。电子设备100可确定附加输入“MUSIC”所指示的应用D(在本示例中为音乐播放应用)为第一应用。接着,电子设备100可运行应用D中对应于笔输入“PLAY”的任务。
图13A和13B是图解根据本公开实施例的通过跟踪用户的眼睛处理任务的操作的图。
参照13a和13b,电子设备100可通过经相机跟踪用户的眼睛来从正运行的多个应用当中确定与所获取用户输入相关的第一应用。
例如,在检测应用A正被用户注视的同时,电子设备100可获取用于运行除应用A以外应用的用户输入,如图13b所示。
然而,为了更加准确地确定第一应用,电子设备100可基于被检测为被用户注视预定时间的应用的检测历史确定第一应用,如本文以上参照图4所述。
图14是图解根据本公开实施例的通过手势输入处理任务的电子设备的图。
参照图14,电子设备100可在应用D的任务运行期间从用户获取手势输入。用户可对电子设备100应用手势输入以运行除应用D以外的应用。
电子设备100可从正运行的多个应用中确定与手势输入相关的应用。如果电子设备100确定触摸输入与应用C相关,则电子设备100可运行应用C中对应于笔输入的任务,同时保持应用D中任务的运行。
图15是图解根据本公开实施例的通过手势输入处理任务的电子设备的图。
用户可与图14中所示的手势输入一起应用指示预定应用的附加输入。例如,用户可应用指示特定应用的手势输入作为附加输入。如图15所示,用户可应用指示应用C的手势输入作为附加输入。
电子设备100可基于指示应用C的附加输入确定应用C为第一应用。因此,电子设备100可运行应用C中对应于手势输入的任务。
虽然在本文以上参照图15所述的示例中,附加输入为手势输入,但是该示例不限于本公开实施例,用户可与手势输入一起应用笔输入、语音输入等作为附加输入。
图16是图解根据本公开实施例的控制电子设备的方法的流程图。
参照图16,在步骤1610中,电子设备100在前景中运行第一应用,在背景中运行第二应用。为运行多个应用,电子设备100可在前景中运行其中运行正在进行的任务的第一应用,在背景中运行当前没有任务运行的第二应用。
在步骤1620,电子设备100获取用户输入用于运行第二应用中的任务。用户输入可以与第一应用所支持的输入类型不同。例如,如果第一应用支持触摸输入,则用户输入可以是诸如例如语音输入、手势输入或笔输入等之类的不同类型。虽然第一应用支持触摸输入和语音输入,如果对应于正在进行任务的输入是触摸输入,那么用户输入可包括语音输入。这种形式的输入被执行以便不影响第一应用中正运行的任务。
在步骤1630,电子设备100对第二应用分配用户输入。因为用户输入被应用以运行第二应用中的任务,所以电子设备可对第二应用分配用户输入。如果有多个第二应用,那么电子设备100可在对第二应用分配用户输入之前确定与用户输入相关的应用。电子设备100可通过执行参照图3图解和描述的确定操作确定与用户输入相关的应用。
在步骤1640,电子设备100在背景中运行第二应用中对应于用户输入的任务。由于对应于用户输入的任务在背景中被运行,所以可不干扰在前景的第一应用的前景下保持正在进行的任务。
图17a和17b是图解根据本公开实施例的为多个应用中的每一个提供用户输入和任务栈的操作的图。
参照图17a,通过硬件1710(诸如输入设备)获取的用户输入可通过内核1720被发送给中间件1730。中间件1730可根据应用的任务栈的优先级对具有最高优先级的任务栈的应用提供用户输入。
参照17b,第一应用的任务栈1750可具有比第二应用任务栈1760高的优先级,中间件1730可基于任务栈向应用1740提供所获取的用户输入。例如,中间件1730对具有比第二应用1742高的任务优先级的第一应用1741提供用户输入,并运行第一应用1741中的任务,其中第一和第二应用1741和1742包含在应用1740中。
根据本公开实施例,可确定与所获取用户输入相关的应用。因此,对应于用户输入的任务可在与用户输入相关的应用中被运行,同时保持进行中的应用的任务。
例如,如果所获取用户输入与第二应用1742相关,即使第二应用1742的任务栈1760比第一应用1741的任务栈1750具有更低的优先级,中间件也可向第二应用1742提供所获取的用户输入。虽然第二应用1742的任务栈的优先级未根据第二应用1742的用户选择而改变,但是与用户输入相关的应用可被确定,因此用户输入可被提供给具有更低优先级任务堆栈的第二应用1742。
图18a和18b图解根据本公开实施例的显示用于指示任务处理结果的弹出窗口的电子设备。
参照图18a,电子设备100可在应用A和应用B运行期间获取与应用B相关的用户输入。响应于用户输入,电子设备100可在应用B中运行对应于用户输入的任务,确定应用B为与用户输入相关的第一应用。
参照图18b,电子设备100可在单独的弹出窗口1810显示应用B中运行的任务的结果。因此,用户可意识到在应用B中已经运行对应于用户输入的任务。电子设备100可在弹出窗口上可视地指示应用B中任务已经被运行,如图18B所示,或者通过扬声器由语音信号指示。
根据本公开实施例,控制运行多个应用的电子设备的方法可包括从多个应用中确定与所获取用户输入相关的第一应用,并在第一应用中运行对应于用户输入的任务。
用户输入可包括语音输入、手势输入和笔输入中的至少之一。
第一应用的确定可包括使用存储的其中用户输入被映射到多个应用中的每一个中可运行的任务的数据库来确定第一应用。
第一应用的确定可包括通过跟踪用户眼睛来检测在多个应用当中被用户注视的应用。
第一应用的确定可包括确定在多个应用当中在获取用户输入的同时被检为被用户注视的应用为第一应用。
第一应用的确定还可包括存储被检测为被用户注视达至少预定时间的应用的检测历史。
第一应用的确定可包括基于应用的检测历史从多个应用当中确定被检测为被用户注视最多次数的应用为第一应用。
第一应用的确定还可包括在获取用户输入的同时获取指示预定应用的附加输入。
第一应用的确定可包括确定由附加输入指示的预定应用为第一应用。
所述方法还可包括,如果没有确定与用户输入相关的第一应用,则对用户显示用于选择与用户输入相关的第一应用的弹出窗口。
第一应用的确定可包括确定由用户在弹出窗口中选择的应用为第一应用。
根据本公开另一实施例,电子设备可包括:触摸屏,被配置成显示正运行的多个应用;以及控制器,被配置成确定在多个应用当中的与所获取用户输入相关的第一应用,并控制在第一应用中对应于用户输入的任务的运行。
用户输入可包括语音输入、手势输入和笔输入中的至少之一。
控制器可使用存储的用户输入被映射到多个应用中的每一个中可运行的任务的数据库来确定第一应用。
电子设备还可包括:相机,被配置成获取用户的脸部图像,以及控制器可基于所获取的用户的脸部图像跟踪用户眼睛并检测多个应用当中被用户注视的应用。
控制器可确定多个应用当中在获取用户输入的同时被检测为被用户注视的应用为第一应用。
控制器可控制存储被检测为被用户注视达至少预定时间的应用的检测历史。
控制器可基于应用的检测历史从多个应用当中确定被检测为被用户注视最多次数的应用为第一应用。
控制器可在获取用户输入的同时获取指示预定应用的附加输入。
控制器可确定由附加输入指示的预定应用为第一应用。
如果没有确定与用户输入相关的第一应用,则控制器控制对用户显示用于选择与用户输入相关的第一应用的弹出窗口。
控制器可确定由用户在弹出窗口中选择的应用为第一应用。
根据本公开另一实施例,一种控制运行多个应用的电子设备的方法可包括在前景中运行第一应用,在背景中运行第二应用,获取用户输入,并在背景中在第二应用中运行对应于用户输入的任务。
用户输入可以是与第一应用所支持的输入类型不同的类型。
所述方法还可包括对第二应用分配所获取的用户输入。
根据本公开另一实施例,电子设备可包括:触摸屏,被配置成显示在前景中正运行的第一应用和在背景中正运行的第二应用,控制器,被配置成获取用户输入并控制在背景中在第二应用中对应于用户输入的任务的运行。
用户输入可以是与第一应用所支持的输入类型不同的类型。
控制器可对第二应用分配所获取的用户输入。
从前述本公开各实施例的描述中,很明显,电子设备可通过确定与用户输入相关的应用而运行用户所期望的应用。
根据本公开各种实施例,电子设备可在不中断一个应用中正进行的任务的情况下,运行另一应用中的任务。
结果,不需要为了运行其它应用中的任务而重复进行选择另一应用并运行所选择的任务的操作。因此,为用户提供了快速和便捷的设备操作环境。
以上根据本公开所述的电子设备的每一组件可包括一个或多个组件,每一组件的名称可根据电子设备的类型而不同。根据本公开各种实施例的电子设备可包括上述组件的至少之一,某些可被省略或者可包含某些附加的组件。而且,根据本公开各种实施例的电子设备的某些组件可组合成单个实体并执行与其组合之前各自组件执行的功能相同的功能。
术语“模块”,如本文所使用,可包括其一般定义,包含例如单个单元或两个或多个单元的组合。术语“模块”可与术语诸如例如“单元”、“逻辑”、“逻辑块”、“组件”或“电路”互换使用。模块可以是执行一个或多个功能或其一部分的最小单元。模块可以被机械或电子地实现。例如,模块可包括执行特定操作的公知或将开发的专用集成电路(ASIC)芯片、现场可编程门阵列(FPGA)或可编程逻辑设备中的至少一种。
根据本公开各种实施例的设备(例如,模块或其功能)或者方法中的至少部分可以被以编程模式的形式实现为存储在计算机可读存储介质中的指令。当指令被处理器执行时,一个或多个处理器可运行对应于该指令的功能。计算机可读存储介质可以例如是存储器130。
计算机可读介质可包括硬盘、软盘、磁带和磁介质(例如,磁带)、光介质(例如,只读光盘存储器(CD-ROM))、数字多用光盘(DVD)、磁光介质(例如,光磁盘)、硬件设备(例如,只读存储器(ROM)、随机存取存储器(RAM)或闪存)等。编程指令可包括由编译器所生成的机器语言编码或者可由计算机使用解析器运行的高级语言编码。为了执行根据各种实施例的操作,以上所讨论的硬件的功能可以被实现为一个或多个软件模块,反之亦然。
根据本公开各种实施例的模块或编程模块可包括一个或多个以上所述的组件,可省略其中一部分,或者可包含附加的组件。根据本公开的由模块、编程模块或其他组件执行的操作可以以顺序、并行、重复或启发方式处理,一些操作可被省略,或者可添加附加的操作。
根据各种实施例,提供一种存储指令的存储介质。所述指令可被配置成允许至少一个处理器执行至少一个操作,当该指令由所述至少一个处理器运行时,所述至少一个操作可包括在多个应用当中确定与所获取用户输入相关的第一应用,并在第一应用中运行对应于所述用户输入的任务。
虽然参考其特定实施例对本公开进行了展示和描述,但是本行业一般技术人员应该理解,在不背离由所附权利要求及其等效定义的本公开的精神和范围的前提下,可以对其在形式和细节上进行各种变化。
Claims (15)
1.一种控制运行多个应用的电子设备的方法,所述方法包括:
从多个应用当中确定与所获取的用户输入相关的第一应用;以及
在所述第一应用中运行对应于用户输入的任务。
2.如权利要求1所述的方法,其中,所述用户输入包括语音输入、手势输入和笔输入中的至少一种。
3.如权利要求1所述的方法,其中,确定所述第一应用包括:使用存储的、其中用户输入被映射到在所述多个应用中的每一个中可运行的任务的数据库来确定所述第一应用。
4.如权利要求1所述的方法,其中,确定所述第一应用包括:通过跟踪用户的眼睛来检测在多个应用当中被用户注视的应用;以及
其中,确定所述第一应用包括:将在多个应用当中的在获取用户输入的同时被检测为被用户注视的应用确定为第一应用。
5.如权利要求4所述的方法,其中,确定所述第一应用还包括:存储被检测为被用户注视达至少预定时间的应用的检测历史。
6.如权利要求5所述的方法,其中,确定所述第一应用包括:基于应用的检测历史从被用户注视达至少预定时间的多个应用当中确定被检测为被用户注视最多次数的应用为第一应用。
7.如权利要求1所述的方法,其中,确定所述第一应用包括:在获取用户输入的同时获取指示预定应用的附加输入,以及
确定所述第一应用包括:确定由附加输入指示的预定应用为第一应用。
8.如权利要求1所述的方法,其中,确定与所述用户输入相关的第一应用包括:
显示用于接收对与用户输入相关的第一应用的选择的弹出窗口;以及
确定所述第一应用包括:确定由用户在弹出窗口中选择的应用为第一应用。
9.一种电子设备,包括:
触摸屏,被配置成显示正运行的多个应用;和
控制器,被配置成确定在多个应用当中与获取的用户输入相关的第一应用,以及控制在第一应用中的对应于用户输入的任务的运行。
10.如权利要求9所述的电子设备,其中,所述控制器使用存储的、其中用户输入被映射到在多个应用中的每一个中可运行的任务的数据库确定第一应用。
11.如权利要求9所述的电子设备,还包括:相机,被配置成捕获用户的脸部图像,
其中,所述控制器基于所捕获的用户的脸部图像跟踪用户的眼睛并检测在多个应用当中被用户注视的应用,以及将在多个应用当中的在获取用户输入的同时被检测为被用户注视的应用确定为第一应用。
12.如权利要求11所述的电子设备,其中,所述控制器控制存储被检测为被用户注视达至少预定时间的应用的检测历史。
13.如权利要求12所述的电子设备,其中,所述控制器基于应用的检测历史从被用户注视达至少预定时间的多个应用当中确定被检测为被用户注视最多次数的应用为第一应用。
14.如权利要求9所述的电子设备,其中,所述控制器在获取用户输入的同时获取指示预定应用的附加输入,并确定由附加输入指示的预定应用为第一应用。
15.如权利要求9所述的电子设备,其中,所述控制器控制显示用于接收对与用户输入相关的第一应用的选择的弹出窗口,并确定由用户在弹出窗口中选择的应用为第一应用。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2014-0164500 | 2014-11-24 | ||
KR1020140164500A KR102302721B1 (ko) | 2014-11-24 | 2014-11-24 | 복수의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법 |
PCT/KR2015/012679 WO2016085244A1 (en) | 2014-11-24 | 2015-11-24 | Electronic device for executing a plurality of applications and method for controlling the electronic device |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107003727A true CN107003727A (zh) | 2017-08-01 |
CN107003727B CN107003727B (zh) | 2020-08-14 |
Family
ID=56010194
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580063573.1A Active CN107003727B (zh) | 2014-11-24 | 2015-11-24 | 运行多个应用的电子设备及用于控制电子设备的方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10572104B2 (zh) |
EP (1) | EP3224698B1 (zh) |
KR (1) | KR102302721B1 (zh) |
CN (1) | CN107003727B (zh) |
WO (1) | WO2016085244A1 (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11068125B2 (en) * | 2016-10-27 | 2021-07-20 | Google Llc | Multi-spatial overview mode |
KR102389996B1 (ko) * | 2017-03-28 | 2022-04-25 | 삼성전자 주식회사 | 전자 장치 및 이를 이용한 사용자 입력을 처리하기 위한 화면 제어 방법 |
KR102365649B1 (ko) | 2017-06-28 | 2022-02-22 | 삼성전자주식회사 | 화면 제어 방법 및 이를 지원하는 전자 장치 |
KR102440651B1 (ko) * | 2017-09-19 | 2022-09-06 | 삼성전자주식회사 | 자연어 표현 제공 방법 및 이를 지원하는 전자 장치 |
WO2019163503A1 (ja) * | 2018-02-22 | 2019-08-29 | 京セラ株式会社 | 電子機器、制御方法およびプログラム |
KR102508863B1 (ko) * | 2018-03-19 | 2023-03-10 | 삼성전자 주식회사 | 전자 장치 및 상기 전자 장치로부터 수신된 데이터를 처리하는 서버 |
KR102506158B1 (ko) * | 2018-07-30 | 2023-03-07 | 삼성전자주식회사 | 디지털 펜을 포함하는 전자 장치 |
KR20200092763A (ko) * | 2019-01-25 | 2020-08-04 | 삼성전자주식회사 | 사용자 음성을 처리하는 전자장치 및 그 제어 방법 |
KR20220102898A (ko) * | 2021-01-14 | 2022-07-21 | 삼성전자주식회사 | 전자 장치 및 이를 이용한 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 어플리케이션의 기능 제어 방법 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102243889A (zh) * | 2010-05-13 | 2011-11-16 | 北京三星通信技术研究有限公司 | 基于用户输入来执行应用程序的移动终端及其方法 |
CN102749990A (zh) * | 2011-04-08 | 2012-10-24 | 索尼电脑娱乐公司 | 通过追踪用户视线和姿态提供反馈的系统和方法 |
US20130300684A1 (en) * | 2012-05-11 | 2013-11-14 | Samsung Electronics Co. Ltd. | Apparatus and method for executing multi applications |
CN103853424A (zh) * | 2012-11-28 | 2014-06-11 | 三星电子株式会社 | 显示装置和控制显示装置的方法 |
US20140267400A1 (en) * | 2013-03-14 | 2014-09-18 | Qualcomm Incorporated | User Interface for a Head Mounted Display |
US20140270482A1 (en) * | 2013-03-15 | 2014-09-18 | Sri International | Recognizing Entity Interactions in Visual Media |
US20140267019A1 (en) * | 2013-03-15 | 2014-09-18 | Microth, Inc. | Continuous directional input method with related system and apparatus |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8059099B2 (en) | 2006-06-02 | 2011-11-15 | Apple Inc. | Techniques for interactive input to portable electronic devices |
KR100751859B1 (ko) | 2006-06-08 | 2007-08-23 | 삼성전자주식회사 | 디지털 방송 휴대 단말기에서 멀티태스킹 장치 및 방법 |
KR101548958B1 (ko) * | 2008-09-18 | 2015-09-01 | 삼성전자주식회사 | 휴대단말기의 터치스크린 동작 제어 방법 및 장치 |
KR101640460B1 (ko) | 2009-03-25 | 2016-07-18 | 삼성전자 주식회사 | 휴대 단말기의 분할 화면 운용 방법 및 이를 지원하는 휴대 단말기 |
US8996510B2 (en) * | 2011-08-23 | 2015-03-31 | Buckyball Mobile, Inc. | Identifying digital content using bioresponse data |
CA2847975A1 (en) * | 2011-09-07 | 2013-03-14 | Tandemlaunch Technologies Inc. | System and method for using eye gaze information to enhance interactions |
KR101888457B1 (ko) | 2011-11-16 | 2018-08-16 | 삼성전자주식회사 | 복수 개의 어플리케이션을 실행하는 터치스크린을 가지는 장치 및 그 제어 방법 |
KR102009423B1 (ko) | 2012-10-08 | 2019-08-09 | 삼성전자주식회사 | 음성 인식을 이용한 미리 설정된 동작 모드의 수행 방법 및 장치 |
KR102029242B1 (ko) | 2013-01-03 | 2019-11-08 | 엘지전자 주식회사 | 이동 단말기 제어방법 |
KR20140090883A (ko) | 2013-01-10 | 2014-07-18 | 삼성테크윈 주식회사 | 멀티 태스크용 작업 안내 장치 및 방법 |
US20140282272A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Interactive Inputs for a Background Task |
-
2014
- 2014-11-24 KR KR1020140164500A patent/KR102302721B1/ko active IP Right Grant
-
2015
- 2015-11-24 WO PCT/KR2015/012679 patent/WO2016085244A1/en active Application Filing
- 2015-11-24 US US14/950,954 patent/US10572104B2/en active Active
- 2015-11-24 EP EP15863801.5A patent/EP3224698B1/en active Active
- 2015-11-24 CN CN201580063573.1A patent/CN107003727B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102243889A (zh) * | 2010-05-13 | 2011-11-16 | 北京三星通信技术研究有限公司 | 基于用户输入来执行应用程序的移动终端及其方法 |
CN102749990A (zh) * | 2011-04-08 | 2012-10-24 | 索尼电脑娱乐公司 | 通过追踪用户视线和姿态提供反馈的系统和方法 |
US20130300684A1 (en) * | 2012-05-11 | 2013-11-14 | Samsung Electronics Co. Ltd. | Apparatus and method for executing multi applications |
CN103853424A (zh) * | 2012-11-28 | 2014-06-11 | 三星电子株式会社 | 显示装置和控制显示装置的方法 |
US20140267400A1 (en) * | 2013-03-14 | 2014-09-18 | Qualcomm Incorporated | User Interface for a Head Mounted Display |
US20140270482A1 (en) * | 2013-03-15 | 2014-09-18 | Sri International | Recognizing Entity Interactions in Visual Media |
US20140267019A1 (en) * | 2013-03-15 | 2014-09-18 | Microth, Inc. | Continuous directional input method with related system and apparatus |
Also Published As
Publication number | Publication date |
---|---|
WO2016085244A1 (en) | 2016-06-02 |
EP3224698A1 (en) | 2017-10-04 |
US20160147388A1 (en) | 2016-05-26 |
EP3224698A4 (en) | 2017-11-08 |
KR20160061733A (ko) | 2016-06-01 |
EP3224698B1 (en) | 2021-03-03 |
CN107003727B (zh) | 2020-08-14 |
KR102302721B1 (ko) | 2021-09-15 |
US10572104B2 (en) | 2020-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107003727A (zh) | 运行多个应用的电子设备及用于控制电子设备的方法 | |
KR102423447B1 (ko) | 벤디드 디스플레이를 구비한 전자 장치 및 그 제어 방법 | |
US10712848B2 (en) | Electronic device | |
CN105320425B (zh) | 基于场境的用户界面的呈现 | |
EP3018561B1 (en) | Virtual environment for sharing information | |
EP3098703A2 (en) | Method for outputting screen and electronic device supporting the same | |
US10444503B2 (en) | Method of controlling screen and electronic device for processing same | |
CN107665485B (zh) | 用于显示图形对象的电子装置和计算机可读记录介质 | |
EP3586316B1 (en) | Method and apparatus for providing augmented reality function in electronic device | |
KR102335925B1 (ko) | 네트워크 서비스를 위한 전자장치와 게이트웨이, 및 이를 위한 동작 방법 | |
WO2017196579A1 (en) | Modifying a user interface based upon a user's brain activity and gaze | |
CN108027650A (zh) | 用于测量显示器之间的角度的方法和使用该方法的电子设备 | |
CN107037966B (zh) | 感测输入的压力的电子设备和用于操作电子设备的方法 | |
US20150324004A1 (en) | Electronic device and method for recognizing gesture by electronic device | |
CN107016038A (zh) | 执行应用的方法和支持该方法的电子设备 | |
KR20170071960A (ko) | 전자 장치의 사용자 인터페이스 제공 방법 및 장치 | |
CN107390967A (zh) | 用于显示应用的方法及其电子装置 | |
US10838612B2 (en) | Apparatus and method for processing drag and drop | |
CN105426069B (zh) | 用于产生预览数据的方法和电子设备 | |
KR102412425B1 (ko) | 전자 장치 및 그의 터치 입력 처리 방법 | |
CN110178110B (zh) | 电子设备及用于通过其显示屏幕的方法 | |
CN106250076A (zh) | 用于独立控制显示器的多个区域的装置及其方法 | |
US10438525B2 (en) | Method of controlling display of electronic device and electronic device thereof | |
CN105446619A (zh) | 用于识别物体的装置和方法 | |
KR102601905B1 (ko) | 터치 패드 운용 방법 및 이를 지원하는 전자 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |