CN103870132A - 基于情境提供信息的方法和系统 - Google Patents

基于情境提供信息的方法和系统 Download PDF

Info

Publication number
CN103870132A
CN103870132A CN201310662526.1A CN201310662526A CN103870132A CN 103870132 A CN103870132 A CN 103870132A CN 201310662526 A CN201310662526 A CN 201310662526A CN 103870132 A CN103870132 A CN 103870132A
Authority
CN
China
Prior art keywords
information
virtual space
situation
screen
application
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310662526.1A
Other languages
English (en)
Other versions
CN103870132B (zh
Inventor
全希哲
金諪颢
朴用国
崔承亿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to CN201910001148.XA priority Critical patent/CN109766160B/zh
Publication of CN103870132A publication Critical patent/CN103870132A/zh
Application granted granted Critical
Publication of CN103870132B publication Critical patent/CN103870132B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45504Abstract machines for programme code execution, e.g. Java virtual machine [JVM], interpreters, emulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management

Abstract

本发明提供一种用于提供使得能更容易和更快地访问与装置的情境相关的项目的信息的方法和系统,及其计算机可读记录介质。所述方法包括:检测装置的情境,并在装置的屏幕上显示与检测到的情境相应的至少一个虚拟空间。所述虚拟空间是被配置为注册检测到的情境和与至少一个项目相关的信息的图像用户界面(GUI)。

Description

基于情境提供信息的方法和系统
本申请要求于2012年12月7号提交到韩国知识产权局的第10-2012-0142238号韩国专利申请的利益,其全部公开通过引用合并于此。
技术领域
本公开涉及基于情境提供信息。更具体地,本公开涉及基于装置的情境提供信息。
背景技术
随着移动装置(诸如,智能电话)正变得更加智能,用户能够基于装置使用的项目正在增加。所述项目可包括应用、服务和内容。
然而,为了使用与装置的情境相关的项目,用户必须在装置中逐个搜索项目。因此,有需要这样一种技术:能够使用户更容易并更快速地访问与装置的情境相关的项目。
上述信息仅作为背景信息被提出以协助对本公开的理解。至于任何上述信息是否可应用为针对本公开的现有技术,尚未做出确定,也未做出声明。
发明内容
本公开的多个方面将至少解决上述问题和/或缺点,并将至少提供下述优点。因此,本公开的一方面包括用于提供使得能更简单且更快地访问与装置的情境相关的项目的信息的方法和系统,及其非暂时性计算机可读记录介质。
本公开的另一方面将提供用于提供使得能更容易且更快地访问与装置的位置信息相关的项目的信息的方法和系统,及其计算机可读记录介质。
本公开的另一方面将提供用于注册使得能更容易且更快地访问与装置的情境相关的项目的信息的方法和系统,以及计算机可读记录介质。
另外的方面将在以下描述中被部分地阐述,并将从所述描述中将部分地清楚,或可通过本实施例的实践学习到。
根据本公开的一个或多个实施例,提供一种基于装置的情境提供信息的方法。所述方法包括:检测装置的情境;在装置的屏幕上显示与所述情境相应的虚拟空间,其中,所述虚拟空间是被配置为注册和与检测到的情境相应的至少一个应用相关的信息的图形用户界面(GUI)。
所述情境可包括时间信息和位置信息中的至少一个。
显示虚拟空间的步骤可包括:将虚拟空间显示为装置的第一屏幕的虚拟页,或在第一屏幕的预定页的预定显示区域中显示虚拟空间。第一屏幕可包括主屏幕。
第一屏幕的所述虚拟页的索引可被显示得不同于第一屏幕上的另一页的索引。
所述方法还可包括:显示包括与所述至少一个应用相关的信息的列表,并从显示的列表选择至少一条信息,并将选择的信息注册在虚拟空间中,使得选择的信息被显示在虚拟空间中。
与应用相关的信息可包括应用的快捷图标,并且将与应用相关的信息注册在虚拟空间中的步骤可包括:链接快捷图标和检测到的之前存储在虚拟空间中的情境。
所述方法还可包括:当装置的情境改变时,使得虚拟空间从显示在装置中的屏幕上消失,并将关于虚拟空间的信息存储在装置中。
所述方法还可包括:当装置的情境改变时,将显示的虚拟空间改变成与改变后的情境相应的另一虚拟空间。
所述方法还可包括:响应于关于包括在虚拟空间中的信息的执行请求,执行应用。
所述方法还可包括:响应于删除请求,从虚拟空间删除与至少一个应用相关的信息。
所述方法还可包括:从外部装置接收关于虚拟空间的信息。
与至少一个应用相关的信息可包括:从外部装置接收的关于虚拟空间的信息中的信息,以及由装置注册的与包括在虚拟空间中的至少一个应用相关的信息。
在装置的虚拟空间中,从外部装置接收的与所述至少一个应用相关的信息可被显示得不同于由装置注册的与至少一个应用相关的信息。
所述方法还可包括以下步骤中的至少一个:当与所述至少一个应用相关的信息和与在虚拟空间中预先注册的至少一个应用相关的信息相同时,忽略从外部装置接收的与所述至少一个应用相关的信息;显示指示由所述装置和外部装置注册的与至少一个应用相关的信息的信息。
与所述至少一个应用相关的信息可包括在从外部装置接收的关于虚拟空间的信息中包括的与所述至少一个应用相关的信息,并且,在装置的屏幕上的与所述情境相应的虚拟空间中,在从外部装置接收的与至少一个应用相关的信息中的与装置中设置的应用相关的信息可被显示得不同于与未被设置在装置中的应用相关的信息。
在装置的屏幕上显示虚拟空间的步骤可包括:显示表示装置的情境的文本信息。
所述方法还可包括将关于虚拟空间的信息发送到与所述装置连接的外部装置。
与所述至少一个应用相关的信息可包括应用的快捷图标、应用打开命令、应用执行命令、应用开始命令、应用访问信息和应用链接信息中的一个。
所述虚拟空间还可包括和与检测到的情境相应的至少一个多媒体内容相关的信息或和与检测到的情境相应的至少一个服务相关的信息。
所述虚拟空间还可包括和不同于所述至少一个应用的类型的至少一个项目相关的信息,并且所述至少一个项目可与检测到的情境相应。
与至少一个项目相关的信息可包括与多媒体相关的信息和与服务相关的信息中的至少一个。
根据本公开的一个或多个实施例,提供一种基于装置的情境提供信息的方法。所述方法包括:检测装置的情境;在装置的屏幕上显示与检测到的情境相应的虚拟空间,其中,虚拟空间是被配置为注册和与检测到的情境相应的至少一个项目相关的信息的GUI。
根据本公开的一个或多个实施例,提供一种基于装置的情境提供信息的方法。所述方法包括:检测装置的情境;创建与检测到的情境相应的虚拟空间;通过所述装置执行至少一个项目;接收虚拟空间中的注册请求信号;将与至少一个执行的项目相关的信息注册在虚拟空间中。
根据本公开的一个或多个实施例,提供一种装置。所述装置包括:情境检测器,被配置为检测情境;存储单元,被配置为存储用于显示与检测到的情境相应的虚拟空间的程序和至少一个应用;触摸屏,被配置为显示虚拟空间并接收输入信息;处理器,被配置为基于触摸屏提供用户界面,并执行用于显示虚拟空间的程序,其中,所述虚拟空间是被配置为注册和与检测到的情境相应的至少一个应用相关的信息的GUI。
根据本公开的一个或多个实施例,提供一种装置。所述装置包括:情境检测器,被配置为检测情境;存储单元,被配置为存储用于显示与检测到的情境相应的虚拟空间和至少一个项目的程序;触摸屏,被配置为显示所述虚拟空间并接收输入信息;处理器,被配置为基于触摸屏提供用户界面,创建虚拟空间,并且当在所述至少一个项目的执行期间注册请求信号通过触摸屏被接收到时,将与至少一个项目相关的信息注册在虚拟空间中。
根据本公开的一个或多个实施例,提供一种非暂时性计算机可读记录介质,所述非暂时性计算机可读记录介质存储包括用于执行基于装置的情境提供信息的以上方法的指令的一个或多个程序。
从公开本公开的各种实施例的结合附图进行的以下详细描述,本公开的其他方面、优点和显著特征对于本领域的技术人员将变得明显。
附图说明
从以下结合附图的实施例的描述中,本公开的特定实施例的以上和其它方面、特点和优点将变得更加清楚,其中:
图1是根据本公开的实施例的用于基于装置的情境提供信息的系统的框图;
图2是示出根据本公开的实施例的用于基于装置的情境提供信息的方法的流程图;
图3是示出根据本公开的实施例的显示虚拟空间的示例的示图;
图4、5、6和7是示出根据本公开的实施例的用于基于装置的情境提供信息的屏幕的示例的示图;
图8是示出根据本公开的另一实施例的用于基于装置的情境提供信息的方法的流程图;
图9示出根据本公开的另一实施例的用于描述与包括在虚拟空间中的项目相关的信息的示例屏幕;
图10是示出根据本公开的另一实施例的用于基于装置的情境提供信息的方法的流程图;
图11是示出根据本公开的另一实施例的用于基于装置的情境提供信息的方法的流程图;
图12是示出根据本公开的另一实施例的用于基于装置的情境提供信息的方法的流程图;
图13是示出根据本公开的实施例的用于描述图12的流程图的示例屏幕的示图;并且
图14是根据本公开的实施例的图1中示出的装置110的框图。
贯穿附图,相同的标号将被理解为表示相同的部件、组件和结构。
具体实施方式
现在将详细参照示例在附图中被示出的实施例,其中,相同的附图标号始终指示相同的元件。在这方面,本实施例可具有不同形式并不应被理解为被限于本文中所阐述的描述。因此,以下仅通过参照附图描述本实施例以解释本描述的多个方面。如本文所用,术语“和/或”包括相关列出项目的一个或更多个的任意和全部组合。当诸如“……中的至少一个”的表达位于一列元件之后时,所述表达修饰整列元件而不修饰所述列中的单个元件。
本公开可包括各种实施例和修改,并且实施例在附图中被示出并将在下面被详细地描述。然而,将理解:本公开不限于所述实施例并包括落入本公开的精神和范围内的全部修改、等同物和替换。在以下的描述中,由于公知的功能或配置的详细描述会不必要地模糊本公开的主题,所以它们的详细描述将被省略。
虽然诸如“第一”和“第二”的术语可在本文中被使用以描述各种元件或组件,但是这些元件或组件不应被这些术语限制。这些术语仅用于将一个元件或组件与另一元件或组件区分。
本文中使用的术语仅为了描述实施例的目的,而不意图限定本公开。如在本文中使用的术语,考虑到在本公开中的功能,只要有可能,选择广泛使用的通用术语;然而,这些术语可根据本领域普通技术人员的意图、案例或新技术的出现而改变。此外,在一些情况下,可存在由申请人随意地选择的术语,并且这些术语的含义将在本公开的描述的相应部分中被详细地描述。因此,本文中使用的术语不是简单的术语而应基于术语的含义和本公开的全部描述被限定。
将理解:除非上下文清晰地另有指示,否则单数形式包括复数的指示物。因此,例如,提及“组件表面”包括提及一个或更多个这样的表面。
如下所述,贯穿说明书提到的装置的项目可包括应用、内容和与装置的情境相关的服务,但不限于此。
(1)在与装置的当前情境相同的先前情境中,由用户频繁使用的应用、内容和服务。
(2)在与装置的当前情境相同的先前情境中,通过使用由用户在虚拟空间中注册的至少一个项目相关的信息而可访问或可执行的应用、内容和服务。
(3)在与装置的当前情境相同的先前情境中,由外部装置推荐的应用、内容和服务。
(4)在与装置的当前情境相同的先前情境中,通过使用与在外部装置的虚拟空间中注册的项目相关的信息而可访问或可执行的应用、内容和服务。
当装置的情境以位置信息为基础并且装置的当前情境是地点A时,在早于当前时间的时间时,先前情境可以是地点A。装置的当前情境将稍后在图2的操作S201中被详细地描述。装置的当前情境可被称作装置的情境。
内容和服务可被称作在类型上不同于应用的项目。应用和服务也可被称作在类型上不同于内容的项目。应用和内容也可被称作在类型上不同于服务的项目。这是因为应用、内容和服务可被定义为不同的类型。例如,相机应用可被定义为包括在应用中,图片可被定义为包括在内容中,而N-屏幕服务可被定义为包括在服务中。然而,与装置的情境相应的项目可被定义为应用和内容。这是因为存在一些被称作服务的应用。由于内容可包括各种类型的内容,所以内容可被称作多媒体内容。
与项目相关的信息可包括与应用相关的信息、与内容相关的信息和与在装置中设置的服务相关的信息,但不限于此。
与应用相关的信息可包括以下中的一个:应用的快捷图标、应用打开命令、应用执行命令、应用开始命令、应用访问信息和应用链接信息,但不限于此。应用访问信息和应用链接信息可被称作应用的存储位置信息或统一资源定位符(URL)信息。因此,应用访问信息和应用链接信息可以是相同的信息。
基于以下信息,与应用相关的信息可被称为图形用户界面(GUI)或显示信息:
(1)缩略图代表的应用;
(2)文本信息代表的应用;
(3)图标代表的应用类型;
(4)应用执行图标;
(5)URL快捷信息。
与内容相关的信息和与服务相关的信息可与应用相关的信息一样被定义。一些服务可与应用一样被管理。例如,电子邮件服务可被称作电子邮件应用。例如,服务可包括广告服务和支付服务,但不限于此。
输入信息为用户输入信息,其可包括基于触摸的输入信息。基于触摸的输入信息可包括用户请求、用户选择(例如,对多条与应用相关的显示的信息中的一条的选择)和用户命令(例如,基于与应用相关的显示的信息的删除命令),但不限于此。
基于触摸的输入可取决于基于触摸的用户手势。基于触摸的用户手势可包括,例如,轻击(或触摸)、长击(或长触摸)、触摸并保持、触摸并拖动、双击、拖动、平移、轻弹、拖放、扫动和滑动,但不限于此。
输入不限于基于触摸的用户手势。例如,输入可被定义为基于运动的输入或基于视觉的输入。
基于运动的输入可基于根据用户对装置施加的运动(例如,装置摇动和装置轻击)的用户手势。例如,轻击装置两次或将装置向虚拟空间的显示位置倾斜的用户手势(稍后将在下面有关的实施例中描述)可被设置为对与在虚拟空间中选择的应用相关的信息的注册请求输入。
基于视觉的输入可基于在不接触装置的情况下,通过分析由相机获得的输入图像而识别的用户手势。例如,使用食指和中指举起V形的空间手势可被设置为对与在虚拟空间中包括的应用相关的信息的删除请求输入。
在下文中,将参照附图详细地描述本公开的各种实施例。在以下的描述中,相同的附图标号表示相同的元件,并且将省略其多余的描述。
图1是根据本公开的实施例的用于基于装置的情境提供信息的系统的框图。
参照图1,用于提供信息的系统100可包括装置110、网络120和外部装置130。
装置110的示例可包括智能电话、智能电视(TV)、个人计算机(PC)、桌上型PC、笔记本计算机、智能白板、平板、移动装置、掌上型装置、掌上型计算机、媒体播放器、电子书(e-book)终端、个人数字助理(PDA)、能够输入基于触摸的用户手势的数码相机和数字消费电子(CE)装置(例如,能够输入基于触摸的用户手势的装置和图像显示器),但不限于此。
根据实施例,装置110可不管外部装置130而创造与装置110的当前情境相应的虚拟空间、在装置110的屏幕上显示虚拟空间并将和与当前情境相应的项目相关的信息注册在虚拟空间中。即,装置110可参照图2进行操作。
图2是示出根据本公开的实施例的基于装置的情境提供信息的方法的流程图。
参照图2,装置110不管外部装置130而创造并显示与装置110的情境相应的虚拟空间,在将和与情境相应的项目相关的信息注册虚拟空间中并且当装置110的情境改变时,使虚拟空间从装置110的屏幕中消失。
在操作S201中,装置110检测情境。情境可包括装置110的位置信息、时间信息、用户的使用历史信息、装置110的空间情境、装置110的用户的身体情境和装置110的环境信息,但不限于此。当装置110的情境是装置110的当前情境时,装置110的位置信息包括当前位置信息,而装置110的时间信息包括当前时间信息。
装置110的位置信息可包括例如,名称信息(诸如住所、咖啡店、地点的名称、建筑的名称)和基于身体的位置的地址,但不限于此。装置110的空间情境可包括,例如,基于装置110的位置、运动方向和运动速度的信息,但不限于此。装置110的身体情境可包括,例如,基于用户的脉搏、血压、体温和语音的信息,但不限于此。装置110的环境情境可包括,例如,基于装置110的周围温度、周围湿度、周围光照和周围噪声的信息,但不限于此。
为了检测装置110的情境,装置110可包括各种传感器。例如,当装置110的情境是基于位置信息时,装置110可通过使用加速度传感器、地磁传感器和陀螺仪传感器来检测当前位置信息。
此外,当装置110的情境是基于位置信息时,装置110可通过使用以下技术检测装置110的当前位置信息:使用射频(RF)的基于信标信号的技术、超声波位置识别技术、使用无线保真(WiFi)信号的位置识别技术、ZigBee位置识别技术和基于全球定位系统(GPS)信号技术。为了通过使用以上技术检测装置110的当前位置信息,装置110可包括适合的传感器。
在操作S202中,装置110显示与检测的情境相应的至少一个虚拟空间。虚拟空间根据装置110的情境被创建。
例如,当装置110的情境被确定是地点A时,装置110创建与地点A相应的虚拟空间并在装置110的屏幕上显示虚拟空间。为此,装置110可存储下面的表格1。表格1表示虚拟空间根据基于指定的地点的当前情境被设置的示例。表格1的当前情境被重新定义为情境。表格1可通过网络120被存储在外部装置130中,并可响应于装置110的请求,被提供到装置110。
表格1
Figure BDA0000433394240000091
虚拟空间可根据以下各种组合被设置从而使不同的虚拟空间被创建;然而,实施例不限于此,例如,虚拟空间可以是:
(1)基于位置;
(2)基于位置和时间;
(3)基于位置和日期;
(4)基于时间和日期;
(5)基于时间、位置和日期
(6)基于时间、地点和环境(例如,装置110的周围温度、周围湿度、周围光照和周围噪声);
(7)基于位置和使用历史;
(8)基于时间、位置和身体情境(例如,装置110的用户的脉搏、血压、体温和语音);或
(9)基于装置110的空间情境(例如,装置110的位置、运动方向和运动速度)。
图3是示出根据本公开的实施例的显示虚拟空间的示例的示图。
参照图3,屏幕300对应于虚拟空间被创建并显示为主屏幕的第四页或启动器的情况。因此,第四页可被称作虚拟页。当在虚拟页包括的项目的数量超出参考值时,装置可创建并显示多个虚拟页。例如,如图3的屏幕300中所示当两个虚拟页被创建并显示时,第四页和第五页(在图3中的屏幕300中未示出)被创建并显示为虚拟页。参考值可根据在一个虚拟页中可包括的项目的数量被确定。例如,在一个虚拟页上可包括的项目的数量多达25,参考值可被设置为25,但不限于此。当在虚拟页中包括的项目的数量超出参考值时,装置可减少与将被显示在虚拟页上的项目相关的信息的显示尺寸,然后在虚拟页上显示与超出参考值的项目相关的显示信息。
如图3的屏幕300中所示,虚拟页不限于最后页。即,虚拟页可被创建并显示为第一页或预定页。当在主屏幕中第一页被设置为虚拟页时,虚拟页可包括启动程序。
此外,主屏幕可被称作第一屏幕。第一屏幕是这样的屏幕:当装置110被开机或装置110的操作模式从待机模式转换为激活模式时,第一屏幕是首先在装置110上被显示的屏幕。因此,虚拟页可被称作第一屏幕的虚拟页。
装置110显示不同于主屏幕的非虚拟页的索引的虚拟页的索引。例如,如图3的屏幕300中所示,非虚拟页的索引被显示为在圆圈中包括的数字信息,而虚拟页的索引被显示为在五角星中包括的数字信息。因此,用户可直观地识别虚拟页。
装置110可通过使用色彩信息、尺寸信息、动画信息或字符信息被预先设置从而使虚拟页的索引不同于非虚拟页的索引被显示。
图3的屏幕310对应于虚拟空间在预定页的预定显示区域中显示的情况。即,图3的屏幕310对应于虚拟空间在显示区域312中显示的情况,其中,显示区域312位于主屏幕的第一页311的顶部区域。由于图3的屏幕310以不同于第一页311的另一显示区域(或非虚拟空间)的色彩显示虚拟空间,所以用户可直观地识别虚拟空间被创建。如图3的第一页311中所示,虚拟空间可在以下区域中被显示:第一页311的另一空显示区域、另一页的另一区域或主屏幕的每一页的相同显示区域。
虚拟空间是被配置用于注册与可由装置110执行的应用、内容和服务相关的信息的GUI元件相关。然而,为了便于描述,在虚拟空间中注册的相关信息将被称作与应用相关的信息。因此,在以下的描述中,与应用相关的信息可被理解为与项目相关的信息,诸如,与内容相关的信息或与服务相关的信息。
如图3的显示区域312中所示,当根据装置110的情境创建第一虚拟空间时,虚拟空间可以是不包括与应用相关的任何信息的空空间。此外,虚拟空间可被称作显示在预定页的预定显示区域中的GUT元件。
返回参照图3,在操作S203中,装置110可显示包括与应用相关的信息的列表,并可将从显示的列表中选择的与应用相关的信息注册在虚拟空间中。当与应用相关的信息包括应用的快捷图标时,将和与检测的装置110的情境相应的应用相关的信息注册在虚拟空间中可表示将快捷图标链接到检测的情境并在装置110中存储快捷图标与检测的情境之间的链接信息。因此,快捷图标被显示在与检测的装置110的情境相应的虚拟空间中。当虚拟空间被显示在装置110中时,与检测的情境相链接的应用相关的信息可被暂时性地存储。
图4、图5、图6和图7是示出根据本公开的实施例的用于基于装置的情境提供信息的屏幕的示例的示图。
参照图4,当装置显示110显示包括主屏幕的第一页411的屏幕410时,如果虚拟页根据装置110的情境被创建,则装置110的屏幕410改变成显示包括虚拟页的索引302的第一页301的屏幕420。在屏幕420中,包括在第一页301的图标是与上面描述的应用相关的信息。如图4中所示,第一页301可被显示为包括如砖块一样排列的应用相关的信息。然而,第一页301可被显示为包括以列表排列的应用相关的信息。与如砖块一样排列的应用相关的信息或与以列表排列的应用相关的信息可被称作关于与应用相关的信息的列表。
当接收到从关于与以平铺式排列的应用相关的信息的列表中选择一个快捷图标的用户输入,并且如箭头432所示,检测到在选择的快捷图标431上以虚拟页的方向触摸并拖动,或者如箭头433所示,检测到在选择的快捷图标431上向虚拟页的索引302的显示点触摸并拖动时,装置110在虚拟页上注册选择的快捷图标431,从而使选择的快捷图标431被显示在虚拟页上。在虚拟页上选择的快捷图标431的注册可基于复制功能被执行。因此,选择的图标431可被显示在虚拟页和主屏幕的第一页301上。
如屏幕430中所示,当与应用相关的信息被注册在虚拟页上,然后接收到代表移动到虚拟页的用户输入时,装置110的屏幕从屏幕430改变成屏幕440。代表移动到虚拟页的用户输入可包括在虚拟页的索引上的触摸和代表移动屏幕的用户手势(例如,转动),但不限于此。
虚拟页441可包括与注册在屏幕430中的应用431相关的信息和指示装置110的情境的文本信息442(例如,地点A),但不限于此。指示装置110的情境的文本信息442可包括名称信息,诸如住所、咖啡店、地点的名称、建筑的名称和基于身体的位置的地址,但不限于此。例如,文本信息442可根据提供的虚拟空间分类标准而包括各种信息。指示以上情境的文本信息可以不被显示在虚拟页441上。
除了与注册在屏幕430中的应用431相关的信息,显示在虚拟页441上的信息还可包括与预先注册的应用相关的信息或与从外部装置130接收的应用相关的信息中的至少一个。
参照图5,装置110显示图5的屏幕510,屏幕510包括主屏幕的第一页511(或第一屏幕),不包括如图4的屏幕410中所示的虚拟空间中的相关信息。当检测到装置110的情境并且由装置110创建虚拟空间时,装置110将屏幕510改变为屏幕520,屏幕520显示包括如图4的屏幕420中所示的虚拟空间312的第一页311。
当在第一页311中接收到指示对图标531的选择的信号并且检测到指示将选择的图标531拖动到虚拟空间312的信号时,装置110的屏幕530改变为包括第一页542的屏幕540,其中,第一页542包括包含选择的图标531的虚拟空间541。
参照回图2,在操作S204,当情境改变时,装置110使虚拟空间(或虚拟空间的索引)从主屏幕消失,并存储关于虚拟空间的信息。
即,参照图4的屏幕440或图5的屏幕540,如果确定装置110的情境改变,则装置110可将显示的屏幕从屏幕440改变为屏幕410或者从屏幕540改变为屏幕510,但是不限于此。
参照图6,当装置110未创建虚拟页时,装置110显示包括主屏幕的第一页411的屏幕610。在此情况下,当装置110创建虚拟页时,显示在装置110中的屏幕610改变为屏幕620,屏幕620显示包括虚拟页的索引302的第一页301。
当屏幕620被显示时,如果识别出装置110的情境改变,则装置110将显示的屏幕620改变为屏幕630,屏幕630包括虚拟页的索引302已消失的第一页411。在此情况下,关于虚拟页的信息被存储在装置110中。
参照回图2,操作S204可被修改为如下方式:当装置110的情境改变时,关于当前虚拟空间的信息被存储在装置110中,并且与改变的情境相应的新的虚拟空间被显示在装置110的屏幕上。
例如,参照回图4的屏幕440,如果装置110的情境改变并且与改变的情境相应的虚拟空间被创建,则装置110将屏幕440改变为屏幕450,屏幕450显示新的虚拟页451。新的虚拟页451包括指示情境的文本信息455(例如,地点B)以及与应用452、453和454相关的信息。然而,包括在虚拟页451上的信息不限于此。例如,可不显示指示虚拟页451的情境的文本信息。
此外,当装置110的情境在虚拟页未打开的状态下改变并且新的虚拟页因此被创建时,装置110可显示指示当前创建的虚拟页是新创建的虚拟页的信息。
即,参照图6的屏幕620,如果装置110的情境如上所述改变并且新的虚拟空间641被创建,则装置110将屏幕620改变为屏幕640,并存储关于先前虚拟页的信息。参照屏幕640,指示虚拟页641的改变的符号“+”642可被添加到虚拟页的索引302,使得用户可直观地识别虚拟页的改变。然而,指示虚拟页的改变的符号642不限于图6的屏幕640中示出的符号。
装置110可通过按预定周期检测情境并将先前检测到的情境与当前检测到的情境进行比较来确定情境的改变。例如,当当前检测到的情境与先前检测到的情境不同时,装置110确定装置110的情境已改变。误差裕度或误差容限可应用于确定情境是否改变。例如,当装置110的物理位置基于房子的房间时,可应用误差裕度或误差容限,使得装置110的情境的改变可基于房间区域而确定,其中,所述房间区域基于家的布置计划。
此外,图2的流程图可被修改为如下方式:基于与包括在虚拟页中的应用相关的信息执行应用,或者可删除与应用相关的信息。即,当在虚拟页441被显示在图4的屏幕440上时接收到基于与应用431相关的信息的执行请求或删除请求时,图2的流程图可添加用于基于与应用431相关的信息执行应用的操作,或者可从虚拟页441删除与应用431相关的信息。
参照图7,装置110显示屏幕710,屏幕710包括产生虚拟空间之前的主屏幕。当虚拟空间由装置110创建时,装置110显示包括主屏幕的第一页301的屏幕720,其中,第一页301包括虚拟页的索引302。当接收到用于移动到虚拟页的请求时,装置110如屏幕730中所示打开虚拟页441。当在虚拟页441打开的状态下接收到基于与应用431相关的信息的执行请求时,装置110如屏幕740中所示执行应用。屏幕740中示出的网页、图片和多媒体内容指示诸如应用、内容或服务的项目的执行。
以此方式,装置110将与装置110设置的至少一个应用相关的信息注册在根据情境动态创建的虚拟页或虚拟空间中,并且当与装置110的情境相同的情境在将来发生时,装置110提供包括注册的与应用相关的信息的虚拟页或虚拟空间。与包括在虚拟页或虚拟空间中的应用相关的信息可被理解为与装置110的情境链接的推荐信息。因此,用户可容易且快速地识别并使用与装置110的情境相关的应用、内容和服务。
装置110可将情境提供给通过网络120连接的外部装置130,并可从外部装置130接收关于虚拟空间的信息并显示所述信息。
图8是示出根据本公开的另一实施例的基于装置的情境提供信息的方法的流程图。
参照图8,当在装置110中未存储虚拟空间时,可执行图8的操作流。即,在检测装置110的情境之后,当在装置110中不存在关于虚拟空间的信息或者装置110未创建虚拟空间时,可如图8中所示从外部装置130接收关于虚拟空间的信息。然而,在不确定装置110中是否存在虚拟空间或装置110是否创建虚拟空间的情况下,当检测到装置110的情境时,装置110可从外部装置130请求关于虚拟空间的信息。
在操作S801,装置110检测情境。可以以与图2的操作S201相同的方式执行对装置110的情境的检测。当检测到装置110的情境时,在操作S802,装置110通过网络120将检测到的情境发送到外部装置130。
在操作S803,外部装置130基于接收到的情境搜索关于虚拟空间的信息。对此,外部装置130基于各种情境预先存储关于虚拟空间的信息。因此,外部装置130可包括提供关于虚拟空间的信息的服务器、云服务器或根据当前情境创建虚拟空间并存储与由外部装置130的用户注册的应用相关的信息的通信装置(诸如装置110),但是不限于此。外部装置130可基于存储在连接到外部装置130的另一外部装置(未示出)中的信息来搜索关于虚拟空间的信息。
当找到关于与装置110的情境相应的虚拟空间的信息时,在操作S804,外部装置130将找到的关于虚拟空间的信息发送到装置110。因此,在操作S805,装置110基于接收到的关于虚拟空间的信息来显示虚拟空间。
可如图2至图7中的至少一个中所示显示虚拟空间。然而,当显示与包括在虚拟空间中的应用相关的信息时,装置110可显示与应用相关的信息,使得用户可直观地识别接收到的与应用相关的信息是否在装置110中或是否被设置在装置110中。
图9示出根据本公开的实施例的用于描述与包括在虚拟空间中的项目相关的信息的示例屏幕。
参照图9,装置110显示具有虚拟页911的屏幕910,其中,虚拟页911包括与应用912、913和914相关的信息。与应用912和913相关的信息是与在装置110中设置的应用相关的信息。与应用914相关的信息是与未在装置110中设置的应用相关的信息。屏幕910是以和与应用914相关的信息不同的颜色表示与应用912和913相关的信息的示例。与应用912和913相关的信息可不透明地显示,而与应用914相关的信息可透明地显示。
图9的屏幕920对应于如图3的屏幕310中所示显示虚拟空间的情况。屏幕920是显示包括虚拟空间922的第一页921的示例,其中,虚拟空间922包括与应用912、913和914相关的信息,虚拟空间922中的与应用912、913和914相关的信息和与屏幕910的虚拟页911中所包括的应用912、913和914相关的信息相同。
当用户期望使用与未在装置110中设置的应用914相关的信息并且由用户输入基于与应用914相关的信息的设置命令时,装置110通过网络120从外部装置130下载对应于与应用914相关的信息的应用。基于与应用914相关的信息的设置命令可包括例如基于触摸的用户手势,诸如长触摸、双触摸、扫动和滑动,但是不限于此。
然而,替代从外部装置130下载应用,装置110可将执行请求发送到外部装置130,接收并显示外部装置130的执行结果,犹如应用由装置110执行一样。
当基于与屏幕910和920中示出的应用912和913相关的信息请求应用的执行时,装置110可执行相应应用。
如图8中所示,接收到的关于虚拟空间的信息可被存储在装置110中,并且当相同情形再次发生时被使用。当存储的虚拟空间被使用时,装置110可从外部装置130请求关于虚拟空间的信息,以获得除了存储在装置110中的与在虚拟空间中注册的应用相关的信息之外的与应用相关的信息(与其他应用相关的信息)。在此情况下,装置110将从外部装置130接收的关于虚拟空间的信息中所包括的与应用相关的信息和存储在装置110中的与虚拟空间中所包括的应用相关的信息进行比较,忽视与相同应用相关的信息,并仅将与不同应用相关的信息注册在虚拟空间中,使得与不同应用相关的信息被另外显示在虚拟空间中。
然而,当将从外部装置130接收的与应用相关的信息注册在虚拟空间中时,装置110将与预先注册在虚拟空间中的应用相关的信息和与接收的应用相关的信息进行比较。从比较的结果,其他信息(例如,预定符号)可在显示之前附着于与应用相关的信息,或者与应用相关的信息可和与其他应用相关的信息不同地显示以可进行区分,使得用户可直观地识别出与相同应用相关的信息是与由装置110和外部装置130两者提供的应用相关的信息。
因此,与包括在虚拟空间中的应用相关的信息可根据以下列表分开地显示,但是不限于此。
(1)与由装置110注册的应用相关的信息(或者基于装置110的情境的存储在装置110中的与预先注册在虚拟空间中的应用相关的信息)
(2)与由装置110和外部装置130两者注册的应用相关的信息
(3)与由外部装置130注册的并在装置110中设置的应用相关的信息
(4)与由外部装置130注册的并在装置110中未设置的应用相关的信息
图10是示出根据本公开的另一实施例的基于装置的情境提供信息的方法的流程图。
参照图10,通过与外部装置130通信,装置110可显示虚拟空间,并注册与应用相关的信息。
在操作S1001,装置110检测情境。当虚拟空间根据检测到的情境被创建时,在操作S1002,装置110显示创建的虚拟空间。
在操作S1003,装置110将检测到的装置110的情境发送到外部装置130。因此,在操作S1004,外部装置130基于接收到的装置110的情境搜索关于虚拟空间的信息。响应于找到关于虚拟空间的信息,在操作S1005,外部装置130将关于找到的虚拟空间的信息发送到装置110。
当从外部装置130接收到关于虚拟空间的信息时,在操作S1006,装置110将包括在关于虚拟空间的信息中的与应用相关的信息注册在当前显示的虚拟空间中。每当将从外部装置130接收到的与应用相关的信息注册在虚拟空间中时,装置110可将接收到的与应用相关的信息和预先注册的与应用相关的信息进行比较,并如上所述注册接收到的与应用相关的信息。
图11是示出根据本公开的另一实施例的基于装置的情境提供信息的方法的流程图。
参照图11,示出了装置110将关于虚拟空间的信息发送到外部装置130的情况。
在操作S1101,装置110检测情境。在操作S1102,装置110显示与检测到的装置110的情境相应的虚拟空间。在此情况下,可如图3的屏幕310中所示显示虚拟空间,可如屏幕310中所示仅显示虚拟页的索引,或者可如图4的屏幕440中所示显示打开的虚拟页。
当在操作S1103基于包括与在以上实施例中描述的应用相关的信息的列表接收到用于将与至少一个应用相关的信息注册在虚拟空间中的请求时,在操作S1104,装置110将与请求的应用相关的信息注册在虚拟空间中。在操作S1105,包括与由装置注册的应用相关的信息的关于虚拟空间的信息和装置110的情境被发送到外部装置130。
在操作S1108,外部装置130存储接收到的装置110的情境和关于虚拟空间的信息。在操作S1109,外部装置130检测外部装置130的情境。可以以与图2的S201中对装置110的情境的检测相同的方式来执行对外部装置130的情境的检测。
当检测到的外部装置130的情境与接收到的装置110的情境相同时,在操作S1110,外部装置130基于接收到的关于虚拟空间的信息来显示虚拟空间。当在操作S1111请求将基于包括与可被显示在外部装置130的屏幕上的至少一个应用相关的信息的列表的与新应用相关的信息注册在显示的虚拟空间中时,外部装置130将与新应用相关的信息注册在虚拟空间中,并显示与新应用相关的信息。在操作S1110显示的虚拟空间可以与图3的屏幕300、图3的屏幕310或图4的屏幕440相同,但是不限于此。此外,外部装置130可删除与包括在显示的虚拟空间中的应用相关的信息,或者可基于与应用相关的信息执行应用。
当在操作S1106装置110接收到用于基于与包括在虚拟空间中的应用相关的信息执行应用或者删除与应用相关的信息的请求时,在操作S1107,装置110执行应用或删除与应用相关的信息。
图12是示出根据本公开的另一实施例的基于装置的情境提供信息的方法的流程图。
参照图12,示出了在应用的执行期间当前执行的应用被注册在根据装置110的情境所创建的虚拟空间中的情况。
在操作S1201,装置110检测情境。可以以与图2的操作S201中相同的方式来执行对情境的检测。
在操作S1202,装置110创建与当前情境相应的虚拟空间。在操作S1203,装置110执行诸如应用、内容或服务的项目。
当在操作S1204在虚拟空间中接收到注册请求信号时,在操作S1205,装置110将与执行的应用、内容或服务相关的信息注册在虚拟空间中,并在虚拟空间中显示所述信息。
图13是示出根据本公开的实施例的用于描述图12的流程图的示例屏幕的示图。
参照图13,当由装置110在屏幕1310中创建虚拟页,将包括虚拟页的索引的主屏幕显示在装置110的屏幕上,然后,基于图标执行网页、图片和多媒体内容之一时,装置110的屏幕从屏幕1310改变为屏幕1320。基于图标执行的屏幕不限于图13的屏幕1320。
当在屏幕1320中选择共享按钮1233时,装置110在屏幕1330中显示包括下层菜单项的弹出窗口1331。当注册请求项1332被包括在弹出窗口1331的虚拟页中并且在虚拟页中检测到对注册请求项1332的选择时,装置110将与当前执行的应用相关的信息注册在虚拟页中,并在虚拟页中显示所述信息。
装置110可将显示的屏幕1330改变为包括虚拟页1341的屏幕1340,并向用户通知与新应用1342相关的信息的注册。与新应用1342相关的信息可被显示预定时间段,或者可保持高亮状态,以将与新应用相关的信息区分于与先前应用相关的信息,但是不限于此。
可基于无线通信或有线通信配置图1的网络120。当基于无线通信配置网络120时,网络120可包括例如如下无线网络,诸如直接无线连接(例如,WiFi直连)、ZigBee、蓝牙、红外数据协会(IrDA)、射频标识(RFID)、基于近场通信(NFC)的通信、通过AP的无线LAN(例如,WiFi)、基于3G/4G的通信、互联网、无线内部网、无线电话网络和超宽带,但是本公开不限于此。基于有线通信的网络120可使用如下方案之一:使用电力线的方案(例如,家用电话线网络联盟(PNA))、使用电力线的方案(例如,HomePlug、LongWorks和HNCP)、使用以太网的方案(例如,IEEE802.3)和结构化的有线方案,但是不限于此。
外部装置130可以与装置110相同,并且可以不同,诸如可基于对装置110的用户自定义的情境提供关于虚拟空间的信息的云服务器,但是不限于此。基于对用户自定义的情境的虚拟空间可包括例如基于用户期望创建虚拟空间的位置信息的虚拟空间。
图14是根据本公开的实施例的图1中示出的装置110的框图。
参照图14,装置110可包括信息输入处理器1401、传感器1402、触摸屏1403、相机1404、音频输入处理器1405、音频输出处理器1406、存储单元1407、通信处理器1408、情境检测器1409、处理器1410和电源1411。装置110的配置不限于图14中示出的配置。即,装置110可包括比图14中示出的组件更多的组件,或者可包括更少的组件。例如,装置110可不包括相机1404。
根据本公开的实施例,信息输入处理器1401可输入用于控制装置110的操作的数据以及用于请求执行基于装置110的情境提供信息的方法的信息,但是输入的信息不限于此。信息输入处理器1401可包括键盘、圆顶开关、转盘、微动开关、硬件(H/W)按钮、热键和触摸面板中的至少一个,但是不限于此。
传感器1402检测装置110的当前状态(诸如在用户接触装置110的情况下的装置110的位置、装置110的方位和装置110的加速度/减速度),然后,产生用于控制装置110的操作的感测信号。传感器1402可包括接近传感器和运动传感器。传感器1402可产生关于基于传感器的用户手势的检测信号。
接近传感器通过使用电磁力或红外线来检测接近预定检测表面的对象或位于检测表面附近的对象的存在性。接近传感器的示例可包括透射型光电传感器、直接反射型光电传感器、镜面反射型光电传感器、高频振荡型接近传感器、静电电容型接近传感器、磁类型接近传感器和红外接近传感器。
传感器1402可被包括在情境检测器1409中。情境检测器1409检测装置110的情境。如图2的操作S201中所述,情境检测器1409还可包括各种传感器,诸如加速度传感器、地磁传感器和陀螺仪传感器,并且情境检测器1409可被配置为图2中描述的检测各种情境。
触摸屏1403可包括电阻(压敏)触摸屏或电容触摸屏,但不限于此。触摸屏1403可接收根据基于触摸的用户手势的用户请求、用户选择或用户命令。作为基于触摸的用户手势,可通过触摸计数、触摸模式、触摸区域和触摸强度的各种组合定义各种基于触摸的用户手势。然而,基于触摸的用户手势不限于此。
触摸屏1403可包括用于检测对触摸屏1403的接近触摸或触摸的各种传感器。包括在触摸屏1403中的传感器可关于基于触摸的用户手势或模式产生感测信号。用于触摸屏1403的接近传感器可与包括在传感器1402中的接近传感器相同。
用于检测对触摸屏1403的触摸的传感器的示例可包括触觉传感器。触觉传感器可检测多种信息,诸如接触表面的粗糙度、接触对象的硬度和接触点的温度。接近传感器是通过使用电磁力或红外线来检测接近检测表面的对象或位于检测表面附近的对象的存在的传感器。接近传感器的示例可包括透射式光电传感器、直接反射型光电传感器、镜面反射型光电传感器、高频振荡型接近传感器、静电电容型接近传感器、磁类型接近传感器和红外接近传感器。
对触摸屏1403的触摸与触摸触摸面板的指向器相应。对触摸屏1403的接近触摸与指向器在没有触摸到触摸面板的情况下在预定距离内靠近触摸面板的情况相应。指向器是用于触摸或接近触摸触摸屏1403的预定部分的工具。指向器的示例可包括触控笔和手指,但是不限于此。
触摸屏1403显示由装置110处理的信息。例如,触摸屏1403可显示用于对通过包括在触摸屏1403中的传感器感测到的用户手势或触摸模式进行响应的屏幕,控制通过信息输入处理器1401输入的数据或用户输入信息或通过传感器1402感测到的信号。
为了执行根据本公开的实施例的基于装置的情境提供信息的方法,触摸屏1403将指示对与包括在显示的虚拟页上的应用相关的信息的选择的用户输入发送到处理器1401,当虚拟空间被处理器1410创建时,触摸屏1403显示接收到的虚拟空间。
触摸屏1403基于处理器1401的控制来显示以上说明的屏幕,基于显示的屏幕接收基于触摸的输入,并将所述基于触摸的输入发送到处理器1410。在触摸屏1403上显示的屏幕可被称为关于所述输入的基于用户界面(UI)的反馈信息。
触摸屏1403可被称为信息输入/输出装置。在触摸屏1403上显示的屏幕可包括基于UI的GUI屏幕。
触摸屏1403可包括液晶显示器(LCD)、薄膜晶体管液晶显示器(TFT-LCD)、有机发光二极管(OLED)、柔性显示器、三维(3D)显示器和有源矩阵有机发光二极管(AMOLED)中的至少一个,但不限于此。触摸屏1403可被称为显示器。可根据实施例提供两个或更多个触摸屏1403。
相机1404处理以视频呼叫模式或拍摄模式由图像传感器(或光学传感器)获得的图像帧,诸如静止图像或运动图像。处理的图像帧可显示在触摸屏1403上。因此,可基于包括在由相机1404获得的运动图像的静止图像中的图像帧识别出空间手势,所述空间手势被定义来执行根据本公开的实施例的基于装置的情境提供信息的方法。
由相机1404处理的图像帧可被存储在存储单元1407中,或通过通信处理器1408被发送。可根据装置110的构造来提供两个或更多个相机1404。此外,可将相机1404用作用于识别用户的空间手势的输入装置。
在调用模式、记录模式或语音识别模式下,音频输入处理器1405接收外部声音信号,将接收到的声音信号转换为音频数据,并将所述音频数据发送到处理器1410。音频处理器1405可包括(例如)麦克风。音频输入处理器1405可包括用于消除会在输入外部声音信号期间产生的噪音的各种声音消除算法。
经由音频输入处理器1405输入的声音信号可包括用于请求执行根据本公开的实施例的基于装置的情境提供信息的方法的用户输入。当声音信号是基于口语的用户输入时,声音信号可称为基于语音识别的用户输入。通过音频输入处理器1405输入的外部声音信号可被存储在存储单元1407中,或可经由通信处理器1408被发送。
在调用模式或音频播放模式下,音频输出处理器1406输出从外部接收到的或从存储单元1407读取的声音信号或语音信号。音频输出处理器1406可包括(例如)扬声器。当音频信号包括在被重现的内容中时,音频输出处理器1406输出包括在重现的内容中的音频信号。可将音频输入处理器1405和音频输出处理器1406集成为耳机。
存储单元1407存储可在处理器1410中执行的至少一个程序和/或指令集和资源。所述至少一个程序可包括用于执行根据本公开的实施例的基于装置110的情境提供信息的方法的至少一个程序、装置110的操作系统、由装置110执行的与各种功能(或服务)相应的应用程序、服务程序和用于操作包括在装置110中的硬件组件的程序,但不限于此。
所述资源可包括根据本公开的实施例的可被重现的内容、可根据由装置110检测到的情境被提供的关于虚拟空间的信息(如表1所示)、与包括在虚拟空间中的至少一个应用相关的信息、以及包括与所述至少一个应用相关的信息的列表信息,但不限于此。
此外,所述资源可包括装置110的用户信息、对于操作设置在装置110中的应用程序所必需的信息、以及对于执行用于操作硬件组件的程序所必需的信息,但不限于此。
存储单元1407可包括闪存类型、硬盘类型、多媒体卡微型类型、卡类型存储器(例如,SD和XD存储器)、只读存储器(ROM)、电可擦可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁存储器和光盘中的至少一种类型的存储介质。
可根据功能将存储在存储单元1407中的所述至少一个程序和/或指令集划分为多个模块。例如,存储单元1407可包括操作系统、通信模块、图形模块、GPS模块、UI模块、感测模块、接触和运动模块、电源模块和应用模块、但本公开不限于此。
应用模块可包括对执行根据本公开的实施例的基于装置110的情境提供信息的方法所必需的多个应用。所述多个应用可包括启动应用。如在各种实施例中描述的,所述启动应用可在主屏幕上显示虚拟空间。例如,通过所述启动应用,虚拟空间可显示为如图3的屏幕300中所示,或可显示为如图3的屏幕310中所示。然而,虚拟空间的显示模式不限于以上实施例。
通信处理器1408可通过如下无线网络与外部装置对数据进行通信:诸如,无线互联网通信、无线内部网、无线电话网络、无线LAN通信、WiFi通信、WiFi直连、第三代(3G)通信、第四代(4G)通信(诸如长期演进(LTE))、蓝牙、IrDA、RFID、UWB通信和ZigBee;然而,本公开不限于此。
通信处理器1408可包括广播接收模块、移动通信模块、无线互联网模块、有线内部网模块、NFC模块和定位信息模块,但是不限于此。
通信处理器1408还可包括用于通过有线网络和外部装置130对数据进行通信的有线通信功能。有线通信模块可通过使用即插即用接口(诸如通用串行总线(USB)端口(未示出))与外部装置对数据进行通信。
如图8、10和11所示,通信处理器1408可用于将数据发送到外部装置130,并从外部装置130接收数据。
电源1411向包括在装置110中的硬件组件供电。电源1411包括一个或更多个电源,诸如电池和AC电源。装置110可不包括电源1411,而可包括可连接到外部电源(未示出)的连接单元(未示出)。可基于无线类型和有线类型中的至少一个来构造连接单元。
处理器1410控制装置110的整体操作,并可被称为一个或更多个处理器。通过使用存储在存储单元1407中的操作系统和各种模块,处理器1410可控制信息输入处理器1401、传感器1402、触摸屏1403、相机1404、音频输入处理器1405、音频输出处理器1406、存储单元1407、通信处理器1408、情境检测器140以及电源单元1411的全部。因此,处理器1410可被称为控制器、微型处理器或数字信号处理器。
此外,通过使用操作系统和UI模块,处理器1410可通过信息输入处理器1401、传感器1402、触摸屏1403、相机1404和音频输入处理器1405提供用户接口。
处理器1410可通过执行与根据本公开的实施例的基于情境提供信息的方法相关的至少一个程序,来执行在图2、图8、图10、图11和图12中示出的操作流。处理器1410可从存储单元1407读取程序并执行所述程序,或可从通过通信处理器1408连接的外部装置130下载程序并执行所述程序。在此情况下,外部装置130可被称为应用提供服务器或应用市场服务器。如上所述,外部装置130可包括云服务器或装置110周围的通信装置,但不限于此。处理器1410可被理解为在处理器1410和在装置110中的各种组件之间包括接口功能单元。
在以上实施例中,已经描述了与应用相关的信息可被包括在虚拟空间中的示例。然而,虚拟空间还可包括与多媒体内容相关的信息或和与装置110的情境相应的至少一个服务相关的信息。与多媒体内容相关的信息和与服务相关的信息可被称为与不同于以上描述的应用的类型的项目相关的信息。因此,根据实施例的虚拟空间可包括与和装置110的情境相应的不同类型的项目相关的信息。此外,虚拟空间可包括与多个项目相关的信息(例如,与多个应用相关的信息或与多个多媒体相关的信息)。
一个或更多个程序模块包括允许控制器实现基于装置的情境提供信息的方法的指令,并可被记录为非暂时性计算机可读记录介质上的计算机可读代码。非暂时性计算机可读记录介质可以是可存储随后可由计算机系统读取的数据的数据存储装置。计算机可读记录介质的示例可包括只读存储器(ROM)、随机存取存储器(RAM)、高密度盘(CD)-ROM、磁带、软盘和光数据存储装置。计算机可读记录介质还可分布在联网的计算机系统上,使得计算机可读代码可以以分布式方式被存储并执行。
应理解的是,描述于此的各种实施例应仅以说明意义被考虑,而不用于限制的目的。在每个实施例内的特征或方面的描述应通常被考虑为可用于在其他实施例中的其他类似特征或方面。
虽然已参考本公开的各种实施例示出并描述了本公开,但是本领域的技术人员将理解,在不脱离由权利要求及其等同物限定的本公开的精神和范围的情况下,可在所述实施例中在形式和细节上做出各种改变。

Claims (15)

1.一种基于装置的情境提供信息的方法,所述方法包括:
检测装置的情境;
在装置的屏幕上显示与情境相应的虚拟空间,
其中,所述虚拟空间是被配置为注册与和检测到的情境相应的至少一个应用相关的信息的图形用户界面(GUI)。
2.如权利要求1的方法,其中,所述情境包括时间信息和位置信息中的至少一个。
3.如权利要求1所述的方法,其中,显示虚拟空间的步骤包括:将虚拟空间显示为装置的第一屏幕的虚拟页。
4.如权利要求3所述的方法,其中,在第一屏幕上的所述虚拟页的索引被显示得不同于第一屏幕上的另一页的索引。
5.如权利要求3所述的方法,其中,第一屏幕包括主屏幕。
6.如权利要求1所述的方法,其中,显示虚拟空间的步骤包括:在装置的第一屏幕上显示虚拟空间,或在第一屏幕的预定页的预定显示区域中显示虚拟空间。
7.如权利要求1所述的方法,还包括:
显示包括与所述至少一个应用相关的信息的列表;
从显示的列表选择至少一条信息;
将选择的信息注册在虚拟空间中,使得选择的信息被显示在虚拟空间中。
8.如权利要求7所述的方法,其中,与应用相关的信息包括应用的快捷图标,并且将与应用相关的信息注册在虚拟空间中的步骤包括:链接快捷图标和关于虚拟空间的信息以及检测到的情境,并将链接的信息存储在装置中。
9.如权利要求1所述的方法,还包括:当装置的情境改变时,使得虚拟空间从显示在装置中的屏幕上消失,并将关于所述虚拟空间的信息存储在装置中。
10.如权利要求1所述的方法,还包括:当装置的情境改变时,将显示的虚拟空间改变成与改变后的情境相应的另一虚拟空间。
11.如权利要求1所述的方法,还包括:响应于关于包括在虚拟空间中的信息的执行请求,执行应用。
12.如权利要求1所述的方法,还包括:响应于删除请求,从虚拟空间删除与至少一个应用相关的信息。
13.如权利要求1所述的方法,其中,虚拟空间还包括与不同于所述至少一个应用的类型的至少一个项目相关的信息,并且所述至少一个项目与检测到的情境相应。
14.如权利要求13所述的方法,其中,与至少一个项目相关的信息包括与多媒体相关的信息和与服务相关的信息中的至少一个。
15.一种装置,包括:
情境检测器,被配置为检测情境;
存储单元,被配置为存储用于显示与检测到的情境相应的虚拟空间的程序和至少一个应用;
触摸屏,被配置为显示虚拟空间并接收输入信息;
处理器,被配置为基于触摸屏提供用户界面,并执行用于显示虚拟空间的程序,
其中,所述虚拟空间是被配置为注册和与检测到的情境相应的至少一个应用相关的信息的图形用户界面(GUI)。
CN201310662526.1A 2012-12-07 2013-12-09 基于情境提供信息的方法和系统 Active CN103870132B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910001148.XA CN109766160B (zh) 2012-12-07 2013-12-09 基于情境提供信息的方法和系统

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120142238A KR102062763B1 (ko) 2012-12-07 2012-12-07 상황 정보 기반의 정보 제공 방법 및 시스템과 그 기록 매체
KR10-2012-0142238 2012-12-07

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201910001148.XA Division CN109766160B (zh) 2012-12-07 2013-12-09 基于情境提供信息的方法和系统

Publications (2)

Publication Number Publication Date
CN103870132A true CN103870132A (zh) 2014-06-18
CN103870132B CN103870132B (zh) 2019-01-25

Family

ID=49726587

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201910001148.XA Active CN109766160B (zh) 2012-12-07 2013-12-09 基于情境提供信息的方法和系统
CN201310662526.1A Active CN103870132B (zh) 2012-12-07 2013-12-09 基于情境提供信息的方法和系统

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201910001148.XA Active CN109766160B (zh) 2012-12-07 2013-12-09 基于情境提供信息的方法和系统

Country Status (7)

Country Link
US (4) US9626097B2 (zh)
EP (1) EP2741207B1 (zh)
JP (1) JP6448900B2 (zh)
KR (1) KR102062763B1 (zh)
CN (2) CN109766160B (zh)
AU (1) AU2013266972B2 (zh)
WO (1) WO2014088253A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108268434A (zh) * 2016-12-30 2018-07-10 粉迷科技股份有限公司 立体场景中超链接编辑方法与系统
CN111033605A (zh) * 2017-05-05 2020-04-17 犹尼蒂知识产权有限公司 混合现实环境中的情境应用
CN114520851A (zh) * 2020-11-19 2022-05-20 中国电信股份有限公司 移动电子装置的界面主题生成方法和移动电子装置

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101575088B1 (ko) * 2014-03-12 2015-12-11 손준 인터페이스 제공 장치 및 방법
US10436597B1 (en) 2014-08-18 2019-10-08 Google Llc Systems and methods for suggesting mode of transport in a geographic application
US20160073257A1 (en) * 2014-09-04 2016-03-10 Wedoey, Inc. Console Display Terminal
KR20160061154A (ko) * 2014-11-21 2016-05-31 엘지전자 주식회사 이동단말기 및 그 제어방법
US9904452B2 (en) * 2015-08-25 2018-02-27 Sap Se Building user specific user interface instances
CN105183282B (zh) * 2015-08-27 2018-03-27 广东欧珀移动通信有限公司 一种通讯录控制方法及装置
US9946437B2 (en) 2015-11-05 2018-04-17 International Business Machines Corporation Modifying an appearance of a GUI to improve GUI usability
KR20180016131A (ko) * 2016-08-05 2018-02-14 엘지전자 주식회사 이동 단말기 및 그 제어방법
US10467029B1 (en) * 2017-02-21 2019-11-05 Amazon Technologies, Inc. Predictive graphical user interfaces
CN111447500A (zh) * 2020-03-31 2020-07-24 山东云缦智能科技有限公司 控制机顶盒Launcher页面组展示的方法
CN111857456B (zh) * 2020-06-18 2021-08-03 泰凌微电子(上海)股份有限公司 图标显示方法和电子设备
KR102459378B1 (ko) * 2021-11-15 2022-10-28 주식회사 윌로그 물류의 상태 관리에 이용되는 센싱 데이터의 변화량을 기반으로 데이터를 압축하여 저장하기 위한 시스템, 장치 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050091408A1 (en) * 2000-12-22 2005-04-28 Microsoft Corporation Context-aware systems and methods, location-aware systems and methods, context-aware vehicles and methods of operating the same, and location-aware vehicles and methods of operating the same
US20070022380A1 (en) * 2005-07-20 2007-01-25 Microsoft Corporation Context aware task page
KR20070074037A (ko) * 2006-01-06 2007-07-12 에스케이 텔레콤주식회사 Ui 정보 제공 시스템 및 방법과 이를 위한 이동통신 단말
CN101098530A (zh) * 2006-06-26 2008-01-02 三星电子株式会社 根据用户行为分析结果显示待机屏幕的移动终端及方法
US20100317371A1 (en) * 2009-06-12 2010-12-16 Westerinen William J Context-based interaction model for mobile devices
US20120059780A1 (en) * 2009-05-22 2012-03-08 Teknologian Tutkimuskeskus Vtt Context recognition in mobile devices

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7055101B2 (en) * 1998-12-18 2006-05-30 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US6466232B1 (en) * 1998-12-18 2002-10-15 Tangis Corporation Method and system for controlling presentation of information to a user based on the user's condition
US6633315B1 (en) * 1999-05-20 2003-10-14 Microsoft Corporation Context-based dynamic user interface elements
US6567104B1 (en) * 1999-05-20 2003-05-20 Microsoft Corporation Time-based dynamic user interface elements
GB0007474D0 (en) * 2000-03-29 2000-05-17 Hewlett Packard Co Location-Dependent User Interface
US20030046401A1 (en) * 2000-10-16 2003-03-06 Abbott Kenneth H. Dynamically determing appropriate computer user interfaces
US20030182394A1 (en) * 2001-06-07 2003-09-25 Oren Ryngler Method and system for providing context awareness
US6912386B1 (en) * 2001-11-13 2005-06-28 Nokia Corporation Method for controlling operation of a mobile device by detecting usage situations
US7343365B2 (en) * 2002-02-20 2008-03-11 Microsoft Corporation Computer system architecture for automatic context associations
US7203909B1 (en) * 2002-04-04 2007-04-10 Microsoft Corporation System and methods for constructing personalized context-sensitive portal pages or views by analyzing patterns of users' information access activities
JP2003339079A (ja) * 2002-05-20 2003-11-28 Ntt Docomo Inc 移動通信端末、プログラム及び記録媒体
US7574669B1 (en) * 2002-10-08 2009-08-11 Microsoft Corporation User interface control for navigating, selecting, and organizing document pages
US7100119B2 (en) * 2002-11-01 2006-08-29 Microsoft Corporation Page bar control
US7386279B2 (en) * 2003-04-02 2008-06-10 Sun Microsystems, Inc. Context based main screen for mobile device
CA2433523C (en) * 2003-06-26 2010-06-29 Ibm Canada Limited - Ibm Canada Limitee Mehtod of displaying local and remote data objects and of interacting with same
US20050188174A1 (en) * 2003-10-12 2005-08-25 Microsoft Corporation Extensible creation and editing of collections of objects
FR2861867A1 (fr) * 2003-11-04 2005-05-06 France Telecom Differenciation de contexte d'utilisation dans un ordinateur de poche
US20060107219A1 (en) * 2004-05-26 2006-05-18 Motorola, Inc. Method to enhance user interface and target applications based on context awareness
KR100587563B1 (ko) * 2004-07-26 2006-06-08 삼성전자주식회사 상황인지 서비스를 제공하는 장치 및 방법
US7933632B2 (en) * 2005-09-16 2011-04-26 Microsoft Corporation Tile space user interface for mobile devices
US20070162456A1 (en) * 2005-12-30 2007-07-12 Shai Agassi Method and system for providing context based content for computer applications
US20080005679A1 (en) * 2006-06-28 2008-01-03 Microsoft Corporation Context specific user interface
US8843853B1 (en) * 2006-12-05 2014-09-23 At&T Mobility Ii Llc Home screen user interface for electronic device display
US20100073202A1 (en) * 2008-09-25 2010-03-25 Mazed Mohammad A Portable internet appliance
WO2009063441A2 (en) * 2007-11-14 2009-05-22 France Telecom A system and method for managing widges
KR101430467B1 (ko) 2007-12-18 2014-08-18 엘지전자 주식회사 통신 기기 및 이것의 동작 제어 방법
US7865308B2 (en) * 2007-12-28 2011-01-04 Yahoo! Inc. User-generated activity maps
JP2010033358A (ja) * 2008-07-29 2010-02-12 Sony Corp 情報処理装置、情報処理方法、プログラム、および情報処理システム
US20100039214A1 (en) * 2008-08-15 2010-02-18 At&T Intellectual Property I, L.P. Cellphone display time-out based on skin contact
JP2010122928A (ja) * 2008-11-20 2010-06-03 Toshiba Corp 携帯端末
JP5335520B2 (ja) * 2009-03-30 2013-11-06 三洋電機株式会社 電子装置
KR101613838B1 (ko) * 2009-05-19 2016-05-02 삼성전자주식회사 휴대 단말기의 홈 스크린 지원 방법 및 이를 지원하는 휴대 단말기
KR101564222B1 (ko) * 2009-05-26 2015-11-06 삼성전자주식회사 휴대단말의 잠금 모드 해제 방법 및 장치
KR101584058B1 (ko) 2009-08-07 2016-01-12 삼성전자주식회사 현재 상황에 적합한 사용 환경을 제공하는 휴대 단말기 및 이의 운용 방법
US8972878B2 (en) * 2009-09-21 2015-03-03 Avaya Inc. Screen icon manipulation by context and frequency of Use
US20110124978A1 (en) * 2009-11-24 2011-05-26 Williams Michael C Health and fitness system
EP2330794A1 (en) * 2009-12-01 2011-06-08 France Telecom Status prompt method and system
US9558520B2 (en) * 2009-12-31 2017-01-31 Hartford Fire Insurance Company System and method for geocoded insurance processing using mobile devices
JP2011159077A (ja) * 2010-01-29 2011-08-18 Fujitsu Toshiba Mobile Communications Ltd 携帯端末装置
US8370062B1 (en) * 2010-02-09 2013-02-05 Google Inc. Switching between location contexts
US8812419B1 (en) * 2010-06-12 2014-08-19 Google Inc. Feedback system
JP5696213B2 (ja) * 2010-07-22 2015-04-08 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. コンテキストベースでのアイテムのブックマーキング
US9532734B2 (en) * 2010-08-09 2017-01-03 Nike, Inc. Monitoring fitness using a mobile device
KR101708821B1 (ko) * 2010-09-30 2017-02-21 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US9658732B2 (en) * 2010-10-19 2017-05-23 Apple Inc. Changing a virtual workspace based on user interaction with an application window in a user interface
US8881057B2 (en) * 2010-11-09 2014-11-04 Blackberry Limited Methods and apparatus to display mobile device contexts
EP2469389B1 (en) * 2010-12-24 2018-10-10 Lg Electronics Inc. Mobile terminal and method for changing page thereof
US9728164B2 (en) * 2011-05-31 2017-08-08 Lenovo (Singapore) Pte. Ltd. Moving a tile across multiple workspaces
JP5729146B2 (ja) * 2011-06-03 2015-06-03 富士通株式会社 情報端末装置、情報端末装置の制御方法およびプログラム
KR101591946B1 (ko) * 2011-07-07 2016-02-04 후아웨이 디바이스 컴퍼니 리미티드 배경화면에 애플리케이션 구성요소를 자동으로 표시하는 방법 및 장치
US9268481B2 (en) * 2011-08-29 2016-02-23 Kyocera Corporation User arrangement of objects on home screen of mobile device, method and storage medium thereof
KR101895536B1 (ko) * 2011-12-29 2018-10-25 삼성전자주식회사 어플리케이션 사용에 따른 어플리케이션 추천 서버 및 단말, 그리고 어플리케이션 추천 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050091408A1 (en) * 2000-12-22 2005-04-28 Microsoft Corporation Context-aware systems and methods, location-aware systems and methods, context-aware vehicles and methods of operating the same, and location-aware vehicles and methods of operating the same
US20070022380A1 (en) * 2005-07-20 2007-01-25 Microsoft Corporation Context aware task page
KR20070074037A (ko) * 2006-01-06 2007-07-12 에스케이 텔레콤주식회사 Ui 정보 제공 시스템 및 방법과 이를 위한 이동통신 단말
CN101098530A (zh) * 2006-06-26 2008-01-02 三星电子株式会社 根据用户行为分析结果显示待机屏幕的移动终端及方法
US20120059780A1 (en) * 2009-05-22 2012-03-08 Teknologian Tutkimuskeskus Vtt Context recognition in mobile devices
US20100317371A1 (en) * 2009-06-12 2010-12-16 Westerinen William J Context-based interaction model for mobile devices

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108268434A (zh) * 2016-12-30 2018-07-10 粉迷科技股份有限公司 立体场景中超链接编辑方法与系统
CN111033605A (zh) * 2017-05-05 2020-04-17 犹尼蒂知识产权有限公司 混合现实环境中的情境应用
US10984604B2 (en) 2017-05-05 2021-04-20 Unity IPR ApS Contextual applications in a mixed reality environment
CN114520851A (zh) * 2020-11-19 2022-05-20 中国电信股份有限公司 移动电子装置的界面主题生成方法和移动电子装置

Also Published As

Publication number Publication date
WO2014088253A1 (en) 2014-06-12
CN109766160A (zh) 2019-05-17
JP2014116001A (ja) 2014-06-26
EP2741207A1 (en) 2014-06-11
CN109766160B (zh) 2022-08-23
US11740764B2 (en) 2023-08-29
US20170192633A1 (en) 2017-07-06
AU2013266972A1 (en) 2014-06-26
CN103870132B (zh) 2019-01-25
US20200293163A1 (en) 2020-09-17
KR20140075047A (ko) 2014-06-19
AU2013266972B2 (en) 2019-02-21
EP2741207B1 (en) 2021-07-14
US20140164943A1 (en) 2014-06-12
US10928988B2 (en) 2021-02-23
JP6448900B2 (ja) 2019-01-09
US20210117052A1 (en) 2021-04-22
US9626097B2 (en) 2017-04-18
US10691300B2 (en) 2020-06-23
KR102062763B1 (ko) 2020-01-07

Similar Documents

Publication Publication Date Title
CN103870132A (zh) 基于情境提供信息的方法和系统
US11886252B2 (en) Foldable device and method of controlling the same
US11314804B2 (en) Information search method and device and computer readable recording medium thereof
US9952681B2 (en) Method and device for switching tasks using fingerprint information
RU2676251C2 (ru) Устройство и способ для предоставления тактильной обратной связи в блок ввода
CN106155517B (zh) 移动终端及其控制方法
CN103999028A (zh) 不可见控件
US20110035663A1 (en) User interface method used in web browsing, electronic device for performing the same and computer readable recording medium thereof
US9870235B2 (en) Recording events generated for performing a task through user equipment
CN105094661A (zh) 移动终端及其控制方法
KR20140119608A (ko) 개인 페이지 제공 방법 및 이를 위한 디바이스
US20160124599A1 (en) Method for controlling multi display and electronic device thereof
KR20180079702A (ko) 디스플레이 장치 및 디스플레이 장치의 제어 방법
US10120551B2 (en) Method and device for displaying separated content on a single screen
KR102057196B1 (ko) 정보 전송 방법 및 시스템과 그 기기
CN110865765A (zh) 终端及地图控制方法
US10976895B2 (en) Electronic apparatus and controlling method thereof
KR20160027886A (ko) 벤디드 디스플레이와 커버를 갖는 휴대단말 및 그 어플리케이션 실행 방법
KR20160027856A (ko) 벤디드 디스플레이와 커버를 갖는 휴대단말 및 그 어플리케이션 실행 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant