CN105378637A - 用于提供动画效果的用户终端装置及其显示方法 - Google Patents
用于提供动画效果的用户终端装置及其显示方法 Download PDFInfo
- Publication number
- CN105378637A CN105378637A CN201480023674.1A CN201480023674A CN105378637A CN 105378637 A CN105378637 A CN 105378637A CN 201480023674 A CN201480023674 A CN 201480023674A CN 105378637 A CN105378637 A CN 105378637A
- Authority
- CN
- China
- Prior art keywords
- user
- controller
- image
- animation effect
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04805—Virtual magnifying lens, i.e. window or frame movable on top of displayed information to enlarge it for better reading or selection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
一种用户终端装置包括:显示器,显示包括由用户绘制的对象的屏幕;传感器,感测用户操纵;控制器,当发生预设事件时,提供关于对象的动画效果,并且当通过用户操纵选择了对象时,执行与对象匹配的控制操作。
Description
技术领域
与本文公开的示例性实施例的一致的装置和方法涉及一种用户终端装置及其显示方法,更具体地涉及一种利用其用户能够提供动画效果的用户终端装置及其显示方法。
背景技术
通过电子技术发展的加强,发明并且传播着各种类型的电子装置。具体地,最近广泛地使用诸如移动式电话、PDA、平板PC和膝上型PC之类的用户能够携带的用户终端装置。
此类用户终端装置能够通过使用各种应用来向用户提供服务。用户可选择显示在主屏幕或应用图标屏幕上的图标,并且实施他或她请求的应用。
“主屏幕”是由用户终端装置提供的基本屏幕。例如,当用户终端装置被开启时所显示的、用于完成启动并且作准备以供使用的第一屏幕可以是“主屏幕”。“应用图标屏幕”是布置和显示安装在用户终端装置上的各种应用的图标的屏幕。
因此,用户终端装置可通过显示器来显示各种屏幕,并且可与用户进行交互。然而,由用户终端装置提供的屏幕或显示在由用户终端装置提供的屏幕上对象限于标准化格式。用户仅仅通过使用从装置制造商或软件开发公司所提供的固定形状的图标或微件来执行交互。因此,现有技术的用户装置在更高效地满足用户对于更加变化的且有趣的体验的需要方面具有问题。
因此,需要提供一种提供更加变化的且有趣的交互的用户终端装置。
发明内容
技术问题
示例性实施例克服上述缺点和以上没有描述的其他缺点。此外,不要求示例性实施例克服如上所述的缺点,并且示例性实施例可不克服如上所述的问题中的任何一个。
根据示例性实施例,技术目标是提供被配置为提供动画效果的用户终端装置及其显示方法。
解决方案
根据示例性实施例,用户终端装置可包括:显示器;输入装置,被配置为接收绘制操纵以创建与应用有关的第一图像和多个第二图像;控制器,被配置为:在显示器上显示第一图像,当感测到对第一图像的悬浮操纵时,连续地显示所述多个第二图像,以及当感测到对第一图像的触摸操纵时,实施所述应用。
所述多个第二图像可包括用户为了表示动画效果所绘制的多个关键帧。
当感测到对第一图像的悬浮操纵时,控制器可根据由用户确立的显示顺序来连续地显示所述多个第二图像。
控制器可在连续地显示所述多个第二图像时显示应用的名称。
根据示例性实施例,提供了一种用户终端装置,可包括:显示器,被配置为显示包括图像绘制的屏幕;传感器,被配置为感测用户操纵;控制器,被配置为当发生预设事件时提供关于图像绘制的动画效果,以及当通过用户操纵选择了图像绘制时执行与图像绘制匹配的控制操作。
根据示例性实施例,提供了一种用户终端装置,可包括:显示器,被配置为显示包括对象的屏幕;传感器,被配置为感测针对对象的触摸;控制器,被配置为:当触摸了对象时提供关于对象的第一动画效果,当对于对象的触摸停止时提供第二动画效果,并执行与对象匹配的控制操作。
第一动画效果和第二动画效果可包括可连续地显示由用户绘制的多个关键帧的效果或根据由用户确立的动画顺序来显示多个图像的效果。
根据示例性实施例,提供了一种用户终端装置,可包括:显示器,被配置为显示微件;传感器,被配置为感测绘制操纵;接收器,被配置为接收情形信息;存储器,被配置为存储通过绘制操纵创建的多个对象;控制器,被配置为通过根据接收的情形信息将所述多个对象的若干部分组合来更新微件。
所述多个对象可包括符号、数字和字符,微件可以是包括天气、日期和时间的统一微件,并且控制器可通过基于当前时间、天气和日期信息中的一个或更多个将符号、数字和字符中的一个或更多个组合来创建统一微件。
根据示例性实施例,提供了将由用户终端装置执行的显示方法,可包括:接收传入的绘制操纵以创建与应用有关的第一图像并且用于创建多个第二图像;显示第一图像;当感测到对第一图像的悬浮操纵时,连续地显示所述多个第二图像;当感测到对第一图像的触摸操纵时,实施所述应用。
所述多个第二图像可包括用户为了表示动画效果所绘制的多个关键帧。
可根据由用户确立的显示顺序来连续地显示所述多个第二图像。
显示方法可还包括将应用的名称连同所述多个第二图像一起显示。
有利效果
根据上述各个示例性实施例,用户可控制在各种屏幕上与对象有关的动画效果。因此,因为能够更便利且有趣味地使用用户终端装置,所以能够大大地提高美感和用户满意度。
附图说明
通过参照附图描述特定示例性实施例,示例性实施例的上述和/或其他方面将会更清楚,其中:
图1是根据示例性实施例的用户终端装置的框图;
图2是为了解释根据示例性实施例的用户终端装置的显示方法而提供的流程图;
图3示出由用户创建的主屏幕的示例;
图4至7示出各种动画效果的示例;
图8是为了解释根据使用用户绘制的关键帧的示例性实施例的显示方法的而提供的流程图;
图9和10是为了解释绘制关键帧的处理而提供的;
图11是为了解释通过使用用户绘制的关键帧来提供动画效果的处理而提供的示图;
图12是被提供以解释根据通过触摸和提离操纵来提供动画效果的示例性实施例的显示方法的流程图;
图13是被提供以解释在图12的示例性实施例中的表示动画效果的方法的示图;
图14是为了解释根据通过用户的接近操纵来提供动画效果的示例性实施例的显示方法的而提供的流程图;
图15至18是为了解释在图14的示例性实施例中的表示动画效果的方法而提供的;
图19是为了解释根据通过用户注视操纵来提供动画效果的示例性实施例的显示方法而提供的流程图;
图20是根据图19的示例性实施例的关于用户终端装置的构成的示例的框图;
图21是为了解释确定用户注视操纵的方法而提供的示图;
图22示出根据图19的示例性实施例的动画效果的示例;
图23是为了解释根据通过周围环境的改变提供动画效果的示例性实施例的显示方法而提供的流程图;
图24是为了解释根据通过各种情形改变来提供动画效果的示例性实施例的显示方法而提供的流程图;
图25和26示出关于随时间的过去提供第一动画效果的方法的各种示例;
图27至29示出关于随天气改变提供第二动画效果的方法的各种示例;
图30示出关于随新消息到达提供第三动画效果的方法的示例;
图31示出关于随位置改变提供第四动画效果的方法的示例;
图32是为了解释通过将用户绘制的各种对象组合来创建动画效果的示例性实施例而提供的流程图;
图33和34示出根据图32的示例性实施例的动画效果的各种示例;
图35是为了解释创建关键帧的方法而提供的流程图;
图36和37是为了解释创建关键帧的处理而提供的;
图38是为了解释产生动画数据的方法而提供的流程图;
图39是为了解释产生动画数据的处理而提供的示图;
图40是作为笔可控制的用户终端装置的框图;
图41和42是为了解释感测利用各种输入装置的用户操纵的方法而提供的;
图43示出在用户终端装置中使用的软件结构的示例;
图44是为了全面地解释根据各个示例性实施例的用户终端装置的构成而提供的框图;
图45示出根据示例性实施例的数据共享系统的构成;
图46是为了解释共享主屏幕数据的方法而提供的流程图;以及
图47是关于在数据共享系统中使用的服务器的构成的示例的框图。
具体实施方式
现在将参照附图更详细地描述特定示例性实施例。
在以下描述中,即使在不同附图中,同样的附图标号被用于同样的元件。提供在描述中限定的事宜(诸如详细构造和元件)以帮助全面理解示例性实施例。相应地,将清楚,可在没有那些具体限定的事宜的情况下实施示例性实施例。此外,由于公知的功能或构造会用不必要的细节模糊示例性实施例,因此不详细描述它们。
图1是根据各个示例性实施例的用户终端装置的框图。
参照图1,用户终端装置100包括显示器110、传感器120、控制器130和存储器140。用户终端装置100可被实施为能够由用户使用的各种类型的电子装置。具体地,用户终端装置100可被实施为各种类型的设备中的任何一个,诸如移动式电话、平板机PC、膝上型PC、PDA、MP3播放机、电子相框设备、TV、PC和一体机。图1仅仅示出执行关于各个示例性实施例的操作的单元,并且不描述其他详细单元。
提供显示器110以显示包括一个或更多个对象的屏幕。根据示例性实施例,术语“屏幕”是指在用户终端装置100中通过显示器110所提供的图像帧。具体地,屏幕可包括主屏幕、图标屏幕、列表屏幕、应用实施屏幕、web浏览器屏幕,或内容重放屏幕。此外,术语“对象”是指在屏幕内显示的各种形状,诸如图标、字符、图片和微件。
传感器120可感测针对显示器110所执行的用户操纵。可以各种方式执行用户操纵:例如,悬浮操纵,其是用户将手指、笔,或其他工具放置在屏幕附近的技术;或者注视操纵,其是用户注视屏幕内的对象的技术;以及正常触摸操纵。
当用户利用手指或笔来在屏幕上进行触摸和绘制时,传感器120可感测点或跟踪绘制的对象。传感器120可被实施为各种类型的触摸传感器,诸如电容型、电阻型或压电型。电容感测使用涂覆在显示器110的表面上的导电材料来感测当用户的身体的一部分触摸显示器110的表面时由用户的身体所激发的微电流,并且计算触摸坐标。压缩感测包括显示器110中所包括的两个电极板来感测当用户触摸屏幕时使上下板在被触摸的点上彼此接触时的电流,并且计算触摸坐标。应当理解,也可根据其他示例性实施例使用其它类型的传感器,或上述传感器的组合。
传感器120可感测利用诸如笔以及用户手指之类的输入设备所作出的用户操纵。当输入设备是包括线圈的触控笔时,传感器120可包括用于感测由触控笔内的线圈所改变的磁场的磁传感器。因此,除触摸操纵之外,可感测正在接近屏幕的操纵,例如,悬浮操纵。将在以下具体解释传感器120的构成。
当感测到用户操纵时,传感器120将感测结果发送到控制器130。例如,当用户利用他或她的手指或笔触摸屏幕的一个点时,传感器120将被触摸的点的x和y坐标值发送到控制器130。当用户在显示器110上触摸他或她的手指或笔的同时移动被触摸的点时,传感器120将改变的触摸坐标值实时地发送到控制器130。如上所述,传感器120甚至可感测并非直接触摸的、对屏幕的接近。
存储器140存储在用户终端装置100中所使用的各种程序或数据。存储器140可存储用于提供动画效果的动画数据。
根据示例性实施例,术语“动画效果”是指以动画方式修改在屏幕上显示的图形对象并且由此提高用户注意的各种效果。修改可包括各种操作,诸如位置移动、色彩改变、形状改变、尺寸改变,或子对象添加。动画数据可包括多个关键帧和关键帧的重放顺序以便创建动画效果。术语“关键帧”是指构成一个动画的多个页面的图像。应当理解,修改也可包括其他操作。
此类动画数据可由用户创建,或可以是从用户终端装置内部提供的默认数据,或是通过外部服务器或终端设备所接收的数据。
在一个示例中,当用户创建动画数据时,他可直接地绘制以上描述的关键帧和创建关于特定对象的动画数据。作为另一示例,用户可选择由用户终端装置提供的各种图像或字符作为默认数据或选择从外部设备接收的数据作为关键帧,并且确立关键帧的重放顺序。在该情况下,创建动画数据,使得能够根据由用户确立的重放顺序来改变关键帧的显示顺序。因此,当播放动画数据时,可根据由用户确立的重放顺序来连续地播放由用户选择的关键帧以实施动画效果。
控制器130可控制用户终端装置100的一般操作。具体地,控制器130可确定对于显示在显示器110上的屏幕中所包括的对象是否发生将被提供有动画效果的事件。如果确定发生所述事件,则控制器130可通过使用存储在存储器140中的动画数据来提供动画效果。例如,当由用户绘制的多个关键帧被存储在存储器140中时,控制器130可连续地显示多个关键帧,并且提供使得用户觉得他仿佛在观看动画的视觉效果。
此外,当确定通过由传感器120感测到的用户操纵选择了对象时,控制器130执行与所选择的对象匹配的控制操作。根据示例性实施例,术语“控制操作”是指执行诸如通过实施应用来显示实施屏幕之类的各种功能或重放诸如图片或视频之类的多媒体内容的操作。例如,当选择了与一个应用匹配的图标时,控制器130实施应用并且显示实施屏幕。
另外地,控制器130可根据从传感器120提供的感测结果在显示器110上显示线。具体地,在显示器110的整体显示区内,传感器120可在与从传感器120输出的x和y坐标值相对应的点上渲染线。对象可包括此类线。对象可包括各种抽象图像以及字符、符号和符号。因而,用户可通过如同速写本一样使用显示器110的屏幕来直接地绘制各种对象。用户可将他或她绘制的对象作为关键帧存储在存储器140上。
根据示例性实施例,控制器130可将用户绘制的对象与由用户选择的控制操作或动画效果信息匹配,并且将匹配的信息存储在存储器140中。
尽管图1示出用户终端装置100包括显示器110、传感器120、控制器130,和存储器140,用户终端装置100的构成可以不限于该配置。因此,可根据其他示例性实施例添加、修改或删除单元。
例如,因为传感器120感测用户操纵并且接收传入的感测结果,所以传感器120也可被称为“输入装置”。因而,用户终端装置100可包括接收传入的绘制操纵以创建与应用有关的第一图像和多个第二图像的输入装置。另外,存储器140可被实施为被包括在控制器130中。因此,第一图像和多个第二图像可被存储在存储器140中。例如,第一图像可以是指示应用的图标、微件、字符或图像。此外,多个第二图像可以是用户为了表示动画效果所绘制的多个关键帧。
控制器130可在显示器110上显示第一图像。例如,可在主屏幕或图标布置屏幕上显示第一图像。在显示第一图像时,当发生特定事件时,控制器130在显示器110上连续地显示多个第二图像。根据示例性实施例,存在各种类型的事件。例如,可能存在用户执行悬浮操纵或注视操纵的事件,或预设时间段接近的事件。
根据示例性实施例,可由用户确立第二图像的显示顺序。在该情况下,对于显示顺序的确立信息可被存储在存储器140中。当确立以上描述的事件是悬浮操纵时,当感测到对第一图像的悬浮操纵时,控制器可根据由用户确立的显示顺序来连续地显示多个第二图像。此外,在显示多个第二图像时,控制器130可将对应的应用名称一起显示。将利用以下附图具体地解释这些示例性实施例。
根据示例性实施例,当输入了用于选择第一图像的用户操纵时,控制器130可实施对应的应用。可通过触摸操纵来执行选择第一图像;然而,第一图像的选择不局限于此。
图2是为了解释根据示例性实施例的用户终端装置的显示方法而提供的流程图。参照图2,在操作S210,显示器110可显示屏幕。在该情形中,当在操作S220发生预设事件时,在操作S230,控制器130根据所述事件来提供适当的动画效果。可不同地确立事件的类型。
例如,当用户执行用于执行诸如触摸操纵、悬浮操纵、注视操纵、运动操纵和语音操纵之类的各种类型的操纵的事件时,可提供动画效果。具体地,当发生各种类型的事件(诸如像用户触摸对象的事件、在距对象预设距离范围内用户将输入装置移动得更接近对象的事件、用户注视对象的事件、用户执行触发动画效果的运动的事件或用户讲出用于触发动画效果的语音命令的事件)时,可提供动画效果。此外,也可当发生用户终端装置的周围环境改变的事件时提供动画效果。例如,当发生的一个或多个诸如像用户旋转或滑动用户终端装置的事件、用户利用用户终端装置移动到另一个位置的事件、时间过去的事件、预设警报时间或预设时间段接近的事件和天气改变的事件的各种类型的事件时,可提供动画效果。
另外地,可对于新消息、信使或文本消息到达的事件,或系统更新请求、错误消息和通知消息被产生的事件来提供动画效果。总起来说,可对于各种事件来提供动画效果,并且可根据事件或对象不同地确立动画效果的类型。以下将对按照事件的特定动画效果的示例进行描述。同时,当在操作S240选择了对象时,在S250,控制器130可执行与对象匹配的控制操作。可使用各种方法来执行选择。
例如,当在屏幕上执行触摸操纵时,控制器130可接收来自传感器120的传入的触摸坐标值。控制器130将在屏幕上正显示的每个对象的像素坐标值与触摸坐标值进行比较。作为比较的结果,当触摸坐标值被包括在对象的显示区内时,确定选择了对应的对象。例如,当确定选择了与邮件程序匹配的对象时,控制器130可实施邮件程序并且在显示器110上显示实施屏幕。可对于各种屏幕上的对象提供此类动画效果。例如,如上所述,在显示器110上显示的屏幕可以是各种类型,诸如主屏幕、图标屏幕、列表屏幕、应用实施屏幕、web浏览器屏幕和内容重放屏幕。根据示例性实施例,术语“主屏幕”指的是在用户终端装置100被开启并且系统预备操作完成之后的第一显示屏。可选地,第一显示屏可被称为各种其他术语,诸如主屏幕、背景屏幕、基本屏幕或初始屏幕;仅仅用于示例性目的,利用主屏幕的名称来描述示例性实施例。
主屏幕可以是基本上从用户终端装置的制造商或应用的开发者提供的默认主屏幕,或者是用户直接地绘制的主屏幕。因而,用户可通过在主屏幕上绘制对象并且向对象添加动画效果来创建更有趣的且独特的屏幕。用户能够创建的主屏幕可被命名为用户创意屏幕(UCS)以区别于上述默认主屏幕。用户可通过使用用户设置菜单来确立默认主屏幕和用户创意屏幕之一作为主屏幕。此外,可由用户绘制和创建与主屏幕不同的另一个屏幕。
另外地,根据示例性实施例的,术语“图标屏幕”指的是显示安装在显示器110上的应用的图标的屏幕,并且术语“列表屏幕”指的是以列表格式布置和显示对于应用的信息的屏幕。根据示例性实施例,术语”应用实施屏幕”指的是通过实施应用所渲染的屏幕,并且术语“web浏览器屏幕”指的是显示通过实施web浏览器从外部web服务器接收的web页面的屏幕。术语“内容重放屏幕”指的是执行多媒体内容的重放并且显示视频帧的屏幕。另外地,显示器110可显示各种类型的屏幕,诸如上述屏幕的组合。
可对显示在各种类型的屏幕上的各种对象提供根据各个示例性实施例的提供动画效果的方法或显示方法。
根据示例性实施例,如上所述,当用户绘制关键帧并且创建动画效果时,可在用户绘制的屏幕上执行此类动画效果。
图3示出用户绘制的屏幕的示例。例如,在用户终端装置被开启并且系统预备操作完成的情况下或在当被锁定时执行解锁运动的情况下,当显示主屏幕的事件发生时,控制器130可以图3中示出的格式来显示主屏幕。
参照图3,各种对象11至19被显示在用户终端装置100的主屏幕10上。由用户利用诸如他或她的手指或笔200之类的输入设备在主屏幕10上绘制对象11至19中的每一个。因此,对象11至19的诸如尺寸、形状、位置和色彩之类的显示特征可能未被标准化,并且可根据用户意图被不同地表示。可以单独的格式或以包括多个对象12-1至12-4的格式来描述每个对象,诸如对象12。
用户可对于由用户绘制的对象来匹配他或她请求的控制操作。当用户将控制操作与每个对象匹配时,控制器130将匹配信息存储在存储器140或其他存储装置中。其后,当显示的对象被选择时,控制器130基于匹配信息来执行与对象匹配的控制操作。
如果包括多个对象12-1至12-4的对象12被选择,则控制器130可同时执行与对象12中所包括的对象12-1至12-4中的每一个匹配的多个控制操作。此外,不要求每个对象与控制操作匹配,并且某些对象可仅仅用作满足视觉感受的图片。
此外,尽管图2中的每个对象是由用户绘制的,但也可使用作为从用户终端装置100提供的默认对象的某些对象。如图3中所描述的,当用户通过使用笔200绘制对象时,因为与使用手指相比能够执行更详细的描述,所以可绘制更多样化的对象。
根据示例性实施例,用户可创建图3中的主屏幕10,并且对于主屏幕10的对象之中的一个或更多个对象提供动画效果。在该情况下,诸如通过添加当执行预设事件时发生移动的图片,来根据事件特征适当地修改被提供有动画效果的对象。可不同地实施动画效果。
图4至7示出各种动画效果的示例。当发生如上所述的各种事件时,可提供此类动画效果。首先,参照图4,当在鸟对象410被显示时发生预设事件时,控制器130连续地显示关于鸟对象410的多个存储的关键帧410-1至410-4。
如果关键帧410-1至410-4的显示位置彼此不同,则当第一关键帧410-1至第四关键帧410-4被连续地显示时,用户可观察到动画效果,例如,鸟沿箭头所指示的方向飞行。控制器130可在动画效果的情况下共同提供语音或振动反馈效果。此外,除修改对象410之外,可添加连接到对象410的词气球411、412来显示字符。在该显示器操作中,当用户选择其中显示有一些或所有关键帧410-1至410-4的全部区域的一部分时,控制器130确定对应的对象410被选择。因此,控制器130可执行与所选择的对象410匹配的控制操作。例如,当对象410与信使程序匹配时,信使屏幕被显示。
图5示出与图4的动画效果不同的动画效果。参照图5,当发生与对象410相对应的事件时,控制器130在相同的位置上连续地显示以不同的形状被绘制的多个关键帧410-5、410-6。因为两个关键帧410-5、410-6在翅膀的显示位置方面彼此不同,所以当两个关键帧410-5、410-6被快速地连续地显示时,用户可观察到鸟拍动它的翅膀的动画效果。在该显示器操作中,当对象410被选择时,控制器130执行与对象410匹配的控制操作。根据示例性实施例,当关键帧被显示在原始对象位置上或与原始对象重叠时,控制器130可在关键帧被显示之前删除原始对象显示。
另外,控制器130可在原始对象的周围区域上连续地显示关键帧并且提供将原始对象与关键帧协调的动画效果。
另外地,可以各种形状实施动画效果。
图6示出时钟对象600。当发生预设事件时,控制器130可修改时钟对象600的色彩。此外,如图7中所示出,当发生预设事件时,控制器130可向时钟对象600添加水波视觉效果。除波动视觉效果之外,此类特殊效果可以是各种类型的效果,诸如按压视觉效果或者吹风和破裂视觉效果。因此,可以以例如位置移动、色彩修改、形状修改、尺寸修改和子对象添加的各种方法实施动画效果。如上所述,可通过使用用户绘制的关键帧来提供某些动画效果。
图8是为了解释用户绘制多个关键帧并且提供动画效果的示例性实施例而提供的流程图。参照图8,在操作S810,用户终端装置100显示屏幕。用户可在屏幕上绘制多个关键帧。当在操作S820绘制了关键帧时,在操作S830,控制器130将关键帧存储在存储器140中。同时,当在操作S820用户没有绘制关键帧时,控制器可自动地或被动地确定是否可使用默认帧。当在操作S840确定使用默认帧时,在操作S850,控制器130可将默认帧存储为关键帧。
在这时,当在操作S860发生将被提供动画效果的事件时,在操作S870,控制器130连续地显示多个存储的关键帧。
当在操作S880选择了对象时,在操作S890,控制器130执行与该对象匹配的控制操作。
图9是为了解释通过其用户产生多个关键帧的处理而提供的示图。参照图9,控制器130提供在显示器110的屏幕900内的空画布区域950。用户可通过使用笔200或其他输入设备来在画布区域950上绘制关键帧。
在绘制一个关键帧之后,当用户选择特定菜单或按钮以绘制后面的关键帧或执行预设用户操纵以绘制后面的关键帧时,控制器130将用户已经绘制的关键帧移动到屏幕900内的另一个区域,并且显示新的画布区域950。
在该情况下,可实施的是,在一个屏幕900内,使先前的关键帧的图片与新的画布区域重叠或者使先前的关键帧的图片与新的画布区域平行地显示,使得用户能够更方便地绘制新的关键帧。利用这些方法,用户可连续地绘制多个关键帧910至940。
图9示出了空的画布区域950被显示以使得用户能够在绘制第四关键帧940之后绘制后面的关键帧。当用户在完成绘制关键帧之后输入完成命令时,控制器130存储所有绘制的关键帧,并且当随后发生事件时,通过使用存储的关键帧来提供动画效果。
图10示出产生关键帧的另一种方法。图10示出产生被应用于天气图标的动画数据的情况。
参照图10,控制器130在用户绘制对象之前提供关于将被绘制的对象的信息1011、1021、1031、1041以及在以上信息的一侧的画布区域1010、1020、1030、1040。
用户可在画布区域1010、1020、1030、1040中的每一个内方便地绘制适于信息类型1011、1021、1031、1041中的每一个的关键帧。具体地,例如,关于多云1011、雨1021、雪1031,和晴1040的天气相关信息类型,可绘制指示天气的关键帧。当用户在完成绘制之后输入完成命令时,控制器130可根据顺序来捆绑绘制的关键帧1010、1020、1030、1040并且将它们存储在存储器140中。例如,以动画GIF格式存储关键帧,尽管应当理解的是,也可使用其他格式。
其后,当发生提供动画效果的事件时,控制器130通过用户根据顺序绘制的关键帧1010、1020、1030,和1040的重放来示出动画效果。尽管图10示出关键帧1010、1020、1030,和1040的数量限于4的情况,但关键帧的数量不限于此,并且可以是各种其他数量。此外,关键帧的数量可根据用户命令而增加。
图11示出通过使用由用户绘制的多个关键帧来提供动画效果的示例性实施例。具体地,图11示出使用根据图9的方法产生的关键帧的动画效果。
如图11中所示的,关键帧910至N中的每一个可以是描述具有轻微的差别的类似的对象(例如,在不同的位置中的类似的对象)的图像。控制器130将关键帧910至N中的每一个存储在存储器140中。在该情形中,当发生特定事件时,控制器130连续地播放多个关键帧910至N。在这种情况下,因为光幻觉,用户可观察到如同由他或她绘制的对象在移动。
另外地,控制器130可通过修改或旋转对象的位置、尺寸或形状来提供各种动画效果。另外,由用户绘制的对象可以不限于2D对象并且可以可选地被实施为3D对象。另外,控制器130可提供动画效果来表示物理效应,诸如调光、风效应、阴影改变、诸如灰尘或云之类的粒子效果,或诸如水或油之类的液体或流体的移动效果。另外,控制器130可提供动画效果来修改对象的色彩或表面材料或突出显示对象的显示。
可根据事件的类型或对象的类型来不同地实施此类动画效果。以下将具体地解释根据各种事件提供动画效果的示例性实施例。
向触摸操纵事件提供动画效果
图12是为了解释当发生触摸操纵事件时根据提供动画效果的示例性实施例的显示方法而提供的流程图。
参照图12,在操作S1210,用户终端装置100显示屏幕。在屏幕内,可包括一个或更多个对象。在操作S1220,用户可通过使用诸如手指或笔之类的各种输入设备来触摸对象。
控制器130可通过传感器120确定对应的对象是否被触摸。当感测到对于对象的触摸时,在操作S1230,控制器130提供关于对象的第一动画效果。控制器130可在对象正被触摸时逐渐地显示第一动画效果。当在操作S1240触摸情形停止时,在操作S1250,控制器130提供第二动画效果。根据示例性实施例,术语“第二动画效果”是指相对于第一动画效果提供不同的动画的效果。
图13是具体地解释根据触摸或停止触摸来提供不同的动画效果的操作的示图。参照图13,控制器130在笔200正触摸对象时提供第一动画效果,当笔200从对象提离时提供第二动画效果,并且执行与对应的对象匹配的控制操作。
在图13中,第一动画效果被实施为扩大对象的尺寸,第二动画效果被实施为修改对象的形状。具体地,当通过笔200触摸在屏幕1300内显示的气球对象1310、1320之一时,控制器130提供将空气插入触摸的对象1310(例如,气球的膨胀)的第一动画效果。
控制器130显示以下图形效果:在笔200正触摸对象1310时逐渐地增加对象1310的尺寸,当从对象1310释放笔200时使气球爆炸。另外,控制器130执行与所选择的对象1310匹配的控制操作。
例如,当对象1310与web浏览器程序匹配时,控制器130实施web浏览器,访问web服务器的预设地址,并且显示从web服务器提供的web页面屏幕1330,如图13中所示出的。
尽管图13示出提供对象的尺寸被扩大和修改的第一动画效果和第二动画效果的情况,但此类动画效果仅仅是各种示例之一。能够提供各种修改的格式。例如,如在图4至12中描述的,可将第一和第二动画效果实施为连续地显示由用户绘制的多个关键帧或根据由用户确定的动画顺序来显示多个图像。
根据示例性实施例,在不直接地使用输入设备的情况下,用户也可以以其他方式(例如,通过注视对象)或其他各种方法来示出关于对象的兴趣。因而,控制器130可根据各种事件以及触摸操纵事件提供动画效果。以下将具体地解释根据与触摸操纵事件不同的事件来提供动画效果的示例性实施例。
向用户接近事件提供动画效果
图14是为了解释根据用户接近事件来提供动画效果的控制方法的而提供的流程图。参照图14,当在操作S1410显示屏幕时,当在操作S1420诸如用户手指或笔之类的输入设备接近对象时,在操作S1430,用户终端装置100提供关于对应的对象的动画效果。如上所述,将输入设备移动到距对象某距离内的操纵也可被称为悬浮操纵。
当确定发生悬浮操纵时,控制器130可提供与悬浮操纵相对应的动画效果。例如,为了使得用户能够简单地识别与对应的对象匹配的控制操作,控制器130可在显示动画效果时指示控制操作信息。
例如,可在图4和5中所示出的词气球411、412,和413内显示关于控制操作的信息。此外,可根据悬浮操纵来提供各种类型的动画效果。当在操作S1440当提供动画效果时对应的对象被直接地触摸时,在操作S1450,控制器130执行与对象匹配的控制操作。根据示例性实施例,控制器130可在直接地选择对象之前简要地暗示将被执行的控制操作,或通过鼓励对对象的兴趣使得用户能够选择对象来使用应用而激活。
图15示出根据悬浮操纵提供的动画效果的示例。在图15中,在屏幕上示例性地显示如图3中所示出的主屏幕。在主屏幕1500内,可显示由用户绘制的各种对象。
当用户通过将笔200移动以接近对象19来执行悬浮操纵时,控制器130在对象19的一侧显示与对应的对象19匹配的应用的名称1510。因此,用户可容易地确定当选择在主屏幕1500内显示的每个对象时将被执行的控制操作。图15示出对应的对象19与“今天的天气”的程序匹配的情况。可在执行悬浮时逐渐地显示程序名称,或也可以其他方式显示程序名称。
尽管图15示出在对象19的一侧显示程序名称,但示例性实施例不限于此。因而,当根据示例性实施例正执行悬浮操纵时,在对象19的形状消失时,可在屏幕1500内的特定区域上显示程序名称,或可在对象位置上显示程序名称。
尽管图15示出根据基于由用户绘制的主屏幕的悬浮操纵来显示程序名称,但可在用户没有绘制的各种类型的屏幕中实施相同的示例性实施例。
图16示出根据悬浮操纵提供的动画效果的另一个示例。具体地,图16示出包括提供诸如天气、时间和天之类的信息的微件1610的屏幕1600的示例。
当用户在图16的微件1610正被显示时执行关于对应的微件1610的悬浮操纵时,控制器130提供连续地修改显示在微件1610上的内容的动画效果。具体地,控制器130通过实施与微件1610匹配的程序来获取天气信息。另外,控制器130可通过使用与天气信息相对应的关键帧来在微件1610至1640上显示随时间过去的天气改变,例如,视频动画。
图16示出除指示天气改变的图像之外通过微件1610至1640显示出温度改变。
根据示例性实施例,用户可通过在数秒内执行悬浮操来查看特定时间段内的天气改变(例如,一天天气,一周天气和一月天气)。在图16中,用户可查看到天气当前为晴,在两个小时之后将为多云,并且在四个小时之后将为有雨。尽管图16示出了每两个小时显示不同的关键帧,但可不同地确立关键帧的时间间隔。
此外,显示在微件1610至1640上的每个关键帧可以是由用户绘制的或可被默认提供。此外,可例如经由因特网连接从外部服务器或终端设备提供每个关键帧。
图17示出根据悬浮操纵提供的动画效果的另一个示例。图17示出显示多个图标的主屏幕或应用图标屏幕的示例。
参照图17,当用户利用笔200悬浮在显示在屏幕1700上的多个图标之中的图标1710上时,控制器130扩大图标1710的形状,并且将对应的图像1720标记到图标1710内的图标1710。
例如,当图标1710是存储多个内容的文件夹图标时,控制器130可在扩大的图标1710内标记关于文件夹中所存储的内容之中的内容之一的缩略图图像。作为另一个示例,当对应的图标1710是视频图标时,控制器130可在扩大的图标1710内播放与视频图标相对应的视频或关于视频的广告视频,并且标记重放屏幕1720。
图18示出根据悬浮操纵提供的动画效果的另一个示例。
图18示出了查看预存的图片或视频内容(例如,图库程序)的程序正被实施。当实施此类图库程序时,控制器130在显示器110的屏幕上显示存储的图片或视频内容之中的内容之一。
当在上述情形中感测到悬浮操纵时,控制器130实施幻灯片放映功能以在朝向一个方向滑动当前显示的图像1810时显示新的图像1820。
如上所述,关于悬浮操纵可提供各种动画效果。
根据示例性实施例,用户操纵也可包括在用户注视屏幕期间的注视操纵,以及触摸操纵和悬浮操纵。当感测到注视操纵时,控制器130可确定发生将被提供有动画效果的事件。以下将具体地解释根据注视操纵来提供动画效果的示例性实施例。
向注视操纵提供动画效果
图19是为了解释根据注视操纵来提供动画效果的用户终端设备的控制方法而提供的流程图。
参照图19,在操作S1900,用户终端装置100通过对用户拍摄来获取拍摄图像。控制器130在操作S1910分析拍摄图像并且在操作S1920确定用户注视是否指向对象。
当操作S1920的结果指示用户的注视指向对象时,在S1930,控制器130提供关于对象的动画效果。
当在操作S1940确定用户注视固定在对象上超过预设时间时,在S1950,控制器130执行与对应的对象匹配的控制操作。因此,在不单独地使用输入的情况下,用户可通过方便地选择对象来实施他或她请求的控制操作。
图20是根据示例性实施例的用户终端装置的框图。参照图20,用户终端装置100包括显示器110、传感器120、控制器130、存储器140和摄影器170(例如,相机)。
关于显示器110、传感器120、控制器130和存储器140,这些部件件可以(尽管不一定必需)被实施为与针对其他示例性实施例在以上先前描述的基本上相同的部件,因此在此将不对与其他示例性实施例中的上述解释重叠的描述进行描述。
摄影器170对用户拍摄并且获取拍摄图像。该摄影器170可包括在用户终端装置100的主体内或连接到主体的一侧。
当获取拍摄图像时,控制器130分析拍摄图像并且跟踪用户注视。因此,可确定是否发生事件,例如,用户注视是否指向屏幕上的对象。当确定的结果指示用户注视指向对象时,控制器130提供关于对应的对象的动画效果。此外,当用户注视固定在对象上超过预设时间时,控制器130可执行与对象匹配的控制操作。
控制器130可通过根据各种算法分析拍摄图像来跟踪用户注视。
图21是为了解释关于分析拍摄图像的方法的示例而提供的示图。参照图21,控制器130对拍摄图像2100进行水平地和垂直地分割,并且将分割后的区段分割为多个块。一个块2110可包括多个像素。控制器130在通过提取每个块中所包括的像素的特征值之后将特征值与周围的块进行比较来确定所述多个块是否构成同一对象。控制器130通过对每个块执行上述确定步骤来提取每个对象的边缘区域。此外,通过考虑根据边缘区域分割的每个区域的色彩、形状和尺寸,控制器130连续地提取面部区域坐标、眼球区域坐标、虹膜区域坐标和虹膜中心坐标。可应用各种算法和模型以执行此类提取。
例如,控制器130可使用关于用户图像的选择注意聚焦模型。控制器130可通过应用显著图(SM)模型来提取面部区域。控制器130通过使用自适应提升算法从提取的面部区域中提取眼球区域,并且再次从提取的眼球区域中提取瞳孔区域。在从提取的瞳孔区域提取瞳孔中心坐标之后,控制器130利用在显示器110上显示的屏幕来映射瞳孔中心坐标的位置。因此,控制器130确定瞳孔中心坐标指向哪个点。已经在各种文献中发布了注视跟踪算法的示例,将不对其进行进一步解释。
图22是为了解释根据用户的注视操纵来提供动画效果的方法而提供的示图。参照图22,在多个对象2210至2230正被显示在屏幕2200上时,当用户注视一个对象(例如,2230)时,控制器130提供关于对象2230的动画效果。
图22示出表示为对象2230正移动的动画效果。即使当对象2230的位置移动时,当确定用户连续地注视对象2230超过预设时间时,或当用户直接地触摸对象2230时,控制器130也确定对象2230被选择。因此,控制器130执行与对象2230匹配的控制操作。具体地,控制器130实施匹配的应用并且显示实施屏幕2250。
上述公开描述了向诸如触摸、悬浮和注视之类的用户操纵提供动画效果的示例性实施例;然而,控制器130也可根据各种各样的事件的类型来提供动画效果。例如,可根据使用用户终端装置的环境的改变来提供动画效果。
向环境改变提供动画效果
图23是为了解释根据基于环境的改变来提供动画效果的示例性实施例的控制方法提供的流程图。参照图23,在操作S2300显示屏幕时,当在S2310存在周围环境的改变时,在操作S2320,用户终端装置100提供适合于周围环境的动画效果。可根据诸如位置、时间、温度、湿度和天气之类的各种条件来定义周围环境。
可在除包括显示器110、传感器120、控制器130和存储器140之外另外包括接收器(未示出)的用户终端装置中实施图23的显示方法。接收器从外部服务器或其他终端设备接收情形信息。情形信息可包括与周围环境有关的各种类型的信息,诸如天气、温度、湿度、时间和运输信息。控制器130可根据通过接收器接收的情形信息来修改显示在显示器110上的对象。
图24是具体地解释图23的示例性实施例的流程图。
参照图24,当在操作S2400用户终端装置100显示屏幕时,当在操作S2410预定时间段过去时,在操作S2420,控制器130提供与时间过去相对应的第一动画效果。控制器130可通过使用用户终端装置100中所包括的定时器(未示出)直接地统计时间,或从通信站或另一个服务器接收时间信息。
此外,当在操作S2430天气改变时,在操作S2440,控制器130提供与天气改变相对应的第二动画效果。控制器130可从广播站或另一个服务器接收天气信息。
此外,除时间或天气之外,在操作S2450可接收诸如新的文本消息、电子邮件或信使消息的新消息,或者可接收诸如指示存储的程序或内容的更新的消息之类的新消息。当接收到新消息时,在操作S2460,控制器130可提供与消息相对应的第三动画效果。
此外,在操作S2470,用户终端装置100的位置可移动。当控制器130感测到用户终端装置100的位置的移动时,在操作S2480,控制器130可提供与移动的位置相对应的第四动画效果。控制器130可通过使用用户终端装置100中所包括的地磁传感器或GPS芯片来直接地感测用户终端装置100的位置或移动。
到在操作S2490确定离开屏幕之前,控制器130可提供与在监视时间、天气、新消息的到达或位置的移动时的监视结果相对应的第一至第四动画效果。可以以各种格式实施以上描述的第一至第四动画效果。
图25示出随时间过去所提供的第一动画效果的示例。如在图25中描述的,当指针式时钟2500和数字时钟2510被显示时,控制器130可根据时间过去来修改由指针式时钟2500和数字时钟2510所示出的时间。具体地,控制器130可通过自动地移动指针式时钟2500内的分针、时针和秒针来表示时间过去。
另外,控制器130可通过随时间过去不同地显示数字时钟2510上的数字来表示时间。图25连续地表示从下午1:45至下午2:00的时间过去的过程。
控制器130可修改指针式时钟2500和数字时钟2510的各种特征,诸如指针式时钟2500和数字时钟2510的亮度、色彩或形状,或者指针式时钟2500和数字时钟2510的背景色彩和背景图象。
根据示例性实施例,当用户将警报设置为在下午2:00响时,当确定到达设置时间时,控制器130可提供另一个动画效果,诸如指针式时钟2500和数字时钟2510摇晃的效果,如图25中所示出的。控制器130也可向此类动画效果提供警报声音和振动。
可以以类似的方法提供日历信息以及时钟信息。图26示出随时间过去所提供的第一动画效果的另一个示例。
如图26中所示出的,控制器130显示与多个数字组合的数字日历2610、2620、2630和数字时钟2640、2650、2660。控制器130随时间过去修改在数字日历2610、2620、2630和数字时钟2640、2650、2660上显示的数字。
因此,用户可通过屏幕上的对象识别当前时间或当前日期。
根据示例性实施例,可通过由用户绘制的对象来创建在图25和26中显示的时钟或日历。控制器130可识别用户绘制的多个对象并且自动地对对象应用适当的动画效果。当用户绘制出如图25中所示出的时钟时,控制器130将注册在预存的对象库中的对象信息与由用户绘制的形状进行比较。因此,当存在与所存储的信息超过某种相似度等级的类似的对象时,控制器130根据对象信息确定由用户绘制的对象的类型。
关于图25,创建时针和分针。控制器130可基于以上所述事实确定对应的对象是时钟,并且创建移动时针和分针的动画效果。
关于图26,用户可直接地绘制和存储数字0至9。如上所述,控制器130通过将由用户绘制的对象与注册在预存的对象库中的数字进行比较来识别每个数字。因而,控制器130可通过将用户绘制的数字0至9进行组合来显示日期和时间。
具体地,控制器130可基于每个数字的排列顺序、大小和单位来确定每个数字分别地指的是年2610、月2620、日期2630,小时2640、分钟2650,或者秒2660。因而,控制器130可随日期和时间过去来创建逐个修改显示在每个项目2610至2660上的时间的动画效果。
图27示出根据天气改变提供第二动画效果的示例性实施例。参照图27,控制器130可逐渐地监视天气的改变,并且根据天气以各种形状连续地显示关键帧2710至2750,其实施第二动画效果。关键帧2710至2750可由用户如在图10中描述来绘制,或可利用被确立为默认图像的多个图像来表示。
尽管图27示出通过连接多个关键帧提供一个动画效果的示例性实施例,但这仅是示例性的。因此,不一定根据上述方法来执行该效果的实施。
例如,关于温度,当温度上升时,可显示诸如示出对应的对象发热的效果之类的动画效果,当温度下降时,可显示诸如对应的对象结冰的效果之类的动画效果。此外,当下雨或下雪时,可向诸如显示在屏幕的全部区域或特定对象的周围区域上的雨或雪之类的附加对象来提供动画效果。
根据示例性实施例,可通过微件提供第一动画效果或第二动画效果。
图28示出从天气微件提供的第二动画效果的示例。参照图28,控制器130显示包括与天气直接有关的天空背景的天气微件2800。具体地,可在天气微件2800中包括当用户向上看天空时所观看到的图像。可在主屏幕的一部分上或全部主屏幕上显示天气微件2800。
图28的(a)示出当多云时的天气微件2800。控制器130可根据通过利用外部服务器或包括的传感器感测天气做出的感测结果来修改天气微件2800。例如,当多云时,如图28的(a)中所示,控制器130可在天气微件2800上显示云图像2821、2822。在该处理期间,控制器130可提供动画效果,诸如显示的云图像2821、2822随风浮动以及诸如飞机2810或鸟之类的对象飞行的效果。根据偏好或必要性,可添加由用户绘制或选择的字符2830并且将其显示在天气微件2800上。可统一地显示此类字符2830或针对其他天气情形有所不同地显示此类字符2830。
根据示例性实施例,控制器130修改微件屏幕2800,例如,如图28的(b)中所示,当确定下雨时,示出雨滴从天空降落。
此外,当确定雨停并且确定状况为晴时,控制器130修改微件屏幕2800以如图28的(c)中所示示出云2821、2822消散并且太阳2850照耀,。
此外,随时间过去,飞机2810会移动它的位置或从微件屏幕2800消失。
尽管图28示出根据天气情形自动地提供动画效果,但根据另一个示例性实施例,可固定显示微件屏幕2800的背景。在该情况下,控制器130可被实施为当感测到诸如悬浮和注视之类的各种用户操纵时提供以上描述的动画效果。
根据示例性实施例,可创建微件以用于显示各种类型的信息,诸如时间、天气和日历。根据另一个示例性实施例,控制器130可通过将多个对象组合来创建统一微件。
图29是为了解释显示统一微件的示例而提供的示图。具体地,图29示出指示时间2910、日期2920和天气2930的统一微件2900的示例。
当时间过去或者天气和日期改变时,控制器130可提供在统一微件2900内适当地修改对应的对象2910、2920,和2930的动画效果。在图29中,当时间改变为11时40分并且天气变晴时,显示出动画效果。
类似于图28,图29的示例性实施例可通过自动地识别天气、时间和日期的改变来提供修改统一微件2900的动画效果,或者可提供当发生诸如像悬浮或注视的用户执行的事件时的动画效果。
根据示例性实施例,统一微件2900中所包括的每个对象可直接由用户来绘制。控制器130可通过将由用户根据所适合的情形绘制的对象进行组合来创建统一微件。以下将具体描述有关的示例性实施例。
总起来说,可通过屏幕或微件来提供第一动画效果和第二动画效果。此外,此类动画效果可以与彼此组合,并且同时提供。
图30示出根据系统改变提供第三动画效果的示例性实施例。图30示出包括与词程序匹配的对象3010的屏幕3000。通常将对象3010显示为正由用户绘制;当新的文本消息到达时,可在指示文本消息已经到达的形状3020中修改对象3010,并且将对象3010移动到屏幕3000内的另一个位置。直到用户触摸对应的对象3020之前,控制器130都可逐渐地移动它的位置。
图31示出根据位置用户终端装置的位置提供第四动画效果的示例性实施例。
参照图31,用户终端装置100可显示包括与导航程序或地图匹配的对象3110的屏幕3100。在该处理期间,当用户终端装置100移动到特定地方时,控制器130可将对应的形状中的对象3110修改并且显示为其中用户终端装置100移动到的点。图31示出控制器130由于用户向塔附近移动而将对象3110修改并且显示为塔3120,。
另外地,可提供扩大或减小对象的尺寸的动画效果。
如上所述,除对用户终端装置执行用户操纵的情况之外,当装置改变或周围情形改变时,可提供各种类型的动画效果。可通过使用由用户绘制的对象提供此类动画效果。以下将具体地解释通过其用户创建被提供有动画效果的对象的方法。
向由用户绘制的对象提供动画效果
图32是为了解释根据示例性实施例的提供动画效果的方法而提供的流程图。参照图32,当用户在操作S3210绘制多个对象时,在操作S3220存储绘制的对象。
当在操作S3230发生将被提供有动画效果的事件时,在操作S3240,控制器130通过选择性地将存储的对象组合来提供动画效果。具体地,控制器130可通过选择性地将由用户绘制和存储的对象之中的对象组合来创建统一微件,或通过仅仅选择对象并且将对象用作关键帧来提供视频动画效果。
类似于图23,可在包括显示器110、传感器120、控制器130、存储器140和接收器(未示出)的用户终端装置中执行图32的示例性实施例。接收器也可被称为通信器或通信接口。存储器140可存储通过用户的绘制操纵而创建的多个对象。
在显示器110正显示微件时,当接收到情形信息时,控制器130可根据情形信息将多个对象之中的至少一些部分对象组合来更新微件。
图33是为了解释根据图32的示例性实施例的提供动画效果的方法而提供的示图。参照图33,用户可通过使用笔200来绘制各种对象3310、3320、3330。当通过传感器120在屏幕上感测到用户的笔绘制操纵时,控制器130将通过笔绘制操纵在屏幕上绘制的对象3310、3320、3330存储在存储器140中。
尽管图33示出绘制数字3310、字符3320和图像3330的示例性实施例,但可另外绘制各种符号。关于数字3310,当用户分别地绘制数字0至9时,控制器130可通过将这些数字组合来表示每个数字。此外,关于诸如字母表的字符3320,当用户绘制从A到Z的所有字母时,控制器130可表示每个英文词。应当理解,也可使用英语之外的语言的字母。此外,当用户绘制指示天气的各种图像3330时,控制器130可通过使用图像中的每一个来表示天气。
因而,控制器130可通过基于诸如当前时间、当前天气和当前日期信息之类的当前情形将符号、数字和字符组合来创建统一微件3340。图33示出当前时间是上午10:43、当前日期是3月14号星期四,并且当前天气是多云。因此,控制器130通过使用由用户绘制的对象之中的数字0、1、4、3和字符A、H、M、U、R、T来表示当前时间3341和当前天气3342。此外,可在统一微件3340内显示适合于当前天气的图像3343。
结果,即使当用户没有输入每个词、天气或时间时,控制器130可根据情形将对象适当地组合来创建统一微件3340。可在屏幕3300的若干部分或整个屏幕3300上显示创建的微件3340。
当用户执行悬浮或注视时,或当诸如天气、时间或日期之类的情形改变时,控制器130可通过将数字、词和图像重新组合来更新统一微件3340。
根据示例性实施例,可在图标或微件上使用诸如数字、词、图像和符号之类的对象以表示除天气、日期和时间之外的各种类型的信息。例如,关于日历微件,当用户绘制例如星期一、星期二、星期三、星期四、星期五、星期六和星期日的词并且绘制数字0至9时,控制器130可通过将绘制的数字和词组合来创建日历微件。另外地,可在时钟微件、通信录信息或其他各种应用中使用对象。因而,用户可使用绘制的对象来作为新的字体。应当理解,也可由用户绘制其他符号,例如,数学符号、文化符号等。
图34示出根据天气改变而提供的第二动画效果的示例。参照图34,控制器130在屏幕3400的特定位置上显示由用户绘制和存储的多个对象3410至3450之中的与当前天气相对应的对象3410。当天气改变时,控制器130将先前的对象3410修改为与天气改变相对应的新的对象。例如,当天气在晴之后变成有雾时,将第一对象3410修改为第二对象3420。同时,当天气在晴之后变成多云和有雨时,可将第二动画效果提供为连续地显示第一对象3410、第二对象3420,和第三对象3430。
如上所述,可根据各种事件来提供各种动画效果。用户可直接地创建用于提供动画效果的数据,例如,动画数据。以下将具体地解释创建动画数据的各种方法。
创建动画数据的各种示例性实施例
图35是为了解释关于创建动画数据的方法的示例而提供的流程图。参照图35,当在操作S3510用户输入添加对象的命令时,在操作S3520,控制器130可确定是否提供动画效果。可根据用户选择来确定是否提供动画效果。具体地,当用户选择提供动画效果的菜单时,控制器130可确定用户正试图创建动画数据。
当用户正试图提供动画效果时,他或她可在操作S3550绘制关键帧。术语“关键帧”可以指的是共同地构成动画的多个帧之一。因此,当连续地显示多个帧时,由于余像效果,看起来如同对象在移动一样。为了获取此类余像效果,用户可通过绘制与彼此有关的多个关键帧来创建动画。
在S3550绘制一个关键帧之后,当在操作S3560注册了关键帧时,在操作S3570,控制器130证实是否注册了预设数量的帧。因而,用户终端装置100可预先确立创建一个动画的最小数量的关键帧。当关键帧的数量小于确立的数量时,控制器130提供用户绘制另一个关键帧的机会。因而,在操作S3550,用户可绘制另一个关键帧。因此,当注册了确立的数量的关键帧时,在操作S3580,控制器130将注册的关键帧分组、创建一个动画,并且存储动画信息。
同时,当用户没有提供动画效果时,当用户在操作S3530绘制对象时,在操作S3540,控制器130在屏幕上添加对象。在该情况下,当控制操作正与对应的对象匹配时,控制器130可将对象信息与控制操作信息匹配并存储。
图36是为了解释关于创建动画数据的处理的示例而提供的示图。参照图36,当在显示屏幕3600时用户对菜单输入证实命令的选择时,控制器130在屏幕3600内显示包括屏幕编辑菜单3611的多个菜单。
当用户选择屏幕编辑菜单3611时,控制器130显示确定对象的特征的菜单3621、3622。因而,可显示菜单3621来绘制正常对象并且可显示菜单3622来绘制动画对象。当用户选择动画对象菜单3622时,控制器130删除屏幕3600上的多个菜单并且待机以进行绘制。
在绘制第一关键帧3631之后,用户然后绘制至少一个附加的关键帧,例如,用户连续地绘制第二关键帧3632和第三关键帧3633。每当完成一个关键帧时,用户可输入特定按钮,或通过等待预设时间来注册对应的关键帧。
在注册完成的关键帧之后,当发生特定事件时,控制器130可连续地显示由用户注册的关键帧3631至3633以便提供动画效果。
尽管在图36中未示出,但是每当注册每个关键帧时,可在屏幕上显示通知注册的状况的OSD(屏幕显示)消息。
如果用户确定绘制了适当数量的关键帧,他或她可结束关键帧绘制。此外,当关键帧总数量已经确立时,当注册了总数量的关键帧时,控制器130可自动地结束关键帧绘制。此外,当用户在绘制他或她想要的多个关键帧之后选择特定按钮或特定菜单时,可结束关键帧绘制。可根据不同的示例性实施例以不同的方式实施此类细节处理。
同时,在不操纵另一个菜单的情况下,用户可在屏幕上连续地绘制多个对象之后确立动画效果。
图37是为了解释根据示例性实施例的在用户终端装置中创建动画对象的方法而提供的示图。参照图37,用户可通过在屏幕3700上使用诸如笔200之类的输入设备来连续地绘制多个对象3710至3740。当用户在绘制所有对象3710至3740之后按压特定菜单时或当绘制了预设数量的对象时,控制器130可显示用于选择特征的菜单3750。
当在菜单3751、3752和3753之中选择了动画菜单3751时,控制器130通过将由用户绘制的所有对象3710至3740分组来创建动画对象。在最初绘制对象3710的位置上,控制器130可通过连续地修改对象3710至3740中的每一个或根据与周围情形改变相对应的顺序修改对象来提供动画效果。
根据另一个示例性实施例,用户可选择并将预先创建的动画效果与对象而不是绘制的关键帧匹配。在该情况下,当用户直接地绘制对象的形状或首先选择控制操作时,控制器130可基于对象或控制操作建议适当的动画效果。
图38是为了解释根据示例性实施例的创建对象的方法而提供的流程图。参照图38,在操作S3800,用户可在用户终端装置100的屏幕上绘制对象。此外,在操作S3810,用户可选择与对象匹配的控制操作。
当选择了与对象匹配的控制操作时,控制器130基于对象的形状或所选择的控制操作来确定推荐的动画效果。此外,可在操作S3820显示选择区域,其中,选择区域是能够选择推荐的动画效果的区域。
当用户在选择区域内选择一个或多个动画效果时,在操作S3840,控制器130将所选择的动画效果、对应的对象和使所选择的动画效果和对应的对象匹配的控制操作存储在存储器140中。
图38示出当用户直接地绘制对象并且将控制操作与绘制的对象匹配时提供推荐的动画效果,然而,可当选择了用户没有绘制的正常图标、图像和字符时提供推荐的动画效果。在此将不单独地示出和描述有关的示例性实施例。
图39是为了解释通过选择推荐的动画效果来创建动画对象的处理的而提供的示图。参照图39,当用户在屏幕3900上绘制一个对象3910时,控制器130显示能够选择控制操作3921、3922、3923的选择区域3920。在该处理期间,用户可利用诸如通过绘制封闭曲线3930以将对象3910与控制操作3921绑定或通过触摸选择区域3920内的控制操作3921这样的操纵来选择控制操作。
当选择了控制操作时,控制器130通过考虑控制操作的类型和对象的形状来确定推荐的动画效果,并且显示能够选择推荐的动画效果的选择区域3940。
图39提供推荐的动画效果的各种示例,包括考虑对象3910具有圆形形状促使对象3910放大和破裂的气球效果3941,和考虑所选择的控制操作是天气应用促使根据天气来修改对象3910的形状的天气反映效果3942。另外地,建议由用户频繁地使用的动画效果3943、3944、3945。应当理解,可根据其他示例性实施例来使用在图39中示出的那些以外的许多不同组合的推荐的动画效果。
因此,控制器130可根据各种条件来建议动画效果。当用户选择选择区域3940内所建议的效果之一时,控制器130通过应用所选择的效果来创建动画对象。
根据示例性实施例,用户可创建正常对象以及动画对象。例如,如上所述用户可首先创建对象,并且确立创建的对象的特征是动画还是正常。此外,用户可关于正常对象或动画对象来匹配他或她请求的控制操作。
用户可在用户绘制对象之后选择和匹配控制操作,或在选择控制操作之后绘制和匹配对象。
关于首先绘制对象的示例性实施例,用户可通过使用如同画布一样的屏幕利用诸如手指或笔200之类的各种输入设备来绘制各种对象。
在绘制对象之后,用户可选择与对象匹配的控制操作。当输入了与控制操作匹配的用户命令时,控制器130显示每个对象安装在用户终端装置100中的应用的列表。用户可在应用列表上选择与每个对象匹配的应用。当用户结束选择与对象匹配的应用时,控制器130将关于对应的对象的信息与关于所选择的应用的信息匹配并且将匹配的信息存储在存储器140或其他存储装置(例如,远程服务器)中。因此,可创建用户创意屏幕。
另外,可在绘制对象之前选择控制操作,并且可随后绘制对象。在该情况下,控制器130可确定如在图39中描述的推荐的动画效果,并且可显示使得用户能够作出动画效果的屏幕。
此外,用户可直接地绘制和存储能够包括正常对象或动画对象的屏幕本身。将不具体示出和解释创建此类屏幕的方法。
根据示例性实施例,当用户通过使用笔200以及他的或她的手指来操纵屏幕时,可不同地实施将被提供有动画效果的各种类型的事件和各种类型的动画效果。因而,用户终端装置可区分是利用用户的身体(例如,手指)还是笔200执行操纵,并且根据区分的结果来执行不同的控制操作。以下解释将具体地解释关于用户终端装置的详细构成的各种示例性实施例。
用户终端装置的详细构成
图40示出关于被配置为与笔200一起使用的用户终端装置的详细构成的示例。参照图40,用户终端装置100可对用户手指与笔进行区分并感测。图40的用户终端装置100包括显示器110、传感器120、控制器130和存储器140。
显示器110显示如上所述的各种屏幕。显示器110可被实施为各种类型的显示器,诸如液晶显示器(LCD)、有机发光二极管(OLED)显示器和等离子显示面板(PDP)。在显示器110内,可同时包括将能够被实施的例如可以是a-siTFT、低温多晶硅(LTPS)、TFT和有机TFT(OTFT)的驱动电路以及背光单元。
图40示出显示器110和传感器120被实施为一个触摸屏。传感器120可包括笔识别面板121和触摸面板122。当笔200接近或触摸传感器120时,笔识别面板121感测笔200,并且根据感测结果来输出事件信号。可利用EMR方法来实施此类笔识别面板121,并且此类笔识别面板121可根据通过正接近或正触摸的笔200作出的电磁场的强度改变来感测来自笔200的真实触摸或接近输入。
具体地,笔识别面板121可包括电感应线圈传感器(未示出)和电信号处理电路(未示出)。以有被布置为彼此交叉的多个环形线圈的栅格结构来形成电感应线圈传感器。该电信号处理电路连续地向电感应线圈传感器的每个环形线圈提供交流电信号,并且将来自每个环形线圈的输出信号发送到控制器130。
当包括谐振电路的笔200被放置为笔识别面板121的环形线圈的附近时,从对应的环形线圈发送的磁系统基于笔200内的谐振电路上的相互电感应来产生电流。基于所产生的电流,可从构成笔内的谐振电路的线圈产生感应磁系统,并且笔识别面板121通过在接收信号的情形下检查环形线圈上的感应磁系统来感测笔200的接近位置或笔200的触摸位置。
以上描述将笔200描述为输入设备的示例;然而,能够基于电感应产生电流的其他对象也可被用作输入设备。笔识别面板121可被布置在显示器110的下侧上并且根据特定事件的发生被激活或由默认条件来激活。
触摸面板122感测通过用户身体或其他对象作出的物理触摸输入。例如,可将触摸面板122实施为例如包括触摸膜、触摸板和触摸平板。当感测到触摸时,触摸面板122输出与感测的点相对应的触摸事件值。触摸面板122可包括诸如电容充电型或压缩型之类的各种类型的触摸传感器。
例如,当触摸面板122被实施为电容充电型时,通过在玻璃的两面上涂覆薄金属导电材料(例如,铟锡氧化物基板/基底(ITO))来构成触摸面板122,使得电流能够在玻璃的表面上流动,并且触摸面板122被涂覆有能够存储电荷的导电材料。当此类触摸面板122的表面被触摸时,一定量的电荷由于静电移动到触摸位置,并且触摸面板122通过根据电荷的移动识别电流的改变量来感测被触摸的点,并且跟踪触摸事件。根据示例性实施例,可通过人手指来产生在触摸面板122上执行的触摸事件,或可通过能够促使静电电荷改变的另一个物体(例如,能够改变静电电荷的导电材料类型物体)来产生在触摸面板122上执行的触摸事件。
尽管图40示出可将笔识别面板121和触摸面板122单独地提供,但两个面板可被一起实施为一个面板。因此,传感器120可将用户手指的触摸操纵和接近操纵与笔200的触摸操纵和接近操纵分别地区分和感测。控制器130可根据感测结果执行各种控制操作。
尽管在图40中未示出,但是用户终端装置100可进一步包括能够驱动显示器的驱动器(未示出)和帧缓冲器(未示出)。帧缓冲器缓冲把将被显示在显示器110的面板上的图像帧进行缓存,驱动器将存储在帧缓冲器中的图像帧转换为图像源信号,向显示器110提供图像源信号并驱动显示器110显示图像帧。
存储器140可存储对用户终端装置100的操作所请求的各种程序和数据。具体地,存储器140可存储用于创建各种屏幕和动画数据的程序和数据。此外,当直接地绘制主屏幕时,可存储与绘制的主屏幕有关的各种数据。
当发生预设事件时,控制器130通过使用存储在存储器140中的程序和数据来提供各种动画效果。因为在上述各个示例性实施例中具体地解释了事件的类型及其动画效果,所以将不另外解释事件的类型和动画效果。
此外,当用户直接地绘制关键帧或确立动画效果时,控制器130可根据由用户绘制的关键帧或确立的动画效果来创建动画数据并且将动画数据或动画效果存储在存储器140中。
此外,当执行关键帧或动画效果的修改时,控制器130可更新存储在存储器140中的动画数据,或可根据用户的意图修改与对象匹配的控制操作。
控制器130通过使用存储在存储器140中的各种程序和数据来控制用户终端装置的一般操作。控制器130包括RAM131、ROM132、CPU133、GPU(图形处理单元)134和总线135。RAM131、ROM132、CPU133和GPU134可通过总线135彼此连接。CPU133通过访问存储器140并且使用存储器140中的存储的O/S来执行启动。此外,CPU133通过使用存储在存储器140中的各种程序、内容和数据来执行各种操作。
ROM132存储启动系统的命令集。当输入开启命令并且提供电源时,CPU133根据ROM132中的存储的命令将存储器140中的存储的O/S复制到RAM131,实施O/S,并且启动系统。
当启动完成时,CPU133将存储在存储器140中的各种程序复制到RAM131,实施对RAM131复制的程序,并且执行各种操作。当用户终端装置100的启动完成时,GPU134显示主屏幕。具体地,GPU134可通过使用计算器(未示出)和渲染器(未示出)来创建包括诸如图标、图像和字符之类的各种对象的主屏幕。计算器计算特征值(诸如,根据屏幕的布局对每个对象进行显示的坐标值的形状和尺寸和色彩)。渲染器基于在计算器中计算的特征值来创建包括对象的各种布局中的屏幕。在渲染器中创建的屏幕被提供给显示器110并且在显示区域内被显示。
GPU134可通过使用存储在存储器140中的程序和数据来实施各种屏幕。此外,当用户利用用户手指或笔200触摸或接近屏幕时,GPU134根据操纵来渲染对象。例如,当用户利用笔200绘制圆圈时,根据绘制轨迹来显示圆圈。因此,用户可利用他的或她的眼睛证实他或她正绘制的关键帧。
GPU134可在彼此不同的图形层上表示屏幕和对象。因而,图形层可重叠并且在屏幕层的上层上表示对象层。GPU134可将手指操纵与笔操纵区分,并且表示彼此不同的图形线。例如,关于手指操纵,因为与笔的末端相比,用户手指末端较钝,所以GPU134可响应于来自用户手指的输入而表示粗的图形线。关于笔操纵,GPU134可表示尖锐的图形线。
控制器130可检查对象层上的渲染的对象的边界线,并且根据边界线来识别对象。因此,控制器130可识别由用户绘制的各种关键帧,计算像素坐标值以标示识别的点,并且将像素值作为关键帧信息或对象信息存储在存储器140上。
如图40所解释的,当识别利用笔的用户操纵时,可以以各种形状实施包括对象绘制的各种用户操纵。例如,当用户利用笔200绘制尖锐线并且利用他的或她的手指摩擦该线时,控制器130可将先前尖锐的绘制的线表示为变模糊。此外,在用户利用笔200绘制对象时,他或她可利用没有握着笔200的另一只手来修改应用于笔200的工具。因此,在关于笔200通过选择铅笔特征来利用铅笔进行绘制时,当用户利用另一只手触摸屏幕时,可将利用铅笔绘制的线修改得更粗或更细,或者被修改为其他特征(诸如取代铅笔的笔或彩色粉笔)。当被修改为包括橡皮擦特征时,可擦除利用笔触摸的对象中的点。
如上所述,控制器130可根据用户输入和输入方法来提供各种绘制功能。作为结果,用户可通过根据他的或她的意图和特性绘制各种关键帧或对象来创建动画数据。
以下解释将具体地解释感测利用比如用户手指或笔200的各种输入设备的操纵的技术。
图41是为了解释通过使用接近传感器来感测用户手指的接近操纵的方法而提供的示图。参照图41,传感器120可进一步包括红外源123和红外传感器124。红外源123和红外传感器124可执行被配置为感测用户的接近输入的传感器的功能。
具体地,红外源123被安装在显示器110内的显示面板115的一个表面上,并且红外传感器124被安装在显示面板115的另一个表面上。红外源123朝向显示面板115的表面方向发射红外线。因此,存在能够在显示面板115的表面上识别正在接近的用户手指50的区域。该区域变为能够识别接近触摸的可用的识别区域5。
红外传感器124可包括以阵列格式布置的多个红外线感测部件。因此,当手指在可用的识别区域5内接近时,红外传感器124可通过感测从手指50反射的红外线来创建红外线扫描图像。该用户终端装置100可通过使用创建的红外线扫描图像来感测接近触摸输入。
同时,传感器120可感测正在接近的笔200。如上所述,笔识别面板121可包括电感应线圈传感器和电信号处理电路(未示出)。
图42示出被配置为通过使用笔识别面板121来感测正在接近的笔200的装置的构成的示例。参照图42,显示器110可进一步包括电感应线圈传感器125。当笔200在特定距离5a内接近时,由于笔200内的磁线圈,正在接近的点上的磁场发生改变,并且在电感应线圈传感器125的点上感测到改变的磁场。由电信号处理电路处理感测的磁场并且将其输入到控制器130。可基于输入值来感测笔200的正在接近的点。
另外,控制器130可根据磁场的改变的值的量来确定是否执行了直接触摸。如图41和42中所示出的,当使用红外源123、红外传感器124和笔识别面板121时,控制器130可区分和识别用户利用他的身体(例如,手指)或笔200来触摸屏幕还是接近屏幕。该控制器130可根据输入的类型和输入方法来选择性地执行各种控制操作。
可通过实施各种类型的软件来执行用户终端装置100的此类操作。
图43示出关于在用户终端装置100中使用的软件结构的示例。图43的软件可被存储在存储器140中;然而,软件不局限于被存储在存储器140中。软件可被存储在与用户终端装置100兼容的且在用户终端装置100内可用的各种类型的存储介质中。
参照图43,用户终端装置100可存储包括OS141、内核142、中间件143和应用144的软件。
OS(操作系统)141执行控制和管理硬件的一般操作的功能。因此,OS141是执行诸如硬件管理、存储和安全之类的基本功能的类别。
内核142执行向中间件143发送在传感器120中感测的各种信号的网关。
中间件143包括控制用户终端装置100的操作的各种软件模块。参照图43,中间件143包括X11模块143-1、APP管理器143-2、连接管理器143-3、安全模块143-4、系统管理器143-5、多媒体构架143-6、UI构架143-7、窗口管理器143-8和写识别模块143-9。
X11模块143-1是从用户终端装置100中所包括的硬件的各种单元接收各种事件信号的模块。根据示例性实施例,可确立事件,诸如感测用户操纵的事件、产生系统警报的事件和启动或结束特定程序的事件。
APP管理器143-2是管理实施安装在存储器140中的各种应用的进程的模块。当由X11模块143-1感测到促使输入实施命令的应用的事件时,APP管理器143-2调用并且实施与事件相对应的应用。因此,当例如感测到在主屏幕上选择一个或更多个对象的事件时,APP管理器143-2执行调用并且实施与对象相对应的应用的功能。
连接管理器143-3是支持有线或无线网络连接的模块。连接管理器143-3可包括各种细节模块,诸如DNET模块和UPnP模块。
安全模块143-4是支持关于硬件的认证、许可和安全存储的模块。
系统管理器143-5监视用户终端装置100内的每个单元的情形并且向其他模块提供监视结果。例如,当电池量少,发生错误或者通信连接切断时,系统管理器143-5可向UI构架143-7提供监视结果并且输出通知消息或警报声音。
多媒体构架143-6是播放存储在用户终端装置100中的或从外部源提供的多媒体内容的模块。多媒体构架143-6可包括播放器模块、摄像机模块和声音处理模块。因此,多媒体构架143-6可执行重放各种多媒体内容的操作,例如,产生和重放图像和声音。
UI构架143-7是提供各种UI的模块。UI构架143-7可包括构成多个对象的图像合成模块、计算显示对象的坐标的坐标合成模块、对在计算的坐标上的构成的对象进行渲染的渲染模块和提供构成UI的2D或3D格式的工具的2D/3DUI工具包。
窗口管理器143-8可通过使用用户身体或笔来感测触摸事件或其他传入的事件。当感测到此类事件时,窗口管理器143-8通过向UI构架142-7发送事件信号来执行与事件相对应的对应的操作。
写识别模块143-9是解析在显示器110的表面上绘制的轨迹并且识别书写的模块。写识别模块143-9接收关于笔识别面板121被触摸的点所传入的坐标值,并且将被触摸的点的坐标值存储为笔触。另外,写识别模块143-9可通过使用笔触来产生笔触阵列。写识别模块143-9可通过将在书写库中预先存储的书写与所产生的笔触阵列进行比较来识别书写。向应用管理器143-2提供识别的书写,并且应用管理器143-2向与在执行用户书写的点上的对象相对应的应用提供书写。因此,如上所述,应用可基于识别的书写来执行控制操作。
根据示例性实施例,当用户通过使用诸如用户的手或笔200之类的各种输入设备在显示器110的表面上进行触摸或绘制时,UI构架143-7可根据用户操纵来绘制各种图形线。具体地,当用户通过使用笔200在屏幕上绘制图片时,控制器130可通过实施UI构架143-7在笔200经过的每个点上绘制图形线。线的粗细可根据在接触期间利用笔200在屏幕上所按压的压力或屏幕的尺度和笔的尺寸而变化。线的色彩或形状也可根据用户偏好而变化。
此外,当发生向特定对象提供动画效果的事件时,UI构架143-7可通过修改关于对象诸如显示位置、形状、色彩和尺寸之类的各种显示特征来显示生动的动画。
应用模块144包括支持各种功能的应用144-1至144-n。例如,应用模块144可包括提供各种服务的程序模块,诸如导航程序模块、游戏模块、电子书模块、日历模块和警报管理模块。此类应用可作为默认应用被安装,并且可由用户在使用装置时来安装和使用。当选择了对象时,CPU133可通过使用应用模块144来实施与所选择的对象对应的应用。
由于图43的软件结构仅是示例性的,所以根据其他示例性实施例的软件结构不局限于在图43中示出的结构。因此,可删除或修改某些单元,并且可根据必要性或偏好来添加新的单元。例如,存储器140可另外提供各种程序,例如,分析各种传感器中的感测的信号的感测模块、诸如信使程序、SMS(短消息服务)&MMS(多媒体消息服务)程序、电子邮件程序之类的消息收发模块、呼叫信息聚合器程序模块、VoIP模块和web浏览器模块。
总起来说,示例性实施例提供当笔用于提供输入时进行区分的技术,并且控制器130可根据各种笔传入事件来提供各种动画效果。
根据示例性实施例,用户终端装置100可被实施为各种类型的设备,诸如移动电话、平板PC、膝上型PC、PDA、MP3播放器、电子相框装置、TV、PC或一体机。根据示例性实施例,当用户终端装置100被实施为具有各种功能的装置(诸如,配备有通信功能和内容重放功能的移动电话或平板PC)时,执行这些功能的单元可另外被包括在用户终端装置中。
图44是全面地包括各种单元的用户终端装置的示例的框图。
参照图44,用户终端装置100可包括显示器110、传感器120、控制器130、存储器140、通信器150、GPS芯片161、视频处理器162、音频处理器163、按钮164、麦克风165、扬声器166、运动传感器167和摄影器170。
显示器110和传感器120可根据上述解释被实施为触摸屏幕型显示器,可显示各种屏幕并且可感测针对屏幕执行的用户操纵。控制器130通过使用存储在存储器140中的各种程序和数据来控制用户终端装置100的一般操作。在上述各个示例性实施例中具体地描述了显示器110、传感器120和控制器130,对其将不进行另外解释。
通信器150根据各种类型的通信方法来执行与各种类型的外部装置的通信。通信器150包括例如WiFi芯片151、蓝牙芯片152、无线通信芯片153和NFC芯片154。
WiFi芯片151和蓝牙芯片152分别根据WiFi方法和蓝牙方法来执行通信。当使用WiFi芯片151和蓝牙芯片152时,可首先发送和接收诸如SSID和会话密钥之类的多个连接信息,并且可在通过使用连接信息进行连接之后发送和接收多个信息。术语“无线通信芯片153”指的是根据诸如IEEE、Zigbee、3G(第3代)、3GPP(第3代合作伙伴项目)和LTE(长期演进)的各种通信标准中的至少一个来执行通信的芯片。术语“NFC芯片154”指的是根据NFC(近场通信)方法在诸如135kHz、13.56MHz、433MHz、860MHz至960MHz和2.45GHz之类的各种RF-ID频率带宽之中使用13.56MHz带宽进行操作的芯片。
控制器130通过通信器150执行与多个外部装置的通信。例如,控制器130可下载应用,将应用安装在存储器140中并且显示与应用相对应的对象。在该情况下,对应的应用可与先前使用的对象匹配。
具体地,通信器150可执行与外部服务器的通信。服务器可以是提供将包括由其他用户绘制的对象的主屏幕共享的共享服务的装置。在该情况下,当输入关于用户在用户终端装置100上创建的动画数据的共享命令或其他附加的屏幕数据时,控制器130可利用通信器150将所选择的数据上传到服务器。
另外,可从服务器发送由其它用户创建的动画数据。当下载新的动画数据并且用户将下载的动画数据与特定对象匹配时,控制器130基于关于对应的对象的新的动画数据来提供动画效果。
另外地,通信器150可通过直接地执行与其他用户终端装置而不是服务器的通信来共享动画数据。
GPS芯片161从GPS(全球定位系统)卫星接收GPS信号,并且计算用户终端装置100的当前位置。当使用导航程序或请求用户的当前位置时,控制器130可通过使用GPS芯片161来计算用户位置。
视频处理器162对通过通信器150所接收的内容或存储器140的存储的内容中所包括的视频数据进行处理。视频处理器162可执行各种图像处理操作,例如,视频数据的解码、按比例缩放、噪声滤波、帧率转换和修改分辨率。
音频处理器163对通过通信器150所接收的内容和存储器140的存储的内容中所包括的音频数据进行处理。音频处理器163可执行各种处理技术,例如,音频数据的解码或放大以及噪声滤波。
当实施重放程序以重放多媒体内容时,控制器130可通过驱动视频处理器162和音频处理器163来播放对应的内容。显示器110可显示在视频处理器162中产生的图像帧。
另外,扬声器166输出在音频处理器163中产生的音频数据。
按钮164可以是各种类型的按钮,例如,形成在诸如用户终端装置100的外部主体上的前面、侧面、后面、底部或者上部的区域上的机械按钮、触摸板和滚轮。
麦克风165接收传入的用户语音数据或其他声音并且将传入的用户语音数据或其他声音转换为音频数据。控制器130可使用在呼叫时通过麦克风165输入的用户语音数据,或者将用户语音数据转换为音频数据并且将音频数据存储在存储器140中。
摄影器170根据用户的控制来拍摄静止图像或视频图像。摄影器170可被实施为多个相机,诸如正面相机和背面相机。如上所述,摄影器170可用作结合跟踪用户注视的示例性实施例来获取用户图像的装置。
当提供摄影器170和麦克风165时,控制器130可根据通过麦克风165输入的用户语音或由摄影器170识别的用户运动来执行控制操作。因而,用户终端装置100可在运动控制模式或语音控制模式下进行操作。当以运动控制模式进行操作时,控制器130通过激活摄影器170来拍摄用户,并且通过跟踪用户运动的改变来执行对应的控制操作。当在语音控制模式下进行操作时,控制器130可在语音识别模式下进行操作以分析通过麦克风165输入的用户语音并且根据分析的用户语音来执行控制操作。
在支持运动控制模式和语音控制模式的用户终端装置100中,可在上述各个示例性实施例中应用语音识别技术和运动识别技术。例如,当用户作出选择显示在主屏幕上的对象的运动或讲出与对象相对应的语音命令时,用户终端装置100可确定对应的对象被选择并且执行与对象匹配的控制操作。
运动传感器167感测用户终端装置100中的主体的移动。用户终端装置100可沿各种方向旋转或滑动。运动传感器167可通过使用诸如地磁传感器、陀螺仪传感器和加速度传感器之类的各种类型的传感器中的一个或更多个来感测移动特征,例如,旋转的方向和角度以及梯度。
尽管在图44中未示出,但是根据示例性实施例,用户终端装置100可进一步包括能够连接到USB连接器的USB端口、与诸如耳机、鼠标和LAN之类的各种外部部件连接的各种外部输入端口以及用于接收和处理DMB(数字多媒体广播)信号的DMB芯片。
总起来说,可通过各种类型的用户终端装置来实施上述示例性实施例。
另外,用户终端装置可根据用户操纵提供各种动画效果,并且用户可直接地创建动画数据。可与其他方共享创建的动画数据。
图45是示出根据示例性实施例的关于数据共享系统的示例的示图。参照图45,数据共享系统包括多个用户终端装置100-1、100-2和100-3以及服务器4500。尽管图45示出三个用户终端装置100-1至100-3,但用户终端装置的数量不局限于三个并且可被修改。
服务器4500提供数据共享服务,使得用户终端装置100-1至100-3彼此内部共享创建的数据。服务器4500可被实施为各种类型,例如,服务器4500可以是web服务器、云服务器和其它类型的服务器。
在图45的数据共享系统中,可根据如上所述的针对示例性实施例的各种构成来实施用户终端装置中的每一个。当用户终端装置100-1至100-3之一(例如,终端装置100-1)用于创建主屏幕或动画数据时,用户可将创建的数据上传到服务器4500。其他用户终端装置100-2、100-3的用户可通过访问从服务器4500提供的站点来下载数据。
图46是为了解释数据共享方法的示例而提供的流程图。参照图46,当在操作S4610输入关于存储的数据的共享命令时,在操作S4620,用户终端装置将数据上传到服务器4500。因此,可上传构成由用户绘制的主屏幕的主屏幕数据或用户创建的动画数据。当由用户绘制的关键帧被包括在动画数据中时,可将此类关键帧连同其他上传的数据一起上传。当用户确立显示动画的顺序时,也可将关于显示顺序的信息连同其他上传的数据一起上传。
此外,当在操作S4630输入共享由另一个用户上传的数据的用户命令时,在操作S4640,用户终端装置100从服务器4500下载新的数据。
在操作S4650,用户可确定是否应用下载的数据。当输入使用新的数据的用户命令时,在操作S4660,用户终端装置通过使用新的数据来显示屏幕。具体地,当接收和选择主屏幕数据时,控制器130基于所接收的主屏幕数据来显示新的主屏幕。此外,当接收和选择动画数据时,控制器130基于所接收的动画数据来提供动画效果。在上述各个示例性实施例中描述了关于动画效果的示例,将不冗余地对其进行解释。
因此,用户可根据他的或她的意图创建屏幕或对象并且以便利的方式与其他用户共享创建的屏幕或对象。
服务器4500可提供赢利模型,例如,服务器4500可在便于购买或出售用于用户终端装置100中的每一个的数据时接收支付,或在提供能够自由地上传或下载主屏幕数据或动画数据的服务器区域时获取广告赢利。服务器4500可提供方便用于终端装置100中的每一个的数据的购买或出售的众多的不同的金融的功能,包括例如,代表数据的买主和/或卖主用作记帐中间人或与用作记帐中间人的另一个实体进行通信;存储用户的帐户数据和其他财务相关的信息;提供诸如加密协议之类的安全机制或与该安全机制结合进行操作以方便通过诸如因特网之类的网络的数据的安全事务;在买主和卖主之间提供警报、更新、确认,和其他消息收发服务以及提供为那些本领域技术人员所知的众多的其他财务相关的功能。
根据示例性实施例,当接收到由其他用户创建的主屏幕数据时,用户终端装置100可接收和使用各种数据,诸如与对象匹配的应用、附加的数据和动画信息。在该情况下,可以以一个总打包格式上传或下载主屏幕数据、应用和内容。当已经安装了与对象匹配的应用时,用户终端装置可在不用额外下载的情况下自动地将对象与先前的应用匹配。根据示例性实施例,当不存在用于对象的预先安装的应用时,用户终端装置可显示鼓励下载对应的应用的消息或从服务器自动地下载对应的应用。
另外,用户终端装置可仅仅接收对象信息。在这种情况下,可由用户直接地选择和匹配与每个对象匹配的控制操作。
此外,尽管图45示出通过服务器接收数据的示例性实施例,但用户终端装置可通过直接地与彼此进行通信来发送和接收数据。
例如,当用户在第一用户终端装置100-1中输入共享命令时,控制器130显示使得用户能够选择与其共享数据的另一个用户的屏幕。因此,当选择了另一个用户(例如,具有第二用户终端装置100-2的用户)时,第一用户终端装置100-1向第二用户终端装置100-2发送存储的主屏幕数据。因此,用户终端装置可以以非常便利的方式与他们自己的朋友共享它们自己创建的主屏幕。
图47是根据示例性实施例的服务器的框图。参照图47,服务器4700包括网络通信器4710、服务器控制器4720和数据库4730。
网络通信器4710根据各种通信方法来执行与多个用户终端装置100-1至100-3的通信。
数据库4730存储从用户上传的各种数据。
当通过网络通信器4710上传主屏幕数据或动画数据时,服务器控制器4720将数据记录在数据库4730上。当用户终端装置100通过网络通信器4710访问服务器时,服务器控制器4720可向用户终端装置100提供数据库4730上的记录的数据。
用户终端装置100可在屏幕上显示从服务器4700提供的信息。当用户选择主屏幕数据或动画数据时,用户终端装置100发送关于所选择的数据的下载请求。根据下载请求,服务器控制器4720从数据库4730提取所选择的数据并且将数据发送到用户终端装置100。
总起来说,用户能够根据便利的技术彼此共享由用户创建的主屏幕数据或动画数据。
如上所述,根据各个示例性实施例,用户可根据他的或她的意图和偏好来以各种格式提供动画效果。因此,当使用该用户终端装置时,能够提高用户满意度。
根据上述各个示例性实施例的关于用户终端装置的对象创建方法、主屏幕创建方法、显示方法和控制方法可被编码为软件并且被存储在非暂时性计算机可读记录介质中。可各种装置中提供并使用此类非暂时性计算机可读记录介质。
例如,非暂时性计算机可读记录介质可存储并且提供程序代码来实施包括由用户绘制的一个或更多个对象的主屏幕的显示、当发生预设事件时实施提供关于对象的动画效果的控制操作和当选择了对象时实施与对象匹配的控制操作。另外地,在在上述各个示例性实施例中描述的显示方法、控制方法和微件显示方法可被编码为程序并且被存储在非暂时性计算机可读记录介质中。
根据示例性实施例,术语“非暂时性计算机可读记录介质”指的是半永久性存储数据并且能够由装置读取的介质。具体地,可在诸如CD、DVD、硬盘、蓝光盘、USB、存储卡或ROM的非暂时性计算机可读记录介质中存储和提供上述各种应用或程序。
此外,前述示例性实施例和优点仅是示例性的并且将不被理解为限制示例性实施例。本教导可被容易地应用于其它类型的设备。此外,本发明构思的示例性实施例的描述意图是示意性的而非限制权利要求的范围。
Claims (13)
1.一种用户终端装置,包括:
显示器;
输入装置,被配置为接收绘制操纵以创建与应用有关的第一图像和多个第二图像;
控制器,被配置为:在显示器上显示第一图像,当感测到对第一图像的悬浮操纵时,连续地显示所述多个第二图像,当感测到对第一图像的触摸操纵时,执行所述应用。
2.根据权利要求1所述的用户终端装置,其中,所述多个第二图像包括用户为了表现动画效果所绘制的多个关键帧。
3.根据权利要求1所述的用户终端装置,其中,当感测到对第一图像的悬浮操纵时,控制器根据由用户确立的显示顺序来连续地显示所述多个第二图像。
4.根据权利要求1所述的用户终端装置,其中,控制器在连续地显示所述多个第二图像的同时显示所述应用的名称。
5.一种用户终端装置,包括:
显示器,被配置为显示包括图像绘制的屏幕;
传感器,被配置为感测用户操纵;
控制器,被配置为当发生预设事件时提供关于图像绘制的动画效果,以及当通过用户操纵选择了图像绘制时执行与图像绘制匹配的控制操作。
6.一种用户终端装置,包括:
显示器,被配置为显示包括对象的屏幕;
传感器,被配置为感测针对对象的触摸;
控制器,被配置为:当对象被触摸时提供关于对象的第一动画效果,当对于对象的触摸停止时提供第二动画效果,以及执行与对象匹配的控制操作。
7.根据权利要求6所述的用户终端装置,其中,第一动画效果和第二动画效果包括连续地显示由用户绘制的多个关键帧的效果或根据由用户确立的动画顺序来显示多个图像的效果。
8.一种用户终端装置,包括:
显示器,被配置为显示微件;
传感器,被配置为感测绘制操纵;
接收器,被配置为接收情形信息;
存储器,被配置为存储通过绘制操纵创建的多个对象;
控制器,被配置为通过根据接收的情形信息将所述多个对象的若干部分进行组合来更新微件。
9.根据权利要求8所述的用户终端装置,其中,所述多个对象包括符号、数字和字符,
微件是包括天气、日期和时间的统一微件,并且
控制器通过基于当前时间、天气和日期信息中的一个或更多个将符号、数字和字符中的一个或更多个进行组合来创建所述统一微件。
10.一种由用户终端装置执行的显示方法,所述显示方法包括:
接收传入的绘制操纵以创建与应用有关的第一图像并创建多个第二图像;
显示第一图像;
当感测到对第一图像的悬浮操纵时,连续地显示所述多个第二图像;
当感测到对第一图像的触摸操纵时,执行所述应用。
11.根据权利要求10所述的显示方法,其中,所述多个第二图像包括用户为了表现动画效果所绘制的多个关键帧。
12.根据权利要求10所述的显示方法,其中,所述多个第二图像根据由用户确立的显示顺序被连续地显示。
13.根据权利要求10所述的显示方法,还包括:
将所述应用的名称连同所述多个第二图像一起显示。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2013-0046984 | 2013-04-26 | ||
KR20130046984 | 2013-04-26 | ||
KR10-2013-0119081 | 2013-10-07 | ||
KR1020130119081A KR102109054B1 (ko) | 2013-04-26 | 2013-10-07 | 애니메이션 효과를 제공하는 사용자 단말 장치 및 그 디스플레이 방법 |
PCT/KR2014/003685 WO2014175703A1 (en) | 2013-04-26 | 2014-04-25 | User terminal device for providing animation effect and display method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105378637A true CN105378637A (zh) | 2016-03-02 |
CN105378637B CN105378637B (zh) | 2019-08-23 |
Family
ID=52452143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480023674.1A Active CN105378637B (zh) | 2013-04-26 | 2014-04-25 | 用于提供动画效果的用户终端装置及其显示方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9741149B2 (zh) |
EP (1) | EP2989533A4 (zh) |
KR (1) | KR102109054B1 (zh) |
CN (1) | CN105378637B (zh) |
WO (1) | WO2014175703A1 (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106385591A (zh) * | 2016-10-17 | 2017-02-08 | 腾讯科技(上海)有限公司 | 视频处理方法及视频处理装置 |
CN106598228A (zh) * | 2016-11-23 | 2017-04-26 | 南昌世弘高科技有限公司 | Vr环境下的物体视觉定位操控技术 |
CN106648347A (zh) * | 2016-09-14 | 2017-05-10 | 上海石肤网络科技有限公司深圳分公司 | 一种用于在触摸终端上触控操作移动目标对象的方法 |
CN106990892A (zh) * | 2017-03-03 | 2017-07-28 | 惠州Tcl移动通信有限公司 | 一种图片动态显示的方法及系统 |
CN107885553A (zh) * | 2017-11-30 | 2018-04-06 | 北京小米移动软件有限公司 | 动画加载方法、装置及电子设备 |
CN108073649A (zh) * | 2016-11-15 | 2018-05-25 | 北京搜狗科技发展有限公司 | 一种信息处理方法和装置、一种用于信息处理的装置 |
CN108563385A (zh) * | 2018-04-19 | 2018-09-21 | 成都像素星空科技有限公司 | 一种内容显示方法及装置、动态内容制作方法及装置 |
CN110908568A (zh) * | 2018-09-18 | 2020-03-24 | 网易(杭州)网络有限公司 | 一种虚拟对象的控制方法和装置 |
CN111381916A (zh) * | 2018-12-29 | 2020-07-07 | 广州市百果园信息技术有限公司 | 按钮遮罩方法、装置、介质及计算机设备 |
CN112153269A (zh) * | 2019-06-27 | 2020-12-29 | 京东方科技集团股份有限公司 | 应用于电子设备的图片显示方法、装置、介质与电子设备 |
CN114327204A (zh) * | 2021-12-30 | 2022-04-12 | 北京达佳互联信息技术有限公司 | 信息显示方法、装置、设备及存储介质 |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10156455B2 (en) | 2012-06-05 | 2018-12-18 | Apple Inc. | Context-aware voice guidance |
US9886794B2 (en) | 2012-06-05 | 2018-02-06 | Apple Inc. | Problem reporting in maps |
US9052197B2 (en) | 2012-06-05 | 2015-06-09 | Apple Inc. | Providing navigation instructions while device is in locked mode |
US9418672B2 (en) | 2012-06-05 | 2016-08-16 | Apple Inc. | Navigation application with adaptive instruction text |
US9482296B2 (en) | 2012-06-05 | 2016-11-01 | Apple Inc. | Rendering road signs during navigation |
US9147286B2 (en) * | 2012-06-06 | 2015-09-29 | Apple Inc. | Non-static 3D map views |
JP6361146B2 (ja) * | 2013-05-09 | 2018-07-25 | 株式会社リコー | 表示制御プログラム、表示制御方法および表示制御装置、ならびに、表示システム |
KR20150031629A (ko) * | 2013-09-16 | 2015-03-25 | 삼성전자주식회사 | 터치 입력이 가능한 디스플레이 장치 및 그 터치 입력 방법 |
WO2016003233A1 (ko) * | 2014-07-03 | 2016-01-07 | 원은욱 | 캘린더의 제어 방법 및 이 방법을 수행하기 위한 프로그램을 기록한 기록매체 |
KR101609280B1 (ko) * | 2014-10-01 | 2016-04-05 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
USD774094S1 (en) * | 2014-12-30 | 2016-12-13 | Microsoft Corporation | Display screen with icon |
US9946436B2 (en) | 2015-02-27 | 2018-04-17 | Appelago Inc. | Interactive dynamic push notifications |
JP6558006B2 (ja) * | 2015-03-20 | 2019-08-14 | 株式会社リコー | 画像管理装置、画像管理方法、画像管理プログラムおよび表示システム |
CN105068749B (zh) * | 2015-08-13 | 2018-03-06 | 广东欧珀移动通信有限公司 | 一种快速绘制圆形轨迹的方法及系统 |
US20170053457A1 (en) * | 2015-08-20 | 2017-02-23 | Angle Technologies, Inc. | Automatic logic application based upon user input shapes |
US10521070B2 (en) * | 2015-10-23 | 2019-12-31 | Oath Inc. | Method to automatically update a homescreen |
CN105630912A (zh) * | 2015-12-21 | 2016-06-01 | 北京中网易企秀科技有限公司 | 展示物料制作装置及方法 |
US20170236318A1 (en) * | 2016-02-15 | 2017-08-17 | Microsoft Technology Licensing, Llc | Animated Digital Ink |
US10593116B2 (en) | 2016-10-24 | 2020-03-17 | Snap Inc. | Augmented reality object manipulation |
TW201826204A (zh) * | 2016-10-31 | 2018-07-16 | 南韓商網石遊戲股份有限公司 | 產生動畫資訊的方法、於使用者終端顯示動畫的方法、應用程式及系統 |
US10582264B2 (en) * | 2017-01-18 | 2020-03-03 | Sony Corporation | Display expansion from featured applications section of android TV or other mosaic tiled menu |
CN106888320A (zh) * | 2017-01-22 | 2017-06-23 | 维沃移动通信有限公司 | 一种以动画形式显示天气信息的方法及移动终端 |
CN108459833B (zh) * | 2017-02-17 | 2021-10-01 | 北京京东尚科信息技术有限公司 | 用于显示文本的方法、系统和装置 |
CN107463331B (zh) * | 2017-08-15 | 2020-08-07 | 上海闻泰电子科技有限公司 | 手势轨迹模拟方法、装置及电子设备 |
KR20190081561A (ko) * | 2017-12-29 | 2019-07-09 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US20190213269A1 (en) * | 2018-01-10 | 2019-07-11 | Amojee, Inc. | Interactive animated gifs and other interactive images |
CN111899192B (zh) | 2020-07-23 | 2022-02-01 | 北京字节跳动网络技术有限公司 | 交互方法、装置、电子设备及计算机可读存储介质 |
CN111813491B (zh) * | 2020-08-19 | 2020-12-18 | 广州汽车集团股份有限公司 | 一种车载助手的拟人化交互方法、装置及汽车 |
CN111921194A (zh) | 2020-08-26 | 2020-11-13 | 腾讯科技(深圳)有限公司 | 虚拟环境画面的显示方法、装置、设备及存储介质 |
CN112256176B (zh) * | 2020-10-23 | 2022-04-05 | 北京字节跳动网络技术有限公司 | 文字显示方法、装置、电子设备以及计算机可读存储介质 |
US11276221B1 (en) * | 2021-01-27 | 2022-03-15 | International Business Machines Corporation | Creating an animated pictogram |
CN113163135B (zh) * | 2021-04-25 | 2022-12-16 | 北京字跳网络技术有限公司 | 视频的动画添加方法、装置、设备及介质 |
US11914668B2 (en) * | 2022-01-04 | 2024-02-27 | Truist Bank | Loading animation with shape that grows from within from central point |
US11954289B2 (en) * | 2022-03-04 | 2024-04-09 | Humane, Inc. | Laser projected virtual interface |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050235208A1 (en) * | 2004-04-15 | 2005-10-20 | Udo Arend | User interface for a guided activity window |
US20070261003A1 (en) * | 2006-05-08 | 2007-11-08 | Combots Product Gmbh | Method and device for providing a selection menu allocated to a displayed symbol |
US20090089710A1 (en) * | 2007-10-01 | 2009-04-02 | Justin Wood | Processing an animation file to provide an animated icon |
US20090089372A1 (en) * | 2007-09-28 | 2009-04-02 | Nathan Sacco | System and method for creating topic neighborhoods in a networked system |
US20090201297A1 (en) * | 2008-02-07 | 2009-08-13 | Johansson Carolina S M | Electronic device with animated character and method |
US20100164877A1 (en) * | 2008-12-30 | 2010-07-01 | Kun Yu | Method, apparatus and computer program product for providing a personalizable user interface |
US20120185789A1 (en) * | 2011-01-14 | 2012-07-19 | Apple Inc. | Target Region for Removing Icons from Dock |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5799181A (en) * | 1995-04-07 | 1998-08-25 | Sofmap Future Design, Inc. | Bossless architecture and digital cell technology for computer programs |
GB2365676B (en) | 2000-02-18 | 2004-06-23 | Sensei Ltd | Mobile telephone with improved man-machine interface |
US8527896B2 (en) * | 2003-10-23 | 2013-09-03 | Microsoft Corporation | User interface menu with hovering icons |
KR100715219B1 (ko) | 2005-08-17 | 2007-05-08 | 엘지전자 주식회사 | 애니메이션 아이콘을 이용하여 수신메시지를 식별하는모듈과 이를 구비한 이동통신단말기 및 그 표시방법 |
KR101188083B1 (ko) | 2006-05-24 | 2012-10-05 | 삼성전자주식회사 | 비주얼 효과가 부여된 대기 화면 계층 제공 방법 및 그에따른 대기 화면 제공 방법 |
KR100793307B1 (ko) | 2006-09-25 | 2008-01-11 | 삼성전자주식회사 | 이동통신 단말기 및 그의 대기 화면 제공 방법 |
EP1947562A3 (en) * | 2007-01-19 | 2013-04-03 | LG Electronics Inc. | Inputting information through touch input device |
US8253745B1 (en) | 2008-03-18 | 2012-08-28 | Pixar | Systems and methods for creating and using modeless animation manipulation rigs |
JP4636131B2 (ja) | 2008-07-04 | 2011-02-23 | ソニー株式会社 | 情報提供装置、情報提供方法、およびプログラム |
KR101588733B1 (ko) * | 2009-07-21 | 2016-01-26 | 엘지전자 주식회사 | 이동 단말기 |
US8451277B2 (en) | 2009-07-24 | 2013-05-28 | Disney Enterprises, Inc. | Tight inbetweening |
US8654143B2 (en) * | 2009-09-30 | 2014-02-18 | Adobe Systems Incorporated | System and method for non-uniform loading of digital paint brushes |
US8861017B2 (en) * | 2009-11-20 | 2014-10-14 | Hewlett-Packard Development Company, L.P. | Web widget fir formatting web content |
US20120306890A1 (en) | 2011-06-05 | 2012-12-06 | Shaffer Joshua H | Device and Method for Dynamically Rendering an Animation |
US8812980B2 (en) | 2011-08-26 | 2014-08-19 | Microsoft Corporation | Objectizing and animating images |
US9448633B2 (en) | 2011-10-01 | 2016-09-20 | Oracle International Corporation | Moving a display object within a display frame using a discrete gesture |
-
2013
- 2013-10-07 KR KR1020130119081A patent/KR102109054B1/ko active IP Right Grant
-
2014
- 2014-04-24 US US14/261,023 patent/US9741149B2/en active Active
- 2014-04-25 CN CN201480023674.1A patent/CN105378637B/zh active Active
- 2014-04-25 WO PCT/KR2014/003685 patent/WO2014175703A1/en active Application Filing
- 2014-04-25 EP EP14787949.8A patent/EP2989533A4/en not_active Ceased
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050235208A1 (en) * | 2004-04-15 | 2005-10-20 | Udo Arend | User interface for a guided activity window |
US20070261003A1 (en) * | 2006-05-08 | 2007-11-08 | Combots Product Gmbh | Method and device for providing a selection menu allocated to a displayed symbol |
US20090089372A1 (en) * | 2007-09-28 | 2009-04-02 | Nathan Sacco | System and method for creating topic neighborhoods in a networked system |
US20090089710A1 (en) * | 2007-10-01 | 2009-04-02 | Justin Wood | Processing an animation file to provide an animated icon |
US20090201297A1 (en) * | 2008-02-07 | 2009-08-13 | Johansson Carolina S M | Electronic device with animated character and method |
US20100164877A1 (en) * | 2008-12-30 | 2010-07-01 | Kun Yu | Method, apparatus and computer program product for providing a personalizable user interface |
US20120185789A1 (en) * | 2011-01-14 | 2012-07-19 | Apple Inc. | Target Region for Removing Icons from Dock |
Non-Patent Citations (1)
Title |
---|
THORNE M ET AL: "《Motion doodles: an interface for sketching character motion》", 《ACM TRANSACTIONS ON GRAPHICS (TOG). ACM》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106648347A (zh) * | 2016-09-14 | 2017-05-10 | 上海石肤网络科技有限公司深圳分公司 | 一种用于在触摸终端上触控操作移动目标对象的方法 |
CN106385591A (zh) * | 2016-10-17 | 2017-02-08 | 腾讯科技(上海)有限公司 | 视频处理方法及视频处理装置 |
CN108073649B (zh) * | 2016-11-15 | 2022-02-25 | 北京搜狗科技发展有限公司 | 一种信息处理方法和装置、一种用于信息处理的装置 |
CN108073649A (zh) * | 2016-11-15 | 2018-05-25 | 北京搜狗科技发展有限公司 | 一种信息处理方法和装置、一种用于信息处理的装置 |
CN106598228A (zh) * | 2016-11-23 | 2017-04-26 | 南昌世弘高科技有限公司 | Vr环境下的物体视觉定位操控技术 |
CN106598228B (zh) * | 2016-11-23 | 2019-01-18 | 南昌世弘高科技有限公司 | Vr环境下的物体视觉定位操控方法 |
CN106990892A (zh) * | 2017-03-03 | 2017-07-28 | 惠州Tcl移动通信有限公司 | 一种图片动态显示的方法及系统 |
CN107885553A (zh) * | 2017-11-30 | 2018-04-06 | 北京小米移动软件有限公司 | 动画加载方法、装置及电子设备 |
CN108563385A (zh) * | 2018-04-19 | 2018-09-21 | 成都像素星空科技有限公司 | 一种内容显示方法及装置、动态内容制作方法及装置 |
CN110908568A (zh) * | 2018-09-18 | 2020-03-24 | 网易(杭州)网络有限公司 | 一种虚拟对象的控制方法和装置 |
CN111381916A (zh) * | 2018-12-29 | 2020-07-07 | 广州市百果园信息技术有限公司 | 按钮遮罩方法、装置、介质及计算机设备 |
CN112153269A (zh) * | 2019-06-27 | 2020-12-29 | 京东方科技集团股份有限公司 | 应用于电子设备的图片显示方法、装置、介质与电子设备 |
CN112153269B (zh) * | 2019-06-27 | 2022-04-29 | 京东方科技集团股份有限公司 | 应用于电子设备的图片显示方法、装置、介质与电子设备 |
CN114327204A (zh) * | 2021-12-30 | 2022-04-12 | 北京达佳互联信息技术有限公司 | 信息显示方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP2989533A1 (en) | 2016-03-02 |
CN105378637B (zh) | 2019-08-23 |
KR20140128210A (ko) | 2014-11-05 |
EP2989533A4 (en) | 2017-02-08 |
US20140320507A1 (en) | 2014-10-30 |
KR102109054B1 (ko) | 2020-05-28 |
US9741149B2 (en) | 2017-08-22 |
WO2014175703A1 (en) | 2014-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105378637B (zh) | 用于提供动画效果的用户终端装置及其显示方法 | |
EP2989534B1 (en) | User terminal device and display method thereof | |
US10289376B2 (en) | Method for displaying virtual object in plural electronic devices and electronic device supporting the method | |
EP3159784B1 (en) | Electronic device having bent display and control method thereof | |
EP2981104B1 (en) | Apparatus and method for providing information | |
US20170011557A1 (en) | Method for providing augmented reality and virtual reality and electronic device using the same | |
KR102660859B1 (ko) | 전자 장치, 웨어러블 장치 및 전자 장치의 표시 객체 제어 방법 | |
KR102411890B1 (ko) | 컨텐츠를 처리하는 방법 및 이를 위한 전자 장치 | |
EP3299934A1 (en) | Systems and methods for improved data integration in virtual reality architectures | |
CN105229590A (zh) | 具有笔的用户终端装置和用户终端装置的控制方法 | |
CN108351892B (zh) | 用于提供对象推荐的电子装置和方法 | |
CN106055218A (zh) | 显示装置及其控制方法 | |
KR20180013169A (ko) | 콘텐츠 표시 방법 및 이를 사용하는 전자 장치 | |
KR102521214B1 (ko) | 사용자 인터페이스를 표시하는 방법 및 이를 지원하는 전자 장치 | |
KR20160071133A (ko) | 오브젝트와 관련된 서비스를 제공하는 방법 및 이를 위한 전자 장치 | |
KR20160113835A (ko) | 보호 커버 | |
KR20160034135A (ko) | 터치 입력을 처리하는 전자 장치 및 방법 | |
CN106445373B (zh) | 用于处理用户输入的方法和电子设备 | |
KR102351317B1 (ko) | 전자문서 표시 방법 및 전자 장치 | |
EP3411783B1 (en) | Electronic device and method for controlling the same | |
CN105635434A (zh) | 移动终端及其控制方法 | |
US10649640B2 (en) | Personalizing perceivability settings of graphical user interfaces of computers | |
CN107924276B (zh) | 电子设备及其文本输入方法 | |
KR20160112217A (ko) | 전자 장치 및 전자 장치에서의 정보 처리 방법 | |
McGrath | Windows 10 in easy steps–Special Edition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |