CN107066099A - 一种智能穿戴设备的表情控制方法及装置 - Google Patents

一种智能穿戴设备的表情控制方法及装置 Download PDF

Info

Publication number
CN107066099A
CN107066099A CN201710256738.8A CN201710256738A CN107066099A CN 107066099 A CN107066099 A CN 107066099A CN 201710256738 A CN201710256738 A CN 201710256738A CN 107066099 A CN107066099 A CN 107066099A
Authority
CN
China
Prior art keywords
expression
information
intelligent worn
worn device
default
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710256738.8A
Other languages
English (en)
Inventor
郑战海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Genius Technology Co Ltd
Original Assignee
Guangdong Genius Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Genius Technology Co Ltd filed Critical Guangdong Genius Technology Co Ltd
Priority to CN201710256738.8A priority Critical patent/CN107066099A/zh
Publication of CN107066099A publication Critical patent/CN107066099A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例公开了一种智能穿戴设备的表情控制方法及装置。所述方法包括:获取智能穿戴设备的表情信息后,检测所述智能穿戴设备的运动状态信息,所述运动状态信息包括运动类型和运动次数;根据所述运动状态信息确定对应的表情动态调整信息,所述表情动态调整信息包括表情调整范围、表情调整参数和/或表情调整方式;根据所述表情动态调整信息控制所述表情信息的动态效果。通过采用上述技术方案,智能穿戴设备的使用者在发送表情的过程中,无需手动选择要发送的表情,使用者通过体感动作即可获取到对应的表情动态调整信息,进而控制表情信息的动态效果,使得表情内容更加丰富多彩,进而提升智能设备与用户的交互体验。

Description

一种智能穿戴设备的表情控制方法及装置
技术领域
本发明实施例涉及通信技术领域,尤其涉及一种智能穿戴设备的表情控制方法及装置。
背景技术
随着计算机技术和穿戴式设备的发展,智能手表领域呈现出欣欣向荣的趋势,可以预见的是,以智能手表为代表的穿戴式设备将在未来很大程度上将改变人们的生活。
目前,在智能手表与用户交互的过程中,使用表情来进行信息交流越来越普遍,这种方式不仅能快速展示发送方当前的心情及情绪,而且也能使接收方生动、形象地接收到发送方的信息,从而有利于展示社交双方最真实的情感表达。
然而,受限于智能手表屏幕的大小,在智能手表中无法查找很多表情。同时由于智能手表的存储空间有限,在智能手表中也无法保存较多表情。因此,在发送表情时,用户常常无法得到自己想要的表情,并且选择表情时也需要用眼去查看,然后再手动进行点击选择的方式,费时费力,用户体验性较差。
发明内容
为解决相关技术问题,本发明提供一种智能穿戴设备的表情控制方法及装置,通过检测到的智能穿戴设备的运动状态信息,确定对应的表情动态调整信息,并对智能穿戴设备获取的表情信息的动态效果进行控制,使得表情可以呈现更多丰富多彩的内容,提升用户体验。
为实现上述目的,本发明实施例采用如下技术方案:
第一方面,本发明实施例提供了一种智能穿戴设备的表情控制方法,所述方法包括:
获取智能穿戴设备的表情信息后,检测所述智能穿戴设备的运动状态信息,所述运动状态信息包括运动类型和运动次数;
根据所述运动状态信息确定对应的表情动态调整信息,所述表情动态调整信息包括表情调整范围、表情调整参数和/或表情调整方式;
根据所述表情动态调整信息控制所述表情信息的动态效果。
第二方面,本发明实施例提供了一种智能穿戴设备的表情控制装置,所述装置包括:
运动状态信息检测模块,用于获取智能穿戴设备的表情信息后,检测所述智能穿戴设备的运动状态信息,所述运动状态信息包括运动类型和运动次数;
表情调整信息确定模块,用于根据所述运动状态信息确定对应的表情动态调整信息,所述表情动态调整信息包括表情调整范围、表情调整参数和/或表情调整方式;
动态效果控制模块,用于根据所述表情动态调整信息控制所述表情信息的动态效果。
本发明实施例的技术方案中,在获取智能穿戴设备的表情信息后,通过检测智能穿戴设备的运动状态信息,可根据所述运动状态信息确定对应的表情动态调整信息。其中,智能穿戴设备的运动状态信息是触发表情动态调整的基础。所述表情动态调整信息是进行动态表情调整的依据,根据所述表情动态调整信息可以控制所述表情信息的动态效果。通过采用上述技术方案,可以为输入到智能穿戴设备的表情信息添加动态效果,智能穿戴设备的使用者在选择表情的过程中,相对于现有技术提供的表情选择方式,本方案提供的表情控制方法无需手动选择表情,使用者通过体感动作即可获取到对应的表情动态调整信息,进而控制表情信息的动态效果,使得表情内容更加丰富多彩,进而提升智能设备与用户的交互体验。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对本发明实施例描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据本发明实施例的内容和这些附图获得其他的附图。
图1为本发明实施例一提供的一种智能穿戴设备的表情控制方法的流程示意图;
图2为本发明实施例二提供的一种智能穿戴设备的表情控制方法的流程示意图;
图3为本发明实施例三提供的一种智能穿戴设备的表情控制装置的结构框图。
具体实施方式
为使本发明解决的技术问题、采用的技术方案和达到的技术效果更加清楚,下面将结合附图对本发明实施例的技术方案作进一步的详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
图1为本发明实施例一提供的一种智能穿戴设备的表情控制方法的流程示意图。本实施例的方法可以智能穿戴设备的表情控制装置来执行,其中该装置可由软件和/或硬件实现,一般可集成在智能手表等电子设备中。如图1所述,该方法可以包括如下步骤:
S110:获取智能穿戴设备的表情信息后,检测所述智能穿戴设备的运动状态信息,所述运动状态信息包括运动类型和运动次数。
其中,所述智能穿戴设备优选为智能手表,还可以为手机等智能电子设备。
示例性的所述智能穿戴设备的表情信息包括:所述智能穿戴设备的使用者输入或者绘制的文字、图片,和/或在所述智能穿戴设备中预存的文字、图片。
其中,使用者在智能穿戴设备中绘制的文字、图片信息可以作为输入到智能穿戴设备中的手绘表情信息,该手绘表情可以由简单的笔画构成,例如简单三笔可勾勒出两个眼睛和一个嘴巴作为人脸表情。对于配戴智能手表的儿童而言,可将儿童输入的简单的文字,例如“一”、“大”或“小”等看作简笔画作为输入的文字。示例性的,在智能穿戴设备中预存的文字、图片可以为智能穿戴设备在出厂前预先存储的文字、图片,即系统默认的表情,也可以为用户根据自身需求保存的文字和图片。
示例性的,智能穿戴设备的运动状态信息可以通过智能穿戴设备中的运动传感器(如六轴传感器)进行检测,通过运动状态信息可以反映出智能穿戴设备使用者的体感运动情况。其中,智能穿戴设备的运动状态信息包括运动类型和运动次数,示例性的,运动类型可以为上下左右摆动,也可以为智能穿戴设备使用者做一些特定的动作,比如画圆或画三角形等。通过检测智能穿戴设备的运动状态信息,可以确定与运动状态信息对应的表情的动态调整信息。
S120:根据运动状态信息确定对应的表情动态调整信息,所述表情动态调整信息包括表情调整范围、表情调整参数和/或表情调整方式。
示例性的,不同的运动状态信息对应不同的表情动态调整信息。其中,运动状态信息与表情动态调整信息的对应关系可以根据智能穿戴设备使用者的自身需求(例如需要展现的表情效果)自行设置。示例性的,也可以通过与智能穿戴设备存在通信关系的其他智能设备(例如手机)进行设置。
示例性的,所述表情调整范围包括表情中的区域和/或表情中的笔画;所述表情调整参数包括:所述表情移动的速度和方向、所述表情的大小或颜色、和/或音效;所述表情调整方式包括:切换、跳跃、旋转和/或缩放。
示例性的,表情所在区域可以整体按照预设方向以预设速度移动、旋转和/或缩放,或者表情中的部分笔画也得到调整(添加动态效果),例如,部分笔画的字体变粗或者颜色发生变化从而达到颜色渐变的效果。可选的,在调整表情动态效果的同时,可以为表情添加特定的音效,以增强表情的动态特效。
具体的,若运动状态信息为智能穿戴设备使用者按照圆形方向转动1周,则对应的表情动态调整信息为所述表情以其重心位置为基准旋转一周;若所述智能穿戴设备的运动状态为上下来回摆动三次,则对应的表情动态调整信息为所述表情按照预设运动速度上下来回摆动三次。通过上述表情调整信息的设置,可以使得静态的表情呈现动态的效果,提升用户与智能穿戴设备的交互体验。
S130:根据表情动态调整信息控制表情信息的动态效果。
示例性的,运动状态信息是触发表情动态调整的基础,而表情动态调整信息则是控制表情信息的动态效果的依据。智能穿戴设备中的运动传感器可通过使用者不同的体感动作检测到不同的运动状态信息,由于不同的运动状态信息对应不同的表情动态调整信息,则根据不同的表情动态调整信息可控制表情信息的不同动态效果,使展现的表情具有多样性,内容丰富多彩。
本发明实施例提供了一种智能穿戴设备的表情控制方法,在获取智能穿戴设备的表情信息后,通过检测智能穿戴设备的运动状态信息,可根据所述运动状态信息确定对应的表情动态调整信息。其中,智能穿戴设备的运动状态信息是触发表情动态调整的基础,所述运动状态信息包括运动类型和运动次数。所述表情动态调整信息是进行动态表情调整的依据,根据所述表情动态调整信息可以控制所述表情信息的动态效果。通过采用上述技术方案,可以为输入到智能穿戴设备的表情信息添加动态效果,智能穿戴设备的使用者在选择表情的过程中,相对于现有技术提供的表情选择方式,本方案提供的表情控制方法无需手动选择表情,使用者通过体感动作即可获取到对应的表情动态调整信息,进而控制表情信息的动态效果,使得表情内容更加丰富多彩,进而提升智能设备与用户的交互体验。
实施例二
图2为本发明实施例二提供的一种智能穿戴设备的表情控制方法的流程示意图。本实施例二在实施例一的基础上,对步骤“根据运动状态信息确定对应的表情动态调整信息”进行了优化,参照图2,本发明实施例二具体包括如下步骤:
S210:获取智能穿戴设备的表情信息后,检测所述智能穿戴设备的运动状态信息,所述运动状态信息包括运动类型和运动次数。
S220:根据所述智能穿戴设备的运动状态信息,查找与所述运动状态信息对应的预设表情控制指令,所述预设表情控制指令中至少包含对应的表情动态调整信息。
其中,预设表情控制指令可以为在智能穿戴设备在出厂前默认设置的表情控制指令,也可以为用户通过手机(其存在与智能穿戴设备对应的应用程序)为智能穿戴设备所添加的表情控制指令。示例性的,预设表情控制指令可以作为运动状态信息与表情动态调整信息的中介,通过运动状态信息可查询到对应的预设表情控制指令,在预设表情控制指令中包含有对应的表情动态调整信息。根据运动状态信息与表情动态调整信息的对应关系,用户可根据自身需求(想要表情呈现的动态效果)控制智能穿戴设备按照预定规则运动后,智能穿戴设备可根据其运动状态信息,确定对应的预设表情控制指令。
示例性的,若所述智能穿戴设备的运动状态信息为按照第一预设速度上下反复运动的次数不超过第一预设运动次数时,则对应的所述预设表情控制指令为:控制所述表情信息按照预设运动速度和预设运动方向移动。以智能手表为例,其中,第一预设速度优选为智能手表的使用者的手臂正常摆动的速度范围,第一预设运动次数可设置为5次。相应的,所述表情的预设运动方向与智能手表的运动方向相对应,也为上下移动,其预设运动速度为每秒来回运动3次(呈现“跳跃”的效果)。这样设置的好处在于:可以为表情添加上下跳跃的动态效果,使得静止的表情具有丰富多彩的内容。
示例性的,可根据用户的需求设置各种各样的预设表情控制指令,例如若检测到智能穿戴设备在预设圆形范围内,按照顺时针或逆时针方向运动一周时,则可设置对应的表情以其重心为基准,按照对应的方向旋转3-5周,进而赋予表情“晕”的效果。或者,在智能穿戴设备获取到表情信息后,可设置对应的表情放大、缩小或颜色变化(例如按照预设颜色的变化次序依次渐变);或者也可设置表情的局部发生变化,例如对于智能手表使用者在其屏幕上输入的三笔(两个眼睛一个嘴巴)勾勒出的表情,若书写时这三笔中的某一笔超出预先设定的笔画书写范围,则可以将超出书写范围的该笔画赋予动态的效果(例如,字体变粗),而其他笔画仍然保持静止。这样设置可以使得该笔画的显示更加突出。
进一步的,上述为表情所添加的动态效果可以根据对应的表情控制指令依次切换,也可以根据预先设定的表情控制指令同步进行显示,例如,在获取到上述表情控制指令后,表情既可以呈现上下漂移的效果,同时表情的颜色也可以按照预设次序依次切换。这样设置可以使得表情同时呈现出多个动态效果,展现的内容更加丰富多彩。
示例性的,若智能穿戴设备按照第二预设速度左右移动的次数不超过第二预设运动次数时,则确定所述预设表情控制指令为:按照预设调用次序依次调用所述预设表情控制指令,使得所述智能穿戴设备的表情信息的动态效果按照所述预设调用次序依次调整。这样设置的好处在于,可以使得智能穿戴设备获取的表情依次切换出不同的动态效果,进而使得表情具备多样性,在使用表情交流的过程中,表情所呈现的内容更加丰富。进一步的,若使用者想保留表情某一动态效果,则通过点击屏幕即可停止表情的切换。
S230:调用所述预设表情控制指令,控制表情信息的动态效果。
本实施例二在上述实施例的基础上,通过根据智能穿戴设备的运动状态信息,可查找与运动状态信息对应的预设表情控制指令,所述预设表情控制指令中至少包含对应的表情动态调整信息,例如控制表情速度的移动、方向或表情的颜色变化等;通过调用预设表情控制指令,可控制表情信息的动态效果,使得表情呈现出更加丰富多彩的内容,继而提升用户体验。
实施例三
图3为本发明实施例三提供的一种智能穿戴设备的表情控制装置的结构框图。该装置可由软件和/或硬件实现,一般可集成在智能手表等智能穿戴设备中。如图3所示,该装置包括:运动状态信息检测模块310、表情调整信息确定模块320和动态效果控制模块330。其中,
运动状态信息检测模块310,用于获取智能穿戴设备的表情信息后,检测所述智能穿戴设备的运动状态信息,所述运动状态信息包括运动类型和运动次数;表情调整信息确定模块320,用于根据所述运动状态信息确定对应的表情动态调整信息,所述表情动态调整信息包括表情调整范围、表情调整参数和/或表情调整方式;动态效果控制模块330,用于根据所述表情动态调整信息控制所述表情信息的动态效果。
本发明实施例提供了一种智能穿戴设备的表情控制装置,在获取智能穿戴设备的表情信息后,通过检测智能穿戴设备的运动状态信息,可根据所述运动状态信息确定对应的表情动态调整信息。其中,智能穿戴设备的运动状态信息是触发表情动态调整的基础,所述运动状态信息包括运动类型和运动次数。所述表情动态调整信息是进行动态表情调整的依据,根据所述表情动态调整信息可以控制所述表情信息的动态效果。。通过采用上述技术方案,可以为输入到智能穿戴设备的表情信息添加动态效果,智能穿戴设备的使用者在选择表情的过程中,相对于现有技术提供的表情选择方式,本方案提供的表情控制方法无需手动选择表情,使用者通过体感动作即可获取到对应的表情动态调整信息,进而控制表情信息的动态效果,使得表情内容更加丰富多彩,进而提升智能设备与用户的交互体验。
在上述实施例的基础上,所述表情调整信息确定模块320包括:控制指令查找单元,用于根据所述智能穿戴设备的运动状态信息,查找与所述运动状态信息对应的预设表情控制指令,所述预设表情控制指令中至少包含对应的表情动态调整信息;相应的,所述动态效果控制模块330具体用于:调用所述预设表情控制指令,控制所述表情信息的动态效果。
在上述实施例的基础上,所述控制指令查找单元具体用于:若所述智能穿戴设备的运动状态信息为按照第一预设速度上下反复运动的次数不超过第一预设运动次数时,则对应的所述预设表情控制指令为:控制所述表情信息按照预设运动速度和预设运动方向移动;和/或,若智能穿戴设备按照第二预设速度左右移动的次数不超过第二预设运动次数时,则确定所述预设表情控制指令为:按照预设调用次序依次调用所述预设表情控制指令,使得所述智能穿戴设备的表情信息的动态效果按照所述预设调用次序依次调整。
在上述实施例的基础上,所述智能穿戴设备为智能手表;所述表情调整范围包括表情中的区域和/或表情中的笔画;所述表情调整参数包括:所述表情移动的速度和方向、所述表情的大小或颜色、和/或音效;所述表情调整方式包括:切换、跳跃、旋转和/或缩放。
在上述实施例的基础上,所述智能穿戴设备的表情信息包括:所述智能穿戴设备的使用者输入或者绘制的文字、图片,和/或在所述智能穿戴设备中预存的文字、图片。
本发明实施例提供的智能穿戴设备的表情控制装置可执行本发明任意实施例所提供的智能穿戴设备的表情控制方法,具备执行方法相应的功能模块和有益效果。未在上述实施例中详尽描述的技术细节,可参见本发明任意实施例所提供的智能穿戴设备的表情控制方法。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (10)

1.一种智能穿戴设备的表情控制方法,其特征在于,所述方法包括:
获取智能穿戴设备的表情信息后,检测所述智能穿戴设备的运动状态信息,所述运动状态信息包括运动类型和运动次数;
根据所述运动状态信息确定对应的表情动态调整信息,所述表情动态调整信息包括表情调整范围、表情调整参数和/或表情调整方式;
根据所述表情动态调整信息控制所述表情信息的动态效果。
2.根据权利要求1述的方法,其特征在于,根据所述运动状态信息确定对应的表情动态调整信息,包括:
根据所述智能穿戴设备的运动状态信息,查找与所述运动状态信息对应的预设表情控制指令,所述预设表情控制指令中至少包含对应的表情动态调整信息;
相应的,根据所述表情动态调整信息控制所述表情信息的动态效果包括:
调用所述预设表情控制指令,控制所述表情信息的动态效果。
3.根据权利要求2述的方法,其特征在于,根据所述智能穿戴设备的运动状态信息,查找与所述运动状态信息对应的预设表情控制指令,包括:
若所述智能穿戴设备的运动状态信息为按照第一预设速度上下反复运动的次数不超过第一预设运动次数时,则对应的所述预设表情控制指令为:控制所述表情信息按照预设运动速度和预设运动方向移动;和/或,
若智能穿戴设备按照第二预设速度左右移动的次数不超过第二预设运动次数时,则确定所述预设表情控制指令为:按照预设调用次序依次调用所述预设表情控制指令,使得所述智能穿戴设备的表情信息的动态效果按照所述预设调用次序依次调整。
4.根据权利要求1所述的方法,其特征在于,
所述智能穿戴设备为智能手表;
所述表情调整范围包括表情中的区域和/或表情中的笔画;
所述表情调整参数包括:所述表情移动的速度和方向、所述表情的大小或颜色、和/或音效;
所述表情调整方式包括:切换、跳跃、旋转和/或缩放。
5.根据权利要求1述的方法,其特征在于,
所述智能穿戴设备的表情信息包括:所述智能穿戴设备的使用者输入或者绘制的文字、图片,和/或在所述智能穿戴设备中预存的文字、图片。
6.一种智能穿戴设备的表情控制装置,其特征在于,所述装置包括:运动状态信息检测模块,用于获取智能穿戴设备的表情信息后,检测所述智能穿戴设备的运动状态信息,所述运动状态信息包括运动类型和运动次数;
表情调整信息确定模块,用于根据所述运动状态信息确定对应的表情动态调整信息,所述表情动态调整信息包括表情调整范围、表情调整参数和/或表情调整方式;
动态效果控制模块,用于根据所述表情动态调整信息控制所述表情信息的动态效果。
7.根据权利要求6所述的装置,其特征在于,所述表情调整信息确定模块包括:
控制指令查找单元,用于根据所述智能穿戴设备的运动状态信息,查找与所述运动状态信息对应的预设表情控制指令,所述预设表情控制指令中至少包含对应的表情动态调整信息;
相应的,所述动态效果控制模块具体用于:
调用所述预设表情控制指令,控制所述表情信息的动态效果。
8.根据权利要求7所述的装置,其特征在于,所述控制指令查找单元具体用于:
若所述智能穿戴设备的运动状态信息为按照第一预设速度上下反复运动的次数不超过第一预设运动次数时,则对应的所述预设表情控制指令为:控制所述表情信息按照预设运动速度和预设运动方向移动;和/或,
若智能穿戴设备按照第二预设速度左右移动的次数不超过第二预设运动次数时,则确定所述预设表情控制指令为:按照预设调用次序依次调用所述预设表情控制指令,使得所述智能穿戴设备的表情信息的动态效果按照所述预设调用次序依次调整。
9.根据权利要求6所述的装置,其特征在于,
所述智能穿戴设备为智能手表;
所述表情调整范围包括表情中的区域和/或表情中的笔画;
所述表情调整参数包括:所述表情移动的速度和方向、所述表情的大小或颜色、和/或音效;
所述表情调整方式包括:切换、跳跃、旋转和/或缩放。
10.根据权利要求6所述的装置,其特征在于,
所述智能穿戴设备的表情信息包括:所述智能穿戴设备的使用者输入或者绘制的文字、图片,和/或在所述智能穿戴设备中预存的文字、图片。
CN201710256738.8A 2017-04-19 2017-04-19 一种智能穿戴设备的表情控制方法及装置 Pending CN107066099A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710256738.8A CN107066099A (zh) 2017-04-19 2017-04-19 一种智能穿戴设备的表情控制方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710256738.8A CN107066099A (zh) 2017-04-19 2017-04-19 一种智能穿戴设备的表情控制方法及装置

Publications (1)

Publication Number Publication Date
CN107066099A true CN107066099A (zh) 2017-08-18

Family

ID=59600958

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710256738.8A Pending CN107066099A (zh) 2017-04-19 2017-04-19 一种智能穿戴设备的表情控制方法及装置

Country Status (1)

Country Link
CN (1) CN107066099A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109558851A (zh) * 2018-12-04 2019-04-02 广东智媒云图科技股份有限公司 一种基于面部表情的联合作画方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102870081A (zh) * 2012-06-30 2013-01-09 华为技术有限公司 一种表情的动态显示方法和移动终端
CN104834373A (zh) * 2015-04-29 2015-08-12 深圳市金立通信设备有限公司 一种壁纸元素的显示方法
KR20160043557A (ko) * 2014-10-13 2016-04-22 김영진 확대된 서비스를 제공하는 스마트 기기
CN106445299A (zh) * 2016-09-28 2017-02-22 维沃移动通信有限公司 一种控制方法及移动终端

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102870081A (zh) * 2012-06-30 2013-01-09 华为技术有限公司 一种表情的动态显示方法和移动终端
KR20160043557A (ko) * 2014-10-13 2016-04-22 김영진 확대된 서비스를 제공하는 스마트 기기
CN104834373A (zh) * 2015-04-29 2015-08-12 深圳市金立通信设备有限公司 一种壁纸元素的显示方法
CN106445299A (zh) * 2016-09-28 2017-02-22 维沃移动通信有限公司 一种控制方法及移动终端

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109558851A (zh) * 2018-12-04 2019-04-02 广东智媒云图科技股份有限公司 一种基于面部表情的联合作画方法及系统

Similar Documents

Publication Publication Date Title
CN110168618B (zh) 增强现实控制系统和方法
KR102540163B1 (ko) 증강 및 가상 현실 환경들과 상호작용하기 위한 시스템들, 방법들, 및 그래픽 사용자 인터페이스들
JP6960513B2 (ja) クリエイティブカメラ
CN106489112B (zh) 用于利用视觉和/或触觉反馈操纵用户界面对象的设备、方法
CN206193749U (zh) 电子设备
Henrysson et al. Face to face collaborative AR on mobile phones
CN103339592B (zh) 用于提供基于触摸手势启动的多阶段设备转换机制的方法和装置
CN105556431B (zh) 显示器的显示角度的确定
CN110456979A (zh) 用于在背景上显示示能表示的设备、方法和图形用户界面
US20180173404A1 (en) Providing a user experience with virtual reality content and user-selected, real world objects
Lucero et al. NotifEye: using interactive glasses to deal with notifications while walking in public
US20220130089A1 (en) Device, method, and graphical user interface for presenting cgr files
CN108665553A (zh) 一种实现虚拟场景转换的方法及设备
DE202015006066U1 (de) Kleinere Schnittstellen zur Handhabung von Benachrichtigungen
CN106951176A (zh) 电子触摸通信
KR20220119494A (ko) 가상 객체 제어 방법 및 장치, 기기, 컴퓨터 판독 가능 저장 매체
JP5756487B2 (ja) メッセージ閲覧システム、サーバ、端末装置、制御方法およびプログラム
CN104571823A (zh) 一种基于智能电视的非接触式虚拟人机交互方法
CN112416207B (zh) 信息内容显示方法、装置、设备及介质
US20210271881A1 (en) Augmented reality guest recognition systems and methods
CN108196752A (zh) 一种显示方法及终端设备
CN107066099A (zh) 一种智能穿戴设备的表情控制方法及装置
CN112870697B (zh) 基于虚拟关系养成程序的交互方法、装置、设备及介质
JP2023520839A (ja) メッセージ送信方法、メッセージ受信方法、装置、コンピュータデバイス及びコンピュータプログラム
CN117251082A (zh) 基于用户界面的人机交互方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20170818