CN117931333A - 一种表盘界面显示方法及电子设备 - Google Patents
一种表盘界面显示方法及电子设备 Download PDFInfo
- Publication number
- CN117931333A CN117931333A CN202211319648.6A CN202211319648A CN117931333A CN 117931333 A CN117931333 A CN 117931333A CN 202211319648 A CN202211319648 A CN 202211319648A CN 117931333 A CN117931333 A CN 117931333A
- Authority
- CN
- China
- Prior art keywords
- image
- expression
- information
- dial interface
- dynamic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 136
- 230000014509 gene expression Effects 0.000 claims abstract description 486
- 230000000694 effects Effects 0.000 claims abstract description 390
- 238000009877 rendering Methods 0.000 claims abstract description 14
- 230000002452 interceptive effect Effects 0.000 claims description 41
- 230000008859 change Effects 0.000 claims description 32
- 230000033001 locomotion Effects 0.000 claims description 29
- 230000008602 contraction Effects 0.000 claims description 18
- 210000000707 wrist Anatomy 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 9
- 125000004122 cyclic group Chemical group 0.000 claims description 8
- 238000005282 brightening Methods 0.000 claims description 4
- 230000001747 exhibiting effect Effects 0.000 claims 1
- 230000000875 corresponding effect Effects 0.000 description 222
- 238000004891 communication Methods 0.000 description 50
- 230000006854 communication Effects 0.000 description 50
- 230000006870 function Effects 0.000 description 40
- 230000008921 facial expression Effects 0.000 description 37
- 230000008569 process Effects 0.000 description 35
- 239000010410 layer Substances 0.000 description 31
- 238000010586 diagram Methods 0.000 description 28
- 238000007726 management method Methods 0.000 description 21
- 238000012545 processing Methods 0.000 description 17
- 230000004044 response Effects 0.000 description 17
- 230000003993 interaction Effects 0.000 description 13
- 238000010295 mobile communication Methods 0.000 description 12
- 230000005236 sound signal Effects 0.000 description 12
- 230000003068 static effect Effects 0.000 description 11
- 239000000306 component Substances 0.000 description 9
- 210000000887 face Anatomy 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 230000001815 facial effect Effects 0.000 description 7
- 210000003128 head Anatomy 0.000 description 7
- 210000001508 eye Anatomy 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 230000004397 blinking Effects 0.000 description 5
- 230000036541 health Effects 0.000 description 5
- 210000000214 mouth Anatomy 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 210000004709 eyebrow Anatomy 0.000 description 4
- 210000001331 nose Anatomy 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000006698 induction Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 210000000697 sensory organ Anatomy 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/06—Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供一种表盘界面显示方法及电子设备,涉及终端技术领域。本申请实施例提供的电子设备响应于第一触发操作,采集用户的第一表情图像并获取目标图像。之后,电子设备发送图像生成请求至服务器。图像生成请求包括目标图像和第一表情图像的初始表情信息。服务器响应于图像生成请求,生成目标图像对应的动效文件;动效文件包括根据初始表情信息对目标图像进行渲染获得的动效图像。服务器将动效文件发送至可穿戴设备。可穿戴设备检测到第二触发操作后,根据采集到的第二表情图像,显示对应的表盘界面。表盘界面包括与第二表情图像的表情类型匹配的动效图像。实现可穿戴设备表盘界面显示的多样化以及个性化,提高了用户的使用体验。
Description
技术领域
本申请涉及终端技术领域,尤其涉及一种表盘界面显示方法及电子设备。
背景技术
随着人工智能技术的快速发展,人们对生活方式的智能化、功能多样化以及人性化等追求越来越高。智能手表作为一种新型的可穿戴设备,被人们广泛使用。用户可以佩戴智能手表查看或者听取通知消息、提醒消息等,也可以收听音乐、听书等,还可以控制一些智能语音助手等。
通常,智能手表的表盘是电子显示的。用户可以根据自己的使用需求手动设置表盘界面,以切换表盘中显示的内容。其中,用户设置的表盘界面可以包括时间表盘界面、日期表盘界面以及系统背景表盘界面等。表盘界面的样式较为单一,缺乏多样性,用户使用智能手表的体验较差。
发明内容
本申请实施例提供一种表盘界面显示方法及电子设备,可以根据用户对应的特征信息定制智能手表对应的表盘界面,并且在用户使用智能手表时基于用户当前时刻的特征信息呈现对应的表盘界面。用户可以进行个性化的表盘定制,增加用户的使用体验感。
为达到上述目的,本申请的实施例采用如下技术方案:
第一方面,提供了一种表盘界面显示方法,应用于交互系统,交互系统包括可穿戴设备、电子设备和服务器,可穿戴设备用于显示表盘界面,方法包括:电子设备响应于第一触发操作,采集用户的第一表情图像。之后,电子设备获取目标图像。电子设备发送图像生成请求至服务器;图像生成请求包括目标图像和第一表情图像的初始表情信息,初始表情信息用于表征第一表情图像的表情类型。服务器响应于图像生成请求,生成目标图像对应的动效文件;动效文件包括根据初始表情信息对目标图像进行渲染获得的动效图像,动效图像的动态效果与第一表情图像的表情类型匹配。服务器将动效文件发送至可穿戴设备。可穿戴设备检测到第二触发操作后,根据采集到的第二表情图像,显示对应的表盘界面;表盘界面包括与第二表情图像的表情类型匹配的动效图像。
可见,电子设备将用户的第一表情图像和选择的目标图像发送至服务器。服务器生成目标图像对应的动效文件;动效文件中动效图像对应的动态效果与第一表情图像的表情类型匹配。并且服务器将动效文件返回至可穿戴设备。可穿戴设备根据采集的第二表情图像显示表盘界面,表盘界面中的动效图像与第二表情图像的表情类型匹配。本申请可以基于用户的表情定制与目标图像对应的动效图像,并且在用户使用可穿戴设备时可以基于用户当前的表情显示包括动效图像的表盘界面,动效图像与用户当前的表情匹配。增加了用户使用可穿戴设备的趣味性,提高了用户的使用体验。
在第一方面的一种可实现方式中,可穿戴设备检测到第二触发操作后,根据采集到的第二表情图像,显示对应的表盘界面的过程中,包括:可穿戴设备检测到第二触发操作后,采集用户的第二表情图像。之后,可穿戴设备识别第二表情图像的表情类型。并且可穿戴设备根据目标表情信息,显示对应的表盘界面,目标表情信息用于表征第二表情图像的表情类型。
可见,本申请实施例的可穿戴设备在检测到第二触发操作后,通过采集用户的第二表情图像,并根据第二表情图像的目标表情信息,显示对应的表盘界面。其中,目标表情信息用于表征第二表情图像的表情类型。由此,可穿戴设备在显示表盘界面的过程中,可以根据用户当前的表情显示对应的表盘界面。提高了用户与可穿戴设备的交互性以及趣味性,避免了表盘界面样式的单一。
在第一方面的一种可实现方式中,可穿戴设备
在根据采集到的第二表情图像显示表盘界面的过程中,可穿戴设备对比第二表情图像的目标表情信息和动效图像的效果信息,效果信息用于表征动效图像中的表情类型;若第二表情图像的目标表情信息和动效图像的效果信息匹配,则显示包括动效图像的表盘界面。
可见,可穿戴设备在根据采集到的第二表情图像显示表盘界面的过程中,通过对比第二表情图像的目标表情信息和动效图像的效果信息。在第二表情图像的目标表情信息和动效图像的效果信息匹配的情况下,显示包括动效图像的表盘界面。可穿戴设备可以根据目标表情信息显示包括与用户表情匹配的表盘界面,提供给用户个性化的动态表盘界面,进而提升用户的体验感。
在第一方面的一种可实现方式中,方法还包括:若第二表情图像的目标表情信息和动效图像的效果信息不匹配,则显示包括目标图像的表盘界面。
可见,可穿戴设备在根据采集到的第二表情图像显示表盘界面的过程中,如果第二表情图像的目标表情信息和动效图像的效果信息不匹配,可以显示包括目标图像的静态表盘界面。由此,当第二表情图像的目标表情信息和动效图像的效果信息不匹配时,可穿戴设备仍可以显示出包括目标图像的表盘界面。避免出现显示与用户表情不匹配的表盘界面的情况。同时若可穿戴设备未采集到用户的第二表情图像,仍能显示出包括目标图像的表盘界面,进而提升用户的体验感。
在第一方面的一种可实现方式中,目标表情信息和效果信息包括特征点信息,可穿戴设备对比第二表情图像的目标表情信息和动效图像的效果信息,以及显示表盘界面的过程中,包括:可穿戴设备对比目标表情信息的特征点信息和效果信息的特征点信息,特征点信息用于表征表情类型对应的表情特征。进而,若目标表情信息的特征点信息和效果信息的特征点信息匹配,则确定第二表情图像的目标表情信息和动效图像的效果信息匹配,显示包括动效图像的表盘界面。
可见,可以通过对比目标表情信息的特征点信息和效果信息的特征点信息,来确定目标表情信息与效果信息匹配。不同的表情对应的特征点信息是不同的,由此,可穿戴设备可以通过对比目标表情信息的特征点信息和效果信息的特征点信息,来确定预显示的动效图像。动效图像的效果信息与第二表情图像的目标表情信息匹配。进而,显示出与用户表情匹配的表盘界面,提高了用户与可穿戴设备的交互性以及趣味性。
在第一方面的一种可实现方式中,目标表情信息和效果信息包括表情类型标识,可穿戴设备对比第二表情图像的目标表情信息和动效图像的效果信息,以及显示表盘界面的过程中,包括:可穿戴设备对比目标表情信息的表情类型标识和效果信息的表情类型标识。进而,若目标表情信息的表情类型标识和效果信息的表情类型标识匹配,则确定第二表情图像的目标表情信息和动效图像的效果信息匹配,显示包括动效图像的表盘界面。
可见,可以通过对比目标表情信息的表情类型标识和效果信息的表情类型标识,来确定目标表情信息与效果信息匹配。不同的表情对应的表情类型标识是不同的,由此,可穿戴设备可以通过对比目标表情信息的表情类型标识和效果信息的表情类型标识,来确定预显示的动效图像。动效图像的效果信息与第二表情图像的目标表情信息匹配。进而,显示出与用户表情匹配的表盘界面,提高了用户与可穿戴设备的交互性以及趣味性。
在第一方面的一种可实现方式中,第二触发操作包括亮屏操作,亮屏操作包括用户抬起佩戴可穿戴设备的手腕至用户人脸前方,或者,用户抬起佩戴可穿戴设备的手腕且用户低头。
在第一方面的一种可实现方式中,第一触发操作包括用户针对电子设备中预设工作模式的开启操作,预设工作模式用于电子设备设置可穿戴设备对应的包括动效图像的表盘界面。
可见,预设工作模式用于设置可穿戴设备包括动效图像的动态表盘界面。用户可以开启预设工作模式后,进行设置包括动效图像的动态表盘界面。提高了表盘界面样式的丰富性,吸引用户进行个性化的表盘定制。
在第一方面的一种可实现方式中,方法还包括:若可穿戴设备的设备状态处于倾斜状态或旋转状态,则根据可穿戴设备的设备状态,显示对应的表盘界面。
其中,若可穿戴设备处于倾斜状态,则显示具有倾斜动态效果的表盘界面;表盘界面包括目标图像,且目标图像在预设角度内沿水平方向和/或垂直方向呈现倾斜变化。
若可穿戴设备处于旋转状态,则显示具有旋转动态效果的表盘界面;表盘界面包括目标图像,且目标图像沿顺时针或逆时针方向呈现转动变化。
可见,当可穿戴设备的设备状态处于倾斜状态或旋转状态时,可以根据可穿戴设备的设备状态,显示对应的表盘界面。当可穿戴设备处于倾斜状态时,表盘界面显示的目标图像在预设角度内沿水平方向和/或垂直方向呈现倾斜变化。当可穿戴设备处于旋转状态时,表盘界面显示的目标图像沿顺时针或逆时针方向呈现转动变化。本申请实施例提供的可穿戴设备在检测到第二触发操作后,可以根据设备状态显示带有不同动态效果的表盘界面。例如,旋转动态效果和倾斜动态效果。提高了用户与可穿戴设备的交互性以及趣味性,避免了表盘界面样式的单一。
在第一方面的一种可实现方式中,若可穿戴设备的设备状态未处于倾斜状态或旋转状态,则根据采集到的第二表情图像,显示对应的表盘界面,包括:若可穿戴设备的设备状态未处于倾斜状态或旋转状态,则根据采集到的第二表情图像,显示具有叠加动态效果的表盘界面;叠加动态效果包括突出动态效果和与第二表情图像的表情类型匹配的动态效果;表盘界面上的动效图像呈现由展开至收缩以及由收缩至展开的循环变化。
可见,当可穿戴设备的设备状态未处于倾斜状态或旋转状态时,可以根据采集到的第二表情图像,显示具有叠加动态效果的表盘界面。叠加动态效果包括突出动态效果和与第二表情图像的表情类型匹配的动态效果。提高了表盘界面样式的多样性和趣味性,实现个性化的动态表盘界面,进而提升用户的体验感。
在第一方面的一种可实现方式中,根据采集到的第二表情图像,显示对应的表盘界面;表盘界面包括与第二表情图像的表情类型匹配的动效图像,包括:
其中,若可穿戴设备处于倾斜状态,则根据采集到的第二表情图像,显示具有叠加动态效果的表盘界面;叠加动态效果包括倾斜动态效果和与第二表情图像的表情类型匹配的动态效果;表盘界面上的动效图像在预设角度内沿水平方向和/或垂直方向呈现倾斜变化。
若可穿戴设备处于旋转状态,则根据采集到的第二表情图像,显示具有叠加动态效果的表盘界面;叠加动态效果包括旋转动态效果和与第二表情图像的表情类型匹配的动态效果;表盘界面上的动效图像沿顺时针或逆时针方向呈现转动变化。
可见,当可穿戴设备的设备状态处于倾斜状态时,可以根据采集到的第二表情图像,显示具有叠加动态效果的表盘界面。叠加动态效果包括倾斜动态效果和与第二表情图像的表情类型匹配的动态效果。当可穿戴设备的设备状态处于旋转状态时,可以根据采集到的第二表情图像,显示具有叠加动态效果的表盘界面。叠加动态效果包括旋转动态效果和与第二表情图像的表情类型匹配的动态效果。提高了表盘界面样式的多样性和趣味性,实现个性化的动态表盘界面,进而提升用户的体验感。
第二方面,提供了一种表盘界面显示方法,应用于交互系统,交互系统包括可穿戴设备和服务器;方法包括:可穿戴设备响应于第一触发操作,采集用户的第一表情图像。之后,可穿戴设备获取目标图像并发送图像生成请求至服务器;图像生成请求包括目标图像和第一表情图像的初始表情信息,初始表情信息用于表征第一表情图像的表情类型。服务器响应于图像生成请求,生成目标图像对应的动效文件;动效文件包括根据初始表情信息对目标图像进行渲染获得的动效图像,动效图像的动态效果与第一表情图像的表情类型匹配。之后,服务器将动效文件发送至可穿戴设备。可穿戴设备检测到第二触发操作后,根据采集到的第二表情图像,显示对应的表盘界面;表盘界面包括与第二表情图像的表情类型匹配的动效图像。
可见,可穿戴设备可以将用户的第一表情图像和选择的目标图像发送至服务器。服务器生成目标图像对应的动效文件;动效文件中动效图像的动态效果与第一表情图像的表情类型匹配。并且服务器将动效文件返回至可穿戴设备。可穿戴设备根据采集的第二表情图像显示表盘界面,表盘界面中的动效图像与第二表情图像的表情类型匹配。本申请可以基于用户的表情定制与目标图像对应的动效图像,并且在用户使用可穿戴设备时可以基于用户当前的表情显示包括动效图像的表盘界面,动效图像与用户当前的表情匹配。增加了用户使用可穿戴设备的趣味性,提高了用户的使用体验。
第三方面,提供了一种表盘界面显示方法,应用于交互系统,交互系统包括可穿戴设备、电子设备和服务器;方法包括:电子设备响应于第一触发操作,发送图像生成请求至服务器;图像生成请求包括目标图像;之后,服务器响应于图像生成请求,生成目标图像对应的动效文件,动效文件包括根据预设动态信息对目标图像进行渲染获得的动效图像;动效图像的动态效果与动态效果类型匹配,预设动态信息用于表征针对目标图像预设的动态效果类型。服务器将动效文件发送至可穿戴设备。可穿戴设备检测到第二触发操作后,显示对应的表盘界面,表盘界面包括与动态效果类型匹配的动效图像。
可见,可穿戴设备在不设有摄像头的情况下,电子设备发送给服务器的图像生成请求中可以包括预设动态信息和目标图像。服务器根据预设动态信息对目标图像进行渲染,得到与目标图像对应的动效文件。之后,服务器将动效文件发送至可穿戴设备。可穿戴设备检测到第二触发操作后,显示对应的表盘界面,表盘界面包括与动态效果类型匹配的动效图像。由此,本申请可以根据预设动态信息定制可穿戴设备对应的表盘界面,并且在用户使用可穿戴设备时,基于用户的第二触发操作显示对应的动态表盘界面。避免了表盘界面的样式单一,增强多样性以及趣味性。
在第三方面的一种可实现方式中,图像生成请求还包括预设动态信息。电子设备还可以将目标图像和预设动态信息发送给服务器。服务器可以根据电子设备发送的预设动态信息对目标图像进行渲染,便于后续得到与目标图像对应的动效文件。
在第三方面的一种可实现方式中,可穿戴设备检测到第二触发操作后,显示对应的表盘界面的过程中,包括:
可穿戴设备检测到第二触发操作后,根据可穿戴设备的设备状态,显示对应的表盘界面。
其中,可穿戴设备在检测到第二触发操作,第二触发操作包括亮屏操作后,若可穿戴设备处于倾斜状态,则显示具有倾斜动态效果的表盘界面;表盘界面上的动效图像在预设角度内沿水平方向和/或垂直方向呈现倾斜变化。
可穿戴设备在检测到第二触发操作,第二触发操作包括亮屏操作后,若可穿戴设备处于旋转状态,则显示具有旋转动态效果的表盘界面;表盘界面上的动效图像沿顺时针或逆时针方向呈现转动变化。
可穿戴设备在检测到第二触发操作,第二触发操作包括亮屏操作后,若可穿戴设备未处于倾斜状态或旋转状态,则显示具有突出动态效果的表盘界面;表盘界面上的动效图像呈现由展开至收缩以及由收缩至展开的循环变化。
可见,可穿戴设备可以基于用户的第二触发操作以及设备的不同状态,显示具有不同动态效果的表盘界面。提高了表盘界面的多样性以及趣味性,用户可以进行个性化的表盘定制。
在第三方面的一种可实现方式中,动效图像包括前景区域和背景区域,可穿戴设备在显示具有突出动态效果的所述表盘界面的过程中,包括:可穿戴设备显示具有突出动态效果的表盘界面,表盘界面上动效图像的前景区域呈现由展开至收缩以及由收缩至展开的循环变化。
可见,动效图像中可以包括前景区域和背景区域。其中,前景区域包括人像区域,背景区域包括除了人像区域之外的其他区域。可穿戴设备在显示具有突出动态效果的所述表盘界面的过程中,可以使动效图像的前景区域呈现由展开至收缩以及由收缩至展开的循环变化,以及使动效图像的背景区域不呈现变化,以此突出人像区域的动态显示效果。呈现给用户更富有立体感的动效图像,提高用户的使用体验感。
在第三方面的一种可实现方式中,第一触发操作包括用户针对可穿戴设备中预设工作模式的开启操作,预设工作模式用于可穿戴设备设置可穿戴设备对应的包括动效图像的表盘界面。
可见,预设工作模式用于设置可穿戴设备包括动效图像的动态表盘界面。用户可以开启预设工作模式后,进行设置包括动效图像的动态表盘界面。提高了表盘界面样式的丰富性,吸引用户进行个性化的表盘定制。
第四方面,提供了一种交互系统,交互系统包括电子设备、可穿戴设备和服务器;交互系统用于执行如上述第一方面中任一项所述的表盘界面显示方法,或者如上述第三方面中任一项所述的表盘界面显示方法。
第五方面,提供了一种交互系统,交互系统包括可穿戴设备和服务器;交互系统用于执行如上述第二方面中任一项所述的表盘界面显示方法。
第六方面,提供了一种电子设备,电子设备包括存储器、一个或多个处理器;存储器与处理器耦合;其中,存储器中存储有计算机程序代码,计算机程序代码包括计算机指令,当计算机指令被处理器执行时,使得电子设备执行如上述第一方面中任一项所述的表盘界面显示方法,或者如上述第二方面中任一项所述的表盘界面显示方法,或者如上述第三方面中任一项所述的表盘界面显示方法。
第七方面,提供了一种计算机可读存储介质,计算机可读存储介质中存储有指令,当指令在计算机上运行时,使得计算机可以执行如上述第一方面中任一项所述的表盘界面显示方法,或者如上述第二方面中任一项所述的表盘界面显示方法,或者如上述第三方面中任一项所述的表盘界面显示方法。
附图说明
图1为本申请实施例提供的一种设置表盘界面过程的界面示意图;
图2为本申请实施例提供的另一种设置表盘界面过程的界面示意图;
图3为本申请实施例提供的一种交互系统的结构示意图;
图4为本申请实施例提供的一种智能手表的结构示意图;
图5为本申请实施例提供的一种智能手表的硬件结构示意图;
图6为本申请实施例提供的一种智能手表的软件结构示意图;
图7为本申请实施例提供的一种表盘界面显示方法的交互示意图;
图8A为本申请实施例提供的另一种设置表盘界面过程的界面示意图;
图8B为本申请实施例提供的一种识别表情类型过程的界面示意图;
图9为本申请实施例提供的另一种设置表盘界面过程的界面示意图;
图10为本申请实施例提供的一种预览表盘界面的界面示意图;
图11为本申请实施例提供的另一种预览表盘界面的界面示意图;
图12为本申请实施例提供的另一种预览表盘界面的界面示意图;
图13为本申请实施例提供的一种第二触发操作的场景示意图;
图14为本申请实施例提供的另一种第二触发操作的场景示意图;
图15为本申请实施例提供的一种表盘界面包括微笑对应的动效图像的示意图;
图16为本申请实施例提供的一种表盘界面包括旋转动态效果的动效图像的示意图;
图17为本申请实施例提供的一种表盘界面包括倾斜动态效果的动效图像的示意图;
图18为本申请实施例提供的一种表盘界面显示方法的交互示意图;
图19为本申请实施例提供的一种表盘界面包括突出动态效果的动效图像的示意图;
图20为本申请实施例提供的一种表盘界面显示方法的交互示意图;
图21为本申请实施例提供的一种弹框界面的示意图;
图22为本申请实施例提供的一种可穿戴设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。其中,在本申请的描述中,除非另有说明,“/”表示前后关联的对象是一种“或”的关系,例如,A/B可以表示A或B;本申请中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况,其中A,B可以是单数或者复数。并且,在本申请的描述中,除非另有说明,“多个”是指两个或多于两个。“以下至少一项(个))”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b,或c中的至少一项(个),可以表示:a,b,c,a-b,a-c,b-c,或a-b-c,其中a,b,c可以是单个,也可以是多个。另外,为了便于清楚描述本申请实施例的技术方案,在本申请的实施例中,采用了“第一”、“第二”等字样对功能和作用基本相同的相同项或相似项进行区分。本领域技术人员可以理解“第一”、“第二”等字样并不对数量和执行次序进行限定,并且“第一”、“第二”等字样也并不限定一定不同。同时,在本申请实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本申请实施例中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念,便于理解。
此外,本申请实施例描述的网络架构以及业务场景是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域普通技术人员可知,随着网络架构的演变和新业务场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
随着人工智能技术的快速发展,人们对生活方式的智能化、功能多样化以及人性化等追求越来越高。可穿戴设备被人们广泛使用。很多用户可能每天都佩戴穿戴设备,并且佩戴的时间也比较长。这些可穿戴设备小巧方便,用户可以佩戴可穿戴设备查看或者听取通知消息、提醒消息等,也可以收听音乐、听书等,还可以控制一些智能语音助手等。
在本申请实施例中,可穿戴设备可以包括智能手表、智能手环以及智能手带等带有显示器等电子设备。下面以智能手表为例,通常,智能手表的表盘是电子显示的。用户可以根据自己的使用需求手动设置表盘界面,以切换表盘中显示的内容。其中,用户设置的表盘界面可以包括时间表盘界面、日期表盘界面以及系统背景表盘界面等。
同时,用户还可以在设置表盘界面的过程中,将自己相册应用中的照片作为表盘界面中显示的内容。在一些实施例中,用户可以将智能手表与手机建立通信连接,并通过手机中的应用程序(application procedure,APP)设置智能手表对应的表盘界面,如运动健康APP和表盘APP等。当然,用户还可以直接在智能手表中的APP设置表盘对应的表盘界面。
下面以用户在手机中的APP进行操作为例。示例性的,图1所示的为用户在设置表盘界面过程的界面示意图。参见图1中(A),手机的主屏幕界面上显示有运动健康应用图标200,用户可以点击运动健康应用图标200,如图1中的(B)所示,手机响应于点击操作,显示运动健康应用的用户界面,用户界面可以包括设备信息、添加设备控件、以及功能入口等。例如,设备信息包括当前与手机进行连接的智能手表对应的名称、连接状态以及电量余量等。添加设备控件用于在用户点击后建立手机与其他设备之间的通信连接,以实现手机对其他设备的控制。功能入口可以包括表盘市场功能、钱包功能以及音乐功能等。用户可以点击表盘市场功能对应的表盘市场图标201,触发进入与表盘市场图标201对应的表盘市场页面。如图1中的(C)所示,手机响应于点击操作,显示表盘市场页面,表盘市场页面可以包括相机表盘控件202。之后,用户还需要点击相机表盘控件202,以触发进入相机表盘页面。如图1中的(D)所示,手机响应于点击操作,显示相机表盘页面。相机表盘页面包括显示控件203和更换控件204等。其中,显示控件203用于显示当前智能手表对应的表盘界面。更换控件204用于用户根据自己的需求更换智能手表对应的表盘。最后,用户可以点击更换控件204,以通过相册应用实现对当前智能手表中表盘界面的更换。
图2为本申请实施例提供的另一种用户在设置表盘界面过程中的界面示意图。如图2中的(A)所示,手机响应于用户对更换控件204的点击操作,输出选择页面。选择页面用于提示用户选择更换当前表盘的更换方式,更换方式包括利用拍照应用拍摄的照片进行更换以及利用相册应用中的照片进行更换。用户可以点击相册控件205,触发进入相册应用中。如图2中的(B)所示,手机响应于对相册控件205的点击操作,显示相册应用界面。相册应用界面中显示有多张照片,用户可以点击任意一张照片来更换当前智能手表对应的表盘界面。如图2中的(C)所示,手机响应于点击操作,显示预览表盘界面。预览表盘界面包括预览控件206和确定控件207。其中,预览控件206用于预览基于用户选择的照片生成的表盘。确定控件207用于在用户点击后,将预览控件206预览的表盘界面设置为智能手表当前的表盘界面。这样,用户在使用智能手表的过程中,智能手表将呈现更换后的表盘界面,表盘界面中显示的内容包括用户选择的照片。
可见,用户在设置表盘界面的过程中,虽然可以在不同表盘界面中进行选择。但每个表盘界面中显示的内容仅仅局限在日期、时间、系统背景或者用户预设的静态图片。表盘界面的样式较为单一,缺乏多样性以及趣味性,用户无法进行个性化的表盘定制,降低用户使用智能手表的体验。
基于上述内容,本申请实施例提供了一种表盘界面显示方法,可以根据用户对应的特征信息定制智能手表对应的表盘界面,并且在用户使用智能手表时基于用户当前时刻的特征信息呈现对应的表盘界面。可以实现用户进行个性化的表盘定制,增加用户的使用体验感。
在一些实施例中,本申请提供的表盘界面显示方法可以应用于交互系统中,参见图3,本申请实施例提供的一种交互系统包括第一设备(例如智能手表1001)、第二设备(例如手机1002)和服务器1003。
在一些实施例中,第一设备、第二设备和服务器之间建立有通信连接。其中,通信连接可以为无线通信连接。其中,建立无线通信连接的无线通信技术包括但不限于以下的至少一种:无线局域网(wireless local area networks,WLAN)(如无线保真(wirelessfidelity,Wi-Fi)网络),蓝牙(bluetooth,BT)(例如,传统蓝牙或者低功耗(bluetooth lowenergy,BLE)蓝牙),近距离无线通信(near field communication,NFC),紫蜂(Zigbee),调频(frequency modulation,FM)以及红外(infrared,IR)等。
示例性的,手机1002可以根据用户选择的目标图像和第一表情图像生成图像生成请求,并将图像生成请求发送至服务器1003。服务器1003响应于图像生成请求,基于第一表情图像的初始表情信息对目标图像进行渲染,得到目标图像对应的动效图像。其中,动效图像的动态效果与第一表情图像的表情类型匹配。之后,服务器1003中可以存储有智能手表1001和手机1002之间的关联关系。服务器1003可以将动效图像发送至手机1002关联的智能手表1001。可以理解的是,服务器1003也可以将动效图像发送至手机1002,手机1002再将动效图像发送至关联的智能手表1001。智能手表1001采集到第二表情图像后,根据第二表情图像的表情类型显示对应的表盘界面。其中,表盘界面包括与第二表情图像的表情类型匹配的动效图像。
在一些实施例中,服务器1003还可以响应于图像生成请求,生成目标图像对应的动效文件;动效文件包括根据初始表情信息对目标图像进行渲染获得的动效图像。之后,服务器1003再将动效文件发送至手机1002关联的智能手表1001。
需要说明的是,第一设备可以包括可穿戴设备如智能手表、智能手环、智能手带、头戴设备等,或者其他带有显示器的电子设备如手机等。第一设备安装的操作系统包括但不限于或者其它操作系统。本申请对第一设备的具体类型、所安装的操作系统均不作限制。
第二设备安装的操作系统包括但不限于或者其它操作系统。当然第一设备也可以不安装有操作系统。本申请对第二设备的具体类型、有无安装操作系统、在有安装操作系统下操作系统的类型均不作限制。
第二设备可以包括手机、平板电脑、智能家居设备、笔记本电脑、上网本、个人数字助理(personal digital assistant,PDA)、可穿戴设备、人工智能(artificialintelligence,AI)设备等电子设备。其中,智能家居设备例如包括智能电视、智能幕布以及智慧屏等。
当然,本申请实施例提供的交互系统中还可以包括除第一设备、第二设备和服务器之外的其他电子设备。或者,交互系统中可以包括第一设备和第二设备。再或者,交互系统中可以包括第一设备。本申请实施例提供的交互系统包括但不限于第一设备、第二设备和服务器之间进行交互,还可以是其他多个设备之间进行交互。本领域技术人员可以根据实际需求自行确定电子设备的类型和数量,这些设计都没有超出本申请实施例的保护范围。
在另一些实施例中,本申请提供的交互系统包括第一设备和服务器。其中,第一设备可以包括可穿戴设备、智能家居设备、手机、平板电脑、笔记本电脑、上网本、PDA、AI设备等包括摄像头和显示器的电子设备。其中,智能家居设备例如包括智能电视、智能幕布以及智慧屏等。可穿戴设备可以包括智能手表、智能手环、智能手带等带有显示器等电子设备。本申请实施例对第一设备的具体类型不作任何限制。其中,第一设备响应于用户的第一触发操作,发送图像生成请求至服务器,图像生成请求包括用户选择的目标图像和第一表情图像。服务器响应于图像生成请求,基于第一表情图像的初始表情信息对目标图像进行渲染,得到目标图像对应的动效图像。动效图像的动态效果与第一表情图像的表情类型匹配。之后,服务器将动效图像发送至第一设备。第一设备检测到用户的第二触发操作后,根据采集到的第二表情图像,显示对应的表盘界面,表盘界面包括与第二表情图像的表情类型匹配的动效图像。
在另一些实施例中,本申请提供的交互系统包括第一设备,第一设备可以包括可穿戴设备、智能家居设备、手机、平板电脑、笔记本电脑、上网本、PDA、AI设备等包括摄像头和显示器的电子设备。其中,第一设备可以基于用户对应的初始表情信息对用户选择的目标图像进行渲染,生成目标图像对应的动效图像。之后,第一设备响应于用户的触发操作,显示对应的表盘界面,表盘界面包括动效图像。
下面以第一设备为可穿戴设备中的智能手表100为例进行说明。
示例性的,图4示出了智能手表100的一种结构示意图,该智能手表100可佩带在用户的手腕上。智能手表100可以包括显示屏103以及固定带104,显示屏103用于显示时间以及用户触摸点击以显示其他相关内容,固定带104用于将智能手表100固定于用户手腕。
示例性的,图5所示为本申请实施例提供的智能手表100的硬件结构示意图。参见图5,智能手表100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB))接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,麦克风170B,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,用户标识模块(subscriber identification module,SIM)卡接口195以及定位模块196等。其中传感器模块180可以包括压力传感器180A,气压传感器180B,加速度传感器180C,陀螺仪传感器180D,磁感应传感器180E,霍尔传感器180F,指纹传感器180G,温度传感器180H,触摸传感器180I等。
可以理解的是,本发明实施例示意的结构并不构成对智能手表100的具体限定。在本申请另一些实施例中,智能手表100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。在一些实施例中,处理器110可以包含多组I2C总线。处理器110可以通过不同的I2C总线接口分别耦合触摸传感器180K,充电器,闪光灯,摄像头193等。例如:处理器110可以通过I2C接口耦合触摸传感器180K,使处理器110与触摸传感器180K通过I2C总线接口通信,实现智能手表100的触摸功能。
I2S接口可以用于音频通信。在一些实施例中,处理器110可以包含多组I2S总线。处理器110可以通过I2S总线与音频模块170耦合,实现处理器110与音频模块170之间的通信。在一些实施例中,音频模块170可以通过I2S接口向无线通信模块160传递音频信号,实现通过智能手表100接听电话的功能。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块170与无线通信模块160可以通过PCM总线接口耦合。在一些实施例中,音频模块170也可以通过PCM接口向无线通信模块160传递音频信号,实现通过智能手表100接听电话的功能。I2S接口和PCM接口都可以用于音频通信。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一些实施例中,UART接口通常被用于连接处理器110与无线通信模块160。例如:处理器110通过UART接口与无线通信模块160中的蓝牙模块通信,实现蓝牙功能。在一些实施例中,音频模块170可以通过UART接口向无线通信模块160传递音频信号,实现通过智能手表100播放音乐的功能。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等外围器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。在一些实施例中,处理器110和摄像头193通过CSI接口通信,实现智能手表100的拍摄功能。处理器110和显示屏194通过DSI接口通信,实现智能手表100的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为智能手表100充电,也可以用于智能手表100与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
可以理解的是,本申请实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对智能手表100的结构限定。在本申请另一些实施例中,智能手表100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过智能手表100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为电子设备供电。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
智能手表100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。智能手表100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在智能手表100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
无线通信模块160可以提供应用在智能手表100上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,智能手表100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得智能手表100可以通过无线通信技术与网络以及其他设备通信。无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(codedivision multiple access,CDMA),宽带码分多址(wideband code division multipleaccess,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。GNSS可以包括全球卫星定位系统(global positioning system,GPS),全球导航卫星系统(global navigation satellite system,GLONASS),北斗卫星导航系统(beidounavigation satellite system,BDS),准天顶卫星系统(quasi-zenith satellitesystem,QZSS)和/或星基增强系统(satellite based augmentation systems,SBAS)。
智能手表100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,智能手表100可以包括1个或N个显示屏194,N为大于1的正整数。
智能手表100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,智能手表100可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当智能手表100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。智能手表100可以支持一种或多种视频编解码器。这样,智能手表100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展智能手表100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,可执行程序代码包括指令。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储智能手表100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。处理器110通过运行存储在内部存储器121的指令,和/或存储在设置于处理器中的存储器的指令,执行智能手表100的各种功能应用以及数据处理。
智能手表100可以通过音频模块170,扬声器170A,麦克风170B,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。智能手表100可以通过扬声器170A收听音乐,或收听免提通话。
麦克风170B,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170B发声,将声音信号输入到麦克风170B。智能手表100可以设置至少一个麦克风170B。在另一些实施例中,智能手表100可以设置两个麦克风170B,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,智能手表100还可以设置三个,四个或更多麦克风170B,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。智能手表100根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,智能手表100根据压力传感器180A检测触摸操作强度。智能手表100也可以根据压力传感器180A的检测信号计算触摸的位置。
气压传感器180B用于测量气压。在一些实施例中,智能手表100通过气压传感器180B测得的气压值计算海拔高度,辅助定位和导航。
加速度传感器180C可检测智能手表100在各个方向上(一般为三轴)加速度的大小。当智能手表100静止时可检测出重力的大小及方向。
陀螺仪传感器180D可以用于确定智能手表100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180D确定智能手表100围绕三个轴(即,x,y和z轴)的角速度。
磁感应传感器180E,也称为电子罗盘,用于可以定位设备的方位。在一些示例中,智能手表100可根据加速度传感器180C、陀螺仪传感器180D以及磁感应传感器180E计算出智能手表100的姿态,应用于计步器应用。
霍尔传感器180F用于检测智能手表100的表体是正面向上还是背面向上,进而供处理器110确定智能手表100是否进入免打扰模式/省电模式/预定义模式等。霍尔传感器180F,还用于检测智能手表100的表体是否与外壳相分离,进而供处理器110确定是否自动接通电话等。
指纹传感器180G用于采集指纹。智能手表100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器180H用于检测温度。在一些实施例中,智能手表100利用温度传感器18F检测的温度,执行温度处理策略。例如,当温度传感器180J上报的温度超过阈值,智能手表100执行降低位于温度传感器180H附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,智能手表100对电池142加热,以避免低温导致智能手表100异常关机。在其他一些实施例中,当温度低于又一阈值时,智能手表100对电池142的输出电压执行升压,以避免低温导致的异常关机。
触摸传感器180I,也称“触控器件”。触摸传感器180I可以设置于显示屏194,由触摸传感器180I与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180I用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180I也可以设置于智能手表100的表面,与显示屏194所处的位置不同。
可选的,传感器模块180还可以包括:距离传感器、接近光传感器、环境光传感器、骨传导传感器等。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。智能手表100可以接收按键输入,产生与智能手表100的用户设置以及功能控制有关的键信号输入。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏194不同区域的触摸操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口195用于连接SIM卡。SIM卡可以通过插入SIM卡接口195,或从SIM卡接口195拔出,实现和智能手表100的接触和分离。智能手表100可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口195可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口195可以同时插入多张卡。多张卡的类型可以相同,也可以不同。SIM卡接口195也可以兼容不同类型的SIM卡。SIM卡接口195也可以兼容外部存储卡。智能手表100通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,智能手表100采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在智能手表100中,不能和智能手表100分离。
定位模块196,可用于对智能手表100进行定位。示例性的,定位模块196可以是GPS模块、北斗模块等,本申请对定位模块196不作具体限定。在一些实施例中,定位模块196用于确定定位信号的强度,定位信号的强度可以用于指示智能手表100所处的场景,例如:室内无自然光照、室内窗边、室外、室外遮挡等。
智能手表100的软件系统可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本发明实施例以分层架构的Android系统为例,示例性说明智能手表100的软件结构。
图6是本发明实施例的智能手表100的软件结构框图。
分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android系统分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和系统库,以及内核层。
应用程序层可以包括一系列应用程序包。
如图6所示,应用程序包可以包括相机,图库,日历,通话,地图,导航,WLAN,蓝牙,天气,视频等应用程序。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。
如图6所示,应用程序框架层可以包括窗口管理器,内容提供器,视图系统,电话管理器,资源管理器,通知管理器、位置管理器等。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。
内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
电话管理器用于提供智能手表100的通信功能。例如通话状态的管理(包括接通,挂断等)。
资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在系统顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,电子设备振动,指示灯闪烁等。
位置管理器用于为智能手表100提供位置服务。位置管理器系统服务是位置服务的核心组件,它提供了一系列方法来处理与位置相关的问题,包括查询上一个已知位置,注册和注销来自某个提供定位(location provider)功能的组件的周期性的位置更新,注册和注销接近某个坐标时对一个已定义的意图(intent)的触发等。
Android Runtime包括核心库和虚拟机。Android runtime负责安卓系统的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
系统库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(Media Libraries),三维图形处理库(例如:OpenGL ES),2D图形引擎(例如:SGL)等。
表面管理器用于对显示子系统进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。
三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
以下结合上述图3所示交互系统,以交互系统中包括第一设备和服务器作为示例,第一设备为智能手表,对本申请实施例提供的表盘界面显示方法进行说明。图7为本申请实施例示出的一种表盘界面显示方法的交互示意图,如图7所示,该方法可以包括如下步骤S701-S705。
步骤S701:智能手表响应于用户的第一触发操作,采集用户的第一表情图像并获取目标图像;其中,第一表情图像为智能手表采集的当前用户对应的图像,目标图像为用户选择的静态图像。
在实际场景中,用户想要与手表进行交互时,通常佩戴智能手表,将手腕抬起,并低头观看手表。之后,用户可以开启智能手表的预设工作模式。预设工作模式用于设置智能手表对应的包括动效图像的表盘界面。例如,预设工作模式可以为景深模式。示例性的,图8A所示的为用户在设置表盘界面过程中的界面示意图。参见图8A中(A),智能手表的主屏幕界面上显示有表盘应用图标300,用户可以点击表盘应用图标300,如图8A中的(B)所示,智能手表响应于点击操作,显示表盘应用的用户界面,用户界面可以包括表盘市场入口、购买记录以及下载记录等功能入口。用户可以点击表盘市场功能对应的表盘市场图标301,触发进入与表盘市场图标301对应的表盘市场页面。如图8A中的(C)所示,手机响应于点击操作,显示表盘市场页面,表盘市场页面可以包括模式选择控件302和相机表盘控件303。之后,用户需要点击模式选择控件302,以触发进入模式选择页面。如图8A中的(D)所示,智能手表响应于点击操作,显示模式选择页面。模式选择页面包括景深模式控件304、运动模式控件305、白天模式控件306、黑夜模式控件307以及始终显示模式308等多种表盘模式。用户可以点击景深模式304,以选择并打开智能手表的景深模式。
需要说明的是,上述用户在设置表盘界面过程中的各个界面仅为示例。智能手表中的设置应用中还可以设置有表盘市场功能入口以及显示与亮度功能入口等。用户可以通过其他的途径设置表盘界面,此处本申请实施例不作具体限定。
在一些实施例中,每种表盘模式对应有各自的表盘功能,不同的表盘模式对应有不同的表盘界面。例如,智能手表在运动模式下,可以控制显示屏显示有运动模式对应的运动表盘界面,运动模式用于在表盘界面中显示用户对应的健身数据、用户对应的心率数据以及呼吸数据等。这样,用户在智能手表中开启运动模式后,可以在智能手表的显示屏上查看运动表盘界面。
在本申请实施例中,智能手表响应于第一触发操作,采集用户的第一表情图像。第一触发操作可以包括用户对预设工作模式的开启操作,预设工作模式用于设置智能手表对应的包括动效图像的表盘界面。例如,预设工作模式可以为景深模式,第一触发操作可以为用户对上述景深模式控件的点击操作。再如用户可以使用智能手表的语音控制功能和搜索功能对控件进行的选择操作。第一触发操作可以被视为设置景深模式对应的景深表盘界面的开启信号,由此智能手表在第一触发操作之后开始执行设置景深表盘界面相应的任务。
在一些实施例中,预设工作模式用于设置智能手表包括动效图像的动态表盘界面。动效图像由智能手表在开启预设工作模式后触发摄影头采集用户的面部表情生成或根据预设的动态效果生成。需要说明的是,本申请实施例不对预设工作模式的命名进行具体限定,还可以为动态表盘设置模式等等。
在一种实现方式中,以预设工作模式为上述景深模式为例进行说明。智能手表检测到景深模式开启后,启动前置摄像头采集用户对应的第一表情图像(类似于自拍过程)。智能手表根据摄像头采集的第一表情图像,实时识别第一表情图像中的用户面部表情类型。进而,得到至少一个用户表情类型对应的初始表情信息。示例性的,参见图8B中(A),用户可以点击智能手表界面中的景深模式控件,以使智能手表检测到景深模式开启。之后,参见图8B中(B),智能手表检测到景深模式开启后,显示采集界面且启动前置摄像头采集用户对应的第一表情图像。同样,用户在开启景深模式后,应面向智能手表且摆出对应的用户表情类型为微笑。之后,参见图8B中(C),智能手表识别采集到的第一表情图像,得到用户表情类型为微笑对应的初始表情信息。
在一种实现方式中,智能手表可以基于预设时间对用户的第一表情图像进行采集,并且在达到预设时间后自动结束采集。当然,智能手表还可以在用户的操作下,结束采集第一表情图像。可以理解的是,用户在产生表情的过程中是存在动态变化的,因此,每个初始表情信息不仅表示用户对应的面部表情类型,同样还可以表示不同的动态效果。
在一种可实现方式中,智能手表中可以预存有多个表情类型。这样,智能手表可以根据预存的多个表情类型识别并确定第一表情图像中用户对应的具体的表情类型。
在一种可实现方式中,智能手表可以在启动摄像头后,连续采集用户对应的多个第一表情图像,并连续识别第一表情图像中的多种用户面部表情类型。当然,智能手表也可以多次启动摄像头,每次采集用户的一个第一表情图像,并识别第一表情图像中的一种用户面部表情类型。
示例性的,智能手表检测到景深模式开启后,用户可以对摄像头摆出一种或几种面部表情。面部表情可以包括微笑、眨眼睛、咧嘴笑、吐舌头、点头、撅嘴以及皱眉等等类型。这样,智能手表可以启动摄像头采集对应的第一表情图像,识别第一表情图像中用户的面部表情,得到第一表情图像对应的初始表情信息。其中,初始表情信息用于表征第一表情图像的表情类型,即在智能手表检测到景深模式开启后用户的面部表情类型。
其中,每个初始表情信息可以包括表情类型标识以及表情类型对应的特征点信息。例如,表情类型标识包括表情类型名称、表情类型对应的预设字段或智能手表系统生成的表情类型字符串等。
例如,微笑对应的初始表情信息可以包括表情对应的特征点信息:“面部轮廓关键点0、嘴部关键点1、鼻部关键点1、眼部关键点0、以及眉部关键点1”以及表情对应的预设字段:“01”等等。再例如,点头对应的初始表情信息可以包括表情对应的特征点信息:“面部轮廓关键点1、嘴部关键点1、鼻部关键点0、眼部关键点0、以及眉部关键点0”以及表情对应的预设字段:“03”等等。再例如,皱眉对应的初始表情信息可以包括表情对应的特征点信息:“面部轮廓关键点1、嘴部关键点0、鼻部关键点0、眼部关键点0、以及眉部关键点1”以及表情对应的预设字段:“05”等等。这样,初始表情信息可以表示用户面部的真实表情类型。不同的初始表情信息中的特征点信息不同,进而对应用户的面部表情类型不同。而且,针对同一表情类型如“微笑”,不同用户对应的实际表情也不同,通过特征点信息能够准确地表征每个用户产生的不同的“微笑”表情。
在另一种实现方式中,智能手表检测到景深模式开启后,启动前置摄像头采集用户的图像视频流。智能手表在图像视频流中获取包括预设帧数的第一表情图像。可以理解的是,在录制图像视频流的过程中,每帧第一表情图像的五官相对于无表情变化的第一表情图像是有些微变化的,这些细微差别结合起来能够动态地表达该用户的面部表情。进而,同上述实现方式,智能手表可以基于采集用户的图像视频流,得到图像视频流对应的初始表情信息。
在一些实施例中,由于面部的五官在产生不同表情时,如眼睛、眉毛、鼻子、嘴巴都会产生相应的形变,并且对应有对应的形变特征。因此,智能手表在根据采集的第一表情图像或图像视频流识别用户面部表情类型的过程中,智能手表可以直接根据第一表情图像或图像视频流中用户面部的面部特征进行识别。例如,智能手表可以采用识别模型来实现识别用户表情的过程。并且,在采用识别模型识别用户表情之前,会对识别模型进行训练。在训练识别模型时,可以将大量的第一表情图像或图像视频流作为训练样本进行训练。以使得识别模型能学习到识别用户表情的能力。
在一些实施例中,表盘模式可以是在智能手表中的表盘应用市场中下载得到的,也可以是用户在智能手表自定义设置得到的,此处本申请实施例不作具体限定。
智能手表还可以获取用户指示的目标图像,该目标图像可以结合第一表情图像的图像类型生成动效图像。
在一些实施例中,用户可以在开启预设工作模式之后,进入相册应用并选择相册中的照片,以使得智能手表获取用户指示的目标图像。
在一种可实现的方式中,用户基于智能手表指示目标图像的路径较长。以预设工作模式为景深模式为例,继续参见图8A,在用户点击景深模式控件304,智能手表开启景深模式之后,用户可以在表盘市场页面中点击相机表盘控件303,以触发进入相机表盘页面。参见图9中的(A),智能手表响应于点击操作,显示相机表盘页面。相机表盘页面包括表盘显示控件309和表盘更换控件310等。其中,表盘显示控件309用于显示当前智能手表对应的表盘界面。表盘更换控件310用于用户根据自己的需求更换智能手表对应的表盘。用户可以点击表盘更换控件310,以通过相册应用实现对当前智能手表中表盘的更换。如图9中的(B)所示,智能手表响应于用户对表盘更换控件310的点击操作,输出表盘选择页面。表盘选择页面用于提示用户选择更换当前表盘的更换方式,更换方式包括利用拍照应用拍摄的照片进行更换以及利用相册应用中的照片进行更换。用户可以点击表盘相册控件311,触发进入智能手表中的相册应用。如图9中的(C)所示,智能手表响应于对表盘相册控件311的点击操作,显示相册应用界面。相册应用界面中显示有多张照片,用户可以对任意一张照片进行第三触发操作,以将选择的照片设置成当前智能手表对应的表盘界面。由此,用户可以通过选择相册应用中的照片作为目标图像,从而结合目标图像和自身的面部表情,定制预设工作模式对应的动态表盘界面。
示例性的,第三触发操作可以包括用户对图像的选择操作,如用户对上述相册应用界面中图像的点击操作。再如用户可以使用智能手表的语音控制功能和搜索功能对图像进行的选择操作。
由此,智能手表在检测到开启景深模式后,采集用户的第一表情图像并获取目标图像。之后,智能手表发送图像生成请求至服务器。其中,图像生成请求包括与目标图像和第一表情图像的初始表情信息,可以理解的是,目标图像可以包括静态的人脸,以便于后续基于静态的人脸和用户对应的初始表情信息,生成与目标图像对应的动效图像。当然,目标图像也可以包括动物的脸部,本申请实施例不对目标图像进行具体限定。
在获取目标图像之后,本申请实施例可以基于采集到的用户面部表情类型和选择的静态的目标图像,便于用户创作景深模式对应的包括动态效果的景深表盘界面。提高了用户与智能手表的交互性,同时不仅仅局限于只采用相册中的静态照片生成并设置智能手表表盘对应的表盘界面。
步骤S702:智能手表发送图像生成请求至服务器。
其中,图像生成请求包括目标图像和第一表情图像的初始表情信息,初始表情信息用于表征第一表情图像的表情类型。图像生成请求用于请求服务器根据目标图像和初始表情信息生成目标图像对应的动效图像。
在一些实施例中,智能手表识别第一表情图像中的用户面部表情类型。并且智能手表基于用户表情类型,生成对应的初始表情信息。之后,智能手表将获取到的目标图像和第一表情图像的初始表情信息发送至服务器,以使得服务器生成与目标图像对应的动效图像。
在另一些实施例中,用户在与智能手表进行交互的过程中,用户的人脸是集中面向智能手表的。由此,很大可能智能手表在开启预设模式的情况下,摄像头可以采集到的第一表情图像中包括用户对应的人脸。
然而,在一些场景下,也有可能智能手表在开启预设模式后,摄像头采集到的第一表情图像中不包括用户对应的人脸。
因此,本申请实施例中智能手表检测到预设工作模式开启的情况下,智能手表可以预先基于人脸特征识别第一表情图像中的人脸,以确定第一表情图像中是否包括人脸。在摄像头采集第一表情图像中包括或不包括用户对应的人脸的情况下,智能手表发送给服务器的图像生成请求中除上述目标图像和第一表情图像对应的初始表情信息,还可以包括预设模式对应的预设表情信息以及预设动态信息。其中,预设表情信息用于表征人脸对应的预设表情类型,预设表情类型可以包括愤怒、害怕、惊讶、高兴、厌恶和悲伤等。预设动态信息用于表征针对目标图像预设的动态效果类型,动态效果类型可以包括倾斜动态效果、旋转动态效果以及突出动态效果。
这样,本申请实施例中智能手表通过获取用户的面部表情类型和选择的目标图像,便于后续自行生成包括动态效果的表盘页面。同时,智能手表通过获取预设表情类型、预设效果类型以及用户选择的目标图像,便于后续自行生成更丰富、更为人性化的表盘页面。同时,智能手表在未识别到用户表情时,仍可以设置包括动态效果的景深表盘页面。
步骤S703:服务器响应于图像生成请求,基于初始表情信息对目标图像进行渲染,得到目标图像对应的动效图像;动效图像的动态效果与第一表情图像的表情类型匹配。
在一些实施例中,服务器利用人像分割技术将目标图像中的人体对应的图像角色和除面部之外的其他区域进行图层分割。图像角色位于第一图层,除面部之外的其他区域位于第二图层。接着,基于图像生成请求中的表情信息利用表情/人像驱动技术驱动图像角色执行相应的表情。最后,服务器将第一图层和第二图层进行融合,生成动效图像。
在另一些实施例中,服务器还可以利用人像分割技术将目标图像中人体对应的图像角色和除面部之外的其他区域进行图层分割。图像角色位于第一图层,除面部之外的其他区域位于第二图层。可以理解的是,第一图层包括目标图像中的前景区域,第二图层包括目标图像中的背景区域。服务器可以驱动第一图层中的人像执行相应的动态效果,最后,服务器将第一图层和第二图层进行融合,生成动效图像。进而可以实现动效图像中的前景区域呈现动态变化,而背景区域不呈现动态变化。
需要说明的是,本申请实施例基于初始表情信息和目标图像,可以得到一个或多个动效图像,例如可以得到动效视频中的多个动效图像。
在一种可实现的方式中,服务器将得到目标图像对应的动效图像构成动态数据集合,动态数据集合包括至少一个动效图像或动效视频。可以理解的是,动效视频可以包括至少一个动效图像。
由此,在相关技术中在将目标图像转换成动效图像是通常采用的是固定算法。这样,将同一张静态照片或不同静态照片转换成动效图像后,每个动效图像对应的动态效果是一致的。而本申请实施例是基于采集到的用户面部表情使目标图像转换成动效图像。由于每个用户对应的面部表情是不一致的,因此若不同用户选择了同一张目标图像,目标图像对应的每个动效图像中的动态效果也是不一致的。本申请实施例可以根据每个用户对应的特征信息定制匹配的包括动态效果的表盘界面,提高用户的使用体验。
上述实施例中服务器可以响应于图像生成请求,基于初始表情信息对目标图像进行渲染,得到目标图像对应的动效图像。在另一些实施例中,服务器还可以响应于图像生成请求,生成目标图像对应的动效文件;动效文件包括根据初始表情信息对目标图像进行渲染获得的动效图像,动效图像的动态效果与第一表情图像的表情类型匹配。动效文件中还可以包括动效图像对应的效果信息。
在一些实施例中,初始表情信息包括用于表征微笑的初始表情信息、用于表征眨眼睛的初始表情信息或用于表征吐舌头的初始表情信息等。例如,服务器可以基于微笑对应的初始表情信息驱动图像角色执行微笑表情,进而生成动效图像。再例如,服务器可以基于眨眼睛对应的初始表情信息驱动图像角色执行眨眼睛表情,进而生成动效图像。
示例性的,预设动态信息中包括用于表征倾斜动态效果的预设动态信息、用于表征旋转动态效果的预设动态信息以及用于表征突出动态效果的预设动态信息。例如,服务器可以基于突出动态效果对应的预设动态信息驱动图像角色执行面部突出任务,进而生成动效图像。再例如,服务器可以基于倾斜动态效果对应的预设动态信息驱动目标图像执行不同角度倾斜任务,进而生成动效图像。再例如,服务器可以基于旋转动态效果对应的预设动态信息驱动目标图像执行逆时针或顺时针旋转任务,进而生成动效图像。
其中,根据初始表情信息中的特征点信息,能够生成与用户面部表情匹配的动效图像。以及智能手表在显示屏中显示包括动效图像的表盘界面,可以提供给用户更多个性化以及多样化的表盘界面。
可见,本申请实施例可以根据用户面部表情类型以及选择的目标图像,驱动目标图像中的图像角色执行用户对应的面部表情类型,并生成对应的动效图像。同时,在智能手表未采集到用户面部表情的情况下,本申请实施例还可以根据预设表情信息、预设动态信息以及目标图像,驱动目标图像执行相应的任务,并生成对应的动效图像。进而,智能手表得到的动效图像即具有用户的个性化元素,从而设置并显示的表盘界面也是具有用户个性化的表盘界面。可以使得表盘形式丰富,增强表盘界面的形式多样性。
在一些实施例中,智能手表侧可以不向服务器发送图像生成请求,智能手表侧自身也可以根据初始表情信息和目标图像进行上述生成动效图像的过程,本申请实施例不对生成动效图像过程的执行主体进行具体限定。
步骤S704:服务器将动效图像发送至智能手表。
在一些实施例中,服务器生成动效图像后,可以将动效图像发送至智能手表。每个动效图像可以对应有效果信息,效果信息用于表征动效图像中的表情类型或动效图像中对应的动态效果类型。动态效果类型可以包括倾斜动态效果、旋转动态效果以及突出动态效果等。其中,效果信息可以包括表情类型标识以及特征点信息或效果类型标识以及对应的特征点信息。例如,表情类型标识包括效果类型名称、效果对应的预设字段或智能手表系统生成的效果字符串等;效果类型标识包括效果类型名称、效果对应的预设字段或智能手表系统生成的效果字符串等。
基于上述服务器可以响应于图像生成请求,生成目标图像对应的动效文件。在另一些实施例中,服务器也可以将动效文件发送给智能手表。
智能手表接收到动效图像之后自动生成包括动态图像的表盘。
或者,智能手表接收到动效图像之后,响应于用户的指示操作设置包括动效图像的表盘界面。
示例性的,继续参见图9中的(C),智能手表根据接收到的动效图像,显示预览表盘界面。图10为本申请实施例示出的一种预览表盘界面的示意图。参见图10,预览表盘界面包括预览图像控件400和确定图像控件401。其中,预览图像控件400用于智能手表预览包括用户选择的目标图像对应的表盘界面。确定图像控件401用于在用户点击后,智能手表将包括动效图像的表盘界面设置为当前的表盘界面。这样,用户在使用智能手表的过程中,智能手表将呈现设置后的表盘界面,表盘界面中显示的内容包括动效图像。
在一些实施例中,智能手表可以采集用户对应的多个表情类型。之后,服务器可以生成多个动效图像,每个动效图像对应的表情类型不同。这样,智能手表可以基于多个动效图像,显示包括至少一个动效图像对应的表盘界面。
在一种可实现方式中,图11为本申请实施例示出的另一种预览表盘界面的示意图。智能手表响应于第一触发操作之后,显示预览表盘界面。参见图11,预览表盘界面包括多个预览图像控件500、效果信息控件501和确定图像控件502。其中,预览图像控件500用于预览至少一个包括动效图像对应的表盘界面。例如,预览表盘界面包括微笑对应的表盘界面、眨眼睛对应的表盘界面以及吐舌头对应的表盘界面等等。效果信息控件501用于显示动效图像对应的效果信息。示例性的,预览表盘界面包括微笑对应的表盘界面,效果信息控件501则显示微笑对应的效果信息,如“微笑”。确定图像控件502用于在用户点击后,将上述微笑对应的表盘界面、眨眼睛对应的表盘界面以及吐舌头对应的表盘界面等设置为当前的表盘界面。
并且,用户还可以对预览表盘界面包括多个预览图像控件500和对应的效果信息控件501进行删除,例如,用户不想使用微笑对应的表盘界面。那么,用户可以将该表盘界面对应的预览图像控件500和对应的效果信息控件501进行删除。之后,在用户点击确定图像控件502后,将上述眨眼睛对应的表盘界面以及吐舌头对应的表盘界面等设置为当前的表盘界面。
在另一些实施例中,图12为本申请实施例示出的另一种预览表盘界面的示意图。智能手表响应于第一触发操作之后,显示预览表盘界面。参见图12,预览表盘界面包括多个预览图像控件600、效果信息控件601、确定图像控件602以及删除图像控件603。其中,预览图像控件600用于预览至少一个包括动效图像的表盘界面。例如,预览表盘界面包括预设表情对应的表盘界面、倾斜动态效果对应的表盘界面、旋转动态效果对应的表盘界面以及突出动态效果对应的表盘界面等等。效果信息控件601用于显示动效图像对应的效果信息。示例性的,预览的表盘界面包括倾斜动态效果对应的表盘界面,效果信息控件601则显示倾斜对应的效果信息,如“动态效果为倾斜”。确定图像控件602用于在用户点击后,将上述预设表情对应的表盘界面、倾斜动态效果对应的表盘界面、旋转动态效果对应的表盘界面以及突出动态效果对应的表盘界面等设置为当前的表盘界面。
可见,本申请实施例中的智能手表可以在用户界面中预览至少一个包括动效图像的表盘界面。其中,预览表盘界面可以包括第一表情图像的初始表情信息对应的表盘界面,还可以包括预设表情信息对应的表盘界面以及预设动态信息对应的表盘界面。智能手表在预览表盘界面的同时还支持用户对不喜欢的表盘界面进行删除。例如,用户可以点击动效图像对应的删除图像控件603。以及待用户删除完成后,用户可以点击确定图像控件602,以使将最终的结果设置为当前的表盘界面。由此,用户可以预先预览后确定能够使用并设置结合自己面部表情的表盘界面,实现个性化的动态表盘界面,进而提升用户的体验感。
步骤S705:智能手表检测到第二触发操作后,根据采集到的第二表情图像,显示对应的表盘界面,表盘界面包括与第二表情图像的表情类型匹配的动效图像。
在一些实施例中,智能手表检测到第二触发操作后,采集用户的第二表情图像。之后,智能手表识别第二表情图像的表情类型。最后,智能手表根据目标表情信息,显示对应的表盘界面,目标表情信息用于表征第二表情图像的表情类型。
在一些实施例中,第二触发操作包括用户针对智能手表的亮屏操作,并且用户进行第二触发操作可以看作是用户想要与手表进行交互。其中,亮屏操作包括用户抬起佩戴智能手表的手腕至用户人脸前方,或者,用户抬起佩戴智能手表的手腕且用户低头。可以理解的是,在实际使用场景中,用户想要与智能手表交互时通常会触发亮屏操作。智能手表检测到亮屏操作后,可以表明用户想要看表盘界面,此时智能手表会展示表盘界面。
用户想要与手表进行交互,通常是先触发手表亮屏,然后观看手表。示例性的,如图13所示,用户针对智能手表的亮屏操作可以包括用户抬起手腕,以触发智能手表亮屏。用户抬腕看表时,通常头部和手部时同时发生动作,头部低下以及手部抬起;在一些实施例中,用户针对智能手表的亮屏操作可以包括抬腕和低头。或者,用户也可以只将手抬起,将手部抬起到头部的前方。示例性的,如图14所示,用户可以只将手部抬起,并移动到头部的前方。
用户抬手腕的目的通常是为了使佩戴的智能手表距离用户的头部更近,从而方便用户观看和操作。在一些实施例中,在第二触发操作包括用户针对智能手表的亮屏操作的情况下,智能手表可以根据第二触发操作显示对应的表盘界面。
可以理解的是,智能手表中也可以包括测量用户手部姿态数据的陀螺仪传感器、加速度传感器、磁力式传感器以及距离传感器等。以智能手表中包括的陀螺仪传感器为例,陀螺仪传感器可以实时检测用户手部的姿态数据。示例性的,智能手表在确定用户是否抬手腕时,可以根据第一预设角度来确定,即当用户的手腕朝向用户的面部抬起时,手臂与水平线之间的夹角大于或者等于第一预设角度。本申请实施例对此不做具体限制。
在一些实施例中,智能手表检测到第二触发操作后,若智能手表的设备状态未处于倾斜状态或旋转状态,则根据采集到的第二表情图像,显示对应的表盘界面。
在一些实施例中,智能手表检测到第二触发操作后,启动摄像头采集用户的第二表情图像,识别第二表情图像中的用户面部表情类型。进而,得到与用户面部表情类型对应的目标表情信息。之后,智能手表对比第二表情图像的目标表情信息和动效图像的效果信息,效果信息用于表征动效图像中的表情类型。若第二表情图像的目标表情信息和动效图像的效果信息匹配,则显示包括动效图像的表盘界面。
在一种可实现的方式中,目标表情信息和效果信息包括表情类型标识,智能手表可以对比目标表情信息的表情类型标识和效果信息的表情类型标识;若目标表情信息的表情类型标识和效果信息的表情类型标识匹配,则确定第二表情图像的目标表情信息和动效图像的效果信息匹配。当然也可以将目标表情信息对应的其他信息与效果信息对应的其他信息进行匹配。
具体的,智能手表中可以包括动态数据集合,动态数据集合包括动效图像。如果目标表情信息对应的表情类型与某个动效图像中效果信息对应的表情类型匹配,则显示包括该动效图像的表盘界面。
示例性的,参见图15,第二表情图像中用户的面部表情类型为微笑,那么智能手表则生成用于表征微笑的目标表情信息。之后,智能手表对比目标表情信息和接收到动效图像中效果信息。若效果信息中包括微笑,智能手表则在显示屏上显示包括微笑的表盘界面。
在一种实现方式中,目标表情信息和效果信息包括特征点信息,智能手表将目标表情信息与动效图像的效果信息进行匹配的过程中,智能手表对比目标表情信息的特征点信息和效果信息的特征点信息;若目标表情信息中特征点信息与效果信息中特征点信息相同,也可以确定目标表情信息与效果信息匹配。
在另一种实现方式中,智能手表将目标表情信息与动效图像的效果信息进行匹配的过程中,对比目标表情信息中特征点信息与效果信息中特征点信息的相似度。若目标表情信息中特征点信息与效果信息中特征点信息的相似度大于或等于第一预设阈值时,则确定目标表情信息与效果信息匹配。
需要说明的是,本申请实施例不对上述匹配目标表情信息与效果信息的实现过程进行具体限定。
在另一些实施例中,智能手表中存储有目标表情信息的表情类型与动效图像的表情类型的匹配对应关系,例如匹配对应关系中的表情类型可以是情绪差异较大的相反的表情类型,比如难过匹配对应微笑。比如,目标表情信息表示用户当前的面部表情类型为难过,智能手表显示的相匹配的动效图像的表情类型为微笑,以对用户进行鼓励和安慰。
在另一些实施例中,智能手表在将目标表情信息与动效图像中的效果信息进行匹配的过程中,可以对比目标表情信息中特征点信息与效果信息中特征点信息的相似度,若相似度较小、差异度较大则确定为匹配。若目标表情信息中特征点信息与效果信息中特征点信息的相似度小于或等于第二预设阈值,则确定目标表情信息与效果信息匹配。例如,目标表情信息表示用户当前的面部表情类型为难过,效果信息表示的表情类型为微笑,且目标表情信息中特征点信息与效果信息中特征点信息的相似度小于或等于10%,则目标表情信息与效果信息匹配。这样,若智能手表生成的目标表情信息表示的面部表情类型为难过,则显示包括微笑动效的表盘界面。在实际场景中,用户当前心情比较沮丧且面对表盘摆出难过的表情,而智能手表可以显示包括微笑表情的表盘界面。可以实现对用户进行鼓励,以及更加增强趣味性,吸引用户与智能手表进行交互。
在另一些实施例中,若第二表情图像的目标表情信息和动效图像的效果信息不匹配,智能手表则显示包括目标图像的表盘界面。示例性的,智能手表在采集的第二表情图像中未识别到用户表情,可以控制显示器显示包括目标图像或预设表情类型的表盘界面。也就是说,用户在对智能手表输入第二触发操作后,如果用户的面部未面向智能手表,那么智能手表可以基于用户选择的目标图像,显示对应的静态表盘界面。当然,用户在对智能手表输入第二触发操作后,如果用户的面部未面向智能手表,智能手表还可以显示包括预设表情类型的表盘界面。
在一些实施例中,若智能手表的设备状态未处于倾斜状态或旋转状态,也可以根据采集到的第二表情图像,显示具有叠加动态效果的表盘界面。叠加动态效果包括突出动态效果和与第二表情图像的表情类型匹配的动态效果。表盘界面上的动效图像呈现由展开至收缩以及由收缩至展开的循环变化。也就是说,若智能手表的设备状态未处于倾斜状态或旋转状态,也可以根据用户的第二表情图像,显示具有叠加动态效果的表盘界面。例如,表盘界面上的动效图像与用户的表情类型匹配同时呈现由展开至收缩以及由收缩至展开的循环变化。
在一些实施例中,若智能手表处于倾斜状态,也可以根据采集到的第二表情图像,显示具有叠加动态效果的表盘界面。叠加动态效果包括倾斜动态效果和与第二表情图像的表情类型匹配的动态效果。表盘界面上的动效图像在预设角度内沿水平方向和/或垂直方向呈现倾斜变化。
在一些实施例中,若智能手表处于旋转状态,则根据采集到的第二表情图像,显示具有叠加动态效果的表盘界面;叠加动态效果包括旋转动态效果和与第二表情图像的表情类型匹配的动态效果。表盘界面上的动效图像沿顺时针或逆时针方向呈现转动变化。
可见,本申请实施例提供的智能手表在检测到第二触发操作后,显示带有不同动态效果的表盘界面。同时,在每次显示表盘界面时可以根据用户当前的面部表情确定显示的动态效果。提高了用户与智能手表的交互性以及趣味性,避免了表盘界面样式的单一。
在另一些实施例中,智能手表检测到第二触发操作后,若智能手表的设备状态处于倾斜状态或旋转状态,则根据智能手表的设备状态,显示对应的表盘界面。
示例性的,若智能手表处于倾斜状态,则显示具有倾斜动态效果的表盘界面;表盘界面包括目标图像,且目标图像在预设角度内沿水平方向和/或垂直方向呈现倾斜变化。参见图17中的(A),当智能手表处于倾斜状态时,则显示的表盘界面包括倾斜动态效果的动效图像。或者,参见图17中的(B),动效图像中可以包括前景区域和背景区域。其中,前景区域包括人像区域,背景区域包括除了人像区域之外的其他区域。当智能手表处于倾斜状态时,显示的表盘界面中动效图像的前景区域可以呈现倾斜变化以及背景区域可以不呈现变化。以此突出人像区域的动态显示效果,呈现给用户更富有立体感的动效图像。
示例性的,若智能手表处于旋转状态,则显示具有旋转动态效果的表盘界面;表盘界面包括目标图像,且目标图像沿顺时针或逆时针方向呈现转动变化。参见图16中的(A),当智能手表处于旋转状态,则显示的表盘界面包括旋转动态效果的动效图像。或者,参见图16中的(B),当智能手表处于旋转状态时,显示的表盘界面中动效图像的前景区域可以呈现转动变化以及背景区域不呈现变化。以此突出人像区域的动态显示效果,呈现给用户更富有立体感的动效图像。
可见,本申请实施例还可以根据设备状态显示对应的表盘界面,或者结合用户当前的面部表情和设备状态,显示对应的表盘界面。并且智能手表在显示表盘界面的过程中,表盘界面上动效图像中前景区域可以呈现动态效果,而背景区域可以不呈现动态效果。这样,不仅可以提升了表盘界面样式的多样性,还可以提高了用户与智能手表的交互性。
以下继续结合上述图3所示交互系统,以交互系统中包括第一设备、第二设备和服务器作为示例,其中,第一设备为智能手表,第二设备为手机。对本申请实施例提供的表盘界面显示方法进行说明。
图18为本申请实施例示出的另一种表盘界面显示方法的交互示意图,如图18所示,在另一些实施例中,上述步骤S701-S702可以替换为步骤S1801-S1802。
步骤S1801:手机响应于用户的第一触发操作,采集用户的第一表情图像并获取目标图像;
步骤S1802:手机发送图像生成请求至服务器。
其中,图像生成请求包括目标图像和第一表情图像的初始表情信息,初始表情信息用于表征第一表情图像的表情类型。图像生成请求用于请求服务器根据目标图像和初始表情信息生成目标图像对应的动效图像。
在一些实施例中,手机可以与智能手表建立通信连接,手机中也设置有摄像头。那么,用户也可以在手机侧开启智能手表的预设工作模式如景深模式并选择目标图像。这样,手机在检测到预设工作模式开启后,启动前置摄像头采集用户对应的第一表情图像,以及识别第一表情图像中的用户表情类型。进而,得到至少一个用户表情类型对应的初始表情信息。最后,手机将目标图像和初始表情信息发送至服务器。以使服务器根据目标图像和初始表情信息生成目标图像对应的动效图像,以及在智能手表的表盘界面中显示动效图像。
在本申请实施例中,步骤S1803-步骤S1805与图7所示的方法中的步骤S703-步骤S705类似,在此不再赘述。
在一种可实现方式中,服务器可以预先存储有手机和智能手表的关联关系。这样,服务器在接收到手机发送的图像生成请求后,可以将动效图像直接发送至与手机关联的智能手表。
在另一种实现方式中,手机也可以将图像生成请求和关联智能手表的设备标识发给服务器。这样,服务器在接收到图像生成请求和关联智能手表的设备标识之后,可以将动效图像直接发送至该设备标识指示的智能手表。
在另一些实施例中,智能手表中还可以不设有摄像头。那么在智能手表不设有摄像头的情况下,手机响应于第一触发操作,发送图像生成请求至服务器;图像生成请求包括目标图像和预设动态信息,预设动态信息用于表征针对目标图像预设的动态效果类型。之后,服务器响应于图像生成请求,根据预设动态信息对目标图像进行渲染,生成目标图像对应的动效图像,动效图像的动态效果与动态效果类型匹配。服务器再将动效图像发送至智能手表;智能手表在检测到第二触发操作后,显示对应的表盘界面,表盘界面包括与动态效果类型匹配的动效图像。
也就是说,手机发送给服务器的图像生成请求中可以包括预设工作模式对应的预设动态信息和目标图像。服务器根据预设动态信息对目标图像进行渲染,得到目标图像对应的动效图像。之后,服务器将动效图像发送至智能手表。
基于上述实施例,手机将目标图像和预设动态信息发送至服务器。在另一些实施例中,手机还可以只将目标图像发送至服务器。服务器内部可以预先存储有预设动态信息,以便于后续服务器根据预先存储的预设动态信息生成目标图像对应的动效图像。
在一些实施例中,服务器还可以将生成的动效图像发送至手机,手机可以将动效图像发送至智能手表,以使智能手表显示设置完成的动态表盘界面。其中,手机可以显示预览表盘界面。预览表盘界面可参照图9中的(C),在此不再赘述。用户还可以在手机侧预先预览后根据自身需求使用并设置当前表盘界面,实现个性化的动态表盘界面。
同理,智能手表检测到第二触发操作后,根据智能手表的设备状态,显示对应的表盘界面,表盘界面包括动效图像。
示例性的,第二触发操作包括用户针对智能手表的亮屏操作,且智能手表未处于倾斜状态或旋转状态的情况下,显示具有突出动态效果的表盘界面;表盘界面上的动效图像呈现由展开至收缩以及由收缩至展开的循环变化。参见图19中的(A),当智能手表检测到用户针对智能手表的亮屏操作,且智能手表未处于倾斜状态或旋转状态的情况下,则显示的表盘界面包括突出动效的动效图像。或者,参见图19中的(B),动效图像中包括前景区域和背景区域。其中,前景区域包括人像区域,背景区域包括除了人像区域之外的其他区域。当智能手表未处于倾斜状态或旋转状态时,且智能手表显示的表盘界面中动效图像的前景区域可以呈现循环变化以及背景区域不呈现变化。以此突出人像区域的动态显示效果,呈现给用户更富有立体感的动效图像。
在一些实施例中,第二触发操作还可以包括用户针对智能手表的亮屏操作。若智能手表处于倾斜状态的情况下,则显示具有倾斜动态效果的表盘界面;表盘界面上的动效图像在预设角度内沿水平方向和/或垂直方向呈现倾斜变化。继续参见图17中的(A),当智能手表检测到用户针对智能手表的亮屏操作且处于倾斜状态,则显示的表盘界面包括倾斜动态效果的动效图像。或者,参见图17中的(B),当智能手表检测到用户针对智能手表的亮屏操作且处于倾斜状态,显示的表盘界面上动效图像的前景区域呈现倾斜变化。
在一些实施例中,第二触发操作还可以包括用户针对智能手表的亮屏操作。若智能手表处于旋转状态的情况下,则显示具有旋转动态效果的表盘界面;表盘界面上的动效图像沿顺时针或逆时针方向呈现转动变化。继续参见图16中的(A),当智能手表检测到用户针对智能手表的亮屏操作且处于旋转状态,则显示的表盘界面包括旋转动态效果的动效图像。或者,参见图16中的(B),当智能手表检测到用户针对智能手表的亮屏操作且处于旋转状态,显示的表盘界面上动效图像的前景区域呈现转动变化。
可见,本申请实施例提供的表盘显示方法可以应用在包括手机、智能手表以及服务器的交互系统中。同时,在智能手表不设有摄像头的情况下,仍可以基于用户选择目标图像和输入的第二触发操作显示对应的动态表盘界面。实现个性化的动态表盘界面,进而提升用户的体验感。
以下继续结合上述图3所示交互系统,以交互系统中包括第一设备、第二设备和服务器作为示例,其中,第一设备为智能手表,第二设备为手机。对本申请实施例提供的表盘界面显示方法进行说明。
图20为本申请实施例示出的另一种表盘界面显示方法的交互示意图,如图20所示,在另一些实施例中,上述步骤S1801-S1802可以替换为步骤S2001-S2003。
步骤S2001:手机发送目标图像至服务器。
步骤S2002:手机发送采集指令至智能手表,采集指令用于指示智能手表在开启预设工作模式后采集用户对应的面部表情。
步骤S2003:智能手表响应于采集指令,采集用户的第一表情图像,以及将第一表情图像发送至服务器。
在一些实施例中,在智能手表中设有摄像头的情况下,用户可以在手机侧选择静态的目标图像,并且在智能手表侧采集用户的面部表情。可以理解的是,上述实现方式智能手表和手机应均开启预设工作模式,如景深模式。
在一种可实现的方式中,在上述实现方式时,用户很有可能不知道在何时面向智能手表摆出表情。因此,手机在开启景深模式后,显示包括提示消息的弹框界面,弹框界面用于提示用户面向智能手表做出面部表情。参见图21,弹框界面中包括提示消息控件2101,提示消息控件2101用于显示提示消息。如,“请面向智能手表做出表情”。这样,用户可以将面部从手机的前方移动到智能手表的前方。智能手表响应于采集指令,采集用户对应的表情,以及将初始表情信息发送至服务器。同时,智能手表在采集完成用户对应的表情后,也可以在表盘界面中显示包括提示消息的弹框界面,以提示用户采集完毕。在一种可实现的方式中,服务器在接收到手机发送的目标图像以及智能手表发送的初始表情信息后,需确定目标图像和初始表情信息存在关联关系,才能执行后续的渲染任务。因此,手机还可以将对应的设备信息发送至服务器,智能手表也可以将对应的设备信息发送至服务器。其中,设备信息可以包括设备对应的媒体访问控制(media access control,MAC)地址)以及通信连接信息等。这样,服务器可以根据手机和智能手表对应的设备信息确定两者之间存在关联关系,并执行渲染任务。
可以理解的是,手机显示包括提示消息的弹框界面的过程可以是在检测开启景深模式后,也可以是在发送采集指令至智能手表后。本申请实施例并不对各个步骤的执行顺序进行具体限定。
在另一种可实现的方式中,手机可以将目标图像与关联设备对应的设备信息发送至服务器,设备信息可以包括手机关联的智能手表对应的设备信息。智能手表也可以将表情信息和关联设备对应的设备信息发送至服务器,设备信息可以包括智能手表关联的手机对应的设备信息。这样,服务器可以根据接收到的目标图像以及表情信息执行后续的渲染任务。
在另一些实施例中,手机也可以将目标图像和采集指令一起发送至智能手表。智能手表响应于采集指令采集用户对应的表情,以及将目标图像和第一表情图像发送至服务器。本申请实施例不对其具体实现方式进行具体的限定。
在本申请实施例中,步骤S2004-步骤S2006与图7所示的方法中的步骤S703-步骤S705类似,在此不再赘述。
在一些实施例中,本申请实施例提供的表盘界面显示方法,还可以应用在多人场景下。示例性的,佩戴智能手表的用户选择的目标图像可以包括多个人脸。同时,智能手表在采集用户的面部表情的过程中,佩戴智能手表的用户可以和多个其他用户共同摆出面部表情。例如,目标图像中包括两个人脸,智能手表的前方只存在佩戴智能手表的一个用户。那么在智能手表显示包括动效图像的表盘界面中,动效图像中的两个人脸或一个人脸可以执行该用户对应的表情类型。再例如,目标图像中包括两个人脸,智能手表的前方存在两个用户。那么在智能手表显示包括动效图像的表盘界面中,动效图像中的两个人脸可以分别执行两个用户对应的表情类型。如,第一用户的表情类型为微笑,第二用户的表情类型为难过。那么,动效图像中的两个人脸可以一个人脸执行微笑,另一个人脸执行难过。再例如,目标图像中包括两个人脸,智能手表的前方存在多个用户。那么在智能手表显示包括动效图像的表盘界面时,智能手表可以实时识别多个用户中两个用户,并且动效图像中的两个人脸分别执行两个用户对应的表情类型。由此,智能手表在显示包括动效图像的表盘界面时可以与多个用户进行互动,不仅仅局限于与一个用户进行互动,实现了智能手表表盘界面的多样化以及个性化。同时增加了趣味性,提高了用户的使用体验。
在另一些实施例中,智能手表还可以基于采集到的用户的动作和/或用户持握的物品以及选择的静态的目标图像,创作预设工作模式对应的包括动效图像的动态表盘界面。例如,用户的动作可以包括用户头部的转动动作以及用户在靠近面部位置的手部动作等等。不仅仅局限于只基于用户的面部表情类型生成并设置智能手表表盘对应的动态表盘界面。进而,实现智能手表表盘界面的多样化以及个性化。
在本申请实施例中,智能手表可以采集用户多种表情类型对应的表情图像,服务器可以生成该用户多种不同表情类型分别对应的动效图像。在另一些实施例中,服务器生成的动效图像还可以与设置的用户相对应。服务器可以生成不同用户的不同表情类型分别对应的动效图像。示例性的,当智能手表采集的表情图像包括第一用户时,服务器可以基于第一用户的初始表情信息生成包括第一用户对应表情类型的动效图像,以及将第一用户对应的动效图像设置有用户标识。该用户标识用于表征第一用户。同样的,当智能手表采集的表情图像包括第二用户时,服务器也可以将第二用户对应的动效图像设置有用户标识。不同用户对应的用户标识不同。这样,智能手表在显示对应的表盘界面时,可以预先对采集的表情图像进行用户识别,当识别用户为第一用户时,显示包括第一用户对应动效图像的表盘界面。当识别用户为第二用户时,显示包括第二用户对应动效图像的表盘界面。
在一些方案中,可以对本申请的多个实施例进行组合,并实施组合后的方案。可选的,各方法实施例的流程中的一些操作任选地被组合,并且/或者一些操作的顺序任选地被改变。并且,各流程的步骤之间的执行顺序仅是示例性的,并不构成对步骤之间执行顺序的限制,各步骤之间还可以是其他执行顺序。并非旨在表明执行次序是可以执行这些操作的唯一次序。本领域的普通技术人员会想到多种方式来对本申请实施例所描述的操作进行重新排序。另外,应当指出的是,本申请某个实施例涉及的过程细节同样以类似的方式适用于其他实施例,或者,不同实施例之间可以组合使用。
此外,方法实施例中的某些步骤可等效替换成其他可能的步骤。或者,方法实施例中的某些步骤可以是可选的,在某些使用场景中可以删除。或者,可以在方法实施例中增加其他可能的步骤。
并且,各方法实施例之间可以单独实施,或结合起来实施。
本申请实施例还提供一种可穿戴设备,比如可以是上述智能手表,如图22所示,该可穿戴设备可以包括一个或者多个处理器2210、存储器2220和通信接口2230。
其中,存储器2220、通信接口2230与处理器2210耦合。例如,存储器2220、通信接口2230与处理器2210可以通过总线2240耦合在一起。
其中,通信接口2230用于与其他设备进行数据传输。存储器2220中存储有计算机程序代码。计算机程序代码包括计算机指令,当计算机指令被处理器2210执行时,使得可穿戴设备执行本申请实施例中的表盘界面显示方法。
其中,处理器2210可以是处理器或控制器,例如可以是中央处理器(CentralProcessing Unit,CPU),通用处理器,数字信号处理器(Digital Signal Processor,DSP),专用集成电路(Application-Specific Integrated Circuit,ASIC),现场可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等等。
其中,总线2240可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。上述总线2240可以分为地址总线、数据总线、控制总线等。为便于表示,图22中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
本申请实施例还提供一种交互系统,交互系统包括电子设备、可穿戴设备和服务器;交互系统用于执行上述方法实施例中的相关方法步骤。
本申请实施例还提供一种交互系统,交互系统包括可穿戴设备和服务器;交互系统用于执行上述方法实施例中的相关方法步骤。
本申请实施例还提供一种电子设备,电子设备包括存储器、一个或多个处理器;存储器与处理器耦合;其中,存储器中存储有计算机程序代码,计算机程序代码包括计算机指令,当计算机指令被处理器执行时,使得电子设备执行上述方法实施例中的相关方法步骤。
本申请实施例还提供一种计算机可读存储介质,该计算机存储介质中存储有计算机程序代码,当上述处理器执行该计算机程序代码时,电子设备执行上述方法实施例中的相关方法步骤。
本申请实施例还提供了一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述方法实施例中的相关方法步骤。
其中,本申请提供的可穿戴设备、计算机存储介质或者计算机程序产品均用于执行上文所提供的对应的方法,因此,其所能达到的有益效果可参考上文所提供的对应的方法中的有益效果,此处不再赘述。
通过以上实施方式的描述,所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其他的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其他的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是一个物理单元或多个物理单元,即可以位于一个地方,或者也可以分布到多个不同地方。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read only memory,ROM)、随机存取存储器(randomaccess memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上内容,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何在本申请揭露的技术范围内的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (22)
1.一种表盘界面显示方法,其特征在于,应用于交互系统,所述交互系统包括可穿戴设备、电子设备和服务器,所述可穿戴设备用于显示表盘界面,所述方法包括:
所述电子设备响应于第一触发操作,采集用户的第一表情图像;
所述电子设备获取目标图像;
所述电子设备发送图像生成请求至服务器;所述图像生成请求包括所述目标图像和所述第一表情图像的初始表情信息,所述初始表情信息用于表征所述第一表情图像的表情类型;
所述服务器响应于所述图像生成请求,生成所述目标图像对应的动效文件;所述动效文件包括根据所述初始表情信息对所述目标图像进行渲染获得的动效图像,所述动效图像的动态效果与所述第一表情图像的表情类型匹配;
所述服务器将所述动效文件发送至所述可穿戴设备;
所述可穿戴设备检测到第二触发操作后,根据采集到的第二表情图像,显示对应的表盘界面;所述表盘界面包括与所述第二表情图像的表情类型匹配的所述动效图像。
2.根据权利要求1所述的方法,其特征在于,所述可穿戴设备检测到第二触发操作后,根据采集到的第二表情图像,显示对应的表盘界面,包括:
所述可穿戴设备检测到所述第二触发操作后,采集用户的所述第二表情图像;
所述可穿戴设备识别所述第二表情图像的表情类型;
所述可穿戴设备根据目标表情信息,显示对应的表盘界面,所述目标表情信息用于表征所述第二表情图像的表情类型。
3.根据权利要求2所述的方法,其特征在于,所述可穿戴设备根据采集到的所述第二表情图像,显示对应的表盘界面,包括:
对比所述第二表情图像的所述目标表情信息和所述动效图像的效果信息,所述效果信息用于表征所述动效图像中的表情类型;
若所述第二表情图像的目标表情信息和所述动效图像的效果信息匹配,则显示包括所述动效图像的表盘界面。
4.根据权利要求3所述的方法,其特征在于,所述目标表情信息和所述效果信息包括特征点信息,所述可穿戴设备对比所述第二表情图像的目标表情信息和所述动效图像的效果信息,包括:
所述可穿戴设备对比所述目标表情信息的特征点信息和所述效果信息的特征点信息,所述特征点信息用于表征表情类型对应的表情特征;
若所述第二表情图像的目标表情信息和所述动效图像的效果信息匹配,则显示包括所述动效图像的表盘界面,包括:
若所述目标表情信息的特征点信息和所述效果信息的特征点信息匹配,则确定所述第二表情图像的目标表情信息和所述动效图像的效果信息匹配,显示包括所述动效图像的表盘界面。
5.根据权利要求3所述的方法,其特征在于,所述目标表情信息和所述效果信息包括表情类型标识,所述可穿戴设备对比所述第二表情图像的目标表情信息和所述动效图像的效果信息,包括:
所述可穿戴设备对比所述目标表情信息的表情类型标识和所述效果信息的表情类型标识;
若所述第二表情图像的目标表情信息和所述动效图像的效果信息匹配,则显示包括所述动效图像的表盘界面,包括:
若所述目标表情信息的表情类型标识和所述效果信息的表情类型标识匹配,则确定所述第二表情图像的目标表情信息和所述动效图像的效果信息匹配,显示包括所述动效图像的表盘界面。
6.根据权利要求4或5所述的方法,其特征在于,所述方法还包括:
若所述第二表情图像的目标表情信息和所述动效图像的效果信息不匹配,则显示包括所述目标图像的表盘界面。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述第二触发操作包括亮屏操作,所述亮屏操作包括用户抬起佩戴所述可穿戴设备的手腕至用户人脸前方,或者,用户抬起佩戴所述可穿戴设备的手腕且用户低头。
8.根据权利要求1-7任一项所述的方法,其特征在于,所述第一触发操作包括用户针对所述电子设备中预设工作模式的开启操作,所述预设工作模式用于所述电子设备设置所述可穿戴设备对应的包括所述动效图像的表盘界面。
9.一种表盘界面显示方法,其特征在于,应用于交互系统,所述交互系统包括可穿戴设备和服务器;所述方法包括:
所述可穿戴设备响应于第一触发操作,采集用户的第一表情图像;
所述可穿戴设备获取目标图像;
所述可穿戴设备发送图像生成请求至服务器;所述图像生成请求包括所述目标图像和所述第一表情图像的初始表情信息,所述初始表情信息用于表征所述第一表情图像的表情类型;
所述服务器响应于所述图像生成请求,生成所述目标图像对应的动效文件;所述动效文件包括根据所述初始表情信息对所述目标图像进行渲染获得的动效图像,所述动效图像的动态效果与所述第一表情图像的表情类型匹配;
所述服务器将所述动效文件发送至所述可穿戴设备;
所述可穿戴设备检测到第二触发操作后,根据采集到的第二表情图像,显示对应的表盘界面;所述表盘界面包括与所述第二表情图像的表情类型匹配的所述动效图像。
10.根据权利要求9所述的方法,其特征在于,所述可穿戴设备检测到第二触发操作后,根据采集到的第二表情图像,显示对应的表盘界面,包括:
所述可穿戴设备检测到所述第二触发操作后,采集用户的所述第二表情图像;
所述可穿戴设备识别所述第二表情图像的表情类型;
根据目标表情信息,显示对应的表盘界面,所述目标表情信息用于表征所述第二表情图像的表情类型。
11.一种表盘界面显示方法,其特征在于,应用于交互系统,所述交互系统包括可穿戴设备、电子设备和服务器;所述方法包括:
所述电子设备响应于第一触发操作,发送图像生成请求至服务器;所述图像生成请求包括目标图像;
所述服务器响应于所述图像生成请求,生成所述目标图像对应的动效文件;所述动效文件包括根据预设动态信息对所述目标图像进行渲染获得的动效图像,所述预设动态信息用于表征针对所述目标图像预设的动态效果类型,所述动效图像的动态效果与所述动态效果类型匹配;
所述服务器将所述动效文件发送至所述可穿戴设备;
所述可穿戴设备检测到第二触发操作后,根据所述动效文件显示表盘界面,所述表盘界面包括与所述动态效果类型匹配的所述动效图像。
12.根据权利要求11所述的方法,其特征在于,所述图像生成请求还包括所述预设动态信息。
13.根据权利要求11或12所述的方法,其特征在于,所述可穿戴设备检测到第二触发操作后,显示对应的表盘界面;包括:
所述可穿戴设备检测到第二触发操作后,根据所述可穿戴设备的设备状态,显示对应的表盘界面。
14.根据权利要求13所述的方法,其特征在于,所述可穿戴设备检测到第二触发操作后,根据所述可穿戴设备的设备状态,显示对应的表盘界面;包括:
所述可穿戴设备在检测到所述第二触发操作,所述第二触发操作包括亮屏操作后,若所述可穿戴设备处于倾斜状态,则显示具有倾斜动态效果的所述表盘界面;所述表盘界面上的所述动效图像在预设角度内沿水平方向和/或垂直方向呈现倾斜变化。
15.根据权利要求13所述的方法,其特征在于,所述可穿戴设备检测到第二触发操作后,根据所述可穿戴设备的设备状态,显示对应的表盘界面;包括:
所述可穿戴设备在检测到所述第二触发操作,所述第二触发操作包括亮屏操作后,若所述可穿戴设备处于旋转状态,则显示具有旋转动态效果的所述表盘界面;所述表盘界面上的所述动效图像沿顺时针或逆时针方向呈现转动变化。
16.根据权利要求13所述的方法,其特征在于,所述可穿戴设备检测到第二触发操作后,根据所述可穿戴设备的设备状态,显示对应的表盘界面;包括:
所述可穿戴设备在检测到所述第二触发操作,所述第二触发操作包括亮屏操作后,若所述可穿戴设备未处于倾斜状态或旋转状态,则显示具有突出动态效果的所述表盘界面;所述表盘界面上的所述动效图像呈现由展开至收缩以及由收缩至展开的循环变化。
17.根据权利要求13所述的方法,其特征在于,所述动效图像包括前景区域和背景区域,所述可穿戴设备显示具有突出动态效果的所述表盘界面,包括:
所述可穿戴设备显示具有突出动态效果的所述表盘界面,所述表盘界面上所述动效图像的所述前景区域呈现由展开至收缩以及由收缩至展开的循环变化。
18.根据权利要求11-17任一项所述的方法,其特征在于,所述第一触发操作包括用户针对所述电子设备中预设工作模式的开启操作,所述预设工作模式用于所述电子设备设置所述可穿戴设备对应的包括所述动效图像的表盘界面。
19.一种交互系统,其特征在于,所述交互系统包括电子设备、可穿戴设备和服务器;所述交互系统用于执行如权利要求1-8任一项所述的表盘界面显示方法,或者如权利要求11-18任一项所述的表盘界面显示方法。
20.一种交互系统,其特征在于,所述交互系统包括可穿戴设备和服务器;所述交互系统用于执行如权利要求9或10所述的表盘界面显示方法。
21.一种电子设备,其特征在于,所述电子设备包括存储器、一个或多个处理器;所述存储器与所述处理器耦合;其中,所述存储器中存储有计算机程序代码,所述计算机程序代码包括计算机指令,当所述计算机指令被所述处理器执行时,使得所述电子设备执行如权利要求1-8任一项中所述可穿戴设备、所述服务器或所述电子设备执行的所述的表盘界面显示方法,或者如权利要求9或10中所述可穿戴设备或所述服务器执行的所述的表盘界面显示方法,或者如权利要求11-18任一项中所述可穿戴设备、所述服务器或所述电子设备执行的所述的表盘界面显示方法。
22.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机可以执行如权利要求1-8任一项所述的表盘界面显示方法,或者如权利要求9或10所述的表盘界面显示方法,或者如权利要求11-18任一项所述的表盘界面显示方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211319648.6A CN117931333A (zh) | 2022-10-26 | 2022-10-26 | 一种表盘界面显示方法及电子设备 |
PCT/CN2023/121058 WO2024087980A1 (zh) | 2022-10-26 | 2023-09-25 | 一种表盘界面显示方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211319648.6A CN117931333A (zh) | 2022-10-26 | 2022-10-26 | 一种表盘界面显示方法及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117931333A true CN117931333A (zh) | 2024-04-26 |
Family
ID=90767248
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211319648.6A Pending CN117931333A (zh) | 2022-10-26 | 2022-10-26 | 一种表盘界面显示方法及电子设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN117931333A (zh) |
WO (1) | WO2024087980A1 (zh) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4717539B2 (ja) * | 2005-07-26 | 2011-07-06 | キヤノン株式会社 | 撮像装置及び撮像方法 |
CN104917666B (zh) * | 2014-03-13 | 2019-08-06 | 腾讯科技(深圳)有限公司 | 一种制作个性化动态表情的方法和装置 |
CN108845741B (zh) * | 2018-06-19 | 2020-08-21 | 北京百度网讯科技有限公司 | 一种ar表情的生成方法、客户端、终端和存储介质 |
CN110941992B (zh) * | 2019-10-29 | 2023-09-05 | 平安科技(深圳)有限公司 | 微笑表情检测方法、装置、计算机设备及存储介质 |
CN113051427A (zh) * | 2019-12-10 | 2021-06-29 | 华为技术有限公司 | 一种表情制作方法和装置 |
CN113643411A (zh) * | 2020-04-27 | 2021-11-12 | 北京达佳互联信息技术有限公司 | 一种图像特效添加方法、装置、电子设备和存储介质 |
-
2022
- 2022-10-26 CN CN202211319648.6A patent/CN117931333A/zh active Pending
-
2023
- 2023-09-25 WO PCT/CN2023/121058 patent/WO2024087980A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024087980A1 (zh) | 2024-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110134316B (zh) | 模型训练方法、情绪识别方法及相关装置和设备 | |
WO2020078299A1 (zh) | 一种处理视频文件的方法及电子设备 | |
CN112887583B (zh) | 一种拍摄方法及电子设备 | |
CN109829107A (zh) | 一种基于用户运动状态的推荐方法及电子设备 | |
WO2020029306A1 (zh) | 一种图像拍摄方法及电子设备 | |
CN112214636B (zh) | 音频文件的推荐方法、装置、电子设备以及可读存储介质 | |
CN113973173B (zh) | 图像合成方法和电子设备 | |
CN113973189B (zh) | 显示内容的切换方法、装置、终端及存储介质 | |
CN112840635A (zh) | 智能拍照方法、系统及相关装置 | |
CN114115512B (zh) | 信息显示方法、终端设备及计算机可读存储介质 | |
CN111625670A (zh) | 一种图片分组方法及设备 | |
CN110138999B (zh) | 一种用于移动终端的证件扫描方法及装置 | |
CN113805487B (zh) | 控制指令的生成方法、装置、终端设备及可读存储介质 | |
CN112527093A (zh) | 手势输入方法及电子设备 | |
CN115147451A (zh) | 目标跟踪方法及其装置 | |
CN113970888A (zh) | 家居设备控制方法、终端设备及计算机可读存储介质 | |
WO2022037479A1 (zh) | 一种拍摄方法和拍摄系统 | |
CN114065312A (zh) | 一种组件显示方法及电子设备 | |
CN112740148A (zh) | 一种向输入框中输入信息的方法及电子设备 | |
CN111431968B (zh) | 服务元素的跨设备分配方法、终端设备及存储介质 | |
CN114201738A (zh) | 解锁方法及电子设备 | |
CN115437601B (zh) | 图像排序方法、电子设备、程序产品及介质 | |
CN116861066A (zh) | 应用推荐方法和电子设备 | |
CN115730091A (zh) | 批注展示方法、装置、终端设备及可读存储介质 | |
CN117931333A (zh) | 一种表盘界面显示方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |