CN110187759B - 显示方法、装置、智能穿戴设备及存储介质 - Google Patents
显示方法、装置、智能穿戴设备及存储介质 Download PDFInfo
- Publication number
- CN110187759B CN110187759B CN201910381115.2A CN201910381115A CN110187759B CN 110187759 B CN110187759 B CN 110187759B CN 201910381115 A CN201910381115 A CN 201910381115A CN 110187759 B CN110187759 B CN 110187759B
- Authority
- CN
- China
- Prior art keywords
- wrist
- user
- acceleration
- acceleration data
- average value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 230000009471 action Effects 0.000 claims abstract description 217
- 238000005259 measurement Methods 0.000 claims abstract description 33
- 230000001133 acceleration Effects 0.000 claims description 476
- 210000000707 wrist Anatomy 0.000 claims description 257
- 230000005484 gravity Effects 0.000 claims description 54
- 230000003183 myoelectrical effect Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 2
- 239000000126 substance Substances 0.000 claims description 2
- 230000006698 induction Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 25
- 230000008859 change Effects 0.000 description 23
- 238000004891 communication Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 238000013145 classification model Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 210000001364 upper extremity Anatomy 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000007306 turnover Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011982 device technology Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
- G04G21/02—Detectors of external physical values, e.g. temperature
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G21/00—Input or output devices integrated in time-pieces
- G04G21/02—Detectors of external physical values, e.g. temperature
- G04G21/025—Detectors of external physical values, e.g. temperature for measuring physiological data
-
- G—PHYSICS
- G04—HOROLOGY
- G04G—ELECTRONIC TIME-PIECES
- G04G9/00—Visual time or date indication means
- G04G9/0064—Visual time or date indication means in which functions not related to time can be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1423—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
- G06F3/1431—Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Physiology (AREA)
- Biomedical Technology (AREA)
- Dermatology (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- Computer Graphics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开提供一种显示方法、装置、智能穿戴设备及计算机可读存储介质,所述方法应用于智能穿戴设备上,所述智能穿戴设备包括惯性传感器以及至少两个屏幕显示区域;在用户穿戴所述智能穿戴设备时,所述屏幕显示区域不同时处于同一平面上,所述方法包括:通过所述惯性传感器采集的测量数据,获取用户的目标动作;根据用户的目标动作,确定与用户的视线范围相应的屏幕显示区域;点亮所述屏幕显示区域,以显示当前内容。本公开实施例实现自动感应以点亮用户视线范围内的屏幕显示区域,提高用户的使用体验。
Description
技术领域
本公开涉及可穿戴设备技术领域,尤其涉及一种显示方法、装置、智能穿戴设备及计算机可读存储介质。
背景技术
随着智能可穿戴技术的发展,可穿戴设备,如手环、手表、臂带或者手带等,在人们的移动生活中正扮演着越来越重要的角色,随之而来的“倒逼”需求也在大力推动着可穿戴技术的进一步发展,这不仅体现在新型传感器技术和生物测量算法上,还体现在可穿戴设备的交互上。
从应用角度来看,目前可穿戴设备主要用在运动和健康等细分领域,除此,近来移动市场对可穿戴设备具有通信功能的需求越来越强烈。因此,相关技术中的智能穿戴设备普遍设置有相应的屏幕,其能够提供基于用户的触控操作显示或者执行相应内容的功能,从而实现与用户的交互。
但是,发明人发现:相关技术中的智能穿戴设备的屏幕通常设置于智能穿戴设备的固定位置,当用户想要从智能穿戴设备上查看任意内容,如果当前屏幕不在用户视线范围内,则用户需要将智能穿戴设备的屏幕手动调整至视线范围内才能进行操作,影响用户的使用体验。
发明内容
为克服相关技术中存在的问题,本公开实施例提供了一种显示方法、装置、智能穿戴设备及计算机可读存储介质。
根据本公开实施例的第一方面,提供一种显示方法,应用于智能穿戴设备上,所述智能穿戴设备包括惯性传感器以及至少两个屏幕显示区域;在用户穿戴所述智能穿戴设备时,所述屏幕显示区域不同时处于同一平面上;
所述方法包括:
通过所述惯性传感器采集的测量数据,获取用户的目标动作;
根据用户的目标动作,确定与用户的视线范围相应的屏幕显示区域;
点亮所述屏幕显示区域,以显示当前内容。
可选地,所述测量数据包括在三维坐标系内的三个轴向的加速度数据以及角速度数据。
可选地,所述通过所述惯性传感器采集的测量数据,获取用户的目标动作,包括:
根据所述惯性传感器测量的在三维坐标系内的三个轴向的加速度数据获取用户的抬腕动作。
可选地,所述根据用户的目标动作,确定与用户的视线范围相应的屏幕显示区域,包括:
根据Z轴的加速度数据或Y轴的角速度数据确定所述抬腕动作的方向,以确定与用户的视线范围相应的屏幕显示区域。
可选地,所述根据所述惯性传感器测量的在三维坐标系内的三个轴向的加速度数据,获取用户的抬腕动作,包括:
根据所述惯性传感器测量的在三维坐标系内的三个轴向的加速度数据,计算加速度模值,以确定抬腕动作;所述加速度模值为三个轴向的加速度数据的N次幂之和的M次方;M、N不等于0。
可选地,所述通过所述惯性传感器采集的测量数据,获取用户的目标动作,包括:
基于所述惯性传感器测量的在三维坐标系内的X轴的角速度数据,获取用户的翻腕动作。
可选地,所述基于所述惯性传感器测量的在三维坐标系内的X轴的角速度数据,获取用户的翻腕动作,包括:
若所述惯性传感器测量的在三维坐标系内的X轴的角速度数据大于指定阈值,确定翻腕动作。
可选地,所述根据用户的目标动作,确定与用户的视线范围相应的屏幕显示区域,包括:
根据Z轴的加速度数据确定所述翻腕动作的翻转方向,以确定与用户的视线范围相应的屏幕显示区域。
可选地,所述根据Z轴的加速度数据确定所述翻腕动作的翻转方向,包括:
获取预设时间段内的Z轴的加速度数据;
分别计算Z轴加速度数据在该预设时间段的前半部分的平均值和后半部分的的平均值;根据Z轴加速度数据的前半部分的平均值和后半部分的平均值的正负,以及两个平均值之差与预设阈值的大小关系,确定所述翻腕动作的翻转方向;其中,所述Z轴加速度的前半部分的平均值和后半部分的平均值的正负与Z轴方向与重力加速度的方向所形成的夹角的大小相关。可选地,若所述Z轴方向与重力加速度的方向所形成的夹角小于90°,则Z轴加速度数值为负;若所述Z轴方向与重力加速度的方向所形成的夹角等于90°,则Z轴加速度数值为0;若所述Z轴方向与重力加速度的方向所形成的夹角大于90°,则Z轴加速度数值为正;
则所述根据Z轴加速度数据的前半部分的平均值和后半部分的平均值的正负,以及两个平均值之差与预设阈值的大小关系,确定所述翻腕动作的翻转方向,包括:
若Z轴加速度数据的前半部分的平均值为正数、后半部分的平均值为负数,且两者的差值的绝对值大于预设阈值,确定所述翻腕动作为翻转到手背朝上的方向;
若Z轴加速度数据的前半部分的平均值为负数、后半部分的平均值为正数,且两者的差值的绝对值大于所述预设阈值,确定所述翻腕动作翻转到手心朝上的方向。
可选地,所述智能穿戴设备还包括肌电传感器;
则所述点亮所述屏幕显示区域,以显示当前内容,包括:
当所述肌电传感器采集的数据符合预设条件时,点亮所述屏幕显示区域,以显示当前内容;所述预设条件包括表征用户当前的动作为紧握动作的相关数据。
可选地,还包括:
根据所述目标动作确定所述当前内容的显示方向;所述显示方向为水平方向或者竖直方向;
基于所述显示方向调整所述当前内容。
可选地,所述通过所述惯性传感器采集的测量数据,获取用户的目标动作,包括:
根据所述惯性传感器测量的在三维坐标系内的Z轴的角速度数据,获取用户的转腕动作。
可选地,所述根据所述惯性传感器测量的在三维坐标系内的Z轴的角速度数据,获取用户的转腕动作,包括:
若所述惯性传感器测量的在三维坐标系内的Z轴的角速度数据大于预设阈值,确定转腕动作。
可选地,所述根据所述目标动作确定所述当前内容的显示方向,包括:
根据X轴以及Y轴的加速度数据确定所述转腕动作的翻转方向,以确定所述当前内容的显示方向。
可选地,所述根据X轴以及Y轴的加速度数据确定所述转腕动作的翻转方向,包括:
获取预设时间段内的X轴的加速度数据和Y轴的加速度数据;
分别计算X轴加速度数据和Y轴加速度数据在该预设时间段的前半部分的的平均值和后半部分的平均值;
根据X轴加速度数据和Y轴加速度数据的前半部分的平均值和后半部分的平均值的正负、X轴加速度数据的两个平均值之差与预设阈值的大小关系、以及Y轴加速度数据的两个平均值之差与预设阈值的大小关系,确定所述转腕动作的翻转方向;其中,所述X轴加速度的前半部分的平均值和后半部分的平均值的正负与X轴方向与重力加速度的方向所形成的夹角的大小相关,且Y轴加速度的前半部分的平均值和后半部分的平均值的正负与Y轴方向与重力加速度的方向所形成的夹角的大小相关。
可选地,若所述X轴与Y轴的方向与重力加速度的方向所形成的夹角小于90°,则X轴与Y轴的加速度数值为负;若所述X轴与Y轴的方向与重力加速度的方向所形成的夹角等于90°,则X轴与Y轴的加速度数值为0;若所述X轴与Y轴的方向与重力加速度的方向所形成的夹角大于90°,则X轴与Y轴的加速度数值为正;
所述根据X轴加速度数据和Y轴加速度数据的前半部分的平均值和后半部分的平均值的正负、X轴加速度数据的两个平均值之差与预设阈值的大小关系、以及Y轴加速度数据的两个平均值之差与预设阈值的大小关系,确定所述转腕动作的翻转方向,包括:
若X轴加速度数据前半部分的平均值为负数、后半部分的平均值为正数、且X轴加速度数据两个平均值之差的绝对值大于指定阈值,以及Y轴加速度数据前半部分的平均值为正数、后半部分的平均值为负数、且Y轴加速度数据两个平均值之差的绝对值大于指定阈值,确定所述转腕动作转为相对于地面平行的水平方向;
若X轴加速度数据前半部分的平均值为正数、后半部分的平均值为负数、且X轴加速度数据两个平均值之差的绝对值大于指定阈值,以及Y轴加速度数据前半部分的平均值为负数、后半部分的平均值为正数、且Y轴加速度数据两个平均值之差的绝对值大于指定阈值,确定所述转腕动作转为垂直于地面的竖直方向。
根据本公开实施例的第二方面,提供一种显示装置,应用于智能穿戴设备上,所述智能穿戴设备包括惯性传感器以及至少两个屏幕显示区域;在用户穿戴所述智能穿戴设备时,所述屏幕显示区域不同时处于同一平面上;
所述装置包括目标动作获取模块、显示区域确定模块以及显示区域点亮模块;
所述惯性传感器,用于采集测量数据;
所述目标动作获取模块,用于根据所述测量数据,获取用户的目标动作;
所述显示区域确定模块,用于根据用户的目标动作,确定与用户的视线范围相应的屏幕显示区域;
所述显示区域点亮模块,用于点亮所述屏幕显示区域,以显示当前内容。
可选地,所述测量数据包括在三维坐标系内的三个轴向的加速度数据以及角速度数据。
可选地,所述目标动作获取模块包括:
根据所述惯性传感器测量的在三维坐标系内的三个轴向的加速度数据获取用户的抬腕动作。
可选地,所述显示区域确定模块包括:
根据Z轴的加速度数据或Y轴的角速度数据确定所述抬腕动作的方向,以确定与用户的视线范围相应的屏幕显示区域。
可选地,所述目标动作获取模块包括:
根据所述惯性传感器测量的在三维坐标系内的三个轴向的加速度数据,计算加速度模值,以确定抬腕动作;所述加速度模值为三个轴向的加速度数据的N次幂之和的M次方;M、N不等于0。
可选地,所述目标动作获取模块包括:
基于所述惯性传感器测量的在三维坐标系内的X轴的角速度数据,获取用户的翻腕动作。
可选地,所述目标动作获取模块包括:
若所述惯性传感器测量的在三维坐标系内的X轴的角速度数据大于指定阈值,确定翻腕动作。
可选地,所述显示区域确定模块包括:
根据Z轴的加速度数据确定所述翻腕动作的翻转方向,以确定与用户的视线范围相应的屏幕显示区域。
可选地,所述显示区域确定模块包括:
第一加数据获取单元,用于获取预设时间段内的Z轴的加速度数据;
第一平均值计算单元,用于分别计算Z轴加速度数据在该预设时间段的前半部分的平均值和后半部分的的平均值;
第一翻转方向确定单元,用于根据Z轴加速度数据的前半部分的平均值和后半部分的平均值的正负,以及两个平均值之差与预设阈值的大小关系,确定所述翻腕动作的翻转方向;;其中,所述Z轴加速度的前半部分的平均值和后半部分的平均值的正负与Z轴方向与重力加速度的方向所形成的夹角的大小相关;
显示区域确定单元,用于根据所述翻腕动作的翻转方向,确定与用户的视线范围相应的屏幕显示区域。
可选地,若所述Z轴方向与重力加速度的方向所形成的夹角小于90°,则Z轴加速度数值为负;若所述Z轴方向与重力加速度的方向所形成的夹角等于90°,则Z轴加速度数值为0;若所述Z轴方向与重力加速度的方向所形成的夹角大于90°,则Z轴加速度数值为正;
则所述第一翻转方向确定单元,包括:
手背方向确定子单元,用于若Z轴加速度数据的前半部分的平均值为正数、后半部分的平均值为负数,且两者的差值的绝对值大于预设阈值,确定所述翻腕动作为翻转到手背朝上的方向;
手心方向确定子单元,用于若Z轴加速度数据的前半部分的平均值为负数、后半部分的平均值为正数,且两者的差值的绝对值大于所述预设阈值,确定所述翻腕动作翻转到手心朝上的方向。
可选地,所述智能穿戴设备还包括肌电传感器;
则所述显示区域点亮模块包括:
当所述肌电传感器采集的数据符合预设条件时,点亮所述屏幕显示区域,以显示当前内容;所述预设条件包括表征用户当前的动作为紧握动作的相关数据。
可选地,还包括:
内容显示方向确定模块,用于根据所述目标动作确定所述当前内容的显示方向;所述显示方向为水平方向或者竖直方向;
内容调整单元,用于基于所述显示方向调整所述当前内容。
可选地,所述目标动作获取模块包括:
根据所述惯性传感器测量的在三维坐标系内的Z轴的角速度数据,获取用户的转腕动作。
可选地,所述目标动作获取模块包括:
若所述惯性传感器测量的在三维坐标系内的Z轴的角速度数据大于预设阈值,确定转腕动作。
可选地,所述内容显示方向确定模块包括:
根据X轴以及Y轴的加速度数据确定所述转腕动作的翻转方向,以确定所述当前内容的显示方向。
可选地,所述内容显示方向确定模块包括:
第二加速度数据获取单元,用于获取预设时间段内的X轴的加速度数据和Y轴的加速度数据;
第二平均值计算单元,用于分别计算X轴加速度数据和Y轴加速度数据在该预设时间段的前半部分的的平均值和后半部分的平均值;
第二翻转方向确定单元,用于根据X轴加速度数据和Y轴加速度数据的前半部分的平均值和后半部分的平均值的正负、X轴加速度数据的两个平均值之差与预设阈值的大小关系、以及Y轴加速度数据的两个平均值之差与预设阈值的大小关系,确定所述转腕动作的翻转方向;其中,所述X轴加速度的前半部分的平均值和后半部分的平均值的正负与X轴方向与重力加速度的方向所形成的夹角的大小相关,且Y轴加速度的前半部分的平均值和后半部分的平均值的正负与Y轴方向与重力加速度的方向所形成的夹角的大小相关;
显示方向确定单元,用于根据所述转腕动作的翻转方向,确定所述当前内容的显示方向。
可选地,若所述X轴与Y轴的方向与重力加速度的方向所形成的夹角小于90°,则X轴与Y轴的加速度数值为负;若所述X轴与Y轴的方向与重力加速度的方向所形成的夹角等于90°,则X轴与Y轴的加速度数值为0;若所述X轴与Y轴的方向与重力加速度的方向所形成的夹角大于90°,则X轴与Y轴的加速度数值为正;
所述第二翻转方向确定单元,包括:
水平方向确定子单元,用于若X轴加速度数据前半部分的平均值为负数、后半部分的平均值为正数、且X轴加速度数据两个平均值之差的绝对值大于指定阈值,以及Y轴加速度数据前半部分的平均值为正数、后半部分的平均值为负数、且Y轴加速度数据两个平均值之差的绝对值大于指定阈值,确定所述转腕动作转为相对于地面平行的水平方向;
垂直方向确定子单元,用于若X轴加速度数据前半部分的平均值为正数、后半部分的平均值为负数、且X轴加速度数据两个平均值之差的绝对值大于指定阈值,以及Y轴加速度数据前半部分的平均值为负数、后半部分的平均值为正数、且Y轴加速度数据两个平均值之差的绝对值大于指定阈值,确定所述转腕动作转为垂直于地面的竖直方向。
根据本公开实施例的第三方面,提供一种智能穿戴设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
惯性传感器以及至少两个屏幕显示区域;
其中,
所述惯性传感器用于采集测量数据;
所述处理器,被配置为执行上述方法中的操作。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,当由一个或多个处理器执行时,使得处理器执行如上所述方法中的操作。
本公开的实施例提供的技术方案可以包括以下有益效果:
本公开中,在智能穿戴设备设置至少两个屏幕显示区域,使得所述智能穿戴设备在基于惯性传感器的测量数据获取用户的目标动作之后,能够根据用户的目标动作,确定与用户的视线范围相应的屏幕显示区域,然后点亮所述屏幕显示区域以显示当前内容,实现自动确定与用户的视线范围相应的屏幕显示区域并进行点亮的过程,无需用户手动调整屏幕位置,进一步提升用户使用体验。
本公开中,所述智能穿戴设备被穿戴于上肢部位,所述智能穿戴设备根据所述惯性传感器测量的在三维坐标系内的三个轴向的加速度数据获取用户的抬腕动作,保证动作识别的准确性。
本公开中,根据三个轴向的加速度数据的模值确定抬腕动作,有利于提高动作识别的准确度。
本公开中,根据Z轴的加速度数据或Y轴的角速度数据确定所述抬腕动作的方向,以确定与用户的视线范围相应的屏幕显示区域,基于用户的使用习惯准确定位用户的视线范围,从而确定相应的屏幕显示区域,方便用户使用。
本公开中,基于测量的在三维坐标系内的X轴的角速度数据,获取用户的翻腕动作,保证动作识别的准确性。
本公开中,判断所述X轴的角速度数据是否大于或者等于指定阈值,若是,确定为翻腕动作,有利于提高动作识别的准确度。
本公开中,根据Z轴的加速度数据确定所述翻腕动作的翻转方向,以确定与用户的视线范围相应的屏幕显示区域,准确定位用户的视线范围,提高用户的使用体验。
本公开中,提供确定所述翻腕动作的翻转方向的一种实现方式,首先获取预设时间段内的Z轴的加速度数据,然后分别计算Z轴加速度数据在该预设时间段的前半部分的平均值和后半部分的的平均值,最后根据这两个平均值确定所述翻腕动作的翻转方向;有利于提高方向识别的准确度。
本公开中,所述智能穿戴设备还包括肌电传感器,所述智能穿戴设备能够通过所述肌电传感器采集的数据确定是否点亮与用户视线范围相应的屏幕显示区域,从而提高亮屏的准确率,避免误点亮事件的发生。
本公开中,所述智能穿戴设备还可以根据所述目标动作自动确定所述当前内容的显示方向,进而调整所述当前内容,无需用户进行其他调整操作,方便用户阅读所述当前内容。
本公开中,根据在三维坐标系内的Z轴的角速度数据,获取用户的转腕动作,保证动作识别的准确性。
本公开中,判断所述Z轴的角速度数据是否大于或者等于预设阈值,若是,确定为转腕动作,有利于提高动作识别的准确度。
本公开中,根据X轴以及Y轴的加速度数据确定所述转腕动作的翻转方向,以确定所述当前内容的显示方向,精准定位内容的显示方向,方便用户观看显示的当前内容。
本公开中,提供确定所述转腕动作的翻转方向的一种实现方式,首先获取预设时间段内的X轴的加速度数据和Y轴的加速度数据,然后分别计算X轴加速度数据和Y轴加速度数据在该预设时间段的前半部分的的平均值和后半部分的平均值,最后根据这四个平均值确定所述转腕动作的翻转方向,有利于提高方向识别的准确度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是本公开根据一示例性实施例示出的设置有两个屏幕显示区域的智能穿戴设备的心电图。
图2是本公开根据一示例性实施例示出的一种显示方法的流程图。
图3是本公开根据一示例性实施例示出的用户穿戴所述智能穿戴设备抬腕或者翻腕之后,点亮在用户的视线范围内的屏幕显示区域的示意图。
图4是本公开根据一示例性实施例示出的三维坐标系的示例性朝向示意图。
图5A是本公开根据一示例性实施例示出抬腕后手背朝上然后落下手腕的三轴加速度数据波形示意图。
图5B是本公开根据一示例性实施例示出抬腕后手背朝上然后落下手腕的三轴加速度数据取模值的波形示意图。
图5C是本公开根据一示例性实施例示出抬腕后手背朝上然后落下手腕的三轴角速度数据波形示意图。
图6A是本公开根据一示例性实施例示出抬腕后手背朝上然后落下手腕的三轴加速度数据波形示意图。
图6B是本公开根据一示例性实施例示出抬腕后手背朝上然后落下手腕的三轴加速度数据取模值的波形示意图。
图6C是本公开根据一示例性实施例示出抬腕后手背朝上然后落下手腕的三轴角速度数据波形示意图。
图7A是本公开根据一示例性实施例示出翻腕动作的三轴角速度数据波形示意图。
图7B是本公开根据一示例性实施例示出翻腕动作的三轴加速度数据波形示意图。
图8是本公开根据一示例性实施例示出的第二种显示方法的流程图。
图9是本公开根据一示例性实施例示出的用户穿戴所述智能穿戴设备转腕时,改变内容显示方向的示意图。
图10A是本公开根据一示例性实施例示出的垂直方向转腕时的三轴角速度数据波形示意图。
图10B是本公开根据一示例性实施例示出的垂直方向转腕时的三轴加速度数据波形示意图。
图11A是本公开根据一示例性实施例示出的水平方向转腕时的三轴角速度数据波形示意图。
图11B是本公开根据一示例性实施例示出的水平方向转腕时的三轴加速度数据波形示意图。
图12是本公开根据一示例性实施例示出的一种显示装置的结构框图。
图13是本公开根据一示例性实施例示出的第二种显示装置的结构框图。
图14是本公开根据一示例性实施例示出的一种智能穿戴设备的架构图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在本公开使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开。在本公开和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
相关技术中的智能穿戴设备的屏幕通常设置于智能穿戴设备的固定位置,当用户想要从智能穿戴设备上查看任意内容,如果当前屏幕不在用户视线范围内,则用户需要将智能穿戴设备的屏幕手动调整至视线范围内才能进行操作,影响用户的使用体验。
因此,为解决相关技术中的问题,本公开实施例提供了一种显示方法,其可以基于用户的动作点亮与用户的视线范围相应的屏幕显示区域。本公开实施例的显示方法可以应用于智能穿戴设备上,所述智能穿戴设备可以是被穿戴于上肢部位的设备如手环、手表、手带、臂带或者指环等。所述智能穿戴设备包括有惯性传感器,所述惯性传感器用于检测和测量加速度、倾斜、冲击、振动、旋转和多自由度(DoF)运动,所述惯性传感器包括加速度计(或加速度传感器)和角速度传感器(陀螺仪)以及它们的单、双、三轴组合IMU(惯性测量单元),可以理解的是,本公开对于所述惯性传感器的具体种类和型号不做任何限制,比如所述惯性传感器分为两大类:一类是角速度陀螺仪;另一类是加速度传感器,所述角速度陀螺仪可以是机械式、干式液浮、半液浮或者气浮角速率陀螺、或者光纤角速率陀螺等;所述加速度传感器可以是机械式线加速度计或者挠性线加速度计等。
如图1所示,所述智能穿戴设备(图1以手环为例进行展示说明)还包括至少两个屏幕显示区域,所述屏幕显示区域的屏幕构造可以为具有可扩展性的柔性屏材质,具体地,所述屏幕显示区域可以是一独立显示屏幕,则所述智能穿戴设备包括由至少两个独立显示屏幕构成的具有多显示区域的屏幕;或者,所述智能穿戴设备包括一显示屏幕,所述显示屏幕上可以包括多个显示区域;在用户穿戴所述智能穿戴设备时,为了减少用户在想要开启所述智能穿戴设备进行某些操作之前需要手动将屏幕显示区域调整至视线范围内的繁琐操作,各个屏幕显示区域的位置被设置为满足:各个所述屏幕显示区域不同时处于同一平面;例如所述智能穿戴设备设置有两个独立显示屏幕,在用户穿戴所述智能穿戴设备时,其中一个独立显示屏幕处于腕上,另一个独立显示屏幕处于腕下。
如图2所示,图2是本公开根据一示例性实施例示出的一种显示方法的流程图,所述方法包括:
在步骤S101中,通过所述惯性传感器采集的测量数据,获取用户的目标动作。
在步骤S102中,根据用户的目标动作,确定与用户的视线范围相应的屏幕显示区域。
在步骤S103中,点亮所述屏幕显示区域,以显示当前内容。
本公开实施例根据用户的目标动作确定与用户的视线范围相应的屏幕显示区域,进而在用户的视线范围内的屏幕显示区域自动被点亮,而其他屏幕显示区域仍保持熄灭状态,此时用户可以通过在视线范围内的屏幕显示区域观看到相应信息,而其他熄灭的屏幕显示区域有利于节约电源;需要说明的是,本公开实施例考虑到用户在穿戴智能穿戴设备时查看屏幕上的显示内容的动作,将相对于地面朝上的方向,定义为与用户的视线范围相应的方向,通过确定相对于地面朝上的屏幕显示区域,即为与用户的视线范围相应的屏幕显示区域;可以理解的是,所述屏幕显示区域的尺寸可依据实际情况进行具体设置,本公开对此不做任何限制;在一个例子中,请参阅图3,当用户穿戴所述智能穿戴设备(图3以手环为例进行展示说明)抬腕或者翻腕之后,如果相对于地面朝上的屏幕显示区域位于腕上的,则确定位于腕上(对应手背朝上)的屏幕显示区域在用户的视线范围内,点亮位于腕上的屏幕显示区域,其他位置上的屏幕显示区域保持熄灭;如果相对于地面朝上的屏幕显示区域是位于腕下的,则确定位于腕下(对应手心朝上)的屏幕显示区域在用户的视线范围内,则点亮位于腕下的屏幕显示区域,其他位置上的屏幕显示区域保持熄灭。
在步骤S101中,在用户穿戴所述智能穿戴设备时,可以通过所述惯性传感器采集测量数据,所述测量数据包括在三维坐标系内的三个轴向的加速度数据以及角速度数据,以便所述智能穿戴设备基于采集的测量数据获取用户的目标动作。
在一实施例中,所述智能穿戴设备可以根据所述惯性传感器测量的在三维坐标系内的三个轴向的加速度数据获取用户的抬腕动作;在一个例子中,例如以右手穿戴所述智能穿戴设备,并且以图4中定义的三维坐标系的朝向为例,进行说明(需要说明的是,抬腕动作以图4中的表盘戴在手背的三维坐标系朝向进行说明),图4所示的三维坐标系中,在用户左手穿戴所述智能穿戴设备,且其显示屏幕相对于地面平行的情况下,Y轴与X轴构成的平面相对于显示屏幕所构成的平面平行,且X轴与手臂呈平行关系,且其方向与文字显示方向(从左指向右)相应,Y轴与手臂呈处垂直关系且其方向指向身体所在一侧的方向,Z轴垂直于X、Y轴所构成的平面,且与重力加速度的方向相同;并且需要说明的是,在本公开的所有例子中,定义三轴中存在任意一轴的加速度的方向与重力加速度方向相同或者与重力加速度的夹角小于90°,则其加速度数据为负值;若与重力加速度的夹角等于90°,则其加速度数据为0;若与重力加速度的方向相反或者与重力加速度的夹角大于90°,则其加速度数据为正值:请参阅图5A(图5A为抬腕后手背朝上然后落下手腕的三轴加速度数据波形图)以及图6A(图6A为抬腕后手心朝上然后落下手腕的三轴加速度数据波形图),可以看出,在用户抬腕的过程中,三轴加速度都有相应的变化,因此可以基于三个轴向的加速度数据来确定用户当前的动作是否是抬腕动作。
当然,在用户右手抬腕的过程中,图5A和图6A中三轴的加速度数据都有明显的变化趋势,例如X轴从与重力加速度方向相反的方向逐渐变为与重力加速度垂直的方向,X轴加速度数据均呈现由高到低(从正值逐渐减小变为0、甚至负值)的变化趋势,而图5A中Z轴与Y轴从与重力加速度垂直的方向逐渐变为与重力加速度的夹角大于90°的方向,其Z轴加速度数据和Y轴加速度呈现由低到高的(从接近0逐渐变为正值)变化趋势,图6A中Z轴与Y轴从与重力加速度垂直的方向逐渐变为与重力加速度的夹角小于90°的方向,其Z轴加速度数据和Y轴加速度呈现由高到低(从接近0逐渐变为负值)的变化趋势;另外,我们可以相应得出,在用户左手穿戴所述智能穿戴设备做抬腕动作时,无论是手背向上的抬腕动作还是手心向上的抬腕动作,其X轴从与重力加速度方向相同的方向逐渐变为与重力加速度垂直的方向,X轴加速度数据均呈现由低到高(从负值逐渐增大变为0、甚至正值)的变化趋势;而手背向上的抬腕动作,Z轴与Y轴从与重力加速度垂直的方向逐渐变为与重力加速度的夹角大于90°的方向,其Z轴加速度数据和Y轴加速度呈现由低到高的(从接近0逐渐变为正值)变化趋势;手心向上的抬腕动作,Z轴与Y轴从与重力加速度垂直的方向逐渐变为与重力加速度的夹角小于90°的方向,其Z轴加速度数据和Y轴加速度呈现由高到低(从接近0逐渐变为负值)的变化趋势;则在一个可能的例子中,还可以分别基于X轴加速度数据、Y轴加速度或者Z轴加速度的变化趋势或者通过两两组合的方式例如组合X轴加速度数据和Y轴加速度、或者组合X轴加速度数据和Z轴加速度等来确定用户当前的动作是否是抬腕动作。
需要说明的是,用户在佩戴智能穿戴设备时,所述智能穿戴设备预先让用户输入相应的佩戴模式(即右手佩戴或者左手佩戴),因此,通过所述智能穿戴设备可以通过用户输入的佩戴模式确定所述智能穿戴设备是穿戴在用户的左右还是右手。
另外,由于单独用X轴加速度数据、Y轴加速度或者Z轴加速度的变化趋势来确定用户当前的动作是否是抬腕动作还是会存在误差,基于此,所述智能穿戴设备还可以根据所述惯性传感器测量的在三维坐标系内的三个轴向的加速度数据,计算加速度模值,然后根据所述加速度模值确定抬腕动作,其中,所述加速度模值为三个轴向的加速度数据的N次幂之和的M次方;M、N不等于0,M、N可以为整数、分数或者负数,比如2次幂开平方、底的倒数的次方;在一个例子中,以所述加速度模值为三个轴向的加速度数据的平方之和的开方根的值为例进行说明:设加速度模值为a,则请参阅图5B(图5B为图5A的三轴加速度数据取模值的波形示意图)以及图6B(图6B为图6A的三轴加速度数据取模值的波形示意图),可以看出,抬腕后无论是手心朝上还是手背朝上,其加速度模值的波形变化基本相同,而且变化趋势较为明显,因此,本公开实施例可以基于加速度模值确定用户当前的动作是否是抬腕动作,有利于提高动作识别的准确率。
在一个具体的实现方式中,可以预先建立一个分类模型,所述分类模型用于根据输入的加速度模值进行抬腕动作识别;所述智能穿戴设备可以在基于三轴加速度数据计算所述加速度模值之后,将所述加速度模值作为输入参量输入到所述分类模型中,以使所述分类模型基于所述加速度模值输出动作识别结果(抬腕动作或者非抬腕动作),有利于提高识别准确率;可以理解的是,本公开对于所述分类模型的训练方法不做任何限制,可依据实际情况进行具体选择,例如可以是基于神经网络算法、贝叶斯算法或者向量机算法等进行训练。
在另一实施例中,所述智能穿戴设备可以基于所述惯性传感器测量的在三维坐标系内的X轴的角速度数据,获取用户的翻腕动作,在一个例子中,在图4中定义的三维坐标系的朝向中(需要说明的是,翻腕动作以图4中的表盘戴在手背的三维坐标系朝向进行说明),请参阅图7A(图7A为翻腕动作的三轴角速度数据波形图),可以看出,用户右手穿戴所述智能穿戴设备做翻腕动作时,如果是从手背向上翻到手心向上的翻腕动作,手腕绕X轴顺时针旋转一定角度,比如90°~180°(对应正脉冲),如果是从手心向上翻到手背向上的翻腕动作,手腕绕X轴逆时针旋转一定角度,比如90°~180°(对应负脉冲);而用户左手穿戴所述智能穿戴设备做翻腕动作时,如果是从手背向上翻到手心向上的翻腕动作,手腕绕X轴逆时针旋转一定角度,比如90°~180°(对应负脉冲),如果是从手心向上翻到手背向上的翻腕动作,手腕绕X轴顺时针旋转一定角度,比如90°~180°(对应正脉冲),因此,无需分辨所述智能穿戴设备是穿戴在左右还是穿戴在右手,所述智能穿戴设备都可以通过判断所述X轴的角速度数据是否大于或者等于指定阈值,来确定用户当前动作是否为翻腕动作;若所述X轴的角速度数据大于或者等于所述指定阈值,则确定用户当前动作为翻腕动作,从而有利于提高动作识别的准确度;可以理解的是,本公开对于所述指定阈值的具体取值不做任何限制,可依据实际情况进行具体设置。
在步骤S102中,在获取用户的目标动作之后,可以根据所述目标动作进一步确定与用户视线范围相应的屏幕显示区域。
需要说明的是,本公开实施例将相对于地面朝上的方向,定义为与用户的视线范围相应的方向,通过确定相对于地面朝上的屏幕显示区域,即为与用户的视线范围相应的屏幕显示区域。
在一实施例中,当确定用户当前动作为抬腕动作时,所述智能穿戴设备可以根据Y轴的角速度数据确定所述抬腕动作的方向,以确定与用户的视线范围相应的屏幕显示区域;具体地,请参阅图5C(图5C为抬腕后手背朝上然后落下手腕的三轴角速度数据波形图)以及图6C(图6C为抬腕后手心朝上然后落下手腕的三轴角速度数据波形图),可以看出,当用户右手穿戴所述智能穿戴设备做抬腕动作时,图5C中其Y轴的角速度数据呈现顺时针转角(正脉冲),此时与手背相应(腕上)的屏幕显示区域相对地面朝上,确定其为与用户的视线范围相应的屏幕显示区域;图6C中其Y轴的角速度数据呈现逆时针转角(负脉冲),此时与手心相应(腕下)的屏幕显示区域相对地面朝上,确定其为与用户的视线范围相应的屏幕显示区域;而用户左手穿戴所述智能穿戴设备做抬腕动作时,其变化情况与右手穿戴所述智能穿戴设备时的变化情况相反,若是抬腕后手背朝上的情况,其Y轴的角速度数据呈逆时针旋转,此时与手背相应(腕上)的屏幕显示区域相对地面朝上,确定其为与用户的视线范围相应的屏幕显示区域;在抬腕后手心朝上时其Y轴的角速度数据呈顺时针旋转,此时与手心相应(腕下)的屏幕显示区域相对地面朝上,确定其为与用户的视线范围相应的屏幕显示区域,因此,所述智能穿戴设备可以基于Y轴的角速度数据确定所述抬腕动作的方向,从而确定与用户的视线范围相应的屏幕显示区域;其中,所述智能穿戴设备可以从用户预先输入的佩戴模式(右手模式或者左手模式)中确定左右手佩戴情况。
在另一种实现方式中,为了减少区别左右手带来的繁琐操作,当确定用户当前动作为抬腕动作时,所述智能穿戴设备可以根据Z轴的加速度数据确定所述抬腕动作的方向,以确定与用户的视线范围相应的屏幕显示区域,在一例子中,在用户右手穿戴所述智能穿戴设备做抬腕动作时,若抬腕后手背向上,图5A中Z轴从与重力加速度垂直的方向逐渐变为与重力加速度的夹角大于90°的方向,其Z轴加速度数据和Y轴加速度呈现由低到高的(从接近0逐渐变为正值)变化趋势,图6A中Z轴从与重力加速度垂直的方向逐渐变为与重力加速度的夹角小于90°的方向,其Z轴加速度数据和Y轴加速度呈现由高到低(从接近0逐渐变为负值)的变化趋势;而当用户左手穿戴所述智能穿戴设备做抬腕动作时,基于所述抬腕动作的方向(抬腕后手背向上或手心向上),其Z轴加速度数据的变化情况与用户右手穿戴所述智能穿戴设备做抬腕动作对应的Z轴加速度数据的变化情况相同,因此,无需分辨用户是左手还是右手穿戴智能穿戴设备,本实施例均可以直接基于Z轴数据的变化情况确定相对于地面朝上的屏幕显示区域,若变化趋势为由低到高,则与手背相应(腕上)的屏幕显示区域相对于地面朝上,即为与用户的视线范围相应的屏幕显示区域,若变化趋势为由高到低,则与手心相应的屏幕显示区域相对于地面朝上,即为与用户的视线范围相应的屏幕显示区域,从而减少了区别左右手的步骤,提高运行效率。
在另一实施例中,当确定用户当前动作为翻腕动作之后,所述智能穿戴设备可以根据Z轴的加速度数据确定所述翻腕动作的翻转方向,以确定与用户的视线范围相应的屏幕显示区域,具体地,请参阅图7B,可以看出,用户右手穿戴所述智能穿戴设备做翻腕动作时,如果是从手背向上翻到手心向上的翻腕动作,Z轴从与重力加速度方向相同变为与重力加速度方向相反,其加速度数据从负到正,如果是从手心向上翻到手背向上的翻腕动作,Z轴从与重力加速度方向相反变为与重力加速度方向相同,加速度数据从正到负;而用户左手穿戴所述智能穿戴设备做翻腕动作时,基于该动作的翻转方向其Z轴加速度数据的变化情况与右手穿戴所述智能穿戴设备时Z轴加速度数据的变化情况相同,因此,无需分辨所述智能穿戴设备是穿戴在左手还是右手,所述智能穿戴均可以根据Z轴的加速度数据的变化情况确定所述翻腕动作的翻转方向,确定相对于地面朝上的手腕部位对应的屏幕显示区域,即为与用户的视线范围相应的屏幕显示区域。
在一个具体的实现方式中,所述智能设备可以获取预设时间段内的Z轴的加速度数据,然后分别计算Z轴加速度数据在该预设时间段的前半部分的平均值和后半部分的的平均值,最后根据Z轴加速度数据的前半部分的平均值和后半部分的平均值的正负,以及两个平均值之差与预设阈值的大小关系,确定所述翻腕动作的翻转方向,从而确定与用户的视线范围相应的屏幕显示区域,其中,所述Z轴加速度的前半部分的平均值和后半部分的平均值的正负与Z轴方向与重力加速度的方向所形成的夹角的大小相关
例如在图4定义的三维坐标系朝向中,定义Z轴加速度的方向与重力加速度方向相同或者与重力加速度的夹角小于90°,则其加速度数据为负值;若与重力加速度的夹角等于90°,则其加速度数据为0;若与重力加速度的方向相反或者与重力加速度的夹角大于90°,则若所述智能穿戴设备确定Z轴加速度数据的前半部分的平均值为正数、后半部分的平均值为负数,且两者的差值的绝对值大于预设阈值,确定所述翻腕动作为翻转到手背朝上的方向,则确定与用户的视线范围相应的屏幕显示区域为与手背相应的屏幕显示区域;若所述智能穿戴设备确定Z轴加速度数据的前半部分的平均值为负数、后半部分的平均值为正数,且两者的差值的绝对值大于所述预设阈值,确定所述翻腕动作翻转到手心朝上的方向,则确定与用户的视线范围相应的屏幕显示区域为与手心相应的屏幕显示区域。
具体地,以图4定义的三维坐标系朝向,所述智能穿戴设备包括两个屏幕显示区域,在用户穿戴所述智能穿戴设备时,一个屏幕显示区域位于腕上,另一个屏幕显示区域位于腕下为例进行说明:请参阅图7B,设Z轴加速度数据的前半部分的平均值为后半部分的平均值为预设阈值为β;若获取的预设时间段内的Z轴的加速度数据包含第一个翻腕动作(从手心朝上翻到手背朝上)的数据,则在手心朝上时,Z轴与重力加速度方向相反,计算的前半部分的平均值翻到手背朝上时,Z轴与重力加速度方向相同,计算的后半部分的平均值此时位于腕上的屏幕显示区域相对于地面朝上,确定位于腕上的屏幕显示区域在用户的视线范围内;请参阅图7B,若获取的预设时间段内的Z轴的加速度数据包含第二个翻腕动作(从手背朝上翻到手心朝上)的数据,则在手背朝上时,Z轴与重力加速度方向相同,计算的前半部分的平均值翻到手心朝上时,Z轴与重力加速度方向相反,计算的后半部分的平均值此时位于腕下的屏幕显示区域相对于地面朝上,确定位于腕下的屏幕显示区域在用户的视线范围内,本公开实施例有利于提高方向识别准确度;可以理解的是,本公开实施例对于所述预设时间段以及所述预设阈值的具体取值不做任何限制,可依据实际情况进行具体设置。
在步骤S103中,在一种可能的实现方式中,在确定了与用户视线范围相应的屏幕显示区域之后,所述智能设备可以点亮所述屏幕显示区域,以显示当前内容,无需用户其他的调整屏幕的操作步骤,自动感应用户视线范围,方便用户的观看或者阅读。
在另一种可能的实现方式中,为进一步提高识别的准确度,所述智能设备上还可以设置肌电传感器,在确定与用户视线范围相应的屏幕显示区域之后,所述智能穿戴设备可以根据所述肌电传感器采集的数据,确定是否点亮相应的屏幕显示区域,比如当所述肌电传感器采集的数据符合预设条件时,确定用户想要点亮屏幕的意图,则点亮所述与用户视线范围相应的屏幕显示区域,以显示当前内容;所述预设条件包括表征用户当前的动作为紧握动作的相关数据,从而避免误点亮现象的发生,提高用户的使用体验。
需要说明的是,所述智能穿戴设备包括有至少两个屏幕显示区域,在用户进行翻腕动作时,屏幕显示区域上显示的当前内容可以基于所述翻腕动作的翻转方向而逐渐点亮相邻的屏幕显示区域,并在相邻的屏幕显示区域显示当前内容,其他屏幕显示区域处于熄灭状态,在视觉上呈现随着用户的翻转而移动显示内容的效果,例如所述智能穿戴设备包括有3个屏幕显示区域,在用户穿戴所述智能穿戴设备时,其分别位于用户的腕上、腕前以及腕下,当用户进行从手背朝上翻到手心朝上的翻腕动作时,所述屏幕显示区域按照从腕上、腕前以及腕下的位置顺序依次点亮,并显示所述当前内容,在其中一个屏幕显示区域处于点亮状态时,其他屏幕显示区域处于熄灭状态。
本公开实施例在智能穿戴设备设置至少两个屏幕显示区域,使得所述智能穿戴设备在基于惯性传感器的测量数据获取用户的目标动作之后,能够根据用户的目标动作,确定与用户的视线范围相应的屏幕显示区域,然后点亮所述屏幕显示区域以显示当前内容,实现自动确定与用户的视线范围相应的屏幕显示区域并进行点亮的过程,无需用户手动调整屏幕位置,进一步提升用户使用体验。
图8是本公开根据一示例性实施例示出的显示方法的另一流程图。图8相对于图2更详细描述了本公开的方案。
如图8所示,该方法可以应用于所述智能穿戴设备中,所述智能穿戴设备包括惯性传感器以及至少两个屏幕显示区域;所述智能穿戴设备被穿戴于上肢部位;在用户穿戴所述智能穿戴设备时,所述屏幕显示区域不同时处于同一平面上;所述方法包括:
在步骤S201中,通过所述惯性传感器采集的测量数据,获取用户的目标动作。
在步骤S202中,根据用户的目标动作,确定与用户的视线范围相应的屏幕显示区域。与图2中的步骤S102类似,此处不再赘述。
在步骤S203中,点亮所述屏幕显示区域,以显示当前内容。与图2中的步骤S103类似,此处不再赘述。
在步骤S204中,根据所述目标动作确定所述当前内容的显示方向,以调整所述当前内容;所述显示方向为水平方向或者竖直方向。
在本公开实施例中,可以根据用户的目标动作确定当前内容的显示方向,进而调整当前内容,方便用户的观看;需要说明的是,所述目标动作可以为转腕动作,所述转腕动作包括两种情况,一是竖直方向的转腕,即用户的手臂是从相对于地面平行的水平方向转为相对于地面垂直的竖直方向,二是水平方向上的转腕,即用户的手臂是从相对于身体平行的水平方向转为相对于身体垂直的竖直方向(需要说明的是,相对于身体垂直的竖直方向并不是完全与地面方向平行,与地面有一定的夹角,该夹角小于90°),在一个例子中,请参阅图9,当用户穿戴所述智能穿戴设备(图9以手环为例进行展示说明)转动手腕之后,如果用户的手臂是从相对于地面平行的水平方向转为相对于地面垂直的竖直方向,或者是从相对于身体平行的水平方向转为相对于身体垂直的竖直方向,则所述智能穿戴设备将被点亮的屏幕显示区域的当前内容调整为竖直方向(竖屏状态);如果用户是从相对于地面垂直的竖直方向转为相对于地面平行的水平方向,或者从相对于身体垂直的竖直方向转为相对于身体平行的水平方向,则所述智能穿戴设备将被点亮的屏幕显示区域的当前内容调整为水平方向(横屏状态)。
在步骤S201中,所述智能穿戴设备可以根据所述惯性传感器测量的在三维坐标系内的Z轴的角速度数据,获取用户的转腕动作;需要说明的是,综合用户的实际情况,本公开的转腕动作只考虑手心朝上的转腕动作。
在一个例子中,在图4定义的三维坐标系的朝向中,请参阅图10A(图10A为垂直方向转腕时的三轴角速度数据波形图)以及图11A(图11A为水平方向转腕时的三轴角速度数据波形图),可以看出,当用户右手穿戴所述智能穿戴设备,并且手心朝上做第一次转腕动作时,参见图10A以及图11A中第一个转腕变化趋势,图10A(用户的手臂由相对于地面垂直的竖直方向转为相对于地面平行的水平方向)中其Z轴的角速度呈逆时针旋转一定角度,如80°~90°(负脉冲),图11A(在水平方向上,用户的手臂从相对于身体垂直的竖直方向转为相对于身体平行的水平方向)中其Z轴的角速度呈顺时针旋转一定角度(正脉冲);当用户右手穿戴所述智能穿戴设备,并且手心朝上做第二次转腕动作时,参见图10A以及图11A中第二个转腕变化趋势,图10A(用户的手臂由相对于地面平行的水平方向转为相对于地面垂直的竖直方向)中其Z轴的角速度呈顺时针旋转一定角度,如80°~90°(正脉冲),图11A(在水平方向上,用户的手臂从相对于身体平行的水平方向转为相对于身体垂直的竖直方向)中其Z轴的角速度呈逆时针旋转一定角度(负脉冲)。
当用户左手穿戴所述智能穿戴设备并且手心朝上做转腕动作时,若是竖直方向的转腕动作,用户的手臂由相对于地面垂直的竖直方向转为相对于地面平行的水平方向,其Z轴的角速度呈顺时针旋转趋势(正脉冲),用户的手臂从相对于地面平行的水平方向转为相对于地面垂直的竖直方向,其Z轴的角速度呈逆时针旋转趋势(负脉冲);若是水平方向的转腕动作,用户的手臂由相对于身体垂直的竖直方向转为相对于身体平行的水平方向,其Z轴的角速度呈逆时针旋转趋势(负脉冲),用户的手臂从相对于身体平行的水平方向转为相对于身体垂直的竖直方向,其Z轴的角速度呈顺时针旋转趋势(正脉冲)。
因此,无需区分是左手佩戴还是右手佩戴的情况,也无需区别是水平方向上的转腕还是竖直方向上的转腕,所述智能穿戴设备均可以通过判断Z轴的角速度数据是否大于或者等于预设阈值来确定是否为转腕动作,若是,则确定用户当前的动作为转腕动作,本公开实施例有利于提高动作识别的准确性;可以理解的是,本公开对于所述预设阈值不做任何限制,可依据实际情况进行具体设置。
在步骤S204中,请参阅图10B(图10B为垂直方向转腕时的三轴加速度数据波形图)以及图11B(图11B为水平方向转腕时的三轴加速度数据波形图),在确定所述动作为目标动作之后,所述智能穿戴设备可以根据X轴以及Y轴的加速度数据确定所述转腕动作的翻转方向,以确定所述当前内容的显示方向,从而根据所述当前内容的显示方向调整所述当前内容,以方便用户的阅读。
在一个例子中,用户穿戴所述智能穿戴设备,假设当前为相对于地面平行且相对于身体平行的水平方向,且手心朝上,则与用户视线范围相应的屏幕显示区域为腕下屏幕显示区域,此时点亮腕下显示区域,且当前内容的文字显示方向为水平方向(横屏显示);若用户进行转腕动作,转为相对于地面垂直的竖直方向或者相对于身体垂直的竖直方向,且手心朝上,则当前点亮的腕下显示区域的当前内容的文字显示方向从水平方向转为竖直方向(竖屏显示)。
在第二个例子中,用户穿戴所述智能穿戴设备,假设相对于地面垂直的竖直方向或者相对于身体垂直的竖直方向,且手心朝上,则与用户视线范围相应的屏幕显示区域为腕下屏幕显示区域,此时点亮腕下显示区域,且当前内容的文字显示方向为竖直方向(竖屏显示);若用户进行转腕动作,转为相对于地面平行且相对于身体平行的水平方向,且手心朝上,则当前点亮的腕下显示区域的当前内容的文字显示方向从竖直方向转为水平方向(横屏显示)。
在一实施例中,所述智能设备可以获取预设时间段内的X轴的加速度数据和Y轴的加速度数据,然后分别计算X轴加速度数据和Y轴加速度数据在该预设时间段的前半部分的的平均值和后半部分的平均值,最后根据X轴加速度数据和Y轴加速度数据的前半部分的平均值和后半部分的平均值的正负、X轴加速度数据的两个平均值之差与预设阈值的大小关系、以及Y轴加速度数据的两个平均值之差与预设阈值的大小关系,确定所述转腕动作的翻转方向;其中,所述X轴加速度的前半部分的平均值和后半部分的平均值的正负与X轴方向与重力加速度的方向所形成的夹角的大小相关,且Y轴加速度的前半部分的平均值和后半部分的平均值的正负与Y轴方向与重力加速度的方向所形成的夹角的大小相关。
在一例子中,以图4所示的三维坐标系朝向为例(需要说明的是,转腕动作以图4中的表盘戴在手心的三维坐标系朝向进行说明),且定义X轴和Y轴加速度的方向与重力加速度方向相同或者与重力加速度的夹角小于90°,则其加速度数据为负值;若与重力加速度的夹角等于90°,则其加速度数据为0;若与重力加速度的方向相反或者与重力加速度的夹角大于90°进行说明:所述智能穿戴设备获取预设时间段内的X轴的加速度数据和Y轴的加速度数据,若X轴加速度数据前半部分的平均值为负数、后半部分的平均值为正数、且X轴加速度数据两个平均值之差的绝对值大于指定阈值,以及Y轴加速度数据前半部分的平均值为正数、后半部分的平均值为负数、且Y轴加速度数据两个平均值之差的绝对值大于指定阈值,确定所述转腕动作转为相对于地面平行的水平方向;若X轴加速度数据前半部分的平均值为正数、后半部分的平均值为负数、且X轴加速度数据两个平均值之差的绝对值大于指定阈值,以及Y轴加速度数据前半部分的平均值为负数、后半部分的平均值为正数、且Y轴加速度数据两个平均值之差的绝对值大于指定阈值,确定所述转腕动作转为垂直于地面的竖直方向。
具体地,请参阅图10B以及11B,设X轴加速度数据前半部分的平均值为后半部分的平均值为Y轴加速度数据前半部分的平均值为后半部分的平均值为预设阈值为σ,若获取的预设时间段内的X轴的加速度数据和Y轴的加速度数据包含第一个转腕动作(用户的手臂由相对于地面垂直的竖直方向转为相对于地面平行的水平方向、或者从相对于身体垂直的竖直方向转为相对于身体平行的水平方向)的数据,如图10B(竖直方向的转腕)所示,用户右手穿戴所述智能穿戴设备做转腕动作前,呈与地面垂直的竖直方向,其X轴与重力加速度方向相同,为负值,Y轴与重力加速度垂直或者夹角大于90°,为0或者大于0,在做转腕动作后,X轴与重力加速度垂直或者夹角大于90°,为0或者大于0的正值,Y轴与重力加速度的夹角小于90°,为负值,且左手佩戴智能穿戴设备做竖直方向的转腕动作的变化趋势与图10B相同;如11B(水平方向的转腕)所示,其X轴与重力加速度夹角小于90°,为负值,Y轴与重力加速度夹角小于90°,为负值,在做转腕动作后,X轴与重力加速度垂直或者夹角大于90°,为0或者大于0的正值,Y轴与重力加速度的夹角小于90°,为负值,且左手佩戴智能穿戴设备做水平方向的转腕动作的变化趋势与图11B相同,则计算的X轴前半部分的平均值后半部分的平均值计算的Y轴前半部分的平均值后半部分的平均值且此时确定所述当前内容的显示方向为水平方向,则横屏显示当前内容;
若获取的预设时间段内的Z轴的加速度数据包含第二个转腕动作的数据(用户的手臂由相对于地面平行的水平方向转为相对于地面垂直的竖直方向、或者相对于身体平行的水平方向转为相对于身体垂直的竖直方向),如图10B以及图11B所示,则其X轴与Y轴的变化趋势与第一个转腕动作的X轴与Y轴的变化趋势相反,则计算的X轴前半部分的平均值后半部分的平均值计算的Y轴前半部分的平均值后半部分的平均值则且此时确定所述当前内容的显示方向为竖直方向,则竖屏显示当前内容,本公开实施例有利于提高方向识别准确度;可以理解的是,本公开实施例对于所述预设时间段以及所述预设阈值的具体取值不做任何限制,可依据实际情况进行具体设置。
本公开实施例通过根据所述目标动作确定所述当前内容的显示方向,从而根据所述显示方向调整当前内容,方便用户的观看,有利于提高用户的使用体验。
与前述显示方法的实施例相对应,本公开还提供了显示装置及其所应用的智能穿戴设备的实施例。
如图12所示,图12是本公开根据一示例性实施例示出的一种显示装置的框图,所述装置应用于智能穿戴设备上,所述智能穿戴设备包括惯性传感器以及至少两个屏幕显示区域;在用户穿戴所述智能穿戴设备时,所述屏幕显示区域不同时处于同一平面上。
所述装置包括目标动作获取模块31、显示区域确定模块32以及显示区域点亮模块33。
所述惯性传感器,用于采集测量数据。
所述目标动作获取模块31,用于根据所述测量数据,获取用户的目标动作。
所述显示区域确定模块32,用于根据用户的目标动作,确定与用户的视线范围相应的屏幕显示区域。
所述显示区域点亮模块33,用于点亮所述屏幕显示区域,以显示当前内容。
可选地,所述测量数据包括在三维坐标系内的三个轴向的加速度数据以及角速度数据。
可选地,所述目标动作获取模块31包括:
根据所述惯性传感器测量的在三维坐标系内的三个轴向的加速度数据获取用户的抬腕动作。
可选地,所述显示区域确定模块32包括:
根据Z轴的加速度数据或Y轴的角速度数据确定所述抬腕动作的方向,以确定与用户的视线范围相应的屏幕显示区域。
可选地,所述目标动作获取模块31包括:
根据所述惯性传感器测量的在三维坐标系内的三个轴向的加速度数据,计算加速度模值,以确定抬腕动作;所述加速度模值为三个轴向的加速度数据的N次幂之和的M次方;M、N不等于0。
可选地,所述目标动作获取模块31包括:
基于所述惯性传感器测量的在三维坐标系内的X轴的角速度数据,获取用户的翻腕动作。
可选地,所述目标动作获取模块31包括:
若所述惯性传感器测量的在三维坐标系内的X轴的角速度数据大于指定阈值,确定翻腕动作。
可选地,所述显示区域确定模块32包括:
根据Z轴的加速度数据确定所述翻腕动作的翻转方向,以确定与用户的视线范围相应的屏幕显示区域。
可选地,所述显示区域确定模块32包括:
第一加数据获取单元,用于获取预设时间段内的Z轴的加速度数据;
第一平均值计算单元,用于分别计算Z轴加速度数据在该预设时间段的前半部分的平均值和后半部分的的平均值。
第一翻转方向确定单元,用于根据Z轴加速度数据的前半部分的平均值和后半部分的平均值的正负,以及两个平均值之差与预设阈值的大小关系,确定所述翻腕动作的翻转方向;;其中,所述Z轴加速度的前半部分的平均值和后半部分的平均值的正负与Z轴方向与重力加速度的方向所形成的夹角的大小相关。
显示区域确定单元,用于根据所述翻腕动作的翻转方向,确定与用户的视线范围相应的屏幕显示区域。
可选地,若所述Z轴方向与重力加速度的方向所形成的夹角小于90°,则Z轴加速度数值为负;若所述Z轴方向与重力加速度的方向所形成的夹角等于90°,则Z轴加速度数值为0;若所述Z轴方向与重力加速度的方向所形成的夹角大于90°,则Z轴加速度数值为正。
则所述第一翻转方向确定单元,包括:
手背方向确定子单元,用于若Z轴加速度数据的前半部分的平均值为正数、后半部分的平均值为负数,且两者的差值的绝对值大于预设阈值,确定所述翻腕动作为翻转到手背朝上的方向。
手心方向确定子单元,用于若Z轴加速度数据的前半部分的平均值为负数、后半部分的平均值为正数,且两者的差值的绝对值大于所述预设阈值,确定所述翻腕动作翻转到手心朝上的方向。
可选地,所述智能穿戴设备还包括肌电传感器。
则所述显示区域点亮模块33包括:
当所述肌电传感器采集的数据符合预设条件时,点亮所述屏幕显示区域,以显示当前内容;所述预设条件包括表征用户当前的动作为紧握动作的相关数据。
请参阅图13,本公开还提供了另一种显示装置的示意图,与图12所示的显示装置相比,图13所示的实施例中,所述装置还包括:
内容显示方向确定模块34,用于根据所述目标动作确定所述当前内容的显示方向;所述显示方向为水平方向或者竖直方向。
内容调整单元35,用于基于所述显示方向调整所述当前内容。
可选地,所述目标动作获取模块31包括:
根据所述惯性传感器测量的在三维坐标系内的Z轴的角速度数据,获取用户的转腕动作。
可选地,所述目标动作获取模块31包括:
若所述惯性传感器测量的在三维坐标系内的Z轴的角速度数据大于预设阈值,确定转腕动作。
可选地,所述内容显示方向确定模块34包括:
根据X轴以及Y轴的加速度数据确定所述转腕动作的翻转方向,以确定所述当前内容的显示方向。
可选地,所述内容显示方向确定模块34包括:
第二加速度数据获取单元,用于获取预设时间段内的X轴的加速度数据和Y轴的加速度数据。
第二平均值计算单元,用于分别计算X轴加速度数据和Y轴加速度数据在该预设时间段的前半部分的的平均值和后半部分的平均值。
第二翻转方向确定单元,用于根据X轴加速度数据和Y轴加速度数据的前半部分的平均值和后半部分的平均值的正负、X轴加速度数据的两个平均值之差与预设阈值的大小关系、以及Y轴加速度数据的两个平均值之差与预设阈值的大小关系,确定所述转腕动作的翻转方向;其中,所述X轴加速度的前半部分的平均值和后半部分的平均值的正负与X轴方向与重力加速度的方向所形成的夹角的大小相关,且Y轴加速度的前半部分的平均值和后半部分的平均值的正负与Y轴方向与重力加速度的方向所形成的夹角的大小相关。
显示方向确定单元,用于根据所述转腕动作的翻转方向,确定所述当前内容的显示方向。
可选地,若所述X轴与Y轴的方向与重力加速度的方向所形成的夹角小于90°,则X轴与Y轴的加速度数值为负;若所述X轴与Y轴的方向与重力加速度的方向所形成的夹角等于90°,则X轴与Y轴的加速度数值为0;若所述X轴与Y轴的方向与重力加速度的方向所形成的夹角大于90°,则X轴与Y轴的加速度数值为正。
所述第二翻转方向确定单元,包括:
水平方向确定子单元,用于若X轴加速度数据前半部分的平均值为负数、后半部分的平均值为正数、且X轴加速度数据两个平均值之差的绝对值大于指定阈值,以及Y轴加速度数据前半部分的平均值为正数、后半部分的平均值为负数、且Y轴加速度数据两个平均值之差的绝对值大于指定阈值,确定所述转腕动作转为相对于地面平行的水平方向。
垂直方向确定子单元,用于若X轴加速度数据前半部分的平均值为正数、后半部分的平均值为负数、且X轴加速度数据两个平均值之差的绝对值大于指定阈值,以及Y轴加速度数据前半部分的平均值为负数、后半部分的平均值为正数、且Y轴加速度数据两个平均值之差的绝对值大于指定阈值,确定所述转腕动作转为垂直于地面的竖直方向。
上述显示装置中各个模块的功能和作用的实现过程具体详见上述显示方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本公开方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
相应的,本公开还提供一种智能穿戴设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
惯性传感器以及至少两个屏幕显示区域;
其中,
所述惯性传感器用于采集测量数据;
所述处理器,被配置为执行上述显示方法中的操作。
图14是根据一示例性实施例示出的一种显示装置应用的智能穿戴设备的结构示意图。
如图14所示,根据一示例性实施例示出的一种智能穿戴设备400,该智能穿戴设备400可以是手环、手表、手带或者指环等智能穿戴设备智能穿戴设备。
参照图4,智能穿戴设备400可以包括以下一个或多个组件:处理组件401,存储器402,电源组件403,多媒体组件404,音频组件405,输入/输出(I/O)的接口406,传感器组件407,以及通信组件408。
处理组件401通常控制装置400的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件401可以包括一个或多个处理器409来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件401可以包括一个或多个处理组件,便于处理组件401和其它组件之间的交互。例如,处理组件401可以包括多媒体模块,以方便多媒体组件404和处理组件401之间的交互。
存储器402被配置为存储各种类型的数据以支持在智能穿戴设备400的操作。这些数据的示例包括用于在智能穿戴设备400上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器402可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件403为智能穿戴设备400的各种组件提供电力。电源组件403可以包括电源管理系统,一个或多个电源,及其它与为智能穿戴设备400生成、管理和分配电力相关联的组件。
多媒体组件404包括在所述智能穿戴设备400和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件404包括一个前置摄像头和/或后置摄像头。当智能穿戴设备400处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件405被配置为输出和/或输入音频信号。例如,音频组件405包括一个麦克风(MIC),当智能穿戴设备400处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器402或经由通信组件408发送。在一些实施例中,音频组件405还包括一个扬声器,用于输出音频信号。
I/O接口402为处理组件401和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件407包括一个或多个传感器,用于为智能穿戴设备400提供各个方面的状态评估。例如,传感器组件407可以检测到智能穿戴设备400的打开/关闭状态,组件的相对定位,例如所述组件为智能穿戴设备400的显示器和小键盘,传感器组件407还可以检测智能穿戴设备400或智能穿戴设备400一个组件的位置改变,用户与智能穿戴设备400接触的存在或不存在,智能穿戴设备400方位或加速/减速和智能穿戴设备400的温度变化。传感器组件407可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件407还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件407还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器、心率信号传感器、心电图传感器、指纹传感器或温度传感器。
通信组件408被配置为便于智能穿戴设备400和其它设备之间有线或无线方式的通信。智能穿戴设备400可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件408经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件408还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其它技术来实现。
在示例性实施例中,智能穿戴设备400可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其它电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器402,上述指令可由智能穿戴设备400的处理器409执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
其中,当所述存储介质中的指令由所述处理器409执行时,使得装置400能够执行前述显示方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
以上所述仅为本公开的较佳实施例而已,并不用以限制本公开,凡在本公开的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本公开保护的范围之内。
Claims (34)
1.一种显示方法,其特征在于,应用于智能穿戴设备上,所述智能穿戴设备包括惯性传感器以及独立的至少两个屏幕;在用户穿戴所述智能穿戴设备时,所述至少两个屏幕不同时处于同一平面上,且所述至少两个屏幕包括腕上屏幕和腕下屏幕;
所述方法包括:
通过所述惯性传感器采集的测量数据,获取用户的第一目标动作;
根据用户的第一目标动作,确定与用户的视线范围相应的屏幕;
点亮所述与用户的视线范围相应的屏幕以显示当前内容,且其他屏幕保持熄灭状态;
所述通过所述惯性传感器采集的测量数据,获取用户的第一目标动作,包括:
基于所述惯性传感器测量的沿第三方向的角速度数据,获取用户的翻腕动作;所述第三方向为在用户穿戴所述智能穿戴设备的手腕处于抬起状态下与所述抬起的手臂平行的方向;
所述根据用户的第一目标动作,确定与用户的视线范围相应的屏幕,包括:
响应于所述用户的翻腕动作为翻转到手背朝上的方向,确定与用户的视线范围相应的屏幕为所述腕上屏幕,和/或,响应于所述用户的翻腕动作为翻转到手心朝上的方向,确定与用户的视线范围相应的屏幕显示区域为所述腕下屏幕。
2.根据权利要求1所述的显示方法,其特征在于,所述测量数据包括在三维坐标系内的三个轴向的加速度数据以及角速度数据。
3.根据权利要求1或2所述的显示方法,其特征在于,所述通过所述惯性传感器采集的测量数据,获取用户的第一目标动作,包括:
根据所述惯性传感器测量的在三维坐标系内的三个轴向的加速度数据获取用户的抬腕动作。
4.根据权利要求1或2所述的显示方法,其特征在于,所述根据用户的目标动作,确定与用户的视线范围相应的屏幕,包括:
根据第一方向的加速度数据或第二方向的角速度数据确定抬腕动作的方向,以确定与用户的视线范围相应的屏幕;所述第一方向为在用户穿戴所述智能穿戴设备的手腕处于抬起状态下与所述抬起的手腕所在平面垂直的方向,所述第二方向为在用户穿戴所述智能穿戴设备的手腕处于抬起状态下与所述抬起的手腕延伸方向垂直的方向。
5.根据权利要求3所述的显示方法,其特征在于,所述根据所述惯性传感器测量的在三维坐标系内的三个轴向的加速度数据,获取用户的抬腕动作,包括:
根据所述惯性传感器测量的在三维坐标系内的三个轴向的加速度数据,计算加速度模值,以确定抬腕动作;所述加速度模值为三个轴向的加速度数据的N次幂之和的M次方;M、N不等于0。
6.根据权利要求1所述的显示方法,其特征在于,所述基于所述惯性传感器测量的沿第三方向的角速度数据,获取用户的翻腕动作,包括:
若所述惯性传感器测量的沿第三方向的角速度数据大于指定阈值,确定翻腕动作。
7.根据权利要求1所述的显示方法,其特征在于,所述根据用户的目标动作,确定与用户的视线范围相应的屏幕,包括:
根据第一方向的加速度数据确定所述翻腕动作的翻转方向,以确定与用户的视线范围相应的屏幕;所述第一方向为在用户穿戴所述智能穿戴设备的手腕处于抬起状态下与所述抬起的手腕所在平面垂直的方向。
8.根据权利要求7所述的显示方法,其特征在于,所述根据第一方向的加速度数据确定所述翻腕动作的翻转方向,包括:
获取预设时间段内的第一方向的加速度数据;
分别计算第一方向加速度数据在该预设时间段的前半部分的平均值和后半部分的平均值;
根据第一方向加速度数据的前半部分的平均值和后半部分的平均值的正负,以及两个平均值之差与预设阈值的大小关系,确定所述翻腕动作的翻转方向;其中,所述第一方向加速度的前半部分的平均值和后半部分的平均值的正负与第一方向与重力加速度的方向所形成的夹角的大小相关。
9.根据权利要求8所述的显示方法,其特征在于,若所述第一方向与重力加速度的方向所形成的夹角小于90°,则第一方向加速度数值为负;若所述第一方向与重力加速度的方向所形成的夹角等于90°,则第一方向加速度数值为0;若所述第一方向与重力加速度的方向所形成的夹角大于90°,则第一方向加速度数值为正;
则所述根据第一方向加速度数据的前半部分的平均值和后半部分的平均值的正负,以及两个平均值之差与预设阈值的大小关系,确定所述翻腕动作的翻转方向,包括:
若第一方向加速度数据的前半部分的平均值为正数、后半部分的平均值为负数,且两者的差值的绝对值大于预设阈值,确定所述翻腕动作为翻转到手背朝上的方向;
若第一方向加速度数据的前半部分的平均值为负数、后半部分的平均值为正数,且两者的差值的绝对值大于所述预设阈值,确定所述翻腕动作翻转到手心朝上的方向。
10.根据权利要求1所述的显示方法,其特征在于,所述智能穿戴设备还包括肌电传感器;
则所述点亮所述屏幕,以显示当前内容,包括:
当所述肌电传感器采集的数据符合预设条件时,点亮所述屏幕,以显示当前内容;所述预设条件包括表征用户当前的动作为紧握动作的相关数据。
11.根据权利要求1所述的显示方法,其特征在于,还包括:
通过所述惯性传感器采集的测量数据,获取用户的第二目标动作;
根据所述第二目标动作确定所述当前内容的显示方向;所述显示方向为水平方向或者竖直方向;
基于所述显示方向调整所述当前内容的显示。
12.根据权利要求11所述的显示方法,其特征在于,所述通过所述惯性传感器采集的测量数据,获取用户的第二目标动作,包括:
根据所述惯性传感器测量的沿第一方向的角速度数据,获取用户的转腕动作;所述第一方向为在用户穿戴所述智能穿戴设备的手腕处于抬起状态下与所述抬起的手腕所在平面垂直的方向。
13.根据权利要求12所述的显示方法,其特征在于,所述根据所述惯性传感器测量的沿第一方向的角速度数据,获取用户的转腕动作,包括:
若所述惯性传感器测量的沿第一方向的角速度数据大于预设阈值,确定转腕动作。
14.根据权利要求11所述的显示方法,其特征在于,所述根据所述第二目标动作确定所述当前内容的显示方向,包括:
根据第三方向以及第二方向的加速度数据确定转腕动作的翻转方向,以确定所述当前内容的显示方向;所述第二方向为在用户穿戴所述智能穿戴设备的手腕处于抬起状态下与所述手腕延伸方向垂直的方向,所述第三方向为在用户穿戴所述智能穿戴设备的手腕处于抬起状态下与所述手腕延伸方向平行的方向。
15.根据权利要求14所述的显示方法,其特征在于,所述根据第三方向以及第二方向的加速度数据确定所述转腕动作的翻转方向,包括:
获取预设时间段内的第三方向的加速度数据和第二方向的加速度数据;
分别计算第三方向加速度数据和第二方向加速度数据在该预设时间段的前半部分的平均值和后半部分的平均值;
根据第三方向加速度数据和第二方向加速度数据的前半部分的平均值和后半部分的平均值的正负、第三方向加速度数据的两个平均值之差与预设阈值的大小关系、以及第二方向加速度数据的两个平均值之差与预设阈值的大小关系,确定所述转腕动作的翻转方向;其中,所述第三方向加速度的前半部分的平均值和后半部分的平均值的正负与第三方向与重力加速度的方向所形成的夹角的大小相关,且第二方向加速度的前半部分的平均值和后半部分的平均值的正负与第二方向与重力加速度的方向所形成的夹角的大小相关。
16.根据权利要求15所述的显示方法,其特征在于,若所述第三方向与第二方向与重力加速度的方向所形成的夹角小于90°,则第三方向与第二方向的加速度数值为负;若所述第三方向与第二方向与重力加速度的方向所形成的夹角等于90°,则第三方向与第二方向的加速度数值为0;若所述第三方向与第二方向与重力加速度的方向所形成的夹角大于90°,则第三方向与第二方向的加速度数值为正;
所述根据第三方向加速度数据和第二方向加速度数据的前半部分的平均值和后半部分的平均值的正负、第三方向加速度数据的两个平均值之差与预设阈值的大小关系、以及第二方向加速度数据的两个平均值之差与预设阈值的大小关系,确定所述转腕动作的翻转方向,包括:
若第三方向加速度数据前半部分的平均值为负数、后半部分的平均值为正数、且第三方向加速度数据两个平均值之差的绝对值大于指定阈值,以及第二方向加速度数据前半部分的平均值为正数、后半部分的平均值为负数、且第二方向加速度数据两个平均值之差的绝对值大于指定阈值,确定所述转腕动作转为相对于地面平行的水平方向;
若第三方向加速度数据前半部分的平均值为正数、后半部分的平均值为负数、且第三方向加速度数据两个平均值之差的绝对值大于指定阈值,以及第二方向加速度数据前半部分的平均值为负数、后半部分的平均值为正数、且第二方向加速度数据两个平均值之差的绝对值大于指定阈值,确定所述转腕动作转为垂直于地面的竖直方向。
17.一种显示装置,其特征在于,应用于智能穿戴设备上,所述智能穿戴设备包括惯性传感器以及独立的至少两个屏幕;在用户穿戴所述智能穿戴设备时,所述至少两个屏幕不同时处于同一平面上,且所述至少两个屏幕包括腕上屏幕和腕下屏幕;
所述装置包括目标动作获取模块、屏幕确定模块以及屏幕点亮模块;
所述惯性传感器,用于采集测量数据;
所述目标动作获取模块,用于根据所述测量数据,获取用户的第一目标动作;所述目标动作获取模块具体用于基于所述惯性传感器测量的沿第三方向的角速度数据,获取用户的翻腕动作;所述第三方向为在用户穿戴所述智能穿戴设备的手腕处于抬起状态下与抬起的手臂平行的方向;
所述屏幕确定模块,用于根据用户的第一目标动作,确定与用户的视线范围相应的屏幕;所述屏幕确定模块具体用于:响应于所述用户的翻腕动作为翻转到手背朝上的方向,确定与用户的视线范围相应的屏幕为所述腕上屏幕,和/或,响应于所述用户的翻腕动作为翻转到手心朝上的方向,确定与用户的视线范围相应的屏幕显示区域为所述腕下屏幕;
所述屏幕点亮模块,用于点亮所述与用户的视线范围相应的屏幕以显示当前内容,且其他屏幕保持熄灭状态。
18.根据权利要求17所述的显示装置,其特征在于,所述测量数据包括在三维坐标系内的三个轴向的加速度数据以及角速度数据。
19.根据权利要求17或18所述的显示装置,其特征在于,所述目标动作获取模块包括:
根据所述惯性传感器测量的在三维坐标系内的三个轴向的加速度数据获取用户的抬腕动作。
20.根据权利要求17或18所述的显示装置,其特征在于,所述屏幕确定模块包括:
根据第一方向的加速度数据或第二方向的角速度数据确定抬腕动作的方向,以确定与用户的视线范围相应的屏幕;所述第一方向为在用户穿戴所述智能穿戴设备的手腕处于抬起状态下与所述抬起的手腕所在平面垂直的方向,所述第二方向为在用户穿戴所述智能穿戴设备的手腕处于抬起状态下与所述抬起的手腕延伸方向垂直的方向。
21.根据权利要求19所述的显示装置,其特征在于,所述目标动作获取模块包括:
根据所述惯性传感器测量的在三维坐标系内的三个轴向的加速度数据,计算加速度模值,以确定抬腕动作;所述加速度模值为三个轴向的加速度数据的N次幂之和的M次方;M、N不等于0。
22.根据权利要求17所述的显示装置,其特征在于,所述目标动作获取模块包括:
若所述惯性传感器测量的沿第三方向的角速度数据大于指定阈值,确定翻腕动作。
23.根据权利要求17所述的显示装置,其特征在于,所述屏幕确定模块包括:
根据第一方向的加速度数据确定所述翻腕动作的翻转方向,以确定与用户的视线范围相应的屏幕;所述第一方向为在用户穿戴所述智能穿戴设备的手腕处于抬起状态下与所述手腕所在平面垂直的方向。
24.根据权利要求23所述的显示装置,其特征在于,所述屏幕确定模块包括:
第一加数据获取单元,用于获取预设时间段内的第一方向的加速度数据;
第一平均值计算单元,用于分别计算第一方向加速度数据在该预设时间段的前半部分的平均值和后半部分的平均值;
第一翻转方向确定单元,用于根据第一方向加速度数据的前半部分的平均值和后半部分的平均值的正负,以及两个平均值之差与预设阈值的大小关系,确定所述翻腕动作的翻转方向;其中,所述第一方向加速度的前半部分的平均值和后半部分的平均值的正负与第一方向与重力加速度的方向所形成的夹角的大小相关;
确定单元,用于根据所述翻腕动作的翻转方向,确定与用户的视线范围相应的屏幕。
25.根据权利要求24所述的显示装置,其特征在于,若所述第一方向与重力加速度的方向所形成的夹角小于90°,则第一方向加速度数值为负;若所述第一方向与重力加速度的方向所形成的夹角等于90°,则第一方向加速度数值为0;若所述第一方向与重力加速度的方向所形成的夹角大于90°,则第一方向加速度数值为正;
则所述第一翻转方向确定单元,包括:
手背方向确定子单元,用于若第一方向加速度数据的前半部分的平均值为正数、后半部分的平均值为负数,且两者的差值的绝对值大于预设阈值,确定所述翻腕动作为翻转到手背朝上的方向;
手心方向确定子单元,用于若第一方向加速度数据的前半部分的平均值为负数、后半部分的平均值为正数,且两者的差值的绝对值大于所述预设阈值,确定所述翻腕动作翻转到手心朝上的方向。
26.根据权利要求17所述的显示装置,其特征在于,所述智能穿戴设备还包括肌电传感器;
则所述屏幕点亮模块包括:
当所述肌电传感器采集的数据符合预设条件时,点亮所述屏幕,以显示当前内容;所述预设条件包括表征用户当前的动作为紧握动作的相关数据。
27.根据权利要求18所述的显示装置,其特征在于,还包括:
所述目标动作获取模块,还用于通过所述惯性传感器采集的测量数据,获取用户的第二目标动作;
内容显示方向确定模块,用于根据所述第二目标动作确定所述当前内容的显示方向;所述显示方向为水平方向或者竖直方向;
内容调整单元,用于基于所述显示方向调整所述当前内容的显示。
28.根据权利要求27所述的显示装置,其特征在于,
所述目标动作获取模块包括:
根据所述惯性传感器测量的沿第一方向的角速度数据,获取用户的转腕动作;所述第一方向为在用户穿戴所述智能穿戴设备的手腕处于抬起状态下与所述手腕所在平面垂直的方向。
29.根据权利要求28所述的显示装置,其特征在于,所述目标动作获取模块包括:
若所述惯性传感器测量的沿第一方向的角速度数据大于预设阈值,确定转腕动作。
30.根据权利要求27所述的显示装置,其特征在于,所述内容显示方向确定模块包括:
根据第三方向以及第二方向的加速度数据确定转腕动作的翻转方向,以确定所述当前内容的显示方向。
31.根据权利要求30所述的显示装置,其特征在于,所述内容显示方向确定模块包括:
第二加速度数据获取单元,用于获取预设时间段内的第三方向的加速度数据和第二方向的加速度数据;所述第二方向为在用户穿戴所述智能穿戴设备的手腕处于抬起状态下与所述手腕延伸方向垂直的方向,所述第三方向为在用户穿戴所述智能穿戴设备的手腕处于抬起状态下与所述手腕延伸方向平行的方向;
第二平均值计算单元,用于分别计算第三方向加速度数据和第二方向加速度数据在该预设时间段的前半部分的平均值和后半部分的平均值;
第二翻转方向确定单元,用于根据第三方向加速度数据和第二方向加速度数据的前半部分的平均值和后半部分的平均值的正负、第三方向加速度数据的两个平均值之差与预设阈值的大小关系、以及第二方向加速度数据的两个平均值之差与预设阈值的大小关系,确定所述转腕动作的翻转方向;其中,所述第三方向加速度的前半部分的平均值和后半部分的平均值的正负与第三方向与重力加速度的方向所形成的夹角的大小相关,且第二方向加速度的前半部分的平均值和后半部分的平均值的正负与第二方向与重力加速度的方向所形成的夹角的大小相关;
显示方向确定单元,用于根据所述转腕动作的翻转方向,确定所述当前内容的显示方向。
32.根据权利要求31所述的显示装置,其特征在于,若所述第三方向与第二方向与重力加速度的方向所形成的夹角小于90°,则第三方向与第二方向的加速度数值为负;若所述第三方向与第二方向与重力加速度的方向所形成的夹角等于90°,则第三方向与第二方向的加速度数值为0;若所述第三方向与第二方向与重力加速度的方向所形成的夹角大于90°,则第三方向与第二方向的加速度数值为正;
所述第二翻转方向确定单元,包括:
水平方向确定子单元,用于若第三方向加速度数据前半部分的平均值为负数、后半部分的平均值为正数、且第三方向加速度数据两个平均值之差的绝对值大于指定阈值,以及第二方向加速度数据前半部分的平均值为正数、后半部分的平均值为负数、且第二方向加速度数据两个平均值之差的绝对值大于指定阈值,确定所述转腕动作转为相对于地面平行的水平方向;
垂直方向确定子单元,用于若第三方向加速度数据前半部分的平均值为正数、后半部分的平均值为负数、且第三方向加速度数据两个平均值之差的绝对值大于指定阈值,以及第二方向加速度数据前半部分的平均值为负数、后半部分的平均值为正数、且第二方向加速度数据两个平均值之差的绝对值大于指定阈值,确定所述转腕动作转为垂直于地面的竖直方向。
33.一种智能穿戴设备,其特征在于,所述智能穿戴设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
惯性传感器以及独立的至少两个屏幕;
其中,
所述惯性传感器用于采集测量数据;
所述处理器,被配置为执行上述权利要求1至16任一所述的方法。
34.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,当由一个或多个处理器执行时,使得处理器执行权利要求1~16任一所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910381115.2A CN110187759B (zh) | 2019-05-08 | 2019-05-08 | 显示方法、装置、智能穿戴设备及存储介质 |
PCT/CN2020/089207 WO2020224642A1 (zh) | 2019-05-08 | 2020-05-08 | 显示方法、装置、智能穿戴设备及存储介质 |
US17/520,054 US20220057758A1 (en) | 2019-05-08 | 2021-11-05 | Display Method And Apparatus, Intelligent Wearable Device, And Storage Medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910381115.2A CN110187759B (zh) | 2019-05-08 | 2019-05-08 | 显示方法、装置、智能穿戴设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110187759A CN110187759A (zh) | 2019-08-30 |
CN110187759B true CN110187759B (zh) | 2023-01-17 |
Family
ID=67715894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910381115.2A Active CN110187759B (zh) | 2019-05-08 | 2019-05-08 | 显示方法、装置、智能穿戴设备及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220057758A1 (zh) |
CN (1) | CN110187759B (zh) |
WO (1) | WO2020224642A1 (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110187759B (zh) * | 2019-05-08 | 2023-01-17 | 安徽华米信息科技有限公司 | 显示方法、装置、智能穿戴设备及存储介质 |
WO2021180566A1 (en) * | 2020-03-10 | 2021-09-16 | Koninklijke Philips N.V. | System and method for detecting wrist-device wearing location |
CN112181561A (zh) * | 2020-09-24 | 2021-01-05 | Oppo(重庆)智能科技有限公司 | 背景展示方法以及装置、穿戴设备和可读存储介质 |
CN112667073A (zh) * | 2020-12-21 | 2021-04-16 | 深圳市爱都科技有限公司 | 控制智能穿戴设备的方法、智能穿戴设备和存储介质 |
CN113282261B (zh) * | 2021-06-10 | 2023-03-14 | 歌尔科技有限公司 | 智能显示方法、设备、计算机程序产品及存储介质 |
USD1004777S1 (en) * | 2021-09-01 | 2023-11-14 | TT1 Products, Inc. | Wrist reader |
CN117453105A (zh) * | 2021-09-27 | 2024-01-26 | 荣耀终端有限公司 | 退出二维码的方法和装置 |
CN114089814B (zh) * | 2021-11-08 | 2024-05-17 | 广东乐心医疗电子股份有限公司 | 显示方法、装置及电子设备 |
CN114265656A (zh) * | 2021-12-24 | 2022-04-01 | 四川千里倍益康医疗科技股份有限公司 | 筋膜枪及其显示屏显示控制方法 |
CN114298105B (zh) * | 2021-12-29 | 2023-08-22 | 东莞市猎声电子科技有限公司 | 一种跑步过程中快速响应抬腕动作并亮屏的信号处理方法 |
CN114779916A (zh) * | 2022-03-29 | 2022-07-22 | 杭州海康威视数字技术股份有限公司 | 一种电子设备屏幕唤醒方法、门禁管理方法及装置 |
CN115061354A (zh) * | 2022-06-08 | 2022-09-16 | 深圳市万如夏科技有限公司 | 一种智能手表的屏幕唤醒及休眠方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104850317A (zh) * | 2014-12-31 | 2015-08-19 | 华为终端(东莞)有限公司 | 可穿戴设备的屏幕的显示方法及可穿戴设备 |
CN106020670A (zh) * | 2016-05-24 | 2016-10-12 | 北京搜狗科技发展有限公司 | 一种屏幕点亮控制方法、装置及电子设备 |
CN106446728A (zh) * | 2015-08-05 | 2017-02-22 | Lg电子株式会社 | 移动终端及其控制方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103809752B (zh) * | 2014-02-12 | 2017-08-29 | 华勤通讯技术有限公司 | 可控制显示位置的便携式终端及其显示方法 |
US20160070367A1 (en) * | 2014-09-05 | 2016-03-10 | Htc Corporation | Wearable electronic device and cursor control device |
CN104698831B (zh) * | 2015-03-03 | 2017-05-10 | 惠州Tcl移动通信有限公司 | 一种可随手势而自动旋转界面的智能手表及其控制方法 |
CN106055097B (zh) * | 2016-05-24 | 2022-01-11 | 北京搜狗智能科技有限公司 | 一种亮屏控制方法、装置及电子设备 |
CN106293072B (zh) * | 2016-08-01 | 2018-07-03 | 广东乐源数字技术有限公司 | 一种智能手环转腕亮屏的方法 |
CN106814808A (zh) * | 2016-12-27 | 2017-06-09 | 武汉华星光电技术有限公司 | 一种可穿戴显示设备 |
CN107132880A (zh) * | 2017-04-27 | 2017-09-05 | 武汉华星光电技术有限公司 | 一种智能可穿戴装置 |
CN110187759B (zh) * | 2019-05-08 | 2023-01-17 | 安徽华米信息科技有限公司 | 显示方法、装置、智能穿戴设备及存储介质 |
CN110850988B (zh) * | 2019-12-02 | 2022-03-11 | 合肥工业大学 | 一种防干扰抬腕亮屏的方法 |
-
2019
- 2019-05-08 CN CN201910381115.2A patent/CN110187759B/zh active Active
-
2020
- 2020-05-08 WO PCT/CN2020/089207 patent/WO2020224642A1/zh active Application Filing
-
2021
- 2021-11-05 US US17/520,054 patent/US20220057758A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104850317A (zh) * | 2014-12-31 | 2015-08-19 | 华为终端(东莞)有限公司 | 可穿戴设备的屏幕的显示方法及可穿戴设备 |
CN106446728A (zh) * | 2015-08-05 | 2017-02-22 | Lg电子株式会社 | 移动终端及其控制方法 |
CN106020670A (zh) * | 2016-05-24 | 2016-10-12 | 北京搜狗科技发展有限公司 | 一种屏幕点亮控制方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110187759A (zh) | 2019-08-30 |
US20220057758A1 (en) | 2022-02-24 |
WO2020224642A1 (zh) | 2020-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110187759B (zh) | 显示方法、装置、智能穿戴设备及存储介质 | |
US11212449B1 (en) | User interfaces for media capture and management | |
CN110638423B (zh) | 响应用户跑步时手势而显示可见性改变的方法、系统及设备 | |
CN110187758B (zh) | 显示方法、装置、智能穿戴设备及存储介质 | |
US9720514B2 (en) | Method and system for tilt-based actuation | |
JP6398987B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
WO2016107257A1 (zh) | 可穿戴设备的屏幕的显示方法及可穿戴设备 | |
EP3130980A1 (en) | Portable apparatus and method for displaying a screen | |
US20130002538A1 (en) | Gesture-based user interface for a wearable portable device | |
CN108595002B (zh) | 一种信息处理方法及电子设备 | |
CN108803896B (zh) | 控制屏幕的方法、装置、终端及存储介质 | |
US20150123898A1 (en) | Digital device and control method thereof | |
US20150213580A1 (en) | Display control apparatus, display control method, program, and display device | |
JP2021192116A (ja) | 表示装置 | |
WO2016157833A1 (en) | Information processing apparatus, information processing method, and program | |
US10388121B2 (en) | Method for providing notifications | |
US20220057978A1 (en) | Display Method And Apparatus, Intelligent Wearable Device, And Storage Medium | |
CN112221134B (zh) | 基于虚拟环境的画面显示方法、装置、设备及介质 | |
JP2015156201A (ja) | 電子装置並びにシステム、方法、プログラム | |
US20200143774A1 (en) | Information processing device, information processing method, and computer program | |
CN115335795A (zh) | 信息处理装置、信息处理方法和程序 | |
CN114661097A (zh) | 控制方法、装置及电子设备和存储介质 | |
CN109639894B (zh) | 一种信息提示的方法、终端设备及计算机可读介质 | |
CN106851005A (zh) | 配置呼吸灯工作参数的方法、装置和终端 | |
CN114153361A (zh) | 界面显示方法、装置、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |