CN109584263A - 可穿戴设备的测试方法及系统 - Google Patents
可穿戴设备的测试方法及系统 Download PDFInfo
- Publication number
- CN109584263A CN109584263A CN201710875140.7A CN201710875140A CN109584263A CN 109584263 A CN109584263 A CN 109584263A CN 201710875140 A CN201710875140 A CN 201710875140A CN 109584263 A CN109584263 A CN 109584263A
- Authority
- CN
- China
- Prior art keywords
- wearable device
- image
- test
- error
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010998 test method Methods 0.000 title claims abstract description 20
- 238000012360 testing method Methods 0.000 claims abstract description 169
- 238000000034 method Methods 0.000 claims abstract description 88
- 230000008569 process Effects 0.000 claims abstract description 65
- 230000000007 visual effect Effects 0.000 claims description 76
- 238000006073 displacement reaction Methods 0.000 claims description 42
- 230000003068 static effect Effects 0.000 claims description 22
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 claims description 19
- 238000013507 mapping Methods 0.000 claims description 16
- 230000003190 augmentative effect Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 abstract description 23
- 230000000694 effects Effects 0.000 abstract description 10
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 9
- 238000005259 measurement Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000007654 immersion Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- PCHJSUWPFVWCPO-UHFFFAOYSA-N gold Chemical compound [Au] PCHJSUWPFVWCPO-UHFFFAOYSA-N 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Controls And Circuits For Display Device (AREA)
- Microscoopes, Condenser (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种可穿戴设备的测试方法及系统,属于电子技术应用领域。所述方法包括:控制显示有测试图像的可穿戴设备进入测试过程,测试过程为沿指定方向从静止状态变为运动状态再变为静止状态的过程;在测试过程中,获取可穿戴设备显示的两幅图像;根据该两幅图像在指定参数上的差别,确定可穿戴设备的显示误差。本发明通过控制显示有测试图像的可穿戴设备在指定方向上移动以及获取可穿戴设备显示的两幅图像及该两幅图像的指定参数,来确定可穿戴设备的显示误差。由于测量得到的显示误差精度明显高于最大显示误差,因此解决了相关技术中,显示误差准确性较低的问题。达到了能够有效提高确定的显示误差的准确度的效果。
Description
技术领域
本发明涉及电子技术应用领域,特别涉及一种可穿戴设备的测试方法及系统。
背景技术
虚拟现实(英文:Virtual Reality;简称:VR)技术和增强现实(英文:AugmentedReality;简称:AR)技术都是近年来备受市场青睐的技术,其中,VR技术是一种利用计算机图形系统和各种接口设备,在计算机上生成可交互的三维环境(即虚拟场景),并通过该三维环境为用户提供沉浸感的技术,而AR技术则能够将现实场景与虚拟场景进行实时叠加,为用户提供更加逼真的增强现实场景,进一步增强了用户的沉浸感。其中,沉浸感是指当用户把增强现实中的场景当做真实场景来感知时,在空间意义上置身于该增强现实场景中的感觉。
但是采用VR技术或AR技术的可穿戴设备,在显示相应的图像时,若用户的状态从运动状态变为静止状态时,可能出现显示误差的情况,即在静止时显示的图像并不是理想的结束图像,该结束图像为不存在显示误差的情况下,可穿戴设备在目标位置应该显示的图像,其中显示误差可以包括时间误差和距离误差。
相关技术中,为了避免显示误差,可以对可穿戴设备的各个器件的时间误差时间进行统计,然后将所有器件的时间误差时间之和作为可穿戴设备的时间误差,还可以对可穿戴设备的各个器件的距离误差进行统计,然后将所有器件的距离误差之和作为可穿戴设备的距离误差,最后,技术人员可以基于该显示误差对可穿戴设备进行显示误差的校正,以减小显示误差。
但是,上述方法中计算得到的显示误差通常为可穿戴设备的最大显示误差,与实际的显示误差相差较大,因此,确定的显示误差准确度较低。
发明内容
为了解决现有技术的问题,本发明实施例提供了一种可穿戴设备的测试方法及系统。所述技术方案如下:
根据本发明的第一方面,提供了一种可穿戴设备的测试方法,所述方法包括:
控制显示有测试图像的可穿戴设备进入测试过程,所述测试过程为沿指定方向从静止状态变为运动状态再变为静止状态的过程;
在所述测试过程中,获取所述可穿戴设备显示的两幅图像;
根据所述两幅图像在指定参数上的差别,确定所述可穿戴设备的显示误差。
可选的,所述显示误差包括时间误差,所述两幅图像包括第一图像和第二图像,所述指定参数为所述第一图像的拍摄帧数和所述第二图像的拍摄帧数。
可选的,所述在所述测试过程中,获取所述可穿戴设备显示的两幅图像,包括:
通过图像获取组件拍摄所述可穿戴设备从运动状态变为静止状态时实际显示的第一图像;
通过所述图像获取组件拍摄所述可穿戴设备从运动状态变为静止状态时首次出现的第二图像,所述第二图像为所述可穿戴设备在不存在时间误差的情况下,从运动状态变为静止状态时应当显示的图像。
可选的,所述根据所述两幅图像在指定参数上的差别,确定所述可穿戴设备的显示误差,包括:
根据所述第一图像的拍摄帧数和所述首次出现的第二图像的拍摄帧数,确定所述第一图像和所述首次出现的第二图像的拍摄帧数差的绝对值;
根据所述拍摄帧数差的绝对值,以及所述图像获取组件的帧频,确定所述可穿戴设备的时间误差。
可选的,其特征在于,
所述根据所述拍摄帧数差的绝对值,以及所述图像获取组件的帧频,确定所述可穿戴设备的时间误差,包括:
根据所述第一图像和所述第二图像的拍摄帧数差的绝对值|n|,以及所述图像获取组件的帧频f,基于时间误差计算公式,确定所述可穿戴设备的时间误差t,所述时间误差计算公式为:
可选的,所述可穿戴设备的显示界面上还显示有动态可视坐标系,所述动态可视坐标系与世界坐标系存在映射关系,所述显示误差包括移动误差,所述指定参数为所述两幅图像在所述动态可视坐标系上的刻度。
可选的,所述两幅图像包括第三图像和第四图像,
所述在所述测试过程中,获取所述可穿戴设备显示的两幅图像,包括:
通过图像获取组件拍摄所述可穿戴设备从静止状态变为运动状态时实际显示的所述第三图像;
通过图像获取组件拍摄所述可穿戴设备从运动状态变为静止状态时实际显示的所述第四图像。
可选的,所述两幅图像包括第三图像和第四图像,
所述根据所述两幅图像在指定参数上的差别,确定所述可穿戴设备的显示误差,包括:
获取所述第四图像和所述第三图像在所述动态可视坐标系中的刻度差的绝对值;
获取所述可穿戴设备从静止状态变为运动状态再变为静止状态的第一移动参数值;
基于所述动态可视坐标系与所述世界坐标系的映射关系,获取所述第一移动参数值在动态可视坐标系中对应的第二移动参数值;
将所述刻度差的绝对值与所述第二移动参数值之差的绝对值确定为所述可穿戴设备在所述动态可视坐标系的移动误差。
可选的,当所述指定方向为直线方向,所述第一移动参数值和所述第二移动参数值为距离值;
当所述指定方向为转动方向,所述第一移动参数值和所述第二移动参数值为角度值。
可选的,其特征在于,
所述控制显示有测试图像的可穿戴设备进入测试过程,包括:
控制所述可穿戴设备沿指定方向从起始位置开始以预设速度移动至目标位置后静止,所述目标位置设置有标定物,当所述可穿戴设备位于所述目标位置时,所述标定物位于所述可穿戴设备的显示界面与所述图像获取组件的镜头之间,所述图像获取组件被配置为获取所述显示界面上显示的图像。
可选的,所述控制所述可穿戴设备沿指定方向从起始位置开始以预设速度移动至目标位置后静止,包括:
控制所述可穿戴设备沿直线方向从起始位置开始以预设速度匀速移动至目标位置后静止。
可选的,所述控制所述可穿戴设备沿指定方向从起始位置开始以预设速度移动至目标位置后静止,包括:
控制所述可穿戴设备沿转动方向从起始位置开始以预设转速匀速移动至目标位置后静止。
可选的,所述指定方向为直线方向,所述预设速度为0.1m/s至5m/s中的任一速度值。
可选的,所述指定方向为转动方向,所述预设速度为1r/min至5r/min中的任一转速值。
可选的,所述标定物为激光。
另一方面,提供了一种可穿戴设备的测试系统,所述系统包括:
控制组件和图像获取组件,
所述控制组件用于控制显示有测试图像的可穿戴设备进入测试过程,所述测试过程为沿指定方向从静止状态变为运动状态再变为静止状态的过程;
所述图像获取组件用于在所述测试过程中,获取所述可穿戴设备显示的两幅图像;
所述控制组件还用于根据所述两幅图像在指定参数上的差别,确定所述可穿戴设备的显示误差。
可选的,所述系统还包括:
线性滑轨、第一支撑柱、第一测试载台,其中,所述第一支撑柱的一端与所述线性滑轨可滑动连接、所述第一支撑柱的另一端固定连接所述第一测试载台,所述控制组件与所述第一支撑柱建立有通信连接,
所述第一测试载台用于设置有所述可穿戴设备以及所述图像获取组件,
所述控制组件被配置为控制所述第一支撑柱在所述线性滑轨上滑动。
可选的,所述系统还包括:
滑动连接件;
所述第一支撑柱的一端与所述滑动连接件可转动连接,所述滑动连接件与所述线性滑轨可滑动连接。
可选的,所述系统还包括:
底座、第二支撑柱、第二测试载台,其中,所述第二支撑柱的一端与所述底座转动连接、所述第二支撑柱的另一端固定连接所述第二测试载台,所述控制组件与所述第二支撑柱建立有通信连接,
所述测试载台用于设置所述可穿戴设备以及所述图像获取组件,
所述控制组件被配置为控制所述第二支撑柱在所述底座上旋转。
可选的,所述标定物为激光,所述系统还包括:激光发射器,被配置为提供所述激光。
可选的,所述测试图像为增强现实图像或虚拟现实图像。
可选的,所述图像获取组件的帧频大于或等于所述可穿戴设备显示图像的帧频。
可选的,所述图像获取组件的帧频大于或等于1000帧/秒。
本发明实施例提供的技术方案带来的有益效果是:
通过控制显示有测试图像的可穿戴设备在指定方向上移动以及获取可穿戴设备显示的两幅图像及该两幅图像的指定参数,来确定可穿戴设备的显示误差。由于测量得到的显示误差精度明显高于最大显示误差,因此解决了相关技术中,显示误差准确性较低的问题。达到了能够有效提高确定的显示误差的准确度的效果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1-1是本发明实施例提供的一种可穿戴设备的测试系统的结构框图;
图1-2是本发明实施例提供的一种可穿戴设备的测试方法的流程图;
图2-1是本发明实施例提供的另一种可穿戴设备的测试方法的流程图;
图2-2是本发明实施例提供的一种可穿戴设备的测试系统的第一子系统的结构示意图;
图2-3是本发明实施例提供的另一种可穿戴设备的测试系统的第一子系统的结构示意图;
图2-4是本发明实施例提供的另一种可穿戴设备的测试系统的第一子系统的结构示意图;
图2-5是本发明实施例提供的另一种可穿戴设备的测试系统的第一子系统的结构示意图;
图2-6是本发明实施例提供的一种可穿戴设备的测试系统的第二子系统的结构示意图;
图2-7是本发明实施例提供的另一种可穿戴设备的测试系统的第二子系统的结构示意图;
图2-8是本发明实施例提供的另一种可穿戴设备的测试系统的第二子系统的结构示意图;
图2-9是本发明实施例提供的一种可穿戴设备的测试系统中滑动连接件结构示意图;
图3-1a是本发明实施例提供的一种可穿戴设备显示第三图像时的显示界面示意图;
图3-1b是本发明实施例提供的一种可穿戴设备显示第四图像时的显示界面示意图;
图3-2是本发明实施例提供的另一种可穿戴设备的测试方法的流程图;
图3-3a是本发明实施例提供的另一种可穿戴设备显示第三图像时的显示界面示意图;
图3-3b是本发明实施例提供的另一种可穿戴设备显示第四图像时的显示界面示意图;
图3-4是本发明实施例提供的另一种可穿戴设备的测试方法的流程图。
通过上述附图,已示出本发明明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本发明构思的范围,而是通过参考特定实施例为本领域技术人员说明本发明的概念。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
目前的可穿戴设备,在进行图像显示时,若用户的状态从运动状态变为静止状态,容易出现显示误差,为了避免显示误差,需要准确地测量显示误差并基于测试结果对可穿戴设备的图像显示过程进行校正。
本发明实施例提供一种可穿戴设备的测试方法,该方法可以应用于可穿戴设备的测试系统0,如图1-1所示,该测试系统0包括:
控制组件01和图像获取组件02,该控制组件01和图像获取组件02建立有通信连接,该图像获取组件02可以为照相机或摄像机等可以拍摄图像的装置且帧频大于或等于1000帧/秒,需要说明的是,该控制组件01用于控制显示有测试图像的可穿戴设备1进入测试过程,该测试过程为沿指定方向从静止状态变为运动状态再变为静止状态的过程。该图像获取组件02用于在测试过程中,获取可穿戴设备1显示的两幅图像。该控制组件01还用于根据这两幅图像在指定参数上的差别,确定可穿戴设备1的显示误差。其中,可穿戴设备1可以是支持VR或AR的智能眼镜,或者支持VR或AR的智能头盔等。
相应的,如图1-2所示,该可穿戴设备的测试方法包括:
步骤101、控制显示有测试图像的可穿戴设备进入测试过程,测试过程为沿指定方向从静止状态变为运动状态再变为静止状态的过程。
其中,该指定方向可以为直线方向也可以为转动方向。
步骤102、在测试过程中,获取可穿戴设备显示的两幅图像。
步骤103、根据两幅图像在指定参数上的差别,确定可穿戴设备的显示误差。
其中,该指定参数可以为测试过程中所获取的参数。
综上所述,本发明通过控制显示有测试图像的可穿戴设备在指定方向上移动以及获取可穿戴设备显示的两幅图像及该两幅图像的指定参数,来确定可穿戴设备的显示误差。由于测量得到的显示误差精度明显高于最大显示误差(该最大显示误差包括最大时间误差和最大距离误差,该最大时间误差为该可穿戴设备的各个器件的时间误差之和,最大距离误差为该可穿戴设备的各个器件的距离误差之和),因此解决了相关技术中,显示误差准确性较低的问题。达到了能够有效提高确定的显示误差的准确度的效果。
显示误差主要有两种,分别是时间误差和移动误差,时间误差指的是可穿戴设备移动到目标位置后,其显示界面在该位置上实际显示的图像和理论上应该显示的图像的时间差值;移动误差指的是可穿戴设备从起始位置移动到目标位置后,可穿戴设备的显示界面显示的图像的移动距离和可穿戴设备实际移动的距离或角度之间的移动差值。其中,时间误差又可以包括沿直线方向运动所产生的时间误差和沿转动方向旋转所产生的时间误差,移动误差又可以包括距离误差和角度误差,本发明实施例以以下两方面为例对显示误差进行说明。
第一方面,当显示误差为时间误差时,上述步骤102中的两幅图像包括第一图像和第二图像,上述指定参数为第一图像的拍摄帧数和第二图像的拍摄帧数,则本发明实施例提供一种可穿戴设备的测试方法,该方法可以应用于如图1-1所示的系统,如图2-1所示,该测试方法包括:
步骤201、控制显示有测试图像的可穿戴设备进入测试过程,该测试过程为沿指定方向从静止状态变为运动状态再变为静止状态的过程。
可穿戴设备在起始位置时为静止状态,控制组件可以控制该可穿戴设备沿指定方向从起始位置开始以预设速度移动至目标位置后静止。
其中,测试图像随着可穿戴设备的运动而变化,其可以与可穿戴设备真实使用时的图像相同,本发明实施例采用的测试图像可以为AR图像或VR图像,该测试图像也可以为全景视频,也可以为由全景视频处理后的视频,还可以为与全景视频效果类似的人工合成视频,全景视频是一种用3D摄像机进行全方位360度拍摄得到的视频,用户在观看视频的时候,可以随意调节视频的上下左右以进行观看。
该起始位置和目标位置通常是测试人员预先设置好的,一般是固定的位置。该目标位置上可以设置有标定物,便于图像获取组件进行图像的有效拍摄,其中,图像获取组件被配置为获取可穿戴设备的显示界面上显示的图像。当可穿戴设备位于该目标位置时,标定物位于可穿戴设备的显示界面与图像获取组件的镜头之间,使得图像获取组件能够同时拍摄到标定物与显示界面所显示的图像,该标定物用来标识可穿戴设备显示界面的显示画面在时间误差内的变化过程,本发明实施例中的标定物可以为激光,该激光可以呈紫色、红色或蓝色,除此之外,该标定物还可以是一个实体,比如肉眼可观测到的极细的线体,如金属线,该线体的颜色可以呈红色或黑色等易识别的颜色等,本发明实施例在此不做限制。
可选的,为了更好地模拟可穿戴设备在实际操作中的运动形式,该指定方向可以为直线方向或者转动方向,可穿戴设备的运动过程可以是匀速也可以是非匀速,为了方便测试,可穿戴设备的运动过程通常是匀速的。则上述测试过程可以包括:当指定方向是直线方向时,控制组件控制该可穿戴设备沿直线方向从起始位置开始以预设速度匀速移动至目标位置后静止,示例的,该预设速度可以为0.1m/s(米/秒)至5m/s中的任一速度值,如3m/s;当指定方向是转动方向时,控制组件控制该可穿戴设备沿转动方向从起始位置开始以预设转速匀速旋转至目标位置后静止,示例的,该预设速度可以为1r/min(转/分)至5r/min中的任一转速值,如3r/min。
步骤202、通过图像获取组件拍摄可穿戴设备从运动状态变为静止状态时实际显示的第一图像。
该图像获取组件可以为照相机或摄像机等可以拍摄图像的装置,该图像获取组件的帧频可以大于或等于可穿戴设备显示图像的帧频,这样可以保证图像获取组件准确捕捉到可穿戴设备的显示界面上图像的帧数的变化,使最终确定的时间误差至少可以精确到帧,提高了时间误差的获取准确度。实际应用中,图像获取组件的帧频越高,最终获取的时间误差精度越高,在本发明实施例中,该图像获取组件的帧频可以大于或等于1000帧/秒。
本发明实施例以图像获取组件为摄像机为例进行说明,且该帧频为1000帧/秒。摄像机的镜头可以对准可穿戴设备的一个单目显示界面(之后称显示界面)并调焦使摄像机镜头摄取的图像清晰可见,摄像机的镜头可以从可穿戴设备开始运动起进行摄像,从而捕捉到一个可穿戴设备运动过程中的图像集合,该图像集合记录摄像机连续拍摄的包含有可穿戴设备的显示界面的多个图像,控制组件可以从该图像集合中提取出可穿戴设备到达目标位置时的第一幅图像,即可穿戴设备从运动状态变为静止状态时的第一图像,本发明实施例中认为第一图像的出现时刻(即其拍摄帧数所对应的时刻)为可穿戴设备实际上静止的时刻,但由于显示误差的存在,该时刻可穿戴设备上的图像并未静止。由于该目标位置可以设置标定物,则可穿戴设备从运动状态变为静止状态时的第一图像即为图像集合中标定物首次出现时,可穿戴设备显示界面上呈现的那幅图像,最终摄像机拍摄到的图像中包括第一图像以及目标位置的标定物的图像。
实际应用中,可穿戴设备通常具有双目显示界面,则相应的图像获取组件可以具有两个镜头,例如可以为双目摄像机,以分别获取双目显示界面上显示的图像,每个镜头获取图像的过程可以参考上述过程,本发明实施例对此不做赘述。
步骤203、通过图像获取组件拍摄可穿戴设备从运动状态变为静止状态时首次出现的第二图像,该第二图像为可穿戴设备在不存在时间误差的情况下,从运动状态变为静止状态时应当显示的图像。
该第二图像为可穿戴设备在不存在时间误差的情况下,从运动状态变为静止状态时应当显示的图像(该图像为理想图像)。由于可穿戴设备在恢复静止后,会持续显示该第二图像,而图像获取组件在进行连续拍摄的过程中,可能拍摄到多幅第二图像,因此,本发明实施例中认为第二图像的首次出现时刻(即首次出现的第二图像的拍摄帧数所对应的时刻)为可穿戴设备上的图像实际静止的时刻。
示例的,控制组件可以从步骤201所获取的图像集合提取出摄像机拍摄到的首个第二图像作为上述首次出现的第二图像,由于目标位置可以设置标定物,最终摄像机拍摄到的图像中包括首次出现的第二图像以及目标位置的标定物的图像。
步骤204、根据第一图像的拍摄帧数和首次出现的第二图像的拍摄帧数,确定第一图像和首次出现的第二图像的拍摄帧数差的绝对值。
示例的,假设图像获取组件为摄像机,则从摄像机中获取第一图像的拍摄帧数和首次出现的第二图像的拍摄帧数,实际应用中步骤202获取的图像集合中每幅图像均可记录一个拍摄帧数,则可以从该图像集合中确定第一图像的拍摄帧数和首次出现的第二图像的拍摄帧数,例如该第一图像的拍摄帧数为800,该第二图像的拍摄帧数为899,该第一图像和该第二图像的拍摄帧数差的绝对值为99,且该摄像机的帧频为1000帧/秒。
步骤205、根据拍摄帧数差的绝对值,以及图像获取组件的帧频,确定可穿戴设备的时间误差。
在时间误差t内,根据图像获取组件的帧频,可以计算得出时间误差t对应的帧数误差,即第一图像和首次出现的第二图像的拍摄帧数差的绝对值。
其中,步骤205可以包括:
根据第一图像和第二图像的拍摄帧数差的绝对值|n|,以及图像获取组件的帧频f,基于时间误差计算公式,确定可穿戴设备的时间误差t,时间误差计算公式为:
具体的,第一图像和第二图像的拍摄帧数差的绝对值|n|为99帧,该摄像机的帧频f为1000帧/秒,将上述|n|和f代入公式:可以计算得到时间误差t为0.1秒。
综上所述,本发明通过控制显示有测试图像的可穿戴设备在指定方向上移动以及获取可穿戴设备显示的第一图像和第二图像,根据这两幅图像的帧数差的绝对值,来确定可穿戴设备的时间误差。由于测量得到的时间误差精度明显高于最大时间误差,因此解决了相关技术中,时间误差准确性较低的问题。有效提高了确定的时间误差的准确度。
需要说明的是,在实际应用过程中,用户穿戴该可穿戴设备进行VR或AR体验时,用户的移动方向除了沿直线方向运动(例如沿一个方向走动或跑步)还有沿转动方向运动(例如在某处转弯或者转身),所以在本申请的可穿戴设备的测试系统中,该可穿戴系统需要测量的时间误差包括两种误差,分别为沿直线方向运动所产生的时间误差和沿转动方向运动所产生的时间误差。从上述时间误差计算公式可知,时间误差在本发明实施例中与两幅图像的拍摄帧数差的绝对值|n|,以及图像获取组件的帧频f有关,因此计算直线方向运动所产生的时间误差和沿转动方向运动所产生的时间误差的方法均可以参考上述步骤201至205,而直线方向运动所产生的时间误差和沿转动方向运动所产生的时间误差的测试系统结构会略有不同,下面会进行详细介绍。
在本发明实施例中,可穿戴设备的测试系统可以通过多种结构来实现对时间误差和移动误差的测试。本发明实施例以以下两种可实现方式为例进行说明。
第一种可实现方式,可穿戴设备的测试系统可以分别设置两个子系统,该两个子系统中第一子系统用于测试当可穿戴设备运动的指定方向为直线方向时的时间误差,第二子系统用于测试当可穿戴设备运动的指定方向为旋转方向时的时间误差。该两个子系统可以分别设置控制组件和图像获取组件,或者共用控制组件和图像获取组件。本发明实施例假设两个子系统分别设置控制组件和图像获取装置,可穿戴设备的测试系统0的控制组件01包括位于第一子系统的第一控制组件011、位于第二子系统的第二控制组件012。可穿戴设备的测试系统0的图像获取组件02包括位于第一子系统的第一图像获取组件021和位于第二子系统的第二图像获取组件022。
则第一子系统和第二子系统的结构分别如下:
如图2-2所示,图2-2是本发明实施例提供的一种可穿戴设备的测试系统0中的第一子系统,该子系统包括:第一控制组件011、第一图像获取组件021、线性滑轨03、第一支撑柱04、第一测试载台05,其中,第一支撑柱04的一端与线性滑轨03可滑动连接,第一支撑柱04的另一端固定连接第一测试载台05,第一控制组件011与第一支撑柱04建立有通信连接。
第一测试载台05上用于设置可穿戴设备1以及第一图像获取组件021,第一控制组件011被配置为控制第一支撑柱04在线性滑轨上滑动,第一支撑柱04用于支撑第一测试载台05在线性滑轨03上滑动,该第一支撑柱04的形状及结构可以根据所要支撑的第一测试载台05适应性调整。
示例的,第一测试载台05上可以设置有用于固定可穿戴设备1的第一固定件和用于固定第一图像获取组件021的第二固定件。例如,可穿戴设备1为支持AR或VR的智能眼镜,则第一固定件为一眼镜固定架,第一图像获取组件021可以为摄像机,则第二固定件为一摄像机固定架。
示例性的,线性滑轨03上可以标定有起始位置a和目标位置b。在执行上述步骤201时,第一控制组件011可以通过控制第一支撑柱04在线性滑轨03上滑动,使得该第一支撑柱04带动设置有可穿戴设备1和第一图像获取组件021的第一测试载台05沿线性滑轨的延伸方向移动至目标位置b以进入测试过程,该指定方向即为线性滑轨04的延伸方向,在测试过程中,可穿戴设备1持续显示有测试图像,第一图像获取组件021持续拍摄该可穿戴设备1的显示界面,并且将拍摄到的图像传输给第一控制组件011。然后第一控制组件011根据获取到的图像执行上述步骤202至步骤205。
进一步的,如图2-3所示,该第一子系统还可以包括:激光发射器06,其被配置为可以提供激光,该激光发射器06可以设置在目标位置的对应位置处,例如目标位置的侧面,该激光发射器06用于在可穿戴设备1位于目标位置时,向可穿戴设备1的显示界面与第一图像获取组件021的镜头之间发射激光。
相应的,在执行上述步骤201时,激光发射器06向可穿戴设备1的显示界面与第一图像获取组件021的镜头之间发射激光。一方面,激光发射器06可以在可穿戴设备1到达目标位置时发射激光,示例的,激光发射器06可以设置有定时器,在该定时器在可穿戴设备1开始移动时开始倒计时,到可穿戴设备1结束运动时倒计时结束,触发激光发射器06发射激光,该倒计时时长是根据线性滑轨03的起始位置a到目标位置b的距离,以及第一支撑柱04的移动速度计算得到的。另一方面,激光发射器06也可以在整个测试过程中,持续发射激光,这样可以避免激光发射器06的激光发射时延对最终确定的时间误差的影响,进一步提高测试精度。
需要说明的是,上述线性滑轨03为位置可调的线性滑轨,当线性滑轨的位置变化时,该可穿戴设备的测试系统中的其他设备可以以该线性滑轨为参照系调整自身的位置,相应的,上述指定方向为不同的方向,例如,当线性滑轨如图2-2或2-3所示沿x轴水平设置时,指定方向可以为从左到右的方向(此时模拟的场景是用户戴着可穿戴设备从左到右移动的场景)或从右到左的方向(此时模拟的场景是用户戴着可穿戴设备从右到左移动的场景);当线性滑轨如图2-4所示的沿y轴水平设置时,指定方向可以为从前到后的方向(此时模拟的场景是用户戴着可穿戴设备从前到后移动的场景)或从后到前的方向(此时模拟的场景是用户戴着可穿戴设备从前到后移动的场景),当线性滑轨如图2-5中沿z轴竖直设置时,指定方向可以为从上到下的方向(此时模拟的场景是用户戴着可穿戴设备从上向下跳的场景,或者下蹲的场景)或从下到上的方向(此时模拟的场景是用户戴着可穿戴设备从下向上跳的场景)。
需要说明的是,图2-3中的第一支撑柱04也可以为可伸缩的支撑柱(例如,该支撑柱可以是液压支撑柱或者气动支撑柱),其可以通过上下伸缩的方式带动设置有可穿戴设备1和第一图像获取组件021的第一测试载台05竖直运动,以实现与如图2-5所示的可穿戴设备的测试系统相同的测试效果,也即是能够模拟用户戴着可穿戴设备从上向下跳的场景,或者下蹲的场景,除此之外,其他可替代方式都在本发明的保护范围内,本发明实施例在此不做限制。
其中,图2-2至图2-5中,可穿戴设备1中显示界面显示的图像的显示方向与水平面平行,以模拟用户使用时的场景,因此,在图2-2至图2-4中,可穿戴设备1中显示界面显示的图像的显示方向平行于第一测试载台05的承载面,图2-5中,可穿戴设备1中显示界面显示的图像的显示方向垂直于第一测试载台05的承载面。
则,通过调整可穿戴设备的测试系统中各个设备的相对位置,可以实现可穿戴设备在水平场景和竖直场景的时间误差的测试,保证该测试系统的实用性。
如图2-6所示,图2-6是本发明实施例提供的一种可穿戴设备的测试系统0中的第二子系统,该子系统包括:第二控制组件012、第二图像获取组件022、底座07、第二支撑柱08、第二测试载台09,其中,第二支撑柱08的一端与底座07转动连接、第二支撑柱08的另一端固定连接第二测试载台09,第二控制组件012与第二支撑柱08建立有通信连接。
第二测试载台09上用于设置可穿戴设备1以及第二图像获取组件022,第二控制组件012被配置为控制第二支撑柱08在底座07上旋转,第二支撑柱08用于支撑第二测试载台09在底座07上旋转,该第二支撑柱08的形状及结构可以根据所要支撑的第二测试载台09适应性调整。
示例性的,第二控制组件012可以预先设置需要底座07相对于起始位置(即进入测试过程时的初始位置)沿一个转动方向所要转动的角度以到达目标位置。在执行上述步骤201时,第二控制组件012可以通过控制底座07转动,使得该第二支撑柱08带动设置有可穿戴设备1和第二图像获取组件022的第二测试载台09沿第二支撑柱08所在的轴线顺时针或者逆时针转动以进入测试过程,在测试过程中,可穿戴设备1持续显示有测试图像,第二图像获取组件022持续拍摄该可穿戴设备1的显示界面,并且将拍摄到的图像传输给第二控制组件012。然后第二控制组件012根据获取到的图像执行上述步骤202至步骤205。
进一步的,如图2-7所示,该可穿戴设备的测试系统0还可以包括:激光发射器06,其被配置为可以提供激光,该激光发射器06可以设置在目标位置的对应位置处,例如目标位置的侧面,该激光发射器06用于在可穿戴设备1位于目标位置时,向可穿戴设备1的显示界面与第二图像获取组件022的镜头之间发射激光。
相应的,在执行上述步骤201时,激光发射器06向可穿戴设备1的显示界面与第二图像获取组件022的镜头之间发射激光。一方面,激光发射器06可以在可穿戴设备1到达目标位置时发射激光,示例的,激光发射器06可以设置有定时器,在该定时器在可穿戴设备1开始移动时开始倒计时,到可穿戴设备1结束运动时倒计时结束,触发激光发射器06发射激光,该倒计时时长是根据底座07的起始位置沿一个转动方向所要转动的角度,以及第二支撑柱06的旋转速度计算得到的。另一方面,激光发射器06也可以在整个测试过程中,均发射激光,这样可以避免激光发射器06的激光发射时延对最终确定的时间误差的影响,进一步提高测试精度。
需要说明的是,上述底座07为位置可调的底座,当底座的位置变化时,该可穿戴设备的测试系统中的其他设备可以以底座为参照系调整自身的位置,相应的,上述指定方向为不同的方向,例如,当底座如图2-7所示水平设置时,指定方向为沿垂直于水平面的轴线顺时针或逆时针转动的方向,此时模拟的是用户戴着可穿戴设备在某处转弯、转身或者左右摆动头部等动作;当底座如图2-8所示竖直设置时,指定方向为平行于水平面的轴线顺时针或逆时针转动的方向,此时模拟的是用户戴着可穿戴设备抬头、低头或弯腰等动作。
其中,图2-6至图2-8中,可穿戴设备1中显示界面显示的图像的显示方向与水平面平行,以模拟用户使用时的场景,因此,在图2-6至图2-7中,可穿戴设备1中显示界面显示的图像的显示方向平行于第二测试载台09的承载面,图2-9中,可穿戴设备1中显示界面显示的图像的显示方向垂直于第二测试载台09的承载面。
实际应用中,测试人员也可以通过调整上述可穿戴设备1的位置来模拟用户戴着可穿戴设备运动的场景,比如图2-7中的可穿戴设备1可以竖直放置,本发明实施例在此不做限制。
则,通过调整可穿戴设备的测试系统中各个设备的相对位置,可以实现可穿戴设备在水平场景和竖直场景的时间误差的测试,保证该测试系统的实用性。
第二种可实现方式,可穿戴设备的测试系统可以只设置一个系统,该系统既可以进行指定方向为直线方向的时间误差的测试,又可以进行指定方向为转动方向的时间误差的测试。该可穿戴设备的测试系统包括:控制组件、图像获取组件、激光发射器、线性滑轨、一端与线性滑轨可滑动连接的第一支撑柱、以及与第一支撑柱另一端固定连接的第一测试载台、以及滑动连接件。
其中,控制组件与第一支撑柱建立有通信连接,第一测试载台上固定设置有可穿戴设备以及图像获取组件,控制组件用于控制第一支撑柱在线性滑轨上沿指定方向滑动至目标位置。第一支撑柱的一端与滑动连接件可转动连接,滑动连接件与线性滑轨可滑动连接。
示例的,滑动连接件的示意图可如图2-9所示,其他组件的结构示意图可如图2-2至图2-5所示,将滑动连接件10安置在第一支撑柱04的一端,通过旋转滑动连接件10使第一支撑柱04带动设置有可穿戴设备1和图像获取组件02的第一测试载台05旋转,以实现图2-2至图2-5所示的测量可穿戴设备运动的指定方向为转动方向上的时间误差的功能。
需要说明的是,在实际应用过程中,上述可穿戴设备的测试系统中,各个组件的位置可以根据具体场景示意性调整。示例的,支撑柱和测试载台可以活动连接,两者的相对位置可根据实际测试需要进行调整,图像获取组件和可穿戴设备在测试载台上的放置方式,也可根据实际测试需要以及支撑柱和测试载台的相对位置进行调整,例如,可穿戴设备可以竖直放置,也可以水平放置,除此之外,对于具有激光发射器的测试系统,在图像获取组件和可穿戴设备的放置方式调整之后,激光发射器的位置也可以做相应的调整,以满足测试需要,比如调整激光发射器的位置,使激光发射器发射的激光位于图像获取组件和可穿戴设备之间。
以上述第一子系统为例,第一测试载台05可以与第一支撑柱04活动连接,例如,第一测试载台05可以在第一支撑柱04上旋转,或者相对于第一支撑柱04翻折(如向前或向后翻折),例如可以将图2-1中的第一测试载台05翻折至与第一支撑柱04的延伸方向平行的位置,使得进行载台翻折后的测试系统可以达到如图2-5所示的测试效果。
同理,以上述第二子系统为例,第二支撑柱08可以与第二测试载台09活动连接,例如第二支撑柱08可以在第二测试载台09上旋转,或者相对于第二支撑柱08翻折。
还需要说明的是,在实际应用过程中,为了实现图2-2至图2-5中第一支撑柱04在控制组件011的控制下在线性滑轨03上沿直线方向运动,以及为了实现图2-6至图2-8中的第二支撑柱08在控制组件012的控制下沿转动方向转动,可以在第一支撑柱04和第二支撑柱08的内部或者外部安装可以驱动组件,该驱动组件可以为电机或马达等,具体操作可参考相关技术,本发明实施例在此不做赘述。
综上所述,本发明通过控制显示有测试图像的可穿戴设备在指定方向上移动以及获取可穿戴设备显示的两幅图像及该两幅图像的指定参数,来确定可穿戴设备的时间误差。由于测量得到的时间误差精度明显高于最大时间误差,因此解决了相关技术中,时间误差准确性较低的问题。达到了能够有效提高确定的时间误差的准确度的效果。
第二方面,当显示误差为移动误差时,可穿戴设备的显示界面上还显示有动态可视坐标系,该动态可视坐标系为可穿戴设备的内部坐标系,世界坐标系为可穿戴设备的外部坐标系,动态可视坐标系与世界坐标系存在映射关系,该映射关系包括:尺寸的比例关系和相对位置的关系等,例如动态可视坐标系中的图像为世界坐标系中的图像的十分之一的缩小图像,两者的角度关系为1:1,具体对应关系及转换技术可参考相关技术,本发明实施例在此不做赘述。上述步骤102中的两幅图像包括第四图像和第三图像,上述指定参数为两幅图像在动态可视坐标系上的刻度。需要说明的是,该动态可视坐标系上的刻度间距不大于可穿戴设备可识别的最小间距,从而保证较高的测量精度。
本发明实施例可以实现直线方向上的移动误差的测量,比如可穿戴设备沿直线运动,此时,该移动误差为距离误差;也可以实现转动方向上的移动误差的测量,比如可穿戴设备以一个轴旋转运动,此时该移动误差为角度误差。
示例的,本发明实施例以以下两种可实现方式为例对显示误差为移动误差时,可穿戴设备的测试方法进行说明:
第一种可实现方式,当指定方向为直线方向,相应的动态可视坐标系如图3-1a和3-1b所示,该动态可视坐标系可以为动态的平面直角坐标系,本发明实施例提供一种可穿戴设备的测试方法,如图3-2所示,该可穿戴设备的测试方法包括:
步骤301a、控制显示有测试图像的可穿戴设备进入测试过程,测试过程为沿指定方向从静止状态变为运动状态再变为静止状态的过程。
该指定方向为直线方向,其他具体过程可参考上述步骤201,在此不再赘述。
步骤302a、通过图像获取组件拍摄可穿戴设备从静止状态变为运动状态时实际显示的第三图像。
参考上述步骤202所述的情况,本发明实施例仍以图像获取组件为摄像机为例进行说明,且该帧频为1000帧/秒。摄像机的镜头可以对准可穿戴设备的显示界面,其可以从可穿戴设备开始进入测试过程时(即可穿戴设备的状态由静止状态变为运动状态的时刻)开始进行摄像,从而获取到一个可穿戴设备运动的图像集合,该图像集合记录摄像机连续拍摄的包含有可穿戴设备的显示界面的多个图像,控制组件从该图像集合中提取出该图像集合的第一幅图像,即本发明实施例中可穿戴设备从静止状态变为运动状态时实际显示的第三图像。
步骤303a、通过图像获取组件拍摄可穿戴设备从运动状态变为静止状态时实际显示的第四图像。
示例的,控制组件可以从上述步骤302a中获取的图像集合中提取出可穿戴设备到达目标位置时的第一幅图像,即可穿戴设备从运动状态变为静止状态时的第四图像。该第四图像和步骤202中的第一图像为同一图像,详细解释可参考步骤202,在此不再赘述。
步骤304a、获取第四图像和第三图像在动态可视坐标系中的刻度差的绝对值。
为了便于计算移动误差,图像在动态可视坐标系上的刻度通常选取图像同一侧的边界在动态可视坐标系上的刻度,比如都选取图像左侧边界在动态可视坐标系上的刻度或者都选取图像右侧边界在动态可视坐标系上的刻度。
根据第四图像和第三图像在可穿戴设备显示界面中动态可视坐标系上显示的刻度,示例的,该第四图像和该第三图像统一选取图像左侧边界在动态可视坐标系上的刻度作为将要计算移动误差的参数。如图3-1a和图3-1b所示,假设可穿戴设备沿图3-1a和3-1b中的x方向从左向右运动,图3-1a为可穿戴设备显示第三图像p时的显示界面示意图,图3-1b为可穿戴设备显示第四图像q时的显示界面示意图,其中,假设动态可视坐标系的坐标原点位于第三图像p的左下角,该动态可视坐标系的刻度随着可穿戴设备显示的图像的变化而变化,如图3-1a和图3-1b所示,当可穿戴设备沿直线方向从左向右运动时,其显示的图像也使人产生从左向右运动的视觉感受,相应的动态可视坐标系的刻度也在显示界面上从左向右滑动。假设动态可视坐标系的最小刻度单位为毫米(mm),则基于图3-1a和图3-1b可知,第四图像q和第三图像p在动态可视坐标系中的刻度差的绝对值为40mm。
步骤305a、获取可穿戴设备从静止状态变为运动状态再变为静止状态的第一距离值。
该第一距离值即为可穿戴设备从起始位置起,沿直线方向实际移动的距离值。该距离值可以通过设置于可穿戴设备上的距离传感器获取,或者在可穿戴设备的移动路径上标示刻度来获取,本发明实施例在此不做限制。
步骤306a、基于动态可视坐标系与世界坐标系的映射关系,获取第一距离值在动态可视坐标系中对应的第二距离值。
将可穿戴设备在世界坐标系中所移动的实际距离采用动态可视坐标系中的刻度来标识的转化过程可以参考现有技术,本发明实施例在此不做赘述。
例如,假设第二距离值为41cm,图3-1a和图3-1b所示的动态可视坐标系中的图像为世界坐标系中的图像的十分之一的缩小图像,则基于动态可视坐标系与世界坐标系的映射关系,获取第一距离值在动态可视坐标系中对应的第二距离值实际上为第一距离值的十分之一,也即是41mm。
步骤307a、将刻度差的绝对值与第二距离值之差的绝对值确定为可穿戴设备在动态可视坐标系的移动误差。
依然参考步骤304a至步骤306a的例子,第二距离值为41mm,刻度差的绝对值为40mm,则刻度差的绝对值与第二距离值之差的绝对值为1mm,那么可穿戴设备在动态可视坐标系的移动误差为1mm。
通过准确的测量出可穿戴设备的移动误差,可以使测试人员基于该移动误差对可穿戴设备的图像显示过程进行校正。
在实现上述第一种可实现方式时,相应的可穿戴设备的测试系统可以参考上述测试时间误差的第一种可实现方式中的第一子系统或者第二种可实现方式的可穿戴设备的测试系统,示例的,在上述测试系统的基础上,在可穿戴设备的显示界面上添加动态可视坐标系,在线性滑轨上设置可读坐标,来读取所需刻度对应的距离值。
第二种可实现方式,当指定方向为转动方向,相应的动态可视坐标系如图3-3a和图3-3b所示,该动态可视坐标系可以为三维直角坐标系、球坐标系、极坐标系统或者球极坐标系,图3-3a和图3-3b以该动态可视坐标系为球极坐标系为例,本发明实施例提供一种可穿戴设备的测试方法,如图3-4所示,该可穿戴设备的测试方法包括:
步骤301b、控制显示有测试图像的可穿戴设备进入测试过程,测试过程为沿指定方向从静止状态变为运动状态再变为静止状态的过程。
该指定方向为转动方向,其他具体过程可参考上述步骤201,在此不再赘述。
步骤302b、通过图像获取组件拍摄可穿戴设备从静止状态变为运动状态时实际显示的第三图像。
具体过程可参考步骤302a,在此不再赘述。
步骤303b、通过图像获取组件拍摄可穿戴设备从运动状态变为静止状态时实际显示的第四图像。
具体过程可参考步骤303a,在此不再赘述。
步骤304b、获取第四图像和第三图像在动态可视坐标系中的刻度差的绝对值。
在本实施例中,第四图像和第三图像在动态可视坐标系中的刻度差的绝对值为角度刻度差的绝对值。
示例的,如图3-3a和图3-3b所示,假设可穿戴设备最开始显示的图像的坐标位置位于动态可视坐标系的0°所在的位置,图3-3a为可穿戴设备显示第三图像p时的显示界面示意图,图3-3b为可穿戴设备显示第四图像q时的显示界面示意图。动态可视坐标系的中的角度刻度随着可穿戴设备显示的图像的变化而变化,假设该动态可视坐标系中的角度刻度的最小单位为30°,则如图3-1a和图3-3b所示,当可穿戴设备沿z轴逆时针运动时,其显示的图像也使人产生从逆时针运动的视觉感受,相应的动态可视坐标系的刻度也在显示界面上逆时针转动,则基于图3-1a和图3-1b可知,第三图像p相对于初始坐标0°所在位置转动了90°,第四图像q相对于初始坐标0°所在位置转动了60°,第四图像q和第三图像p在动态可视坐标系中的角度刻度差的绝对值为30°。
步骤305b、获取可穿戴设备从静止状态变为运动状态再变为静止状态的第一角度值。
该第一角度值即为可穿戴设备从起始位置起沿转动方向(示例的,沿逆时针转动方向)实际转动的角度值。该角度值可以通过设置于可穿戴设备上的角度传感器获取,或者在可穿戴设备的移动路径上标示刻度来获取,本发明实施例在此不做限制。
步骤306b、基于动态可视坐标系与世界坐标系的映射关系,获取第一角度值在动态可视坐标系中对应的第二角度值。
将可穿戴设备在世界坐标系中所转动的实际角度采用动态可视坐标系中的角度来标识的转化过程可以参考现有技术,本发明实施例在此不做赘述。
例如,假设第一角度值为29°,图3-1a和图3-1b所示的动态可视坐标系中的图像为世界坐标系中的角度为1:1的关系,则基于动态可视坐标系与世界坐标系的映射关系,获取第一角度值在动态可视坐标系中对应的第二角度值实际上也为29°。
步骤307b、将刻度差的绝对值与第二角度值之差的绝对值确定为可穿戴设备在动态可视坐标系的移动误差。
在本实施例中,该移动误差实际为角度移动误差。依然参考步骤304b至步骤306b的例子,第二角度值为29°,角度刻度差的绝对值为30°,则刻度差的绝对值与第二角度值之差的绝对值为1°,那么可穿戴设备在动态可视坐标系的角度移动误差为1°。
通过准确的测量出可穿戴设备的移动误差,可以使测试人员基于该移动误差对可穿戴设备的图像显示过程进行校正。
可选的,在上述步骤304a或304b之后,控制组件也可以基于动态可视坐标系与世界坐标系的映射关系,获取刻度差的绝对值在世界坐标系中对应的第三移动参数值;获取可穿戴设备从静止状态变为运动状态再变为静止状态的第一移动参数值;将第三移动参数值与第一移动参数值之差的绝对值确定为可穿戴设备在世界坐标系的移动误差;然后基于动态可视坐标系与世界坐标系的映射关系,将可穿戴设备在世界坐标系的移动误差转化为可穿戴设备在动态可视坐标系的移动误差。
示例的,当移动参数为距离值时,控制组件基于动态可视坐标系与世界坐标系的映射关系,获取刻度差的绝对值在世界坐标系中对应的第一距离值;获取可穿戴设备从静止状态变为运动状态再变为静止状态的第二距离值;将第一距离值与第二距离值之差的绝对值确定为可穿戴设备在世界坐标系的移动误差;然后基于动态可视坐标系与世界坐标系的映射关系,将可穿戴设备在世界坐标系的移动误差转化为可穿戴设备在动态可视坐标系的移动误差。
当移动参数为角度值时,控制组件基于动态可视坐标系与世界坐标系的映射关系,获取刻度差的绝对值在世界坐标系中对应的第一角度值;获取可穿戴设备从静止状态变为运动状态再变为静止状态的第二角度值;将第一角度值与第二角度值之差的绝对值确定为可穿戴设备在世界坐标系的移动误差;然后基于动态可视坐标系与世界坐标系的映射关系,将可穿戴设备在世界坐标系的移动误差转化为可穿戴设备在动态可视坐标系的移动误差。
在实现上述第二种可实现方式时,相应的可穿戴设备的测试系统可以参考上述测试时间误差的第一种可实现方式中的第二子系统或者第二种可实现方式的可穿戴设备的测试系统,在上述测试系统的基础上,在可穿戴设备的显示界面上添加动态可视坐标系,在底座上设置可读角度标识,来读取所需刻度对应的角度值。
综上所述,本申请通过控制显示有测试图像的可穿戴设备在指定方向上移动以及获取可穿戴设备显示的第四图像和第三图像,根据这两幅图像的刻度差的绝对值,来确定可穿戴设备的移动误差。由于测量得到的移动误差精度明显高于最大移动误差,因此解决了相关技术中,移动误差准确性较低的问题。有效提高了确定的移动误差的准确度。
有上述实施例可知,本发明通过控制显示有测试图像的可穿戴设备在指定方向上移动以及获取可穿戴设备显示的两幅图像及该两幅图像的指定参数,来确定可穿戴设备的显示误差。由于测量得到的显示误差精度明显高于最大显示误差,因此解决了相关技术中,显示误差准确性较低的问题。达到了能够有效提高确定的显示误差的准确度的效果。
本发明实施例提供一种可穿戴设备的测试系统0,该测试系统可以为如图1-1所示的测试系统0,包括:
控制组件01和图像获取组件02,
控制组件01用于控制显示有测试图像的可穿戴设备进入测试过程,测试过程为沿指定方向从静止状态变为运动状态再变为静止状态的过程;
图像获取组件02用于在测试过程中,获取可穿戴设备显示的两幅图像;
控制组件01还用于根据两幅图像在指定参数上的差别,确定可穿戴设备的显示误差。
综上所述,本申请通过控制显示有测试图像的可穿戴设备在指定方向上移动以及获取可穿戴设备显示的两幅图像及该两幅图像的指定参数,来确定可穿戴设备的显示误差。由于测量得到的显示误差精度明显高于最大显示误差,因此解决了相关技术中,显示误差准确性较低的问题。达到了能够有效提高确定的显示误差的准确度的效果。
可选的,显示误差包括时间误差,两幅图像包括第一图像和第二图像,指定参数为第一图像的拍摄帧数和第二图像的拍摄帧数,
控制组件01,具体用于:
通过图像获取组件02拍摄可穿戴设备从运动状态变为静止状态时实际显示的第一图像;
通过图像获取组件02拍摄可穿戴设备从运动状态变为静止状态时的第二图像,第二图像为可穿戴设备在不存在时间误差的情况下,可穿戴设备从运动状态变为静止状态时应当显示的图像;
根据第一图像的拍摄帧数和第二图像的拍摄帧数,确定第一图像和第二图像的拍摄帧数差的绝对值;
根据拍摄帧数差的绝对值,以及图像获取组件02的帧频,确定可穿戴设备的时间误差。
可选的,控制组件01,具体用于:
根据第一图像和第二图像的拍摄帧数差的绝对值|n|,以及图像获取组件的帧频f,基于延迟计算公式,确定可穿戴设备的时间误差t,延迟计算公式为:
可选的,可穿戴设备的显示界面上还显示有动态可视坐标系,动态可视坐标系与世界坐标系存在映射关系,显示误差包括移动误差,指定参数为两幅图像在动态可视坐标系上的刻度,
控制组件01,具体用于:
通过图像获取组件拍摄可穿戴设备从静止状态变为运动状态时实际显示的第三图像;
通过图像获取组件拍摄可穿戴设备从运动状态变为静止状态时实际显示的第四图像;
获取第四图像和第三图像在动态可视坐标系中的刻度差的绝对值;
获取可穿戴设备从静止状态变为运动状态再变为静止状态的第一移动参数值;
基于动态可视坐标系与世界坐标系的映射关系,获取第一移动参数值在动态可视坐标系中对应的第二移动参数值;
将刻度差的绝对值与第二移动参数值之差的绝对值确定为可穿戴设备在动态可视坐标系的移动误差;
其中,当指定方向为直线方向,移动参数值为距离值;
当指定方向为转动方向,移动参数值为角度值。
可选的,如图2-2,系统0还包括:
线性滑轨03、第一支撑柱04、第一测试载台05,其中,第一支撑柱04的一端与线性滑轨03可滑动连接,第一支撑柱04的另一端固定连接第一测试载台05,控制组件01与第一支撑柱04建立有通信连接,第一测试载台上用于设置可穿戴设备1以及图像获取组件02,控制组件01被配置为控制第一支撑柱04在线性滑轨03上滑动。
进一步的,如图2-9所示,系统0还包括:
滑动连接件10。
该滑动连接件10可安置于图2-2所示的系统中,则参考图2-2,第一支撑柱04的一端与滑动连接件10可转动连接,该滑动连接件10与线性滑轨03可滑动连接。
可选的,如图2-6所示,系统0还包括:
底座07、第二支撑柱08、第二测试载台09,其中,第二支撑柱08的一端与底座07转动连接、第二支撑柱08的另一端固定连接第二测试载台09,控制组件01与第二支撑柱08建立有通信连接。
第二测试载台09上用于设置可穿戴设备1以及图像获取组件02,控制组件01被配置为控制第二支撑柱08在底座07上旋转。
可选的,控制组件01,具体用于:
控制可穿戴设备沿指定方向从起始位置开始以预设速度移动至目标位置后静止,目标位置设置有标定物,当可穿戴设备位于目标位置时,标定物位于可穿戴设备的显示界面与图像获取组件的镜头之间。
可选的,如图2-3所示,标定物为激光,系统0还包括:激光发射器06,该激光发射器06,被配置为提供激光。激光发射器06可以在可穿戴设备1位于目标位置时,向可穿戴设备1的显示界面与图像获取组件02的镜头之间发射激光。
可选的,控制组件01具体用于:
控制可穿戴设备沿直线方向从起始位置开始以预设速度匀速移动至目标位置后静止;
或者,控制可穿戴设备沿转动方向从起始位置开始以预设转速匀速移动至目标位置后静止。
可选的,指定方向为直线方向,预设速度为0.1m/s至5m/s;
或者,指定方向为转动方向,预设速度为1r/min至5r/min。
可选的,指定方向为直线方向,移动误差为距离误差;
或者,指定方向为转动方向,移动误差为角度误差。
需要说明的是,该系统还可以为图2-3至2-5以及2-7至2-9中任一系统,本发明实施例对此不再赘述。
综上所述,本申请通过控制显示有测试图像的可穿戴设备在指定方向上移动以及获取可穿戴设备显示的两幅图像及该两幅图像的指定参数,来确定可穿戴设备的显示误差。由于测量得到的显示误差精度明显高于最大显示误差,因此解决了相关技术中,显示误差准确性较低的问题。达到了能够有效提高确定的显示误差的准确度的效果。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明中,术语“第一”、“第二”、“第三”和“第四”仅用于描述目的,而不能理解为指示或暗示相对重要性。术语“多个”指两个或两个以上,除非另有明确的限定。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (23)
1.一种可穿戴设备的测试方法,其特征在于,包括:
控制显示有测试图像的可穿戴设备进入测试过程,所述测试过程为沿指定方向从静止状态变为运动状态再变为静止状态的过程;
在所述测试过程中,获取所述可穿戴设备显示的两幅图像;
根据所述两幅图像在指定参数上的差别,确定所述可穿戴设备的显示误差。
2.根据权利要求1所述的方法,其特征在于,所述显示误差包括时间误差,所述两幅图像包括第一图像和第二图像,所述指定参数为所述第一图像的拍摄帧数和所述第二图像的拍摄帧数。
3.根据权利要求2所述的方法,其特征在于,
所述在所述测试过程中,获取所述可穿戴设备显示的两幅图像,包括:
通过图像获取组件拍摄所述可穿戴设备从运动状态变为静止状态时实际显示的第一图像;
通过所述图像获取组件拍摄所述可穿戴设备从运动状态变为静止状态时首次出现的第二图像,所述第二图像为所述可穿戴设备在不存在时间误差的情况下,从运动状态变为静止状态时应当显示的图像。
4.根据权利要求2所述的方法,其特征在于,
所述根据所述两幅图像在指定参数上的差别,确定所述可穿戴设备的显示误差,包括:
根据所述第一图像的拍摄帧数和所述首次出现的第二图像的拍摄帧数,确定所述第一图像和所述首次出现的第二图像的拍摄帧数差的绝对值;
根据所述拍摄帧数差的绝对值,以及所述图像获取组件的帧频,确定所述可穿戴设备的时间误差。
5.根据权利要求4所述的方法,其特征在于,
所述根据所述拍摄帧数差的绝对值,以及所述图像获取组件的帧频,确定所述可穿戴设备的时间误差,包括:
根据所述第一图像和所述第二图像的拍摄帧数差的绝对值|n|,以及所述图像获取组件的帧频f,基于时间误差计算公式,确定所述可穿戴设备的时间误差t,所述时间误差计算公式为:
6.根据权利要求1所述的方法,其特征在于,所述可穿戴设备的显示界面上还显示有动态可视坐标系,所述动态可视坐标系与世界坐标系存在映射关系,所述显示误差包括移动误差,所述指定参数为所述两幅图像在所述动态可视坐标系上的刻度。
7.根据权利要求6所述的方法,其特征在于,所述两幅图像包括第三图像和第四图像,
所述在所述测试过程中,获取所述可穿戴设备显示的两幅图像,包括:
通过图像获取组件拍摄所述可穿戴设备从静止状态变为运动状态时实际显示的所述第三图像;
通过图像获取组件拍摄所述可穿戴设备从运动状态变为静止状态时实际显示的所述第四图像。
8.根据权利要求6所述的方法,其特征在于,所述两幅图像包括第三图像和第四图像,
所述根据所述两幅图像在指定参数上的差别,确定所述可穿戴设备的显示误差,包括:
获取所述第四图像和所述第三图像在所述动态可视坐标系中的刻度差的绝对值;
获取所述可穿戴设备从静止状态变为运动状态再变为静止状态的第一移动参数值;
基于所述动态可视坐标系与所述世界坐标系的映射关系,获取所述第一移动参数值在动态可视坐标系中对应的第二移动参数值;
将所述刻度差的绝对值与所述第二移动参数值之差的绝对值确定为所述可穿戴设备在所述动态可视坐标系的移动误差。
9.根据权利要求8所述的方法,其特征在于,
当所述指定方向为直线方向,所述第一移动参数值和所述第二移动参数值为距离值;
当所述指定方向为转动方向,所述第一移动参数值和所述第二移动参数值为角度值。
10.根据权利要求1至9任一所述的方法,其特征在于,
所述控制显示有测试图像的可穿戴设备进入测试过程,包括:
控制所述可穿戴设备沿指定方向从起始位置开始以预设速度移动至目标位置后静止,所述目标位置设置有标定物,当所述可穿戴设备位于所述目标位置时,所述标定物位于所述可穿戴设备的显示界面与图像获取组件之间,所述图像获取组件被配置为获取所述显示界面上显示的图像。
11.根据权利要求10所述的方法,其特征在于,
所述控制所述可穿戴设备沿指定方向从起始位置开始以预设速度移动至目标位置后静止,包括:
控制所述可穿戴设备沿直线方向从起始位置开始以预设速度匀速移动至目标位置后静止。
12.根据权利要求10所述的方法,其特征在于,
所述控制所述可穿戴设备沿指定方向从起始位置开始以预设速度移动至目标位置后静止,包括:
控制所述可穿戴设备沿转动方向从起始位置开始以预设转速匀速移动至目标位置后静止。
13.根据权利要求10所述的方法,其特征在于,
所述指定方向为直线方向,所述预设速度为0.1m/s至5m/s中的任一速度值。
14.根据权利要求10所述的方法,其特征在于,
所述指定方向为转动方向,所述预设速度为1r/min至5r/min中的任一转速值。
15.根据权利要求11至14任一所述的方法,其特征在于,所述标定物为激光。
16.一种可穿戴设备的测试系统,其特征在于,包括:
控制组件和图像获取组件,
所述控制组件用于控制显示有测试图像的可穿戴设备进入测试过程,所述测试过程为沿指定方向从静止状态变为运动状态再变为静止状态的过程;
所述图像获取组件用于在所述测试过程中,获取所述可穿戴设备显示的两幅图像;
所述控制组件还用于根据所述两幅图像在指定参数上的差别,确定所述可穿戴设备的显示误差。
17.根据权利要求16所述的系统,其特征在于,所述系统还包括:
线性滑轨、第一支撑柱、第一测试载台,其中,所述第一支撑柱的一端与所述线性滑轨可滑动连接,所述第一支撑柱的另一端固定连接所述第一测试载台,
所述第一测试载台用于设置所述可穿戴设备以及所述图像获取组件,
所述控制组件被配置为控制所述第一支撑柱在所述线性滑轨上滑动。
18.根据权利要求17所述的系统,其特征在于,所述系统还包括:
滑动连接件;
所述第一支撑柱的一端与所述滑动连接件可转动连接,所述滑动连接件与所述线性滑轨可滑动连接。
19.根据权利要求16所述的系统,其特征在于,所述系统还包括:
底座、第二支撑柱、第二测试载台,其中,所述第二支撑柱的一端与所述底座转动连接、所述第二支撑柱的另一端固定连接所述第二测试载台,
所述测试载台用于设置所述可穿戴设备以及所述图像获取组件,
所述控制组件被配置为控制所述第二支撑柱在所述底座上旋转。
20.根据权利要求16至19任一所述的系统,其特征在于,所述标定物为激光,所述系统还包括:激光发射器,被配置为提供所述激光。
21.根据权利要求16所述的系统,其特征在于,所述测试图像为增强现实图像或虚拟现实图像。
22.根据权利要求16所述的系统,其特征在于,所述图像获取组件的帧频大于或等于所述可穿戴设备显示图像的帧频。
23.根据权利要求22所述的系统,其特征在于,所述图像获取组件的帧频大于或等于1000帧/秒。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710875140.7A CN109584263B (zh) | 2017-09-25 | 2017-09-25 | 可穿戴设备的测试方法及系统 |
US16/650,434 US11039125B2 (en) | 2017-09-25 | 2018-09-21 | Test method and system for wearable device |
PCT/CN2018/107075 WO2019057176A1 (zh) | 2017-09-25 | 2018-09-21 | 可穿戴设备的测试方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710875140.7A CN109584263B (zh) | 2017-09-25 | 2017-09-25 | 可穿戴设备的测试方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109584263A true CN109584263A (zh) | 2019-04-05 |
CN109584263B CN109584263B (zh) | 2023-11-24 |
Family
ID=65809541
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710875140.7A Active CN109584263B (zh) | 2017-09-25 | 2017-09-25 | 可穿戴设备的测试方法及系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11039125B2 (zh) |
CN (1) | CN109584263B (zh) |
WO (1) | WO2019057176A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110718043A (zh) * | 2019-10-17 | 2020-01-21 | 辽宁中航信诺科技有限公司 | 基于ar人工智能设备的危险区域的检查报警方法 |
CN110769351A (zh) * | 2019-10-29 | 2020-02-07 | 歌尔科技有限公司 | 音频设备的控制方法、音频设备及存储介质 |
CN111457955A (zh) * | 2020-05-19 | 2020-07-28 | Oppo(重庆)智能科技有限公司 | 一种用于可穿戴设备的检测装置 |
CN114697645A (zh) * | 2022-03-31 | 2022-07-01 | 上海摩软通讯技术有限公司 | Vr设备的测试方法、装置、设备、介质及程序产品 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112656391A (zh) * | 2020-12-04 | 2021-04-16 | 深圳市领为创新科技有限公司 | 一种辅助驾驶用智能手环测试系统及方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008046687A (ja) * | 2006-08-10 | 2008-02-28 | Canon Inc | 撮影環境校正方法及び情報処理装置 |
CN104246864A (zh) * | 2013-02-22 | 2014-12-24 | 索尼公司 | 头戴式显示器和图像显示装置 |
CN105575302A (zh) * | 2015-12-18 | 2016-05-11 | 广州视源电子科技股份有限公司 | 显示设备测试方法和系统 |
CN105954007A (zh) * | 2016-05-18 | 2016-09-21 | 杭州映墨科技有限公司 | 用于虚拟现实头盔加速度运动的延时测试系统和方法 |
CN106652857A (zh) * | 2016-09-18 | 2017-05-10 | 北京和欣之光信息技术有限公司 | 一种虚拟现实系统的测试装置及方法 |
CN106679933A (zh) * | 2016-11-21 | 2017-05-17 | 福建省华渔教育科技有限公司 | 一种头显设备性能测试方法及系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9403983D0 (en) * | 1994-03-02 | 1994-04-20 | Snell & Wilcox Ltd | Video test signals |
US5666152A (en) * | 1995-09-20 | 1997-09-09 | Mci Corporation | Rotating visual display for video testing |
US6771323B1 (en) * | 1999-11-15 | 2004-08-03 | Thx Ltd. | Audio visual display adjustment using captured content characteristics |
CN106200884A (zh) * | 2015-04-30 | 2016-12-07 | 成都理想境界科技有限公司 | 头戴式显示设备及其控制方法 |
US10425627B2 (en) * | 2017-05-09 | 2019-09-24 | Microsoft Technology Licensing, Llc | Automated presentation equipment testing |
US10277893B1 (en) * | 2017-06-22 | 2019-04-30 | Facebook Technologies, Llc | Characterization of optical distortion in a head mounted display |
-
2017
- 2017-09-25 CN CN201710875140.7A patent/CN109584263B/zh active Active
-
2018
- 2018-09-21 US US16/650,434 patent/US11039125B2/en active Active
- 2018-09-21 WO PCT/CN2018/107075 patent/WO2019057176A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008046687A (ja) * | 2006-08-10 | 2008-02-28 | Canon Inc | 撮影環境校正方法及び情報処理装置 |
CN104246864A (zh) * | 2013-02-22 | 2014-12-24 | 索尼公司 | 头戴式显示器和图像显示装置 |
CN105575302A (zh) * | 2015-12-18 | 2016-05-11 | 广州视源电子科技股份有限公司 | 显示设备测试方法和系统 |
CN105954007A (zh) * | 2016-05-18 | 2016-09-21 | 杭州映墨科技有限公司 | 用于虚拟现实头盔加速度运动的延时测试系统和方法 |
CN106652857A (zh) * | 2016-09-18 | 2017-05-10 | 北京和欣之光信息技术有限公司 | 一种虚拟现实系统的测试装置及方法 |
CN106679933A (zh) * | 2016-11-21 | 2017-05-17 | 福建省华渔教育科技有限公司 | 一种头显设备性能测试方法及系统 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110718043A (zh) * | 2019-10-17 | 2020-01-21 | 辽宁中航信诺科技有限公司 | 基于ar人工智能设备的危险区域的检查报警方法 |
CN110718043B (zh) * | 2019-10-17 | 2021-07-30 | 辽宁中航信诺科技有限公司 | 基于ar人工智能设备的危险区域的检查报警方法 |
CN110769351A (zh) * | 2019-10-29 | 2020-02-07 | 歌尔科技有限公司 | 音频设备的控制方法、音频设备及存储介质 |
CN111457955A (zh) * | 2020-05-19 | 2020-07-28 | Oppo(重庆)智能科技有限公司 | 一种用于可穿戴设备的检测装置 |
CN111457955B (zh) * | 2020-05-19 | 2022-08-02 | Oppo(重庆)智能科技有限公司 | 一种用于可穿戴设备的检测装置 |
CN114697645A (zh) * | 2022-03-31 | 2022-07-01 | 上海摩软通讯技术有限公司 | Vr设备的测试方法、装置、设备、介质及程序产品 |
Also Published As
Publication number | Publication date |
---|---|
US11039125B2 (en) | 2021-06-15 |
WO2019057176A1 (zh) | 2019-03-28 |
CN109584263B (zh) | 2023-11-24 |
US20200228792A1 (en) | 2020-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109584263A (zh) | 可穿戴设备的测试方法及系统 | |
JP7283506B2 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
US11763531B2 (en) | Surgeon head-mounted display apparatuses | |
US11861062B2 (en) | Blink-based calibration of an optical see-through head-mounted display | |
CN106843456B (zh) | 一种基于姿态追踪的显示方法、装置和虚拟现实设备 | |
Azuma | A survey of augmented reality | |
Sauer et al. | Augmented reality visualization of ultrasound images: system description, calibration, and features | |
WO2019152617A1 (en) | Calibration system and method to align a 3d virtual scene and 3d real world for a stereoscopic head-mounted display | |
CN106840112B (zh) | 一种利用自由空间视线凝视点测量的空间几何量测量方法 | |
CN104699247A (zh) | 一种基于机器视觉的虚拟现实交互系统及方法 | |
CN106575039A (zh) | 具有确定用户眼镜特性的眼睛跟踪设备的平视显示器 | |
KR20080055863A (ko) | 얼굴 모션 데이터 캡쳐링 및 처리 | |
CN108022302A (zh) | 一种Inside-Out空间定位的AR立体显示装置 | |
WO2006101942A2 (en) | Systems and methods for eye-operated three-dimensional object location | |
CN110377148A (zh) | 计算机可读介质、训练对象检测算法的方法及训练设备 | |
CN108830944B (zh) | 光学透视式三维近眼显示系统及显示方法 | |
Hua et al. | A testbed for precise registration, natural occlusion and interaction in an augmented environment using a head-mounted projective display (HMPD) | |
CN106842881A (zh) | 一种将教学课程图像进行室内再现的全息投影方法和系统 | |
Nocerino et al. | Low-cost human motion capture system for postural analysis onboard ships | |
US20220229312A1 (en) | Method for determining an oriented 3d representation of the head of a person in a natural visual posture | |
JPH07306956A (ja) | 閉鎖空間施設を利用した仮想空間体験システム | |
WO2005093659A1 (es) | Sistema portátil para captura y análisis tridimensional del movimiento humano en puestos de trabajo | |
Scheel et al. | Mobile 3D gaze tracking calibration | |
Żuk et al. | Quantitative evaluation of stereoscopic augmented reality visualization using an optical see-through head-mounted display. | |
Angco et al. | Depth perception through adaptive 3D view perspective and motion parallax |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |