CN110269623A - 速度确定方法和装置,虚拟现实显示方法和装置 - Google Patents

速度确定方法和装置,虚拟现实显示方法和装置 Download PDF

Info

Publication number
CN110269623A
CN110269623A CN201910547460.9A CN201910547460A CN110269623A CN 110269623 A CN110269623 A CN 110269623A CN 201910547460 A CN201910547460 A CN 201910547460A CN 110269623 A CN110269623 A CN 110269623A
Authority
CN
China
Prior art keywords
user
distance
shoulder
angle
foot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910547460.9A
Other languages
English (en)
Inventor
李博
盖欣
董飞
王晶
王琪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Beijing BOE Display Technology Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Beijing BOE Display Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd, Beijing BOE Display Technology Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201910547460.9A priority Critical patent/CN110269623A/zh
Publication of CN110269623A publication Critical patent/CN110269623A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1118Determining activity level

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Dentistry (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Physiology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开涉及速度确定方法,包括:获取用户的手部到肩部的第一距离所关联的参数;根据所述参数的变化频率确定所述用户运动的速度。根据本公开的实施例,用户为了向虚拟现实显示设备输入速度,进行的运动是摆动手臂,其与用户实际跑步时上肢运动的动作是相同的,所以输入速度的动作与实际跑步的动作在肢体方面存在较强的相关性,使得用户在输入速度时能够具有较强的真实感,从而确保良好的沉浸体验。

Description

速度确定方法和装置,虚拟现实显示方法和装置
技术领域
本公开涉及显示虚拟现实技术领域,尤其涉及速度确定方法,速度确定装置,虚拟现实显示方法和虚拟现实显示装置。
背景技术
用户真实的跑步动作需要较大的运动空间,但是在用户佩戴头盔观看虚拟现实场景时,出于安全和场地等方面考虑,难以为用户提供较大的运动空间。
为了在有限的空间内采集到用户跑步的速度以应用在虚拟现实场景中,现有技术中有的为用户提供手柄,根据用户对手柄上摇杆或按键的操作,确定用户跑步的速度。
虽然据此能够在虚拟现实场景中根据用户的操作,显示出与该操作对应速度的跑步状态,但是用户在手柄上执行的动作与用户实际的跑步动作,在肢体方面并没有相关性,这导致用户体验的真实度较低,沉浸感较差。
发明内容
本公开提供速度确定方法,速度确定装置,虚拟现实显示方法和虚拟现实显示装置,以解决相关技术中的用户使用虚拟现实显示设备体验的真实度较低,沉浸感较差的问题。
根据本公开实施例的第一方面,提出一种速度确定方法,包括:
获取用户的手部到肩部的第一距离所关联的参数;
根据所述参数的变化频率确定所述用户运动的速度。
可选地,所述参数包括以下至少之一:
所述第一距离,所述用户的前臂与后臂的第一夹角。
可选地,所述参数为所述第一距离,所述获取用户手部到肩部的第一距离所关联的参数包括:
根据设置在所述手部的第一传感器和设置在所述肩部的第二传感器之间的通信,确定所述第一距离。
可选地,所述参数为所述第一距离,所述获取用户手部到肩部的第一距离所关联的参数包括:
采集所述用户的图像;
确定所述手部在所述图像中的第一位置,以及所述肩部在所述图像中的第二位置;
计算所述第一位置和所述第二位置的距离。
可选地,所述参数为所述第一夹角,所述获取用户手部到肩部的第一距离所关联的参数包括:
获取所述手部的第一位置和所述肩部的第二位置以及所述用户肘部的第三位置;
根据所述第一位置,所述第二位置和所述第三位置计算所述第一夹角。
可选地,所述方法还包括:
获取所述用户的躯干的倾角;
根据所述倾角确定所述速度的方向。
可选地,所述获取所述用户的躯干的倾角包括:
通过设置在所述用户足部前端的第四传感器和设置在所述用户足部后端的第五传感器通信,确定所述足部前端到所述足部后端的第四距离;
通过设置在所述肩部的第二传感器和所述第四传感器通信,确定所述肩部到所述足部前端的第五距离;
通过所述第二传感器和所述第五传感器通信,确定所述肩部到所述足部后端的第六距离;
根据所述第四距离,所述第五距离和所述第六距离,确定所述足部前端和所述足部后端之间连线,与所述足部前端和到所述肩部之间连线的第二夹角,和/或所述足部前端和所述足部后端之间连线,与所述足后前端和到所述肩部之间连线的第三夹角;
根据所述第二夹角和/或所述第三夹角,确定所述倾角。
可选地,所述获取所述用户的躯干的倾角包括:
采集所述用户的图像;
确定所述肩部在所述图像中的第一位置以及所述足部在所述图像中的第四位置;
确定所述用户在所述图像中所处的平面;
根据所述第一位置到所述第四位置之间连线与所述平面的夹角确定所述倾角。
根据本公开实施例的第二方面,提出一种虚拟现实显示方法,包括:
根据上述任一实施例所述的速度确定方法确定用户运动的速度;
根据所述速度显示虚拟现实图像。
根据本公开实施例的第三方面,提出一种速度确定装置,包括第一处理器和用于存储所述第一处理器可执行指令的第一存储器;其中,所述第一处理器被配置为:
获取用户的手部到肩部的第一距离所关联的参数;
根据所述参数的变化频率确定所述用户运动的速度。
根据本公开实施例的第四方面,提出一种虚拟现实显示装置,包括上述实施例所述的速度确定装置,还包括第二处理器和用于存储所述第二处理器可执行指令的第二存储器;其中,所述虚拟现实显示装置的第二处理器被配置为:
根据所述速度显示虚拟现实图像。
根据本公开的实施例,仅根据第一距离所关联的参数的变化频率,即可确定用户运动的速度,所以仅需用户摆动手臂,而无需用户进行真正的跑步动作就可以确定用户运动的速度。
并且由于用户为了向虚拟现实显示设备输入速度,进行的运动是摆动手臂,其与用户实际跑步时上肢运动的动作是相同的,所以输入速度的动作与实际跑步的动作在肢体方面存在较强的相关性,使得用户在输入速度时能够具有较强的真实感,从而确保良好的沉浸体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据本公开实施例示出的一种速度确定方法的示意流程图。
图2A至图2C是根据本公开实施例示出用户手部到肩部的第一距离的示意图。
图3是根据本公开实施例示出的另一种速度确定方法的示意流程图。
图4是根据本公开实施例示出的又一种速度确定方法的示意流程图。
图5是根据本公开实施例示出的又一种速度确定方法的示意流程图。
图6是根据本公开实施例示出的又一种速度确定方法的示意流程图。
图7是根据本公开实施例示出的一种获取用户的躯干的倾角的示意流程图。
图8是根据本公开实施例示出的用户的躯干的倾角的示意图。
图9是根据本公开实施例示出的另一种获取用户的躯干的倾角的示意流程图。
图10是根据本公开实施例示出的一种虚拟现实显示方法的示意流程图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
图1是根据本公开实施例示出的一种速度确定方法的示意流程图。本公开实施例所示的速度确定方法,可以适用于虚拟现实显示设备,所述虚拟现实显示设备可以是独立的设备,例如配置有屏幕的头盔,所述虚拟现实显示设备可以是组装的设备,例如将手机等具备显示功能的设备组装在头盔或头戴上。
如图1所示,所述速度确定方法可以包括以下步骤:
步骤S1,获取用户的手部到肩部的第一距离所关联的参数;
图2A至图2C是根据本公开实施例示出用户手部到肩部的第一距离的示意图。
在一个实施例中,第一距离所关联的参数可以就是第一距离本身,也可以是用户的前臂与后臂的第一夹角。
在用户实际跑步时,手臂会按照如图2A至图2C所示的动作摆动。如图2A至图2C所示,用户的手部A到肩部B的第一距离L1,为手部A,肩部B和肘部C所构成的三角形中边AB的长度,而边AB在三角形ABC中对应的角为α,也即边AC和边BC的夹角,其中,边AC即用户的前臂,边BC即用户的后臂,因此角α为用户的前臂和后臂的第一夹角。
用户可以模仿跑步时手臂的动作,使得手臂如图2A至图2C所示的动作摆动,在此过程中,前臂和后臂的第一夹角α会周期性地变化,手部到肩部的第一距离L1也会周期性的变化,而前臂AC和后臂BC的长度则是固定的,根据余弦定理:
其中AC和BC是已知且固定的,因此第一距离L1随着第一夹角α的变化而变化,并且第一距离L1和第一夹角α的变化频率相等。
在一个实施例中,可以基于设置在手部的第一传感器和设置在肩部的第二传感器来获取所述参数。
其中,传感器可以根据感应到的数据自行确定所述参数,也可以将感应到的数据传输至虚拟现实显示设备,由虚拟现实显示设备根据感应到的数据确定所述参数。
在一个实施例中,可以通过图像采集设备采集用户的图像,然后根据图像中手部的第一位置和肩部的第二位置来获取所述参数。所述图像采集设备可以设置在虚拟现实显示设备上,也可以独立设置,并将采集到的图像或者根据图像确定的参数发送至虚拟现实显示设备。
其中,图像采集设备可以自行确定第一位置和第二位置,并根据第一位置和第二位置自行确定所述参数,也可以将图像传输至虚拟现实显示设备,由虚拟现实显示设备确定第一位置和第二位置,并根据第一位置和第二位置自行确定所述参数。
具体获取用户手部到肩部的第一距离所关联的参数的方式并不限于上述两个实施例所述的情况,具体可以根据需要设置和选择。
步骤S2,根据所述参数的变化频率确定所述用户运动的速度。
用户在实际跑动过程中,手臂和腿部是协同运动的,一般情况下手臂摆动和腿部摆动的频率是正相关的,腿部摆动越快,用户运动的速度越快,相应地,手部摆动越快,用户运动的速度越快,而第一距离所关联的参数(例如上述第一距离L1和第一夹角α)变化频率越快,可以确定手部摆动越快,也即用户运动的速度越快。
根据本公开的实施例,可以仅获取第一距离所关联的参数的变化频率,并根据该变化频率确定所述用户运动的速度,例如可以通过变化频率f乘以预设比例系数k得到用户运动的速度,具体地,例如变化频率f为2次/秒,预设比例系数k为1.2米/次,据此可以确定用户运动的速度为f·k=2.4米/秒。
由于本实施例仅根据第一距离所关联的参数的变化频率,即可确定用户运动的速度,所以仅需用户摆动手臂,而无需用户进行真正的跑步动作就可以确定用户运动的速度。
并且由于用户为了向虚拟现实显示设备输入速度,进行的运动是摆动手臂,其与用户实际跑步时上肢运动的动作是相同的,所以输入速度的动作与实际跑步的动作在肢体方面存在较强的相关性,使得用户在输入速度时能够具有较强的真实感,从而确保良好的沉浸体验。
可选地,所述参数包括以下至少之一:
所述第一距离,所述用户的前臂与后臂的第一夹角。
在一个实施例中,在用户模仿跑步时手臂的动作时,用户的前臂和后臂的第一夹角会周期性地变化,手部到肩部的第一距离也会周期性的变化,而前臂和后臂的长度则是固定的,根据余弦定理可知,第一距离随着第一夹角的变化而变化,并且第一距离和第一夹角的变化频率相等。因此,可以将第一距离自设作为第一距离所关联的参数,也可以将前臂与后臂的第一夹角作为第一距离所关联的参数。具体应用时,可以根据需要选择第一距离或者第一夹角作为所述参数。
图3是根据本公开实施例示出的另一种速度确定方法的示意流程图。如图3所示,所述参数为所述第一距离,所述获取用户手部到肩部的第一距离所关联的参数包括:
步骤S11,根据设置在所述手部的第一传感器和设置在所述肩部的第二传感器之间的通信,确定所述第一距离。
在一个实施例中,可以在用户的手部设置第一传感器,例如佩戴在用户手腕或手背上,或者由用户握在手心,还可以在用户的肩部设置第二传感器,例如粘贴在用户的肩部或者绑在用户的肩部。
其中,可以采用TDOA(到达时差,Time Difference Of Arrival)技术,根据第一传感器和第二传感器之间的通信确定第一距离,例如由第一传感器向第二传感器发送两种传播速度不同的信号,第二传感器根据接收到两种信号的时间差和两种信号的传播速度,即可确定第一传感器和第二传感器之间的距离,并将该距离作为第一距离。
图4是根据本公开实施例示出的又一种速度确定方法的示意流程图。如图4所示,所述参数为所述第一距离,所述获取用户手部到肩部的第一距离所关联的参数包括:
步骤S12,采集所述用户的图像;
步骤S13,确定所述手部在所述图像中的第一位置,以及所述肩部在所述图像中的第二位置;
步骤S14,计算所述第一位置和所述第二位置的距离。
在一个实施例中,可以通过图像采集设备采集用户的图像,在图像中识别用户的手部和肩部,然后确定所述手部在所述图像中的第一位置,以及所述肩部在所述图像中的第二位置,进而计算所述第一位置和所述第二位置的距离。
其中,图3所示的实施例可以完全通过设置在用户身上的传感器来确定第一距离,无须依靠外部图像采集设备,所需设备简单,成本较低。图4所示的实施例无须在用户身上设置传感器,只需外部图像采集设备即可实现,方便用户做动作。上述两种实施例可以根据需要选择来获取第一距离。
图5是根据本公开实施例示出的又一种速度确定方法的示意流程图。如图5所示,所述参数为所述第一夹角,所述获取用户手部到肩部的第一距离所关联的参数包括:
步骤S15,获取所述手部的第一位置和所述肩部的第二位置以及所述用户肘部的第三位置;
步骤S16,根据所述第一位置,所述第二位置和所述第三位置计算所述第一夹角。
在一个实施例中,获取第一位置,第二位置和第三位置的方式,可以采用类似图3所示实施例的方式,在手部,肩部和肘部分别设置传感器,然后根据传感器之间的通信确定传感器之间的距离,进而根据三个传感器中两两之间的距离和余弦定理确定第一夹角。
在一个实施例中,获取第一位置,第二位置和第三位置的方式,也可以采用类似图4所示实施例的方式,通过图像采集设备采集用户的图像,然后确定手部,肩部和肘部在图像中的位置,进而根据三个位置确定第一夹角。
图6是根据本公开实施例示出的又一种速度确定方法的示意流程图。如图6所示,所述方法还包括:
步骤S3,获取所述用户的躯干的倾角;
步骤S4,根据所述倾角确定所述速度的方向。
在一个实施例中,由于根据所述参数的变化频率确定只能确定用户运动速度的大小,而速度除了大小这个属性,还有方向这个属性,所以还可以获取用户的躯干的倾角,然后根据该倾角确定用户运动速度的方向,例如倾角为向前倾,那么可以确定用户运动的方向是前进。例如倾角为向后倾,那么可以确定用户运动的方向是后退。据此,便于虚拟现实显示设备能够根据该方向准确地显示用户的运动情况。
需要说明的是,本实施例中的步骤S3和步骤S4可以根据需要调整执行顺序,例如除了图6所示的执行顺序,也可以在步骤S2之前执行。
另外,本实施例中躯干的倾角,主要是指用户的肩膀到脚掌中部的连线,与用户脚掌前端和后端所在平面(也即用户所在平面)的夹角,确定倾角时用户可以呈站姿,也可以呈坐姿,本实施例均可适用。
图7是根据本公开实施例示出的一种获取用户的躯干的倾角的示意流程图。如图7所示,所述获取所述用户的躯干的倾角包括:
步骤S31,通过设置在所述用户足部前端的第四传感器和设置在所述用户足部后端的第五传感器通信,确定所述足部前端到所述足部后端的第四距离;
步骤S32,通过设置在所述肩部的第二传感器和所述第四传感器通信,确定所述肩部到所述足部前端的第五距离;
步骤S33,通过所述第二传感器和所述第五传感器通信,确定所述肩部到所述足部后端的第六距离;
步骤S34,根据所述第四距离,所述第五距离和所述第六距离,确定所述足部前端和所述足部后端之间连线,与所述足部前端和到所述肩部之间连线的第二夹角,和/或所述足部前端和所述足部后端之间连线,与所述足后前端和到所述肩部之间连线的第三夹角;
步骤S34,根据所述第二夹角和/或所述第三夹角,确定所述倾角。
在一个实施例中,可以在用户足部前端D设置第四传感器,在用户足部后端E设置第五传感器(例如可以在用户的鞋子上设置第四传感器和第五传感器),然后基于类似图3所示实施例的方式,根据传感器之间的通信确定第四传感器和第五传感器之间的距离作为足部前端D到足部后端E的第四距离L4,以及确定第二传感器和第四传感器之间的距离作为肩部B到足部前端D的第五距离L5,并确定第二传感器和第五传感器之间的距离作为肩部B到足部后端E的第六距离L6。
进而可以根据第四距离L4,第五距离L5和第六距离L6,确定足部前端D和足部后端E之间连线,与足部前端D和到肩部B之间连线的第二夹角β,和/或足部前端D和足部后端E之间连线,与足后前端E和到肩部B之间连线的第三夹角γ,进而根据第二夹角和/或第三夹角,确定倾角,具体可以是根据第二夹角和/或第三夹角和预设角度(例如90°)或者初始化用户状态时的角度比较来确定倾角。
图8是根据本公开实施例示出的用户的躯干的倾角的示意图。如图8所示,足部前端D和足部后端E之间连线和用户躯干相交于O点,为了方便解释,将O点作为DE的中点,OE和OD相等,均为L4/2,据此,在三角形ODB和三角形OBE中,每条边的长度都可以确定,那么根据余弦定理即可计算出第二夹角β和第三夹角γ。
以第二夹角β为例,计算出第二夹角β后,可以确定第二夹角β是否大于90°,若第二夹角β大于90°,那么确定运行方向为向后,若第二夹角β小于90°,那么确定运动方向向前。
也可以先初始化用户的状态,确定用户在初始状态时的倾角,例如用户初始状态是后仰靠在座椅的靠背上,倾角为100°,那么可以确定第二夹角β是否大于100°,若第二夹角β大于90°,那么确定运行方向为向后,若第二夹角β小于90°,那么确定运动方向向前。
需要说明的是,上述实施例中的第一传感器,第二传感器,第三传感器,第四传感器,第五传感器可以是无线位移传感器。
除了上述实施例中根据传感器之间的通信确定传感器之间距离的方式,可以直接应用现有的Microstrain(微应变)传感器作为上述任一传感器确定传感器之间的距离。
上述实施例中传感器之间的通信结果,可以由传感器进行处理确定出传感器之间的距离,也可以由传感器传输(例如基于Wi-Fi,蓝牙等通信方式)至虚拟现实显示设备,由虚拟现实显示设备处理确定出传感器之间的距离。
图9是根据本公开实施例示出的另一种获取用户的躯干的倾角的示意流程图。如图9所示,所述获取所述用户的躯干的倾角包括:
步骤S35,采集所述用户的图像;
步骤S36,确定所述肩部在所述图像中的第一位置以及所述足部在所述图像中的第四位置;
步骤S37,确定所述用户在所述图像中所处的平面;
步骤S38,根据所述第一位置到所述第四位置之间连线与所述平面的夹角确定所述倾角。
在一个实施例中,除了图7所示实施例中确定躯干的倾角的方式,还可以通过采集用户的图像,确定肩部在图像中的第一位置以及足部在图像中的第四位置,并确定用户在图像中所处的平面(例如将用户站在的地面作为该平面),然后根据所述第一位置到第四位置之间连线与平面的夹角确定倾角,即为用户的躯干的倾角。
图10是根据本公开实施例示出的一种虚拟现实显示方法的示意流程图。如图10所示,所述虚拟现实显示方法包括:
步骤S1’,根据上述任一实施例所述的速度确定方法确定用户运动的速度;
步骤S2’,根据所述速度显示虚拟现实图像。
在一个实施例中,虚拟现实显示设备可以根据上述任一实施例所述的速度确定方法确定出的用户运动的速度来显示虚拟现实图像,而佩戴虚拟现实显示设备的用户为了向虚拟现实显示设备输入速度,进行的运动是摆动手臂,其与用户实际跑步时上肢运动的动作是相同的,所以输入速度的动作与实际跑步的动作在肢体方面存在较强的相关性,使得用户在输入速度时能够具有较强的真实感,从而确保良好的沉浸体验。
与上述速度确定方法和虚拟现实显示方法的实施例相对应地,本公开还提出了速度确定装置和虚拟现实显示装置的实施例。
本公开的实施例提出一种速度确定装置,包括:第一处理器和用于存储所述第一处理器可执行指令的第一存储器;其中,所述第一处理器被配置为:
获取用户的手部到肩部的第一距离所关联的参数;
根据所述参数的变化频率确定所述用户运动的速度。
在一个实施例中,所述参数包括以下至少之一:
所述第一距离,所述用户的前臂与后臂的第一夹角。
在一个实施例中,所述参数为所述第一距离,所述第一处理器被配置为:
根据设置在所述手部的第一传感器和设置在所述肩部的第二传感器之间的通信,确定所述第一距离。
在一个实施例中,所述参数为所述第一距离,所述第一处理器被配置为:
采集所述用户的图像;
确定所述手部在所述图像中的第一位置,以及所述肩部在所述图像中的第二位置;
计算所述第一位置和所述第二位置的距离。
在一个实施例中,所述参数为所述第一夹角,所述第一处理器被配置为:
获取所述手部的第一位置和所述肩部的第二位置以及所述用户肘部的第三位置;
根据所述第一位置,所述第二位置和所述第三位置计算所述第一夹角。
在一个实施例中,所述第一处理器还被配置为:
获取所述用户的躯干的倾角;
根据所述倾角确定所述速度的方向。
在一个实施例中,所述第一处理器被配置为:
通过设置在所述用户足部前端的第四传感器和设置在所述用户足部后端的第五传感器通信,确定所述足部前端到所述足部后端的第四距离;
通过设置在所述肩部的第二传感器和所述第四传感器通信,确定所述肩部到所述足部前端的第五距离;
通过所述第二传感器和所述第五传感器通信,确定所述肩部到所述足部后端的第六距离;
根据所述第四距离,所述第五距离和所述第六距离,确定所述足部前端和所述足部后端之间连线,与所述足部前端和到所述肩部之间连线的第二夹角,和/或所述足部前端和所述足部后端之间连线,与所述足后前端和到所述肩部之间连线的第三夹角;
根据所述第二夹角和/或所述第三夹角,确定所述倾角。
在一个实施例中,所述第一处理器被配置为:
采集所述用户的图像;
确定所述肩部在所述图像中的第一位置以及所述足部在所述图像中的第四位置;
确定所述用户在所述图像中所处的平面;
根据所述第一位置到所述第四位置之间连线与所述平面的夹角确定所述倾角。
本公开的实施例还提出一种虚拟现实显示装置,包括上述任一实施例所述的速度确定装置,还包括第二处理器和用于存储所述第二处理器可执行指令的到二存储器;其中,所述虚拟现实显示装置中的第二处理器被配置为:
根据所述速度显示虚拟现实图像。
需要说明的是,所述第一处理器和第二处理器可以是不同的处理器,也可以是同一处理器,所述第一存储器和所述第二存储器可以是不同的存储器,也可以是同一存储。
在本公开中,术语“第一”、“第二”、“第三”、“第四”、“第五”、“第六”仅用于描述目的,而不能理解为指示或暗示相对重要性。术语“多个”指两个或两个以上,除非另有明确的限定。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (11)

1.一种速度确定方法,其特征在于,包括:
获取用户的手部到肩部的第一距离所关联的参数;
根据所述参数的变化频率确定所述用户运动的速度。
2.根据权利要求1所述的速度确定方法,其特征在于,所述参数包括以下至少之一:
所述第一距离,所述用户的前臂与后臂的第一夹角。
3.根据权利要求2所述的速度确定方法,其特征在于,所述参数为所述第一距离,所述获取用户手部到肩部的第一距离所关联的参数包括:
根据设置在所述手部的第一传感器和设置在所述肩部的第二传感器之间的通信,确定所述第一距离。
4.根据权利要求2所述的速度确定方法,其特征在于,所述参数为所述第一距离,所述获取用户手部到肩部的第一距离所关联的参数包括:
采集所述用户的图像;
确定所述手部在所述图像中的第一位置,以及所述肩部在所述图像中的第二位置;
计算所述第一位置和所述第二位置的距离。
5.根据权利要求2所述的速度确定方法,其特征在于,所述参数为所述第一夹角,所述获取用户手部到肩部的第一距离所关联的参数包括:
获取所述手部的第一位置和所述肩部的第二位置以及所述用户肘部的第三位置;
根据所述第一位置,所述第二位置和所述第三位置计算所述第一夹角。
6.根据权利要求1至5中任一项所述的速度确定方法,其特征在于,还包括:
获取所述用户的躯干的倾角;
根据所述倾角确定所述速度的方向。
7.根据权利要求6所述的速度确定方法,其特征在于,所述获取所述用户的躯干的倾角包括:
通过设置在所述用户足部前端的第四传感器和设置在所述用户足部后端的第五传感器通信,确定所述足部前端到所述足部后端的第四距离;
通过设置在所述肩部的第二传感器和所述第四传感器通信,确定所述肩部到所述足部前端的第五距离;
通过所述第二传感器和所述第五传感器通信,确定所述肩部到所述足部后端的第六距离;
根据所述第四距离,所述第五距离和所述第六距离,确定所述足部前端和所述足部后端之间连线,与所述足部前端和到所述肩部之间连线的第二夹角,和/或所述足部前端和所述足部后端之间连线,与所述足后前端和到所述肩部之间连线的第三夹角;
根据所述第二夹角和/或所述第三夹角,确定所述倾角。
8.根据权利要求6所述的速度确定方法,其特征在于,所述获取所述用户的躯干的倾角包括:
采集所述用户的图像;
确定所述肩部在所述图像中的第一位置以及所述足部在所述图像中的第四位置;
确定所述用户在所述图像中所处的平面;
根据所述第一位置到所述第四位置之间连线与所述平面的夹角确定所述倾角。
9.一种虚拟现实显示方法,其特征在于,包括:
根据权利要求1至8中任一项所述的速度确定方法确定用户运动的速度;
根据所述速度显示虚拟现实图像。
10.一种速度确定装置,其特征在于,包括第一处理器和用于存储所述第一处理器可执行指令的第一存储器;其中,所述第一处理器被配置为:
获取用户的手部到肩部的第一距离所关联的参数;
根据所述参数的变化频率确定所述用户运动的速度。
11.一种虚拟现实显示装置,其特征在于,包括权利要求10所述的速度确定装置,还包括第二处理器和用于存储所述第二处理器可执行指令的第二存储器;其中,所述第二处理器被配置为:
根据所述速度显示虚拟现实图像。
CN201910547460.9A 2019-06-24 2019-06-24 速度确定方法和装置,虚拟现实显示方法和装置 Pending CN110269623A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910547460.9A CN110269623A (zh) 2019-06-24 2019-06-24 速度确定方法和装置,虚拟现实显示方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910547460.9A CN110269623A (zh) 2019-06-24 2019-06-24 速度确定方法和装置,虚拟现实显示方法和装置

Publications (1)

Publication Number Publication Date
CN110269623A true CN110269623A (zh) 2019-09-24

Family

ID=67961513

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910547460.9A Pending CN110269623A (zh) 2019-06-24 2019-06-24 速度确定方法和装置,虚拟现实显示方法和装置

Country Status (1)

Country Link
CN (1) CN110269623A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110780738A (zh) * 2019-10-17 2020-02-11 深圳市创凯智能股份有限公司 虚拟现实拟真行走方法、装置、设备及可读存储介质
CN110842918A (zh) * 2019-10-24 2020-02-28 华中科技大学 一种基于点云伺服的机器人移动加工自主寻位方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1530880A (zh) * 2003-03-07 2004-09-22 ������������ʽ���� 体动检测装置、节拍计、手表型信息处理装置、及其控制方法、控制程序以及记录介质
CN201154065Y (zh) * 2008-02-25 2008-11-26 温州圣利保健器材有限公司 按摩椅肩背揉捏机构
CN201394587Y (zh) * 2009-04-14 2010-02-03 无锡市常欣机电科技有限公司 拉线机的主动放线机构
CN101732052A (zh) * 2009-11-16 2010-06-16 清华大学 一种人体运动形态的红外测量装置及方法
CN201580417U (zh) * 2009-12-30 2010-09-15 沈被久 一种儿童玩具车方向盘转向装置
CN103637807A (zh) * 2013-12-30 2014-03-19 四川大学 一种人体三维姿态和行为状态传感监测方法与装置
CN103720476A (zh) * 2013-12-13 2014-04-16 天津大学 一种曲径运动模式下的稳定性评价方法
CN105169621A (zh) * 2015-10-09 2015-12-23 北京乐动卓越科技有限公司 一种跑步机速度调节方法及跑步机
CN108762495A (zh) * 2018-05-18 2018-11-06 深圳大学 基于手臂动作捕捉的虚拟现实驱动方法及虚拟现实系统
CN109061215A (zh) * 2018-07-04 2018-12-21 四川斐讯信息技术有限公司 一种基于可穿戴设备的速度检测方法及可穿戴设备
CN208911380U (zh) * 2018-09-28 2019-05-31 浙江省永康市斯跑驰工贸有限公司 一种带摆臂结构的跑步机

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1530880A (zh) * 2003-03-07 2004-09-22 ������������ʽ���� 体动检测装置、节拍计、手表型信息处理装置、及其控制方法、控制程序以及记录介质
CN201154065Y (zh) * 2008-02-25 2008-11-26 温州圣利保健器材有限公司 按摩椅肩背揉捏机构
CN201394587Y (zh) * 2009-04-14 2010-02-03 无锡市常欣机电科技有限公司 拉线机的主动放线机构
CN101732052A (zh) * 2009-11-16 2010-06-16 清华大学 一种人体运动形态的红外测量装置及方法
CN201580417U (zh) * 2009-12-30 2010-09-15 沈被久 一种儿童玩具车方向盘转向装置
CN103720476A (zh) * 2013-12-13 2014-04-16 天津大学 一种曲径运动模式下的稳定性评价方法
CN103637807A (zh) * 2013-12-30 2014-03-19 四川大学 一种人体三维姿态和行为状态传感监测方法与装置
CN105169621A (zh) * 2015-10-09 2015-12-23 北京乐动卓越科技有限公司 一种跑步机速度调节方法及跑步机
CN108762495A (zh) * 2018-05-18 2018-11-06 深圳大学 基于手臂动作捕捉的虚拟现实驱动方法及虚拟现实系统
CN109061215A (zh) * 2018-07-04 2018-12-21 四川斐讯信息技术有限公司 一种基于可穿戴设备的速度检测方法及可穿戴设备
CN208911380U (zh) * 2018-09-28 2019-05-31 浙江省永康市斯跑驰工贸有限公司 一种带摆臂结构的跑步机

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
孙延: "《浅析摆臂技术与提高短跑成绩的关系》", 《福建商学院学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110780738A (zh) * 2019-10-17 2020-02-11 深圳市创凯智能股份有限公司 虚拟现实拟真行走方法、装置、设备及可读存储介质
CN110780738B (zh) * 2019-10-17 2023-07-04 深圳市创凯智能股份有限公司 虚拟现实拟真行走方法、装置、设备及可读存储介质
CN110842918A (zh) * 2019-10-24 2020-02-28 华中科技大学 一种基于点云伺服的机器人移动加工自主寻位方法

Similar Documents

Publication Publication Date Title
US11400362B2 (en) Motion mirroring system that incorporates virtual environment constraints
CN104898669B (zh) 一种基于惯性传感器进行虚拟现实行走控制的方法及系统
US10105106B2 (en) Exercise information display system, exercise information display method and computer-readable recording medium
JP5811360B2 (ja) 運動情報表示システムおよび運動情報表示方法、運動情報表示プログラム
US8998717B2 (en) Device and method for reconstructing and analyzing motion of a rigid body
CN110269623A (zh) 速度确定方法和装置,虚拟现实显示方法和装置
JP6183716B2 (ja) 運動支援装置及び運動支援方法、運動支援プログラム
CN107122048A (zh) 一种动作评估系统
CN103759739A (zh) 一种多节点运动测量与分析系统
US10289902B2 (en) Data analysis device, data analysis method and storage medium
US20200016464A1 (en) Analysis apparatus, analysis method, and recording medium
US20150057966A1 (en) Jump Sensor Device
CN106730760A (zh) 健身动作检测方法、系统、可穿戴设备及终端
KR20140107062A (ko) 자세 훈련 시스템 및 자세 훈련 시스템의 동작방법
CN104127188A (zh) 一种颈部运动量监控方法及设备
CN104881128A (zh) 基于实物在虚拟现实场景中显示目标图像的方法及系统
CN105125160A (zh) 一种口腔内窥镜检测系统及其检测方法
KR20230147199A (ko) 통합된 스포츠 훈련
CN109284006A (zh) 一种人体运动捕获装置和方法
US20150251071A1 (en) System and method for evaluating a swing of athletic equipment
KR101672481B1 (ko) 스윙 자세 분석 시스템
US20180216959A1 (en) A Combined Motion Capture System
CN107065599A (zh) 基于体感交互的轮式机器人运动仿真系统与方法
JP2016198296A (ja) 評価装置および評価システム
CN206534641U (zh) 外骨骼服和躯体仿真系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination