CN114330545A - 一种基于ik算法的数字人动态捕捉分析系统 - Google Patents
一种基于ik算法的数字人动态捕捉分析系统 Download PDFInfo
- Publication number
- CN114330545A CN114330545A CN202111627983.8A CN202111627983A CN114330545A CN 114330545 A CN114330545 A CN 114330545A CN 202111627983 A CN202111627983 A CN 202111627983A CN 114330545 A CN114330545 A CN 114330545A
- Authority
- CN
- China
- Prior art keywords
- skeleton
- virtual scene
- analysis
- operation procedure
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Testing And Monitoring For Control Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于ik算法的数字人动态捕捉分析系统,涉及动态捕捉分析技术领域,解决了现有技术中无法对虚拟场景内的数字人进行动态捕捉分析的技术问题,同时本申请中动态捕捉分析适用于各个领域,且本申请以工业领域为准;搭建虚拟模拟场景,对工业领域进行场景分析,通过分析判断工业领域需要进行模拟的场景,从而进行场景模拟,提高了场景操作的效率同时降低实验阶段的投入成本,减少不必要的资源浪费,同时也能够通过场景分析对模拟操作进行分析,有效判断实际操作存在的安全风险;对实时运行的虚拟场景进行监测,提高了可虚拟场景的运行次数,将场景模拟的有效效果最大化,同时减少非虚拟场景的运行次数,降低了场景模拟的实际成本。
Description
技术领域
本发明涉及动态捕捉分析技术领域,具体为一种基于ik算法的数字人动态捕捉分析系统。
背景技术
数字人,狭义的是信息科学与生命科学融合的产物,是利用信息科学的方法对人体在不同水平的形态和功能进行虚拟仿真,包括四个交叉重叠的发展阶段,可视人、物理人、生理人和智能人,最终建立多学科和多层次的数字模型并达到对人体从微观到宏观的精确模拟,广义的数字人是指数字技术在人体解剖、物理、生理及智能各个层次,各个阶段的渗透,需要注意的是,数字人是正在发展阶段的相关领域的统称;
但是在现有技术中,无法对虚拟场景内的数字人进行动态捕捉分析,导致无法对虚拟场景的运行进行判断,造成虚拟场景的搭建效率无法保证的问题;此外,无法将虚拟场景和实际操作人员的学习进行协调,导致实际操作人员无法完成虚拟场景内数字人的操作,造成操作人员的学习效率降低;
针对上述的技术缺陷,现提出一种解决方案。
发明内容
本发明的目的就在于为了解决的问题,而提出一种基于ik算法的数字人动态捕捉分析系统,搭建虚拟模拟场景,对工业领域进行场景分析,通过分析判断工业领域需要进行模拟的场景,从而进行场景模拟,提高了场景操作的效率同时降低实验阶段的投入成本,减少不必要的资源浪费,同时也能够通过场景分析对模拟操作进行分析,有效判断实际操作存在的安全风险;对实时运行的虚拟场景进行监测,提高了可虚拟场景的运行次数,将场景模拟的有效效果最大化,同时减少非虚拟场景的运行次数,降低了场景模拟的实际成本。
本发明的目的可以通过以下技术方案实现:
一种基于ik算法的数字人动态捕捉分析系统,包括动态捕捉分析平台,动态捕捉分析平台内设置有服务器,服务器通讯连接有虚拟场景搭建单元、实时动态捕捉单元、人物模拟分析单元以及模拟效果分析单元;
动态捕捉分析平台用于对虚拟场景内的数字人进行动态捕捉分析,服务器生成虚拟场景搭建信号并将虚拟场景搭建信号发送至虚拟场景搭建单元,通过虚拟场景搭建单元搭建虚拟模拟场景,对工业领域进行场景分析;通过分析生成难训练工序和易训练工序,并将难训练工序和易训练工序发送至服务器,服务器接收到难训练工序和易训练工序后,构建虚拟场景库,将难训练工序的操作步骤以及操作环境统一标记为可虚拟场景,并将可虚拟场景存入虚拟场景库;将易训练工序的操作步骤以及操作环境统一标记为非虚拟场景,并将非虚拟场景存入虚拟场景库;
通过实时动态捕捉单元对实时运行的可虚拟场景进行动态捕捉,服务器生成人物模拟分析信号并将人物模拟分析信号发送至人物模拟分析单元,通过人物模拟分析单元对可虚拟场景内数字人的运行进行分析;服务器生成模拟效果分析信号并将模拟效果分析信号发送至模拟效果分析单元,通过模拟效果分析单元可虚拟场景的模拟效果进行分析。
作为本发明的一种优选实施方式,虚拟场景搭建单元的场景搭建过程如下:
采集到工业领域内存在的各个操作工序,并将操作工序标记为i,i为大于1的自然数,采集到各个操作工序运行的投入成本,并将各个操作工序运行的投入成本标记为CBi;采集到各个操作工序的人员平均投入时长以及操作工序的空间占用面积,并将各个操作工序的人员平均投入时长以及操作工序的空间占用面积分别标记为SCi和MJi;
通过分析获取到各个操作工序的操作难度分析系数Xi,将各个操作工序的操作难度分析系数Xi与操作难度分析系数阈值进行比较:
若操作工序的操作难度分析系数Xi超过操作难度分析系数阈值,则判断对应操作工序的操作难度大,并将对应操作工序标记为难训练工序,生成训练复杂信号并将训练复杂信号与对应难训练工序发送至服务器;若操作工序的操作难度分析系数Xi未超过操作难度分析系数阈值,则判断对应操作工序的操作难度小,并将对应操作工序标记为易训练工序,生成训练简单信号并将训练简单信号与对应易训练工序发送至服务器。
作为本发明的一种优选实施方式,实时动态捕捉单元的实时动态捕捉过程如下:
将实时运行的可虚拟场景和对应可虚拟场景内的数字人进行分析,以数字人的上半身为参照点,采集到可虚拟场景内训练工序对应操作设备所处安装位置与参照点的角度,并根据上半身参照点的两端边界构建安装位置角度范围阈值范围;
将数字人的上半身连接的手臂进行分析,根据手臂的构造将手臂设置上主关节节点和上辅关节节点,且手臂通过上辅关节节点划分为上子骨骼和上父骨骼,其中上主关节节点为手臂与上半身的连接处,且上父骨骼与上半身连接,上子骨骼与上父骨骼相连接;根据下肢的构造将手臂设置下主关节节点和下辅关节节点,且下肢通过下辅关节节点划分为下子骨骼和下父骨骼,其中上主关节节点为下肢与上半身的连接处,且下父骨骼与上半身连接,下子骨骼与下父骨骼相连接;
在可虚拟场景内根据对训练工序的操作步骤,实时获取到上子骨骼和下子骨骼终端的实时位置,并以上半身实时参照点的位置为原点,获取到上子骨骼终端和下子骨骼终端的实时位置坐标,并通过余弦定理获取到上子骨骼终端和下子骨骼终端与参照点的角度,并将其分别标记为实时上角度和实时下角度;并将实时上角度和实时下角度分别与对应安装位置角度范围阈值范围进行比较,若实时上角度和实时下角度均位于对应安装位置角度范围阈值范围,则判定对应数字人在该可虚拟场景运行位置正确;反之则判定对应数字人在该可虚拟场景运行位置不正确;
根据实时上角度和实时下角度通过余弦定理获取到上子骨骼和上父骨骼以及下子骨骼和下父骨骼对应活动角度,并将上子骨骼和上父骨骼以及下子骨骼和下父骨骼对应活动角度分别标记为上子骨骼角度、上父骨骼角度、下子骨骼角度以及下父骨骼角度,并将上子骨骼角度、上父骨骼角度、下子骨骼角度以及下父骨骼角度分别与对应骨骼角度阈值范围进行比较:若上子骨骼角度、上父骨骼角度、下子骨骼角度以及下父骨骼角度均处于对应骨骼角度阈值范围内,则判定对应数字人在可虚拟场景内运行方式正确;反之则判定对应数字人在可虚拟场景内运行方式不正确;当运行位置与运行方式均正确时,生成动态捕捉合格信号并将动态捕捉合格信号发送至服务器。
作为本发明的一种优选实施方式,人物模拟分析单元的人物模拟分析过程如下:
将可虚拟场景内数字人标记为分析对象,采集到分析对象在单个操作工序内的运行频率以及分析对象在单个操作工序的操作方式数量,并将分析对象在单个操作工序内的运行频率以及分析对象在单个操作工序的操作方式数量分别与运行频率阈值和操作方式数量阈值进行比较:
若分析对象在单个操作工序内的运行频率超过运行频率阈值,且分析对象在单个操作工序的操作方式数量未超过操作方式数量阈值,则将对应操作工序标记为可机械操作工序,并将可机械操作工序发送至服务器;
若分析对象在单个操作工序内的运行频率未超过运行频率阈值,且分析对象在单个操作工序的操作方式数量超过操作方式数量阈值,则将对应操作工序标记为须人工操作工序,并将须人工操作工序发送至服务器。
作为本发明的一种优选实施方式,模拟效果分析单元的模拟效果分析过程如下:
采集到虚拟场景内对应操作工序运行过程中数字人的运行错误率以及虚拟场景内对应操作工序运行过程中相邻步骤的间隔时长,并将虚拟场景内对应操作工序运行过程中数字人的运行错误率以及虚拟场景内对应操作工序运行过程中相邻步骤的间隔时长分别与运行错误率阈值和间隔时长阈值进行比较:
若虚拟场景内对应操作工序运行过程中数字人的运行错误率低于运行错误率阈值,且虚拟场景内对应操作工序运行过程中相邻步骤的间隔时长低于间隔时长阈值,则判定实际操作人员无法完成对应操作工序,将虚拟场景内对应操作工序标记为可放宽工序,并将可放宽工序发送至服务器;若虚拟场景内对应操作工序运行过程中数字人的运行错误率高于运行错误率阈值,且虚拟场景内对应操作工序运行过程中相邻步骤的间隔时长高于间隔时长阈值,则判定实际操作人员能够完成对应操作工序,将虚拟场景内对应操作工序标记为非放宽工序,并将非放宽工序发送至服务器。
与现有技术相比,本发明的有益效果是:
1、本发明中,搭建虚拟模拟场景,对工业领域进行场景分析,通过分析判断工业领域需要进行模拟的场景,从而进行场景模拟,提高了场景操作的效率同时降低实验阶段的投入成本,减少不必要的资源浪费,同时也能够通过场景分析对模拟操作进行分析,有效判断实际操作存在的安全风险;对实时运行的虚拟场景进行监测,提高了可虚拟场景的运行次数,将场景模拟的有效效果最大化,同时减少非虚拟场景的运行次数,降低了场景模拟的实际成本;
2、本发明中,对实时运行的可虚拟场景进行动态捕捉,通过虚拟场景内数字人的动态分析,判断可虚拟场景对应训练工序的实际操作是否合格,对场景模拟进行效果监测,防止出现场景模拟的运行效率不合格,造成场景模拟成本的不必要浪费;判断可虚拟场景内训练工序设置为人工方式和机械方式,减少工业领域内实际操作工序对操作人员的危害,同时将各个工序合理匹配人工方式和机械方式,提高了工业领域生产质量的同时提高了工序的运行效率;
3、本发明中,判断可虚拟场景的模拟效果是否合格,判断对应领域及对应工序是否适合进行场景模拟,防止场景模拟与实际生产存在差异,导致场景模拟的可行性降低,造成场景模拟学习的操作人员无法符合场景模拟的标准,导致操作人员的学习进度减缓。
附图说明
为了便于本领域技术人员理解,下面结合附图对本发明作进一步的说明。
图1为本发明的原理框图;
图2为本发明中手臂运行示意图;
图3为本发明中下肢运行示意图。
具体实施方式
下面将结合实施例对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1所示,一种基于ik算法的数字人动态捕捉分析系统,包括动态捕捉分析平台,动态捕捉分析平台内设置有服务器,服务器通讯连接有虚拟场景搭建单元、实时动态捕捉单元、人物模拟分析单元以及模拟效果分析单元;
动态捕捉分析平台用于对虚拟场景内的数字人进行动态捕捉分析,数字人为利用信息科学的方法对人体在不同水平的形态和功能进行虚拟仿真,为公开已知的现有技术,本申请中数字人表示为虚拟场景内运行的模拟人体载体,同时本申请中动态捕捉分析适用于各个领域,且本申请以工业领域为准;服务器生成虚拟场景搭建信号并将虚拟场景搭建信号发送至虚拟场景搭建单元,虚拟场景搭建单元用于搭建虚拟模拟场景,对工业领域进行场景分析,通过分析判断工业领域需要进行模拟的场景,从而进行场景模拟,提高了场景操作的效率同时降低实验阶段的投入成本,减少不必要的资源浪费,同时也能够通过场景分析对模拟操作进行分析,有效判断实际操作存在的安全风险,具体场景搭建过程如下:
采集到工业领域内存在的各个操作工序,如装配、电焊等工业领域内的操作工序,并将操作工序标记为i,i为大于1的自然数,采集到各个操作工序运行的投入成本,并将各个操作工序运行的投入成本标记为CBi;采集到各个操作工序的人员平均投入时长以及操作工序的空间占用面积,并将各个操作工序的人员平均投入时长以及操作工序的空间占用面积分别标记为SCi和MJi;
通过公式Xi=β(CBi×a1+SCi×a2+MJi×a3)获取到各个操作工序的操作难度分析系数Xi,其中,a1、a2以及a3均为预设比例系数,且a1>a2>a3>0,β为误差修正因子,取值为1.35;
将各个操作工序的操作难度分析系数Xi与操作难度分析系数阈值进行比较:
若操作工序的操作难度分析系数Xi超过操作难度分析系数阈值,则判断对应操作工序的操作难度大,并将对应操作工序标记为难训练工序,生成训练复杂信号并将训练复杂信号与对应难训练工序发送至服务器;若操作工序的操作难度分析系数Xi未超过操作难度分析系数阈值,则判断对应操作工序的操作难度小,并将对应操作工序标记为易训练工序,生成训练简单信号并将训练简单信号与对应易训练工序发送至服务器;
服务器接收到难训练工序和易训练工序后,构建虚拟场景库,将难训练工序的操作步骤以及操作环境统一标记为可虚拟场景,并将可虚拟场景存入虚拟场景库;操作环境表示为工序操作的工具以及空间等操作需求参数;将易训练工序的操作步骤以及操作环境统一标记为非虚拟场景,并将非虚拟场景存入虚拟场景库,即虚拟场景库作为虚拟场景存储的载体,对实时运行的虚拟场景进行监测,提高了可虚拟场景的运行次数,将场景模拟的有效效果最大化,同时减少非虚拟场景的运行次数,降低了场景模拟的实际成本,且实时可虚拟场景运行时生成实时动态捕捉信号并将实时动态捕捉信号发送至实时动态捕捉单元;
实时动态捕捉单元用于对实时运行的可虚拟场景进行动态捕捉,通过虚拟场景内数字人的动态分析,判断可虚拟场景对应训练工序的实际操作是否合格,对场景模拟进行效果监测,防止出现场景模拟的运行效率不合格,造成场景模拟成本的不必要浪费,具体实时动态捕捉过程如下:
将实时运行的可虚拟场景和对应可虚拟场景内的数字人进行分析,以数字人的上半身为参照点,采集到可虚拟场景内训练工序对应操作设备所处安装位置与参照点的角度,并根据上半身参照点的两端边界构建安装位置角度范围阈值范围,操作设备表示为可虚拟场景内训练工序涉及的设备,如工业装配需要装配支架,本申请中安装位置角度范围阈值用于构建运行标准,判断模拟场景内数字人的运行状态,如工业装配中,装配高度超过参照点和装配高度未超过参照点时,数字人的动态不同;
将数字人的上半身连接的手臂进行分析,根据手臂的构造将手臂设置上主关节节点和上辅关节节点,且手臂通过上辅关节节点划分为上子骨骼和上父骨骼,其中上主关节节点为手臂与上半身的连接处,且上父骨骼与上半身连接,上子骨骼与上父骨骼相连接;根据下肢的构造将手臂设置下主关节节点和下辅关节节点,且下肢通过下辅关节节点划分为下子骨骼和下父骨骼,其中上主关节节点为下肢与上半身的连接处,且下父骨骼与上半身连接,下子骨骼与下父骨骼相连接;
在可虚拟场景内根据对训练工序的操作步骤,实时获取到上子骨骼和下子骨骼终端的实时位置,并以上半身实时参照点的位置为原点,获取到上子骨骼终端和下子骨骼终端的实时位置坐标,并通过余弦定理获取到上子骨骼终端和下子骨骼终端与参照点的角度,并将其分别标记为实时上角度和实时下角度;并将实时上角度和实时下角度分别与对应安装位置角度范围阈值范围进行比较,若实时上角度和实时下角度均位于对应安装位置角度范围阈值范围,则判定对应数字人在该可虚拟场景运行位置正确;反之则判定对应数字人在该可虚拟场景运行位置不正确;
根据实时上角度和实时下角度通过余弦定理获取到上子骨骼和上父骨骼以及下子骨骼和下父骨骼对应活动角度,并将上子骨骼和上父骨骼以及下子骨骼和下父骨骼对应活动角度分别标记为上子骨骼角度、上父骨骼角度、下子骨骼角度以及下父骨骼角度,并将上子骨骼角度、上父骨骼角度、下子骨骼角度以及下父骨骼角度分别与对应骨骼角度阈值范围进行比较:若上子骨骼角度、上父骨骼角度、下子骨骼角度以及下父骨骼角度均处于对应骨骼角度阈值范围内,则判定对应数字人在可虚拟场景内运行方式正确;反之则判定对应数字人在可虚拟场景内运行方式不正确;
当运行位置与运行方式均正确时,生成动态捕捉合格信号并将动态捕捉合格信号发送至服务器;
如图2所示,M1和M2分别表示为上父骨骼角度和上子骨骼角度,B1表示为实时上角度,B2和B3分别表示为上父骨骼角度和上子骨骼角度;由图可通过余弦定理获得对应角度;
如图3所示,M3和M4分别表示为下父骨骼和下子骨骼,B4为实时下角度,B5和B6分别表示为下父骨骼角度和下子骨骼角度,由图可通过余弦定理获得对应角度;
服务器接收到动态捕捉合格信号后,生成人物模拟分析信号并将人物模拟分析信号发送至人物模拟分析单元,人物模拟分析单元用于对可虚拟场景内数字人的运行进行分析,从而判断可虚拟场景内训练工序设置为人工方式和机械方式,减少工业领域内实际操作工序对操作人员的危害,同时将各个工序合理匹配人工方式和机械方式,提高了工业领域生产质量的同时提高了工序的运行效率,具体人物模拟分析过程如下:
将可虚拟场景内数字人标记为分析对象,采集到分析对象在单个操作工序内的运行频率以及分析对象在单个操作工序的操作方式数量,并将分析对象在单个操作工序内的运行频率以及分析对象在单个操作工序的操作方式数量分别与运行频率阈值和操作方式数量阈值进行比较:
若分析对象在单个操作工序内的运行频率超过运行频率阈值,且分析对象在单个操作工序的操作方式数量未超过操作方式数量阈值,则将对应操作工序标记为可机械操作工序,并将可机械操作工序发送至服务器;
若分析对象在单个操作工序内的运行频率未超过运行频率阈值,且分析对象在单个操作工序的操作方式数量超过操作方式数量阈值,则将对应操作工序标记为须人工操作工序,并将须人工操作工序发送至服务器;本申请中采集运行频率和操作方式数量两个参数,在运行频率过快的情况下,机械操作的效率优于人工操作效率,在同一操作工序可以多种操作方式的情况下,人工操作的效率优于机械操作效率;
服务器接收到可机械操作工序和须人工操作工序后,将可机械操作工序和须人工操作工序进行储存,且对应工业领域的管理人员可以通过登录服务器进行查看,同时生成模拟效果分析信号并将模拟效果分析信号发送至模拟效果分析单元,模拟效果分析单元用于可虚拟场景的模拟效果进行分析,从而判断可虚拟场景的模拟效果是否合格,判断对应领域及对应工序是否适合进行场景模拟,防止场景模拟与实际生产存在差异,导致场景模拟的可行性降低,造成场景模拟学习的操作人员无法符合场景模拟的标准,导致操作人员的学习进度减缓,具体模拟效果分析过程如下:
采集到虚拟场景内对应操作工序运行过程中数字人的运行错误率以及虚拟场景内对应操作工序运行过程中相邻步骤的间隔时长,并将虚拟场景内对应操作工序运行过程中数字人的运行错误率以及虚拟场景内对应操作工序运行过程中相邻步骤的间隔时长分别与运行错误率阈值和间隔时长阈值进行比较:
若虚拟场景内对应操作工序运行过程中数字人的运行错误率低于运行错误率阈值,且虚拟场景内对应操作工序运行过程中相邻步骤的间隔时长低于间隔时长阈值,则判定实际操作人员无法完成对应操作工序,将虚拟场景内对应操作工序标记为可放宽工序,并将可放宽工序发送至服务器;若虚拟场景内对应操作工序运行过程中数字人的运行错误率高于运行错误率阈值,且虚拟场景内对应操作工序运行过程中相邻步骤的间隔时长高于间隔时长阈值,则判定实际操作人员能够完成对应操作工序,将虚拟场景内对应操作工序标记为非放宽工序,并将非放宽工序发送至服务器;可放宽工序表示为模拟场景内的错误率以及步骤间隔时长等运行参数作为实际操作人员学习标准时,可以适当降低的工序。
上述公式均是采集大量数据进行软件模拟得出且选取与真实值接近的一个公式,公式中的系数是由本领域技术人员根据实际情况进行设置;
本发明在使用时,动态捕捉分析平台用于对虚拟场景内的数字人进行动态捕捉分析,通过虚拟场景搭建单元搭建虚拟模拟场景,对工业领域进行场景分析;通过实时动态捕捉单元对实时运行的可虚拟场景进行动态捕捉,服务器生成人物模拟分析信号并将人物模拟分析信号发送至人物模拟分析单元,通过人物模拟分析单元对可虚拟场景内数字人的运行进行分析;服务器生成模拟效果分析信号并将模拟效果分析信号发送至模拟效果分析单元,通过模拟效果分析单元可虚拟场景的模拟效果进行分析。
以上公开的本发明优选实施例只是用于帮助阐述本发明。优选实施例并没有详尽叙述所有的细节,也不限制该发明仅为的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效物的限制。
Claims (5)
1.一种基于ik算法的数字人动态捕捉分析系统,其特征在于,包括动态捕捉分析平台,动态捕捉分析平台内设置有服务器,服务器通讯连接有虚拟场景搭建单元、实时动态捕捉单元、人物模拟分析单元以及模拟效果分析单元;
动态捕捉分析平台用于对虚拟场景内的数字人进行动态捕捉分析,服务器生成虚拟场景搭建信号并将虚拟场景搭建信号发送至虚拟场景搭建单元,通过虚拟场景搭建单元搭建虚拟模拟场景,对工业领域进行场景分析;通过分析生成难训练工序和易训练工序,并将难训练工序和易训练工序发送至服务器,服务器接收到难训练工序和易训练工序后,构建虚拟场景库,将难训练工序的操作步骤以及操作环境统一标记为可虚拟场景,并将可虚拟场景存入虚拟场景库;将易训练工序的操作步骤以及操作环境统一标记为非虚拟场景,并将非虚拟场景存入虚拟场景库;
通过实时动态捕捉单元对实时运行的可虚拟场景进行动态捕捉,服务器生成人物模拟分析信号并将人物模拟分析信号发送至人物模拟分析单元,通过人物模拟分析单元对可虚拟场景内数字人的运行进行分析;服务器生成模拟效果分析信号并将模拟效果分析信号发送至模拟效果分析单元,通过模拟效果分析单元可虚拟场景的模拟效果进行分析。
2.根据权利要求1所述的一种基于ik算法的数字人动态捕捉分析系统,其特征在于,虚拟场景搭建单元的场景搭建过程如下:
采集到工业领域内存在的各个操作工序,并将操作工序标记为i,i为大于1的自然数,采集到各个操作工序运行的投入成本,并将各个操作工序运行的投入成本标记为CBi;采集到各个操作工序的人员平均投入时长以及操作工序的空间占用面积,并将各个操作工序的人员平均投入时长以及操作工序的空间占用面积分别标记为SCi和MJi;
通过分析获取到各个操作工序的操作难度分析系数Xi,将各个操作工序的操作难度分析系数Xi与操作难度分析系数阈值进行比较:
若操作工序的操作难度分析系数Xi超过操作难度分析系数阈值,则判断对应操作工序的操作难度大,并将对应操作工序标记为难训练工序,生成训练复杂信号并将训练复杂信号与对应难训练工序发送至服务器;若操作工序的操作难度分析系数Xi未超过操作难度分析系数阈值,则判断对应操作工序的操作难度小,并将对应操作工序标记为易训练工序,生成训练简单信号并将训练简单信号与对应易训练工序发送至服务器。
3.根据权利要求1所述的一种基于ik算法的数字人动态捕捉分析系统,其特征在于,实时动态捕捉单元的实时动态捕捉过程如下:
将实时运行的可虚拟场景和对应可虚拟场景内的数字人进行分析,以数字人的上半身为参照点,采集到可虚拟场景内训练工序对应操作设备所处安装位置与参照点的角度,并根据上半身参照点的两端边界构建安装位置角度范围阈值范围;
将数字人的上半身连接的手臂进行分析,根据手臂的构造将手臂设置上主关节节点和上辅关节节点,且手臂通过上辅关节节点划分为上子骨骼和上父骨骼,其中上主关节节点为手臂与上半身的连接处,且上父骨骼与上半身连接,上子骨骼与上父骨骼相连接;根据下肢的构造将手臂设置下主关节节点和下辅关节节点,且下肢通过下辅关节节点划分为下子骨骼和下父骨骼,其中上主关节节点为下肢与上半身的连接处,且下父骨骼与上半身连接,下子骨骼与下父骨骼相连接;
在可虚拟场景内根据对训练工序的操作步骤,实时获取到上子骨骼和下子骨骼终端的实时位置,并以上半身实时参照点的位置为原点,获取到上子骨骼终端和下子骨骼终端的实时位置坐标,并通过余弦定理获取到上子骨骼终端和下子骨骼终端与参照点的角度,并将其分别标记为实时上角度和实时下角度;并将实时上角度和实时下角度分别与对应安装位置角度范围阈值范围进行比较,若实时上角度和实时下角度均位于对应安装位置角度范围阈值范围,则判定对应数字人在该可虚拟场景运行位置正确;反之则判定对应数字人在该可虚拟场景运行位置不正确;
根据实时上角度和实时下角度通过余弦定理获取到上子骨骼和上父骨骼以及下子骨骼和下父骨骼对应活动角度,并将上子骨骼和上父骨骼以及下子骨骼和下父骨骼对应活动角度分别标记为上子骨骼角度、上父骨骼角度、下子骨骼角度以及下父骨骼角度,并将上子骨骼角度、上父骨骼角度、下子骨骼角度以及下父骨骼角度分别与对应骨骼角度阈值范围进行比较:若上子骨骼角度、上父骨骼角度、下子骨骼角度以及下父骨骼角度均处于对应骨骼角度阈值范围内,则判定对应数字人在可虚拟场景内运行方式正确;反之则判定对应数字人在可虚拟场景内运行方式不正确;当运行位置与运行方式均正确时,生成动态捕捉合格信号并将动态捕捉合格信号发送至服务器。
4.根据权利要求1所述的一种基于ik算法的数字人动态捕捉分析系统,其特征在于,人物模拟分析单元的人物模拟分析过程如下:
将可虚拟场景内数字人标记为分析对象,采集到分析对象在单个操作工序内的运行频率以及分析对象在单个操作工序的操作方式数量,并将分析对象在单个操作工序内的运行频率以及分析对象在单个操作工序的操作方式数量分别与运行频率阈值和操作方式数量阈值进行比较:
若分析对象在单个操作工序内的运行频率超过运行频率阈值,且分析对象在单个操作工序的操作方式数量未超过操作方式数量阈值,则将对应操作工序标记为可机械操作工序,并将可机械操作工序发送至服务器;
若分析对象在单个操作工序内的运行频率未超过运行频率阈值,且分析对象在单个操作工序的操作方式数量超过操作方式数量阈值,则将对应操作工序标记为须人工操作工序,并将须人工操作工序发送至服务器。
5.根据权利要求1所述的一种基于ik算法的数字人动态捕捉分析系统,其特征在于,模拟效果分析单元的模拟效果分析过程如下:
采集到虚拟场景内对应操作工序运行过程中数字人的运行错误率以及虚拟场景内对应操作工序运行过程中相邻步骤的间隔时长,并将虚拟场景内对应操作工序运行过程中数字人的运行错误率以及虚拟场景内对应操作工序运行过程中相邻步骤的间隔时长分别与运行错误率阈值和间隔时长阈值进行比较:
若虚拟场景内对应操作工序运行过程中数字人的运行错误率低于运行错误率阈值,且虚拟场景内对应操作工序运行过程中相邻步骤的间隔时长低于间隔时长阈值,则判定实际操作人员无法完成对应操作工序,将虚拟场景内对应操作工序标记为可放宽工序,并将可放宽工序发送至服务器;若虚拟场景内对应操作工序运行过程中数字人的运行错误率高于运行错误率阈值,且虚拟场景内对应操作工序运行过程中相邻步骤的间隔时长高于间隔时长阈值,则判定实际操作人员能够完成对应操作工序,将虚拟场景内对应操作工序标记为非放宽工序,并将非放宽工序发送至服务器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111627983.8A CN114330545B (zh) | 2021-12-28 | 2021-12-28 | 一种基于ik算法的数字人动态捕捉分析系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111627983.8A CN114330545B (zh) | 2021-12-28 | 2021-12-28 | 一种基于ik算法的数字人动态捕捉分析系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114330545A true CN114330545A (zh) | 2022-04-12 |
CN114330545B CN114330545B (zh) | 2022-09-13 |
Family
ID=81014998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111627983.8A Active CN114330545B (zh) | 2021-12-28 | 2021-12-28 | 一种基于ik算法的数字人动态捕捉分析系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114330545B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116787435A (zh) * | 2023-06-26 | 2023-09-22 | 安徽省若登智能科技有限公司 | 一种基于编程分析的机器人动作智能监测系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130197887A1 (en) * | 2012-01-31 | 2013-08-01 | Siemens Product Lifecycle Management Software Inc. | Semi-autonomous digital human posturing |
CN106485748A (zh) * | 2015-08-25 | 2017-03-08 | 达索系统美国公司 | 用于数字人体模型的视觉测量的方法和系统 |
CN110023882A (zh) * | 2016-08-03 | 2019-07-16 | 超级触觉资讯处理有限公司 | 触觉系统中的三维感知 |
CN110728739A (zh) * | 2019-09-30 | 2020-01-24 | 杭州师范大学 | 一种基于视频流的虚拟人控制与交互方法 |
CN111443854A (zh) * | 2020-03-25 | 2020-07-24 | 北京百度网讯科技有限公司 | 基于数字人的动作处理方法、装置、设备及存储介质 |
CN111759318A (zh) * | 2020-07-10 | 2020-10-13 | 吴道威 | 一种运动姿态捕捉分析系统 |
CN112527109A (zh) * | 2020-12-04 | 2021-03-19 | 上海交通大学 | 基于坐姿的vr全身动作控制方法、系统及计算机可读介质 |
-
2021
- 2021-12-28 CN CN202111627983.8A patent/CN114330545B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130197887A1 (en) * | 2012-01-31 | 2013-08-01 | Siemens Product Lifecycle Management Software Inc. | Semi-autonomous digital human posturing |
CN106485748A (zh) * | 2015-08-25 | 2017-03-08 | 达索系统美国公司 | 用于数字人体模型的视觉测量的方法和系统 |
CN110023882A (zh) * | 2016-08-03 | 2019-07-16 | 超级触觉资讯处理有限公司 | 触觉系统中的三维感知 |
CN110728739A (zh) * | 2019-09-30 | 2020-01-24 | 杭州师范大学 | 一种基于视频流的虚拟人控制与交互方法 |
CN111443854A (zh) * | 2020-03-25 | 2020-07-24 | 北京百度网讯科技有限公司 | 基于数字人的动作处理方法、装置、设备及存储介质 |
CN111759318A (zh) * | 2020-07-10 | 2020-10-13 | 吴道威 | 一种运动姿态捕捉分析系统 |
CN112527109A (zh) * | 2020-12-04 | 2021-03-19 | 上海交通大学 | 基于坐姿的vr全身动作控制方法、系统及计算机可读介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116787435A (zh) * | 2023-06-26 | 2023-09-22 | 安徽省若登智能科技有限公司 | 一种基于编程分析的机器人动作智能监测系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114330545B (zh) | 2022-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110676937B (zh) | 智慧安全用电运维管理系统 | |
CN107179700A (zh) | 一种基于Alljoyn和机器学习的智能家居控制系统和方法 | |
CN104977856B (zh) | 变电站环境监测模拟装置、系统及方法 | |
CN114330545B (zh) | 一种基于ik算法的数字人动态捕捉分析系统 | |
CN108670128A (zh) | 语音控制扫地机器人的方法和扫地机器人 | |
CN110688772A (zh) | 一种基于vr局域网联机系统的变电站异常处理模拟系统 | |
CN111950197A (zh) | 一种基于人工智能语义的配网攻击及故障采集分析系统 | |
CN110942698B (zh) | 一种配网不停电作业的模拟实操管控平台 | |
CN110189575B (zh) | 一种基于大数据的配网运维仿真培训系统 | |
CN107819653A (zh) | 一种互联网识别智能家居场景控制装置 | |
CN113349188B (zh) | 一种基于云端杀草谱的草坪及牧草精准除草方法 | |
CN114241375A (zh) | 一种用于运动过程中的监测方法 | |
CN111510685A (zh) | 一种基于三维模型的信息输出方法及装置 | |
CN116563499A (zh) | 一种基于元宇宙技术的变电站智能互动系统 | |
CN114282294B (zh) | 一种基于数字孪生的医院建筑震害预测方法及系统 | |
CN115858281A (zh) | 一种基于物联网的能耗管理系统及方法 | |
CN104601405B (zh) | 一种基于配置策略的站控层信息交互测试系统及方法 | |
CN108337486A (zh) | 一种基于场景的算法配置的视频分析的装置及方法 | |
CN111897420A (zh) | 一种基于vr技术的可视化展览品系统及方法 | |
CN106647419A (zh) | 继电保护装置硬件通道的矩阵式映射方法 | |
CN110599832A (zh) | 一种基于虚拟现实的变电站安全培训系统 | |
CN201717634U (zh) | 用于多层电网的事故集处理系统 | |
CN111489808A (zh) | 一种自闭症谱系障碍儿童康复训练辅助系统 | |
CN114066187B (zh) | 电网实时数据模拟器的模拟方法 | |
CN115544819B (zh) | 维修站的数字孪生建模方法、系统和可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |