CN106485748A - 用于数字人体模型的视觉测量的方法和系统 - Google Patents

用于数字人体模型的视觉测量的方法和系统 Download PDF

Info

Publication number
CN106485748A
CN106485748A CN201610718610.4A CN201610718610A CN106485748A CN 106485748 A CN106485748 A CN 106485748A CN 201610718610 A CN201610718610 A CN 201610718610A CN 106485748 A CN106485748 A CN 106485748A
Authority
CN
China
Prior art keywords
dhm
destination object
vision
posture
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610718610.4A
Other languages
English (en)
Other versions
CN106485748B (zh
Inventor
P-O·勒米厄
M·科菲耶
A·巴尔
N·哈格迈斯特
R·艾萨维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dassault Systemes Americas Corp
Original Assignee
Dassault Systemes Americas Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dassault Systemes Americas Corp filed Critical Dassault Systemes Americas Corp
Publication of CN106485748A publication Critical patent/CN106485748A/zh
Application granted granted Critical
Publication of CN106485748B publication Critical patent/CN106485748B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/11Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Operations Research (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Geometry (AREA)
  • Evolutionary Computation (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Instructional Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本公开内容针对于相对于目标对象,提高数字人体模型(DHM)的原始姿势的计算机仿真准确性的方法和相应系统。该方法和系统可以:获得与原始DHM姿势相关联的信息;获得与目标对象相关联的信息;以及获得从DHM的头部到目标对象的距离。在一些实施例中,该系统和方法可以生成DHM正在视觉上瞄准的目标对象的DHM的视觉测量(即,视觉测量值)。该系统和方法可以:基于一个或多个参数来生成该视觉测量;基于该视觉测量来生成该DHM相对于目标对象的视觉的约束(即,视觉约束);以及基于该视觉约束来生成更新的DHM姿势。

Description

用于数字人体模型的视觉测量的方法和系统
背景技术
诸如人体模型之类的数字人体模型(DHM)可以提供人体骨骼系统的虚拟表示,其中人体骨骼系统被设定为是各种运动链(上肢、下肢、脊柱)的简单节段性链接的组合。例如,参见下面文献的公开:Duffy,V.G.,“Introduction,in Handbook of Digital HumanModeling:Research for Applied Ergonomics and Human Factors Engineering,”V.G.Duffy,Editor 2008,CRC Press,Inc.:Boca Raton,Florida,November,2008,故以引用方式将该文献的全部内容并入本文。可以使用这些工具来预测在各种仿真任务期间采用的人体姿势,以便评估受伤的风险,并适当地适配不同的人体测量学的人体周围的环境。可以利用逆运动学(IK)引擎来生成这些姿势,其中IK引擎确定与特定的末端执行器(例如,手、头和脚)位置和/或方位相对应的人体模型的自由度(DOF)。
发明内容
但是,在现有的DHM方法中,人的任务可能涉及不同程度的影响姿势的视觉要求。现有的数字人体模型(DHM)提出了基于视觉的约束(例如,参见下面的以引用方式将其全部内容并入本文的公开:Marler,T.,Farrell,K.,and Kim,J.,Rahmatalla,S.,Abdel-Malek,K.,“Vision Performance Measures for Optimization-Based Posture Prediction,”inDigital Human Modeling for Design and Engineering Conference 2006,SAEInternational:Lyon,France,p.12,July,2006,technical paper no.2006-01-2334,但该文献没有考虑以下的方面:(1)目标大小、(2)目标方位、以及(3)精度的水平/任务的焦点(即,高精度对比低精度))。因此,一些实施例可以包括同时地考虑这三个方面的新的视觉约束,以便提高DHM的原始姿势的计算机仿真准确性。
因此,本公开内容针对于相对于目标对象(本文还称为对象、目标、虚拟目标或者视觉目标),提高数字人体模型(DHM)(其可以包括但不限于人体模型)的原始姿势的计算机仿真准确性的方法和相应系统。在一些实施例中,该系统和方法可以获得与原始DHM姿势相关联的信息。所获得的DHM姿势信息可以包括DHM的头部的位置。在一些实施例中,该系统和方法可以获得与目标对象相关联的信息。所获得的目标对象信息可以包括目标对象的大小和目标对象的方位。根据一些实施例,所获得的目标对象信息可以包括目标对象的大小和目标对象在预先规定的平面中的方位。在一些实施例中,该系统和方法可以获得从DHM的头部到目标对象的距离。在一些实施例中,该系统和方法可以生成DHM正在视觉上瞄准的目标对象的DHM的视觉测量(即,视觉测量值)。该系统和方法可以基于一个或多个参数,来生成该视觉测量,其中所述一个或多个参数可以包括所获得的DHM姿势信息、所获得的目标对象信息和所获得的头部-目标(HT)距离中的任何信息。基于该视觉测量,该系统和方法可以生成该DHM相对于目标对象的视觉的约束(即,视觉约束)。基于该视觉约束,该系统和方法可以生成更新的DHM姿势。
在一些实施例中,该对象可以采取各种形状。在一些实施例中,目标对象的大小可以包括该目标对象的小面(facet)的大小。在一些实施例中,可以将小面规定成目标对象的一部分。在一些实施例中,可以将目标对象表示成网格,其中该网格可以是根据多个三角形形状的小面来构建的。在一些实施例中,对于作为球体的三维目标对象来说,可以使用一组小面来表示该球体的一部分,该部分可以用于表示目标对象的一部分,但在该三维目标对象的侧面中的一个或多个上,具有至少一个三角形。在一些实施例中,该目标对象可以是三维的。在一些实施例中,该目标对象可以是二维的。
在一些实施例中,目标对象的方位可以包括该目标对象的小面的方位。在一些实施例中,所述一个或多个参数可以包括:目标对象的小面的法线与一个向量表示之间的角度。在一些实施例中,所述一个或多个参数可以包括:目标对象的小面的表面的法线与一个向量表示之间的角度。该向量表示可以具有所获得的该人体模型头部和目标对象之间的HT距离(或者头部-目标HT距离)的幅度和从DHM到目标对象的方向。
在一些实施例中,该系统和方法还可以基于精度水平来生成视觉约束,其中精度水平表示DHM执行与该目标对象相关联的任务所需要的精度的水平。在一些实施例中,该视觉约束可以表示:DHM到该目标对象的逼近性的测量值和/或DHM执行与目标对象相关联的任务的能力。在一些实施例中,该系统和方法可以基于DHM到该目标对象的逼近性的测量值和/或DHM执行与该目标对象相关联的任务的能力,来生成更新的DHM姿势。
在一些实施例中,可以基于所述视觉测量的对数来生成所述视觉约束。在一些实施例中,与DHM使用原始DHM姿势来执行与目标对象相关联的任务的能力相比,更新的DHM姿势可以提供DHM执行与该目标对象相关联的任务的增加的能力,
在一些实施例中,该系统和方法还可以生成三维视觉空间,其中该三维视觉空间提供DHM执行与目标对象相关联的任务的能力的指示。在一些实施例中,该系统和方法还可以基于逆运动学引擎、视觉约束和DHM的自由度,来生成更新的DHM姿势。在一些实施例中,逆运动学引擎可以接收该视觉约束并且确定DHM的自由度。在一些实施例中,所获得的HT距离可以是基于来自反射标志的DHM的头部和目标对象的测量值来获得的。换言之,所获得的HT距离可以是基于DHM的头部和目标对象的测量值来获得的,并且DHM测量值和/或目标对象测量值可以是从反射标志获得的。如本领域普通技术人员所知道的,反射标志可以位于目标对象上,和/或位于该反射标志可以反射到目标对象和/或DHM头部的任何位置。
在一些实施例中,本文的系统和方法可以使用逆运动学引擎、数据引擎、处理引擎、姿势引擎或者其任意组合,来实现上面所提及的特征。
附图说明
通过对于如附图中所示出的本发明的示例性实施例的下面更详细描述,前述的内容将变得显而易见,其中贯穿不同的视图,相同的附图标记指代相同的部件。这些附图不必依比例进行绘制,而是将重点放在说明本发明的实施例。
图1根据一些实施例,示出了本发明的步骤的高层次流程图。
图2根据一些实施例,示出了包括输入和输出的流程图。
图3根据一些实施例,示出了视觉测量的计算。
图4(图4A-C)示出了实施例与现有技术的比较。图4A表示现有技术方法。相比于图4A,图4B示出了用于低精度任务的实施例,图4C示出了用于高精度任务的实施例。
图5示出了可以实现本发明的实施例的计算机网络或者类似的数字处理环境。
图6是图5的计算机网络中的计算机的内部结构的框图。
具体实施方式
下面将描述本发明的示例性实施例。
在本文中引用的所有专利、公开的申请和参考文献都通过全文引用而包含在本文中。
人的任务涉及不同程度的可能影响姿势的视觉要求。现有的数字人体模型(DHM)提出了基于视觉的约束(例如,参见下面的以引用方式将其全部内容并入本文的公开:Marler,T.,Farrell,K.,and Kim,J.,Rahmatalla,S.,Abdel-Malek,K.,“VisionPerformance Measures for Optimization-Based Posture Prediction,”in DigitalHuman Modeling for Design and Engineering Conference 2006,SAE International:Lyon,France,p.12,July,2006,technical paper no.2006-01-2334,下文称为“Marler等”),但该文献没有考虑三个重要方面中的一个或多个:(1)目标大小、(2)目标方位、以及(3)精度的水平/任务的焦点(即,高精度对比低精度))。一些实施例包括同时地考虑这三个方面的新的视觉约束。
根据一些实施例,为了现实性,DHM所预测的姿势尊重一系列生理要求,其包括与视觉有关的要求(例如,参见上面所引用的Marler等)。作为通常规则,当人们执行需要一定数量的焦点的任务时,他们趋向于看一看目标(例如,参见Marler等)。此外,与其它简单的任务(例如,按下一个大按钮)相比,一些任务(例如,小心地在小洞里插入一个小针)可能需要更高的精度和视觉敏锐度。在这些情况下,通过调整头部方位来简单地观看目标可能不能保证预测整个身体姿势的真实性,这是由于与该任务有关的其它方面(例如,对象尺寸(如,小面大小和/或方位)和精度水平)可能变成很可能影响头部-目标距离的主要因素。
可以根据不同的测量值来推导视觉信息。例如,人类的视力可能与“视线角度”(即,“头部-目标”(HT)和“视线”(LOS)向量之间的偏离角度)有关(例如,参见Marler等)。当视线角度是零时(即,提出LOS直接指向目标),视力可能是最大的,随着视线角度增加,视图可能非线性地减小(例如,参见Marler等)。已经使用这种测量来推导虚拟人体模型的姿势(例如,参见Marler等)。视力的另一个例子是“LogMAR”,其是最小角度分辨率(MAR)(即,一个字符笔画宽度(character stroke width)所对应的角度)的以10为底的对数(即,Log10)(例如,参见下面的以引用方式将其全部内容并入本文的公开:Bailey,I.L.and Lovie,J.E.,“New Design Principles for Visual Acuity Letter Charts,”American Journalof Optometry&Physiological Optics,53(11):p.740-5,November,1976,下文称为“Bailey等”)。该视力得分可以利用弧分来计算,其可以是基于预先规定的HT距离(例如,6m)和方位(即,正常地站在图表前)。完美的视力可以读取笔画宽度对应0.5弧分的同一行上的所有字母,并给予其的LogMAR为0。同时,大于1.0的LogMAR指示其具有较差的视力,这是由于他不能读取笔画宽度对应10弧分的同一行上的字母(这些字母被认为是较大的字母)。
无论Marler等的视线角度还是Bailey等的LogMAR,都不允许工程师考虑各种对象大小(例如,小对比大)、对象小面方位(不同于HT向量方位)和各种任务精度水平(例如,高对比低)。为了考虑这些方面,根据一些实施例,当DHM的任务需要高精度/焦点(例如,小心地在小洞里插入一个小针),和/或当目标对象位于DHM的视野之外时,可以使HT距离和方位适配目标对象较小的情形。LogMAR的现有方法的限制在于:利用预先规定的对象大小(即,字符笔画宽度)、预先规定的HT距离(例如,6m)和预先规定的方位(垂直于图表的LOS)来测量其范围(-0.3到1.0)。同时,现有的LogMAR视线角度计算并没有考虑HT距离。但是,本发明的实施例弥补了这些上面所提及的缺陷。
图1根据一些实施例,示出了提高数字人体模型(DHM)相对于目标对象的原始姿势的计算机仿真准确性的方法1000的步骤的高层次流程图。应当注意,在一些实施例中,可以将方法1000的步骤配置成计算机系统的一个或多个组件。根据一些实施例,可以在每一个小面的基础上(即,针对于目标对象的给定小面,或者针对于目标对象的所有小面),执行图1的每一个步骤。
根据一些实施例,本文定义了目标对象的小面(facet),以便包括该目标对象的任何方面。在一些实施例中,小面可以包括一个平面的表面和/或与该目标对象相关联的线。在一些实施例中,小面可以包括目标对象的平坦面,其中该目标对象具有几何形状和多个小面。此外,在一些实施例中,可以将小面定义为目标对象的一部分。此外,在一些实施例中,目标对象可以包括多个小面。在一些实施例中,目标对象可以采取各种形状。在一些实施例中,目标对象可以具有一个或多个小面和/或三角形状的侧面。在一些实施例中,目标对象可以是三维(3D)的。在一些实施例中,对于作为球体的3D目标对象来说,可以使用一组小面来表示该球体的一部分,该部分可以用于表示该3D目标对象的一部分,但在该3D目标对象的侧面中的一个或多个上具有至少一个三角形。在一些实施例中,对于作为球体的目标对象来说,小面可以是该球体的一部分,该部分可以包括该目标对象的球面的一部分,但在该三维球面的侧面中的一个或多个上具有至少一个三角形。在一些实施例中,该目标对象可以是二维的(例如,3D目标对象在一个平面上的投影)。
在步骤102,获得DHM姿势信息。在步骤104中,获得目标对象信息。在步骤106中,获得头部-目标(HT)信息(关于DHM的头部和目标对象之间的距离的信息)。在步骤108中,基于在步骤102、104和106获得的DHM姿势、目标对象和头部-目标距离的信息集合,生成视觉测量值。在步骤110中,基于步骤108的视觉测量值,生成视觉约束。在步骤112中,基于在步骤110所获得的视觉约束,生成更新的姿势。
换言之,在一些实施例中,方法1000获得与原始DHM姿势相关联的信息(102)。所获得的DHM姿势信息可以包括DHM的头部的位置。在一些实施例中,方法1000获得与目标对象相关联的信息(104)。所获得的目标对象信息可以包括目标对象的大小(即,上面提及的第一方面,或者目标大小,其还称为下面的“b”)和目标对象的方位(即,上面提及的第二方面,或者目标方位,其还称为下面的向量)。在一些实施例中,方法1000获得从DHM的头部到目标对象的距离(即,HT距离)(106)。在一些实施例中,方法1000生成DHM正在视觉上瞄准的目标对象的DHM的视觉测量(即,视觉测量值)(108)。方法1000基于一个或多个参数,生成该视觉测量,其中所述一个或多个参数可以包括所获得的DHM姿势信息、所获得的目标对象信息和所获得的头部-目标(HT)距离中的任何信息。基于该视觉测量108,方法1000生成DHM针对目标对象的视觉约束(即,视觉约束量)(110)。基于该视觉约束110,方法1000生成更新的DHM姿势(112)。
在一些实施例中,目标对象的大小可以包括目标对象的小面的大小。在一些实施例中,目标对象的方位可以包括目标对象的小面的方位。在一些实施例中,所述一个或多个参数可以包括:目标对象的小面表面的法线与一个向量表示之间的角度。在一些实施例中,所述一个或多个参数可以包括:目标对象的小面的法线与一个向量表示之间的角度。该向量表示可以具有所获得头部-目标(HT)距离的幅度和从DHM的头部到目标对象的方向。在一些实施例中,目标对象的方位可以包括与目标对象的小面垂直的法线向量。
在一些实施例中,方法1000还基于精度水平(上面提及的第三方面,其还称为“PL”)来生成视觉约束110,其中精度水平表示DHM执行与目标对象相关联的任务所需要的精度的水平。在一些实施例中,该视觉约束可以表示下面中的至少一个:DHM到目标对象的逼近性的测量值和DHM执行与目标对象相关联的任务的能力。在一些实施例中,方法1000基于下面中的至少一个来生成更新的DHM姿势:DHM到目标对象的逼近性的测量值和DHM执行与目标对象相关联的任务的能力。
在一些实施例中,视觉约束110可以是基于视觉测量的对数来生成的。在一些实施例中,与DHM使用原始DHM姿势来执行与目标对象相关联的任务的能力相比,更新的DHM姿势可以提供DHM执行与目标对象相关联的任务的增加的能力。
在一些实施例中,方法1000还生成(112)三维视觉空间,其中该三维视觉空间提供DHM执行与目标对象相关联的任务的能力的指示。在一些实施例中,方法1000还基于逆运动学引擎、视觉约束和DHM的自由度中的任何一个来生成(112)更新的DHM姿势。在一些实施例中,逆运动学引擎可以接收视觉约束并且确定DHM的自由度。在一些实施例中,所获得的头部-目标(HT)距离可以是基于来自反射标志的DHM的头部和目标对象的测量值来获得的。
根据一些实施例,所述视觉约束可以是智能姿势引擎的一部分,该智能姿势引擎依赖于基于非线性优化的IK引擎。一些实施例求解下面的优化问题:
式1:minx f(x)such as c(x)≤0
式2:c(x)=PL-LogVA(x)
其中,在式1中,f(x)是最小化的问题(即,优化问题),‘x’可以包括人体模型的自由度(DOF),在式2中,c(x)可以表示包括期望的精度水平(PL)的视觉约束。根据一些实施例,可以将式2的LogVA(x)视作为LogVA(不具有‘x’分量)或者Log(VA)。‘x’分量可以包括DHM头部(H)信息。
根据一些实施例,可以使用实验所获得的两个精度水平(PL)(分别为高精度水平和低精度水平),利用该视觉约束(LvyγA(x)或者LvyVA)来预测DHM的头部-目标(HT)距离。在现有的方法中,可以使用最小角度分辨率(MAR)(即,一个字符笔画宽度所对应的角度)的Log10来测量视力(例如,参见Bailey等),其还称为“LogMAR”。“LogMAR”是基于固定的和/或预先规定的HT距离(即,6m)和方位(垂直于图表的LOS)。
一些实施例包括名为“LogVA”(视觉角度的Log10)的视觉测量,其可以扩展用于大小的目标的LogMAR,该目标的小面法线可以形成与HT向量的角度δ≠0,如图3中所示。在一些实施例中,可以使用非线性求解与上面所提及的式1和式2的优化问题来实现LogVA。
视觉非线性约束c(x)是任务的期望精度水平(PL)和LogVA的实际值之间的差值。比0更高的视觉约束意味着DHM的头部与目标太远,以至于不能清楚地看到它和适当地完成任务(即,位于下面的图4中所示出的视觉空间410之外)。根据一些实施例,比0更低或者等于0的视觉约束指示头部位于与目标对象的可接受距离处(或者更近),从而能完成任务(即,位于视觉空间410的表面和/或其之内)。换言之,根据一些实施例,比0更低或者等于0的视觉约束指示头部足够靠近目标对象,从而能完成该任务。
图2根据一些实施例,示出了包括输入和输出的方法1000的流程图。如图2的流程图中所另外示出的,可以将视觉约束230嵌入在智能姿势引擎200中。如图2中所进一步示出的,一些实施例可以包括方法1000,该方法相对于目标对象(或者视觉目标)212,提高数字人体模型(DHM)或者视觉人体模型206的原始姿势的计算机仿真的准确性。
如图2中所示,引擎200的一些实施例接收输入信息240(其包括但不限于元素202、204和206)。输入信息240可以包括具有相应的精度水平(PL)210和视觉目标(212)的一个或多个任务输入202、具有视觉目标信息214的一个或多个三维计算机辅助设计(3D CAD)环境204、以及具有关于自由度(DOF)的相应头部位置信息216的一个或多个虚拟人体模型206。
如图2中所示,引擎200的一些实施例可以包括处理250(其包括但不限于元素220、224和228)。在一些实施例中,可以对处理250进行预先规定。处理250可以包括视觉角度计算220(其输出视觉角度VA 222)、Log10计算224(其输出Log(VA)226)和非线性约束计算228(其输出视觉约束c(x)230)。可以基于PL(元素210)和Log(VA)(元素226)的输入,根据上面的式2来输出元素230(c(x))。还如图2中所示,引擎200的一些实施例输出信息260。根据一些实施例,输出信息260可以包括针对视觉不等式约束(元素232)的约束c(x)(元素230),其中该约束可以发送给智能姿势引擎解算器234。
如图2到图3中所示,根据一些实施例,可以使用两个或更多不同来源的信息(例如,视觉目标信息214和/或头部位置216),来获得视觉角度(VA)222。根据一些实施例,可以基于视觉目标信息214和/或头部位置216,在视觉角度计算模块220中,计算人体模型206的头部302(其具有相应的头部位置216)和目标对象212之间的距离和/或头部-目标(HT)距离。
如图3中所示,在一些实施例中,目标对象的大小320可以包括目标对象212的小面的大小320。根据一些实施例,目标对象的小面可以通过3D CAD环境204和/或通过视觉角度计算模块220来选择。在一些实施例中,目标对象212的方位可以包括小面法线334,其指示目标对象212的所选定小面的方位。在一些实施例中,所述一个或多个参数可以包括目标对象212的小面法线334和向量表示330之间的角度332。该向量表示330可以具有所获得的HT距离的幅度和从DHM的头部302到目标对象212的方向。
如图2到图3中所示,在视觉角度计算模块220中,可以将DHM头部302的位置216与视觉目标信息214进行组合以生成HT向量330,其中HT向量330可以包括虚拟人体模型206的头部位置216关于目标对象212的状况。可以通过人体模型的根、脊柱和/或颈部自由度(DOF)来控制头部位置216。
参见图2,视觉目标信息214可以来自于人体模型206周围的3D CAD环境204。
如图2到图3中所进一步示出的,随后,处理250(和/或CAD环境204)中的一个或多个可以生成透视图投影350,透视图投影350可以提供用于规定视觉目标212的边界以及其小面法线334的方向的信息,如人体模型206的眼睛所感知的。透视图投影350可以包括小面法线334,后者位于透视图投影350平面中,并与目标对象212的该小面相垂直(即,处于90度角度,元素336)。根据一些实施例,可以将小面法线334视作为与该小面垂直的单位向量(即,线元素320),小面法线334可以位于透视图投影350平面中。
可以使用诸如凸壳(convex hull)或者阿尔法形状(alpha shape)之类的方法来简化目标对象212。可以使用从人体模型206的眼睛之间的点到简化的形状的每一个节点的一系列向量,来估计对着一个或多个平面视觉角度的锥形。可以使用这些视觉角度222,利用以10为底的对数运算(Log10,元素224)来计算LogVA(元素226)。此外,为了观看目标对象212,视觉约束c(x)(元素230)还可以确保:目标对象的小面或者线b 320和逆归一化HT向量330之间的角度332在±90°的间隔之内。此外,根据一些实施例,为了观看目标对象212,视觉约束c(x)(元素230)的一部分318也可以确保:目标对象的小面或者线b 320和逆归一化HT向量330之间的角度332在±90°的区间之内。
如图2中所示,用户可以向姿势引擎200的解算器234提供该任务的精度水平(PL)210。根据一些实施例,可以计算在执行需要不同程度的精度(即,低PL对比高PL)的各种任务时,人体所采用的HT距离,通过实验来获得相关的PL值。随后,可以根据与任务有关的对象大小(例如,5mm计算机字符、1.5mm线路板孔洞)和通过多次实验所测量的HT距离的平均测量值,来容易地从计算单元220中推导视觉角度222。根据一些实施例,每一个PL所对向的VA的Log10(元素224)可以替换上面的式2中的PL参数。在一些实施例中,基于DHM所执行的任务,每一个PL所对向的VA的Log10(元素224)可以替换上面的式2中的PL参数
如果用户有意选择使用视觉约束,则姿势引擎200的IK解算器234可以使用视觉约束。在该情况下,姿势引擎200可以激励DHM 206的头部执行器(即,位于DHM 206的头部并可以操纵DHM 206的头部的末端执行器),随后,姿势引擎200可以被配置为将视觉约束230包括在所求解问题中。根据一些实施例,末端执行器可以包括DHM 206的设备和/或终端段,其包括但不限于:DHM 206的头、手和/或脚。根据一些实施例,末端执行器可以通过姿势引擎200来与虚拟环境204进行交互,其中姿势引擎200可以基于本文所描述的方法1000来操纵、移动和/或重定位DHM 206。
在内部,姿势引擎200所使用的非线性解算器包括位于两个不同程度的约束。首先,该非线性解算器验证是否满足和保持视觉约束(即,c(x)<=0)。其后,使用相关联的约束梯度(这些约束关于人体模型关节DOF的偏导)来确定在解算空间中的搜索方向。最终,当发现最优解时,姿势引擎200将其分配给人体模型的DOF。随后,根据一些实施例,对所获得的最终姿势下的人体模型进行渲染,并向用户进行显示。相比而言,现有的技术(即,视线角度和LogMAR)并不考虑可变的目标对象尺寸,以及任务的精度水平(PL),因此不能用于调整HT距离以使得可以清楚地显示(例如,观看)目标对象和/或使得DHM可以完成任务。
参见图1,在步骤108,根据一些实施例,通过还称为“LogVA”(即,视觉角度的Log10)的方法1000来生成视觉测量值(即,视觉测量),其中,LogVA可以是考虑各种目标对象尺寸(即,一个或多个小面大小和/或方位)和各种任务精度水平下的LogMAR的推广。根据一些实施例,使用分别与图3元素310、312、314、316和318相对应的下面公式3.1、3.2、3.3、3.4和3.5,在图1的步骤108中,计算LogVA。但是,实施例并不受此限制,一些实施例可以使用其它公式来计算LogVA。
式3.1(310):LogVA=log10(β)
式3.2(312):
式3.3(314):
式3.4(316):
式3.5(318):
根据一些实施例,方法1000使用透视图投影350来获得视觉测量值310,如图3中所示。因此,一些实施例可以包括名为“LogVA”(即,视觉角度的Log10)310的视觉测量,其中视觉测量可以针对于长度(大小)(元素320)的目标对象(该目标的中心是T,元素212)来扩展LogMAR,其中该目标对象的小面法线或者元素334可以形成与“头部-目标”向量或者元素330的角度δ≠0(元素332)。
换言之,图3示出了从DHM的头部或者H(元素302)到目标对象T的中心(元素212)的向量,其还称为“头部-目标”向量或者元素330。目标对象(其包括但不限于:目标对象的给定小面)可以具有的大小(长度)(元素320),其中A(元素306)和C(元素308)可以表示该大小b 320的端点。如图3中所示,长度c(元素322)和a(元素324)分别是从H(元素302)到元素A(306)和C(308)的距离。此外,图3中还示出了c(元素322)和b(元素320)之间的角度α(元素340),以及a(元素324)和b(元素320)之间的角度γ(元素342)。
如图3和式3.1(元素310)中所示,可以通过求解β(元素326)或者点A(无线306)、点H(元素302)和点C(元素308)之间的角度的log10,来计算视觉测量值310或者LogVA。如图3和式3.2(元素312)中所进一步示出的,可以基于a(元素324)、b(元素320)和c(元素322)来计算β(元素326)。如式3.3和3.4(分别为元素314和316)中所进一步示出的,可以基于头部-目标(元素330)、b(元素320)和δ(元素332)来计算元素c(322)和a(324)。如式3.5(元素318)中所示出的,可以将角度δ(元素332)确定成小面法线向量(元素334)和除以其范数的逆头部-目标向量(元素330)之间的角度。可以将小面法线(元素334)确定成与b(元素320)具有90度的角度(元素336)的法线,小面法线(元素334)位于目标对象T的中心(元素212)。目标对象T的中心(元素212)和端点C(元素308)之间的距离344可以等于距离(元素320)的一半。
一些实施例可以计算视觉角度(即,MAR的等同物,但针对于一个或多个各种目标对象小面大小和/或方位)并且调整“头部-目标”向量,以使得视觉角度的Log10对应于(例如,其可以低于或者等于)预先规定的值(精度水平或者PL,如下所述)。可以根据小面法线334来计算视觉角度222,其中,小面法线334可以是与目标对象T(元素212)的一个选定小面中的线(元素320)相垂直(例如,处于90度角度,元素336),同时还考虑该小面的方位。
在一些实施例中,任务的精度水平(PL)(即,高精度水平或低精度水平)可以指示可接受的要切实履行的LogVA(元素310)值。如图4(统称地,图4A到图4C)中所示,一些实施例在使用视觉约束的同时,分析逆运动学(IK)引擎所预测的姿势,并且将该姿势与不使用视觉约束时获得的姿势进行比较。如图4A到图4C中所示,任务可以包括在模拟钻孔任务时,使用前述的IK引擎来定位DHM(例如,虚拟人体模型或者人体模型206)。根据一些实施例,方法1000在假定完美视觉(LogMAR=0)的情况下,使用高精度水平(HPL)值(图4C)和低精度水平(LPL)值(图4B)来结合用于人体模型206的IK算法进行使用。这允许在钻孔任务期间,对于PL对人体模型的“头部-目标”距离408的影响进行评估。对于图4A到图4C中所示出的钻孔任务而言,人体模型206可以使用钻头418,利用钻夹具406来钻孔416。
钻头418可以处于人体模型的左手412中,并且与握持在人体模型的右手414中的指导夹具406的孔对齐。视觉目标可以是夹具孔洞416(目标对象大小=1.5mm),并且其小面法线平行于该孔轴线。在图4A-C中分别示出了三种情形。首先,在图4A中不应用视觉约束。接着,在使用两种不同的PL的情况下,应用视觉约束:图4C中的高PL(HPL)和图4B中的低PL(LPL)值。
此外,还计算了源自于应用了该HPL和LPL的可接受视觉空间410。根据一些实施例,假定人体模型的头部404直接看着目标对象(图4A到图4C的钻孔416),这些视觉空间410的内部可以提供允许在该给定的PL下,履行LogVA视觉约束的范围。根据一些实施例,该可接受视觉空间410可以是三维的,并且其可以提供DHM执行与该目标对象相关联的任务的能力的指示。
根据一些实施例,可以基于LogVA和称为被禁止空间420的另外空间,来生成该可接受视觉空间410。如图4B到图4C中所示,根据一些实施例,可以基于DHM 206和/或相应的人体的眼睛的调节近点(punctum proximum)(例如,近点,如本领域普通技术人员所知道的),来生成被禁止空间420。根据一些实施例,如图4B中所示,被禁止空间420(其可以从视觉目标位置416近似地或者准确地扩展到DHM 206的左手412)是个半球(其可以具有图4B中的250mm的直径和/或平均直径,或者根据背景而具有不同的值)。在一些实施例中,被禁止空间420的球体中心可以位于视觉目标位置416处。
根据一些实施例,可以基于LogVA来计算视觉空间。如图4B到图4C中所示出的,在一些实施例中,可接受视觉空间410可以采用球体和/或椭圆体的形式和/或可以采用类似于球体和/或椭圆体的形式(其可以包括但不限于:半球体和/或半椭圆体),但去除被禁止空间420。当从全部的和/或一半的椭圆体和/或全部的和/或一半的球体中减去被禁止空间420时(图4B-C中没有显式地示出),获得可接受视觉空间410。
在一些实施例中,通过图4(图4A到图4C)所获得的HPL值是1.18(±0.06),而LPL值是0.78(±0.01)。可以将这些值替代到式2中的PL,以便连同使用无视觉约束来预测钻孔任务姿势。针对不具有视觉约束的HT距离408(在图4A中,56.3cm的HT距离408)和LPL约束的HT距离408(在图4B中,52.3cm的HT距离408),获得类似量级的幅度。但是,该HT距离408小于HPL约束时的一半(在图4C中,23.8cm的HT距离408)。图4A到图4C示出了:增加视觉约束(该视觉约束考虑任务的PL)影响HT距离408(即,HT向量的范数)。在图4B到图4C中,将HPL和LPL任务对应的可接受视觉空间410示出成轴对称网格。
在另一个实验中(附图中没有示出),在具有完美视觉(LogMAR=0)的单一主题上进行的实验中,对两个PL值进行评估。在高精度水平(HPL)任务期间,DHM(例如,人体模型或者主题)小心地将电阻插入到线路板中。在低精度水平(LPL)任务期间,DHM观看他前面的计算机屏幕,计算包含随机模式的3种不同形状(分别为正方形、圆形、Pac-Man,或者■,●,)的线上的Pac-Man形状(5mm宽度)的数量。因此,根据一些实施例,可以使用具有反射标志(VICON INC、Oxford、UK)的运动分析系统,来获得头部-目标(HT)距离,以便推导PL值。
图5示出了可以在其中实现本公开内容的实施例的计算机网络或者类似的数字处理环境。
客户端计算机/设备50和服务器计算机60提供执行应用程序等等的处理、存储和输入/输出设备。客户端计算机/设备50还可以通过通信网络70,来连接到包括其它客户端设备/处理器50和服务器计算机60的其它计算设备。通信网络70可以是远程接入网络、全球网络(例如,互联网)、计算机的世界范围集合、局域网或广域网和网关的一部分,其中网关同时地使用相应的协议(TCP/IP、蓝牙TM等等)来彼此之间进行通信。其它电子设备/计算机网络体系结构也是适用的。
客户端计算机/设备50可以配置有根据一些实施例的姿势引擎。服务器计算机60可以被配置成姿势引擎,其与客户端设备50进行通信以访问该姿势引擎。服务器计算机60可以是单独的服务器计算机或者云网络70的一部分。在一些实施例中,服务器计算机60(例如,姿势引擎)可以与一个或多个计算机应用进行通信。
服务器计算机60可以包括配置为获得与原始DHM姿势相关联的信息的数据引擎(作为一部分或者通信耦合到姿势引擎)。所获得的DHM姿势信息可以包括DHM的头部的位置。服务器计算机60还可以包括配置为获得与目标对象相关联的信息的数据引擎(作为一部分或者通信耦合到姿势引擎)。所获得的目标对象信息可以包括目标对象的大小和目标对象的方位。该数据引擎可以被配置为获得从DHM的头部到目标对象的距离。
此外,服务器计算机60还可以包括处理引擎(作为一部分或者通信耦合到姿势引擎),该处理引擎被配置为基于一个或多个参数(其包括所获得的DHM姿势信息、所获得的目标对象信息和所获得的HT距离中的任何一个),生成DHM正在视觉上瞄准的目标对象的DHM的视觉测量值。该处理引擎可以被配置为基于视觉的该测量值、DHM相对于目标对象的视觉的约束。姿势引擎可以被配置为基于该视觉约束,生成更新的DHM姿势。
此外,服务器计算机60还可以包括逆运动学引擎(作为一部分或者通信耦合到姿势引擎)。更新的DHM姿势还可以是基于逆运动学引擎、视觉约束和DHM的自由度来生成的。逆运动学引擎可以接收该视觉约束,确定该DHM的自由度。数据引擎可以获取信息,将所获取的信息的至少一部分转发给姿势引擎、处理引擎或者逆运动学引擎中的任何一个。
客户端50可以从服务器60接收来自姿势引擎、逆运动学引擎、处理引擎或者数据引擎的信息的至少一部分。在一些实施例中,客户端50可以包括在客户端50上执行的客户端应用或者组件,以监测DHM姿势和获取与DHM姿势相关联的信息,以有助于DHM姿势的更新和预测,客户端50可以将该信息传输给服务器(例如,分析引擎)60。
图6是图5的计算机系统中的计算机(例如,客户端处理器/设备50或服务器计算机60)的示例性内部结构的图。每一个计算机50、60都包含系统总线79,其中总线是用于计算机或处理系统的部件之间的数据传输的一组硬件线。系统总线79在本质上是连接计算机系统的不同元素(例如,处理器、磁盘存储器、存储器、输入/输出端口、网络端口等等)而且能够在各个元素之间传输信息的共享导线。I/O设备接口82连接到系统总线79,以便将各种输入和输出设备(例如,键盘、鼠标、显示器、打印机、扬声器等等)连接到计算机50、60。网络接口86使计算机能够连接到附连到网络(例如,图5的网络70)的各种其它设备。存储器90为用于实现本公开内容的实施例(例如,本文所描述的逆运动学引擎、数据引擎、处理引擎和姿势引擎中的任何一个)的计算机软件指令92和数据94,提供易失性存储。磁盘存储器95为用于实现本公开内容的实施例的计算机软件指令92和数据94,提供非易失性存储。应当注意,在客户端50和服务器60之间,数据94可以是相同的,但是,计算机软件指令92的类型可以在客户端50和服务器60之间不同。中央处理器单元84也连接到系统总线79,并提供计算机指令的执行。在一个实施例中,处理器例程92和数据94是计算机程序产品(通常引用为92),其包括为本发明的系统提供软件指令的至少一部分的计算机可读介质(例如,诸如一个或多个DVD-ROM、CD-ROM、磁盘、磁带等等之类的移动存储介质)。可以通过任何适当的软件安装过程来安装计算机程序产品92,如本领域所公知的。在另一个实施例中,还可以通过电缆、通信和/或无线连接来下载这些软件指令的至少一部分。在其它实施例中,本发明的程序是体现在传播介质上的传播信号(例如,在诸如互联网之类的全球网络或其它网络上传播的无线电波、红外波、激光波、声波或者电波)上的计算机程序传播信号产品107(图5中所示出的)。
本发明的实施例或者方面可以利用硬件(其包括但不限于硬件电路)、固件或者软件的形式来实现。当使用软件实现时,可以将软件存储在任何非临时性计算机可读介质上,其中该非临时性计算机可读介质被配置为使处理器能够装载该软件或者其指令的一些子集。随后,处理器执行这些指令,并被配置为以本文所描述的方式来进行操作或者使装置进行操作。
相对于LogMAR和视线角度的现有方法,包括LogVA的实施例的至少一个优点是:LogVA允许同时地调整头部-目标(HT)距离和方位,以便根据目标对象尺寸来尊重预先规定的任务精度水平(PL)。根据一些实施例,如果用户在聚焦或者精度水平之下修改目标对象,则可以计算新的LogVA,通过逆运动学(IK)解算器来自动地重新调整DHM人体姿势。
一些实施例的另一种优点是,在具有最小用户干预或者不具有用户干预的情况下,它们更可能提供可能的(现实的)数字人体模型姿势。一些实施例可以结合用于提供三维(3D)虚拟人体工程学解决方案的算法来使用。因此,一些实施例特别是有益的,这是由于虚拟人体工程学用户可能花费太多的时间和精力来确定DHM的姿势(其不幸地导致不可能(不现实)的姿势),而这可以通过一些实施例来校正和/或部分地解决。
一些实施例可以通过基于上面所提及的操作来更新DHM,对一个或多个DHM的行为和/或数据进行转换。一些实施例可以对一个或多个数字人体模型(DHM)的行为和/或数据进行转换,以提供基于视觉约束来修改的一个或多个更新的DHM,其可以基于一个或多个参数来进行转换,其中所述一个或多个参数可以包括所获得的DHM姿势信息、所获得的目标对象信息和所获得的头部-目标(HT)距离。
一些实施例可以通过提高数字人体模型(DHM)相对于目标对象的姿势的计算机仿真准确性来提供功能改进。此外,一些实施例还可以通过在具有最小用户干预或者不具有用户干预的情况下,提供可能的(现实的)数字人体模型姿势,来提供针对于计算机、计算机应用、计算机程序功能和/或计算机代码的质量的功能改进。
一些实施例通过提高数字人体模型(DHM)相对于目标对象的姿势的计算机仿真准确性,来解决技术问题(从而提供技术效果)。一些实施例通过在具有最小用户干预或者不具有用户干预的情况下,提供可能的(现实的)数字人体模型姿势,来解决技术问题(从而提供技术效果)。
此外,本文将硬件、固件、软件、例行程序或者指令描述成执行数据处理器的某些动作和/或功能。但是,应当理解的是,本文所包含的这些描述只是为了方便起见,事实上这些动作源自于计算设备、处理器、控制器或者执行该固件、软件、例行程序、指令等等的其它设备。
应当理解的是,流程图、框图和网络图可以包括更多或更少的元素、可以按不同方式排列、或者可以按不同方式表示。此外,还应当理解的是,某些实现可以指定框图和网络图,以及以特定的方式来示出实现这些实施例的执行的框图和网络图的数目。
因此,另外的实施例还可以用各种各样的计算机架构、物理计算机、虚拟计算机、云计算机和/或其某种组合来实现,因此,本文所描述的数据处理器旨在用于举例目的,而不是限制这些实施例。
虽然已经参考本发明的示例性实施例具体地显示和描述了本发明,但本领域普通技术人员应当理解,可以在其中进行形式和细节方面的多种改变,而不脱离由所附权利要求书涵盖的本发明的保护范围。

Claims (20)

1.一种用于提高数字人体模型(DHM)相对于目标对象的原始姿势的计算机仿真准确性的计算机实现的方法,所述方法包括:
获得与所述原始DHM姿势相关联的信息,所述获得的DHM姿势信息包括所述DHM的头部的位置;
获得与所述目标对象相关联的信息,所述获得的目标对象信息包括所述目标对象的大小和所述目标对象的方位;
获得从所述DHM的所述头部到所述目标对象的距离;
基于一个或多个参数来生成所述DHM正在视觉上针对的所述目标对象的所述DHM的视觉测量,其中所述一个或多个参数包括所述获得的DHM姿势信息、所述获得的目标对象信息、以及所述获得的头部-目标(HT)距离;
基于所述视觉测量来生成所述DHM针对于所述目标对象的视觉的约束;以及
基于所述视觉约束来生成更新的DHM姿势。
2.根据权利要求1所述的方法,其中,所述目标对象的所述大小包括所述目标对象的小面的大小,并且所述目标对象的所述方位包括所述目标对象的所述小面的方位。
3.根据权利要求1所述的方法,其中,所述一个或多个参数包括所述目标对象的小面的表面的法线和一个向量表示之间的角度,其中所述向量表示具有所述获得的HT距离的幅度和从所述DHM的所述头部到所述目标对象的方向。
4.根据权利要求1所述的方法,其中,所述目标对象的所述方位包括与所述目标对象的小面垂直的向量。
5.根据权利要求1所述的方法,其中,所述视觉约束是进一步基于精度水平来生成的,其中所述精度水平表示所述DHM执行与所述目标对象相关联的任务所需要的精度的水平。
6.根据权利要求1所述的方法,其中,所述视觉约束表示下面中的至少一个:所述DHM到所述目标对象的逼近性的测量值和所述DHM执行与所述目标对象相关联的任务的能力,并且所述更新的DHM姿势是基于下面中的至少一个来生成的:所述DHM到所述目标对象的逼近性的所述测量值和所述DHM执行与所述目标对象相关联的任务的所述能力。
7.根据权利要求1所述的方法,其中,所述视觉约束是基于所述视觉测量的对数来生成的。
8.根据权利要求1所述的方法,其中,与所述DHM使用所述原始DHM姿势来执行与所述目标对象相关联的所述任务的能力相比,所述更新的DHM姿势提供所述DHM执行与所述目标对象相关联的任务的增加的能力。
9.根据权利要求1所述的方法,还包括:
生成三维视觉空间,其中所述三维视觉空间提供对所述DHM执行与所述目标对象相关联的任务的能力的指示。
10.根据权利要求1所述的方法,其中,所述更新的DHM姿势是进一步基于逆运动学引擎、所述视觉约束、以及所述DHM的自由度来生成的,所述逆运动学引擎接收所述视觉约束并且确定所述DHM的所述自由度。
11.根据权利要求1所述的方法,其中,所述获得的HT距离是基于来自反射标志的所述DHM的所述头部和所述目标对象的测量值来获得的。
12.一种用于提高数字人体模型(DHM)相对于目标对象的姿势的计算机仿真准确性的计算机系统,所述系统包括:
数据引擎,其配置为获得与原始DHM姿势相关联的信息,所述获得的DHM姿势信息包括所述DHM的头部的位置;
所述数据引擎被配置为获得与所述目标对象相关联的信息,所述获得的目标对象信息包括所述目标对象的大小和所述目标对象的方位;
所述数据引擎被配置为获得从所述DHM的所述头部到所述目标对象的距离;
处理引擎,其配置为基于一个或多个参数来生成所述DHM正在视觉上针对的所述目标对象的所述DHM的视觉测量,其中所述一个或多个参数包括所述获得的DHM姿势信息、所述获得的目标对象信息、以及所述获得的头部-目标(HT)距离;
所述处理引擎被配置为基于所述视觉测量来生成所述DHM针对于所述目标对象的视觉的约束;以及
姿势引擎,其配置为基于所述视觉约束来生成更新的DHM姿势。
13.根据权利要求12所述的系统,其中,所述目标对象的所述大小包括所述目标对象的小面的大小,并且所述目标对象的所述方位包括所述目标对象的所述小面的方位,并且所述目标对象的所述方位包括与所述目标对象的小面垂直的向量。
14.根据权利要求12所述的系统,其中,所述一个或多个参数包括所述目标对象的小面的表面的法线和一个向量表示之间的角度,其中所述向量表示具有所述获得的HT距离的幅度和从所述DHM的所述头部到所述目标对象的方向。
15.根据权利要求12所述的系统,其中,所述处理引擎还被配置为基于精度水平来生成所述视觉约束,其中所述精度水平表示所述DHM执行与所述目标对象相关联的任务所需要的精度的水平。
16.根据权利要求12所述的系统,其中,所述处理引擎被配置为将所述视觉约束表示成下面中的至少一个:所述DHM到所述目标对象的逼近性的测量值和所述DHM执行与所述目标对象相关联的任务的能力,并且所述姿势引擎还被配置为基于下面中的至少一个来生成所述更新的DHM姿势:所述DHM到所述目标对象的逼近性的所述测量值和所述DHM执行与所述目标对象相关联的任务的所述能力。
17.根据权利要求12所述的系统,其中,所述处理引擎还被配置为基于所述视觉测量的对数来生成所述视觉约束。
18.根据权利要求12所述的系统,其中,所述姿势引擎还被配置为提供所述更新的DHM姿势,其中,与所述DHM使用所述原始DHM姿势来执行与所述目标对象相关联的所述任务的能力相比,所述更新的DHM姿势包括所述DHM执行与所述目标对象相关联的任务的增加的能力。
19.根据权利要求12所述的系统,其中,所述姿势引擎还被配置为生成三维视觉空间,其中所述三维视觉空间提供所述DHM执行与所述目标对象相关联的任务的能力的指示。
20.一种存储有指令序列的非临时性计算机可读介质,其中,当耦合到一个装置的处理器装载和执行所述指令序列时,使得所述装置执行以下操作:
获得与原始数字人体模型(DHM)姿势相关联的信息,其中,所述获得的DHM姿势信息包括所述DHM的头部的位置;
获得与所述目标对象相关联的信息,所述获得的目标对象信息包括所述目标对象的大小和所述目标对象的方位;
获得从所述DHM的所述头部到所述目标对象的距离;
基于一个或多个参数来生成所述DHM正在视觉上针对的所述目标对象的所述DHM的视觉测量,其中所述一个或多个参数包括所述获得的DHM姿势信息、所述获得的目标对象信息、以及所述获得的头部-目标(HT)距离;
基于所述视觉测量来生成所述DHM针对于所述目标对象的视觉的约束;以及
基于所述视觉约束来生成更新的DHM姿势。
CN201610718610.4A 2015-08-25 2016-08-24 用于数字人体模型的视觉测量的方法和系统 Active CN106485748B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/834,612 2015-08-25
US14/834,612 US10860752B2 (en) 2015-08-25 2015-08-25 Method and system for vision measure for digital human models

Publications (2)

Publication Number Publication Date
CN106485748A true CN106485748A (zh) 2017-03-08
CN106485748B CN106485748B (zh) 2022-06-10

Family

ID=57017944

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610718610.4A Active CN106485748B (zh) 2015-08-25 2016-08-24 用于数字人体模型的视觉测量的方法和系统

Country Status (4)

Country Link
US (1) US10860752B2 (zh)
EP (1) EP3136346B1 (zh)
JP (1) JP6771995B2 (zh)
CN (1) CN106485748B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110709789A (zh) * 2017-04-10 2020-01-17 Abb瑞士股份有限公司 用于监测可再生发电装置或微电网内的子系统的状况的方法和设备
CN113379903A (zh) * 2021-06-30 2021-09-10 北京爱奇艺科技有限公司 数据的迁移方法及装置、电子设备、可读存储介质
CN114330545A (zh) * 2021-12-28 2022-04-12 花脸数字技术(杭州)有限公司 一种基于ik算法的数字人动态捕捉分析系统

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858391B2 (en) * 2014-04-17 2018-01-02 The Boeing Company Method and system for tuning a musculoskeletal model
US10621384B2 (en) 2015-12-09 2020-04-14 Dassault Systemes Americas Corp. Method and system of constraint-based optimization of digital human upper limb models
US11062520B2 (en) * 2019-09-09 2021-07-13 Ford Global Technologies, Llc Ergonomic assessment using a wearable device
CN112379812B (zh) * 2021-01-07 2021-04-23 深圳追一科技有限公司 仿真3d数字人交互方法、装置、电子设备及存储介质
US20230021942A1 (en) * 2021-07-14 2023-01-26 Dassault Systèmes Americas Corp. Environment-aware Prepositioning Of Digital Models In An Environment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1438852A (zh) * 2000-06-28 2003-08-27 爱视有限责任公司 视力测试系统
US20140280676A1 (en) * 2013-03-12 2014-09-18 The Government Of The United States Of America, As Represented By The Secretary Of The Navy System and method for interactive spatio-temporal streaming data
CN104298353A (zh) * 2014-10-08 2015-01-21 宁波熵联信息技术有限公司 一种基于逆运动学的车辆监控防盗方法及系统
CN104648266A (zh) * 2013-11-18 2015-05-27 源捷公司 同步显示器系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3391648B2 (ja) 1997-02-27 2003-03-31 富士通株式会社 機器操作性評価支援装置
JP3413383B2 (ja) * 2000-02-17 2003-06-03 株式会社ナムコ ゲームシステム及び情報記憶媒体
US7333111B2 (en) 2003-04-25 2008-02-19 Honda Giken Kogyo Kabushiki Kaisha Joint component framework for modeling complex joint behavior
US7259764B2 (en) 2003-05-14 2007-08-21 Pixar Defrobulated angles for character joint representation
US20100030532A1 (en) 2008-06-12 2010-02-04 Jasbir Arora System and methods for digital human model prediction and simulation
EP2401722B1 (en) * 2009-02-24 2015-08-12 Bell Helicopter Textron Inc. System and method for mapping two-dimensional image data to a three-dimensional faceted model
US20120276509A1 (en) 2010-10-29 2012-11-01 The Cleveland Clinic Foundation System of preoperative planning and provision of patient-specific surgical aids
DK2796249T3 (en) 2011-09-28 2016-03-07 Universal Robots As Programming robots
JP5833998B2 (ja) 2012-11-21 2015-12-16 株式会社日立製作所 組立作業性評価計算装置、および組立作業性評価方法
US20140287389A1 (en) 2013-03-14 2014-09-25 The Regents Of The University Of California Systems and methods for real-time adaptive therapy and rehabilitation
US10621384B2 (en) 2015-12-09 2020-04-14 Dassault Systemes Americas Corp. Method and system of constraint-based optimization of digital human upper limb models

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1438852A (zh) * 2000-06-28 2003-08-27 爱视有限责任公司 视力测试系统
US20140280676A1 (en) * 2013-03-12 2014-09-18 The Government Of The United States Of America, As Represented By The Secretary Of The Navy System and method for interactive spatio-temporal streaming data
CN104648266A (zh) * 2013-11-18 2015-05-27 源捷公司 同步显示器系统
CN104298353A (zh) * 2014-10-08 2015-01-21 宁波熵联信息技术有限公司 一种基于逆运动学的车辆监控防盗方法及系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
BEHDAD MASIH-TEHRANI 等: "Kinematic modeling and analysis of the human workspace for", 《INTERNATIONAL JOURNAL OF INDUSTRIAL ERGONOMICS》 *
IAN L. BAILEY 等: "New Design Principles for Visual Acuity Letter", 《AMERICAN ACADEMY OF OPTOMETRY》 *
JINGZHOU YANG 等: "Validation of Predicted Posture for the Virtual Human", 《DIGITAL HUMAN MODELING》 *
TIMOTHY MARLER 等: "Vision Performance Measures for Optimization-Based Posture Prediction", 《DIGITAL HUMAN MODELING FOR DESIGN AND ENGINEERING CONFERENCE》 *
WEIZHOU 等: "Simulating Complex Automotive Assembly Tasks using the Humosim Framework", 《SAE INTERNATIONAL》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110709789A (zh) * 2017-04-10 2020-01-17 Abb瑞士股份有限公司 用于监测可再生发电装置或微电网内的子系统的状况的方法和设备
CN110709789B (zh) * 2017-04-10 2024-05-31 Abb瑞士股份有限公司 用于监测可再生发电装置或微电网内的子系统的状况的方法和设备
CN113379903A (zh) * 2021-06-30 2021-09-10 北京爱奇艺科技有限公司 数据的迁移方法及装置、电子设备、可读存储介质
CN114330545A (zh) * 2021-12-28 2022-04-12 花脸数字技术(杭州)有限公司 一种基于ik算法的数字人动态捕捉分析系统
CN114330545B (zh) * 2021-12-28 2022-09-13 花脸数字技术(杭州)有限公司 一种基于ik算法的数字人动态捕捉分析系统

Also Published As

Publication number Publication date
JP2017049238A (ja) 2017-03-09
US20170061043A1 (en) 2017-03-02
EP3136346B1 (en) 2023-01-18
US10860752B2 (en) 2020-12-08
JP6771995B2 (ja) 2020-10-21
EP3136346A1 (en) 2017-03-01
CN106485748B (zh) 2022-06-10

Similar Documents

Publication Publication Date Title
CN106485748A (zh) 用于数字人体模型的视觉测量的方法和系统
US11307968B2 (en) System and method for developing, testing and deploying digital reality applications into the real world via a virtual world
US11682155B2 (en) Skeletal systems for animating virtual avatars
CA3023488C (en) System and method for generating a progressive representation associated with surjectively mapped virtual and physical reality image data
US20240312100A1 (en) Using three-dimensional scans of a physical subject to determine positions and/or orientations of skeletal joints in the rigging for a virtual character
US20200005138A1 (en) Methods and systems for interpolation of disparate inputs
JP2022510843A (ja) アバタ移動のためのマルチモードの手の場所および配向
JP2021530815A (ja) 仮想キャラクタの姿勢空間変形のための姿勢空間次元低減
Qian et al. Virtual reality based laparoscopic surgery simulation
US11836840B2 (en) Systems and methods for cross-application authoring, transfer, and evaluation of rigging control systems for virtual characters
US11574416B2 (en) Generating body pose information
US12056824B2 (en) Simulated control for 3-dimensional human poses in virtual reality environments
US20230061175A1 (en) Real-Time Simulation of Elastic Body
WO2022140540A1 (en) Simulated control for 3-dimensional human poses in virtual reality environments
Banihani et al. POD for real‐time simulation of Hyperelastic soft biological tissue using the point collocation method of finite spheres
US20220083702A1 (en) Techniques for designing structures using torsion-deformable spatial beam elements
Arias et al. Extended range telepresence for evacuation training in pedestrian simulations
Jagnow et al. Distributed Physics Simulation with Stateless Server
KR101751176B1 (ko) 가상 우주 체험을 제공하는 장치 및 방법
CN118710858A (zh) 三维化身模拟方法及装置
Garrett et al. Reduction of latency in virtual environment applications

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant