CN108496166A - 用于生成姿势和手势的综合数据库的方法和系统 - Google Patents

用于生成姿势和手势的综合数据库的方法和系统 Download PDF

Info

Publication number
CN108496166A
CN108496166A CN201780008260.5A CN201780008260A CN108496166A CN 108496166 A CN108496166 A CN 108496166A CN 201780008260 A CN201780008260 A CN 201780008260A CN 108496166 A CN108496166 A CN 108496166A
Authority
CN
China
Prior art keywords
gesture
posture
sample
database
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780008260.5A
Other languages
English (en)
Other versions
CN108496166B (zh
Inventor
玛坦·普洛特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Damo Institute Hangzhou Technology Co Ltd
Original Assignee
Infinity Augmented Reality Israel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infinity Augmented Reality Israel Ltd filed Critical Infinity Augmented Reality Israel Ltd
Publication of CN108496166A publication Critical patent/CN108496166A/zh
Application granted granted Critical
Publication of CN108496166B publication Critical patent/CN108496166B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]

Abstract

提供了用于生成姿势和手势的综合样本的方法和系统。在一个实施方式中,该系统可以包括:数据库,被配置成存储姿势或手势的至少一个样本;和计算机处理器,该计算机处理器被配置成:导出与特定用户和/或环境同有关的参数的值;并且基于所导出的值生成姿势和手势样本的数据集。在另一个实施方式中,计算机存储器可以被配置成:获得至少一个身体部分的至少一个姿势和手势;并且获得影响所述姿势和手势的表观的数据集;并且计算机处理器被配置成基于所获得的数据集来生成所述姿势和手势的综合样本的集合,其中,综合样本体现由所获得的数据集中的至少一个引起的虚拟变化。

Description

用于生成姿势和手势的综合数据库的方法和系统
技术领域
本发明总体上涉及自然用户界面(NUI)、并且更具体地涉及综合地生成足以训练NUI系统的样本的数据库。
背景技术
自然用户界面(NUI)装置已经变得越来越流行,其中各种技术的手势获取系统被用于识别用户的身体部分的姿势和手势。
一般而言,目前有两种类型的NUI装置是可用的。第一类型被配置用于供许多用户一起操作,并且能够将第一类型的NUI装置训练成能够使尽可能多的用户一起正确地操作将是有利的。第二类型的NUI装置被配置成仅供单个用户操作,但事先不知道哪个用户将最终使用该NUI装置。
上述两种类型的NUI装置都导致了训练挑战:第一类型带来了全局的挑战,而第二种类型带来了特殊化的挑战。
发明内容
本发明的一些实施方式提供了用于生成适用于训练各种类型的自然用户界面(NUI)的样本的大数据库的方法和系统。具体地,该数据库可以存储用于训练手势识别、手部检测、3D手部建模、面部识别、和全身识别的样本。这是通过使用可以渲染人类运动的真实模拟的图像系统来实现的。
因此,本发明的一个方面提供了可能在NUI装置的制造商处执行的对NUI系统的潜在用户的全局化,使得该模型将能够处理尽可能多的变体。另一方面是NUI装置的有待在用户侧执行并尽可能地针对特定用户进行定制的具体化。
根据本发明的一些实施方式,系统架构师确定需要支持哪些手势和或姿势。在那个阶段,架构师还确定自己或自动获得哪些参数变化(通常来自列表)。
然后,系统架构师从数据库中收集或获取所有情景的参数值。架构师随后可以通过在真实生活中捕捉或创建它的模拟来接收至少一个姿势或手势。然后,在馈送所有所需数据之后,根据本发明的实施方式的方法基于所需的参数组合生成数据库。
前述过程可以在制造NUI系统时执行,并且为了实现前述过程,可以实施以下阶段:获得一个或多个人的至少一个身体部分的至少一个姿势或手势;获得影响所述姿势和手势的表观的数据集;并且基于所获得的数据集生成这些姿势和手势的综合样本的集合。应注意的是,这些综合样本体现由所获得的数据集中的至少一个数据集引起的虚拟变化。
在不同的实施方式中,并且在操作阶段中,在NUI系统可能已经在终端用户的手上时,可以基于每个用户和/或每种环境来渲染和定制数据库。为了实现对NUI系统的快速“精调”,可能要求用户提供对他或她的相关身体部分(尤其姿势和手势方面)的获取,并且可以以快速方式针对特定姿势和手势以及针对特定相机和测量照明条件自动生成数据库。
有利地,因为在数据库上的样本全是综合生成的,获取的手势或运动的每一个样本与建模身体部分、纹理(texture,结构)、肤色、照明条件、和实际上影响获取的任何参数的确切几何安排相关联。此外,并且优选地,综合生成的样本将具有施加给它们的典型噪声。在获取系统生成深度映射的情况下,Z缓存器用作样本的框架,具有与确切的运动、身体部分的距离、纹理和照明条件相关的参数知识的所有前述优点。
附图说明
在说明书的总结部分中特别指出并明确要求保护被认为是本发明的主题。然而,当结合附图阅读时,可以通过参考以下详细描述而在组织和操作方法上与目标、特征和优点一起最佳地理解本发明,其中:
图1是示出了根据本发明的实施方式的用于生成综合样本的全局数据库的非限制性示例性系统架构的框图;
图2是示出了根据本发明的实施方式的非限制性示例性方法的高级流程图;
图3是示出了根据本发明的实施方式的用于生成综合样本的定制数据库的非限制性示例性系统架构的框图;并且
图4是示出了根据本发明的实施方式的另一个非限制性示例性方法的高级流程图。
应理解的是,为了简化和清楚的说明,附图中所示的元件未必按比例绘制。例如,为了清楚起见,一些元件的尺寸可能相对于其他元件被放大。进一步地,在认为适当的情况下,可以在附图中重复参考数字以指示对应的或类似的元件。
具体实施方式
在下面的描述中,将描述本发明的各个方面。为了解释的目的,阐述了具体的配置和细节,以提供对本发明的透彻理解。然而,对于本领域技术人员来说,还将明显的是可以在没有本文给出的具体细节的情况下实践本发明。此外,为了不使本发明变得模糊,可以省略或简化众所周知的特征。
除非另有指明,如从以下讨论中明显的,应理解的是,贯穿说明书讨论,使用诸如“处理”、“计算”、“运算”、“确定”等术语指的是将表现为物理(诸如电子)量的数据在计算系统的寄存器和/或存储器内操控和/或转换为类似地表现为在计算系统的存储器、寄存器或其他此类信息存储、传输或显示装置内的物理量的其他数据的计算机或计算系统或类似的电子计算装置的动作和/或处理。
在一个实施方式中,在此提供了一种用于生成姿势和手势的综合样本的数据库的系统。所述系统可以包括存储器和计算机处理器,该存储器被配置成用于存储一个或多个人的至少一个身体部分的至少一个姿势或手势,该计算机处理器被配置成用于:确定影响所述姿势和手势的表观的因素的参数的使用情况特定值;并且基于所获得的参数的使用情况特定制生成所述姿势和手势的使用情况特定综合样本,其中,这些综合样本体现由所获得的使用情况特定值中的至少一个值引起的虚拟变化。
图1是示出了根据本发明的一些实施方式的用于生成姿势和手势的综合样本的全局数据库的非限制性示例性系统架构的框图。系统100可以包括连接至存储器140的计算机处理器130,在该存储器上可以加载有待由计算机处理器130执行的多组指令。系统100可以包括若干软件模块,这些软件模块可以由计算机处理器130执行并且可能由可选的图像处理单元(GPU)135执行。此类软件模块可以包括(但不限于)姿势和手势生成器120、照明模块150、纹理模块160、表观模块170、以及运动模块180。
在操作中,存储器140可以被配置成用于获得一个或多个人(在此未示出)的至少一个身体部分的至少一个姿势或手势。存储器140可以进一步被配置成用于获得影响姿势和手势的表观的数据集。
然后,响应于可能通过架构师10并且通过用户界面110对参数的选择,计算机处理器130可以被配置成用于使用姿势和手势生成器120(其依次可以使用照明模块150、纹理模块160、表观模块170和运动模块180)基于有待存储在综合姿势和手势数据库190上的所获得的数据集来生成所述姿势和手势的综合样本的集合。
具体地,存储在综合姿势和手势数据库190上的综合样本可以被配置成体现由所获得的数据集中的至少一个引起的虚拟变化。
根据本发明的一些实施方式,样本的生成是进一步基于(例如,实际的人例如挥动他们的手而获取的)真实生活样本195。替代性地,可以不需要真实生活样本,并且综合样本可以通过全综合的方式生成。
具体地,照明模块150可以被配置成用于提供不同的照明条件,纹理模块160可以被配置成用于提供人类用户和/或衣物物品的不同的纹理,表观模块170可以被配置成用于提供身体部分和/或衣物物品的不同的尺寸、形状和颜色,而运动模块180可以被配置成用于提供诸如用户的身体部分的速度和加速度等不同的运动参数。
根据本发明的一些实施方式,综合数据库190可以获得若干类型的可与彼此不同的有效运动、由于无效(例如,它们没有基于姿势/手势识别系统转化为有意义的动作)而应被忽视的多个类型的运动、以及用作反例的其他无意义“噪声”样本。
根据本发明的其他实施方式,使用不同相机的配置基于限定诸如视场(FOV)、分辨率、传感器尺寸等相机特性的各种参数来生成数据库。
图2是示出了根据本发明的实施方式的用于生成姿势和手势的综合样本的数据库的非限制性示例性方法的高级流程图。方法200可以包括以下步骤:获得一个或多个人的至少一个身体部分的至少一个姿势或手势210;获得影响所述姿势或手势的表观的数据集220;并且基于所获得的数据集来生成所述姿势和手势的综合样本的集合230,其中,综合样本体现由所获得的数据集中的至少一个引起的虚拟变化。
图3是示出了根据本发明的一些实施方式的用于渲染姿势和手势的综合样本的使用情况特定数据集的系统的非限制性示例性架构的框图。系统300可以包括数据库390,该数据库被配置成用于存储姿势或手势的至少一个样本,并且可以本地定位或定位在远程位置中并且可以通过网络40进行通信。系统300还可以包括感测装置50(其可以是连接至PC的网络摄像头);以及计算机处理器310。系统300可以包括可以由计算机处理器310执行的若干软件模块。此类软件模块可以包括:照明模块350、纹理模块360、表观模块370以及运动模块380。
在操作中,计算机处理器310可以被配置成用于导出与特定用户有关的参数的值,其中,所导出的参数是在生成数据库390(其可能类似于本文中参照图1描述的数据库190,但是更优选地仅是其足以生成一些综合样本的子集、而非如数据库190的所有可能变体)时预定义的。计算机处理器310可以被进一步配置成用于可能地通过使用照明模块350、纹理模块360、表观模块370和运动模块380基于所导出的值来生成姿势和手势样本的数据集320。
根据本发明的一些实施方式,系统300可以进一步包括用户界面60,该用户界面被配置成用于监测由感测装置50对用户数据的采样处理。
如上所解释的,并且根据本发明的一些实施方式,数据库190可以经由网络40远程地连接至计算机处理器。感测装置50可以是经由用户20的PC操作的网络摄像头。因此,在最小化的实现方式中,接近用户20的实际装置仅包括计算机处理器以及所生成的数据集,该数据集在一些实施方式中也可以远程存储并且经由网络(例如,经由云)访问。在本发明的另一实施方式中,执行与特定装置的适配的计算机处理器可以远程定位(例如,在云上),并且由该计算机处理器远程产生的所得数据库或分类器则转移至本地装置。替代性地,在该处进行其他处理的情况下,其也可以被发送至不同的云。
根据本发明的一些其他的实施方式,数据集可以是基于每个用户和/或每种环境生成的。可以获取用户的手部或另一个身体部分以用于导出参与该姿势或手势的身体部分的纹理。然后,该系统自动地生成姿势和手势的样本并且使用在综合姿势和手势上实施的获取样本。因此,应注意的是,这些纹理与这些姿势或手势自身不相关,而是与执行该姿势的身体相关。
图4是示出了根据本发明的实施方式的渲染特定用户的姿势和手势的综合样本的数据集的方法的高级流程图。方法400可以包括以下步骤:访问包括基于在生成所述数据库时预定义的参数来索引(或可能集群)的多个姿势和手势样本的数据库410;经由感测装置获得用户的样本420;基于这些样本导出与特定用户有关的参数的值430;并且基于所导出的参数生成姿势和手势样本的数据集440。
根据本发明的一些实施方式,用于在工厂处生成的数据库(全局数据库)或随终端用户生成的(在终端用户处情景特定的)数据库的与终端用户有关的一些参数可以是依据于用户的并且可以包括以下各项中的至少一些项:可以涉及肤色、头发、衣物(例如,袖套、手套)的身体部分的纹理。
此外,总体表观可以例如被参数化为:身体部分的形状、尺寸((例如手臂或指头)的长度、及宽度)、运动速度(例如,在姿势为“挥动”的情况下——挥动的速度或频率);运动“弧”(即,特定姿势不一定具有全部路径,而是开始晚和/或结束早,诸如在“你好”姿势中将手臂从左边挥动到右边。在基本姿势中,它从左边45度至右边45度。但是它可以是从-30°至+30°、或-45°至+30°、或-30°至+45°等等)。
此外,还可以使用以下度量中的至少一些度量来将环境条件参数化:包括光色(黄、白等)的照明条件以及光源形状(诸如,单光源、灯泡、荧光灯、环境光、投影仪等等)。环境还包括背景,尤其是静态背景(水平、单色墙、有色墙、家具等)以及移动背景(动态场景、在运动过程中获取、人群)。
此外,传感器条件也可以基于以下度量中的至少一些度量来参数化:传感器类型(相机、深度传感器、其他感测装置),其中对于相机可以使用以下参数:诸如可见光、单色、红外(IR)等传感器波长范围;旋转/球形快门;传感器分辨率;以及视场(FOV)。
根据本发明的一些实施方式,在制造该系统的工厂处,架构师可以通过以下处理将数据库配置成涵盖可能数据库的子集:确定该数据库应该包含姿势和/手势的哪个集合(如果用于训练,则确定一组正例和/或反例);(从以上列表中)确定哪些参数影响对手势/姿势的获取;确定对于此类参数的可能的值/值范围(例如,(渲染和/或从实际用户采样的)肤色和/或衣物类型的样本);典型照明条件。
架构师随后可以继续确定采用的参数组合的集合。该集合可以是手动地、随机地、或通过一些决策过程自动或手动地(例如,这意味着确认每个特定参数表示了至少N次,诸如N=3)确定的全集(所有组合)或子集。
架构师随后可以继续为每个手势/姿势确定“基本”集合,其可以是收集自一个或多个个人、或者是一个或多个综合创建(在模拟和/或建模软件中)、或其组合。应注意的是,在一些实施方式中,不需要真实世界样本。
架构师随后可以继续通过调整先前确定的每一个组合来确定使用共同的或专有的或特殊开发的渲染引擎、手势和/或姿势的变化的渲染。
然后,在操作中,上述数据库可以用于离线训练分类器并在线应用它。此外或替代性地,数据库可以用于通过使用各种最近邻分类的种类(诸如通过测量N维空间中的距离)的在线分类。
根据本发明的一些实施方式,在示例性非限制性使用情况中,计算机处理器310可以被进一步配置成基于样本生成形象(化身),这些样本是(可能经由感测单元50)从一个终端用户(例如用户20)通过应用存储在综合数据库190上的从第二终端用户导出的手势和/或姿势的序列(可能是描述指定舞蹈的序列)获得的。因此,所生成的形象例如可以包括具有第二用户的移动特性和第一用户(例如,用户20)的外观的跳舞人物的综合图像。
为了实现根据本发明的一些实施方式的方法200和400,计算机处理器可以从只读存储器或随机存取存储器或两者接收指令和数据。上述步骤中的至少一个步骤是由与计算机相关联的至少一个处理器执行的。计算机的基本元件是用于执行指令的处理器以及用于储存指令和数据的一个或多个存储器。总体上,计算机还将包括(或操作性地耦接以通信)用于存储数据文件的一个或多个大容量存储装置。适合于有形地体现计算机程序指令和数据的存储模块包括所有形式的非易失性存储器,包括例如半导体存储器装置(例如EPROM、EEPROM和闪存装置)以及磁光存储装置。
如本领域的技术人员将理解的,本发明的一些方面可以体现为系统、方法或计算机程序产品。因此,本发明的一些方面可以采取以下形式:完全硬件实施方式、完全软件实施方式(包括固件、常驻软件、微代码等)、或者结合软件和硬件方面(在本文中其可全部统称为“电路”、“模块”或“系统”)的实施方式。此外,本发明的一些方面可以采取体现在一个或多个计算机可读介质(其具有包含在其上的计算机可读程序代码)中的计算机程序产品的形式。
可以利用一种或多种计算机可读介质的任何组合。计算机可读介质可以是计算机可读信号介质或计算机可读存储介质。计算机可读存储介质可以例如但不限于是电子、磁性、光学、电磁、红外或半导体的系统、设备、或装置、或者前述的任何合适组合。计算机可读存储介质的更具体实例(非详尽列表)将包括以下内容:具有一根或多根线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或闪存)、光纤、便携式光盘只读存储器(CD-ROM)、光学存储装置、磁性存储装置、或前述的任何合适组合。
在本文的上下文中,计算机可读存储介质可以是可含有或存储由指令执行系统、设备或装置使用或与指令执行系统、设备或装置有关的程序的任何有形介质。
计算机可读信号介质可以包括传播数据信号,其具有在其中(例如以基带或作为载波一部分)体现的计算机可读程序代码。此类传播信号可以采取多种形式中的任何一种,包括但不限于电磁、光学或其任何合适组合。计算机可读信号介质可以是非计算机可读存储介质且可传达、传播或传输由指令执行系统、设备或装置使用或与指令执行系统、设备或装置有关的程序的任何计算机可读介质。
在计算机可读介质上体现的程序代码可以使用任何适当的介质传输,包括但不限于无线、有线、光纤电缆、RF等、或者前述的任何合适组合。
用于执行本发明各方面的操作的计算机程序代码可以用一种或多种编程语言的任何组合来编写,包括诸如Java、Smalltalk、C++等的面向对象的编程语言和诸如“C”编程语言或类似的编程语言的传统过程编程语言。程序代码可以完全在用户的计算机上、部分地在用户的计算机上作为独立软件包、部分地在用户的计算机上以及部分地在远程计算机上或完全在远程计算机或服务器上执行。在后面一种情况下,远程计算机可以通过包括局域网(LAN)或广域网(WAN)的任何类型的网络与用户的计算机连接,或者可进行至外部计算机的连接(例如,通过利用互联网服务供应商的互联网)。
以上根据本公开的实施方式参照流程图图示和/或方法、设备(系统)以及计算机程序产品的部分图描述了本发明的一些方面。将理解的是,流程图图示和/或部分图的每个部分以及在流程图图示和/或部分图中的部分的组合可以由计算机程序指令实现。
可以将这些计算机程序指令提供给通用计算机、专用计算机或其他可编程的数据处理设备的处理器,以制造机器,使得这些指令经由计算机或其他可编程的数据处理设备的处理器执行时生成用于实现在流程图和/或部分图的一个或多个部分中规定的功能/行为的设备。
这些计算机程序指令还可以被储存在计算机可读介质内,该计算机可读介质可以引导计算机、其他可编程的数据处理设备、或其他装置通过一种特定的方式运行,使得储存在计算机可读介质内的指令生成制品,该制品包括实现在流程图和/或部分图的一个或多个部分中指定的功能/行为的指令。
计算机程序指令还可以被加载至计算机、其他可编程的数据处理设备、或其他装置上,以使得在计算机、其他可编程的设备、或其他装置上执行的一系列操作步骤生成计算机实现过程,使得在计算机或其他可编程的设备上执行的指令提供用于实现流程图和/或部分图中的一个或多个部分中指定的功能/行为。
上述流程图和附图根据本发明的各种实施方式示出了系统、方法以及计算机程序产品的可能实现方式的架构、功能以及操作。就此而言,在流程图或部分图中的每个部分可以表示代码的模块、区段或部分,其包括用于实现指定的一个或多个逻辑功能的一个或多个可执行指令。还应注意的是,在一些替换的实现方式中,在部分中记录的功能可以按照与在图中记录的顺序不同的顺序发生。例如,根据有关功能,实际上可以基本上同时地执行连续显示的两个部分,或者有时可以按照相反的顺序执行这些部分。还将注意的是,部分图和/或流程图图示的每个部分以及在部分图和/或流程图图示中的部分的组合可以由基于专用硬件的系统实现,这些系统执行指定的功能或行为、或专用硬件和计算机指令的组合。
在上述描述中,实施方式是本发明的实例或实现方式。“一个实施方式”、“实施方式”或“一些实施方式”的各种呈现不一定都指相同的实施方式。
尽管可以在单个实施方式的上下文中描述本发明的各种特征,但是也可以单独地或以任何合适的组合提供这些特征。相反,尽管为了清楚起见在本文中可以在单独的实施方式的上下文中描述本发明,但是本发明也可以在单个实施方式中实现。
说明书中对“一些实施方式”、“实施方式”、“一个实施方式”或“其他实施方式”的参考指的是结合实施方式描述的特定特征、结构或特性包括在本发明的至少一些实施方式中,但不一定是所有实施方式。
将理解的是,本文中采用的措辞和术语不应被解释为是限制性的、而仅用于描述目的。
参考所附描述、附图和实例可以更好地理解本发明的教导的原理和用途。
将理解的是,本文中阐述的细节不解释为对本发明的应用的限制。
此外,将理解的是,本发明可以以各种方式执行或实践,并且本发明可以在除上述描述中概述的实施方式之外的实施方式中实现。
将理解的是,术语“包含”、“包括”、“组成”及其语法变体不排除添加一个或多个组件、特征、步骤或整体或其组,并且这些术语将被解释为指定组件、特征、步骤或整体。
如果说明书或权利要求涉及“额外”元件,则不排除存在多于一个的额外元件。
将理解的是,在权利要求或说明书提及“一(a)”或“一个(an)”元件的情况下,这种参考不应被解释为仅存在一个该元件。
将理解的是,说明书声明“可以(may)”、“可能(might)”、“能够(can)”或“可以(could)”包括部件、特征、结构或特性,并不要求包括特定部分、特征、结构或特性。
在适当情况下,尽管可以使用状态图、流程图或这两者来描述实施方式,但是本发明不限于这些图或对应的描述。例如,流程不需要通过每个所示框或状态来进行、或者与所示出和描述的顺序完全相同的顺序来进行。
本发明的方法可以通过手动地、自动地或者其组合执行或完成选定的步骤或任务来实现。
术语“方法”可以指用于完成给定任务的方式、手段、技术和程序,包括但不限于由本发明所属领域的从业者已知的方式、手段、技术和程序、或者通过已知的方式、手段、技术和程序容易地开发的方式、手段、技术和程序。
在权利要求和说明书中呈现的描述、实例、方法和材料不应被解释为限制性的,而是仅作为说明性的。
除非另有定义,本文中所使用的技术和科学术语的含义通常如本发明所属领域的普通技术人员所理解的。
本发明可以在与本文中所描述的方法和材料等效或类似的方法和材料的测试或实践中实现。
在本文中将在本说明书中提及的任何出版物(包括专利、专利申请和文章)以如同每个单独的出版物被特定地和单独地指出被结合在本文中一样的程度来以其全部内容结合至本说明书中。此外,在本发明的一些实施方式的描述中的任何参考的引用或鉴定不应解释为承认此类参考可作为本发明的现有技术。
虽然已经关于有限数量的实施方式描述了本发明,但是这些实施方式不应被解释为对本发明的范围的限制,而是作为一些优选实施方式的示例。
其他可能的变化、修改和应用也在本发明的范围内。因此,本发明的范围不应受到迄今所描述的内容的限制,而是由所附权利要求及其合法等效物限制。

Claims (27)

1.一种用于渲染姿势和手势的综合样本的定制数据集的系统,所述系统包括:
数据库,配置成用于存储姿势或手势的至少一个样本;
感测装置;以及
计算机处理器,被配置为:
导出与特定用户和/或环境有关的参数的值,其中,用于导出所述值的所述参数的集合是在生成所述数据库时预定义的;并且
基于所导出的值生成所述姿势和手势的样本的数据集。
2.根据权利要求1所述的系统,其中,所述计算机处理器定制由所述感测装置采样的每个用户的所述数据集。
3.根据权利要求1所述的系统,进一步包括用户界面,配置成监测由所述感测装置对所述用户的数据的采样。
4.根据权利要求1所述的系统,其中,所述数据库由所述计算机处理器经由网络远程连接。
5.根据权利要求1所述的系统,其中,影响所述姿势和手势的表观的所述数据集包括以下中的至少一项:与特定用户和/或环境有关的纹理;所述身体部分的运动速度;所述身体部分的尺寸;距所述身体部分的距离;所述感测装置的获取装置参数;以及特定环境的照明参数。
6.根据权利要求1所述的系统,其中,所述计算机处理器被进一步配置成基于所生成的数据库训练用于检测至少一个所述姿势或手势的分类器。
7.根据权利要求1所述的系统,其中,所述计算机处理器被进一步配置成基于通过应用从存储在所述数据库上的第二终端用户导出的姿势和/或手势的序列而从一个终端用户获得的样本来生成形象。
8.一种渲染姿势和手势的综合样本的数据库的方法,所述系统包括:
访问数据库,所述数据库包括基于在生成所述数据库时预定义的参数来索引的多个姿势和手势样本;
经由感测装置获得与姿势或手势的表观有关的样本;基于所述样本导出与所述姿势或手势的表观有关的参数的值;并且
基于所导出的参数生成所述姿势和手势样本的数据集。
9.根据权利要求8所述的方法,进一步包括经由用户界面监测对所述用户的数据的采样。
10.根据权利要求8所述的方法,进一步包括经由网络远程地访问所述数据库。
11.根据权利要求8所述的方法,进一步包括基于所生成的数据库训练用于检测至少一个所述姿势或手势的分类器。
12.一种用于生成姿势和手势的综合样本的数据库的非暂时性计算机可读介质,所述非暂时性计算机可读介质包括一组指令,在所述指令被执行时使至少一个处理器执行以下各项:
访问数据库,所述数据库包括基于在生成所述数据库时预定义的参数而索引的多个姿势和手势样本;
经由感测装置获得与姿势或手势的表观有关的样本;基于所述样本导出与所述姿势或手势的表观有关的参数的值;并且
基于所导出的参数生成所述姿势和手势样本的数据集。
13.一种用于生成姿势和手势的综合样本的数据库的方法,所述方法包括:
获得真实生活获取的和/或人工生成的至少一个身体部分的至少一个姿势或手势;
获得影响所述姿势和手势的表观的数据集;并且
基于所获得的数据集生成所述姿势和手势的综合样本的集合,
其中,所述综合样本体现由所获得的数据集中的至少一个引起的虚拟变化。
14.根据权利要求13所述的方法,其中,影响所述姿势和手势的表观的所述数据集包括以下中的至少一项:与所述至少一个身体部分相关联的纹理;所述身体部分的运动速度;所述身体部分的尺寸;距所述身体部分的距离;多个获取装置的获取装置参数;以及多个场景的照明参数。
15.根据权利要求13所述的方法,其中,所述身体部分的移动参数是基于至少一个用户的至少一个身体部分的至少一个姿势或至少一个手势的至少一个获取图像获得的。
16.根据权利要求13所述的方法,其中,多个综合样本的生成是受不同用户的多个纹理影响的。
17.根据权利要求13所述的方法,其中,与所述多个获取装置的获取能力相关联的一个或多个参数包括以下中的至少一项:视域;视角;模态;分辨率;视场;和快门类型。
18.根据权利要求13所述的方法,其中,所述综合样本的生成是通过对该至少一个获取的身体部分进行建模以得到相应的至少一个3D模型并且将所获得的纹理、照明条件和获取装置特性应用于至少一个相应的3D模型来实现的。
19.根据权利要求13所述的方法,进一步包括基于所生成的数据库训练用于检测至少一个姿势或手势的分类器。
20.一种用于生成姿势和手势的综合样本的数据库的系统,所述系统包括:
计算机存储器,配置成:
获得真实生活获取的和/或人工生成的至少一个身体部分的至少一个姿势或手势;并且
获得影响所述姿势和手势的表观的数据集;以及
计算机处理器,配置成基于所获得的数据集生成所述姿势和手势的综合样本的集合,
其中,所述综合样本体现由所获得的数据集中的至少一个引起的虚拟变化。
21.根据权利要求20所述的系统,其中,影响所述姿势和手势的表观的所述数据集包括以下中的至少一项:与所述至少一个身体部分相关联的纹理;所述身体部分的运动速度;所述身体部分的尺寸;距所述身体部分的距离;多个获取装置的获取装置参数;以及多个场景的照明参数。
22.根据权利要求20所述的系统,其中,所述数据集是基于至少一个用户的至少一个身体部分的至少一个姿势或至少一个手势的至少一个获取图像获得的。
23.根据权利要求20所述的系统,其中,多个综合样本的生成是受不同用户的多个纹理影响的。
24.根据权利要求20所述的系统,其中,与所述多个获取装置的获取能力相关联的一个或多个参数包括以下中的至少一项:视域;视角;模态;分辨率;视场;和快门类型。
25.根据权利要求20所述的系统,其中,所述综合样本的生成是通过对该至少一个获取的身体部分进行建模以得到相应的至少一个3D模型并且将所获得的纹理、照明条件和获取装置特性应用于至少一个相应的3D模型来执行的。
26.根据权利要求20所述的系统,其中,所述计算机处理器被进一步配置成基于所生成的数据库训练用于检测至少一个姿势或手势的分类器。
27.一种用于生成姿势和手势的综合样本的数据库的非暂时性计算机可读介质,所述非暂时性计算机可读介质包括一组指令,在所述指令被执行时使至少一个处理器执行以下各项:
获得真实生活获取的和/或人工生成的至少一个身体部分的至少一个姿势或手势;
获得影响所述姿势和手势的表观的数据集;并且
基于所获得的数据集生成所述姿势和手势的综合样本的集合,其中,所述综合样本体现由所获得的数据集中的至少一个引起的虚拟变化。
CN201780008260.5A 2016-01-26 2017-01-25 用于生成姿势和手势的综合数据库的方法和系统 Active CN108496166B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662286981P 2016-01-26 2016-01-26
US62/286,981 2016-01-26
US15/339,957 2016-11-01
US15/339,957 US10345914B2 (en) 2016-01-26 2016-11-01 Method and system for generating a synthetic database of postures and gestures
PCT/IL2017/050096 WO2017130197A2 (en) 2016-01-26 2017-01-25 Method and system for generating a synthetic database of postures and gestures

Publications (2)

Publication Number Publication Date
CN108496166A true CN108496166A (zh) 2018-09-04
CN108496166B CN108496166B (zh) 2020-11-03

Family

ID=59359004

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780008260.5A Active CN108496166B (zh) 2016-01-26 2017-01-25 用于生成姿势和手势的综合数据库的方法和系统

Country Status (4)

Country Link
US (2) US10345914B2 (zh)
EP (1) EP3408765B1 (zh)
CN (1) CN108496166B (zh)
WO (1) WO2017130197A2 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114384997A (zh) * 2020-10-21 2022-04-22 国际商业机器公司 传感器不可知姿势检测

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10012517B2 (en) * 2016-08-01 2018-07-03 Infinity Augmented Reality Israel Ltd. Method and system for calibrating components of an inertial measurement unit (IMU) using scene-captured data
US11263256B2 (en) * 2018-05-31 2022-03-01 Microsoft Technology Licensing, Llc Distributed computing system with a synthetic data as a service frameset package store
US20200090000A1 (en) * 2018-09-18 2020-03-19 Microsoft Technology Licensing, Llc Progress Portal for Synthetic Data Tasks
CN112328085A (zh) * 2020-11-12 2021-02-05 广州博冠信息科技有限公司 虚拟角色的控制方法、装置、存储介质与电子设备
CN116051926B (zh) * 2023-01-12 2024-04-16 北京百度网讯科技有限公司 图像识别模型的训练方法、图像识别方法和装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2419433A (en) * 2004-10-20 2006-04-26 Glasgow School Of Art Automated Gesture Recognition
KR20100066866A (ko) * 2008-12-10 2010-06-18 광주과학기술원 휴대용 얼굴 표정 연습 장치와 그 방법.
US20120092286A1 (en) * 2010-10-19 2012-04-19 Microsoft Corporation Synthetic Gesture Trace Generator
US20120224787A1 (en) * 2011-03-02 2012-09-06 Canon Kabushiki Kaisha Systems and methods for image capturing
US20130282637A1 (en) * 2012-04-24 2013-10-24 Behaviometrics Ab System and method for distinguishing human swipe input sequence behavior
CN104376309A (zh) * 2014-11-27 2015-02-25 韩慧健 一种基于手势识别的手势运动基元模型结构化方法
US20150130743A1 (en) * 2013-11-13 2015-05-14 At&T Intellectual Property I, L.P. Gesture Detection
CN104914996A (zh) * 2015-05-22 2015-09-16 济南大学 一种改变三维手势状态的方法
WO2015192117A1 (en) * 2014-06-14 2015-12-17 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8681098B2 (en) 2008-04-24 2014-03-25 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US7725547B2 (en) * 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
US20080124690A1 (en) * 2006-11-28 2008-05-29 Attune Interactive, Inc. Training system using an interactive prompt character
US8044989B2 (en) * 2006-12-12 2011-10-25 General Instrument Corporation Mute function for video applications
KR102132245B1 (ko) * 2014-03-19 2020-07-09 삼성전자 주식회사 홈 게이트웨이에서 스마트 플러그와 연결된 전자장치의 자동 매핑 방법 및 그 장치
US10222868B2 (en) * 2014-06-02 2019-03-05 Samsung Electronics Co., Ltd. Wearable device and control method using gestures
US20160134840A1 (en) * 2014-07-28 2016-05-12 Alexa Margaret McCulloch Avatar-Mediated Telepresence Systems with Enhanced Filtering
US20160110044A1 (en) * 2014-10-20 2016-04-21 Microsoft Corporation Profile-driven avatar sessions
US10599324B2 (en) * 2015-12-31 2020-03-24 Microsoft Technology Licensing, Llc Hand gesture API using finite state machine and gesture language discrete values

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2419433A (en) * 2004-10-20 2006-04-26 Glasgow School Of Art Automated Gesture Recognition
KR20100066866A (ko) * 2008-12-10 2010-06-18 광주과학기술원 휴대용 얼굴 표정 연습 장치와 그 방법.
US20120092286A1 (en) * 2010-10-19 2012-04-19 Microsoft Corporation Synthetic Gesture Trace Generator
US20120224787A1 (en) * 2011-03-02 2012-09-06 Canon Kabushiki Kaisha Systems and methods for image capturing
US20130282637A1 (en) * 2012-04-24 2013-10-24 Behaviometrics Ab System and method for distinguishing human swipe input sequence behavior
US20150130743A1 (en) * 2013-11-13 2015-05-14 At&T Intellectual Property I, L.P. Gesture Detection
WO2015192117A1 (en) * 2014-06-14 2015-12-17 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
CN104376309A (zh) * 2014-11-27 2015-02-25 韩慧健 一种基于手势识别的手势运动基元模型结构化方法
CN104914996A (zh) * 2015-05-22 2015-09-16 济南大学 一种改变三维手势状态的方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114384997A (zh) * 2020-10-21 2022-04-22 国际商业机器公司 传感器不可知姿势检测

Also Published As

Publication number Publication date
WO2017130197A2 (en) 2017-08-03
WO2017130197A3 (en) 2017-10-26
US10345914B2 (en) 2019-07-09
EP3408765B1 (en) 2022-04-27
CN108496166B (zh) 2020-11-03
US20170212598A1 (en) 2017-07-27
EP3408765A2 (en) 2018-12-05
EP3408765A4 (en) 2019-09-25
US20190332181A1 (en) 2019-10-31
US10534443B2 (en) 2020-01-14

Similar Documents

Publication Publication Date Title
CN108496166A (zh) 用于生成姿势和手势的综合数据库的方法和系统
US20200380333A1 (en) System and method for body scanning and avatar creation
CN104508709B (zh) 使用人体对对象进行动画化
US9928654B2 (en) Utilizing pseudo-random patterns for eye tracking in augmented or virtual reality systems
US10888785B2 (en) Method and system for real-time animation generation using machine learning
CN110457414A (zh) 离线地图处理、虚拟对象显示方法、装置、介质和设备
CN105190703A (zh) 使用光度立体来进行3d环境建模
CN107430437A (zh) 在虚拟现实/增强现实环境中创建真实的抓取体验的系统和方法
JP2022514656A (ja) マルチカメラクロスリアリティデバイス
CN109615655A (zh) 一种确定物体姿态的方法及装置、电子设备及计算机介质
JP2022519310A (ja) 受動深度抽出を伴う軽量のクロスリアリティデバイス
US20220405587A1 (en) Computer-implemented method and system for generating a synthetic training data set for training a machine learning computer vision model
CN110121696A (zh) 电子设备及其控制方法
WO2020083944A1 (en) Method and system for addressing and segmenting portions of the real world for visual digital authoring in a mixed reality environment
Fernandez-Chaves et al. Robot@ VirtualHome, an ecosystem of virtual environments and tools for realistic indoor robotic simulation
WO2023028449A2 (en) Systems and methods for generating three-dimensional maps of an indoor space
Rao et al. Comparing 3D rendering engines in blender
CN102591456B (zh) 对身体和道具的检测
WO2022085069A1 (ja) 運動改善指導装置、運動改善指導方法および運動改善指導プログラム
Burelli et al. A benchmark for virtual camera control
Verlinden et al. Enabling interactive augmented prototyping by a portable hardware and a plug-in-based software architecture
KR20090060692A (ko) 가상 객체의 물리적 특성 변경 장치 및 방법
CN117762260A (zh) 一种基于混合现实技术的人机双向交互方法及系统
JP2018151759A (ja) 対象物選択システム、対象物選択方法、及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20200131

Address after: 3 / F, No.20, galiarehapura, helzria, Israel

Applicant after: Alibaba (Israel) Technology Co.,Ltd.

Address before: Paktikwa, Israel

Applicant before: Infinity Augmented Reality Israel Ltd.

GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230410

Address after: Room 516, floor 5, building 3, No. 969, Wenyi West Road, Wuchang Street, Yuhang District, Hangzhou City, Zhejiang Province

Patentee after: Alibaba Dharma Institute (Hangzhou) Technology Co.,Ltd.

Address before: 3 / F, No.20, galiarehapura, helzria, Israel

Patentee before: Alibaba (Israel) Technology Co.,Ltd.