CN107944376A - 视频数据实时姿态识别方法及装置、计算设备 - Google Patents
视频数据实时姿态识别方法及装置、计算设备 Download PDFInfo
- Publication number
- CN107944376A CN107944376A CN201711157088.8A CN201711157088A CN107944376A CN 107944376 A CN107944376 A CN 107944376A CN 201711157088 A CN201711157088 A CN 201711157088A CN 107944376 A CN107944376 A CN 107944376A
- Authority
- CN
- China
- Prior art keywords
- layer
- responded
- order
- gesture recognition
- current frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种视频数据实时姿态识别方法及装置、计算设备,其方法包括:实时获取图像采集设备所拍摄和/或所录制的视频中的包含特定对象的当前帧图像;将当前帧图像输入至第二神经网络中,得到对当前帧图像中特定对象的姿态识别结果;其中,第二神经网络利用预先训练的第一神经网络的至少一层中间层的输出数据进行指导训练得到,第一神经网络的层数多于第二神经网络的层数;根据特定对象的姿态识别结果,确定对应的待响应的命令,以供图像采集设备所在终端设备响应待响应的命令。本发明利用训练后层数较少的神经网络快速准确计算得到特定对象的姿态识别结果,方便根据得到的姿态识别结果确定待响应的命令,以便对特定对象的姿态进行响应。
Description
技术领域
本发明涉及深度学习领域,具体涉及一种视频数据实时姿态识别方法及装置、计算设备。
背景技术
姿态识别主要通过两种方式,一种是利用外部设备,如可穿戴的传感器或手柄等设备,具有精确直接的特点,但对肢体动作造成束缚,且对外部设备依赖性高。另一种基于提取人体的各个关节的关键点信息,如手、手肘、肩膀等各个关节,通过计算各关节关键点位置信息交叉或平行等进行姿态识别。
现有技术中,在对图像采集设备所采集到的图像进行识别时所使用的神经网络往往具有多层中间层,这样可以得到更精准的识别结果。但多层中间层的计算速度会较慢,不能快速的识别,无法快速的得到当前帧图像中的具体情况。尤其当姿态实时变化时,会使得识别结果延迟于当前帧图像。而使用中间层较少的神经网络时,由于中间层层数较少,其计算速度较快,但受其层数限制,有可能造成计算能力有限、拟合能力较差、得到结果不准确等问题。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的视频数据实时姿态识别方法及装置、计算设备。
根据本发明的一个方面,提供了一种视频数据实时姿态识别方法,其包括:
实时获取图像采集设备所拍摄和/或所录制的视频中的包含特定对象的当前帧图像;
将当前帧图像输入至第二神经网络中,得到对当前帧图像中特定对象的姿态识别结果;其中,第二神经网络利用预先训练的第一神经网络的至少一层中间层的输出数据进行指导训练得到,第一神经网络的层数多于第二神经网络的层数;
根据特定对象的姿态识别结果,确定对应的待响应的命令,以供图像采集设备所在终端设备响应待响应的命令。
可选地,图像采集设备所在终端设备所显示的图像为当前帧图像;
根据特定对象的姿态识别结果,确定对应的待响应的命令,以供图像采集设备所在终端设备响应待响应的命令进一步包括:
根据特定对象的姿态识别结果,确定对应的对当前帧图像待响应的效果处理命令,以供图像采集设备所在终端设备响应待响应的效果处理命令。
可选地,根据特定对象的姿态识别结果,确定对应的对当前帧图像待响应的效果处理命令,以供图像采集设备所在终端设备响应待执行的效果处理命令进一步包括:
根据特定对象的姿态识别结果,以及当前帧图像中的包含的与其他对象的交互信息,确定对应的对当前帧图像待响应的效果处理命令。
可选地,待响应的效果处理命令包括效果贴图处理命令、风格化处理命令、亮度处理命令、光照处理命令和/或色调处理命令。
可选地,图像采集设备所在终端设备所显示的图像不是当前帧图像;
根据特定对象的姿态识别结果,确定对应的待响应的命令,以供图像采集设备所在终端设备响应待响应的命令进一步包括:
获取图像采集设备所在终端设备所显示的图像;
根据特定对象的姿态识别结果,确定对应的图像待响应的命令,以供图像采集设备所在终端设备响应待响应的命令。
可选地,第二神经网络的训练过程包括:
将姿态识别的训练样本数据输入至经训练得到的第一神经网络中,获得第一神经网络的至少一层第一中间层的输出数据;
将姿态识别的训练样本数据输入至待训练的第二神经网络中,获得第二神经网络的至少一层第二中间层的输出数据以及最终输出数据,至少一层第二中间层与至少一层第一中间层具有对应关系;
利用至少一层第二中间层的输出数据与至少一层第一中间层的输出数据之间的损失,以及最终输出数据与预标注的输出数据之间的损失,对第二神经网络进行训练。
可选地,至少一层第一中间层包含第一神经网络的瓶颈层;至少一层第二中间层包含第二神经网络的瓶颈层。
可选地,利用至少一层第二中间层的输出数据与至少一层第一中间层的输出数据之间的损失,以及最终输出数据与预标注的输出数据之间的损失,对第二神经网络进行训练进一步包括:
根据至少一层第二中间层的输出数据与至少一层第一中间层的输出数据之间的损失更新第二神经网络的权重参数,根据最终输出数据与预标注的输出数据之间的损失更新第二神经网络的权重参数,对第二神经网络进行训练。
可选地,在将训练样本的输入数据输入至待训练的第二神经网络中,获得第二神经网络的至少一层第二中间层的输出数据以及最终输出数据之前,方法还包括:
将姿态识别的训练样本数据进行下采样处理,将处理后的数据作为第二神经网络的姿态识别的训练样本数据。
可选地,利用至少一层第二中间层的输出数据与至少一层第一中间层的输出数据之间的损失,以及最终输出数据与预标注的输出数据之间的损失,对第二神经网络进行训练进一步包括:
利用至少一层第二中间层的输出数据与至少一层第一中间层的输出数据之间的损失,以及最终输出数据与对下采样处理后姿态识别的训练样本数据的预标注的输出数据之间的损失,对第二神经网络进行训练。
可选地,方法还包括:
收集当前帧图像作为姿态识别的训练样本输入数据,以及,对当前帧图像进行人工标注,将标注后的当前帧图像作为预标注的输出数据。
根据本发明的另一方面,提供了一种视频数据实时姿态识别装置,其包括:
获取模块,适于实时获取图像采集设备所拍摄和/或所录制的视频中的包含特定对象的当前帧图像;
识别模块,适于将当前帧图像输入至第二神经网络中,得到对当前帧图像中特定对象的姿态识别结果;其中,第二神经网络利用预先训练的第一神经网络的至少一层中间层的输出数据进行指导训练得到,第一神经网络的层数多于第二神经网络的层数;
响应模块,适于根据特定对象的姿态识别结果,确定对应的待响应的命令,以供图像采集设备所在终端设备响应待响应的命令。
可选地,图像采集设备所在终端设备所显示的图像为当前帧图像;
响应模块进一步适于:
根据特定对象的姿态识别结果,确定对应的对当前帧图像待响应的效果处理命令,以供图像采集设备所在终端设备响应待响应的效果处理命令。
可选地,响应模块进一步适于:
根据特定对象的姿态识别结果,以及当前帧图像中的包含的与其他对象的交互信息,确定对应的对当前帧图像待响应的效果处理命令。
可选地,待响应的效果处理命令包括效果贴图处理命令、风格化处理命令、亮度处理命令、光照处理命令和/或色调处理命令。
可选地,图像采集设备所在终端设备所显示的图像不是当前帧图像;
响应模块进一步适于:
获取图像采集设备所在终端设备所显示的图像;根据特定对象的姿态识别结果,确定对应的图像待响应的命令,以供图像采集设备所在终端设备响应待响应的命令。
可选地,装置还包括:姿态识别网络指导训练模块;
姿态识别网络指导训练模块包括:
第一输出单元,适于将姿态识别的训练样本数据输入至经训练得到的第一神经网络中,获得第一神经网络的至少一层第一中间层的输出数据;
第二输出单元,适于将姿态识别的训练样本数据输入至待训练的第二神经网络中,获得第二神经网络的至少一层第二中间层的输出数据以及最终输出数据,至少一层第二中间层与至少一层第一中间层具有对应关系;
指导训练单元,适于利用至少一层第二中间层的输出数据与至少一层第一中间层的输出数据之间的损失,以及最终输出数据与预标注的输出数据之间的损失,对第二神经网络进行训练。
可选地,至少一层第一中间层包含第一神经网络的瓶颈层;至少一层第二中间层包含第二神经网络的瓶颈层。
可选地,指导训练单元进一步适于:
根据至少一层第二中间层的输出数据与至少一层第一中间层的输出数据之间的损失更新第二神经网络的权重参数,根据最终输出数据与预标注的输出数据之间的损失更新第二神经网络的权重参数,对第二神经网络进行训练。
可选地,姿态识别网络指导训练模块还包括:
下采样单元,适于将姿态识别的训练样本数据进行下采样处理,将处理后的数据作为第二神经网络的姿态识别的训练样本数据。
可选地,指导训练单元进一步适于:
利用至少一层第二中间层的输出数据与至少一层第一中间层的输出数据之间的损失,以及最终输出数据与对下采样处理后姿态识别的训练样本数据的预标注的输出数据之间的损失,对第二神经网络进行训练。
可选地,装置还包括:
收集模块,适于收集当前帧图像作为姿态识别的训练样本输入数据,以及,对当前帧图像进行人工标注,将标注后的图像作为预标注的输出数据。
根据本发明的又一方面,提供了一种计算设备,包括:处理器、存储器、通信接口和通信总线,处理器、存储器和通信接口通过通信总线完成相互间的通信;
存储器用于存放至少一可执行指令,可执行指令使处理器执行上述视频数据实时姿态识别方法对应的操作。
根据本发明的再一方面,提供了一种计算机存储介质,存储介质中存储有至少一可执行指令,可执行指令使处理器执行如上述视频数据实时姿态识别方法对应的操作。
根据本发明提供的视频数据实时姿态识别方法及装置、计算设备,实时获取图像采集设备所拍摄和/或所录制的视频中的包含特定对象的当前帧图像;将当前帧图像输入至第二神经网络中,得到对当前帧图像中特定对象的姿态识别结果;其中,第二神经网络利用预先训练的第一神经网络的至少一层中间层的输出数据进行指导训练得到,第一神经网络的层数多于第二神经网络的层数;根据特定对象的姿态识别结果,确定对应的待响应的命令,以供图像采集设备所在终端设备响应待响应的命令。本发明利用层数较高的第一神经网络的至少一层中间层的输出数据对层数较少的第二神经网络进行指导训练,使得训练得到的第二神经网络在保持其快速计算的情况下,大大提升了其准确性。利用第二神经网络可以快速准确计算得到对当前帧图像中特定对象的姿态识别结果,方便根据得到的姿态识别结果确定具体的待响应的命令,以便对特定对象的姿态进行响应。快速准确的得到姿态识别结果,有利于及时对其作出响应,如与视频观看者的交互、游戏对姿态的响应等,使得到特定对象的体验效果更佳,提高特定对象和视频观看者的参与兴趣。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了根据本发明一个实施例的视频数据实时姿态识别方法的流程图;
图2示出了根据本发明另一个实施例的姿态识别网络指导训练方法的流程图;
图3示出了根据本发明另一个实施例的视频数据实时姿态识别方法的流程图;
图4示出了根据本发明一个实施例的基于摄像头场景的姿态识别装置的功能框图;
图5示出了根据本发明另一个实施例的基于摄像头场景的姿态识别装置的功能框图;
图6示出了根据本发明一个实施例的一种计算设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明中特定对象可以是图像中的人物、动物等任何对象,在实施例中以人物为例进行说明,但不仅限于人物。
图1示出了根据本发明一个实施例的视频数据实时姿态识别方法的流程图。如图1所示,视频数据实时姿态识别方法具体包括如下步骤:
步骤S101,实时获取图像采集设备所拍摄和/或所录制的视频中的包含特定对象的当前帧图像。
本实施例中图像采集设备以终端设备所使用的摄像头为例进行说明。实时获取到终端设备摄像头在录制视频时的当前帧图像或者拍摄视频时的当前帧图像。由于本发明对特定对象的姿态进行识别,因此获取当前帧图像时仅获取包含特定对象的当前帧图像。
步骤S102,将当前帧图像输入至第二神经网络中,得到对当前帧图像中特定对象的姿态识别结果。
第二神经网络为浅层神经网络,其层数较少,计算速度快,一般适用于移动设备、小型计算器等设备。第一神经网络的层数多于第二神经网络的层数。第一神经网络的准确率更高,因此,利用预先训练的第一神经网络的至少一层中间层的输出数据对第二神经网络进行指导训练,使得第二神经网络最终的输出数据与第一神经网络的最终输出数据一致,在保留第二神经网络计算速度的前提下,大大提升了第二神经网络的计算性能。第二神经网络通过利用预先训练的第一神经网络的至少一层中间层的输出数据进行指导训练得到,其中,第一神经网络和第二神经网络训练使用的样本均为对象识别的训练样本。
将当前帧图像输入至第二神经网络中,得到对当前帧图像中特定对象的姿态识别结果。
步骤S103,根据特定对象的姿态识别结果,确定对应的待响应的命令,以供图像采集设备所在终端设备响应待响应的命令。
根据特定对象的不同的姿态识别结果,确定与其对应的待响应的命令。具体的,姿态识别结果包括如不同形状的面部姿态、手势、腿部动作、全身整体的姿态动作等,根据不同的姿态识别结果,结合不同的应用场景(视频数据所在场景、视频数据应用场景),可以为不同的姿态识别结果确定一个或多个对应的待响应的命令。其中,同一姿态识别结果对不同的应用场景可以确定不同的待响应的命令,不同姿态识别结果在同一应用场景中也可以确定相同的待响应的命令。一个姿态识别结果,确定的待响应的命令中可以包含一条或多条的处理命令。具体根据实施情况设置,此处不做限定。
确定待响应的命令后,对应的由图像采集设备所在终端设备响应该待响应的命令,将图像采集设备所在终端设备所显示的图像按照待响应的命令进行处理。
根据本发明提供的视频数据实时姿态识别方法,实时获取图像采集设备所拍摄和/或所录制的视频中的包含特定对象的当前帧图像;将当前帧图像输入至第二神经网络中,得到对当前帧图像中特定对象的姿态识别结果;其中,第二神经网络利用预先训练的第一神经网络的至少一层中间层的输出数据进行指导训练得到,第一神经网络的层数多于第二神经网络的层数;根据特定对象的姿态识别结果,确定对应的待响应的命令,以供图像采集设备所在终端设备响应待响应的命令。本发明利用层数较高的第一神经网络的至少一层中间层的输出数据对层数较少的第二神经网络进行指导训练,使得训练得到的第二神经网络在保持其快速计算的情况下,大大提升了其准确性。利用第二神经网络可以快速准确计算得到对当前帧图像中特定对象的姿态识别结果,方便根据得到的姿态识别结果确定具体的待响应的命令,以便对特定对象的姿态进行响应。快速准确的得到姿态识别结果,有利于及时对其作出响应。
图2示出了根据本发明一个实施例的姿态识别网络指导训练方法的流程示意图,如图2所示,姿态识别网络的指导训练步骤包括如下步骤:
步骤S201,将姿态识别的训练样本数据输入至经训练得到的第一神经网络中,获得第一神经网络的至少一层第一中间层的输出数据。
第一神经网络为预先经过训练已经固化的神经网络。具体地,第一神经网络预先使用了多个姿态识别的训练样本数据经过训练,第一神经网络已经能够很好的适用于姿态识别。其中,第一神经网络优选使用深层神经网络,如应用于云端服务器的神经网络,其性能好,计算量大,准确率高,速度会较慢。第一神经网络可以输出多层的第一中间层的输出数据,如第一神经网络包含4层第一中间层,分别为第4层第一中间层、第3层第一中间层、第2层第一中间层和第1层第一中间层,其中,第1层第一中间层为第一神经网络的瓶颈层。
将姿态识别的训练样本数据输入至第一神经网络中,可以获得第一神经网络的至少一层第一中间层的输出数据。这里,可以仅获取一层第一中间层的输出数据,也可以获取相邻多层的第一中间层的输出数据,或者获取相互间隔的多层的第一中间层的输出数据,具体根据实施的实际情况进行设置,此处不做限定。
步骤S202,将姿态识别的训练样本数据输入至待训练的第二神经网络中,获得第二神经网络的至少一层第二中间层的输出数据以及最终输出数据。
第二神经网络为姿态识别网络的指导训练中待训练的神经网络,为浅层神经网络,如应用于移动终端的神经网络,其计算能力有限,性能不佳。第一神经网络的层数多于第二神经网络。如第一神经网络的层数为4层,分别为第4层第一中间层、第3层第一中间层、第2层第一中间层和第1层第一中间层;第二神经网络的层数为2层,分别为第2层第二中间层和第1层第二中间层。
将姿态识别的训练样本数据输入至第二神经网络中,获得第二神经网络的至少一层第二中间层的输出数据。其中,至少一层第二中间层与至少一层第一中间层具有对应关系。如第一神经网络的第1层第一中间层与第二神经网络的第1层第二中间层对应,第一神经网络的第2层第一中间层与第二神经网络的第2层第二中间层对应。
获得的第二神经网络的第二中间层的输出数据需要与获得的第一神经网络的第一中间层的输出数据相对应,若获得第一神经网络的两层第一中间层的输出数据,也需要获得第二神经网络的两层第二中间层的输出数据。如获得第一神经网络的第1层和第2层第一中间层的输出数据,对应的获得第二神经网络的第1层和第2层第二中间层的输出数据。
优选的,至少一层第一中间层可以包含第一神经网络的瓶颈层,即第一神经网络的第1层第一中间层,至少一层第二中间层包含第二神经网络的瓶颈层,即第二神经网络的第1层第二中间层。瓶颈层即神经网络中隐藏层的最高层,输出的向量维度最少的一层中间层。使用瓶颈层,可以保证后续在进行训练时,使最终输出数据更加准确,得到较好的训练结果。
在将姿态识别的训练样本数据输入至待训练的第二神经网络中,除获得第二神经网络的至少一层第二中间层的输出数据外,还需要获得第二神经网络的最终输出数据,以便于利用最终输出数据计算损失,对第二神经网络进行训练。
考虑到第二神经网络为浅层神经网络,当姿态识别的训练样本数据较大时,直接使用姿态识别的训练样本数据会影响第二神经网络的运算速度。可选地,可以先对姿态识别的训练样本数据进行下采样处理,如姿态识别的训练样本数据为图片时,进行下采样处理可以先降低图片分辨率,将处理后的姿态识别的训练样本数据作为第二神经网络输入的姿态识别的训练样本数据。这样处理时,第二神经网络使用下采样处理后低分辨率的姿态识别的训练样本数据进行训练,第一神经网络使用高分辨率的姿态识别的训练样本数据进行训练,利用两个神经网络的输出数据进行训练时,使得第二神经网络对低分辨率的姿态识别的训练样本数据也可以获得高分辨率的输出结果。
步骤S203,利用至少一层第二中间层的输出数据与至少一层第一中间层的输出数据之间的损失,以及最终输出数据与预标注的输出数据之间的损失,对第二神经网络进行训练。
根据至少一层第二中间层的输出数据与至少一层第一中间层的输出数据之间的损失,可以更新第二神经网络的权重参数,使第二神经网络至少一层第二中间层的输出数据尽可能的去接近第一神经网络至少一层第一中间层的输出数据。
同时,根据第二神经网络的最终输出数据与预标注的输出数据之间的损失,可以更新第二神经网络的权重参数,使第二神经网络最终输出数据尽可能的去接近预标注的输出数据,保证第二神经网络最终输出数据的准确性。通过以上方式,完成对第二神经网络进行训练。可选地,当第二网络使用下采样处理后的姿态识别的训练样本数据时,还需要对下采样处理后的姿态识别的训练样本数据进行预标注,得到下采样处理后姿态识别的训练样本数据的预标注的输出数据。根据第二神经网络的最终输出数据与下采样处理后的预标注的输出数据之间的损失,可以更新第二神经网络的权重参数,使第二神经网络最终输出数据尽可能的去接近下采样处理后数据的预标注的输出数据,保证第二神经网络最终输出数据的准确性。
根据本发明提供的姿态识别网络指导训练方法,将姿态识别的训练样本数据输入至经训练得到的第一神经网络中,获得第一神经网络的至少一层第一中间层的输出数据;将姿态识别的训练样本数据输入至待训练的第二神经网络中,获得第二神经网络的至少一层第二中间层的输出数据以及最终输出数据,至少一层第二中间层与至少一层第一中间层具有对应关系;利用至少一层第二中间层的输出数据与至少一层第一中间层的输出数据之间的损失,以及最终输出数据与预标注的输出数据之间的损失,对第二神经网络进行训练。通过利用第一神经网络的至少一层第一中间层的输出数据对第二神经网络对应的至少一层第二中间层的输出数据进行训练,可以保持第二神经网络在其计算量不变的情况下,大大提升第二神经网络的性能,有效的缩减训练第二神经网络的训练时间,提高第二网络的训练效率。
图3示出了根据本发明另一个实施例的视频数据实时姿态识别方法的流程图。如图3所示,视频数据实时姿态识别方法具体包括如下步骤:
步骤S301,实时获取图像采集设备所拍摄和/或所录制的视频中的包含特定对象的当前帧图像。
步骤S302,将当前帧图像输入至第二神经网络中,得到对当前帧图像中特定对象的姿态识别结果。
以上步骤参照图1实施例中的步骤S101-S102,在此不再赘述。
步骤S303,根据特定对象的姿态识别结果,确定对应的对当前帧图像待响应的效果处理命令,以供图像采集设备所在终端设备响应待响应的效果处理命令。
图像采集设备所在终端设备所显示的图像为当前帧图像时,具体的,如用户使用手机等终端设备进行自拍、直播、录制快视频等,终端设备显示的图像为包含用户的当前帧图像。
根据对当前帧图像中用户姿态的姿态识别结果,确定对当前帧图像待响应的效果处理命令。如用户在自拍、直播或录制快视频时,识别当前帧图像得到姿态识别结果为手比心形,确定对当前帧图像的待响应的效果处理命令可以为在当前帧图像中增加心形效果贴图处理命令,心形效果贴图可以为静态贴图,也可以为动态贴图;或者,识别当前帧图像得到姿态识别结果为双手在头部下,做出小花姿态时,确定对当前帧图像的待响应的效果处理命令可以包括在头部增加向日葵的效果贴图命令、将当前帧图像的风格修改为田园风格的风格化处理命令、对当前帧图像的光照效果进行处理命令(晴天光照效果)等。确定待响应的效果处理命令后,对应的由图像采集设备所在终端设备响应该待响应的效果处理命令,将当前帧图像按照待响应的命令进行处理。
待响应的效果处理命令可以包括如各种效果贴图处理命令、风格化处理命令、亮度处理命令、光照处理命令、色调处理命令等。待响应的效果处理命令可以一次包括以上多种处理命令,以使按照待响应的效果处理命令对当前帧进行处理时,使处理后的当前帧图像的效果更逼真,整体更协调。
进一步,如用户在直播时,当前帧图像中除包含用户外,还包含了与其他对象(观看直播的观众)的交互信息,如观看直播的观众送给用户一个冰激凌,当前帧图像上会出现一个冰激凌。结合该交互信息,当得到的姿态识别结果为用户做出吃冰激凌的姿态,确定待响应的效果处理命令为去除原冰激凌效果贴图,增加冰激凌被咬减少的效果贴图。对应的由图像采集设备所在终端设备响应该待响应的效果处理命令,将当前帧图像按照待响应的命令进行处理,以增加与观看直播的观众的互动效果,吸引更多的观众观看直播。
步骤S304,获取图像采集设备所在终端设备所显示的图像。
步骤S305,根据特定对象的姿态识别结果,确定对应的图像待响应的命令,以供图像采集设备所在终端设备响应待响应的命令。
图像采集设备所在终端设备所显示的图像不是当前帧图像时,具体的,如用户使用手机等终端设备玩游戏、做运动等,手机屏幕显示的是游戏、运动等场景图像,手机摄像头获取的是包含用户的当前帧图像。对当前帧图像进行姿态识别,得到姿态识别结果,但该姿态识别结果对应的待响应的命令,是对游戏、运动等场景图像进行处理,因此,在对游戏、运动等场景图像进行处理前,还需要先获取游戏、运动等场景图像,即先获取图像采集设备所在终端设备所显示的图像。
根据对当前帧图像中用户姿态的姿态识别结果,如用户在使用终端设备玩游戏时,识别当前帧图像得到姿态识别结果为手掌切东西的姿态,确定对游戏场景图像待响应的命令为响应手掌切东西的动作,游戏场景图像中的对应的物品被切开;或者用户在使用终端设备做瑜伽时,识别当前帧图像得到姿态识别结果为某一瑜伽动作姿态,确定对瑜伽场景图像待响应的命令为将用户的瑜伽动作与瑜伽场景图像中的瑜伽动作进行比较,重点标注显示出用户瑜伽动作不规范的部分,还可以发出声音提醒用户以便改正。确定待响应的命令后,对应的由图像采集设备所在终端设备响应该待响应的命令,将图像采集设备所在终端设备所显示的图像按照待响应的命令进行处理。这样用户可以通过姿态变化完成对游戏、运动等场景画面的操作,简单、便捷、有趣,也可以提升用户的体验效果,增加用户对玩游戏、做运动等活动的黏性。
步骤S306,收集当前帧图像作为姿态识别的训练样本输入数据,以及,对当前帧图像进行人工标注,将标注后的当前帧图像作为预标注的输出数据。
当前帧图像和标注后的图像可以作为样本库中用于姿态识别的训练样本输入数据和输出数据。利用收集的当前帧图像和标注后的图像可以对第二神经网络进行优化训练,以使第二神经网络的输出结果更加准确。
根据本发明提供的视频数据实时姿态识别方法,利用经过训练的第二神经网络能够快速、准确地得到特定对象的姿态识别结果,有效地提高对特定对象的姿态识别结果的准确率,同时保证第二神经网络的处理效率。进一步,基于得到的特定对象的姿态识别结果,可以对当前帧图像按照待响应的命令进行处理,如增加各种效果贴图处理命令、风格化处理命令、亮度处理命令、光照处理命令、色调处理命令等,使得当前帧画面更生动有趣。当当前帧图像包含与其他对象的交互信息时,还可以根据交互信息,使待响应的命令可以实现与其他对象的互动,更吸引用户与其他对象进行交互,增加交互的趣味性。基于得到的特定对象的姿态识别结果,还可以对图像采集设备所在终端设备所显示的图像,如游戏、做运动等场景图像进行响应,使用户可以通过姿态变化完成对游戏、运动等场景画面的操作,简单、便捷、有趣,提升用户的体验效果,增加用户对玩游戏、做运动等活动的黏性。进一步,收集当前帧图像,对当前帧图像进行人工标注,将当前帧图像和标注后的图像放入样本库,可以对第二神经网络进行优化训练,以使第二神经网络的输出结果更加准确。
图4示出了根据本发明一个实施例的视频数据实时姿态识别装置的功能框图,如图4所示,该装置包括:
获取模块410,适于实时获取图像采集设备所拍摄和/或所录制的视频中的包含特定对象的当前帧图像。
本实施例中图像采集设备以终端设备所使用的摄像头为例进行说明。获取模块410实时获取到终端设备摄像头在录制视频时的当前帧图像或者拍摄视频时的当前帧图像。由于本发明对特定对象的姿态进行识别,因此获取模块410获取当前帧图像时仅获取包含特定对象的当前帧图像。
识别模块420,适于将当前帧图像输入至第二神经网络中,得到对当前帧图像中特定对象的姿态识别结果。
第二神经网络为浅层神经网络,其层数较少,计算速度快,一般适用于移动设备、小型计算器等设备。第一神经网络的层数多于第二神经网络的层数。第一神经网络的准确率更高,因此,利用预先训练的第一神经网络的至少一层中间层的输出数据对第二神经网络进行指导训练,使得第二神经网络最终的输出数据与第一神经网络的最终输出数据一致,在保留第二神经网络计算速度的前提下,大大提升了第二神经网络的计算性能。第二神经网络通过利用预先训练的第一神经网络的至少一层中间层的输出数据进行指导训练得到,其中,第一神经网络和第二神经网络训练使用的样本均为对象识别的训练样本。
识别模块420将当前帧图像输入至第二神经网络中,得到对当前帧图像中特定对象的姿态识别结果。
响应模块430,适于根据特定对象的姿态识别结果,确定对应的待响应的命令,以供图像采集设备所在终端设备响应待响应的命令。
响应模块430根据特定对象的不同的姿态识别结果,确定与其对应的待响应的命令。具体的,姿态识别结果包括如不同形状的面部姿态、手势、腿部动作、全身整体的姿态动作等,响应模块430根据不同的姿态识别结果,结合不同的应用场景(视频数据所在场景、视频数据应用场景),可以为不同的姿态识别结果确定一个或多个对应的待响应的命令。其中,响应模块430对同一姿态识别结果的不同应用场景可以确定不同的待响应的命令,响应模块430对不同姿态识别结果在同一应用场景中也可以确定相同的待响应的命令。一个姿态识别结果,响应模块430确定的待响应的命令中可以包含一条或多条的处理命令。具体根据实施情况设置,此处不做限定。
响应模块430确定待响应的命令后,对应的由图像采集设备所在终端设备响应该待响应的命令,将图像采集设备所在终端设备所显示的图像按照待响应的命令进行处理。
图像采集设备所在终端设备所显示的图像为当前帧图像时,具体的,如用户使用手机等终端设备进行自拍、直播、录制快视频等,终端设备显示的图像为包含用户的当前帧图像。
响应模块430进一步适于根据特定对象的姿态识别结果,确定对应的对当前帧图像待响应的效果处理命令,以供图像采集设备所在终端设备响应待响应的效果处理命令。
响应模块430根据对当前帧图像中用户姿态的姿态识别结果,确定对当前帧图像待响应的效果处理命令。如用户在自拍、直播或录制快视频时,识别模块420识别当前帧图像得到姿态识别结果为手比心形,响应模块430确定对当前帧图像的待响应的效果处理命令可以为在当前帧图像中增加心形效果贴图处理命令,心形效果贴图可以为静态贴图,也可以为动态贴图;或者,识别模块420识别当前帧图像得到姿态识别结果为双手在头部下,做出小花姿态时,响应模块430确定对当前帧图像的待响应的效果处理命令可以包括在头部增加向日葵的效果贴图命令、将当前帧图像的风格修改为田园风格的风格化处理命令、对当前帧图像的光照效果进行处理命令(晴天光照效果)等。响应模块430确定待响应的效果处理命令后,对应的由图像采集设备所在终端设备响应该待响应的效果处理命令,将当前帧图像按照待响应的命令进行处理。
待响应的效果处理命令可以包括如各种效果贴图处理命令、风格化处理命令、亮度处理命令、光照处理命令、色调处理命令等。待响应的效果处理命令可以一次包括以上多种处理命令,以使按照待响应的效果处理命令对当前帧进行处理时,使处理后的当前帧图像的效果更逼真,整体更协调。
进一步,如用户在直播时,当前帧图像中除包含用户外,还包含了与其他对象(观看直播的观众)的交互信息,如观看直播的观众送给用户一个冰激凌,当前帧图像上会出现一个冰激凌。当识别模块420得到的姿态识别结果为用户做出吃冰激凌的姿态,响应模块430结合该交互信息,确定待响应的效果处理命令为去除原冰激凌效果贴图,增加冰激凌被咬减少的效果贴图。对应的由图像采集设备所在终端设备响应该待响应的效果处理命令,将当前帧图像按照待响应的命令进行处理,以增加与观看直播的观众的互动效果,吸引更多的观众观看直播。
图像采集设备所在终端设备所显示的图像不是当前帧图像时,具体的,如用户使用手机等终端设备玩游戏、做运动等,手机屏幕显示的是游戏、运动等场景图像,手机摄像头获取的是包含用户的当前帧图像。对当前帧图像进行姿态识别,得到姿态识别结果,但该姿态识别结果对应的待响应的命令,是对游戏、运动等场景图像进行处理。
响应模块430进一步适于获取图像采集设备所在终端设备所显示的图像。根据特定对象的姿态识别结果,确定对应的图像待响应的命令,以供图像采集设备所在终端设备响应待响应的命令。
响应模块430先获取图像采集设备所在终端设备所显示的图像。根据对当前帧图像中用户姿态的姿态识别结果,如用户在使用终端设备玩游戏时,识别模块420识别当前帧图像得到姿态识别结果为手掌切东西的姿态,响应模块430确定对游戏场景图像待响应的命令为响应手掌切东西的动作,游戏场景图像中的对应的物品被切开;或者用户在使用终端设备做瑜伽时,识别模块420识别当前帧图像得到姿态识别结果为某一瑜伽动作姿态,响应模块430确定对瑜伽场景图像待响应的命令为将用户的瑜伽动作与瑜伽场景图像中的瑜伽动作进行比较,重点标注显示出用户瑜伽动作不规范的部分,还可以发出声音提醒用户以便改正。响应模块430确定待响应的命令后,对应的由图像采集设备所在终端设备响应该待响应的命令,将图像采集设备所在终端设备所显示的图像按照待响应的命令进行处理。这样用户可以通过姿态变化完成对游戏、运动等场景画面的操作,简单、便捷、有趣,也可以提升用户的体验效果,增加用户对玩游戏、做运动等活动的黏性。
根据本发明提供的视频数据实时姿态识别装置,实时获取图像采集设备所拍摄和/或所录制的视频中的包含特定对象的当前帧图像;将当前帧图像输入至第二神经网络中,得到对当前帧图像中特定对象的姿态识别结果;其中,第二神经网络利用预先训练的第一神经网络的至少一层中间层的输出数据进行指导训练得到,第一神经网络的层数多于第二神经网络的层数;根据特定对象的姿态识别结果,确定对应的待响应的命令,以供图像采集设备所在终端设备响应待响应的命令。本发明利用层数较高的第一神经网络的至少一层中间层的输出数据对层数较少的第二神经网络进行指导训练,使得训练得到的第二神经网络在保持其快速计算的情况下,大大提升了其准确性。利用第二神经网络可以快速准确计算得到对当前帧图像中特定对象的姿态识别结果,方便根据得到的姿态识别结果确定具体的待响应的命令,以便对特定对象的姿态进行响应。快速准确的得到姿态识别结果,有利于及时对其作出响应。进一步,基于得到的特定对象的姿态识别结果,可以对当前帧图像按照待响应的命令进行处理,如增加各种效果贴图处理命令、风格化处理命令、亮度处理命令、光照处理命令、色调处理命令等,使得当前帧画面更生动有趣。当当前帧图像包含与其他对象的交互信息时,还可以根据交互信息,使待响应的命令可以实现与其他对象的互动,更吸引用户与其他对象进行交互,增加交互的趣味性。基于得到的特定对象的姿态识别结果,还可以对图像采集设备所在终端设备所显示的图像,如游戏、做运动等场景图像进行响应,使用户可以通过姿态变化完成对游戏、运动等场景画面的操作,简单、便捷、有趣,提升用户的体验效果,增加用户对玩游戏、做运动等活动的黏性。
图5示出了根据本发明另一个实施例的视频数据实时姿态识别装置的功能框图,如图5所示,与图4相比,该装置还包括:
姿态识别指导训练模块440,姿态识别指导训练模块440包括:第一输出单元441、第二输出单元442和指导训练单元443,还可以包括下采样单元444。
第一输出单元441,适于将姿态识别的训练样本数据输入至经训练得到的第一神经网络中,获得第一神经网络的至少一层第一中间层的输出数据。
第一神经网络为预先经过训练已经固化的神经网络。具体地,第一神经网络预先使用了多个姿态识别的训练样本数据经过训练,第一神经网络已经能够很好的适用于姿态识别。其中,第一神经网络优选使用深层神经网络,如应用于云端服务器的神经网络,其性能好,计算量大,准确率高,速度会较慢。第一神经网络可以输出多层的第一中间层的输出数据,如第一神经网络包含4层第一中间层,分别为第4层第一中间层、第3层第一中间层、第2层第一中间层和第1层第一中间层,其中,第1层第一中间层为第一神经网络的瓶颈层。
第一输出单元441将姿态识别的训练样本数据输入至第一神经网络中,可以获得第一神经网络的至少一层第一中间层的输出数据。这里,第一输出单元441可以仅获取一层第一中间层的输出数据,也可以获取相邻多层的第一中间层的输出数据,或者第一输出单元441获取相互间隔的多层的第一中间层的输出数据,具体根据实施的实际情况进行设置,此处不做限定。
第二输出单元442,适于将姿态识别的训练样本数据输入至待训练的第二神经网络中,获得第二神经网络的至少一层第二中间层的输出数据以及最终输出数据,至少一层第二中间层与至少一层第一中间层具有对应关系。
第二神经网络为姿态识别网络的指导训练中待训练的神经网络,为浅层神经网络,如应用于移动终端的神经网络,其计算能力有限,性能不佳。第一神经网络的层数多于第二神经网络。如第一神经网络的层数为4层,分别为第4层第一中间层、第3层第一中间层、第2层第一中间层和第1层第一中间层;第二神经网络的层数为2层,分别为第2层第二中间层和第1层第二中间层。
第二输出单元442将姿态识别的训练样本数据输入至第二神经网络中,获得第二神经网络的至少一层第二中间层的输出数据。其中,至少一层第二中间层与至少一层第一中间层具有对应关系。如第一神经网络的第1层第一中间层与第二神经网络的第1层第二中间层对应,第一神经网络的第2层第一中间层与第二神经网络的第2层第二中间层对应。
第二输出单元442获得的第二神经网络的第二中间层的输出数据需要与获得的第一神经网络的第一中间层的输出数据相对应,若第一输出单元441获得第一神经网络的两层第一中间层的输出数据,第二输出单元442也需要获得第二神经网络的两层第二中间层的输出数据。如第一输出单元441获得第一神经网络的第1层和第2层第一中间层的输出数据,对应的第二输出单元442获得第二神经网络的第1层和第2层第二中间层的输出数据。
优选的,至少一层第一中间层可以包含第一神经网络的瓶颈层,即第一神经网络的第1层第一中间层,至少一层第二中间层包含第二神经网络的瓶颈层,即第二神经网络的第1层第二中间层。瓶颈层即神经网络中隐藏层的最高层,输出的向量维度最少的一层中间层。使用瓶颈层,可以保证后续指导训练单元443在进行训练时,使最终输出数据更加准确,得到较好的训练结果。
在第二输出单元442将姿态识别的训练样本数据输入至待训练的第二神经网络中,除获得第二神经网络的至少一层第二中间层的输出数据外,第二输出单元442还需要获得第二神经网络的最终输出数据,以便于利用最终输出数据计算损失,对第二神经网络进行训练。
下采样单元444,适于将姿态识别的训练样本数据进行下采样处理,将处理后的数据作为第二神经网络的姿态识别的训练样本数据。
考虑到第二神经网络为浅层神经网络,当姿态识别的训练样本数据较大时,直接使用姿态识别的训练样本数据会影响第二神经网络的运算速度。可选地,下采样单元444可以先对姿态识别的训练样本数据进行下采样处理,如姿态识别的训练样本数据为图片时,下采样单元444进行下采样处理可以先降低图片分辨率,将处理后的姿态识别的训练样本数据作为第二神经网络输入的姿态识别的训练样本数据。这样第二输出单元442使用下采样处理后低分辨率的姿态识别的训练样本数据进行训练,第一输出单元441使用高分辨率的姿态识别的训练样本数据进行训练,指导训练单元443利用两个神经网络的输出数据进行训练时,使得第二神经网络对低分辨率的姿态识别的训练样本数据也可以获得高分辨率的输出结果。指导训练单元443,适于利用至少一层第二中间层的输出数据与至少一层第一中间层的输出数据之间的损失,以及最终输出数据与预标注的输出数据之间的损失,对第二神经网络进行训练。
指导训练单元443根据至少一层第二中间层的输出数据与至少一层第一中间层的输出数据之间的损失,可以更新第二神经网络的权重参数,使第二神经网络至少一层第二中间层的输出数据尽可能的去接近第一神经网络至少一层第一中间层的输出数据。
同时,指导训练单元443根据第二神经网络的最终输出数据与预标注的输出数据之间的损失,可以更新第二神经网络的权重参数,使第二神经网络最终输出数据尽可能的去接近预标注的输出数据,保证第二神经网络最终输出数据的准确性。通过执行以上各单元,完成对第二神经网络进行训练。可选地,当姿态识别指导训练模块440包括下采样单元444时,下采样单元444还需要对下采样处理后的姿态识别的训练样本数据进行预标注,得到下采样处理后姿态识别的训练样本数据的预标注的输出数据。指导训练单元443根据第二神经网络的最终输出数据与下采样处理后的预标注的输出数据之间的损失,可以更新第二神经网络的权重参数,使第二神经网络最终输出数据尽可能的去接近下采样处理后数据的预标注的输出数据,保证第二神经网络最终输出数据的准确性。
收集模块450,适于收集当前帧图像作为姿态识别的训练样本输入数据,以及,对当前帧图像进行人工标注,将标注后的图像作为预标注的输出数据。
当前帧图像和标注后的图像可以作为样本库中用于姿态识别的训练样本输入数据和输出数据。利用收集模块450收集的当前帧图像和标注后的图像可以对第二神经网络进行优化训练,以使第二神经网络的输出结果更加准确。
根据本发明提供的视频数据实时姿态装置,利用经过训练的第二神经网络能够快速、准确地得到视频中当前帧图像对应的特定对象的姿态识别结果,有效地提高了对特定对象姿态识别结果的准确率,同时保证第二神经网络的处理效率。进一步,收集当前帧图像,对当前帧图像进行人工标注,将当前帧图像和标注后的图像放入样本库,可以对第二神经网络进行优化训练,以使第二神经网络的输出结果更加准确。
本申请还提供了一种非易失性计算机存储介质,所述计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的视频数据实时姿态识别方法。
图6示出了根据本发明一个实施例的一种计算设备的结构示意图,本发明具体实施例并不对计算设备的具体实现做限定。
如图6所示,该计算设备可以包括:处理器(processor)602、通信接口(Communications Interface)604、存储器(memory)606、以及通信总线608。
其中:
处理器602、通信接口604、以及存储器606通过通信总线608完成相互间的通信。
通信接口604,用于与其它设备比如客户端或其它服务器等的网元通信。
处理器602,用于执行程序610,具体可以执行上述视频数据实时姿态识别方法实施例中的相关步骤。
具体地,程序610可以包括程序代码,该程序代码包括计算机操作指令。
处理器602可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。计算设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器606,用于存放程序610。存储器606可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序610具体可以用于使得处理器602执行上述任意方法实施例中的视频数据实时姿态识别方法。程序510中各步骤的具体实现可以参见上述基于摄像头场景的姿态识别实施例中的相应步骤和单元中对应的描述,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的基于摄像头场景的姿态识别的装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
Claims (10)
1.一种视频数据实时姿态识别方法,其包括:
实时获取图像采集设备所拍摄和/或所录制的视频中的包含特定对象的当前帧图像;
将所述当前帧图像输入至第二神经网络中,得到对所述当前帧图像中特定对象的姿态识别结果;其中,所述第二神经网络利用预先训练的第一神经网络的至少一层中间层的输出数据进行指导训练得到,所述第一神经网络的层数多于所述第二神经网络的层数;
根据所述特定对象的姿态识别结果,确定对应的待响应的命令,以供所述图像采集设备所在终端设备响应所述待响应的命令。
2.根据权利要求1所述的方法,其中,所述图像采集设备所在终端设备所显示的图像为所述当前帧图像;
所述根据所述特定对象的姿态识别结果,确定对应的待响应的命令,以供所述图像采集设备所在终端设备响应所述待响应的命令进一步包括:
根据所述特定对象的姿态识别结果,确定对应的对当前帧图像待响应的效果处理命令,以供所述图像采集设备所在终端设备响应待响应的效果处理命令。
3.根据权利要求2所述的方法,其中,所述根据所述特定对象的姿态识别结果,确定对应的对当前帧图像待响应的效果处理命令,以供所述图像采集设备所在终端设备响应待执行的效果处理命令进一步包括:
根据所述特定对象的姿态识别结果,以及所述当前帧图像中的包含的与其他对象的交互信息,确定对应的对当前帧图像待响应的效果处理命令。
4.根据权利要求2或3所述的方法,其中,所述待响应的效果处理命令包括效果贴图处理命令、风格化处理命令、亮度处理命令、光照处理命令和/或色调处理命令。
5.根据权利要求1所述的方法,其中,所述图像采集设备所在终端设备所显示的图像不是所述当前帧图像;
所述根据所述特定对象的姿态识别结果,确定对应的待响应的命令,以供所述图像采集设备所在终端设备响应所述待响应的命令进一步包括:
获取所述图像采集设备所在终端设备所显示的图像;
根据所述特定对象的姿态识别结果,确定对应的所述图像待响应的命令,以供所述图像采集设备所在终端设备响应所述待响应的命令。
6.根据权利要求1-5中任一项所述的方法,其中,所述第二神经网络的训练过程包括:
将姿态识别的训练样本数据输入至经训练得到的第一神经网络中,获得第一神经网络的至少一层第一中间层的输出数据;
将姿态识别的训练样本数据输入至待训练的第二神经网络中,获得第二神经网络的至少一层第二中间层的输出数据以及最终输出数据,所述至少一层第二中间层与所述至少一层第一中间层具有对应关系;
利用所述至少一层第二中间层的输出数据与所述至少一层第一中间层的输出数据之间的损失,以及所述最终输出数据与预标注的输出数据之间的损失,对第二神经网络进行训练。
7.根据权利要求6所述的方法,其中,所述至少一层第一中间层包含第一神经网络的瓶颈层;所述至少一层第二中间层包含第二神经网络的瓶颈层。
8.一种视频数据实时姿态识别装置,其包括:
获取模块,适于实时获取图像采集设备所拍摄和/或所录制的视频中的包含特定对象的当前帧图像;
识别模块,适于将所述当前帧图像输入至第二神经网络中,得到对所述当前帧图像中特定对象的姿态识别结果;其中,所述第二神经网络利用预先训练的第一神经网络的至少一层中间层的输出数据进行指导训练得到,所述第一神经网络的层数多于所述第二神经网络的层数;
响应模块,适于根据所述特定对象的姿态识别结果,确定对应的待响应的命令,以供所述图像采集设备所在终端设备响应所述待响应的命令。
9.一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-7中任一项所述的视频数据实时姿态识别方法对应的操作。
10.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-7中任一项所述的视频数据实时姿态识别方法对应的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711157088.8A CN107944376A (zh) | 2017-11-20 | 2017-11-20 | 视频数据实时姿态识别方法及装置、计算设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711157088.8A CN107944376A (zh) | 2017-11-20 | 2017-11-20 | 视频数据实时姿态识别方法及装置、计算设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107944376A true CN107944376A (zh) | 2018-04-20 |
Family
ID=61930237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711157088.8A Pending CN107944376A (zh) | 2017-11-20 | 2017-11-20 | 视频数据实时姿态识别方法及装置、计算设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107944376A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110068326A (zh) * | 2019-04-29 | 2019-07-30 | 京东方科技集团股份有限公司 | 姿态计算方法、装置、电子设备以及存储介质 |
WO2020011014A1 (zh) * | 2018-07-13 | 2020-01-16 | 腾讯科技(深圳)有限公司 | 实时视频的目标检测与识别方法、系统、存储介质及设备 |
CN111311646A (zh) * | 2018-12-12 | 2020-06-19 | 杭州海康威视数字技术股份有限公司 | 一种光流神经网络训练方法及装置 |
CN112396042A (zh) * | 2021-01-20 | 2021-02-23 | 鹏城实验室 | 实时更新的目标检测方法及系统、计算机可读存储介质 |
CN115119004A (zh) * | 2019-05-13 | 2022-09-27 | 阿里巴巴集团控股有限公司 | 数据处理方法、信息显示方法、装置、服务器及终端设备 |
US11514368B2 (en) | 2019-03-29 | 2022-11-29 | Advanced New Technologies Co., Ltd. | Methods, apparatuses, and computing devices for trainings of learning models |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103294190A (zh) * | 2012-02-06 | 2013-09-11 | 福特全球技术公司 | 通过手势识别与车辆控制交互的识别系统 |
CN103809733A (zh) * | 2012-11-07 | 2014-05-21 | 北京三星通信技术研究有限公司 | 人机交互系统和方法 |
CN106157363A (zh) * | 2016-06-28 | 2016-11-23 | 广东欧珀移动通信有限公司 | 一种基于增强现实的拍照方法、装置和移动终端 |
US20170060254A1 (en) * | 2015-03-03 | 2017-03-02 | Nvidia Corporation | Multi-sensor based user interface |
CN106548190A (zh) * | 2015-09-18 | 2017-03-29 | 三星电子株式会社 | 模型训练方法和设备以及数据识别方法 |
CN106778576A (zh) * | 2016-12-06 | 2017-05-31 | 中山大学 | 一种基于sehm特征图序列的动作识别方法 |
CN107239728A (zh) * | 2017-01-04 | 2017-10-10 | 北京深鉴智能科技有限公司 | 基于深度学习姿态估计的无人机交互装置与方法 |
CN107247989A (zh) * | 2017-06-15 | 2017-10-13 | 北京图森未来科技有限公司 | 一种神经网络训练方法及装置 |
-
2017
- 2017-11-20 CN CN201711157088.8A patent/CN107944376A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103294190A (zh) * | 2012-02-06 | 2013-09-11 | 福特全球技术公司 | 通过手势识别与车辆控制交互的识别系统 |
CN103809733A (zh) * | 2012-11-07 | 2014-05-21 | 北京三星通信技术研究有限公司 | 人机交互系统和方法 |
US20170060254A1 (en) * | 2015-03-03 | 2017-03-02 | Nvidia Corporation | Multi-sensor based user interface |
CN106548190A (zh) * | 2015-09-18 | 2017-03-29 | 三星电子株式会社 | 模型训练方法和设备以及数据识别方法 |
CN106157363A (zh) * | 2016-06-28 | 2016-11-23 | 广东欧珀移动通信有限公司 | 一种基于增强现实的拍照方法、装置和移动终端 |
CN106778576A (zh) * | 2016-12-06 | 2017-05-31 | 中山大学 | 一种基于sehm特征图序列的动作识别方法 |
CN107239728A (zh) * | 2017-01-04 | 2017-10-10 | 北京深鉴智能科技有限公司 | 基于深度学习姿态估计的无人机交互装置与方法 |
CN107247989A (zh) * | 2017-06-15 | 2017-10-13 | 北京图森未来科技有限公司 | 一种神经网络训练方法及装置 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020011014A1 (zh) * | 2018-07-13 | 2020-01-16 | 腾讯科技(深圳)有限公司 | 实时视频的目标检测与识别方法、系统、存储介质及设备 |
US11625921B2 (en) | 2018-07-13 | 2023-04-11 | Tencent Technology (Shenzhen) Company Limited | Method and system for detecting and recognizing target in real-time video, storage medium, and device |
CN111311646A (zh) * | 2018-12-12 | 2020-06-19 | 杭州海康威视数字技术股份有限公司 | 一种光流神经网络训练方法及装置 |
CN111311646B (zh) * | 2018-12-12 | 2023-04-07 | 杭州海康威视数字技术股份有限公司 | 一种光流神经网络训练方法及装置 |
US11514368B2 (en) | 2019-03-29 | 2022-11-29 | Advanced New Technologies Co., Ltd. | Methods, apparatuses, and computing devices for trainings of learning models |
CN110068326A (zh) * | 2019-04-29 | 2019-07-30 | 京东方科技集团股份有限公司 | 姿态计算方法、装置、电子设备以及存储介质 |
CN115119004A (zh) * | 2019-05-13 | 2022-09-27 | 阿里巴巴集团控股有限公司 | 数据处理方法、信息显示方法、装置、服务器及终端设备 |
CN115119004B (zh) * | 2019-05-13 | 2024-03-29 | 阿里巴巴集团控股有限公司 | 数据处理方法、信息显示方法、装置、服务器及终端设备 |
CN112396042A (zh) * | 2021-01-20 | 2021-02-23 | 鹏城实验室 | 实时更新的目标检测方法及系统、计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107944376A (zh) | 视频数据实时姿态识别方法及装置、计算设备 | |
US12100087B2 (en) | System and method for generating an avatar that expresses a state of a user | |
CN103049761B (zh) | 基于手语手套的手语识别方法及系统 | |
CN109902659B (zh) | 用于处理人体图像的方法和装置 | |
CN110457414A (zh) | 离线地图处理、虚拟对象显示方法、装置、介质和设备 | |
CN108062526A (zh) | 一种人体姿态估计方法及移动终端 | |
CN109712144A (zh) | 面部图像的处理方法、训练方法、设备和存储介质 | |
CN107622524A (zh) | 用于移动终端的显示方法和显示装置 | |
CN106325509A (zh) | 三维手势识别方法及系统 | |
CN110163059A (zh) | 多人姿态识别方法、装置及电子设备 | |
CN107341436B (zh) | 手势检测网络训练、手势检测及控制方法、系统及终端 | |
CN111222486B (zh) | 手部姿态识别模型的训练方法、装置、设备及存储介质 | |
CN112198959A (zh) | 虚拟现实交互方法、装置及系统 | |
CN107895161A (zh) | 基于视频数据的实时姿态识别方法及装置、计算设备 | |
EP3968131A1 (en) | Object interaction method, apparatus and system, computer-readable medium, and electronic device | |
CN108096833A (zh) | 基于级联神经网络的体感游戏控制方法及装置、计算设备 | |
CN109035415B (zh) | 虚拟模型的处理方法、装置、设备和计算机可读存储介质 | |
EP3591618A2 (en) | Method and apparatus for converting 3d scanned objects to avatars | |
CN108111911A (zh) | 基于自适应跟踪框分割的视频数据实时处理方法及装置 | |
CN111694426A (zh) | Vr虚拟采摘互动体验系统、方法、电子设备及存储介质 | |
JP2017037424A (ja) | 学習装置、認識装置、学習プログラム、及び認識プログラム | |
CN109740567A (zh) | 关键点定位模型训练方法、定位方法、装置及设备 | |
CN108379817A (zh) | 肢体康复训练系统及方法 | |
CN107851113A (zh) | 被配置为基于从表演传感器单元导出的用户表演属性来实现对媒体数据的自动分类和/或搜索的框架、设备和方法 | |
CN107609946A (zh) | 一种显示控制方法及计算设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180420 |
|
RJ01 | Rejection of invention patent application after publication |