CN107526438A - 根据举手动作进行跟踪录播的方法、装置及存储装置 - Google Patents

根据举手动作进行跟踪录播的方法、装置及存储装置 Download PDF

Info

Publication number
CN107526438A
CN107526438A CN201710672544.6A CN201710672544A CN107526438A CN 107526438 A CN107526438 A CN 107526438A CN 201710672544 A CN201710672544 A CN 201710672544A CN 107526438 A CN107526438 A CN 107526438A
Authority
CN
China
Prior art keywords
hand
raising
video
action
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710672544.6A
Other languages
English (en)
Other versions
CN107526438B (zh
Inventor
陈洪军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Tomorrow Industrial Ltd By Share Ltd
Original Assignee
Shenzhen Tomorrow Industrial Ltd By Share Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Tomorrow Industrial Ltd By Share Ltd filed Critical Shenzhen Tomorrow Industrial Ltd By Share Ltd
Priority to CN201710672544.6A priority Critical patent/CN107526438B/zh
Publication of CN107526438A publication Critical patent/CN107526438A/zh
Application granted granted Critical
Publication of CN107526438B publication Critical patent/CN107526438B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Abstract

本发明公开了根据举手动作进行跟踪录播的方法、装置及存储装置,所述方法包括步骤:预先对举手动作视频进行深度学习,生成训练好的举手检测网络模型;以及将实时采集的待检测视频采用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制。本发明先通过深度学习建立举手检测网络模型,然后将实时采集的待检测视频采用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,从而能够实时的根据被录像人的举手动作调整摄像机镜头进行跟踪录播,不仅降低了跟踪录播成本,而且大大提高了跟踪录播的准确率。

Description

根据举手动作进行跟踪录播的方法、装置及存储装置
技术领域
[0001] 本发明涉及跟踪录播技术领域,尤其涉及一种根据举手动作进行跟踪录播的方 法、装置及存储装置。
背景技术
[0002] 录播系统是把现场摄录的视频、音频、电子设备的图像信号进行整合同步录制,生 成标准化的流媒体文件,用来对外直播、存储、后期编辑、点播。录播系统进行跟踪录播时, 如何根据被录着的行为调整录播策略至关重要,现有的跟踪录播大多是通过增加辅助摄像 头对高度进行检测,判断是否被录像人(例如学生)有站立动作,从而相应的调整摄像头,这 样不仅成本较高,而且仅能根据高度判断,容易出错,不够智能,不能根据被录像人的举手 动作调整摄像机镜头。
[0003]因此,现有技术还有待于改进和发展。
发明内容
[0004]鉴于上述现有技术的不足,本发明的目的在于提供一种根据举手动作进行跟踪录 播的方法、装置及存储装置,从而克服现有的跟踪录播方法成本较高,容易出错,不够智能, 不能根据被录像人的举手动作调整摄像机镜头的问题。
[0005]本发明的技术方案如下:
[0006]本发明提供一种根据举手动作进行跟踪录播的方法,包括:
[0007]步骤A、预先对举手动作视频进行深度学习,生成训练好的举手检测网络模型;以 及
[0008]步骤B、将实时采集的待检测视频采用训练好的举手检测网络模型进行计算,判断 待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制。
[0009]所述的根据举手动作进行跟踪录播的方法,其中,所述步骤A具体包括:
[0010]步骤A1、制作举手动作视频模板,并构建包含训练集和测试集的举手视频数据库; [0011] 步骤A2、构建用于深度学习的3D神经网络模型;
[0012]步骤A3、采用3D神经网络模型对举手视频数据库中的举手动作视频模板进行训练 学习,生成训练好的举手检测网络模型。
[0013]所述的根据举手动作进行跟踪录播的方法,其中,所述步骤A3具体包括:
[0014] 步骤A31、对3D神经网络模型进行深度学习参数配置;
[0015]步骤A32、对举手动作视频模板中手的2D静态特征进行学习,同时利用多帧2D静态 图形成的手的运动历史图构建3D举手特征进行学习,得到初步训练的举手检测网络模型; [0016]步骤A33、使用测试集的举手动作视频模板对初步训练的举手检测网络模型进行 测试,判断测试的准确率是否超过预设的准确率阈值,当是时,生成训练好的举手检测网络 模型。
[0017]所述的根据举手动作进行跟踪录播的方法,其中,所述步骤A3具体还包括:
[0018] 步骤A34、当测试的准确率没有超过预设的准确率阈值时,将训练集的测试失败值 反馈给训练集进行学习,重复步骤A32。
[0019] 所述的根据举手动作进行跟踪录播的方法,其中,所述步骤A32具体包括:
[0020] 步骤A321、对举手动作视频模板中手的2D静态特征进行学习,并利用多帧2D静态 图形成的手的运动历史图构建3D举手特征进行学习;
[0021]步骤A322、判断学习次数是否大于预设学习次数阈值,当是时,得到初步训练的举 手检测网络模型,之后进入步骤A33。
[0022] 所述的根据举手动作进行跟踪录播的方法,其中,所述步骤B具体包括:
[0023] 步骤B1、加载训练好的举手检测网络模型,并输入实时采集的待检测视频,然后对 待检测视频进行预处理;
[0024] 步骤B2、将预处理后的待检测视频采用训练好的举手检测网络模型进行计算,判 断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制。
[0025] 本发明又提供一种根据举手动作进行跟踪录播的装置,包括:
[0026] 深度学习模块,用于预先对举手动作图片进行深度学习,生成训练好的举手检测 网络模型;以及
[0027] 举手判断模块,用于将实时采集的待检测视频采用训练好的举手检测网络模型进 行计算,判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制。
[0028] 所述的根据举手动作进行跟踪录播的装置,其中,所述举手判断模块具体包括:
[0029] 预处理单元,用于加载训练好的举手检测网络模型,并输入实时采集的待检测视 频,然后对待检测视频进行预处理;
[0030] 举手判断单元,用于将预处理后的待检测视频采用训练好的举手检测网络模型进 行计算,判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制。
[0031] 本发明还提供另一种根据举手动作进行跟踪录播的装置,包括存储器、处理器以 及存储在所述存储器中并可在所述处理器上运行的计算机程序,其中,所述处理器执行所 述计算机程序时实现如以上任一项所述方法的步骤。
[0032] 本发明还提供一种存储装置,其中,所述存储装置存储有计算机程序,所述计算机 程序能够被执行以实现如以上任一项所述方法的步骤。
[0033] 本发明的有益效果是:本发明提供了一种根据举手动作进行跟踪录播的方法、装 置及存储装置,所述方法先通过深度学习建立举手检测网络模型,然后将实时采集的待检 测视频采用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频, 从而能够实时的根据被录像人的举手动作调整摄像机镜头进行跟踪录播,不仅降低了跟踪 录播成本,而且大大提高了跟踪录播的准确率。
附图说明
[0034] 图1是本发明根据举手动作进行跟踪录播的方法的流程图。
[0035] 图2为本发明根据举手动作进行跟踪录播的装置的原理框图。
具体实施方式
[0036] 本发明提供一种根据举手动作进行跟踪录播的方法、装置及存储装置,为使本发 明的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本发明进一步详细 说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。 [0037]请参见图1,图1是本发明实施例提供的根据举手动作进行跟踪录播的方法的流程 图。图1所示的根据举手动作进行跟踪录播的方法,包括: t〇〇38] 步骤S100、预先对举手动作视频进行深度学习,生成训练好的举手检测网络模型; 以及
[0039]步骤S200、将实时采集的待检测视频采用训练好的举手检测网络模型进行计算, 判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制。
[0040] 进一步的,本实施例中,所述步骤S100具体包括:
[0041] 步骤S110、制作举手动作视频模板,并构建包含训练集和测试集的举手视频数据 库;具体实施时,构建举手视频数据库也即是对数据进行预处理,组成训练集和测试集。
[0042] 步骤Sl2〇、构建用于深度学习的3D神经网络模型;具体实施时,可以以caffe深度 学习框架为基础,构建包括举手动作检测模型和举手动作识别模型的举手检测3D神经网络 模型设计,包括手检测(手的2D静态特征)和运动历史图检测(3D举手特征)。
[0043] 步骤S130、采用3D神经网络模型对举手视频数据库中的举手动作视频模板进行训 练学习,生成训练好的举手检测网络模型。
[0044] 进一步的,本实施例中,所述步骤S130具体包括:
[0045] 步骤S131、对3D神经网络模型进行深度学习参数配置;具体实施时,可以设置学习 率为0.001,学习率更新策略(inv)动量为0.9,最大迭代次数为10w。
[0046] 步骤S132、对举手动作视频模板中手的2D静态特征进行学习,同时利用多帧2D静 态图形成的手的运动历史图构建3D举手特征进行学习,得到初步训练的举手检测网络模 型。
[0047]步骤S133、使用测试集的举手动作视频模板对初步训练的举手检测网络模型进行 测试,判断测试的准确率是否超过预设的准确率阈值,当是时,生成训练好的举手检测网络 模型;具体实施时,使用测试集的举手动作视频模板对初步训练的举手检测网络模型进行 测试,计算测试集准确率和失败(loss)值,可以设置预设的准确率阈值为0.98。在其他实施 例中,也可以判断是否达到最大迭代次数,当达到时,则生成训练好的举手检测网络模型。 [0048] 步骤S134、当测试的准确率没有超过预设的准确率阈值时,将训练集的测试失败 值反馈给训练集进行学习,重复步骤S132;具体实施时,将训练集的测试失败值反馈给训练 集进行学习,也即是计算训练集loss值并反向传播的过程。
[0049] 进一步的,本实施例中,所述步骤S132具体包括:
[0050] 步骤S1321、对举手动作视频模板中手的2D静态特征进行学习,并利用多帧2D静态 图形成的手的运动历史图构建3D举手特征进行学习;具体实施时,静态为2D,历史图相当于 增加一个时间维度变为3D;先对手2D特征进行提效学习,然后记录手运动历史图构建3D举 手特征,相当于说,先用算法检测手在哪里,然后利用多帧2D静态图来形成手的运动历史 图。
[0051] 步骤S1322、判断学习次数是否大于预设学习次数阈值,当是时,得到初步训练的 举手检测网络模型,之后进入步骤S133;具体实施时,可以将判定是否大于预设学习次数阈 值,转化为判断是否学习次数达到测试间隔或达到最大迭代次数;当是时,得到初步训练的 举手检测网络模型,当没有大于预设学习次数阈值时,则计算训练集loss值并反向传播,重 复步骤S132。
[0052] 进一步的,本实施例中,所述步骤S200具体包括:
[0053]步骤S210、加载训练好的举手检测网络模型,并输入实时采集的待检测视频,然后 对待检测视频进行预处理;具体实施时,首先加载训练好的举手检测网络模型,然后进行实 时视频输入,同时对视频进行预处理,其中预处理包括调整大小(resize)等操作。
[0054] 步骤S220、将预处理后的待检测视频采用训练好的举手检测网络模型进行计算, 判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制;具体实施时,具 体的计算过程包括使用3D模型参数进行特征向量提取,对视频进行分类,然后判断是否是 举手动作,当是时,进行相应的跟踪录播控制;其中,所述相应的跟踪录播控制包括拉近镜 头以及调整摄像头拍摄角度等业务操作控制。
[0055]本发明先通过深度学习建立举手检测网络模型,然后将实时采集的待检测视频采 用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,从而能够 实时的根据被录像人的举手动作调整摄像机镜头进行跟踪录播,不仅降低了跟踪录播成 本,而且大大提尚了跟踪录播的准确率。
[0056] 本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过 程序指令相关的硬件来完成,前述的程序可以存储与一计算机可读取存储介质中,该程序 在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁盘、光盘、只 读存储记忆体(Read-Only,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
[0057]基于以上所述根据举手动作进行跟踪录播的方法,本发明实施例还提供一种存储 装置,其中,所述存储装置存储有计算机程序,所述计算机程序能够被执行以实现如以上任 一项所述方法的步骤。
[0058] 基于以上所述的根据举手动作进行跟踪录播的方法,本发明实施例提供的第一种 根据举手动作进行跟踪录播的装置,包括存储器、处理器以及存储在所述存储器中并可在 所述处理器上运行的计算机程序,其中,所述处理器执行所述计算机程序时实现如以上任 一项所述方法的步骤。
[0059]基于以上所述的根据举手动作进行跟踪录播的方法,本发明实施例提供的第二种 根据举手动作进行跟踪录播的装置,如图2所示,包括:深度学习模块100、举手判断模块 200,其中,
[0060] 深度学习模块100,用于预先对举手动作图片进行深度学习,生成训练好的举手检 测网络模型;具体如上所述。
[0061] 举手判断模块200,用于将实时采集的待检测视频采用训练好的举手检测网络模 型进行计算,判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制;具 体如上所述。
[0062] 进一步的,所述举手判断模块200具体包括:
[0063]预处理单元,用于加载训练好的举手检测网络模型,并输入实时采集的待检测视 频,然后对待检测视频进行预处理;具体如上所述。
[0064] 举手判断单元,用于将预处理后的待检测视频采用训练好的举手检测网络模型进 行计算,判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制;具体如 上所述。
[0065]综上,本发明提供了一种根据举手动作进行跟踪录播的方法、装置及存储装置,所 述方法先通过深度学习建立举手检测网络模型,然后将实时采集的待检测视频采用训练好 的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,从而能够实时的根 据被录像人的举手动作调整摄像机镜头进行跟踪录播,不仅降低了跟踪录播成本,而且大 大提尚了跟踪录播的准确率。
[0066] 应当理解的是,本发明的应用不限于上述的举例,对本领域普通技术人员来说,可 以根据上述说明加以改进或变换,所有这些改进和变换都应属于本发明所附权利要求的保 护范围。

Claims (10)

1. 一种根据举手动作进行跟踪录播的方法,其特征在于,包括步骤: 步骤A、预先对举手动作视频进行深度学习,生成训练好的举手检测网络模型;以及 步骤B、将实时采集的待检测视频采用训练好的举手检测网络模型进行计算,判断待检 测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制。
2. 根据权利要求1所述的根据举手动作进行跟踪录播的方法,其特征在于,所述步骤A 具体包括: 步骤A1、制作举手动作视频模板,并构建包含训练集和测试集的举手视频数据库; 步骤A2、构建用于深度学习的3D神经网络模型; 步骤A3、采用3D神经网络模型对举手视频数据库中的举手动作视频模板进行训练学 习,生成训练好的举手检测网络模型。
3. 根据权利要求2所述的根据举手动作进行跟踪录播的方法,其特征在于,所述步骤A3 具体包括: 步骤A31、对3D神经网络模型进行深度学习参数配置; 步骤A32、对举手动作视频模板中手的2D静态特征进行学习,同时利用多帧2D静态图形 成的手的运动历史图构建3D举手特征进行学习,得到初步训练的举手检测网络模型; 步骤A33、使用测试集的举手动作视频模板对初步训练的举手检测网络模型进行测试, 判断测试的准确率是否超过预设的准确率阈值,当是时,生成训练好的举手检测网络模型。
4. 根据权利要求3所述的根据举手动作进行跟踪录播的方法,其特征在于,所述步骤A3 具体还包括: 步骤A34、当测试的准确率没有超过预设的准确率阈值时,将训练集的测试失败值反馈 给训练集进行学习,重复步骤A32。
5. 根据权利要求3所述的根据举手动作进行跟踪录播的方法,其特征在于,所述步骤 A32具体包括: 步骤A321、对举手动作视频模板中手的2D静态特征进行学习,并利用多帧2D静态图形 成的手的运动历史图构建3D举手特征进行学习; 步骤A322、判断学习次数是否大于预设学习次数阈值,当是时,得到初步训练的举手检 测网络模型,之后进入步骤A33。
6. 根据权利要求1所述的根据举手动作进行跟踪录播的方法,其特征在于,所述步骤B 具体包括: 步骤B1、加载训练好的举手检测网络模型,并输入实时采集的待检测视频,然后对待检 测视频进行预处理; 步骤B2、将预处理后的待检测视频采用训练好的举手检测网络模型进行计算,判断待 检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制。
7. —种根据举手动作进行跟踪录播的装置,其特征在于,包括: 深度学习模块,用于预先对举手动作图片进行深度学习,生成训练好的举手检测网络 模型;以及 举手判断模块,用于将实时采集的待检测视频采用训练好的举手检测网络模型进行计 算,判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制。
8.根据权利要求7所述的根据举手动作进行跟踪录播的装置,其特征在于,所述举手判 断模块具体包括: 预处理单元,用于加载训练好的举手检测网络模型,并输入实时采集的待检测视频,然 后对待检测视频进行预处理; 举手判断单元,用于将预处理后的待检测视频采用训练好的举手检测网络模型进行计 算,判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制。
9.一种根据举手动作进行跟踪录播的装置,包括存储器、处理器以及存储在所述存储 器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机® 序时实现如权利要求1〜6任一项所述方法的步骤。 @
10. —种存储装置,其特征在于,所述存储装置存储有计算机程序,所述计算机程序# 够被执行以实现如权利要求1〜6任一项所述方法的步骤。
CN201710672544.6A 2017-08-08 2017-08-08 根据举手动作进行跟踪录播的方法、装置及存储装置 Active CN107526438B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710672544.6A CN107526438B (zh) 2017-08-08 2017-08-08 根据举手动作进行跟踪录播的方法、装置及存储装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710672544.6A CN107526438B (zh) 2017-08-08 2017-08-08 根据举手动作进行跟踪录播的方法、装置及存储装置

Publications (2)

Publication Number Publication Date
CN107526438A true CN107526438A (zh) 2017-12-29
CN107526438B CN107526438B (zh) 2020-11-13

Family

ID=60680901

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710672544.6A Active CN107526438B (zh) 2017-08-08 2017-08-08 根据举手动作进行跟踪录播的方法、装置及存储装置

Country Status (1)

Country Link
CN (1) CN107526438B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108416797A (zh) * 2018-02-27 2018-08-17 鲁东大学 一种检测行为变化的方法、设备及存储介质
CN110839128A (zh) * 2018-08-16 2020-02-25 杭州海康威视数字技术股份有限公司 拍照行为检测方法、装置及存储介质

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04156610A (en) * 1990-10-19 1992-05-29 Fujitsu Ltd Automatic recognition device for man action using neural network
CN101354608A (zh) * 2008-09-04 2009-01-28 中兴通讯股份有限公司 一种视频输入实现方法及系统
CN103973986A (zh) * 2014-05-30 2014-08-06 苏州天趣信息科技有限公司 一种基于移动终端照相机的调焦及其镜头切换方法
CN104573621A (zh) * 2014-09-30 2015-04-29 李文生 基于Chebyshev神经网络的动态手势学习和识别方法
CN105373785A (zh) * 2015-11-30 2016-03-02 北京地平线机器人技术研发有限公司 基于深度神经网络的手势识别检测方法与装置
CN105391964A (zh) * 2015-11-04 2016-03-09 广东欧珀移动通信有限公司 一种视频数据处理方法和装置
US20160117053A1 (en) * 2010-06-14 2016-04-28 Amx Llc Gesture recognition using neural networks
CN106127146A (zh) * 2016-06-22 2016-11-16 电子科技大学 一种基于手势识别的无人机航迹指引方法
CN106127248A (zh) * 2016-06-24 2016-11-16 平安科技(深圳)有限公司 基于深度学习的车牌分类方法及系统
CN106506931A (zh) * 2015-09-07 2017-03-15 富泰华工业(深圳)有限公司 电子装置及其拍照控制方法和系统
US20170161607A1 (en) * 2015-12-04 2017-06-08 Pilot Ai Labs, Inc. System and method for improved gesture recognition using neural networks
US20170161555A1 (en) * 2015-12-04 2017-06-08 Pilot Ai Labs, Inc. System and method for improved virtual reality user interaction utilizing deep-learning
US20170206405A1 (en) * 2016-01-14 2017-07-20 Nvidia Corporation Online detection and classification of dynamic gestures with recurrent convolutional neural networks
CN106980365A (zh) * 2017-02-21 2017-07-25 华南理工大学 基于深度卷积神经网络框架的第一视角动态手势识别方法
CN106991372A (zh) * 2017-03-02 2017-07-28 北京工业大学 一种基于混合深度学习模型的动态手势识别方法
CN106991386A (zh) * 2017-02-27 2017-07-28 杭州电子科技大学 一种基于深度残差网络的手势识别方法

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04156610A (en) * 1990-10-19 1992-05-29 Fujitsu Ltd Automatic recognition device for man action using neural network
CN101354608A (zh) * 2008-09-04 2009-01-28 中兴通讯股份有限公司 一种视频输入实现方法及系统
US20160117053A1 (en) * 2010-06-14 2016-04-28 Amx Llc Gesture recognition using neural networks
CN103973986A (zh) * 2014-05-30 2014-08-06 苏州天趣信息科技有限公司 一种基于移动终端照相机的调焦及其镜头切换方法
CN104573621A (zh) * 2014-09-30 2015-04-29 李文生 基于Chebyshev神经网络的动态手势学习和识别方法
CN106506931A (zh) * 2015-09-07 2017-03-15 富泰华工业(深圳)有限公司 电子装置及其拍照控制方法和系统
CN105391964A (zh) * 2015-11-04 2016-03-09 广东欧珀移动通信有限公司 一种视频数据处理方法和装置
CN105373785A (zh) * 2015-11-30 2016-03-02 北京地平线机器人技术研发有限公司 基于深度神经网络的手势识别检测方法与装置
US20170161607A1 (en) * 2015-12-04 2017-06-08 Pilot Ai Labs, Inc. System and method for improved gesture recognition using neural networks
US20170161555A1 (en) * 2015-12-04 2017-06-08 Pilot Ai Labs, Inc. System and method for improved virtual reality user interaction utilizing deep-learning
US20170206405A1 (en) * 2016-01-14 2017-07-20 Nvidia Corporation Online detection and classification of dynamic gestures with recurrent convolutional neural networks
CN106127146A (zh) * 2016-06-22 2016-11-16 电子科技大学 一种基于手势识别的无人机航迹指引方法
CN106127248A (zh) * 2016-06-24 2016-11-16 平安科技(深圳)有限公司 基于深度学习的车牌分类方法及系统
CN106980365A (zh) * 2017-02-21 2017-07-25 华南理工大学 基于深度卷积神经网络框架的第一视角动态手势识别方法
CN106991386A (zh) * 2017-02-27 2017-07-28 杭州电子科技大学 一种基于深度残差网络的手势识别方法
CN106991372A (zh) * 2017-03-02 2017-07-28 北京工业大学 一种基于混合深度学习模型的动态手势识别方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108416797A (zh) * 2018-02-27 2018-08-17 鲁东大学 一种检测行为变化的方法、设备及存储介质
CN110839128A (zh) * 2018-08-16 2020-02-25 杭州海康威视数字技术股份有限公司 拍照行为检测方法、装置及存储介质
CN110839128B (zh) * 2018-08-16 2021-04-27 杭州海康威视数字技术股份有限公司 拍照行为检测方法、装置及存储介质

Also Published As

Publication number Publication date
CN107526438B (zh) 2020-11-13

Similar Documents

Publication Publication Date Title
CN108256433B (zh) 一种运动姿态评估方法及系统
CN105516280B (zh) 一种多模态学习过程状态信息压缩记录方法
JP6646124B2 (ja) トラッキングネットワークを含むCNN(Convolutional Neural Network)を用いてイメージ上の客体に対応するバウンディングボックスを獲得するための方法及びこれを利用した装置
CN106941602B (zh) 机车司机行为识别方法及装置
CN106203283A (zh) 基于三维卷积深度神经网络和深度视频的动作识别方法
CN108229268A (zh) 表情识别及卷积神经网络模型训练方法、装置和电子设备
CN106897658A (zh) 人脸活体的鉴别方法和装置
CN106407889A (zh) 基于光流图深度学习模型在视频中人体交互动作识别方法
CN106897746A (zh) 数据分类模型训练方法和装置
CN104517097A (zh) 一种基于kinect的运动人体姿态识别方法
CN107944434A (zh) 一种基于旋转摄像头的报警方法及终端
CN107316029A (zh) 一种活体验证方法及设备
CN107526438A (zh) 根据举手动作进行跟踪录播的方法、装置及存储装置
CN110047512B (zh) 一种环境声音分类方法、系统及相关装置
CN108230355A (zh) 目标跟踪及神经网络训练方法、装置、存储介质和电子设备
CN107633527A (zh) 基于全卷积神经网络的目标追踪方法及装置
CN105893942B (zh) 一种基于eSC和HOG的自适应HMM的手语识别方法
CN108665005A (zh) 一种利用dcgan提高基于cnn图像识别性能的方法
CN102314598A (zh) 基于Retinex理论的复杂光照下的人眼检测方法
CN103092925B (zh) 一种视频摘要生成方法和装置
CN106778574A (zh) 用于人脸图像的检测方法和装置
CN104992708B (zh) 短时特定音频检测模型生成与检测方法
CN111814587A (zh) 人体行为检测方法、教师行为检测方法及相关系统和装置
CN110532850B (zh) 一种基于视频关节点和混合分类器的跌倒检测方法
CN110472608A (zh) 图像识别跟踪处理方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 518000 Ganli Industrial Park, Jihua Street, Longgang District, Shenzhen City, Guangdong Province

Applicant after: Shenzhen Tomorrow Industrial Co., Ltd.

Address before: 518000 Zhonghai Credit Innovation Industry City, No. 12 Ganli Six Road, Buji Street, Longgang District, Shenzhen City, Guangdong Province, 5th-6th floor, 13B building, 6th floor, 13A building

Applicant before: Shenzhen tomorrow industrial Limited by Share Ltd

GR01 Patent grant
GR01 Patent grant