CN107526438B - 根据举手动作进行跟踪录播的方法、装置及存储装置 - Google Patents
根据举手动作进行跟踪录播的方法、装置及存储装置 Download PDFInfo
- Publication number
- CN107526438B CN107526438B CN201710672544.6A CN201710672544A CN107526438B CN 107526438 B CN107526438 B CN 107526438B CN 201710672544 A CN201710672544 A CN 201710672544A CN 107526438 B CN107526438 B CN 107526438B
- Authority
- CN
- China
- Prior art keywords
- hand
- lifting
- video
- network model
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Abstract
本发明公开了根据举手动作进行跟踪录播的方法、装置及存储装置,所述方法包括步骤:预先对举手动作视频进行深度学习,生成训练好的举手检测网络模型;以及将实时采集的待检测视频采用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制。本发明先通过深度学习建立举手检测网络模型,然后将实时采集的待检测视频采用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,从而能够实时的根据被录像人的举手动作调整摄像机镜头进行跟踪录播,不仅降低了跟踪录播成本,而且大大提高了跟踪录播的准确率。
Description
技术领域
本发明涉及跟踪录播技术领域,尤其涉及一种根据举手动作进行跟踪录播的方法、装置及存储装置。
背景技术
录播系统是把现场摄录的视频、音频、电子设备的图像信号进行整合同步录制,生成标准化的流媒体文件,用来对外直播、存储、后期编辑、点播。录播系统进行跟踪录播时,如何根据被录着的行为调整录播策略至关重要,现有的跟踪录播大多是通过增加辅助摄像头对高度进行检测,判断是否被录像人(例如学生)有站立动作,从而相应的调整摄像头,这样不仅成本较高,而且仅能根据高度判断,容易出错,不够智能,不能根据被录像人的举手动作调整摄像机镜头。
因此,现有技术还有待于改进和发展。
发明内容
鉴于上述现有技术的不足,本发明的目的在于提供一种根据举手动作进行跟踪录播的方法、装置及存储装置,从而克服现有的跟踪录播方法成本较高,容易出错,不够智能,不能根据被录像人的举手动作调整摄像机镜头的问题。
本发明的技术方案如下:
本发明提供一种根据举手动作进行跟踪录播的方法,包括:
步骤A、预先对举手动作视频进行深度学习,生成训练好的举手检测网络模型;以及
步骤B、将实时采集的待检测视频采用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制。
所述的根据举手动作进行跟踪录播的方法,其中,所述步骤A具体包括:
步骤A1、制作举手动作视频模板,并构建包含训练集和测试集的举手视频数据库;
步骤A2、构建用于深度学习的3D神经网络模型;
步骤A3、采用3D神经网络模型对举手视频数据库中的举手动作视频模板进行训练学习,生成训练好的举手检测网络模型。
所述的根据举手动作进行跟踪录播的方法,其中,所述步骤A3具体包括:
步骤A31、对3D神经网络模型进行深度学习参数配置;
步骤A32、对举手动作视频模板中手的2D静态特征进行学习,同时利用多帧2D静态图形成的手的运动历史图构建3D举手特征进行学习,得到初步训练的举手检测网络模型;
步骤A33、使用测试集的举手动作视频模板对初步训练的举手检测网络模型进行测试,判断测试的准确率是否超过预设的准确率阈值,当是时,生成训练好的举手检测网络模型。
所述的根据举手动作进行跟踪录播的方法,其中,所述步骤A3具体还包括:
步骤A34、当测试的准确率没有超过预设的准确率阈值时,将训练集的测试失败值反馈给训练集进行学习,重复步骤A32。
所述的根据举手动作进行跟踪录播的方法,其中,所述步骤A32具体包括:
步骤A321、对举手动作视频模板中手的2D静态特征进行学习,并利用多帧2D静态图形成的手的运动历史图构建3D举手特征进行学习;
步骤A322、判断学习次数是否大于预设学习次数阈值,当是时,得到初步训练的举手检测网络模型,之后进入步骤A33。
所述的根据举手动作进行跟踪录播的方法,其中,所述步骤B具体包括:
步骤B1、加载训练好的举手检测网络模型,并输入实时采集的待检测视频,然后对待检测视频进行预处理;
步骤B2、将预处理后的待检测视频采用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制。
本发明又提供一种根据举手动作进行跟踪录播的装置,包括:
深度学习模块,用于预先对举手动作图片进行深度学习,生成训练好的举手检测网络模型;以及
举手判断模块,用于将实时采集的待检测视频采用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制。
所述的根据举手动作进行跟踪录播的装置,其中,所述举手判断模块具体包括:
预处理单元,用于加载训练好的举手检测网络模型,并输入实时采集的待检测视频,然后对待检测视频进行预处理;
举手判断单元,用于将预处理后的待检测视频采用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制。
本发明还提供另一种根据举手动作进行跟踪录播的装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其中,所述处理器执行所述计算机程序时实现如以上任一项所述方法的步骤。
本发明还提供一种存储装置,其中,所述存储装置存储有计算机程序,所述计算机程序能够被执行以实现如以上任一项所述方法的步骤。
本发明的有益效果是:本发明提供了一种根据举手动作进行跟踪录播的方法、装置及存储装置,所述方法先通过深度学习建立举手检测网络模型,然后将实时采集的待检测视频采用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,从而能够实时的根据被录像人的举手动作调整摄像机镜头进行跟踪录播,不仅降低了跟踪录播成本,而且大大提高了跟踪录播的准确率。
附图说明
图1是本发明根据举手动作进行跟踪录播的方法的流程图。
图2为本发明根据举手动作进行跟踪录播的装置的原理框图。
具体实施方式
本发明提供一种根据举手动作进行跟踪录播的方法、装置及存储装置,为使本发明的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
请参见图1,图1是本发明实施例提供的根据举手动作进行跟踪录播的方法的流程图。图1所示的根据举手动作进行跟踪录播的方法,包括:
步骤S100、预先对举手动作视频进行深度学习,生成训练好的举手检测网络模型;以及
步骤S200、将实时采集的待检测视频采用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制。
进一步的,本实施例中,所述步骤S100具体包括:
步骤S110、制作举手动作视频模板,并构建包含训练集和测试集的举手视频数据库;具体实施时,构建举手视频数据库也即是对数据进行预处理,组成训练集和测试集。
步骤S120、构建用于深度学习的3D神经网络模型;具体实施时,可以以caffe深度学习框架为基础,构建包括举手动作检测模型和举手动作识别模型的举手检测3D神经网络模型设计,包括手检测(手的2D静态特征)和运动历史图检测(3D举手特征)。
步骤S130、采用3D神经网络模型对举手视频数据库中的举手动作视频模板进行训练学习,生成训练好的举手检测网络模型。
进一步的,本实施例中,所述步骤S130具体包括:
步骤S131、对3D神经网络模型进行深度学习参数配置;具体实施时,可以设置学习率为0.001,学习率更新策略(inv)动量为0.9,最大迭代次数为10w。
步骤S132、对举手动作视频模板中手的2D静态特征进行学习,同时利用多帧2D静态图形成的手的运动历史图构建3D举手特征进行学习,得到初步训练的举手检测网络模型。
步骤S133、使用测试集的举手动作视频模板对初步训练的举手检测网络模型进行测试,判断测试的准确率是否超过预设的准确率阈值,当是时,生成训练好的举手检测网络模型;具体实施时,使用测试集的举手动作视频模板对初步训练的举手检测网络模型进行测试,计算测试集准确率和失败(loss)值,可以设置预设的准确率阈值为0.98。在其他实施例中,也可以判断是否达到最大迭代次数,当达到时,则生成训练好的举手检测网络模型。
步骤S134、当测试的准确率没有超过预设的准确率阈值时,将训练集的测试失败值反馈给训练集进行学习,重复步骤S132;具体实施时,将训练集的测试失败值反馈给训练集进行学习,也即是计算训练集loss值并反向传播的过程。
进一步的,本实施例中,所述步骤S132具体包括:
步骤S1321、对举手动作视频模板中手的2D静态特征进行学习,并利用多帧2D静态图形成的手的运动历史图构建3D举手特征进行学习;具体实施时,静态为2D,历史图相当于增加一个时间维度变为3D;先对手2D特征进行提效学习,然后记录手运动历史图构建3D举手特征,相当于说,先用算法检测手在哪里,然后利用多帧2D静态图来形成手的运动历史图。
步骤S1322、判断学习次数是否大于预设学习次数阈值,当是时,得到初步训练的举手检测网络模型,之后进入步骤S133;具体实施时,可以将判定是否大于预设学习次数阈值,转化为判断是否学习次数达到测试间隔或达到最大迭代次数;当是时,得到初步训练的举手检测网络模型,当没有大于预设学习次数阈值时,则计算训练集loss值并反向传播,重复步骤S132。
进一步的,本实施例中,所述步骤S200具体包括:
步骤S210、加载训练好的举手检测网络模型,并输入实时采集的待检测视频,然后对待检测视频进行预处理;具体实施时,首先加载训练好的举手检测网络模型,然后进行实时视频输入,同时对视频进行预处理,其中预处理包括调整大小(resize)等操作。
步骤S220、将预处理后的待检测视频采用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制;具体实施时,具体的计算过程包括使用3D模型参数进行特征向量提取,对视频进行分类,然后判断是否是举手动作,当是时,进行相应的跟踪录播控制;其中,所述相应的跟踪录播控制包括拉近镜头以及调整摄像头拍摄角度等业务操作控制。
本发明先通过深度学习建立举手检测网络模型,然后将实时采集的待检测视频采用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,从而能够实时的根据被录像人的举手动作调整摄像机镜头进行跟踪录播,不仅降低了跟踪录播成本,而且大大提高了跟踪录播的准确率。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储与一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁盘、光盘、只读存储记忆体(Read-Only,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
基于以上所述根据举手动作进行跟踪录播的方法,本发明实施例还提供一种存储装置,其中,所述存储装置存储有计算机程序,所述计算机程序能够被执行以实现如以上任一项所述方法的步骤。
基于以上所述的根据举手动作进行跟踪录播的方法,本发明实施例提供的第一种根据举手动作进行跟踪录播的装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其中,所述处理器执行所述计算机程序时实现如以上任一项所述方法的步骤。
基于以上所述的根据举手动作进行跟踪录播的方法,本发明实施例提供的第二种根据举手动作进行跟踪录播的装置,如图2所示,包括:深度学习模块100、举手判断模块200,其中,
深度学习模块100,用于预先对举手动作图片进行深度学习,生成训练好的举手检测网络模型;具体如上所述。
举手判断模块200,用于将实时采集的待检测视频采用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制;具体如上所述。
进一步的,所述举手判断模块200具体包括:
预处理单元,用于加载训练好的举手检测网络模型,并输入实时采集的待检测视频,然后对待检测视频进行预处理;具体如上所述。
举手判断单元,用于将预处理后的待检测视频采用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制;具体如上所述。
综上,本发明提供了一种根据举手动作进行跟踪录播的方法、装置及存储装置,所述方法先通过深度学习建立举手检测网络模型,然后将实时采集的待检测视频采用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,从而能够实时的根据被录像人的举手动作调整摄像机镜头进行跟踪录播,不仅降低了跟踪录播成本,而且大大提高了跟踪录播的准确率。
应当理解的是,本发明的应用不限于上述的举例,对本领域普通技术人员来说,可以根据上述说明加以改进或变换,所有这些改进和变换都应属于本发明所附权利要求的保护范围。
Claims (3)
1.一种根据举手动作进行跟踪录播的方法,其特征在于,包括步骤:
步骤A、预先对举手动作视频进行深度学习,生成训练好的举手检测网络模型;以及
步骤B、将实时采集的待检测视频采用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制;
所述步骤B具体包括:
步骤B1、加载训练好的举手检测网络模型,并输入实时采集的待检测视频,然后对待检测视频进行预处理;
步骤B2、将预处理后的待检测视频采用训练好的举手检测网络模型进行计算,判断待检测视频是否为举手动作视频,当是时,进行相应的跟踪录播控制;计算过程包括使用3D模型参数进行特征向量提取,对视频进行分类,然后判断是否是举手动作,当是时,进行相应的跟踪录播控制;其中,所述相应的跟踪录播控制包括拉近镜头以及调整摄像头拍摄角度;
所述步骤A具体包括:
步骤A1、制作举手动作视频模板,并构建包含训练集和测试集的举手视频数据库;
步骤A2、构建用于深度学习的3D神经网络模型;以caffe深度学习框架为基础,构建包括举手动作检测模型和举手动作识别模型的举手检测3D神经网络模型设计,包括手检测和运动历史图检测;
步骤A3、采用3D神经网络模型对举手视频数据库中的举手动作视频模板进行训练学习,生成训练好的举手检测网络模型;
所述步骤A3具体包括:
步骤A31、对3D神经网络模型进行深度学习参数配置;设置学习率为0.001,学习率更新策略动量为0.9,最大迭代次数为10w;
步骤A32、对举手动作视频模板中手的2D静态特征进行学习,同时利用多帧2D静态图形成的手的运动历史图构建3D举手特征进行学习,得到初步训练的举手检测网络模型;
步骤A33、使用测试集的举手动作视频模板对初步训练的举手检测网络模型进行测试,判断测试的准确率是否超过预设的准确率阈值,当是时,生成训练好的举手检测网络模型;
所述步骤A3具体还包括:
步骤A34、当测试的准确率没有超过预设的准确率阈值时,将训练集的测试失败值反馈给训练集进行学习,重复步骤A32;
所述步骤A32具体包括:
步骤A321、对举手动作视频模板中手的2D静态特征进行学习,并利用多帧2D静态图形成的手的运动历史图构建3D举手特征进行学习;
步骤A322、判断学习次数是否大于预设学习次数阈值,当是时,得到初步训练的举手检测网络模型,之后进入步骤A33。
2.一种根据举手动作进行跟踪录播的装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1所述方法的步骤。
3.一种存储装置,其特征在于,所述存储装置存储有计算机程序,所述计算机程序能够被执行以实现如权利要求1所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710672544.6A CN107526438B (zh) | 2017-08-08 | 2017-08-08 | 根据举手动作进行跟踪录播的方法、装置及存储装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710672544.6A CN107526438B (zh) | 2017-08-08 | 2017-08-08 | 根据举手动作进行跟踪录播的方法、装置及存储装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107526438A CN107526438A (zh) | 2017-12-29 |
CN107526438B true CN107526438B (zh) | 2020-11-13 |
Family
ID=60680901
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710672544.6A Active CN107526438B (zh) | 2017-08-08 | 2017-08-08 | 根据举手动作进行跟踪录播的方法、装置及存储装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107526438B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108416797A (zh) * | 2018-02-27 | 2018-08-17 | 鲁东大学 | 一种检测行为变化的方法、设备及存储介质 |
CN110839128B (zh) * | 2018-08-16 | 2021-04-27 | 杭州海康威视数字技术股份有限公司 | 拍照行为检测方法、装置及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103973986A (zh) * | 2014-05-30 | 2014-08-06 | 苏州天趣信息科技有限公司 | 一种基于移动终端照相机的调焦及其镜头切换方法 |
CN105373785A (zh) * | 2015-11-30 | 2016-03-02 | 北京地平线机器人技术研发有限公司 | 基于深度神经网络的手势识别检测方法与装置 |
CN105391964A (zh) * | 2015-11-04 | 2016-03-09 | 广东欧珀移动通信有限公司 | 一种视频数据处理方法和装置 |
CN106506931A (zh) * | 2015-09-07 | 2017-03-15 | 富泰华工业(深圳)有限公司 | 电子装置及其拍照控制方法和系统 |
CN106991372A (zh) * | 2017-03-02 | 2017-07-28 | 北京工业大学 | 一种基于混合深度学习模型的动态手势识别方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2558943B2 (ja) * | 1990-10-19 | 1996-11-27 | 富士通株式会社 | ニューラルネットワークを用いた人間の動作自動認識装置 |
CN101354608A (zh) * | 2008-09-04 | 2009-01-28 | 中兴通讯股份有限公司 | 一种视频输入实现方法及系统 |
US9285983B2 (en) * | 2010-06-14 | 2016-03-15 | Amx Llc | Gesture recognition using neural networks |
CN104573621A (zh) * | 2014-09-30 | 2015-04-29 | 李文生 | 基于Chebyshev神经网络的动态手势学习和识别方法 |
US20170161555A1 (en) * | 2015-12-04 | 2017-06-08 | Pilot Ai Labs, Inc. | System and method for improved virtual reality user interaction utilizing deep-learning |
US20170161607A1 (en) * | 2015-12-04 | 2017-06-08 | Pilot Ai Labs, Inc. | System and method for improved gesture recognition using neural networks |
US10157309B2 (en) * | 2016-01-14 | 2018-12-18 | Nvidia Corporation | Online detection and classification of dynamic gestures with recurrent convolutional neural networks |
CN106127146A (zh) * | 2016-06-22 | 2016-11-16 | 电子科技大学 | 一种基于手势识别的无人机航迹指引方法 |
CN106127248A (zh) * | 2016-06-24 | 2016-11-16 | 平安科技(深圳)有限公司 | 基于深度学习的车牌分类方法及系统 |
CN106980365A (zh) * | 2017-02-21 | 2017-07-25 | 华南理工大学 | 基于深度卷积神经网络框架的第一视角动态手势识别方法 |
CN106991386A (zh) * | 2017-02-27 | 2017-07-28 | 杭州电子科技大学 | 一种基于深度残差网络的手势识别方法 |
-
2017
- 2017-08-08 CN CN201710672544.6A patent/CN107526438B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103973986A (zh) * | 2014-05-30 | 2014-08-06 | 苏州天趣信息科技有限公司 | 一种基于移动终端照相机的调焦及其镜头切换方法 |
CN106506931A (zh) * | 2015-09-07 | 2017-03-15 | 富泰华工业(深圳)有限公司 | 电子装置及其拍照控制方法和系统 |
CN105391964A (zh) * | 2015-11-04 | 2016-03-09 | 广东欧珀移动通信有限公司 | 一种视频数据处理方法和装置 |
CN105373785A (zh) * | 2015-11-30 | 2016-03-02 | 北京地平线机器人技术研发有限公司 | 基于深度神经网络的手势识别检测方法与装置 |
CN106991372A (zh) * | 2017-03-02 | 2017-07-28 | 北京工业大学 | 一种基于混合深度学习模型的动态手势识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107526438A (zh) | 2017-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6646124B2 (ja) | トラッキングネットワークを含むCNN(Convolutional Neural Network)を用いてイメージ上の客体に対応するバウンディングボックスを獲得するための方法及びこれを利用した装置 | |
US10497145B2 (en) | System and method for real-time large image homography processing | |
CN107483813B (zh) | 一种根据手势进行跟踪录播的方法、装置及存储装置 | |
CN107403426B (zh) | 一种目标物体检测方法及设备 | |
US9928405B2 (en) | System and method for detecting and tracking facial features in images | |
CN112889108B (zh) | 使用视听数据进行说话分类 | |
JP2020524861A (ja) | セマンティックセグメンテーションモデルの訓練方法および装置、電子機器、ならびに記憶媒体 | |
US20160133022A1 (en) | Systems and methods for tracking an object | |
CN109389105B (zh) | 一种基于多任务的虹膜检测和视角分类方法 | |
CN107526438B (zh) | 根据举手动作进行跟踪录播的方法、装置及存储装置 | |
CN103955682A (zh) | 基于surf兴趣点的行为识别方法及装置 | |
US20200401151A1 (en) | Device motion control | |
CN111026115A (zh) | 一种基于深度学习的机器人避障控制方法及装置 | |
CN103218663A (zh) | 信息处理装置、信息处理方法和程序 | |
CN113205138A (zh) | 人脸人体匹配方法、设备和存储介质 | |
CN111242176B (zh) | 计算机视觉任务的处理方法、装置及电子系统 | |
JP2019117556A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7006782B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
CN110310260B (zh) | 基于机器学习模型的分料决策方法、设备和存储介质 | |
CN112560791A (zh) | 识别模型的训练方法、识别方法、装置及电子设备 | |
CN111160190B (zh) | 面向车载行人检测的分类辅助核相关滤波跟踪方法 | |
EP3076370B1 (en) | Method and system for selecting optimum values for parameter set for disparity calculation | |
CN111582654B (zh) | 基于深度循环神经网络的服务质量评价方法及其装置 | |
CN113554685A (zh) | 遥感卫星运动目标检测方法、装置、电子设备及存储介质 | |
CN113065379A (zh) | 融合图像质量的图像检测方法、装置、电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 518000 Ganli Industrial Park, Jihua Street, Longgang District, Shenzhen City, Guangdong Province Applicant after: Shenzhen Tomorrow Industrial Co., Ltd. Address before: 518000 Zhonghai Credit Innovation Industry City, No. 12 Ganli Six Road, Buji Street, Longgang District, Shenzhen City, Guangdong Province, 5th-6th floor, 13B building, 6th floor, 13A building Applicant before: Shenzhen tomorrow industrial Limited by Share Ltd |
|
GR01 | Patent grant | ||
GR01 | Patent grant |