CN116189237A - 一种目标跟踪识别方法、装置、计算机设备及存储介质 - Google Patents
一种目标跟踪识别方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN116189237A CN116189237A CN202310196567.XA CN202310196567A CN116189237A CN 116189237 A CN116189237 A CN 116189237A CN 202310196567 A CN202310196567 A CN 202310196567A CN 116189237 A CN116189237 A CN 116189237A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- preset
- identifying
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 91
- 239000013598 vector Substances 0.000 claims description 29
- 238000005452 bending Methods 0.000 claims description 24
- 238000001514 detection method Methods 0.000 claims description 20
- 210000001145 finger joint Anatomy 0.000 claims description 16
- 210000003857 wrist joint Anatomy 0.000 claims description 14
- 238000007781 pre-processing Methods 0.000 claims description 12
- 238000013135 deep learning Methods 0.000 claims description 11
- 210000000811 metacarpophalangeal joint Anatomy 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 7
- 210000003811 finger Anatomy 0.000 description 55
- 210000001503 joint Anatomy 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 210000003813 thumb Anatomy 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 210000004932 little finger Anatomy 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 235000019800 disodium phosphate Nutrition 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本申请实施例属于目标类别目标跟踪识别技术领域,涉及一种目标跟踪识别方法,包括:获取第一帧图像;通过预设的第一模型对第一帧图像中的目标进行识别,得到目标的初始参数;基于初始参数识别目标类别;以下一帧目标图像代替第一帧图像,以当前目标关键点代替初始参数;重复执行基于初始参数识别目标类别的步骤,直到满足预设的终止条件。本申请还提供一种目标跟踪识别装置、计算机设备及存储介质。采用本申请的技术方案可以提高目标跟踪识别的速度。
Description
技术领域
本申请涉及目标类别目标跟踪识别技术领域,尤其涉及一种目标跟踪识别方法、装置、计算机设备及存储介质。
背景技术
现有的目标跟踪识别算法,主要是通过深度学习的方法自动实现对各种移动或不断变换姿态等的目标的跟踪识别(比如:移动的人、移动的汽车、不断变换姿态的手部)。
然而,现有的目标跟踪识别方法往往跟踪效率不高,导致存在一定的跟踪滞后性。
发明内容
本申请实施例的目的在于提出一种目标跟踪识别方法、装置、计算机设备及存储介质,以提高目标跟踪识别的速度。
第一方面,本申请实施例提供一种目标跟踪识别方法,采用了如下所述的技术方案:
一种目标跟踪识别方法,用于对目标进行跟踪识别,包括下述步骤:
获取第一帧图像;所述第一帧图像中包括目标;
通过预设的第一模型对第一帧图像中的目标进行识别,得到目标的初始参数;
基于所述初始参数识别目标类别,包括:基于所述初始参数,从所述第一帧图像中截取目标图像;通过预设的第二模型对所述目标图像进行关键点检测,得到当前目标关键点;基于所述当前目标关键点识别目标类别;
以所述下一帧目标图像代替所述第一帧图像,以所述当前目标关键点代替所述初始参数;重复执行所述基于所述初始参数识别目标类别的步骤,直到满足预设的终止条件。
进一步的,所述获取第一帧图像之前,还包括下述步骤:
获取当前图像;
通过所述预设的第一模型对所述当前图像中的所述目标进行识别;
判断是否识别到所述目标;
若没有识别到所述目标,重复执行上述步骤,直到识别到所述目标为止,以此时对应的当前图像作为所述第一帧图像。
进一步的,所述通过预设的第二模型对所述目标图像进行关键点检测,得到当前目标关键点之后,还包括下述步骤:
判断是否检测到所述当前目标关键点;
若未检测到所述当前目标关键点,则返回执行所述获取第一帧图像;所述通过预设的第一模型对第一帧图像中的目标进行识别;所述基于所述初始参数,从所述第一帧图像中截取目标图像;所述通过预设的第二模型对所述目标图像进行关键点检测,得到当前目标关键点的步骤。
进一步的,所述通过预设的第一模型对第一帧图像中的目标进行识别,得到目标的初始参数具体包括下述步骤:
通过所述预设的第一模型对所述第一帧图像中的所述目标进行识别,得到所述目标的备选参数及所述备选参数对应的置信度;
选取最高置信度对应的所述备选参数;
判断选取的所述备选参数对应的所述目标是否为上一目标;
若是,以选取的所述备选参数作为所述目标的初始参数;
若否,以距离所述上一目标最近的所述目标对应的所述备选参数作为所述目标的初始参数。
进一步的,当所述目标为手部;所述基于所述当前目标关键点识别目标类别包括下述步骤:
基于所述当前目标关键点计算手指弯曲度;
基于所述手指弯曲度识别手势类别。
进一步的,所述目标关键点为手部的预设关节点;所述基于所述当前目标关键点计算手指弯曲度包括下述步骤:
获取所述预设关节点在所述手部图像中的坐标;预设关节点包括:腕关节点、手指掌指关节点、手指指间关节点和手指顶端关节点;
基于所述坐标,结合公式(1)计算腕关节点和手指掌指关节之间的第一向量;基于所述坐标,结合公式(2)计算手指指间关节点和手指顶端关节点之间的第二向量;
基于所述第一向量和所述第二向量,结合公式(3)求取所述手指关节的弯曲角度;
其中,θ为手指关节的弯曲角度。
进一步的,所述初始参数包括:目标包围框关键点和目标方向关键点;和/或
所述通过预设的第二模型对目标进行关键点检测之前,还包括下述步骤:
基于深度学习框架,搭建所述预设的第一模型和/或所述预设的第二模型的重构模型;
提取所述预设的第一模型和/或所述预设的第二模型中每层网络的权重参数;
将所述权重参数作为所述重构模型的对应层的参数。
进一步的,所述基于初始参数,从第一帧图像中截取目标图像之后,所述通过预设的第二模型对所述目标图像进行关键点检测之前,还包括下述步骤:对所述目标图像进行预处理;和/或
所述目标图像为包括至少部分所述初始参数的目标图像。
进一步的,所述初始参数包括:目标包围框关键点和目标方向关键点;则当所述目标跟踪识别方法包括对所述目标图像进行预处理的步骤,所述方法具体包括下述步骤:
基于所述目标方向关键点,将所述目标旋转至预设角度;
将旋转后的所述目标图像填充为符合预设规格要求的图像。
第二方面,本申请实施例提供一种目标跟踪识别装置,用于对目标进行跟踪识别,包括:
图像获取模块,用于获取第一帧图像;所述第一帧图像中包括目标;
参数识别模块,用于通过预设的第一模型对第一帧图像中的目标进行识别,得到目标的初始参数;
弯曲识别模块,用于基于所述初始参数识别目标类别,包括:基于所述初始参数,从所述第一帧图像中截取目标图像;通过预设的第二模型对所述目标图像进行关键点检测,得到当前目标关键点;基于所述当前目标关键点识别目标类别;
重复执行模块,用于以所述下一帧目标图像代替所述第一帧图像,以所述当前目标关键点代替所述初始参数;重复执行所述基于所述初始参数识别目标类别的步骤,直到满足预设的终止条件。
第三方面,本申请实施例提供一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现上面任一项所述的目标跟踪识别方法的步骤。
第四方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上面任一项所述的目标跟踪识别方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
本申请实施例通过预设的第一模型对第一帧图像中的目标进行识别,得到目标的初始参数;基于初始参数,从第一帧图像中截取目标图像;通过预设的第二模型对目标图像进行关键点检测,得到当前目标关键点;基于当前目标关键点识别目标类别;以下一帧目标图像代替第一帧图像,以上一帧图像识别得到的当前目标关键点代替初始参数;重复执行基于初始参数识别目标类别的步骤,直到满足预设的终止条件。通过以预设的第一模型对第一帧图像的初始识别为基础,再通过第二模型对后续帧图像进行高精度识别,从而整体提高了目标跟踪识别的速度。
另外,可以针对预设的第一模型和预设的第二模型具有的不同功能,分别选择、替换更合适的模型,从而提高本申请的目标类别跟踪方法适用的灵活性和鲁棒性。
另外,基于检测得到的当前目标关键点,可以识别得到目标类别,从而进一步提高跟踪识别方法的应用范围。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2是本申请截取的包括初始参数的目标图像的一个实施例的示意图;
图3是本申请基于第二模型检测到的目标关键点的一个实施例的示意图;
图4是本申请的目标跟踪识别方法的一个实施例的流程图;
图5是本申请的目标跟踪识别方法的另一个实施例的流程图;
图6是本申请的目标跟踪识别装置的一个实施例的结构示意图;
图7是本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,图1是本申请可以应用于其中的示例性系统架构图。
本申请实施例提供一种目标跟踪识别系统100,该系统包括:图像传感器110和控制器120。
图像传感器110与控制器120通过有线或者无线的方式通信连接。
需要指出的是,上述无线连接方式可以包括但不限于:3G/4G/5G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
图像传感器110,用于采集目标200的图像。
具体地,图像传感器可以但不限于是:照相机、摄像机、扫描仪或其他带有相关功能的设备(手机、电脑)等。
另外,图像传感器可以为二维图像传感器、多维图像传感器。图像传感器的数量可以根据需要设计为一组或者多组,每组图像传感器可以根据需要为一个或者多个等等。
控制器120,用于执行本申请实施例所述的目标跟踪识别方法等。
本发明实施例提供的目标跟踪识别方法可以应用于计算机终端(PersonalComputer,PC);工业控制计算机终端(Industrial Personal Computer,IPC);移动终端;服务器;包括终端和服务器的系统,并通过终端和服务器的交互实现;可编程逻辑控制器(Programmable Logic Controller,PLC);现场可编程门阵列(Field-Programmable GateArray,FPGA);数字信号处理器(Digital SignalProcesser,DSP)或微控制单元(Microcontroller unit,MCU)等类似的控制器中执行。控制器根据预先固定的程序,结合外部的IMU110等采集的数据等生成程序指令。有关控制器的具体限定可以参见下面实施例中目标跟踪识别方法的限定。
其中,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络),以及大数据和人工智能平台等基础云计算服务的云服务器。终端可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音响、智能手表等,但并不局限于此。终端以及服务器可以通过有线或者无线通信方式进行直接或间接地连接,本申请在此不做限定。
需要说明的是,本申请实施例所提供的目标跟踪识别方法一般由控制器130执行,相应地,用于目标跟踪识别的装置一般设置于控制器130中。
在一个实施例中,目标跟踪识别方法,可以包括以下步骤:
步骤210获取第一帧图像;第一帧图像中包括目标。
步骤220通过预设的第一模型对第一帧图像中的目标进行识别,得到目标的初始参数。
基于初始参数识别目标类别,具体可以包括以下方法步骤:步骤230基于初始参数,从第一帧图像中截取目标图像,并对目标图像进行预处理;步骤240通过预设的第二模型对目标图像进行关键点检测,得到当前目标关键点;步骤250基于当前目标关键点识别目标类别。
步骤260以下一帧目标图像代替第一帧图像,以当前目标关键点代替初始参数;重复执行基于初始参数识别目标类别的步骤,直到满足预设的终止条件。
本申请实施例通过预设的第一模型对第一帧图像中的目标进行识别,得到目标的初始参数;基于初始参数,从第一帧图像中截取目标图像;通过预设的第二模型对目标图像进行关键点检测,得到当前目标关键点;基于当前目标关键点识别目标类别;以下一帧目标图像代替第一帧图像,以上一帧图像识别得到的当前目标关键点代替初始参数;重复执行基于初始参数识别目标类别的步骤,直到满足预设的终止条件。通过以预设的第一模型对第一帧图像的初始识别为基础,再通过第二模型对后续帧图像进行高精度识别,从而整体提高了目标跟踪识别的速度。
另外,可以针对预设的第一模型和预设的第二模型具有的不同功能,分别选择、替换更合适的模型,从而提高本申请的目标类别跟踪方法适用的灵活性和鲁棒性。
另外,基于当前目标关键点,可以进一步识别目标类别(比如:手部的手势,从而基于手势进行其它相关应用),从而提高了该跟踪识别方法的应用范围。
如图4所示,图4是本申请的目标跟踪识别方法的一个实施例的流程图。为方便理解,下面对上述方法步骤进行进一步详细说明。
步骤210获取第一帧图像;第一帧图像中包括目标。
需要说明的是,上述目标根据需要可以为各种移动或不断变换姿态等的目标的跟踪识别(比如:移动的人、移动的汽车、不断变换姿态的手部)。为方便理解,本申请实施例主要以目标为手部为例进行说明。
在一个实施例中,控制器按照预设地址从存储器或者服务器获取通过图像传感器采集并发送的第一帧图像,该第一帧图像中需包括目标,鉴于目标处于运动或变换姿态过程中,因此该第一帧图像并不代表是图像传感器采集并发送的第一帧图像,而是对依序列接收的多帧图像中,基于某些识别方法等,首次识别出目标物的第一帧图像。
在一个实施例中,在不断获取多帧图像的过程中,由于某个时刻运动中的目标可能从图像传感器视野范围内消失,从而导致其中的一帧或者多帧图像中没有识别到目标物,则基于对图像的识别,目标再次首次出现在图像中时的那一帧图像,也可视为上述第一帧图像。
步骤220通过预设的第一模型对第一帧图像中的目标进行识别,得到目标的初始参数。
上述初始参数可以根据需要或者模型的功能进行相应的设定,在一个实施例中,上述初始参数可以包括:目标包围框关键点和目标方向关键点。
需要说明的是,上述预设的第一模型可以根据需要采用各种能满足目标识别功能的现在已有或将来开发的模型,比如:Yolo网络、SSD网络、Fast R-CNN网络、Faster R-CNN网络。
在一个优选实施例中,第一模型可以为Yolo网络。Yolo网络可以对第一帧图像中的目标进行识别得到包括目标包围框关键点和目标方向关键点的初始参数。Yolo网络是一种一阶段目标检测网络模型,可以在识别目标种类的同时对目标进行定位,因此能更好的满足本申请的识别要求,具有检测效率高、准确率更高等优点,且Yolo网络易于部署和维护,因此更加有利于提高目标跟踪识别的速度和拓展性。
如图2所示,图2是本申请截取的包括初始参数的目标图像的一个实施例的示意图。以手部为例,上述目标方向关键点可以为由手腕关节的中心点O指向整个目标包围框的中心点O’的方向F作为目标方向。
具体地,控制器将目标图像输入预设的第一模型,则输出附着目标包围框M和目标方向F后的图像。
上述预设的第一模型可以是指预先经过训练的第一模型。该模型可以基于监督、半监督或无监督等等各种现在已有或将来开发的神经网络模型训练方式进行训练。
在一个实施例中,对于上述基于初始参数识别目标类别的步骤,具体可以包括如下方法包括:
步骤230基于初始参数,从第一帧图像中截取目标图像。
在一个实施例中,控制器可以基于上述包围框的关键点得到目标物的包括框,从第一帧图像中截取该包围框对应的图像作为上述目标图像。
示例性的,上述包围框关键点为四个,将四个关键点连接可以构成目标识别的包围框,截取包围框所框选的图像即为目标图像。
进一步,在一个实施例中,在步骤230之后,步骤S240之前,还可以包括以下方法步骤:
步骤290对目标图像进行预处理。
具体地,预处理可以包括但不限于对目标图像进行:旋转、填充、去除背景、图像增强和/或去噪等操作。具体可以基于传统的图像处理的方法或者基于预设的神经网络模型等等实现上述预处理。
通过对图像进行预处理,可以提高后续通过预设的第一模型对目标图像中的目标进行识别的精度。
进一步,在一个实施例中,步骤230中的目标图像为包括至少部分初始参数的目标图像。
由于该目标图像是从第一帧图像中截取,则第一图像中与该目标图像对应的部分图像对应的至少部分初始参数也可以被一并获取(比如:目标方向参数)。
本申请实施例通过将结合初始参数的目标图像输入第二模型,可以方便更加快速准确的提取目标关键点。
步骤240通过预设的第二模型对目标图像进行关键点检测,得到当前目标关键点。
需要说明的是,上述预设的第二模型可以根据需要采用各种能针对目标图像进行关键点检测的现在已有或将来开发的模型,比如:MediaPipe Hands模型、HRNet模型、keypointrcnn_resnet50_fpn模型。
在一个优选实施例中,上述预设的第二模型为预设的MediaPipe Hands模型,该模型是基于mediapipe的3D手部关键点检测模型,属于轻量级网络,识别准确度高,速度快,能更好地满足本方案的目标跟踪识别的需求。为方便理解,下面以第二模型为MediaPipeHands模型为例进行进一步详细说明。
在一个实施例中,控制器可以按照预设地址从存储器或者服务器获取基于步骤230截取得到的目标图像,将该目标图像输入预设的MediaPipe Hands模型,从而得到目标的关键点。
在一个实施例中,以目标为手部为例,则目标关键点为手部的预设关节点。如图3所示,图3是本申请基于第二模型检测到的手指关键点的一个实施例的示意图。在一个实施例中,上述预设关节点可以包括:腕关节点、手指掌指关节点、手指指间关节点和手指顶端关节点。
示例性的,目标关键点可以主要包含图3中所述的以下21个关键点:
腕关节点0;拇指腕掌关节1;拇指掌指关节2;拇指指间关节3;拇指顶端关节4;食指掌指关节5;食指近侧指间关节6;食指远侧指间关节7;食指顶段关节8;中指掌指关节9;中指近侧指间关节10;中指远侧指间关节11;中指顶端关节12;无名指掌指关节13;无名指近侧指间关节14;无名指远测指间关节15;无名指顶端关节16;小拇指掌指关节17;小拇指近侧指间关节18;小拇指远测指间关节19;小拇指顶端关节20。
步骤250基于当前目标关键点识别目标类别。
在一个实施例中,以目标为手部为例,控制器可以基于检测得到的目标关键点,结合预设的手指弯曲度识别算法或神经网络模型对全部或者每个手指的手指弯曲度进行识别;然后再基于各个手指弯曲度判断手势类别(比如:基于列表匹配或者将各个手指弯曲输入分类模型得到手势分类结果),从而提高了该方法应用的范围。后面实施例会有进一步详细说明。
在一个实施例中,以目标为脸部为例,基于当前目标关键点检测该脸部所属的各种类别,提高了该方法的应用范围。
步骤260以下一帧目标图像代替第一帧图像,以当前目标关键点代替初始参数;重复执行上述基于初始参数识别目标类别的步骤(如:步骤230-步骤250)直到满足预设的终止条件。
继续如图1所示,在一个实施例中,上述步骤260可以包括以下方法步骤:
步骤261判断是否满足预设终止条件。
步骤262若不满足终止条件,以下一帧目标图像代替第一帧图像,以当前目标关键点代替初始参数;重复执行上述基于初始参数识别目标类别的步骤(如:步骤230-步骤250)。
进一步,在一个实施例中,若满足终止条件,则结束本目标跟踪的方法步骤。
具体地,上述终止条件可以根据需要进行任意设定,比如:接收到外部输入的终止指示信号;或者无法在图像中检测到目标关键点达到预设时间或者预设的图像帧数等等。
本申请实施例通过预设的第一模型对第一帧图像中的目标进行识别,得到目标的初始参数;基于初始参数,从第一帧图像中截取目标图像;通过预设的第二模型对目标图像进行关键点检测,得到当前目标关键点;基于当前目标关键点识别目标类别;以下一帧目标图像代替第一帧图像,以上一帧图像识别得到的当前目标关键点代替初始参数;重复执行基于初始参数识别目标类别的步骤,直到满足预设的终止条件。通过以预设的第一模型对第一帧图像的初始识别为基础,再通过第二模型对后续帧图像进行高精度识别,从而整体提高了目标跟踪识别的速度。
在一个可选的实施例中,步骤210获取第一帧图像;第一帧图像包括目标之前,还可以包括如下方法步骤:
步骤211获取当前图像。
步骤212通过预设的第一模型对当前图像中的目标进行识别。
步骤213判断是否识别到目标。
在一个实施例中,可以判断是否通过第一模型得到目标包围框关键点,若没有,则视为没有识别到目标。
步骤214若没有识别到目标,重复执行上述211-213的步骤,直到识别到目标,以此时得到的目标对应的当前图像作为上述第一帧图像。
本申请实施例中,对于基于本申请的目标跟踪识别初次开始时,可以直接执行上述步骤211-步骤214,以得到包括目标的第一帧图像;除此之外,也可以在目标跟踪识别过程中重新获取第一帧图像,根据下面实施例所述,当执行步骤280判断是否检测得到当前目标关键点;若没有检测得到当前目标关键点时,视为目标从图像中消失,此时可以返回执行上述步骤211-步骤214,以重新获取第一帧图像。
如图5所示,图5为本申请的目标跟踪方法的另一个实施例的流程图。在另一个可选的实施例中,当已经处在目标跟踪识别的过程中,则步骤240之后,可以包括如下步骤:
步骤280判断是否检测得到当前目标关键点;若检测得到当前目标关键点,则执行步骤250;若没有检测得到当前目标关键点,则返回执行步骤210-步骤240的方法步骤。在一个实施例中,当包括步骤290时,步骤210-步骤240的方法步骤中间还可以插入步骤290或其他可能需要插入的方法步骤。
本申请实施例当经过判断某一帧目标图像中没有检测到目标关键点时,则视为该帧图像中没有检测到目标,即目标从图像中消失,此时需要重新获取第一帧图像,以按照上面实施例所述的方法重新开始目标跟踪识别。
在一个实施例中,步骤212通过预设的第一模型对第一帧图像中的目标进行识别,得到目标的初始参数具体可以包括以下步骤:
步骤221通过预设的第一模型对第一帧图像中的目标进行识别,得到目标的备选参数及备选参数对应的置信度。
具体地,上述目标图像中可能包括多个目标识别包围框,则第一模型还对应输出每组初始参数对应的置信度。
步骤222选取最高置信度对应的备选参数。
步骤223判断选取的备选参数对应的目标是否为上一目标。
在一个实施例中,可以判断最高置信度对应的目标的初始参数与上一帧图像识别得到的目标(简称“上一目标”)的初始参数是否相同,若相同,则判断为是上一目标。
步骤224若是,以选取的备选参数作为目标的初始参数。
步骤225若否,以距离上一目标最近的目标对应的备选参数作为目标的初始参数。
若否,以距离上一帧图像识别得到的目标初始参数最近的初始参数作为目标的初始参数。
本申请实施例可以对基于预设的第一模型识别得到的多个目标进行识别,从而找到上一目标或者与上一目标最可能相同的目标(也即距离最近的目标),以提高跟踪识别方法的可靠性和鲁棒性。
在一个可选的实施例中,当目标为手部时,步骤240基于当前目标关键点识别目标类别具体可以包括如下方法步骤:
步骤241基于当前目标关键点计算手指弯曲度。
手指弯曲程度可以是指计算同一个手指上两组不同的关键点连线所组成的夹角。
步骤242基于手指弯曲度识别手势类别。
在一个实施例中,可以通过预设的算法获取不同手指的弯曲角度,基于预设的阈值判断手指是否弯曲,当弯曲角度超过阈值时,则判断该手指为弯曲。通过判断不同的手指是否弯曲,对整个手部的手势类别进行判断。
进一步,在一个实施例中,步骤241基于当前目标关键点计算手指弯曲度具体可以包括以下步骤:
如图3所示,示例性的,以大拇指为例,计算大拇指是否弯曲,获取腕关节点0的坐标(x0,y0)、拇指掌指关节点2的坐标(x2,y2)、拇指指间关节点3的坐标(x3,y3)和拇指顶端关节点4的坐标(x4,y4),则步骤241可以包括如下方法步骤:
步骤2411获取预设关节点在目标图像中的坐标;预设关节点包括:腕关节点、手指掌指关节点、手指指间关节点和手指顶端关节点。
步骤2412基于坐标,结合公式(1)计算腕关节点和手指掌指关节之间的第一向量;以及基于坐标,结合公式(2)手指指间关节点和手指顶端关节点之间的第二向量;
步骤2413基于所述第一向量和所述第二向量,结合公式(3)求取所述手指关节的弯曲角度;
其中,θ为手指弯曲角度。
本申请实施例先分别计算腕关节点和手指掌指关节之间的第一向量,以及手指指间关节点和手指顶端关节点之间的第二向量;求取第一向量和第二向量的夹角,即为手指关节的弯曲角度,可以提高手指弯曲度的计算精度。
在一个可选的实施例中,步骤220通过预设的第一模型对第一帧图像中的目标进行识别,得到目标的初始参数之前,还可以包括如下方法步骤:
步骤250基于深度学习框架,搭建预设的第一模型的重构模型。
具体地,可以根据不同层网络的功能,网络的层数,使用深度学习框架搭建预设的第一模型的重构模型。
本申请实施例所述的深度学习框架可以为各种现在已有或将来开发的框架,比如:PaddlePaddle、Tensorflow、Caffe、Theano、MXNet、Torch和PyTorch。
步骤260提取预设的第一模型中每层网络的权重参数。
步骤270将权重参数作为重构模型的对应层的参数。
在一个可选的实施例中,步骤230通过预设的第二模型对目标进行关键点检测之前,还可以包括如下方法步骤:
步骤350基于深度学习框架,搭建预设的第二模型的重构模型。
步骤360提取预设的第二模型中每层网络的权重参数。
步骤370将权重参数作为重构模型的对应层的参数。
示例性的,以MediaPipe Hands为例,通常MediaPipe Hands基于TensorFlow框架调取数据库,不利于后续的维护和拓展。
本申请实施例通过使用深度学习框架对预设的第一模型和/或预设的第二模型的关键点识别网络进行重建,根据不同层网络的功能,网络的层数,使用深度学习框架搭建重构网络模型,将对应层的权重参数转成重构模型的参数,因此不会影响检测效率和识别精度。
在一个优选实施例中,上述深度学习框架可以为:Pytorch框架。因为Pytorch的工程文档更全面详细,基于Pytorch框架的重构模型,将有利于后续整体网络的维护和拓展,因此,在不影响识别精度和效率的情况下,具有更好的维护环境,有利于后续进行其它功能的拓展。
在一个实施例中,基于上面实施例所述,当初始参数包括目标包围框关键点和目标方向关键点,则步骤290对目标图像进行预处理具体可以包括以下方法步骤:
步骤291基于目标方向关键点,将目标旋转至预设角度。
基于方向关键点可以得到目标方向,将该目标方向与预设的目标方向进行差值计算从而得到需要旋转的角度。
步骤292将旋转后的目标图像填充为符合预设规格要求的图像。
根据上面实施例所述,上述旋转后的矩形目标图像相对预设的平面直角坐标系发生了转动,因此该图像在平面直角坐标系下不再是矩形,为了方便后续计算,需要将该旋转后的图像重新填充成符合预设规格要求(比如:最小矩形包围框)的图像。
本申请实施例基于至少部分初始参数,对图像进行上述旋转和填充的预处理,可以提高后续通过预设的第二模型对目标图像中的目标关键点进行检测的精度。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图6,作为对上述图3所示方法的实现,本申请提供了一种用于遥操作的姿态识别装置的一个实施例,该装置实施例与图3所示的方法实施例相对应,该装置具体可以应用于各种控制器中。
如图6所示,本实施例的目标跟踪识别装置300包括:图像获取模块310,参数识别模块320以及弯曲识别模块330。其中:
图像获取模块310,用于获取第一帧图像;第一帧图像中包括目标。
参数识别模块320,用于通过预设的第一模型对第一帧图像中的目标进行识别,得到目标的初始参数。
弯曲识别模块330,用于基于初始参数识别目标类别,包括:基于初始参数,从第一帧图像中截取目标图像;通过预设的第二模型对目标图像进行关键点检测,得到当前目标关键点;基于当前目标关键点识别目标类别。
重复执行模块340,用于以下一帧目标图像代替第一帧图像,以当前目标关键点代替初始参数;重复执行基于初始参数识别目标类别的步骤,直到满足预设的终止条件。
在一个可选的实施例中,目标跟踪识别装置300还包括:
当前获取模块,用于获取当前图像。
目标识别模块,用于通过预设的第一模型对当前图像中的目标进行识别。
目标判断模块,用于判断是否识别到目标。
重复执行模块,用于若没有识别到目标,重复执行上述步骤,直到识别到目标为止,以此时对应的当前图像作为第一帧图像。
在一个可选的实施例中,目标跟踪识别装置300还包括:
关键判断模块,用于判断是否检测到当前目标关键点;
返回执行模块,用于若未检测到当前目标关键点,则返回执行获取第一帧图像;通过预设的第一模型对第一帧图像中的目标进行识别;基于初始参数,从第一帧图像中截取目标图像;通过预设的第二模型对目标图像进行关键点检测,得到当前目标关键点的步骤。
在一个可选的实施例中,目标识别模块可以包括:
目标识别子模块,用于通过预设的第一模型对第一帧图像中的目标进行识别,得到目标的备选参数及备选参数对应的置信度;
参数选取子模块,用于选取最高置信度对应的备选参数;
目标判断子模块,用于判断选取的备选参数对应的目标是否为上一目标;
第一确定子模块,用于若是,以选取的备选参数作为目标的初始参数;
第二确定子模块,用于若否,以距离上一目标最近的目标对应的备选参数作为目标的初始参数。
在一个可选的实施例中,当目标为手部;弯曲识别模块330可以包括:
弯曲计算子模块,用于基于当前目标关键点计算手指弯曲度;
手势识别子模块,用于基于手指弯曲度识别手势类别。
进一步的,在一个可选的实施例中,目标关键点为手部的预设关节点;弯曲计算子模块包括:
坐标获取单元,用于获取预设关节点在手部图像中的坐标;预设关节点包括:腕关节点、手指掌指关节点、手指指间关节点和手指顶端关节点;
向量计算单元,基于坐标,结合公式(1)计算腕关节点和手指掌指关节之间的第一向量;基于坐标,结合公式(2)计算手指指间关节点和手指顶端关节点之间的第二向量;
角度求取单元,用于基于第一向量和第二向量,结合公式(3)求取手指关节的弯曲角度;
其中,θ为手指关节的弯曲角度。
在一个可选的实施例中,初始参数包括:目标包围框关键点和目标方向关键点。
在一个可选的实施例中,目标跟踪识别装置300还包括:
重构搭建模块,用于基于深度学习框架,搭建预设的第一模型和/或预设的第二模型的重构模型;
参数提取模块,用于提取预设的第一模型和/或预设的第二模型中每层网络的权重参数;
权重赋予模块,用于将权重参数作为重构模型的对应层的参数。
在一个可选的实施例中,目标跟踪识别装置300还包括:
图像预处理模块,用于对目标图像进行预处理。
进一步的,在一个可选的实施例中,初始参数包括:目标包围框关键点和目标方向关键点;则图像预处理模可以包括:
图像旋转子单元,用于基于目标方向关键点,将目标旋转至预设角度;
图像填充子单元,用于将旋转后的目标图像填充为符合预设规格要求的图像。
在一个实施例中,目标图像为包括至少部分初始参数的目标图像。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图7,图7为本实施例计算机设备基本结构框图。
所述计算机设备6包括通过系统总线相互通信连接存储器61、处理器62、网络接口63。需要指出的是,图中仅示出了具有组件61-63的计算机设备6,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器61至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器61可以是所述计算机设备6的内部存储单元,例如该计算机设备6的硬盘或内存。在另一些实施例中,所述存储器61也可以是所述计算机设备6的外部存储设备,例如该计算机设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器61还可以既包括所述计算机设备6的内部存储单元也包括其外部存储设备。本实施例中,所述存储器61通常用于存储安装于所述计算机设备6的操作系统和各类应用软件,例如用于目标跟踪识别方法的程序代码等。此外,所述存储器61还可以用于暂时地存储已经输出或者将要输出的各类数据。
本实施例中,所述处理器62用于运行所述存储器61中存储的程序代码或者处理数据,例如运行所述目标跟踪识别方法的程序代码。
所述网络接口63可包括无线网络接口或有线网络接口,该网络接口63通常用于在所述计算机设备6与其他电子设备之间建立通信连接。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有目标跟踪识别程序,所述目标跟踪识别程序可被至少一个处理器执行,以使所述至少一个处理器执行如上述的目标跟踪识别方法的步骤。
需要说明的是,上述方法、装置、系统等中提到的图像传感器、目标等等,即可以是真实环境下的真实的物体,也可以是仿真平台下的虚拟的图像传感器、目标等,通过仿真环境以达到连接真实物体的效果。将依赖虚拟环境完成训练后的控制单元,移植到真实环境下,对真实的物体进行控制或者再训练,可以节省训练过程的资源和时间。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (12)
1.一种目标跟踪识别方法,用于对目标进行跟踪识别,其特征在于,包括下述步骤:
获取第一帧图像;所述第一帧图像中包括目标;
通过预设的第一模型对第一帧图像中的目标进行识别,得到目标的初始参数;
基于所述初始参数识别目标类别,包括:基于所述初始参数,从所述第一帧图像中截取目标图像;通过预设的第二模型对所述目标图像进行关键点检测,得到当前目标关键点;基于所述当前目标关键点识别目标类别;
以所述下一帧目标图像代替所述第一帧图像,以所述当前目标关键点代替所述初始参数;重复执行所述基于所述初始参数识别目标类别的步骤,直到满足预设的终止条件。
2.根据权利要求1所述的目标跟踪识别方法,其特征在于,所述获取第一帧图像之前,还包括下述步骤:
获取当前图像;
通过所述预设的第一模型对所述当前图像中的所述目标进行识别;
判断是否识别到所述目标;
若没有识别到所述目标,重复执行上述步骤,直到识别到所述目标为止,以此时对应的当前图像作为所述第一帧图像。
3.根据权利要求1或2所述的目标跟踪识别方法,其特征在于,所述通过预设的第二模型对所述目标图像进行关键点检测,得到当前目标关键点之后,还包括下述步骤:
判断是否检测到所述当前目标关键点;
若未检测到所述当前目标关键点,则返回执行所述获取第一帧图像;所述通过预设的第一模型对第一帧图像中的目标进行识别;所述基于所述初始参数,从所述第一帧图像中截取目标图像;所述通过预设的第二模型对所述目标图像进行关键点检测,得到当前目标关键点的步骤。
4.根据权利要求1或2所述的目标跟踪识别方法,其特征在于,所述通过预设的第一模型对第一帧图像中的目标进行识别,得到目标的初始参数具体包括下述步骤:
通过所述预设的第一模型对所述第一帧图像中的所述目标进行识别,得到所述目标的备选参数及所述备选参数对应的置信度;
选取最高置信度对应的所述备选参数;
判断选取的所述备选参数对应的所述目标是否为上一目标;
若是,以选取的所述备选参数作为所述目标的初始参数;
若否,以距离所述上一目标最近的所述目标对应的所述备选参数作为所述目标的初始参数。
5.根据权利要求1或2所述的目标跟踪识别方法,其特征在于,当所述目标为手部;所述基于所述当前目标关键点识别目标类别包括下述步骤:
基于所述当前目标关键点计算手指弯曲度;
基于所述手指弯曲度识别手势类别。
6.根据权利要求5所述的目标跟踪识别方法,其特征在于,所述目标关键点为手部的预设关节点;所述基于所述当前目标关键点计算手指弯曲度包括下述步骤:
获取所述预设关节点在所述手部图像中的坐标;预设关节点包括:腕关节点、手指掌指关节点、手指指间关节点和手指顶端关节点;
基于所述坐标,结合公式(1)计算腕关节点和手指掌指关节之间的第一向量;基于所述坐标,结合公式(2)计算手指指间关节点和手指顶端关节点之间的第二向量;
基于所述第一向量和所述第二向量,结合公式(3)求取所述手指关节的弯曲角度;
其中,θ为手指关节的弯曲角度。
7.根据权利要求1或2所述的目标跟踪识别方法,其特征在于,所述初始参数包括:目标包围框关键点和目标方向关键点;和/或
所述通过预设的第二模型对目标进行关键点检测之前,还包括下述步骤:
基于深度学习框架,搭建所述预设的第一模型和/或所述预设的第二模型的重构模型;
提取所述预设的第一模型和/或所述预设的第二模型中每层网络的权重参数;
将所述权重参数作为所述重构模型的对应层的参数。
8.根据权利要求1或2所述的目标跟踪识别方法,其特征在于,所述基于初始参数,从第一帧图像中截取目标图像之后,所述通过预设的第二模型对所述目标图像进行关键点检测之前,还包括下述步骤:对所述目标图像进行预处理;和/或
所述目标图像为包括至少部分所述初始参数的目标图像。
9.根据权利要求8所述的目标跟踪识别方法,其特征在于,所述初始参数包括:目标包围框关键点和目标方向关键点;则当所述目标跟踪识别方法包括对所述目标图像进行预处理的步骤,所述方法包括下述步骤:
基于所述目标方向关键点,将所述目标旋转至预设角度;
将旋转后的所述目标图像填充为符合预设规格要求的图像。
10.一种目标跟踪识别装置,用于对目标进行跟踪识别,其特征在于,包括:
图像获取模块,用于获取第一帧图像;所述第一帧图像中包括目标;
参数识别模块,用于通过预设的第一模型对第一帧图像中的目标进行识别,得到目标的初始参数;
弯曲识别模块,用于基于所述初始参数识别目标类别,包括:基于所述初始参数,从所述第一帧图像中截取目标图像;通过预设的第二模型对所述目标图像进行关键点检测,得到当前目标关键点;基于所述当前目标关键点识别目标类别;
重复执行模块,用于以所述下一帧目标图像代替所述第一帧图像,以所述当前目标关键点代替所述初始参数;重复执行所述基于所述初始参数识别目标类别的步骤,直到满足预设的终止条件。
11.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至9中任一项所述的目标跟踪识别方法的步骤。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至9中任一项所述的目标跟踪识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310196567.XA CN116189237A (zh) | 2023-02-25 | 2023-02-25 | 一种目标跟踪识别方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310196567.XA CN116189237A (zh) | 2023-02-25 | 2023-02-25 | 一种目标跟踪识别方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116189237A true CN116189237A (zh) | 2023-05-30 |
Family
ID=86440288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310196567.XA Pending CN116189237A (zh) | 2023-02-25 | 2023-02-25 | 一种目标跟踪识别方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116189237A (zh) |
-
2023
- 2023-02-25 CN CN202310196567.XA patent/CN116189237A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109919077B (zh) | 姿态识别方法、装置、介质和计算设备 | |
CN110287775B (zh) | 手掌图像裁剪方法、装置、计算机设备及存储介质 | |
CN111914775B (zh) | 活体检测方法、装置、电子设备及存储介质 | |
CN112329888A (zh) | 图像处理方法、装置、电子设备以及存储介质 | |
CN111709268B (zh) | 一种深度图像中的基于人手结构指导的人手姿态估计方法和装置 | |
CN113591566A (zh) | 图像识别模型的训练方法、装置、电子设备和存储介质 | |
CN113254491A (zh) | 一种信息推荐的方法、装置、计算机设备及存储介质 | |
CN116453221B (zh) | 目标对象姿态确定方法、训练方法、装置以及存储介质 | |
CN113705534A (zh) | 基于深度视觉的行为预测方法、装置、设备及存储介质 | |
CN115862075A (zh) | 指纹识别模型训练方法、指纹识别方法、装置及相关设备 | |
CN114241597A (zh) | 一种姿态识别方法及其相关设备 | |
CN114140831B (zh) | 人体姿态估计方法、装置、电子设备及存储介质 | |
CN116935449A (zh) | 指纹图像匹配模型训练方法、指纹匹配方法及相关介质 | |
CN113781462A (zh) | 一种人体伤残检测方法、装置、设备及存储介质 | |
CN110728172B (zh) | 基于点云的人脸关键点检测方法、装置、系统及存储介质 | |
CN112633224B (zh) | 一种社交关系识别方法、装置、电子设备及存储介质 | |
CN116189237A (zh) | 一种目标跟踪识别方法、装置、计算机设备及存储介质 | |
CN116563898A (zh) | 基于GhostNet网络的掌静脉图像识别方法、装置、设备及介质 | |
CN114254724A (zh) | 一种数据处理方法、神经网络的训练方法以及相关设备 | |
CN111832468B (zh) | 基于生物识别的手势识别方法、装置、计算机设备及介质 | |
CN113158912B (zh) | 手势识别方法及装置、存储介质及电子设备 | |
CN113780176B (zh) | 局部遮挡对象识别方法、装置、设备及存储介质 | |
CN117173731B (zh) | 一种模型训练的方法、图像处理的方法以及相关装置 | |
CN117553808B (zh) | 基于深度学习的机器人定位导航方法、装置、设备及介质 | |
CN112560753B (zh) | 基于特征融合的人脸识别方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |