CN114296545A - 一种基于视觉的无人机手势控制方法 - Google Patents

一种基于视觉的无人机手势控制方法 Download PDF

Info

Publication number
CN114296545A
CN114296545A CN202111394961.1A CN202111394961A CN114296545A CN 114296545 A CN114296545 A CN 114296545A CN 202111394961 A CN202111394961 A CN 202111394961A CN 114296545 A CN114296545 A CN 114296545A
Authority
CN
China
Prior art keywords
gesture
image
unmanned aerial
aerial vehicle
vision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111394961.1A
Other languages
English (en)
Inventor
肖秦琨
何磊
李雪浩
邢恒
申佳宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Technological University
Original Assignee
Xian Technological University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Technological University filed Critical Xian Technological University
Priority to CN202111394961.1A priority Critical patent/CN114296545A/zh
Publication of CN114296545A publication Critical patent/CN114296545A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明专利公开了一种基于视觉的无人机手势控制方法,图像获取:选用树莓派单目摄像头进行手势图像的采集,本发明的一系列的处理手势图像的方法可以降低图像噪声的影响,并发明了提取手势轮廓的有效方法,能够有效去除手势的背景信息,从而获得相对干净的无干扰的手势图像,本发明通过利用无人机飞控平台Pixhawk以及飞行器通信协议Mavlink发明了一套利用机载嵌入式系统对飞行控制器发送指令进行飞行控制的办法,避免了无人机相关研究需要从底层开始搭建的繁琐工作,提供了一个可以迅速开发的平台,本发明不同于传统的无人机控制方法,发明了一种基于视觉的无人机手势控制方法,简化了领航员的操作,使无人机能够更方便的服务于人们。

Description

一种基于视觉的无人机手势控制方法
技术领域
本发明专利涉及无人机技术领域,具体为一种基于视觉的无人机手势控制方法。
背景技术
无人机己广泛应用于海域监测、电力巡线、森林防火,搜索救援、航测航拍、高速公路管理等领域,在降低成本,提高效率及安全性等方面展现了巨大优势,同时,随着无人机尤其是多旋翼飞机的小型化,人机之间的安全距离得以缩短到几米甚至不足一米的距离,然而,无人机的控制主要依赖于遥控器、摇杆、地面站软件等专用设备,在这些遥控方法当中,最常见的是利用遥控器进行操作,虽然遥控器的操作难度随着无人机技术的发展大大被降低,然而,笨重的遥控器仍然给操作者带来了非常大的不便,与此同时,随着低成本小型无人机(UAV)等相关行业的兴起,在诸如进行快递运送,道路检测,警用侦察等方面的应用对操作的便捷性提提出了较高的要求,这些行业迫切需要一些不需要专用控制设备的更为便捷的人与无人机的交互控制方式,使得在更多的场景当中可以得到方便的操作。
由此产生了一些非接触式遥控方式越来越多被人们所使用,手势识别的遥控方式即为其中一种,相比于传统的接触式遥控方式,手势控制是一种比较自然、直观的交互手段,同时也更符合人们的交流习惯,基于机器视觉的手势控制无人机的方式难点在于如何充分利用无人机上的摄像头,利用高性能的机载处理器,充分挖掘采集到的图像信息,设计基于视觉的人机交互方法,不仅可以节省无人机的有效载荷,而且具有适应范围广,价格低廉的优点,具有巨大的理论意义和应用前景。
随着目前计算机视觉技术的发展,基于视觉的手势识别技术也越来越成熟,相比于传统的人机交互方式,手势交互是一种比较自然、直观的交互手段,将人手的图像作为计算机的输入接口,人与计算机之间的通讯将不再需求任何其他的中间媒介,用户可以通过使用事先定义好的一组手势实现对无人机的控制,手势识别具有自然性、简洁性和直观性,同时也更符合人们的交流习惯,所以基于视觉的手势识别技术符合人机交互技术发展的方向,也是未来手势识别技术发展的趋势和目标,但目前,无人平台的遥控主要还是以传统的接触式遥控器为主,暂时还无法将手势识别更加广泛的应用到无人机的平台。
发明专利内容
本发明专利的目的在于提供一种基于视觉的无人机手势控制方法,为实现上述目的,本发明专利提供如下技术方案:一种基于视觉的无人机手势控制方法,其控制方法包括如下步骤:
S1、图像获取:选用树莓派单目摄像头进行手势图像的采集,采集后进行存储;
S2、图像预处理:对存储的手势图像进行处理,包括图像的肤色分割,二值化,去噪,形态学处理;
S3、特征提取:采用一种用于样本数据集的混合网络模型:GoogLeNet+PNN混合神经网络模型,其中第一部分是由GoogLenet网络作为特征提取器对输入的图片信息进行特征提取,然后生成特征信息文件;
S4、手势识别:采用PNN作为分类器,读取上一步保存的特征信息文件并进行分类识别,并输出识别结果;
S5、输出手势识别结果:通过MAVLink通信协议,连接Pixhawk飞控平台使无人机做出相应的运动。
优选的,所述S1中的图像获取具体为:步骤一、先定义一个OpenCV库的Mat类型变量用来保存图像;步骤二、摄像头指针调用OpenCV库的read方法,将拍摄的图像保存在Mat类型变量中;步骤三、如果图像保存成功,则read方法返回值为真,否则返回值为假。
优选的,所述步骤一中OpenCV视觉函数库为3.4.5版本,操作系统为ubantu16.04。
优选的,所述S2中的图像预处理具体为:步骤一、采用YCbCr色彩空间对采集的图像信息建立模型进行肤色分割,通过采集到的RGB图像转变到YCbCr色彩空间中,建立椭圆模型进行手势肤色的提取,通过比较像素点是否在椭圆内部来进行实现,若像素点在椭圆模型内部,则认为该像素点为手势肤色,若像素点在椭圆模型外部,则认为该像素点不是手势肤色;步骤二、进行OTSU二值化处理,确定前景和背景的分割阈值T,对于手势区域,将该区域设定为1,则该区域就为白色,非目标区域设定为0,则该区域就为黑色;步骤三、使用高斯滤波,实现对图像噪声的消除,增强图像的效果;步骤四、实行形态学处理,形态学处理去除原画面中的噪点和瑕疵,同时维持原图像完整的结构特征,进一步过滤图像中的噪点;步骤五、采用一阶算子Canny算子,对图像的边缘进行检测,提取待检测对象与背景图之间的边界,通过算法来定位寻找边缘。
优选的,所述步骤一中当亮度分量Y大于230时,将椭圆模型的长半轴和短半轴都调整为原来的1.5倍,所述步骤二中分割阈值T的取值范围为0~255,所述步骤三中高斯滤波卷积核大小为3*3。
优选的,所述S3中的特征提取具体为:步骤一、特征提取用到GoogLeNet中V3版本的Inception模块,该模块将一个较大的二维卷积拆分成两个较小的非对称一维卷积;步骤二、特征提取是基于样本的图像识别,利用迁移学习,将训练好的GoogLeNet模型进行迁移,用InceptionV3的瓶颈层部分作为特征提取器,提取出手势的特征。
优选的,所述步骤一中由InceptionV3组成的GoogLeNet主要包括5个卷积层、3个池化层、3个Inception模块组以及线性层和Softmax层。
优选的,所述S4中的手势识别具体为:步骤一、PNN作为分类器,样本数据作为模型的原始输入,得到特征图;步骤二、加上偏置b,通过激活函数Relu引入非线性计算,再经过池化层的下采样;步骤三、进行降维,得到最终的PNN学习样本矩阵;步骤四、对样本矩阵进行归一化处理,计算待识别的归一化样本向量与归一化后的学习样本向量的欧式距离;步骤五、选取平滑因子σ=0.5的高斯函数作为激活函数,得到初始概率矩阵,从而得到各个样本属于各类的初始概率,最后得出各类手势的概率分布。
优选的,所述步S5中输出手势识别结果具体为:步骤一、基于MAVLink协议通信模块首先将串口打开并设置,使其能够正常读写,然后在对字节读写的基础上添加MAVLink协议;步骤二、使用MAVLinkGenerator来自动生成MAVLink函数,约定消息包的结构体,用MAVLinkGenerator,来生成MAVLINK库的头文件和功能接口函数;步骤三、当机载电脑接收到到手势识别分类结果时,立即创建写消息线程,将识别结果编码成对应的消息帧,将该指令消息帧发送给Pixhawk飞控。
优选的,所述步骤一中通信协议模块的设计中所用到的类为UnderCommunicate类和MavlinkLayer类,所述步骤二中消息包的结构体中STX为起始标识,LEN标记负载长度,SEQ显示序列码,SYS标记系统ID,COMP标记组件ID,MSG标记消息ID,PAYLOAD加载负载信息,CAK为校验位A,CKB为校验位B。
与现有技术相比,本发明专利的有益效果如下:
1、本发明的一系列的处理手势图像的方法可以降低图像噪声的影响,并发明了提取手势轮廓的有效方法,能够有效去除手势的背景信息,从而获得相对干净的无干扰的手势图像。
2、本发明通过利用无人机飞控平台Pixhawk以及飞行器通信协议Mavlink发明了一套利用机载嵌入式系统对飞行控制器发送指令进行飞行控制的办法,避免了无人机相关研究需要从底层开始搭建的繁琐工作,提供了一个可以迅速开发的平台。
3、本发明不同于传统的无人机控制方法,发明了一种基于视觉的无人机手势控制方法,简化了领航员的操作,使无人机能够更方便的服务于人们。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的手势识别控制无人机流程示意图;
图2为本发明图像预处理的流程示意图;
图3为本发明手势特征提取和分类的网络结构图;
图4为本发明手势图像预处理结果示意图;
图5为本发明部分样本数据集示意图;
图6为本发明手势轮廓提取后的结果示意图;
图7为本发明无人机控制系统架构图。
具体实施方式
下面将结合本发明专利中的实施例,对本发明专利实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明专利一部分实施例,而不是全部的实施例。基于本发明专利中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明专利保护的范围。
一种基于视觉的无人机手势控制方法,其控制方法包括如下步骤:
S1、图像获取:选用树莓派单目摄像头进行手势图像的采集,采集后进行存储;
S2、图像预处理:对存储的手势图像进行处理,包括图像的肤色分割,二值化,去噪,形态学处理;
S3、特征提取:采用一种用于样本数据集的混合网络模型:GoogLeNet+PNN混合神经网络模型,其中第一部分是由GoogLenet网络作为特征提取器对输入的图片信息进行特征提取,然后生成特征信息文件;
S4、手势识别:采用PNN作为分类器,读取上一步保存的特征信息文件并进行分类识别,并输出识别结果;
S5、输出手势识别结果:通过MAVLink通信协议,连接Pixhawk飞控平台使无人机做出相应的运动。
实施例一:
如图1至图5所示的基于视觉的无人机手势控制方法,方法具体如下:
S1:图像获取,选用树莓派单目摄像头进行手势图像的采集,采集后进行存储;
S2:图像预处理,对存储的手势图像进行处理,包括图像的肤色分割,二值化,去噪,形态学处理;
S3:特征提取,采用一种用于样本数据集的混合网络模型:GoogLeNet+PNN组合神经网络模型,在进行模型验证之前需要建立样本数据集,对本模型进行训练,采用自建数据库,如下图5为部分样本数据集,分别为阿拉伯数字1到10,该数据库是在不同的光照条件下完成的,均经过本设计中的图像预处理,最终形成手势的基本轮廓,每张图像经过旋转,对称,以及放大和缩小形成样本集,这些手势的完成不需要专门的手套或者特殊的设备来辅助完成,拍摄取图距离也不同,在该数据集中,图像不包括手腕部分,也不包括人脸部分,这些图像是在最原始的图像上将手部分割出来的图像,可以直接用于特征提取和分类,将训练好的GoogLeNet网络作为特征提取器对输入的图片信息进行特征提取,然后生成特征信息文件;
S4:手势识别,采用PNN作为分类器,读取上一步特征提取的结果,并输出手势识别的结果;
S5:输出手势识别结果,通过MAVLink通信协议,连接Pixhawk飞控平台使无人机做出相应的运动;
其中,图像获取具体如下:
在机载电脑上使用操作系统ubantu16.04,为其安装OpenCV3.4.5视觉函数库,连接USB摄像头,配置摄像头模块通过调用OpenCV3.4.5函数库,修改参数,保存拍摄的图像;
拍摄图像并保存的步骤如下:
第一步:定义一个OpenCV库的Mat类型变量用来保存图像
第二步:摄像头指针调用OpenCV库的read方法,将拍摄的图像保存在Mat类型变量中,
第三步:如果图像保存成功,则read方法返回值为真,否则返回值为假,
其中,图像预处理具体如下:
通过获取到的到的RGB图像转变到YCbCr色彩空间中,建立椭圆模型进行手势肤色的提取,比较像素点是否在椭圆内部,若像素点在椭圆模型内部,则认为该像素点为手势肤色,若像素点在椭圆模型外部,则认为该像素点不是手势肤色,确定前景和背景的分割阈值T,对于手势区域,将该区域设定为1,则该区域就为白色,非目标区域设定为0,则该区域就为黑色,使用高斯滤波,实现对图像噪声的消除,增强图像的效果;实行形态学处理去除原画面中的噪点和瑕疵,采用Canny算子,对图像的边缘进行检测,提取待检测对象与背景图之间的边界,通过算法来定位寻找边缘;
其中,输出手势识别结果具体如下:
当机载电脑接收到到手势识别分类结果时,会立即创建写消息线程,将识别结果编码成对应的消息帧,将该指令消息帧发送给Pixhawk飞控,在确保机载电脑与飞控通过串口正常连接,机载电脑正确安装MAVLink库,飞控处于机载电脑控制飞行模式时,机载电脑按照MAVLink协议封装指令,并发送给Pixhawk,以进一步控制无人机的飞行。
实施例二:
见图6,实施例二的使用方法,包括以下步骤:
第一步:样本数据作为模型的原始输入,用卷积公式计算,
Figure BDA0003369703990000091
第二步:得到特征图,加上偏置b,通过激活函数Relu引入非线性计算,最后经过池化层的下采样,计算式为:
Hi=p(Hi-1)
通过上式进行降维,得到最终的高阶抽象的特征信息X,此处的特征信息X即为PNN的学习样本矩阵
第三步:设X=[X1,X2,...,Xm]T,此时对X进行归一化处理,将归一化系数记为BT,即可得到归一化样本矩阵C:
C=BT·X
假设有P个待识别样本,样本矩阵经归一化后记为D,
第四步:计算待识别的归一化样本向量与归一化后的学习样本向量的欧式距离:
Figure BDA0003369703990000092
其中,E代表待分类样本与学习样本之间的欧式距离,假设总样本类别数为c,各类样本数目相同,为k个,
第五步:选取平滑因子σ=0.5的高斯函数作为激活函数,得到初始概率矩阵P:
Figure BDA0003369703990000093
第六步:得到各个样本属于各类的初始概率和S:
Figure BDA0003369703990000101
第七部:得出第i个样本属于第j类的概率:
Figure BDA0003369703990000102
尽管已经示出和描述了本发明专利的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明专利的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明专利的范围由所附权利要求及其等同物限定。

Claims (10)

1.一种基于视觉的无人机手势控制方法,其特征在于:其控制方法包括如下步骤:
S1、图像获取:选用树莓派单目摄像头进行手势图像的采集,采集后进行存储;
S2、图像预处理:对存储的手势图像进行处理,包括图像的肤色分割,二值化,去噪,形态学处理;
S3、特征提取:采用一种用于样本数据集的混合网络模型:GoogLeNet+PNN混合神经网络模型,其中第一部分是由GoogLenet网络作为特征提取器对输入的图片信息进行特征提取,然后生成特征信息文件;
S4、手势识别:采用PNN作为分类器,读取上一步保存的特征信息文件并进行分类识别,并输出识别结果;
S5、输出手势识别结果:通过MAVLink通信协议,连接Pixhawk飞控平台使无人机做出相应的运动。
2.根据权利要求1所述的一种基于视觉的无人机手势控制方法,其特征在于:所述S1中的图像获取具体为:步骤一、先定义一个OpenCV库的Mat类型变量用来保存图像;步骤二、摄像头指针调用OpenCV库的read方法,将拍摄的图像保存在Mat类型变量中;步骤三、如果图像保存成功,则read方法返回值为真,否则返回值为假。
3.根据权利要求2所述的一种基于视觉的无人机手势控制方法,其特征在于:所述步骤一中OpenCV视觉函数库为3.4.5版本,操作系统为ubantu16.04。
4.根据权利要求1所述的一种基于视觉的无人机手势控制方法,其特征在于:所述S2中的图像预处理具体为:步骤一、采用YCbCr色彩空间对采集的图像信息建立模型进行肤色分割,通过采集到的RGB图像转变到YCbCr色彩空间中,建立椭圆模型进行手势肤色的提取,通过比较像素点是否在椭圆内部来进行实现,若像素点在椭圆模型内部,则认为该像素点为手势肤色,若像素点在椭圆模型外部,则认为该像素点不是手势肤色;步骤二、进行OTSU二值化处理,确定前景和背景的分割阈值T,对于手势区域,将该区域设定为1,则该区域就为白色,非目标区域设定为0,则该区域就为黑色;步骤三、使用高斯滤波,实现对图像噪声的消除,增强图像的效果;步骤四、实行形态学处理,形态学处理去除原画面中的噪点和瑕疵,同时维持原图像完整的结构特征,进一步过滤图像中的噪点;步骤五、采用一阶算子Canny算子,对图像的边缘进行检测,提取待检测对象与背景图之间的边界,通过算法来定位寻找边缘。
5.根据权利要求4所述的一种基于视觉的无人机手势控制方法,其特征在于:所述步骤一中当亮度分量Y大于230时,将椭圆模型的长半轴和短半轴都调整为原来的1.5倍,所述步骤二中分割阈值T的取值范围为0~255,所述步骤三中高斯滤波卷积核大小为3*3。
6.根据权利要求1所述的一种基于视觉的无人机手势控制方法,其特征在于:所述S3中的特征提取具体为:步骤一、特征提取用到GoogLeNet中V3版本的Inception模块,该模块将一个较大的二维卷积拆分成两个较小的非对称一维卷积;步骤二、特征提取是基于样本的图像识别,利用迁移学习,将训练好的GoogLeNet模型进行迁移,用InceptionV3的瓶颈层部分作为特征提取器,提取出手势的特征。
7.根据权利要求6所述的一种基于视觉的无人机手势控制方法,其特征在于:所述步骤一中由InceptionV3组成的GoogLeNet主要包括5个卷积层、3个池化层、3个Inception模块组以及线性层和Softmax层。
8.根据权利要求1所述的一种基于视觉的无人机手势控制方法,其特征在于:所述S4中的手势识别具体为:步骤一、PNN作为分类器,样本数据作为模型的原始输入,得到特征图;步骤二、加上偏置b,通过激活函数Relu引入非线性计算,再经过池化层的下采样;步骤三、进行降维,得到最终的PNN学习样本矩阵;步骤四、对样本矩阵进行归一化处理,计算待识别的归一化样本向量与归一化后的学习样本向量的欧式距离;步骤五、选取平滑因子σ=0.5的高斯函数作为激活函数,得到初始概率矩阵,从而得到各个样本属于各类的初始概率,最后得出各类手势的概率分布。
9.根据权利要求1所述的一种基于视觉的无人机手势控制方法,其特征在于:所述步S5中输出手势识别结果具体为:步骤一、基于MAVLink协议通信模块首先将串口打开并设置,使其能够正常读写,然后在对字节读写的基础上添加MAVLink协议;步骤二、使用MAVLinkGenerator来自动生成MAVLink函数,约定消息包的结构体,用MAVLinkGenerator,来生成MAVLINK库的头文件和功能接口函数;步骤三、当机载电脑接收到到手势识别分类结果时,立即创建写消息线程,将识别结果编码成对应的消息帧,将该指令消息帧发送给Pixhawk飞控。
10.根据权利要求9所述的一种基于视觉的无人机手势控制方法,其特征在于:所述步骤一中通信协议模块的设计中所用到的类为UnderCommunicate类和MavlinkLayer类,所述步骤二中消息包的结构体中STX为起始标识,LEN标记负载长度,SEQ显示序列码,SYS标记系统ID,COMP标记组件ID,MSG标记消息ID,PAYLOAD加载负载信息,CAK为校验位A,CKB为校验位B。
CN202111394961.1A 2021-11-23 2021-11-23 一种基于视觉的无人机手势控制方法 Pending CN114296545A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111394961.1A CN114296545A (zh) 2021-11-23 2021-11-23 一种基于视觉的无人机手势控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111394961.1A CN114296545A (zh) 2021-11-23 2021-11-23 一种基于视觉的无人机手势控制方法

Publications (1)

Publication Number Publication Date
CN114296545A true CN114296545A (zh) 2022-04-08

Family

ID=80965800

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111394961.1A Pending CN114296545A (zh) 2021-11-23 2021-11-23 一种基于视觉的无人机手势控制方法

Country Status (1)

Country Link
CN (1) CN114296545A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115949210A (zh) * 2023-01-06 2023-04-11 杭州丰坦机器人有限公司 基于bim技术的腻子涂料喷涂机器人

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115949210A (zh) * 2023-01-06 2023-04-11 杭州丰坦机器人有限公司 基于bim技术的腻子涂料喷涂机器人

Similar Documents

Publication Publication Date Title
CN109344701B (zh) 一种基于Kinect的动态手势识别方法
CN108460356B (zh) 一种基于监控系统的人脸图像自动处理系统
CN106599773B (zh) 用于智能驾驶的深度学习图像识别方法、系统及终端设备
CN111428748B (zh) 一种基于hog特征和svm的红外图像绝缘子识别检测方法
CN108717524B (zh) 一种基于双摄手机和人工智能系统的手势识别系统
CN107153817B (zh) 行人重识别数据标注方法和装置
CN103020992B (zh) 一种基于运动颜色关联的视频图像显著性检测方法
Rahim et al. Hand gesture recognition based on optimal segmentation in human-computer interaction
CN111401145B (zh) 一种基于深度学习与ds证据理论的可见光虹膜识别方法
CN111989689A (zh) 用于识别图像内目标的方法和用于执行该方法的移动装置
CN110188766B (zh) 基于卷积神经网络的图像主目标检测方法及装置
CN107292933B (zh) 一种基于bp神经网络的车辆颜色识别方法
CN115311241A (zh) 一种基于图像融合和特征增强的煤矿井下行人检测方法
CN105956570B (zh) 基于唇部特征和深度学习的笑脸识别方法
CN114170516B (zh) 一种基于路侧感知的车辆重识别方法、装置及电子设备
CN111767831B (zh) 用于处理图像的方法、装置、设备及存储介质
Geng et al. An improved helmet detection method for YOLOv3 on an unbalanced dataset
CN115861619A (zh) 一种递归残差双注意力核点卷积网络的机载LiDAR城市点云语义分割方法与系统
CN108345835B (zh) 一种基于仿复眼感知的目标识别方法
CN110110672A (zh) 一种人脸表情识别方法、装置及设备
CN114296545A (zh) 一种基于视觉的无人机手势控制方法
CN112883827B (zh) 图像中指定目标的识别方法、装置、电子设备和存储介质
CN110020688B (zh) 基于深度学习的遮挡行人检测方法
CN115761552B (zh) 面向无人机机载平台的目标检测方法、设备及介质
CN111160372A (zh) 一种基于高速卷积神经网络的大目标识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination