CN110852241A - 一种应用于护理机器人的小目标检测方法 - Google Patents
一种应用于护理机器人的小目标检测方法 Download PDFInfo
- Publication number
- CN110852241A CN110852241A CN201911077172.8A CN201911077172A CN110852241A CN 110852241 A CN110852241 A CN 110852241A CN 201911077172 A CN201911077172 A CN 201911077172A CN 110852241 A CN110852241 A CN 110852241A
- Authority
- CN
- China
- Prior art keywords
- small
- nursing
- layer
- small target
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明提出了一种应用于护理机器人的小目标检测方法,针对护理机器人检测小目标护理物品问题。首先,提出了Feature Fusion Module(FFM)融合VGGNet16的高层特征图和底层特征图,使新生成的特征图包含丰富的小目标位置信息和类别信息;第二,使用RoIAlign消除网络下采样过程造成的建议候选框中特征图的错位问题;最后,Multipath Residual Detector(MRD)使网络对小目标检测更加鲁棒。本发明能够准确地对室内的小目标护理物品进行检测,为护理机器人下一步的运动路径规划、护理物品抓取和空间避障提供了视觉感知指导信息,在针对室内护理场景的领域有较高的应用价值。
Description
技术领域
本发明涉及图像处理技术领域,特别涉及一种应用于护理机器人的小目标检测方法。
背景技术
护理机器人环境感知领域,包括人体姿态的识别估计,护理物品检测,场景空间感知和护理物品抓取逻辑判断等部分。在护理机器人检测护理物品中,机器人需要远距离的检测护理物品指导下一步的运动路径规划、护理物品抓取和空间避障。由于机器人成像设备距离护理物品的距离比较远,所以在采集的整幅图像中,护理物品呈现出小目标的特征,在整幅图像中护理物品的分辨率和占整幅图像的比例是非常小。检测小目标会存在大量的误检和漏检的情况,这是由于小目标本身就缺乏足够的检测信息。因而,提出一种应用于护理机器人的小目标检测方法是相当有必要的。
目前,在目标检测领域基于传统手工提取特征的检测方法主要有DeformableParts Model、Selective Search等。这些算法主要依靠手工设计的特征提取器,提取出的特征值适用范围窄。在小目标检测领域需要研究人员对小目标的特点深度研究,这样设计出的特征提取器过程复杂且计算量庞大,并且在实际应用中泛化效果不好,限制了小目标检测方法的实际应用。
随着深度学习技术的发展和成熟,深度卷积神经网络作为深度学习的重要分支被广泛应用于图像分类、目标检测和图像分割等领域。基于深度卷积神经网络的目标检测方法相对于基于传统手工提取特征的目标检测方法,具有高度的灵活性和自主学习能力。经典的目标检测方法有Faster RCNN、SPPNet、YOLO等,他们在中等尺寸或者大尺寸目标检测任务上面表现出了优异的性能,但是由于小目标包含的分类和位置信息少,同时卷积神经网络下采样造成位置信息进一步丢失,所以这些方法对于小目标检测的性能并不好。
发明内容
本发明的目的在于提供一种应用于护理机器人的小目标检测方法,以解决目前基于深度卷积神经网络的目标检测方法在小目标检测效果差的问题。
为实现上述目的,本发明采用以下技术方案:
应用于护理机器人的小目标检测方法,包括以下步骤:
步骤1,收集室内护理场景的图片,保证摄像头与需要识别的护理物品3米到5米的距离,让护理物品呈现出小目标特点,对图片中的护理物品小目标进行人工的标注,进行图像数量的扩充后将其数量的80%划分为训练集,20%划分为测试集;
步骤2,对VGGNet16骨干网络添加自行设计的Feature Fusion Module(FFM),提取出包含丰富小目标类别和位置信息的特征图;
步骤3,将K-means聚类算法生成的边界框尺寸设置Region Proposal Network(RPN)的锚点尺寸,最终通过RPN生成目标建议候选框;
步骤4,对步骤3中目标建议候选框中的特征图进行RoIAlign,将不同分辨率的建议候选框中特征图的分辨率统一到相同的分辨率大小(分辨率大小为7×7);
步骤5,将步骤4中生成的相同分辨率的建议候选特征图输入到自行设计的Multipath Residual Detector(MRD)中进行目标分类和目标边界框回归,输出需要检测的护理物品小目标的类别和位置信息。
步骤6,将步骤5生成的类别和位置信息经过非极大值抑制过程后映射到原始图像上面,生成最终的检测结果。
进一步的,步骤2中VGGNet16骨干网络添加了Feature Fusion Module(FFM);由于骨干网络深层提取的特征图包含小目标丰富的分类信息而缺乏位置信息,但骨干网络浅层提取的特征图包含小目标丰富的位置信息而缺乏分类信息,所以FFM的作用是融合VGGNet16的浅层conv4_x层和深层conv5_x层的特征图后生成包含小目标丰富位置信息和分类信息的特征图;FMM具体包括2路特征图的输入和1路特征图的输出;第1路输入由1个最大池化层(Maxpool)、2个卷积层(Conv)、2个批归一化层(BatchNorm)和1个激活层组成;第2路输入由1个反卷积层(Deconv)、1个卷积层(Conv)和1个激活层组成;输出由1个逐点相加层(Eltw Sum)、1个卷积层(Conv)、1个批归一层(BatchNorm)和2个激活层组成。。
进一步的,第1路输入的2个卷积层的卷积核尺度均为3×3,激活层采用ReLU激活函数;第2路输入的1个反卷积层的卷积核尺度为2×2,1个卷积层的卷积核尺度为3×3;输入的1个卷积层的卷积核尺度为2×2,2个激活层采用ReLU激活函数。
进一步的,步骤3中使用K-means聚类算法生成RPN锚点框的三种分辨率尺寸:82,162,322和三种长宽比例:1:1,1:2,2:1的共9中不同尺度的锚点框。
进一步的,步骤4中使用RoIAlign在将不同分辨率的建议候选框中特征图的分辨率统一到相同的分辨率大小(分辨率大小为7×7)的同时,消除两次网络下采样过程造成的建议候选框中特征图的错位问题;因为小目标对错位问题敏感,小幅度的错位就能造成检测结果存在较大的偏差。
进一步的,步骤5中设计的Multipath Residual Detector(MRD)对已经包含小目标位置信息的建议候选框中的特征图经过多路残差特征提取网络进行语义分类特征信息的再次提取;这样在不损失小目标位置信息的前提下增强小目标的分类信息,最终可以增强对小目标检测的鲁棒性。
进一步的,步骤6中设定非极大抑制过程的阈值为0.7。
进一步的,步骤1中通过图像反转,明暗变化和高斯模糊的方法来扩充数据集中图像的数量。
与现有技术相比,本发明有以下技术效果:
本发明提出的Feature Fusion Module(FFM)将VGGNet16的深层特征图和浅层特征图通过反卷积层进行可学习性的特征融合,融合后的特征图包含小目标丰富的分类信息和位置信息;这种提取特征图的方式避免了只使用骨干网络最高层生成的特征图,因为最高层的特征图是经过不断下采样形成的,极其容易造成小目标位置信息的丢失;
本发明采用RoIAlign方式统一建议候选框区域特征图的分辨率,解决了网络下采样过程造成的建议候选框中特征图的错位问题,使小目标的定位更加准确;
本发明提出了Multipath Residual Detector(MRD)可以进一步的提取候选框区域的特征图,同时损失特征图的位置信息,增强了检测方法的鲁棒性,使最终的小目标检测效果更好。
附图说明
图1是本发明的护理机器人的小目标检测方法的网络结构图;
图2是本发明的Feature Fusion Module(FFM)的结构图;
图3是本发明的Multipath Residual Detector(MRD)的结构图;
图4是本发明的小目标护理物品数据集中的部分图片;
图5是本发明的部分检测结果图。
具体实施方式
以下结合附图,对本发明进一步说明:
1.本发明提供了一种应用于护理机器人的小目标检测方法,具体步骤如图1所示:
S1.收集室内护理场景的图片,保证摄像头与需要识别的护理物品3米到5米的距离,让护理物品呈现出小目标特点,对图片中的护理物品小目标进行人工的标注,进行图像数量的扩充后将其数量的80%划分为训练集,20%划分为测试集。具体工作流程如下:
(1.1)、远距离拍摄小目标护理物品的图片,保证护理物品在整幅图像中呈现小目标的特性;
(1.2)、对(1.1)中采集的图片进行边界框和类别的标注工作,将标注文件格式转换为XML格式;
(1.3)、将(1.2)中标注好的图像数据集使用水平翻转,明暗变化和高斯模糊等方式扩充数据集数量,最后划分为训练集和测试集。
S2.对VGGNet16骨干网络添加自行设计的Feature Fusion Module(FFM),提取出包含丰富小目标类别和位置信息的特征图。具体工作流程如下:
(2.1)、FFM的作用是融合VGGNet16的浅层conv4_x层和深层conv5_x层的特征图后生成包含小目标丰富位置信息和分类信息的特征图;FMM具体包括2路特征图的输入和1路特征图的输出;第1路输入由1个最大池化层(Maxpool)、2个卷积层(Conv)、2个批归一化层(BatchNorm)和1个激活层组成;第2路输入由1个反卷积层(Deconv)、1个卷积层(Conv)和1个激活层组成;输出由1个逐点相加层(Eltw Sum)、1个卷积层(Conv)、1个批归一层(BatchNorm)和2个激活层组成。
S3.将K-means聚类算法生成的边界框尺寸设置Region Proposal Network(RPN)的锚点尺寸,最终通过RPN生成目标建议候选框。具体工作流程如下:
(3.1)、使用K-means聚类算法生成RPN锚点框的三种分辨率尺寸:82,162,322和三种长宽比例:1:1,1:2,2:1的共9中不同尺度的锚点框;
(3.2)、将(3.1)的锚点框尺度用于RPN,通过RPN网络生成建议区域框。
(3.3)、使用(3.2)中的建议区域框提取在(2.1)中输出的特征图上提取建议候选特征图。
S4.目标建议候选特征图进行RoIAlign,将不同分辨率的建议候选特征图的分辨率统一到相同的分辨率大小(分辨率大小为7×7)。具体工作流程如下:
(4.1)、将建议候选特征图平均划分为7×7块,将每一块划分为2×2块;
(4.2)、将(4.1)中2×2块中每一块采用线性插值法计算出特征值,并且取出最大特征;
(4.3)、采用(4.2)的方式生成分辨率大小为7×7的建议候选特征图。
S5.将建议候选特征图输入到自行设计的Multipath Residual Detector(MRD)中进行目标分类和目标边界框回归,输出需要检测的护理物品小目标的类别和位置信息。具体工作流程如下:
(5.1)、将(4.3)中生成的建议候选特征图输入到MRD中,进一步学习;
(5.2)、经过最终的边界框回归和分类,生成小目标的位置信息和类别。
S6.将步骤(5.2)生成的类别和位置信息经过非极大值抑制过程后映射到原始图像上面,生成最终的检测结果。
2.本发明提供了一种应用于护理机器人的小目标检测方法的特征图融合模块Feature Fusion Module(FFM),具体步骤如图2所示:
S1.对VGGNet16骨干网络添加自行设计的Feature Fusion Module(FFM),提取出包含丰富小目标类别和位置信息的特征图。具体工作流程如下:
(1.1)、FFM的作用是融合VGGNet16的浅层conv4_x层和深层conv5_x层的特征图后生成包含小目标丰富位置信息和分类信息的特征图;FMM具体包括2路特征图的输入和1路特征图的输出;第1路输入由1个最大池化层(Maxpool)、2个卷积层(Conv)、2个批归一化层(BatchNorm)和1个激活层组成;第2路输入由1个反卷积层(Deconv)、1个卷积层(Conv)和1个激活层组成;输出由1个逐点相加层(Eltw Sum)、1个卷积层(Conv)、1个批归一层(BatchNorm)和2个激活层组成。
3.本发明提供了一种应用于护理机器人的小目标检测方法的多路残差检测器Multipath Residual Detector(MRD),具体步骤如图3所示:
S1.将建议候选特征图输入到自行设计的Multipath Residual Detector(MRD)中进行目标分类和目标边界框回归,输出需要检测的护理物品小目标的类别和位置信息。具体工作流程如下:
(1.1)、将1中(4.3)中生成的建议候选特征图输入到MRD中,进一步学习;
(1.2)、经过最终的边界框回归和分类,生成小目标的位置信息和类别。
以上结合附图对本发明的具体实施方式进行了描述。本行业的技术人员应该了解,本发明不受上述实施例的限制。在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围之内。
Claims (8)
1.一种应用于护理机器人的小目标检测方法,其特征在于,包括以下步骤:
步骤1,收集室内护理场景的图片,保证摄像头与需要识别的护理物品3米到5米的距离,让护理物品呈现出小目标特点,对图片中的护理物品小目标进行人工的标注,进行图像数量的扩充后将其数量的80%划分为训练集,20%划分为测试集;
步骤2,对VGGNet16骨干网络添加自行设计的Feature Fusion Module(FFM),提取出包含丰富小目标类别和位置信息的特征图;
步骤3,将K-means聚类算法生成的边界框尺寸设置Region Proposal Network(RPN)的锚点尺寸,最终通过RPN生成目标建议候选框;
步骤4,对步骤3中目标建议候选框中的特征图进行RoIAlign,将不同分辨率的建议候选框中特征图的分辨率统一到相同的分辨率大小;
步骤5,将步骤4中生成的相同分辨率的建议候选特征图输入到自行设计的MultipathResidual Detector(MRD)中进行目标分类和目标边界框回归,输出需要检测的护理物品小目标的类别和位置信息。
步骤6,将步骤5生成的类别和位置信息经过非极大值抑制过程后映射到原始图像上面,生成最终的检测结果。
2.根据权利要求1所述的应用于护理机器人的小目标检测方法,其特征在于,步骤2中的VGGNet16骨干网络添加了Feature Fusion Module(FFM);由于骨干网络深层提取的特征图包含小目标丰富的分类信息而缺乏位置信息,但骨干网络浅层提取的特征图包含小目标丰富的位置信息而缺乏分类信息,所以FFM的作用是融合VGGNet16的浅层conv4_x层和深层conv5_x层的特征图后生成包含小目标丰富位置信息和分类信息的特征图;FMM具体包括2路特征图的输入和1路特征图的输出;第1路输入由1个最大池化层(Maxpool)、2个卷积层(Conv)、2个批归一化层(BatchNorm)和1个激活层组成;第2路输入由1个反卷积层(Deconv)、1个卷积层(Conv)和1个激活层组成;输出由1个逐点相加层(Eltw Sum)、1个卷积层(Conv)、1个批归一层(BatchNorm)和2个激活层组成。
3.根据权利要求2所述的应用于护理机器人的小目标检测方法,其特征在于,第1路输入的2个卷积层的卷积核尺度均为3×3,激活层采用ReLU激活函数;第2路输入的1个反卷积层的卷积核尺度为2×2,1个卷积层的卷积核尺度为3×3;输入的1个卷积层的卷积核尺度为2×2,2个激活层采用ReLU激活函数。
4.根据权利要求1所述的应用于护理机器人的小目标检测方法,其特征在于,步骤3中使用K-means聚类算法生成RPN锚点框的三种分辨率尺寸:82,162,322和三种长宽比例:1:1,1:2,2:1的共9中不同尺度的锚点框。
5.根据权利要求1所述的应用于护理机器人的小目标检测方法,其特征在于,步骤4中使用RoIAlign在将不同分辨率的建议候选框中特征图的分辨率统一到相同的分辨率大小(分辨率大小为7×7)的同时,消除两次网络下采样过程造成的建议候选框中特征图的错位问题;因为小目标对错位问题敏感,小幅度的错位就能造成检测结果存在较大的偏差。
6.根据权利要求1所述的应用于护理机器人的小目标检测方法,其特征在于,步骤5中设计的Multipath Residual Detector(MRD)对已经包含小目标位置信息的建议候选框中的特征图经过多路残差特征提取网络进行语义分类特征信息的再次提取;这样在不损失小目标位置信息的前提下增强小目标的分类信息,最终可以增强对小目标检测的鲁棒性。
7.根据权利要求1所述的应用于护理机器人的小目标检测方法,其特征在于,步骤6中设定非极大抑制过程的阈值为0.7。
8.根据权利要求1所述的应用于护理机器人的小目标检测方法,其特征在于,步骤1中通过图像反转,明暗变化和高斯模糊的方法来扩充数据集中图像的数量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911077172.8A CN110852241B (zh) | 2019-11-06 | 2019-11-06 | 一种应用于护理机器人的小目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911077172.8A CN110852241B (zh) | 2019-11-06 | 2019-11-06 | 一种应用于护理机器人的小目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110852241A true CN110852241A (zh) | 2020-02-28 |
CN110852241B CN110852241B (zh) | 2022-08-16 |
Family
ID=69598735
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911077172.8A Active CN110852241B (zh) | 2019-11-06 | 2019-11-06 | 一种应用于护理机器人的小目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110852241B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112016506A (zh) * | 2020-09-07 | 2020-12-01 | 重庆邮电大学 | 快速适应新场景的教室姿态检测模型参数训练方法 |
CN112287896A (zh) * | 2020-11-26 | 2021-01-29 | 山东捷讯通信技术有限公司 | 一种基于深度学习的无人机航拍图像目标检测方法及系统 |
CN113450354A (zh) * | 2021-08-30 | 2021-09-28 | 山东仕达思生物产业有限公司 | 基于卷积神经网络和摇摆活动特征的滴虫检测方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109034245A (zh) * | 2018-07-27 | 2018-12-18 | 燕山大学 | 一种利用特征图融合的目标检测方法 |
CN109117876A (zh) * | 2018-07-26 | 2019-01-01 | 成都快眼科技有限公司 | 一种稠密小目标检测模型构建方法、模型及检测方法 |
WO2019028725A1 (en) * | 2017-08-10 | 2019-02-14 | Intel Corporation | CONVOLUTIVE NEURAL NETWORK STRUCTURE USING INVERTED CONNECTIONS AND OBJECTIVITY ANTERIORITIES TO DETECT AN OBJECT |
CN109344821A (zh) * | 2018-08-30 | 2019-02-15 | 西安电子科技大学 | 基于特征融合和深度学习的小目标检测方法 |
CN109584227A (zh) * | 2018-11-27 | 2019-04-05 | 山东大学 | 一种基于深度学习目标检测算法的焊点质量检测方法及其实现系统 |
CN109871903A (zh) * | 2019-03-11 | 2019-06-11 | 南京邮电大学 | 一种基于端到端深度网络与对抗学习的目标检测方法 |
CN110084292A (zh) * | 2019-04-18 | 2019-08-02 | 江南大学 | 基于DenseNet和多尺度特征融合的目标检测方法 |
CN110084195A (zh) * | 2019-04-26 | 2019-08-02 | 西安电子科技大学 | 基于卷积神经网络的遥感图像目标检测方法 |
-
2019
- 2019-11-06 CN CN201911077172.8A patent/CN110852241B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019028725A1 (en) * | 2017-08-10 | 2019-02-14 | Intel Corporation | CONVOLUTIVE NEURAL NETWORK STRUCTURE USING INVERTED CONNECTIONS AND OBJECTIVITY ANTERIORITIES TO DETECT AN OBJECT |
CN109117876A (zh) * | 2018-07-26 | 2019-01-01 | 成都快眼科技有限公司 | 一种稠密小目标检测模型构建方法、模型及检测方法 |
CN109034245A (zh) * | 2018-07-27 | 2018-12-18 | 燕山大学 | 一种利用特征图融合的目标检测方法 |
CN109344821A (zh) * | 2018-08-30 | 2019-02-15 | 西安电子科技大学 | 基于特征融合和深度学习的小目标检测方法 |
CN109584227A (zh) * | 2018-11-27 | 2019-04-05 | 山东大学 | 一种基于深度学习目标检测算法的焊点质量检测方法及其实现系统 |
CN109871903A (zh) * | 2019-03-11 | 2019-06-11 | 南京邮电大学 | 一种基于端到端深度网络与对抗学习的目标检测方法 |
CN110084292A (zh) * | 2019-04-18 | 2019-08-02 | 江南大学 | 基于DenseNet和多尺度特征融合的目标检测方法 |
CN110084195A (zh) * | 2019-04-26 | 2019-08-02 | 西安电子科技大学 | 基于卷积神经网络的遥感图像目标检测方法 |
Non-Patent Citations (2)
Title |
---|
JIANGMIAO PANG等: ""R2 -CNN: Fast Tiny Object Detection in Large-Scale Remote Sensing Images"", 《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》 * |
彭明霞等: ""融合FPN的Faster R-CNN复杂背景下棉田杂草高效识别方法"", 《农业工程学报》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112016506A (zh) * | 2020-09-07 | 2020-12-01 | 重庆邮电大学 | 快速适应新场景的教室姿态检测模型参数训练方法 |
CN112287896A (zh) * | 2020-11-26 | 2021-01-29 | 山东捷讯通信技术有限公司 | 一种基于深度学习的无人机航拍图像目标检测方法及系统 |
CN113450354A (zh) * | 2021-08-30 | 2021-09-28 | 山东仕达思生物产业有限公司 | 基于卷积神经网络和摇摆活动特征的滴虫检测方法 |
CN113450354B (zh) * | 2021-08-30 | 2021-11-16 | 山东仕达思生物产业有限公司 | 基于卷积神经网络和摇摆活动特征的滴虫检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110852241B (zh) | 2022-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107833236B (zh) | 一种动态环境下结合语义的视觉定位系统和方法 | |
US10096122B1 (en) | Segmentation of object image data from background image data | |
CN107808131B (zh) | 基于双通路深度卷积神经网络的动态手势识别方法 | |
CN109903331B (zh) | 一种基于rgb-d相机的卷积神经网络目标检测方法 | |
CN110852241B (zh) | 一种应用于护理机器人的小目标检测方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
Chen et al. | Door recognition and deep learning algorithm for visual based robot navigation | |
JP4429298B2 (ja) | 対象個数検出装置および対象個数検出方法 | |
CN110929593B (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
CN103093198B (zh) | 一种人群密度监测方法及装置 | |
CN112686928B (zh) | 一种基于多源信息融合的运动目标视觉跟踪方法 | |
CN101406390A (zh) | 检测人体部位和人的方法和设备以及对象检测方法和设备 | |
CN105741319B (zh) | 基于盲目更新策略和前景模型的改进视觉背景提取方法 | |
CN103955682A (zh) | 基于surf兴趣点的行为识别方法及装置 | |
KR101681104B1 (ko) | 부분적 가림을 갖는 영상 객체 내의 주요 특징점 기반 다중 객체 추적 방법 | |
CN109740454A (zh) | 一种基于yolo-v3的人体体态识别方法 | |
CN103886585A (zh) | 一种基于排序学习的视频跟踪方法 | |
CN103778436A (zh) | 一种基于图像处理的行人姿态检测方法 | |
Raza et al. | Framework for estimating distance and dimension attributes of pedestrians in real-time environments using monocular camera | |
CN106446832B (zh) | 一种基于视频的实时检测行人的方法 | |
JP4918615B2 (ja) | 対象個数検出装置および対象個数検出方法 | |
CN110827318A (zh) | 一种基于多层语义特征与多响应图融合的目标跟踪方法 | |
CN110766093A (zh) | 一种基于多帧特征融合的视频目标重识别方法 | |
Chai et al. | 3D gesture recognition method based on faster R-CNN network | |
CN108876849B (zh) | 基于辅助标识的深度学习目标识别及定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |