CN107239790A - 一种基于深度学习的服务机器人目标检测与定位方法 - Google Patents
一种基于深度学习的服务机器人目标检测与定位方法 Download PDFInfo
- Publication number
- CN107239790A CN107239790A CN201710324898.1A CN201710324898A CN107239790A CN 107239790 A CN107239790 A CN 107239790A CN 201710324898 A CN201710324898 A CN 201710324898A CN 107239790 A CN107239790 A CN 107239790A
- Authority
- CN
- China
- Prior art keywords
- service robot
- classification
- network
- layer
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
本发明设计了一种基于深度学习的实时性好、准确率高的服务机器人目标检测与定位方法,包括系统设计、数据集的设计、卷积神经网络的结构设计以及测试方法设计。具体包括:提出了一种基于区域提取网络的算法;提出了一种不需要人工提取特征,完全由深度学习网络模型从底层到高层、自动地提取特征的方法;提出了一种提取到的特征并非特定的某一种而是诸如颜色、形状等特征的组合的方法;提出了一种同时完成目标检测与定位两项任务的方法,该方法节省分步处理产生的时间消耗,极大地提高实时性。本发明实现了服务机器人的目标检测与定位功能,且整个系统占用空间小、可移植性强,可广泛应用于家庭、办公室等多种复杂环境下的目标识别中。
Description
技术领域
本发明涉及图像及视频目标检测领域,特别涉及一种基于深度学习的服务机器人目标检测与定位方法
背景技术
目标检测与定位对于人来说是再简单不过的任务,但是对于机器人来说,很难直接得到图像中有哪些目标这种高层语义概念,也不清楚目标出现在图像中哪个区域。图像中的目标可能出现在任何位置,目标的形态可能存在各种各样的变化,图像的背景千差万别,这些因素导致服务机器人的目标检测与定位并不是一个容易解决的任务。
传统的目标检测方法一般分为三个阶段,首先在给定的图像上选择一些候选区域,然后对这些区域提取特征,最后使用分类器进行分类。
传统方法存在许多问题,比如:提取区域时为了保证不同的长宽比,不同的尺度采取的穷举策略,时间复杂度太高;采用人工的特征提取方法,虽然该方法在特定的特征在特定的目标检测问题中取得了较好的效果,但这种人工的特征提取方法极大地依赖经验,而且在复杂场景下,特征匹配的复杂度高、鲁棒性差;采用分步进行的方法,耗时多且不具有实时性。
本发明设计的方法解决了依赖人工提取特征、复杂场景下鲁棒性差以及不具有实时性的问题,建立了整个服务机器人目标检测与定位系统,可以直接应用于家庭、办公室、机场、酒店等多种场合。
发明内容
本发明的目的在于设计一种基于深度学习的实时性好、准确率高的服务机器人目标检测与定位方法,实现服务机器人在复杂室内环境下的目标实时检测与定位功能。
具体步骤如下:
(1)搭建服务机器人目标检测与识别系统;
(2)采集服务机器人待检测物体的图像并制作包含训练集和验证集的图像数据集;
(3)设计深度卷积神经网络结构,包括特征提取网络、区域提取网络以及分类与位置回归网络;
(4)在深度学习框架下进行训练得到模型,将模型移植到开发板上,并编写脚本程序调用模型以及摄像头进行测试,设计服务机器人目标检测与定位系统;
(5)服务机器人能够根据摄像头捕捉到的图像确定目标的类别同时给出目标在图像中的位置。
在一些实施方式中步骤(1)包括如下步骤:
(1.1)系统由NVIDIA Jetson TX1开发板(以下简称TX1)和USB摄像头组成。TX1以NVIDIA MaxwellTM架构为基础构建,含有256个CUDA核心,提供每秒超过一万亿次的浮点运算的性能;且体积小巧、高度集成,适合嵌入式深度学习、计算机视觉、图形和GPU计算。USB摄像头体积小巧、可调节俯仰角度。
(1.2)通过JetPack2.3给TX1安装ubuntu系统,并实现外部存储空间扩展以及交换空间,为搭建深度学习框架以及深度卷积神经网络提供足够的空间。
(1.3)将USB摄像头与之连接,并测试其可用性。
在一些实施方式中,步骤(2)具体包括如下步骤:
(2.1)通过各种网站上相关图片下载和相机拍摄,采集每类物体的图像,包括彩色的和黑白的,不同角度和光照条件下的,背景复杂程度不同的,图片中物体个数以及物体在图片中所占比例不同的图片。室内物体数据集包含电脑、桌子、椅子、沙发、盆栽、瓶子,共1300张图像;儿童玩具数据集包含螺丝钉模型、螺丝帽模型、钉子模型、锤子模型,共1100张图像。
(2.2)对原始图像做随机旋转、随机翻转、随机改变亮度、随机剪裁等操作,使数据集更丰富。然后对原始图像进行标注,框出每个目标的位置并标注出其标签,制作成xml格式作为标签文件。
(2.3)将每个数据集中的图片均按照1:4的比例分为验证集和训练集。
(2.4)每个数据集均包含三个文件夹,分别为存储图片、标签文件以及训练验证文件。
在一些实施方式中,卷积神经网络结构的设计具体为:
该网络结构由特征提取网络、区域提取网络以及分类与位置回归网络组成。特征提取网络对输入图像进行特征提取,将提取出的原始特征同时输入给区域提取网络和分类与位置回归网络。区域提取网络将原始特征图转化为感兴趣区域特征图,并将其输入给分类与位置回归网络。分类与位置回归网络将输入的原始特征和感兴趣区域特征进行处理,得到目标的类别以及位置信息。
在一些实施方式中步骤(3)中的深度卷积神经网络结构特征提取网络、区域提取网络以及分类与位置回归网络组成。具体包括如下步骤:
(3.1)特征提取网络对输入图像进行特征提取,将提取出的原始特征同时输入给区域提取网络和分类与位置回归网络。
(3.2)区域提取网络将原始特征图转化为感兴趣区域特征图,并将其输入给分类与位置回归网络。
(3.3)分类与位置回归网络将输入的原始特征和感兴趣区域特征进行处理,得到目标的类别以及位置信息。
其中特征提取网络由输入层和5个卷积层(conv)组成,其中第一个、第二个和第五个卷积层后会紧跟一个最大池化层(max-pooling)和非线性化层(ReLU),每个卷积层后跟一个归一化层(norm)。将数据集输入到特征提取网络中,将第五个卷积层(conv5)得到的特征图作为原始特征同时输入给区域提取网络和分类与位置回归网络。
区域提取网络通过一个小的卷积核在原始特征图上滑动,在每个特征点上产生一系列预测框,根据一定的选择机制得到一个新的特征向量,将其同时输入给分类层和位置预测层,得到感兴趣区域(ROIs),同样作为分类与位置回归网络的输入。
分类与位置回归网络将特征提取网络得到的原始特征图和区域提取网络得到的感兴趣区域同时输入给一层池化层和两层全连接层,得到感兴趣区域特征图;将感兴趣区域特征图同时输入给softmax逻辑回归层和位置回归层,实现目标分类和定位。
该网络模型实现端对端的操作,只需将数据集输入给输入层即可得到目标的类别及位置信息。
在一些实施方式中,所述步骤(4)包括如下步骤:
(4.1)将所设计的网络结构搭建在CAFFE框架下。
(4.2)将所设计的数据集输入给卷积神经网络,在GeForce GTX 1080GPU下训练。
(4.3)经过训练得到目标检测与定位模型。
(4.4)利用训练得到的模型,编写测试脚本程序,调用摄像头,实现实时的目标检测与定位。
附图说明
图1是本发明设计的卷积神经网络整体结构图
图2是本发明设计的特征提取网络结构图
图3是本发明设计的区域提取网络结构图
图4是本发明设计的分类与位置回归网络结构图
图5是本发明中基于深度学习的目标检测与定位方法流程图
具体实施方式
本发明提出了一种基于深度学习的服务机器人目标检测与定位方法,旨在实现服务机器人在复杂环境下高效准确地进行目标检测与定位。首先搭建服务机器人目标检测与识别系统;然后采集服务机器人待检测物体的图像并制作包含训练集和验证集的图像数据集。然后设计深度卷积神经网络结构,包括特征提取网络、区域提取网络以及分类与位置回归网络。接下来在深度学习框架下进行训练得到模型,将模型移植到开发板上,并编写脚本程序调用模型以及摄像头进行测试,在视频中显示多种目标的类别以及在摄像头捕获到的图像中的位置和准确率。在室内复杂环境下,服务机器人能够根据摄像头捕捉到的图像确定目标的类别同时给出目标在图像中的位置,为服务机器人抓取等操作提供有用信息,且准确率高、实时性好。
在一些实施方式中,目标检测与定位系统具体为:
(1)系统由NVIDIA Jetson TX1开发板(以下简称TX1)和USB摄像头组成。TX1以NVIDIA MaxwellTM架构为基础构建,含有256个CUDA核心,提供每秒超过一万亿次的浮点运算的性能;且体积小巧、高度集成,适合嵌入式深度学习、计算机视觉、图形和GPU计算。USB摄像头体积小巧、可调节俯仰角度。
(2)通过JetPack2.3给TX1安装ubuntu系统,并实现外部存储空间扩展以及交换空间,为搭建深度学习框架以及深度卷积神经网络提供足够的空间。
(3)将USB摄像头与之连接,并测试其可用性。
在一些实施方式中,数据集的建立具体为:
(1)通过各种网站上相关图片下载和相机拍摄,采集每类物体的图像,包括彩色的和黑白的,不同角度和光照条件下的,背景复杂程度不同的,图片中物体个数以及物体在图片中所占比例不同的图片。室内物体数据集包含电脑、桌子、椅子、沙发、盆栽、瓶子,共1300张图像;儿童玩具数据集包含螺丝钉模型、螺丝帽模型、钉子模型、锤子模型,共1100张图像。
(2)对原始图像做随机旋转、随机翻转、随机改变亮度、随机剪裁等操作,使数据集更丰富。然后对原始图像进行标注,框出每个目标的位置并标注出其标签,制作成xml格式作为标签文件。
(3)将每个数据集中的图片均按照1:4的比例分为验证集和训练集。
(4)每个数据集均包含三个文件夹,分别为存储图片、标签文件以及训练验证文件。
在一些实施方式中,卷积神经网络结构的设计具体为:
(1)该网络结构由特征提取网络、区域提取网络以及分类与位置回归网络组成。特征提取网络对输入图像进行特征提取,将提取出的原始特征同时输入给区域提取网络和分类与位置回归网络。区域提取网络将原始特征图转化为感兴趣区域特征图,并将其输入给分类与位置回归网络。分类与位置回归网络将输入的原始特征和感兴趣区域特征进行处理,得到目标的类别以及位置信息。
(2)特征提取网络由输入层和5个卷积层(conv)组成,其中第一个、第二个和第五个卷积层后会紧跟一个最大池化层(max-pooling)和非线性化层(ReLU),每个卷积层后跟一个归一化层(norm)。将数据集输入到特征提取网络中,将第五个卷积层(conv5)得到的特征图作为原始特征同时输入给区域提取网络和分类与位置回归网络。
(3)区域提取网络通过一个小的卷积核在原始特征图上滑动,在每个特征点上产生一系列预测框,根据一定的选择机制得到一个新的特征向量,将其同时输入给分类层和位置预测层,得到感兴趣区域(ROIs),同样作为分类与位置回归网络的输入。
(4)分类与位置回归网络将特征提取网络得到的原始特征图和区域提取网络得到的感兴趣区域同时输入给一层池化层和两层全连接层,得到感兴趣区域特征图;将感兴趣区域特征图同时输入给softmax逻辑回归层和位置回归层,实现目标分类和定位。
(5)该网络模型实现端对端的操作,只需将数据集输入给输入层即可得到目标的类别及位置信息。
在一些实施方式中,识别测试方法具体为:
(1)将所设计的网络结构搭建在CAFFE框架下。
(2)将所设计的数据集输入给卷积神经网络,在GeForce GTX 1080GPU下训练。
(3)经过训练得到目标检测与定位模型。
(4)利用训练得到的模型,编写测试脚本程序,调用摄像头,实现实时的目标检测与定位。
下面结合附图对本发明进行详细说明。
(1)网络整体结构
参见图1,该网络结构由特征提取网络、区域提取网络以及分类与位置回归网络组成。特征提取网络对输入图像进行特征提取,将提取出的原始特征同时输入给区域提取网络和分类与位置回归网络。区域提取网络将原始特征图转化为感兴趣区域特征图,并将其输入给分类与位置回归网络。分类与位置回归网络将输入的原始特征和感兴趣区域特征进行处理,得到目标的类别以及位置信息。
(2)特征提取网络
参见图2,特征提取网络由输入层和5个卷积层(conv)组成,其中第一个、第二个和第五个卷积层后会紧跟一个最大池化层(max-pooling)和非线性化层(ReLU),每个卷积层后跟一个归一化层(norm)。将数据集输入到特征提取网络中,将第五个卷积层(conv5)得到的特征图作为原始特征同时输入给区域提取网络和分类与位置回归网络。
(3)区域提取网络结构
参见图3,区域提取网络通过一个小的卷积核在原始特征图上滑动,在每个特征点上产生一系列预测框,根据一定的选择机制得到一个新的特征向量,将其同时输入给分类层和位置预测层,得到感兴趣区域(ROIs),同样作为分类与位置回归网络的输入。
(4)分类与位置回归网络结构
参见图4,分类与位置回归网络将特征提取网络得到的原始特征图和区域提取网络得到的感兴趣区域同时输入给一层池化层和两层全连接层,得到感兴趣区域特征图;将感兴趣区域特征图同时输入给softmax逻辑回归层和位置回归层,实现目标分类和定位。
(5)检测与定位方法流程
参见图5,首先采集待识别物体的图像,制作成图像数据集;然后将所设计的网络结构搭建在CAFFE框架下,将数据集输入卷积神经网络,在GeForce GTX 1080GPU下进行训练,经过训练得到目标检测与定位模型;编写脚本程序调用该模型,实现对于服务机器人的摄像头捕捉到的图像信息,实时输出图像中目标类别及位置的功能。
Claims (8)
1.一种基于深度学习的服务机器人目标检测与定位方法,其特征在于,包括如下步骤:
(1)搭建服务机器人目标检测与识别系统;
(2)采集服务机器人待检测物体的图像并制作包含训练集和验证集的图像数据集;
(3)设计深度卷积神经网络结构,包括特征提取网络、区域提取网络以及分类与位置回归网络;
(4)在深度学习框架下进行训练得到模型,将模型移植到开发板上,并编写脚本程序调用模型以及摄像头进行测试,设计服务机器人目标检测与定位系统;
(5)服务机器人能够根据摄像头捕捉到的图像确定目标的类别同时给出目标在图像中的位置。
2.根据权利要求1所述的基于深度学习的服务机器人目标检测与定位方法,其特征在于,所述的步骤(1)具体包括:
所述的服务机器人目标检测与识别系统由NVIDIA Jetson TX1开发板和USB摄像头组成,通过JetPack2.3给TX1安装ubuntu系统,将USB摄像头与TX1连接并测试其可用性。
3.根据权利要求1所述的基于深度学习的服务机器人物体识别方法,其特征在于,步骤(2)所述的图像数据集具体包括:
建立室内物体数据集和儿童玩具数据集,用于训练物体检测与定位模型、玩具检测与定位模型;两个数据集中的图片一部分来源于网络,另一部分是通过摄像头采集的图像;对原始图像做随机旋转、随机翻转、随机改变亮度、随机剪裁等操作,丰富数据集,然后对图像进行标注。
4.根据权利要求1所述的基于深度学习的服务机器人物体识别方法,其特征在于,所述的步骤(3)中的深度卷积神经网络结构具体包括如下步骤:
(3.1)特征提取网络对输入图像进行特征提取,将提取出的原始特征同时输入给区域提取网络和分类与位置回归网络;
(3.2)区域提取网络将原始特征图转化为感兴趣区域特征图,并将其输入给分类与位置回归网络;
(3.3)分类与位置回归网络将输入的原始特征和感兴趣区域特征进行处理,得到目标的类别以及位置信息。
5.根据权利要求1所述的基于深度学习的服务机器人物体识别方法,其特征在于,所述的步骤(3)中的特征提取网络具体包括:
由输入层和5个卷积层组成,其中第一个、第二个和第五个卷积层后会紧跟一个最大池化层和非线性化层,每个卷积层后跟一个归一化层。将数据集输入到特征提取网络中,将第五个卷积层得到的特征图作为原始特征同时输入给区域提取网络和分类与位置回归网络。
6.根据权利要求1所述的基于深度学习的服务机器人物体识别方法,其特征在于,所述的步骤(3)中区域提取网络具体包括:
通过一个卷积核在原始特征图上滑动,在每个特征点上产生一系列预测框,根据一定的选择机制得到一个新的特征向量,将其同时输入给分类层和位置预测层,得到感兴趣区域,感兴趣区域同时作为分类与位置回归网络的输入。
7.根据权利要求1所述的基于深度学习的服务机器人物体识别方法,其特征在于,所述的步骤(3)中的分类与位置回归网络具体包括:
将特征提取网络得到的原始特征图和区域提取网络得到的感兴趣区域同时输入给一层池化层和两层全连接层,得到感兴趣区域特征图;将感兴趣区域特征图同时输入给softmax逻辑回归层和位置回归层,实现目标分类和定位。
8.根据权利要求1所述的基于深度学习的服务机器人物体识别方法,其特征在于,所述步骤(4)具体包括如下步骤:
(4.1)所设计的网络结构搭建在CAFFE框架下;
(4.2)在GeForce GTX 1080GPU下运行;
(4.3)将所设计的数据集输入给卷积神经网络,经过训练得到目标检测与定位模;
利用训练得到的模型,编写测试脚本程序,调用摄像头。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710324898.1A CN107239790A (zh) | 2017-05-10 | 2017-05-10 | 一种基于深度学习的服务机器人目标检测与定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710324898.1A CN107239790A (zh) | 2017-05-10 | 2017-05-10 | 一种基于深度学习的服务机器人目标检测与定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107239790A true CN107239790A (zh) | 2017-10-10 |
Family
ID=59984218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710324898.1A Pending CN107239790A (zh) | 2017-05-10 | 2017-05-10 | 一种基于深度学习的服务机器人目标检测与定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107239790A (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108053447A (zh) * | 2017-12-18 | 2018-05-18 | 纳恩博(北京)科技有限公司 | 基于图像的重定位方法、服务器及存储介质 |
CN108189043A (zh) * | 2018-01-10 | 2018-06-22 | 北京飞鸿云际科技有限公司 | 一种应用于高铁机房的巡检方法及巡检机器人系统 |
CN108376235A (zh) * | 2018-01-15 | 2018-08-07 | 深圳市易成自动驾驶技术有限公司 | 图像检测方法、装置及计算机可读存储介质 |
CN108510062A (zh) * | 2018-03-29 | 2018-09-07 | 东南大学 | 一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法 |
CN108805004A (zh) * | 2018-04-12 | 2018-11-13 | 深圳市商汤科技有限公司 | 功能区域检测方法和装置、电子设备、存储介质、程序 |
CN108876849A (zh) * | 2018-04-24 | 2018-11-23 | 哈尔滨工程大学 | 基于辅助标识的深度学习目标识别及定位方法 |
CN108921218A (zh) * | 2018-06-29 | 2018-11-30 | 炬大科技有限公司 | 一种目标物体检测方法及装置 |
CN109003262A (zh) * | 2018-06-29 | 2018-12-14 | 炬大科技有限公司 | 顽固污渍清洁方法及装置 |
CN109358628A (zh) * | 2018-11-06 | 2019-02-19 | 江苏木盟智能科技有限公司 | 一种货箱对位方法及机器人 |
CN109446911A (zh) * | 2018-09-28 | 2019-03-08 | 北京陌上花科技有限公司 | 图像检测方法及系统 |
CN109886357A (zh) * | 2019-03-13 | 2019-06-14 | 哈尔滨工程大学 | 一种基于特征融合的自适应权重深度学习目标分类方法 |
CN110532320A (zh) * | 2019-08-01 | 2019-12-03 | 立旃(上海)科技有限公司 | 基于区块链的训练数据管理方法及装置 |
WO2019232806A1 (zh) * | 2018-06-08 | 2019-12-12 | 珊口(深圳)智能科技有限公司 | 导航方法、导航系统、移动控制系统及移动机器人 |
CN110717534A (zh) * | 2019-09-30 | 2020-01-21 | 中国科学院大学 | 一种基于网络监督的目标分类和定位方法 |
CN111126325A (zh) * | 2019-12-30 | 2020-05-08 | 哈尔滨工程大学 | 一种基于视频的智能人员安防识别统计方法 |
CN112784987A (zh) * | 2019-01-29 | 2021-05-11 | 武汉星巡智能科技有限公司 | 基于多级神经网络级联的目标看护方法及装置 |
CN112863453A (zh) * | 2021-01-07 | 2021-05-28 | Tcl华星光电技术有限公司 | 全息显示方法及全息显示系统 |
-
2017
- 2017-05-10 CN CN201710324898.1A patent/CN107239790A/zh active Pending
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108053447A (zh) * | 2017-12-18 | 2018-05-18 | 纳恩博(北京)科技有限公司 | 基于图像的重定位方法、服务器及存储介质 |
CN108189043A (zh) * | 2018-01-10 | 2018-06-22 | 北京飞鸿云际科技有限公司 | 一种应用于高铁机房的巡检方法及巡检机器人系统 |
CN108376235A (zh) * | 2018-01-15 | 2018-08-07 | 深圳市易成自动驾驶技术有限公司 | 图像检测方法、装置及计算机可读存储介质 |
CN108510062A (zh) * | 2018-03-29 | 2018-09-07 | 东南大学 | 一种基于级联卷积神经网络的机器人非规则物体抓取位姿快速检测方法 |
CN108805004A (zh) * | 2018-04-12 | 2018-11-13 | 深圳市商汤科技有限公司 | 功能区域检测方法和装置、电子设备、存储介质、程序 |
CN108805004B (zh) * | 2018-04-12 | 2021-09-14 | 深圳市商汤科技有限公司 | 功能区域检测方法和装置、电子设备、存储介质 |
CN108876849A (zh) * | 2018-04-24 | 2018-11-23 | 哈尔滨工程大学 | 基于辅助标识的深度学习目标识别及定位方法 |
CN108876849B (zh) * | 2018-04-24 | 2021-11-23 | 哈尔滨工程大学 | 基于辅助标识的深度学习目标识别及定位方法 |
WO2019232806A1 (zh) * | 2018-06-08 | 2019-12-12 | 珊口(深圳)智能科技有限公司 | 导航方法、导航系统、移动控制系统及移动机器人 |
CN108921218A (zh) * | 2018-06-29 | 2018-11-30 | 炬大科技有限公司 | 一种目标物体检测方法及装置 |
CN109003262A (zh) * | 2018-06-29 | 2018-12-14 | 炬大科技有限公司 | 顽固污渍清洁方法及装置 |
CN108921218B (zh) * | 2018-06-29 | 2022-06-24 | 炬大科技有限公司 | 一种目标物体检测方法及装置 |
CN109003262B (zh) * | 2018-06-29 | 2022-06-21 | 炬大科技有限公司 | 顽固污渍清洁方法及装置 |
CN109446911B (zh) * | 2018-09-28 | 2021-08-06 | 北京陌上花科技有限公司 | 图像检测方法及系统 |
CN109446911A (zh) * | 2018-09-28 | 2019-03-08 | 北京陌上花科技有限公司 | 图像检测方法及系统 |
CN109358628A (zh) * | 2018-11-06 | 2019-02-19 | 江苏木盟智能科技有限公司 | 一种货箱对位方法及机器人 |
CN112784987B (zh) * | 2019-01-29 | 2024-01-23 | 武汉星巡智能科技有限公司 | 基于多级神经网络级联的目标看护方法及装置 |
CN112784987A (zh) * | 2019-01-29 | 2021-05-11 | 武汉星巡智能科技有限公司 | 基于多级神经网络级联的目标看护方法及装置 |
CN109886357A (zh) * | 2019-03-13 | 2019-06-14 | 哈尔滨工程大学 | 一种基于特征融合的自适应权重深度学习目标分类方法 |
CN109886357B (zh) * | 2019-03-13 | 2022-12-13 | 哈尔滨工程大学 | 一种基于特征融合的自适应权重深度学习目标分类方法 |
CN110532320A (zh) * | 2019-08-01 | 2019-12-03 | 立旃(上海)科技有限公司 | 基于区块链的训练数据管理方法及装置 |
CN110532320B (zh) * | 2019-08-01 | 2023-06-27 | 立旃(上海)科技有限公司 | 基于区块链的训练数据管理方法及装置 |
CN110717534A (zh) * | 2019-09-30 | 2020-01-21 | 中国科学院大学 | 一种基于网络监督的目标分类和定位方法 |
CN110717534B (zh) * | 2019-09-30 | 2020-09-15 | 中国科学院大学 | 一种基于网络监督的目标分类和定位方法 |
CN111126325A (zh) * | 2019-12-30 | 2020-05-08 | 哈尔滨工程大学 | 一种基于视频的智能人员安防识别统计方法 |
CN111126325B (zh) * | 2019-12-30 | 2023-01-03 | 哈尔滨工程大学 | 一种基于视频的智能人员安防识别统计方法 |
CN112863453A (zh) * | 2021-01-07 | 2021-05-28 | Tcl华星光电技术有限公司 | 全息显示方法及全息显示系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107239790A (zh) | 一种基于深度学习的服务机器人目标检测与定位方法 | |
Xu et al. | Imagereward: Learning and evaluating human preferences for text-to-image generation | |
CN109446927B (zh) | 基于先验知识的双人交互行为识别方法 | |
CN109948425A (zh) | 一种结构感知自注意和在线实例聚合匹配的行人搜索方法及装置 | |
Gu et al. | A new deep learning method based on AlexNet model and SSD model for tennis ball recognition | |
CN110008842A (zh) | 一种基于深度多损失融合模型的行人重识别方法 | |
CN104915643B (zh) | 一种基于深度学习的行人再标识方法 | |
CN108597053A (zh) | 基于图像数据和神经网络的杆塔和通道目标识别与缺陷诊断方法 | |
CN110136154A (zh) | 基于全卷积网络与形态学处理的遥感图像语义分割方法 | |
CN110245709A (zh) | 基于深度学习和自注意力的3d点云数据语义分割方法 | |
CN106909924A (zh) | 一种基于深度显著性的遥感影像快速检索方法 | |
CN108537136A (zh) | 基于姿态归一化图像生成的行人重识别方法 | |
CN107016405A (zh) | 一种基于分级预测卷积神经网络的害虫图像分类方法 | |
CN107527029A (zh) | 一种改进的Faster R‑CNN人脸检测方法 | |
CN103559476B (zh) | 一种指纹匹配方法和装置 | |
CN104680188B (zh) | 一种人体姿态基准图像库的构建方法 | |
CN109508741A (zh) | 基于深度学习筛选训练集的方法 | |
CN108229589A (zh) | 一种基于迁移学习的地基云图分类方法 | |
CN104933420A (zh) | 一种场景图像识别方法和场景图像识别设备 | |
CN110135248A (zh) | 一种基于深度学习的自然场景文本检测方法 | |
CN109741268A (zh) | 一种针对壁画的破损图像补全方法 | |
CN110427819A (zh) | 一种识别图像中ppt边框的方法及相关设备 | |
CN110096991A (zh) | 一种基于卷积神经网络的手语识别方法 | |
CN113988179A (zh) | 基于改进注意力和损失函数的目标分割方法、系统及设备 | |
Wang et al. | Detection and tracking based tubelet generation for video object detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171010 |
|
RJ01 | Rejection of invention patent application after publication |