CN112926551A - 目标检测方法、装置、电子设备和存储介质 - Google Patents
目标检测方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN112926551A CN112926551A CN202110428029.XA CN202110428029A CN112926551A CN 112926551 A CN112926551 A CN 112926551A CN 202110428029 A CN202110428029 A CN 202110428029A CN 112926551 A CN112926551 A CN 112926551A
- Authority
- CN
- China
- Prior art keywords
- image
- target
- segmentation
- detected
- edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 82
- 230000011218 segmentation Effects 0.000 claims abstract description 131
- 230000004927 fusion Effects 0.000 claims abstract description 45
- 238000000034 method Methods 0.000 claims description 32
- 238000004458 analytical method Methods 0.000 claims description 24
- 238000000605 extraction Methods 0.000 claims description 16
- 238000013145 classification model Methods 0.000 claims description 15
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 230000002776 aggregation Effects 0.000 claims description 5
- 238000004220 aggregation Methods 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 4
- 230000004048 modification Effects 0.000 claims description 4
- 238000012986 modification Methods 0.000 claims description 4
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 238000003708 edge detection Methods 0.000 abstract description 13
- 238000012545 processing Methods 0.000 abstract description 12
- 230000008901 benefit Effects 0.000 abstract description 5
- 238000004891 communication Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000013135 deep learning Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种目标检测方法、装置、电子设备和存储介质,涉及图像处理技术领域。其中,目标检测方法包括:获取具有待检测目标的图像;基于主干网络提取图像中的图像特征;将图像特征输入分割模型,以由分割模型输出对待检测目标的分割特征;基于图像特征生成包括待检测目标的目标边缘的边缘图像;将边缘图像与分割特征进行融合,得到融合特征,基于融合特征确定检测到的目标。通过本公开的技术方案,实现了将基于实例分割进行目标检测和基于边缘检测进行目标检测的优点进行融合,一方面,有利于提升图像中目标检测的检测精度,另一方面,该目标检测方案局限性更低,也即具有更广的适用范围。
Description
技术领域
本公开涉及图像处理技术领域,尤其涉及一种目标检测方法、装置、电子设备和计算机可读存储介质。
背景技术
在智能仓储自动化应用中,采用智能机器人进行商品拣选具有比较高的应用前景,在具体应用场景中,采用视觉引导的方式引导机器人把指定目标拣选到指定位置。其中,高精度目标检测是上述应用场景的核心点。只有高精度的检测到目标,才能准确估算出拣选姿态,提高拣选成功率。而由于商品更新换代频繁,因此依赖商品先验信息的传统目标检测算法并不适用。
相关技术中,可以通过基于深度学习的目标检测技术实现对海量且多变的目标商品的检测。但基于深度学习实例分割方案由于对目标边缘的识别精度较低,导致影响目标的精确分割,而基于深度学习边缘检测方案存在应用场景比较局限的缺陷。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种目标检测方法、装置、电子设备和计算机可读存储介质,至少在一定程度上能够改善相关技术中的目标边缘的识别精度较低,导致影响目标的精确分割的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种目标检测方法,包括:获取具有待检测目标的图像;基于主干网络提取所述图像中的图像特征;将所述图像特征输入分割模型,以由所述分割模型输出对所述待检测目标的分割特征;基于所述图像特征生成包括所述待检测目标的目标边缘的边缘图像;将所述边缘图像与所述分割特征进行融合,得到融合特征,基于所述融合特征确定检测到的所述目标。
在一个实施例中,所述分割模型包括目标分类模型、目标包围框预测模型和目标分割掩膜预测模型,所述将所述图像特征输入分割模型,以由所述分割模型输出对所述待检测目标的分割特征包括:基于所述目标分类模型对所述图像特征进行分类,以区分所述待检测目标的区域和背景区域;在所述待检测目标的区域,基于所述目标包围框预测模型得到所述待检测目标的包围框特征;在所述包围框特征对应的包围框内,基于所述目标分割掩膜预测模型,得到所述待检测目标的分割掩膜;基于所述包围框特征和所述分割掩膜生成所述分割特征。
在一个实施例中,所述基于所述目标分类模型对所述图像特征进行分类,以区分所述待检测目标的区域和背景区域包括:将所述图像特征输入区域生成网络,并输出候选区域;基于双线性插值法对所述图像特征和所述候选区域进行聚集,得到聚集特征;将所述聚集特征输入到所述目标分类模型,以输出所述待检测目标的区域和所述背景区域。
在一个实施例中,将所述边缘图像与所述分割特征进行融合,得到融合特征包括:基于所述包围框特征和所述边缘图像之间的位置映射关系,在所述边缘图像中提取边缘数据;将所述边缘数据与所述分割掩膜进行融合,得到融合掩膜,将所述融合掩膜确定为所述融合特征。
在一个实施例中,所述将所述边缘数据与所述分割掩膜进行融合,得到融合掩膜包括:在检测到所述包围框特征对应的区域内任一像素的掩膜值非0,而所述任一像素在所述边缘数据中的边缘分类值也非0时,将所述任一像素的掩膜值修改为0,以基于修改结果得到所述融合掩膜。
在一个实施例中,所述基于所述融合特征确定检测到的所述目标包括:对所述融合特征进行连通区域分析,基于所述连通区域分析的结果确定检测到的所述目标。
在一个实施例中,所述对所述融合特征进行连通区域分析,基于所述连通区域分析的结果确定检测到的所述目标包括:对所述融合掩膜进行所述连通区域分析;基于所述连通区域分析的结果确定最大的连通区域;将所述最大的连通区域确定为目标掩膜;基于所述目标掩膜的包围框确定检测到的所述目标。
在一个实施例中,所述主干网络包括基于卷积的编码-解码神经网络的编码器,所述基于主干网络提取所述图像中的图像特征包括:将所述图像输入所述编码器,以输出所述图像的图像特征。
在一个实施例中,所述基于所述图像特征生成包括所述待检测目标的目标边缘的边缘图像包括:将所述图像特征输入编码-解码神经网络中的解码器,以基于所述解码器执行边缘图像预测操作;基于所述边缘图像预测操作的预测结果,得到所述待检测目标的边缘图像。
根据本公开的另一方面,提供一种目标检测装置,包括:获取模块,用于获取具有待检测目标的图像;第一提取模块,用于基于主干网络提取所述图像中的图像特征;分割模块,用于将所述图像特征输入分割模型,以由所述分割模型输出对所述待检测目标的分割特征;第二提取模块,用于基于所述图像特征生成包括所述待检测目标的目标边缘的边缘图像;融合模块,用于将所述边缘图像与所述分割特征进行融合,得到融合特征,基于所述融合特征确定检测到的所述目标。
根据本公开的再一方面,提供一种电子设备,包括:处理器;以及存储器,用于存储处理器的可执行指令;其中,处理器配置为经由执行可执行指令来执行上述另一个方面所述的目标检测方法。
根据本公开的又一方面,提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述任意一项的目标检测方法。
本公开的实施例所提供的目标检测方案,通过采用主干网络将采集到的图像转换为图像特征,并将图像特征分别输入用于进行实例分割的模型和用于进行边缘检测的模型,以实现基于多任务的图像目标检测方案,将由分割模型输出的分割特征和检测到的边缘图像进行融合,实现了将基于实例分割进行目标检测和基于边缘检测进行目标检测的优点进行融合,一方面,有利于提升图像中目标检测的检测精度,另一方面,该目标检测方案局限性更低,也即具有更广的适用范围。
进一步地,通过将用于进行实例分割的模型和用于进行边缘检测的模型这两个任务共享主干网络,也有利于减小设备的计算资源消耗,进而有利于降低硬件成本。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开实施例中一种目标检测系统结构的示意图;
图2示出本公开实施例中一种目标检测方法的流程图;
图3示出本公开实施例中另一种目标检测方法的流程图;
图4示出本公开实施例中再一种目标检测方法的流程图;
图5示出本公开实施例中另一种目标检测系统结构的示意图;
图6示出本公开实施例的又一种目标检测系统结构的示意图;
图7示出本公开实施例目标检测方案中的原始图像;
图8示出本公开实施例目标检测方案中的通过分割模型处理后的示意图;
图9示出本公开实施例目标检测方案中的边缘图像
图10示出本公开实施例目标检测方案中经过融合后的示意图;
图11示出本公开实施例目标检测方案中经过连通区域分析的示意图;
图12示出本公开实施例中一种目标检测装置的示意图;
图13示出本公开实施例中一种电子设备的示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本申请提供的方案,通过采用主干网络将采集到的图像转换为图像特征,并将图像特征分别输入用于进行实例分割的模型和用于进行边缘检测的模型,以实现基于多任务的图像目标检测方案,将由分割模型输出的分割特征和检测到的边缘图像进行融合,实现了将基于实例分割进行目标检测和基于边缘检测进行目标检测的优点进行融合,一方面,有利于提升图像中目标检测的检测精度,另一方面,该目标检测方案局限性更低,也即具有更广的适用范围。
为了便于理解,下面首先对本申请涉及到的几个名词进行解释。
CNN:Convolutional Neural Networks,卷积神经网络,是一种多层的监督学习神经网络,其中,隐含层的卷积层和池采样层是实现卷积神经网络特征提取功能的核心模块。第一个全连接层的输入是由卷积层和子采样层进行特征提取得到的特征图像。最后一层输出层是一个分类器,可以采用逻辑回归,Softmax回归甚至是支持向量机对输入图像进行分类。
backbone:骨干网,也称为主干网络,用来做特征提取的网络,代表网络的一部分,一般是用于前端提取图片信息,生成特征图feature map,供后面的网络使用。
Encoder:编码器,在主干网络用于对图像特征的提取,也可视为对图像特征编码的过程。
Decoder:解码器。
Region Proposal:区域生成网络。
ROI Align:用于将感兴趣区域的特征进行对齐的模块。
FC:Fully connected,全连接层
图1示出本公开实施例中一种目标检测系统的结构示意图,包括多个终端120和服务器集群140。
终端120可以是手机、游戏主机、平板电脑、电子书阅读器、智能眼镜、MP4(MovingPicture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、智能家居设备、AR(Augmented Reality,增强现实)设备、VR(Virtual Reality,虚拟现实)设备等移动终端,或者,终端120也可以是个人计算机(Personal Computer,PC),比如膝上型便携计算机和台式计算机等等。
其中,终端120中可以安装有用于提供的目标检测的应用程序。
终端120与服务器集群140之间通过通信网络相连。可选的,通信网络是有线网络或无线网络。
服务器集群140是一台服务器,或者由若干台服务器组成,或者是一个虚拟化平台,或者是一个云计算服务中心。服务器集群140用于为提供目标检测应用程序提供后台服务。可选地,服务器集群140承担主要计算工作,终端120承担次要计算工作;或者,服务器集群140承担次要计算工作,终端120承担主要计算工作;或者,终端120和服务器集群140之间采用分布式计算架构进行协同计算。
在一些可选的实施例中,服务器集群140用于存储目标检测模型等。
可选地,不同的终端120中安装的应用程序的客户端是相同的,或两个终端120上安装的应用程序的客户端是不同控制系统平台的同一类型应用程序的客户端。基于终端平台的不同,该应用程序的客户端的具体形态也可以不同,比如,该应用程序客户端可以是手机客户端、PC客户端或者全球广域网(World Wide Web,Web)客户端等。
本领域技术人员可以知晓,上述终端120的数量可以更多或更少。比如上述终端可以仅为一个,或者上述终端为几十个或几百个,或者更多数量。本申请实施例对终端的数量和设备类型不加以限定。
可选的,该系统还可以包括管理设备(图1未示出),该管理设备与服务器集群140之间通过通信网络相连。可选的,通信网络是有线网络或无线网络。
可选的,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(Hyper Text Mark-up Language,HTML)、可扩展标记语言(ExtensibleMarkupLanguage,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(Secure Socket Layer,SSL)、传输层安全(Transport Layer Security,TLS)、虚拟专用网络(Virtual Private Network,VPN)、网际协议安全(InternetProtocolSecurity,IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
下面,将结合附图及实施例对本示例实施方式中的目标检测方法中的各个步骤进行更详细的说明。
图2示出本公开实施例中一种目标检测方法流程图。本公开实施例提供的方法可以由任意具备计算处理能力的电子设备执行,例如如图1中的终端120和/或服务器集群140。在下面的举例说明中,以终端120为执行主体进行示例说明。
如图2所示,终端120执行目标检测方法,终端120具体可以为机器人,目标检测方法包括以下步骤:
步骤S202,获取具有待检测目标的图像。
其中,在采用机器人进行目标货物拣选时,通过在机器人上设置图像采集模块,或通过设置与机器人通信连接的,但设置于机器人之外的图像采集模块,或设置于机器人之外的,但与机器人都和同一服务器进行通信连接的图像采集模块,实现图像采集。
另外,本领域的技术人员能够理解的是,在一幅图像中,可以只有一个待检测目标,也可以具有多个待检测目标。
步骤S204,基于主干网络提取图像中的图像特征。
其中,主干网络可以理解为后续的图像分割和边缘特征处理共用的图像预处理模型,通过将采集到的图像输入主干网络,以输出图像的特征码,作为图像特征。
步骤S206,将图像特征输入分割模型,以由分割模型输出对待检测目标的分割特征。
其中,分割特征包括分割出的待检测目标的形状特征和该待检测目标在图像中的位置特征。
步骤S208,基于图像特征生成包括待检测目标的目标边缘的边缘图像。
其中,边缘图像可以理解为基于输入图像生成的整幅图像,在这整幅图像中包括一个或多个待识别目标的边缘特征。
具体地,基于图像特征生成包括待检测目标的目标边缘的边缘图像可以基于边缘特征提取模型实现,将主干网络输出的图像特征分别输入到分割模型和边缘特征提取模型,分别输出待检测目标的分割特征和边缘图像,从而能够基于上述的主干网络将分割模型和边缘特征提取模型进行有机融合。
步骤S210,将边缘图像与分割特征进行融合,得到融合特征,基于融合特征确定检测到的目标。
其中,通过将边缘图像和分割特征进行融合,实现了两个独立的深度学习任务,即分割任务和边缘特征提取任务,通过共享主干网有机的融合在一起,以得到基于多任务深度学习生成的目标检测模型。
而融合特征能够同时考虑到分割特征和边缘图像对目标检测的影响,从而有利于提升目标检测的精度。
在该实施例中,通过采用主干网络将采集到的图像转换为图像特征,并将图像特征分别输入用于进行实例分割的模型和用于进行边缘检测的模型,以实现基于多任务的图像目标检测方案,将由分割模型输出的分割特征和检测到的边缘图像进行融合,实现了将基于实例分割进行目标检测和基于边缘检测进行目标检测的优点进行融合,一方面,有利于提升图像中目标检测的检测精度,另一方面,该目标检测方案局限性更低,也即具有更广的适用范围。
进一步地,通过将用于进行实例分割的模型和用于进行边缘检测的模型这两个任务共享主干网络,也有利于减小设备的计算资源消耗,进而有利于降低硬件成本。
在将机器人应用在物品拣选的场景时,通过提升图像中目标检测的检测精度,能够提升对物品的大小和放置位置检测的可靠性,进而能够提升对待拣选的目标的拣选位姿的估算精度。
如图3所示,在一个实施例中,分割模型包括目标分类模型、目标包围框预测模型和目标分割掩膜预测模型,步骤S206,将图像特征输入分割模型,以由分割模型输出对待检测目标的分割特征的一种具体实现方式,包括:
基于目标分类模型对图像特征进行分类,以区分待检测目标的区域和背景区域,具体包括:
步骤S302,将图像特征输入区域生成网络,并输出候选区域。
其中,通过将图像特征输入区域生成网络(Region Proposal),将采集到的图像中不感兴趣的区域,即与待识别的目标无关的区域去除,保留可能感兴趣的区域作为候选区域。
步骤S304,基于双线性插值法对图像特征和候选区域进行聚集,得到聚集特征。
其中,双线性插值法基于ROI Align模块实现,以将上述得到的候选区域执行对齐操作,基于对齐操作得到聚集特征。
步骤S306,将聚集特征输入到目标分类模型,以输出待检测目标的区域和背景区域。
其中,通过将聚集特征输入到目标分类模型,将候选区域中的待识别目标和背景区域进行分离,以便于基于待识别目标的区域对目标进一步进行分割操作。
步骤S308,在待检测目标的区域,基于目标包围框预测模型得到待检测目标的包围框特征。
其中,目标分类模型和目标包围框预测模型均可以基于卷积神经网络中的全连接层(FC)实现。待检测目标处于包围框的区域内。
步骤310,在包围框特征对应的包围框内,基于目标分割掩膜预测模型,得到待检测目标的分割掩膜。
其中,分割掩膜(mask)用于对待检测目标所在区域进行有效标注。
步骤S312,基于包围框特征和分割掩膜生成分割特征。
其中,可以直接将得到的分割掩膜和包围框特征作为分割特征,也可以将基于分割掩膜得到的最小包围框、分割掩膜和包围框特征一起作为分割特征。
在该实施例中,在基于主干网络得到图像特征后,将图像特征输入分割模型,分割模型包括但不限于目标分类模型(classes)、目标包围框预测模型(bounding box)、目标分割mask预测模型三个任务学习目标的实例分割模型,并输出分割特征,以进一步将分割特征和边缘图像进行融合,以提升分割特征对目标边缘识别的精度,进而提升目标的分割精度。
在一个实施例中,步骤S210,将边缘图像与分割特征进行融合,得到融合特征的一种具体实现方式,包括:
基于包围框特征和边缘图像之间的位置映射关系,在边缘图像中提取边缘数据。
具体地,由于边缘图像对应于整幅图像中的边缘图像输出,结合包围框特征中的位置特征,将分割特征映射到边缘图像中,实现目标边缘和分割特征之间的融合,以进一步基于目标边缘对分割特征进行修正。
将边缘数据与分割掩膜进行融合,得到融合掩膜,将融合掩膜确定为融合特征。
在该实施例中,通过将边缘图像与分割特征进行融合,由于边缘图像相对于分割特征对目标边缘的识别精度更高,因此能够基于边缘图像对分割特征进行修正,从而基于融合结果实现分割精度的提升。
如图4所示,在一个实施例中,将边缘图像与分割掩膜进行融合,得到融合掩膜包括:
步骤S402,在检测到包围框特征对应的区域内任一像素的掩膜值非0,而任一像素在边缘数据中的边缘分类值也非0时,将任一像素的掩膜值修改为0,以基于修改结果得到融合掩膜。
其中,如果包围框特征对应的区域内任一像素的掩膜值非0,表明该像素处于分割掩膜所处的区域内,而如果该像素在边缘数据中的边缘分类值非0,表明该像素点属于待识别目标边缘处的像素点,即该像素点不属于待识别目标所在区域,通过将该像素点的掩膜值修改为0,以去除对该像素的掩膜操作,基于修改结果得到更新后的掩膜作为融合掩膜。
在一个实施例中,基于融合特征确定检测到的目标的一种具体实现方式,包括:
对融合特征进行连通区域分析,基于连通区域分析的结果确定检测到的目标。
其中,连通区域(Connected Component)一般是指图像中具有相同像素值且位置相邻的前景像素点组成的图像区域(Region,Blob)。连通区域分析(Connected ComponentAnalysis,Connected Component Labeling)是指将图像中的各个连通区域找出并标记,通过对融合特征进行连通区域分析操作,有利于提升目标分割的分割精度。
如图4所示,在一个实施例中,对融合特征进行连通区域分析,基于连通区域分析的结果确定检测到的目标的一种具体实现方式,包括:
步骤S404,对融合掩膜进行连通区域分析。
其中,彼此连通的点形成了一个区域,而不连通的点形成了不同的区域。这样的一个所有的点彼此连通点构成的集合,我们称为一个连通区域。
步骤S406,基于连通区域分析的结果确定最大的连通区域。
步骤S408,将最大的连通区域确定为目标掩膜。
步骤S410,基于目标掩膜的包围框确定检测到的目标。
在该实施例中,由于基于边缘图像修正后的mask区域存在在目标边缘位置发生断裂的概率,因此通过对融合掩膜进行连通区域分析,以实现虽然断裂,但属于同一掩膜区域的连通,以保证生成的目标掩膜的完整性和对目标分割的准确性。
如图5所示,在一个实施例中,主干网络包括基于卷积的编码-解码神经网络504的编码器5042,基于主干网络提取图像中的图像特征包括:将图像输入编码器5042,以输出图像的图像特征。
在该实施例中,通过共享主干网络实现多任务深度学习,从而降低了对GPU硬件资源的消耗,从而可使用低成本硬件,降低项目成本。
在一个实施例中,基于图像特征生成包括待检测目标的目标边缘的边缘图像包括:将图像特征输入编码-解码神经网络504中的解码器5044,以基于解码器5044执行边缘图像预测操作;基于边缘图像预测操作的预测结果,得到待检测目标的边缘图像。
如图5所示,图像采集模块502将采集到的图像输入基于卷积的Encoder-Decoder神经网络504的编码器5042Encoder,以提取输入图像的图像特征,并作为本公开的主干网络。
在Encoder之后,分别包括实例分割网络部分,即分割模型,和边缘检测网络部分,即解码器5044,编码器5042Encoder输出的图像特征,通过区域生成网络506,ROI Align模块508、目标分类模型510(classes)、目标包围框预测模型512(bounding box)、目标分割掩膜预测模型514,得到分割特征,在Encoder的基础上,通过解码器5044Decoder操作重建的边缘图像,得到图像中目标边缘的边缘特征。实现了实例分割与边缘检测两大网络通过共享主干网的形式基于融合模块516融合在了一起,并进一步基于连通区域分析模块518,输出通过分割图像修正后的分割结果,作为目标的检测结果。
如图6所示,根据本公开的一个目标检测方法,包括:
步骤S602,基于卷积的Encoder-Decoder神经网络中的编码器将采集到的图像转化为图像特征。
步骤S604,基于实例分割模型从图像特征中提取出包围框特征和分割掩膜。
步骤S606,基于边缘检测模型将图像特征转化为边缘图像。
步骤S608,基于包围框特征和边缘图像之间的位置映射关系,在边缘图像中提取边缘数据。
步骤S610,将边缘数据与分割掩膜进行融合,得到融合掩膜。
步骤S612,对融合特征进行连通区域分析,得到最大的连通区域。
步骤S614,将最大的连通区域确定为目标掩膜,基于目标掩膜的包围框确定检测到的目标。
下面结合图7至图11,对上述描述的目标检测方法进行具体描述。
图7示出了采集到的原始图像。
如图8所示,框体802为待检测目标的包围框(正矩形),区域804为包围框内目标的实例分割mask,框体806为根据实例分割mask计算出的目标最小包围框(倾斜矩形)。单纯的实例分割任务基本能分割出目标,但是边缘的识别欠佳,从而致使某些目标的分割精度很不理想。
图9示出了与图7对应的边缘图像,边缘图像包括至少一个目标的边缘特征902,与图7比较可知,该任务对目标的真实边缘识别精度很高。
基于图9中的边缘图像对分割特征进行修正,修正后的实例分割任务输出结果如图10所示。具体思路包括,对每一像素点,若该位置实例分割任务输出的mask值非0,且该位置边缘提取任务输出的边缘分类值非0,则把该位置的mask值置0;其他情况维持不变。如图10所示,框体1002为待检测目标的包围框(正矩形),区域1004为包围框内目标的实例分割mask,框体1006为根据实例分割mask计算出的目标最小包围框(倾斜矩形)。经过修正处理,区域1004在目标边缘位置发生断裂。
如图11所示,对实例分割任务输出的每一个目标,对其经过图10修正后的mask做连通域分析,选取最大的连通域作为新的mask,并重新计算目标的最小包围框,如框体1106。框体1102为待检测目标的包围框(正矩形),区域1104为包围框内目标的实例分割mask,框体1106为根据实例分割mask计算出的目标最小包围框(倾斜矩形)。
由图11与图8对比可见,经过融合实例分割任务与边缘提取任务的结果,明显提高了目标的分割精度,从而利于精确估算目标拣选位姿。
需要注意的是,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图12来描述根据本发明的这种实施方式的目标检测装置1200。图12所示的目标检测装置1200仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
目标检测装置1200以硬件模块的形式表现。目标检测装置1200的组件可以包括但不限于:获取模块1202,用于获取具有待检测目标的图像;第一提取模块1204,用于基于主干网络提取图像中的图像特征;分割模块1206,用于将图像特征输入分割模型,以由分割模型输出对待检测目标的分割特征;第二提取模块1208,用于基于图像特征生成包括待检测目标的目标边缘的边缘图像;融合模块1210,用于将边缘图像与分割特征进行融合,得到融合特征,基于融合特征确定检测到的目标。
下面参照图13来描述根据本发明的这种实施方式的电子设备1300。图13显示的电子设备1300仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图13所示,电子设备1300以通用计算设备的形式表现。电子设备1300的组件可以包括但不限于:上述至少一个处理单元1310、上述至少一个存储单元1320、连接不同系统组件(包括存储单元1320和处理单元1310)的总线1330。
其中,存储单元存储有程序代码,程序代码可以被处理单元1310执行,使得处理单元1310执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,处理单元1310可以执行如图2中所示的步骤S202、S204与S206,以及本公开的目标检测方法中限定的其他步骤。
存储单元1320可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)13201和/或高速缓存存储单元13202,还可以进一步包括只读存储单元(ROM)13203。
存储单元1320还可以包括具有一组(至少一个)程序模块13205的程序/实用工具13204,这样的程序模块13205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1330可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1300也可以与一个或多个外部设备1360(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备交互的设备通信,和/或与使得该电子设备1300能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1350进行。并且,电子设备1300还可以通过网络适配器1350与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1350通过总线1330与电子设备1300的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
根据本发明的实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
Claims (12)
1.一种目标检测方法,其特征在于,包括:
获取具有待检测目标的图像;
基于主干网络提取所述图像中的图像特征;
将所述图像特征输入分割模型,以由所述分割模型输出对所述待检测目标的分割特征;
基于所述图像特征生成包括所述待检测目标的目标边缘的边缘图像;
将所述边缘图像与所述分割特征进行融合,得到融合特征,基于所述融合特征确定检测到的所述目标。
2.根据权利要求1所述的目标检测方法,其特征在于,所述分割模型包括目标分类模型、目标包围框预测模型和目标分割掩膜预测模型,所述将所述图像特征输入分割模型,以由所述分割模型输出对所述待检测目标的分割特征包括:
基于所述目标分类模型对所述图像特征进行分类,以区分所述待检测目标的区域和背景区域;
在所述待检测目标的区域,基于所述目标包围框预测模型得到所述待检测目标的包围框特征;
在所述包围框特征对应的包围框内,基于所述目标分割掩膜预测模型,得到所述待检测目标的分割掩膜;
基于所述包围框特征和所述分割掩膜生成所述分割特征。
3.根据权利要求2所述的目标检测方法,其特征在于,所述基于所述目标分类模型对所述图像特征进行分类,以区分所述待检测目标的区域和背景区域包括:
将所述图像特征输入区域生成网络,并输出候选区域;
基于双线性插值法对所述图像特征和所述候选区域进行聚集,得到聚集特征;
将所述聚集特征输入到所述目标分类模型,以输出所述待检测目标的区域和所述背景区域。
4.根据权利要求2所述的目标检测方法,其特征在于,所述将所述边缘图像与所述分割特征进行融合,得到融合特征包括:
基于所述包围框特征和所述边缘图像之间的位置映射关系,在所述边缘图像中提取边缘数据;
将所述边缘数据与所述分割掩膜进行融合,得到融合掩膜,将所述融合掩膜确定为所述融合特征。
5.根据权利要求4所述的目标检测方法,其特征在于,所述将所述边缘数据与所述分割掩膜进行融合,得到融合掩膜包括:
在检测到所述包围框特征对应的区域内任一像素的掩膜值非0,而所述任一像素在所述边缘数据中的边缘分类值也非0时,将所述任一像素的掩膜值修改为0,以基于修改结果得到所述融合掩膜。
6.根据权利要求5所述的目标检测方法,其特征在于,所述基于所述融合特征确定检测到的所述目标包括:
对所述融合特征进行连通区域分析,基于所述连通区域分析的结果确定检测到的所述目标。
7.根据权利要求6所述的目标检测方法,其特征在于,所述对所述融合特征进行连通区域分析,基于所述连通区域分析的结果确定检测到的所述目标包括:
对所述融合掩膜进行所述连通区域分析;
基于所述连通区域分析的结果确定最大的连通区域;
将所述最大的连通区域确定为目标掩膜;
基于所述目标掩膜的包围框确定检测到的所述目标。
8.根据权利要求1至7中任一项所述的目标检测方法,其特征在于,所述主干网络包括基于卷积的编码-解码神经网络的编码器,所述基于主干网络提取所述图像中的图像特征包括:
将所述图像输入所述编码器,以输出所述图像的图像特征。
9.根据权利要求8所述的目标检测方法,其特征在于,所述基于所述图像特征生成包括所述待检测目标的目标边缘的边缘图像包括:
将所述图像特征输入所述编码-解码神经网络中的解码器,以基于所述解码器执行边缘图像预测操作;
基于所述边缘图像预测操作的预测结果,得到所述待检测目标的边缘图像。
10.一种目标检测装置,其特征在于,包括:
获取模块,用于获取具有待检测目标的图像;
第一提取模块,用于基于主干网络提取所述图像中的图像特征;
分割模块,用于将所述图像特征输入分割模型,以由所述分割模型输出对所述待检测目标的分割特征;
第二提取模块,用于基于所述图像特征生成包括所述待检测目标的目标边缘的边缘图像;
融合模块,用于将所述边缘图像与所述分割特征进行融合,得到融合特征,基于所述融合特征确定检测到的所述目标。
11.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~9中任意一项所述的目标检测方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~9中任意一项所述的目标检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110428029.XA CN112926551A (zh) | 2021-04-21 | 2021-04-21 | 目标检测方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110428029.XA CN112926551A (zh) | 2021-04-21 | 2021-04-21 | 目标检测方法、装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112926551A true CN112926551A (zh) | 2021-06-08 |
Family
ID=76174608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110428029.XA Pending CN112926551A (zh) | 2021-04-21 | 2021-04-21 | 目标检测方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112926551A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113674289A (zh) * | 2021-07-16 | 2021-11-19 | 浙江大华技术股份有限公司 | 目标分割方法、目标分割模型的训练方法及相关设备 |
CN114187488A (zh) * | 2021-12-10 | 2022-03-15 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备、介质及程序产品 |
CN115273154A (zh) * | 2022-09-26 | 2022-11-01 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 基于边缘重构的热红外行人检测方法、系统及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107451601A (zh) * | 2017-07-04 | 2017-12-08 | 昆明理工大学 | 基于时空上下文全卷积网络的运动工件识别方法 |
CN108174111A (zh) * | 2018-04-19 | 2018-06-15 | 常州市盈能电气有限公司 | 巡检机器人目标图像抓取方法 |
CN108898610A (zh) * | 2018-07-20 | 2018-11-27 | 电子科技大学 | 一种基于mask-RCNN的物体轮廓提取方法 |
CN109242869A (zh) * | 2018-09-21 | 2019-01-18 | 科大讯飞股份有限公司 | 一种图像实例分割方法、装置、设备及存储介质 |
CN109754362A (zh) * | 2018-12-24 | 2019-05-14 | 哈尔滨工程大学 | 一种用可旋转的边界框标注海参目标检测结果的方法 |
CN110598610A (zh) * | 2019-09-02 | 2019-12-20 | 北京航空航天大学 | 一种基于神经选择注意的目标显著性检测方法 |
CN111325764A (zh) * | 2020-02-11 | 2020-06-23 | 广西师范大学 | 一种果实图像轮廓识别方法 |
CN111612807A (zh) * | 2020-05-15 | 2020-09-01 | 北京工业大学 | 一种基于尺度和边缘信息的小目标图像分割方法 |
CN111673755A (zh) * | 2020-06-24 | 2020-09-18 | 西北农林科技大学 | 一种基于视觉伺服的采摘机器人控制系统及控制方法 |
CN112150493A (zh) * | 2020-09-22 | 2020-12-29 | 重庆邮电大学 | 一种基于语义指导的自然场景下屏幕区域检测方法 |
CN112489064A (zh) * | 2020-12-14 | 2021-03-12 | 桂林电子科技大学 | 一种基于边缘放缩修正的全景分割方法 |
-
2021
- 2021-04-21 CN CN202110428029.XA patent/CN112926551A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107451601A (zh) * | 2017-07-04 | 2017-12-08 | 昆明理工大学 | 基于时空上下文全卷积网络的运动工件识别方法 |
CN108174111A (zh) * | 2018-04-19 | 2018-06-15 | 常州市盈能电气有限公司 | 巡检机器人目标图像抓取方法 |
CN108898610A (zh) * | 2018-07-20 | 2018-11-27 | 电子科技大学 | 一种基于mask-RCNN的物体轮廓提取方法 |
CN109242869A (zh) * | 2018-09-21 | 2019-01-18 | 科大讯飞股份有限公司 | 一种图像实例分割方法、装置、设备及存储介质 |
CN109754362A (zh) * | 2018-12-24 | 2019-05-14 | 哈尔滨工程大学 | 一种用可旋转的边界框标注海参目标检测结果的方法 |
CN110598610A (zh) * | 2019-09-02 | 2019-12-20 | 北京航空航天大学 | 一种基于神经选择注意的目标显著性检测方法 |
CN111325764A (zh) * | 2020-02-11 | 2020-06-23 | 广西师范大学 | 一种果实图像轮廓识别方法 |
CN111612807A (zh) * | 2020-05-15 | 2020-09-01 | 北京工业大学 | 一种基于尺度和边缘信息的小目标图像分割方法 |
CN111673755A (zh) * | 2020-06-24 | 2020-09-18 | 西北农林科技大学 | 一种基于视觉伺服的采摘机器人控制系统及控制方法 |
CN112150493A (zh) * | 2020-09-22 | 2020-12-29 | 重庆邮电大学 | 一种基于语义指导的自然场景下屏幕区域检测方法 |
CN112489064A (zh) * | 2020-12-14 | 2021-03-12 | 桂林电子科技大学 | 一种基于边缘放缩修正的全景分割方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113674289A (zh) * | 2021-07-16 | 2021-11-19 | 浙江大华技术股份有限公司 | 目标分割方法、目标分割模型的训练方法及相关设备 |
CN114187488A (zh) * | 2021-12-10 | 2022-03-15 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备、介质及程序产品 |
CN114187488B (zh) * | 2021-12-10 | 2023-11-17 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备、介质 |
CN115273154A (zh) * | 2022-09-26 | 2022-11-01 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 基于边缘重构的热红外行人检测方法、系统及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20240265718A1 (en) | Method of training text detection model, method of detecting text, and device | |
CN112926551A (zh) | 目标检测方法、装置、电子设备和存储介质 | |
CN112016638B (zh) | 一种钢筋簇的识别方法、装置、设备及存储介质 | |
CN111753727A (zh) | 用于提取结构化信息的方法、装置、设备及可读存储介质 | |
CN112861575A (zh) | 一种行人结构化方法、装置、设备和存储介质 | |
CN114550177A (zh) | 图像处理的方法、文本识别方法及装置 | |
CN109086834B (zh) | 字符识别方法、装置、电子设备及存储介质 | |
CN111709873A (zh) | 图像转换模型生成器的训练方法和装置 | |
JP2022110132A (ja) | 陳列シーン認識方法、モデルトレーニング方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
CN113239807B (zh) | 训练票据识别模型和票据识别的方法和装置 | |
CN113657274A (zh) | 表格生成方法、装置、电子设备、存储介质及产品 | |
CN113570606A (zh) | 目标分割的方法、装置及电子设备 | |
US11967125B2 (en) | Image processing method and system | |
KR20220153667A (ko) | 특징 추출 방법, 장치, 전자 기기, 저장 매체 및 컴퓨터 프로그램 | |
CN112801103A (zh) | 文本方向识别及文本方向识别模型训练方法、装置 | |
WO2024131630A1 (zh) | 车牌识别方法、装置、电子设备及存储介质 | |
CN113239799B (zh) | 训练方法、识别方法、装置、电子设备和可读存储介质 | |
CN114549904A (zh) | 视觉处理及模型训练方法、设备、存储介质及程序产品 | |
US12033378B2 (en) | Resolving training dataset category ambiguity | |
CN114495101A (zh) | 文本检测方法、文本检测网络的训练方法及装置 | |
CN109934185B (zh) | 数据处理方法及装置、介质和计算设备 | |
CN113793349A (zh) | 目标检测方法及装置、计算机可读存储介质、电子设备 | |
CN112308055B (zh) | 人脸检索系统的评价方法、装置、电子设备和存储介质 | |
CN114612971A (zh) | 人脸检测方法、模型训练方法、电子设备及程序产品 | |
CN112801960A (zh) | 图像处理方法及装置、存储介质、电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |