CN109919149A - 基于物体检测模型的物体标注方法及相关设备 - Google Patents

基于物体检测模型的物体标注方法及相关设备 Download PDF

Info

Publication number
CN109919149A
CN109919149A CN201910046921.4A CN201910046921A CN109919149A CN 109919149 A CN109919149 A CN 109919149A CN 201910046921 A CN201910046921 A CN 201910046921A CN 109919149 A CN109919149 A CN 109919149A
Authority
CN
China
Prior art keywords
region
type
picture
detection model
labeled
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910046921.4A
Other languages
English (en)
Inventor
陈峥嵘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910046921.4A priority Critical patent/CN109919149A/zh
Publication of CN109919149A publication Critical patent/CN109919149A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本申请涉及人工智能领域,本申请公开了一种基于物体检测模型的物体标注方法及相关设备,所述方法包括:获取图片并通过物体检测模型确定所述图片中物体在所述图片中所处的区域;根据所述区域内的物体通过物体检测模型确定所述物体的类型;根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注。本申请通过物体检测模型获得图片中物体的区域和类型后在所述物体区域内标注所述物体的区域和类型,可以实现自动对图片中的物体进行标注,提高效率。

Description

基于物体检测模型的物体标注方法及相关设备
技术领域
本申请涉及人工智能领域,特别涉及一种基于物体检测模型的物体标注方法及相关设备。
背景技术
深度学习是机器学习中一种基于对数据进行表征学习的方法。观测值(例如一副图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。当前深度学习中的物体检测模型可以在一张图片中对各个物体的类型及坐标进行识别,但是无法对图片中的物体进行标注,而通过人工进行标注,必然会导致浪费大量的人力,且效率低下。
发明内容
本申请的目的在于针对现有技术的不足,提供一种基于物体检测模型的物体标注方法及相关设备,可以自动的对图片中的物体进行标注,提高效率。
为达到上述目的,本申请的技术方案提供一种基于物体检测模型的物体标注方法及相关设备。
本申请公开了一种基于物体检测模型的物体标注方法,包括以下步骤:
获取图片并通过物体检测模型确定所述图片中物体在所述图片中所处的区域;
根据所述区域内的物体通过物体检测模型确定所述物体的类型;
根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注。
较佳地,所述获取图片并通过物体检测模型确定所述图片中物体在所述图片中所处的区域,包括:
获取图片并根据所述图片通过物体检测模型生成多个物体候选框;
在所述多个物体候选框中根据物体相似概率对所述物体候选框进行筛选;
根据筛选后的物体候选框确定物体的区域。
较佳地,所述根据所述区域内的物体通过物体检测模型确定所述物体的类型,包括:
获取所述图片中物体在所述图片中所处的区域;
通过高斯函数与所述区域对应的图像的卷积获取尺度空间,并在所述尺度空间上检测像素极值点,根据所述像素极值点获取特征点的位置及尺度并为所述特征点分配方向,根据所述特征点的位置、尺度及方向信息生成特征向量;
将所述特征向量输入SVM分类器中,通过所述SVM分类器获取所述区域对应的物体的类型。
较佳地,所述根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注,包括:
根据所述物体区域确定所述图片中物体在所述图片中所处的区域对应的外边框范围;
在所述外边框范围上通过线条对所述物体的区域进行标注。
较佳地,所述根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注,包括:
获取所述物体的类型;
在所述物体的区域内通过文本信息对所述物体的类型进行标注。
较佳地,所述根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注,包括:
将所述特征向量输入RCNN模型,通过所述RCNN模型获取物体类型及所述物体类型对应的可信概率;
在所述物体的区域内通过文本信息对所述物体类型及所述物体类型对应的可信概率进行标注。
较佳地,所述根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注,包括:
根据所述物体类型将所述特征向量输入包含所述物体类型训练数据的MASK-RCNN模型,通过所述MASK-RCNN模型获取所述物体的轮廓;
在所述物体区域中对所述物体的轮廓进行透明色填充。
本申请还公开了一种基于物体检测模型的物体标注装置,所述装置包括:
物体区域获取模块:设置为获取图片并通过物体检测模型确定所述图片中物体在所述图片中所处的区域;
物体类型获取模块:设置为根据所述区域内的物体通过物体检测模型确定所述物体的类型;
标注模块:设置为根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注。
本申请还公开了一种计算机设备,所述计算机设备包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被一个或多个所述处理器执行时,使得一个或多个所述处理器执行上述所述物体标注方法的步骤。
本申请还公开了一种存储介质,所述存储介质可被处理器读写,所述存储介质存储有计算机指令,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行上述所述物体标注方法的步骤。
本申请的有益效果是:本申请通过物体检测模型获得图片中物体的区域和类型后在所述物体区域内标注所述物体的区域和类型,可以实现自动对图片中的物体进行标注,提高效率。
附图说明
图1为本申请实施例的一种基于物体检测模型的物体标注方法的流程示意图;
图2为本申请实施例的一种基于物体检测模型的物体标注方法的流程示意图;
图3为本申请实施例的一种基于物体检测模型的物体标注方法的流程示意图;
图4为本申请实施例的一种基于物体检测模型的物体标注方法的流程示意图;
图5为本申请实施例的一种基于物体检测模型的物体标注方法的流程示意图;
图6为本申请实施例的一种基于物体检测模型的物体标注方法的流程示意图;
图7为本申请实施例的一种基于物体检测模型的物体标注方法的流程示意图;
图8为本申请实施例的一种基于物体检测模型的物体标注装置结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。
本申请实施例的一种基于物体检测模型的物体标注方法流程如图1所示,本实施例包括以下步骤:
步骤s101,获取图片并通过物体检测模型确定所述图片中物体在所述图片中所处的区域;
具体的,所述物体检测模型是深度学习中的一种模型,是卷积神经网络算法在训练数据集上训练得到的参数,而卷积神经网络算法有很多不同的结构,物体检测算法只是其中之一,所述物体检测模型主要用来检测物体在图像中的位置,并且识别出物体的种类。
具体的,当获取到一张图片后,将所述图片输入到所述物体检测模型中,通过物体检测模型中具体的算法,可以获得图片中物体在图片中所处的位置或者区域。
具体的,如果给定一张图片,可以先从所述图片中提取疑似物体的2000个候选框,由于候选框大小不一,考虑到后续CNN(卷积神经网络)要求输入的图片大小统一,因此需要将所述2000个候选框全部调整到统一大小,为了避免图像扭曲严重,中间还可以采取填充或者拉伸减少图像扭曲,比如把所有的候选框都拉伸成统一大小的正方形,或者把候选框放入统一大小的正方形,并把正方形中空白区域填充背景色。其中,所述的物体的候选框是矩形的,而且所述候选框是虚拟的框,用户是看不到的,当所述2000个物体候选框生成并调整大小之后,就输入CNN中进行筛选。
具体的,当对图中物体进行筛选时,可以对物体一一进行,首先对一个物体进行识别,假设该物体圈定了6个矩形框,那么要在这6个矩形框中判断哪些矩形框是没有用的,根据模型中的分类器类别分类概率对这6个矩形框进行排序,由低到高分别为A、B、C、D、E、F,从最大概率矩形框F开始,分别判断A-E与F的相似概率是否大于某个设定的阈值,如果B、D与F的相似概率超过阈值,那么就舍弃B、D;并标记第一个保留的矩形框F,从剩下的矩形框A、C、E中,选择概率最大的E,然后判断E与A、C的相似概率,如果相似概率大于一定的阈值,那么就同样舍弃A、C,并标记E为保留下来的第二个矩形框;然后对下一个物体也类似操作,直到图片上所有的矩形框都处理完毕。
具体的,当对图中所有的物体候选框筛选完成后,剩下的物体候选框就是所述物体在图片中所处的区域了,而所述物体候选框中的物体就是需要识别的物体。
步骤s102,根据所述区域内的物体通过物体检测模型确定所述物体的类型;
具体的,可以利用所述物体检测模型提取每个矩形框中物体的特征向量,特征向量的维度是4096维,也可以应用SIFT(尺度不变特征变换)算法提取图片中的特征,如对于人脸识别模型,说要提取的特征就是人脸共性的特征,所述物体检测模型中的特征可由卷积层学习获得。
具体的,当提取到所述图片中物体的特征后,可以通过物体检测模型中的SVM(支持向量机)分类器对各个矩形框中的物体进行分类识别;此外,由于物体检测模型利用卷积神经网络实现,而卷积神经网络中的softmax层就是分类层,因此也可以通过分类层进行物体类型识别。
步骤s103,根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注。
具体的,当获取到图片中所述物体的区域以及类型后,可以在所述图片中对所述物体进行区域和类型的标注。
具体的,所述物体区域的标注可以通过线条进行标注,由于所述物体候选框是虚拟的,对用户是不可见的,只是用来对物体进行定位,因此当对物体进行定位后,需要对所述物体进行标注,如通过线条在所述物体区域的外边框进行标注,即在所述物体的外边框上加上线条,进行显示,所述的线条可以是虚线,也可以是实线,也可以对线条设置不同的颜色。
具体的,所述物体区域内所述物体由于和临近的颜色比较接近,不易辨认,因此可以在所述物体的外轮廓范围内对所述物体进行透明色填充,增加对比度,让所述物体更加醒目。
具体的,所述物体的类型可以通过文本信息进行标注,所述的文本信息可以通过绘图工具或者文本工具在所述物体区域内添加所述文本信息;所述的文本信息可以包含中文、英文或者数字等信息,例如,如果是对一幅图中所有人的性别进行标注,那么就显示男和女,如是对图中所有人的年龄进行标注,那么就显示数字,比如35/64;如果是对图片中所有的物体进行类别显示,那么就显示人、车、马等。
具体的,由于物体检测模型对物体的识别有并不是百分之百准确,因此所述物体检测模型会给出识别该物体的可信概率,用于标识该物体类型的可信度,所述可信概率一般用小数或者百分数进行标注,如0.993或者99.3%,当获取到所述物体的可信概率后,可在所述物体区域内进行所述可信概率的标注。
本实施例中,通过对图片中物体的区域及类型进行识别并进行自动标注,减少了人力成本,提高了工作效率。
图2为本申请实施例的一种基于物体检测模型的物体标注方法流程示意图,如图所示,所述步骤s101,获取图片并通过物体检测模型确定所述图片中物体在所述图片中所处的区域,包括:
步骤s201,获取图片并根据所述图片通过物体检测模型生成多个物体候选框;
具体的,如果给定一张图片,通过物体检测模型可以先从所述图片中提取疑似物体的2000个候选框,由于候选框大小不一,考虑到后续CNN(卷积神经网络)要求输入的图片大小统一,因此需要将所述2000个候选框全部调整到统一大小,为了避免图像扭曲严重,中间还可以采取填充或者拉伸减少图像扭曲,比如把所有的候选框都拉伸成统一大小的正方形,或者把候选框放入统一大小的正方形,并把正方形中空白区域填充背景色。其中,所述的物体的候选框是矩形的,而且所述候选框是虚拟的框,用户是看不到的,当所述2000个物体候选框生成并调整大小之后,就输入CNN中进行筛选。
步骤s202,在所述多个物体候选框中根据物体相似概率对所述物体候选框进行筛选;
具体的,当对图中物体进行筛选时,可以对物体一一进行,首先对一个物体进行识别,假设该物体圈定了6个矩形框,那么要在这6个矩形框中判断哪些矩形框是没有用的,根据模型中的分类器类别分类概率对这6个矩形框进行排序,由低到高分别为A、B、C、D、E、F,从最大概率矩形框F开始,分别判断A-E与F的相似概率是否大于某个设定的阈值,如果B、D与F的相似概率超过阈值,那么就舍弃B、D;并标记第一个保留的矩形框F,从剩下的矩形框A、C、E中,选择概率最大的E,然后判断E与A、C的相似概率,如果相似概率大于一定的阈值,那么就同样舍弃A、C,并标记E为保留下来的第二个矩形框;然后对下一个物体也类似操作,直到图片上所有的矩形框都处理完毕。
步骤s203,根据筛选后的物体候选框确定物体的区域。
具体的,当对图中所有的物体候选框筛选完成后,剩下的物体候选框就是所述物体在图片中所处的区域了,而所述物体候选框中的物体就是需要识别的物体。
本实施例中,通过物体相似概率对物体的候选框进行筛选,可以快速对图片中物体进行定位。
图3为本申请实施例的一种基于物体检测模型的物体标注方法流程示意图,如图所示,所述步骤s102,根据所述区域内的物体通过物体检测模型确定所述物体的类型,包括:
步骤s301,获取所述图片中物体在所述图片中所处的区域;
具体的,通过物体检测模型可以获取所述图片中物体在所述图片中所处的区域。
步骤s302,通过高斯函数与所述区域对应的图像的卷积获取尺度空间,并在所述尺度空间上检测像素极值点,根据所述像素极值点获取特征点的位置及尺度并为所述特征点分配方向,根据所述特征点的位置、尺度及方向信息生成特征向量;
具体的,可以通过高斯函数与所述区域对应的图像的卷积获取尺度空间;其中,每个区域内的图像都可以和高斯函数进行卷积,然后获得尺度空间,在所述尺度空间上进行像素极值点的检测,所述极值点包括极大值和极小值,通过检测获取所述极值点的位置及尺度,所述极值点即为特征点,然后再为所述特征点分配方向,所述分配方向为为所述特征点分配基准方向,用于使所述特征点具有旋转不变性。
步骤s303,将所述特征向量输入SVM分类器中,通过所述SVM分类器获取所述区域对应的物体的类型。
具体的,当提取到所述图片中物体的特征向量后,可以通过物体检测模型中的SVM(支持向量机)分类器对各个矩形框中的物体进行分类识别,所述SVM分类器是二分类分类器,即对于一个物体,只能判断是或者不是;此外,由于物体检测模型利用卷积神经网络实现,而卷积神经网络中的softmax层就是分类层,因此也可以通过分类层进行物体类型识别。
本实施例中,通过对图片中物体候选框中特征的提取,并根据所述提取特征进行物体识别,可以快速的对物体进行识别。
图4为本申请实施例的一种基于物体检测模型的物体标注方法流程示意图,如图所示,所述步骤s103,根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注,包括:
步骤s401,根据所述物体区域确定所述图片中物体在所述图片中所处的区域对应的外边框范围;
具体的,由于所述物体候选框是虚拟的,对用户是不可见的,只是用来对物体进行定位,因此当对物体进行定位后,需要对所述物体进行标注,让用户可见,因此首先需要确定所述图片中物体候选框的外边框范围,由于所述物体候选框是矩形,那么所述物体候选框的外边框范围就是矩形,并记下所述矩形的四个角的坐标值。
步骤s402,在所述外边框范围上通过线条对所述物体的区域进行标注。
具体的,所述物体区域的标注可以通过线条进行标注,如通过线条在所述物体区域的外边框进行标注,即在所述物体的外边框上加上线条,进行显示,由于已经获取到所述物体区域的四个角的坐标值,因此将所述四个角的坐标值通过线条连线之后,就是所述物体区域的外边框范围了,所述的线条可以是虚线,也可以是实线,也可以对线条设置不同的颜色。
本实施例中,通过对图片中所述物体区域的识别并在所述区域上进行物体区域的自动标注,可以降低人工成本。
图5为本申请实施例的一种基于物体检测模型的物体标注方法流程示意图,如图所示,所述步骤s103,根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注,包括:
步骤s501,获取所述物体的类型;
具体的,通过物体检测模型可以获取所述图片中物体的类型。
步骤s502,在所述物体的区域内通过文本信息对所述物体的类型进行标注。
具体的,所述物体的类型可以通过文本信息进行标注,所述的文本信息可以通过绘图工具或者文本工具在所述物体区域内添加所述文本信息;所述的文本信息可以包含中文、英文或者数字等信息,例如,如果是对一幅图中所有人的性别进行标注,那么就显示男和女,如是对图中所有人的年龄进行标注,那么就显示数字,比如35/64;如果是对图片中所有的物体进行类别显示,那么就显示人、车、马等。
本实施例中,通过对图片中所述物体类型的识别并在所述区域上进行物体类型的自动标注,可以降低人工成本。
图6为本申请实施例的一种基于物体检测模型的物体标注方法流程示意图,如图所示,所述步骤s103,根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注,包括:
步骤s601,将所述特征向量输入RCNN模型,通过所述RCNN模型获取物体类型及所述物体类型对应的可信概率;
具体的,当通过步骤s302获取物体的特征向量后,可以将所述特征向量输入RCNN模型,所述RCNN是基于区域的卷积神经网络,可对图像中物体进行类型识别和概率判断,通过所述RCNN,可以对所述特征向量进行计算,并获取所述物体的类型及所述物体类型对应的可信概率,所述物体类型对应的可信概率用于标识该物体类型的可信度,所述可信概率一般用小数或者百分数进行标注,如0.993或者99.3%。
步骤s602,在所述物体的区域内通过文本信息对所述物体类型及所述物体类型对应的可信概率进行标注。
具体的,当获取到所述物体类型及所述物体类型对应的可信概率后,可在所述物体区域内进行所述物体类型及所述物体类型对应的可信概率的标注。
本实施例中,通过对图片中所述物体可信概率的识别并在所述区域上进行物体可信概率的自动标注,可以降低人工成本。
图7为本申请实施例的一种基于物体检测模型的物体标注方法流程示意图,如图所示,所述步骤s103,根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注,包括:
步骤s701,根据所述物体类型将所述特征向量输入包含所述物体类型训练数据的MASK-RCNN模型,通过所述MASK-RCNN模型获取所述物体的轮廓;
具体的,所述物体区域内所述物体由于和临近的颜色比较接近,不易辨认,因此可以对所述物体的轮廓进行突出显示,增加对比度,让所述物体更加醒目,其中,所述物体的轮廓可以通过物体检测模型获得。
具体的,所述物体检测模型可以是MASK-RCNN(掩码-区域卷积神经网络),是一种可对图像中物体进行分割的神经网络模型,当通过步骤s302获取到物体的特征向量后,可根据所述物体的类型选取包含所述物体类型训练数据的MASK-RCNN模型,然后将所述获取的特征向量输入到MASK-RCNN模型,通过所述MASK-RCNN模型对图像中的物体进行分割,获取所述物体的轮廓。
步骤s702,在所述物体区域中对所述物体的轮廓进行透明色填充。
具体的,可以在所述物体的轮廓范围内对所述物体进行透明色填充,所述的透明色可以采用醒目色,如蓝色,紫色等。
本实施例中,通过对所述物体轮廓内进行透明色填充,可以增加所述物体的对比度,提高用户的感受度。
本申请实施例的一种基于物体检测模型的物体标注装置结构如图8所示,包括:
物体区域获取模块801、物体类型获取模块802以及标注模块803;其中,物体区域获取模块801与物体类型获取模块802相连,物体类型获取模块802与标注模块803相连;物体区域获取模块801设置为获取图片并通过物体检测模型确定所述图片中物体在所述图片中所处的区域;物体类型获取模块802设置为根据所述区域内的物体通过物体检测模型确定所述物体的类型;标注模块803设置为根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注。
本申请实施例还公开了一种计算机设备,所述计算机设备包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被一个或多个所述处理器执行时,使得一个或多个所述处理器执行上述各实施例中所述物体标注方法中的步骤。
本申请实施例还公开了一种存储介质,所述存储介质可被处理器读写,所述存储器存储有计算机可读指令,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行上述各实施例中所述物体标注方法中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种基于物体检测模型的物体标注方法,其特征在于,包括以下步骤:
获取图片并通过物体检测模型确定所述图片中物体在所述图片中所处的区域;
根据所述区域内的物体通过物体检测模型确定所述物体的类型;
根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注。
2.如权利要求1所述的基于物体检测模型的物体标注方法,其特征在于,所述获取图片并通过物体检测模型确定所述图片中物体在所述图片中所处的区域,包括:
获取图片并根据所述图片通过物体检测模型生成多个物体候选框;
在所述多个物体候选框中根据物体相似概率对所述物体候选框进行筛选;
根据筛选后的物体候选框确定物体的区域。
3.如权利要求1所述的基于物体检测模型的物体标注方法,其特征在于,所述根据所述区域内的物体通过物体检测模型确定所述物体的类型,包括:
获取所述图片中物体在所述图片中所处的区域;
通过高斯函数与所述区域对应的图像的卷积获取尺度空间,并在所述尺度空间上检测像素极值点,根据所述像素极值点获取特征点的位置及尺度并为所述特征点分配方向,根据所述特征点的位置、尺度及方向信息生成特征向量;
将所述特征向量输入SVM分类器中,通过所述SVM分类器获取所述区域对应的物体的类型。
4.如权利要求1所述的基于物体检测模型的物体标注方法,其特征在于,所述根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注,包括:
根据所述物体区域确定所述图片中物体在所述图片中所处的区域对应的外边框范围;
在所述外边框范围上通过线条对所述物体的区域进行标注。
5.如权利要求1所述的基于物体检测模型的物体标注方法,其特征在于,所述根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注,包括:
获取所述物体的类型;
在所述物体的区域内通过文本信息对所述物体的类型进行标注。
6.如权利要求2所述的基于物体检测模型的物体标注方法,其特征在于,所述根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注,包括:
将所述特征向量输入RCNN模型,通过所述RCNN模型获取物体类型及所述物体类型对应的可信概率;
在所述物体的区域内通过文本信息对所述物体类型及所述物体类型对应的可信概率进行标注。
7.如权利要求2所述的基于物体检测模型的物体标注方法,其特征在于,所述根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注,包括:
根据所述物体类型将所述特征向量输入包含所述物体类型训练数据的MASK-RCNN模型,通过所述MASK-RCNN模型获取所述物体的轮廓;
在所述物体区域中对所述物体的轮廓进行透明色填充。
8.一种基于物体检测模型的物体标注装置,其特征在于,所述装置包括:
物体区域获取模块:设置为获取图片并通过物体检测模型确定所述图片中物体在所述图片中所处的区域;
物体类型获取模块:设置为根据所述区域内的物体通过物体检测模型确定所述物体的类型;
标注模块:设置为根据所述物体的区域及类型在所述物体的区域内对所述物体进行标注。
9.一种计算机设备,其特征在于,所述计算机设备包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被一个或多个所述处理器执行时,使得一个或多个所述处理器执行如权利要求1至7中任一项所述物体标注方法的步骤。
10.一种存储介质,其特征在于,所述存储介质可被处理器读写,所述存储介质存储有计算机指令,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行如权利要求1至7中任一项所述物体标注方法的步骤。
CN201910046921.4A 2019-01-18 2019-01-18 基于物体检测模型的物体标注方法及相关设备 Pending CN109919149A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910046921.4A CN109919149A (zh) 2019-01-18 2019-01-18 基于物体检测模型的物体标注方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910046921.4A CN109919149A (zh) 2019-01-18 2019-01-18 基于物体检测模型的物体标注方法及相关设备

Publications (1)

Publication Number Publication Date
CN109919149A true CN109919149A (zh) 2019-06-21

Family

ID=66960421

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910046921.4A Pending CN109919149A (zh) 2019-01-18 2019-01-18 基于物体检测模型的物体标注方法及相关设备

Country Status (1)

Country Link
CN (1) CN109919149A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111310866A (zh) * 2020-05-09 2020-06-19 支付宝(杭州)信息技术有限公司 数据标注方法、装置、系统和终端设备
CN111784710A (zh) * 2020-07-07 2020-10-16 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备和介质
US11443502B2 (en) 2019-10-08 2022-09-13 Samsung Display Co., Ltd. Object detection post-processing device, and display device including the same
CN115578394A (zh) * 2022-12-09 2023-01-06 湖南省中医药研究院 一种基于非对称网络的肺炎图像处理方法
WO2024031736A1 (zh) * 2022-08-10 2024-02-15 上海蜜度科技股份有限公司 图像分类方法及系统、存储介质及终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104217225A (zh) * 2014-09-02 2014-12-17 中国科学院自动化研究所 一种视觉目标检测与标注方法
CN106355188A (zh) * 2015-07-13 2017-01-25 阿里巴巴集团控股有限公司 图像检测方法及装置
CN108229509A (zh) * 2016-12-16 2018-06-29 北京市商汤科技开发有限公司 用于识别物体类别的方法及装置、电子设备
CN108985214A (zh) * 2018-07-09 2018-12-11 上海斐讯数据通信技术有限公司 图像数据的标注方法和装置
CN109190631A (zh) * 2018-08-31 2019-01-11 阿里巴巴集团控股有限公司 图片的目标对象标注方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104217225A (zh) * 2014-09-02 2014-12-17 中国科学院自动化研究所 一种视觉目标检测与标注方法
CN106355188A (zh) * 2015-07-13 2017-01-25 阿里巴巴集团控股有限公司 图像检测方法及装置
CN108229509A (zh) * 2016-12-16 2018-06-29 北京市商汤科技开发有限公司 用于识别物体类别的方法及装置、电子设备
CN108985214A (zh) * 2018-07-09 2018-12-11 上海斐讯数据通信技术有限公司 图像数据的标注方法和装置
CN109190631A (zh) * 2018-08-31 2019-01-11 阿里巴巴集团控股有限公司 图片的目标对象标注方法及装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11443502B2 (en) 2019-10-08 2022-09-13 Samsung Display Co., Ltd. Object detection post-processing device, and display device including the same
CN111310866A (zh) * 2020-05-09 2020-06-19 支付宝(杭州)信息技术有限公司 数据标注方法、装置、系统和终端设备
WO2021227948A1 (zh) * 2020-05-09 2021-11-18 支付宝(杭州)信息技术有限公司 数据标注方法、装置、系统和终端设备
CN111784710A (zh) * 2020-07-07 2020-10-16 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备和介质
CN111784710B (zh) * 2020-07-07 2023-10-20 抖音视界有限公司 图像处理方法、装置、电子设备和介质
WO2024031736A1 (zh) * 2022-08-10 2024-02-15 上海蜜度科技股份有限公司 图像分类方法及系统、存储介质及终端
CN115578394A (zh) * 2022-12-09 2023-01-06 湖南省中医药研究院 一种基于非对称网络的肺炎图像处理方法

Similar Documents

Publication Publication Date Title
Tabernik et al. Deep learning for large-scale traffic-sign detection and recognition
Xie et al. Beyond classification: structured regression for robust cell detection using convolutional neural network
Li et al. Amodal instance segmentation
CN109919149A (zh) 基于物体检测模型的物体标注方法及相关设备
Arteta et al. Interactive object counting
Marchesi et al. A context-sensitive technique robust to registration noise for change detection in VHR multispectral images
CA3100642A1 (en) Multi-sample whole slide image processing in digital pathology via multi-resolution registration and machine learning
CN103049763B (zh) 一种基于上下文约束的目标识别方法
CN107633226B (zh) 一种人体动作跟踪特征处理方法
CN109522908A (zh) 基于区域标签融合的图像显著性检测方法
CN110570352B (zh) 图像标注方法、装置、系统及细胞标注方法
CN109389129A (zh) 一种图像处理方法、电子设备及存储介质
CN108629286B (zh) 一种基于主观感知显著模型的遥感机场目标检测方法
CN103824090B (zh) 一种自适应的人脸低层特征选择方法及人脸属性识别方法
CN111242144B (zh) 电网设备异常的检测方法和装置
CN112884782B (zh) 生物对象分割方法、装置、计算机设备和存储介质
CN113673607A (zh) 图像标注模型的训练及图像标注的方法及装置
CN107977624A (zh) 一种语义分割方法、装置以及系统
CN112037180B (zh) 染色体分割方法及装置
CN107948586A (zh) 基于视频拼接的跨区域运动目标检测方法和装置
CN111127432B (zh) 一种医学图像检测方法、装置、设备及存储介质
CN110287970A (zh) 一种基于cam与掩盖的弱监督物体定位方法
Razzaghi et al. Image retargeting using nonparametric semantic segmentation
CN114118127B (zh) 一种视觉场景标志检测与识别方法及装置
Wang et al. Oil tank detection via target-driven learning saliency model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination