CN113516158A - 基于Faster R-CNN的图模型构建方法 - Google Patents
基于Faster R-CNN的图模型构建方法 Download PDFInfo
- Publication number
- CN113516158A CN113516158A CN202110406043.XA CN202110406043A CN113516158A CN 113516158 A CN113516158 A CN 113516158A CN 202110406043 A CN202110406043 A CN 202110406043A CN 113516158 A CN113516158 A CN 113516158A
- Authority
- CN
- China
- Prior art keywords
- target detection
- detection frame
- target
- area
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010276 construction Methods 0.000 title claims abstract description 22
- 238000001514 detection method Methods 0.000 claims abstract description 286
- 238000012216 screening Methods 0.000 claims abstract description 3
- 230000005484 gravity Effects 0.000 claims description 50
- 238000000034 method Methods 0.000 claims description 26
- 239000004480 active ingredient Substances 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 17
- 230000011218 segmentation Effects 0.000 claims description 12
- 101100460704 Aspergillus sp. (strain MF297-2) notI gene Proteins 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims description 6
- 230000001174 ascending effect Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 239000002245 particle Substances 0.000 claims description 3
- 238000005192 partition Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于Faster R‑CNN的图模型构建方法,具体为:步骤1,将目标图像送入已经训练好的基于Faster R‑CNN的目标检测网络模型中,输出目标图像中各个目标对应的检测框;步骤2,根据设定的阈值对目标检测框进行筛选,去掉冗余的目标检测框;步骤3,给目标检测框分配唯一的标签;步骤4,将图像的目标划分为主要目标和次要目标,然后对次要目标构建目标树;步骤5,确定两个物体之间的相对位置关系;步骤6、根据目标树以及目标之间的位置关系构建图像的图模型。本发明的基于FasterR‑CNN的图模型构建方法,建立出的图模型能有效的表示出各个目标在目标图像中的空间布局和语义联系。
Description
技术领域
本发明属于计算机数字图像处理技术领域,涉及一种基于Faster R-CNN的图模型构建方法。
背景技术
在当今飞速发展的信息时代,数字图像作为一种常见且有效的信息载体已渗透到社会生活的每一个角落,致使我们对图像处理的需求也日益增长。
在数字图像处理方向上,基于深度学习的目标检测算法是重要的研究内容之一,在医疗,智能家居和交通等不同领域有着巨大的应用。基于深度学习的图像处理算法与传统的图像处理算法相比,可以在复杂的环境下,提取更深层次的人物特征,提高算法鲁棒性和识别准确性。
目前,已有的构建图模型方法,往往利用深度学习对目标图像中的物体进行识别,但是现有的深度学习目标识别算法只能够检测出图形中物体的类别与位置,并不能得到图像中各个物体之间的空间相对位置关系,从而不能很好的构建出图像的图模型。
发明内容
本发明的目的是提供一种基于Faster R-CNN的图模型构建方法,建立出的图模型能有效的表示出各个目标在目标图像中的空间布局和语义联系。
本发明所采用的技术方案是,基于Faster R-CNN的图模型构建方法,具体按照如下步骤实施:
步骤1,将目标图像送入已经训练好的基于Faster R-CNN的目标检测网络模型中,输出目标图像中各个目标对应的检测框;
步骤2,根据设定的阈值对目标检测框进行筛选,去掉冗余的目标检测框;
步骤3,给去冗余后的目标检测框分配唯一的标签;
步骤4,根据经验设定阈值,将图像的目标划分为主要目标和次要目标,然后对次要目标构建目标树;
步骤5,通过任意两个次要目标重心之间的连线与竖轴的顺时针的夹角对检测框进行解析处理,得到目标图像中任意两个物体之间的相对位置关系,然后,计算目标图像中任意两个目标重心之间的距离,最后根据物体之间的距离、各个物体的重心得到任意两个物体之间的相对位置关系;
步骤6、根据目标树以及目标之间的位置关系构建图像的图模型。
基于Faster R-CNN的目标检测网络模型对目标图像进行检测的过程为:假设目标图像中共有n个物体,通过基于Faster R-CNN的目标检测网络模型进行目标检测之后输出目标图像中n个物体对应的目标检测框box和每个目标检测框对应的类别,将类别相同的目标检测框归为一类,将n个物体对应的目标检测框放入一个集合中,其中m表示目标图像中目标检测框的总数量,集合中的元素表示为:{box1,box2,...,boxm},其中boxi表示检测出的第i个目标检测框,输出的boxi是一个四维几何坐标(xi,yi,wi,hi),其中xi表示当前目标检测框的重心坐标点的x轴坐标值,yi表示当前目标检测框的重心坐标点的y轴坐标值,wi表示当前目标检测框的宽度,hi表示当前目标检测框的高度。
步骤2具体为:
步骤2.1,根据boxi的宽度和高度计算出每一个目标检测框的面积,记为areai,将所有目标检测框的面积放到一个集合Sarea,集合Sarea表示为:{area1,area2,...,aream},根据目标检测框的面积大小对集合Sarea进行降序排序;
步骤2.2,计算目标图像中第t个类的第i个目标检测框的面积和第j个目标检测框的面积的交集与第t个类的第i个目标检测框的面积的比值,比值记为如果的值大于θa,将第t个类的第j个目标检测框去除,直到处理完该类的所有目标检测框,将剩余的目标检测框放入集合中,其中,θa为根据经验设定的阈值;
步骤2.3,重复步骤2.2的过程依次对所有的类进行处理,直到处理完所有的类,将所有类的目标检测框集合放入一个新集合中,集合表示为:其中n表示目标图像中物体的种类数,mt表示经过步骤2去除冗余框之后剩余的目标检测框的数量。
步骤3具体为:
然后按照上面求得的欧式距离对每个分割区域的目标检测框进行升序排序,对第t个类的每一个目标检测框分配唯一的编号;
步骤3.3,按照步骤3.2的过程依次处理每一个类,并完成目标检测框的编号,至此,数据预处理就完成了。
步骤4具体为:
其中,areai表示第i个目标检测框的面积,areaI表示当前目标图像的面积;
对次要目标构建目标树具体为:
步骤4.1,首先根据经验设定阈值θt,从次要目标检测框集合中选择目标检测框面积最大的目标检测框作为第一棵目标树的根节点,然后依次计算次要目标检测框集合中剩余目标检测框的面积和当前根节点的目标检测框的面积的交集与当前根节点的目标检测框的面积的比值,记为如果的值大于阈值θt,则将目标检测框划分到目标检测框集合中,反之,划分到其它目标树集合中;
步骤4.2,按照目标检测框集合中目标检测框的面积的大小进行降序排序,从集合中选择面积最大的目标检测框作为当前根节点的第一个孩子节点,按照第一步的方法依次对目标检测框集合进行处理,直到完成第一棵目标树的构建;
步骤4.3,重复步骤4.1和步骤4.2的操作,依次完成剩余目标树的构建。
步骤5具体为:
当第i个目标检测框的重心与第j个目标检测框的重心的连线与竖轴之间顺时针的夹角落在区间[330,360]和区间[0,30]的时候,记为第j个目标检测框在第i个目标检测框的上方;当重心的连线与竖轴之间顺时针的夹角落在区间[30,60]的时候,记为第j个目标检测框在第i个目标检测框的右上方;当重心的连线与竖轴之间顺时针的夹角落在区间[60,120]的时候,记为第j个目标检测框在第i个目标检测框的右方;当重心的连线与竖轴之间顺时针的夹角落在区间[120,150]的时候,记为第j个目标检测框在第i个目标检测框的右下方;当重心的连线与竖轴之间顺时针的夹角落在区间[150,210]的时候,记为第j个目标检测框在第i个目标检测框的下方;当重心的连线与竖轴之间顺时针的夹角为落在区间[210,240]的时候,记为第j个目标检测框在第i个目标检测框的左下方;当重心的连线与竖轴之间顺时针的夹角落在区间[240,300]的时候,记为第j个目标检测框在第i个目标检测框的左方;当重心的连线与竖轴之间顺时针的夹角落在区间[300,330]的时候,记为第j个目标检测框在第i个目标检测框的左上方,最后给每一个区域赋予一个颜色,来表示第j个目标检测框和第i个目标检测框的相对位置信息。
步骤6具体为:
其中,mg表示图模型的节点数量,Ni表示构建的图模型的第i个节点;定义,me表示构建的图模型的边的数量:
me=mg*(mg-1)/2 (9)
使用步骤5中计算的目标间相对位置关系表示图模型的节点之间的边的相对位置属性信息,然后,计算两个节点之间的欧氏距离表示两个节点之间的距离。
本发明的有益效果是:
本发明基于Faster R-CNN的图模型构建方法通过Faster R-CNN的图模型对每幅图像中的不同类别进行检测,通过对次要目标构建目标树的方法以及构建目标图像场景位置关系的图模型,能够准确描述目标图像中各个目标之间的空间相对位置关系,更好的表示出各个目标在目标图像中的空间布局和语义联系。
附图说明
图1是本发明一种基于Faster R-CNN的图模型构建方法的总体结构示意图;
图2是一种基于Faster R-CNN的图模型构建方法的实例中带有目标检测框的目标图像;
图3是一种基于Faster R-CNN的图模型构建方法中对目标检测框进行编号后的图像;
图4是一种基于Faster R-CNN的图模型构建方法的实例中构建的目标树;
图5是一种基于Faster R-CNN的图模型构建方法中用到的物体间相对位置关系的图形化表示;
图6是一种基于Faster R-CNN的图模型构建方法构建的图模型。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
如图1所示,本发明实施例包括:
一种基于Faster R-CNN的图模型构建方法,包括使用经过ImageNet数据集和Visual Genome数据集一起训练的Faster R-CNN目标检测网络,对每幅图像中的不同类别进行检测。通过对次要目标构建目标树的方法以及构建目标图像场景位置关系的图模型,能够准确描述目标图像中各个目标之间的空间相对位置关系,更好的表示出各个目标在目标图像中的空间布局和语义联系。
基于Faster R-CNN的图模型构建方法,具体按照如下步骤实施:
步骤1,通过基于Faster R-CNN的目标检测网络模型进行目标检测之后输出目标图像中n个物体对应的检测框box和每个检测框对应的类别,将类别相同的检测框归为一类,将n个物体对应的检测框放入一个集合中,其中m表示目标图像中目标框的总数量,集合中的元素表示为:{box1,box2,...,boxm},其中boxi表示检测出的第i个目标框,输出的boxi是一个四维几何坐标(xi,yi,wi,hi),其中xi表示当前检测框的重心坐标点的x轴坐标值,yi表示当前检测框的重心坐标点的y轴坐标值,wi表示当前检测框的宽度,hi表示当前检测框的高度,如图2所示,为带有检测框的图像,如图3所示,为检测框进行唯一编号后的图像;
步骤2,经过步骤1检测出来的多个目标框可能会映射到同一个目标上,这样使得目标框存在冗余的现象,因此,步骤2作用主要是去除多余的目标框,去除冗余框可以分为三步进行:
步骤2.1,根据boxi的宽度和高度计算出每一个目标检测框的面积,记为areai,将所有目标检测框的面积放到一个集合Sarea,集合Sarea表示为:{area1,area2,...,aream},根据目标检测框的面积大小对集合Sarea进行降序排序;
步骤2.2,计算目标图像中第t个类的第i个目标检测框的面积和第j个目标检测框的面积的交集与第t个类的第i个目标检测框的面积的比值,比值记为如果的值大于θa,将第t个类的第j个目标检测框去除,直到处理完该类的所有目标检测框,将剩余的目标检测框放入集合中,其中,θa为根据经验设定的阈值;
步骤2.3,重复步骤2.2的过程依次对所有的类进行处理,直到处理完所有的类,将所有类的目标检测框集合放入一个新集合中,集合表示为:其中n表示目标图像中物体的种类数,mt表示经过步骤2去除冗余框之后剩余的目标检测框的数量;
步骤3,因为在一幅图像中可能存在这样一种情况:多个目标属于同一个类别,人类认为这些目标是不一样的,所以需要给这些目标分配唯一的标签,表示目标之间是不相同的。所以,步骤3的目的是给经过步骤2处理的剩余目标检测框分配唯一标识的标签。给目标检测框分配标签可以分为三步实现给去冗余后的目标检测框分配唯一的标签;具体为:
然后按照上面求得的欧式距离对每个分割区域的目标检测框进行升序排序,对第t个类的每一个目标检测框分配唯一的编号;
步骤3.3,按照步骤3.2的过程依次处理每一个类,并完成目标检测框的编号,至此,数据预处理就完成了;
步骤4,根据经验设定阈值,将图像的目标划分为主要目标和次要目标,然后对次要目标构建目标树,如图4所示,具体为:
计算每个目标检测框的面积与整个图像的面积的比值VI i:
其中,areai表示第i个目标检测框的面积,areaI表示当前目标图像的面积;
根据经验设定阈值θc,如果VI i的值大于θc,将这个目标划分为主要目标,反之,划分为次要目标;
对次要目标构建目标树具体为:
步骤4.1,首先根据经验设定阈值θt,从次要目标检测框集合中选择目标检测框面积最大的目标检测框作为第一棵目标树的根节点,然后依次计算次要目标检测框集合中剩余目标检测框的面积和当前根节点的目标检测框的面积的交集与当前根节点的目标检测框的面积的比值,记为如果的值大于阈值θt,则将目标检测框划分到目标检测框集合中,反之,划分到其它目标树集合中;
步骤4.2,按照目标检测框集合中目标检测框的面积的大小进行降序排序,从集合中选择面积最大的目标检测框作为当前根节点的第一个孩子节点,按照第一步的方法依次对目标检测框集合进行处理,直到完成第一棵目标树的构建;
步骤4.3,重复步骤4.1和步骤4.2的操作,依次完成剩余目标树的构建;
当第i个目标检测框的重心与第j个目标检测框的重心的连线与竖轴之间顺时针的夹角落在区间[330,360]和区间[0,30]的时候,记为第j个目标检测框在第i个目标检测框的上方;当重心的连线与竖轴之间顺时针的夹角落在区间[30,60]的时候,记为第j个目标检测框在第i个目标检测框的右上方;当重心的连线与竖轴之间顺时针的夹角落在区间[60,120]的时候,记为第j个目标检测框在第i个目标检测框的右方;当重心的连线与竖轴之间顺时针的夹角落在区间[120,150]的时候,记为第j个目标检测框在第i个目标检测框的右下方;当重心的连线与竖轴之间顺时针的夹角落在区间[150,210]的时候,记为第j个目标检测框在第i个目标检测框的下方;当重心的连线与竖轴之间顺时针的夹角为落在区间[210,240]的时候,记为第j个目标检测框在第i个目标检测框的左下方;当重心的连线与竖轴之间顺时针的夹角落在区间[240,300]的时候,记为第j个目标检测框在第i个目标检测框的左方;当重心的连线与竖轴之间顺时针的夹角落在区间[300,330]的时候,记为第j个目标检测框在第i个目标检测框的左上方,最后给每一个区域赋予一个颜色,来表示第j个目标检测框和第i个目标检测框的相对位置信息,如图5所示。
步骤6,根据目标树以及目标之间的位置关系构建图像的图模型,如图6所示,具体为:
其中,mg表示图模型的节点数量,Ni表示构建的图模型的第i个节点;定义,me表示构建的图模型的边的数量:
me=mg*(mg-1)/2 (9)
使用步骤5中计算的目标间相对位置关系表示图模型的节点之间的边的相对位置属性信息,然后,计算两个节点之间的欧氏距离表示两个节点之间的距离。
本发明对目标之间构建目标树以及利用位置解析算法表示出目标之间的相对位置关系,搭建基于Faster R-CNN的图模型构建方法,有效的表示出各目标在图像场景中的空间布局和语义联系。
Claims (7)
1.基于Faster R-CNN的图模型构建方法,其特征在于,具体按照如下步骤实施:
步骤1,将目标图像送入已经训练好的基于Faster R-CNN的目标检测网络模型中,输出目标图像中各个目标对应的检测框;
步骤2,根据设定的阈值对目标检测框进行筛选,去掉冗余的目标检测框;
步骤3,给去冗余后的目标检测框分配唯一的标签;
步骤4,根据经验设定阈值,将图像的目标划分为主要目标和次要目标,然后对次要目标构建目标树;
步骤5,通过任意两个次要目标重心之间的连线与竖轴的顺时针的夹角对检测框进行解析处理,得到目标图像中任意两个物体之间的相对位置关系,然后,计算目标图像中任意两个目标重心之间的距离,最后根据物体之间的距离、各个物体的重心得到任意两个物体之间的相对位置关系;
步骤6、根据目标树以及目标之间的位置关系构建图像的图模型。
2.根据权利要求1所述的基于Faster R-CNN的图模型构建方法,其特征在于,所述基于Faster R-CNN的目标检测网络模型对目标图像进行检测的过程为:假设目标图像中共有n个物体,通过基于Faster R-CNN的目标检测网络模型进行目标检测之后输出目标图像中n个物体对应的目标检测框box和每个目标检测框对应的类别,将类别相同的目标检测框归为一类,将n个物体对应的目标检测框放入一个集合中,其中m表示目标图像中目标检测框的总数量,集合中的元素表示为:{box1,box2,...,boxm},其中boxi表示检测出的第i个目标检测框,输出的boxi是一个四维几何坐标(xi,yi,wi,hi),其中xi表示当前目标检测框的重心坐标点的x轴坐标值,yi表示当前目标检测框的重心坐标点的y轴坐标值,wi表示当前目标检测框的宽度,hi表示当前目标检测框的高度。
3.根据权利要求2所述的基于Faster R-CNN的图模型构建方法,其特征在于,所述步骤2具体为:
步骤2.1,根据boxi的宽度和高度计算出每一个目标检测框的面积,记为areai,将所有目标检测框的面积放到一个集合Sarea,集合Sarea表示为:{area1,area2,...,aream},根据目标检测框的面积大小对集合Sarea进行降序排序;
4.根据权利要求3所述的基于Faster R-CNN的图模型构建方法,其特征在于,所述步骤3具体为:
然后按照上面求得的欧式距离对每个分割区域的目标检测框进行升序排序,对第t个类的每一个目标检测框分配唯一的编号;
步骤3.3,按照步骤3.2的过程依次处理每一个类,并完成目标检测框的编号,至此,数据预处理就完成了。
5.根据权利要求4所述的基于Faster R-CNN的图模型构建方法,其特征在于,所述步骤4具体为:
其中,areai表示第i个目标检测框的面积,areaI表示当前目标图像的面积;
对次要目标构建目标树具体为:
步骤4.1,首先根据经验设定阈值θt,从次要目标检测框集合中选择目标检测框面积最大的目标检测框作为第一棵目标树的根节点,然后依次计算次要目标检测框集合中剩余目标检测框的面积和当前根节点的目标检测框的面积的交集与当前根节点的目标检测框的面积的比值,记为如果的值大于阈值θt,则将目标检测框划分到目标检测框集合中,反之,划分到其它目标树集合中;
步骤4.2,按照目标检测框集合中目标检测框的面积的大小进行降序排序,从集合中选择面积最大的目标检测框作为当前根节点的第一个孩子节点,按照第一步的方法依次对目标检测框集合进行处理,直到完成第一棵目标树的构建;
步骤4.3,重复步骤4.1和步骤4.2的操作,依次完成剩余目标树的构建。
6.根据权利要求5所述的基于Faster R-CNN的图模型构建方法,其特征在于,所述步骤5具体为:
当第i个目标检测框的重心与第j个目标检测框的重心的连线与竖轴之间顺时针的夹角落在区间[330,360]和区间[0,30]的时候,记为第j个目标检测框在第i个目标检测框的上方;当重心的连线与竖轴之间顺时针的夹角落在区间[30,60]的时候,记为第j个目标检测框在第i个目标检测框的右上方;当重心的连线与竖轴之间顺时针的夹角落在区间[60,120]的时候,记为第j个目标检测框在第i个目标检测框的右方;当重心的连线与竖轴之间顺时针的夹角落在区间[120,150]的时候,记为第j个目标检测框在第i个目标检测框的右下方;当重心的连线与竖轴之间顺时针的夹角落在区间[150,210]的时候,记为第j个目标检测框在第i个目标检测框的下方;当重心的连线与竖轴之间顺时针的夹角为落在区间[210,240]的时候,记为第j个目标检测框在第i个目标检测框的左下方;当重心的连线与竖轴之间顺时针的夹角落在区间[240,300]的时候,记为第j个目标检测框在第i个目标检测框的左方;当重心的连线与竖轴之间顺时针的夹角落在区间[300,330]的时候,记为第j个目标检测框在第i个目标检测框的左上方,最后给每一个区域赋予一个颜色,来表示第j个目标检测框和第i个目标检测框的相对位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110406043.XA CN113516158B (zh) | 2021-04-15 | 2021-04-15 | 基于Faster R-CNN的图模型构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110406043.XA CN113516158B (zh) | 2021-04-15 | 2021-04-15 | 基于Faster R-CNN的图模型构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113516158A true CN113516158A (zh) | 2021-10-19 |
CN113516158B CN113516158B (zh) | 2024-04-16 |
Family
ID=78062517
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110406043.XA Active CN113516158B (zh) | 2021-04-15 | 2021-04-15 | 基于Faster R-CNN的图模型构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113516158B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113989626A (zh) * | 2021-12-27 | 2022-01-28 | 北京文安智能技术股份有限公司 | 一种基于目标检测模型的多类别垃圾场景区分方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040218821A1 (en) * | 1999-09-13 | 2004-11-04 | Sony Corporation | Image processing apparatus |
CN107665336A (zh) * | 2017-09-20 | 2018-02-06 | 厦门理工学院 | 智能冰箱中基于Faster‑RCNN的多目标检测方法 |
CN108053427A (zh) * | 2017-10-31 | 2018-05-18 | 深圳大学 | 一种基于KCF与Kalman的改进型多目标跟踪方法、系统及装置 |
CN111160274A (zh) * | 2019-12-31 | 2020-05-15 | 合肥湛达智能科技有限公司 | 一种基于二值化Faster RCNN网络的行人检测方法 |
CN111353538A (zh) * | 2020-02-28 | 2020-06-30 | 西安理工大学 | 基于深度学习的相似图像匹配方法 |
-
2021
- 2021-04-15 CN CN202110406043.XA patent/CN113516158B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040218821A1 (en) * | 1999-09-13 | 2004-11-04 | Sony Corporation | Image processing apparatus |
CN107665336A (zh) * | 2017-09-20 | 2018-02-06 | 厦门理工学院 | 智能冰箱中基于Faster‑RCNN的多目标检测方法 |
CN108053427A (zh) * | 2017-10-31 | 2018-05-18 | 深圳大学 | 一种基于KCF与Kalman的改进型多目标跟踪方法、系统及装置 |
CN111160274A (zh) * | 2019-12-31 | 2020-05-15 | 合肥湛达智能科技有限公司 | 一种基于二值化Faster RCNN网络的行人检测方法 |
CN111353538A (zh) * | 2020-02-28 | 2020-06-30 | 西安理工大学 | 基于深度学习的相似图像匹配方法 |
Non-Patent Citations (2)
Title |
---|
曹诗雨;刘跃虎;李辛昭;: "基于Fast R-CNN的车辆目标检测", 中国图象图形学报, no. 05, 16 May 2017 (2017-05-16), pages 113 - 119 * |
蔡晨;魏国亮;: "基于卷积神经网络的改进机械臂抓取方法", 计算机与数字工程, no. 01, 20 January 2020 (2020-01-20), pages 163 - 167 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113989626A (zh) * | 2021-12-27 | 2022-01-28 | 北京文安智能技术股份有限公司 | 一种基于目标检测模型的多类别垃圾场景区分方法 |
CN113989626B (zh) * | 2021-12-27 | 2022-04-05 | 北京文安智能技术股份有限公司 | 一种基于目标检测模型的多类别垃圾场景区分方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113516158B (zh) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Duczmal et al. | A genetic algorithm for irregularly shaped spatial scan statistics | |
CN104517112B (zh) | 一种表格识别方法与系统 | |
CN108121991B (zh) | 一种基于边缘候选区域提取的深度学习舰船目标检测方法 | |
JP5167442B2 (ja) | 画像識別装置およびプログラム | |
CN108334881B (zh) | 一种基于深度学习的车牌识别方法 | |
CN105608459B (zh) | 商品图片的分割方法及其装置 | |
CN109344874A (zh) | 一种基于深度学习的染色体自动分析方法及系统 | |
CN108510516A (zh) | 一种散乱点云的三维线段提取方法及系统 | |
CN110210428B (zh) | 一种基于mser的远距离复杂环境下的烟雾根节点检测方法 | |
CN109145964B (zh) | 一种实现图像颜色聚类的方法和系统 | |
CN114511718B (zh) | 一种建筑施工用物料智能管理方法及系统 | |
CN113221956A (zh) | 基于改进的多尺度深度模型的目标识别方法及装置 | |
CN113516158B (zh) | 基于Faster R-CNN的图模型构建方法 | |
CN111178196B (zh) | 一种细胞分类的方法、装置及设备 | |
CN113095267A (zh) | 统计图的数据提取方法、电子设备和存储介质 | |
CN109460761A (zh) | 基于维度聚类和多尺度预测的银行卡卡号检测与识别方法 | |
CN115994925B (zh) | 一种基于关键点检测的多行人快速跟踪方法 | |
CN104268571B (zh) | 一种基于最小树聚类的红外多目标分割方法 | |
CN105844299A (zh) | 一种基于词袋模型的图像分类方法 | |
CN106611418A (zh) | 一种图像分割算法 | |
CN115861993A (zh) | 字符识别方法、系统、设备及存储介质 | |
CN115272778A (zh) | 基于rpa和计算机视觉的可回收垃圾分类方法及系统 | |
CN115115939A (zh) | 基于特征注意力机制的遥感图像目标细粒度识别方法 | |
CN111523576B (zh) | 一种适用于电子质量检测的密度峰值聚类离群点检测方法 | |
CN113888747A (zh) | 一种基于环向局部三值模式的图像纹理特征提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |