CN109299730A - 一种目标检测的分类模型建立方法、装置和目标检测设备 - Google Patents
一种目标检测的分类模型建立方法、装置和目标检测设备 Download PDFInfo
- Publication number
- CN109299730A CN109299730A CN201810984267.7A CN201810984267A CN109299730A CN 109299730 A CN109299730 A CN 109299730A CN 201810984267 A CN201810984267 A CN 201810984267A CN 109299730 A CN109299730 A CN 109299730A
- Authority
- CN
- China
- Prior art keywords
- fusion
- feature
- channel
- model
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及机器人目标检测领域,公开了一种目标检测的分类模型建立方法、装置和目标检测设备,所述方法包括如下步骤:从训练样本集读取样本图像,将样本图像转化到RGB和HSV颜色模型;获取所述颜色模型的R、G、B、H、S、V通道特征,基于线性反投影算法融合颜色信息和空间结构信息,获得最终特征;使用分类器通过所述最终特征对图像进行分类,获得最终分类模型。本发明实施例将颜色信息、空间结构信息与传统线性反投影算法结合,建立的分类模型充分考虑机器人进行目标检测时复杂的环境条件,增强了目标识别的光照适应性和精确性,使得目标检测能够适应复杂的环境,进而为目标检测提供了一种可用方法。
Description
技术领域
本发明涉及机器人目标检测领域,具体是一种目标检测的分类模型建立方法、装置和目标检测设备,主要应用于机器人目标检测。
背景技术
随着计算机技术的不断发展,计算机视觉系统已经广泛应用于机器人上,而对机器人来说,视觉系统最重要的应用就是实现目标检测。
线性反投影算法建立目标检测的分类模型是现有技术中比较常用的方式,线性反投影算法属于一种性能优越的特征提取算法,但是,传统线性反投影算法只是在灰度领域提取特征,由于视觉系统应用的环境比较复杂,比如摄像机移动、光照、景物遮挡等因素影响,传统线性反投影算法建立的分类模型不能保证检测精度,给目标检测技术带来极大的困难。
可见,现有的基于线性反投影算法建立的分类模型由于只是在灰度领域提取特征,不能考虑颜色情况,也不考虑可能存在的空间结构关系,无法应对视觉系统应用的环境复杂性,无法保证目标检测准确度。
发明内容
针对现有技术的不足,本发明提供一种目标检测的分类模型建立方法、装置和目标检测设备,用于克服机器人目标检测无法适应复杂环境的缺陷。
为了解决上述技术问题,本发明实施例提供了一种目标检测的分类模型建立方法,所述方法包括如下步骤:
从训练样本集读取样本图像,将样本图像转化到RGB和HSV颜色模型;
获取所述颜色模型的R、G、B、H、S、V通道特征,基于线性反投影算法融合颜色信息和空间结构信息,获得最终特征;
使用分类器通过所述最终特征对图像进行分类,获得最终分类模型。
具体的,获取所述颜色模型的R、G、B、H、S、V通道特征,基于线性反投影算法融合颜色信息和空间结构信息,获得最终特征,包括以下步骤:
获取所述颜色模型的R、G、B、V通道特征,将所述通道特征融合,获得融合特征;
对所述HSV模型中的H和S通道进行量化,获得H和S通道上的量化特征;
将所述融合特征以及量化特征进一步融合,获得融合颜色信息的算子;
获取相邻像素区域的已经融合颜色信息的算子,将所述算子进行融合,获得融合颜色信息和融合空间结构信息的最终特征。
本发明实施例还提供了一种目标检测的分类模型建立装置,包括:
转化模块,用于从训练样本集读取样本图像,将样本图像转化到RGB和HSV颜色模型;
特征融合计算模块,用于获取所述颜色模型的R、G、B、H、S、V通道特征,基于线性反投影算法融合颜色信息和空间结构信息,获得最终特征;
分类模块,使用分类器通过所述最终特征对图像进行分类,获得最终分类模型。
具体的,所述特征融合计算模块,包括:
通道特征融合单元,获取所述颜色模型的R、G、B、V通道特征,将所述通道特征融合,获得融合特征;
量化单元,对所述HSV模型中的H和S通道进行量化,获得H和S通道上的量化特征;
颜色信息融合单元,将所述融合特征以及量化特征进一步融合,获得融合颜色信息的算子;
空间信息融合单元,获取相邻像素区域的已经融合颜色信息的算子,将所述算子进行融合,获得融合颜色信息和空间结构信息的最终特征。
本发明实施例还提供了一种目标检测设备,其特征在于,所述设备包括:
图像采集装置,用于采集样本图像;
所述的一种目标检测的分类模型建立装置;
机器人,用于使用分类模型建立装置,使分类模型建立装置执行所述分类模型建立方法的步骤,利用所述分类模型进行目标检测。
本发明的实施例,针对传统线性反投影算法的不足点进行改进,实现了将颜色信息、空间结构信息与传统线性反投影算法特征结合,建立的分类模型充分考虑机器人进行目标检测时复杂的环境条件,增强了机器人目标识别的光照适应性和精确性,使得机器人目标检测能够适应复杂的环境,进而为机器人目标识别提供了一种可用方法。
附图说明
图1示出了本发明实施例提供的一种目标检测的分类模型建立方法的实施环境图;
图2是本发明实施例提供的一种目标检测的分类模型建立方法的实现流程图;
图3是本发明实施例提供的融合颜色信息和空间结构信息的流程图;
图4是本发明实施例提供的一种目标检测的分类模型建立装置的结构框图;
图5是本发明实施例提供的特征融合计算模块的结构框架图;
图6是本发明实施例提供的通道特征融合单元的结构框架图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种元件,但除非特别说明,这些元件不受这些术语限制。这些术语仅用于将第一个元件与另一个元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一xx单元称为第二xx单元,且类似地,可将第二xx单元称为第一xx单元。
图1示出了本发明实施例中提供一种目标检测的分类模型建立方法的实施环境图,为了便于说明,仅给出与本发明相关的部分,如图1所示,在该应用环境中,包括机器人101和多个目标102。
机器人101可以是人形机器人或者工业机器人,可以是应用于制造环境的机器人也可以应用于非制造环境的机器人。
目标102就是在检测时需要在图像中进行定位和寻找的对象,具体本发明在此不做限制。
实施例一
如图2所示,在本发明实施例中,提出了一种目标检测的分类模型建立方法,为了便于说明,仅给出与本发明相关的部分,本实施例主要以该方法应用于上述图1中的机器人101来举例说明。具体可以包括以下步骤:
步骤S201,从训练样本集读取样本图像,将样本图像转化到RGB和HSV颜色模型。
在本发明实施例中,训练样本集包含需要检测的目标的图像样本,如行人检测当中的行人图像、人脸识别当中的人脸图像。
在本发明实施例中,可以调用软件或者函数将样本图像转化到颜色模型,具体的可以调用软件Open CV进行转换。
步骤S202,获取颜色模型的R、G、B、H、S、V通道特征,基于线性反投影算法融合颜色信息和空间结构信息,获得最终特征。
在本发明实施例中,线性反投影算法是指局部二值模式,是用来描述图像局部特征的算子,具体的原始的线性反投影算法算子定义在像素3*3的邻域内,以邻域中心像素为阈值,相邻的8个邻域像素的灰度值与邻域中心的像素值进行比较,若周围像素大于中心像素值,则该像素点的位置被标记为1,否则为0。
在本发明实施例中,最终特征是指在线性反投影算法中融合了颜色信息和空间结构信息的特征。具体的,融合颜色信息是通过将训练样本的样本图像转化到RGB和HSV颜色模型,提取像素区域颜色通道特征并融合,再进一步的在融合颜色信息的基础上考虑相邻像素区域的空间结构信息并进行融合。充分考虑目标检测训练样本图像中的颜色和空间信息,进而保证目标检测的光照适应性和精确性。
步骤S203,使用分类器通过最终特征对图像进行分类,获得最终分类模型。
在本发明实施例中,分类器是指对样本进行分类的方法的统称,在训练样本的最终特征上执行分类器算法即可生成分类模型。可以是调用常用软件或者函数进行分类,具体的,可以调用常用软件scikit-learn库中的Adaboost类库,利用AdaBoost Classifier和AdaBoost Regressor分类与回归算法计算获得,也可用软件Open CV库的功能计算获得。
在本发明实施例中,如图3所示,步骤S202即获取颜色模型的R、G、B、H、S、V通道特征,基于线性反投影算法融合颜色信息和空间结构信息,获得最终特征的步骤具体可以包括以下步骤:
步骤S301,获取像素区域R、G、B和V通道值,分别计算两组邻域像素和中心像素的差值,获得线性反投影算法特征;
在本发明实施例中,对于训练样本集的彩色图像的一个像素区域,使用R、G、B其中一个通道和V通道,分别记为p1、p2,来分别计算两组邻域像素和中心像素的差值Dp1i和Dp2i,将差值计算用公式定义:
Dp1i=Ip1(gi)-Ip1(gc)................................................(a)
Dp2i=Ip1(gi)-Ip2(gc)...............................................(b)
其中,Ip1(gi)表示通道p1上第i个邻域点的值,Ip1(gc)和Ip2(gc)分别表示通道p1和p2上的中心点的值。
再根据差值计算线性反投影算法特征,计算公式与传统的线性反投影算法相同,若邻域像素与中心像素值差值大于0,则该像素点的位置被标记为1,否则为0。
具体的,在本发明实施例提供的一个例子中,获取像素区域的p1、p2通道值分别为:
则使用公式a、b和再结合传统线性反投影算法计算所得的线性反投影算法特征为:
步骤S302,将线性反投影算法特征融合,获得第一次融合特征。
在本发明实施例中,将线性反投影算法特征融合的公式为:
具体的,在本发明实施例提供的一个例子中,根据前面所得的p1、p2特征求取第一次融合特征为:
步骤S303,将第一次融合特征进行拆分,获得两个拆分特征,以供计算像素区域的编码;
在本发明实施例中,将第一次融合特征s(p1i*p2i)进行拆分的公式为:
具体的,在本发明实施例提供的一个例子中,根据前面所得的第一次融合特征拆分后得到的拆分特征为:
步骤S304,通过拆分特征计算像素区域的编码。
在本发明实施例中,通过下列公式计算像素区域的编码,公式为:
其中,N为在像素区域内中心像素点周围的邻域像素点的数量。
具体的,在本发明实施例提供的一个例子中,根据前面所得的拆分特征所得到的编码为:
步骤S305,将编码进行融合,获得通道融合特征。
在本发明实施例中,将编码融合的方式与线性反投影算法特征融合的方式相同。
具体的,在本发明实施例提供的一个例子中,根据前面所得的编码融合获得的通道融合特征为:
步骤S306,对HSV模型中的H和S通道进行量化,获得H和S通道上的量化特征。
在本发明实施例中,对HSV模型中的H、S通道进行量化时,对H、S通道的量化方法采用非等间隔量化来提取颜色直方图特征,这里把H通道值量化成8个量级,S通道值量化成3个量级。最后把这两个分量表示成一个一维的特征向量Hist,Hist=9hH+3hS。由此,H,S分量就在这个一维特征分量上分布开来,色调H权重为9,饱和度权重为3。这种权重取值方法会减少亮度对图像分类结果的影响。
步骤S307,将融合特征以及量化特征进一步融合,获得融合颜色信息的算子,融合方式与线性反投影算法特征融合的方式相同。
步骤S308,在融合颜色信息的算子的基础上融合空间结构信息,具体的,在本发明实施例中,同时考虑两个相邻的像素区域,对邻近区域的一对融合颜色信息的算子,我们做如下定义:
LBP2(r,Δ)=(LBP(c),LBP(c+Δ))....................(h)
其中LBP2(r,Δ)是像素区域颜色信息和空间结构信息结合后的最终特征,LBP(c),LBP(c+Δ)分别表示邻近区域的算子,r表示像素区域的半径,Δ表示两个融合颜色信息的算子中心点的距离。
在本发明实施例中,对于每个相邻区域融合颜色信息的算子对,具体的,先考虑p1和p2通道下的LBP1(p1*p2)值,可以得到:
LBP2(p1*p2)(r,Δ)=(LBP1(p1*p2)(c),LBP1(p1*p2)(c+Δ))...................(i)
LBP2(p1*p2)(r,Δ)即为P1、P2通道下两个相邻区域已经融合颜色信息的算子进行空间融合后的值。
再将R、G、B通道与V通道分别考虑并按照相同的方式融合,可以得到LBP2(r,Δ):
LBP2(r,Δ)=[LBP2(R*V)(r,Δ),LBP2(G*V)(r,Δ),LBP2(B*V)(r,Δ)]...............(j)
LBP2(r,Δ)即为考虑R、G、B、V四通道的基于颜色信息和空间结构信息融合的特征。
同理的,考虑R、G、B、V、H、S通道时获得的特征即为融合颜色信息和空间结构信息后的最终特征。
本发明的实施例的目标检测的分类模型建立方法,针对传统线性反投影算法的不足点进行改进,实现了将颜色信息、空间结构信息与传统线性反投影算法特征结合,建立的分类模型充分考虑机器人进行目标检测时复杂的环境条件,增强了机器人目标识别的光照适应性和精确性,使得机器人目标检测能够适应复杂的环境。
实施例二
如图4所示,本发明实施例提供的一种目标检测的分类模型建立装置400,为了便于说明,仅给出与本发明相关的部分,包括转化模块401、特征融合计算模块402、分类模块403。
转化模块401,用于从训练样本集读取样本图像,将样本图像转化到RGB和HSV颜色模型。
在本发明实施例中,转化模块401可以是有图像转化功能的软件,具体的可以是软件Open CV,在使用过程中调用以得到转化结果即可。
特征融合计算模块402,用于获取转化所得的颜色模型的R、G、B、H、S、V通道特征,基于线性反投影算法融合颜色信息和空间结构信息,获得最终特征。所获得的特征融合了颜色信息和空间结构信息,使得建立的分类模型充分考虑机器人进行目标检测时复杂的环境条件,增强了机器人目标识别的光照适应性和精确性,使得机器人目标检测能够适应复杂的环境。
分类模块403,使用分类器通过最终特征对图像进行分类,获得最终分类模型。
在本发明实施例中,分类模块403可以是调用具有分类器功能的软件,具体可以是使用常用软件scikit-learn中的Adaboost类库,利用AdaBoost Classifier和AdaBoostRegressor分类与回归算法计算获得,还可以是用软件Open CV库的功能计算获得。
图4所示的转化模块401、特征融合计算模块402、分类模块403构成目标检测的分类模型建立装置400,执行本说明书中描述的目标检测的分类模型建立方法中的步骤。
在本发明实施例中,如图5给出了一种特征融合计算模块的结构框架,特征融合计算模块500包括:
通道特征融合单元501,获取颜色模型的R、G、B、V通道特征,将通道特征融合,获得融合特征;
量化单元502,对HSV模型中的H和S通道进行量化,获得H和S通道上的量化特征;
颜色信息融合单元503,将融合特征以及量化特征进一步融合,获得融合颜色信息的算子;
空间信息融合单元504,获取相邻像素区域的已经融合颜色信息的算子,将算子进行融合,获得融合颜色信息和空间结构信息的最终特征。
在本发明实施例中,图6给出了一种通道特征融合单元600的结构框架,包括:
线性反投影算法特征计算模块601,用于获取像素区域R、G、B和V通道值,分别计算两组邻域像素和中心像素的差值,获得线性反投影算法特征;
反投影算法特征融合模块602,用于将线性反投影算法特征融合,获得第一次融合特征;
特征拆分模块603,将第一次融合特征进行拆分,获得两个拆分特征,以供计算像素区域的编码;
编码计算模块604,用于通过拆分特征计算像素区域的编码;
编码融合模块605,用于将编码进行融合,获得通道融合特征。
本发明的实施例的目标检测的分类模型建立装置,针对传统线性反投影算法的不足点进行改进,实现了将颜色信息、空间结构信息与传统线性反投影算法特征结合,建立的分类模型充分考虑机器人进行目标检测时复杂的环境条件,增强了机器人目标识别的光照适应性和精确性,使得机器人目标检测能够适应复杂的环境。
实施例三
本发明实施例还提供了一种目标检测设备,设备包括:
图像采集装置,本发明实施例中的一种目标检测的分类模型建立装置以及应用对象机器人,本发明实施例提供的设备通过使用目标检测的分类模型建立装置,使目标检测的分类模型建立装置执行目标检测的分类模型建立方法的步骤,利用分类模型进行目标检测。
本发明的实施例的目标检测设备,通过使用本发明说明书描述的目标检测的分类模型建立装置,充分考虑机器人进行目标检测时复杂的环境条件,增强了机器人目标识别的光照适应性和精确性,使得机器人目标检测能够适应复杂的环境,进而为机器人目标识别提供了一种可用方法。
应该理解的是,虽然本发明各实施例的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,各实施例中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (8)
1.一种目标检测的分类模型建立方法,其特征在于,所述方法包括如下步骤:
从训练样本集读取样本图像,将样本图像转化到RGB和HSV颜色模型;
获取所述颜色模型的R、G、B、H、S、V通道特征,基于线性反投影算法融合颜色信息和空间结构信息,获得最终特征;
使用分类器通过所述最终特征对图像进行分类,获得最终分类模型。
2.根据权利要求1所述的分类模型建立方法,其特征在于,获取所述颜色模型的R、G、B、H、S、V通道特征,基于线性反投影算法融合颜色信息和空间结构信息,获得最终特征,包括以下步骤:
获取所述颜色模型的R、G、B、V通道特征,将所述通道特征融合,获得通道融合特征;
对所述HSV模型中的H和S通道进行量化,获得H和S通道上的量化特征;
将所述融合特征以及量化特征进一步融合,获得融合颜色信息的算子;
获取相邻像素区域的已经融合颜色信息的算子,将所述算子进行融合,获得融合颜色信息和融合空间结构信息的最终特征。
3.根据权利要求2所述的分类模型建立方法,其特征在于,所述获取所述颜色模型的R、G、B、V通道特征,将所述通道特征融合,获得通道融合特征,包括以下步骤:
获取像素区域R、G、B和V通道值,分别计算两组邻域像素和中心像素的差值,获得线性反投影算法特征;
将所述线性反投影算法特征融合,获得第一次融合特征;
将所述第一次融合特征进行拆分,获得两个拆分特征,以供计算所述像素区域的编码;
通过所述拆分特征计算所述像素区域的编码;
将所述编码进行融合,获得通道融合特征。
4.根据权利要求2所述的分类模型建立方法,其特征在于,对所述HSV模型中的H和S通道进行量化采用非等间隔量化来提取颜色直方图特征的方式进行。
5.一种目标检测的分类模型建立装置,其特征在于,包括:
转化模块,用于从训练样本集读取样本图像,将样本图像转化到RGB和HSV颜色模型;
特征融合计算模块,用于获取所述颜色模型的R、G、B、H、S、V通道特征,基于线性反投影算法融合颜色信息和空间结构信息,获得最终特征;
分类模块,使用分类器通过所述最终特征对图像进行分类,获得最终分类模型。
6.根据权利要求5所述的分类模型建立装置,其特征在于,所述特征融合计算模块,包括:
通道特征融合单元,获取所述颜色模型的R、G、B、V通道特征,将所述通道特征融合,获得通道融合特征;
量化单元,对所述HSV模型中的H和S通道进行量化,获得H和S通道上的量化特征;
颜色信息融合单元,将所述通道融合特征以及量化特征进一步融合,获得融合颜色信息的算子;
空间信息融合单元,获取相邻像素区域的已经融合颜色信息的算子,将所述算子进行融合,获得融合颜色信息和空间结构信息的最终特征。
7.根据权利要求6所述的分类模型建立装置,其特征在于,所述通道特征融合单元,包括:
线性反投影算法特征计算模块,用于获取像素区域R、G、B和V通道值,分别计算两组邻域像素和中心像素的差值,获得线性反投影算法特征;
反投影算法特征融合模块,用于将所述线性反投影算法特征融合,获得第一次融合特征;
特征拆分模块,将所述第一次融合特征进行拆分,获得两个拆分特征,以供计算所述像素区域的编码;
编码计算模块,用于通过所述拆分特征计算所述像素区域的编码;
编码融合模块,用于将所述编码进行融合,获得通道融合特征。
8.一种目标检测设备,其特征在于,所述设备包括:
图像采集装置,用于采集样本图像;
如权利要求5-7所述的一种目标检测的分类模型建立装置;
机器人,用于使用分类模型建立装置,使分类模型建立装置执行权利要求1-4中任一项权利要求所述分类模型建立方法的步骤,利用所述分类模型进行目标检测。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810984267.7A CN109299730B (zh) | 2018-08-27 | 2018-08-27 | 一种目标检测的分类模型建立方法、装置和目标检测设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810984267.7A CN109299730B (zh) | 2018-08-27 | 2018-08-27 | 一种目标检测的分类模型建立方法、装置和目标检测设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109299730A true CN109299730A (zh) | 2019-02-01 |
CN109299730B CN109299730B (zh) | 2022-03-04 |
Family
ID=65165460
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810984267.7A Active CN109299730B (zh) | 2018-08-27 | 2018-08-27 | 一种目标检测的分类模型建立方法、装置和目标检测设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109299730B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112577905A (zh) * | 2019-09-30 | 2021-03-30 | 苏州迈瑞科技有限公司 | 一种尿液颜色检测方法及分析仪 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104598924A (zh) * | 2015-01-14 | 2015-05-06 | 南京邮电大学 | 一种目标匹配检测方法 |
CN105893925A (zh) * | 2015-12-01 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 基于肤色的人手检测方法及装置 |
CN106562833A (zh) * | 2015-10-11 | 2017-04-19 | 东莞市叁的打印技术科技有限公司 | 一种应用于牙颌模型的颜色信息扫描方法 |
CN106959325A (zh) * | 2017-04-07 | 2017-07-18 | 燕山大学 | 一种平面阵列电极电容传感器、成像系统及成像方法 |
CN108304878A (zh) * | 2018-02-05 | 2018-07-20 | 河北工业大学 | 一种基于色差直方图与DAG-SVMs的光伏电池片颜色分类算法 |
-
2018
- 2018-08-27 CN CN201810984267.7A patent/CN109299730B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104598924A (zh) * | 2015-01-14 | 2015-05-06 | 南京邮电大学 | 一种目标匹配检测方法 |
CN106562833A (zh) * | 2015-10-11 | 2017-04-19 | 东莞市叁的打印技术科技有限公司 | 一种应用于牙颌模型的颜色信息扫描方法 |
CN105893925A (zh) * | 2015-12-01 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 基于肤色的人手检测方法及装置 |
CN106959325A (zh) * | 2017-04-07 | 2017-07-18 | 燕山大学 | 一种平面阵列电极电容传感器、成像系统及成像方法 |
CN108304878A (zh) * | 2018-02-05 | 2018-07-20 | 河北工业大学 | 一种基于色差直方图与DAG-SVMs的光伏电池片颜色分类算法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112577905A (zh) * | 2019-09-30 | 2021-03-30 | 苏州迈瑞科技有限公司 | 一种尿液颜色检测方法及分析仪 |
Also Published As
Publication number | Publication date |
---|---|
CN109299730B (zh) | 2022-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109886121B (zh) | 一种遮挡鲁棒的人脸关键点定位方法 | |
CN111401384B (zh) | 一种变电设备缺陷图像匹配方法 | |
CN110992238B (zh) | 一种基于双通道网络的数字图像篡改盲检测方法 | |
Wang et al. | Detection and localization of image forgeries using improved mask regional convolutional neural network | |
CN111340784B (zh) | 一种基于Mask R-CNN图像篡改检测方法 | |
Babaee et al. | Person identification from partial gait cycle using fully convolutional neural networks | |
JP5673550B2 (ja) | 画像修復システム、画像修復方法及び画像修復プログラム | |
CN103279936B (zh) | 基于画像的人脸伪照片自动合成及修正方法 | |
CN111325769B (zh) | 一种目标对象检测方法及装置 | |
CN110110755B (zh) | 基于ptgan区域差距与多重分支的行人重识别检测方法及装置 | |
CN107808376B (zh) | 一种基于深度学习的举手检测方法 | |
CN108921120B (zh) | 一种适应广泛零售场景下的香烟识别方法 | |
CN101482923A (zh) | 视频监控中人体目标的检测与性别识别方法 | |
CN111753782B (zh) | 一种基于双流网络的假脸检测方法、装置及电子设备 | |
CN113112416B (zh) | 一种语义引导的人脸图像修复方法 | |
CN109740572A (zh) | 一种基于局部彩色纹理特征的人脸活体检测方法 | |
CN111428556A (zh) | 一种基于胶囊神经网络的交通标志识别方法 | |
CN110287798B (zh) | 基于特征模块化和上下文融合的矢量网络行人检测方法 | |
CN110969171A (zh) | 基于改进卷积神经网络的图像分类模型、方法及应用 | |
CN112101262B (zh) | 一种多特征融合手语识别方法及网络模型 | |
CN112907598A (zh) | 一种基于注意力cnn文档证件类图像篡改检测方法 | |
CN111652240A (zh) | 一种基于cnn的图像局部特征检测与描述方法 | |
CN112036260A (zh) | 一种自然环境下多尺度子块聚合的表情识别方法及系统 | |
CN109063598A (zh) | 人脸毛孔检测方法、装置、计算机设备和存储介质 | |
CN114331946A (zh) | 一种图像数据处理方法、设备以及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |