CN110298893A - 一种行人衣着颜色识别模型的生成方法及装置 - Google Patents
一种行人衣着颜色识别模型的生成方法及装置 Download PDFInfo
- Publication number
- CN110298893A CN110298893A CN201810457600.9A CN201810457600A CN110298893A CN 110298893 A CN110298893 A CN 110298893A CN 201810457600 A CN201810457600 A CN 201810457600A CN 110298893 A CN110298893 A CN 110298893A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- color space
- identification model
- area image
- yuv
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种行人衣着颜色识别模型的生成方法及装置,该方法包括:获取行人图像,确定行人上衣和裤子的区域图像;将区域图像的GRB转换为YUV和HSV色彩空间,获得区域图像的各个像素点在所述YUV和HSV色彩空间中各通道对应的通道图像数据;将所述的RGB、RGB转换后的YUV和RGB转换后的HSV色彩空间共九个通道图像数据,输入预设的卷积神经网络进行训练,生成识别模型。本发明可通过该识别模型,将监控视频中的行人衣着信息特征提取出来,能够更加有效的提高行人衣着颜色识别准确率;识别模型可直接应用到各类监控系统中,对于监控人员查找事件关键人物,还原事件具有重要意义。
Description
技术领域
本发明涉及计算机视觉领域和图像处理技术领域,特别涉及一种基于多色彩空间和卷积神经网络的行人衣着颜色识别模型的生成方法及装置。
背景技术
由于视频监控在各地安防的广泛应用,行人的精细化识别显得尤为重要,特别是行人衣着的颜色是最显著的外观特征,其识别的正确性直接影响视频检索中特定行人的检索。
目前对行人衣着的颜色识别主要通过将行人图像转至某一单一色彩空间,通过获取行人图像的各个像素点在该色彩空间各通道对应的通道值,根据上述行人图像各个像素点对应的色彩通道值输入至SVM分类器进行训练,识别行人衣着的颜色。目前行人衣着的识别算法基本使用的是传统的算法,并且在单一色彩空间实现的,从而会导致行人衣着颜色识别准确率低。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的行人衣着颜色识别模型的生成方法及装置。
第一方面,本发明实施例提供一种行人衣着颜色识别模型的生成方法,包括:
获取行人图像,进行行人检测,确定行人位置信息;
根据所述行人位置信息,确定所述行人上衣和裤子的区域图像;
将所述区域图像的GRB转换为YUV和HSV色彩空间,获得所述区域图像的各个像素点在所述YUV和HSV色彩空间中各通道对应的通道图像数据;
建立预设的卷积神经网络;
将所述的RGB、RGB转换后的YUV和RGB转换后的HSV色彩空间的共九个通道图像数据,输入所述卷积神经网络进行训练,生成识别模型。
在一个实施例中,进行行人检测,包括:
采用以下任一种方式进行行人检测:
R-CNN、FAST-RCNN或FASTER-RCNN。
在一个实施例中,根据所述行人位置信息,确定所述行人上衣和裤子的区域图像;包括:根据所述行人位置信息,得到行人区域图像的高度值以及宽度值;
根据所述行人区域图像的高度值和宽度值按照预设比例,确定所述行人上衣和裤子的区域图像。
在一个实施例中,将所述区域图像的GRB转换为YUV和HSV色彩空间,包括:
RGB色彩空间转至YUV色彩空间的计算公式(1):
Y=0.30R+0.59G+0.11B
U=0.493(B-Y)
V=0.877(R-Y) (1);
RGB色彩空间转至HSV色彩空间的计算公式(2):
M=max(R,G,B)
m=max(R,G,B)
H=60°*H′
V=M (2)。
在一个实施例中,所述预设的卷积神经网络的结构,采用五个卷积层、三个池化层和三个全连接层。
第二方面,本发明实施例提供一种行人衣着颜色识别模型的生成装置,包括:获取模块,用于获取行人图像;
检测模块,用于将获取模块获取的行人图像,进行行人检测;
确定模块,用于根据所述检测模块对行人进行检测,确定行人位置信息以及确定所述行人上衣和裤子的区域图像;
转换模块,用于将所述确定模块确定的区域图像的GRB转换为YUV和HSV色彩空间,获得所述区域图像的各个像素点在所述YUV和HSV色彩空间中各通道对应的通道图像数据;
建立模块,用于建立预设的卷积神经网络;
生成模块,用于将所述的RGB、RGB转换后的YUV和RGB转换后的HSV色彩空间的共九个通道图像数据,输入所述建立模块建立的卷积神经网络进行训练,生成识别模型。
在一个实施例中,所述检测模块采用以下任一种方式进行行人检测:
R-CNN、FAST-RCNN或FASTER-RCNN。
在一个实施例中,所述确定模块,具体用于根据所述行人位置信息,得到行人区域图像的高度值以及宽度值;根据所述行人区域图像的高度值和宽度值按照预设比例,确定所述行人上衣和裤子的区域图像。
在一个实施例中,所述转换模块,包括:第一转换子模块和第二转换子模块;
所述第一转换子模块,用于RGB色彩空间通过计算公式(1)转至YUV色彩空间;计算公式(1):
Y=0.30R+0.59G+0.11B
U=0.493(B-Y)
V=0.877(R-Y) (1);
所述第二转换子模块,用于RGB色彩空间通过计算公式(2)转至HSV色彩空间;计算公式(2):
M=max(R,G,B)
m=max(R,G,B)
H=60°*H′
V=M (2)。
在一个实施例中,所述建立模块中的预设的卷积神经网络结构,采用五个卷积层、三个池化层和三个全连接层。
本发明实施例提供的上述技术方案的有益效果至少包括:
本发明实施例提供的行人衣着颜色识别模型的生成方法及装置,该生成方法,结合多色彩空间,基于深度学习算法,生成识别模型,可通过该识别模型,将监控视频中的行人衣着信息特征提取出来,能够更加有效的提高行人衣着颜色识别准确率,可直接应用到各类监控系统中,对于监控人员查找事件关键人物,还原事件具有重要意义。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例提供的行人衣着颜色识别模型的生成方法的流程图;
图2为本发明实施例提供的行人上衣和裤子区域示意图;
图3为本发明实施例提供的行人衣着颜色识别模型的深度网络学习的示意图;
图4为本发明实施例提供的行人衣着颜色识别模型的生成装置的框图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
参照图1所示,本发明实施例提供的行人衣着颜色识别模型的生成方法,包括以下步骤:
S101、获取行人图像,进行行人检测,确定行人位置信息;
S102、根据所述行人位置信息,确定所述行人上衣和裤子的区域图像;
S103、将所述区域图像的GRB转换为YUV和HSV色彩空间,获得所述区域图像的各个像素点在所述YUV和HSV色彩空间中各通道对应的通道图像数据;
S104、建立预设的卷积神经网络;
S105、将所述的RGB、RGB转换后的YUV和RGB转换后的HSV色彩空间的共九个通道图像数据,输入所述卷积神经网络进行训练,生成识别模型。
本发明中所称的图像则是指由输入设备捕捉的实际场景画面或以数字化形式存储的任意画面,也包括静态的图片。
本实施例中,步骤S104与上述S101-S103可同时执行,也可以先执行,执行顺序不分先后。获取的是比如监控场景下的行人图片;本发明实施例提供的行人衣着颜色识别模型的生成方法,结合多色彩空间,基于深度学习算法,生成识别模型,可通过该识别模型,将监控视频中的行人衣着信息特征提取出来,能够更加有效的提高行人衣着颜色识别准确率,可直接应用到各类监控系统中,对于监控人员查找事件关键人物,还原事件具有重要意义。
在一个实施例中,可以采用R-CNN、FAST-RCNN或FASTER-RCNN进行行人检测,确定行人位置信息;比如可以是预先提取一系列较可能是行人的候选区域,之后仅在这些候选区域上提取特征,进行判断。
以FASTER-RCNN为例,将监控获取到的行人图片输入至FASTER-RCNN网络进行训练输出行人检测模型,把训练得到的模型用于监控中行人的检测与识别,可高效的检测并提取行人信息。
其中FASTER–RCNN检测的过程如下:
(1)输入测试图像;
(2)将整张图片输入卷积神经网络(Convolutional Neural Network,CNN),进行特征提取;
(3)用区域建议网络(Region Proposal Network,RPN)生成建议窗口(proposals),每张图片生成300个建议窗口;
(4)把建议窗口映射到CNN的最后一层卷积feature map上;
(5)通过RoI pooling层使每个RoI生成固定尺寸的feature map;
(6)利用Softmax Loss(探测分类概率)和Smooth L1Loss(探测边框回归)对分类概率和边框回归(Bounding box regression)联合训练。
进一步地,当得到行人检测信息后,对行人上半身和下半身形状进行分割,并得到相应的上半身和下半身图像,根据预定的方法确定出行人的衣服和裤子区域。在实际应用中,行人的衣服和裤子并非单纯的某一种颜色,而是呈现多种颜色的混合,例如衣服上有各种图案,或者条纹的裤子,因此,有必要对上述得到的行人上半身、下半身区域的服饰颜色进行上衣和裤子的预期分割,此处参照图2,例如,以不同的比例截取行人上半身和下半身信息得到行人上衣和裤子区域。可以是将行人上半身的五分之二处选取为行人上衣区域,将行人下半身的五分之二处选取为行人裤子的区域。
参照图2所示,根据上述检测出的行人位置信息,可以得到行人区域图像的高度值以及宽度值;按照预设比例,比如可根据行人的高度值,从脚底往上,60%区域可为下半身,接着往上30%区域可为上半身,再比如上半身区域高度的五分之二处可作为行人上衣区域的高度值;下半身区域高度的五分之二处可作为行人裤子区域的高度值;
根据行人的宽度值,再比如从行人区域图像左侧到右侧,宽度值的30%,可作为行人上衣区域的宽度值和裤子区域的宽度值;
可根据上述的分割比例,确定上半身和下半身区域的高度值和宽度值,从而实现确定行人上衣和裤子的区域图像;在此区域内的颜色,相对来说是可以确定为上衣和裤子的颜色;
进一步地,上述步骤S103中,将区域图像的GRB转换为YUV和HSV色彩空间,获取区域图像的各个像素点在该色彩空间各通道对应的通道值,其中:
RGB色彩空间转至YUV色彩空间的计算公式如下:
Y=0.30R+0.59G+0.11B
U=0.493(B-Y)
V=0.877(R-Y) (1)
RGB色彩空间转至HSV色彩空间的计算公式如下:
M=max(R,G,B)
m=max(R,G,B)
H=60°*H′
V=M (2)。
将上述区域图像的RGB、YUV、HSV色彩空间共九个通道进行融合形成新的区域图像数据;作为颜色特征计算的输入。
建立特定的卷积神经网络结构,将上述的RGB、YUV、HSV色彩空间共九个通道进行融合形成新的区域图像数据输入至网络中训练,得到颜色识别模型。对于卷积神经网络的训练,可采用如下方法:例如获取红、黄、蓝、绿、青、紫、棕、白、黑等9种颜色,参照图3所示的算法,采用五个卷积层(convolutional layer)、三个池化层(pooling layer)和三个全连接层(fullyconnected layer)的网络结构对训练样本集进行深度网络训练,得到识别行人上衣和裤子颜色的识别模型。利用该识别模型,将待识别的行人图像的九通道图像数据输入后,可得到行人上衣和裤子颜色。
使用该模型识别待测行人图像中衣着颜色的过程如下:
确定待测行人图像中行人位置信息以及行人上衣和裤子的区域图像;
将区域图像的RGB转换为YUV和HSV色彩空间,获得区域图像的各个像素点在YUV和HSV色彩空间中各通道对应的通道图像数据;
将的RGB、RGB转换后的YUV和RGB转换后的HSV色彩空间的共九个通道图像数据,输入至本发明实施例提供的生成方法所生成的识别模型后,得到行人上衣和裤子颜色。
基于同一发明构思,本发明实施例还提供了行人衣着颜色识别模型的生成装置,由于该装置所解决问题的原理与前述行人衣着颜色识别模型的生成方法相似,因此该装置的实施可以参见前述方法的实施,重复之处不再赘述。
本发明实施例还提供了一种行人衣着颜色识别模型的生成装置,参照图4所示,包括:
获取模块41,用于获取行人图像;
检测模块42,用于将获取模块获取的行人图像,进行行人检测;
确定模块43,用于根据所述检测模块对行人进行检测,确定行人位置信息以及确定所述行人上衣和裤子的区域图像;
转换模块44,用于将所述确定模块确定的区域图像的GRB转换为YUV和HSV色彩空间,获得所述区域图像的各个像素点在所述YUV和HSV色彩空间中各通道对应的通道图像数据;
建立模块45,用于建立预设的卷积神经网络;
生成模块46,用于将所述的RGB、RGB转换后的YUV和RGB转换后的HSV色彩空间共九个通道图像数据,输入所述建立模块建立的卷积神经网络进行训练,生成识别模型。
在一个实施例中,所述检测模块42采用以下任一种方式进行行人检测:
R-CNN、FAST-RCNN或FASTER-RCNN。
在一个实施例中,所述确定模块43,具体用于根据所述行人位置信息,得到行人区域图像的高度值以及宽度值;根据所述行人区域图像的高度值和宽度值按照预设比例,确定所述行人上衣和裤子的区域图像。
在一个实施例中,所述转换模块44,包括:第一转换子模块441和第二转换子模块442;
所述第一转换子模块441,用于RGB色彩空间通过计算公式(1)转至YUV色彩空间;计算公式(1):
Y=0.30R+0.59G+0.11B
U=0.493(B-Y)
V=0.877(R-Y) (1);
所述第二转换子模块442,用于RGB色彩空间通过计算公式(2)转至HSV色彩空间;计算公式(2):
M=max(R,G,B)
m=max(R,G,B)
H=60°*H′
V=M (2)。
在一个实施例中,所述建立模块45中的预设的卷积神经网络的结构,采用五个卷积层、三个池化层和三个全连接层。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (10)
1.一种行人衣着颜色识别模型的生成方法,其特征在于,包括:
获取行人图像,进行行人检测,确定行人位置信息;
根据所述行人位置信息,确定所述行人上衣和裤子的区域图像;
将所述区域图像的GRB转换为YUV和HSV色彩空间,获得所述区域图像的各个像素点在所述YUV和HSV色彩空间中各通道对应的通道图像数据;
建立预设的卷积神经网络;
将所述的RGB、RGB转换后的YUV和RGB转换后的HSV色彩空间的共九个通道图像数据,输入所述卷积神经网络进行训练,生成识别模型。
2.如权利要求1所述的行人衣着颜色识别模型的生成方法,其特征在于,进行行人检测,包括:
采用以下任一种方式进行行人检测:
R-CNN、FAST-RCNN或FASTER-RCNN。
3.如权利要求1所述的行人衣着颜色识别模型的生成方法,其特征在于,根据所述行人位置信息,确定所述行人上衣和裤子的区域图像;包括:
根据所述行人位置信息,得到行人区域图像的高度值以及宽度值;
根据所述行人区域图像的高度值和宽度值按照预设比例,确定所述行人上衣和裤子的区域图像。
4.如权利要求1所述的行人衣着颜色识别模型的生成方法,其特征在于,将所述区域图像的GRB转换为YUV和HSV色彩空间,包括:
RGB色彩空间转至YUV色彩空间的计算公式(1):
Y=0.30R+0.59G+0.11B
U=0.493(B-Y)
V=0.877(R-Y) (1);
RGB色彩空间转至HSV色彩空间的计算公式(2):
M=max(R,G,B)
m=max(R,G,B)
H=60°*H′
V=M (2)。
5.如权利要求1-4任一项所述的行人衣着颜色识别模型的生成方法,其特征在于,所述预设的卷积神经网络的结构,采用五个卷积层、三个池化层和三个全连接层。
6.一种行人衣着颜色识别模型的生成装置,其特征在于,包括:
获取模块,用于获取行人图像;
检测模块,用于将获取模块获取的行人图像,进行行人检测;
确定模块,用于根据所述检测模块对行人进行检测,确定行人位置信息以及确定所述行人上衣和裤子的区域图像;
转换模块,用于将所述确定模块确定的区域图像的GRB转换为YUV和HSV色彩空间,获得所述区域图像的各个像素点在所述YUV和HSV色彩空间中各通道对应的通道图像数据;
建立模块,用于建立预设的卷积神经网络;
生成模块,用于将所述的RGB、RGB转换后的YUV和RGB转换后的HSV色彩空间的共九个通道图像数据,输入所述建立模块建立的卷积神经网络进行训练,生成识别模型。
7.如权利要求6所述的行人衣着颜色识别模型的生成装置,其特征在于,所述检测模块采用以下任一种方式进行行人检测:
R-CNN、FAST-RCNN或FASTER-RCNN。
8.如权利要求6所述的行人衣着颜色识别模型的生成装置,其特征在于,所述确定模块,具体用于根据所述行人位置信息,得到行人区域图像的高度值以及宽度值;根据所述行人区域图像的高度值和宽度值按照预设比例,确定所述行人上衣和裤子的区域图像。
9.如权利要求6所述的行人衣着颜色识别模型的生成装置,其特征在于,所述转换模块,包括:第一转换子模块和第二转换子模块;
所述第一转换子模块,用于RGB色彩空间通过计算公式(1)转至YUV色彩空间;计算公式(1):
Y=0.30R+0.59G+0.11B
U=0.493(B-Y)
V=0.877(R-Y) (1);
所述第二转换子模块,用于RGB色彩空间通过计算公式(2)转至HSV色彩空间;计算公式(2):
M=max(R,G,B)
m=max(R,G,B)
H=60°*H′
V=M (2)。
10.如权利要求6-9任一项所述的行人衣着颜色识别模型的生成装置,其特征在于,所述建立模块中的预设的卷积神经网络的结构,采用五个卷积层、三个池化层和三个全连接层。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810457600.9A CN110298893A (zh) | 2018-05-14 | 2018-05-14 | 一种行人衣着颜色识别模型的生成方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810457600.9A CN110298893A (zh) | 2018-05-14 | 2018-05-14 | 一种行人衣着颜色识别模型的生成方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110298893A true CN110298893A (zh) | 2019-10-01 |
Family
ID=68026311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810457600.9A Pending CN110298893A (zh) | 2018-05-14 | 2018-05-14 | 一种行人衣着颜色识别模型的生成方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110298893A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110781904A (zh) * | 2019-10-22 | 2020-02-11 | 四川大学 | 车辆颜色识别方法、装置、计算机设备和可读存储介质 |
CN111898448A (zh) * | 2020-06-30 | 2020-11-06 | 北京大学 | 一种基于深度学习的行人属性识别方法和系统 |
CN112001251A (zh) * | 2020-07-22 | 2020-11-27 | 山东大学 | 基于人体解析与衣着颜色相结合的行人重识别方法及系统 |
CN112489143A (zh) * | 2020-11-30 | 2021-03-12 | 济南博观智能科技有限公司 | 一种颜色识别方法、装置、设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090042135A (ko) * | 2007-10-24 | 2009-04-29 | 아주대학교산학협력단 | 조명변화 환경하에서 촬영된 다중 영상에서 의상 색상유사성 판별 방법 및 공동현관 안전시스템 |
CN103034852A (zh) * | 2012-12-28 | 2013-04-10 | 上海交通大学 | 静止摄像机场景下特定颜色行人的检测方法 |
CN104732220A (zh) * | 2015-04-03 | 2015-06-24 | 中国人民解放军国防科学技术大学 | 一种面向监控视频的特定颜色人体检测方法 |
CN105046280A (zh) * | 2015-08-10 | 2015-11-11 | 北京小豹科技有限公司 | 一种衣柜智能管理装置及方法 |
CN105069466A (zh) * | 2015-07-24 | 2015-11-18 | 成都市高博汇科信息科技有限公司 | 基于数字图像处理的行人服饰颜色识别方法 |
CN107330360A (zh) * | 2017-05-23 | 2017-11-07 | 深圳市深网视界科技有限公司 | 一种行人衣着颜色识别、行人检索方法和装置 |
CN107909580A (zh) * | 2017-11-01 | 2018-04-13 | 深圳市深网视界科技有限公司 | 一种行人衣着颜色识别方法、电子设备及存储介质 |
-
2018
- 2018-05-14 CN CN201810457600.9A patent/CN110298893A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20090042135A (ko) * | 2007-10-24 | 2009-04-29 | 아주대학교산학협력단 | 조명변화 환경하에서 촬영된 다중 영상에서 의상 색상유사성 판별 방법 및 공동현관 안전시스템 |
CN103034852A (zh) * | 2012-12-28 | 2013-04-10 | 上海交通大学 | 静止摄像机场景下特定颜色行人的检测方法 |
CN104732220A (zh) * | 2015-04-03 | 2015-06-24 | 中国人民解放军国防科学技术大学 | 一种面向监控视频的特定颜色人体检测方法 |
CN105069466A (zh) * | 2015-07-24 | 2015-11-18 | 成都市高博汇科信息科技有限公司 | 基于数字图像处理的行人服饰颜色识别方法 |
CN105046280A (zh) * | 2015-08-10 | 2015-11-11 | 北京小豹科技有限公司 | 一种衣柜智能管理装置及方法 |
CN107330360A (zh) * | 2017-05-23 | 2017-11-07 | 深圳市深网视界科技有限公司 | 一种行人衣着颜色识别、行人检索方法和装置 |
CN107909580A (zh) * | 2017-11-01 | 2018-04-13 | 深圳市深网视界科技有限公司 | 一种行人衣着颜色识别方法、电子设备及存储介质 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110781904A (zh) * | 2019-10-22 | 2020-02-11 | 四川大学 | 车辆颜色识别方法、装置、计算机设备和可读存储介质 |
CN110781904B (zh) * | 2019-10-22 | 2022-08-02 | 四川大学 | 车辆颜色识别方法、装置、计算机设备和可读存储介质 |
CN111898448A (zh) * | 2020-06-30 | 2020-11-06 | 北京大学 | 一种基于深度学习的行人属性识别方法和系统 |
CN111898448B (zh) * | 2020-06-30 | 2023-10-24 | 北京大学 | 一种基于深度学习的行人属性识别方法和系统 |
CN112001251A (zh) * | 2020-07-22 | 2020-11-27 | 山东大学 | 基于人体解析与衣着颜色相结合的行人重识别方法及系统 |
CN112489143A (zh) * | 2020-11-30 | 2021-03-12 | 济南博观智能科技有限公司 | 一种颜色识别方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103824059B (zh) | 一种基于视频图像序列的人脸表情识别方法 | |
CN104966085B (zh) | 一种基于多显著特征融合的遥感图像感兴趣区域检测方法 | |
CN103186904B (zh) | 图片轮廓提取方法及装置 | |
CN110298893A (zh) | 一种行人衣着颜色识别模型的生成方法及装置 | |
CN105005766B (zh) | 一种车身颜色识别方法 | |
CN106446872A (zh) | 一种低照度下的视频人脸检测识别方法 | |
CN106384117B (zh) | 一种车辆颜色识别方法及装置 | |
CN103714181B (zh) | 一种层级化的特定人物检索方法 | |
CN108229458A (zh) | 一种基于运动检测和多特征提取的火焰智能识别方法 | |
CN103248906B (zh) | 一种双目立体视频序列的深度图获取方法与系统 | |
CN102622584B (zh) | 视频监控中蒙面人脸的检测方法 | |
CN103914699A (zh) | 一种基于色彩空间的自动唇彩的图像增强的方法 | |
CN105678813A (zh) | 一种肤色检测方法及装置 | |
CN109740572A (zh) | 一种基于局部彩色纹理特征的人脸活体检测方法 | |
CN103035013A (zh) | 一种基于多特征融合的精确运动阴影检测方法 | |
CN110728302A (zh) | 一种基于HSV和Lab颜色空间的色纺织物组织识别的方法 | |
CN104143077B (zh) | 基于图像的行人目标检索方法和系统 | |
CN106937120A (zh) | 基于对象的监控视频浓缩方法 | |
CN103544703A (zh) | 数字图像拼接检测方法 | |
CN106855944A (zh) | 行人标志物识别方法及装置 | |
CN106599880A (zh) | 一种面向无人监考的同人判别方法 | |
CN107886110A (zh) | 人脸检测方法、装置及电子设备 | |
CN113065568A (zh) | 目标检测、属性识别与跟踪方法及系统 | |
CN109101925A (zh) | 活体检测方法 | |
CN101996317A (zh) | 人体中标记物的识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191001 |
|
RJ01 | Rejection of invention patent application after publication |