CN106204223B - 图像处理方法及系统 - Google Patents
图像处理方法及系统 Download PDFInfo
- Publication number
- CN106204223B CN106204223B CN201610549474.0A CN201610549474A CN106204223B CN 106204223 B CN106204223 B CN 106204223B CN 201610549474 A CN201610549474 A CN 201610549474A CN 106204223 B CN106204223 B CN 106204223B
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- munderover
- sigma
- mtr
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0621—Item configuration or customization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Accounting & Taxation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Finance (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Probability & Statistics with Applications (AREA)
- Other Investigation Or Analysis Of Materials By Electrical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种图像处理方法及系统,以在线给出用户的着装建议。该系统包括:客户端,用于获取用户的着装建议请求,根据着装建议请求建立与远程服务器的连接,并打开摄像头采集用户的全身图像,将着装建议请求连同所采集图像发送给远程服务器,以及将远程服务器反馈的着装建议结果显示输出;服务器端,用于建立与客户端的远程连接,获取客户端的着装建议请求和采集图像,提取采集图像的全身轮廓特征、面部轮廓特征及服饰颜色分布特征,通过K‑means统计向量方法获取与该全身轮廓特征、面部轮廓特征及服饰颜色分布特征对应的指导模型,以及根据该指导模型向客户端返回着装建议结果。
Description
技术领域
本发明涉及通信技术领域,尤其涉及一种图像处理方法及系统。
背景技术
移动领域硬件技术的高速发展赋予了智能移动终端更广阔的应用前景,智能移动终端成为个人连接网络和企业提供服务的重要平台。例如:Android系统作为当前市场占有率最高的智能移动操作系统,其开放性、丰富的硬件特性、免费的服务和快速的更新迭代使得可移动设备的性能日益增强,与计算机的差距日益缩小,应用也日益丰富,功能多样。
传统的服装搭配检测方式一般由求职者本人或者周围人根据书籍、网络或经验进行判断,其存在主观性、随意性、局限性等不足。
随着计算机数字图像处理技术以及人工智能技术的不断发展,人们可以尝试利用计算机代替人来对求职者的服装搭配进行评判。
发明内容
本发明目的在于公开一种图像处理方法及系统,以在线给出用户的着装建议。
为实现上述目的,本发明公开了一种图像处理方法,执行于客户端的步骤包括:
获取用户的着装建议请求;
根据所述着装建议请求建立与远程服务器的连接,并打开摄像头采集用户的全身图像;
将所述着装建议请求连同所采集图像发送给所述远程服务器;以及
将所述远程服务器反馈的着装建议结果显示输出。
与之对应的,执行于服务器端的图像处理方法包括:
建立与客户端的远程连接;
获取所述客户端的着装建议请求和采集图像;
提取所述采集图像的全身轮廓特征、面部轮廓特征及服饰颜色分布特征;
通过K-means统计向量方法获取与该全身轮廓特征、面部轮廓特征及服饰颜色分布特征对应的指导模型;
根据该指导模型向所述客户端返回着装建议结果;
其中,所述提取所述采集图像的全身轮廓特征、面部轮廓特征及服饰颜色分布特征之前还包括:采用如下递推算法将所采集图像中的用户图像与背景分离:
设图像f(x,y)尺寸为M×N,定义以(x,y)为中心的像素点邻域平均灰度为:
其中,k为像素邻域的大小;
记像素灰度值为i且邻域平均灰度值为j的像素点个数为fij,则相应的概率密度为pij为:
pij=fij/(M×N);i,j=0,1,…,255
以i,j为之变量,Pij为变量,形成二维直方图,假设二值灰度直方图被分割阈值(s,t)分为四部分,对角线经过区域分别对应背景和目标,远离对角线的区域对应缘边(或称为“边缘”)和噪声,则背景和目标出现的概率可以定义为:
在二维OTSU算法中假设w0+w1≈1,目标和背景的均值矢量定义为:
总体均值μ2定义为:
目标和背景的类间离散测度矩阵定义为:
采用矩阵σB的迹tr(σB)作为目标和背景的类间距离测度函数:
μ2s为μ2在s方向的分解量,显然测度函数的大小只与w0(s,t),μ0(s,t)和μ1(s,t)这三个量有关,二维OTSU算法的分割阈值(s0,t0)取在矩阵的迹为最大时。
为实现上述目的,本发明公开了一种图像处理系统,包括:
客户端,用于获取用户的着装建议请求,根据所述着装建议请求建立与远程服务器的连接,并打开摄像头采集用户的全身图像,将所述着装建议请求连同所采集图像发送给所述远程服务器,以及将所述远程服务器反馈的着装建议结果显示输出;
服务器端,用于建立与客户端的远程连接,获取所述客户端的着装建议请求和采集图像,提取所述采集图像的全身轮廓特征、面部轮廓特征及服饰颜色分布特征,通过K-means统计向量方法获取与该全身轮廓特征、面部轮廓特征及服饰颜色分布特征对应的指导模型,以及根据该指导模型向所述客户端返回着装建议结果。
本发明具有以下有益效果:
采用B/S网络架构来实现在线测试,极大提高了监测的便捷性;交互简单,可扩充性好。而且通过K-means统计向量方法获取与该全身轮廓特征、面部轮廓特征及服饰颜色分布特征对应的指导模型,处理和识别速度快,准确率高。
下面将参照附图,对本发明作进一步详细的说明。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是本发明优选实施例公开的图像处理方法执行于客户端的流程图;
图2是本发明优选实施例公开的图像处理方法执行于服务器端的流程图。
具体实施方式
以下结合附图对本发明的实施例进行详细说明,但是本发明可以由权利要求限定和覆盖的多种不同方式实施。
本发明实施例首先公开一种图像处理方法,该方法可运行于基于Android平台或IOS等平台的手机客户端上,其具体表现形式包括但不限于基于相应平台所开发及加载的应用APP及其配套硬件的组合,该手机客户端与远程的服务器端可通过socket通信。如图1所示,该方法执行于手机客户端的流程包括:
步骤S1、获取用户的着装建议请求。该着装建议请求可通过点击相应APP中的触控按键或菜单发出。
步骤S2、根据所述着装建议请求建立与远程服务器的连接,并打开摄像头采集用户的全身图像。
步骤S3、将所述着装建议请求连同所采集图像发送给所述远程服务器。例如,可通过TCP/IP协议将相关信息传输给服务器端。
步骤S4、将所述远程服务器反馈的着装建议结果显示输出。
与上述客户端所执行步骤相对应的,服务器端图像处理如图2所示,包括:
步骤S5、建立与客户端的远程连接。
步骤S6、获取客户端的着装建议请求和采集图像。
步骤S7、提取采集图像的全身轮廓特征、面部轮廓特征及服饰颜色分布特征。其中,轮廓提取是将轮廓图像作为掩膜和原图像按位做逻辑与操作,得到去除背景的图像;或者是采用Canny算法对用户的灰度图像进行检测,提取轮廓信息,具体方法可为:先用高斯滤波器抑制图像中的噪声,分别用水平方向,垂直方向,45°方向和135°一阶偏导有限差分计算图像梯度幅值和方向,然后对累加的梯度幅值进行非极大值抑制,最后用高阈值检测边缘,低阈值连接边缘。
可选的,该步骤所提取的全身轮廓特征包括但不限于灰度图像中的角点特征、边缘特征以及阈值特征等其中的任意一种或任意组合;该面部轮廓特征包括但不限于肤色特征、脸型特征、发型特征等其中的任意一种或任意组合;该服饰颜色分布特征包括但不限于:在HSV空间中,分别提取上半身的主色调特征、上半身的次色调特征、下半身的主色调特征和下半身的次色调特征等其中的任意一种或任意组合。
可选的,在该步骤之前还包括:对采集图像进行灰度变换、颜色空间转换、中值滤波、背景分离等预处理中的任意一种或任意组合。
其中,灰度变换为根据各像素的R、G、B颜色分量计算各像素的灰度值,可选的,灰度值的计算公式可采用如下公式:
Gray=R*0.299+G*0.587+B*0.114。遍历同一张测试图像的每一个像素点,都进行上述操作,可以获得整幅图像的灰度变换图像。
上述预处理中,颜色空间转换是将RGB彩色图像转换为HSV色彩空间图像;中值滤波(将图像中的每个像素点灰度值用其邻域范围内的灰度值中间值代替,同时保留边缘信息)是使用非线性的双边滤波方法对图像进行降噪及平滑处理;背景分离是将所采集图像中的用户图像与背景分离,以消除噪音,得到更精确的用户特征,以便后续进行特征提取。
本实施例中,背景分离可采用二维快速OTSU阈值算法进行背景分离,其在灰度直方图上选取阈值进行分割,阈值分割的性能取决于阈值的选取。
设图像f(x,y)尺寸为M×N,定义以(x,y)为中心的像素点邻域平均灰度为:
其中k为像素邻域的大小,[k/2]表示对k/2取整;
记像素灰度值为i且邻域平均灰度值为j的像素点个数为fij,则相应的概率密度为pij为:
pij=fij/(M×N);i,j=0,1,…,255
以i,j为自变量,Pij为因变量,形成二维直方图,假设二值灰度直方图被分割阈值(s,t)(即像素灰度值为s,其邻域灰度平均值为t的点)分为四部分,对角线经过区域分别对应背景和目标,远离对角线的区域对应边缘和噪声,则背景和目标出现的概率w0(s,t)和w1(s,t)分别可以定义为:
在二维OTSU算法中假设w0+w1≈1,目标和背景的均值矢量(即在二维直方图中目标和背景的期望坐标)分别定义为:
总体均值μ2定义为:
由概率论中的期望概念可知:
μ2≈w0μ0+w1μ1
由概率论中的方差概念,将目标和背景的类间离散测度矩阵定义为:
σB=w0[(μ0-μ2)(μ0-μ2)T]+w1[(μ1-μ2)(μ1-μ2)T]
采用矩阵σB的迹tr(σB)作为目标和背景的类间距离测度函数:
μ2s为μ2在s方向的分解量,显然测度函数的大小只与w0(s,t),μ0(s,t)和μ1(s,t)这三个量有关,二维OTSU算法的分割阈值(s0,t0)取在矩阵σB的迹为最大时。
在计算矩阵的迹tr(σB)时,对任意阈值(s,t)均要从(0,0)依次累加到(s,t),使得计算复杂度极大提高,而采用下列递推公式可以有效的降低计算复杂度:
μi(s,t)=μi(s,t-1)+μi(s-1,t)-μi(s-1,t-1)+s·pst
μj(s,t)=μj(s,t-1)+μj(s-1,t)-μj(s-1,t-1)+s·pst
其中w0(s,t),μ0(s,t),μ1(s,t)的初值为:
步骤S8、通过K-means统计向量方法获取与该全身轮廓特征、面部轮廓特征及服饰颜色分布特征对应的指导模型。
可选的,该步骤在通过K-means统计向量方法获取与该全身轮廓特征、面部轮廓特征及服饰颜色分布特征对应的指导模型之前,还包括:使用haar特征分类的方法训练样本集数据,得到分类指导模型。其中,通过K-means统计向量方法获取与该全身轮廓特征、面部轮廓特征及服饰颜色分布特征对应的指导模型具体包括:将采集图像的高维特征向量与分类指导模型中的标准向量依次取欧氏距离,通过欧式距离的远近确定与该全身轮廓特征、面部轮廓特征及服饰颜色分布特征对应的指导模型。
步骤S9、根据该指导模型向客户端返回着装建议结果。可选的,该着装建议结果包括但不限于:对经过预处理的图像通过特征向量提取和计算与指导模型标准特征的距离,得到用户的形体参数和当前服装搭配的评分,并将适合该用户的服装搭配信息反馈回求职者。
综上,本实施例公开的图像处理方法,采用B/S网络架构来实现在线测试,极大提高了监测的便捷性;交互简单,可扩充性好。而且通过K-means统计向量方法获取与该全身轮廓特征、面部轮廓特征及服饰颜色分布特征对应的指导模型,处理和识别速度快,准确率高。
本实施例中,上述图像处理方法可以用于形象测试,也可以与求职招聘系统进行关联,用于对形象要求比较高的如导游、公关、礼仪等岗位的求职招聘。
与上述方法实施例相对应的,下述实施例还公开一种用于执行上述方法的配套系统。
该系统包括客户端和服务器端,其中:
客户端,用于获取用户的着装建议请求,根据着装建议请求建立与远程服务器的连接,并打开摄像头采集用户的全身图像,将着装建议请求连同所采集图像发送给远程服务器,以及将远程服务器反馈的着装建议结果显示输出;
服务器端,用于建立与客户端的远程连接,获取客户端的着装建议请求和采集图像,提取采集图像的全身轮廓特征、面部轮廓特征及服饰颜色分布特征,通过K-means统计向量方法获取与该全身轮廓特征、面部轮廓特征及服饰颜色分布特征对应的指导模型,以及根据该指导模型向客户端返回着装建议结果。
本实施例公开的图像处理系统,采用B/S网络架构来实现在线测试,极大提高了监测的便捷性;交互简单,可扩充性好。而且通过K-means统计向量方法获取与该全身轮廓特征、面部轮廓特征及服饰颜色分布特征对应的指导模型,处理和识别速度快,准确率高。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种图像处理方法,执行于远程服务器端,其特征在于,包括:
建立与客户端的远程连接;
获取所述客户端的着装建议请求和采集图像;
提取所述采集图像的全身轮廓特征、面部轮廓特征及服饰颜色分布特征;
通过K-means统计向量方法获取与该全身轮廓特征、面部轮廓特征及服饰颜色分布特征对应的指导模型;
根据该指导模型向所述客户端返回着装建议结果;
其中,所述提取所述采集图像的全身轮廓特征、面部轮廓特征及服饰颜色分布特征之前还包括:采用如下递推算法将所采集图像中的用户图像与背景分离:
设图像f(x,y)尺寸为M×N,定义以(x,y)为中心的像素点邻域平均灰度为:
其中,k为像素邻域的大小;
记像素灰度值为i且邻域平均灰度值为j的像素点个数为fij,则相应的概率密度为pij为:
pij=fij/(M×N);i,j=0,1,…,255
以i,j为之变量,Pij为变量,形成二维直方图,假设二值灰度直方图被分割阈值(s,t)分为四部分,对角线经过区域分别对应背景和目标,远离对角线的区域对应缘边和噪声,则背景和目标出现的概率可以定义为:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<msub>
<mi>w</mi>
<mn>0</mn>
</msub>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
<mo>=</mo>
<msub>
<mi>P</mi>
<mi>r</mi>
</msub>
<mo>(</mo>
<msub>
<mi>c</mi>
<mn>0</mn>
</msub>
<mo>)</mo>
<mo>=</mo>
<mstyle>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>s</mi>
</munderover>
</mstyle>
<mstyle>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>t</mi>
</munderover>
</mstyle>
<msub>
<mi>p</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>w</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>P</mi>
<mi>r</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>c</mi>
<mn>1</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
<mn>255</mn>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
<mn>255</mn>
</munderover>
<msub>
<mi>p</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
在二维OTSU算法中假设w0+w1≈1,目标和背景的均值矢量定义为:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&mu;</mi>
<mn>0</mn>
</msub>
<mo>=</mo>
<msub>
<mi>&mu;</mi>
<mn>0</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>&mu;</mi>
<mrow>
<mn>0</mn>
<mi>s</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>&mu;</mi>
<mrow>
<mn>0</mn>
<mi>t</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<mo>=</mo>
<msup>
<mrow>
<mo>&lsqb;</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>s</mi>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>t</mi>
</munderover>
<msub>
<mi>ip</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>/</mo>
<msub>
<mi>w</mi>
<mn>0</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>s</mi>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>t</mi>
</munderover>
<msub>
<mi>jp</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>/</mo>
<msub>
<mi>w</mi>
<mn>0</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mo>&rsqb;</mo>
</mrow>
<mi>T</mi>
</msup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&mu;</mi>
<mn>1</mn>
</msub>
<mo>=</mo>
<msub>
<mi>&mu;</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>&mu;</mi>
<mrow>
<mn>1</mn>
<mi>s</mi>
</mrow>
</msub>
<mo>,</mo>
<msub>
<mi>&mu;</mi>
<mrow>
<mn>1</mn>
<mi>t</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<mo>=</mo>
<msup>
<mrow>
<mo>&lsqb;</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
<mn>255</mn>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
<mn>255</mn>
</munderover>
<msub>
<mi>ip</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>/</mo>
<msub>
<mi>w</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
<mn>255</mn>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
<mn>255</mn>
</munderover>
<msub>
<mi>jp</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>/</mo>
<msub>
<mi>w</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mo>&rsqb;</mo>
</mrow>
<mi>T</mi>
</msup>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
总体均值μ2定义为:
<mrow>
<msub>
<mi>&mu;</mi>
<mn>2</mn>
</msub>
<mo>=</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>&mu;</mi>
<mn>20</mn>
</msub>
<mo>,</mo>
<msub>
<mi>&mu;</mi>
<mn>21</mn>
</msub>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<mo>=</mo>
<msup>
<mrow>
<mo>&lsqb;</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mn>255</mn>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mn>255</mn>
</munderover>
<msub>
<mi>ip</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>,</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mn>255</mn>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mn>255</mn>
</munderover>
<msub>
<mi>jp</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>&rsqb;</mo>
</mrow>
<mi>T</mi>
</msup>
</mrow>
目标和背景的类间离散测度矩阵定义为:
<mrow>
<msub>
<mi>&sigma;</mi>
<mi>B</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>k</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mn>1</mn>
</munderover>
<msub>
<mi>p</mi>
<mi>r</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>c</mi>
<mi>k</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>&lsqb;</mo>
<mrow>
<mo>(</mo>
<msub>
<mi>&mu;</mi>
<mi>k</mi>
</msub>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>&mu;</mi>
<mi>k</mi>
</msub>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
<mi>T</mi>
</msup>
<mo>&rsqb;</mo>
</mrow>
采用矩阵σB的迹tr(σB)作为目标和背景的类间距离测度函数:
<mrow>
<mi>t</mi>
<mi>r</mi>
<mo>&lsqb;</mo>
<msub>
<mi>&sigma;</mi>
<mi>B</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
<mo>=</mo>
<mfrac>
<mrow>
<mo>&lsqb;</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>w</mi>
<mn>0</mn>
</msub>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
<msub>
<mi>&mu;</mi>
<mrow>
<mn>2</mn>
<mi>s</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<mn>0</mn>
</msub>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>w</mi>
<mn>0</mn>
</msub>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
<msub>
<mi>&mu;</mi>
<mrow>
<mn>2</mn>
<mi>s</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>&mu;</mi>
<mn>1</mn>
</msub>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>&rsqb;</mo>
</mrow>
<mrow>
<msub>
<mi>w</mi>
<mn>0</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>-</mo>
<msub>
<mi>w</mi>
<mn>0</mn>
</msub>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>)</mo>
</mrow>
</mfrac>
</mrow>
μ2s为μ2在s方向的分解量,显然测度函数的大小只与w0(s,t),μ0(s,t)和μ1(s,t)这三个量有关,二维OTSU算法的分割阈值(s0,t0)取在矩阵的迹为最大时。
2.根据权利要求1所述的图像处理方法,其特征在于,所述通过K-means统计向量方法获取与该全身轮廓特征、面部轮廓特征及服饰颜色分布特征对应的指导模型之前,还包括:
使用haar特征分类的方法训练样本集数据,得到分类指导模型;
所述通过K-means统计向量方法获取与该全身轮廓特征、面部轮廓特征及服饰颜色分布特征对应的指导模型包括:
将所述采集图像的高维特征向量与所述分类指导模型中的标准向量依次取欧氏距离,通过欧式距离的远近确定与该全身轮廓特征、面部轮廓特征及服饰颜色分布特征对应的指导模型。
3.根据权利要求1所述的图像处理方法,其特征在于,所述提取所述采集图像的全身轮廓特征、面部轮廓特征及服饰颜色分布特征之前还包括:
对所述采集图像进行以下预处理中的任意一种或任意组合:
颜色空间转换、灰度变换、中值滤波。
4.根据权利要求3所述的图像处理方法,其特征在于,所述灰度变换为根据各像素的R、G、B颜色分量计算各像素的灰度值;
所述颜色空间转换是将RGB彩色图像转换为HSV色彩空间图像;
所述中值滤波是使用非线性的双边滤波方法对图像进行降噪处理。
5.根据权利要求1所述的图像处理方法,其特征在于,采用下列递推公式以降低计算复杂度:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>w</mi>
<mn>0</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>s</mi>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>t</mi>
</munderover>
<msub>
<mi>p</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>s</mi>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</munderover>
<msub>
<mi>p</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>+</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>s</mi>
</munderover>
<msub>
<mi>p</mi>
<mrow>
<mi>i</mi>
<mi>t</mi>
</mrow>
</msub>
<mo>=</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>w</mi>
<mn>0</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>w</mi>
<mn>0</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>-</mo>
<mn>1</mn>
<mo>,</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msub>
<mi>w</mi>
<mn>0</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>-</mo>
<mn>1</mn>
<mo>,</mo>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>p</mi>
<mrow>
<mi>s</mi>
<mi>t</mi>
</mrow>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
μi(s,t)=μi(s,t-1)+μi(s-1,t)-
μi(s-1,t-1)+s·pst
μj(s,t)=μj(s,t-1)+μj(s-1,t)-
μj(s-1,t-1)+s·pst
其中,w0(s,t),μ0(s,t),μ1(s,t)的初值为:
<mrow>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<msub>
<mi>w</mi>
<mn>0</mn>
</msub>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mn>0</mn>
<mo>)</mo>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>s</mi>
</munderover>
<msub>
<mi>p</mi>
<mrow>
<mi>i</mi>
<mn>1</mn>
</mrow>
</msub>
<mo>=</mo>
<msub>
<mi>w</mi>
<mn>0</mn>
</msub>
<mo>(</mo>
<mi>s</mi>
<mo>-</mo>
<mn>1</mn>
<mo>,</mo>
<mn>1</mn>
<mo>)</mo>
<mo>+</mo>
<msub>
<mi>p</mi>
<mrow>
<mi>s</mi>
<mn>0</mn>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&mu;</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mn>0</mn>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>&mu;</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>-</mo>
<mn>1</mn>
<mo>,</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mi>s</mi>
<mo>&CenterDot;</mo>
<msub>
<mi>p</mi>
<mrow>
<mi>s</mi>
<mn>0</mn>
</mrow>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&mu;</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>,</mo>
<mn>0</mn>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>&mu;</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>s</mi>
<mo>-</mo>
<mn>1</mn>
<mo>,</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mo>+</mo>
<mi>s</mi>
<mo>&CenterDot;</mo>
<msub>
<mi>p</mi>
<mrow>
<mi>s</mi>
<mn>0</mn>
</mrow>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>w</mi>
<mn>0</mn>
</msub>
<mrow>
<mo>(</mo>
<mn>0</mn>
<mo>,</mo>
<mn>0</mn>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>p</mi>
<mn>00</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&mu;</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mn>0</mn>
<mo>,</mo>
<mn>0</mn>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mn>0</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>&mu;</mi>
<mi>j</mi>
</msub>
<mo>(</mo>
<mn>0</mn>
<mo>,</mo>
<mn>0</mn>
<mo>)</mo>
<mo>=</mo>
<mn>0</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>.</mo>
</mrow>
6.根据权利要求1所述的图像处理方法,其特征在于,所述轮廓提取是将轮廓图像作为掩膜和原图像按位做逻辑与操作,得到去除背景的图像;或者
所述轮廓提取是采用Canny算法对用户的灰度图像进行检测,提取轮廓信息。
7.根据权利要求1至6任一所述的图像处理方法,其特征在于,所述着装建议结果包括:
对经过预处理的图像通过特征向量提取和计算与所述指导模型标准特征的距离,得到用户的形体参数和当前服装搭配的评分,并将适合该用户的服装搭配信息反馈回求职者。
8.一种图像处理系统,其特征在于,包括:
客户端,用于获取用户的着装建议请求,根据所述着装建议请求建立与远程服务器的连接,并打开摄像头采集用户的全身图像,将所述着装建议请求连同所采集图像发送给所述远程服务器,以及将所述远程服务器反馈的着装建议结果显示输出;
执行如权利要求1至7任一所述方法的服务器端,用于建立与客户端的远程连接,获取所述客户端的着装建议请求和采集图像,提取所述采集图像的全身轮廓特征、面部轮廓特征及服饰颜色分布特征,通过K-means统计向量方法获取与该全身轮廓特征、面部轮廓特征及服饰颜色分布特征对应的指导模型,以及根据该指导模型向所述客户端返回着装建议结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610549474.0A CN106204223B (zh) | 2016-07-13 | 2016-07-13 | 图像处理方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610549474.0A CN106204223B (zh) | 2016-07-13 | 2016-07-13 | 图像处理方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106204223A CN106204223A (zh) | 2016-12-07 |
CN106204223B true CN106204223B (zh) | 2017-10-31 |
Family
ID=57477068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610549474.0A Active CN106204223B (zh) | 2016-07-13 | 2016-07-13 | 图像处理方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106204223B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106600702A (zh) * | 2016-11-23 | 2017-04-26 | 中南大学 | 基于虚拟现实技术的图像处理方法及设备 |
CN108960753A (zh) * | 2017-05-20 | 2018-12-07 | 镇江杜微人才咨询有限公司 | 一种带信息处理功能的面试系统 |
CN107633010B (zh) * | 2017-08-14 | 2020-06-19 | 中南大学 | 一种复杂造型grc板块图像的识别方法和系统 |
CN109461148A (zh) * | 2018-10-30 | 2019-03-12 | 兰州交通大学 | 基于二维Otsu的钢轨缺陷分割自适应快速算法 |
CN110264304B (zh) * | 2019-05-17 | 2022-01-11 | 北京大学深圳研究生院 | 鞋子的大规模定制方法及系统 |
CN110210476B (zh) * | 2019-05-24 | 2021-04-09 | 北大方正集团有限公司 | 字符部件聚类方法、装置、设备及计算机可读存储介质 |
CN110686649A (zh) * | 2019-09-20 | 2020-01-14 | 天津普达软件技术有限公司 | 一种基于机器视觉的危险废物库存量变化的检测方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101021926A (zh) * | 2006-02-13 | 2007-08-22 | 上海摩方信息科技有限公司 | 一种个性化形象设计平台及用其进行设计的方法 |
CN102426650A (zh) * | 2011-09-30 | 2012-04-25 | 宇龙计算机通信科技(深圳)有限公司 | 用于人物图像分析的方法和装置 |
WO2012071576A2 (en) * | 2010-11-24 | 2012-05-31 | Dhiraj Daway | System and method for providing wardrobe assistance |
JP2014203157A (ja) * | 2013-04-02 | 2014-10-27 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
CN105096335A (zh) * | 2015-09-17 | 2015-11-25 | 无锡天脉聚源传媒科技有限公司 | 一种传输评价信息的方法及装置 |
-
2016
- 2016-07-13 CN CN201610549474.0A patent/CN106204223B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101021926A (zh) * | 2006-02-13 | 2007-08-22 | 上海摩方信息科技有限公司 | 一种个性化形象设计平台及用其进行设计的方法 |
WO2012071576A2 (en) * | 2010-11-24 | 2012-05-31 | Dhiraj Daway | System and method for providing wardrobe assistance |
CN102426650A (zh) * | 2011-09-30 | 2012-04-25 | 宇龙计算机通信科技(深圳)有限公司 | 用于人物图像分析的方法和装置 |
JP2014203157A (ja) * | 2013-04-02 | 2014-10-27 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
CN105096335A (zh) * | 2015-09-17 | 2015-11-25 | 无锡天脉聚源传媒科技有限公司 | 一种传输评价信息的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN106204223A (zh) | 2016-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106204223B (zh) | 图像处理方法及系统 | |
CN105469113B (zh) | 一种二维视频流中的人体骨骼点追踪方法及系统 | |
CN106874894B (zh) | 一种基于区域全卷积神经网络的人体目标检测方法 | |
CN103942577B (zh) | 视频监控中基于自建立样本库及混合特征的身份识别方法 | |
CN112241731B (zh) | 一种姿态确定方法、装置、设备及存储介质 | |
CN104008370B (zh) | 一种视频人脸识别方法 | |
CN104268583B (zh) | 基于颜色区域特征的行人重识别方法及系统 | |
CN106570486A (zh) | 基于特征融合和贝叶斯分类的核相关滤波目标跟踪方法 | |
CN103116763A (zh) | 一种基于hsv 颜色空间统计特征的活体人脸检测方法 | |
CN109767454B (zh) | 基于时-空-频显著性的无人机航拍视频运动目标检测方法 | |
CN105320917B (zh) | 一种基于头肩轮廓及bp神经网络的行人检测及跟踪方法 | |
CN104200200B (zh) | 融合深度信息和灰度信息实现步态识别的系统及方法 | |
CN106156692A (zh) | 一种用于人脸边缘特征点定位的方法及装置 | |
CN107292907A (zh) | 一种对跟随目标进行定位的方法以及跟随设备 | |
CN107516316A (zh) | 一种在fcn中引入聚焦机制对静态人体图像进行分割的方法 | |
CN104794449B (zh) | 基于人体hog特征的步态能量图获取及身份识别方法 | |
CN110263768A (zh) | 一种基于深度残差网络的人脸识别方法 | |
Shen et al. | Adaptive pedestrian tracking via patch-based features and spatial–temporal similarity measurement | |
CN111507334A (zh) | 一种基于关键点的实例分割方法 | |
CN107610093A (zh) | 基于相似性特征融合的全参考型图像质量评价方法 | |
CN107506713A (zh) | 活体人脸检测方法及存储设备 | |
CN106600702A (zh) | 基于虚拟现实技术的图像处理方法及设备 | |
CN110222647A (zh) | 一种基于卷积神经网络的人脸活体检测方法 | |
Jin et al. | Human tracking in the complicated background by particle filter using color-histogram and hog | |
CN110188661A (zh) | 边界识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |