CN103064963A - 一种基于流行自适应核的无障碍图片展示方法 - Google Patents
一种基于流行自适应核的无障碍图片展示方法 Download PDFInfo
- Publication number
- CN103064963A CN103064963A CN2012105917249A CN201210591724A CN103064963A CN 103064963 A CN103064963 A CN 103064963A CN 2012105917249 A CN2012105917249 A CN 2012105917249A CN 201210591724 A CN201210591724 A CN 201210591724A CN 103064963 A CN103064963 A CN 103064963A
- Authority
- CN
- China
- Prior art keywords
- pictures
- picture
- matrix
- adaptive kernel
- popular
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
基于流行自适应核的无障碍图片展示方法,从互联网获取图片后,针对图片进行如下操作:首先提取图片的视觉特征信息,如纹理、颜色和形状等,形成图片的向量化特征表示;然后基于该特征表示在高维的非线性空间构建流行自适应核,利用基于该自适应核的矩阵分解将图片映射成低维空间表示;最后对低维表示的图片进行聚类,同主题的图片分为一组,以分组的形式重新呈现图片。本方法的优点在于:可以帮助残疾人用户分主题浏览互联网上的图片,并快速显示同主题的图片集合,提高用户体验度。
Description
技术领域
本发明涉及无障碍图片展示方法的技术领域,特别是基于流行自适应核的无障碍图片展示方法。
背景技术
据中国残疾人联合会的最新公布数据统计,目前,我国的各类残疾人总量已达8500万,占人口总数的6.35%,并且这项数据仍呈逐年上升趋势。在科技日新月异的信息时代,大量的信息资源通过互联网呈现给残疾人群体,愈来愈多的残疾人成为新一代网民生力军,分享着网络上的各种数据资源。其中,能直观生动反映客观对象和活动的图片最容易吸引残疾人的注意力,并深受这个群体的欢迎。但是,许多残疾人由于各种缺陷导致无法正常浏览网页,如肢体残疾人、智力残疾人和精神残疾人等。这些残疾人面对大量的图片往往感到目不暇接却又力不从心,因此迫切需要提供一种无障碍的图片展示方法,切实减轻残疾人群体浏览图片的压力。
互联网上的图片琳琅满目,而残疾人往往仅对某些主题的图片感兴趣,这造成了图片数量大种类多与残疾人查找并浏览感兴趣主题的图片困难之间的矛盾。特别是,对于那些肢体残疾人或智力残疾人来说,在互联网上浏览图片的步骤更加繁琐耗时,并带来较重的身心负担。若能将网页中的图片按照主题明确地汇聚成小的集合,然后呈现给残疾人,有利于减轻图片浏览压力,提高图片浏览效率和体验度。
在计算机视觉和机器学习领域,主要基于图片的低层特征并在此基础上进行图片的聚类,形成各类主题的图片子集。在对图片进行特征提取并向量化表示后,利用机器学习中的k-means等聚类算法,可将图片按照不同的主题分成多个子集合进行展示。
发明内容
本发明要克服现有技术不能帮助残疾人用户能够方便快捷地锁定同一主题的图片、以提高图片浏览的体验度的不足,提出了一种基于流行自适应核的无障碍图片展示方法,该方法包括以下步骤:
1、从互联网获取图片后,针对图片进行以下操作:
1)提取图片的视觉特征信息,包括纹理、颜色和形状,形成图片的向量化特征表示;
2)基于图片的特征表示构建流行自适应核,利用基于该自适应核的矩阵分解将图片映射成低维空间的表示;
3)对低维表示的图片进行聚类,同主题的图片分为一组,以分组的形式重新呈现图片。
2、步骤1)中所述的提取图片的视觉特征信息:
1)对每张图片提取三种视觉特征信息,即纹理、颜色和形状,形成m维的向量化特征表示;
2)纹理信息包括灰度共生矩阵特征,颜色信息包括颜色直方图特征和颜色矩特征,形状信息包括边缘直方图特征和局部二值特征。
3、步骤2)中所述的构建流行自适应核:
1)流行自适应核是一种能在高维空间刻画数据局部结构的矩阵,该矩阵基于数据点之间的内积关系和图拉普拉斯矩阵而进行构建,能通过调节自适应参数改变数据局部结构的反映程度;
2)构建图拉普拉斯矩阵L,首先从互联网上获取n张图片,第i张图片的特征表示为xi,第j张图片的特征表示为xj,若xi与xj的欧式距离较近,即小于等于某个阈值,则这两张图片的关联权重为1,否则为0;将每张图片看成无向图上的顶点,两个顶点间的边被赋予相应的关联权重,则可以建立一张反映图片数据流行结构的无向图;图片对之间的关联权重组成大小为n×n的权重矩阵W,对W的每列元素依次累加并放置在对角矩阵D的对角线上,D中非对角线上的元素均置为0,则可通过L=D-W得到图拉普拉斯矩阵L;
3)在高维的非线性空间中,利用图片的特征表示构建流行自适应核,即KM=K-KT(I+λLK)-1LK,其中KM表示流行自适应核矩阵,K表示图片的线性内积核矩阵,K中的每个元素Kij为第i张图片与第j张图片的特征表示之间的内积,即Kij=<xi,xj>=xi Tχj,L为图拉普拉斯矩阵,I为单位矩阵,矩阵KM、K、L和I的大小均为n×n,(·)T为矩阵的转置,(·)-1为矩阵的逆,λ为一个非负的实数参数。
4、步骤3)中所述的基于流行自适应核的矩阵分解:
1)假设从互联网获得n张图片,这些图片涉及p个主题,每个主题的中心为m维的向量rk,第j张图片与第k个主题的关联系数为ujk,第j张图片的低维表示为vj,第j个低维表示与第k个主题的关联系数为vjk,则rk为所有图片与第k个主题的关联系数的累加和,即,而第j张图片可表示为所有主题中心的线性组合,即 ;
2)通过最小化每张图片的特征表示与的欧式距离,可将图片映射到低维空间,对所有的n张图片,用矩阵表示变量,即图片的特征表示为X,图片的低维表示为非负矩阵V,图片的关联矩阵为非负矩阵U,则通过最小化得到所有图片的低维表示,其中|·|F为矩阵的斐波拉契范数;
其中,Tr(·)为矩阵的迹,KM为流行自适应核矩阵;通过求解该目标函数得到的图片低维表示,能够保持原始图片数据的局部几何结构,使得相同主题的图片尽可能地距离接近。
本发明提出了基于流行自适应核的无障碍图片展示方法,其优点在于:对图片的特征表示进行聚类处理,以使相同或相近的图片以的分组方式呈现;适用于所有类型的图片,无需后台人工操作,可用于帮助残疾人实现无障碍图片浏览,也可用于帮助普通用户提高图片浏览效率。
附图说明
图1是本发明的方法流程图。
具体实施方式
参照附图,进一步说明本发明:
一种基于流行自适应核的无障碍图片展示方法,该方法包括以下步骤:
1、从互联网获取图片后,针对图片进行以下操作:
1)提取图片的视觉特征信息,包括纹理、颜色和形状,形成图片的向量化特征表示;
2)基于图片的特征表示构建流行自适应核,利用基于该自适应核的矩阵分解将图片映射成低维空间的表示;
3)对低维表示的图片进行聚类,同主题的图片分为一组,以分组的形式重新呈现图片。
2、步骤1)中所述的提取图片的视觉特征信息:
1)对每张图片提取三种视觉特征信息,即纹理、颜色和形状,形成m维的向量化特征表示;
2)纹理信息包括灰度共生矩阵特征,颜色信息包括颜色直方图特征和颜色矩特征,形状信息包括边缘直方图特征和局部二值特征。
3、步骤2)中所述的构建流行自适应核:
1)流行自适应核是一种能在高维空间刻画数据局部结构的矩阵,该矩阵基于数据点之间的内积关系和图拉普拉斯矩阵而进行构建,能通过调节自适应参数改变数据局部结构的反映程度;
2)构建图拉普拉斯矩阵L,首先从互联网上获取n张图片,第i张图片的特征表示为xi,第j张图片的特征表示为xj,若xi与xj的欧式距离较近,即小于等于某个阈值,则这两张图片的关联权重为1,否则为0;将每张图片看成无向图上的顶点,两个顶点间的边被赋予相应的关联权重,则可以建立一张反映图片数据流行结构的无向图;图片对之间的关联权重组成大小为n×n的权重矩阵W,对W的每列元素依次累加并放置在对角矩阵D的对角线上,D中非对角线上的元素均置为0,则可通过L=D-W得到图拉普拉斯矩阵L;
3)在高维的非线性空间中,利用图片的特征表示构建流行自适应核,即KM=K-KT(I+λLK)-1LK,其中KM表示流行自适应核矩阵,K表示图片的线性内积核矩阵,K中的每个元素Kij为第i张图片与第j张图片的特征表示之间的内积,即Kij=<xi,xj>=xi Tχj,L为图拉普拉斯矩阵,I为单位矩阵,矩阵KM、K、L和I的大小均为n×n,(·)T为矩阵的转置,(·)-1为矩阵的逆,λ为一个非负的实数参数。
4、步骤3)中所述的基于流行自适应核的矩阵分解:
1)假设从互联网获得n张图片,这些图片涉及p个主题,每个主题的中心为m维的向量rk,第j张图片与第k个主题的关联系数为ujk,第j张图片的低维表示为vj,第j个低维表示与第k个主题的关联系数为vjk,则rk为所有图片与第k个主题的关联系数的累加和,即,而第j张图片可表示为所有主题中心的线性组合,即 ;
2)通过最小化每张图片的特征表示与的欧式距离,可将图片映射到低维空间,对所有的n张图片,用矩阵表示变量,即图片的特征表示为X,图片的低维表示为非负矩阵V,图片的关联矩阵为非负矩阵U,则通过最小化得到所有图片的低维表示,其中|·|F为矩阵的斐波拉契范数;
其中,Tr(·)为矩阵的迹,KM为流行自适应核矩阵;通过求解该目标函数得到的图片低维表示,能够保持原始图片数据的局部几何结构,使得相同主题的图片尽可能地距离接近。
本说明书实施例所述的内容仅仅是对发明构思的实现形式的列举,本发明的保护范围的不应当被视为仅限于实施例所陈述的具体形式,本发明的保护范围也及于本领域技术人员根据本发明构思所能够想到的等同技术手段。
Claims (4)
1.一种基于流行自适应核的无障碍图片展示方法,该方法的特征在于从互联网获取图片后,针对图片进行以下操作:
1)提取图片的视觉特征信息,包括纹理、颜色和形状,形成图片的向量化特征表示;
2)基于图片的特征表示构建流行自适应核,利用基于该自适应核的矩阵分解将图片映射成低维空间的表示;
3)对低维表示的图片进行聚类,同主题的图片分为一组,以分组的形式重新呈现图片。
2.如权利要求1所述的基于流行自适应核的无障碍图片展示方法,其特征在于:所述的步骤1)中所述的提取图片的视觉特征信息:
1)对每张图片提取三种视觉特征信息,即纹理、颜色和形状,形成m维的向量化特征表示;
2)纹理信息包括灰度共生矩阵特征,颜色信息包括颜色直方图特征和颜色矩特征,形状信息包括边缘直方图特征和局部二值特征。
3.如权利要求1所述的基于流行自适应核的无障碍图片展示方法,其特征在于:所述的步骤2)中所述的构建流行自适应核:
1)流行自适应核是一种能在高维空间刻画数据局部结构的矩阵,该矩阵基于数据点之间的内积关系和图拉普拉斯矩阵而进行构建,能通过调节自适应参数改变数据局部结构的反映程度;
2)构建图拉普拉斯矩阵L,首先从互联网上获取n张图片,第i张图片的特征表示为xi,第j张图片的特征表示为xj,若xi与xj的欧式距离较近,即小于等于某个阈值,则这两张图片的关联权重为1,否则为0;将每张图片看成无向图上的顶点,两个顶点间的边被赋予相应的关联权重,则可以建立一张反映图片数据流行结构的无向图;图片对之间的关联权重组成大小为n×n的权重矩阵W,对W的每列元素依次累加并放置在对角矩阵D的对角线上,D中非对角线上的元素均置为0,则可通过L=D-W得到图拉普拉斯矩阵L;
3)在高维的非线性空间中,利用图片的特征表示构建流行自适应核,即KM=K-KT(I+λLK)-1LK,其中KM表示流行自适应核矩阵,K表示图片的线性内积核矩阵,K中的每个元素Kij为第i张图片与第j张图片的特征表示之间的内积,即Kij=<xi,xj>=xi Tχj,L为图拉普拉斯矩阵,I为单位矩阵,矩阵KM、K、L和I的大小均为n×n,(·)T为矩阵的转置,(·)-1为矩阵的逆,λ为一个非负的实数参数。
4.如权利要求1所述的基于流行自适应核的无障碍图片浏览方法,其特征在于:所述的步骤2)中的基于流行自适应核的矩阵分解:
1)假设从互联网获得n张图片,这些图片涉及p个主题,每个主题的中心为m维的向量rk,第j张图片与第k个主题的关联系数为ujk,第j张图片的低维表示为vj,第j个低维表示与第k个主题的关联系数为vjk,则rk为所有图片与第k个主题的关联系数的累加和,即,而第j张图片可表示为所有主题中心的线性组合,即 ;
2)通过最小化每张图片的特征表示与的欧式距离,可将图片映射到低维空间,对所有的n张图片,用矩阵表示变量,即图片的特征表示为X,图片的低维表示为非负矩阵V,图片的关联矩阵为非负矩阵U,则通过最小化得到所有图片的低维表示,其中|·|F为矩阵的斐波拉契范数;
其中,Tr(·)为矩阵的迹,KM为流行自适应核矩阵;通过求解该目标函数得到的图片低维表示,能够保持原始图片数据的局部几何结构,使得相同主题的图片尽可能地距离接近。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210591724.9A CN103064963B (zh) | 2012-12-30 | 2012-12-30 | 一种基于流行自适应核的无障碍图片展示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210591724.9A CN103064963B (zh) | 2012-12-30 | 2012-12-30 | 一种基于流行自适应核的无障碍图片展示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103064963A true CN103064963A (zh) | 2013-04-24 |
CN103064963B CN103064963B (zh) | 2016-01-20 |
Family
ID=48107593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210591724.9A Active CN103064963B (zh) | 2012-12-30 | 2012-12-30 | 一种基于流行自适应核的无障碍图片展示方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103064963B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105138962A (zh) * | 2015-07-28 | 2015-12-09 | 小米科技有限责任公司 | 图像显示方法及装置 |
CN108647726A (zh) * | 2018-05-11 | 2018-10-12 | 南京理工大学 | 一种图像聚类方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101477633B (zh) * | 2009-01-21 | 2010-08-25 | 北京大学 | 自动估计图像和视频的视觉显著度的方法 |
CN102521227A (zh) * | 2011-10-18 | 2012-06-27 | 中国科学院自动化研究所 | 基于用户信息建模的图像标注增强方法 |
-
2012
- 2012-12-30 CN CN201210591724.9A patent/CN103064963B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101477633B (zh) * | 2009-01-21 | 2010-08-25 | 北京大学 | 自动估计图像和视频的视觉显著度的方法 |
CN102521227A (zh) * | 2011-10-18 | 2012-06-27 | 中国科学院自动化研究所 | 基于用户信息建模的图像标注增强方法 |
Non-Patent Citations (5)
Title |
---|
卜德云: "《自适应谱聚类算法的研究与应用》", 《中国优秀硕士学位论文全文数据库(电子期刊)》 * |
涂腾涛等: "《基于非线性降维的人脸识别新算法》", 《计算机应用》 * |
罗四维等: "《基于谱图理论的流形学习算法》", 《计算机研究与发展》 * |
腾升华等: "《一种基于拉普拉斯方程的图像彩色化方法》", 《中国国象图形学报》 * |
陶剑文等: "《领域适应核支持向量机》", 《自动化学报》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105138962A (zh) * | 2015-07-28 | 2015-12-09 | 小米科技有限责任公司 | 图像显示方法及装置 |
WO2017016146A1 (zh) * | 2015-07-28 | 2017-02-02 | 小米科技有限责任公司 | 图像显示方法及装置 |
US10032076B2 (en) | 2015-07-28 | 2018-07-24 | Xiaomi Inc. | Method and device for displaying image |
CN108647726A (zh) * | 2018-05-11 | 2018-10-12 | 南京理工大学 | 一种图像聚类方法 |
CN108647726B (zh) * | 2018-05-11 | 2022-03-22 | 南京理工大学 | 一种图像聚类方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103064963B (zh) | 2016-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wu et al. | Multi-label boosting for image annotation by structural grouping sparsity | |
US8369616B2 (en) | Chromatic matching game | |
CN102215300B (zh) | 电信业务推荐方法和系统 | |
Sai et al. | Facial age range estimation with extreme learning machines | |
CN106776716B (zh) | 一种智能匹配销售顾问和用户的方法及设备 | |
Guo et al. | Assessment model for perceived visual complexity of painting images | |
US6792434B2 (en) | Content-based visualization and user-modeling for interactive browsing and retrieval in multimedia databases | |
CN105956570B (zh) | 基于唇部特征和深度学习的笑脸识别方法 | |
CN104090936A (zh) | 一种基于超图排序的新闻推荐方法 | |
CN103218617A (zh) | 一种多线性大间距的特征提取方法 | |
CN105844302A (zh) | 基于深度学习的自动计算商品潮流指数的方法 | |
Frederix et al. | Sparse spectral clustering method based on the incomplete Cholesky decomposition | |
CN115017320A (zh) | 结合词袋模型和深度学习模型的电商文本聚类方法及系统 | |
CN103064963B (zh) | 一种基于流行自适应核的无障碍图片展示方法 | |
CN108596646B (zh) | 一种融合人脸属性分析的服装搭配推荐方法 | |
CN107169505A (zh) | 一种基于核统计不相关的多视图的图像分类方法 | |
CN103345471B (zh) | 一种基于多流形关联矩阵分解的无障碍文本展现方法 | |
CN113157908B (zh) | 一种展示社交媒体热点子话题的文本可视化方法 | |
Li et al. | Classical learning or deep learning: a study on food photo aesthetic assessment | |
Al-Jarrah et al. | Improving gesture recognition in the Arabic sign language using texture analysis | |
CN112749711B (zh) | 视频获取方法和装置及存储介质 | |
Huang et al. | Global and local features for accurate impression estimation of cloth fabric images | |
CN107908999A (zh) | 一种结构特征层次化的疲劳表情识别方法 | |
CN107818319A (zh) | 一种自动判别人脸美丽程度的方法 | |
Kadar et al. | Scenenet: A perceptual ontology for scene understanding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |