CN107516113A - 一种基于图像生成模型的视觉搜索目标解码方法 - Google Patents
一种基于图像生成模型的视觉搜索目标解码方法 Download PDFInfo
- Publication number
- CN107516113A CN107516113A CN201710748222.5A CN201710748222A CN107516113A CN 107516113 A CN107516113 A CN 107516113A CN 201710748222 A CN201710748222 A CN 201710748222A CN 107516113 A CN107516113 A CN 107516113A
- Authority
- CN
- China
- Prior art keywords
- mrow
- search target
- stared
- posteriority
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Library & Information Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明中提出的一种基于图像生成模型的视觉搜索目标解码方法,其主要内容包括:语义凝视编码器、视觉搜索目标解码器和修剪策略,其过程为,先从凝视数据中重建搜索目标,再使用后验类作为注视编码,并对它们的生成模型进行调整,再将凝视数据集成到卷积神经网络中,以预测搜索目标的类别和属性;用凝视持续时间来计算凝视图像的后验加权平均值,用不同的修剪策略抑制语义表示中的弱激活,解决噪声问题。本发明不需要使用训练分类器来识别用户的搜索目标,通过图像生成模型,多次观察并进行聚合和提取信息,从而有效识别图像,准确获取图片,从而大大提高效率。
Description
技术领域
本发明涉及视觉搜索领域,尤其是涉及了一种基于图像生成模型的视觉搜索目标解码方法。
背景技术
随着移动设备的普及,搜索的过程逐渐从PC端转移到了移动设备中,这种从WEB到APP的搜索转变更加符合人们随时随地搜索的特性,人们也在努力思索如何让搜索更自然化,毫无疑问,更加自然的搜索模式将会取代传统的搜索。因此,除了声音搜索、文字搜索外,现在又出现了一种新的自然搜索模式——视觉搜索。视觉搜索就是从候选的图片库中找到那些与查询图片包含相同物体的图片,这可以应用在商品搜索、车辆搜索、图片素材搜索、书籍CD等的搜索和基于图像的地理位置识别等。如今越来越流行的移动商品图像搜索就是通过分析利用手机相机拍摄的商品照片,从商品库中找到相同或相似的商品,帮助用户买到更加心仪、价格更低的产品。然而,传统的识别方法需要使用训练分类器来识别用户的搜索目标,效率低,搜索结果准确度不高。
本发明提出了一种基于图像生成模型的视觉搜索目标解码方法,先从凝视数据中重建搜索目标,再使用后验类作为注视编码,并对它们的生成模型进行调整,再将凝视数据集成到卷积神经网络中,以预测搜索目标的类别和属性;用凝视持续时间来计算凝视图像的后验加权平均值,用不同的修剪策略抑制语义表示中的弱激活,解决噪声问题。本发明不需要使用训练分类器来识别用户的搜索目标,通过图像生成模型,多次观察并进行聚合和提取信息,从而有效识别图像,准确获取图片,从而大大提高效率。
发明内容
针对效率低、搜索结果准确度不高的问题,本发明的目的在于提供一种基于图像生成模型的视觉搜索目标解码方法,先从凝视数据中重建搜索目标,再使用后验类作为注视编码,并对它们的生成模型进行调整,再将凝视数据集成到卷积神经网络中,以预测搜索目标的类别和属性;用凝视持续时间来计算凝视图像的后验加权平均值,用不同的修剪策略抑制语义表示中的弱激活,解决噪声问题。
为解决上述问题,本发明提供一种基于图像生成模型的视觉搜索目标解码方法,其主要内容包括:
(一)语义凝视编码器;
(二)视觉搜索目标解码器;
(三)修剪策略。
其中,所述的视觉搜索目标解码,凝视编码用于将原始凝视数据编码为语义分类空间;生成图像模型根据编码的注视数据进行调节,以解码用户的可视搜索目标;
参与者在拼贴图像I中搜索目标类别在搜索任务期间,用户执行F(I,C,P)=(xi,yi,ti),i=1,…,N,其中每个注视是屏幕坐标的三分之一位置xi,yi,注视持续时间为ti;目标是从下式中对目标类别c的视觉搜索目标ST进行采样;
其中,P(c|F(I,C,P))对应于将注视数据编码成c和P(ST|c)的语义空间,从该语义空间到视觉搜索目标的解码。
进一步地,所述的视觉搜索目标,将凝视数据集成到卷积神经网络中,以预测搜索目标的类别和属性;使用凝视池作为凝视编码器,第一步是先从凝视数据中重建搜索目标。
其中,所述的语义凝视编码器,用固定密度图(FDM)表示固定:
其中,每个凝视f由在凝视点FDM(f)的位置处的凝视方差的高斯空间分布表示;然后将FDM与视觉特征F(I)组合,从凝视池层中的GAP深度学习架构获得;通过FDM和F(I)的元素乘法完成积分:
为了得到最终的类预测,将加权特征图进行平均,并将其馈送到完全连接层和softmax层中:
p(C|I,F)=softmax(WGAPGWFM(I,G)+b) (4)
其中,W是学习权重,b是偏差;使用后验类作为注视编码,并对它们的生成模型进行调整。
其中,所述的视觉搜索目标解码器,为了对用户的视觉搜索目标进行采样,采用一个生成图像模型,根据通过凝视池层和潜在随机变量z预测类别后验。
进一步地,所述的类别条件图像生成模型,给定类别矢量和潜在变量目标是建立一个生成图像的生成模型pθ(x|y,z);
生成的图像根据分类信息和潜在变量进行调节;在条件变分自动编码器中,引入辅助分布qφ(z|x,y),以逼近真实后验分布pθ(z|x,y)。
进一步地,所述的条件变分自动编码器,条件变分自动编码器学习的目标是找到最佳参数θ,其最大化对数似然比log pθ(x|y)的下限:因此条件对数似然函数为:
其中,变分下限被最大化:
它用于学习模型参数。
其中,所述的修剪策略,包括凝视多重刺激的编码和在凝视编码器预测中解决噪声问题。
进一步地,所述的凝视多重刺激的编码,人类凝视的典型数据集包含多个刺激的数据;使用的数据集中的刺激对应于向参与者显示的多个拼贴图像;用凝视持续时间来计算凝视图像的后验加权平均值,以获得拼贴图像的预测;此外,平均每个拼贴图像的后验,以获得每个类别的拼贴图像的最后一个后验。
进一步地,所述的在凝视编码器预测中解决噪声问题,为了在凝视编码器预测中解决噪声问题,需尝试不同的修剪策略来抑制语义表示中的弱激活;尝试了四种场景,从目视解码视觉搜索目标;在第一种情况下,使用普通后验作为条件向量;在剩余的情况中,只使用最高激活类的前三个作为分类变分自编码器的条件向量;所有其他概率设置为零,接着被重新归一化。
附图说明
图1是本发明一种基于图像生成模型的视觉搜索目标解码方法的系统框架图。
图2是本发明一种基于图像生成模型的视觉搜索目标解码方法的视觉搜索目标解码。
图3是本发明一种基于图像生成模型的视觉搜索目标解码方法的修剪策略。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于图像生成模型的视觉搜索目标解码方法的系统框架图。主要包括语义凝视编码器,视觉搜索目标解码器和修剪策略。
语义凝视编码器,用固定密度图(FDM)表示固定:
其中,每个凝视f由在凝视点FDM(f)的位置处的凝视方差的高斯空间分布表示;然后将FDM与视觉特征F(I)组合,从凝视池层中的GAP深度学习架构获得;通过FDM和F(I)的元素乘法完成积分:
为了得到最终的类预测,将加权特征图进行平均,并将其馈送到完全连接层和softmax层中:
p(C|I,F)=softmax(WGAPGWFM(I,G)+b) (3)
其中,W是学习权重,b是偏差;使用后验类作为注视编码,并对它们的生成模型进行调整。
视觉搜索目标解码器,为了对用户的视觉搜索目标进行采样,采用一个生成图像模型,根据通过凝视池层和潜在随机变量z预测类别后验。
给定类别矢量和潜在变量目标是建立一个生成图像的生成模型pθ(x|y,z);
生成的图像根据分类信息和潜在变量进行调节;在条件变分自动编码器中,引入辅助分布qφ(z|x,y),以逼近真实后验分布pθ(z|x,y)。
条件变分自动编码器学习的目标是找到最佳参数θ,其最大化对数似然比log pθ(x|y)的下限:因此条件对数似然函数为:
其中,变分下限被最大化:
它用于学习模型参数。
图2是本发明一种基于图像生成模型的视觉搜索目标解码方法的视觉搜索目标解码。凝视编码用于将原始凝视数据编码为语义分类空间;生成图像模型根据编码的注视数据进行调节,以解码用户的可视搜索目标;
参与者在拼贴图像I中搜索目标类别在搜索任务期间,用户执行F(I,C,P)=(xi,yi,ti),i=1,…,N,其中每个注视是屏幕坐标的三分之一位置xi,yi,注视持续时间为ti;目标是从下式中对目标类别c的视觉搜索目标ST进行采样;
其中,P(c|F(I,C,P))对应于将注视数据编码成c和P(ST|c)的语义空间,从该语义空间到视觉搜索目标的解码。
将凝视数据集成到卷积神经网络中,以预测搜索目标的类别和属性;使用凝视池作为凝视编码器,第一步是先从凝视数据中重建搜索目标。
图3是本发明一种基于图像生成模型的视觉搜索目标解码方法的修剪策略。修剪策略包括凝视多重刺激的编码和在凝视编码器预测中解决噪声问题。
凝视多重刺激的编码,人类凝视的典型数据集包含多个刺激的数据;使用的数据集中的刺激对应于向参与者显示的多个拼贴图像;用凝视持续时间来计算凝视图像的后验加权平均值,以获得拼贴图像的预测;此外,平均每个拼贴图像的后验,以获得每个类别的拼贴图像的最后一个后验。
在凝视编码器预测中解决噪声问题,为了在凝视编码器预测中解决噪声问题,需尝试不同的修剪策略来抑制语义表示中的弱激活;尝试了四种场景,从目视解码视觉搜索目标;在第一种情况下,使用普通后验作为条件向量;在剩余的情况中,只使用最高激活类的前三个作为分类变分自编码器的条件向量;所有其他概率设置为零,接着被重新归一化。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
Claims (10)
1.一种基于图像生成模型的视觉搜索目标解码方法,其特征在于,主要包括语义凝视编码器(一);视觉搜索目标解码器(二);修剪策略(三)。
2.基于权利要求书1所述的视觉搜索目标解码,其特征在于,凝视编码用于将原始凝视数据编码为语义分类空间;生成图像模型根据编码的注视数据进行调节,以解码用户的可视搜索目标;
参与者在拼贴图像I中搜索目标类别在搜索任务期间,用户执行F(I,C,P)=(xi,yi,ti),i=1,…,N,其中每个注视是屏幕坐标的三分之一位置xi,yi,注视持续时间为ti;目标是从下式中对目标类别c的视觉搜索目标ST进行采样;
<mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>S</mi>
<mi>T</mi>
<mo>|</mo>
<mi>F</mi>
<mo>(</mo>
<mrow>
<mi>I</mi>
<mo>,</mo>
<mi>C</mi>
<mo>,</mo>
<mi>P</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mi>c</mi>
</munder>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>S</mi>
<mi>T</mi>
<mo>|</mo>
<mi>c</mi>
<mo>)</mo>
</mrow>
<mi>P</mi>
<mrow>
<mo>(</mo>
<mi>c</mi>
<mo>|</mo>
<mi>F</mi>
<mo>(</mo>
<mrow>
<mi>I</mi>
<mo>,</mo>
<mi>C</mi>
<mo>,</mo>
<mi>P</mi>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,P(c|F(I,C,P))对应于将注视数据编码成c和P(ST|c)的语义空间,从该语义空间到视觉搜索目标的解码。
3.基于权利要求书2所述的视觉搜索目标,其特征在于,将凝视数据集成到卷积神经网络中,以预测搜索目标的类别和属性;使用凝视池作为凝视编码器,第一步是先从凝视数据中重建搜索目标。
4.基于权利要求书1所述的语义凝视编码器(一),其特征在于,用固定密度图(FDM)表示固定:
<mrow>
<mi>F</mi>
<mi>D</mi>
<mi>M</mi>
<mrow>
<mo>(</mo>
<mi>F</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>f</mi>
<mo>&Element;</mo>
<mi>F</mi>
</mrow>
</munder>
<mi>F</mi>
<mi>D</mi>
<mi>M</mi>
<mrow>
<mo>(</mo>
<mi>f</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,每个凝视f由在凝视点FDM(f)的位置处的凝视方差的高斯空间分布表示;然后将FDM与视觉特征F(I)组合,从凝视池层中的GAP深度学习架构获得;通过FDM和F(I)的元素乘法完成积分:
<mrow>
<msub>
<mi>GAP</mi>
<mrow>
<mi>G</mi>
<mi>W</mi>
<mi>F</mi>
<mi>M</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>I</mi>
<mo>,</mo>
<mi>F</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
</mrow>
</munder>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>I</mi>
<mo>)</mo>
</mrow>
<mo>&times;</mo>
<mi>F</mi>
<mi>D</mi>
<mi>M</mi>
<mrow>
<mo>(</mo>
<mi>F</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>3</mn>
<mo>)</mo>
</mrow>
</mrow>
为了得到最终的类预测,将加权特征图进行平均,并将其馈送到完全连接层和softmax层中:
p(C|I,F)=softmax(WGAPGWFM(I,G)+b) (4)
其中,W是学习权重,b是偏差;使用后验类作为注视编码,并对它们的生成模型进行调整。
5.基于权利要求书1所述的视觉搜索目标解码器(二),其特征在于,为了对用户的视觉搜索目标进行采样,采用一个生成图像模型,根据通过凝视池层和潜在随机变量z预测类别后验。
6.基于权利要求书5所述的类别条件图像生成模型,其特征在于,给定类别矢量和潜在变量目标是建立一个生成图像的生成模型pθ(x|y,z);
生成的图像根据分类信息和潜在变量进行调节;在条件变分自动编码器中,引入辅助分布qφ(z|x,y),以逼近真实后验分布pθ(z|x,y)。
7.基于权利要求书6所述的条件变分自动编码器,其特征在于,条件变分自动编码器学习的目标是找到最佳参数θ,其最大化对数似然比log pθ(x|y)的下限:因此条件对数似然函数为:
其中,变分下限被最大化:
它用于学习模型参数。
8.基于权利要求书1所述的修剪策略(三),其特征在于,包括凝视多重刺激的编码和在凝视编码器预测中解决噪声问题。
9.基于权利要求书8所述的凝视多重刺激的编码,其特征在于,人类凝视的典型数据集包含多个刺激的数据;使用的数据集中的刺激对应于向参与者显示的多个拼贴图像;用凝视持续时间来计算凝视图像的后验加权平均值,以获得拼贴图像的预测;此外,平均每个拼贴图像的后验,以获得每个类别的拼贴图像的最后一个后验。
10.基于权利要求书8所述的在凝视编码器预测中解决噪声问题,其特征在于,为了在凝视编码器预测中解决噪声问题,需尝试不同的修剪策略来抑制语义表示中的弱激活;尝试了四种场景,从目视解码视觉搜索目标;在第一种情况下,使用普通后验作为条件向量;在剩余的情况中,只使用最高激活类的前三个作为分类变分自编码器的条件向量;所有其他概率设置为零,接着被重新归一化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710748222.5A CN107516113A (zh) | 2017-08-28 | 2017-08-28 | 一种基于图像生成模型的视觉搜索目标解码方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710748222.5A CN107516113A (zh) | 2017-08-28 | 2017-08-28 | 一种基于图像生成模型的视觉搜索目标解码方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107516113A true CN107516113A (zh) | 2017-12-26 |
Family
ID=60724277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710748222.5A Withdrawn CN107516113A (zh) | 2017-08-28 | 2017-08-28 | 一种基于图像生成模型的视觉搜索目标解码方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107516113A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112085158A (zh) * | 2020-07-21 | 2020-12-15 | 西安工程大学 | 一种基于堆栈降噪自编码器的图书推荐方法 |
CN113642447A (zh) * | 2021-08-09 | 2021-11-12 | 杭州弈胜科技有限公司 | 卷积神经网络级联的监控图像车辆检测方法及其系统 |
US11461594B2 (en) | 2020-03-23 | 2022-10-04 | Raytheon Company | Transform disentangling auto-encoder and related methods |
-
2017
- 2017-08-28 CN CN201710748222.5A patent/CN107516113A/zh not_active Withdrawn
Non-Patent Citations (1)
Title |
---|
HOSNIEH SATTAR等: "Visual Decoding of Targets During Visual Search From Human Eye Fixations", 《网页在线公开:HTTPS://ARXIV.ORG/ABS/1706.05993》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11461594B2 (en) | 2020-03-23 | 2022-10-04 | Raytheon Company | Transform disentangling auto-encoder and related methods |
CN112085158A (zh) * | 2020-07-21 | 2020-12-15 | 西安工程大学 | 一种基于堆栈降噪自编码器的图书推荐方法 |
CN113642447A (zh) * | 2021-08-09 | 2021-11-12 | 杭州弈胜科技有限公司 | 卷积神经网络级联的监控图像车辆检测方法及其系统 |
CN113642447B (zh) * | 2021-08-09 | 2022-03-08 | 杭州弈胜科技有限公司 | 卷积神经网络级联的监控图像车辆检测方法及其系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200226440A1 (en) | Two-dimensional code image generation method and apparatus, storage medium and electronic device | |
CN107944629B (zh) | 一种基于异质信息网络表示的推荐方法及装置 | |
CN107273438B (zh) | 一种推荐方法、装置、设备及存储介质 | |
CN110334339B (zh) | 一种基于位置感知自注意力机制的序列标注模型与标注方法 | |
CA3081168A1 (en) | System and method for machine learning architecture for partially-observed multimodal data | |
CN109389151B (zh) | 一种基于半监督嵌入表示模型的知识图谱处理方法和装置 | |
Tu et al. | Spatial-temporal data augmentation based on LSTM autoencoder network for skeleton-based human action recognition | |
CN106168980A (zh) | 多媒体资源推荐排序方法及装置 | |
Yang et al. | Triplet Enhanced AutoEncoder: Model-free Discriminative Network Embedding. | |
CN107665261A (zh) | 视频查重的方法及装置 | |
CN109598586A (zh) | 一种基于注意力模型的推荐方法 | |
CN106874355A (zh) | 同时融入社交关系和用户相似度的协同过滤方法 | |
CN109886072A (zh) | 基于双向Ladder结构的人脸属性分类系统 | |
Li et al. | Collaborative online multitask learning | |
CN107516113A (zh) | 一种基于图像生成模型的视觉搜索目标解码方法 | |
CN111046166B (zh) | 一种基于相似度修正的半隐式多模态推荐方法 | |
Hong et al. | Selective residual learning for visual question answering | |
CN109740057A (zh) | 一种基于知识萃取的增强神经网络及信息推荐方法 | |
CN112085158A (zh) | 一种基于堆栈降噪自编码器的图书推荐方法 | |
Minvielle et al. | Transfer learning on decision tree with class imbalance | |
CN109242089B (zh) | 递进监督深度学习神经网络训练方法、系统、介质和设备 | |
Gashler et al. | Missing value imputation with unsupervised backpropagation | |
Wang et al. | Face hallucination using multisource references and cross‐scale dual residual fusion mechanism | |
Barkan et al. | Cold item integration in deep hybrid recommenders via tunable stochastic gates | |
Shi et al. | Boosting sparsity-induced autoencoder: A novel sparse feature ensemble learning for image classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20171226 |
|
WW01 | Invention patent application withdrawn after publication |