CN109241321A - 基于深度领域适应的图像和模型联合分析方法 - Google Patents
基于深度领域适应的图像和模型联合分析方法 Download PDFInfo
- Publication number
- CN109241321A CN109241321A CN201810797133.4A CN201810797133A CN109241321A CN 109241321 A CN109241321 A CN 109241321A CN 201810797133 A CN201810797133 A CN 201810797133A CN 109241321 A CN109241321 A CN 109241321A
- Authority
- CN
- China
- Prior art keywords
- model
- image
- data
- loss function
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 9
- 238000000034 method Methods 0.000 claims abstract description 13
- 230000004927 fusion Effects 0.000 claims abstract description 5
- 238000000605 extraction Methods 0.000 claims abstract description 4
- 230000006978 adaptation Effects 0.000 claims description 9
- 230000004913 activation Effects 0.000 claims description 5
- 238000013461 design Methods 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 2
- 230000001537 neural effect Effects 0.000 claims 1
- 238000007781 pre-processing Methods 0.000 claims 1
- 230000003044 adaptive effect Effects 0.000 abstract description 3
- 238000013480 data collection Methods 0.000 abstract description 2
- 238000002474 experimental method Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 239000004576 sand Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度领域适应的图像和模型联合分析方法,该方法具体包括数据预处理,通过深度领域适应算法进行特征抽取和进行特征表示融合;本发明能支持不同形式的跨模态数据检索,即以图像来检索三维模型,和以三维模型来检索图像。另外,在支持基于语义的数据检索,例如基于语义的图像检索,基于语义的三维模型检索。在公开数据集上的实验证明该方法具有很高的准确性。
Description
技术领域
本发明涉及人工智能的领域迁移技术,拟采用深度领域迁移来协同分析图像与三维模型。
背景技术
随着互联网技术的快速发展,产生了大量的媒体数据,如:图像、视频和三维模型。这些模型都从不同的角度描述了这些实体。当前,产业界的一个挑战在于如何有效的识别、检索和组织这些数据。针对这些问题,目前很多学者提出了很多方法,然后这些方法绝大多数都从同一领域的角度来处理这些问题,并没有充分挖掘不同领域间信息和数据的连接与共享信息。显然,不同模态间的数据存在很强的关联性质,例如三维模型和二维图像可以从光照、纹理、遮挡等角度描述同一实体。
极少数的工作考虑到联合分析二维图像与三维模型问题,这些工作主要将三维模型表示成一系列渲染好的二维图像,然后从图像的角度来联合分析处理这些数据。他们证明了通过联合分析三维模型和二维图像,能显著改善诸如以模型搜索图像、以图像搜索模型、三维模型识别等。
发明内容
本发明针对现有技术的不足,设计一种新型的领域适应深度网络模型,可以对不同领域的数据进行自适应,并将这些数据投影到一致的语义的空间中。
本发明基于深度领域适应的图像和模型联合分析方法,该方法具体包括以下步骤:
步骤一:数据预处理
将三维模型都预处理成渲染好的二维图像;具体为:将12个虚拟像机置于三维模型周围,这些相机都朝向三维模型的中心,并且均匀摆放成圆形环绕这个三维模型,最后,采用phong模型对三维模型进行渲染,每个相机一个,得到12个渲染后的图像。
步骤二:通过深度领域适应算法进行特征抽取
设计深度神经网格框架,包含两个子网络:源网络模型和目标网络模型;这两个模型相互配合,同时进行训练;
源网络模型和目标网络模型都含有五个卷积层、两个全连接层、一个全连接的融合层和一个输出层;其中卷积层的目的是从输入的图像中学习得到它们的局部特征表示;全连接层的作用在于抽取得到高维全局语义特征表示;融合层的作用在于计算得到两个网络模型的交叉熵,并对两个网络模型的特征表示进行约束;输出层用来对两个网络模型的输入图像的语义信息进行学习,得到分类结果。
以XS和XT分别表示源数据和目标数据,假设XT为稀疏标注,把XS和XT中标好分类的数据集合描述成XL。假设当前有C类数据定义在XL上,以Y表示为样本的标注;领域适应网络模型的输出定义为标准的软最大分类损失函数:
其中,ρ为软最大分类激活值,y为具体样本的分类值。
另外采用最大化平均差异来对不同的网络模型进行领域适应,具体的领域适应损失函数定义为:
其中为共享的特征抽取器;
最后采用软类名指派来保证源数据和目标数据在类空间分布也一致;具体的标签分布损失函数定义为:
其中,lk是所有样本属于第k类软激活的平均值;通过联合如上软最大分类损失函数,领域适应损失函数和标签分布损失函数,总的能量函数定义为:
L=LS(XS,XL)+αLD(XS,XT)+βLL(XT,Y)
基于总的能量函数求得神经网络模型的参数,即类别分类器f(·);
步骤三:进行特征表示融合。
本发明针对三维模型和图像数据,发明方法利用图像数据辅助模型数据的分类与识别,也可以利用模型数据辅助图像数据的分类与识别。本发明方法可应用于图像检索,三维模型检索,图像识别,三维模型识别。
本发明相对于现有技术所具有的有益效果:本发明能支持不同形式的跨模态数据检索,即以图像来检索三维模型,和以三维模型来检索图像。另外,在支持基于语义的数据检索,例如基于语义的图像检索,基于语义的三维模型检索。在公开数据集上的实验证明该方法具有很高的准确性。
附图说明
图1.本发明网络框架流程图;
图2.模型不同角度的投影;
图3.领域迁移示例;
图4.模型检索示例结果。
具体实施方式
结合附件,通过具体实施示例,对本发明的技术方案进行清楚、完整的描述。
1.网络结构图
如图1所示,系统网络图包含有两个子网络,分别是源网络和目标网络。源网络主要处理图像数据,目标网络主要处理三维模型数据。两个网络均有类似的结构,即五个卷积层,三个全连接层,一个领域适应层。
我们初始化参数输入的图像规格为:224*224*3(RGB图像),经过预处理后变为227*227*3。类似的,我们使用了96个大小规格为11*11的过滤器filter,或者称为卷积核,进行特征提取,值得注意的是因为原始的图是三通道的,我们设计的这96个过滤器也是三通道的,也就是我们使用的实际大小规格为11*11*3,在卷积的时候,我们会依据这个公式来提取特征图:[img_size-filter_size]/stride+1=new_feture_size,所以这里我们得到96个55*55大小的特征图。
在激活函数选择上,我们使用RELU激励函数,来确保特征图的值范围在合理范围之内,比如{0,1},{0,255}。在降采样层,本发明对图片最最大化池化操作,池化的大小为3*3,每次池化移动的步长为2。因为网络中参数较多,所以需要考虑过拟合的问题。Dropout通常用来减少了神经元之间的共适应关系,使得一个神经元不再依赖另一个神经元,强迫网络学习到更加鲁棒的特征表示。即训练过程中以概率1-p将隐含层节点的输出值清0,而用反向传播更新权值时,不再更新与该节点相连的权值。最后我们使用随机递度下降方法进行训练,其中批大小为128,超参数动量大小为0.9,加权学习率为0.0005。更新网络中参数的方式为:
w=w-l*g
其中l表示学习率,g表示梯度。
网络总能量函数的源领域损失函数权重定义为α=0.01,分类损失函数权重定义为β=0.1。
2.模型多视图表示
图2展示我们对模型进行多视图投影的过程。给定一个三维模型,首先将模型自适应到同一尺度。通过放置12个虚拟相机至模型的周边,每个相机都平均遍历30度角,朝向模型的质心。采用“冯”模型对其作渲染,其中像机采用透视投影,渲染端像素的颜色取决于模型多边型顶点的差值。
3.网络输出说明
图3展示网络结构的输出,通过对源网络和目标网络进行融合,两个不同领域的数据将会嵌入到同一个空间中。即每个图像或者三维模型都会得到一个特征描述。相同种类的特征表示较为接近。不同种类的数据相距较远。
4.模型应用示例
图4展示了本模型的应用领域,如基于图像的三维模型检索,和基于三维模型的图像检索。基于该发明的网络模型,图片和三维模型表示成了一系列的特征表示,基于该特征表示,可以通过近邻搜索,找到某一个数据的附近数据。从而支持诸如图像检索、三维模型检索等应用。特别的,通过判断近邻数据的模态,我们能方便的实现跨模态数据检索,例如:基于图像搜索三维模型和基于三维模型寻找类似图像。
Claims (1)
1.基于深度领域适应的图像和模型联合分析方法,其特征在于,该方法具体包括以下步骤:
步骤一:数据预处理
将三维模型都预处理成渲染好的二维图像;具体为:将12个虚拟像机置于三维模型周围,这些相机都朝向三维模型的中心,并且均匀摆放成圆形环绕这个三维模型,最后,采用phong模型对三维模型进行渲染,每个相机一个,得到12个渲染后的图像;
步骤二:通过深度领域适应算法进行特征抽取
设计深度神经网格框架,包含两个子网络:源网络模型和目标网络模型;这两个模型相互配合,同时进行训练;
源网络模型和目标网络模型都含有五个卷积层、两个全连接层、一个全连接的融合层和一个输出层;其中卷积层的目的是从输入的图像中学习得到它们的局部特征表示;全连接层的作用在于抽取得到高维全局语义特征表示;融合层的作用在于计算得到两个网络模型的交叉熵,并对两个网络模型的特征表示进行约束;输出层用来对两个网络模型的输入图像的语义信息进行学习,得到分类结果;
以XS和XT分别表示源数据和目标数据,假设XT为稀疏标注,把XS和XT中标好分类的数据集合描述成XL;假设当前有C类数据定义在XL上,以Y表示为样本的标注;领域适应网络模型的输出定义为标准的软最大分类损失函数:
其中,ρ为软最大分类激活值,y为具体样本的分类值;
另外采用最大化平均差异来对不同的网络模型进行领域适应,具体的领域适应损失函数定义为:
其中为共享的特征抽取器;
最后采用软类名指派来保证源数据和目标数据在类空间分布也一致;具体的标签分布损失函数定义为:
其中,lk是所有样本属于第k类软激活的平均值;通过联合如上软最大分类损失函数,领域适应损失函数和标签分布损失函数,总的能量函数定义为:
L=LS(XS,XL)+αLD(XS,XT)+βLL(XT,Y)
基于总的能量函数求得神经网络模型的参数,即类别分类器f(·);
步骤三:进行特征表示融合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810797133.4A CN109241321A (zh) | 2018-07-19 | 2018-07-19 | 基于深度领域适应的图像和模型联合分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810797133.4A CN109241321A (zh) | 2018-07-19 | 2018-07-19 | 基于深度领域适应的图像和模型联合分析方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109241321A true CN109241321A (zh) | 2019-01-18 |
Family
ID=65072219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810797133.4A Pending CN109241321A (zh) | 2018-07-19 | 2018-07-19 | 基于深度领域适应的图像和模型联合分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109241321A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021120752A1 (zh) * | 2020-07-28 | 2021-06-24 | 平安科技(深圳)有限公司 | 域自适应模型训练、图像检测方法、装置、设备及介质 |
WO2021196240A1 (zh) * | 2020-04-03 | 2021-10-07 | 清华大学 | 面向跨网络的表示学习算法 |
CN113641793A (zh) * | 2021-08-16 | 2021-11-12 | 国网安徽省电力有限公司电力科学研究院 | 一种针对电力标准的长文本匹配优化的检索系统 |
CN114971802A (zh) * | 2022-05-31 | 2022-08-30 | 盈嘉互联(北京)科技有限公司 | 基于bim模型的商品推荐方法、装置、电子设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106611169A (zh) * | 2016-12-31 | 2017-05-03 | 中国科学技术大学 | 一种基于深度学习的危险驾驶行为实时检测方法 |
CN106874898A (zh) * | 2017-04-08 | 2017-06-20 | 复旦大学 | 基于深度卷积神经网络模型的大规模人脸识别方法 |
CN107729801A (zh) * | 2017-07-11 | 2018-02-23 | 银江股份有限公司 | 一种基于多任务深度卷积神经网络的车辆颜色识别系统 |
-
2018
- 2018-07-19 CN CN201810797133.4A patent/CN109241321A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106611169A (zh) * | 2016-12-31 | 2017-05-03 | 中国科学技术大学 | 一种基于深度学习的危险驾驶行为实时检测方法 |
CN106874898A (zh) * | 2017-04-08 | 2017-06-20 | 复旦大学 | 基于深度卷积神经网络模型的大规模人脸识别方法 |
CN107729801A (zh) * | 2017-07-11 | 2018-02-23 | 银江股份有限公司 | 一种基于多任务深度卷积神经网络的车辆颜色识别系统 |
Non-Patent Citations (1)
Title |
---|
ZIZHAO WU等: ""Joint analysis of shapes and images via deep domain adaptation"", 《COMPUTERS & GRAPHICS》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021196240A1 (zh) * | 2020-04-03 | 2021-10-07 | 清华大学 | 面向跨网络的表示学习算法 |
WO2021120752A1 (zh) * | 2020-07-28 | 2021-06-24 | 平安科技(深圳)有限公司 | 域自适应模型训练、图像检测方法、装置、设备及介质 |
CN113641793A (zh) * | 2021-08-16 | 2021-11-12 | 国网安徽省电力有限公司电力科学研究院 | 一种针对电力标准的长文本匹配优化的检索系统 |
CN113641793B (zh) * | 2021-08-16 | 2024-05-07 | 国网安徽省电力有限公司电力科学研究院 | 一种针对电力标准的长文本匹配优化的检索系统 |
CN114971802A (zh) * | 2022-05-31 | 2022-08-30 | 盈嘉互联(北京)科技有限公司 | 基于bim模型的商品推荐方法、装置、电子设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104992142B (zh) | 一种基于深度学习和属性学习相结合的行人识别方法 | |
CN108491880B (zh) | 基于神经网络的物体分类和位姿估计方法 | |
CN111310862B (zh) | 复杂环境下基于图像增强的深度神经网络车牌定位方法 | |
CN106920243B (zh) | 改进的全卷积神经网络的陶瓷材质件序列图像分割方法 | |
CN111639679B (zh) | 一种基于多尺度度量学习的小样本学习方法 | |
CN104217214B (zh) | 基于可配置卷积神经网络的rgb‑d人物行为识别方法 | |
CN110569886A (zh) | 一种双向通道注意力元学习的图像分类方法 | |
WO2022062419A1 (zh) | 基于非督导金字塔相似性学习的目标重识别方法及系统 | |
CN109241321A (zh) | 基于深度领域适应的图像和模型联合分析方法 | |
CN107945153A (zh) | 一种基于深度学习的路面裂缝检测方法 | |
CN104732208A (zh) | 基于稀疏子空间聚类的视频人体行为识别方法 | |
CN111833322B (zh) | 一种基于改进YOLOv3的垃圾多目标检测方法 | |
CN111178121B (zh) | 基于空间特征和深度特征强化技术的害虫图像定位识别方法 | |
CN110991349B (zh) | 一种基于度量学习的轻量级车辆属性识别方法 | |
CN114782982A (zh) | 一种基于深度学习的海洋生物智能检测方法 | |
CN108491766B (zh) | 一种端到端的基于深度决策森林的人群计数方法 | |
CN113592894A (zh) | 一种基于边界框和同现特征预测的图像分割方法 | |
CN109886161A (zh) | 一种基于可能性聚类和卷积神经网络的道路交通标识识别方法 | |
CN110188835A (zh) | 基于生成式对抗网络模型的数据增强行人再识别方法 | |
CN105809672A (zh) | 一种基于超像素和结构化约束的图像多目标协同分割方法 | |
CN107066916A (zh) | 基于反卷积神经网络的场景语义分割方法 | |
CN109344898A (zh) | 基于稀疏编码预训练的卷积神经网络图像分类方法 | |
CN115205667A (zh) | 一种基于YOLOv5s的密集目标检测方法 | |
CN116524255A (zh) | 基于Yolov5-ECA-ASFF的小麦赤霉病孢子识别方法 | |
CN104036242B (zh) | 基于Centering Trick卷积限制玻尔兹曼机的物体识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190118 |