CN117496187B - 一种光场图像显著性检测方法 - Google Patents
一种光场图像显著性检测方法 Download PDFInfo
- Publication number
- CN117496187B CN117496187B CN202311535437.0A CN202311535437A CN117496187B CN 117496187 B CN117496187 B CN 117496187B CN 202311535437 A CN202311535437 A CN 202311535437A CN 117496187 B CN117496187 B CN 117496187B
- Authority
- CN
- China
- Prior art keywords
- focus stack
- image
- feature map
- original
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 15
- 230000004927 fusion Effects 0.000 claims abstract description 23
- 230000006870 function Effects 0.000 claims description 13
- 238000000034 method Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 2
- 230000011218 segmentation Effects 0.000 abstract description 2
- 238000012512 characterization method Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种光场图像显著性检测方法,具体包括以下步骤:获取原始聚焦栈图像;基于所述原始聚焦栈图像,获取新全聚焦栈图像;对所述原始聚焦栈图像和所述新全聚焦栈图像进行特征提取,获取原始聚焦栈特征图和新全聚焦栈特征图;对所述原始聚焦栈特征图和所述新全聚焦栈特征图进行多特征融合,获取目标融合特征图;利用所述目标融合特征图,生成最终显著图。本发明可以获得与输入光场全聚焦图片相同分辨率的显著图,满足目标追踪、语义分割等下游任务的需求。
Description
技术领域
本发明属于图像处理技术领域,尤其涉及一种光场图像显著性检测方法。
背景技术
光场图像记录了场景中光线的空间与角度信息,因而可以更完整的表征现实场景中的丰富信息,使用光场图像中的聚焦栈图像与全聚焦图像进行显著性检测可以有效提高显著性检测的效率。但是,仅仅将原始的聚焦栈图像与全聚焦图像进行特征融合无法充分挖掘聚焦栈图像的特性,也不能充分捕获两种模态之间的高频信息,无法实现对两种模态信息的充分利用已成为制约光场显著性检测的主要瓶颈。
因此,亟需一种光场图像显著性检测方法,以解决现有技术中的不足之处。
发明内容
本发明的目的在于提出一种光场图像显著性检测方法,通过使用基于聚焦栈与全聚焦的两种光场图像表征形式,并基于这两种表征方式提供一种光场图像显著性检测方法来对光场图像生成显著图。
为实现上述目的,本发明提供了一种光场图像显著性检测方法,包括以下步骤:
获取原始聚焦栈图像;
基于所述原始聚焦栈图像,获取新全聚焦栈图像;
对所述原始聚焦栈图像和所述新全聚焦栈图像进行特征提取,获取原始聚焦栈特征图和新全聚焦栈特征图;
对所述原始聚焦栈特征图和所述新全聚焦栈特征图进行多特征融合,获取目标融合特征图;
利用所述目标融合特征图,生成最终显著图。
可选的,获取所述原始聚焦栈图像包括:
从光场图像中提取光场聚焦栈图像;
将所述光场聚焦栈图像按照通道数的比例进行划分,获取所述原始聚焦栈图像。
可选的,基于所述原始聚焦栈图像,获取所述新全聚焦栈图像包括:
从光场图像中提取全聚焦图像;
将原始聚焦栈图像按预定顺序取出,通过卷积操作,获取每张聚焦栈图像的特征图;
将每张所述聚焦栈图像的特征图和所述全聚焦图像进行可变卷积操作,获取所述新全聚焦栈图像。
可选的,对所述原始聚焦栈图像和所述新全聚焦栈图像进行特征提取,获取所述原始聚焦栈特征图和所述新全聚焦栈特征图包括:
将所述原始聚焦栈图像和所述新全聚焦栈图像输入PVT模型进行特征提取,获取所述原始聚焦栈特征图和所述新全聚焦栈特征图。
可选的,对所述原始聚焦栈特征图和所述新全聚焦栈特征图进行多特征融合,获取所述目标融合特征图包括:
利用卷积长短时记忆将所述原始聚焦栈特征图和所述新全聚焦栈特征图的维度进行统一,并使用膨胀卷积模型,将所述原始聚焦栈特征图和所述新全聚焦栈特征图的通道数统一,获取目标原始聚焦栈特征图和目标新全聚焦栈特征图;
将所述目标原始聚焦栈特征图和所述目标新全聚焦栈特征图分级级联,获取融合后的特征图;
利用显著图真值GT对所述融合后的特征图进行监督,然后采用上采样操作将融合后的多级特征分辨率进行统一,并进行特征相加,获取所述目标融合特征图。
可选的,利用卷积长短时记忆将所述原始聚焦栈特征图和所述新全聚焦栈特征图的维度进行统一,并使用膨胀卷积模型,将所述原始聚焦栈特征图和所述新全聚焦栈特征图的通道数统一为:
其中,In为维度统一后的全新聚焦堆栈图像,Fn为维度统一后的原始堆栈图像,RFB是指膨胀卷积模块,ConvLSTM是指ConvLSTM卷积模块,为新全聚焦栈图像,/>为原始聚焦栈图。
可选的,利用显著图真值GT对所述融合后的特征图进行监督的过程中采取交叉熵损失。
可选的,利用所述目标融合特征图,生成所述最终显著图包括:
将所述目标融合特征图视为潜在特征编码,并输入局部隐函数,生成显著图;
对所述显著图的坐标进行位置编码,获取编码后的高频坐标信号;
将所述编码后的高频坐标信号和所述潜在特征编码输入所述局部隐函数,获取对应坐标的像素值;
通过遍历每个所述坐标,得到每个所述坐标对应的像素值,并生成所述最终显著图。
可选的,通过遍历每个所述坐标,得到每个所述坐标对应的像素值,并生成所述最终显著图包括:
M(xq)=fθ(z*,ψ(xq))
其中,fθ(·)是指局部隐函数模块,通过多层感知机的方式实现,M(·)是根据输入的潜在编码z*与坐标ψ(xq)预测得到的像素值。
本发明具有以下有益效果:与将原始的聚焦栈图像与全聚焦图像进行直接特征融合不同,本发明充分挖掘聚焦栈图像隐式的蕴含场景的深度信息这一特性,首先将单张全聚焦图像膨胀为数量为12的新全聚焦栈图像,从而在整体上扩大了网络中蕴含的深度信息;之后为了增强在显著性检测中有益的高频信息,使用局部隐函数中的高频坐标建立与潜在编码特征中的映射关系,最终得到了高频信号增强的显著图,从而生成了更为完整清晰的显著图,满足目标追踪、语义分割等下游任务的需求。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本发明实施例一种光场图像显著性检测方法的流程图。
具体实施方式
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
如图1所示,本实施例提供一种光场图像显著性检测方法,通过将聚焦堆栈中隐含的深度信息传递到全聚焦图上,将全聚焦图的数量进行膨胀,得到全新的全聚焦堆栈,从而充分利用隐式的深度信息,同时利用局部隐函数的高频坐标特性,实现对两种模态特征的高频信号增强,最后得到显著图,可以实现对聚焦栈图像特性的挖掘以及对两种模态信息的充分利用,具体包括以下步骤:
步骤一、利用12张光场聚焦栈图像作为引导,输入全聚焦图像膨胀模块,将1张全聚焦图像膨胀为12张新全聚焦图像栈;
从光场图像中提取光场聚焦栈图像F,维度为1×36×w×h,其中,1为光场聚焦栈图像的个数,w×h为光场聚焦栈图像F中单张聚焦栈图像的空间分辨率,36为聚焦栈图像的36个通道。首先,将12张光场聚焦栈图像F按照通道数为3的比例进行划分,得到12张通道数为3的原始聚焦栈图像;将12张原始聚焦栈图像记为其中,下标k表示的是原始聚焦栈图像的个数,从1到12。
从光场图像中提取全聚焦图像R,维度为1×3×w×h,其中,1为光场全聚焦图像的个数,w×h为光场全聚焦图像F中图像的空间分辨率,3为全聚焦图像的三个通道,将1张全聚焦图像记为F0。
将得到的按照k=1,2,…,K的顺序取出,通过卷积操作得到每个Fk对应的特征图,即每张聚焦栈图像的特征图,记为Δpk,Δpk是指进行可变形卷积操作之前需要得到的offset图,具体描述为:
然后将得到的offset图与全聚焦图像F0进行可变性卷积操作,得到数量膨胀后的全聚焦堆栈图像记为其中,下标k表示的是新生成的全聚焦栈图像的个数,从1到12,具体描述为:
其中,DConv(·)是可变形卷积,卷积核大小为3×3,步长为1,填充值为1。
步骤二、对得到的新全聚焦栈图像与原始的聚焦栈图像分别进行特征提取;
将得到的新全聚焦栈图像与原始聚焦栈图/>输入网络模型PVT中,得到特征图/>与/>即两种模态信息,其中,上标n代表着输入网络后的层数,从1到4。其中,PVT网络模型采用主干网络模型。
步骤三、对步骤二中获得的两种模态信息进行多级特征融合;
利用卷积长短时记忆(ConvLSTM)将与/>的batchsize维度统一为1,并使用膨胀卷积模块,将/>与/>的通道数统一为32,具体描述为:
其中,In为维度统一后的全新聚焦堆栈图像,Fn为维度统一后的原始堆栈图像,ConvLSTM是指ConvLSTM卷积模块,用于实现对batchsize维度的压缩,RFB是指膨胀卷积模块,用于增大感受野的同时压缩通道数。
将得到的特征图In与Fn分级级联,得到融合后的特征Zn,具体描述为:
Zn=Concat(In,Fn)(n=1,...,4) (5)
其中,Concat(·)代表级联操作。
为了使模型加速收敛同时更好的实现多级特征的融合,使用显著图真值GT对得到的融合特征进行监督,监督采取交叉熵损失,具体描述为:
其中,Lfuse为多层特征的交叉熵损失之和,loss(·)为交叉熵损失。
然后使用上采样操作将融合后的多级特征分辨率统一为256×256,并进行特征相加,得到融合后的特征。具体描述为:
z*=Sum(Up(Zn))(n=1,...,4) (7)
其中,Up(·)表示将得到的不同分辨率的特征图统一至256×256,Sum(·)表示将统一分辨率后的多级特征进行逐元素相加,得到最终的融合特征z*。
步骤四、将步骤三中获得的特征图视为潜在特征编码,使用局部表征隐函数建立潜在特征编码与最终显著图坐标之间的映射关系,并通过多层感知机学习到这一局部隐函数,同时利用坐标的高频特性,对输出特征图的高频信号进行增强,生成最终的显著图;
将融合后的特征z*视为潜在编码,输入局部隐函数得到显著图S,同时为了更好的表征高频信号,对坐标xq进行位置编码,从而将坐标拓展至高频坐标,具体描述为:
其中,ω1为2e,ωL为2eL,x为坐标xq。L是可以修改的网络超参数,本实施例设置为8。
再将编码过的高频坐标信号ψ(x)与潜在编码z*输入局部隐函数中,得到对应坐标的像素值。通过遍历所有坐标,得到所有坐标对应的像素值,并生成最终的显著图具体描述为:
M(xq)=fθ(z*,ψ(xq)) (9)
其中,fθ(·)是指局部隐函数模块,通过多层感知机的方式实现,M(·)是根据输入的潜在编码z*与坐标ψ(xq)预测得到的像素值。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。
Claims (7)
1.一种光场图像显著性检测方法,其特征在于,具体包括以下步骤:
获取原始聚焦栈图像;
基于所述原始聚焦栈图像,获取新全聚焦栈图像;
基于所述原始聚焦栈图像,获取所述新全聚焦栈图像包括:
从光场图像中提取全聚焦图像;
将原始聚焦栈图像按预定顺序取出,通过卷积操作,获取每张聚焦栈图像的特征图;
将每张所述聚焦栈图像的特征图和所述全聚焦图像进行可变卷积操作,获取所述新全聚焦栈图像;
对所述原始聚焦栈图像和所述新全聚焦栈图像进行特征提取,获取原始聚焦栈特征图和新全聚焦栈特征图;
对所述原始聚焦栈特征图和所述新全聚焦栈特征图进行多特征融合,获取目标融合特征图;
利用所述目标融合特征图,生成最终显著图;
利用所述目标融合特征图,生成所述最终显著图包括:
将所述目标融合特征图视为潜在特征编码,并输入局部隐函数,生成显著图;
对所述显著图的坐标进行位置编码,获取编码后的高频坐标信号;
将所述编码后的高频坐标信号和所述潜在特征编码输入所述局部隐函数,获取对应坐标的像素值;
通过遍历每个所述坐标,得到每个所述坐标对应的像素值,并生成所述最终显著图。
2.如权利要求1所述的一种光场图像显著性检测方法,其特征在于,获取所述原始聚焦栈图像包括:
从光场图像中提取光场聚焦栈图像;
将所述光场聚焦栈图像按照通道数的比例进行划分,获取所述原始聚焦栈图像。
3.如权利要求1所述的一种光场图像显著性检测方法,其特征在于,对所述原始聚焦栈图像和所述新全聚焦栈图像进行特征提取,获取所述原始聚焦栈特征图和所述新全聚焦栈特征图包括:
将所述原始聚焦栈图像和所述新全聚焦栈图像输入PVT模型进行特征提取,获取所述原始聚焦栈特征图和所述新全聚焦栈特征图。
4.如权利要求1所述的一种光场图像显著性检测方法,其特征在于,对所述原始聚焦栈特征图和所述新全聚焦栈特征图进行多特征融合,获取所述目标融合特征图包括:
利用卷积长短时记忆将所述原始聚焦栈特征图和所述新全聚焦栈特征图的维度进行统一,并使用膨胀卷积模型,将所述原始聚焦栈特征图和所述新全聚焦栈特征图的通道数统一,获取目标原始聚焦栈特征图和目标新全聚焦栈特征图;
将所述目标原始聚焦栈特征图和所述目标新全聚焦栈特征图分级级联,获取融合后的特征图;
利用显著图真值GT对所述融合后的特征图进行监督,然后采用上采样操作将融合后的多级特征分辨率进行统一,并进行特征相加,获取所述目标融合特征图。
5.如权利要求4所述的一种光场图像显著性检测方法,其特征在于,利用卷积长短时记忆将所述原始聚焦栈特征图和所述新全聚焦栈特征图的维度进行统一,并使用膨胀卷积模型,将所述原始聚焦栈特征图和所述新全聚焦栈特征图的通道数统一为:
其中,In为维度统一后的全新聚焦堆栈图像,Fn为维度统一后的原始堆栈图像,RFB是指膨胀卷积模块,ConvLSTM是指ConvLSTM卷积模块,为新全聚焦栈图像,/>为原始聚焦栈图。
6.如权利要求4所述的一种光场图像显著性检测方法,其特征在于,利用显著图真值GT对所述融合后的特征图进行监督的过程中采取交叉熵损失。
7.如权利要求1所述的一种光场图像显著性检测方法,其特征在于,通过遍历每个所述坐标,得到每个所述坐标对应的像素值,并生成所述最终显著图包括:
M(xq)=fθ(z*,ψ(xq))
其中,fθ(·)是指局部隐函数模块,通过多层感知机的方式实现,M(·)是根据输入的潜在编码z*与坐标ψ(xq)预测得到的像素值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311535437.0A CN117496187B (zh) | 2023-11-15 | 2023-11-15 | 一种光场图像显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311535437.0A CN117496187B (zh) | 2023-11-15 | 2023-11-15 | 一种光场图像显著性检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117496187A CN117496187A (zh) | 2024-02-02 |
CN117496187B true CN117496187B (zh) | 2024-06-11 |
Family
ID=89670630
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311535437.0A Active CN117496187B (zh) | 2023-11-15 | 2023-11-15 | 一种光场图像显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117496187B (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701813A (zh) * | 2016-01-11 | 2016-06-22 | 深圳市未来媒体技术研究院 | 一种光场图像的显著性检测方法 |
CN105913070A (zh) * | 2016-04-29 | 2016-08-31 | 合肥工业大学 | 一种基于光场相机的多线索显著性提取方法 |
EP3200151A1 (en) * | 2016-01-29 | 2017-08-02 | Thomson Licensing | Method and device for obtaining a depth map |
CN107609460A (zh) * | 2017-05-24 | 2018-01-19 | 南京邮电大学 | 一种融合时空双重网络流和attention机制的人体行为识别方法 |
CN109271494A (zh) * | 2018-08-10 | 2019-01-25 | 西安交通大学 | 一种自动提取中文问答语句焦点的系统 |
CN110751160A (zh) * | 2019-10-30 | 2020-02-04 | 华中科技大学 | 图像中物体的检测方法、装置及系统 |
CN114549863A (zh) * | 2022-04-27 | 2022-05-27 | 西安电子科技大学 | 一种基于像素级噪声标签监督的光场显著性目标检测方法 |
CN115410150A (zh) * | 2022-08-22 | 2022-11-29 | 中国神华能源股份有限公司哈尔乌素露天煤矿 | 传送带跑偏的检测方法、检测装置和处理器 |
CN115482178A (zh) * | 2022-09-23 | 2022-12-16 | 佛山科学技术学院 | 基于显著特征差异的多聚焦图像融合方法及系统 |
CN116097308A (zh) * | 2020-08-21 | 2023-05-09 | 华为技术有限公司 | 自动摄影构图推荐 |
CN116229222A (zh) * | 2022-12-15 | 2023-06-06 | 北京大学深圳研究生院 | 一种基于隐式图学习的光场显著性目标检测方法及装置 |
CN116634287A (zh) * | 2023-06-16 | 2023-08-22 | 清华大学深圳国际研究生院 | 一种聚焦式全光图像压缩的方法 |
CN116684732A (zh) * | 2023-06-02 | 2023-09-01 | 太原理工大学 | 一种基于重聚焦光场检测的图像处理方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190324781A1 (en) * | 2018-04-24 | 2019-10-24 | Epiance Software Pvt. Ltd. | Robotic script generation based on process variation detection |
US11195048B2 (en) * | 2020-01-23 | 2021-12-07 | Adobe Inc. | Generating descriptions of image relationships |
-
2023
- 2023-11-15 CN CN202311535437.0A patent/CN117496187B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105701813A (zh) * | 2016-01-11 | 2016-06-22 | 深圳市未来媒体技术研究院 | 一种光场图像的显著性检测方法 |
EP3200151A1 (en) * | 2016-01-29 | 2017-08-02 | Thomson Licensing | Method and device for obtaining a depth map |
CN105913070A (zh) * | 2016-04-29 | 2016-08-31 | 合肥工业大学 | 一种基于光场相机的多线索显著性提取方法 |
CN107609460A (zh) * | 2017-05-24 | 2018-01-19 | 南京邮电大学 | 一种融合时空双重网络流和attention机制的人体行为识别方法 |
CN109271494A (zh) * | 2018-08-10 | 2019-01-25 | 西安交通大学 | 一种自动提取中文问答语句焦点的系统 |
CN110751160A (zh) * | 2019-10-30 | 2020-02-04 | 华中科技大学 | 图像中物体的检测方法、装置及系统 |
CN116097308A (zh) * | 2020-08-21 | 2023-05-09 | 华为技术有限公司 | 自动摄影构图推荐 |
CN114549863A (zh) * | 2022-04-27 | 2022-05-27 | 西安电子科技大学 | 一种基于像素级噪声标签监督的光场显著性目标检测方法 |
CN115410150A (zh) * | 2022-08-22 | 2022-11-29 | 中国神华能源股份有限公司哈尔乌素露天煤矿 | 传送带跑偏的检测方法、检测装置和处理器 |
CN115482178A (zh) * | 2022-09-23 | 2022-12-16 | 佛山科学技术学院 | 基于显著特征差异的多聚焦图像融合方法及系统 |
CN116229222A (zh) * | 2022-12-15 | 2023-06-06 | 北京大学深圳研究生院 | 一种基于隐式图学习的光场显著性目标检测方法及装置 |
CN116684732A (zh) * | 2023-06-02 | 2023-09-01 | 太原理工大学 | 一种基于重聚焦光场检测的图像处理方法 |
CN116634287A (zh) * | 2023-06-16 | 2023-08-22 | 清华大学深圳国际研究生院 | 一种聚焦式全光图像压缩的方法 |
Non-Patent Citations (7)
Title |
---|
A CNN-RNN Framework for Crop Yield Prediction;Saeed Khaki等;《Frontiers in Plant Science》;20200124;第10卷;1-14 * |
Depth-guided Deformable Convolutions for RGB-D Saliency Object Detection;Fei Li等;《2021 6th International Conference on Communication, Image and Signal Processing (CCISP)》;20211217;234-239 * |
Fusion-Embedding Siamese Network for Light Field Salient Object Detection;Geng Chen等;《IEEE Transactions on Multimedia 》;20230510;第26卷;984-994 * |
Spatiotemporal context-aware network for video salient object detection;Tianyou Chen等;《 Neural Computing and Applications》;20220520;第34卷;16861–16877 * |
光场显著性检测研究综述;刘亚美等;《中国图象图形学报》;20201216;第25卷(第12期);2465-2483 * |
基于MDLatLRR和KPCA的光场图像全聚焦融合;黄泽丰等;《光子学报》;20230227;第52卷(第04期);255-269 * |
复杂场景下基于光场技术的显著性检测研究;李啸;《中国优秀硕士学位论文全文数据库 (信息科技辑)》;20200215(第02期);I138-1920 * |
Also Published As
Publication number | Publication date |
---|---|
CN117496187A (zh) | 2024-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110210539B (zh) | 多级深度特征融合的rgb-t图像显著性目标检测方法 | |
US11348270B2 (en) | Method for stereo matching using end-to-end convolutional neural network | |
CN114549439A (zh) | 一种基于多模态特征融合的rgb-d图像语义分割方法 | |
CN113344826B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN109766918B (zh) | 基于多层次上下文信息融合的显著性物体检测方法 | |
CN113486887B (zh) | 三维场景下的目标检测方法和装置 | |
US20180184096A1 (en) | Method and apparatus for encoding and decoding lists of pixels | |
CN116803082A (zh) | 一种用于点云处理的装置和方法 | |
Naik et al. | Video classification using 3D convolutional neural network | |
CN115601321A (zh) | 基于双向特征融合金字塔ssd的铁矿石异物识别方法 | |
CN114693929A (zh) | 一种rgb-d双模态特征融合的语义分割方法 | |
Ma et al. | Adjacent bi-hierarchical network for scene parsing of remote sensing images | |
Tian et al. | Automatic feature type selection in digital photogrammetry of piping | |
CN117496187B (zh) | 一种光场图像显著性检测方法 | |
Gudavalli et al. | SeeTheSeams: Localized detection of seam carving based image forgery in satellite imagery | |
Zhou et al. | MSTNet-KD: Multilevel transfer networks using knowledge distillation for the dense prediction of remote-sensing images | |
Ma et al. | MSFNET: multi-stage fusion network for semantic segmentation of fine-resolution remote sensing data | |
Fu et al. | A pixel pair–based encoding pattern for stereo matching via an adaptively weighted cost | |
KR101564809B1 (ko) | 블록 기반 고속 센서스 변환을 이용한 스테레오 매칭 방법 및 그 장치 | |
CN115861754A (zh) | 一种低照度条件下的红外与可见光图像的融合方法 | |
Tan et al. | 3D detection transformer: Set prediction of objects using point clouds | |
Liu et al. | CMLocate: A cross‐modal automatic visual geo‐localization framework for a natural environment without GNSS information | |
CN115660984A (zh) | 一种图像高清还原方法、装置及存储介质 | |
CN115272768A (zh) | 内容识别方法、装置、设备、存储介质及计算机程序产品 | |
CN113222016A (zh) | 一种基于高层和低层特征交叉增强的变化检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |