CN117496187A - 一种光场图像显著性检测方法 - Google Patents

一种光场图像显著性检测方法 Download PDF

Info

Publication number
CN117496187A
CN117496187A CN202311535437.0A CN202311535437A CN117496187A CN 117496187 A CN117496187 A CN 117496187A CN 202311535437 A CN202311535437 A CN 202311535437A CN 117496187 A CN117496187 A CN 117496187A
Authority
CN
China
Prior art keywords
focus stack
feature map
image
original
stack
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311535437.0A
Other languages
English (en)
Other versions
CN117496187B (zh
Inventor
郑馨
李争取
王伯阳
徐奇奇
刘德阳
李�杰
王远志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anqing Normal University
Original Assignee
Anqing Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anqing Normal University filed Critical Anqing Normal University
Priority to CN202311535437.0A priority Critical patent/CN117496187B/zh
Publication of CN117496187A publication Critical patent/CN117496187A/zh
Application granted granted Critical
Publication of CN117496187B publication Critical patent/CN117496187B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种光场图像显著性检测方法,具体包括以下步骤:获取原始聚焦栈图像;基于所述原始聚焦栈图像,获取新全聚焦栈图像;对所述原始聚焦栈图像和所述新全聚焦栈图像进行特征提取,获取原始聚焦栈特征图和新全聚焦栈特征图;对所述原始聚焦栈特征图和所述新全聚焦栈特征图进行多特征融合,获取目标融合特征图;利用所述目标融合特征图,生成最终显著图。本发明可以获得与输入光场全聚焦图片相同分辨率的显著图,满足目标追踪、语义分割等下游任务的需求。

Description

一种光场图像显著性检测方法
技术领域
本发明属于图像处理技术领域,尤其涉及一种光场图像显著性检测方法。
背景技术
光场图像记录了场景中光线的空间与角度信息,因而可以更完整的表征现实场景中的丰富信息,使用光场图像中的聚焦栈图像与全聚焦图像进行显著性检测可以有效提高显著性检测的效率。但是,仅仅将原始的聚焦栈图像与全聚焦图像进行特征融合无法充分挖掘聚焦栈图像的特性,也不能充分捕获两种模态之间的高频信息,无法实现对两种模态信息的充分利用已成为制约光场显著性检测的主要瓶颈。
因此,亟需一种光场图像显著性检测方法,以解决现有技术中的不足之处。
发明内容
本发明的目的在于提出一种光场图像显著性检测方法,通过使用基于聚焦栈与全聚焦的两种光场图像表征形式,并基于这两种表征方式提供一种光场图像显著性检测方法来对光场图像生成显著图。
为实现上述目的,本发明提供了一种光场图像显著性检测方法,包括以下步骤:
获取原始聚焦栈图像;
基于所述原始聚焦栈图像,获取新全聚焦栈图像;
对所述原始聚焦栈图像和所述新全聚焦栈图像进行特征提取,获取原始聚焦栈特征图和新全聚焦栈特征图;
对所述原始聚焦栈特征图和所述新全聚焦栈特征图进行多特征融合,获取目标融合特征图;
利用所述目标融合特征图,生成最终显著图。
可选的,获取所述原始聚焦栈图像包括:
从光场图像中提取光场聚焦栈图像;
将所述光场聚焦栈图像按照通道数的比例进行划分,获取所述原始聚焦栈图像。
可选的,基于所述原始聚焦栈图像,获取所述新全聚焦栈图像包括:
从光场图像中提取全聚焦图像;
将原始聚焦栈图像按预定顺序取出,通过卷积操作,获取每张聚焦栈图像的特征图;
将每张所述聚焦栈图像的特征图和所述全聚焦图像进行可变卷积操作,获取所述新全聚焦栈图像。
可选的,对所述原始聚焦栈图像和所述新全聚焦栈图像进行特征提取,获取所述原始聚焦栈特征图和所述新全聚焦栈特征图包括:
将所述原始聚焦栈图像和所述新全聚焦栈图像输入PVT模型进行特征提取,获取所述原始聚焦栈特征图和所述新全聚焦栈特征图。
可选的,对所述原始聚焦栈特征图和所述新全聚焦栈特征图进行多特征融合,获取所述目标融合特征图包括:
利用卷积长短时记忆将所述原始聚焦栈特征图和所述新全聚焦栈特征图的维度进行统一,并使用膨胀卷积模型,将所述原始聚焦栈特征图和所述新全聚焦栈特征图的通道数统一,获取目标原始聚焦栈特征图和目标新全聚焦栈特征图;
将所述目标原始聚焦栈特征图和所述目标新全聚焦栈特征图分级级联,获取融合后的特征图;
利用显著图真值GT对所述融合后的特征图进行监督,然后采用上采样操作将融合后的多级特征分辨率进行统一,并进行特征相加,获取所述目标融合特征图。
可选的,利用卷积长短时记忆将所述原始聚焦栈特征图和所述新全聚焦栈特征图的维度进行统一,并使用膨胀卷积模型,将所述原始聚焦栈特征图和所述新全聚焦栈特征图的通道数统一为:
其中,In为维度统一后的全新聚焦堆栈图像,Fn为维度统一后的原始堆栈图像,RFB是指膨胀卷积模块,ConvLSTM是指ConvLSTM卷积模块,为新全聚焦栈图像,/>为原始聚焦栈图。
可选的,利用显著图真值GT对所述融合后的特征图进行监督的过程中采取交叉熵损失。
可选的,利用所述目标融合特征图,生成所述最终显著图包括:
将所述目标融合特征图视为潜在特征编码,并输入局部隐函数,生成显著图;
对所述显著图的坐标进行位置编码,获取编码后的高频坐标信号;
将所述编码后的高频坐标信号和所述潜在特征编码输入所述局部隐函数,获取对应坐标的像素值;
通过遍历每个所述坐标,得到每个所述坐标对应的像素值,并生成所述最终显著图。
可选的,通过遍历每个所述坐标,得到每个所述坐标对应的像素值,并生成所述最终显著图包括:
M(xq)=fθ(z*,ψ(xq))
其中,fθ(·)是指局部隐函数模块,通过多层感知机的方式实现,M(·)是根据输入的潜在编码z*与坐标ψ(xq)预测得到的像素值。
本发明具有以下有益效果:与将原始的聚焦栈图像与全聚焦图像进行直接特征融合不同,本发明充分挖掘聚焦栈图像隐式的蕴含场景的深度信息这一特性,首先将单张全聚焦图像膨胀为数量为12的新全聚焦栈图像,从而在整体上扩大了网络中蕴含的深度信息;之后为了增强在显著性检测中有益的高频信息,使用局部隐函数中的高频坐标建立与潜在编码特征中的映射关系,最终得到了高频信号增强的显著图,从而生成了更为完整清晰的显著图,满足目标追踪、语义分割等下游任务的需求。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本发明实施例一种光场图像显著性检测方法的流程图。
具体实施方式
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
如图1所示,本实施例提供一种光场图像显著性检测方法,通过将聚焦堆栈中隐含的深度信息传递到全聚焦图上,将全聚焦图的数量进行膨胀,得到全新的全聚焦堆栈,从而充分利用隐式的深度信息,同时利用局部隐函数的高频坐标特性,实现对两种模态特征的高频信号增强,最后得到显著图,可以实现对聚焦栈图像特性的挖掘以及对两种模态信息的充分利用,具体包括以下步骤:
步骤一、利用12张光场聚焦栈图像作为引导,输入全聚焦图像膨胀模块,将1张全聚焦图像膨胀为12张新全聚焦图像栈;
从光场图像中提取光场聚焦栈图像F,维度为1×36×w×h,其中,1为光场聚焦栈图像的个数,w×h为光场聚焦栈图像F中单张聚焦栈图像的空间分辨率,36为聚焦栈图像的36个通道。首先,将12张光场聚焦栈图像F按照通道数为3的比例进行划分,得到12张通道数为3的原始聚焦栈图像;将12张原始聚焦栈图像记为其中,下标k表示的是原始聚焦栈图像的个数,从1到12。
从光场图像中提取全聚焦图像R,维度为1×3×w×h,其中,1为光场全聚焦图像的个数,w×h为光场全聚焦图像F中图像的空间分辨率,3为全聚焦图像的三个通道,将1张全聚焦图像记为F0
将得到的按照k=1,2,…,K的顺序取出,通过卷积操作得到每个Fk对应的特征图,即每张聚焦栈图像的特征图,记为Δpk,Δpk是指进行可变形卷积操作之前需要得到的offset图,具体描述为:
然后将得到的offset图与全聚焦图像F0进行可变性卷积操作,得到数量膨胀后的全聚焦堆栈图像记为其中,下标k表示的是新生成的全聚焦栈图像的个数,从1到12,具体描述为:
其中,DConv(·)是可变形卷积,卷积核大小为3×3,步长为1,填充值为1。
步骤二、对得到的新全聚焦栈图像与原始的聚焦栈图像分别进行特征提取;
将得到的新全聚焦栈图像与原始聚焦栈图/>输入网络模型PVT中,得到特征图/>与/>即两种模态信息,其中,上标n代表着输入网络后的层数,从1到4。其中,PVT网络模型采用主干网络模型。
步骤三、对步骤二中获得的两种模态信息进行多级特征融合;
利用卷积长短时记忆(ConvLSTM)将与/>的batchsize维度统一为1,并使用膨胀卷积模块,将/>与/>的通道数统一为32,具体描述为:
其中,In为维度统一后的全新聚焦堆栈图像,Fn为维度统一后的原始堆栈图像,ConvLSTM是指ConvLSTM卷积模块,用于实现对batchsize维度的压缩,RFB是指膨胀卷积模块,用于增大感受野的同时压缩通道数。
将得到的特征图In与Fn分级级联,得到融合后的特征Zn,具体描述为:
Zn=Concat(In,Fn)(n=1,...,4) (5)
其中,Concat(·)代表级联操作。
为了使模型加速收敛同时更好的实现多级特征的融合,使用显著图真值GT对得到的融合特征进行监督,监督采取交叉熵损失,具体描述为:
其中,Lfuse为多层特征的交叉熵损失之和,loss(·)为交叉熵损失。
然后使用上采样操作将融合后的多级特征分辨率统一为256×256,并进行特征相加,得到融合后的特征。具体描述为:
z*=Sum(Up(Zn))(n=1,...,4) (7)
其中,Up(·)表示将得到的不同分辨率的特征图统一至256×256,Sum(·)表示将统一分辨率后的多级特征进行逐元素相加,得到最终的融合特征z*
步骤四、将步骤三中获得的特征图视为潜在特征编码,使用局部表征隐函数建立潜在特征编码与最终显著图坐标之间的映射关系,并通过多层感知机学习到这一局部隐函数,同时利用坐标的高频特性,对输出特征图的高频信号进行增强,生成最终的显著图;
将融合后的特征z*视为潜在编码,输入局部隐函数得到显著图S,同时为了更好的表征高频信号,对坐标xq进行位置编码,从而将坐标拓展至高频坐标,具体描述为:
其中,ω1为2e,ωL为2eL,x为坐标xq。L是可以修改的网络超参数,本实施例设置为8。
再将编码过的高频坐标信号ψ(x)与潜在编码z*输入局部隐函数中,得到对应坐标的像素值。通过遍历所有坐标,得到所有坐标对应的像素值,并生成最终的显著图具体描述为:
M(xq)=fθ(z*,ψ(xq)) (9)
其中,fθ(·)是指局部隐函数模块,通过多层感知机的方式实现,M(·)是根据输入的潜在编码z*与坐标ψ(xq)预测得到的像素值。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。

Claims (9)

1.一种光场图像显著性检测方法,其特征在于,具体包括以下步骤:
获取原始聚焦栈图像;
基于所述原始聚焦栈图像,获取新全聚焦栈图像;
对所述原始聚焦栈图像和所述新全聚焦栈图像进行特征提取,获取原始聚焦栈特征图和新全聚焦栈特征图;
对所述原始聚焦栈特征图和所述新全聚焦栈特征图进行多特征融合,获取目标融合特征图;
利用所述目标融合特征图,生成最终显著图。
2.如权利要求1所述的一种光场图像显著性检测方法,其特征在于,获取所述原始聚焦栈图像包括:
从光场图像中提取光场聚焦栈图像;
将所述光场聚焦栈图像按照通道数的比例进行划分,获取所述原始聚焦栈图像。
3.如权利要求1所述的一种光场图像显著性检测方法,其特征在于,基于所述原始聚焦栈图像,获取所述新全聚焦栈图像包括:
从光场图像中提取全聚焦图像;
将原始聚焦栈图像按预定顺序取出,通过卷积操作,获取每张聚焦栈图像的特征图;
将每张所述聚焦栈图像的特征图和所述全聚焦图像进行可变卷积操作,获取所述新全聚焦栈图像。
4.如权利要求1所述的一种光场图像显著性检测方法,其特征在于,对所述原始聚焦栈图像和所述新全聚焦栈图像进行特征提取,获取所述原始聚焦栈特征图和所述新全聚焦栈特征图包括:
将所述原始聚焦栈图像和所述新全聚焦栈图像输入PVT模型进行特征提取,获取所述原始聚焦栈特征图和所述新全聚焦栈特征图。
5.如权利要求1所述的一种光场图像显著性检测方法,其特征在于,对所述原始聚焦栈特征图和所述新全聚焦栈特征图进行多特征融合,获取所述目标融合特征图包括:
利用卷积长短时记忆将所述原始聚焦栈特征图和所述新全聚焦栈特征图的维度进行统一,并使用膨胀卷积模型,将所述原始聚焦栈特征图和所述新全聚焦栈特征图的通道数统一,获取目标原始聚焦栈特征图和目标新全聚焦栈特征图;
将所述目标原始聚焦栈特征图和所述目标新全聚焦栈特征图分级级联,获取融合后的特征图;
利用显著图真值GT对所述融合后的特征图进行监督,然后采用上采样操作将融合后的多级特征分辨率进行统一,并进行特征相加,获取所述目标融合特征图。
6.如权利要求5所述的一种光场图像显著性检测方法,其特征在于,利用卷积长短时记忆将所述原始聚焦栈特征图和所述新全聚焦栈特征图的维度进行统一,并使用膨胀卷积模型,将所述原始聚焦栈特征图和所述新全聚焦栈特征图的通道数统一为:
其中,In为维度统一后的全新聚焦堆栈图像,Fn为维度统一后的原始堆栈图像,RFB是指膨胀卷积模块,ConvLSTM是指ConvLSTM卷积模块,为新全聚焦栈图像,/>为原始聚焦栈图。
7.如权利要求5所述的一种光场图像显著性检测方法,其特征在于,利用显著图真值GT对所述融合后的特征图进行监督的过程中采取交叉熵损失。
8.如权利要求1所述的一种光场图像显著性检测方法,其特征在于,利用所述目标融合特征图,生成所述最终显著图包括:
将所述目标融合特征图视为潜在特征编码,并输入局部隐函数,生成显著图;
对所述显著图的坐标进行位置编码,获取编码后的高频坐标信号;
将所述编码后的高频坐标信号和所述潜在特征编码输入所述局部隐函数,获取对应坐标的像素值;
通过遍历每个所述坐标,得到每个所述坐标对应的像素值,并生成所述最终显著图。
9.如权利要求8所述的一种光场图像显著性检测方法,其特征在于,通过遍历每个所述坐标,得到每个所述坐标对应的像素值,并生成所述最终显著图包括:
M(xq)=fθ(z*,ψ(xq))
其中,fθ(·)是指局部隐函数模块,通过多层感知机的方式实现,M(·)是根据输入的潜在编码z*与坐标ψ(xq)预测得到的像素值。
CN202311535437.0A 2023-11-15 2023-11-15 一种光场图像显著性检测方法 Active CN117496187B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311535437.0A CN117496187B (zh) 2023-11-15 2023-11-15 一种光场图像显著性检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311535437.0A CN117496187B (zh) 2023-11-15 2023-11-15 一种光场图像显著性检测方法

Publications (2)

Publication Number Publication Date
CN117496187A true CN117496187A (zh) 2024-02-02
CN117496187B CN117496187B (zh) 2024-06-11

Family

ID=89670630

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311535437.0A Active CN117496187B (zh) 2023-11-15 2023-11-15 一种光场图像显著性检测方法

Country Status (1)

Country Link
CN (1) CN117496187B (zh)

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105701813A (zh) * 2016-01-11 2016-06-22 深圳市未来媒体技术研究院 一种光场图像的显著性检测方法
CN105913070A (zh) * 2016-04-29 2016-08-31 合肥工业大学 一种基于光场相机的多线索显著性提取方法
EP3200151A1 (en) * 2016-01-29 2017-08-02 Thomson Licensing Method and device for obtaining a depth map
CN107609460A (zh) * 2017-05-24 2018-01-19 南京邮电大学 一种融合时空双重网络流和attention机制的人体行为识别方法
CN109271494A (zh) * 2018-08-10 2019-01-25 西安交通大学 一种自动提取中文问答语句焦点的系统
US20190324781A1 (en) * 2018-04-24 2019-10-24 Epiance Software Pvt. Ltd. Robotic script generation based on process variation detection
CN110751160A (zh) * 2019-10-30 2020-02-04 华中科技大学 图像中物体的检测方法、装置及系统
US20210232850A1 (en) * 2020-01-23 2021-07-29 Adobe Inc. Generating Descriptions of Image Relationships
CN114549863A (zh) * 2022-04-27 2022-05-27 西安电子科技大学 一种基于像素级噪声标签监督的光场显著性目标检测方法
CN115410150A (zh) * 2022-08-22 2022-11-29 中国神华能源股份有限公司哈尔乌素露天煤矿 传送带跑偏的检测方法、检测装置和处理器
CN115482178A (zh) * 2022-09-23 2022-12-16 佛山科学技术学院 基于显著特征差异的多聚焦图像融合方法及系统
CN116097308A (zh) * 2020-08-21 2023-05-09 华为技术有限公司 自动摄影构图推荐
CN116229222A (zh) * 2022-12-15 2023-06-06 北京大学深圳研究生院 一种基于隐式图学习的光场显著性目标检测方法及装置
CN116634287A (zh) * 2023-06-16 2023-08-22 清华大学深圳国际研究生院 一种聚焦式全光图像压缩的方法
CN116684732A (zh) * 2023-06-02 2023-09-01 太原理工大学 一种基于重聚焦光场检测的图像处理方法

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105701813A (zh) * 2016-01-11 2016-06-22 深圳市未来媒体技术研究院 一种光场图像的显著性检测方法
EP3200151A1 (en) * 2016-01-29 2017-08-02 Thomson Licensing Method and device for obtaining a depth map
CN105913070A (zh) * 2016-04-29 2016-08-31 合肥工业大学 一种基于光场相机的多线索显著性提取方法
CN107609460A (zh) * 2017-05-24 2018-01-19 南京邮电大学 一种融合时空双重网络流和attention机制的人体行为识别方法
US20190324781A1 (en) * 2018-04-24 2019-10-24 Epiance Software Pvt. Ltd. Robotic script generation based on process variation detection
CN109271494A (zh) * 2018-08-10 2019-01-25 西安交通大学 一种自动提取中文问答语句焦点的系统
CN110751160A (zh) * 2019-10-30 2020-02-04 华中科技大学 图像中物体的检测方法、装置及系统
US20210232850A1 (en) * 2020-01-23 2021-07-29 Adobe Inc. Generating Descriptions of Image Relationships
CN116097308A (zh) * 2020-08-21 2023-05-09 华为技术有限公司 自动摄影构图推荐
CN114549863A (zh) * 2022-04-27 2022-05-27 西安电子科技大学 一种基于像素级噪声标签监督的光场显著性目标检测方法
CN115410150A (zh) * 2022-08-22 2022-11-29 中国神华能源股份有限公司哈尔乌素露天煤矿 传送带跑偏的检测方法、检测装置和处理器
CN115482178A (zh) * 2022-09-23 2022-12-16 佛山科学技术学院 基于显著特征差异的多聚焦图像融合方法及系统
CN116229222A (zh) * 2022-12-15 2023-06-06 北京大学深圳研究生院 一种基于隐式图学习的光场显著性目标检测方法及装置
CN116684732A (zh) * 2023-06-02 2023-09-01 太原理工大学 一种基于重聚焦光场检测的图像处理方法
CN116634287A (zh) * 2023-06-16 2023-08-22 清华大学深圳国际研究生院 一种聚焦式全光图像压缩的方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
FEI LI等: "Depth-guided Deformable Convolutions for RGB-D Saliency Object Detection", 《2021 6TH INTERNATIONAL CONFERENCE ON COMMUNICATION, IMAGE AND SIGNAL PROCESSING (CCISP)》, 17 December 2021 (2021-12-17), pages 234 - 239 *
GENG CHEN等: "Fusion-Embedding Siamese Network for Light Field Salient Object Detection", 《IEEE TRANSACTIONS ON MULTIMEDIA 》, vol. 26, 10 May 2023 (2023-05-10), pages 984 - 994 *
SAEED KHAKI等: "A CNN-RNN Framework for Crop Yield Prediction", 《FRONTIERS IN PLANT SCIENCE》, vol. 10, 24 January 2020 (2020-01-24), pages 1 - 14 *
TIANYOU CHEN等: "Spatiotemporal context-aware network for video salient object detection", 《 NEURAL COMPUTING AND APPLICATIONS》, vol. 34, 20 May 2022 (2022-05-20), pages 16861 *
刘亚美等: "光场显著性检测研究综述", 《中国图象图形学报》, vol. 25, no. 12, 16 December 2020 (2020-12-16), pages 2465 - 2483 *
李啸: "复杂场景下基于光场技术的显著性检测研究", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》, no. 02, 15 February 2020 (2020-02-15), pages 138 - 1920 *
黄泽丰等: "基于MDLatLRR和KPCA的光场图像全聚焦融合", 《光子学报》, vol. 52, no. 04, 27 February 2023 (2023-02-27), pages 255 - 269 *

Also Published As

Publication number Publication date
CN117496187B (zh) 2024-06-11

Similar Documents

Publication Publication Date Title
US11348270B2 (en) Method for stereo matching using end-to-end convolutional neural network
JP6471448B2 (ja) 視差深度画像のノイズ識別方法及びノイズ識別装置
CN112001914A (zh) 深度图像补全的方法和装置
CN115147598B (zh) 目标检测分割方法、装置、智能终端及存储介质
CN112381828B (zh) 基于语义和深度信息的定位方法、装置、介质与设备
CN113076957A (zh) 一种基于跨模态特征融合的rgb-d图像显著性目标检测方法
CN113486887B (zh) 三维场景下的目标检测方法和装置
CN113869138A (zh) 多尺度目标检测方法、装置及计算机可读存储介质
Luo et al. Convolutional neural networks-based stereo image reversible data hiding method
Naik et al. Video classification using 3D convolutional neural network
EP3343445A1 (en) Method and apparatus for encoding and decoding lists of pixels
CN114092774A (zh) 基于信息流融合的rgb-t图像显著性检测系统及检测方法
CN115601321A (zh) 基于双向特征融合金字塔ssd的铁矿石异物识别方法
Ma et al. Adjacent bi-hierarchical network for scene parsing of remote sensing images
Shelke et al. DBFS: Dragonfly Bayes Fusion System to detect the tampered JPEG image for forensic analysis
Ma et al. MSFNET: multi-stage fusion network for semantic segmentation of fine-resolution remote sensing data
CN117496187B (zh) 一种光场图像显著性检测方法
KR101564809B1 (ko) 블록 기반 고속 센서스 변환을 이용한 스테레오 매칭 방법 및 그 장치
Tan et al. 3D detection transformer: Set prediction of objects using point clouds
CN115861754A (zh) 一种低照度条件下的红外与可见光图像的融合方法
CN111008555B (zh) 一种无人机图像弱小目标增强提取方法
CN113222016A (zh) 一种基于高层和低层特征交叉增强的变化检测方法及装置
Zou et al. Group‐Based Atrous Convolution Stereo Matching Network
Ding et al. Semi-U-Net: A Lightweight Deep Neural Network for Subject-Sensitive Hashing of HRRS Images
Liu et al. Enhancing Point Features with Spatial Information for Point‐Based 3D Object Detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant